Meta стверджує, що «виправляє» проблему, яка призвела до помилкового блокування груп Facebook, однак заперечує, що на її платформах існує масштабніша проблема.
На інтернет-форумах адміністратори груп повідомляють, що вони отримали автоматичні повідомлення, у яких помилково стверджувалося, що вони порушили політику, і тому їхні групи було видалено.
Деякі користувачі Instagram скаржилися на аналогічні проблеми зі своїми акаунтами, причому багато хто звинувачував у цьому системи штучного інтелекту (ШІ) Meta.
Компанія Meta визнала наявність «технічної помилки» у групах Facebook, але заявила, що не побачила доказів суттєвого зростання випадків некоректного застосування її правил на платформах у ширшому розрізі.
Згідно з повідомленням її засновника, одній із груп Facebook, де користувачі діляться мемами про комах, повідомили, що вона не дотримується стандартів щодо «небезпечних організацій або осіб».
Групу, що налічує понад 680 000 учасників, було видалено, але тепер відновлено.
Інший адміністратор, який керує групою на тему штучного інтелекту, що налічує 3,5 мільйона учасників, опублікував на Reddit повідомлення про те, що його групу й його власний акаунт було заблоковано на кілька годин, а пізніше Мета сказала йому: «Наша технологія припустилася помилки, заблокувавши вашу групу».
Тисячі підписів
Це відбулося на тлі того, що Meta стикається з питаннями тисяч людей щодо масового блокування або призупинення дії акаунтів у Facebook та Instagram.
Петиція під назвою «Meta неправомірно відключає акаунти без будь-якої підтримки клієнтів» на момент написання статті на change.org зібрала майже 22 000 підписів.
Тим часом у гілці Reddit, присвяченій цій проблемі, багато людей діляться своїми історіями про те, як їх заблокували за останні місяці.
Деякі повідомляли про втрату доступу до сторінок, що мають значну сентиментальну цінність, тоді як інші наголошували, що втратили акаунти, пов’язані з їхнім бізнесом.
Надходять навіть заяви про те, що користувачів було заблоковано після того, як Meta звинуватила їх у порушенні політики компанії щодо сексуальної експлуатації дітей.
Користувачі звинуватили в цьому штучний інтелект Meta, додавши, що практично неможливо поговорити з людиною про свій акаунт після того, як його було заблоковано або забанено.
BBC News не проводила незалежну перевірку цих тверджень.
У своєму заявленні Мета сказала: «Ми вживаємо заходів щодо акаунтів, які порушують нашу політику, і люди можуть подати апеляцію, якщо вважають, що ми припустилися помилки».
Компанія заявила, що використовує поєднання людей і технологій для пошуку й видалення облікових записів, що порушують її правила, і не знає про різке збільшення кількості помилкових блокувань облікових записів.
Instagram заявляє на своєму сайті, що ШІ «є центральним елементом нашого процесу перевірки контенту». Він стверджує, що ШІ може виявляти й видаляти контент, який суперечить стандартам спільноти, перш ніж хтось на нього поскаржиться, тоді як у певних випадках контент надсилається рецензентам-людям.
Облікові записи Meta Ads можуть бути відключені після одного серйозного порушення, наприклад публікації контенту, пов’язаного із сексуальною експлуатацією дітей.

«Ми вживаємо заходів щодо акаунтів, які порушують нашу політику, і люди можуть подати апеляцію, якщо вважають, що ми припустилися помилки», — додав представник.
Гігант соціальних мереж також повідомив BBC, що використовує поєднання технологій і людей для пошуку й видалення акаунтів, що порушують його правила, і ділиться даними про вжиті заходи у своєму звіті про дотримання стандартів спільноти.
У своїй останній версії, що охоплює період із січня по березень цього року, Meta повідомила, що вжила заходів у 4,6 млн випадків сексуальної експлуатації дітей — найнижчий показник із перших місяців 2021 року. Наступну редакцію звіту про прозорість буде оприлюднено за кілька місяців.
Meta стверджує, що її політика щодо сексуальної експлуатації дітей стосується дітей і «нереальних зображень із людською схожістю», таких як мистецтво, контент, створений штучним інтелектом, чи вигадані персонажі.
Компанія Meta також повідомила BBC, що використовує технологію для виявлення потенційно підозрілої поведінки, наприклад коли підлітки повідомляють про порушення в акаунтах дорослих або коли дорослі постійно шукають «шкідливі» терміни.
Це може призвести до того, що ці акаунти у майбутньому не зможуть контактувати з молодими людьми або будуть повністю видалені.
Джерело: https://www.bbc.com/news/articles/c3r9nwgvwy3o