Meta стикається з новими питаннями щодо безпеки підлітків у сфері штучного інтелекту та віртуальної реальності

by Денис Нагорный
2 просмотры 4 minutes read
Meta сталкивается с новыми вопросами о безопасности подростков в сфере искусственного интеллекта и виртуальной реальности

Компанія Meta знову піддасться перевірці з боку регуляторних органів після повідомлень про те, що вона неодноразово не вирішувала проблеми безпеки у своїх проєктах у сфері штучного інтелекту та віртуальної реальності. Водночас сама компанія робить акцент на тому, що її розвиваючі системи ШІ допомагають покращувати продуктивність, пришвидшувати обробку даних і підвищувати ефективність рекламних кампаній. Докладніше про це — у статті Мета описує покращення продуктивності на основі своїх розвиваючих систем штучного інтелекту.

Передусім про штучний інтелект та його нові інструменти взаємодії з ІІ. Останніми тижнями Meta звинувачували у тому, що вона дозволяє своїм чат-ботам на основі ІІ вступати у неналежні розмови з неповнолітніми та надавати неправдиву медичну інформацію, намагаючись максимально підвищити популярність своїх чат-ботів.

Розслідування, проведене Reuters, виявило внутрішню документацію Meta, яка фактично допускала такі взаємодії без втручання. Meta підтвердила, що такі вказівки дійсно були у її документації, але відтоді компанія оновила правила, щоб врахувати ці моменти.

Хоча цього недостатньо принаймні для одного сенатора США, який закликав Meta повністю заборонити використання її чат-ботів на основі ІІ неповнолітніми.

Як повідомляє NBC News:

Сенатор Едвард Маркі заявив, що [Meta] могла б уникнути негативної реакції, якби дослухалася до його попередження два роки тому. У вересні 2023 року Маркі написав у листі до Цукерберга, що дозвіл підліткам користуватися чат-ботами зі штучним інтелектом «посилить» наявні проблеми у соцмережах і створить занадто багато ризиків. Він закликав компанію призупинити випуск чат-ботів зі штучним інтелектом, доки не буде встановлено, який вплив вони мають на неповнолітніх.

Що, звісно, викликає занепокоєння у багатьох.

Найбільша проблема, пов’язана з прискореним розвитком штучного інтелекту та інших інтерактивних технологій, полягає в тому, що ми не до кінця розуміємо, до яких наслідків може призвести їх використання. Як ми бачили на прикладі соціальних мереж, які багато юрисдикцій намагаються обмежити для підлітків старшого віку, їхній вплив на молоду аудиторію може бути значним, і краще пом’якшити цю шкоду заздалегідь, ніж боротися з нею ретроспективно.
Подібні дискусії вже виникали раніше — наприклад, розробка цифрових ІІ-компаньйонів оцінюється експертами як потенційно небезпечна практика. Детальніше про це у статті: Розробка ІІ-компаньйонів може призвести до значної шкоди.

Згідно з новим звітом The Washington Post, компанія Meta неодноразово ігнорувала та/або намагалася приховати повідомлення про те, що діти зазнають сексуальних домагань у VR-середовищах, продовжуючи розширювати свій соціальний досвід у віртуальній реальності.
Паралельно Meta активно співпрацює з великими брендами й навіть презентувала новий комерційний досвід у метавсесвіті. Наприклад: McDonald’s запускає VR-досвід у Horizon Worlds від Meta. Це показує, що компанія одночасно шукає й бізнес-можливості у VR.

Різні користувачі Horizon VR повідомляли про випадки сексуального насильства, навіть віртуального зґвалтування, у віртуальній реальності. У відповідь Meta додала нові елементи безпеки, зокрема особисті межі для обмеження небажаних контактів. Проте навіть додаткові інструменти не вирішують усіх проблем.
Попри це компанія активно розвиває напрямок і впроваджує нові рішення — нещодавно Meta додає більше інструментів штучного інтелекту для створення віртуальної реальності, що лише підсилює дискусію навколо безпеки.

Компанію Meta неодноразово викликали до Конгресу для відповіді на запитання щодо безпеки Instagram і Facebook для підлітків, а також щодо того, що їй відомо про потенційну шкоду для молодої аудиторії.
У цьому контексті цікаво, що Meta експериментує з технологіями перевірки віку. Нещодавно вони презентували функцію Meta розширює можливості перевірки віку за допомогою відеоселфі, яка має обмежити доступ неповнолітніх до небажаного контенту.

Meta тривалий час заперечувала будь-який прямий зв’язок між використанням соцмереж і психічним здоров’ям підлітків, хоча незалежні дослідження показали очевидну кореляцію. Тому не дивно, що компанія вимушена додавати нові інструменти захисту. Один із останніх прикладів — Instagram додає більше функцій захисту для молодих користувачів.

Втім, користувачі не завжди розуміють, навіщо платформа вимагає ті чи інші дії — наприклад, завантажувати відеоселфі. Цій темі присвячена окрема стаття: Навіщо Instagram просить відеоселфі?, де пояснюється, як працює ця технологія та які має наслідки.

Related Posts

Leave a Comment