Модератори контенту скаржилися на точність систем штучного інтелекту

Штучний інтелект ускладнює роль модераторів контенту замість того, щоб оптимізувати її. Bloomberg повідомляє, посилаючись на думки 13 галузевих експертів, що системам штучного інтелекту важко послідовно виявляти насильницькі або токсичні матеріали.

Співробітник TikTok під псевдонімом Кевін розповів, що понад рік тому йому доручили впровадити інструмент штучного інтелекту у свої щоденні завдання. Він стверджує, що рівень збоїв системи може сягати 70%, наводячи випадки, коли вона позначає незначні деталі, такі як попередження про низький рівень пального, водночас ігноруючи критичні елементи, такі як спідометр, що показує 200 км/год.

Незважаючи на ці недоліки, він вважає, що корпорації продовжуватимуть замінювати людських працівників автоматизованими рішеннями.

Модератори погоджуються: впровадження ШІ випереджає його здатність ефективно перевіряти небезпечний контент.

Фахівці застерігають від майбутнього цифрового ландшафту, в якому домінуватиме штучний інтелект, де мова ненависті, дезінформація, експлуатація дітей та подібні ризики можуть безконтрольно поширюватися.

«Використання штучного інтелекту для скорочення кількості персоналу служби безпеки лише знизить стандарти безпеки. Людський нагляд залишається важливим», – наголосив Ллойд Річардсон, технічний директор Канадського центру захисту дітей.

Психологічні труднощі, пов’язані з роботою модератора та проблемами з рекрутингом, зберігаються. Такі платформи, як YouTube, стикаються з напливом понад 20 мільйонів відео щодня. Хоча компанії надають пріоритет інтеграції штучного інтелекту, ці системи часто заважають, а не допомагають.

Серед 13 модераторів, опитаних Bloomberg, 12 відзначили збільшення складності роботи після впровадження нейронної мережі.

Кевін розповів, що витрачав значні години на виправлення помилок штучного інтелекту шляхом ручного позначення контенту — процес, який збільшує робоче навантаження та відволікає увагу від обов’язків з вищим пріоритетом.

Він підозрює, що його ретельні коригування ненавмисно навчають ту саму систему, яка має його замінити, навіть якщо керівництво уникає прямого підтвердження.

Раніше, у травні 2024 року, Reddit розпочав співпрацю з OpenAI, представивши інструменти на базі штучного інтелекту для модераторів та членів спільноти.

Источник

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *