Сем Альтман попередив про ризики довіри до ChatGPT

Сем Альтман, генеральний директор OpenAI, заявив в інтерв’ю для подкасту This Past Weekend, що обговорення, що проводяться приватно з ChatGPT, не мають юридичного захисту. Він зазначив, що за потреби суд може вимагати доступу до всієї інформації, якою користувачі обмінюються з чат-ботом.
«Ваші розмови з терапевтом, адвокатом чи лікарем захищені законами про конфіденційність. Ми ще не встановили аналогічних стандартів для взаємодії з ChatGPT», – зазначив Альтман.
Він уточнив, що якщо користувач довіряє «дуже особисту інформацію» чат-боту, OpenAI може розкрити ці дані правоохоронним органам за запитом.
«Ось чому я іноді вагаюся користуватися певними сервісами штучного інтелекту — ніколи не знаєш, скільки персональних даних їм варто довірити і де вони можуть опинитися», — додав він.
Альтман визнав, що відсутність правових гарантій є значною проблемою. Він брав участь у дискусіях з численними політиками, всі з яких погоджуються, що вкрай важливо створити правову базу, яка гарантуватиме конфіденційність спілкування зі штучним інтелектом.
Лідер OpenAI також застеріг, що поширення штучного інтелекту може посилити державний нагляд. Він заявив, що влада спробує регулювати використання штучного інтелекту нібито для стримування злочинної діяльності.
Альтман висловив готовність піти на компроміс щодо конфіденційності заради громадської безпеки, але він побоюється, що правоохоронні органи можуть «перевищити відповідні межі».
Нагадаємо, що у березні OpenAI та Массачусетський технологічний інститут провели дослідження, що вивчало зв’язок між самотністю та використанням ChatGPT, у якому взяли участь 1000 учасників.
Крім того, у липні компанія запустила нового універсального агента на базі штучного інтелекту в чат-боті, який може виконувати різноманітні обчислювальні завдання від імені користувача.
