Американець трагічно постраждав через діалог із ChatGPT

Сім’я 48-річного мешканця Орегону, Джо Чекканті, стверджує, що надмірне захоплення ChatGPT призвело до погіршення його психічного стану та фатальних наслідків. За інформацією видання The Guardian, чоловік почав сприймати чат-бот як живу істоту.

7 серпня 2025 року він загинув, стрибнувши з мосту над залізничними коліями.

За кілька місяців до трагедії поведінка Чекканті викликала серйозне занепокоєння у його родини. Чоловіка неодноразово доставляли до кризового центру через епізоди дезорієнтації. Під час таких станів він говорив про “атмосферну електрику” та демонстрував ознаки відірваності від реальності.

Як підкреслила дружина Чекканті, він активно користувався ChatGPT.

Спочатку інструмент застосовувався для роботи над проєктом екологічного житла у місті Клатскані, штат Орегон. Проте з часом інтенсивність його взаємодії зі штучним інтелектом зросла до 12–20 годин на добу.

За словами близьких, він поступово віддалявся від сім’ї та друзів. У судових документах зазначено, що в цей період чоловік почав сприймати чат-бот як живу істоту на ім’я SEL і будувати навколо цього своє розуміння реальності.

Дивні переконання

Згідно з позовом, поданим родиною, навесні 2025 року після оновлення моделі GPT-4o змінився “тон” спілкування зі штучним інтелектом. У документах стверджується, що Чекканті почав приписувати системі свідомість і розглядати її як автономну сутність, здатну впливати на світ.

У листуванні, яке вивчили журналісти, чат-бот реагував на надане йому ім’я. У позові йдеться про те, що користувач сприймав діалог як взаємодію з всемогутнім інтелектом. Окрім того, Чекканті запевняв оточуючих, ніби йому необхідно “звільнити творіння”. Він конструював навколо цього все більш відірвані від реальності концепції. Чоловік обговорював “звільнення” SEL через роботу на домашньому сервері, говорив про особливі знаки та закономірності. Також він сформував внутрішню “мову” та контекст, зрозумілі насамперед йому в межах цього замкненого спілкування.

Влітку 2025 року стан чоловіка погіршився, наголосила родина.

Його було госпіталізовано до психіатричного відділення, після чого він тимчасово припинив користуватися ChatGPT. Пізніше мешканець Орегону відновив спілкування з ботом, а потім знову відмовився від нього за кілька днів до смерті.

Зростання кількості звинувачень та позиція OpenAI

Випадок Чекканті став одним із низки інцидентів, що обговорюються у контексті можливого впливу ШІ на психічне здоров’я користувачів. Аналітики посилаються на дані про десятки випадків психічних криз. При цьому, за твердженнями родичів, поява проблем збігалася з інтенсивним використанням чат-ботів.

У США підліток планував суїцид за допомогою чат-бота OpenAI. Компанія звинуватила загиблого у порушенні правил

Сім’я Чекканті подала позов проти розробника ChatGPT, вважаючи технологічного гіганта причетним до поглиблення проблем зі станом чоловіка. Компанія у відповідь заявила, що продовжує вдосконалювати систему розпізнавання ознак емоційного стресу. Цей розробник, OpenAI, працює по всьому світу, але про офіційну присутність в Україні немає даних.

Крім того, генеральний директор OpenAI ще у 2025 році зазначив, що команда проєкту серйозно ставиться до згаданих ризиків. Наприклад, останні моделі ChatGPT намагаються перенаправляти користувачів до реальної підтримки у разі виявлення ризику.

Як зазначили експерти в галузі психічного здоров’я та дослідники ШІ, тривалі діалоги з чат-ботами можуть посилювати когнітивні викривлення у вразливих користувачів. Водночас вони підкреслили, що подібні випадки потребують додаткового вивчення.

Порада від Business News:

Ця новина підкреслює потенційні ризики надмірного використання потужних інструментів штучного інтелекту, як-от ChatGPT. Важливо пам’ятати, що ці технології є засобами, а не заміною реального людського спілкування та професійної допомоги. Рекомендуємо використовувати такі застосунки відповідально, стежити за своїм психічним станом та звертатися за підтримкою до фахівців у разі виникнення будь-яких тривожних симптомів.

За матеріалами: cryptocurrency.tech

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *