Компанія OpenAI без розголосу видалила маркування зі своєї політики використання, що забороняє використовувати чат-бота ChatGPT у «військових цілях». Про це повідомляє The Intercept.
До 10 січня «Політика використання» містила заборону на «діяльність, пов’язану з високим ризиком фізичної шкоди, включно з розробкою зброї та військовими діями».
Нові положення зберігають заборону на використання послуг для «завдання шкоди собі або іншим» і наводять як приклад «розробку зброї», але повна заборона на «військове» застосування зникла.
За словами OpenAI, зміни покликані зробити документ «більш зрозумілим і читабельним».
«Такий принцип, як „не завдавай шкоди іншим“, є широким, але легко зрозумілим і актуальним у багатьох контекстах. Крім того, як яскраві приклади ми спеціально навели зброю та поранення інших людей», — заявив представник компанії.
Однак у фірмі так і не пояснили, чому зникло пов’язане з військовими формулювання.
Керуючий директор AI Now Майєрс Вест припустив, що штучний інтелект використовували для атак Ізраїлю по Сектору Газа. На його думку, саме тому OpenAI видалила заборону на військове застосування технологій.
Нагадаємо, у лютому 2023 року уряд США випустив декларацію про використання штучного інтелекту в збройних силах, що включає «людську відповідальність».
Раніше генеральний секретар ООН Антоніу Гутерріш закликав вжити заходів проти «роботів-убивць».