Віталік Бутерін виступив проти надмірної автономії ШІ

Віталік Бутерін, співзасновник Ethereum, висловив стурбованість щодо зростаючої тенденції до розробки «надмірно агентно-орієнтованих» систем штучного інтелекту, виступаючи за посилення людського контролю для підвищення якості та безпеки цих технологій.
Розмірковуючи над нещодавньою заявою @karpathy, мене досить дратує те, що значна частина розробки штучного інтелекту прагне бути максимально «агентною», тоді як фактичне включення *більшої кількості* можливостей для людського втручання не лише дає кращі результати (як зараз, так і в найближчому майбутньому), але й підвищує безпеку.
— vitalik.eth (@VitalikButerin) 11 серпня 2025 р.
«Мене турбує, що так багато творців штучного інтелекту прагнуть максимальної автономності системи, тоді як насправді надання більшої кількості можливостей для втручання людини не лише покращує результати (як зараз, так і в майбутньому), але й підвищує безпеку», – заявив він.
Зауваження Бутеріна були реакцією на коментар Андрія Карпатого, колишнього директора зі штучного інтелекту в Tesla, який зазначив, що великі мовні моделі, як правило, стають надмірно автономними через їхню оптимізацію для тривалих завдань. Наприклад, у контексті програмування цим моделям може знадобитися значний час для обробки навіть найпростіших запитів.
«Хоча це може бути доречним для довготривалих завдань, це менш ефективно для активної ітеративної розробки або швидких перевірок перед запуском скрипта. Я часто перериваю ШІ командами: «Припини аналіз. Зосередься виключно на цьому файлі. Уникай додаткових інструментів. Жодних зайвих рішень»», – наголосив він.
Бутерін погодився з точкою зору Карпати, стверджуючи, що надмірна автономія у штучному інтелекті знижує ефективність. Він вважає, що відкриті моделі, оснащені можливостями редагування, набагато перевершують ті, що генерують контент повністю з нуля.
Крім того, співзасновник Ethereum оптимістично налаштований щодо нейрокомп’ютерних інтерфейсів, які можуть відстежувати та адаптуватися до реакцій користувача на контент, який вони генерують, у режимі реального часу. Це дозволить штучному інтелекту враховувати людські наміри та очікування. Він зазначив, що сучасні моделі часто не враховують такі тонкощі, що підриває їхню практичність.
Реакція громади
Поряд з Бутеріним, погляди Карпатів підтримали й інші користувачі.
Я вчора перестав користуватися Курсором з цієї причини. Він постійно думає на п’ять кроків вперед у неправильному напрямку. Наразі я повертаюся до ручного копіювання та вставки з ChatGPT/Claude/Gemini.
— Баррі Фаркус ⏩️ (@paimon2cool) 9 серпня 2025 р.
«Вчора я відмовився від Cursor саме з цієї причини – він постійно просувається на п’ять кроків у неправильному напрямку. Наразі я повертаюся до ручного копіювання відповідей з ChatGPT/Claude/Gemini», – зазначив ентузіаст ШІ Баррі Фаркус.
Інженер-програміст Кан Каракас додав, що сучасні моделі штучного інтелекту, як правило, надмірно складні. «Це корисно для поглибленого аналізу, але перешкоджає прямим перевіркам», – зазначив він.
Однак не всі підтримали цю точку зору. Користувач на ім’я Конор стверджував, що Карпати обговорював поведінку за замовчуванням, яку можна змінити.
Ви більше зосереджуєтеся на поведінці за замовчуванням. Як завжди, ви можете підказувати та чітко описувати моделі, щоб досягти саме того, чого ви хочете (наприклад, буквально вставити цей твіт у системні інструкції та сказати: «пам’ятайте про це, коли розглядатимете цей запит»).
— Конор (@jconorgrogan) 9 серпня 2025 р.
«Ви можете чітко вказати моделям у запиті щодо ваших потреб (наприклад, буквально включити цей твіт до системних інструкцій та згадати щось на кшталт: «зверніть увагу на це під час виконання запиту»). Я не проти, щоб поведінка за замовчуванням була більш автономною, але так — якщо завдання виходять за ці межі, знадобляться точні інструкції», — прокоментував він.
Нагадаємо, 8 серпня OpenAI запустила свою флагманську модель штучного інтелекту GPT-5.
