Люди можуть потенційно втратити контроль над технологіями штучного інтелекту, тому цей сценарій необхідно врахувати заздалегідь. Про це заявив генеральний директор найбільшого виробника напівпровідникових чипів Arm Holdings Рене Хаас у бесіді з Bloomberg.
«Найбільше мене турбує, що люди втрачають можливості [через машини]. Потрібно створити якусь кнопку перезапуску, бекдор, спосіб відключити систему», — заявив він.
Однак CEO Arm наголосив на важливості ШІ в майбутньому розвитку компанії. За його оцінками, близько 70% населення світу взаємодіють із продуктами фірми.
Хаас сподівається, що протягом наступних 5-10 років Arm опиниться в центрі «технологічної революції», як це було за часів поширення смартфонів.
Компанія з Великої Британії володіла званням технологічного гіганта на початку 2010-х років, оскільки її напівпровідники закуповували найбільші постачальники техніки. Зараз її контрольний пакет акцій належить японському холдингу Softbank Group.
Наразі керівник Arm бачить перевагу в хмарних центрах обробки даних, оскільки створення і навчання мовних моделей вимагає великих обсягів інформації. У найближчому майбутньому Хаас планує зайняти 50% цього ринку.
Глава компанії також прагне домінувати в так званих «периферійних обчисленнях», коли ШІ-системи працюють на окремих пристроях, а не з централізованої хмари.
У травні адміністрація президента США Джо Байдена провела зустріч із керівниками Google, Microsoft, OpenAI та Anthropic, на якій обговорили пов’язані з ШІ ризики.
Пізніше CEO OpenAI Сем Альтман виступив перед Конгресом США і закликав уряд врегулювати використання і розробку технології.
Адміністрація президента також опублікувала указ, що встановлює нові стандарти безпеки та захисту штучного інтелекту. Згідно з документом, безвідповідальне використання ШІ може призвести до дискримінації, упередженості та інших зловживань.
Нагадаємо, у липні кінозірка й ексгубернатор штату Каліфорнія Арнольд Шварценеггер провів паралелі з реальним штучним інтелектом і «Скайнетом» із фільму «Термінатор», попередивши про зростальну загрозу.