Чи знищить людство штучний інтелект – відповідає співзасновник a16z Марк Андріссен

Штучний інтелект не знищить світ, а навпаки може стати його спасінням, вважає співзасновник Netscape та одного з найвпливовіших венчурних фондів Кремнієвої долини Andreessen Horowitz (a16z) Марк Андріссен. У блозі фонду він опублікував контроверсійну відповідь на побоювання щодо ШІ-загроз, що лунають дедалі голосніше. Forbes переказує головні аргументи

У Forbes Ukraine також є twitter. Якщо вам зручно читати нас там — підписуйтесь за цим посиланням.

Настала ера штучного інтелекту, і люди просто божеволіють. На щастя, я тут, щоб повідомити хороші новини: ШІ не знищить світ, а може врятувати його.

Що таке ШІ? Це застосування математики та програмного коду, аби навчити компʼютери розуміти, синтезувати та генерувати знання так, як це роблять люди. 

ШІ – це просто компʼютерна програма, як і будь-яка інша – вона запускається, отримує вхідні дані, обробляє їх та генерує результат. 

Чим ШІ не є: вбивчими програмами та роботами із фільмів, які оживають і вирішують вбити людську расу чи зруйнувати все якимось іншим чином. Чим може стати ШІ: способом поліпшити все, що нам подобається.

Чому ШІ може поліпшити все?

Людський інтелект робить широкий спектр життєвих результатів кращими. Розумніші люди досягають кращих результатів практично в будь-якій сфері діяльності.

Ба більше, людський інтелект – це важіль, яким ми користувалися протягом тисячоліть, аби створити світ, у якому ми живемо сьогодні. ШІ дає нам можливість значною мірою посилити людський інтелект.

Зростання продуктивності в економіці буде різко прискорюватися, сприяючи економічному зростанню, створенню нових галузей, нових робочих місць і зростанню заробітної плати, що приведе до нової ери підвищеного матеріального процвітання.

ШІ може допомогти нам краще зрозуміти світ, збільшити культурну свідомість і розширювати горизонти знань.

Звичайно, зʼявляються й етичні та соціальні питання, які потребують ретельного розгляду та регулювання, щоб максимізувати позитивні наслідки й мінімізувати негативні.

Марія Шарлай за допомогою ШІ MidJorney

Помилка – у хибній думці, що в економіці існує фіксована кількість роботи, яку можуть виконувати машини або люди. І якщо машини роблять цю роботу, то для людей її не залишиться Фото Марія Шарлай за допомогою ШІ MidJorney

Тож звідки паніка? На відміну від цього позитивного погляду, публічні розмови про штучний інтелект зараз пронизані істеричним страхом і параноєю.

Ми чуємо заяви, що штучний інтелект вб’є нас усіх, зруйнує наше суспільство, забере всі наші робочі місця, спричинить жахливу нерівність і дозволить поганим людям робити жахливі речі.

Цю моральну паніку різні субʼєкти вже використовують, щоб вимагати політичних дій – нових обмежень ШІ, правил і законів. Ці актори, які роблять надзвичайно драматичні публічні заяви про небезпеку штучного інтелекту, підживлюючи і розпалюючи моральну паніку, представляють себе самовідданими борцями за суспільне благо. Розгляньмо їхні аргументи по суті.

Ризик №1: Чи знищить штучний інтелект людство?

Перший і оригінальний ризик штучного інтелекту, за версією «думерів», полягає в тому, що штучний інтелект вирішить буквально знищити людство.

Страх того, що створена нами технологія повстане проти нас, закодований у нашій культурі. 

Я вважаю, що ідея про те, що штучний інтелект вирішить вбити людство, є помилкою. Штучний інтелект не жива істота, яку мільярди років еволюції підготували для участі в битві за виживання.  

Це математика – код – компʼютери, що побудовані, належать людям, використовуються та контролюються людьми. Ідея, що в якийсь момент він розвине власний розум і вирішить, що має мотиви вбити нас – забобони.

Ризик №2: Чи зруйнує ШІ наше суспільство?

Поширеною теорією про небезпеку ШІ є твердження, що він може знищити суспільство, генеруючи результати, які будуть настільки «шкідливими», що завдадуть глибокої шкоди людству. 

Існують певні види контенту, такі як дитяча порнографія та заклики до насильства, які практично всі суспільства вважають неприпустимими. Тому будь-яка технологічна платформа, яка допомагає або генерує контент, матиме обмеження.

Існує потенційна загроза знищення суспільства внаслідок руйнування свободи слова, інновацій та альтернативних поглядів під тиском штучного інтелекту.

Ризик №3: Чи забере ШІ наші робочі місця?

Збереження робочих місць на тлі загроз, повʼязаних зі ШІ, є довготривалими пересторогами, які повторюються протягом сотень років, починаючи з появи механічного ткацького верстата.

Попри те, що кожна нова велика технологія приводила до збільшення кількості робочих місць із вищою заробітною платою протягом всієї історії, кожна хвиля цієї паніки супроводжується твердженнями, що «цього разу все по-іншому».

Помилка – у хибній думці, що в економіці існує фіксована кількість роботи, яку можуть виконувати машини або люди. І якщо машини роблять цю роботу, то для людей її не залишиться.

Технологія дозволяє людям стати більш продуктивними. Це приводить до зниження цін на наявні товари та послуги, а також до підвищення заробітної плати. 

Наше завдання – адаптуватися до змін, розвивати нові навички та використовувати переваги, які надаються штучним інтелектом та автоматизацією, для досягнення нових горизонтів у суспільстві та економіці.

Ризик №4: Чи призведе ШІ до руйнівної нерівності?

Центральне твердження марксизму: буржуазія – власники засобів виробництва – неминуче вкраде всі суспільні багатства у пролетаріату – людей, які виконують справжню роботу.

Недолік цієї теорії полягає в тому, що будучи власником певної технології, вам не вигідно тримати її при собі. Навпаки – вам вигідно продавати її якомога більшій кількості клієнтів.

Тому на практиці кожна нова технологія – навіть ті, які спочатку продаються лише вищим колам великих компаній або заможних споживачів – швидко поширюється, поки не потрапить до рук найбільшої можливої масової аудиторії. А зрештою – до кожної людини на планеті.

Зображення згенеровано ШІ Midjourney в співавторстві з Марією Шарлай

Чи призведе ШІ до руйнівної нерівності? Фото Зображення згенеровано ШІ Midjourney в співавторстві з Марією Шарлай

Ризик №5: Чи призведе ШІ до того, що погані люди робитимуть погані речі?

Але тепер розгляньмо ризик, з яким я фактично згоден: ШІ полегшить поганим людям завдання робити погані речі.

Технологія – це інструмент. Інструменти можуть використовуватися для добрих речей – готувати їжу і будувати будинки – або поганих речей – палити людей і бити їх.

Будь-яка технологія може бути використана для добра або зла. Це зрозуміло. І ШІ дійсно робить легшим завдання злочинцям, терористам і ворожим урядам робити погані речі, це без сумніву.

Вочевидь, «ШІ-кота» вже витягли з мішка. Ви можете навчитися будувати ШІ з тисяч безоплатних онлайн-курсів, книг, наукових статей і відео. І щодня зʼявляються відмінні реалізації з відкритим вихідним кодом. ШІ подібний до повітря – він буде скрізь. 

У нас вже є закони, які криміналізують більшість поганих речей, які хтось може зробити зі ШІ. Зламати Пентагон? Це злочин. Викрасти гроші з банку? Це злочин. Створити біологічну зброю? Це злочин. Вчинити терористичний акт? Це злочин. 

Ми просто можемо зосередитися на запобіганні таких злочинів, коли це можливо, і проводити їхнє розслідування, коли цього не можна зробити. Нам навіть не потрібні нові закони – я не знаю жодного фактичного поганого використання ШІ, що вже не є незаконним. І якщо буде виявлено новий поганий спосіб використання, ми заборонимо його.

Реальний ризик просування ШІ

ШІ розробляється не лише у відносно вільних суспільствах Заходу, але й у Китаї. Китай має значно інший погляд на ШІ – його розглядають як механізм авторитарного контролю над населенням.

Источник

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *