Goldman Sachs вимкнув Claude в Гонконгу через політичні ризики
Goldman Sachs обмежує доступ до AI-моделей Anthropic у Гонконзі

Інвестиційний банк Goldman Sachs припинив надання доступу своїм співробітникам у Гонконзі до передових моделей штучного інтелекту від Anthropic, зокрема Claude. Це рішення підкреслює зростаючий вплив геополітичної напруженості між США та Китаєм на використання AI-технологій у фінансовому секторі, як зазначає видання Financial Times.
За даними обізнаних джерел, банкіри в регіоні втратили можливість працювати з Claude як безпосередньо, так і через внутрішні AI-платформи компанії ще кілька тижнів тому. Причиною стало суворе трактування умов контракту з Anthropic після консультацій з розробником. Відтак було ухвалено рішення, що співробітники в Гонконзі не повинні використовувати продукти цієї компанії. Важливо зазначити, що обмеження не стосуються інших AI-сервісів, зокрема рішень від OpenAI.
Представник Anthropic прокоментував, що моделі Claude «ніколи офіційно не підтримувалися» в Гонконзі, однак відмовився від подальших роз’яснень.
Ключові аспекти обмежень
- Геополітичні чинники: Рішення Goldman Sachs пов’язане не лише з договірними зобов’язаннями, а й з ширшими ризиками. Американські AI-компанії висловлюють занепокоєння щодо потенційного використання своїх моделей у Китаї через загрозу так званої “дистиляції”, коли місцеві гравці можуть навчати власні системи на основі розробок конкурентів.
- Захист інтелектуальної власності: Раніше OpenAI висловлювала претензії до китайської компанії DeepSeek щодо використання її моделей для тренування власного ШІ, хоча переконливих доказів представлено не було. Білий дім також говорив про “промислові масштаби” крадіжок інтелектуальної власності, що китайська сторона назвала “чистим наклепом”.
- Кібербезпека: Додатковим фактором є занепокоєння щодо кібербезпеки. Зокрема, нова модель Anthropic Mythos викликала дискусії серед урядів та корпорацій через її потенційну здатність зламувати сучасні системи захисту та створювати ризики для фінансової інфраструктури.
Обмеження з боку Goldman Sachs може мати значні наслідки для позиції Гонконгу як глобального фінансового центру. Традиційно це місто слугує для міжнародних банків ключовим хабом для інвестиційно-банківських операцій, угод зі злиття та поглинання, а також для торгівлі та розміщення акцій. Обмеження доступу до передових AI-інструментів, які активно використовуються для програмування та фінансового моделювання, може поставити місцеві команди в невигідне становище порівняно з колегами в інших регіонах.
Паралельно подібні кроки роблять і державні інституції. Наприклад, Європейський парламент раніше вилучив AI-інструменти з робочих пристроїв співробітників через ризики витоку даних та кіберзагроз. Водночас, сама Anthropic продовжує розвивати свої продукти, нещодавно представивши нову модель Claude Opus 4.7, що демонструє покращення у сфері програмування та фінансового аналізу.
Порада від Business News:
Ця новина є важливою для фінансових установ та ІТ-спеціалістів, які працюють у сфері штучного інтелекту. Вона наголошує на зростаючій увазі до питань безпеки, інтелектуальної власності та геополітичних ризиків при використанні передових технологій. Банкам та компаніям варто уважно аналізувати умови використання AI-сервісів, особливо в контексті міжнародних відносин, та розробляти власні стратегії управління ризиками для забезпечення стабільної роботи й захисту своїх даних.
Інформація підготовлена на основі матеріалів: cryptocurrency.tech
