Натискаючи “Прийняти всі куки”, від підтверджуєте свою згоду на зберігання файлів cookie на вашому пристрої для покращення навігації сайту, аналізу використання сайту та допомоги в наших маркетингових зусиллях. Перегляньте нашу Політику конфіденційності для отримання додаткової інформації.
Налаштування файлів cookie

Стів Возняк із однодумцями закликав призупинити навчання систем штучного інтелекту 

Стів Возняк

Стів Возняк

Стів Возняк, Ілон Маск та ще понад 1000 дослідників штучного інтелекту підписали відкритий лист, у якому закликають світові лабораторії зі створення ШІ призупинити навчання систем потужніше, ніж GPT-4, як мінімум на півроку. Вони стверджують, що штучний інтелект може становити серйозну загрозу людству.

У листі йдеться, що зараз лабораторії штучного інтелекту залучені до «неконтрольованих перегонів» з розробки та впровадження систем машинного навчання, «які ніхто — навіть їхні творці — не може зрозуміти, передбачити чи забезпечити надійний контроль».

«Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми впевнені, що їхні ефекти будуть позитивними, а ризики —  керовані», — наголошують автори листа.

Під зверненням підписалися понад 1125 осіб, у тому числі співзасновник Pinterest Еван Шарп, співзасновник Ripple Кріс Ларсен, генеральний директор Stability AI Емад Мостак, а також дослідники з DeepMind, Гарвард, Оксфорд та Кембридж. 

Лист підписали також важкоатлети в галузі штучного інтелекту Йошуа Бенджіо та Стюарт Рассел. Останній також закликав призупинити розробку просунутого ШІ доти, доки незалежні експерти не розроблять, впровадять та перевірять загальні протоколи безпеки для таких систем ШІ.

У листі докладно описано потенційні ризики для суспільства та цивілізації з боку конкурентоспроможних систем штучного інтелекту у вигляді економічних та політичних потрясінь.

Великі лабораторії штучного інтелекту, такі як OpenAI, поки що не відповіли на лист.

Telegram logo

Швидкий доступ до новин та ексклюзивних матеріалів – у нашому каналі в Telegram.

Читайте також