Стів Возняк із однодумцями закликав призупинити навчання систем штучного інтелекту 

Марія Перетяка
29.3.2023 14:35
Стів Возняк

Стів Возняк

Стів Возняк, Ілон Маск та ще понад 1000 дослідників штучного інтелекту підписали відкритий лист, у якому закликають світові лабораторії зі створення ШІ призупинити навчання систем потужніше, ніж GPT-4, як мінімум на півроку. Вони стверджують, що штучний інтелект може становити серйозну загрозу людству.

У листі йдеться, що зараз лабораторії штучного інтелекту залучені до «неконтрольованих перегонів» з розробки та впровадження систем машинного навчання, «які ніхто — навіть їхні творці — не може зрозуміти, передбачити чи забезпечити надійний контроль».

«Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми впевнені, що їхні ефекти будуть позитивними, а ризики —  керовані», — наголошують автори листа.

Під зверненням підписалися понад 1125 осіб, у тому числі співзасновник Pinterest Еван Шарп, співзасновник Ripple Кріс Ларсен, генеральний директор Stability AI Емад Мостак, а також дослідники з DeepMind, Гарвард, Оксфорд та Кембридж. 

Лист підписали також важкоатлети в галузі штучного інтелекту Йошуа Бенджіо та Стюарт Рассел. Останній також закликав призупинити розробку просунутого ШІ доти, доки незалежні експерти не розроблять, впровадять та перевірять загальні протоколи безпеки для таких систем ШІ.

У листі докладно описано потенційні ризики для суспільства та цивілізації з боку конкурентоспроможних систем штучного інтелекту у вигляді економічних та політичних потрясінь.

Великі лабораторії штучного інтелекту, такі як OpenAI, поки що не відповіли на лист.

Telegram logo

Швидкий доступ до новин та ексклюзивних матеріалів – у нашому каналі в Telegram.

Читайте також