Натискаючи “Прийняти всі куки”, від підтверджуєте свою згоду на зберігання файлів cookie на вашому пристрої для покращення навігації сайту, аналізу використання сайту та допомоги в наших маркетингових зусиллях. Перегляньте нашу Політику конфіденційності для отримання додаткової інформації.
Налаштування файлів cookie

Твіти від людей виявилися менш переконливими, ніж твіти від штучного інтелекту

Недавнє дослідження показало, що люди, ймовірно, більш схильні вірити твітам, написаним штучними інтелектами, ніж тим, що створені людьми. The Verge пише, що вчені порівняли контент, який створюють люди, та тексти, створені штучною моделлю GPT-3 від OpenAI.

Що перевіряли вчені

Під час дослідження автори запитували учасників, чи можуть вони відрізнити наступне: наданий твіт написала людина чи GPT-3. 

І що виявилося? Люди не змогли відчути різницю. 

Дослідники також просили респондентів визначити, чи є інформація в кожному твіті правдивою. І тут є те, що може занепокоїти. Адже контент, який було надано для порівняння, стосувався наукових тем — вакцини та зміни клімату. А саме на цих темах найактивніше спекулюють дезінформатори в інтернеті.

Виявилося, що учасникам дослідження було складніше розпізнати дезінформацію, якщо вона була написана штучною мовою, ніж якщо її написала людина. Також вони краще впізнавали правдиву інформацію, якщо вона була створена GPT-3, а не людиною.

Читайте також: Зроблено роботом: соцмережі змусять маркувати весь контент, створений штучним інтелектом

Це означає, що люди в дослідженні більш ймовірно довіряли GPT-3, незалежно від того, наскільки точна була інформація, яку створював штучний інтелект. Це демонструє потужність мовних моделей штучного інтелекту, коли йдеться про інформування або введення громадськості в оману.

Похибки та припущення, які дають надію

Однак, автор дослідження, Джованні Спітале, зауважує, що це не означає, що технологію слід вважати зла або добра. Вона просто підсилює наміри людей.

Для дослідження Спітале та його колеги взяли пости з Twitter, що обговорювали 11 різних наукових тем, від вакцин та COVID-19 до зміни клімату та еволюції. Потім вони змусили GPT-3 писати нові твіти з точною або неточною інформацією. Результати були зібрані з відповідей 697 учасників, які взяли участь в опитуванні онлайн через рекламу на Facebook у 2022 році. Більшість з них були з Великобританії, Австралії, Канади, США та Ірландії. Результати дослідження були опубліковані в журналі Science Advances.

Дослідження показало, що те, що було написано GPT-3, було практично не відрізнити від органічного контенту. Учасники дослідження просто не могли розпізнати це. Проте, дослідники зазначають, що вони не можуть на 100% гарантувати, що твіти, які вони зібрали зі соціальних мереж, не були написані за допомогою додатків, подібних до ChatGPT.

Це дослідження має й інші обмеження. Наприклад, учасники оцінювали твіти без контексту. Наприклад, вони не мали можливості перевірити Twitter-профіль того, хто створив контент, що могло допомогти їм визначити, хто це: бот чи людина. 

Telegram logo

Швидкий доступ до новин та ексклюзивних матеріалів – у нашому каналі в Telegram.

Читайте також