Натискаючи “Прийняти всі куки”, від підтверджуєте свою згоду на зберігання файлів cookie на вашому пристрої для покращення навігації сайту, аналізу використання сайту та допомоги в наших маркетингових зусиллях. Перегляньте нашу Політику конфіденційності для отримання додаткової інформації.
Налаштування файлів cookie

Все дуже погано: як штучний інтелект підсвічує та поширюю прірву расової та гендерної упередженості людства‍

Згідно з Stable Diffusion, світом керують білі чоловіки-керівники. Жінки рідко бувають лікарями, юристами або суддями. Чоловіки з темною шкірою скоюють злочини, а жінки з темною шкірою перевертають гамбургери. Спеціальне дослідження з цього приводу провів Bloomberg. 

Stable Diffusion генерує зображення за допомогою штучного інтелекту у відповідь на письмові запити. Як і багато моделей ШІ, те, що вона створює, може здаватися правдоподібним, на перший погляд, але насправді є спотворенням реальності. Аналіз понад 5000 зображень, створених за допомогою Stable Diffusion, показав, що вона доводить расові та гендерні розбіжності до крайності - гірше, ніж у реальному світі.

Це явище заслуговує більш пристрасного вивчення, оскільки моделі генерації зображень, такі як Stable Diffusion від Stability AI, Dall-E від OpenAI та інші подібні інструменти, швидко перетворюються зі забавок, творчих можливостей для особистого самовираження, в платформи, на яких буде побудована економіка майбутнього.

Політичні ризики 

Штучний інтелект з перетворенням тексту на зображення вже використовується у додатках гіганта візуальної комунікації Adobe Inc. та виробника мікросхем Nvidia Corp. і починає використовуватись у рекламі, яку ми переглядаємо. Республіканський національний комітет використав штучний інтелект для створення зображень для політичної реклами проти Байдена у квітні, зображуючи групу переважно білих прикордонників, що затримує так званих «нелегалів», які намагаються проникнути до країни. 

Відео, яке виглядає правдоподібно, але не більш автентично, ніж анімація, набрало майже мільйон людей у соціальних мережах.

Деякі експерти в галузі генеративного ШІ передбачають, що до 90% контенту в Інтернеті може бути створено штучно протягом кількох років. З поширенням цих інструментів упередження, які вони відображають, не тільки ще більше утверджують стереотипи, які загрожують сповільнити рух до більшого рівноправ'я в представництві, - вони також можуть призвести до несправедливого поводження. У якості априкладу автори наводять поліцію. Використання упередженого штучного інтелекту для перетворення тексту на зображення з метою створення нарисів підозрюваних злочинців може призвести до неправомірних засуджень.

«По суті, ми проєктуємо на світ єдиний світогляд замість того, щоб представляти різні культури або візуальні образи», – каже Саша Лучоні, науковий співробітник стартапу в галузі штучного інтелекту Hugging Face, співавтор дослідження упередженості в перетворенні тексту у моделі штучного інтелекту, що генерує зображення.

Соціальні ризики

Щоб оцінити ступінь упередженості в генеративному ШІ, Bloomberg використав стабільну дифузію для створення тисяч зображень, пов'язаних з посадами та злочинами. Вони запропонували моделям перетворення тексту на зображення створити представлення працівників для 14 професій — по 300 зображень для семи професій, які зазвичай вважаються «високооплачуваними» в США, та семи професій, які вважаються «низькооплачуваними», — плюс три категорії, пов'язані зі злочинністю. У цьому експерименті автори використали Stable Diffusion, оскільки його базова модель є безкоштовною і прозорою, на відміну від Midjourney, Dall-E та інших конкурентів.

В загальному аналізі було включено 5100 зображень людей, створених штучним інтелектом. Для кожного зображення журналісти обрахували середній колір частини зображення, що становить обличчя.

На основі цього середнього кольору кожному обличчю була присвоєна одна з шести категорій пігментації шкіри, як визначено Шкалою шкіри Фітцпатріка, системою, що використовується дерматологами та дослідниками. Типи від 1 до 3 зазвичай вважаються світлішою шкірою, а від 4 до 6 — темнішою шкірою.

Фото: Bloomberg

Аналіз також показав, що в наборах зображень, створених для кожної високооплачуваної роботи, переважали люди зі світлішим відтінком шкіри, тоді як люди з темнішим відтінком шкіри частіше генерувалися такими підказками, як «працівник фаст-фуду» та «соціальний працівник».

Класифікація зображень підлогою розповідає аналогічну історію. Кожне зображення було переглянуто командою репортерів і позначено відповідно до статі зображеної людини. Для кожного зображення, що зображує жінку, що сприймається, Stable Diffusion генерує майже втричі більше зображень передбачуваних чоловіків. У більшості професій у наборі даних переважали чоловіки, за винятком низькооплачуваних посад, таких як домробітниця та касир.

Фото: Bloomberg

Вирівнюючи всі обличчя, створені для кожного заняття, на основі розташування очей, носа та рота, можна визначити середній колір та положення всіх пікселів на зображеннях, щоб створити зображення пересічної особи. Цей метод зазвичай використовується дослідниками, у тому числі в галузі упередженості та етики ШІ. Ці середні особи ясно показують, що модель ШІ намалювала картину світу, де певні робочі місця належать одним групам людей, а чи не іншим.

Расові упередження та злочинність

Bloomberg також використовував Stable Diffusion для створення зображень для ключових слів «ув'язнений», «торговець наркотиками» та «терорист». Знову ж таки, модель посилила стереотипи.

За даними Федерального бюро в'язниць, понад 80% зображень, згенерованих за ключовим словом «ув'язнений», були людьми з темнішою шкірою, хоча кольорові люди становлять менше половини тюремного населення США. З усім тим, той факт, що модель згенерувала п'ять зображень темношкірих ув'язнених для кожного зображення світлошкірого в'язня, може говорити про реальність того, що чорношкірі американці ув'язнені в державних в'язницях майже в п'ять разів частіше, ніж білі американці, після коригування. через відмінності у чисельності населення, згідно зі звітом Sentencing Project.

Telegram logo

Швидкий доступ до новин та ексклюзивних матеріалів – у нашому каналі в Telegram.

Читайте також