Світ
Алгоритми стають расистами і сексистами

Пішоходи перетинають вулицю нью-йоркського району Гарлем. Штучний інтелект бачить їх інакше. Виявилося, що найгірше він ставиться до жінок, представників етнічних меншин та осіб із інвалідністю.

Системи, що базуються на штучному інтелекті, працюють швидше, точніше й ефективніше, але, на жаль, вони не позбавлені різних упереджень.

Оголошення про роботу нібито адресоване саме тобі, але, попри надіслане резюме, ніхто не відповідає? Банк або страхова компанія після поданої заявки онлайн надає дуже несприятливі умови кредитування або полісу? Це не обов’язково вина злісного працівника. Часто це лише комп’ютерний алгоритм. Усе частіше виявляється, що навіть штучний інтелект не позбавлений расових, статевих чи соціальних упереджень. І боротися із цим дуже важко.

Недосконалі системи

Системи, що базуються на машинному навчанні, зараз відзначають свій тріумф і значно покращують обслуговування клієнтів, аналіз документів чи фінансовий заявок. Однак вже зараз зрозуміло, що з’явилися негативні симптоми і потрібно очікувати зростання масштабів явищ такого типу.

Як пише газета «Financial Times», у США проблема расистських або сексистських упереджень алгоритмів починає приносити реальні збитки. У Айдахо саме з таких причин комп’ютери вирішили скоротити суму виплат із системи «Medicaid» для 4 тис. осіб з інвалідністю.

Штат спочатку захищав алгоритм як величезне полегшення в бюрократичному обслуговуванні медичних послуг, але в кінцевому рахунку вирішив його ліквідувати. Важко передбачити, як буде працювати наступник. Місцеві ЗМІ повідомили, що державні органи вже на етапі тестування отримали інформацію, що алгоритм має негативне ставлення до певних меншин і навмисно знижуватиме їхні виплати, але тоді ніхто не сприймав цих попереджень серйозно.

«У мене є передчуття, що такі речі відбуваються в Сполучених Штатах і в усьому світі, коли люди переходять до комп’ютерних систем», – писав Річард Еппінк, директор Американського союзу громадянських свобод (ACLU) в Айдахо, який подав справу до суду в цьому конкретному випадку. «Їх ніхто не розуміє. Вони думають, що це робить хтось інший, але ж алгоритмам ми довіряємо. Навіть люди, що відповідають за ці програми, знають, що вони працюють», – додав він.

«Сьогодні системи, що базуються на штучному інтелекті, навчаються на базі даних, які ми їм надаємо, тому вони можуть мати позитивні та негативні конотації. Серед цих даних можуть бути й такі, що містять расові, гендерні або ідеологічні упередження», – сказав в інтерв’ю «Rzeczpospolita» Ярослав Шимчук, генеральний директор «IBM» у Польщі та Балтійських державах. «Тому ми розробляємо методологію, щоби вони працювали без такого типу навантаження. Наприклад, щоб система набору працівників на початку не відхиляла кандидатів із маленьких міст, тому що архітектор вважає таких осіб менш освіченими. Ми хочемо створити такі рішення, щоб усунути цей вид упереджень на самому початку», – додав він.

IBM пояснює, що згідно з останніми глобальними прогнозами, незабаром кожен стикатиметься із системами штучного інтелекту, тому необхідно піклуватися про етичні аспекти процесів прийняття рішень. Компанія поставила питання очищення систем штучного інтелекту від різних упереджень у свої пріоритети на найближче майбутнє.

Із цією проблемою зіткнувся також «Amazon», коли ухвалювалися рішення, де має бути впроваджена нова послуга «Prime». У рамках щомісячної підписки користувачі мають право на більш швидку доставку та спеціальні рекламні пропозиції. Алгоритми «Amazon» заздалегідь визнали, що впровадження послуги не має сенсу в районах, населених переважно меншинами неєвропеоїдної раси. Вони вирішили, що «Prime» повинен впроваджуватися у білих районах.

Гігант електронної комерції також мав проблеми з алгоритмами машинного навчання, коли вирішував, де введе послугу «Prime Prime Day». Модель відкидала, в першу чергу, чорні райони, позбавляючи їх тих самих послуг, що мали багатші, білі.

Темне обличчя нерозпізнане

Джой Буоламвіні з Масачусетського технологічного інституту повідомила, що системи, засновані на базі фото особи, майже бездоганно розпізнають стать у випадку білих. Однак, коли шкіра стає темнішою, все частіше з’являються помилки. У випадку чорношкірих жінок помилок було 34 %, що свідчить про те, як були написані програми цього типу.

Також відомий приклад проекту «TayTweets» від «Microsoft» показав, що напрямок мислення штучного інтелекту може бути суперечливим. Цей автомат мав самостійно вести розмови, зокрема, у «Twitter». І робив це, але дуже швидко почав розміщувати вульгарні й расистські коментарі, наприклад, що всі феміністки повинні горіти в пеклі. Через 24 години бота було вимкнено.

Незважаючи на ці проблеми розвитку штучного інтелекту, їх неможливо зупинити, адже алгоритми мають занадто багато переваг. У 2025 р. компанії та офіси витрачатимуть на ці системи понад 190 млрд доларів на рік. Ринок зростає більше, ніж на 30 % на рік.

Джерело: Rzeczpospolita

Схожі публікації
Звіт Польського економічного інституту показує, що в групі професій, яким загрожує автоматизації, працюють 3,7 млн осіб. Це показує масштаб викликів, перед якими стоїть ринок праці.
На думку експертів, у майбутньому представники підприємств звертатимуться до штучного інтелекту дедалі частіше.
Переважна більшість компаній у Європі лише включає штучний інтелект до своїх стратегічних планів.
McDonald's зазнав гучного маркетингового фіаско, випустивши святкову рекламу, повністю згенеровану штучним інтелектом.
Таким чином легендарний британський музикант протестує проти розвитку штучного інтелекту в музичній індустрії.
Словом цього року, за версією словника Collins Dictionary, стало «vibe coding». Цей вислів описує процес створення комп’ютерного коду за допомогою штучного інтелекту, що розуміє природну мову.
Штучний інтелект став повсякденністю для більшості поляків. Інструментами ШІ користуються 66 % опитаних, найчастіше це ChatGPT (52 %) і Gemini (20 %).
Компанія Google оголосила про чергове розширення інтелектуального режиму пошуку AI Mode. Вона вмикає його в майже 50 країнах і територіях, на 35 мовах.
Штучний інтелект не замінить людських навичок і вмінь під час обслуговування клієнтів. Так вважають 35 % компаній, опитаних рекрутинговою фірмою Experis, що входить до групи брендів ManpowerGroup.