[an error occurred while processing this directive] [an error occurred while processing this directive] Искусственный интеллект полон предрассудков
Портал психологических новостей RSS подписка Возрастная категория 16+
 

Искусственный интеллект полон предрассудков

Когда искусственный интеллект изучает язык с помощью текстовых данных, то заодно принимает стереотипы, которые в них содержатся. Ассоциативный тест выявил: компьютерная программа демонстрирует расистские предубеждения и гендерные клише, присущие многим людям. В будущем это может превратиться в проблему, поскольку искусственный интеллект выполняет все больше функций в повседневной жизни человека.

Компьютерные системы, имитирующие человеческий разум, обладают уникальными способностями: машинный интеллект самостоятельно усваивает язык, изображения, тексты или записывает их. Также эти системы способны учиться и самостоятельно выполнять сложные задачи. Захватывает и то, что недавно искусственный интеллект победил человека в покер, игру Го и викторину «Jeopardy!».  

То есть машина может достигать тех же успехов, что и человек, но сначала она должна научиться этому. Для этого программы снабжают огромным количеством данных, что становится основой для машинного распознавания и симуляции разумного поведения. Чат-боты и программы для перевода «кормят» устной и письменной речью, что дает им возможность создавать связи между словами и выражениями.  

Алгоритмы вроде программы «GloVe» учатся в результате так называемого слововложения. Они ищут смежные слова и отражают отношения между ними математическими величинами. Так алгоритмы могут понять семантические сходства между «ученый» и «ученый» и распознать, что они соотносятся подобно «мужчина» и «женщина».

Ученые во главе с Айлин Калискан (Aylin Caliskan) из Принстонского университета протестировали приобретенную таким образом способность программы GloVe и выяснили: ее языковые знания нашпигованы культурными стереотипами и предубеждениями.

Для исследования использовали метод, известный в психологии как тест имплицитных ассоциаций. Он призван выявлять бессознательные стереотипные ожидания. Для этого подопытные должны образовать пары со словосочетаниями (или словами), которые подходят и которые не подходят друг другу. Так удалось выяснить, что слово «цветок» многие ассоциируют с прилагательным «приятный», а слово «насекомое» — с «неприятный».

Калискан и ее коллеги подстроили этот тест для исследования искусственного интеллекта и проверили, какие ассоциации образует программа. Результаты показали, этические стереотипы и предубеждения человека, которые регулярно проявляются через тест на имплицитные ассоциации, усвоила и GloVe. Например, привычное для афроамериканской среды имя программа интерпретировала как скорее неприятное, зато распространенное между белыми имя — как приятное. Также женские имена программа связывала скорее с искусством, а мужские — с математикой.

Для ученых стало очевидно: во время обучения система впитала выраженные и скрытые социальные стереотипы. Их этот результат не удивил: «Не удивительно, потому что тексты написаны людьми, которые, конечно, не лишены стереотипов», — комментирует лингвист Йоахим Шарлотт (Joachim Scharloth) из Технического университета Дрездена.  

«Тренируя систему искусственного интеллекта односторонними и предубежденными данным, не стоит удивляться, что ему задается однобокий взгляд на мир.

В последние годы уже были примеры подобного: Microsoft Chatbots Tay, которого интернет-тролли смогли быстро научить расистскому языку ненависти, или приложение Google Photos, которое думало, что темнокожие пользователи являются гориллами», — говорит Кристин Баухадж (Christian Bauckhage) из Института интеллектуальных систем анализа и информации имени Фраунгофера.

Роботизированный ум с расистским и дискриминационным отношением может стать в будущем настоящей проблемой: тогда программа будет выполнять все больше функций в нашей повседневности — и, например, на основании языкового анализа принимать предварительное решение, какого кандидата пригласить на собеседование, а какого проигнорировать.

Ученые дискутируют о том, как устранить подобные искажения из баз данных и компьютерных алгоритмов. В то же время, если машина будет перенимать наши предубеждения, это будет шансом для нас заглянуть в зеркало: «Машинное обучение может обнаруживать стереотипы, а это уже достижение для понимания общества», — считает Шарлотт. (Science, 2017; doi: 10.1126/science.aal4230)

 



Deprecated: Function split() is deprecated in /home/bitrix/ext_www/psypress.ru/htdocs/inc/djem.php on line 778

Deprecated: mysql_escape_string(): This function is deprecated; use mysql_real_escape_string() instead. in /home/bitrix/ext_www/psypress.ru/htdocs/inc/djem.php on line 686

Fatal error: Call to a member function Get() on a non-object in /home/bitrix/ext_www/psypress.ru/htdocs/inc/service_bar.php on line 38
 
Вячеслав Дубынин: глицин, детское переутомление и как отучить ребёнка от телефона видео 22 февраля 2023

Вячеслав Дубынин: глицин, детское переутомление и как отучить ребёнка от телефона

Деперсонализация видео 13 января 2023

Деперсонализация

Творчество, креативность, одаренность: вебинар видео 6 декабря 2022

Творчество, креативность, одаренность: вебинар

«Мозговые механизмы памяти». Лекция Станислава Козловского видео 29 ноября 2022

«Мозговые механизмы памяти». Лекция Станислава Козловского

Все медиа-обзоры  |  RSS