Портал психологических новостей Psypress на facebook PsyPress on twitter RSS подписка Возрастная категория 16+
 

Искусственный интеллект полон предрассудков

Когда искусственный интеллект изучает язык с помощью текстовых данных, то заодно принимает стереотипы, которые в них содержатся. Ассоциативный тест выявил: компьютерная программа демонстрирует расистские предубеждения и гендерные клише, присущие многим людям. В будущем это может превратиться в проблему, поскольку искусственный интеллект выполняет все больше функций в повседневной жизни человека.

Компьютерные системы, имитирующие человеческий разум, обладают уникальными способностями: машинный интеллект самостоятельно усваивает язык, изображения, тексты или записывает их. Также эти системы способны учиться и самостоятельно выполнять сложные задачи. Захватывает и то, что недавно искусственный интеллект победил человека в покер, игру Го и викторину «Jeopardy!».  

То есть машина может достигать тех же успехов, что и человек, но сначала она должна научиться этому. Для этого программы снабжают огромным количеством данных, что становится основой для машинного распознавания и симуляции разумного поведения. Чат-боты и программы для перевода «кормят» устной и письменной речью, что дает им возможность создавать связи между словами и выражениями.  

Алгоритмы вроде программы «GloVe» учатся в результате так называемого слововложения. Они ищут смежные слова и отражают отношения между ними математическими величинами. Так алгоритмы могут понять семантические сходства между «ученый» и «ученый» и распознать, что они соотносятся подобно «мужчина» и «женщина».

Ученые во главе с Айлин Калискан (Aylin Caliskan) из Принстонского университета протестировали приобретенную таким образом способность программы GloVe и выяснили: ее языковые знания нашпигованы культурными стереотипами и предубеждениями.

Для исследования использовали метод, известный в психологии как тест имплицитных ассоциаций. Он призван выявлять бессознательные стереотипные ожидания. Для этого подопытные должны образовать пары со словосочетаниями (или словами), которые подходят и которые не подходят друг другу. Так удалось выяснить, что слово «цветок» многие ассоциируют с прилагательным «приятный», а слово «насекомое» — с «неприятный».

Калискан и ее коллеги подстроили этот тест для исследования искусственного интеллекта и проверили, какие ассоциации образует программа. Результаты показали, этические стереотипы и предубеждения человека, которые регулярно проявляются через тест на имплицитные ассоциации, усвоила и GloVe. Например, привычное для афроамериканской среды имя программа интерпретировала как скорее неприятное, зато распространенное между белыми имя — как приятное. Также женские имена программа связывала скорее с искусством, а мужские — с математикой.

Для ученых стало очевидно: во время обучения система впитала выраженные и скрытые социальные стереотипы. Их этот результат не удивил: «Не удивительно, потому что тексты написаны людьми, которые, конечно, не лишены стереотипов», — комментирует лингвист Йоахим Шарлотт (Joachim Scharloth) из Технического университета Дрездена.  

«Тренируя систему искусственного интеллекта односторонними и предубежденными данным, не стоит удивляться, что ему задается однобокий взгляд на мир.

В последние годы уже были примеры подобного: Microsoft Chatbots Tay, которого интернет-тролли смогли быстро научить расистскому языку ненависти, или приложение Google Photos, которое думало, что темнокожие пользователи являются гориллами», — говорит Кристин Баухадж (Christian Bauckhage) из Института интеллектуальных систем анализа и информации имени Фраунгофера.

Роботизированный ум с расистским и дискриминационным отношением может стать в будущем настоящей проблемой: тогда программа будет выполнять все больше функций в нашей повседневности — и, например, на основании языкового анализа принимать предварительное решение, какого кандидата пригласить на собеседование, а какого проигнорировать.

Ученые дискутируют о том, как устранить подобные искажения из баз данных и компьютерных алгоритмов. В то же время, если машина будет перенимать наши предубеждения, это будет шансом для нас заглянуть в зеркало: «Машинное обучение может обнаруживать стереотипы, а это уже достижение для понимания общества», — считает Шарлотт. (Science, 2017; doi: 10.1126/science.aal4230)

 


 
Медиа: обзоры
Мария Фаликман: Процессы и виды памяти видео 24 января 2019

Мария Фаликман: Процессы и виды памяти

Дмитрий Леонтьев «Взросление как становление автономной личности» видео 16 января 2019

Дмитрий Леонтьев «Взросление как становление автономной личности»

Лекция "Психологические проблемы современной семьи" видео 10 января 2019

Лекция "Психологические проблемы современной семьи"

ECCE 2018 Early Childhood Care and Education Воспитание и обучение детей младшего возраста видео 27 декабря 2018

ECCE 2018 Early Childhood Care and Education Воспитание и обучение детей младшего возраста

III Всероссийская научно-практическая конференция «Комплексное сопровождение детей с расстройствами аутистического спектра» видео 21 декабря 2018

III Всероссийская научно-практическая конференция «Комплексное сопровождение детей с расстройствами аутистического спектра»

Все медиа-обзоры  |  RSS