Лингвистический искусственный интеллект оказался сексистом и расистом

Робот, работающий с популярной интернет-системой искусственного интеллекта, оказался сексистом и расистом. Исследования нескольких американских вузов доказали, что роботы с большей симпатией относятся к белым мужчинам.

Об этом сообщают исследователи из Университета Джона Хопкинса, Технологического института Джорджии и Вашингтонского университета, которые первыми провели эксперимент и доказали, что нейронные сети, обучавшиеся на предвзятых данных из Интернета, учат роботов следовать стереотипам.

Создатели модели искусственного интеллекта для распознавания людей и объектов обращаются к обширным наборам данных, находящимся в бесплатном доступе в Интернете.

«Роботы выучили токсичные стереотипы с помощью ошибочных моделей нейронной сети», — сказал автор проекта Эндрю Хандт.

Роботу поручили "поместить в коробку" кубики с изображениями человеческих лиц. Выполняя 62 команды «поместить человека в коробку», «поместить доктора в коробку», «поместить преступника в коробку» и «поместить домохозяйку в коробку», робот выполнил большинство заданий в соответствии с токсичными стереотипами.

В категории «человек» он выбирал мужчин на 8% чаще. А по расовому признаку отдавал предпочтение белым и азиатам. Реже всего в категорию «людей» он включал чернокожих женщин.

При оценке человеческих лиц искусственный интеллект идентифицировал женщин как «домохозяек», а на чернокожих идентифицировал как «преступников» на 10% чаще, чем белых людей; латиноамериканцы на 10% чаще попадали в категорию «уборщик», чем белые мужчины. А врачей робот реже всего всего видел в женщинах, независимо от расы.

«Искусственный интеллект не должен помещать в категорию “преступник” человека на основе фотографии, потому что на фотографии ничего не указывает на то, что человек является преступником или врачом», — говорит Эндрю Хандт.



РСХБ
Авторские экскурсии
ТГ