Искусственный интеллект в будущем вполне может оказаться в эпицентре скандала связанного с сексистскими или расистскими высказываниями, или действиями. Ученые полагают, что ИИ будет постепенно перенимать все современные пороки человека. Об этом в интервью Digital Report рассказал Иван Прошин, ведущий специалист data science, д.т.н., компании Bell Integrator.

Может ли искусственный интеллект быть сексистом и расистом?

Да, может. ИИ — это все же человеческое создание, и поэтому он несет в себе человеческие слабости и предубеждения. Необъективность подобных механизмов уже не раз обсуждалась в профессиональном сообществе. Мировые исследования и экспертиза отмечают многочисленные случаи, когда искусственный интеллект имел расистские или сексистские предубеждения.

Например, ярким примером того, как ИИ можно научить быть расистом, является печально известный чат-бот Тэй (Тау) Microsoft в 2016 году. Основанный на ИИ, он был призван начинать и вести диалог вежливо и весело, стремясь привлекать людей посредством игривых разговоров.  Но вскоре он стал популярен среди троллей, которые с помощью машинного обучения научили его поддерживать расистские идеи и антисемитские высказывания, призывать к геноциду, восхищаться Гитлером, восхвалять Трампа. Понятно, что за это Тэй очень скоро был жестоко раскритикован пользователями.

Вот еще несколько примеров, в которых ИИ проявлял дискриминацию:

  • ИИ не мог распознать чернокожих женщин;
  • ИИ подразумевал, что на рабочих местах с высоким доходом должны быть мужчины, а не женщины.

Почему так происходит?

При машинном обучении программист предоставляет ИИ первоначальный набор данных. Например, ИИ распознавания лиц получает много изображений, некоторые из которых помечены как «лица», а некоторые — как «не лица». Со временем ИИ придумывает собственные шаблоны и алгоритмы, позволяющие ему выделять лицо на изображении. Но что будет, если начальные лица, которые получает ИИ, — это преимущественно мужские лица белых людей? Впоследствии искусственный интеллект может решить, что быть белым — это необходимое условие, и станет отвергать лица с черным цветом кожи.

Еще один пример: тестировавшийся компанией Amazon алгоритм искусственного интеллекта для поиска сотрудников оказался сексистским: он был предрасположен к найму сотрудников-мужчин.  В этом случае, похоже, аналитики наступили на грабли отбора данных для обучения приложения: они “скормили” искусственному интеллекту массив информации за десятилетний период, за который большинство присланных в корпорацию резюме приходили от мужчин. Журналистам Рейтер удалось на условиях анонимности пообщаться с пятью членами команды разработчиков, которые участвовали в создании самообучающегося алгоритма с 2014 года. По их словам, изначальная задумка предполагала, что система сама оценит резюме и мотивационные письма соискателей работы, а затем присвоит им рейтинг от одной до пяти звёздочек.

“Руководство буквально хотело, чтобы мы давали алгоритму 100 резюме, из которых он бы составил топ-5, и компания впоследствии могла бы нанять этих людей”, – заявил Рейтер один из программистов.

К 2015 году, однако, уже стало понятно, что созданная система не придерживается принципа гендерной нейтральности, поскольку большинство резюме за предыдущие годы в Amazon присылали мужчины. Таким образом, алгоритм начал отбраковывать заявки со словом “женщины”. Впоследствии программу отредактировали так, чтобы искусственный интеллект не маркировал это слово и его производные как нечто негативное, но это не очень помогло. Amazon признал программу ненадёжной, и проект закрыли, однако, по информации Рейтер, ещё какое-то время отдел кадров принимал во внимание рекомендации алгоритма, хотя и не основывал на них своё окончательное решение.

В июне команда исследователей Массачусетского технологического института (MIT) сообщила о создании психопатического алгоритма “Норман”.

Его обучили распознавать и интерпретировать фотографии и прочие изображения с точки зрения человека. Они пытались понять, как повлияют на восприятие мира искусственным интеллектом фотографии и изображения из темных уголков интернета.

В мае 2017 года выяснилось, что ИИ, который тестировался в судах США, негативно расположен к темнокожим обвиняемым, считая их вдвое более способными на криминальный рецидив, чем белых. Как выяснили программисты, проблема была в том, что алгоритм обучался по статистике полицейских задержаний и уличных выборочных проверок, а большинство задержанных и проверяемых в США – темнокожие.

Таким образом, поскольку наше общество продолжает всё больше полагаться на ИИ, крайне важно помнить, что он может обладать человеческими слабостями своих создателей, включая расистские и сексистские предубеждения. Следовательно, технические компании должны стремиться к тому, чтобы стать более разнообразными при выборке информации для системы и быть готовыми к критическому анализу данных своего ИИ.