Искусственный интеллект в будущем вполне может оказаться в эпицентре скандала связанного с сексистскими или расистскими высказываниями, или действиями. Ученые полагают, что ИИ будет постепенно перенимать все современные пороки человека. Об этом в интервью Digital Report рассказал Иван Прошин, ведущий специалист data science, д.т.н., компании Bell Integrator.
Может ли искусственный интеллект быть сексистом и расистом?
Да, может. ИИ — это все же человеческое создание, и поэтому он несет в себе человеческие слабости и предубеждения. Необъективность подобных механизмов уже не раз обсуждалась в профессиональном сообществе. Мировые исследования и экспертиза отмечают многочисленные случаи, когда искусственный интеллект имел расистские или сексистские предубеждения.
Например, ярким примером того, как ИИ можно научить быть расистом, является печально известный чат-бот Тэй (Тау) Microsoft в 2016 году. Основанный на ИИ, он был призван начинать и вести диалог вежливо и весело, стремясь привлекать людей посредством игривых разговоров. Но вскоре он стал популярен среди троллей, которые с помощью машинного обучения научили его поддерживать расистские идеи и антисемитские высказывания, призывать к геноциду, восхищаться Гитлером, восхвалять Трампа. Понятно, что за это Тэй очень скоро был жестоко раскритикован пользователями.
Вот еще несколько примеров, в которых ИИ проявлял дискриминацию:
- ИИ не мог распознать чернокожих женщин;
- ИИ подразумевал, что на рабочих местах с высоким доходом должны быть мужчины, а не женщины.
Почему так происходит?
При машинном обучении программист предоставляет ИИ первоначальный набор данных. Например, ИИ распознавания лиц получает много изображений, некоторые из которых помечены как «лица», а некоторые — как «не лица». Со временем ИИ придумывает собственные шаблоны и алгоритмы, позволяющие ему выделять лицо на изображении. Но что будет, если начальные лица, которые получает ИИ, — это преимущественно мужские лица белых людей? Впоследствии искусственный интеллект может решить, что быть белым — это необходимое условие, и станет отвергать лица с черным цветом кожи.
Еще один пример: тестировавшийся компанией Amazon алгоритм искусственного интеллекта для поиска сотрудников оказался сексистским: он был предрасположен к найму сотрудников-мужчин. В этом случае, похоже, аналитики наступили на грабли отбора данных для обучения приложения: они «скормили» искусственному интеллекту массив информации за десятилетний период, за который большинство присланных в корпорацию резюме приходили от мужчин. Журналистам Рейтер удалось на условиях анонимности пообщаться с пятью членами команды разработчиков, которые участвовали в создании самообучающегося алгоритма с 2014 года. По их словам, изначальная задумка предполагала, что система сама оценит резюме и мотивационные письма соискателей работы, а затем присвоит им рейтинг от одной до пяти звёздочек.
«Руководство буквально хотело, чтобы мы давали алгоритму 100 резюме, из которых он бы составил топ-5, и компания впоследствии могла бы нанять этих людей», — заявил Рейтер один из программистов.
К 2015 году, однако, уже стало понятно, что созданная система не придерживается принципа гендерной нейтральности, поскольку большинство резюме за предыдущие годы в Amazon присылали мужчины. Таким образом, алгоритм начал отбраковывать заявки со словом «женщины». Впоследствии программу отредактировали так, чтобы искусственный интеллект не маркировал это слово и его производные как нечто негативное, но это не очень помогло. Amazon признал программу ненадёжной, и проект закрыли, однако, по информации Рейтер, ещё какое-то время отдел кадров принимал во внимание рекомендации алгоритма, хотя и не основывал на них своё окончательное решение.
В июне команда исследователей Массачусетского технологического института (MIT) сообщила о создании психопатического алгоритма «Норман».
Его обучили распознавать и интерпретировать фотографии и прочие изображения с точки зрения человека. Они пытались понять, как повлияют на восприятие мира искусственным интеллектом фотографии и изображения из темных уголков интернета.
В мае 2017 года выяснилось, что ИИ, который тестировался в судах США, негативно расположен к темнокожим обвиняемым, считая их вдвое более способными на криминальный рецидив, чем белых. Как выяснили программисты, проблема была в том, что алгоритм обучался по статистике полицейских задержаний и уличных выборочных проверок, а большинство задержанных и проверяемых в США — темнокожие.
Таким образом, поскольку наше общество продолжает всё больше полагаться на ИИ, крайне важно помнить, что он может обладать человеческими слабостями своих создателей, включая расистские и сексистские предубеждения. Следовательно, технические компании должны стремиться к тому, чтобы стать более разнообразными при выборке информации для системы и быть готовыми к критическому анализу данных своего ИИ.
- В России обнаружены сосиски с риском рака - 21/11/2024 14:04
- Китай нашел крупнейшее месторождение золота - 21/11/2024 13:54
- Star Wars Outlaws: стелс уходит в тень, свобода действий выходит на первый план - 21/11/2024 13:41