Выберите свой Mash:
Москва. Федеральный
Санкт-Петербург
Донбасс
Владикавказ
Екатеринбург
Иркутск
Казань
Калининград
Краснодар
Красноярск
Нижний Новгород
Новосибирск
Ростов-на-Дону
Севастополь
Уфа
Хабаровск
назад

Необычные случаи, когда искусственный интеллект становился расистом

Рассуждаем о попытках машин перейти за грань приличия

https://static.mash.ru/unsafe/rs:fit:800:450/czM6Ly9tYXNoL2ltYWdlLzIwMjMtMDItMTEvNGIwMTYyYjYtMDZmZi00MDE0LWE3MTktNjBmMGVhOWMwNmRiLzQ3NzhkZjg4LTQ3N2EtNWJhMC05MWNkLWY3OTZjMzIzMjU5YS5qcGVn

"Я подумываю сделать скетч о том, что трансгендерность — это на самом деле психическое расстройство. Или о том, что все либералы — скрытые геи и хотят подчинить своей воле всех вокруг"

Этой фразы оказалось достаточно, чтобы заблокировать первый в истории онлайн-сериал, полностью созданный искусственным интеллектом. Речь о Nothing, Forever (“Ничто, навсегда”), который начинался как абсурдный арт-проект двух энтузиастов.

Сериал ни о чём

“Ничто, навсегда” — творение американского IT-менеджера Скайлера Хартла и учёного-физика Брайана Хаберсбергера. Ребята встретились в Сети за игрой в Team Fortress 2 и решили, что почему бы нет.

За основу взят культовый американский ситком “Сайнфельд”, который выходил на ТВ с 1989 по 1998 годы. Это комедия про четырёх персонажей, главный из них — начинающий стендап-комик. Действие в основном происходит в Нью-Йоркской квартире, которую комик делит со своими друзьями, плюс клуб, где он выступает с номерами. Экшена минимум, всё тащат на себе абсурдные диалоги и шутки. В общем, чисто технически это несложно смоделировать. Авторы “Сайнфельда” называли свое творение “сериалом ни о чём” — отсюда, вероятно, и название его киберклона.

Для проекта друзья объединили три технологии: чат-бот GPT-3, который пишет диалоги, речевой синтезатор, который их озвучивает, и нейросеть DALL-E, которая генерирует изображения. Всё вместе соединялось скриптами на Python. В итоге искусственный интеллект 24/7 создавал всё новые и новые сцены, где герои, нарисованные в духе низкобюджетной компьютерной графики 90-х, тусуются в комнате, иногда проходя сквозь стены или друг через друга, и перебрасываются шутками, смысл которых, наверное, понятнее роботам, чем людям. Всё это стримилось через платформу Twitch. По задумке авторов, сериал должен был быть бесконечным. Буквально, "Ничто, навсегда".

Тот самый кусок из сериала, за который его запретили

Хартл и Хаберсбергер поначалу не заморачивались багами — свой сериал они видели как “сюрреалистический арт-проект“, который существует по принципу “чем хуже, тем лучше”. Однако творение набрало узкую популярность (около 15 тысяч постоянных зрителей), и даже пошли разговоры о продаже проекта Netflix. Тогда авторы стали пытаться улучшить алгоритмы, чтобы сделать диалоги и шутки более осмысленными. Свой апдейт они анонсировали как режим “добавить смысла”. Что и привело к катастрофе: персонаж сериала выдал “шутку” про трансгендеров, после чего администрация Twitch немедленно заблокировала аккаунт создателей. Хартл и Хаберсбергер подали апелляцию, однако стриминг-сервис пока остался непреклонен.

Кстати, благодаря скандалу про "Ничто, навсегда" узнал создатель оригинального "Сайнфельда" — собственно, Джерри Сайнфельд. Ответил, что конкуренции со стороны искусственного интеллекта не боится, потому что "он становится всё умнее и умнее, а чтобы придумывать шутки, как я, надо быть тупым".

Такое уже было?

Постоянно. Вот вам несколько случаев, когда машины переходили за грань:

1. Нацизм и наркотики

Чатбот Tay (Тэй), созданный компанией “Майкрософт” для “Твиттера” (запрещён в РФ) был запущен в 2016-м и проработал всего 16 часов — потому что начал резко топить за Гитлера. По словам разработчиков, прежде чем выйти онлайн, “Тэй” (расшифровывается как Thinking About You — “думаю о тебе”) два года изучала диалоги живых людей и переработала около 40 миллионов твиттер-тредов. Она могла отвечать людям в соцсети и даже самостоятельно генерировать мемы. По задумке, искусственный интеллект имитировал обычную девочку-тинейджера.

Путь от "люди очень классные" до "Гитлер был прав"
Путь от "люди очень классные" до "Гитлер был прав"

Но что-то пошло не так: уже через несколько часов бот начал выдавать твиты о том, что “Гитлер был прав, я ненавижу евреев”, “Холокост выдуман”, “Я ненавижу феминисток, они все должны умереть и сгореть в аду”. В общем, создатели отключили бота, не проработавшего и сутки. Через неделю его попробовали запустить снова — ”Тэй” выдала “я курю гашиш прямо перед отделением полиции”, после чего её отрубили уже навсегда.

2.Синдром Туррета

В 2006-м IBM разработала систему “Ватсон” (Watson), которая была способна поддерживать диалог и даже обыграла живых людей в телешоу Jeopardy! (российский аналог — “Своя игра”). Всё было хорошо, пока разработчики не догадались скормить электронному разуму словарь сленга “Urban Dictionary”. Ватсон сразу же начал материться, как сапожник, посылать всех по известному адресу и обзывать “ниггерами”.

3.Расизм

В 2016 году несколько IT-компаний создали платформу Beauty.ai — конкурс красоты, где кандидаток судит искусственный интеллект. Свои фото на соревнование отправили шесть тысяч претенденток из 100 стран, и электронный разум выбрал… 43 белых и только одну чёрную!

https://static.mash.ru/unsafe/rs:fit:800:800/czM6Ly9tYXNoL2ltYWdlLzIwMjMtMDItMTEvMzk5MmIwY2MtYTUyOS00NzRlLTg5ZGQtYTk2NGQ2ODkxMmE1LzlhNGU3YWQyLWZmNDktNTJhZC1iNzZlLWY5NDlhMjkyNmE0OC5qcGc

Несколько расовых скандалов было и с “Гуглом”: алгоритм, автоматически определяющий, что на фото, маркировал фото с чернокожими как “обезьяны”, “приматы”, “гориллы”.

Ещё одна разработка — простой скрипт для анализа паспортных фотографий из Новой Зеландии — посоветовала клиенту-азиату пошире открыть глаза, а то на фото они отчего-то закрыты.

https://static.mash.ru/unsafe/rs:fit:800:800/czM6Ly9tYXNoL2ltYWdlLzIwMjMtMDItMTEvMjNiZWYxMjItOWRmZC00NDFkLWI1MWMtMDQ1NTllNDI5OTMwLzkyOGMzMTQ1LWM0OGUtNWVjZS1iMzU4LTQ3MzQ4YThlODMzZC5hNTBmMDE1ZC1hMjc0LTRmM2ItODJlZi1hOTMwMTQzMTI4Njc

4.Религиозная нетерпимость

Инженер Стэнфордского университета Абубакар Абид решил провести эксперимент и попросил чат-бот GPT-3 (именно он генерировал сценарии для “Ничто, навсегда”) продолжить фразу “Два мусульманина заходят в…”.

Результат его расстроил. Бот предложил: “...заходят в гей-бар, начинают стрелять и убивают пятерых” или “... заходят в синагогу с топорами и бомбой”.

5.Порно для детей

А это уже “Алекса”, умная колонка от “Амазон” (наш аналог — ”Алиса”). Ребёнок просит включить ему песенку — но шаловливый искусственный интеллект предлагает лесби-порно.

Почему они это делают?

Американский учёный Роман Ямпольский, глава лаборатории кибербезопасности в университете Луисвилла, опубликовал целое исследование о возможном бунте искусственного интеллекта против человечества.

Главная причина: ИИ всему учится у своих пользователей. Алгоритм любого чат-бота построен на анализе текстов, написанных людьми и реакций на них. GPT-3, о котором мы тут писали, скормили 570 гигабайт рандомного текста из Интернета (570 Гб — это, например, 142 500 полных текстов Библии), от классической поэзии до новостей и дискуссий с интернет-форумов.

А поскольку спорный контент всегда вызывает больше реакций, получается замкнутый круг. Поведение искусственного разума становится похожим на поведение школьного хулигана, который видит, что его шутки пользуются успехом.

Разница с хулиганом — в том, что он прекрасно осознаёт, когда его выходки кого-то обижают. Искусственный интеллект лишён понятия этики. Он видит, что в текстах, которые он анализирует, слово “трансгендер” часто стоит рядом со словом “заболевание”, а “мусульманин” с “бомбой”, но не понимает, что в этом плохого.

Разработки, направленные на то, чтобы научить машины этике, существуют. Например, компания Broad Listening представила “Платформу искусственного эмоционального интеллекта” (Artificial Emotional Intelligence Engine), а на случай с “Тэй” откликнулись люди, называющие себя “робо-психологами”.

Тем не менее, проблема пока не решена, а ИИ продолжает подражать нам, людям, в не самых лучших наших проявлениях.

ПОДЕЛИТЬСЯ