От смеха до арестов: ИИ в мире шуток, манипуляций и неэтичного выбора
Автор: Алексей Скворцов, стажер-исследователь Проектно-учебной лаборатории экономической журналистики НИУ ВШЭ специально для HSE.Daily
Формат барного лектория предполагает выступление экспертов о науке и научных открытиях в формате 20-минутных стендапов. Принять участие во встрече мог любой желающий без предварительной регистрации — достаточно было прийти в нужное время. Академический руководитель образовательной программы «Инженерия данных» Дарья Касьяненко говорила об этике ИИ и компаний-разработчиков, доцент департамента анализа данных и искусственного интеллекта Дмитрий Ильвовский — об анализе манипулятивного контента с помощью ИИ и NLP, преподаватель департамента больших данных и информационного поиска Александр Баранов — о том, как машины учатся понимать и создавать юмор.
Алгоритмы в темных очках: кто научил машину делать ошибки?
Свое выступление «Неэтичный мир ИИ и темные дела компаний-разработчиков» академический руководитель программы «Инженерия данных» Дарья Касьяненко начала с развенчания популярных мифов о природе искусственного интеллекта.
Вопреки расхожему мнению, она считает, что «у искусственного интеллекта нет ни души, ни разума — это просто математический алгоритм». Однако это не значит, что такие технологии не способны наносить вред. Основная проблема в том, что искусственный интеллект отражает предвзятость тех данных, на которых обучен. Дарья Касьяненко представила несколько ярких кейсов, где использование ИИ привело к неэтичным или даже трагическим последствиям.
Так, в 2018 году у всех на слуху была история компании Amazon, которая внедрила ИИ в систему отбора персонала: компьютерный алгоритм оказался предвзятым к кандидатам-женщинам, поскольку модель обучалась на исторических данных, в которых среди сотрудников компании явно преобладали мужчины. «Модель предпочитала мужчин, даже если они не соответствовали критериям, в отличие от женщин, которые проходили по всем параметрам», — отметила Дарья Касьяненко.
Проблема наличия дискриминации в самих данных, используемых для машинного обучения, может привести и к более неприятным последствиям, продолжила она. Так, в 2020 году полиция Детройта использовала систему распознавания лиц, обученную на предвзятых данных, что привело к серии незаконных арестов: как оказалось, система ошибочно идентифицировала преступников среди темнокожих людей, причем точность распознавания для этой группы составила всего 4%. Это вызвало широкое общественное возмущение и подорвало доверие к ИИ в правоохранительных органах.
«Кто следит за инженерами, которые эти алгоритмы внедряют?» — задается вопросом Дарья Касьяненко.
По ее словам, концепция Responsible AI (ответственного искусственного интеллекта) становится все более важной в мире технологий. Это подход, который ставит на первое место этическую ответственность в разработке ИИ-систем, гарантируя, что их использование не принесет вреда обществу. В рамках этой тенденции развивается идея Superalignment. «Это выравнивание системы таким образом, чтобы она соответствовала нашей этике и пониманию того, что происходит с людьми. Мы должны сделать такую систему, которая будет супервыравнивать все это», — подчеркнула спикер. Этические команды, разрабатывающие подобные подходы, занимаются тем, чтобы ИИ корректно работал в различных сферах, минимизируя риски предвзятости и ошибок.
Однако, по словам Дарьи Касьяненко, многие компании не спешат решать этические проблемы при внедрении искусственного интеллекта в жизнь людей. В последние годы наблюдается тревожная тенденция: крупнейшие ИТ-компании расформировывают отделы, отвечающие за разработку этичного ИИ.
Например, в Google в 2020 году была уволена соруководитель команды по этике ИИ, после того как она опубликовала статью об опасностях «стохастических попугаев» — так сейчас иногда называют ИИ, поскольку «по сути, он не понимает ни один язык мира, а просто математически подставляет каждое следующее слово». В статье указывалось на непрозрачность работы ИИ-систем, предвзятость данных и экологические издержки их использования. Несмотря на то что специалисты Массачусетского технологического института признали статью корректной, руководство Google решило, что она «не соответствует научным стандартам».
Похожая ситуация произошла и в других компаниях. В Microsoft была расформирована вся команда, занимающаяся этикой ИИ, а в Meta (признана в России экстремистской организацией и запрещена) распустили команду из 20 инженеров, работавших над этими вопросами. Вместо усиления контроля за разработкой ИИ многие компании сокращают специалистов, ответственных за этическое сопровождение данных технологий.
Весной 2024 года об уходе из OpenAI (разработчик ChatGPT) также объявил научный руководитель компании Илья Суцкевер. Это произошло на фоне его разногласий с командой по поводу того, как быстро надо развивать ИИ и не будет ли он угрожать человеку.
На этом фоне во многих странах развивается тренд на суверенный ИИ. Этот подход, как рассказала Дарья Касьяненко, предполагает создание систем искусственного интеллекта, разработанных на основе локальных данных и этических норм конкретных стран. «ChatGPT поддерживает арабский язык, но им там не пользуются. Почему? Потому что GPT обучен на данных, которые вообще не репрезентативны для арабского мира», — пояснила спикер. По ее словам, сейчас страны стремятся разрабатывать собственные модели, «зашивая в них локальные данные и этику».
При этом в научном сообществе обсуждаются перспективы создания AGI (Artificial General Intelligence) — искусственного интеллекта, который сможет превзойти человека по умственным способностям. По мнению экспертов, появление такой технологии может произойти в ближайшие 10 лет, но пока непонятно, сможет ли общество контролировать ее.
«С тем подходом к этике, который мы видим сейчас, возникает вопрос: каким будет AGI, если мы уже сегодня сталкиваемся с предвзятостью в слабых моделях ИИ?» — завершает вопросом свою лекцию Дарья Касьяненко.
Робот-фактчекер: можно ли доверить правду машине?
Доцент ФКН Дмитрий Ильвовский взялся раскрыть светлую сторону ИИ и поговорить о том, как современные технологии помогают фактчекерам бороться с инфодемией — распознавать скрытые искажения даже в самых невинных интернет-картинках.
Фейковые новости — не уникальное для нашего времени социальное явление. «Такой термин, как “газетная утка”, наверное, еще с XIX века существует, — говорит спикер. — Но сейчас, как известно из некоторых источников, люди придумали интернет. И не к добру они это сделали, потому что фейки приобрели глобальный масштаб».
Наибольшую актуальность проблема приобрела в контексте пандемии COVID-19. «Параллельно с коронавирусом была другая штука, которую назвали инфодемией, — поток фейков, манипуляций, связанных с пандемией», — напомнил Дмитрий Ильвовский. На этом фоне в 2020 году Всемирная организация здравоохранения включила инфодемию в список глобальных угроз, передав ответственность за борьбу с ней университетам и НКО.
Дмитрий Ильвовский отмечает, что сам термин «фейковые новости» сейчас стал общепринятым, но в научном контексте его лучше разделять на misinformation (неверная или вводящая в заблуждение информация, но необязательно со злым умыслом), malinformation (информация, основанная на фактах, но вырванная из первоначального контекста с целью ввести в заблуждение) и дезинформацию, из которых последняя наиболее опасна, так как подразумевает сознательное введение в заблуждение. «Фейковые новости — это не развлечение для малообразованных людей, а достаточно серьезная проблема, работающая на многих уровнях», — подчеркивает доцент.
Одним из инструментов в борьбе с дезинформацией, по его словам, становится искусственный интеллект. Хотя полная автоматизация проверки фактов пока невозможна из-за низкого уровня доверия к ИИ и недостаточного качества предлагаемых компьютерных решений, искусственный интеллект уже сейчас может значительно облегчить работу фактчекеров. Например, алгоритмы способны быстро определять, стоит ли проверять утверждение, и находить похожие утверждения, которые уже были проверены.
«Люди не доверяют полностью ИИ в таких вещах, как проверка фактов», — подчеркивает Дмитрий Ильвовский. Он отмечает, что на данный момент ИИ лучше всего работает как помощник человека, а не как полностью самостоятельная система.
Также спикер рассказал о более сложных формах манипуляции, таких как пропаганда, подчеркнув, что она часто заключается не в откровенной лжи, а в искажении фактов и создании определенных эмоциональных воздействий на аудиторию. Однако и здесь можно использовать искусственный интеллект для анализа подобных манипуляций как в текстах, так и в визуальном контенте, включая мемы. Например, алгоритмы способны выявлять цели и намерения авторов манипулятивного контента, распознавая, на какие группы направлены «смешные картинки» и кто в них изображен как герой или жертва. «Можно ловить прямо кусочки текста, где кто-то вам “втирает мозги” разными хитрыми способами», — говорит он.
Проблема недостатка данных остается актуальной для глубокого анализа медиаконтента: Дмитрий Ильвовский отметил, что для эффективного обучения моделей ИИ требуется большое количество информации, которая не всегда доступна. Тем не менее имеющиеся достижения в данной области впечатляют, и нейросети уже могут автоматизировать процессы анализа, что делает их полезным инструментом для исследователей и фактчекеров, подытожил спикер.
Шутки уровня ИИ: смеяться или перезагружать?
«Могут ли машины генерировать действительно смешные шутки?» — задался вопросом преподаватель Александр Баранов. По его словам, на данный момент качество шуток, создаваемых ИИ, остается на уровне 3 из 10.
Шутка от ChatGPT на тему «Искусственный интеллект»: «Искусственный интеллект пытался понять человеческий юмор, проанализировал миллиарды шуток и вывел формулу идеального анекдота. Но когда он его рассказал, никто не смеялся. Кроме других искусственных интеллектов».
Проблема в том, что машины пока не способны в полной мере понять, что делает шутку действительно смешной. Для этого исследователи создают огромные датасеты с примерами юмора и стараются обучить модели на их основе. Однако, как признает Александр Баранов, современные модели справляются с задачей далеко не идеально. Проведенные тесты показали, что алгоритмы, обученные на одном наборе данных, часто не могут корректно обрабатывать другие.
Задачи, связанные с детекцией и генерацией юмора, можно разделить на три направления: выявление (детекция) юмористических элементов, их генерация и попытки объяснения, почему конкретная шутка считается смешной. На практике оказалось, что даже самые продвинутые модели сталкиваются с трудностями, так как юмор крайне контекстуален и зависит от множества факторов.
«Мы с коллегами обучили несколько моделей на данных 2018 года и проверили их на диалогах из книг разных жанров, — рассказал Александр Баранов. — Ожидалось, что в комедиях процент смешных диалогов будет выше, а в драмах — ниже, но оказалось, ничего не работает. Все, кто говорил, что задача детекции юмора очень классно решена, неправы».
С генерацией юмора искусственный интеллект справляется не лучше: несмотря на достижения в области языковых моделей, ИИ пока не может заменить профессиональных комиков. В одном из экспериментов исследователи попросили нейросети генерировать шутки по заданным темам, используя заранее определенные шаблоны юмора, такие как игра слов или стереотипы. Результат выглядел интересно, но не слишком впечатляюще.
«Например, на тему “Игрушки” ИИ сгенерировал: “Моя игрушка — это самый классный советчик. Он всегда со мной согласен, когда я хочу перекусить в 2 часа ночи”. Но кажется, что это все равно не очень», — говорит Александр Баранов.
Исследования демонстрируют, что пока машинам не хватает креативности и созданные ими шутки кажутся вторичными. Как показал опрос, проведенный среди 25 стендап-комиков в США, большинством шутки, созданные с помощью ИИ, воспринимаются как скучные и повторяющиеся. «Но это в целом большой потенциал для того, чтобы поисследовать, с чем-то разобраться и что-то новое публиковать», — заключил Александр Баранов.