Моральный кодекс для роботов
Авторы: стажеры Проектно-учебной лаборатории экономической журналистики Александра Гуркина и Милена Серкебаева специально для "Вестника Атомпрома"
В прошлом веке дискуссии о том, представляют ли опасность для человечества высокоинтеллектуальные машины, вели в основном писатели-фантасты. Теперь к ним подключились и ученые, и практики — и не только из сферы ИТ.
Авторитетный словарь английского языка Collins назвал словом 2023 года Artificial Intelligence (AI), то есть искусственный интеллект (ИИ), в значении «тип компьютерной технологии, направленный на создание устройств, действующих подобно тому, как работает человеческий разум». Филологи отметили, что в 2023 году это словосочетание употреблялось в четыре раза чаще, чем ранее. В свою очередь, Кембриджский словарь английского языка объявил словом года глагол hallucinate — «галлюцинировать». Нюанс заключается в том, что редакторы словаря имеют в виду новое значение, связанное именно с процессами, при которых ИИ предоставляет пользователю ложную информацию.
Все это не в последнюю очередь вызвано тем, что технологии, связанные с искусственным интеллектом, в уходящем году не только развивались быстрыми темпами, но и впервые буквально ворвались в повседневную жизнь обычного непродвинутого пользователя, продемонстрировав совершенно новые возможности и области применения. Причем, согласно некоторым утверждениям, это произошло достаточно неожиданно для самих разработчиков. Сейчас программы ИИ могут применяться практически везде, где необходимо создание текстов или изображений. Предполагается, что вскоре они смогут заменить человека при выполнении целого ряда различных задач в юриспруденции, создании технической документации, иллюстраций, произведений искусства и во многих других областях.
Проблема в том, что с увеличением финансирования разработок технологий ИИ со стороны государства и бизнеса, а также с ростом влияния этих технологий на общество возникают все более острые этические вопросы. Рассказываем, как российские исследователи смотрят на проблемы этического регулирования в сфере искусственного интеллекта.
Год ИИ
В 2023 году произошел стремительный рост технологий генеративного искусственного интеллекта — алгоритмов, способных создавать новый контент, включая текст, программный код, музыку, видео и изображения. Самую широкую известность среди подобных продуктов получил ChatGPT, который был запущен ровно год назад, 30 ноября 2022-го. По данным международной консалтинговой компании McKinsey, уже треть компаний по всему миру регулярно используют генеративный ИИ для решения бизнес-задач, несмотря на то что его массовое распространение произошло лишь недавно. Число активных пользователей ChatGPT достигло 180,5 млн человек к августу текущего года (за пять дней после релиза чат-бота им воспользовался 1 млн человек, к январю 2023-го количество пользователей составило 100 млн, что дало основания называть ChatGPT самым быстрорастущим приложением в истории). Однако быстрое распространение технологий ИИ влечет за собой явные риски этического характера. В частности, практика использования ChatGPT показала, что он может цитировать несуществующие судебные прецеденты, а также выдавать дискриминирующие и предвзятые в отношении определенных групп людей ответы.
С целью нахождения баланса между возможностями и рисками применения ИИ в последние месяцы во многих странах проводятся экспертные обсуждения, посвященные регулированию в области ИИ, в том числе с точки зрения этики. Россия не стала исключением. На международной конференции «Путешествие в мир искусственного интеллекта», прошедшей в ноябре 2023 года, о регулировании в сфере ИИ рассуждали представители бизнеса, науки и государства. Для нашей страны это важная тема: Россия занимает четвертое место по количеству систем генеративного искусственного интеллекта, о чем на конференции заявил заместитель председателя правительства РФ Дмитрий Чернышенко.
Большая ответственность в этой сфере лежит на разработчиках, так как в ходе работы над улучшением безопасности ИИ-систем можно узнать о всех возможных способах, которыми можно эти системы обмануть, отметил директор Национального центра развития искусственного интеллекта при правительстве РФ Сергей Наквасин. «Таким образом, разработчик может стать страшным человеком: он знает, и как обмануть искусственный интеллект, и какие лазейки еще не перекрыты. Если эта информация утечет, например, в даркнет, то после этого мы станем очень уязвимы к действиям систем ИИ», — подчеркнул эксперт.
Потенциал искусственного интеллекта можно и нужно использовать на пользу человечеству. ИИ не заменит, например, врача или педагога, но его можно использовать в качестве надежного помощника для решения прикладных задач в сфере медицины и образования, а также финансов, государственного управления и многих других.
В рамках Форума этики в сфере искусственного интеллекта, также состоявшегося в ноябре, руководители ведущих российских исследовательских центров ИИ поделились своим видением регулирования в области современных компьютерных технологий.
ИИ — щит или меч?
Ряд исследователей считает, что этические проблемы связаны скорее не с самой технологией ИИ, а с его применением. «Например, генеративные модели могут быть использованы для разработки фармацевтических препаратов, сократив время исследований и опытов. Однако те же технологии могут быть применены в создании оружия. Также с помощью нейронных сетей можно восстанавливать картины, а можно создавать фальшивые изображения для манипуляций», — подчеркнул директор Института искусственного интеллекта и цифровых наук НИУ ВШЭ Алексей Масютин. Он отметил, что этические аспекты пока не являются встроенными характеристиками искусственного интеллекта. По мнению ученого, работу по этическим вопросам специалисты должны проводить на ранних этапах разработки и использования ИИ.
К числу этих специалистов должны быть в первую очередь отнесены представители гуманитарных наук (философы, психологи, специалисты в области права и др.), такое мнение выразил директор Института системного программирования РАН Арутюн Аветисян и призвал их активно включиться в работу: «Вряд ли можно ожидать от человека, создающего технологию, будь то биолог, атомщик или айтишник, что он сам выработает этические требования, которым все будут следовать. Социогуманитарные науки, подключайтесь! Но не в «космическом пространстве», а базируясь на реальных возможностях науки». В этом смысле можно провести параллель между ИИ и атомными технологиями, отметил спикер: «Люди, которые создавали атомную бомбу, тоже делали технологию. Уже потом выяснилось, что сфера применений атомных исследований гораздо шире, что можно получать атомную энергию. Сугубо из личных побуждений кто-то мог отказаться от разработок, и это нормально».
Противоположную точку зрения отстаивал руководитель Лаборатории машинного обучения и семантического анализа Института искусственного интеллекта МГУ им. М. В. Ломоносова Константин Воронцов. По его мнению, мораль и этика неразрывно связаны с деятельностью ученых: «У каждого ученого должна быть какая-то идеология. Он должен четко определить для себя, зачем он занимается наукой, и ответить на вопрос: я создаю возможности или устраняю угрозы?» Ученый призвал задуматься над тем, на что именно направлены усилия исследователей и приносят ли они пользу обществу. «Мы для себя в Лаборатории решили очень жестко. Мы щитом занимаемся, а мечом нет», — заключил Константин Воронцов.
По мнению исполнительного директора «Платформы Национальной технологической инициативы» («Платформа НТИ») Андрея Силинга, глубина и масштаб изменений в мире требуют от ученых особого обсуждения этических аспектов. Ученый приводит в пример работу над этическим кодексом в сфере российской биотехнологии в рамках «Архипелага-2023» (проектно-образовательный интенсив по запуску новых рынков, инициатив и отраслей. — Прим. ред.): «Этический кодекс биотехнолога, который был разработан множеством специалистов, опирается на клятву Гиппократа. А это исключительно персональное отношение специалиста с этикой».
Понять ИИ простить
В рамках обсуждения этических вопросов, связанных с ИИ, важно понимать еще одну его особенность — data-центричность, подчеркнул Арутюн Аветисян. Data-центричность означает, что результат работы ИИ будет зависеть от того, на каких данных он обучался. «Данные могут устаревать или быть нерепрезентативными, вследствие чего ИИ может выдавать недостоверную или даже дискриминирующую информацию. Проблема в том, что ни в России, ни в мире пока нет технологий, которые могли бы с точностью оповещать пользователя об уровне достоверности информации, которую выдает ИИ», — подчеркнул исследователь.
В связи со сложностью введения государственных стандартов для ИИ на данном этапе развития, ряд исследователей предлагает регулировать технологию за счет повышения осознанности пользователей. Разработка и популяризация этических принципов пользователя — часть работы Института искусственного интеллекта Университета Иннополис, подчеркнул его руководитель Рамиль Кулеев. «Если проводить параллели с другой областью, например с правилами дорожного движения, то в первую очередь приходит на ум, что должен или не должен делать водитель, чтобы не навредить себе и окружающим. Но есть же и другая, оборотная сторона. И на уровне детского сада или младшей школы каждый знает, что на красный свет нельзя переходить дорогу», — объяснил эксперт. По его словам, помимо этики разработчиков ИИ, внимание нужно уделять и тому, как воспринимают ИИ пользователи.
Подробности
Шесть этических принципов пользователя ИИ, предложенных группой исследователей российского Университета Иннополис
1. Я верю, что разработчики стараются создать максимально безопасные системы искусственного интеллекта, и чем точнее я следую их рекомендациям, тем защищеннее себя чувствую.
2. Мое взаимодействие с ИИ-системами — это взаимодействие с людьми, которые их создали/оставили там свои данные.
3. Я понимаю, что, вопреки усилиям разработчиков, иногда информация в ИИ-системе может быть некорректной или устаревшей.
4. Я сознаю, что ответ ИИ-системы может меня не устроить: я мог ввести некорректный запрос или не понять ответ. Разработчики не несут за это ответственности.
5. Работая в ИИ-системах, я не допускаю унижения других людей в отношении их расы, возраста, пола, состояния здоровья, отношения к религии.
6. Если система ИИ в чем-то противоречит моим культурным убеждениям, я не рассматриваю это как намеренное оскорбление.
Этика под натиском технологий
Специфика искусственного интеллекта заключается в том, что он является сквозной технологией, то есть пронизывает почти все сферы человеческой деятельности. «Проникновение искусственного интеллекта в различные технические системы уже сейчас потрясает воображение, и завтра оно будет практически повсеместным. Все новые продукты и технические системы собираются из пакета сквозных технологий», — подчеркнул исполнительный директор «Платформы НТИ» Андрей Силинг.
По мнению ученого, для того чтобы эффективно регулировать такую сложную и масштабную технологию, необходима опережающая просветительская работа. «Мне кажется важным добиваться понимания между предметными специалистами и теми, кто отвечает за координацию, регулирование и принятие решений. Ученым необходимо в понятной форме доносить до широких кругов общественности актуальные тренды, связанные с искусственным интеллектом», — отметил Андрей Силинг. В качестве примера эксперт упомянул документ, разработанный Стэнфордским университетом, — Stanford Emerging Technology Review (STER), где раскрываются возможности и угрозы для человечества десяти ключевых современных технологий, включая искусственный интеллект.
Эксперты были единогласны в том, что технологический прорыв в сфере искусственного интеллекта неизбежен. «В современном мире ни обычаи, ни «ходовые» нормы морали не в силах противиться натиску технологий. В рамках подобных обсуждений хотелось бы понять, можем ли мы надеяться на развитие технологий искусственного интеллекта в гармонии с этическими нормами и ценностями», — подчеркнул руководитель проектов Центра экспертизы по реализации федерального проекта «Искусственный интеллект» Аналитического центра при правительстве Российской Федерации Сергей Астахов.
Подробности
Умная машина: друг или враг?
В конце ноября 2023 года всю мировую ИТ-индустрию потрясла довольно загадочная история увольнения и последовавшего через четыре дня восстановления в должности Сэма Альтмана. Это генеральный директор OpenAI, компании, создавшей тот самый ChatGPT — инструмент, который оставил далеко позади всех конкурентов. Одна из версий произошедшего выдвинута в статье агентства Reuters. В публикации говорится, что причиной увольнения стало письмо группы сотрудников совету директоров OpenAI, предупреждающее о новой разработке в сфере искусственного интеллекта, которая потенциально способна угрожать будущему человечества. Некоторые сотрудники OpenAI считают, что проект Q* (произносится как Q-Star) может стать прорывом на пути к созданию так называемого общего, или универсального, искусственного интеллекта (AGI). OpenAI определяет AGI как автономные системы, которые превосходят людей в решении большинства ценных с экономической точки зрения задач.
По словам источника Reuters, новая модель смогла решить некоторые математические задачи. Пока Q* делает это с использованием огромных вычислительных ресурсов и только на уровне учеников начальной школы, но успешное выполнение таких тестов открывает перед искусственным интеллектом перспективы, которые ранее сложно было представить. Исследователи считают, что математика — это передовой рубеж развития генеративного ИИ. В настоящее время он хорошо умеет писать и переводить тексты — статистически предсказывая следующее слово, поэтому ответы на один и тот же вопрос могут значительно отличаться. Но продвижение в способности решать математические задачи, в которых обычно есть только один правильный ответ, подразумевает, что у ИИ могут появиться более широкие способности к рассуждению и обобщению, напоминающие человеческий интеллект. В целом способность находить единственный правильный ответ, то есть отличать истинные утверждения от ложных, должна помочь ИИ преодолеть тот барьер, который пока оказался не под силу ChatGPT.
Главная проблема при использовании генеративного ИИ пока заключается в том, что он может очень логично вплетать в свой контент недостоверную информацию, а также формально корректные, но лишенные смысла фрагменты. Сэм Альтман лично предостерегал пользователей: «Это ошибка — полагаться на ChatGPT в чем-то важном. Пока это только прообраз прогресса, нам предстоит много работать над его «устойчивостью к помехам» и точностью».
Сегодня многие задаются вопросом, куда нас приведет триумфальное шествие ИИ, которое мы наблюдали в уходящем году. Илон Маск назвал публикацию Reuters «крайне беспокоящей». Ряд исследователей говорят о том, что развитие ИИ идет темпом «быстрее экспоненциального» и в ближайшие годы в этой сфере нас ждет прогресс, который пока даже невозможно представить, в том числе появление «сверхразума». Главное, чтобы этот «сверхразум» не решил, что существование человечества противоречит его собственным интересам.
Стажер-исследователь Лаборатории экономической журналистики
Все новости автора