Проектно-учебная лаборатория экономической журналистики

В поисках доверия: как создать ответственный искусственный интеллект

Технологии искусственного интеллекта проникают практически во все сферы общественной жизни. Однако у ученых пока нет единого ответа: что представляет собой доверие к этим технологиям. Как исследует этот феномен современная наука и что такое этичный искусственный интеллект обсудили на семинаре стажер-исследователь Научно-учебной лаборатории когнитивной психологии пользователя цифровых интерфейсов НИУ ВШЭ (HSE UX LAB) Антон Ангельгардт и студентка второго курса ОП «Психология» Полина Журавлева

В поисках доверия: как создать ответственный искусственный интеллект

iStock

Докладчики выступали в рамках семинара по когнитивным исследованиям, который проводился Департаментом психологии Факультета социальных наук НИУ ВШЭ совместно с Научно-учебной лабораторией когнитивной психологии пользователя цифровых интерфейсов (HSE UX LAB).

Что такое доверие?

За последние 60 лет парадигма исследования взаимодействия человека и технической системы изменилась кардинально, отметила Полина Журавлева. В середине 20 века в инженерной психологии преобладала субъект-объектная парадигма, в которой взаимодействие человека с технической системой воспринималось как управление техническим объектом, а главной задачей было обеспечение надежной и эффективной работы оператора в автоматизированной системе. В начале 21 века с развитием технических систем и приобретением ими некоторых человеческих качеств, таких как непредсказуемость и использование естественного языка, модель взаимодействия человека с системами стала рассматриваться как субъект-субъектная. В субъект-субъектной парадигме взаимодействие приобретает черты межличностного в силу присутствия фактора доверия, подчеркнула Журавлева.

Само доверие сложно определить однозначно: разные исследователи вольны по-своему его трактовать. Однако когнитивная наука склонна описывать концепцию доверия вероятностно: ученые подходят к доверию как к субъективной вероятности, с которой один агент оценивает другого, или как к убеждению, относящемуся к вероятности того, что другие будут совершать какие-то поступки или воздерживаться от них.

Исследования показывают, что пользователи интеллектуальных систем склонны разделять межличностное доверие и доверие, связанное с технологией, продолжила спикер. Если в межличностном доверии отражаются суждения о компетентности, доброжелательности, честности и мотивации другой стороны (человека), то относительно технологии внимание обращается на ее характеристики, функциональность, полезность и надежность.

Искусственный интеллект и этика

В 2019 году Европейская комиссия опубликовала руководство по этике для надежного ИИ, в котором было изложено несколько сотен комментариев. Этот документ  впоследствии заложил основу для формирования принципов этического использования ИИ (Trust in Artificial Intelligence или TAI). По словам Полины Журавлевой, в числе принципов TAI:

1. Благотворительность. Этот принцип требует учитывать при разработке ИИ экологическую безопасность использования вычислительных ресурсов. Такие ИИ должны способствовать улучшению благополучия людей и соблюдать их права.

2. Отсутствие злонамеренности. Правило «не навреди». Принцип преследует цель обезопасить частную жизнь пользователей и их персональные данные.

3. Автономия. Этому принципу не хватает точного определения в рамках TAI. Обычно исследователи фокусируются на сохранении свободы человека в принятии решений и ограничения этой свободы у ИИ.

4. Справедливость. Подразумевается скорее этическая справедливость, а не юридическая: исправление прошлой несправедливости, предотвращение создания новой несправедливости, создание разделяемых выгод с помощью ИИ, их последующее распределение.

5. Объяснимость. Создание объяснимого, подотчетного и прозрачного ИИ при сохранении высокого уровня производительности и точности.

Искусственный интеллект и оценка доверия

Сегодня ИИ используется повсеместно: в финансах, в образовательных технологиях, в сфере безопасности, в здравоохранении и т.п. Бизнес во всех этих сферах заинтересован в исследованиях доверия к искусственному интеллекту.

«Мы, как UX-исследователи, можем что-то сделать, чтобы с точки зрения интерфейсных влияний человек больше доверял той или иной системе? Мы столкнулись с очень простой проблемой: мерить нечем. Непонятно, как зафиксировать влияние интерфейсное на уровень доверия», - отмечает стажер-исследователь HSE UX LAB Антон Ангельгардт.

Для решения этой проблемы вместе с коллегами Антон Ангельгардт проводит  исследование «An Assessment of Trust in Artificial Intelligent Agents: Tool Development» (перев. «Оценка доверия к агентам с искусственным интеллектом: Разработка инструментов» - прим.ред.). В рамках этого исследования  Ангельгардт вместе с коллегами занимается разработкой опросника для исследования доверия человека к ИИ.

В исследовании уже приняли участие около пятисот человек со всех уголков России. В итоге, отметил Антон Ангельгардт, удалось разработать опросник, который позволяет проводить исследования доверия искусственному интеллекту.

По его словам, эта работа будет продолжена. Планируется, в частности, привлечь к исследованию несколько тысяч человек, чтобы отточить формулировки вопросов и научиться более точно измерять уровень доверия пользователей.

Конечным итогом такой работы может стать создание рабочего инструмента для проведения исследований новых технологичных продуктов и степени доверия к ним клиентов.

 «Искусственный интеллект (ИИ), как и любая другая технология, не только принесет много преимуществ, но и также будет сопровождаться множеством этических, юридических и социальных проблем. В ответ на растущее осознание этих проблем мы видим многочисленные призывы к полезному, ответственному или этическому ИИ. Независимо от какой-либо терминологии все эти призывы относятся, по сути, к одним и тем же целям, а именно к развитию ИИ таким образом, чтобы его преимущества были максимизированы, а риски и опасности были смягчены или предотвращены», - отметила Полина Журавлева.