В поисках доверия: как создать ответственный искусственный интеллект
Докладчики выступали в рамках семинара по когнитивным исследованиям, который проводился Департаментом психологии Факультета социальных наук НИУ ВШЭ совместно с Научно-учебной лабораторией когнитивной психологии пользователя цифровых интерфейсов (HSE UX LAB).
Что такое доверие?
За последние 60 лет парадигма исследования взаимодействия человека и технической системы изменилась кардинально, отметила Полина Журавлева. В середине 20 века в инженерной психологии преобладала субъект-объектная парадигма, в которой взаимодействие человека с технической системой воспринималось как управление техническим объектом, а главной задачей было обеспечение надежной и эффективной работы оператора в автоматизированной системе. В начале 21 века с развитием технических систем и приобретением ими некоторых человеческих качеств, таких как непредсказуемость и использование естественного языка, модель взаимодействия человека с системами стала рассматриваться как субъект-субъектная. В субъект-субъектной парадигме взаимодействие приобретает черты межличностного в силу присутствия фактора доверия, подчеркнула Журавлева.
Само доверие сложно определить однозначно: разные исследователи вольны по-своему его трактовать. Однако когнитивная наука склонна описывать концепцию доверия вероятностно: ученые подходят к доверию как к субъективной вероятности, с которой один агент оценивает другого, или как к убеждению, относящемуся к вероятности того, что другие будут совершать какие-то поступки или воздерживаться от них.
Исследования показывают, что пользователи интеллектуальных систем склонны разделять межличностное доверие и доверие, связанное с технологией, продолжила спикер. Если в межличностном доверии отражаются суждения о компетентности, доброжелательности, честности и мотивации другой стороны (человека), то относительно технологии внимание обращается на ее характеристики, функциональность, полезность и надежность.
Искусственный интеллект и этика
В 2019 году Европейская комиссия опубликовала руководство по этике для надежного ИИ, в котором было изложено несколько сотен комментариев. Этот документ впоследствии заложил основу для формирования принципов этического использования ИИ (Trust in Artificial Intelligence или TAI). По словам Полины Журавлевой, в числе принципов TAI:
1. Благотворительность. Этот принцип требует учитывать при разработке ИИ экологическую безопасность использования вычислительных ресурсов. Такие ИИ должны способствовать улучшению благополучия людей и соблюдать их права.
2. Отсутствие злонамеренности. Правило «не навреди». Принцип преследует цель обезопасить частную жизнь пользователей и их персональные данные.
3. Автономия. Этому принципу не хватает точного определения в рамках TAI. Обычно исследователи фокусируются на сохранении свободы человека в принятии решений и ограничения этой свободы у ИИ.
4. Справедливость. Подразумевается скорее этическая справедливость, а не юридическая: исправление прошлой несправедливости, предотвращение создания новой несправедливости, создание разделяемых выгод с помощью ИИ, их последующее распределение.
5. Объяснимость. Создание объяснимого, подотчетного и прозрачного ИИ при сохранении высокого уровня производительности и точности.
Искусственный интеллект и оценка доверия
Сегодня ИИ используется повсеместно: в финансах, в образовательных технологиях, в сфере безопасности, в здравоохранении и т.п. Бизнес во всех этих сферах заинтересован в исследованиях доверия к искусственному интеллекту.
«Мы, как UX-исследователи, можем что-то сделать, чтобы с точки зрения интерфейсных влияний человек больше доверял той или иной системе? Мы столкнулись с очень простой проблемой: мерить нечем. Непонятно, как зафиксировать влияние интерфейсное на уровень доверия», - отмечает стажер-исследователь HSE UX LAB Антон Ангельгардт.
Для решения этой проблемы вместе с коллегами Антон Ангельгардт проводит исследование «An Assessment of Trust in Artificial Intelligent Agents: Tool Development» (перев. «Оценка доверия к агентам с искусственным интеллектом: Разработка инструментов» - прим.ред.). В рамках этого исследования Ангельгардт вместе с коллегами занимается разработкой опросника для исследования доверия человека к ИИ.
В исследовании уже приняли участие около пятисот человек со всех уголков России. В итоге, отметил Антон Ангельгардт, удалось разработать опросник, который позволяет проводить исследования доверия искусственному интеллекту.
По его словам, эта работа будет продолжена. Планируется, в частности, привлечь к исследованию несколько тысяч человек, чтобы отточить формулировки вопросов и научиться более точно измерять уровень доверия пользователей.
Конечным итогом такой работы может стать создание рабочего инструмента для проведения исследований новых технологичных продуктов и степени доверия к ним клиентов.
«Искусственный интеллект (ИИ), как и любая другая технология, не только принесет много преимуществ, но и также будет сопровождаться множеством этических, юридических и социальных проблем. В ответ на растущее осознание этих проблем мы видим многочисленные призывы к полезному, ответственному или этическому ИИ. Независимо от какой-либо терминологии все эти призывы относятся, по сути, к одним и тем же целям, а именно к развитию ИИ таким образом, чтобы его преимущества были максимизированы, а риски и опасности были смягчены или предотвращены», - отметила Полина Журавлева.
Ангельгардт Антон Николаевич
Стажер-исследователь Научно-учебной лаборатории когнитивной психологии пользователя цифровых интерфейсов НИУ ВШЭ (HSE UX LAB)