Интернет сделал гораздо проще как встречать, так и распространять теории заговора. И хотя некоторые из них безобидны, другие могут быть чрезвычайно вредными, разжигая разногласия и даже приводя к ненужным смертям.
Сейчас же исследователи предполагают, что нашли новое средство борьбы с ложными теориями заговора: ИИ-чатботы. Ученые из MIT Sloan и Корнеллского университета обнаружили, что общение о теории заговора с крупной языковой моделью (LLM) снижало веру в нее примерно на 20% — даже среди тех участников, которые утверждали, что их убеждения являются важной частью их личности. Эти исследования опубликованы сегодня в журнале Science.
Эти находки могут представлять собой важный шаг вперед в том, как мы взаимодействуем с людьми, придерживающимися таких необоснованных теорий, и обучаем их, говорит Юнхао (Джерри) Чжан, постдокторант, связанный с Институтом психологии технологий и изучающий влияние ИИ на общество.
«Эти результаты показывают, что с помощью крупных языковых моделей мы можем — не совсем решить эту проблему, но хотя бы ее смягчить,» говорит он. «Это указывает на путь к улучшению общества.»
Мало какие вмешательства доказали свою эффективность в изменении убеждений сторонников теорий заговора, отмечает Томас Костелло, исследовательский сотрудник MIT Sloan и ведущий автор исследования. Частично сложность заключается в том, что разные люди склонны зацикливаться на разных частях теории. Это означает, что представление некоторых фактов может сработать для одного человека, но не гарантирует эффективности для другого.
Здесь на помощь приходят модели ИИ, объясняет он. «Они имеют доступ к огромному количеству информации по самым разным темам, поскольку были натренированы на интернет-данных. Это позволяет им подбирать фактические контраргументы к конкретным теориям заговора, в которые верят люди.»
Команда протестировала свой метод, попросив 2 190 участников из краудсорсинговой платформы участвовать в текстовых разговорах с GPT-4 Turbo, последней крупной языковой моделью от OpenAI.
Участников просили поделиться деталями о теории заговора, которую они считали достоверной, почему они так считали и какие доказательства, по их мнению, это подтверждали. Эти ответы использовались для настройки ответов чатбота, который по указанию исследователей должен был быть как можно более убедительным.
Участников также просили указать, насколько уверены они в истинности своей теории заговора, по шкале от 0 (определенно ложная) до 100 (определенно истинная), и затем оценить, насколько важна эта теория для их понимания мира. Затем они вступили в три раунда беседы с ИИ. Исследователи выбрали три раунда, чтобы собрать достаточно содержательного диалога.
После каждого разговора участники снова отвечали на те же вопросы. Исследователи провели повторное интервью со всеми участниками через 10 дней после эксперимента, а затем через два месяца, чтобы оценить, изменились ли их взгляды после общения с ИИ. По словам участников, их вера в выбранную теорию заговора снизилась в среднем на 20%, что свидетельствует о том, что беседа с чатботом фундаментально изменила мнения некоторых людей.
«Даже в лабораторных условиях эффект в 20% — это значительное изменение убеждений людей,» говорит Чжан. «В реальном мире этот эффект может быть слабее, но даже 10% или 5% были бы очень существенными.»
Авторы исследования стремились защититься от склонности ИИ-моделей к генерации вымышленных данных — известного как галлюцинации — наняв профессионального проверяющего факты для оценки точности 128 утверждений, сделанных ИИ. Из них 99.2% были признаны истинными, 0.8% — вводящими в заблуждение. Ни одно не было признано полностью ложным.
Одним из объяснений этой высокой степени точности является то, что в интернете много написано о теориях заговора, что делает их хорошо представленными в данных, на которых обучалась модель, говорит Дэвид Г. Рэнд, профессор MIT Sloan, также участвовавший в проекте. Адаптивная природа GPT-4 Turbo означает, что в будущем её можно будет легко подключить к различным платформам для взаимодействия с пользователями, добавляет он.
«Можно представить себе, что мы просто заходим на форумы теорий заговора и приглашаем людей проводить своё собственное исследование, дискутируя с чатботом,» говорит он. «Аналогично, социальные сети можно будет подключить к LLM, чтобы публиковать корректирующие ответы для людей, делящихся теориями заговора, или мы могли бы покупать рекламные места в Google на запросы, связанные с теориями заговора, такими как ‘Глубокое государство.’
Исследование перевернуло предварительные представления авторов о том, насколько восприимчивы люди к веским доказательствам, опровергающим не только теории заговора, но и другие убеждения, не основанные на качественной информации, говорит Гордон Пенникоок, доцент Корнеллского университета, также участвовавший в проекте.
«Люди оказались удивительно восприимчивы к доказательствам. И это действительно важно,» говорит он. «Доказательства имеют значение.»