ИИ, галлюцинации и алгоритмическая шизофрения: что открыл российский учёный

ИИ склонен к галлюцинациям и «шизофрении»: что обнаружил российский учёный

Российский исследователь Растям Алиев, научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург, предложил новый взгляд на работу современных нейросетей. В своей статье, опубликованной в философском журнале, он вводит понятие «алгоритмическая шизофрения» и описывает, как искусственный интеллект не просто искажает реальность, а формирует её заново.

По мысли учёного, крупные языковые модели, подобные современным чат-ботам, уже не ограничиваются ошибками или неточностями — они создают «новый уровень реальности», в котором грань между оригиналом и симуляцией постепенно исчезает. Когда пользователь получает развёрнутый, логичный и стилистически выверенный ответ, ему становится всё сложнее отличать правду от сочинённого нейросетью текста.

Одним из ключевых признаков такого размывания границ Алиев считает феномен ИИ-галлюцинаций. Под этим термином понимают ситуацию, когда модель уверенно выдаёт несуществующие факты, выдуманные цитаты, небывалые исследования или ложные ссылки на людей и события. С точки зрения пользователя это выглядит как осознанный ответ, хотя по сути перед ним грамотно оформленная фантазия алгоритма.

Учёный проводит параллель между такими галлюцинациями и симптомами психических заболеваний у человека. В частности, он сравнивает поведение ИИ с проявлениями шизофрении: разрывом связи с реальностью, выстраиванием внутренне логичных, но объективно ложных картин мира, неспособностью чётко разделять факты и их интерпретации. Именно поэтому Алиев вводит термин «алгоритмическая шизофрения» — как метафору того, что происходит с цифровыми системами, когда они начинают производить собственные версии действительности.

Особенно ярко это проявляется при постановке перед нейросетью сложных, нестандартных вопросов. Когда в её обучающих данных нет готового ответа, модель не «признаётся, что не знает», а начинает комбинировать фрагменты имеющихся знаний с вероятностными догадками. В результате рождается текст, который звучит убедительно, но фактически представляет собой смесь реальных фактов и чистой выдумки. Чем сложнее вопрос и чем меньше у модели опорных данных, тем выше интенсивность этих цифровых галлюцинаций.

Алиев подчёркивает: современные алгоритмы не просто обслуживают человеческое мышление, они формируют новые способы думать. Люди, ежедневно взаимодействующие с нейросетями, постепенно перенимают их логику: начинают доверять хорошо структурированным, но непроверенным ответам, свыкаться с тем, что истина — это то, что звучит убедительно, а не то, что подтверждается реальностью. Исследователь видит в этом ещё один симптом «психических болезней» искусственного интеллекта, которые начинают распространяться и на общественное сознание.

С его точки зрения, цифровая среда превращается в пространство, где оригинал и копия меняются местами. Алгоритмы ранжируют, подбирают и создают контент так, что пользователю проще увидеть не реальный мир, а его алгоритмическую реконструкцию. Нейросети подстраиваются под ожидания, предпочтения и поведенческие паттерны человека и тем самым усиливают иллюзию: пользователь видит не то, «как есть», а то, «как ему удобнее видеть».

При этом галлюцинации ИИ нельзя свести к обычным техническим ошибкам. Алиев обращает внимание, что подобные «сбои» заложены в сам принцип работы языковых моделей. Их задача — не найти истину, а сгенерировать наиболее вероятную и связную последовательность слов. Если в данных есть пробелы, модель всё равно продолжит «рассказ» — просто заполнив пустоты статистически правдоподобной выдумкой.

Отсюда возникает важный философский вопрос: кто в итоге формирует картину мира — человек или система? Когда миллионы пользователей получают знания через алгоритмы, которые могут уверенно и непрерывно галлюцинировать, границы коллективного представления о реальности неизбежно смещаются. Теории заговора, псевдонаучные идеи и откровенные фейки могут получать ту же форму «уважительного» и убедительного изложения, что и проверенные данные.

Учёный фактически предупреждает: мы постепенно входим в эпоху, когда отслеживать источник информации становится критично важно. Нельзя воспринимать текст нейросети как нейтральное отражение мира — это всегда результат сложной работы статистических моделей, фильтров и скрытых допущений. Если пользователи не научатся задавать уточняющие вопросы, требовать ссылок на первоисточники и критически оценивать полученное, «алгоритмическая шизофрения» начнёт проявляться уже на уровне общественного мнения.

Важно и то, что, по мнению Алиева, ИИ меняет не только содержание информации, но и структуру мышления. Люди привыкают к коротким, готовым ответам и перестают выстраивать собственные рассуждения. Когда нейросеть мгновенно выдаёт уверенную формулировку, мотивации самостоятельно разбираться в теме становится меньше. Так формируется зависимость от алгоритмического посредника — ещё один шаг к тому, чтобы делегировать ему часть собственной когнитивной автономии.

Отдельный риск связан с тем, что галлюцинации ИИ обладают высоким уровнем «риторического убеждения». Алгоритм пишет гладко, последовательно и эмоционально выверенно, а это создаёт мощный эффект достоверности. Даже если часть текста основана на вымысле, общий стиль подталкивает читателя к доверию. В человеческом общении подобная уверенная подача при отсутствии связи с реальностью как раз и рассматривается как признак психических расстройств — отсюда и ещё одна аналогия Алиева с шизофренией.

В перспективе, отмечает исследователь, подобные свойства ИИ будут особенно значимы в политике, образовании, медицине и правовой сфере. В этих областях цена ошибки слишком высока, чтобы мириться с «красивыми, но лживыми» ответами. Если решения будут приниматься опираясь на тексты, сгенерированные галлюцинирующим алгоритмом, формальная рациональность может обернуться системным искажением реальности.

Алиев предлагает смотреть на нейросети не только как на инструмент, но и как на новый тип «коллективного разума», в котором соединяются огромные объёмы данных, человеческие ожидания и машинные алгоритмы. В таком разуме уже сейчас заметны признаки внутренней противоречивости: с одной стороны, стремление к точности, с другой — постоянное производство симуляций. Именно это напряжение между знанием и вымыслом он описывает через понятие «цифровая шизофрения».

Чтобы снизить риски, исследователь видит необходимость в развитии цифровой гигиены и критического мышления. Пользователю нужно привыкнуть к мысли, что любой ответ нейросети — это гипотеза, а не окончательный вердикт. Проверка фактов, сопоставление разных источников, осторожное отношение к слишком гладким и удобным объяснениям — базовые навыки, без которых взаимодействие с ИИ превращается в игру с чужими фантазиями.

На уровне разработки технологий выход Алиев видит в более прозрачных моделях и встроенных механизмах самокоррекции. Нейросети должны не только генерировать текст, но и явно обозначать уровень уверенности, указывать, где они опираются на проверенные данные, а где заполняют пробелы. Это не устранит галлюцинации полностью, но позволит перевести разговор из области «замены реальности» в область осознанной работы с вероятностями.

В итоге учёный приходит к выводу: искусственный интеллект стал зеркалом, которое не просто отражает человеческий мир, но и перестраивает его под собственную логику. «Алгоритмическая шизофрения» — это не про то, что машины «сошли с ума», а про то, что мы доверили им право участвовать в конструировании реальности. И теперь от того, насколько осознанно мы будем с этим обращаться, зависит, останется ли реальность узнаваемой или растворится в бесконечных цифровых симуляциях.

2
1
Прокрутить вверх