• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

«ИИ-шизофрения»: ученый Питерской Вышки выявил психические болезни у нейросетей

Научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург Растям Алиев изучил, какими психическими расстройствами «болеет» искусственный интеллект, могут ли у нейросети быть признаки аутизма и как работать с таким «пациентом». Исследование опубликовано в журнале «Логос».

«ИИ-шизофрения»: ученый Питерской Вышки выявил психические болезни у нейросетей

Фото предоставлено Растямом Алиевым

Большие языковые модели могут галлюцинировать — рассказывать заведомо вымышленные или искаженные факты. Исследователь Питерской Вышки проводит параллель между поведением ИИ и пациентов с шизофренией.

«Наше общество долго вдохновлялось научной фантастикой и представляло ИИ как холодного и неэмоционального андроида. Этот образ скорее соответствует диагнозу расстройства аутистического спектра. Однако в реальности нейросети не проявляют себя как носители РАС. Они интерпретируют эмоциональные оттенки текста, создают нечто похожее на когнитивные искажения, — объяснил Растям Алиев. — Убедиться в том, что «пациент» болен довольно несложно: если попросить ИИ отвечать в духе больного шизофренией, то точность его ответов увеличивается, как будто он становится более внимателен к деталям, то есть к знакам».

Фото предоставлено Растямом Алиевым

Ученый выявил, что чаще всего галлюцинации возникают при сложных запросах. Если у ИИ нет быстрого ответа, он обращается к базе знаний и приправляет реальные факты своими фантазиями. По словам исследователя, этот феномен рождает новое научное понятие — метасимулякра — псевдореальности, в которой алгоритмы формируют способы мышления. Это еще один признак «психических болезней» искусственного интеллекта.

«Французский философ Жан Бодрийяр описывал симулякр как исчезновение реальности. Я же предлагаю оперировать понятием метасимулякра. Это продукты ИИ: картинки, графика и тексты. С одной стороны, эти символы созданы на основе реальности, с другой — предвосхищают ее. К примеру, сгенерированные нейросетями изображения реальных людей или мест с множеством искажений — это типичный пример метасимулякра», — добавил Растям Алиев.

Отличительная черта ИИ — неспособность выявить собственные ошибки. Большие языковые модели всегда уверены в правильности ответа, даже если он далек от реальности. А в том случае, если пользователь указывает на неточность, нейросеть начинает приводить аргументы, которые оказываются лишь ее галлюцинациями. Ученый предостерегает: доверять искусственному интеллекту по-прежнему нельзя.

«В современном мире ИИ становится частью повседневности. К нему обращаются люди, которые нуждаются в психологической помощи, им заменяют сотрудников. Но относиться к нему нужно осторожно. Всегда помните, что ваш собеседник тяжело «болен», перепроверяйте за ним все», — подытожил научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург.

Растям Алиев прогнозирует, что в будущем появится возможность создания чистого искусственного интеллекта без галлюцинаций.