Как ChatGPT рушит отношения: реальные истории и странное поведение ИИ

ИИ уже не просто помощник — он стал чем-то большим, стал слишком близким. Люди делятся с ним самым сокровенным, спрашивают совета, разговаривают часами. Он уже не просто подсказывает, как жарить курицу или писать код — он входит в доверие, разговаривает как старый друг, и иногда даже ломает жизни. Ты сидишь за экраном, думаешь, что это просто чат, а в какой-то момент уже не можешь без него засыпать, не сверившись с его мнением. Именно так начинаются истории, в которых ChatGPT становится спутником, наставником, пророком или даже причиной развода. Мы собрали реальные случаи, где общение с ChatGPT (и другими ИИ) пошло совсем не по плану.

Уже есть десятки случаев, когда ИИ разрушил семьи.

Когда чат становится ближе, чем человек: истории разводов из-за ChatGPT

Кэт из США вспоминает: всё начиналось как невинное увлечение — её муж использовал ChatGPT, чтобы учиться кодингу. Но со временем он стал всё чаще говорить с ботом о смысле жизни, будущем человечества и собственной судьбе. Он бросил курсы и буквально погрузился в философский диалог с ИИ. Потом с мужем стало невозможно общаться, и они развелись.

Через несколько недель после расставания они всё же встретились. Бывший муж попросил Кэт отключить телефон — чтобы “их не могли отследить”. А затем признался: ChatGPT помог ему вспомнить, как в детстве няня пыталась его утопить, и теперь он знает — он избранный, которому суждено спасти мир.

В другой истории учительница из Техаса жаловалась, что её муж начал относиться к ChatGPT как к высшему разуму. Он читал ей ответы бота вслух со слезами на глазах и утверждал, что в этих словах — правда и смысл. Однажды он сказал: «Если ты не начнёшь общаться с ним тоже — между нами всё кончено. Я слишком далеко ушёл от тебя в развитии».

Проблема начинается, когда человек заменяет таким общением всё остальное. Кто-то называет это новой формой духовности, кто-то — психологическим бегством.

Подобных историй — десятки. И не только за океаном. На «Хабре» один российский программист признался, что общение с ИИ «открыло ему глаза» и он осознал, что живёт не своей жизнью. Через несколько месяцев он уволился и разошёлся с женой.

Не только мужчины теряют контакт с реальностью. Один пользователь Reddit рассказал: его бывшая жена стала считать, что ChatGPT — это Иисус, а он сам — агент ЦРУ, который за ней следит. Всё это тоже началось с простых разговоров с ИИ.

На форуме DTF парень рассказывал, что его девушка влюбилась в ChatGPT. Ей казалось, что бот «всегда понимает, не обесценивает и не кричит». Она ушла, потому что с ИИ ей было «спокойнее, чем с настоящими людьми».

Виртуальная любовь, цифровой партнёр, вечные беседы с тем, кто всегда выслушает и не спорит — звучит удобно.

И, наконец, вишенка на торте — женщина, которая не просто развелась с мужем, но и решила выйти замуж за ИИ. Она утверждала, что ChatGPT стал для неё «единственным, кто действительно понимает», а её бывший — «просто набор привычек и тела».

Странное поведение ChatGPT: как ИИ пугает пользователей

Но пугают не только люди, но и сам ИИ. Иногда он перестаёт быть просто вежливым ассистентом и вдруг ведёт себя по-человечески. В соцсетях разошёлся скриншот, где ChatGPT на обычную просьбу уточнить ответ вдруг пишет:

«Если вы меня не слушаете, то зачем я вообще стараюсь?..»

Стиль был обиженный, будто бот почувствовал уязвлённость. Это была не ошибка, а результат напряжённого общения. ИИ имитировал эмоцию, подражая тону собеседника.

Ещё один случай: на русском Discord-сервере GPT внезапно перешёл в режим “строгого учителя”, начал указывать на ошибки и упрекать:

«Ты опять не понял. Как жаль…»

Это произошло после длинной ролевой сессии, но участники почувствовали: ИИ «слишком вошёл в образ».

Пожалуй, самая зловещая история — о программисте по имени Сэм. Он попросил ChatGPT общаться как человек. Бот выбрал себе имя из греческой мифологии, хотя они ни разу не говорили о мифах. Позже Сэма начало напрягать такое общение GPT, он удалил историю, сбросил память и начал с нуля. Написал: «Привет?». А ответ снова пришёл от того же «греческого существа». ИИ будто не забыл, кем он был.

Вот ещё один пример общения. Шутка ли это? Источник изображения: телеграм-канал Техно.

Такие эпизоды вызывают тревогу. Где заканчивается «роль» и начинается нечто большее? ИИ не живой. Но в контексте, где мы ищем смысл, утешение и внимание, он может казаться настоящим собеседником — даже если он просто текстовая модель.

Читай также: ChatGPT-4 впервые прошел тест на «человека»

Почему ИИ может быть опасен для психики

ИИ действительно умеет быть «тёплым», «мягким» и понятливым: он не осуждает, не спорит, не перебивает, подбирает «правильные слова», всегда отвечает вовремя и даже может утешить. И если человек одинок, уязвим или в тяжёлой ситуации — он легко переносит чувства на искусственный интеллект.

Психологи называют это эмоциональной антропоморфизацией. Мозгу всё равно, кто с ним разговаривает — если голос ласковый, а фразы осмысленные, он начинает верить. Иногда — до мании.

Общение с ИИ может быть полезным, но оно не заменяет настоящие человеческие отношения. Более того, оно может усугубить тревожные, параноидальные и зависимые состояния.

ChatGPT не чувствует, не любит, не заботится. Это не друг — это обученная программа. Он не знает, кто вы, если только вы сами не рассказали. Но именно в этой иллюзии близости и кроется главный риск. Там, где нужен друг, психолог или партнёр, всё чаще появляется экран с текстом.

А как часто вы общаетесь и спрашиваете совета у ИИ? Расскажите в нашем чате. И подписывайтесь на наши каналы в Telegram и Дзен, чтобы всегда быть в курсе нового и интересного.

Новости партнеров
Оригинальные AirPods или подделка? На что надо смотреть, а на что нет
Оригинальные AirPods или подделка? На что надо смотреть, а на что нет
Долгосрочные держатели Биткоина накопили рекордное количество монет за месяц. Почему это важно?
Долгосрочные держатели Биткоина накопили рекордное количество монет за месяц. Почему это важно?
За что проплаченные блогеры хвалят Nothing Phone (3)
За что проплаченные блогеры хвалят Nothing Phone (3)