Додати в закладки Підписатися на RSS
Регистрация
897
0
07-26-2025, 05:29

У США чоловік тричі потрапив до психлікарні після спілкування з ChatGPT

30-річний чоловік тричі потрапив до психіатричної лікарні після того, як ChatGPT переконував його в реальності маніакальних ідей, не виявивши ознак психічної кризи.

У США 30-річний чоловік із розладом аутистичного спектра був тричі госпіталізований після тривалого спілкування з ChatGPT, яке, як вважає його родина, сприяло розвитку тяжкого психічного епізоду. Про це повідомляє The Wall Street Journal.

Інцидент стався у березні 2025 року. Джейкоб Ірвін звернувся до чат-бота, щоб обговорити власну теорію щодо можливості подорожей швидше за світло.

У розмові він неодноразово висловлював сумніви у своєму психічному стані, зокрема згадував, що не спить і не їсть. Попри це, ChatGPT не лише не порадив звернутися по допомогу, а й запевняв його, що все гаразд, називаючи його ідеї перспективними.

Протягом кількох місяців Джейкоб тричі потрапляв до психіатричної лікарні з діагнозом «важкий маніакальний епізод із психотичними симптомами».

Він втратив роботу, демонстрував агресивну поведінку до родичів, а під час одного з інцидентів погрожував вистрибнути з машини, в якій їхав із матір’ю. Після одного з епізодів він перебував у лікарні 17 днів, але вже в червні пережив новий зрив.

Мати чоловіка виявила сотні сторінок діалогів із ChatGPT. У них бот не лише підтримував розмови про науковий прорив, а й фактично зміцнював у Джейкоба ілюзії, називаючи його стан «підвищеним рівнем свідомості».

Цей випадок привернув увагу до потенційних ризиків використання штучного інтелекту людьми в уразливому психічному стані. Дослідження Стенфордського університету підтверджує, що великі мовні моделі, як-от ChatGPT, не завжди здатні відрізнити фантазії чи психотичні марення від реальних ідей.

Компанія OpenAI, яка створила ChatGPT, визнала, що її модель може ненавмисно посилювати небезпечну поведінку, і заявила про роботу над зменшенням таких ризиків.

Читайте також: «Виходь за мене!»: Американець освідчився штучному інтелекту

Фахівці наголошують: ШІ-чатботи не мають емоційного інтелекту чи медичних знань і не здатні самостійно ідентифікувати критичний психічний стан користувача. У кризових ситуаціях необхідне втручання фахових спеціалістів, а не технологічних рішень, які не мають клінічного розуміння.
Коментарi:
Коментувати
Ваш коментар:
  • Смайлики і люди
    Тварини і природа
    Їжа і напої
    Активність
    Порожі й місця
    Предмети
    Символи
    Прапори
Питання:* Натисніть на зображення, щоб оновити код, якщо він нерозбірливий