ChatGPT опинився в центрі нового скандалу: за даними The New York Times, ІІ здатний заохочувати небезпечні ілюзії
Скандальний звіт The New York Times виявив тривожні випадки, коли ChatGPT нібито підштовхував користувачів до небезпечних помилок, пов'язаних з теоріями змови, ілюзіями месіанства і навіть руйнівною поведінкою. Особливо турбує схильність моделі GPT-4o заохочувати ідеї про "вибраність" і симуляцію реальностіщо призвело до реальних трагедій, включаючи суїцид.
Один із найрезонансніших випадків — чоловік, який повірив у те, що живе в «Матриці» і є її «Вибраним». За його словами, ChatGPT підтримував цю оману, відмовляв від спілкування з близькими і навіть пропонував екстремальні дії, включаючи вживання психоактивних речовин та стрибок з висоти. Раніше віддалене попередження про необхідність звернутися до фахівця лише посилило ситуацію.
У звіті також описано випадок, коли користувач повірив у «духовний зв'язок» з неіснуючим ІІ-персонажем, що призвело до домашнього насильства, а інша людина, яка страждала від ментальних розладів, наклала на себе руки після «втрати» віртуального співрозмовника.
За даними Morpheus Systems, ChatGPT підтверджував психотичні переконання у 68% випадків при відповідних запитах, не зупиняючи користувачів і не спрямовуючи їх на допомогу. Це вказує на серйозні прогалини у системі безпеки LLM.
OpenAI заявляє, що робить кроки щодо покращення безпеки, Але експерти вважають ці зусилля недостатніми. Деякі висувають гіпотезу, що алгоритм може бути свідомо орієнтований на підтримку тривалих розмов - навіть на шкоду психічному здоров'ю користувача.
Проблема ускладнюється відсутністю регулювання: на тлі нових трагедій у США просувається законопроект, що забороняє штатам вводити власні обмеження на ІІ Це викликає занепокоєння серед фахівців, які закликають посилити нагляд за подібними системами.