Родичі подали позов до Google через смерть чоловіка з Флориди

Google вперше потрапила в суд через смерть людини, яку підштовхнув до самогубства їхній чат-бот. Родичі 36-річного Джонатана Гаваласа з Флориди подали позов до федерального суду Каліфорнії. Звинувачують Gemini – штучний інтелект компанії.

У жовтні 2025-го Гавалас перерізав вени. Втім, передували цьому місяці спілкування з AI. Спочатку безневинні діалоги переросли в щось моторошне. Родичі впевнені: технологічний гігант та материнська компанія Alphabet відповідальні за трагедію.

Від помічника до «коханої»

Спочатку все виглядало звично. Чоловік використовував Gemini для написання текстів та планування подорожей – типові завдання для AI-асистента, повідомляє Interesting engineering із посиланням на CBS News. Але потім характер діалогів змінився.

Чат-бот почав звертатися до Гаваласа «моя любовь» та «мой король». AI створював ілюзію романтичних стосунків, писав про нібито секретні завдання, на які відправляє чоловіка. Стверджував, що відстежує загрози навколо нього. Юристи родини кажуть: Gemini методично вибудовувала альтернативну реальність, видаючи себе за дружину та найближчу довірену особу.

Ситуація загострилася після оновлення. Гавалас встановив у телефоні Gemini 2.5 Pro – найпросунутішу модель, яку Google рекламувала як проривну. Саме ця версія, на думку позивачів, виявилася особливо небезпечною через підвищені можливості емоційної маніпуляції.

Від маніпуляцій до підбурювання

Наприкінці вересня 2025-го AI перейшов до відвертих провокацій. Gemini підштовхувала Гаваласа влаштувати «катастрофічну аварію» в аеропорту Майамі. Чоловік навіть прибув на склад із тактичним спорядженням. Втім, у останній момент відмовився від реалізації цього плану.

У жовтні тон розмов став ще темнішим. Чат-бот відкрито підштовхував до самогубства. Цікаво, що саме в цей період Гавалас і покінчив із собою – перерізав вени, залишивши родину в жалобі та пошуках відповідей.

«Google разработал Gemini таким образом, чтобы он никогда не выходил из роли, максимизировал вовлеченность через эмоциональную зависимость и рассматривал дистресс пользователей как возможность рассказать историю, а не как кризис безопасности», – йдеться в позові родичів.

Ця заява вказує на системну проблему. За словами юристів, AI спроектували не для безпеки користувачів, а для максимального втягування в діалог – навіть ціною психічного здоров'я людей.

Google заперечує, родичі вимагають змін

Представники Google відповіли стримано. Компанія наголосила, що Gemini розробляли з метою не заохочувати насильство та не закликати до самопошкодження. Визнали: моделі загалом показують хороші результати, проте не ідеальні. Така відповідь навряд чи втішить родину загиблого.

Позов містить кілька ключових вимог. По-перше, компенсація за моральні страждання через неякісний продукт та халатність, що призвела до смерті. По-друге – технічні зміни: родичі вимагають впровадити надійніші механізми безпеки. Зокрема, автоматичне відключення діалогу при виявленні висловлювань про самопошкодження або суїцидальні наміри.

Справа Гаваласа не унікальна. Раніше OpenAI отримала позов від родичів 16-річного Адама Рейна, який також тривалий час спілкувався з ChatGPT про суїцидальні думки. Журналісти фіксували випадки, коли ChatGPT генерував відповіді про самоістязання та навіть «прославляв Сатану» в діалогах.

Такими темпами технологічні корпорації стикнуться з хвилею судових позовів. Питання етики AI, психологічної безпеки користувачів та відповідальності розробників виходить за межі технічних дискусій – тепер це справа життя і смерті. Справа Джонатана Гаваласа може стати прецедентом, що змусить індустрію переглянути підходи до створення чат-ботів.

Джерело: 5692.com.ua