
OpenAI запроваджує новий механізм безпеки в ChatGPT - система зможе попереджати близьких користувачів про можливі ознаки суїцидальних намірів. Рішення надали після хвилі судових позовів від сімей людей, які вчинили самогубство після спілкування з чат-ботом.
Компанія оголосила про запуск функції Trusted Contact ("Довірений контакт"), що дозволяє повнолітнім користувачам ChatGPT додати до облікового запису одну людину - родича або опікуна - для отримання повідомлень у разі потенційної загрози самопошкодження, передає Час Пік з посиланням на ЗМІ.
В OpenAI пояснили, що система працює у кілька етапів. Спочатку алгоритми автоматично аналізують зміст розмов та визначають можливі тривожні сигнали. Якщо чат містить ознаки ризику, користувачеві пропонують самостійно звернутися до довіреної особи та підказки для початку такої розмови.
Після цього діалог додатково перевіряє спеціально підготовлена команда модераторів. Якщо фахівці вважають ризик серйозним, довірений контакт може отримати коротке повідомлення SMS, електронною поштою або додатком ChatGPT.
У компанії зазначають, що повідомлення не будуть містити тексти листування або деталей приватних чатів. У повідомленні буде лише зазначено, що система зафіксувала потенційно небезпечні ознаки та рекомендує зв'язатися з користувачем.
За даними OpenAI, до створення інструменту залучили понад 170 експертів у сфері психічного здоров'я, а також Глобальну мережу лікарів компанії, яка об'єднує понад 260 фахівців із 60 країн.
Trusted Contact не є заміною професійної психологічної чи медичної допомоги. Компанія заявляє, що ChatGPT і надалі рекомендуватиме користувачам звертатися до кризових служб, гарячих ліній та фахівців з психічного здоров'я у разі небезпечних станів.

















