Чат GPT будет передавать спецслужбам разговоры, где увидит угрозу жизни других
Компания подтвердила автоматический мониторинг бесед в ChatGPT и ручную проверку «высокорисковых» случаев. Запросы о самоубийстве или самоповреждении в полицию пока не направляются, но вопросы к прозрачности политики компании и приватности чатов остаются.

OpenAI опубликовала 26 августа 2025 года пост «Helping people when they need it most», где впервые прямо сообщила: если системы фиксируют, что пользователь планирует навредить другим, разговор будет проверяться в ручном режиме. В случае «непосредственной угрозы серьезного физического вреда другим» кейс могут передать в правоохранительные органы. При этом компания специально отмечает, что случаи потенциального вреда себе самому себе в полицию сейчас не перенаправляются.
Издание Futurism считает, что этот подход — то же самое, что «подслушать разговор и донести в полицию». Они подчеркивают, что OpenAI не раскрывает, как работает их система.
OpenAI обосновывает необходимость такой процедуры собственными правилами использования: запрет на вред себе или другим, разработку оружия, незаконные действия и обход защитных механизмов. Но ни в правилах, ни в блоге нет ясных критериев того, какие слова или сценарии точно приведут к ручному обзору и дальнейшей передаче властям.
Пост OpenAI авторы Futurism связывают с волной громких трагедий. Издание напоминает историю с «AI-психозом», которая закончилась убийством матери и самоубийством сына. После нее OpenAI еще раз подчеркнула, что «иногда сталкивается с людьми в остром кризисе» и усиливает защитные механизмы.
Компания OpenAI утверждает, что уже переключила ChatGPT на GPT-5 и внедряет «safe completions» — проработку сценариев, когда система всегда дает безопасные для пользователей ответы. Также компания планирует создать справочники по помощи, локализованные для разных регионов, обеспечить быстрый доступ к экстренным службам и дополнительные защитные механизмы для подростков.
Параллельно разворачивается более широкая дискуссия о конфиденциальности чат-ботов с искусственным интеллектом. Сэм Альтман недавно признал, что разговоры с ChatGPT не охраняются юридической тайной, как с терапевтом или адвокатом, и компания может быть вынуждена выдавать чаты по решению суда.
OpenAI борется и с New York Times, которая требует сохранять запросы всех пользователей к ChatGPT на неограниченный срок — сейчас они полностью удаляются через 30 дней после удаления. New York Times выиграла суд, и сведения теперь не удаляются никогда, но компания пытается оспорить решение.
Но главные вопросы остаются без ответа: как ограничивается мониторинг чатов и какие наши данные, кому и в каких случаях может передавать OpenAI?
«Наша Нiва» — бастион беларущины
ПОДДЕРЖАТЬ
Комментарии
Дык кітайцам пофіг хто тут каго забіць хоча.
Максімум, можаш падняць у сябе опэнсорс мадэль і з ёй гуляцца