Чат GPT будзе перадаваць спецслужбам размовы, дзе ўбачыць пагрозу жыццю іншых
Кампанія пацвердзіла аўтаматычны маніторынг размоваў у ChatGPT і ручную праверку «высокарызыкоўных» выпадкаў. Запыты пра самагубства ці самапашкоджанне ў паліцыю пакуль не накіроўваюцца, але пытанні да празрыстасці палітыкі кампаніі і прыватнасці чатаў застаюцца.

OpenAI апублікавала 26 жніўня 2025 года допіс «Helping people when they need it most», дзе ўпершыню прама паведаміла: калі сістэмы фіксуюць, што карыстальнік плануе нашкодзіць іншым, размова будзе правярацца ў ручным рэжыме. У выпадку «неадкладнай пагрозы сур’ёзнай фізічнай шкоды іншым» кейс могуць перадаць у праваахоўныя органы. Пры гэтым кампанія адмыслова адзначае, што выпадкі патэнцыйнай шкоды сябе самому ў паліцыю зараз не перанакіроўваюцца.
Выданне Futurism лічыць, што гэты падыход — тое самае, што «падслухаць размову і данесці ў паліцыю». Яны падкрэсліваюць, што OpenAI не раскрывае, як працуе іхняя сістэма.
OpenAI абгрунтоўвае неабходнасць такой працэдуры ўласнымі правіламі выкарыстання: забарону на шкоду сабе ці іншым, распрацоўку зброі, незаконныя дзеянні і абыход ахоўных механізмаў. Але ні ў правілах, ні ў блогу няма ясных крытэрыяў таго, якія словы ці сцэнары дакладна прывядуць да ручнога агляду і далейшай перадачы ўладам.
Допіс OpenAI аўтары Futurism звязваюць з хваляй гучных трагедыяў. Выданне нагадвае гісторыю з «AI-псіхозам», якая скончылася забойствам маці і самагубствам сына. Пасля яе OpenAI яшчэ раз падкрэсліла, што «часам сутыкаецца з людзьмі ў вострым крызісе» і ўзмацняе ахоўныя механізмы.
Кампанія OpenAI сцвярджае, што ўжо пераключыла ChatGPT на GPT-5 і ўкараняе «safe completions» — прапрацоўку сцэнароў, калі сістэма заўжды дае бяспечныя для карыстальнікаў адказы. Таксама кампанія плануе стварыць даведнікі па дапамозе, лакалізаваныя для розных рэгіёнаў, забяспечыць хуткі доступ да экстранных службаў і дадатковыя ахоўныя механізмы для падлеткаў.
Паралельна разгортваецца шырэйшая дыскусія пра канфідэнцыйнасць чат-ботаў са штучным інтэлектам. Сэм Альтман нядаўна прызнаў, што размовы з ChatGPT не ахоўваюцца юрыдычнай тайнай, як з тэрапеўтам або адвакатам, і кампанія можа быць вымушаная выдаваць чаты па рашэнні суда.
OpenAI змагаецца і з New York Times, які патрабуе захоўваць запыты ўсіх карыстальнікаў да ChatGPT на неабмежаваны тэрмін — цяпер яны цалкам выдаляюцца праз 30 дзён пасля выдалення. New York Times выйграў суд, і звесткі цяпер не выдаляюцца ніколі, але кампанія спрабуе аспрэчыць рашэнне.
Але галоўнае пытанне застаецца без адказу: як абмяжоўваецца маніторынг чатаў і якія нашы даныя, каму і ў якіх выпадках можа перадаваць OpenAI?
«Наша Нiва» — бастыён беларушчыны
ПАДТРЫМАЦЬ
Каментары
Дык кітайцам пофіг хто тут каго забіць хоча.
Максімум, можаш падняць у сябе опэнсорс мадэль і з ёй гуляцца