БЕЛ Ł РУС

Чат GPT будзе перадаваць спецслужбам размовы, дзе ўбачыць пагрозу жыццю іншых

15.09.2025 / 9:0

Nashaniva.com

Кампанія пацвердзіла аўтаматычны маніторынг размоваў у ChatGPT і ручную праверку «высокарызыкоўных» выпадкаў. Запыты пра самагубства ці самапашкоджанне ў паліцыю пакуль не накіроўваюцца, але пытанні да празрыстасці палітыкі кампаніі і прыватнасці чатаў застаюцца.

Выява згенераваная нейрасеткай

OpenAI апублікавала 26 жніўня 2025 года допіс «Helping people when they need it most», дзе ўпершыню прама паведаміла: калі сістэмы фіксуюць, што карыстальнік плануе нашкодзіць іншым, размова будзе правярацца ў ручным рэжыме. У выпадку «неадкладнай пагрозы сур’ёзнай фізічнай шкоды іншым» кейс могуць перадаць у праваахоўныя органы. Пры гэтым кампанія адмыслова адзначае, што выпадкі патэнцыйнай шкоды сябе самому ў паліцыю зараз не перанакіроўваюцца.

Выданне Futurism лічыць, што гэты падыход — тое самае, што «падслухаць размову і данесці ў паліцыю». Яны падкрэсліваюць, што OpenAI не раскрывае, як працуе іхняя сістэма.

OpenAI абгрунтоўвае неабходнасць такой працэдуры ўласнымі правіламі выкарыстання: забарону на шкоду сабе ці іншым, распрацоўку зброі, незаконныя дзеянні і абыход ахоўных механізмаў. Але ні ў правілах, ні ў блогу няма ясных крытэрыяў таго, якія словы ці сцэнары дакладна прывядуць да ручнога агляду і далейшай перадачы ўладам.

Допіс OpenAI аўтары Futurism звязваюць з хваляй гучных трагедыяў. Выданне нагадвае гісторыю з «AI-псіхозам», якая скончылася забойствам маці і самагубствам сына. Пасля яе OpenAI яшчэ раз падкрэсліла, што «часам сутыкаецца з людзьмі ў вострым крызісе» і ўзмацняе ахоўныя механізмы.

Кампанія OpenAI сцвярджае, што ўжо пераключыла ChatGPT на GPT-5 і ўкараняе «safe completions» — прапрацоўку сцэнароў, калі сістэма заўжды дае бяспечныя для карыстальнікаў адказы. Таксама кампанія плануе стварыць даведнікі па дапамозе, лакалізаваныя для розных рэгіёнаў, забяспечыць хуткі доступ да экстранных службаў і дадатковыя ахоўныя механізмы для падлеткаў.

Паралельна разгортваецца шырэйшая дыскусія пра канфідэнцыйнасць чат-ботаў са штучным інтэлектам. Сэм Альтман нядаўна прызнаў, што размовы з ChatGPT не ахоўваюцца юрыдычнай тайнай, як з тэрапеўтам або адвакатам, і кампанія можа быць вымушаная выдаваць чаты па рашэнні суда.

OpenAI змагаецца і з New York Times, які патрабуе захоўваць запыты ўсіх карыстальнікаў да ChatGPT на неабмежаваны тэрмін — цяпер яны цалкам выдаляюцца праз 30 дзён пасля выдалення. New York Times выйграў суд, і звесткі цяпер не выдаляюцца ніколі, але кампанія спрабуе аспрэчыць рашэнне.

Але галоўнае пытанне застаецца без адказу: як абмяжоўваецца маніторынг чатаў і якія нашы даныя, каму і ў якіх выпадках можа перадаваць OpenAI?

Чытайце таксама:

Топавы айцішнік падазраваў усіх вакол у змове. Пасля кансультацый з чатам GPT ён забіў сваю маці і сябе

ChatGPT прадставіў новую мадэль GPT-5. Вось што ў ёй новага і што абяцаюць распрацоўшчыкі

Падказка папулярнай нейрасеткі Gemini спажывае столькі ж энергіі, колькі 9 секунд тэлевізара

Каментары да артыкула