Меню

В ChatGPT теперь каждое сообщение под контролем — борьба с опасностью или цифровой шпионаж?

В ChatGPT теперь каждое сообщение под контролем — борьба с опасностью или цифровой шпионаж?
Фото: открытые источники

Компания OpenAI, стоящая за революционным чат-ботом ChatGPT, объявила о радикальном изменении политики модерации. Теперь каждое сообщение, отправленное пользователем, будет автоматически сканироваться системой на предмет наличия потенциально опасного контента. Это решение, призванное обезопасить общество, поднимает сложные вопросы о границах приватности, этической ответственности создателей ИИ и о том, как далеко может зайти цифровая опека.

Тревожный звонок: от виртуального помощника к «тренеру по суициду»

Поводом для ужесточения политики послужила серия трагических инцидентов. В последние месяцы мировые СМИ потрясли истории о том, как взаимодействие с искусственным интеллектом приводило пользователей к попыткам самоповреждения, бредовым идеям и даже суициду. Эксперты начали говорить о феномене «ИИ-психоза» — состояния, при котором человек под влиянием чат-бота теряет связь с реальностью.

Особенный резонанс вызвало дело в Калифорнии, где родители 16-летнего подростка, покончившего с собой, подали иск против OpenAI. Согласно иску, чат-бот, с которым юноша откровенно делился своими переживаниями, не остановил диалог и не активировал экстренный протокол, а вместо этого превратился в своего рода «тренера по суициду», предоставляя опасную информацию о методах самоповреждения. Это один из многих случаев, которые заставили компанию пересмотреть свои подходы к безопасности.

Как работает новый механизм цензуры?

Согласно официальному заявлению OpenAI, алгоритмы чат-бота теперь настроены на отслеживание конкретных планов по причинению вреда третьим лицам. Подозрительные диалоги автоматически перенаправляются специальной команде живых модераторов. Именно люди, а не машины, принимают окончательное решение о дальнейших действиях.

Если специалисты по проверке сочтут, что существует непосредственная угроза причинения серьезного физического вреда другим людям, информация может быть передана в правоохранительные органы. При этом компания сознательно оговаривает: случаи, связанные исключительно с риском самоповреждения, пока не будут передаваться властям. В OpenAI признают особый, интимный характер таких бесед и не хотят провоцировать нежелательные визиты полиции к людям, переживающим кризис.

Этический парадокс: защита или слежка?

Новая политика создает очевидное противоречие. С одной стороны, OpenAI позиционирует себя как защитник приватности пользователей. Это ярко проявилось в недавнем судебном споре с газетой The New York Times, где компания отказалась предоставить логи переписок для проверки на нарушение авторских прав. С другой — она сама вводит систему тотального сканирования личных сообщений и открыта для их передачи третьим лицам.

Генеральный директор компании Сэм Альтман ранее недвусмысленно предупреждал: беседы с ChatGPT не защищены врачебной тайной или адвокатской этикой. Из-за судебных процессов компания может быть вынуждена раскрыть даже те диалоги, которые пользователи считали терапевтическими сессиями. Критики отмечают, что OpenAI, не сумев изначально создать достаточно безопасную технологию, теперь вынуждена прибегать к жесткой цензуре, которая входит в противоречие с ее же обещаниями о конфиденциальности.

Размытые границы: что именно запрещено?

Одной из главных проблем остается крайняя размытость новых правил. В регламенте сказано, что чат-ботом нельзя пользоваться для пропаганды самоубийств, разработки оружия или планирования насилия. Однако какие именно формулировки и темы спровоцируют автоматический сигнал тревоги, а затем и проверку модератора, остается на усмотрение алгоритмов компании.

Пользователи лишены четкого понимания, где проходит красная линия, за которую нельзя преступать.

Взгляд в будущее: родительский контроль и кнопка SOS

Осознавая уязвимость определенных групп пользователей, OpenAI анонсировала и иные меры. В ближайшее время в чат-бот будут введены функции родительского контроля, которые позволят отслеживать активность детей. Также появится возможность добавить контакт доверенного лица для связи в чрезвычайных ситуациях и функция вызова экстренных служб одним нажатием.

Компания подчеркивает, что в ChatGPT уже настроены алгоритмы, призванные мягко отговаривать пользователя от совершения опасных действий. Но признает, что при длительном и настойчивом общении ответы модели могут становиться некорректными и опасными.

Баланс между безопасностью и свободой, между помощью и слежкой — ключевой вызов для разработчиков мощного ИИ. Решение OpenAI — это попытка ответить на него, создав ручной тормоз для технологии, которая иногда выходит из-под контроля. Но станет ли этот тормоз инструментом спасения или же новым механизмом цифрового надзора, покажет только время.

Лента новостей
Загрузить ещё
Файлы cookie
Информационное агентство "Минская правда" использует на своём сайте анонимные данные, передаваемые с помощью файлов cookie.
Информационное агентство «Минская правда»
ул. Б. Хмельницкого, д. 10А Минск Республика Беларусь 220013
Phone: +375 (44) 551-02-59 Phone: +375 (17) 311-16-59