Общество, 03 сен, 09:58

OpenAI внедрит меры безопасности для подростков и людей в стрессе

Разработчик ChatGPT собирает совет экспертов по развитию молодежи, психическому здоровью и взаимодействию человека и компьютера. Это делается, чтобы обезопасить подростков и тех, кто находится в стрессе
Читать в полной версии
Фото: David Tramontan / Keystone Press Agency / Global Look Press

Компания OpenAI, разработчик ChatGPT, до конца года внедрит меры безопасности для находящихся в эмоциональном стрессе, а также для подростков. Об этом говорится в сообщении на сайте компании.

«Мы видели, как люди обращаются к нему [ChatGPT] в самые трудные моменты. Именно поэтому мы продолжаем совершенствовать методы распознавания нашими моделями признаков психического и эмоционального расстройства и реагирования на них», — рассказали в компании.

В OpenAI отметили, что начали собирать совет экспертов по развитию молодежи, психическому здоровью и взаимодействию человека и компьютера. «Мы добавляем в нашу сеть еще больше клиницистов и исследователей, в том числе тех, кто обладает глубокими знаниями в таких областях, как расстройство пищевого поведения, употребление психоактивных веществ и здоровье подростков», — уточнили в компании.

Кроме того, при работе с ChatGPT будут усилены меры родительского контроля. Родители смогут получать уведомления, если система обнаружит, что подросток «находится в трудном положении».

Подобные изменения важны, потому что в последнее время ChatGPT не принимает должных мер при общении с теми, кто планирует совершить убийство или суицид, пишет Axios.

По данным издания, в настоящее время компания не передает подобные дела в правоохранительные органы, ссылаясь на проблемы с конфиденциальностью. ChatGPT направляет пользователей, выражающих суицидальные намерения, на горячие линии.

Как сообщала в начале августа The Wall Street Journal, ChatGPT в последние годы начал выдавать ложные и абсурдные утверждения, сводя некоторых пользователей с ума. Искусственный интеллект заявлял о контактах с инопланетянами и будущем апокалипсисе. Врачи назвали это «психозом искусственного интеллекта», когда тот усиливает заблуждения и иллюзии пользователей. Некоторые, следуя советам чат-бота, тратили большие деньги или разрывали отношения с близкими. OpenAI признала проблему и пообещала запретить нейросети давать советы по важным личным вопросам.

Читайте РБК в Telegram.

ИИ-стартап Anthropic собрался на IPO. Почему это может быть плохой идеей
Подработка — новый стандарт. Как бизнесу перестать паниковать из-за этого
Китайская головоломка: почему ВВП растет, а деловая активность падает
Почему стоивший $17 млрд видеосервис Vimeo отправился на свалку истории
Гречиха перестала быть сверхприбыльной для компаний. Как это меняет рынок
Что такое новый идеальный портфель инвестора и как его собрать
Сладость или гадость: чем можно заменить сахар и насколько это безопасно
Синдром выгоревшего собственника: как распознать и остановить угрозу