Технологии и медиа, 17 мая 2023, 05:40

Разработчик ChatGPT призвал регулировать ИИ, если что-то «пойдет не так»

Глава компании-разработчика ChatGPT Олтмен заявил в конгрессе США, что они с коллегами хотят сотрудничать с властями в вопросе регулирования сферы ИИ: ведь если с технологией что-то «пойдет не так, все может пойти совсем не так»
Читать в полной версии
(Фото: Elizabeth Frantz / Reuters)

Сферу искусственного интеллекта (ИИ) необходимо регулировать, заявил глава стартапа OpenAI, разработавшего чат-бот ChatGPT Сэм Олтмен, сообщает The New York Times.

«Я думаю, что, если эта технология пойдет не так, все может пойти совсем не так. И мы хотим громко заявить об этом. Мы хотим сотрудничать с правительством, чтобы этого не произошло», — сказал Олтмен, выступая на слушаниях в конгрессе США.

Глава стартапа отметил, что, по мнению разработчиков, преимущества, которые дает ИИ, превышают риски, но обеспечение безопасности важно и для деятельности разработчиков.

Олтмен предложил создать агентство, которое бы лицензировало разработку крупных моделей ИИ, разрабатывало для них правила и тестирования.

ChatGPT обучали с помощью массива текстов из интернета и общения с живыми пользователями. Чат-бот в том числе способен вести диалог, сочинять стихи и прозу, резюмировать научные статьи и обрабатывать изображения по запросу пользователей.

Опасения из-за распространения ИИ не раз выражали как власти, так и представители бизнеса. В мае президент США Джо Байден и вице-президент Камала Харрис провели встречу с представителями IТ-индустрии, где обсуждалась данная тема. На ней присутствовал Олтмен, а также глава корпорации Microsoft Сатья Наделла и генеральный директор компаний Google Сундар Пичаи. Байден заявил, что компании «несут фундаментальную ответственность за обеспечение безопасности и надежности их продуктов до внедрения и распространения».

В апреле основатель Tesla, SpaceX и владелец Twitter Илон Маск заявил, что без государственного надзора быстро развивающийся ИИ может стать «опасностью для общества» и реальной угрозой для будущего человечества. До этого он стал одним из подписантов открытого письма на сайте организации Future of Life, в котором говорилось о необходимости приостановить разработку и обучение нейросетей. 

Pro
Налоги в 2025 году: что важно знать инвесторам в акции, облигации, ПИФы
Pro
«Колонизировать» Белый дом: что Илон Маск получит от президентства Трампа
Pro
Диета как инвестиционный портфель: какие продукты — хорошие активы
Pro
«Успех надо тиражировать». Мифы, которые погубили известные компании
Pro
Никаких галлюцинаций: как сделать ответы ИИ-ботов точнее
Pro
Русский Куршавель: как инвестировать в недвижимость на Алтае
Pro
Темная сторона ЗОЖ: что такое хелсизм и чем он опасен
Pro
Когда все пошло не по плану: 5 техник адаптации к вынужденным переменам