Технологии и медиа, 11 янв, 16:57

FT узнала о переговорах OpenAI с экспертами из Китая о безопасности ИИ

Читать в полной версии
Фото: Lintao Zhang / Getty Images

Американские компании OpenAI, Anthropic и Cohere, специализирующиеся на разработке систем искусственного интеллекта (ИИ), ведут секретные переговоры с китайскими специалистами по вопросам безопасности этих технологий. Об этом сообщает Financial Times (FT) со ссылкой на источники, знакомые с ситуацией.

В июле и октябре 2023 года в Женеве прошли две встречи с участием американских экспертов и ученых, специализирующихся на политической составляющей в контексте разработки ИИ. На них также присутствовали представители Университета Цинхуа и других китайских государственных учреждений. Один из участников конференций на условиях анонимности уточнил, что о консультациях знали Белый дом и правительственные чиновники Великобритании и Китая.

Поводом для проведения мероприятий стала обеспокоенность возможностью искусственного интеллекта распространять дезинформацию и угрожать сплоченности общества, пишет Financial Times. Участники конференций рассказали изданию, что целью переговоров был поиск безопасного пути для разработки более продвинутых технологий в сфере ИИ.

Дискуссия позволила сторонам обсудить риски, связанные с новыми технологиями, и стимулировать инвестиции в исследования безопасности ИИ, сказали FT участники конференций. Один из них пояснил, что мировое сообщество не может устанавливать международные стандарты безопасности и согласовывать разработки в сфере ИИ без договоренности между китайскими и американскими специалистами. «Если они согласятся, будет гораздо легче привлечь остальных», — сказал он.

Переговоры организовала консалтинговая компания Shaikh Group, специализирующаяся на политической сфере, в частности, на Ближнем Востоке и в Северной Африке. Исполнительный директор компании Салман Шейх пояснил, что Shaikh Group увидела возможность объединить ключевых разработчиков технологий ИИ из США и Китая.

«Нашей главной целью было подчеркнуть уязвимости, риски и возможности, связанные с широким внедрением моделей искусственного интеллекта», — сказал он. «Признание этого факта, на наш взгляд, может стать основой для совместной научной работы, что в конечном итоге приведет к разработке глобальных стандартов безопасности моделей ИИ», — добавил Салман Шейх.

Pro
Кризис системы: как «проблемщики» и «решальщики» противостоят хаосу
Pro
Тревожность, самобичевание и чувство вины: что еще терзает достигаторов
Pro
Молочные жиры — зло? Что показали новые исследования
Pro
ЕС запретил регистрировать IP-объекты из РФ. Что это значит для бизнеса
Pro
Fisker — банкрот. Кому достанутся производство и бренд
Pro
Когда прибыль станет проблемой: банкротство из-за неравноценной сделки
Pro
Поворот направо. Что политические изменения в Европе значат для экономики
Pro
Пассивный доход и НДФЛ 0%. Станут ли личные фонды панацеей для россиян