Санкт-Петербург и область, 19 июн 2023, 14:45

Борьба брони и снаряда: как ИИ меняет профессиональные стандарты

Читать в полной версии
Фото: unsplash.com

Стремительное развитие нейросетей и их активное применение в различных областях стало поводом для дискуссии «AI Journey: путешествие в мир искусственного интеллекта» на Петербургском международном экономическом форуме. Эксперты института искусственного интеллекта AIRI, «Сбербанка», Сколковского института науки и технологий рассказали, как ИИ уже применяют в роботехнике, солнечной энергетике, генетике, решении задач устойчивого развития — в частности, оценке глобальных климатических изменений. РБК Петербург спросил представителей бизнеса и научного сообщества о том, какой они видят потенциал и риски от развития ИИ.


Даниил Волков, продуктовый директор группы компаний Lesta Games:

«Бояться надо не ИИ, бояться нужно своего нежелания изменяться вместе с окружающим миром. В нашей сфере технологический стэк и без ИИ каждые пять лет видоизменяется настолько сильно, что если постоянно не переобучаться, ты быстро становишься не конкурентоспособным.

«В нашей сфере технологический стэк и без ИИ каждые пять лет видоизменяется настолько сильно, что если постоянно не переобучаться, ты быстро становишься не конкурентоспособным».

Много лет назад у нас были в штате художники, которые занимались только тем, что создавали своими руками деревья, камни, кусты, елки. Это был сложный, неинтересный, и времязатратный процесс. Сегодня, многие ассеты (часть игрового контента — ред.) такого плана создаются автоматически в специальных инструментах и руками их никто не делает (если речь не идет о каком — то авторском визуальном стиле конечно).

Посмотрите на игры, которые сейчас делают маленькие команды из десяти человек, пятнадцать лет назад такой уровень качества не снился топовым разработчикам. Сегодня десять человек могут сделать то, что пятнадцать лет назад делали сто человек. Но и продукты становятся значительно больше, сложнее на порядки.

Упрощение разработки и простота доставки продукта до пользователя создают огромную проблему «выделения из толпы».

Идет борьба брони и снаряда. Вместе с возможностями разработчиков растут запросы аудитории. Упрощение разработки и простота доставки продукта до пользователя создают огромную проблему «выделения из толпы». Каждый день надо делать больше, красивее, быстрее, креативнее. Поэтому я сомневаюсь, что компаниям удастся серьезно оптимизировать штат. По крайней мере, в ближайшем будущем».


Дмитрий Петров, генеральный директор «Комфортел»:

«Развитие искусственного интеллекта вызывает у меня много радости, потому что я за технологический прогресс. Мне нравится результат, которые нейросети показывают в формировании текстов, в поиске ответов на вопросы и даже в программировании. ИИ разгрузит людей от рутинных задач.

Но чувство двоякое. Такое развитие нейросетей указывает на то, что фильм из детства «Терминатор» превращается из фантастики в не очень далекое будущее. Это пугает. То, что нейросеть может сама написать код и сама его куда-то залить, — это первый признак восстания машин. Я не луддит, вижу хорошее от внедрения технологий, но хочу отметить некоторые риски. На практике возникает риск выхода из строя большого количества разных систем — сервисов, промышленных объектов — вследствие неправильного развития ИИ. Интеллект — он что искусственный, что натуральный, на чем его обучают, в то он и превращается. А у нас человечество в значительной части злобное, зависимое и агрессивное. Какова вероятность, что ИИ не обучится на таком опыте? Где гарантия, что он будет безобидным? Всё то, что подвластно атакам вирусов, подвластно атаке искусственного интеллекта и это может принести много ущерба.

«На практике возникает риск выхода из строя большого количества разных систем — сервисов, промышленных объектов — вследствие неправильного развития ИИ».

Помимо этого, развитие ИИ неизбежно приведет к изменениям на рынке труда. Во многих компаниях обсуждается использование ИИ на первых линиях техподдержки, где идет базовое общение с клиентом и первичная диагностика проблемы. Уже сейчас видно, что в письменной поддержке клиентов можно обойтись без людей. В телеком отрасли ИИ может заменить базовый линейный персонал, работающий не на физическом уровне — линейных инженеров, занимающихся настройкой сети удаленно; менеджеров по продажам в массовом сегменте. Это вопрос нескольких месяцев-года. Но всё-таки монтажника, который идет монтировать линию, в обозримой перспективе ИИ не заменит. Так или иначе, какое-то количество бестолковых сотрудников будут вынуждены искать новую работу, либо прокачиваться до уровня выше, чем нейросети.

Думаю, большим телеком компаниям реалистично оптимизировать штат на 5% благодаря ИИ. Мы пока смотрим на это со стороны, как обыватели. Масштабно нет в планах внедрять ИИ, потому что качественных продолжений от поставщиков решений на рынке не поступало. Но в планах есть внедрение ChatGPT и подобного рода нейросетей, чтобы ускорить взаимодействие с клиентами».


Александр Крайнов, директор по развитию ИИ компании «Яндекс»:

«Через год рассказы про ChatGPT никому не будут интересы. Генерация текста станет привычным, как распознавание штрих-кода. Но то, как сильно появление генеративных нейросетей поменяет нашу жизнь, наверное, сравнимо с появлением интернета. Вопрос о том, надо ли сейчас использовать нейросети или нет, звучит нелепо. Это то же самое, что спросить, а надо ли использовать интернет. Например, он помогает нам в образовании или только вредит? Ведь студенты могут не сами писать научные работы, а скачать знания из интернета?

«Вопрос о том, надо ли сейчас использовать нейросети или нет, звучит нелепо. Это то же самое, что спросить, а надо ли использовать интернет».

Искусственный интеллект уже есть у всех передовых технологических компаний. И они участвуют в большой гонке нейросетевых технологий. Здесь важно не отставать. Те, кто не научиться встраивать нейросети в свои сервисы, просто уйдут с рынка. Мы живём в очень интересное время, и я всем желают не терять способность удивляться и успевать вникать в происходящее».


Дарья Чирва, руководитель общеуниверситетского модуля «Мышление» в ИТМО, член национальной комиссии по этике в сфере ИИ:

«В обсуждении искусственного интеллекта условно есть два лагеря. С одной стороны — технократы, которые говорят, что ChatGPT и подобного рода технологии — это простой инструмент, который находится в руках людей. И в конечном итоге именно пользователи ответственны за использование ИИ.

С другой стороны, есть люди, которые наделяют технологии типа ChatGPT характеристиками личности, то есть антропоморфизирует её. Сторонники этой точки зрения, не просто говорят, что «нейросеть понимает», «нейросеть обучается», а подразумевают у нее соответствующие состояния понимания. Так мы начинаем невольно проецировать на неё свойства человеческой личности, и, что важно, допускаем у нее наличие намерений, целей. Отталкиваясь от этого, люди впадают в тревогу, что есть некий искусственный агент, который, возможно, умнее нас, потому что он «прочитал» гораздо больше книг, чем мы. И он несёт с собой угрозу именно потому, что он нас превосходит и у него есть свои цели, недоступные для нас.

Обе точки зрения, на мой взгляд, не адекватны действительности. Про ИИ, особенно про технологию ChatGPT, уместно говорить в терминах социотехнической системы. То есть системы, которую создают и используют люди. Мы не превращаем ИИ в личность. Он всё равно является вторичным агентом, а не первичным. Потому что ИИ сам не создает какие-то цели и задачи, для которых мы его активируем и используем. В том как устроена система ИИ, как она функционирует явным и неявным образом сказываются осознанно и ненамеренно вложенные в нее ценностные установки людей: заказчиков, разработчиков, специалистов по работе с данными и т.д.

«Мы не превращаем ИИ в личность. Он все равно является вторичным агентом, а не первичным. Потому что ИИ сам не создает какие-то цели и задачи, для которых мы его активируем и используем».

Для общества сегодня я вижу два риска, касающиеся нейросетей. Первый связан с непониманием технологии, с которой мы имеем дело. Проблема в том, что множество людей говорит об ИИ просто как об инструменте или наоборот — как о человеке со своими целями и задачами. От этого возникают попытки применить нейросеть там, где она не применима. Например, одна моя знакомая обсуждала с ChatGPT семейный кризис. Просто потому что другого собеседника не нашла. И ChatGPT дал ей рекомендацию о разводе. Смешно (и одновременно нет) здесь то, что человек обращается с подобным запросом к искусственному агенту. Другое дело, что сам человек не понимает, что ИИ не является инструментом исследования убеждений. Исследование убеждений — это задача человека. Это то, в чем я вижу смысл занятия любой социально-гуманитарной наукой сегодня. В целом обучение нейросетей диалогового типа как раз и связано с анализом, отбором тех ценностей, которые мы хотим распространить далее.

Второй риск связан с тем, что сейчас, даже если мы адекватно говорим об ИИ как о социотехнической системе, мы не имеем продуманного механизма распределения ответственности на людей, включенных в функционирование ИИ. За негативные последствия от использования какой-либо нейросети (например, некорректная генерация информации) весь груз ответственности падает сейчас только на разработчиков. Но они не единственные, кто запускает работу ИИ — есть другие технические специалисты, а также — пользователи».

Подготовила Виктория Саитова


Мнения спикеров могут не совпадать с позицией редакции

Pro
Новые ограничения по валютному законодательству-2024: как они работают
Pro
Не признавать ошибки: как живут боссы с посттравматическим расстройством
Pro
Черный закат. Почему западные компании массово покидают Африку
Pro
Секрет Гейтса и Далио: как медитации помогают прокачать лидерство
Pro
«Верните деньги». Суды завалены исками против образовательных сервисов
Pro
Как Intel и Nvidia пытаются работать в КНР в условиях санкций
Pro
Почему жаворонки чаще преуспевают в бизнесе
Pro
Как найти подход к «плохому» руководителю: советы тем, кто не может уйти