Кого «убьёт» искусственный интеллект?

Все статьи

 

Искусственный интеллект продолжает развиваться и прочно входить в нашу жизнь. С его помощью пишут и защищают дипломные работы и решают куда более сложные задачи. ChatGPT и прогрессирующий российский аналог YaGPT от Яндекса всё популярнее. Но чем дальше, тем больше беспокойства. Яркий пример — забастовка сценаристов в Голливуде. Один из ключевых конфликтов, который требует урегулировать профильная гильдия, — использование искусственного интеллекта при написании сценариев. В особенностях явления разбирался Антон Хоменко

Технология представляет собой программные инструменты для генерации текста, поддерживаемые большими языковыми моделями, включая ChatGPT от OpenAI. Это так называемые LLM – нейросетевые модели, позволяющие обобщать, прогнозировать и генерировать человеческие языки на основе больших наборов текстовых данных. Принцип работы таких моделей основан на определении вероятностного сочетания слов и их значений в заданном контексте с использованием определённых алгоритмов вычислений. «У ChatGPT нет детских травм», – гласила надпись на плакате одного из участников забастовки сценаристов.

Поскольку генеративные программные инструменты искусственного интеллекта появились для бизнеса или для частных потребителей, быстро последовали вопросы о том, что возможность их внедрения может вытеснить с рынка некоторых работников, в том числе на творческих должностях, когда-то считавшихся невосприимчивыми к автоматизации. Однако уже сейчас ясно, что большинство медиа- и развлекательных компаний рассчитывают в ближайшие годы внедрить искусственный интеллект и инструменты для обработки текста, изображений и голоса.

Требования Гильдии сценаристов Голливуда касаются использования киностудиями искусственного интеллекта по трём направлениям. Их процитировали ключевые профильные издания, в том числе The Variety:

1. Его нельзя использовать для написания
или переработки литературного материала.

2. Текст, сгенерированный искусственным интеллектом, не должен использоваться в качестве исходного материала.

3. Программные инструменты, основанные на LLM, полагаются на огромное количество «обучающих» текстовых данных для получения результатов, имитирующих различные стили и структуры письма. Следовательно, прошлые работы членов гильдии не следует использовать в качестве данных для обучения систем искусственного интеллекта.

Основа компромисса между сценаристами и студиями, скорее всего, будет зависеть от более точных терминов, определяющих, когда и как искусственный интеллект можно или нужно использовать для написания текстов, а когда не следует.

Кирилл Пшинник

– Восприятие сценариев как произведений искусства может быть нарушено, если использовать нейросети для генерации или переработки текстов без участия самих сценаристов, – говорит генеральный директор университета «Зерокод» Кирилл Пшинник. – Такие требования направлены на защиту прав сценаристов и признания их вклада в творческий процесс. Нейросети умеют создавать тексты, но они могут иметь ограничения в творческом стиле, чувстве драматургии и эмоциональной глубине, которые сценаристы обычно вносят в свои работы. Требование исключить использование нейросетей в качестве исходного материала может быть обосновано стремлением сохранить высокое качество сценариев и уникальность авторского голоса сценариста. Однако надо отметить, что искусственный интеллект также может использоваться в качестве инструмента для помощи сценаристам в их творческом процессе. Нейросети могут предлагать идеи, синтезировать информацию. В таком случае требование полного исключения нейросетей может быть более спорным, может возникнуть потребность в более гибком подходе, сочетающим взаимодействие технологии и творчества.

В начале мая два комитета Европарламента – по внутреннему рынку и по гражданским сво­бодам – одобрили проект закона об искусственном интеллекте (так называемый AI Act). В июне должен проголосовать Европарламент. После этого пройдут обсуждения документа с Еврокомиссией, а также со странами-членами ЕС. Ожидается, что закон будет окончательно принят в конце нынешнего или начале следующего года. Документ станет первым в мире примером разностороннего и всеобъемлющего регулирования использования искусственного интеллекта, на который в дальнейшем так или иначе будут ориентироваться власти других стран и корпорации.

По словам Кирилла Пшинника, регулирование искусственного интеллекта на таком высоком уровне стало необходимым из-за растущего влияния и распространения этой технологии. Регулирование помогает определить этические принципы и требования к прозрачности в различных сферах, включая здравоохранение, транспорт, финансы и другие. Оно направлено на защиту данных и частной жизни, обеспечивает безопасность при использовании искусственного интеллекта и определяет ответственность за возможные негативные последствия вроде кибератак.

В то же время искусственный интеллект и автоматизация могут трансформировать широкий спектр профессий, особенно связанных с рутинными, повторяющимися задачами. Говорит руководитель агентства Vorona Agency Александра Веретено:

Александра Веретено

– Рабочие места в производстве и складировании – автоматизация и робототехника уже оказали значительное влияние на эти секторы, и тенденция сохранится. Такие задачи, как сборка, упаковка и обработка материалов, часто могут выполняться машинами более эффективно. С появлением автономных транспортных средств это может оказать значительное влияние на профессии водителей грузовиков, такси и служб доставки. Автоматизированные кассы, чат-боты и представители службы поддержки клиентов могут справляться со многими задачами, традиционно выполняемыми людьми в розничной торговле. Работа, связанная с рутинным вводом и обработкой данных, особенно подвержена автоматизации. В том числе в бухгалтерском учете и финансах. Искусственный интеллект может автоматизировать некоторые задачи в здравоохранении. Например, анализ медицинских изображений или данных. Тем не менее большинство рабочих мест в этой сфере также связаны со значительным взаимодействием человека и сложным принятием решений, поэтому влияние здесь может быть более ограниченным.

Уже сейчас искусственный интеллект (ИИ) активно используется для технического анализа на финансовых рынках. Но, по оценке Кирилла Пшинника, в этой отрасли работу ИИ нельзя назвать идеальной и безошибочной. Он может быть полезным инструментом для обработки больших объёмов данных и выявления скрытых паттернов, но решения, основанные на прогнозах ИИ, всегда должны быть оценены и подтверждены соответствующими исследованиями и анализом рыночных условий. Финансовые рынки традиционно связаны с риском и неопределённостью. Даже при использовании ИИ невозможно гарантировать стопроцентной точности прогнозов. Рыночные условия и случайные факторы могут привести к отклонениям от ожидаемых результатов.

Самый популярный пример искусственного интеллекта в массовой научно-фантастической культуре – вымышленный суперкомпьютер «Скайнет» из франшизы «Терминатор». Помимо всего прочего, он наделён креативными способностями и создаёт машину времени. Логичный вопрос – возможно ли его появление в реальности?

– Такой вариант развития событий – фантастика. В развитии искусственного интеллекта существуют этические рамки, направленные на обеспечение безопасности и ответственного использования технологии. Исследователи и разработчики активно занимаются созданием систем, соответствующим этическим нормам и обладающих контролем для предотвращения негативных последствий. Развитие ИИ не является автономным процессом. Множество организаций, учёных и правительственных инстанций активно работают над разработкой мер безопасности, – говорит Кирилл Пшинник.