Кодекс для ИИ: созданный нейросетями контент промаркируют

Автор фото: vostock-photo
Автор фото: vostock-photo

С развитием технологий рынок могут ждать новые вызовы. Госдума разрабатывает законопроект об обязательной маркировке контента, созданного искусственным интеллектом.

За год объём созданного при помощи нейросетей контента вырос в 17 раз, подсчитали в АНО "Диалог регионы". С начала 2022 года организация выявила 570 тыс. материалов, изготовленных с помощью искусственного интеллекта (ИИ). Данные собрали с помощью системы мониторинга "Зефир". Информацию планируют использовать для формирования инициатив по доработке законодательства о противодействии фейкам.

Чем чревато активное использование нейросетей

По данным Reuters, количество видеодипфейков в интернете в 2023 году выросло в 3 раза, а аудиодипфейков — в восемь. В том числе на увеличение количества фейков повлияло активное развитие нейросетей — появились новые возможности для мошенничества. Например, через клонирование голоса человека с последующими действиями от его лица.
Рынок нейросетей пока абсолютно сырой и только формируется. Недостаточно изучены ни процессы, ни результаты, не наработана база. Как отмечает соучредитель агентства Mygribs Максим Болонкин, взаимодействуя с нейросетями, важно помнить, что это только формирующаяся отрасль и нужно быть внимательным к результатам.
"Активное использование нейросетей сейчас может привести к большому количеству ошибок, логических в том числе. Если всё делегировать нейросети, не осуществляя проверку полученных данных, то может возникнуть большое количество неадекватного контента. В истории агентства есть кейс, когда мы открывали ресторан с помощью нейросетей. ИИ вдруг стал придумывать несуществующих конкурентов, предлагать блогеров, которых тоже нет. Получается, нейросеть всегда может что–то дофантазировать. Очень важно отслеживать, где заканчивается реальность и начинается фантазия", — добавляет собеседник "ДП".
Доцент и академический руководитель программы "Бизнес–аналитика и системы больших данных" Высшей школы бизнеса НИУ ВШЭ Армен Бекларян считает, что работодатели, вузы, государственные организации и федеральные органы исполнительной власти вынуждены вводить меры по регулированию контента, сгенерированного нейросетями. Однако на более высоком уровне (например, в качестве федерального закона) такие меры пока избыточны.
"Самое правильное — обкатать этические кодексы на локальном уровне, внести соответствующие правки на базе накопленного опыта применения и только после этого в рамках широкой общественной дискуссии поднимать вопрос о федеральном документе", — отмечает эксперт.
В начале июля НИУ ВШЭ стал первым университетом в России, утвердившим декларацию этических принципов создания и использования систем ИИ. В вузе считают, что документ станет ориентиром для всех участников образовательного процесса. В декларацию входит ряд принципов, направленных на этичное и ответственное использование ИИ. Например, приоритет человеческого общения, информированное использование, академическая честность, конфиденциальность, защита интеллектуальных прав и т. д.
Эксперт в области генеративного ИИ компании Axenix Елена Мимоглядова согласна с тем, что создание излишнего регулирования может затормозить развитие генеративных нейросетей. Пример мягкого регулирования — декларация об ответственном генеративном ИИ, подписанная 10 участниками российского рынка. Среди них — "Сбер", "Яндекс", МТС и другие. В декларации собран свод этических принципов, рекомендаций и стандартов поведения в сфере технологий генеративного ИИ.

Нужно ли маркировать контент

Весной в Госдуме стартовала разработка законопроекта, по которому контент, созданный ИИ, может подлежать обязательной маркировке. По словам члена комитета ведомства по информполитике Антона Немкина, цель инициативы — защитить россиян от непроверенной информации.
Игроки рынка считают, что у маркировки созданного ИИ контента есть свои плюсы. Среди них — прозрачность автора контента, сохранение этических стандартов и ответственность за действия нейросетей.
"С другой стороны, на это необходимо тратить дополнительные ресурсы. К тому же не всегда легко определить, что и в какой степени создано ИИ, это усложняет реализацию инициативы. В конечном итоге маркировка может помочь направить общественное внимание на важные этические и правовые аспекты использования ИИ. Однако маркировка не решит все проблемы регулирования генеративного контента. Ведь как относиться к контенту, который создан совместно ИИ и человеком? Этот вопрос остаётся открытым, так как в будущем львиная доля специалистов будет использовать нейросети в повседневной работе", — рассуждает сооснователь NDT by red_mad_robot Алексей Жданов.
Руководитель направления личного брендинга в коммуникационном агентстве iTrend Виктория Фоменко считает, что разработка закона о регулировании контента, созданного с помощью ИИ, — это логичный шаг. Бесконтрольное использование нейросетей может создавать огромные массивы непроверенных текстов и данных, а также нарушать авторские права, говорит эксперт. Однако пока в теме регулирования контента, созданного с помощью ИИ, больше вопросов, чем ответов.
"Неясно, как именно маркировать такой контент и как заставить маркировку работать. Даже если дать пользователям понять, что контент сгенерирован ИИ и его стоит перепроверить, большинство просто не обратит на это внимание. Да и в борьбе со злоумышленниками маркировка может помочь далеко не всегда, особенно если они пользуются собственными ИИ–сервисами. Опереться на зарубежный опыт не получится — на сегодняшний день регулирование ИИ во всём мире только набирает силу", — объясняет Виктория Фоменко.
"На текущем этапе нейросети любят галлюцинировать. Поэтому если текст, выданный нейросетью, использует факты, исследования или цифры, то необходимо перепроверять достоверность этих данных. А люди должны относиться с недоверием к такого рода контенту. При этом нейросети развиваются, совершенствуются, поэтому думаю, что дальше будет лучше и интереснее", — говорит директор по маркетингу "Битрикс24" Александр Вартанян.

Какие могут быть последствия

В Сети всё чаще появляется информация, сгенерированная нейросетями и не прошедшая базовую проверку на достоверность. Тем не менее пользователи могут воспринимать такие данные как правдивые, что нарушает право граждан на информацию.
"В части 4 статьи 29 Конституции РФ закреплено право граждан на информацию. Это право в разрезе отношений с нейросетями, их контентом и разработчиками, по мнению законодателя, должно включать в себя также и право граждан быть информированными о том, кто или что, как в случае с нейросетью, создаёт потребляемый ими контент. Маркировка ИИ–контента будет сигналом для пользователей к тому, чтобы контент воспринимался критически или как вовсе не претендующий на достоверность", — комментирует юрист практики судебных споров компании 4R Group Ариана Алтухова.
Впрочем, для начала нужно разработать конкретные правила такой маркировки и выделить тех, кто будет ею заниматься, считает руководитель практики "Цифровая экономика" юридической компании GMT Legal Денис Поляков.
По его словам, наиболее простой вариант — наложение обязанности по маркировке на операторов нейросетей, то есть на компании и иные лица, которые создали нейросети и обеспечивают их дальнейшую работу. Фактически такая обязанность обеспечит "первый" автоматический уровень маркировки контента. Но в любом случае потребуется также разработать и стандарты для ручной проверки сотрудниками госорганов исполнения такой обязанности.
Юристы считают, что введение маркировки — не панацея. Во–первых, большинство людей не относятся к информации критически, поэтому добавление новой маркировки для них вряд ли что–то изменит. Кроме того, фейковый контент зачастую создают не нейросети, а люди, которые в этом заинтересованы. Маркировка лишь снизит их интерес к использованию нейросетей как инструмента, но полностью не исключит создания фейков.