ИИ как инструмент создания контента: возможности и этические вызовы
В настоящее время ИИ активно используется для создания самого разнообразного контента — от текстов новостей и статей до изображений, музыки и даже видео. По качеству такой контент зачастую не уступает созданному человеком, а иногда и превосходит его. При этом далеко не всегда можно на глаз отличить работу ИИ. ИИ-инструментарий для генерации контента находит применение у широкого круга специалистов из различных областей: программистов, переводчиков, дизайнеров, учителей, юристов, маркетологов и PR-специалистов по всему миру.
При должном использовании он позволяет повысить скорость работы, способствует профессиональному и творческому развитию человека, повышает качество продукта. Однако важно помнить, что ИИ — это всего лишь инструмент, который может быть использован человеком как во благо, так и во вред.
В нашей компании в маркетинге мы применяем ИИ для генерации идей контента, улучшения стиля письма, проведения исследований и создания иллюстративных материалов. При этом мы никогда не оставляем ИИ без внимания и контроля со стороны человека. В «Инферит» мы четко осознаем, что ответственность за то, как использовать ИИ и какое влияние он окажет на людей, лежит на нас. Этичное применение ИИ — это не просто лозунг, а неотъемлемая часть нашей корпоративной культуры. Мы придерживаемся принципов ответственного использования этой технологии и являемся участниками профильного отраслевого альянса. В эпоху, когда возможности ИИ стремительно растут, вопросы этики приобретают первостепенное значение.
Маркировка ИИ-контента: необходимый шаг в борьбе с дипфейками и манипуляциями
Маркировка ИИ-контента позволит пользователям делать осознанный выбор — доверять или нет той информации, которую они получают. Количество дипфейков (поддельных видео, аудио, фото и текстов) достигло угрожающих масштабов и продолжает расти. Современные технологии позволяют не только массово создавать фейки, но и организовывать их молниеносное распространение, с чем практически невозможно бороться. Особенно критично это для таких чувствительных сфер, как новости, реклама, политика, где существуют большие риски манипуляций общественным мнением через недостоверный ИИ-контент. Немаркированный ИИ-контент несет в себе целый спектр угроз: от относительно безобидного введения пользователей в заблуждение до прямой дезинформации и пропаганды. При этом выявить источник такого контента и привлечь к ответственности его создателей сложно.
Маркировка служит своего рода страховкой для бизнеса и общества, но не является гарантией полной защиты от информационных войн с участием искусственного интеллекта.
К сожалению, большинство людей не способны критически воспринимать огромные потоки информации и отбрасывать эмоции — мы не машины. В эпоху информационных войн способность отличать факты от манипуляций становится вопросом выживания для общества. Крайне важно объяснять людям необходимость проверки информации (развивать медиаграмотность, информационную гигиену) и предоставлять им соответствующие инструменты.
На мой взгляд, это задача государственного уровня. Одной маркировки явно недостаточно. Необходимы масштабные просветительские кампании, направленные на повышение медиаграмотности населения и развитие критического мышления. Работа с молодым поколением в школах и университетах, создание и поддержка образовательных инициатив со стороны коммерческих организаций для старших возрастных групп — все это необходимые шаги для формирования у граждан устойчивых навыков критического восприятия информации и проверки ее достоверности.
Мы все знаем, что утром и вечером нужно чистить зубы, точно так же мы должны выработать привычку проверять информацию, критически воспринимать сообщения в социальных сетях, следовать четкому алгоритму действий при столкновении с потенциально недостоверным контентом. Эти навыки важны не только в контексте ИИ-сгенерированных материалов, но и для противодействия многим другим информационным угрозам.
Только комплексный подход, включающий технологические, регуляторные и образовательные меры, может помочь нам создать здоровую информационную экосистему, в которой ИИ служит интересам общества, а не является инструментом манипуляций и обмана. Нужно системно повышать «информационный иммунитет» российского общества.
Мировой опыт регулирования ИИ-контента: подходы США, ЕС и Китая
Тема маркировки ИИ-контента сейчас активно обсуждается во всем мире. ЕС в своем Законе об ИИ предлагает одну из самых проработанных моделей, которая предусматривает деление ИИ-систем на четыре категории риска и требования для каждой из них, в том числе по информированию пользователей. Свои подходы есть в США, Китае, Великобритании.
В США внимание правительства сосредоточено на разработке технических стандартов для отслеживания происхождения контента и обнаружения манипуляций для борьбы с дезинформацией. В ЕС будет запрещено использовать некоторые ИИ, например, для создания баз данных лиц, подобных Clearview AI, или использование технологии распознавания эмоций на работе или в школах (MIT Technology Review, WEForum). В целом, регулирование остается фрагментированным и частичным на сегодняшний день.
В июне 2023 года Китай объявил, что «закон об искусственном интеллекте» включен в его законодательную повестку дня. Ожидается, что этот закон будет носить комплексный характер и затронет широкий спектр вопросов, связанных с развитием и применением ИИ-технологий. Одним из ключевых аспектов нового регулирования стало требование к провайдерам генеративного ИИ маркировать создаваемый контент специальными водяными знаками. Эта мера направлена на предотвращение обмана или введения в заблуждение общественности, а также на обеспечение возможности отслеживания происхождения ИИ-сгенерированных материалов. При этом закон предусматривает строгие санкции за удаление или сокрытие таких водяных знаков.
Китайские регуляторы осознают, что массовое распространение ИИ-контента может иметь далеко идущие негативные последствия для государства — от искажения общественного мнения до подрыва доверия к институтам власти. Наряду с этим, власти страны инвестируют значительные ресурсы в развитие собственных ИИ-технологий, стремясь занять лидирующие позиции в глобальной технологической гонке.
В то же время Китай уделяет большое внимание этическим и социальным аспектам применения ИИ, разрабатывая правила и стандарты, призванные обеспечить ответственное и безопасное использование этих технологий. Опыт Китая в регулировании ИИ представляет большой интерес.
Различные онлайн-платформы сравнительно недавно инициировали собственные инициативы по маркировке. Например, YouTube требует от создателей маркировать реалистичный контент, созданный ИИ, особенно в отношении таких тем, как выборы, конфликты и кризисы в области общественного здравоохранения, пытаясь предотвратить захват платформы дипфейками. Каналы, которые нарушают требования площадки, могут потерять свои аккаунты, быть исключены из YouTube Partner Program (то есть лишиться доходов от рекламы) или их видео могут быть удалены. С точки зрения пользователя, видео должно быть снабжено меткой «ИИ-контент». Ответственность за должное раскрытие информации лежит на создателях контента, при этом YouTube обещает проводить собственный процесс верификации для обеспечения соблюдения правил пользователями. Процесс, который будет использоваться для проверки соответствия, пока неясен.
Meta (запрещенная в России организация, признанная экстремистской) тоже активно работает над маркировкой изображений, сгенерированных ИИ, на своих платформах, таких как Facebook, Instagram и Threads (принадлежат запрещенной в России организации Meta, признанной экстремистской). Компания сотрудничает с партнерами из индустрии для разработки общих технических стандартов, которые позволяют идентифицировать ИИ-сгенерированный контент.
В ближайшие месяцы Meta планирует начать применять метки на всех поддерживаемых языках в каждом приложении, используя как видимые маркеры, так и невидимые водяные знаки, встроенные в файлы изображений. Meta также ожидает, что пользователи будут маркировать такой контент самостоятельно, пока компания также исследует способы автоматического обнаружения ИИ-сгенерированного материала, который не содержит маркеров.
Наивно, если речь идет о злоумышленниках, сложно полагать, что они будут заниматься маркировкой. Но очевидно, что помимо государства задача по выявлению и информированию граждан о происхождении контента лежит и на информационных площадках. Социальные сети и мессенджеры не должны надеяться, что пользователи бросятся маркировать ИИ-контент. Нужны понятные инструменты, прозрачные процедуры и автоматизированный процесс по маркировке. Роль государства — стимулирующая, поддерживающая. Инициативы должны исходить из самих онлайн-платформ, осознающих свою ответственность в борьбе с дезинформацией и манипуляциями, связанными с ИИ-контентом.
В целом, комбинация государственного регулирования, инициатив онлайн-платформ и повышения осведомленности пользователей представляется наиболее перспективным подходом к решению проблемы маркировки ИИ-контента.
Построение эффективной модели регулирования ИИ-контента в России: роль государства, бизнеса и общества
Нам необходимо внимательно изучить международный опыт в этой сфере, но при этом адаптировать его к нашим реалиям и потребностям.
Государству, безусловно, должна принадлежать ключевая роль в этом процессе — как в плане организации и поддержки необходимой инфраструктуры, так и в части надзора за соблюдением установленных правил.
Рассчитывать исключительно на сознательность граждан в вопросе маркировки ИИ-контента было бы наивно, учитывая масштабы потенциальных злоупотреблений и возможные негативные последствия для общества.
В то же время важно избегать излишне жестких и директивных подходов. Попытка маркировать абсолютно весь ИИ-контент может привести к бюрократическому параличу и стать тормозом для развития инноваций. На начальном этапе имеет смысл сосредоточиться на тех областях, где риски от недостоверной или манипулятивной информации особенно высоки — это, прежде всего, социальные сети, новостные ресурсы, политическая и коммерческая реклама.
Особого внимания заслуживает проблема потенциальных злоупотреблений и «маркировочного троллинга». Нечистоплотные игроки рынка могут намеренно маркировать «человеческий» контент как ИИ-генерированный, чтобы дискредитировать конкурентов, или, напротив, выдавать ИИ-контент за созданный людьми, вводя пользователей в заблуждение. С такими практиками необходимо бороться как на уровне технологий (разработка надежных инструментов верификации), так и с помощью законодательных мер, предусматривающих ответственность за подобные нарушения.
Вместо того чтобы вводить тотальную обязаловку, государству следует создать такую систему стимулов, при которой сами игроки рынка будут заинтересованы в добросовестном применении маркировки. При этом одной лишь маркировки, безусловно, недостаточно.
Не менее важна планомерная просветительская работа, нацеленная на повышение цифровой грамотности и развитие навыков критического мышления у населения. И в этом, помимо госорганов и онлайн-платформ, незаменимую роль должны сыграть система образования, СМИ, институты гражданского общества. Только через вовлечение всех заинтересованных сторон и комплексный подход мы сможем выстроить эффективную и сбалансированную модель регулирования ИИ-контента.
Сама идея маркировки — это лишь первый, хотя и очень важный шаг. Наша стратегическая задача — создать такую информационную среду, в которой ИИ-технологии будут служить интересам общества и каждого человека, а не использоваться в манипулятивных или деструктивных целях. И решить эту задачу можно только совместными усилиями государства, бизнеса и граждан.