Автор: Глинкова К.М.
В настоящее время технологии являются неотъемлемой частью жизни людей. Технологический процесс открыл обществу новые возможности, сделав ранее недоступные знания доступными, а жизнь проще. Однако, несмотря на множество положительных моментов, в то же время технологии принесли в нашу жизнь и ряд проблем. Появление искусственного интеллекта (далее — ИИ) существенно исказило восприятие человеком разницы между реальностью и вымыслом, где главным "стирателем" такой грани выступили дипфейк-технологии. Если не так давно технические средства записи позволяли запечатлеть слепок реального мира, а внесение изменений или подделка аудиовизуальных произведений различными средствами требовали значительных усилий и (или) были очевидными для обывателя, то сегодня дипфейки позволяют любому человеку практически в домашних условиях легко и быстро создать симуляцию какого-либо события, преимущественно не отличимую от реальности.
Появление технологии дипфейков связывают с именем молодого американского исследователя Яна Гудфеллоу, который в 2014 году создал подобный продукт для разработчиков ИИ. Однако термин "дипфейк" как таковой возник несколькими годами позже — в 2017 году от никнейма "deepfakes", принадлежавшего пользователю онлайн-платформы Reddit, который присоединял лица известных голливудских актрис к телам женщин в порнографических видео и размещал эти видео в социальных сетях. В дальнейшем появились различные приложения для создания дипфейков, в результате чего сфера их применения расширилась и они приобрели массовый характер. Если во второй половине 2019 года в сети Интернет насчитывалось 85 047 дипфейков, то к июню 2020 года они перевалили отметку в 145 тысяч. По прогнозам ИИ-компании DeepMedia, количество дипфейков, распространенных в социальных сетях по всему миру, к концу 2023 года достигнет 500 тысяч.
Сам термин "дипфейк" пока еще не имеет формального общепринятого определения. Не содержит такого понятия и отечественное законодательство. Тем не менее он приобрел широкое распространение и прочно вошел в категорию общеупотребительной лексики. В самом общем смысле дипфейк (deepfake) появился из комбинации понятий "глубокое обучение" (от англ. deep leaning) и "подделка" (от англ. fake) и подразумевает под собой поддельный аудио- и/или визуальный контент, созданный посредством использования генеративно-состязательной нейронной сети (Generative adversarial network, GAN), состоящей из двух алгоритмов, именуемых генератором и дискриминатором. Первая часть алгоритма — генератор — изучает большой объем фото- и (или) видеоматериалов с человеком, чей образ планируется перенести на видео. Изучив черты лица, мимику, голос, манеры с разных ракурсов и при разном освещении, генератор создает маску, которая в дальнейшем будет наложена на лицо человека из ролика. Вторая часть алгоритма — дискриминатор — ищет в маске неточности, непохожести и как только их находит, отправляет на доработку первой части алгоритма. Иными словами, всячески критикует работу генератора. Дипфейк будет готов лишь тогда, когда вторая сеть не сможет отличить подделку. В итоге создается аудиовизуальный контент, на котором человек говорит и (или) делает то, чего он не говорил и (или) не делал в действительности.
Выделяют звуковые, фото- и видеодипфейки, которые представляют собой сочетание динамического изображения и голоса человека.
Создание дипфейков может быть безвредным или даже полезным. Дипфейк-технологии используются в основном для создания шуточных видео, развлекательного контента. Так, например, в 2020 году в сети Интернет массово стало распространяться видео, в котором американский предприниматель и инженер Илон Маск исполняет песню "Трава у дома" вместо солиста группы "Земляне".
Технология находит положительное применение во многих сферах: кино, искусстве, рекламе, образовании. Киноиндустрия может разными способами извлечь выгоду из технологии дипфейков, которая, например, способна помочь в создании цифровых голосов для актеров, потерявших их вследствие болезни, омолодить или, наоборот, состарить актера без использования услуг гримера, а также легко обновить отснятый материал вместо того, чтобы его переснимать. Дипфейк-технология также дает возможность создавать фильмы с участием давно умерших актеров. Так, в продолжении военного сериала "Диверсант", получившего название "Идеальный штурм" и вышедшего спустя 12 лет после смерти одного из главных актеров, на экране вновь появился командир разведчиков Григорий Калтыгин, которого в первых двух сезонах играл Владислав Галкин, погибший в далеком 2010 году. Это стало возможным благодаря нейросети, которая не только сотворила визуального Калтыгина, взяв за основу изображения и голос Владислава Галкина из первых сезонов сериала, но и созданную модель, как маску, примерила на лицо дублера.
В том же 2022 году в России сняли первый в мире веб-сериал с использованием технологии дипфейк — юмористический проект пародийного характера под названием "ПМЖейсон". Сериал рассказывает о вымышленных приключениях в России британского актера Джейсона Стэйтема. Основная идея — посмотреть на русский быт глазами иностранца. В сериале также задействованы образы знаменитых актеров Марго Робби, Киану Ривза и Роберта Паттинсона.
Положительное применение дипфейки могут найти и в образовательном процессе. Сопровождение материала по истории или литературе дипфейками выдающихся военачальников, правителей, поэтов и ученых, произносящих свои знаменитые фразы, зачитывающих стихи, размышляющих на определенные темы, сильно сказалось бы на запоминании информации и общей успеваемости обучающихся. И это отнюдь не все сферы, где дипфейки могут быть использованы во благо.
Однако есть и обратная сторона медали. Различные политические игроки, например иностранные правительства, хакеры, террористы, могут использовать дипфейки для манипулирования общественным мнением и подрыва доверия к государственным институтам той или иной страны.
Дипфейки все чаще используются мошенниками для совершения финансовых преступлений. Правонарушители уже применяют фальшивые аудиозаписи, созданные ИИ, чтобы выдавать себя в разговоре по телефону за руководителя определенной компании или структуры, обращающегося с просьбой о срочном переводе денежных средств. Стоит отметить, что чаще всего визуальные материалы, необходимые для создания дипфейков руководителей или лиц, занимающих важные посты в государстве, находятся в открытом доступе. А это значит, что абсолютно любой человек, используя ИИ, может создать правдоподобный дипфейк и нанести серьезный урон не только отдельному человеку, но и всему обществу или государству. Это не может не вызывать опасений.
Ученые обеспокоены тем, что в будущем и видеозвонки также можно будет имитировать в режиме реального времени. Сразу же вспоминается британский сериал "Захват" ("The capture"), вышедший в 2019 году. Он рассказывает о новых технологиях, в частности о возможности взломать городские камеры видеонаблюдения и вмонтировать туда заранее отснятый фрагмент. При этом все происходит в режиме онлайн. Например, полицейский видит на экране монитора, как совершается убийство. В действительности же человек просто идет вдоль оживленной улицы. Выходит, что кто-то взломал уличные камеры видеонаблюдения, вырезал определенный фрагмент и вставил вместо него нужный. Все это происходит в режиме реального времени и абсолютно незаметно для следящего за камерой. Показанная в фильме технология позволяет сфабриковать любое видео, якобы доказывающее чью-то вину. Не исключено, что когда-нибудь генеративно-состязательные сети будут развиты настолько, что позволят создавать подобные дипфейки в режиме реального времени.
Дипфейки — прямая угроза национальной безопасности. Социальные сети, мессенджеры и другие цифровые платформы, помимо возможностей быстрого и удобного обмена информацией, стали также неотъемлемой частью современных информационных войн.
Опасность дипфейков состоит в том, что они выступают инструментом, позволяющим влиять на сознание людей, принятие решений, сеющим панику и разжигающим конфликты. Недружественное государство может создать дипфейк-видео, на котором президент или политик использует расовый эпитет или берет взятку, призывает к началу военных действий или совершает преступление. Пятого июня 2023 года в нескольких регионах России телевизионный эфир был прерван обращением, якобы записанным от лица Президента страны В.В. Путина. В нем говорилось о введении военного положения и объявлении полной мобилизации. Аналогичная информация транслировалась и в эфире ряда радиостанций. Позже пресс-секретарь Президента Дмитрий Песков заявил, что эфир был взломан — в действительности Президент ни с каким обращением не выступал. Платформа "Зефир", которая используется для мониторинга аудиовизуальных материалов, установила, что обращение является дипфейком с вероятностью 87%.
Тот факт, что дипфейки уже просочились в отечественное телевидение, пугает. В скором времени мы будем доверять не всем новостям, а все услышанное и увиденное станем подвергать сомнению.
Как уже выяснили, дипфейки оказывают влияние на все сферы нашей жизни, что в свою очередь неизбежно порождает множество правовых проблем. И ключевые из них — соблюдение прав оригинальных произведений, на основе которых и были созданы дипфейки, а также выяснение правовых последствий таких действий.
Дипфейки в литературе рассматриваются с двух диаметрально противоположных позиций: дипфейк — это производное произведение, и дипфейк не является производным произведением. Разумеется, что у каждой из этих точек зрения есть свое обоснование.
Рассмотрение дипфейка через призму производного произведения является наиболее оптимальным и поддерживается большинством авторов, поскольку такой подход позволяет достичь компромисса между создателем произведения и автором первоначального произведения. В случае признания дипфейка производным произведением создатель сможет пользоваться правовой защитой, а автор первоначального произведения — реализовывать исключительное право на него.
Исключительное право на охраняемый результат интеллектуальной деятельности представляет его субъекту возможность использовать данный объект по своему усмотрению в любой форме и любым не противоречащим закону образом. То есть правообладатель может как разрешать, так и запрещать другим лицам использовать результат своей интеллектуальной деятельности. По общему правилу третьи лица не могут использовать охраняемый результат интеллектуальной деятельности без согласия правообладателя, за исключением случаев, предусмотренных ГК РФ.
В п. 2 ст. 1270 ГК РФ содержится открытый перечень способов использования произведения, в отношении которых, независимо от цели (извлечение прибыли или без таковой), необходимо получать разрешение у правообладателя. Одним из таких способов является переработка произведения, под которой понимается создание производного произведения. Нарушением исключительного права считается несанкционированное осуществление своих прав автором производного произведения.
Однако стоит отметить, что автор дипфейка будет нести ответственность не за факт его создания, поскольку согласно п. 3 ст. 1260 ГК РФ автор производного произведения приобретает свои субъективные права независимо от наличия или отсутствия разрешения правообладателя, а за факт обнародования того или иного использования. Исключением являются случаи создания дипфейка в жанре пародии либо в жанре карикатуры (п. 4 ст. 1274 ГК РФ). Данная норма является некой лазейкой, поскольку позволяет создавать дипфейки на основе других правомерно обнародованных произведений без согласия автора и без выплаты ему вознаграждения, прикрываясь жанром пародии или карикатуры.
Что касается второго подхода, согласно которому дипфейк не является производным произведением, то он соответствует отечественному законодательству, по которому автором произведения науки, литературы или искусства является гражданин, творческим трудом которого оно создано (ст. 1257 ГК РФ). Если объект создан не творческим трудом человека, а машиной, то такой объект не получает правовую охрану. А значит, дипфейк не является произведением, в том числе и производным. И раз дипфейк не самостоятельное произведение, то он — изменение исходного произведения. Согласно п. 87 Постановления Пленума Верховного Суда РФ от 23.04.2019 N 10 "О применении части четвертой Гражданского кодекса Российской Федерации", "право на неприкосновенность произведения касается таких изменений произведения, которые не связаны с созданием нового произведения на основе имеющегося". Изменения допускаются только с согласия автора и должны быть определенно выражены. В случае неполучения согласия автора и нарушения неприкосновенности произведения путем создания дипфейка его создатель будет нести ответственность за сам факт его создания (ст. 1266 ГК РФ). Защита личных неимущественных прав осуществляется путем признания права, восстановления положения, существовавшего до нарушения права, пресечения действий, нарушающих право или создающих угрозу его нарушения, компенсации морального вреда, публикации решения суда о допущенном нарушении.
Таким образом, первый подход будет верен в том случае, если российское право допустит возможность предоставления правовой охраны объектам, созданным ИИ. В этом случае дипфейки будут признаваться производным произведением и смогут пользоваться правовой защитой. Так, например, в 2020 году Народный суд Шэньчжэньского района Наньшань впервые в мире признал статью, написанную ИИ, объектом авторского права.
Что касается второго подхода, то он в настоящий момент является единственно правильным. Поскольку искусственный интеллект не признается автором созданного им произведения, то можно говорить, что у произведения нет автора, а значит, оно является объектом общественного достояния и использовать его может любой желающий.
Таким образом, в первом случае создание дипфейка нарушает исключительное право автора (в случае использования произведения без разрешения автора), а во втором — личное неимущественное право автора на неприкосновенность произведения.
А.М. Постарнак считает эффективной концепцию, при которой дипфейки признаются производными произведениями. При этом автор указывает на необходимость сопровождения всех дипфейков специальной пометкой, содержащей указание о том, что это вторичное произведение, и дающей ссылку на автора оригинала.
Как известно, есть разные подходы к определению авторства произведений, созданных искусственным интеллектом: 1) исключительные права переходят к ИИ; 2) права разделяются поровну между ИИ и человеком; 3) права переходят в собственность определенного человека (разработчика или пользователя); 4) произведение рассматривается как служебное произведение или переходит в общественное достояние. Автор данной статьи не признает авторство за искусственным интеллектом, считает, что наделение ИИ правосубъектностью, тождественной человеку, ошибочно.
Во-первых, как уже было отмечено, автором произведения признается гражданин, творческим трудом которого оно создано. Граждане, не внесшие личного творческого вклада в создание результатов интеллектуальной деятельности, в том числе оказавшие его автору только техническое, консультационное, организационное содействие или помощь либо только способствовавшие оформлению прав на такой результат или его использованию, а также граждане, осуществлявшие контроль за выполнением соответствующих работ, не признаются авторами результата интеллектуальной деятельности (ст. 1228 ГК РФ). Если не брать в расчет слово "гражданин", то можно прийти к выводу, что главным является творческий вклад в создание произведения. Действия же ИИ можно расценивать как оказание технической помощи. Иными словами, искусственный интеллект — некий инструмент, кисть, с помощью которой художник пишет свои картины.
Во-вторых, ИИ не обладает важными для субъекта права качествами, которые присущи человеку. Несколько десятилетий назад остро обсуждался вопрос, стоит ли юридическое лицо признавать субъектом уголовной ответственности. И как мы можем наблюдать сейчас в Уголовном кодексе России, субъектом уголовной ответственности является только физическое лицо, поскольку только ему присущ такой признак, как вина, только ему свойственно психическое отношение к совершенному деянию. Здесь ситуация такая же: только человек обладает такими качествами, как сознание, душа, желания, стремления, потребности, осознания себя как личности. И если, как нам кажется, мы наблюдаем у ИИ эти качества, то это всего лишь их искусная имитация.
В-третьих, создавая свое произведение, ИИ в качестве основы использует чужие произведения, некогда сотворенные людьми. Он заимствует элементы чужого творчества, то есть компилирует данные, поэтому об оригинальности произведения и его творческом характере в этих случаях не может быть и речи.
И в-четвертых, одной из главных целей создания результатов интеллектуальной деятельности является желание правообладателя извлечь из них выгоду. Очевидно, что подобное стремление не может быть свойственно ИИ.
Все вышеперечисленное дает основание думать, что ИИ не может и не должен быть субъектом права.
Однако существует и прямо противоположный взгляд на этот вопрос, который подтверждается практикой. В пример можно привести существующий прецедент наделения робота правами человека, то есть признания его на законодательном уровне субъектом права. Так, робот (геноид) София (определяет себя как женщина) была создана гонконгскими разработчиками компании Hanson Robotics. В октябре 2017 года она получила гражданство Саудовской Аравии на саммите "Инвестиционная инициатива будущего" в Эр-Рияде. Такое решение вызвало со стороны общественности критику, которая не прекращается и по сей день.
По мнению автора данной статьи, автором произведения (в т.ч. дипфейка), созданного ИИ, следует признавать пользователя искусственного интеллекта, который предъявляет определенные требования к заданию ИИ. При этом в научных кругах существует мнение, что в данном контексте слово "пользователь" является неуместным, поскольку этот термин означает потребителя, а применительно к ИИ пользователь — это автор, создатель произведения. Поэтому во избежание возможной путаницы терминов предлагается заменить понятие "пользователь" на "промптер" (от англ. prompt — подсказка).
Если обратиться к зарубежному законодательству, в частности Закону Великобритании от 1988 года "Об авторском праве, промышленных образцах и патентах", то согласно п. 3 ст. 9 данного Закона "применительно к литературному, драматическому, музыкальному или художественному произведению, созданным при помощи компьютерных средств, авторство должно быть отнесено лицу, которым были предприняты усилия, необходимые для создания произведения". То есть, даже если произведение было создано ИИ, права на него все равно будут принадлежать человеку, который вводил в него запросы.
Однако автор статьи считает нужным сделать оговорку: не любому результату, созданному ИИ путем введения запросов конкретным человеком, следует предоставлять правовую охрану. Думается, что следует отталкиваться от количества и точности поставленных перед ИИ запросов. Скажем, можно сформулировать задание для ИИ так: "Нарисовать Джоконду на Красной площади", а можно и так: "Изобразить Джоконду в длинном черном платье, играющую на скрипке Сонату N 5 Бетховена возле Спасской башни Кремля среди оживленной толпы". Результат будет совсем иным. Чем сложнее и объемнее запрос, тем выше вероятность признания созданного искусственным интеллектом под руководством промптера произведения результатом интеллектуальной деятельности. В противном же случае Интернет заполонят некачественные работы.
Можно сказать, что творческие усилия человека в создании произведения выражаются в запросах, предъявляемых к ИИ.
Возвращаясь снова к вопросу о сопровождении дипфейков специальной пометкой, информирующей о том, что произведение создано с помощью искусственного интеллекта, это, по мнению автора статьи, кажется хорошим механизмом в борьбе с незаконным использованием результатов интеллектуальной деятельности, что находит отражение в практике. В январе 2023 года в Китае вступило в силу Постановление о порядке осуществления деятельности по управлению информационными интернет-услугами, использующими технологии глубокого синтеза, которое запрещает создание дипфейков без разрешения субъекта или во вред национальным интересам. Использование дипфейков разрешено, если они не несут "вредоносную информацию" и маркируются как "цифровые творения" — контент, созданный ИИ.
Не менее актуальным считается вопрос, является ли использование голоса или внешности другого человека нарушением авторского права. М.Б. Добробаба в своей статье "Дипфейки как угроза правам человека", анализируя нормативные правовые акты и научную литературу, приходит к выводу, что изображения лица человека, а также его голос относятся к биометрическим персональным данным, и в случае неправомерного использования информации, относящейся к какой-либо личности, характеризующей физиологические или биологические особенности этой личности, можно говорить о нарушении режима использования персональных данных. Таким образом, российское законодательство об авторском праве не охраняет голос человека и его образ.
Дипфейки представляют угрозу не только для отдельного государства, но и для всего мира в целом. Поэтому правительства многих стран ведут поэтапную работу по совершенствованию своих правовых систем на предмет дипфейков. Россия также не стала исключением. В 2018 году был заключен Меморандум о сотрудничестве в сфере охраны исключительных прав в эпоху развития цифровых технологий, в соответствии с которым операторы поисковых систем обязаны прекратить выдачу ссылок на нелегально размещенные аудиовизуальные произведения правообладателей в случае, если от них поступит соответствующее заявление. Его подписали 12 компаний, например Первый канал, "СТС Медиа", "Яндекс" и др.
Во время сессий на XI Петербургском международном юридическом форуме в мае 2023 года озвучивались мнения о необходимости создания специального законодательства, учитывающего особенности использования технологий ИИ в творчестве. Кроме того, были предприняты усилия по совершенствованию технических возможностей выявления дипфейков. Так, АНО "Диалог регионы" была представлена система мониторинга дипфейков в режиме реального времени, получившая название "Зефир", о которой уже упоминалось ранее, она активно применяется в настоящее время.
Совсем недавно в Государственную Думу был внесен законопроект о борьбе с манипуляциями в Интернете. Как заметил заместитель председателя комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин, "это первый в России законопроект о регулировании продукта искусственного интеллекта. Осенью мы внесем еще ряд законопроектов, потому что с развитием программы искусственного интеллекта появляются новые сущности, которые также нуждаются в регулировании. В частности, дипфейк и ряд других". Прежде всего законопроект должен законодательно закрепить понятие "дипфейк". Таким образом, механизм приведения законодательства в соответствии с реально существующими отношениями, общественными нуждами запущен. Процесс этот не быстрый. На него могут уйти месяцы, а то и годы. Но сама решимость осуществить перемены уже говорит о многом.
Технологии совершенствования дипфейков развиваются быстрее, чем законы в этой области. Самым эффективным способом борьбы с дипфейками является не ограничение их создания и публикации, а регулирование онлайн-платформ, на которых дипфейки размещаются. Популярные социальные сети, такие как Twitter, Instagram, Facebook1, попытались самостоятельно отрегулировать распространение дипфейков на своих площадках всеми доступными им способами. К примеру, Facebook в январе 2020 года принял политику для удаления дипфейков. Сообщения будут удалены, если контент был отредактирован или синтезирован таким образом, который не очевиден для обычного человека и может ввести в заблуждение либо является продуктом ИИ или машинного обучения, который заменяет, объединяет или накладывает контент на видео, делая его похожим на подлинный.
Таким образом, существуют различные подходы к регулированию дипфейк-технологий. Они включают в себя как нормативное регулирование — издание законов, регулирующих использование дипфейков или предусматривающих ответственность за нарушение авторских прав, так и техническое регулирование — создание систем мониторинга дипфейков и технологий защиты произведений от дипфейков. Несмотря на то что разные страны по-разному подходят к решению данной проблемы, все же большинство из них осознают и признают необходимость защиты интеллектуальной собственности и авторских прав при создании дипфейков.
В заключение отмечу, что создание дипфейка — это труд, к которому необходимо приложить немало творческих усилий и фантазии. Порой дипфейк представляет собой креативное, нестандартное, ранее не виданное и никем не воображаемое произведение, находит положительное применение в кино, образовании, социальных сетях. А потому наиболее привлекательной кажется точка зрения, в соответствии с которой дипфейк признается производным произведением. Это дает автору дипфейка возможность защищать созданную им работу, а автору первоначального произведения — реализовывать исключительное право на него.
Но поскольку в соответствии с действующим законодательством автором произведения признается исключительно человек, а объекты, созданные ИИ, не получают правовой охраны, то кажется разумным разработать и закрепить в законодательстве конструкцию, в соответствии с которой автором произведения, созданного ИИ, будет признаваться человек, приложивший достаточно творческих усилий для создания произведения путем введения запросов в нейросеть. При этом необходимо дать конкретику слову "достаточно". Думается, что это скорее техническая сторона вопроса. Следует отталкиваться от истории запросов, их количества и полноты, внесения или невнесения дополнительных изменений в запросы. Также необходимо разработать специальный закон, который бы законодательно закрепил понятие, признаки, виды дипфейков, определил общие правила создания и их использования, а также маркировку. Хочется надеяться, что в скором времени все вопросы, связанные с дипфейками, будут урегулированы.
Литература:
1. Постарнак А.М. Анализ зарубежного правового регулирования дипфейков: проблемы защиты интеллектуальной собственности // Теория и практика общественного развития. 2023. N 6. С. 269 — 273. DOI: 10.24158/tipor.2023.6.36.
2. Игнатьев А.Г., Курбатова Т.А. Дипфейки в цифровом пространстве: основные международные подходы к исследованию и регулированию // Автономная некоммерческая организация "Центр компетенций по глобальной ИТ-кооперации. Москва, 2023. С. 1 — 54. URL: file:///C:/Users/1/Downloads/67eesk6aig8owuk7brnrgwospccquaec.pdf (дата обращения: 08.11.2023).
3. Количество дипфейков в Сети увеличилось в разы в 2023 году — СМИ [Электронный ресурс] // Ежедневное онлайн-издание D-russia: 2023. URL: https://d-russia.ru/kolichestvo-dipfejkov-v-seti-uvelichilos-v-razy-v-2023-godu-smi.html (дата обращения: 08.11.2023).
4. Киселев А.С. О необходимости правового регулирования в сфере искусственного интеллекта: дипфейк как угроза национальной безопасности // Вестник Московского государственного областного университета. Серия: Юриспруденция. 2021. N 3. С. 54 — 64.
5. Капитанов А., Линдре Ю. Дипфейк: невинная технология для развлечения или угроза современному обществу? [Электронный ресурс] // Сайт некоммерческого партнерства "Российский совет по международным делам" (НП РСМД): 2022. URL: https://russiancouncil.ru/analytics-and-comments/analytics/dipfeyk-nevinnaya-tekhnologiya-dlya-razvlecheniya-ili-ugroza-sovremennomu-obshchestvu/?ysclid=looqo0o5mt546971746 (дата обращения: 08.11.2023).
6. На ТВ показали "обращение Путина" о военном положении в ряде областей России. Это был взлом, а ролик оказался дипфейком [Электронный ресурс] // Российское новостное интернет-издание "Lenta.ru": 2023. URL: https://lenta.ru/news/2023/06/05/deepfake/ (дата обращения: 07.11.2023).
7. Кастерин Н. Нарушение авторских прав созданием дипфейков [Электронный ресурс] // Социальная сеть для юристов "Zakon.ru": 2023. URL: https://zakon.ru/blog/2023/5/5/narushenie_avtorskih_prav_sozdaniem_dipfejkov?ysclid=lopk9092zw387649673 (дата обращения: 08.11.2023).
8. Гражданский кодекс Российской Федерации (часть 4): текст с изм. и доп. вступ. в силу с 29.06.2023: [Принят Государственной Думой 24 ноября 2006 года: одобрен Советом Федерации 8 декабря 2006 года]. М., 2023. Доступ из справочно-правовой системы "КонсультантПлюс".
9. Гринь Е.С. Ты — автор! Что такое авторские и смежные права: Науч.-метод. пособие / Под ред. Л.А. Новоселовой. Москва: Проспект, 2019. С. 52 — 53.
10. О применении части четвертой Гражданского кодекса Российской Федерации: Постановление Пленума Верховного Суда РФ от 23.04.2019 N 10. Доступ из справочно-правовой системы "КонсультантПлюс".
11. Текст, написанный ИИ, впервые защитили авторским правом [Электронный ресурс] // Журнал "Инфостарт": 2020. URL: https://infostart.ru/journal/news/mir-1s/tekst-napisannyy-ii-vpervye-zashchitili-avtorskim-pravom_1179912/ (дата обращения: 08.11.2023).
12. Михович Е.А. Правовой режим произведений, созданных с помощью искусственного интеллекта // Вопросы студенческой науки. 2022. N 5(69). С. 390 — 397.
13. Степанова А.В. Проблематика правосубъектности искусственного интеллекта // Символ науки. 2020. N 12-2. С. 62 — 67.
14. Добробаба М.Б. Дипфейки как угроза правам человека // Lex russica. 2022. Т. 75. N 11. С. 112 — 119. DOI: 10.17803/17295920.2022.192.11.112-119.
15. В РФ запустили систему мониторинга дипфейков [Электронный ресурс] // Государственное информационное агентство России "ТАСС": 2023. URL: https://tass.ru/tass-today?ysclid=lopoc9aaeq777656545 (дата обращения: 08.11.2023).
16. Замахина Т. В Госдуму внесен законопроект о борьбе с манипуляциями в Интернете [Электронный ресурс] // Российская газета. 2023. URL: https://rg.ru/2023/06/29/v-gosdumu-vnesen-zakonoproekt-o-borbe-s-manipuliaciiami-v-internete.html (дата обращения: 08.11.2023).
17. Сухачев С. Глубокие заблуждения: в КНР начали законодательно бороться с дипфейками [Электронный ресурс] // Деловой журнал "Профиль": 2023. URL: https://profile.ru/scitech/glubokie-zabluzhdeniya-v-knr-nachali-zakonodatelno-borotsya-s-dipfejkami-1249493/ (дата обращения: 08.11.2023).
1 Деятельность последних двух признана экстремистской и запрещена в России.
Связанные статьи:
- О правовой природе пародии (60.4%)
- Нарушение исключительного права в сети Интернет: спорные вопросы защиты (52%)
- К вопросу о доказательственной презумпции информации, размещенной в сети Интернет (52%)
- Особенности правовой охраны фотографий как объектов авторского права в цифровую эпоху (52%)
- Способы защиты интеллектуальных прав на аудиовизуальные произведения в сети Интернет, применяемые независимо от вины нарушителя (52%)
- Квалификация действий лиц, совершающих преступления с использованием криптовалюты на территории Российской Федерации (RANDOM - 8.2%)