ЮрФак: изучение права онлайн

Правовое регулирование отношений с использованием искусственного интеллекта

Автор: Шахназаров Б.А.

Потенциал инновационного развития общества зачастую предопределяется уровнем развития автоматизированных технологий, направленных на упрощение различных общественных процессов. Системы искусственного интеллекта (далее — ИИ) играют в контексте такой автоматизации главенствующую роль. Уже сейчас ИИ является важнейшим инструментом преодоления современных вызовов, которые стоят перед обществом, в том числе и на международном уровне. С помощью ИИ упрощается решение ряда социальных, экономических и других проблем.

Различного рода технические решения, выраженные в системах ИИ, способствующие разрешению общественно значимых проблем, вызываемых, в частности угрозами обороне и безопасности государства, охране жизни и здоровья граждан и иными опасными обстоятельствами, а также позволяющие улучшить, упростить жизнь людей в совершенно различных сферах общественных отношений, представляются крайне актуальными в контексте проблематики правового регулирования соответствующих отношений. Такие отношения можно коротко и в то же время емко, собирательно обозначить отношениями с использованием искусственного интеллекта.

Отношения с использованием искусственного интеллекта — это всегда отношения между субъектами права или по поводу объектов права. В любом случае это отношения, которые на том или ином этапе инициированы, запрограммированы человеком — субъектом права с той или иной степенью ответственности (в том числе в рамках деятельности юридических лиц). Волеизъявление человека на те или иные действия искусственного интеллекта может быть выражено в разной степени: от действий ИИ, находящихся под полным контролем воли человека, до автономных действий ИИ, опять же допускаемых и осознаваемых в своих возможных пределах и последствиях человеком (группой лиц). Таким образом, правоотношения как волевые общественные отношения между субъектами права по поводу объектов права, возникающие на основе норм права, порождающие субъективные права и юридические обязанности, даже если они реализуются с использованием ИИ, должны отражать волю субъектов права, прежде всего человека. Относительно всех известных современным правовым системам видов субъектов права, в том числе юридических лиц, государств, международных организаций, можно отметить, что они отражают волю именно человека (группы людей). Таким образом, искусственный интеллект представляется технологией, позволяющей упростить реализацию волеизъявления человека, но не генерировать ее самостоятельно, независимо.

Искусственному интеллекту часто противопоставляется естественный интеллект человека и других живых организмов1, при этом когнитивные способности искусственного интеллекта и иные его свойства, сопоставимые с соответствующими свойствами человеческого интеллекта, ни на каком этапе их развития не должны и не смогут нивелировать ценность человека, человеческой жизни и жизнедеятельности, лежащих в основе человеческого бытия и любых процессов правового регулирования.

Неизвестность последствий деятельности искусственного интеллекта, в том числе и правовых последствий (уже сейчас системы искусственного интеллекта оказывают серьезное влияние на жизнь человека и способны радикально ее изменить2, воздействуют на общественные отношения и при этом могут функционировать автономно), заставляет государства задуматься как на национальном, так и на международно-правовом уровне об определении четких правовых основ использования и контроля искусственного интеллекта, введения мер ответственности за действия искусственного интеллекта.

Так, например, уже сейчас в зарубежной доктрине, в частности в США, отмечается необходимость реализации концепции уголовной ответственности за действия искусственного интеллекта, учитывающей действия создателя, программиста, пользователя и иных имеющих отношение к ИИ лиц3.

Действительно, на данном этапе развития технологий искусственного интеллекта эффективная система персональной ответственности за его действия представляется крайне важной и необходимой4.

Говоря о правовом регулировании в РФ искусственного интеллекта, отметить ряд оперативных мер, которые принимались в том числе и в условиях пандемии коронавирусной инфекции. Так, например, был разработан проект Модельной конвенции о робототехнике и об искусственном интеллекте5, основная цель которой заключалась в формулировании основных подходов к регулированию отношений с использованием искусственного интеллекта и в принятии единого унифицированного на международном уровне акта. Конвенция не была принята, при этом ее положения представляются, по сути, негласным этическим кодексом в сфере использования ИИ, они могут играть важную гармонизирующую роль и могут быть положены в основу международно-правового сотрудничества в области ИИ.

В России определен вектор развития правового регулирования в обозначенной сфере, что подтверждается рядом документов, в частности Указами Президента РФ от 01.12.2016 N 642 "О Стратегии научно-технологического развития Российской Федерации" и от 10.10.2019 N 490 "О развитии искусственного интеллекта в Российской Федерации", распоряжениями Правительства от 28.07.2017 N 1632-р и от 23.03.2018 N 482-р, Федеральным законом от 24.04.2020 N 123-ФЗ "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных".

Кроме того, в 2020 г. Правительство РФ приняло распоряжение от 19.08.2020 N 2129-р "Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года". Целью Концепции является определение основных подходов к трансформации системы нормативного регулирования в РФ для обеспечения возможности создания и применения технологий ИИ в различных сферах экономики с соблюдением прав граждан и обеспечением безопасности личности, общества и государства. Концепция устанавливает и ряд принципов регулирования отношений с использованием ИИ: стимулирование развития технологий ИИ и робототехники регуляторными средствами как основной вектор развития регулирования в обозначенный временной период; регуляторное воздействие, основанное на риск-ориентированном, междисциплинарном подходе и предусматривающее принятие ограничительных норм в случае, если применение технологий ИИ и робототехники несет объективно высокий риск причинения вреда участникам общественных отношений, правам человека и интересам общества и государства; человеко-ориентированный подход, запрет на причинение вреда человеку (в том числе целенаправленное по инициативе систем ИИ) и др. Концепция, помимо принципов регулирования и гарантий прав граждан, определяет сферы приложения технологий искусственного интеллекта и необходимые направления изменения законодательства.

Таким образом, Концепция имеет особое значение и большой потенциал для формирования и совершенствования российского законодательства в сфере ИИ, что, безусловно, необходимо в условиях развития технологий, в том числе в качестве правовой основы для ответа на современные трансграничные вызовы, связанные с использованием в других юрисдикциях систем ИИ, деятельность которых может затрагивать и территорию РФ.

Важное значение в контексте правового регулирования деятельности ИИ имеет и создание искусственным интеллектом объектов интеллектуальной собственности (что возможно как при полностью автономной работе ИИ, так и при использовании системы ИИ человеком). Применительно к таким объектам интеллектуальной собственности, созданным с использованием ИИ, равно как и в классическом варианте создания интеллектуальной собственности человеком, должно быть обеспечено соблюдение баланса между интересами правообладателей и общественными интересами. При этом установленные на международно-правовом уровне в п. 31 Соглашения по торговым аспектам прав интеллектуальной собственности 1994 г. возможные ограничения прав правообладателей должны быть приняты за гармонизирующую основу и должны восприниматься национальными правовыми системами при обязательном установлении соответствующих гарантий прав правообладателей (что в России уже было сделано в 2021 г. посредством внесения изменений в ст. 1360 и введения ст. 1360.1 ГК РФ, действующей применительно к использованию изобретения для производства лекарственного средства в целях его экспорта).

Вопросы правосубъектности ИИ при создании результатов интеллектуальной деятельности представляются наиболее актуальными и дискуссионными. Наглядно демонстрирует обозначенную проблематику проект "Искусственный изобретатель"6, затрагивающий возможность принадлежности личных неимущественных прав ИИ-системе. Так, в 2019 г. создатели проекта "Искусственный изобретатель" подали несколько заявок на патенты в отношении изобретений в патентные ведомства ЕС, Великобритании и США (пластмассовый контейнер для хранения пищи, изготовленный на основе рекурсивной геометрии, а также светосигнальная лампа (работающая на принципе "нейронного света"), предназначенная для оповещения об экстренных ситуациях). В качестве автора изобретений была указана программа DABUS, создавшая изобретения. Заявители получили отказы в регистрации соответствующих изобретений в обозначенных государствах7.

При этом разработчикам программы все же удалось в некоторых юрисдикциях добиться признания "авторства" за системой искусственного интеллекта. Так, 13 мая 2021 г. Комиссия по делам компаний и интеллектуальной собственности ЮАР (Companies and Intellectual Property Commission, CIPC) выдала патент на изобретение "пищевой контейнер, основанный на фрактальной геометрии", — устройство, использующее в своей работе искусственный интеллект. В патентной документации указано, что изобретение было сгенерировано искусственным интеллектом в автономном режиме8. Далее в Австралии в судебном порядке было установлено, что искусственный интеллект может быть изобретателем согласно национальному патентному праву — Федеральный суд Австралии подтвердил право искусственного интеллекта считаться изобретателем. Данное решение было вынесено на заседании по делу Стивена Талера 30 июля 2021 г. Решение Комитета по патентам Австралии об отказе в признании искусственного интеллекта в качестве изобретателя было признано ошибочным на том основании, что в патентном законодательстве страны не закреплено, что заявитель, истребующий охрану изобретения, обязательно должен быть человеком. При этом термин "агент" был истолкован судом как одушевленный или неодушевленный предмет, изобретающий что-либо9.

Представляется, что изобретениям, созданным искусственным интеллектом, необходимо обеспечивать патентную охрану, если они удовлетворяют критериям охраноспособности, установленным в той или иной стране, что, в свою очередь, позволит повысить интенсивность инновационной деятельности в обществе. Проблема сводится преимущественно к личным неимущественным правам, определению изобретателя, автора результата интеллектуальной деятельности.

Значение творческого вклада и деятельности человека обесценится, если на нормативном уровне автоматически закрепить право авторства за человеком, в случаях, когда результат интеллектуальной деятельности создан автономно системой ИИ10. В то же время и система ИИ не может и не должна наделяться личными неимущественными правами, не являясь субъектом права.

Современное национальное законодательство государств исходит из того обстоятельства, что объекты интеллектуальной собственности являются таковыми, если они созданы творческим трудом человека. Например, в соответствии со ст. 7 Патентного закона Великобритании 1977 г.11 только человек может и должен быть указан как изобретатель в патентной заявке12. Кроме того, автором произведения литературы, науки и искусства признается только человек (гражданин, физическое лицо), творческим трудом которого оно создано (ст. 1257 ГК РФ; ст. L.113-1 Кодекса интеллектуальной собственности Франции; ст. 1 Закона Украины "Об авторском праве и смежных правах" и др.)13.

При этом автором изобретения, например, может считаться система ИИ, если задача, которая ставится перед ИИ, требует изобретательских навыков, равно как разработчик технологии ИИ может считаться изобретателем в том случае, если он своим творческим (интеллектуальным трудом) создал искусственный интеллект для решения изначально определенной проблемы или в процессе обучения искусственного интеллекта, настройки и развития его когнитивных функций осуществлял четко определенную интеллектуальную деятельность.

Актуальным направлением исследований в новейшей правовой плоскости представляется проблематика использования искусственного интеллекта при создании NFT-токенов.

NFT (non-fungible token) есть невзаимозаменяемый токен — вид криптографических токенов, каждый экземпляр которых уникален и не может быть заменен иным токеном. NFT реализуются с помощью блокчейн-технологии, с таким токеном можно связать, например, любой объект материального мира, любое произведение (объекты авторских прав): это может быть видео, рисунок, гиф-файл, фотография, песня, альбом, по сути, — все, чему можно придать цифровой формат.

Подключение искусственного интеллекта к этой творческой экосистеме позволяет усовершенствовать NFT-токены и делать их интеллектуальными (например, наделять рисунок голосовым сопровождением, рефлексией), уникальными, более привлекательными, в том числе для инвестиционных целей. Так, с помощью проекта Alethea AI специалистам удалось использовать искусственный интеллект для "оживления" объектов цифрового искусства, предоставляя пользователям возможность "оживить" созданные им арт-объекты с помощью взаимодействия искусственного интеллекта с анимацией и синтезом голоса14.

Искусственный интеллект способен генерировать NFT, объединяя работы более 100 художников с учетом предпочтений пользователей на основе платформы Colearn Paint (такое решение реализовано, например, в проекте Fetch AI). Начинается создание NFT с торгов, в которых принимают участие коллекционеры, а победитель торгов получает право ввести "шаблон случайности" и выбрать вид арта из заранее подготовленных вариантов.

Как представляется, решение вопросов правового регулирования отношений в сфере создания и получения охраны прав на объекты интеллектуальной собственности, даже в ситуациях создания последних искусственным интеллектом, в том числе и в форме NFT-токенов, должно лежать в русле действующих правовых подходов в части критериев охраноспособности патентуемых объектов при необходимой модернизации системы предоставляемых таким объектам прав с учетом факта создания результата интеллектуальной деятельности искусственным интеллектом и указания на это в патентной документации. При этом роль разработчика и пользователя технологии искусственного интеллекта в создании объекта интеллектуальной собственности, уровень самостоятельности в создании технологии и творческий вклад обозначенных лиц должны оцениваться в каждом конкретном случае, что, в свою очередь, влияет на распределение и предоставление интеллектуальных прав данным субъектам права.

Ключевые позиции предлагаемого регулирования сводятся к следующему: системы ИИ не признаются обладающими сознанием (способными на создание и воспроизведение субъективных решений).

В этом контексте особую дискуссионность имеет вопрос о наделении ИИ правосубъектностью физического или юридического лица. Часто в зарубежной науке ИИ-система наделяется правосубъектностью юридических лиц, таких как корпорации15. В дискуссиях ученых при этом выражается идея о том, "что по мере приближения систем ИИ к точке неотличимости от человека они должны иметь право на статус, сравнимый с физическим лицом"16, но так как искусственный интеллект не является человеком и не наделяется правами человека, не имеет человеческой ценности, а лишь служат целям, заданным человеком, то правосубъектность системы искусственного интеллекта, приравненная к правосубъектности юридического лица, представляется возможной к обсуждению. Действительно, искусственный интеллект, как и юридическое лицо, является в определенном правовом смысле фикцией, поскольку за его действиями и результатами, которые могут формировать юридические факты, стоит тот или иной человек. При этом, если ИИ действует полностью автономно, обозначенная проблематика осложняется. Здесь необходимо установление причинно-следственной связи автономной деятельности системы ИИ с желанием или допущением конкретного физического или юридического лица. Необходимо понимать, кто запланировал или допустил такую деятельность и в каких целях. Ответ "никто" в данном случае представляется невозможным, а бесконтрольная деятельность систем ИИ — недопустимой в контексте риск-ориентированного подхода. Ввиду обозначенного сомнительна возможность и целесообразность наделения ИИ самостоятельной правосубъектностью в собственном смысле слова вне связи с конкретным человеком, юридическим лицом или иной законодательно предусмотренной формой организации заданной человеком и ориентированной на человека деятельности. Такую особую форму организации деятельности ИИ можно воспринять в законодательстве при наличии обособленного имущества, фондов денежных средств с обязательным обозначением лиц, контролирующих деятельность ИИ, в соответствии с установленным законодательством, в том числе посредством предложения новой особой организационно-правовой формы юридического лица — общества, организующего деятельность системы искусственного интеллекта, или общества, ответственного за деятельность системы искусственного интеллекта.

Интересным базовым подходом к правовому регулированию отношений с использованием искусственного интеллекта представляется опыт Европейского союза.

В апреле 2021 г. в ЕС был предложен проект Регламента (Акта) в сфере искусственного интеллекта (EU Artificial Intelligence Act)17. Регулирование в сфере искусственного интеллекта преследует следующие цели: обеспечение безопасности и соответствия действующему законодательству, основным правам и ценностям Европейского союза систем искусственного интеллекта, размещенных и используемых на рынке ЕС; обеспечение правовой определенности для содействия инвестициям и инновациям в области ИИ; совершенствование управления и обеспечение эффективного применения законодательства об основных правах и о безопасности в сфере использования систем ИИ; способствование развитию единого рынка законных, безопасных и заслуживающих доверия приложений искусственного интеллекта, предотвращение фрагментации рынка. Обозначенные общие цели, как видим, определяют рамки правовой регламентации отношений с использованием искусственного интеллекта, закрепляя и основополагающие начала (принципы) такой регламентации. Как представляется, нарушение соответствующих принципов при формулировании законодательства в сфере ИИ также должно прогнозироваться с проработкой эквивалентных мер ответственности различных субъектов (пользователей, создателей систем ИИ).

В статье 3 проекта Регламента система искусственного интеллекта определена как программное обеспечение, разработанное с помощью одного или несколько методов и подходов, перечисленных в приложении I к Регламенту, которое может для целого ряда целей, определенных человеком, генерировать контент, прогнозы, рекомендации, решения, влияющие на среду, с которой они взаимодействуют, и иные результаты.

Для достижения поставленных целей проект Регламента об искусственном интеллекте сочетает в себе подход, основанный на оценке рисков, базирующийся на пирамиде критичности, с современной многоуровневой защитой. Это означает среди прочего, что более легкий правовой режим применяется к приложениям ИИ с незначительным риском и что запрещены приложения с неприемлемым риском. По мере увеличения риска применяются более строгие правила. Они варьируются от правил мягкого права саморегулируемого сообщества в контексте оценки воздействия, кодексов поведения до строгого соблюдения прошедшего внешний аудит требования на протяжении всего жизненного цикла приложения.

Системы ИИ с высоким уровнем риска (Hi-Risk AI-Systems), что логично, предлагается тщательно оценивать перед выпуском на рынок и в течение всего срока их эксплуатации и жизненного цикла. В качестве примера системы ИИ с высоким уровнем риска приводятся: критические инфраструктуры (например, транспорт), которые могут поставить под угрозу жизнь и здоровье граждан; образовательная или профессиональная подготовка, которая может определять доступ к образованию и профессиональный ход чьей-либо жизни (например, сдача экзаменов); важные для безопасности компоненты других ИИ-систем (например, применение искусственного интеллекта в роботизированной хирургии); управление персоналом и доступ к самозанятости (например, программное обеспечение для сортировки резюме при приеме на работу); деятельность правоохранительных органов, которые могут нарушать основные права людей (например, оценка надежности доказательств); управление миграцией, политическим убежищем и пограничным контролем (например, проверка подлинности документов при пересечении границ); отправление правосудия и демократические процессы; системы наблюдения (например, биометрический мониторинг для правоохранительных органов, система распознавания лиц).

Физические лица при этом должны иметь возможность контролировать ИИ-систему высокого риска в контексте требования о человеческом надзоре.

Как представляется, "человеческий надзор" должен быть нормативно установленным фильтром использования систем ИИ любого уровня риска. Здесь необходим разумный баланс между деятельностью ИИ и деятельностью человека, при обязательном восприятии целей ИИ по упрощению и оптимизации общественных процессов, а также при добросовестном и законном использовании систем ИИ человеком.

отметить, что такого рода фундаментальный, разнонаправленный нормативный правовой акт об использовании систем ИИ, каким является рассмотренный проект Регламента ЕС, может и должен приниматься в различных юрисдикциях на современном этапе развития технологий, прежде всего для целей управления рисками использования систем ИИ, а также оптимизации различных общественных процессов.

Библиография

1. Калинчева М.В. О некоторых вопросах правовой охраны изобретений, созданных искусственным интеллектом // URL: https://zakon.ru/blog/2020/2/25/o_nekotoryh_voprosah_pravovoj_ohrany_izobretenij_sozdannyh_iskusstvennym_intellektom (дата обращения: 12.05.2020).

2. Кибальник А.Г., Волосюк П.В. Искусственный интеллект: вопросы уголовно-правовой доктрины, ожидающие ответов // Юридическая наука и практика: Вестник Нижегородской академии МВД России. 2018. N 4 (44).

3. Крысанова Н.В. К вопросу о правосубъектности и правовом развитии искусственного интеллекта // Социальные и гуманитарные науки. Отечественная и зарубежная литература. Серия 4, Государство и право: Реферативный журнал. URL: https://cyberleninka.ru/article/n/k-voprosu-o-pravosubektnosti-i-pravovom-razvitii-iskusstvennogo-intellekta (дата обращения: 08.12.2021).

4. Лаптев В.А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. N 2.

5. Луткова О.В. Классификация субъектов трансграничных авторско-правовых отношений // Актуальные проблемы российского права. 2016. N 11 (72).

6. Шахназарова Э.А. Правовое регулирование отношений, возникающих по поводу объектов интеллектуальной собственности, созданных технологией искусственного интеллекта, на примере опыта Великобритании, США и ЕС // Журнал Суда по интеллектуальным правам. 2021. N 2 (32), июнь. С. 34 — 45.

7. Эббот Р. Проект "Искусственный изобретатель" // Журнал ВОИС. 2019. N 6. URL: https://www.wipo.int/wipo_magazine/ru/2019/06/article_0002.html (дата обращения: 12.05.2020).

8. Янушкевич К. Австралийский суд подтвердил право нейросети на получение патента // URL: https://trends.rbc.ru/trends/industry/6109576b9a794779eed90de8 (дата обращения: 08.12.2021).

9. Chesterman S. Artificial intelligence and the limits of legal personality // International and comparative law quarterly. Cambridge, 2020. Vol. 69, N 4.

10. Guihot M., Matthew A., Suzor N. Nudging robots: Innovative solutions to regulate artificial intelligence // Vanderbilt Journal of Entertainment and Technology Law. 2017. 20(2). P. 385 — 456. URL: https://eprints.qut.edu.au/109926/ (дата обращения: 02.05.2020).

11. Hallevy G. When Robots Kill: Artificial Intelligence under Criminal Law. University Press of New England, 2013.


1См. об этом: Лаптев В.А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. N 2. С. 82.

2Guihot M., Matthew A., Suzor N. Nudging robots: Innovative solutions to regulate artificial intelligence // Vanderbilt Journal of Entertainment and Technology Law. 2017. 20(2). P. 385 — 456. URL: https://eprints.qut.edu.au/109926/ (дата обращения: 02.05.2020).

3См. об этом: Hallevy G. When Robots Kill: Artificial Intelligence under Criminal Law. University Press of New England, 2013.

4См. об этом также: Кибальник А.Г., Волосюк П.В. Искусственный интеллект: вопросы уголовно-правовой доктрины, ожидающие ответов // Юридическая наука и практика: Вестник Нижегородской академии МВД России. 2018 N 4 (44). С. 176.

5URL: http://robopravo.ru/matierialy_dlia_skachivaniia#ul-id-4-35 (дата обращения: 06.05.2020).

6См.: Эббот Р. Проект "Искусственный изобретатель" // Журнал ВОИС. 2019. N 6. URL: https://www.wipo.int/wipo_magazine/ru/2019/06/article_0002.html (дата обращения: 12.05.2020).

7См.: Калинчева М.В. О некоторых вопросах правовой охраны изобретений, созданных искусственным интеллектом // URL: https://zakon.ru/blog/2020/2/25/o_nekotoryh_voprosah_pravovoj_ohrany_izobretenij_sozdannyh_iskusstvennym_intellektom (дата обращения: 12.05.2020).

8См. об этом: URL: https://iponline.cipc.co.za/Publications/PublishedJournals/E_Journal_July%202021%20Part%202.pdf (дата обращения: 08.12.2021).

9См.: Янушкевич К. Австралийский суд подтвердил право нейросети на получение патента // URL: https://trends.rbc.ru/trends/industry/6109576b9a794779eed90de8 (дата обращения: 08.12.2021).

10См. об этом: Эббот Р. Указ. соч.

11The Patents Act 1977 (as amended) // URL: https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/950221/consolidated-patents-act-1977.pdf (дата обращения: 27.12.2020).

12См. также: Шахназарова Э.А. Правовое регулирование отношений, возникающих по поводу объектов интеллектуальной собственности, созданных технологией искусственного интеллекта, на примере опыта Великобритании, США и ЕС // Журнал Суда по интеллектуальным правам. 2021. N 2 (32), июнь. С. 34 — 45.

13См.: Луткова О.В. Классификация субъектов трансграничных авторско-правовых отношений // Актуальные проблемы российского права. 2016. N 11 (72). С. 114.

14См.: Как ИИ влияет на развитие NFT // URL: https://medium.com/nuances-of-programming/как-ии-влияет-на-развитие-невзаимозаменяемых-токенов-335d49afd0ad (дата обращения: 05.02.2022).

15См.: Chesterman S. Artificial intelligence and the limits of legal personality // International and comparative law quarterly. Cambridge, 2020. Vol. 69, N 4. P. 819.

См. об этом также: Крысанова Н.В. К вопросу о правосубъектности и правовом развитии искусственного интеллекта // Социальные и гуманитарные науки. Отечественная и зарубежная литература. Серия 4, Государство и право: Реферативный журнал. URL: https://cyberleninka.ru/article/n/k-voprosu-o-pravosubektnosti-i-pravovom-razvitii-iskusstvennogo-intellekta (дата обращения: 08.12.2021).

16См.: Chesterman S. Op. cit.

17URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206 (дата обращения: 08.12.2021).


Рекомендуется Вам: