Авторы: Шиткина И.С., Бирюков Д.О.
Оглавление
Ответственность создателя (разработчика) ИИ
Ответственность владельца исключительных прав на ИИ
Ответственность пользователя ИИ
Ответственность иных лиц, использующих ИИ
Ответственность владельца источника повышенной опасности
Ответственность изготовителя товара, исполнителя работ (услуг)
Наряду с авторскими правами актуальным является и вопрос ответственности за результаты, полученные при использовании ИИ.
Юваль Харари замечает, что:
"Проблема в том, что изменить мнение нейросети никто не сможет, а вот ее сообщения способны повлиять на многих. Благодаря своему знанию языка ИИ может даже устанавливать близкие отношения с человеком для изменения его мнения и мировоззрения. Хотя нет никаких признаков того, что нейросеть обладает каким-либо собственным сознанием или чувствами, она может вызывать эмоциональную привязанность.
[…] Даже без создания "фальшивой близости" новые инструменты искусственного интеллекта будут оказывать огромное влияние на мнение и мировоззрение людей. Многие могут привыкнуть использовать ИИ-советника в качестве универсального, всезнающего оракула.
[…] Теперь появилось новая технология, которая способна уничтожить наше общество. Специалисты, конечно, стараются регулировать инструменты искусственного интеллекта, но действовать нужно быстро. В то время как ядерщики не могут изобрести более мощное ядерное оружие, ИИ способна создать свой аналог"1.
В самом деле, не станет ли реальностью сюжет романа "Происхождение" Дэна Брауна?
Билл Гейтс, напротив, не верит, что однажды ИИ обернется против человечества. Он утверждает, что пока не существует сильного ИИ, который в состоянии "изучить что угодно". По его словам, такой может появиться в перспективе и даже решить, что люди представляют угрозу, или "просто перестать заботиться о нас". Но есть шанс, что это будущее никогда не наступит. Гейтс полагает, что недобросовестное использование искусственного интеллекта сейчас может принести человечеству гораздо больше проблем, чем гипотетическое восстание машин в будущем2.
Не сгущая краски и не будучи сторонниками теорий заговора и апокалиптических сценариев, тем не менее отметим, что то, что ИИ, служа развитию научно-технического прогресса, может быть и источником вреда, сомнений не вызывает. Мы уже упоминали о том, что нейросеть может рекомендовать есть стекло с пользой для здоровья или "помочь" юристу несуществующей судебной практикой, но и это не самая большая проблема.
Искусственный интеллект всегда производен от человеческого интеллекта. Базой ИИ является заложенный в него человеком алгоритм, но в процессе своей "эволюции" ИИ может самообучаться и становится более автономным от базовых алгоритмов в своих результатах.
Следовательно, ИИ не свободен от человеческих этических установок и даже в процессе своего самообучения может быть подвержен человеческой предвзятости.
Так, в США еще в 2019 г. ИИ обвиняли в гендерной дискриминации при установлении кредитных лимитов3, в расовой дискриминации при определении приоритетности ухода за пациентами в больницах4, в предвзятости, недоказуемости и нереплицируемости результатов собеседований в рекрутинге5. Во всех этих случаях считалось, что ИИ в процессе обучения копировал человеческие модели поведения.
Помимо морального вреда в результате неэтичности ИИ, возможно и причинение материального вреда, причем в существенных размерах.
Бизнесмен из Гонконга Саматур Ли Кин-Кан подал иск на компанию Tyndaris Investments из-за результатов работы ее алгоритмической трейдинговой системы, в результате которой он лишился более 20 млн долларов. По его словам, продавцы системы сильно преувеличили ее возможности: они утверждали, что компьютер успешно исследует все СМИ и соцсети, анализирует настроения инвесторов, прогнозирует ситуацию на рынках и отправляет информацию брокерам. Бизнесмен заинтересовался и доверил роботу четверть миллиарда долларов, надеясь вскоре удвоить эту сумму, но получил убытки6.
Комментируя это, обозреватель Bamberg Томас Бирдуорс, отметил: "Это демонстрирует, что искусственный интеллект иногда оказывается искусственной некомпетентностью (выделено нами. — И.Ш., Д.Б.). Наверняка такая ошибка машины порадует специалистов по управлению активами. Также это напоминает, что компьютер хорош только при поступлении от людей хороших данных, только если перед ним ставят правильные вопросы".
Ну и наконец, ИИ способен причинить вред даже жизни и здоровью человека. Известно немало случаев аварий с участием беспилотных транспортных средств, в том числе со смертельным исходом7.
В Российской Федерации претензии к ИИ пока лежат преимущественно в плоскости этического характера.
Так, лидер фракции "Справедливая Россия — За правду" в Госдуме Сергей Миронов обращался в Генпрокуратуру с требованием провести проверку деятельности "Сбербанка" на соответствие контента нейросети Kandinsky законодательству, посчитав, что изображения, генерируемые алгоритмами Kandinsky, формируют "негативный образ России"8. В нелояльности родине обвинил "Яндекс" заместитель председателя Совета Безопасности России Дмитрий Медведев после использования приложения "Шедеврум" от "Яндекса", которое генерирует тексты и изображения на основе нейросети YandexGPT9.
Актриса дубляжа Алена Андронова подала в суд иск против "Тинькофф Банка", обвинив последний в синтезе ее голоса нейросетью и использовании в целях, на которые она согласия не давала10.
В общем, пока в причинении крупного материального ущерба ИИ в России не замечен. Но это, как говорится, только пока. Так кому же нести ответственность за ИИ?
В.А. Вайпан отмечает недееспособность машин и полагает, что "за функционирование таких объектов должны отвечать создавшие их лица, либо субъекты, владеющие и управляющие машинами"11.
В целом данный вывод является верным, но представляется, что ответ на вопрос о субъекте ответственности зависит от обстоятельств каждого конкретного случая причинения вреда.
В ст. 1064 ГК РФ закреплен принцип генерального деликта, согласно которому вред, причиненный личности или имуществу гражданина, а также вред, причиненный имуществу юридического лица, подлежит возмещению в полном объеме лицом, причинившим вред. Согласно принципу генерального деликта любое причинение вреда презюмируется противоправным12.
Деликтное обязательство возникает в силу самого факта причинения вреда между лицами, не состоящими между собой в каких-либо относительных правоотношениях. В этом заключается главное отличие генерального деликта от иных обязательств по возмещению вреда, возникающих между лицами, имеющими относительную правовую связь, например, договорной ответственности, применяемой при нарушении сторонами договора своих обязательств, или корпоративной ответственности, применяемой при нарушении членами органов управления, иными контролирующими лицами своих обязанностей действовать в интересах корпорации добросовестно и разумно.
Для привлечения лица к ответственности в рамках генерального деликта в каждом случае необходимо доказывание состава гражданского правонарушения, включающего в себя четыре элемента: 1) ущерб (вред) и его размер с разумной степенью достоверности; 2) противоправность поведения причинителя вреда; 3) причинно-следственную связь между противоправным поведением причинителя вреда и наступлением вреда; 4) вину причинителя вреда.
Конституционный Суд РФ отмечает, что положения ст. 1064 ГК РФ содержат общие правила, касающиеся деликтных обязательств (генеральный деликт) и относящиеся ко всем обязательствам, возникающим вследствие причинения вреда, — независимо от субъекта, причиняющего вред, объекта, которому он причинен, личности потерпевшего и способа причинения вреда13. Таким образом, норма ст. 1064 ГК РФ как по своему содержанию, так и по смыслу, придаваемому ей правоприменительной практикой, является "универсальной" и может применяться ко всем деликтам, прямо не урегулированным в нормах законодательства.
Таким образом, генеральный деликт является базовым принципом ответственности за вред, а значит, ответственность за вред, причиненный в результате использования ИИ, должно нести лицо, причинившее вред, при наличии в его действиях состава гражданского правонарушения.
Таким лицом может быть разработчик ИИ, владелец исключительных прав на ИИ, пользователь ИИ, владелец источника повышенной опасности с ИИ, изготовитель товаров, исполнитель работ, услуг с использованием ИИ.
Ответственность создателя (разработчика) ИИ
Личность создателя (разработчика) ИИ первична в его "базовых настройках" — заложенном в него алгоритме. Вспомнив литературу и кинематограф, представить, что "родителем" ИИ может являться какой-нибудь злой гений, этакий профессор Мориарти наших дней, задумавший уничтожение вселенной, совсем нетрудно. Однако далеко не всегда при причинении вреда ИИ к ответственности может быть привлечен разработчик.
Во-первых, ИИ самостоятельно получает результат на основании запроса его пользователя. В связи с этим и полученный от ИИ результат будет во многом зависеть от формулировки запроса, условий и точности поставленной перед ИИ задачи. Как отметил один из участников опроса, проведенного сервисом ЮKassa "[…] могут быть трудности с обучаемостью нейросетей. Причем сложность скорее в компетенции сотрудника, который реализует функционал, чем с самой нейросетью"14.
Во-вторых, ИИ способен самообучаться, а, следовательно, со временем дистанцироваться от своего создателя на приличное расстояние. Самообучение ИИ будет происходить на основе информации, полученной им из открытых и доступных ему источников — сети Интернет, а значит, "нахвататься дурного" ИИ сможет вполне самостоятельно. "ИИ наследует любые предрассудки, заложенные в текст, на котором обучается", замечает Билл Гейтс15.
В-третьих, на ИИ возможно внешнее воздействие. Так, например, ИИ может стать "плохишом" в последующем, в результате внешнего воздействия на него третьих лиц, т.н. "вредоносное машинное обучение" (англ. Adversarial Machine Learning) — целенаправленное воздействие на нейросеть, которое способно вызвать ошибки в ее поведении16. Пример AML-атаки (Adversarial attack) — к исходному изображению панды, распознаваемому с вероятностью 57,7%, подмешивается специальный шум, невидимый человеком, но замечаемый нейросетью. В результате нейронная сеть идентифицирует картинку как изображение гиббона с вероятностью 99,3%17.
В-четвертых, исключительные права на объект-"носитель" ИИ могут принадлежать иному, чем разработчик, лицу, которое принимает решение о вводе его в гражданский оборот (распространении), предоставления к нему всеобщего доступа, переработке (внесении изменений) и т.п.
В связи с этим представляется, что перед лицом, которому причинен вред в результате использования ИИ, разработчик может нести ответственность в том случае, если результат, полученный от использования ИИ и причинивший вред иным лицам, был получен ИИ непосредственно по причине первоначальной вредоносной алгоритмизации ИИ его разработчиком, и при условии, что:
— разработчику принадлежат исключительные права на объект-"носитель" ИИ, и он представил пользователю право пользоваться ИИ на возмездной или безвозмездной основе; либо
— пользователь правомерно получил доступ к ИИ. Например, разработчик предоставил доступ к ИИ неограниченному или ограниченному кругу пользователей без заключения какого-либо договора, разместив ИИ в открытом доступе или другим способом. В ином случае, например, когда пользователь получил доступ к ИИ мошенническим или иным противоправным способом, разработчик не должен нести ответственность.
Таким образом, по нашему мнению, разработчик должен нести ответственность лишь в том случае, когда он создал ИИ на заведомо вредоносном алгоритме, то есть базово заложил в него неэтичное и противоправное поведение и предоставил возможность его использования иным лицам. То есть между базовым алгоритмом ИИ и результатом использования ИИ, причинившим вред, должна быть прямая причинно-следственная связь.
В иных случаях, по нашему мнению, в действиях разработчика будут отсутствовать все необходимые элементы состава гражданского правонарушения.
Помимо деликтной ответственности, разработчик может нести и договорную ответственность.
Например, в случае, если ИИ создавался по договору, предметом которого было его создание (по заказу), разработчик может нести ответственность за результаты функционирования ИИ, предусмотренную договором, в т.ч. ответственность за вред, причиненный в результате использования ИИ третьим лицам, который был взыскан с заказчика.
Положения об ответственности разработчика могут содержаться и в договоре о передаче им исключительных прав, поскольку к договорам о распоряжении исключительным правом на результат интеллектуальной деятельности, в том числе к договорам об отчуждении исключительного права и к лицензионным (сублицензионным) договорам, применяются общие положения об обязательствах (ст. 307 — 419) и о договоре (ст. 420 — 453), поскольку иное не установлено правилами раздела VII ГК РФ и не вытекает из содержания или характера исключительного права (п. 2 ст. 1233 ГК РФ).
Ответственность владельца исключительных прав на ИИ
Как уже отмечалось, конечным пользователям доступ к ИИ может быть предоставлен по решению владельца исключительных прав на возмездной или безвозмездной основе на основании лицензионного или иного договора, например пользовательского соглашения.
Зачастую в таких договорах, сконструированных по модели договора присоединения, содержатся условия использования ИИ, включая, разумеется, и запрет на его использование в противоправных целях, и ограничение ответственности владельца исключительных прав за причиненный вред.
Так, в Пользовательском соглашении об использовании Сервиса Kandinsky от "Сбербанка" установлено:
"Любые действия Пользователя (совершенные Пользователем) с Сервисом (в том числе связанные с Использованием Сервиса) являются и признаются действиями самого Пользователя (совершенными непосредственно самим Пользователем) — п. 2.4.
Используя Сгенерированный Контент, Пользователь принимает на себя все риски, в том числе связанные с нарушением исключительных прав третьих лиц, — п. 5.5.
Сервис предоставляется на условиях "как есть" (as is). Банк не несет ответственности за точность, релевантность, корректность информации, полученной Пользователем посредством Использования Сервиса. Банк не предоставляет никаких гарантий в отношении безошибочной и бесперебойной работы Сервиса или отдельных его функций, а также его соответствия конкретным целям и ожиданиям Пользователя. — п. 6.1.
Ни при каких условиях Банк не несет ответственности перед Пользователем (и какими-либо третьими лицами) за убытки, включая любые прямые, косвенные, умышленные, случайные или последующие убытки любого характера, проистекающие из данного Соглашения и/или из Использования Сервиса, или невозможности осуществить Использование Сервиса (включая, но не ограничиваясь, убытками, возникшими в результате Использования Сервиса, потери деловой репутации, прекращения работы, технического сбоя, аварии или неисправности или любых коммерческих убытков, издержек или потерь, а равно упущенной выгоды или неосновательного обогащения), даже если Банку было известно или должно было быть известно о возможности таких убытков, или Пользователь был предупрежден о возможности таких убытков. — п. 6.4.
Ответственность Банка в любом случае ограничена суммой 1 000 (одна тысяча) рублей, при наличии вины — п. 6.5"18.
К пользовательскому соглашению Сервиса Kandinsky прилагается также Политика допустимого использования ИИ-сервисов ПАО "Сбербанк", в разделе 3 которого установлены ограничения по использованию ИИ-сервисов.
В пользовательском соглашении сервиса "Шедеврум" от "Яндекса" указано, что:
"Яндекс не несет ответственности за содержание Изображений, Видео и Текстов, точность, релевантность, корректность информации, полученной Пользователем посредством Сервиса.
Ни при каких обстоятельствах содержание Изображений, Видео и/или Текстов не может быть расценено как позиция Яндекса, руководство или совет при принятии решений или совершении каких-либо действий"19.
Поскольку непосредственно пользовательское соглашение не урегулировано российским законодательством как отдельный вид договора, по аналогии закона (п. 1 ст. 6 ГК РФ) к нему могут применяться нормы о лицензионном договоре (ст. 1235 ГК РФ), с учетом схожести содержания этих двух видов договоров, а также общие нормы обязательственного права (п. 2 ст. 1233 ГК РФ).
Лицензиат может использовать результат интеллектуальной деятельности или средство индивидуализации только в пределах тех прав и теми способами, которые предусмотрены лицензионным договором (абз. 2 п. 1 ст. 1235 ГК РФ). Соответственно, владелец исключительных прав на ИИ вправе определять пределы и способы использования ИИ.
Вправе ли владелец исключительных прав на ИИ исключить или ограничить свою ответственность за вред, причиненный результатом использования ИИ пользователю или иному лицу?
Верховный Суд РФ в п. 6 Постановления Пленума от 24.03.2016 N 7 разъяснил, что по общему правилу стороны обязательства вправе по своему усмотрению ограничить ответственность должника (п. 4 ст. 421 ГК РФ). Заключение такого соглашения не допускается, и оно является ничтожным, если нарушает законодательный запрет (п. 2 ст. 400 ГК РФ) или противоречит существу законодательного регулирования соответствующего вида обязательства. Если в пределах, установленных п. 4 ст. 401 ГК РФ, в заранее заключенном соглашении указаны обстоятельства, устраняющие или ограничивающие ответственность должника за неумышленное нарушение обязательства, то на него возлагается бремя доказывания их наступления. Заключенное заранее соглашение об устранении или ограничении ответственности не освобождает от ответственности за умышленное нарушение обязательства (п. 4 ст. 401 ГК РФ).
Следовательно, в пользовательском соглашении или лицензионном договоре владелец исключительных прав на ИИ может исключить или ограничить свою ответственность перед пользователями ИИ за неумышленное нарушение обязательства. Между тем перед иными лицами, не являющимися пользователями ИИ, которым в результате использования ИИ был причинен вред, такая ответственность не может быть исключена или ограничена условиями договора, поскольку в силу п. 3 ст. 308 ГК РФ обязательство не создает обязанностей для лиц, не участвующих в нем в качестве сторон (для третьих лиц).
Кроме того, следует учитывать, что соглашение об ограничении размера ответственности должника по договору присоединения или иному договору, в котором кредитором является гражданин, выступающий в качестве потребителя, ничтожно, если размер ответственности для данного вида обязательств или за данное нарушение определены законом и если соглашение заключено до наступления обстоятельств, влекущих ответственность за неисполнение или ненадлежащее исполнение обязательства (п. 2 ст. 400 ГК РФ).
Закон о защите прав потребителей предусматривает полное возмещение убытков, причиненных потребителю изготовителем (исполнителем, продавцом, уполномоченной организацией или уполномоченным индивидуальным предпринимателем, импортером) сверх неустойки (пени), установленной законом или договором (п. 2 ст. 13 Закона о защите прав потребителей).
При этом Закон о защите прав потребителей распространяется только на возмездные отношения, что следует из его преамбулы и системного толкования его норм. Так, в частности, согласно преамбуле Закона о защите прав потребителей исполнитель-организация независимо от ее организационно-правовой формы, а также индивидуальный предприниматель, выполняющие работы или оказывающие услуги потребителям по возмездному договору, а продавец-организация независимо от ее организационно-правовой формы, а также индивидуальный предприниматель, реализующие товары потребителям по договору купли-продажи.
Таким образом, можно умозаключить, что, если владелец исключительных прав на ИИ предоставляет доступ к его использованию на возмездной основе гражданам в целях, не связанных с предпринимательской деятельностью, на такую услугу будет распространяться Закон о защите прав потребителей, а, следовательно, ответственность владельца исключительных прав на ИИ по соответствующему договору (пользовательскому соглашению, лицензионному договору) не может быть исключена или ограничена определенным размером.
Ответственность пользователя ИИ
Как уже отмечалось, от точности поставленной перед ИИ пользователем задачи, сути его запроса во многом зависит и результат, полученный от ИИ. Кроме того, как правило именно пользователь распоряжается полученным от ИИ результатом, например, распространив его неограниченному кругу лиц (изображение, аудио, текст и т.п.).
В этой связи постановка вопроса о его ответственности за результат использования ИИ, причем как на безвозмездной, так и на возмездной основе, вполне правомерна.
Поскольку зачастую доступ к ИИ осуществляется на условиях вышеупомянутых договоров, которые пользователь принимает до начала использования соответствующего сервиса, он принимает на себя установленные соглашением обязанности и ограничения по использованию ИИ, в т.ч. обязательства по воздержанию от совершения определенных действий (негативные обязательства). Таковые предусмотрительно содержатся во всех подобных договорах.
Например, при использовании сервиса Kandinsky пользователю в числе прочих ограничений запрещается: размещать (загружать) и/или создавать (генерировать) с использованием сервиса запрещенный контент; загружать (размещать) в сервисе контент пользователя, содержащий персональные данные пользователя и/или третьих лиц, данные составляющие государственную, банковскую, налоговую, коммерческую, врачебную и иную охраняемую законом тайну.
Отдельно оговаривается, что при использовании сервиса пользователь осознает, что сгенерированный контент создается с применением технологий искусственного интеллекта, что исключает контроль банка за его содержанием. Пользователь обязан ответственно относиться к результатам использования сервиса и не допускать дальнейшее использование (в том числе хранение) и/или распространение сгенерированного контента, не соответствующего законодательству, за исключением передачи такого сгенерированного контента самому банку. Пользователь принимает на себя полную ответственность за использование и/или распространение сгенерированного контента, не соответствующего законодательству.
Таким образом, в случае нарушения условий пользования ИИ, которые были приняты пользователем до начала использования ИИ, например, использования ИИ в заведомо противоправных целях, генерации контента, нарушающего права третьих лиц или способного причинить вред третьим лицам, пользователь должен нести полную ответственность за причиненный вред.
По нашему мнению, пользователь может быть освобожден от ответственности лишь в том случае, если им не нарушались установленные владельцем исключительных прав правила использования ИИ, не совершались иные заведомо противоправные действия.
Представляется, что при отсутствии четкого правового регулирования использования искусственного интеллекта и сложившейся правоприменительной практики пользовательское соглашение является попыткой разработчика или владельца исключить или минимизировать риск своей ответственности.
Интересным представляется вопрос об ответственности пользователей ИИ в сфере корпоративных отношений.
В работе Флориса Мертенса отмечается, что согласно исследованию EY, заказанному Европейской комиссией, 13% опрошенных компаний ЕС уже используют ИИ в управлении, а 26% планируют сделать это в будущем. Кроме того, более 69% респондентов (руководители крупных государственных корпораций США и фондов прямых инвестиций) используют инструменты ИИ для процесса due diligence20.
Статистика использования ИИ в российской практике корпоративного управления пока отсутствует, но нейросети используют для бизнеса уже более 70% опрошенных представителей российских компаний21.
Конечно, мы далеки от мысли, что ИИ заменит человека в управлении корпорацией в краткосрочной или даже среднесрочной перспективе. Тем не менее следует признать, что ИИ способен оказать мощную поддержку человеку в сфере корпоративного управления, как в вопросах принятия корпоративных решений органами управления, так и в организационных вопросах, например, в созыве и проведении общего собрания, совета директоров и реализации прочих корпоративных процедур.
В самом деле, инструменты ИИ могут оказывать членам органов управления корпораций поддержку в поиске и обработке огромных массивов информации, анализе полученной информации, выявлении тенденций, прогнозировании, мониторинге, оптимизации процессов, моделировании. Такая поддержка может иметь существенное значение при принятии решений по многим вопросам компетенции совета директоров и правления корпораций, например в вопросах стратегического планирования, одобрения сделок, инвестиций и финансов, бюджетирования, и многим другим.
Зачастую, например, члены советов директоров сталкиваются с необходимостью принятия оперативных решений в условиях ограниченной информации, отсутствия у них необходимой компетенции по решаемому вопросу, под влиянием стейкхолдеров, в условиях конфликта интересов.
Так, например, даже высшая судебная инстанция отмечает, что в вопросах ответственности директоров надлежит принимать во внимание ограниченные возможности членов коллегиальных органов юридического лица по доступу к информации о юридическом лице, на основании которой они принимают решения (п. 7 Постановления Пленума ВАС РФ от 30.07.2013 N 62).
В таких ситуациях ИИ, способный в кратчайшие сроки найти и проанализировать терабайты информации, сделать выводы, сравнить, спрогнозировать, а к тому же потенциально свободный от конфликта интересов и агентской проблемы будет отличным подспорьем в принятии решения.
Проблема заключается в том, что, как мы уже отмечали, ИИ также свойственно ошибаться, становиться "искусственной некомпетентностью", находиться под воздействием "вредоносного машинного обучения" или некорректно поставленной пользователем задачи. В этом случае полагаться на его результаты будет крайне опасно, но сможет ли управленец сам распознать ошибку?
При этом, как мы знаем, члены органов управления должны действовать в интересах корпорации разумно и добросовестно и несут ответственность за причиненные ей убытки, если будет доказано, что при осуществлении своих прав и исполнении своих обязанностей они действовали недобросовестно или неразумно, в том числе если их действия (бездействие) не соответствовали обычным условиям гражданского оборота или обычному предпринимательскому риску (ст. 53.1 ГК РФ).
Можно ли оценить как разумные и добросовестные действия то, что директор при принятии решения полагался, например, на экономический анализ сделки, выполненный ИИ?
В Постановлении Пленума ВАС РФ от 30.07.2013 N 62 отмечается, что, если истец утверждает, что директор действовал недобросовестно и (или) неразумно, и представил доказательства, свидетельствующие о наличии убытков юридического лица, вызванных действиями (бездействием) директора, такой директор может дать пояснения относительно своих действий (бездействия) и указать на причины возникновения убытков (например, неблагоприятная рыночная конъюнктура, недобросовестность выбранного им контрагента, работника или представителя юридического лица, неправомерные действия третьих лиц, аварии, стихийные бедствия и иные события и т.п.) и представить соответствующие доказательства.
Представляется, что сам по себе факт обращения директора к ИИ в целях принятия решения по вопросу его компетенции не должен вызывать вопросов с позиций добросовестности и разумности. В условиях роста информационных технологий, цифровизации бизнеса, развития ИИ как одной из важных государственных задач обращение за помощью к ИИ, несомненно, является добросовестным и разумным поведением. Напротив, принятие директором решений в информационном вакууме, при неполноте информации расценивается как неразумные действия (пп. 2 п. 3 Постановления Пленума ВАС РФ от 30.07.2013 N 62).
Представляется, что в оценке разумности директора, полагавшегося при принятии неверного решения на результаты, предоставленные ИИ, следует исходить из того, насколько очевидной для директора, с учетом его компетенции и опыта, была ошибочность результатов ИИ. В оценке разумности также должен учитываться и предыдущий опыт обращения к ИИ при принятии управленческих решений. Кроме того, очевидно, что ИИ при решении поставленной перед ним задачи также может быть подвержен обычному деловому (предпринимательскому) риску, который освобождает директора от ответственности.
В любом случае, полагаясь на ИИ, директор не может снять с себя обязанности проверки полученных от него результатов доступными ему средствами, и очевидно, что факт рекомендации ИИ неверного решения сам по себе не может служить абсолютной индульгенцией в вопросах корпоративной ответственности. Например, ИИ может оценить конкретную сделку как убыточную и невыгодную, тогда как в цепочке других взаимосвязанных сделок, объединенных общей хозяйственной целью, такая сделка отвечает интересам компании.
По нашему мнению, факт обращения директора за помощью в принятии решения к ИИ при неочевидной для директора ошибочности его результата и при отсутствии в его действиях признаков неразумности и недобросовестности, должен расцениваться как проявление им разумности и осмотрительности в процессе принятия корпоративного решения.
Флорис Мертенс, рассуждая об ответственности директоров, полагает, что ответственность может быть исключена или смягчена "[…] в тех случаях, когда доказано, что поддержка искусственного интеллекта может привести к принятию советом директоров более обоснованных решений или что для определенного типа решений совета директоров качество принятия решений ИИ явно превосходит человеческий интеллект. Последнее, на мой взгляд, относится к тому случаю, когда решение правления основывается на больших объемах данных — учитывая, что искусственный интеллект способен преобразовывать непостижимые горы данных в консолидированные фрагменты информации, которыми легко управлять и которые понятны директорам-людям. Искусственный интеллект также превосходит человеческий интеллект, если можно доказать, что он принимает решения быстрее, чем люди, при условии, что скорость принятия решений имеет решающее значение для конкретного решения правления".
Ответственность иных лиц, использующих ИИ
Ответственность владельца источника повышенной опасности
В соответствии с п. 1 ст. 1079 ГК РФ юридические лица и граждане, деятельность которых связана с повышенной опасностью для окружающих (использование транспортных средств, механизмов, электрической энергии высокого напряжения, атомной энергии, взрывчатых веществ, сильнодействующих ядов и т.п.22; осуществление строительной и иной, связанной с нею деятельности и др.), обязаны возместить вред, причиненный источником повышенной опасности, если не докажут, что вред возник вследствие непреодолимой силы или умысла потерпевшего.
Субъектом ответственности в данном случае выступает владелец источника повышенной опасности — юридическое лицо или гражданин, которые владеют источником повышенной опасности на праве собственности, праве хозяйственного ведения или праве оперативного управления либо на ином законном основании (на праве аренды, по доверенности на право управления транспортным средством, в силу распоряжения соответствующего органа о передаче ему источника повышенной опасности и т.п.).
В п. 18 Постановления Пленума Верховного Суда РФ от 26.01.2010 N 1 разъяснено, что:
— вред, причиненный жизни или здоровью граждан источником повышенной опасности, возмещается его владельцем независимо от его вины;
— источником повышенной опасности следует признать любую деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека, а также деятельность по использованию, транспортировке, хранению предметов, веществ и других объектов производственного, хозяйственного или иного назначения, обладающих такими же свойствами;
— закон не содержит исчерпывающего перечня источников повышенной опасности, суд, принимая во внимание особые свойства предметов, веществ или иных объектов, используемых в процессе деятельности, вправе признать источником повышенной опасности также иную деятельность, не указанную в перечне;
— вред считается причиненным источником повышенной опасности, если он явился результатом его действия или проявления его вредоносных свойств. В противном случае вред возмещается на общих основаниях.
Хотя искусственный интеллект, сепарировавшийся от своего создателя в процессе своей эволюции (самообучения), выходит из-под полного контроля за ним со стороны человека, следует признать, что сам по себе он источником повышенной опасности не является. Однако же в "классические" источники повышенной опасности, такие как, например, транспортные средства, промышленные станки, строительные механизмы вполне может быть "встроен" ИИ и, как следствие, ИИ может оказывать воздействие на работу источника повышенной опасности.
Как уже отмечалось, известно немало случаев, когда транспортные средства, использующие технологии ИИ в своем управлении, попадали в серьезные инциденты и причиняли вред имуществу, жизни и здоровью граждан.
В данном случае субъектом, на которое будет возложена ответственность за вред, будет законный владелец источника повышенной опасности, как его собственник, так и иное лицо, владеющее им на законном основании (по договору аренды, управляя по доверенности и т.п.) вне зависимости от того, является ли владелец источника повышенной опасности разработчиком и (или) владельцем исключительных прав на ИИ или нет.
Владелец источника повышенной опасности может быть освобожден судом от ответственности если вред возник вследствие непреодолимой силы или умысла потерпевшего, а также может быть освобожден полностью или в части, если грубая неосторожность самого потерпевшего содействовала возникновению или увеличению вреда. Кроме того, суд может уменьшить размер возмещения вреда, причиненного гражданином, с учетом его имущественного положения, за исключением случаев, когда вред причинен действиями, совершенными умышленно.
Владелец источника повышенной опасности имеет право регресса к лицу, виновному в причинении вреда. Например, владелец транспортного средства с ИИ вправе предъявить иск о возмещении вреда к его производителю или продавцу, если вред причинен по причине конструктивной неисправности транспортного средства, в т.ч. систем ИИ, а не по вине лица, управлявшего транспортным средством.
Ответственность изготовителя товара, исполнителя работ (услуг)
Вред, причиненный жизни, здоровью или имуществу гражданина либо имуществу юридического лица вследствие конструктивных, рецептурных или иных недостатков товара, работы или услуги, а также вследствие недостоверной или недостаточной информации о товаре (работе, услуге), подлежит возмещению продавцом или изготовителем товара, лицом, выполнившим работу или оказавшим услугу (исполнителем), независимо от их вины и от того, состоял потерпевший с ними в договорных отношениях или нет, в случаях приобретения товара (выполнения работы, оказания услуги) в потребительских целях, а не для использования в предпринимательской деятельности (ст. 1095 ГК РФ).
Таким образом, если товар, работа или услуга производились (выполнялись) с использованием ИИ и по вине последнего был причинен вред, такой вред подлежит возмещению продавцом, производителем или исполнителем если потерпевший приобрел товар (работу, услугу) в личных целях.
В случае причинения вреда вследствие недостатка товара субъектом ответственности по выбору потерпевшего может быть как изготовитель, так и продавец, а вследствие недостатков работы или услуги — исполнитель. Они могут быть освобождены от ответственности только в случае, если докажут, что вред возник вследствие непреодолимой силы или нарушения потребителем установленных правил пользования товаром, результатами работы, услуги или их хранения.
Таким образом, при причинении вреда в результате использования ИИ в товаре, работе или услуге, приобретенном (заказанном) гражданином-потребителем, вред подлежит возмещению вышеуказанными лицами вне зависимости от того, обладают ли они исключительными правами на ИИ или нет.
В иных случаях, когда товар, работа, услуга приобретаются в целях использования в предпринимательской деятельности, будут действовать общие правила деликтной или договорной ответственности за причиненный вред.
Соответственно, гражданин, владеющий оснащенным системами ИИ транспортным средством в личных целях, попавший по вине систем ИИ в ДТП может требовать возмещения вреда от изготовителя транспортного средства или его продавца. Кроме того, если в результате ДТП был причинен вред иным лицам, которым владелец транспортного средства возместил вред как владелец источника повышенной опасности, такой вред также должен быть возмещен производителем или продавцом в порядке регресса.
В заключение мы хотели бы отметить следующее. Как бы ни был важен и нужен искусственный интеллект, даже научившись когда-нибудь в совершенстве копировать человека, он не заменит собой эмоциональный интеллект, любовь, эмпатию, вдохновение и другие чувства и состояния, свойственные только лишь человеку. Он сгенерирует замечательное изображение, но разве он способен заменить истинного художника, так влюбившегося в пейзаж и передавшего его во всей палитре красок, в мельчайших деталях, что мы завороженно замираем перед картиной в галерее? Он складно срифмует слова в стихотворение, но разве когда-нибудь он сочинит строки "Ты теперь не так уж будешь биться, сердце, тронутое холодком. И страна березового ситца не заманит шляться босиком" и мы перестанем восторгаться красотой подлинного русского слога? Он прочитает за нас миллионы книг, напишет диплом, диссертацию, но разве это отменяет потребность в профессиональном образовании, в самостоятельной научной работе? Ответ — нет. Он должен быть нашим надежным помощником, в чем-то мы можем позволить ему заменить нас полностью, но все, что делает нас людьми, будет неизменно. И в погоне за искусственным интеллектом важно не забывать про развитие собственного интеллекта. Помните в фильме "Приключения Электроника", с которого мы начали, Электроник очень хотел стать человеком и сбежал от своего создателя, чтобы им стать?
P.S. Авторы заверяют и гарантируют, что эта статья написана без применения технологий ИИ.
Библиографический список
1. Альбицкая И., Косяков А. Искусственный интеллект для юристов // Юридический справочник руководителя. 2022. N 1. С. 79 — 84.
2. Вайпан В.А. Основы правового регулирования цифровой экономики // Право и экономика. 2017. N 11. С. 5 — 18.
1 https://pro.rbc.ru/demo/648c8a669a79477b46ad95ce?from=material_cards
2 https://pro.rbc.ru/demo/64ef240e9a794764ea49aa07
3 https://www.gazeta.ru/tech/2019/11/11/12806774/applecard_sexist.shtml
4 https://www.bizjournals.com/twincities/news/2019/10/29/unitedhealth-algorithm-accused-of-racial-bias-gets.html
5 https://www.kommersant.ru/doc/4154263
6 https://www.kommersant.ru/doc/3967462
7 https://www.autonews.ru/news/5be4498c9a7947707744ab2b, https://www.kommersant.ru/doc/3792047, https://pravo.ru/auto/story/244948/
8 https://www.vedomosti.ru/technology/articles/2023/07/17/985581-sber-i-razrabotchiki-kandinsky-ne-budut-otvechat-za-rezultat
9 https://www.rbc.ru/technology_and_media/14/08/2023/64da71f99a7947201506a32b
10 https://www.ixbt.com/news/2023/08/31/tinkoff-ukral-golos-nejrosetju-aktrisa-dubljazha-trebuet-s-kompanii-6-mln-rublej-i-vmeste-s-drugimi-akterami-i/html
11 Вайпан В.А. Основы правового регулирования цифровой экономики // Право и экономика. 2017. N 11. С. 5 — 18.
12 См.: Постановление Президиума ВАС РФ от 27.07.2010 N 4515/10 по делу N А38-2401/2008.
13 Определение КС РФ от 04.10.2012 N 1833-О.
14 https://tass.ru/obschestvo/18633045
15 https://pro.rbc.ru/demo/64ef240e9a794764ea49aa07
16 https://www.tadviser.ru/index.php/%D0%A1%D1%82%D0%B0%D1%82%D1%8C%D1%8F:%D0%92%D1%80%D0%B5%D0%B4%D0%BE%D0%BD%D0%BE%D1%81%D0%BD%D0%BE%D0%B5_%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_(Adversarial_Machme_Leammg,_AML)
17 https://www.chernobrovov.ru/articles/kak-obmanut-nejroset-ili-chto-takoe-adversarial-attack.html
18 https://www.sberbank.com/common/img/uploaded/files/promo/kandinskiy-terms/kandinskiy-terms-of-use.pdf
19 https://yandex.ru/legal/shedevrum_termsofuse/
20 Floris Mertens. Указ. соч.
21 https://tass.ru/obschestvo/18633045
22 Например, к источникам повышенной опасности также отнесено оружие (ст. 2 Федерального закона "Об оружии" от 13.12.1996 N 150-ФЗ).
Связанные статьи:
- Мировые тренды развития туристической отрасли в эпоху глобализации (50%)
- К вопросу о необходимости теоретико-правового осмысления современного психологического туризма (50%)
- Искусственный интеллект: правовые аспекты (50%)
- Искусственный интеллект и авторское право: взгляд в будущее (5.6%)
- Искусственный интеллект в государственном управлении (5.6%)
- Концептуальные основы формирования международного стандарта при установлении уголовной ответственности за деяния, связанные с искусственным интеллектом (RANDOM - 0.7%)