Рус Eng Cn Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Юридические исследования
Правильная ссылка на статью:

О некоторых аспектах публичной юридической ответственности в сфере использования искусственного интеллекта и автономных роботов

Горохова Светлана Сергеевна

кандидат юридических наук

доцент, Департамент международного и публичного права, Финансовый университет при Правительстве Российской Федерации

109456, Россия, Московская область, г. Москва, ул. 4-Й вешняковский проезд, 4, каб. 414

Gorokhova Svetlana Sergeevna

PhD in Law

Associate Professor, Department of International and Public Law, Financial University under the Government of the Russian Federation

109456, Russia, Moskovskaya oblast', g. Moscow, ul. 4-I veshnyakovskii proezd, 4, kab. 414

Swettalana@yandex.ru
Другие публикации этого автора
 

 

DOI:

10.25136/2409-7136.2021.5.35557

Дата направления статьи в редакцию:

21-04-2021


Дата публикации:

25-05-2021


Аннотация: Предметом исследования являются некоторые теоретические аспекты публичной юридической ответственности, которая может возникать в тех сферах и ситуациях, в которых имеет место применение искусственного интеллекта и роботизированных автономных систем. Автором уделяется внимание пониманию публичной правовой ответственности как юридической категории, и ее месту в системе правового регулирования общественных отношений в государстве.В статье рассматриваются базовые вопросы публичной ответственности в сфере потенциального использования систем, оснащенных технологическими решениями на основе искусственного интеллекта. Раскрываются вероятные опасности и риски, детерминируемые развитием и внедрением указанных технологий в соответствии с направленностью научно-технического прогресса. В результате проведенного исследования автор приходит к выводу, что в настоящее время в Российской Федерации, нет системы ответственности, специально применимой к ущербу или убыткам в результате использования новых технологий, таких как ИИ. Тем не менее, существующий режим ответственности обеспечивает по крайней мере базовую защиту жертв, ущерб которым причинен в результате применения вышеназванных технологий. Однако конкретные характеристики этих технологий, и сложности их применения, могут затруднить предоставление потерпевшим компенсации во всех случаях, когда это представляется оправданным, и не обеспечить справедливого и эффективного распределения ответственности в целом ряде случаев, в том числе, при нарушении неимущественных прав граждан.


Ключевые слова:

искусственный интеллект, публичная ответственность, искусственные интеллектуальные системы, ответственность, автономное транспортное средство, вина, юридическая ответственность, жертва, уголовная ответсвенность, административная ответсвенность

Abstract: The subject of this research is certain theoretical aspects of public legal responsibility that may emerge in the spheres and situations of the use of artificial intelligence and robotic autonomous systems takes place. Special attention is given to interpretation of public legal responsibility as a legal category, and its role within the system of legal regulation of public relations in the country. The article explores the basic aspects of public responsibility in the sphere of potential use of the systems equipped with technological solutions based on artificial intelligence. The author describes the possible risks determined by the development and implementation of such technologies in accordance with trends of scientific and technological progress. The conclusion is made that currently in the Russian Federation does not have a liability system applicable particularly to damage or losses resulting from the use of new technologies, such as artificial intelligence. However, the existing liability regime at least ensures the basic protection for the victims suffered from the use of artificial intelligence technologies. However, the peculiar characteristics of these technologies and complexity of their application may hinder payment of compensations for inflicted harm in all cases when it seems justified, and not ensure fair and effective allocation of responsibility in a number of cases, including the violation of non-property rights of citizens.


Keywords:

artificial intelligence, public responsibility, artificial intelligence systems, responsibility, autonomous vehicle, guilt, legal responsibility, victim, criminal liability, administrative responsibility

Общественные отношения, существующие на данном этапе технического развития, обусловили необходимость трансформации правовой составляющей социального взаимодействия естественного (человеческого) и искусственного интеллектов, в первую очередь, путем включения новых, выходящих за рамки создаваемого веками правового тезауруса терминов, категорий и дефиниций в юридический обиход для характеристики нового экономического уклада цифрового общества. Современные возможности, и связанные с ними новые риски и угрозы для государства, общества и отдельных индивидов, формируют ситуацию, когда правовое поле, как минимум, должно подстроиться под воплощаемую реальность, и, как максимум, создать «задел» для обеспечения дальнейшего соответствия между развивающимся технологиям и социальными отношениями, в целом, и правовыми, в частности. Все это является обоснованием развития правового регулирования искусственного интеллекта (далее – ИИ), нейронных сетей на его основе, а также роботов и объектов робототехники. Формирование потребности в правовом регулировании применения ИИ, прямо зависит от появившихся с конца ХХ в. новых факторов, как позитивного, так и негативного толка, воздействующих практически на все сферы жизни общества.

Актуальной целью совершенствования уголовного и административного законодательства (ведь именно об этих видах ответственности идет речь, когда мы говорим о публичной юридической ответственности) служит уточнение видового состава субъектов права в данных сферах регулирования, параметров и условий юридической ответственности за действия и вероятный вред, причиненный системами оснащенными ИИ, различного рода роботами и объектами робототехники. Кроме того, под юрисдикцию указанных отраслей права и законодательства подпадают вопросы обеспечения законных прав и свобод человека и гражданина, в том числе - на неприкосновенность частной жизни, тайну корреспонденции, честь и достоинство личности. Так что, здесь усматривается и еще одна, отдельная цель – обеспечение и охрана законных интересов, прав и свобод всех субъектов права. Отдельно, в рамках административного права, можно говорить о создании модернизированной системы государственного управления, включающей новые органы исполнительной власти, нацеленные на преодоление сложившихся административных барьеров на пути разработки и внедрения интеллектуальных цифровых систем, которые будут заниматься вопросами этического контроля над данными разработками (в том числе и двойного назначения), лицензированием производства и готовых к эксплуатации устройств, их стандартизацией, экспертной оценкой и другими, сопряженными с указанными, вопросами. Несмотря на то, что в научном мире нет единого толкования,[1] трактующего юридическую ответственность как аксиоматичную категорию, тем не менее, виды юридической ответственности имеют статус базовых государственно-правовых институтов, входящих в правовую систему любого государства в независимости от принадлежности национальной правовой системы к той или иной правовой семье. Юридическая ответственность, обязательный элемент любой правовой конструкции, направленной на регулирование общественных отношений. Права человека, квинтэссенция светской правовой системы практически всех государств современного мира. А там, где есть право – должна быть обязанность, направленная на реализацию этого права, или же запрет, предназначенный защитить законное право или интерес от преступных посягательств. Соответственно, должны быть установлены правила, регламентирующие реализацию прав и выполнение обязанностей. И, конечно, необходима ответственность за несоблюдение правил, невыполнение обязанностей и нарушение запретов, поскольку только ответственность, в итоге, гарантирует нормальный ход человеческих отношений, урегулированных правовыми нормами.

Для того чтобы наступление правовой ответственности стало возможным, необходимо чтобы было нарушено правило, не выполнена обязанность или же не соблюден запрет, то есть лицо совершило деяние, в котором бы усматривались все признаки правонарушения. Правонарушение состоит из объективных (объект, объективная сторона) и субъективных (субъект, субъективная сторона) элементов его состава. Под составом правонарушения, в свою очередь, понимают совокупность объективных и субъективных элементов и признаков, необходимых и достаточных, для того, чтобы квалифицировать деяние как противоправное.

Можно выделить достаточно много видов юридической ответственности (материальную; гражданско-правовую; административную; уголовную, и др.), среди которых, в рамках нашего исследования, особое значение имеют административная и уголовная, так как они, как уже было отмечено, наиболее полно попадают под определение публично-правовой ответственности в праве. Так, Конституционный Суд РФ, исходит из того, что публичная ответственность – разновидность именно юридической, а не социальной ответственности. При этом, в отличие от авторов, отрицающих ее самостоятельный характер,[2] Конституционный Суд РФ рассматривает публичную ответственность как особый вид юридической ответственности, являющий собой форму государственного принуждения (Постановление КС РФ от 23.09.2014 № 24-П). Правом реализации публичной ответственности наделяется только государство в лице его компетентных органов, а, основанием для ее применения становится нарушение, которое носит противоправный и общественно опасный характер. Обязательным элементом состава публично-правового нарушения является вина правонарушителя. Формами проявления публично-правовой ответственности Конституционный Суд РФ называет административную и уголовную ответственность (например, Постановление КС РФ от 23.09.2014 № 24-П).[3]

Рассмотрим некоторые аспекты данного вида ответственности применительно к сферам использования ИИ, которых, к слову, становится все больше – техника для дома, средства транспорта, медицинское оборудование, беспилотные наземные и воздушные модули и другие устройства все чаще используют ИИ для автоматизации (автономизации) принятия решений. При этом, возрастающая степень автономии таких агрегатов, имея много преимуществ, также порождает и неизвестные риски. В частности, достаточно много вопросов возникает, когда ИИ в процессе деятельности создает опасность причинения вреда здоровью, или даже жизни людей, провоцирует возникновение иных потерь.

Уникальные особенности этих технологий – включая сложность, модификацию путем обновления или самообучения и ограниченную предсказуемость, могут затруднить определение того, что пошло не так, и кто должен нести ответственность, если это произойдет. Выявление виновных, может быть проблематичным, поскольку в процессе подготовки к применению, и собственно применения ИИ, в подавляющем большинстве случаев участвует много сторон (поставщик данных, проектировщик, производитель, программист, разработчик, пользователь и сама интеллектуальная система.[4] Еще сложнее все становится, если ошибка или дефект, вызвавшие ущерб или нарушение прав человека, детерминируются решением, которое ИИ принял сам, на основе имеющейся автономии с ограниченным участием или вообще без участия человека. Причем, ситуация с нарушением прав человека, напрямую не связанная с материальными потерями, гораздо более сложная, и тяжело поддается возмещению в рамках гражданского права. Именно здесь, крайне важно предусмотреть виды публично-правовой ответственности, которые гарантировали бы обеспечение конституционных (и иных) прав человека последствия нарушений которых не столь очевидны и значительно труднее измеримы, чем материальный ущерб.

Следует констатировать, что сегодня ситуация с определением потенциально ответственных в исторической перспективе лиц, развивается достаточно удивительным образом. Во-первых, имеют место добровольные действия со стороны ИТ-индустрии (разработчиков и производителей ИИ-технологий) и других, в том числе, правительственных организаций, [5]в принятии и публичном провозглашении своей приверженности этическим руководящим принципам, которые, как правило базируются на законах робототехники, сформулированных еще Айзеком Азимовым (робот не может причинить вреда человеку, и др.). В связи с этим отметим, что любые этические кодексы, и другие документы подобного рода не имеют никакой юридической силы, и в случае возникновения реальных юридических конфликтов, пострадавшим апеллировать к ним будет невозможно. Еще здесь необходимо указать, что к примеру, «Директива по этике ЕС»,[6] во главу угла ставит цель создания надежного ИИ. Однако, надежной, строго говоря, не может быть технология, а только люди, стоящие за ней. Таким образом, надежными (или нет) должны быть не системы ИИ, а люди, которые их программируют, и те, кто несет ответственность за юридически упорядоченные процедуры их внедрения и использования. Не может работать, по нашему мнению, и концепция моральной машины (moral machine), представленная Массачусетским технологическим институтом, по той простой причине, что возможность формирование морали у машин находится еще под большим вопросом, чем следование моральным нормам, не подкрепленным юридической ответственностью всех, без исключения, людей. Поэтому, не исключая важность разработки морально-этических норм для разработчиков ИИ-систем, мы настаиваем на их перевод в систему правовых ценностей – то есть закрепления посредством обязательных, а не рекомендательных норм.

Во-вторых, те же лица, которые представляют корпоративные этические кодексы, и убеждают всех в их достаточности, утверждают, что, поскольку системы ИИ могут действовать автономно, это освобождает их создателей от ответственности за свои решения и какие-либо косвенные неблагоприятные эффекты. В отношении этого тезиса, возникает закономерный вопрос, если не они, то кто будет отвечать?

В современной юридической литературе ведутся самые оживленные дискуссии на тему правосубъектности ИИ, в том числе, и его способности в той или иной мере самостоятельно нести юридическую ответственность. Так, ряд авторов обосновывает преждевременность постановки вопроса о придании статуса субъекта права ИИ.[7] Другие, как таковую, отрицают возможность предоставления такого статуса искусственному интеллекту, как объекту, созданному людьми, утверждая, что как субъект может рассматриваться только «спонтанный интеллект», самозародившегося в сети.[8] Или же, отмечают, что отсутствует правовая и философская необходимость придавать правовой статус субъекта ИИ, обосновывая это тем, что вместо того, чтобы предполагать, что этически спорное будущее с разумными машинами неизбежно, почему бы не выбрать управление машинами, которые строятся людьми, и бросить вызов технологическому императиву? Или человечество настолько в плену у идеи создания искусственной жизни, монстров и големов, что полагает это невозможным?[9]

Есть и сторонники позиционирования ИИ в качестве особой формы личности - «электронного лица», то есть наделения ее определенной правосубъектностью, в зависимости от различных факторов и сферы функционирования такой системы.[10]. В стане сторонников правосубъектности ИИ также имеются вариации решения вопроса. Например, некоторые считают, что возможно применение концепции коллективного субъекта права к электронному лицу, так как институт электронного лица не предполагает реального наделения юнитов искусственного интеллекта правосубъектностью физического лица, а, скорее, схож с институтом юридических лиц, однако с ещё большей нацеленностью на достижение конкретных практических целей. При этом, наделение ИИ правовым статусом электронного лица должно быть направлено не на признание автономности и самостоятельности такого юнита и освобождение физических и юридических лиц от ответственности за его действия, а наоборот, на укрепление такой подотчётности и решение проблем идентификации юнитов искусственного интеллекта и стоящих за ними реальных людей.[11]. Отметим, что вес концепции «электронного лица» придала в свое время Резолюция Civil Law Rules on Robotics Европейского Парламента,[12] предусматривавшая фактически полноценный правовой статус для ИИ, включающий права, обязанности (в т.ч. по уплате налогов) и ограниченную ответственность. Этот шаг Европейского парламента побудил ряд экспертов опубликовать открытое письмо в апреле 2018 года, призывающее комиссию игнорировать этот шаг парламента и отказаться от «электронной личности». Согласно этому письму, было бы неуместным, идеологическим, бессмысленным и непрактичным вводить такой правовой статус.[13] В настоящее время Европейская комиссия наметила свою будущую стратегию по решению проблемы ИИ, в которой его способность нести права, обязанности и ответственность – «электронная личность» на парламентском жаргоне – осталась невостребованной. [14]

Можно говорить и о таком мнении, согласно которому ИИ не субъект, а квазисубъект права. Как правило, как указывают исследователи, квазисубъект права представляет социально-правовую ценность, чья значимость является признанной в правовом сообществе. Квазисубъект обладает одним или несколькими признаками субъекта права, в отсутствии других необходимых и достаточных признаков. Чаще всего квазисубъект права не обладает признаком дееспособности, способностью нести юридическую ответственность, вырабатывать единую правовую волю. Еще одним признаком квазисубъекта является признание его правосубъектности законодателем, судом или частью правового сообщества. Есть среди квазисубъектов права и те, что получали такое признание, но никогда не обладали правовыми качествами, и не могут соответствовать правовой природе субъекта права. К ним относятся также роботы и ИИ.[15].

Еще одним подходом к определению места технологий ИИ, но правда только с поправкой на то, что речь идет о сильном или сверхсильном ИИ, является концепция частичной правоспособности, в соответствии с которой происходит наделение ИИ правами и обязанностями, в зависимости от исполняемой им функции. При этом, ответственность остается за физическими и юридическими лицами. [16]

В этой связи отметим, что в Российской Федерации определение ИИ дано в «Стратегии развития искусственного интеллекта до 2030 года», утвержденной Указом Президента РФ от 10.10.2019 N 490, [17] который определяется как «комплекс технологических решений», способных имитировать определенный ряд свойств человека и, прежде всего, такого свойства естественного разума, как способность к самообучению. Такая способность является основополагающей и актуализирует вопросы определения места ИИ в системе как уже сложившихся общественных отношений, так и тех, которым только предстоит формироваться в недалеком будущем в целях обеспечения благосостояния всех людей, национальной безопасности и экономического развития в современных условиях государственно-правового развития. Кроме того, 24 апреля 2020 года, Государственной Думой РФ, был принят Федеральный закон от 24.04.2020 N 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных"», который вступил в силу с 1 июля того же года. Указанный акт, уже на законодательном уровне закрепил легальное определение ИИ в Российской Федерации, фактически дословно повторив определение, данное ранее в Стратегии.[18]

Исходя из указанной трактовки ИИ, можно сделать вывод, что на современном этапе технологического развития следует однозначно говорить о реальном существовании слабого ИИ узкого назначения (Narrow AI), а также перспективах скорого появления сильного ИИ общего назначения (General AI), в то время как сверхсильный интеллект (Super AI) пока даже не обозначен, хотя его развитие в достаточно отдаленном будущем научно прогнозируется. Существующий же в реальном времени Narrow AI работает в полной зависимости от созданного человеком алгоритма, и способен получать информацию только из того набора данных, который прямо указан в алгоритме, «помогая» людям в решении конкретной задачи. Т.е., такой вид ИИ напрямую соотноситься с определением его как системы специальных средств и приемов, используя которые компьютер, на основе уже накопленной информации, может отвечать на заданные ему вопросы, делая на базе этого экспертные выводы.[19] Не обладая подобием естественного разума, работая в заранее заданном диапазоне, слабый ИИ, безусловно, не может даже в самых смелых мечтах приблизиться к естественному интеллекту, поэтому, исходя из его внутренних свойств, не может считаться субъектом в отношениях.

Поэтому, не отвергая возможности дальнейшего технологического развития, и появления ИИ в статусе General AI, или даже Super AI, с актуализацией дискуссии о его правосубъектности, тем не менее, по нашему мнению, на текущем этапе технологического развития, единственным возможным фундаментальным и универсальным соображением об ИИ-системах является то, что нет никаких философских, технологических или юридических оснований считать их чем-то иным, кроме артефактов, порожденных человеческим интеллектом, а, следовательно - продуктов. Даже в свете существующих правил ответственности всегда теоретически возможно идентифицировать человека, который может быть признан виновным, и несет ответственность за ущерб, возникший в результате использования устройства. Поэтому, в рамках данной статьи мы не рассматриваем ИИ в качестве субъекта, который может быть наделен деликтоспособностью и сам нести ответственность за причиненный вред. Хотя очевидно, что сложности, возникающие в результате развития технологий ИИ и, в частности, машинного обучения, могут привести к повреждениям, потерям или убыткам в различных контекстах, например: в сфере права интеллектуальной собственности; обеспечения конфиденциальности; предотвращения экономических потерь; в сфере финансовых услуг.[20] Возможная дискриминация также является одним из обсуждаемых негативных эффектов от применения ИИ, поскольку системы ИИ, вынося свое решение, основываясь на статистических данных, нередко предвзяты с человеческой точки зрения, особенно по расовому и гендерному признаку - и когда они используются при наборе персонала, и когда, например, решаю вопросы о досрочном освобождении, сотрудничая с пенитенциарной системой, что может поставить в невыгодное положение определенные социальные группы.[21]

Стремительный рост числа автономных транспортных средств, и все более широкое использование ИИ в области медицины, даже исходя из теории вероятности, неизбежно повышает риск травм и телесных повреждений, связанных с ИИ. Там, где технология ИИ в конечном итоге используется на полностью автономной основе, в случае аварии или неправильного диагноза возникнут новые вопросы ответственности. Так, например, в США Большое жюри штата Аризона предъявило обвинение Рафаэле Васкес, бывшему водителю безопасности в проекте тестирования автономного автомобиля Uber, за смерть пешехода Элейн Херцберг в 2018 году в Темпе, штат Аризона. Автомобиль работал в режиме самостоятельного вождения в течение 19 минут, прежде чем он принял женщину за автомобиль, который, как он ожидал, предпримет уклоняющиеся действия. Только признав свою ошибку, он вернул управление водителю-человеку за несколько секунд до столкновения, которое водитель-человек не смог предотвратить. После происшествия власти штата запретили проводить тестирования на общих трассах, а Uber закрыл «беспилотный» эксперимент и уволил 300 операторов. Техническая ошибка не была доказана, хотя изначально предполагалась. Однако, эта ситуация поставила членов технического сообщества перед двумя неудобными, но тем не менее важными вопросами: была ли эта алгоритмическая трагедия неизбежной? И насколько мы будем готовы привыкнуть к подобным инцидентам?[22]

Кажется, маловероятным, что разработчики автомобиля могли разумно предвидеть, что система ИИ автомобиля ошибочно поверит, что женщина, толкающая велосипед с сумками покупок, свисающими с руля, была другим транспортным средством. С другой стороны, со стороны разработчиков, было бы вполне разумно предположить, что сенсорные технологии автомобиля не смогут правильно классифицировать объекты необычной формы, встречающиеся в нормальных условиях движения, и что ошибки такого рода могут привести к фатальным столкновениям.

Тем не менее, существующая юридическая практика, продолжает идти по пути поиска «стрелочника» человека-оператора (а не разработчика), как бы обосновано это не выглядело в данном случае. И вероятно, такая тенденция продолжится, в том числе и потому, что с точки зрения доказывания, это объективно проще, поскольку автономные автомобили, которые в настоящее время тестируются, могут содержать 100 метров строк кода, и, учитывая, что ни один программист не может предвидеть все возможные обстоятельства на реальной дороге, они должны еще и перманентно учиться, получать постоянные обновления.

Поэтому, по нашему мнению, разработчики этих технологий должны нести ответственность за то, что по неосторожности не предприняли шагов, которые предотвратили бы причиненный вред и правонарушения.

Но даже в этом случае возникает вопрос о наших разумных ожиданиях от технологической индустрии при принятии решения о выпуске новых технологий в реальный мир: мы правильно внедряем жесткие режимы контроля для новых фармацевтических препаратов, предпринимаем все меры для контроля развития и функционирования ядерных технологий, поддерживаем запрет на клонирование человека - разве это не также верно и для рискованных передовых цифровых инноваций?

Тем более, что в наши дни ИИ обладает способностью самообучаться и частично даже самостоятельно корректировать свое поведение. Предсказание конкретного поведения часто уже не может быть сделано его оператором. Чем больше распространяется технология, чем сложнее она становится, тем более проблематичным кажется юридическое сопоставление с производителями и пользователями.

Основой российского режима юридической ответственности всегда являлся человеческий проступок. Однако, поскольку ИИ сможет самостоятельно учиться и корректировать свое поведение по сравнению с устаревшими ИТ-системами, их поведение часто невозможно точно предсказать. Однако, и придавать статус субъекта ИИ, как мы уже обосновали выше, объективно, рано.

В силу вышеприведенных доводов, предлагаем законодательно установить административную процедуру допуска новых технологий ИИ для использования в гражданском обороте в социально значимых сферах. Установить соответствующе обязанности для всех, непосредственно причастных к появлению новой версии ИИ-продукта, что позволит, в дальнейшем разработать систему административной ответственности, адекватную создаваемым рискам.

В отношении уголовно-правовой ответственности, которая уже сегодня может возникнуть в связи с применением технологий ИИ, отметим несколько достаточно отдельных направлений, которые здесь можно рассмотреть.

В принципе, во взаимосвязи с разработкой и внедрением ИИ-технологий вероятны несколько возможных сценариев, способных потребовать вмешательства уголовно-правовой системы: в процессе проектирования системы ИИ, была допущена ошибка, спровоцировавшая наступление общественно опасных последствий, и вред объектам охраняемы уголовным законом; в процессе эксплуатации ИИ были допущены нарушения, повлекшие преступный результат;  интеллектуальная искусственная система подверглась компьютерной атаке, или каким-то иным способом был осуществлен перехват управления, что также спровоцировало последствия; ИИ был использован в преступных целях лицами в рамках служебного допуска (без захвата управления); сильный или сверхсильный ИИ, способный к саморазвитию принял решение о совершении деяния, квалифицируемого как преступное; и, наконец, ИИ был специально создан преступниками для совершения преступлений.

Наиболее прямой случай (с учетом того, что в общем смысле ИИ на сегодняшний день представляет собой информационно-телекоммуникационную технологию), когда деяния посягают на видовой объект уголовно-правовой защиты, предусмотренной главой 28 Уголовного кодекса РФ - компьютерную информацию. Так, согласно ст. 274 Уголовного кодекса РФ, нарушение правил эксплуатации средств хранения, обработки или передачи охраняемой компьютерной информации либо информационно-телекоммуникационных сетей и оконечного оборудования, а также правил доступа к информационно-телекоммуникационным сетям, повлекшее уничтожение, блокирование, модификацию либо копирование компьютерной информации, причинившее крупный ущерб, наказывается штрафом в размере до пятисот тысяч рублей или в размере заработной платы или иного дохода осужденного за период до восемнадцати месяцев, либо исправительными работами на срок от шести месяцев до одного года, либо ограничением свободы на срок до двух лет, либо принудительными работами на срок до двух лет, либо лишением свободы на тот же срок. То же деяние, повлекшее тяжкие последствия или создавшее угрозу их наступления, наказывается принудительными работами на срок до пяти лет либо лишением свободы на тот же срок.

Указанная норма вполне применима и к ситуациям с использованием ИИ. Ее бланкетный характер отсылает к конкретным инструкциям и правилам, устанавливающим порядок работы со средствами хранения, обработки или передачи охраняемой компьютерной информации, информационно-телекоммуникационными сетями и оконечным оборудованием в ведомстве или организации, нарушение которых повлекло уничтожение, блокирование, модификацию либо копирование информации, причинившее крупный ущерб. В данном случае необходимо только чтобы этот порядок работы с системами ИИ, был соответствующим образом установлен. Напомним также, что в соответствии с действующим законодательством, уголовной ответственности подлежат исключительно физические лица, хотя возможность введения корпоративной уголовной ответственности, в том числе, и за преступления в сфере компьютерной информации, по нашему мнению, следовало бы обсудить.

Неправомерный захват управлением систем ИИ может быть квалифицирован по ст. 272 Уголовного кодекса РФ.

Статья 273 УК РФ в настоящее время предусматривает ответственность за создание, распространение или использование компьютерных программ либо иной компьютерной информации, заведомо предназначенных для несанкционированного уничтожения, блокирования, модификации, копирования компьютерной информации или нейтрализации средств защиты компьютерной информации. Вероятно, следует подкорректировать ее редакцию для того, чтобы добиться более полного соответствия со случаями использования технологии ИИ, которая может создаваться не как вредоносная, но в дальнейшем модифицирована под противоправные, вредные цели. Предлагаем следующую редакцию статьи: Статья 273 Создание, использование и распространение вредоносных (модифицированных под вредоносные) компьютерных программ: "1. Создание, распространение или использование компьютерных программ либо иной компьютерной информации, заведомо предназначенных для несанкционированного уничтожения, блокирования, модификации, копирования компьютерной информации или нейтрализации средств защиты компьютерной информации, или модификация компьютерных программ под указанные цели".

Во-вторых, необходимо учитывать, что преступники могут использовать ИИ, роботов и объекты робототехники для совершения преступлений. Правоохранители по всему миру всерьез готовятся к появлению преступных групп, совершающих убийства, террористические акты, и другие преступления с использованием ИИ технологий и роботизированной техники. При этом, высокие технологии могут быть использованы не только для совершения преступлений против личности, но и для посягательств на общественную безопасность, совершения преступлений против мира и безопасности человечества, в том числе, при создании и использовании смертельного оружия. Опасность здесь обусловлена не только их способностью самостоятельно выбирать и атаковать цели без вмешательства человека, но и непониманием норм международного гуманитарного права и самой концепции ответственности за незаконные деяния, а также возможным сбоем в работе программного обеспечения или его взломом.[23]

Как мы уже отмечали, ответственность за вред, причиненный ИИ, должно нести лицо его программировавшее, либо ответственное за его эксплуатацию. Однако, здесь необходимо сделать некоторые оговорки. Такой подход станет приемлемым в рамках отечественной правоприменительной практики в случае, если ИИ, сможет быть признан источником повышенной опасности. В силу ст. 1079 Гражданского кодекса РФ,[24] юридические лица и граждане, деятельность которых связана с повышенной опасностью для окружающих, обязаны возместить вред, причиненный источником повышенной опасности, независимо от наличия вины, если не докажут, что вред возник вследствие непреодолимой силы.[25] В указанной норме содержится перечень видов деятельности, являющихся потенциально опасными, однако перечень носит открытый характер, и суд, вправе признать опасной также и иную деятельность, отсутствующую в перечне.[26] Таким образом, по решению суда ИИ может быть признан источником повышенной опасности. То есть, вопрос, решаем даже в рамках действующего законодательства, тем не менее, как отмечают исследователи, более рациональным способом правового регулирования, здесь будет новая редакция п. 1 ст. 1079 ГК РФ прямо включающая в себя указание на то, что технологии ИИ представляют собой источник повышенной опасности.[27]

Кроме того, исходя из потенциальной опасности всех вновь создаваемых и вводимых в оборот технологий ИИ, по нашему мнению, следует установить административную процедуру проведения экспертного исследования внедряемых технологий, предназначенных для широкого круга пользователей, осуществляемую по принципу уже существующей экологической экспертизы, проводимой в целях опровержения потенциальной опасности планируемой хозяйственной деятельности предприятий.

Подводя итог, отметим, что поскольку ИИ является гетерогенным явлением, его регулирование не может быть единым и универсальным, даже в отношении правил ответственности. Любая попытка регулировать ИИ должна быть специфичной для конкретной технологии. Поэтому, чтобы обеспечить необходимый баланс ответственности, следует установить адаптированный под каждую технологию набор обязанностей, связанный с разработкой, производством и эксплуатацией таких систем: в том числе в отношении выбора правильной системы, мониторинга ее функционирования и обслуживания. На производителей должна быть возложена обязанность оборудовать технологию средствами регистрации информации о ее функционировании, поскольку, такая информация вероятнее всего будет необходима для установления того, материализовался ли потенциальный риск технологии.

Для обоснования предлагаемых нововведений, важно прояснить концептуальное различие между двумя различными типами неблагоприятных последствий, которые могут возникнуть (и уже возникали) в результате работы систем искусственного интеллекта: нарушения прав человека, предусмотренных Конституцией РФ и другими нормативными правовыми актами; материальный вред здоровью человека, имуществу или окружающей среде. Это отдельные и разные понятия и следствия, хотя, нарушение прав человека может произойти без какого-либо ощутимого вреда, и наоборот. Например, если технология ИИ, получит ваши личные данные в процессе обработки персональной информации для постановки медицинского диагноза, а затем использует их для выяснения ваших покупательских потребностей и формирования контекстной рекламы в интернете, это может быть рассмотрено как нарушение неприкосновенности частной жизни, но не повлечет за собой никакого ощутимого материального вреда. Или же беспилотное транспортное средство собьет на дороге дикое животное, напротив, вред будет нанесен, но права человека не пострадают. Возможна и другая ситуация, когда беспилотное транспортное средство врежется в другой автомобиль, управляемый человеком, будет нанесен и материальный ущерб, и нарушено конституционное право на жизнь.

Понимание наличия возможных комбинаций нарушений прав человека и материального ущерба крайне важно на текущий момент, потому, что, если ситуация с возмещением материального вреда достаточно легко решаема даже посредством уже существующих механизмов правовой ответственности, и может быть реализована в рамках гражданско-правовой ответственности (путем возмещения ущерба) или же с применением институтов превентивного страхования ответственности, то ситуация с нарушением прав человека, напрямую не связанная с материальными потерями, гораздо более сложная, и тяжело поддается возмещению в рамках гражданского права. Именно здесь, нужно предусмотреть виды публично-правовой ответственности, которые гарантировали бы обеспечение конституционных (и иных) прав человека, последствия нарушений которых не столь очевидны и значительно труднее измеримы, чем материальный ущерб.

Библиография
1. Скребнева, Н. А. Юридическая ответственность в публичном и частном праве: вопросы теории и практики: дис. … канд. юрид. наук: 12.00.01 / Н. А. Скребнева. –– Москва, 2017. –– 189 с.
2. Липинский Д. А. О системе права и видах юридической ответственности. // Правоведение. 2003. № 2 (247). С. 28.
3. Болгова В. В. Понятие и признаки публично-правовой ответственности в решениях Конституционного Суда Российской Федерации// European science. №4(5).2015. С.29-31
4. Апостолова Н.Н. Ответственность за вред, причиненный искусственным интеллектом//Северо-Кавказский юридический вестник. 2021. № 1. С. 112-119.
5. Ethics guidelines for trustworthy AI URL: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (дата обращения: 24.04.2021)
6. Европейская этическая хартия об использовании искусственного интеллекта в судебных системах и окружающих их реалиях// https://rm.coe.int/ru-ethical-charter-en-version-17-12-2018-mdl-06092019-2-/16809860f4 (дата обращения: 29.04.2021)
7. Lawrence B. Solum. Legal Personhood for Artificial Intelligences// North Carolina law review. V.70 №4.1992
8. Jiahong Chen, Paul Burgess. The boundaries of legal personhood: how spontaneous intelligence can problematise diferences between humans, artifcial intelligence, companies and animals// Artifcial Intelligence and Law (2019) 27:73–92 https://doi.org/10.1007/s10506-018-9229-x (дата обращения 28.04.2021)
9. Hassler S. Do We Have to Build Robots That Need Rights? [Электронный ресурс] // IEEE Xplore. URL: http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=7864739 (дата обращения: 02.04.2021).
10. Понкин И.В., Редькина А.И. Искусственный интеллект с точки зрения права// Право и новые технологии. Том 22, № 1. 2018 С.91-109
11. Морхат П.М. Юнит искусственного интеллекта как электронное лицо// Вестник Московского государственного областного университета. Серия: Юриспруденция. 2018, № 2. С.61-73
12. Civil Law Rules on Robotics European Parliament resolution of 16.02.2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)). EP reference number: P8_TA (2017)005 // https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.html (дата обращения: 28.04.2021)
13. Open letter to the European commission artificial intelligence and robotics https://www.politico.eu/wp-content/uploads/2018/04/RoboticsOpenLetter.pdf (дата обращения 26.04.2021)
14. Revised Issues Paper on Intellectual Property Policy and Artificial Intelligence https://www.wipo.int/meetings/en/doc_details.jsp?doc_id=499504 (дата обращения 26.04.2021)
15. Пономарева Е. В. Субъекты и квазисубъекты права: теоретико-правовые проблемы разграничения: автореферат дис. ... кандидата юридических наук : 12.00.01 / Пономарева Елена Владимировна; [Место защиты: ФГБОУ ВО Уральский государственный юридический университет].-Екатеринбург, 2019.-32 с.
16. Jan-Erik Schirmer, Gregor Bachmann. Artificial Intelligence and Legal Personality: Introducing Teilrechtsfähigkeit: A Partial Legal Status Made in Germany. Berlin.2018 https://www.rewi.hu-berlin.de/de/lf/ls/bcm/team/jan-erik-schirmer/publikationen-und-vortraege/Schirmer_RegulatingAI_Teilrechtsfaehigkeit.pdf (дата обращения: 2.04.2021)
17. Указ Президента РФ от 10.10.2019 N 490 «О развитии искусственного интеллекта в Российской Федерации» (вместе с "Национальной стратегией развития искусственного интеллекта на период до 2030 года") // Официальный интернет-портал правовой информации http://www.pravo.gov.ru, 11.10.2019.
18. Федеральный закон от 24.04.2020 N 123-ФЗ "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации-городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных"// Собрание законодательства РФ, 27.04.2020, N 17, ст. 2701
19. Пройдаков, Э.М. Современное состояние искусственного интеллекта / Науковедческие исследования. М.: Институт научной информации по общественным наукам РАН, 2018. С. 129-153.
20. Горохова С.С. Искусственный интеллект: инструмент обеспечения кибербезопасности финансовой сферы или киберугроза для банков // Банковское право. 2021. № 1. С. 35-46.
21. Попова А.В. Этические принципы взаимодействия с искусственным интеллектом как основа правового регулирования // Правовое государство: теория и практика. 2020. № 3 (61). С. 34-43.
22. Franken-algorithms: the deadly consequences of unpredictable code URL: https://www.theguardian.com/technology/2018/aug/29/coding-algorithms-frankenalgos-program-danger дата обращения: 21.04.2021)
23. Грачева Ю. В., Арямов А. А. Роботизация и искусственный интеллект: уголовно-правовые риски в сфере общественной безопасности // Актуальные проблемы российского права. — 2020. — Т. 15. —№ 6. — С. 169—178.
24. Гражданский кодекс Российской Федерации.Ч. 2 : федер. закон от 26 янв. 1996 г. № 14-ФЗ // Собрание законодательства РФ. 1996. № 5. Ст. 410.
25. О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина : постановление Пленума Верхов. Суда РФ от 26 янв. 2010 г. № 1 // Российская газета. 2010. 5 февр.
26. О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина : постановление Пленума Верхов. Суда РФ от 26 янв. 2010 г. № 1.
27. Хисамова З.И., Бегишев И.Р.Уголовная ответственность и искусственный интеллект: теоретические и прикладные аспекты // Всероссийский криминологический журнал. 2019. Т. 13. № 4. С. 564-574.
References
1. Skrebneva, N. A. Yuridicheskaya otvetstvennost' v publichnom i chastnom prave: voprosy teorii i praktiki: dis. … kand. yurid. nauk: 12.00.01 / N. A. Skrebneva. –– Moskva, 2017. –– 189 s.
2. Lipinskii D. A. O sisteme prava i vidakh yuridicheskoi otvetstvennosti. // Pravovedenie. 2003. № 2 (247). S. 28.
3. Bolgova V. V. Ponyatie i priznaki publichno-pravovoi otvetstvennosti v resheniyakh Konstitutsionnogo Suda Rossiiskoi Federatsii// European science. №4(5).2015. S.29-31
4. Apostolova N.N. Otvetstvennost' za vred, prichinennyi iskusstvennym intellektom//Severo-Kavkazskii yuridicheskii vestnik. 2021. № 1. S. 112-119.
5. Ethics guidelines for trustworthy AI URL: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (data obrashcheniya: 24.04.2021)
6. Evropeiskaya eticheskaya khartiya ob ispol'zovanii iskusstvennogo intellekta v sudebnykh sistemakh i okruzhayushchikh ikh realiyakh// https://rm.coe.int/ru-ethical-charter-en-version-17-12-2018-mdl-06092019-2-/16809860f4 (data obrashcheniya: 29.04.2021)
7. Lawrence B. Solum. Legal Personhood for Artificial Intelligences// North Carolina law review. V.70 №4.1992
8. Jiahong Chen, Paul Burgess. The boundaries of legal personhood: how spontaneous intelligence can problematise diferences between humans, artifcial intelligence, companies and animals// Artifcial Intelligence and Law (2019) 27:73–92 https://doi.org/10.1007/s10506-018-9229-x (data obrashcheniya 28.04.2021)
9. Hassler S. Do We Have to Build Robots That Need Rights? [Elektronnyi resurs] // IEEE Xplore. URL: http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=7864739 (data obrashcheniya: 02.04.2021).
10. Ponkin I.V., Red'kina A.I. Iskusstvennyi intellekt s tochki zreniya prava// Pravo i novye tekhnologii. Tom 22, № 1. 2018 S.91-109
11. Morkhat P.M. Yunit iskusstvennogo intellekta kak elektronnoe litso// Vestnik Moskovskogo gosudarstvennogo oblastnogo universiteta. Seriya: Yurisprudentsiya. 2018, № 2. S.61-73
12. Civil Law Rules on Robotics European Parliament resolution of 16.02.2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)). EP reference number: P8_TA (2017)005 // https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.html (data obrashcheniya: 28.04.2021)
13. Open letter to the European commission artificial intelligence and robotics https://www.politico.eu/wp-content/uploads/2018/04/RoboticsOpenLetter.pdf (data obrashcheniya 26.04.2021)
14. Revised Issues Paper on Intellectual Property Policy and Artificial Intelligence https://www.wipo.int/meetings/en/doc_details.jsp?doc_id=499504 (data obrashcheniya 26.04.2021)
15. Ponomareva E. V. Sub''ekty i kvazisub''ekty prava: teoretiko-pravovye problemy razgranicheniya: avtoreferat dis. ... kandidata yuridicheskikh nauk : 12.00.01 / Ponomareva Elena Vladimirovna; [Mesto zashchity: FGBOU VO Ural'skii gosudarstvennyi yuridicheskii universitet].-Ekaterinburg, 2019.-32 s.
16. Jan-Erik Schirmer, Gregor Bachmann. Artificial Intelligence and Legal Personality: Introducing Teilrechtsfähigkeit: A Partial Legal Status Made in Germany. Berlin.2018 https://www.rewi.hu-berlin.de/de/lf/ls/bcm/team/jan-erik-schirmer/publikationen-und-vortraege/Schirmer_RegulatingAI_Teilrechtsfaehigkeit.pdf (data obrashcheniya: 2.04.2021)
17. Ukaz Prezidenta RF ot 10.10.2019 N 490 «O razvitii iskusstvennogo intellekta v Rossiiskoi Federatsii» (vmeste s "Natsional'noi strategiei razvitiya iskusstvennogo intellekta na period do 2030 goda") // Ofitsial'nyi internet-portal pravovoi informatsii http://www.pravo.gov.ru, 11.10.2019.
18. Federal'nyi zakon ot 24.04.2020 N 123-FZ "O provedenii eksperimenta po ustanovleniyu spetsial'nogo regulirovaniya v tselyakh sozdaniya neobkhodimykh uslovii dlya razrabotki i vnedreniya tekhnologii iskusstvennogo intellekta v sub''ekte Rossiiskoi Federatsii-gorode federal'nogo znacheniya Moskve i vnesenii izmenenii v stat'i 6 i 10 Federal'nogo zakona "O personal'nykh dannykh"// Sobranie zakonodatel'stva RF, 27.04.2020, N 17, st. 2701
19. Proidakov, E.M. Sovremennoe sostoyanie iskusstvennogo intellekta / Naukovedcheskie issledovaniya. M.: Institut nauchnoi informatsii po obshchestvennym naukam RAN, 2018. S. 129-153.
20. Gorokhova S.S. Iskusstvennyi intellekt: instrument obespecheniya kiberbezopasnosti finansovoi sfery ili kiberugroza dlya bankov // Bankovskoe pravo. 2021. № 1. S. 35-46.
21. Popova A.V. Eticheskie printsipy vzaimodeistviya s iskusstvennym intellektom kak osnova pravovogo regulirovaniya // Pravovoe gosudarstvo: teoriya i praktika. 2020. № 3 (61). S. 34-43.
22. Franken-algorithms: the deadly consequences of unpredictable code URL: https://www.theguardian.com/technology/2018/aug/29/coding-algorithms-frankenalgos-program-danger data obrashcheniya: 21.04.2021)
23. Gracheva Yu. V., Aryamov A. A. Robotizatsiya i iskusstvennyi intellekt: ugolovno-pravovye riski v sfere obshchestvennoi bezopasnosti // Aktual'nye problemy rossiiskogo prava. — 2020. — T. 15. —№ 6. — S. 169—178.
24. Grazhdanskii kodeks Rossiiskoi Federatsii.Ch. 2 : feder. zakon ot 26 yanv. 1996 g. № 14-FZ // Sobranie zakonodatel'stva RF. 1996. № 5. St. 410.
25. O primenenii sudami grazhdanskogo zakonodatel'stva, reguliruyushchego otnosheniya po obyazatel'stvam vsledstvie prichineniya vreda zhizni ili zdorov'yu grazhdanina : postanovlenie Plenuma Verkhov. Suda RF ot 26 yanv. 2010 g. № 1 // Rossiiskaya gazeta. 2010. 5 fevr.
26. O primenenii sudami grazhdanskogo zakonodatel'stva, reguliruyushchego otnosheniya po obyazatel'stvam vsledstvie prichineniya vreda zhizni ili zdorov'yu grazhdanina : postanovlenie Plenuma Verkhov. Suda RF ot 26 yanv. 2010 g. № 1.
27. Khisamova Z.I., Begishev I.R.Ugolovnaya otvetstvennost' i iskusstvennyi intellekt: teoreticheskie i prikladnye aspekty // Vserossiiskii kriminologicheskii zhurnal. 2019. T. 13. № 4. S. 564-574.

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Предмет исследования посвящен определению теоретических подходов «… к публичной юридической ответственности в сфере использования искусственных интеллектуальных систем …». Методология исследования – ряд методов, правильно используемых автором: формально-юридический (отчасти), анализ и синтез, логика и др. Актуальность обоснована автором во введении к статье и выражается в следующем: «…хотя в научном мире нет единого толкования, трактующего понятие юридической ответственности, тем не менее, виды юридической ответственности имеют статус базовых государственно-правовых институтов…». Тут же автор при постановке проблемы говорит о том, что «Для того чтобы наступление правовой ответственности стало возможным, необходимо чтобы было нарушено правило, не выполнена обязанность или же не соблюден запрет…». Научная новизна не обоснована в исследовании автора. Стиль, структура, содержание заслуживают внимания. Исследование имеет необходимые структурные элементы: актуальность, постановка проблемы, цели и задачи, предмет, методология. Отсутствует новизна и выводы (т. е. не показаны теоретические подходы). Стиль работы хороший, она легко читается и носит исследовательский характер. Содержание не совсем отражает существо статьи. Автор логично подводит читателя к существующей проблеме. В начале статьи автор акцентирует внимание читателя на предмете статьи. Он показывает, опираясь на работы оппонентов, что «…особое значение имеют два последних вида (административная и уголовная),[1]». Автор отмечает, опираясь на решение КС РФ: «Формами проявления публично-правовой ответственности Конституционный Суд РФ называет административную и уголовную ответственность (например, Постановление КС РФ от 23.09.2014 № 24-П)». Далее автор переходит к анализу «публично-правовой ответственности… применительно к сферам использования искусственного интеллекта (далее ИИ), роботов и объектов робототехники», используя ссылки на работы оппонентов: «Сразу оговоримся, что с онтологической точки зрения все передовые технологии являются не субъектами, а просто объектами, и нет никаких оснований наделять их правами или возлагать на них юридическую ответственность», «кому принадлежит такая ИС …», «В России также уже зафиксированы аварии по вине беспилотного транспорта» и отмечает: «В качестве исключения можно назвать Постановление Правительства РФ от 26 ноября 2018 г. № 1415…ответственность за дорожно-транспортные и иные происшествия на автомобильных дорогах Российской Федерации, произошедшие с участием принадлежащего ему высокоавтоматизированного транспортного средства при проведении эксперимента, при отсутствии виновных действий других участников дорожного движения, приведших к данному дорожно-транспортному или иному происшествию на автомобильной дороге несет собственник высокоавтоматизированного транспортного средства», «…речь здесь идет по большей части о гражданско-правовой ответственности, а нас, в первую очередь интересует ответственность публично-правовая». А ведь эта часть работы должна была бы раскрыть именно публично-правовую ответственность, что не сделано. И в заключение (именно этим заканчивается статья) автор подводит итог: «Описанный казус очевидным образом указывает на два основных направления развития публично-правовой ответственности в сфере использования искусственного интеллекта, роботов и объектов робототехники» и приводит свои доводы об этих направлениях, в частности «…необходимо определить круг юридических обязанностей (правил, запретов) для всех лиц (физических и юридических) задействованных в процессе разработки, производства и эксплуатации систем, оснащенных ИИ, так как без установления таких обязанностей, запретов и правил привлечение виновных к публично-правовой ответственности будет просто невозможным …», «…следует еще раз обсудить возможность привлечения к уголовной ответственности корпоративных (юридических) лиц, так как выявление конкретных виновных (физических лиц) в сфере, связанной с разработкой, производством и эксплуатацией систем, оснащенных ИИ, может представлять существенные, если не сказать непреодолимые сложности для правоприменителя». Как нам кажется, приведены не конкретные, не дающие для практики, а также и для теории выводы. Хотя статья носит название «Теоретические подходы…». Необходимо констатировать, что журнал, в который представлена статья является научным, и автор направил в издательство статью, соответствующую требованиям, предъявляемым к научным публикациям, в частности для научной полемики он обращается к текстам научных статей оппонентов. Но полемики не получилось. Библиография не достаточно полная (отсутствуют НПА и публикации по публичной ответственности и в частности административной) и содержит большое количество современных научных исследований, к которым автор обращается. Это позволяет автору правильно определить проблемы и поставить их на обсуждение. Он, не исследовав их, пытается раскрыть предмет статьи. К замечаниям можно отнести некоторые неточности («Однако, в любом случае правонарушение состоит из объективной и субъективной стороны его состава», а где субъект и объект?), в одной позиции в библиографии ссылка на две работы. Апелляция к оппонентам в связи с вышесказанным присутствует. Автором используется материал других исследователей. Выводы – работа требует доработки до опубликования, интерес читательской аудитории будет присутствовать только в этом случае.

Результаты процедуры повторного рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Предмет исследования в представленной статье, как следует из ее наименования, составляют «Теоретические подходы к публичной юридической ответственности в сфере использования искусственных интеллектуальных систем». Заявленные границы исследования полностью соблюдены автором.
Методология исследования в тексте работы не раскрывается. Исходя из анализа содержания статьи, автором использовались всеобщий диалектический, логический, формально-юридический, герменевтический, сравнительно-правовой методы исследования.
Актуальность избранной темы исследования объясняется автором следующим образом: с одной стороны, проблема юридической ответственности не относится к малоизученным; с другой стороны, отдельные аспекты этой проблемы нуждаются в дополнительных исследованиях, так как современная действительность меняется с необычайной скоростью, и многие традиционные теоретические взгляды нуждаются в пересмотре. Одним из таких аспектов проблемы юридической ответственности является публично-правовая ответственность в области использования искусственного интеллекта, роботов и объектов робототехники.
В чем состоит научная новизна исследования, сам ученый в тексте статьи не поясняет. Исходя из анализа содержания работы, она должна была проявиться в авторских дефинициях ряда научных понятий, оригинальной теоретической концепции, ценных рекомендациях по совершенствованию действующего российского законодательства или правоприменительной практики. Фактически научная новизна исследования отсутствует. Каких-либо оригинальных решений поставленных в работе проблем автором не предложено. Выводы по результатам исследования сведены к постановке риторических вопросов. В целом статья носит поверхностный, обзорный характер, представляя собой компиляцию использованных при написании работы теоретических источников (что отчасти подтверждается их обильным цитированием).
Научный стиль статьи в целом выдержан автором.
Структура работы вполне логична. Статья состоит из вводной части, в которой автор обосновывает актуальность темы своего исследования; основной части, в которой исследователь пытается определить сущность публично-правовой ответственности, после чего переходит к рассмотрению проблем искусственного интеллекта и распределения публично-правовой ответственности с приведением соответствующих примеров, иллюстрирующих положения работы; заключительной, в которой содержатся некоторые выводы по результатам исследования.
Содержание работы в целом соответствует ее наименованию. При этом статья не лишена ряда существенных недостатков.
Так, вводная часть статьи нуждается в доработке, поскольку автор не указал степень научной изученности поднимаемых им проблем использования искусственного интеллекта и не перечислил фамилии ученых, которые занимаются данной проблематикой.
Ученый не предлагает оригинальных дефиниций ряда ключевых понятий, используемых в статье: «публично-правовая ответственность», «искусственный интеллект», «искусственная интеллектуальная система».
Автор соглашается с В. В. Болговой в том, что «… публично-правовой ответственности свойственны общие, сущностные характеристики», но какие это характеристики – не поясняет. Между тем это важно для четкого понимания смысла понятия «публично-правовая ответственность».
Хотелось бы узнать мнение ученого по поводу возможной квалификации объектов с использованием искусственных интеллектуальных систем как источников повышенной опасности. Каким образом это может отразиться на публично-правовой ответственности виновных лиц?
В целом следует указать на поверхностность, обзорность проведенного исследования, недостаточную степень аргументированности положений работы, злоупотребление цитированием. Как следствие, представленная на рецензирование статья не представляет особой теоретической и практической ценности для отечественной правовой науки.
Библиография исследования представлена 15 источниками (монографией, научными статьями, публицистическими материалами), что достаточно с формальной точки зрения. Фактически для углубления содержания работы автору необходимо обратиться к диссертационным исследованиям П. М. Морхата (Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы: автореф. дис. …канд. докт. наук. М., 2018), А. В. Пушкарева (Философские основания искусственного интеллекта: автореф. дис. …канд. фил. наук. Уфа, 2017), Е. П. Сесицкого (Проблемы правовой охраны результатов, создаваемых системами искусственного интеллекта: автореф. дис. …канд. юрид. наук. М., 2019), Е. В. Смирнова (Проблема искусственного интеллекта: онтологические и гносеологические аспекты: автореф. дис. …канд. фил. наук. Магнитогорск, 2012), а также к научным статьям Д. Г. К. Андериа, А. А. Васильева, М. Г. Козлова, О. А. Мелиховой, С. И. Рязанова, Н. И. Стешенко, А. С. Синицы, Д. В. Сысоева, Н. В. Хамитова и многих др. Это поможет автору высказать новые научные идеи, усилить аргументацию своей позиции, повысить градус дискуссионности исследования и проч.
Апелляция к оппонентам (Д. А. Липинский) является недостаточной, в результате чего складывается впечатление, что почти все рассматриваемые автором вопросы к дискуссионным не относятся (что, конечно, не соответствует действительности). На ряд научных трудов автор ссылается исключительно в подтверждение своих суждений.
Выводы по результатам исследования имеются, однако они носят характер риторических вопросов («… может ли вообще быть допущен проступок, если интеллектуальная система в конечном счете принимает «свои» решения и действия? Или это, скорее, действует настолько «самостоятельно», что его нужно рассматривать как собственный субъект права и, таким образом, нести ответственность в одиночку? И если да: кто в таком случае несет ответственность за ошибки искусственного интеллекта?»). Также автор предлагает «… законодательно установить административную процедуру допуска новых технологий ИИ для использования в гражданском обороте в социально значимых сферах». О сути данной административной процедуры, соответствующих требованиях и условиях, конкретных социально значимых сферах ученый ничего не говорит. Таким образом, выводы по результатам исследования нуждаются в уточнении и конкретизации.
Статья не вычитана автором. В ней встречаются опечатки, орфографические, пунктуационные и стилистические ошибки.
Интерес читательской аудитории к представленной статье может быть проявлен, прежде всего, со стороны специалистов в сфере теории государства и права, цивилистики, административного права, уголовного права при условии ее существенной доработки: углублении содержания статьи, расширении ее теоретической базы, введении элементов научной новизны и дискуссионности, усилении аргументации отдельных положений работы, формулировании четких и конкретных выводов по результатам исследования, устранении недостатков в оформлении статьи.



Результаты процедуры окончательного рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Предмет исследования
Представленная к рецензированию статья представляет собой анализ различного рода взаимоувязанных вопросов, связанных с внедрением и использованием в практике повседневной (перспективной) жизни технологий искусственного интеллекта.
В работе использованы формально-юридический, системно-структурный, сравнительно-правовой, диалектический методы, а также метод прогнозирования.
Актуальность
Актуальность тематики в целом усматривается ввиду необходимости научного осмысления (глубинного осмысления) проблематики, обусловленной расширением исследований искусственного интеллекта, а также апробацией его потенциала.
Научная новизна
Статья научной новизной обладает. В работе представлены весьма оригинальные суждения относительно проблематики применения искусственного интеллекта, подходов к юридической квалификации природы искусственного интеллекта, прежде всего, применительно субъекту ответственности (публично-правовой).
Стиль, структура, содержание
Стиль соответствует обычно предъявляемым требованиям к публикациям юридического жанра. При этом в работе имеются отдельные орфографические и пунктуационные ошибки.
Структура статьи изложена логично.
Применительно к содержанию статьи особое внимание следует обратить на проведенный автором компаративистский анализ. В частности, представляют интерес суждения автора о том, что «вес концепции «электронного лица» придала в свое время Резолюция Civil Law Rules on Robotics Европейского Парламента,[12] предусматривавшая фактически полноценный правовой статус для ИИ, включающий права, обязанности (в т.ч. по уплате налогов) и ограниченную ответственность. Этот шаг Европейского парламента побудил ряд экспертов опубликовать открытое письмо в апреле 2018 года, призывающее комиссию игнорировать этот шаг парламента и отказаться от «электронной личности». Согласно этому письму, было бы неуместным, идеологическим, бессмысленным и непрактичным вводить такой правовой статус.[13] В настоящее время Европейская комиссия наметила свою будущую стратегию по решению проблемы ИИ, в которой его способность нести права, обязанности и ответственность – «электронная личность» на парламентском жаргоне – осталась невостребованной». Также представляет интерес размышления автора о правовой конфигурации квазисубъекта права: Можно говорить и о таком мнении, согласно которому ИИ не субъект, а квазисубъект права. Как правило, как указывают исследователи, квазисубъект права представляет социально-правовую ценность, чья значимость является признанной в правовом сообществе. Квазисубъект обладает одним или несколькими признаками субъекта права, в отсутствии других необходимых и достаточных признаков. Чаще всего квазисубъект права не обладает признаком дееспособности, способностью нести юридическую ответственность, вырабатывать единую правовую волю. Еще одним признаком квазисубъекта является признание его правосубъектности законодателем, судом или частью правового сообщества. Заслуживает внимания предложение автора о дополнении пункта 1 статьи 1079 ГК РФ в части, касающейся того, что «более рациональным способом правового регулирования, здесь будет новая редакция п. 1 ст. 1079 ГК РФ прямо включающая в себя указание на то, что технологии ИИ представляют собой источник повышенной опасности». Несмотря на то, что автор в отмеченных фрагментов своей работы ссылается на труды других ученых, следует отметить обоснованность приведенных позиций (в том числе, авторской). Вместе с тем, как любое творческое исследование, работа не свободна от некоторых дискуссионных аспектов, на которые следует обратить внимания автора ввиду их существенности:
1. Автор полагает, что в структуру публично-правовой ответственности инкорпорированы уголовная и административная виды ответственности, забывая о конституционно-правовой ответственности. В этой связи, следует отметить, что в статье необходимо оговорить, что речь пойдет исключительно об уголовно-правовой и административно-правовых видах ответственности. В противном случае создается впечатление неосведомленности автора о наличии конституционно-правовой ответственности как составляющей (едва ли не системообразующей) публично-правовой ответственности.
2. Права человека лишь отчасти обусловливаются светскость режима. В этом плане спорно суждение автора о том, что «Права человека, квинтэссенция светской правовой системы практически всех государств современного мира»
3. Автор пишет, что «не исключая важность разработки морально-этических норм для разработчиков ИИ-систем, мы настаиваем на их перевод в систему правовых ценностей – то есть закрепления посредством обязательных, а не рекомендательных норм». Насколько реально, по мнению автора, отражение этических норм в правовых нормах, и в каком объеме (подумать над градированием)? Также следовало бы привести положения этических кодексов, соотнести их в сущностно-содержательном отношении с правовыми регуляторами.
4. Автор полагает, что «ответственность за вред, причиненный ИИ, должно нести лицо его программировавшее, либо ответственное за его эксплуатацию». Хотелось бы спросить автора: «А как же собственник? Как это соотносится с положениями ч. 1 ст. 1079 ГК РФ?»

Библиография
В работе в достаточной мере представлены труды исследований по тематике работы. При этом автор ни с кем не дискутирует.

Выводы, интерес читательской аудитории
В статье рассмотрена актуальная проблематика, работа отличается новизной, неплохо проработана, интересен компаративистский анализ. На этой основе полагаю, что статья заслуживает быть рекомендованной к публикации.