Библиотека
|
ваш профиль |
Юридические исследования
Правильная ссылка на статью:
Лолаева А.С., Сакаева К.У.
Искусственный интеллект: правовые и этические аспекты
// Юридические исследования.
2021. № 8.
С. 63-71.
DOI: 10.25136/2409-7136.2021.8.36306 URL: https://nbpublish.com/library_read_article.php?id=36306
Искусственный интеллект: правовые и этические аспекты
DOI: 10.25136/2409-7136.2021.8.36306Дата направления статьи в редакцию: 19-08-2021Дата публикации: 26-08-2021Аннотация: Этические нормы и закон неразрывно связаны в современном обществе. Многие юридически значимые решения принимаются под воздействием различных этических правил. Искусственный интеллект (ИИ) трансформирует названные проблемы в новое измерение. Системы, в которых применяется искусственный интеллект, становятся все автономнее по уровню сложности задач, осуществляемых ими, их возможного влияния на внешнюю среду. При этом уменьшается способность человека понимать, предсказывать и держать под контролем их деятельность. Как правило, люди недооценивают истинный уровень самостоятельности таких систем. Необходимо отметить, что машины, в основе функционирования которых лежит искусственный интеллект, могут обучаться на своем опыте и производить действия, не предусмотренные их разработчиками. Это порождает определенные этические и юридические трудности, которые будут рассмотрены в статье. В связи со спецификой искусственного интеллекта были выдвинуты предложения относительно прямой ответственности определенных систем. Исходя из этой логики, нет никаких фундаментальных причин, по которым автономные системы не должны нести юридическую ответственность за свои действия. Однако остается открытым вопрос о необходимости или желательности введения такого рода ответственности (по крайней мере, на современном этапе). Это обусловлено, среди прочего, перечисленными этическими проблемами. Возможно, было бы более эффективным возложить ответственность на программистов или пользователей автономных систем за действия этих систем. Но это может замедлить инновации. Вот почему нам нужно продолжать искать идеальный баланс. Ключевые слова: искусственный интеллект, этика, мораль, право, цифровизация, интернет, электронное государство, научно-технический прогресс, информационно-коммуникационные технологии, интеллектAbstract: Ethical norms and the law are indispensably linked in the modern society. The adoption of major legal decisions is affected by various ethical rules. Artificial intelligence transforms the indicated problems into a new dimension. The systems that use artificial intelligence are becoming more autonomous by complexity of the tasks they accomplish, and their potential implications on the external environment. This diminishes the human ability to comprehend, predict, and control their activity. People usually underestimate the actual level of the autonomy of such systems. It is underlined that the machines based on artificial intelligence can learn from the own experience, and perform actions that are not meant by the developers. This leads to certain ethical and legal difficulties that are discussed in this article. In view of the specificity of artificial intelligence, the author makes suggestions on the direct responsibility of particular systems. Based on this logic, there are no fundamental reasons that prevent the autonomous should be held legally accountable for their actions. However, the question on the need or advisability to impose such type of responsibility (at the present stage specifically) remains open. This is partially due to the ethical issues listed above. It might be more effective to hold programmers or users of the autonomous systems accountable for the actions of these systems. However, it may decelerate innovations. This is namely why there is a need to find a perfect balance. Keywords: artificial intelligence, ethics, morality, law, digitalization, internet, electronic state, scientific and technological progress, information and communication technologies, intelligenceВ психологии существует мыслительный эксперимент, известный как «проблема тележки». Он освещает ряд важных этических вопросов, имеющих прямое отношение к искусственному интеллекту. Представьте, что по рельсам мчится трамвай, к которым привязано пять человек. Вы стоите рядом с рычагом, который поворачивает переключатель, и тележка будет перенаправлена на другой путь, где к ним привязан один человек. Вы тянете за рычаг? Однозначного ответа на вопрос нет. Более того, существует множество вариантов ситуации, когда необходимо принять такое решение. И разные социальные группы склонны давать разные ответы. Например, буддийские монахи в подавляющем большинстве готовы пожертвовать жизнью одного человека, чтобы спасти пятерых, даже в более сложной версии проблемы с тележкой. Стоит задуматься: а если пятерых вы не знаете, а тот единственный – это ваш близкий родственник? Что касается искусственного интеллекта, такая ситуация может возникнуть, например, с беспилотными автомобилями, когда авария на дороге неизбежна. Таким образом, возникает вопрос, чьи жизни должны иметь приоритет - жизни пассажиров, пешеходов или ни одного из них. Массачусетский технологический институт (MIT) даже запустил специальный веб-сайт, посвященный проблеме, где пользователи могут попробовать различные сценарии и выбрать, что делать в конкретной ситуации. Возникает вопрос: какие действия допустимы с юридической точки зрения? Каковы критерии того или иного выбора? И кто в конечном итоге должен нести ответственность? Проблема уже решена компаниями и регулирующими органами. Например, Mercedes объявил, что в их автомобилях приоритетом будет жизнь пассажиров. Федеральное министерство транспорта и цифровой инфраструктуры Германии незамедлительно отреагировало на это в ожидании будущих правил, заявив, что такой выбор на основе набора критериев будет незаконным и что производитель автомобилей несет ответственность за любые травмы или потерю жизни [1]. Примеров использования искусственного интеллекта для принятия юридически значимых решений множество. Возьмем, к примеру, систему социального кредитования Китая, которая оценивает каждого гражданина в зависимости от того, насколько он законопослушен и полезен для общества, и т.д. Те, у кого низкий рейтинг, будут подвергнуты санкциям [2]. И ничего не помешает китайскому правительству принять закон, который заставляет производителей беспилотных транспортных средств жертвовать жизнями граждан с более низким рейтингом в случае неизбежной аварии. Технологии распознавания лиц и доступ к соответствующим базам данных позволят определять и сравнивать рейтинги потенциальных жертв. Юридические затруднения еще серьезнее, особенно когда речь идет о роботах. Система, которая обучена на основе данных, поступающих из внешней действительности, может функционировать своим особым образом, который ее разработчики не смогли предугадать, и прогнозируемости отводится основная роль в современных правовых подходах. Следует также подчеркнуть, что подобные системы могут функционировать автономно от своих разработчиков и операторов. Это делает вопрос установления ответственности весьма непростым и актуальным. Данные свойства формируют проблемы в сфере предсказуемости и способности функционировать автономно, при этом не подвергаясь юридической ответственностью [3, с. 85]. Рассматриваемые проблемы могут регламентироваться разными методами – в частности, используя имеющиеся правовые нормы. К примеру, технологии, основанные на искусственном интеллекте, можно считать объектами авторских прав либо собственностью [4, с. 28]. Но здесь опять возникают трудности, тем более если учесть способность этих технологий к самостоятельному функционированию, вразрез с желаниями их владельцев, разработчиков или собственников. Принимая это во внимание, в отношении систем, в основе функционирования которых лежит искусственный интеллект, могут быть применены нормы, регламентирующие особые разновидности собственности. В частности, это положения, относящиеся к животным, так как они тоже могут совершать автономные действия. В рамках отечественного законодательства в отношении животных применяются общие правила, затрагивающие право собственности (статья 137 ГК РФ). В связи с этим ответственность предусмотрена по ст. 1064 ГК РФ, согласно которой ущерб, нанесенный личности либо имуществу человека, должен в полной мере возместить лицо, которое нанесло этот ущерб. Если следовать логике, то ущерб, нанесенный животным, должен возместить его законный владелец либо собственник. Некоторые исследователи предлагают применять этот закон и по отношению к системам, которые применяют искусственный интеллект [5, с. 167]. По нашему мнению, такая позиция в корне не верна. Во-первых, уголовное право запрещает применять законы по аналогии. Кроме того, указанные законы были разработаны прежде всего в отношении домашних животных. Следует отметить, что в привычных условиях они не склонны к непредсказуемому и непрогнозируемому поведению. Если рассматривать более развитые системы права, то можно найти в них рекомендации к применению норм, аналогичных нормам, регламентирующим особенности содержания диких животных. Эти нормы являются более жесткими [6, с. 193]. Но в таком случае встает вопрос о том, каким образом различать названные ранее специфические характеристики искусственного интеллекта. Также следует упомянуть и о том, что чрезмерно жесткие правила могут стать существенной помехой во внедрении рассматриваемых технологий, что вызвано непредвиденными рисками ответственности, которые могут понести разработчики. Также многие исследователи предлагают применять положения, касающиеся юридических лиц, в отношении систем искусственного интеллекта [5, с. 164]. Так как юридическое лицо представляет собой искусственно сформированный субъект закона, роботы также могут быть наделены этим статусом. В настоящее время можно привести много примеров весьма оригинальных объектов, наделенных статусом юридического лица. Это относится как к развитым, так и к развивающимся государствам. В качестве примера можно привести Новую Зеландию. Здесь в 2017 г. власти приняли весьма необычный закон. Он закреплял за рекой Уонгануи статус юридического лица [7]. В соответствии с принятым документом, река - это юридическое лицо. В этом статусе она наделяется всеми соответствующими обязанностями, полномочиями и правами. То есть законодатель сделал так, что река перестала быть собственностью. Таким образом, расширилось осознание того, что можно и что нельзя рассматривать как собственность. В качестве еще одного примера можно привести Индию. Здесь в 2000 г. Верховный суд закрепил за главным священным текстом Сикхов Гуру Грант Сахиб статус юридического лица [8]. Однако, даже если мы оставим в стороне самые невероятные случаи и рассмотрим обычные юридические лица, то можно отметить, что правовые системы предусматривают их ответственность в соответствии с гражданским и, в отдельных случаях, уголовным законодательством. Без выяснения того, имеет ли компания (или государство) автономию и свободу волю, а также могут ли они действовать сознательно, они могут быть привлечены к юридической ответственности за определенные действия. Точно так же нет необходимости выявлять намерения или свободу воли роботов, чтобы признать их ответственными за свои действия. Однако аналогия с юридическими лицами проблематична, поскольку понятие юридического лица необходимо для эффективного отправления правосудия. Но действия юридических лиц всегда связаны с действиями одного человека или группы людей, даже если невозможно точно определить, кто они. Другими словами, юридическая ответственность компаний и иных организаций связана с действиями, совершенными их представителями или сотрудниками. Более того, юридические лица подлежат уголовной ответственности только в том случае, если установлено, что лицо, совершившее противоправное действие, действовало от имени юридического лица. Действия же систем, работающих на основе искусственного интеллекта, не обязательно будут напрямую связаны с действиями отдельного человека. Наконец, к таким системам могут быть применены правовые положения, закрепляющие нормы об источниках повышенной опасности. Согласно п. 1 ст. 1079 ГК РФ, гражданам и организациям, функционирование которых сопряжено с повышенной степенью опасности для внешнего мира и граждан (пользование механизмами, транспортными средствами и пр.), необходимо компенсировать вред, нанесенный источниками повышенной опасности. Это правило действует в случае, если не удастся доказать, что причиной ущерба стали намерение потерпевшего или непреодолимая сила. Проблема заключается в определении того, какие системы искусственного интеллекта могут считаться источниками повышенной опасности, а какие нет. Этот вопрос аналогичен вышеупомянутому в отношении домашних и диких животных. Многие страны сейчас активно создают правовые условия для развития технологий, использующих искусственный интеллект. Например, «Закон о содействии развитию интеллектуальных роботов» действует в Южной Корее с 2008 года [9]. Этот закон направлен на повышение качества жизни и развитие экономики посредством создания и продвижения стратегии устойчивого развития индустрии интеллектуальных роботов. Каждые пять лет правительство разрабатывает стратегический план для достижения этих целей. В контексте рассматриваемой темы заслуживают особого внимания два недавних примера: Франция объявила о своих амбициях стать европейским и мировым лидером в области искусственного интеллекта; Европейский Союз, который предложил расширенные правила регулирования умных роботов. В конце марта 2018 года Президент Франции Эммануэль Макрон представил национальную стратегию искусственного интеллекта [10]. В течение пяти лет Франция планирует инвестировать 1,5 миллиарда евро в поддержку исследований и инноваций в этой области. Стратегия основана на рекомендациях, сделанных в отчете, подготовленном под руководством французского математика и члена Национального собрания С. Виллани. Стратегия ориентируется на четыре конкретных сектора: здравоохранение, транспорт, окружающая среда и оборона. Цель состоит в том, чтобы создать преимущества для компаний, применяемых искусственный интеллект, потому что эти технологии важны для общественных интересов и т. д. Есть семь ключевых предложений, одно из которых особенно интересно в рамках настоящего исследования, а именно: сделать искусственный интеллект более открытым. Разумеется, алгоритмы в большинстве своем являются собственностью и во многих случаях являются коммерческой тайной. Однако алгоритмы могут быть предвзятыми и субъективными. Например, в процессе самообучения они могут усвоить и принять стереотипы, существующие в обществе или переданные им разработчиками, и принимать решения на их основе. По этому поводу уже есть юридический прецедент. В США обвиняемый был приговорен к длительному тюремному заключению на основании информации, полученной с помощью алгоритма, прогнозирующего вероятность повторных правонарушений. Апелляционная жалоба ответчика на использование алгоритма в процессе вынесения приговора была отклонена, поскольку критерии, использованные для оценки возможности повторения правонарушений, являлись коммерческой тайной и поэтому не были представлены [11]. Французская стратегия предлагает разработать прозрачные алгоритмы, которые можно протестировать и проверить, определить этическую ответственность лиц, работающих с искусственным интеллектом, создать комитет по этике консультантов и т.д. Резолюция Европейского парламента, принятая в 2017 г., закрепляющая гражданско-правовые нормы по робототехнике [12] - это первый документ, регулирующий искусственный интеллект. Рабочую группу по решению правовых вопросов в сфере становления и развития робототехники и искусственного интеллекта в Евросоюзе, сформировали еще в 2015 г. отметим, что Резолюция не носит обязательный характер, однако в ней содержатся рекомендации Европейской комиссии относительно действий, которые могут быть предприняты в сфере искусственного интеллекта. Это действия гражданско-правового характера и действия, затрагивающие этические моменты робототехники. В соответствии с Резолюцией, «умный» робот – это робот, становящийся автономным за счет датчиков и (либо) обмена информацией с внешним миром. У робота есть хотя бы минимальная физическая поддержка. Он приспосабливает свои действия и поведения к внешнему миру, у него отсутствует жизнь в биологическом понимании этого слова. Документ закрепляет, что необходимо предусмотреть комплексную систему фиксации (регистрации) передовых роботов Союза, которой будет управлять специальное уполномоченное агентство Евросоюза по робототехнике и искусственному интеллекту. Указанным агентством будет осуществляться правовая, этическая и техническая оценка робототехники. В части ответственности рекомендуются два пути: или закрепление строгой ответственности без вины, или принимая во внимание управление рисками (с закреплением ответственности субъекта, который смог бы свести все риски к минимуму). В соответствии с Резолюцией, необходимо, чтобы ответственность была пропорциональной фактически заданных роботу инструкций, а также уровню его самостоятельности. В нормы ответственности можно включить систему обязательного страхования для лиц, которые пользуются роботами, а также компенсационный фонд, из которого будут выплачиваться компенсации, если риски не будут покрываться страховым полисом. Резолюция предлагает два кодекса поведения для решения этических вопросов: Кодекс этического поведения инженеров-робототехников и Кодекс поведения комиссий по этике научных исследований. Первый кодекс предлагает четыре этических принципа: 1) Принцип благотворительности – необходим, чтобы роботы функционировали в интересах человека; 2) Принцип отсутствия умысла - концепция «не навреди», в соответствии с которой недопустимо, чтобы роботы вредили людям; 3) Автономность - способность принимать осознанное без внешнего воздействия решение; 4) Справедливость - справедливое распределение преимуществ, связанных с робототехникой, и, в частности, доступность домашних и медицинских роботов. Таким образом, вышеизложенные примеры демонстрируют, как социальные ценности влияют на отношение к искусственному интеллекту и его правовому внедрению. Согласно п. 1 ст. 1079 ГК РФ, гражданам и организациям, функционирование которых сопряжено с повышенной степенью опасности для внешнего мира и граждан (пользование механизмами, транспортными средствами и пр.), необходимо компенсировать вред, нанесенный источниками повышенной опасности. Это правило действует в случае, если не удастся доказать, что причиной урона стали намерение потерпевшего или непреодолимая сила. Проблема состоит в том, чтобы определить, какие системы искусственного интеллекта можно считать источниками повышенной опасности. Эта проблема аналогична упомянутой выше в отношении домашних и диких животных. В связи со спецификой искусственного интеллекта были выдвинуты предложения относительно прямой ответственности определенных систем. Исходя из этой логики, нет никаких фундаментальных причин, по которым автономные системы не должны нести юридическую ответственность за свои действия. Однако остается открытым вопрос о необходимости или желательности введения такого рода ответственности (по крайней мере, на современном этапе). Это обусловлено, среди прочего, перечисленными выше этическими проблемами. Возможно, было бы более эффективным возложить ответственность на программистов или пользователей автономных систем за действия этих систем. Но это может замедлить инновации. Вот почему нам нужно продолжать искать идеальный баланс. Для того чтобы найти этот баланс, нам необходимо решить ряд вопросов: Какие цели мы преследуем в развитии искусственного интеллекта? Чьи интересы должны преобладать? Насколько это будет эффективно? Ответы на эти вопросы помогут нам предотвратить ситуации, подобные той, которая возникла в России в 17 веке, когда животное (в частности, коза) было сослано в Сибирь за свои действия.
Библиография
1. Brown M. Mercedes's Self-Driving Cars Will Kill Pedestrians Over Drivers // https://www.inverse.com/article/22204-mercedes-benz-self-driving-cars-ai-ethics (дата обращения 12.06.2021).
2. Гордеев А. Цифровая диктатура: как в Китае вводят систему социального рейтинга // https://www.rbc.ru/business/11/ 12/2016/584953bb9a79477c8a7c08a7 (дата обращения 12.06.2021). 3. Филиппов И.А. Проблема ответственности за вред, причиненный искусственным интеллектом // Концепция "Общества знаний" в современной науке: сборник статей Международной научно-практической конференции. Том. Часть 2. Пермь, 04 мая 2019 г. С. 84-87. 4. Лолаева А.С. Имущественный оборот цифровых данных // Аграрное и земельное право. 2019. № 7. С. 27-29. 5. Арихипов В., Наумов В. О некоторых вопросах теоретических основ разработки законодательства о робототехнике: аспекты воли и правосубъектности // Закон. 2017. № 5. С. 157-170. 6. Asaro P. The Liability Problem for Autonomous Artificial Agents // AAAI Symposium on Ethical and Moral Con-siderations in Non-Human. Agents, Stanford University, Stanford, CA, 2016. 7. Te Awa Tupua (Whanganui River Claims Settlement) Act 2017 // Parliamentary Council Office. New Zealand.2017. URL: http://www.legislation.govt.nz/act/public/2017/0007/latest/whole.html (дата обращения 12.06.2021). 8. Padmanabha T. Rao. Guru Granth Sahib, a juristic person: SC // The Hindu. 2000. URL: https://www.thehindu.com/2000/04/03/stories/01030005.htm (дата обращения 12.06.2021). 9. Intelligent Robots Development Distribution Promotion Act // KLRI, 2017. URL: https://elaw. klri.re.kr/eng_mobile/viewer.do?hseq=39153&type=part&key=18 (дата обращения 12.06.2021). 10. AI For Humanity. URL: https://www.aiforhumanity.fr/ (дата обращения 12.06.2021). 11. Smith M. In Wisconsin, a Backlash Against Using Data to Foretell Defendants’ Futures // The New York Times.2016.URL: https://www.nytimes.com/2016/06/23/us/backlash-in-wisconsin-against-using-data-to-foretelldefendants-futures.html (дата обращения 12.06.2021). 12. European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) // European Parliament, 2017. URL: http://www.europarl. europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN (дата обращения 12.06.2021). References
1. Brown M. Mercedes's Self-Driving Cars Will Kill Pedestrians Over Drivers // https://www.inverse.com/article/22204-mercedes-benz-self-driving-cars-ai-ethics (data obrashcheniya 12.06.2021).
2. Gordeev A. Tsifrovaya diktatura: kak v Kitae vvodyat sistemu sotsial'nogo reitinga // https://www.rbc.ru/business/11/ 12/2016/584953bb9a79477c8a7c08a7 (data obrashcheniya 12.06.2021). 3. Filippov I.A. Problema otvetstvennosti za vred, prichinennyi iskusstvennym intellektom // Kontseptsiya "Obshchestva znanii" v sovremennoi nauke: sbornik statei Mezhdunarodnoi nauchno-prakticheskoi konferentsii. Tom. Chast' 2. Perm', 04 maya 2019 g. S. 84-87. 4. Lolaeva A.S. Imushchestvennyi oborot tsifrovykh dannykh // Agrarnoe i zemel'noe pravo. 2019. № 7. S. 27-29. 5. Arikhipov V., Naumov V. O nekotorykh voprosakh teoreticheskikh osnov razrabotki zakonodatel'stva o robototekhnike: aspekty voli i pravosub''ektnosti // Zakon. 2017. № 5. S. 157-170. 6. Asaro P. The Liability Problem for Autonomous Artificial Agents // AAAI Symposium on Ethical and Moral Con-siderations in Non-Human. Agents, Stanford University, Stanford, CA, 2016. 7. Te Awa Tupua (Whanganui River Claims Settlement) Act 2017 // Parliamentary Council Office. New Zealand.2017. URL: http://www.legislation.govt.nz/act/public/2017/0007/latest/whole.html (data obrashcheniya 12.06.2021). 8. Padmanabha T. Rao. Guru Granth Sahib, a juristic person: SC // The Hindu. 2000. URL: https://www.thehindu.com/2000/04/03/stories/01030005.htm (data obrashcheniya 12.06.2021). 9. Intelligent Robots Development Distribution Promotion Act // KLRI, 2017. URL: https://elaw. klri.re.kr/eng_mobile/viewer.do?hseq=39153&type=part&key=18 (data obrashcheniya 12.06.2021). 10. AI For Humanity. URL: https://www.aiforhumanity.fr/ (data obrashcheniya 12.06.2021). 11. Smith M. In Wisconsin, a Backlash Against Using Data to Foretell Defendants’ Futures // The New York Times.2016.URL: https://www.nytimes.com/2016/06/23/us/backlash-in-wisconsin-against-using-data-to-foretelldefendants-futures.html (data obrashcheniya 12.06.2021). 12. European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) // European Parliament, 2017. URL: http://www.europarl. europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN (data obrashcheniya 12.06.2021).
Результаты процедуры рецензирования статьи
В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
|