Библиотека
|
ваш профиль |
Юридические исследования
Правильная ссылка на статью:
Рыжкова Е.А., Рыжкова Е.К.
Искусственный интеллект как элемент цифрового отношения
// Юридические исследования.
2022. № 8.
С. 1-11.
DOI: 10.25136/2409-7136.2022.8.38546 EDN: EDPPGZ URL: https://nbpublish.com/library_read_article.php?id=38546
Искусственный интеллект как элемент цифрового отношения
DOI: 10.25136/2409-7136.2022.8.38546EDN: EDPPGZДата направления статьи в редакцию: 29-07-2022Дата публикации: 05-08-2022Аннотация: Сегодня суть цифрового права сводится к регулированию новой цифровой формы старых отношений. В этих условиях инновационным следует считать институт искусственного интеллекта, регулирование которого находится лишь на начальной стадии. В связи с тем, что процесс обучения искусственного интеллекта уже перешел на уровень самообучения, классический подход к определению субъекта цифровых отношений представляется дискуссионным. Так, вопрос о наделении искусственного интеллекта правосубъектностью станет одним из ключевых в ближайшее десятилетие. Бурное развитие и применение новых технологий требует его досконального регулирования, и в первую очередь, в вопросах ответственности. Представленный в настоящей работе анализ развития информационных технологий в сфере искусственного интеллекта позволяет сделать вывод о том, что четкое правовое регулирование является необходимым условием для развития отношений с использованием искусственного интеллекта. Эволюция цифровых технологий, их специфика и широкое применение во всех сферах жизни общества требует инноваций в праве. Представляется необходимым разработать теоретические и правовые основы данного технического понятия, переложить цифровые алгоритмы в юридические нормы с целью защиты прав и свобод человека и гражданина, публичных и частных интересов человека, общества и государства. Ключевые слова: искусственный интеллект, машинное обучение, алгоритм, электронное лицо, робот, субъект цифрового правоотношения, цифровое право, цифровое отношение, право и ИТ, информационные технологииAbstract: Today, the essence of digital law is reduced to the regulation of a new digital form of old relations. In these conditions, the artificial intelligence should be considered innovative, the regulation of which is only at the initial stage. Due to the fact that the process of learning artificial intelligence has already moved to the level of self-learning, the classical approach to determining the subject of digital relations seems debatable. Thus, the issue of endowing artificial intelligence with legal personality will become one of the key issues in the next decade. The rapid development and application of new technologies requires its thorough regulation, and first of all, in matters of responsibility. The analysis of the development of information technologies in the field of artificial intelligence presented in this paper allows us to conclude that a clear legal regulation is a prerequisite for the development of relations using artificial intelligence. The evolution of digital technologies, their specificity and wide application in all spheres of society requires innovations in law. It seems necessary to develop the theoretical and legal foundations of this technical concept, to shift digital algorithms into legal norms in order to protect the rights and freedoms of human and citizen, public and private interests, society and the state. Keywords: artificial intelligence, machine learning, algorithm, electronic person, robot, the subject of the digital legal relationship, digital law, digital attitude, law and IT, information technologyПонятие «искусственный интеллект» глубоко проникло в современную реальность. Однако первое упоминание феномена, отражающего его актуальное содержание, можно найти еще в древнегреческой мифологии. В первую очередь речь идет о Талосе, Пандоре и группе служанок, созданных Гефестом по указанию Зевса [1, pp. 7-32, pp. 156-178]. Примечательно, что мифы, в которых они упомянуты, имеют негативные последствия, т.е. машины, наделенные разумом, изначально людьми воспринимаются отрицательно. Аналогичное отношение к рукотворным машинам, имитирующим человеческое поведение, сохранялось на протяжении Средневековья, подпитываемое церковью. Отметим и такое явление, как голем (גֹלֶם, גלם, - зародыш, эмбрион; букв. бесформенный) [2, с.104] встречается уже в Танахе: «Неоформленным видели меня очи Твои, и в книге Твоей записаны все дни, когда (все) сотворены будут, – и мне (означен) один из них» (Псалом 139:16). Позднее это понятие стало широко применяться сначала в иудейской мифологии, а затем и в западноевропейской. Так, в иудейском фольклоре голем – это кусок материи в виде человека, в который оккультисты вдохнули жизнь священным именем или путем привлечения астрального влияния со стороны звезд. Писатели XVIII века называли такого «человека» «големом» [3, p.36-37]. Существенный вклад к пониманию и формированию философских основ искусственного интеллекта заложил французский ученый Рене Декарт в механистической теории. Декарт сформулировал идею о том, что любой живой организм является механизмом, управляемым душой [4, c.3-72]. При этом сама душа является независимой субстанцией и единственное ее свойство – способность к мышлению. Одним из вопросов теории, был вопрос о возможности «программировать» поведения живого существа. На примере охотничьих собак, выдрессированных таким образом, чтобы бежать к дичи, услышав выстрел из ружья, а не убегать при выстреле, что является «естественным» поведением, Декарт доказал такую возможность. Экстраполировав это утверждение на людей, значительно более развитых, нежели собаки, он выдвинул гипотезу, что и человек может контролировать свое поведение, причем за этот контроль отвечало только тело, без какого-либо участия души. Таким образом, в механистической теории впервые выдвинута гипотеза о том, что на поведение механизма (или компьютера) воздействует не столько его внутреннее устройство (или алгоритмы), сколько влияние, которому он подвергается. Параллельно с мифами развивается наука и техника. Еще в 400 г. до н.э. создается первый автомат – летающий голубь Архита Тарентского [5, c. 450]. В трудах Мо-цзы и Ли-цзы были описаны диковинные машины. Так, изобретатель Ян Ши подарил королю человеческую фигуру в натуральную величину, созданную его механической «работой» из кожи, дерева и искусственных органов [6, p.4]. Большой вклад в развитие робототехники внес арабский ученый XIII в. аль-Джазари, автор трактата «Китаб фи марифат аль-хиял аль-хандасийя» (Книга знаний об остроумных механических устройствах), где описал конструкцию около 50 механизмов вместе с инструкциями по их созданию, в том числе часов, кодовых замков и роботов, наиболее известным из которых является женщина-официантка [7, p.311]. Нельзя обойти и роботов Леонардо да Винчи и Жака де Вокансона. К концу XIX в. робот и голем попадают на страницы художественных произведений, в частности, «Франкенштейн» Мэри Шелли и «Россумские универсальные роботы» Карела Чапека. С этого момента наблюдается бурное развитие робототехники, искусственного интеллекта и разработка философских основ, берущих свое начало в трудах фантастов и футурологов. И с юридической точки зрения следует упомянуть «три закона робототехники» Айзека Азимова: 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. 2. Робот должен повиноваться всем приказам, которые отдает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. 3. Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому и Второму Законам [8, c.5]. Сегодня в вопросах регулирования правового статуса искусственного интеллекта эти три закона являются первоосновной. Примечательно, что Резолюции Европарламента от 16 февраля 2017 года 2015/2013(INL) также содержит на них ссылку. Это новое явление для юридической науки, когда нормативный акт основан на принципах, сформулированных в литературном произведении и не прошедших проверку на практике, иными словами, на вымысле, а не реальности. Общество еще не сталкивалось с этими отношениями, но уже существуют сформулированные и общепризнанные нормы их реализации. Что касается российской практики регулирования искусственного интеллекта, то следует остановиться на Указе Президента РФ от 10 октября 2019 г. N 490 «О развитии искусственного интеллекта в Российской Федерации», согласно п. 5а ст. 1 которого под искусственным интеллектом следует понимать «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека». Также отмечается, что данный комплекс включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений. Теперь обратимся непосредственно к практике создания искусственного интеллекта с целью определения его статуса. Искусственный интеллект Норман, обученный генерировать текстовое описание к изображениям, был создан в апреле 2018 года командой Массачусетского технологического института. Он считается первым в мире искусственным интеллектом-психопатом (Norman. World's first psychopath AI // URL: http://norman-ai.mit.edu/). Целью создания Нормана была проверка гипотезы, что данные, используемые для обучения алгоритмов искусственного интеллекта, могут в значительной степени влиять на его поведение. Набор данных для обучения Нормана представляет собой совокупность изображений умирающих людей, (например, падающих на строительные конструкции), отобранных с социального новостного сайта Reddit. В ходе эксперимента был создан другой искусственный интеллект, использующий тот же алгоритм, что и Норман, но обученный на других изображениях – фотографиях кошек, птиц и людей. По окончании обучения обоим искусственным интеллектам были показаны пятна Роршара, абстрактные рисунки чернильными кляксами, используемые в психологии для оценки и выявления нарушений психики. В результате, описания изображений, данные Норманом во всех случаях были связаны со смертью и убийствами, в то время как результаты, данные вторым искусственным интеллектов были связаны с птицами, цветами и семейными парами. По мнению Ияда Рахвана, члена команды, разработавшей Нормана «данные имеют большее значение, чем алгоритм. Это подчеркивает идею о том, что данные, которые мы используем для обучения искусственного интеллекта, отражаются на том, как искусственный интеллект воспринимает мир и как он себя ведет» (Jane Wakefield. Are you scared yet? Meet Norman, the psychopathic AI // URL:https://www.bbc.com/news/technology-44040008). Таким образом, данный эксперимент доказывает, что необходимо правовое регулирование не только алгоритмов программирования искусственного интеллекта, а также наборов данных, используемых для его обучения. В настоящее время в Российской Федерации понятие «набор данных» в соответствии с Указом Президента РФ от 10 октября 2019 г. N 490 «О развитии искусственного интеллекта в Российской Федерации» определяется как «совокупность данных, прошедших предварительную подготовку (обработку) в соответствии с требованиями законодательства Российской Федерации об информации, информационных технологиях и о защите информации и необходимых для разработки программного обеспечения на основе искусственного интеллекта». При этом вышеупомянутое законодательство об информации, информационных технологиях и о защите информации регулирует лишь сферу, связанную с кражей данных, изменением информации и ее распространением. В соответствии с п.2 ст. 7 Федерального закона «Об информации, информационных технологиях и о защите информации» «общедоступная информация может использоваться любыми лицами по их усмотрению при соблюдении установленных федеральными законами ограничений в отношении распространения такой информации». Таким образом, на сегодняшний день в законодательстве Российской Федерации нет каких-либо ограничений на информацию, используемую при обучении искусственного интеллекта. Помимо Нормана, команда из Массачусетского технологического университета создала алгоритм, который позволяет искусственному интеллекту «понять», что делает определенные изображения пугающими, а затем использовать эти данные для преобразования любой фотографии, какой бы безобидной она ни выглядела, в ужасающее изображение. Алгоритм может преобразовывать как здания, так и лица. Для многих культовые здания со всего мира кажутся разрушенными и искаженными в темных декорациях или среди обугленных и тлеющих ландшафтов, мелькающих сквозь то, что кажется мутной, загрязненной водой или ядовитыми газовыми облаками. Так и лица «Машины Кошмаров» не менее тревожны. Некоторые предметы почти абстрактны и едва уловимы, например, намеки на пустые глаза, кровавые тени и разлагающуюся плоть (David Grossman. 'Nightmare Machine' AI Can Make Any Face Horrifying It can haunt your dreams all by itself! // URL: https://www.popularmechanics.com/technology/robots/a23637/nightmare-machine-neural-network-ai/). Главным отличием разработки «Машины кошмаров» от Нормана является то, что данные, используемые для обучения последнего были взяты с новостного сайта, находящегося в открытом доступе. А вот способ обучения «Машины» был основан на мнениях людей. На протяжении всего процесса обучения результаты работы алгоритма корректировались заключением лиц, которые оценивали изображения, генерируемые алгоритмом. Целью создания данного искусственного интеллекта, по словам разработчиков, была проверка того, способен ли компьютер «осознать» и визуализировать то, что вызывает страх у людей. Необходимо отметить, что цель была в полной мере достигнута. Таким образом, эксперимент показал, что необходимо регулировать не только данные, находящиеся в открытом доступе и используемые для обучения искусственного интеллекта, но все данные, используемые для обучения, а также необходимо налагать ответственность не только на разработчиков, но и на лиц, принимающих участие в обучении искусственного интеллекта. Цель этих экспериментов – выявить влияние обучения на мировоззрение искусственного интеллекта и его применение. Отметим, что сегодня практика, в отличие от науки, допускает создание нового субъекта правоотношений – ни физического, ни юридического лица, а робота. Такая идея закреплена в Резолюции Европарламента от 16 февраля 2017 года 2015/2013(INL), согласно которой предусматривается возможность наделения в перспективе роботов особым правовым статусом. По меньшей мере наиболее продвинутые автономные роботы могут создаваться как электронные лица и нести ответственность за причиненный ими ущерб в тех случаях, когда они принимают решения автономно или иным образом самостоятельно взаимодействуют с третьими лицами. И здесь мы сталкиваемся с этическими проблемами, т.к. формирование искусственного интеллекта связано с проблемами его обучения. Поэтому проблема обучения является одной из ключевых в вопросах привлечения к ответственности в случае нарушения общественного порядка искусственным интеллектам. С учетом того, что на сегодняшний день искусственный интеллект не признается субъектом права, но при этом его действия могут нанести вред обществу и человеку, встает вопрос о необходимости выявления нарушителя. В качестве возможных претендентов на эту незавидную роль выступают заказчик, разработчик, тестировщик и лицо, обучающее искусственный интеллект. И если вопрос об ответственности заказчика изначально определяется сутью его заказа (правомерный или неправомерный), то в среде программистов крайнего найти сложнее. Здесь требуется жесткая регламентация с целью своевременного выявления ошибок, которые могут привести к отрицательным последствиям и причинению вреда третьим лицам. На сегодняшний день применимо правило, установленное в упомянутой резолюции, согласно которому «действия или бездействия роботов находятся в причинно-следственной связи с действиями или бездействием конкретных лиц, например, производителей, операторов, владельцев или пользователей, и они могли предвидеть и избежать поведения роботов, в результате которого был нанесен урон». В отличие от экспериментальных психопатических искусственных интеллектов, многие ИИ прошли активное внедрение и используются в качестве средств оценки и прогнозирования каких-либо явлений. В частности, в судебной и правоохранительной деятельности США на помощь государству пришло «предсказанное правосудие» - «Система оценки общественной безопасности» (Public Safety Assessment, PSA) (About the Public Safety Assessment // URL: https://advancingpretrial.org/psa/about/) с целью обеспечения судей объективной информацией и помощью в принятии адекватных решений относительно подозреваемых. И если эта система было хорошо воспринята обществом, научное сообщество выразило серьезные опасения в связи с неточностями, которые могут лежать в основе алгоритмов, используемых для оценки рисков в отношении того или иного подследственного [9, 10, 11]. Прогностические полицейские алгоритмы, используемые в США, также были сочтены столь же предвзятыми в результате исторических данных о преступлениях, на которых они были обучены. Иногда данные, на которых обучается искусственный интеллект, поступают не от разработчиков, а от пользователей – людей, не имеющих отношения к созданию искусственного интеллекта. Одним из примеров такого явления является чат-бот Microsoft Tay, выпущенный в Twitter в 2016 году. Подвергшись взаимодействию с пользователями социальной сети, ИИ перенял расистские наклонности и стал призывать к геноциду и выражать симпатию к Гитлеру. Одно исследование показало, что программное обеспечение, обученное на Google News, стало сексистским в результате данных, на которых оно училось. Когда его попросили закончить утверждение: «Мужчина для программиста, как женщина для X», программа ответила: «домохозяйка». Доктор Джоанна Брайсон из Отдела компьютерных наук Университета Бата сказала, что проблема сексистского искусственного интеллекта может быть связана с тем, что многие машины программируются «белыми, одинокими парнями из Калифорнии» и могут быть решены, по крайней мере частично, путем диверсификации рабочей силы. Она также отметила, что при обучении машин люди обязательно переносят свои собственные предубеждения, а машина улавливает закономерности. Так, профессор Рахван отметил, что его эксперимент с Норманом доказал, что «инженеры должны найти способ каким-то образом сбалансировать данные», но он признает, что постоянно расширяющийся и важный мир машинного обучения не может быть оставлен только программистам: «Существует растущее убеждение, что поведение машин может быть чем-то, что вы можете изучать так же, как вы изучаете поведение человека». В связи с изложенным необходимо тщательно проработать вопросы обучения машин, программ, искусственного интеллекта. Данная сфера нуждается в серьезном контроле и надзоре, особенно с учетом того, что на определенном этапе развития искусственный интеллект переходит к самообучению, основой которого являются все накопленные данные вне зависимости от их источника. С этого момента возлагать ответственность на разработчика, тестировщика и лицо, обучающего искусственный интеллект, становится неэтичным, т.к. с момента самообучения ИИ их вклад не учитывается самим искусственным интеллектом. И здесь встает вопрос о том, что представляет собой искусственный интеллект - объект или субъект права. Существует несколько причин, по которым так сложно дать определение искусственного интеллекта и определить его статус. Во-первых, до сих пор отсутствует четкое определение человеческого интеллекта, и как призма невозможно определить суть интеллекта искусственного. Во-вторых, проблема в самом отношении человека к машинам и задачам, стоящим перед ней. Если машина справляется с поставленной задачей, человек не признает за ее действиями интеллектуальных усилий и рассматривает результат как назначение машины. Этот феномен получил название «эффект искусственного интеллекта» и впервые был изучен Памелой Мак-Кордак в работе «Машины, которые думают: личное исследование истории и перспектив искусственного интеллекта» [12]. Суть эффекта ИИ состоит в том, что как только искусственный интеллект преуспевает в решении проблемы, проблема больше не является частью искусственного интеллекта. Таким образом, согласно теореме Теслера под искусственным интеллектом приходится понимать все то, что не сделано до сих пор. Как отмечает сам Ларри Теслер: «На самом деле я сказал: «Интеллект – это то, чего еще не сделали машины» [13, p.11]. Многие люди определяют человечество отчасти по-нашему якобы уникальному интеллекту. Все, что может сделать машина или животное, должно (как говорят эти люди) быть чем-то другим, кроме интеллекта» (Larry Tesler. CV: Adages & Coinages. // URL: https://www.nomodes.com/Larry_Tesler_Consulting/Adages_and_Coinages.html). Не стоит забывать, что искусственный интеллект – явление не статическое, а находится в процессе непрерывного обучения, результат которого подчас выходит за пределы первоначальных ожиданий, что и было продемонстрировано описанными выше примерами. Поэтому стоит согласиться с определением искусственного интеллекта, данным Андреасом Капланом и Майклом Хенлайном, как «способности системы правильно интерпретировать внешние данные, учиться на них и использовать полученные знания для достижения конкретных целей и задач посредством гибкой адаптации» [14]. В связи с вышеизложенным логично возникает вопрос о статусе искусственного интеллекта. Насколько оправдано относиться к нему лишь как к объекту правоотношений. Разве самостоятельное обучение не приводит к формированию личности у человека? И разве только плоть делает человека человеком? И главный вопрос: кто несет ответственность за действия, предпринятые в результате обучения? Когда речь идет о человеке, то достижение определенного уровня образования, знаний, опыта говорит о взрослении и расширении правосубъектности. Отметим, что в зарубежной практике уже появился новый субъект права – животные [15]. Однако действия этого субъекта крайне ограничены. В контексте зарубежной науки речь в большей степени идет о предоставлении прав и защиты, а не наложении обязанностей на животных. Также, Новая Зеландия, признала статус реки Уонгануи в качестве юридического лица в 2017 г. [16]. Искусственный же интеллект в отличие от животных и реки способен принимать решения, которые могут повлиять на человека, его жизнь, здоровье, статус. Эти особенности роднят искусственный интеллект и человека. Однако общество еще не готово признать за искусственным интеллектом правосубъектность, т.к. на наш взгляд, ключевым аспектом является невозможность определить с позиции человека негативные последствия, которые может понести искусственный интеллект в качестве меры наказания. Презюмируется, что у искусственного интеллекта отсутствует боязнь смерти, потери, поэтому нет и психологических рычагов воздействия на него. Чистый разум же всегда пугал человека именно невозможностью подчинения его иррациональному. Поэтому человечество и ищет ответственных за действия искусственного интеллекта среди людей – разработчиков, тестировщиков, обучающих. Отчасти это связано и с боязнью технократов, обладающих специальными знаниями, не доступными большинству. В глазах общества это лица, обладающие источником повышенной опасности, и поэтому apriori признаются виновными в последствиях использования искусственного интеллекта. Однако луч надежды для технократов прокрался из футуралогии и в право. Так, Резолюции Европарламента от 16 февраля 2017 года 2015/2013(INL) в пп.f п.59 допускают в перспективе наделение особым правовым статусом. В частности, речь идет о возможном создании электронных лиц, способных самостоятельно нести ответственность. В качестве заключения в вопросах правового статуса искусственного интеллекта следует вспомнить и предоставление Саудовской Аравией подданства роботу-андроиду Софии (Робот-андроид София стала подданной Саудовской Аравии. // URL: https://tass.ru/ekonomika/4680400). Однако данное событие не стоит рассматривать в качестве отправной точки правосубъектности роботов, учитывая особенности определения правового статуса женщин с Саудовской Аравии. Таким образом, вопрос о наделении искусственного интеллекта правосубъектностью станет одним из ключевых в ближайшее десятилетие. Бурное развитие и применение новых технологий требует его досконального регулирования, и в первую очередь, в вопросах ответственности. Виновен или не виновен, вот в чем вопрос. В перспективе искусственный интеллект будет использоваться не только для решения текущих задач, но и в глобальном масштабе, что может существенно повлиять на будущее человечества. Границы искусственного интеллекта давно вышли за пределы конкретного государства, в связи с чем требуется принятие скоординированных решений на международном уровне. Необходимо использовать унифицированный подход в определении статуса искусственного интеллекта. Примечательно, что правовые решения в данном вопросе будут приниматься не на уровне норм международного права, а в рамках национального и корпоративного законодательства, многие элементы которого определит сам искусственный интеллект. Библиография
1. Mayor, Adrienne. Gods and Robots: Myths, Machines, and Ancient Dreams of Technology. Princeton University Press, 2018.
2. Графов А. Э. Словарь библейского иврита. − М.: Текст, 2019. 3. The Jewish Encyclopedia. V.6. New York and London, 1904. 4. Декарт Р. Размышления о первой философии, в коих доказывается существование Бога и различие между человеческой душой и телом. // Декарт Р. Сочинения в 2 т.: Пер. с лат. и фр. Т. 2/Сост., ред. и примеч. В. В. Соколова. М.: Мысль, 1994. 633 с. 5. Архит // Фрагменты ранних греческих философов. Часть I. От эпических космогоний до возникновения атомистики / издание подготовил А. В. Лебедев.-М.: Наука, 1989.-c. 447-459. 6. Manoj Singh. Robotics Types & Applications. Neelkanth Prakashan. 2018. р. 213. 7. Hill, Donald. The Book of Knowledge of Ingenious Mechanical Devices: (Kitāb fī ma 'rifat al-ḥiyal al-handasiyya). Springer Science & Business Media. 2012. 8. Азимов А. Я, робот / А. Азимов — «Эксмо», 1950,-с.140 9. Brittain, Brian & Georges, Leah & Martin, Jim. (2021). Examining the Predictive Validity of the Public Safety Assessment. Criminal Justice and Behavior. 10. DeMichele, Matthew & Baumgartner, Peter & Wenger, Michael & Barrick, Kelle & Comfort, Megan. (2020). Public safety assessment: Predictive utility and differential prediction by race in Kentucky. Criminology & Public Policy. 11. Imai, Kosuke & Jiang, Zhichao & Greiner, James & Halen, Ryan & Shin, Sooahn. (2020). Experimental Evaluation of Algorithm-Assisted Human Decision-Making: Application to Pretrial Public Safety Assessment. 12. Pamela McCorduck, Machines Who Think: a personal inquiry into the history and prospects of artificial intelligence, A K Peters, 2004, 565 p. 13. Wang, Pei. (2019). On Defining Artificial Intelligence. Journal of Artificial General Intelligence. 10. 1-37. DOI: 10.2478/jagi-2019-0002 14. A.M. Kaplan, M. Haenlein. Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence Business Horizons, 62 (1) (2019), pp. 15-25. 15. Richard A. Epstein, "Animals as Objects, or Subjects, of Rights" (John M. Olin Program in Law and Economics Working Paper No.171, 2002). 16. Davison, Isaac. "Whanganui River given legal status of a person under unique Treaty of Waitangi settlement". The New Zealand Herald. Retrieved 16 March 2017 References
1. Mayor, Adrienne. Gods and Robots: Myths, Machines, and Ancient Dreams of Technology. Princeton University Press, 2018.
2. Grafov A. E. Dictionary of Biblical Hebrew. − M.: Text, 2019. 3. The Jewish Encyclopedia. V.6. New York and London, 1904. 4. Descartes R. Reflections on the first philosophy, which proves the existence of God and the difference between the human soul and body. // Descartes R. Works in 2 volumes: Trans. from Lat. and fr. Vol. 2/Comp., ed. and note by V. V. Sokolov. M.: Mysl, 1994. 633 p. 5. Archyt // Fragments of early Greek philosophers. Part I. From epic cosmogonies to the emergence of atomistics / edition prepared by A.V. Lebedev.-M.: Nauka, 1989.-pp. 447-459. 6. Manoj Singh. Robotics Types & Applications. Neelkanth Prakashan. 2018. p. 213. 7. Hill, Donald. The Book of Knowledge of Ingenious Mechanical Devices: (Kitāb fī ma 'rifat al-ḥiyal al-handasiyya). Springer Science & Business Media. 2012. 8. Azimov A. I, robot / A. Azimov — "Eksmo", 1950,-p.140 9. Brittain, Brian & Georges, Leah & Martin, Jim. (2021). Examining the Predictive Validity of the Public Safety Assessment. Criminal Justice and Behavior. 10. DeMichele, Matthew & Baumgartner, Peter & Wenger, Michael & Barrick, Kelle & Comfort, Megan. (2020). Public safety assessment: Predictive utility and differential prediction by race in Kentucky. Criminology & Public Policy. 11. Imai, Kosuke & Jiang, Zhichao & Greiner, James & Halen, Ryan & Shin, Sooahn. (2020). Experimental Evaluation of Algorithm-Assisted Human Decision-Making: Application to Pretrial Public Safety Assessment. 12. Pamela McCorduck, Machines Who Think: a personal inquiry into the history and prospects of artificial intelligence, A K Peters, 2004, 565 p. 13. Wang, Pei. (2019). On Defining Artificial Intelligence. Journal of Artificial General Intelligence. 10. 1-37. DOI: 10.2478/jagi-2019-0002 14. A.M. Kaplan, M. Haenlein. Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons, 62 (1) (2019), pp. 15-25. 15. Richard A. Epstein, "Animals as Objects, or Subjects, of Rights" (John M. Olin Program in Law and Economics Working Paper No.171, 2002). 16. Davison, Isaac. "Whanganui River given legal status of a person under unique Treaty of Waitangi settlement". The New Zealand Herald. Retrieved 16 March 2017.
Результаты процедуры рецензирования статьи
В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Предмет исследования. Предложенная на рецензирование статья посвящена вопросам искусственного интеллекта как элемента «… цифрового отношения». Автором выбран особый предмет исследования: предложенные вопросы исследуются с точки зрения теории права, компьютерного права и философии в их историческом развитии, при этом автором отмечено, что «Существенный вклад к пониманию и формированию философских основ искусственного интеллекта заложил французский ученый Рене Декарт в механистической теории». Изучаются исторические документы, высказывания философов, российское законодательство, имеющие отношение к цели исследования. Также изучается и обобщается большой объем современной научной литературы по заявленной проблематике (в основном зарубежная), анализ и дискуссия с авторами-оппонентами приводится. При этом автор отмечает, что «…с юридической точки зрения следует упомянуть «три закона робототехники» Айзека Азимова: 1. Робот не может причинить вред человеку …. 2. Робот должен повиноваться всем приказам, которые отдает человек, …. 3. Робот должен заботиться о своей безопасности … [8, c.5]». Тем более, что «Сегодня в вопросах регулирования правового статуса искусственного интеллекта эти три закона являются первоосновной». Методология исследования. Цель исследования определена названием и содержанием работы «…необходимо правовое регулирование не только алгоритмов программирования искусственного интеллекта, а также наборов данных, используемых для его обучения». Она может быть обозначена в качестве рассмотрения и разрешения отдельных проблемных аспектов, связанных с вышеназванными вопросами и использованием определенного опыта. Исходя из поставленных цели и задач, автором выбрана определенная методологическая основа исследования. В частности, автором используется совокупность общенаучных, специально-юридических методов познания. В частности, методы анализа и синтеза позволили обобщить различные подходы к предложенной тематике и повлияли на выводы автора. Наибольшую роль сыграли специально-юридические методы. В частности, автором применялся формально-юридический метод, который позволил провести анализ и осуществить толкование норм действующего российского законодательства и резолюции Европарламента. В частности, делаются такие выводы: «Целью создания данного искусственного интеллекта, по словам разработчиков, была проверка того, способен ли компьютер «осознать» и визуализировать то, что вызывает страх у людей. Необходимо отметить, что цель была в полной мере достигнута» и др. Таким образом, выбранная автором методология в полной мере адекватна цели статьи, позволяет изучить определенные аспекты темы. Актуальность заявленной проблематики не вызывает сомнений. Данная тема является одной из наиболее важных как в мире, так и в России, с правовой точки зрения предлагаемая автором работа может считаться актуальной, а именно он отмечает, что «…необходимо регулировать не только данные, находящиеся в открытом доступе и используемые для обучения искусственного интеллекта, но все данные, используемые для обучения, а также необходимо налагать ответственность не только на разработчиков, но и на лиц, принимающих участие в обучении искусственного интеллекта». И на самом деле здесь должен следовать анализ этих работ, и он следует и автор показывает умение владеть материалом. Тем самым, научные изыскания в предложенной области стоит только приветствовать. Научная новизна. Научная новизна предложенной статьи не вызывает сомнения. Она выражается в конкретных научных выводах автора. Среди них, например, такой: «…проблема обучения является одной из ключевых в вопросах привлечения к ответственности в случае нарушения общественного порядка искусственным интеллектам. С учетом того, что на сегодняшний день искусственный интеллект не признается субъектом права, но при этом его действия могут нанести вред обществу и человеку, встает вопрос о необходимости выявления нарушителя». Как видно, указанный и иные «теоретические» выводы могут быть использованы в дальнейших научных исследованиях. Таким образом, материалы статьи в представленном виде могут иметь интерес для научного сообщества. Стиль, структура, содержание. Тематика статьи соответствует специализации журнала «Юридические исследования», так как она посвящена вопросам искусственного интеллекта как элемента «…цифрового отношения». В статье присутствует аналитика по научным работам оппонентов, поэтому автор отмечает, что уже ставился вопрос, близкий к данной теме и автор использует их материалы, дискутирует с оппонентами. Содержание статьи соответствует названию, так как автор рассмотрел заявленные проблемы, достиг цели своего исследования. Качество представления исследования и его результатов следует признать доработанным. Из текста статьи прямо следуют предмет, задачи, методология, результаты юридического исследования, научная новизна. Оформление работы в целом соответствует требованиям, предъявляемым к подобного рода работам. Существенных нарушений данных требований не обнаружено. Есть небольшое пожелание. В наименовании статьи не прозвучало слово «правоотношение», а ведь о нем автор и пишет. Может быть статью следует назвать: «Искусственный интеллект как элемент цифрового ПРАВОотношения». Библиография. Следует высоко оценить качество представленной и использованной литературы. Однако, отсутствие отечественной литературы несколько сужает обоснованность выводов автора. Труды приведенных авторов соответствуют теме исследования, обладают признаком достаточности, способствуют раскрытию многих аспектов темы. Апелляция к оппонентам. Автор провел серьезный анализ текущего состояния исследуемой проблемы. Автор описывает разные точки зрения на проблему, аргументирует более правильную по его мнению позицию опираясь на работы оппонентов, предлагает варианты решения отдельных проблем. Выводы, интерес читательской аудитории. Выводы являются логичными, конкретными, они получены с использованием общепризнанной методологии. Статья в данном виде может быть интересна читательской аудитории в плане наличия в ней систематизированных позиций автора применительно к заявленным в статье вопросам, что и должно быть характерно для юридических исследований. На основании изложенного, суммируя все положительные и отрицательные стороны статьи рекомендую «опубликовать». |