Рус Eng Cn Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Философия и культура
Правильная ссылка на статью:

Культурологическая деконструкция социально-культурных угроз ChatGPT информационной безопасности российских граждан

Былевский Павел Геннадиевич

ORCID: 0000-0002-0453-526X

кандидат философских наук

доцент, кафедра информационной культуры цифровой трансформации; кафедра международной информационной безопасности, Московский государственный лингвистический университет

119034, Россия, Москва, г. 119034 Москва, ул. Остоженка, 36, оф. 106

Bylevskiy Pavel Gennadievich

PhD in Philosophy

Associate Professor, Department of Information Culture of Digital Transformation; Department of International Information Security, Moscow State Linguistic University

119034, Russia, Ostozhenka str., 36, office 106

pr-911@yandex.ru
Другие публикации этого автора
 

 

DOI:

10.7256/2454-0757.2023.8.43909

EDN:

UZDRFW

Дата направления статьи в редакцию:

22-08-2023


Дата публикации:

29-08-2023


Аннотация: Предмет исследования − социально-культурные угрозы информационной безопасности российских граждан, связанные с технологиями ChatGPT (Chat Generative Pre-trained Transformer, машинный генератор текстовых ответов, имитирующий диалог). Объект исследования − оценки соотношения преимуществ и угроз генеративных языковых моделей на основе «машинного обучения» в современной (2021−2023) научной литературе (журналах ВАК К1, К2 и Scopus Q1, Q2). Научная новизна исследования заключается в культурологическом подходе к анализу угроз безопасности российских граждан, связанных с использованием ChatGPT как одной из технологий «искусственного интеллекта». Постановка задачи классического теста Тюринга «отличить человека от машины» характеризуется как схоластическая абстракция, взамен предлагается более корректный и продуктивный подход: социально-культурная оценка ценности (на основе культурологической аксиологии) новых компьютерных технологий. Исходной точкой анализа является определение социально-культурной ценности (или, наоборот, ущерба) в результате применения генеративных языковых моделей на основе машинного обучения. Далее выявляется вклад и ответственность различных социально-культурных субъектов её создания и применения − пользователя, создателя и разработчика. Результатом применения предлагаемого подхода является деконструкция дискурса «философии искусственного интеллекта» в части некритической трансляции деклараций разработчиков, предназначенных для маркетинга и привлечения финансирования. Гипертрофированное восприятие, неустойчиво балансирующее на грани утопии и антиутопии, оценивается как риск неверного определения и ранжирования угроз информационной безопасности. Предположения о гипотетическом «сверхоружии психологических войн» маскируют современные инциденты трансграничной утечки конфиденциальных данных, риски привлечения к ответственности за публикацию заведомо ложных сведений и незаконного контента в результате использования ChatGPT. Рекомендуются меры национальной безопасности, включая ограничительные и повышение общегражданской культуры информационной безопасности пользователей, а также ориентация отечественных разработок решений подобного типа на традиционные ценности, социально-культурную идентичность и интересы российских граждан.


Ключевые слова:

GPT-чат, генеративная языковая модель, искусственный интеллект, тест Тюринга, цифровой суверенитет, социально-культурные угрозы, информационная безопасность, традиционные ценности, социокультурная идентичность, дезинформация

Abstract: The subject of the study is the socio-cultural threats to the information security of Russian citizens associated with ChatGPT technologies (Chat Generative Pre-trained Transformer, a machine-generated text response generator simulating a dialogue). The object of research − evaluation of the ratio of advantages and threats of generative language models based on "machine learning" in modern (2021-2023) scientific literature (journals HAC K1, K2 and Scopus Q1, Q2). The scientific novelty of the research lies in the culturological approach to the analysis of threats to the security of Russian citizens associated with the use of ChatGPT as one of the technologies of "artificial intelligence". The formulation of the problem of the classical Turing test "to distinguish a person from a machine" is characterized as a scholastic abstraction, instead a more correct and productive approach is proposed: a socio-cultural assessment of the value (based on cultural axiology) of new computer technologies. The starting point of the analysis is the determination of socio-cultural value (or, conversely, damage) as a result of the use of generative language models based on machine learning. Further, the contribution and responsibility of various socio-cultural subjects of its creation and application are revealed − user, creator and developer. The result of the application of the proposed approach is the deconstruction of the discourse of the "philosophy of artificial intelligence" in terms of uncritical translation of developer declarations intended for marketing and attracting financing. Hypertrophied perception, precariously balancing on the edge of utopia and dystopia, is assessed as a risk of incorrect identification and ranking of threats to information security. Assumptions about the hypothetical "superweapon of psychological warfare" mask modern incidents of cross-border leakage of confidential data, the risks of being held accountable for publishing deliberately false information and illegal content as a result of using ChatGPT. National security measures are recommended, including restrictive measures and increasing the general civil culture of information security of users, as well as the orientation of domestic developments of solutions of this type on traditional values, socio-cultural identity and interests of Russian citizens.


Keywords:

ChatGPT, generative language model, artificial intelligence, turing test, digital sovereignty, socio-cultural threats, information security, traditional values, sociocultural identity, disinformation

Введение

Появление новых версий ChatGPT (4.0 в марте 2023 года), наиболее известного и продвигаемого компьютерного генератора текстовых ответов, имитирующих диалог, порождает всплески общественного и научного интереса. Новейшим компьютерным технологиям сопутствуют неизвестные прежде не только преимущества, но и угрозы информационной и социально-культурной безопасности. Анализ современной научной литературы (публикаций в журналах ВАК К1, К2 и Scopus Q1, Q2 за 2021—2023 гг.) показывает значительный разброс оценок соотношения преимуществ и угроз ChatGPT, генеративной языковой модели на основе «машинного обучения». Объяснимо, что многие ожидания выглядят завышенными: ChatGPT является компьютерной автоматизацией социально-культурной деятельности, относясь к группе «сквозных» технологий «искусственного интеллекта» [1], роль которых существенно возросла в результате цифровой трансформации, начавшейся в 2010-е годы [2].

Фактором, обостряющим внимание к аспектам безопасности таких сервисов для российских граждан, является осложнение международных отношений, в том числе с глобальными цифровыми платформами, базирующимися в США, в связи с началом в 2022 году Специальной военной операции на Украине. Преувеличенные оценки возможностей ChatGPT, от утопии (высокой автоматизации авторского труда [3], безошибочного управления обществом [4]) до антиутопии (сверхоружие в психологической войне [5]), маскируют реальные риски. Учитывая утверждение Правительством России 22 декабря 2022 г. «Концепции формирования и развития культуры информационной безопасности граждан Российской Федерации», востребована правильная оценка баланса возможностей и рисков подобных цифровых сервисов для российских пользователей [6]. Применение культурологического подхода может способствовать эффективной оценке рисков и выработке мер безопасности использования гражданами России в социально-культурной деятельности ChatGPT как публичного зарубежного массового цифрового сервиса.

1. Генеративные языковые модели как техническое средство культуры

Для профильной взвешенной оценки социально-культурных возможностей и угроз ChatGPT, как технологии «искусственно интеллекта», используется культурологический подход. Декларации разработчиков о возможностях подобных решений нуждаются в сдержанно-критическом осмыслении: история «вёсен и зим» «искусственного интеллекта» с 1950-х годов свидетельствует, что они зачастую были сильно преувеличены в целях агрессивного маркетинга для привлечения инвестиций. Полюсами таких завышенных оценок являются утопия (машины будут за всех работать и всё решать) и антиутопия (машины поработят, уничтожат людей), грань между которыми не безусловна: если машины смогут делать всё лучше, то в чём смысл существования человека?

Некоторых «философов искусственного интеллекта» можно упрекнуть в том, что они, под сильным впечатлением успехов техники, просто транслировали дилетантские воззрения разработчиков новых компьютерных решений на человека и его мышление, переводя на профессиональный язык философских терминов. Неоправданно преувеличенным оценкам перспектив компьютерной автоматизации технических систем способствует взгляд на человека, красноречиво выраженный в самом неопределённо-двусмысленном понятии «искусственный интеллект» и связанных терминах [7]. Технические устройства, не являющиеся даже живыми организмами, наделяются человеческими способностями. Примерами служат привычные компьютерные «восприятие», «зрение», «слух» и т.п., широко используемые «взаимодействие» [8], «сотрудничество» человека с компьютером [9] и другие подобные оксюмороны (в духе «общения работника с молотком»). Компьютерные «нейросети» − модное слово [10], но на деле моделируют не действительные механизмы человеческого мышления, обучения [11], а формализованные механистические представления о нём разработчиков; термин «нейрон» обозначает просто нервную клетку, не обязательно мозга.

Предпосылкой «очеловечивания» электронно-вычислительной техники выступает сформировавшийся в философии Нового времени механистический подход к человеку не как к одушевлённому существу или даже не как к живому организму, но как к рукотворному предмету (механизму, автомату, машине), вместо которого можно создать более производительный. Именно такой объяснимый, но ошибочный методологический подход обусловливает не реалистические, сильно завышенные оценки и преимуществ, и угроз компьютерной автоматизации. Конкретно-исторические отношения людей как социально-культурных субъектов редуцируются, упрощаются, рассматриваясь с точки зрения вычислений, механики, электротехники и других смежных научных, технических дисциплин. Впрочем, подобные оценки, отвечая существенным социально-культурным запросам и интересам влиятельных групп, способны сильно влиять на поведение многих людей и тем самым на ход исторического развития.

С точки зрения теории культуры, единственным субъектом социально-культурной деятельности является человек, коллективы людей (общество). Технические предметы, используемые и изготавливаемые человеком, являются орудиями, инструментами совместной деятельности людей, их деятельностного общения в труде, быту и преобразовании общественных отношений. Наскальный рисунок, библиотека глиняных табличек с клинописью, бумага и карандаш, книга и статуя, кисть и полотно, библиотека и музей, телефон и телевизор, социальная сеть, интернет-мессенджер, «машинная живопись» [12] и ChatGPT — всё это в равной степени, хотя и на разных стадиях исторического развития, технические средства совместной социально-культурной деятельности людей.

Культурологический подход к человеку и его техническим инструментам соответствует не только трудовой теории стоимости в английской классической политической экономии, но и определению субъекта права современной юриспруденцией. Культурология исходит из первичности и приоритета человеческих способностей, по отношению к которым техника носит вторичный, инструментальный характер. Не существует и не может существовать техники, не зависимой от человека: он придумывает, создаёт и использует её для расширения своих возможностей, повышения культуры, развития знаний, умений и навыков, но и для противоборства с себе подобными. Главный субъект создания и использования техники сам человек, главная цель применения техники − создание ценностей, удовлетворяющих потребности человека (хотя ценности могут быть и отрицательными, наносить ущерб).

Не являясь социально-культурным субъектом, техника, от каменного топора до ChatGPT и далее, может обретать характер фактора преимуществ или угрозы человеку, исходящей от человека же (как другого, так и от себя самого), в зависимости от общественных отношений между ними, включая сознание и волю. Создание топора позволяет человеку срубить дерево, но рубит не сам топор, а человек, и не всякий, а дровосек, умеющий правильно рубить топором. Этот пример верен для инструментов любых степеней сложности, автономности и автоматизации (в том числе технологий «искусственного интеллекта») [13]: их умелое применение позволяет расширить способности человека.

2. Культурологическая альтернатива тесту Тюринга

Можно предложить культурологическую версию классического теста Тюринга, призванного определить «разумность» машины. Схоластической абстракцией выглядит сама постановка задачи «отличить человека от машины» вне критериев истинности и ценности: критерием служит мнение проводящего тест, к тому же в специально подобранных лабораторных, а не в практических полевых условиях. При любом результате теста порождается бесконечное соревнование «щита и меча», тестируемых алгоритмов с приёмами тестирования, с учётом щепетильности или, напротив, впечатлительности специалистов, проводящих тест. Задача теста компьютерных технологий методом культурологической аксиологии ставится по-другому: выявить ценность применения, её характер и значимость (или, напротив, ущерб); а затем определяющие роли социально-культурных субъектов − пользователя, создателя и разработчика. Что ценнее и важнее в медицинском диагнозе и рекомендованной на его основе терапии: их верность или вопрос, какие технические средства были использованы для их формулировки [14]? Такой метод может быть применён и для оценки преимуществ и рисков использования ChatGPT российскими гражданами.

Подобный подход применяется в политической экономии для расчёта заработной платы и прибыли в отличие от стоимости вещных факторов производства, в разнице налогового обложения людей (подоходным налогом и др.) и имущества (в т.ч. производственного, включая компьютеры). Компьютерное оборудование и программное обеспечение, независимо от сложности, уровня автоматизации и «человекоподобия» (включая решения класса ChatGPT), характеризуются не как субъекты, но как технические средства нарушения информационной безопасности, совершения преступления.

Технические инструменты, расширяющие возможности человека, могут выглядеть более или менее самостоятельными в зависимости от степени автономности, уровня и масштабов автоматизации операций, выполняемых с их помощью, от отдалённости результатов во времени и пространстве. Однако люди, ответственные за противоправное нанесение ущерба другим с помощью сколько угодно высокотехнологичных средств, а также виновные в техногенных авариях, выявляются расследованием и привлекаются к ответственности без оглядки на имитационные иллюзии, порождаемые «искусственным интеллектом». В расследованиях инцидентов и преступлений, в том числе связанных с информационной безопасностью, определяются персональные роли и участие, степень вины в причинении ущерба каждого фигуранта.

ChatGPT как технология «искусственного интеллекта», с точки зрения рассматриваемого культурологического подхода, не является ни интеллектом, ни даже чатом, поскольку данный цифровой сервис лишь имитирует человеческое общение и любую личность воображаемого «собеседника» [15]. У пользователя ChatGPT, задающего набором текста вопросы, отсутствует собеседник, в качестве такого он воспринимает… автоматизированный сервис самообслуживания. На деле происходит общение пользователя с самим собой, «разговор» посредством текстового набора: пользователь сам же и отвечает на свои вопросы, предварительно подыскивая подходящие ответы в электронном справочнике. Генерируемые текстовые результаты, выдаваемые по запросам пользователя, не являются ответами, носят не субъектное происхождение, а исключительно техническо-вещный характер [16], наподобие маршрутов, автоматически прокладываемых навигационными интернет-сервисами или изготовления торговым автоматом выбранного оплаченного коктейля.

В мировой культуре создана целая галерея иронично-сатирических образов подобных решений, от машины для комбинирования книг из слов в Академии прожектёров на летающем острове Лапута Дж. Свифта до компьютерного стихотворца, «Электрибальда Трурля» Ст. Лема. В 1990-е первые подобные компьютерные программы их российские разработчики честно называли «бредогенераторами». Однако в определённых условиях и наркотический бред (например, жриц-пифий храма Аполлона в Древней Греции) может быть успешно выдан за божественное пророчество со скрытым глубоким смыслом.

Иллюзия «общения» возникает за счёт комплексного психологического фокуса: некритического восприятия названия «чат» и понятия «искусственный интеллект»; агрессивной рекламы разработчиков, транслируемой массовой прессой, а также имитационной словесной оболочки, выдающей пользователю результаты запросов от лица некоего иллюзорного «я» ChatGPT. С таким же успехом можно создать словесную или озвучиваемую сгенерированным тембром голоса «чат»-надстройку над любым автоматизированным цифровым сервисом, включая поисковые и навигационные. Психологическая иллюзия «общения» пропадает даже для самых впечатлительных и доверчивых пользователей, если выдачу результатов запросов производить не от имени «личности» ChatGPT, а сопровождать выполненным крупным ярким шрифтом уведомления о том, что это автоматизированный электронный справочный сервис со ссылкой на подробное описание принципов работы. Также уместна маркировка «18+», учитывая для несовершеннолетних необходимость сопровождения использования ChatGPT опытным взрослым, педагогом [17], наподобие случаев обязательных по закону упоминаний «запрещённая в РФ организация», «иноагент» и т.п.

3. Риски и меры безопасности ChatGPT для российских граждан

Содержание текстовых «ответов» по запросам пользователей, генерируемых компьютерными решениями, включая ChatGPT, определяется следующими тремя основными элементами сервиса:

1) «библиотекой», структурированной базой размеченных (формализованных по ключевым параметрам) текстов (созданных людьми или автоматически обработанных тем или иным способом), отобранных по правилам, сформулированным разработчиками;

2) параметрами «обучения», а по сути автоматизированной отработки алгоритмов поиска и отбора фрагментов, формально наиболее соответствующих запросу (критерии и степень соответствия задаются разработчиками, контролирующими результаты обработки);

3) алгоритмами компиляции отобранных фрагментов в связный текст в соответствии с правилами «естественного языка».

Первые два элемента целиком и полностью зависят от разработчиков, в том числе от их политики предпочтений и проводимой цензуры, избирательного применения критериев «языка ненависти» [18] и др. Технические задания утверждаются в соответствии с интересами собственника, инвесторов сервиса и государства, резидентами которого они являются, в том числе «групп влияния». Компания OpenAI, разработчик ChatGPT, базируется в США, как и один из крупнейших инвесторов и партнёров проекта, компания Microsoft. Соответственно, принципы подбора (и отсеивания) текстов для «библиотеки», а также критерии соответствия их фрагментов запросу пользователя, используемых для компиляции «ответа», должны полностью соответствовать корпоративным интересам OpenAI и законодательству США.

Крайне важно обстоятельство, что, в отличие от поисковых интернет-сервисов, «ответы» ChatGPT, точнее, результаты машинной обработки имеющейся «библиотеки» текстов на основе запроса пользователя… не содержат ссылки на источники. Отсутствуют и другие встроенные инструменты проверки («факт-чекинга»); разработчики гарантируют пользователям лишь некоторую степень правдоподобности, но не достоверность, не истинность «ответов». Если относить современные версии ChatGPT к «искусственному интеллекту», то перед нами модель генерации «фейк-новостей» и фальсификации истории [19] в стиле среднего журналиста «жёлтой прессы» США, сильно политически ангажированной.

С точки зрения применяемого культурологического подхода «этические» риски фальсификации авторства в результате не декларируемого использования ChatGPT журналистами, учёными, студентами и т.п. [20] являются завышенными. Роль ChatGPT в создании авторских текстов принципиально не отличается от любых других технических средств культуры: гусиного пера с чернилами, карандаша, перьевой или шариковой авторучки, источников рукописных и печатных, электронных документов, библиотек с каталогами, поисковых интернет-сервисов и т.д. ChatGPT представляет собой не более чем жёстко цензурируемую цифровую библиотеку с алгоритмами выдачи результатов по запросам без ссылок на источники и проверки на истинность («факт-чекинга») [21]. Гарантируется лишь высокая оригинальность, но не достоверность и не смысловое качество генерируемого по запросу текста. Проверка и оценка качества, а также ответственность остаются на долю автора, пользующегося сервисом, а также специалистов, оценивающих создаваемые таким образом тексты (редакторов и т.п. [22]). Гонорар за публикацию, созданную с использованием ChatGPT, по праву будет принадлежать человеку-автору, как и ответственность вплоть до уголовной в случае, если при этом будет нарушен закон [23].

Таким образом, можно признать лишь гипотетическими и завышенными риски использования ChatGPT в качестве «сверхоружия» антироссийской психологической войны, фальсификации авторства, массовой безработицы журналистов и других создателей текстов. Зато уже сейчас ChatGPT реально используют злоумышленники для маскировки вредоносных кодов, внедряемых в программные продукты [24]. Происходят инциденты утечки и публикации конфиденциальной информации, вводимой пользователями в запросах без учёта того, что это частный трансграничный сервис, способный публиковать вводимые сведения. Так, весной 2023 года корпорация Samsung из-за применения сотрудниками в работе ChatGPT понесла значительный ущерб от утечек, содержащих корпоративную коммерческую тайну. Одна из главных причин подобных инцидентов − недостаточная культура информационной безопасности, профессиональной и массовой пользовательской [25].

К рискам, усилившимся в результате антироссийских технологических санкций недружественных стран, следует отнести дискриминационные действия глобальных цифровых платформ, базирующихся в США [26], в отношении российских граждан и официальной прессы. В случае ухудшения международных отношений компания OpenAI может повысить антироссийскую направленность ChatGPT, повышая риски российских граждан.

Результаты

Главным результатов проведённого исследования является вывод: социально-культурные риски ChatGPT для российских пользователей можно минимизировать средствами государственного регулирования и повышения культуры информационной безопасности пользователей, а также созданием отечественных решений подобного класса. В качестве среди средства государственного регулирования предлагается обязательство маркировать интерфейс ChatGPT предупреждением, что «чат» − лишь торговая марка, а на деле автоматизированный трансграничный электронный библиотечный сервис самообслуживания пользователей, базирующийся в США и действующий в соответствии с законами этой страны. Выдаваемые по запросам тексты должны сопровождаться предупреждением о необходимости проверки из-за возможностей наличия заведомо ложных сведений, в том числе нарушающих российское законодательство, в случае распространения которых к ответственности будет привлечён пользователь. В случае невыполнения этих требований государственными уполномоченных органами могут быть предприняты дополнительные меры ограничения и блокировки массового доступа к ChatGPT на территории России и в российском сегменте интернета.

Создателям отечественных автоматизированных генераторов текстов можно рекомендовать увеличивать долю самостоятельных разработок с учётом российских традиционных ценностей и социально-культурной идентичности; ввести в выдаваемых по запросам результатах ссылки на источники, автоматизированные сервисы факт-чекинга и соответствия российскому законодательству, а также отказаться от имитации чата, создания иллюзии общения.

Эффективной мерой снижения рисков является повышение общегражданской культуры информационной безопасности посредством образовательных организаций, прессы и социальной рекламы, социальных сетей и мессенджеров − разъяснение массовой аудитории сущности и механизмов работы машинных генераторов текстов, сопутствующих угроз и рисков. Также до массовой аудитории необходимо доводить сведения о рисках получения и распространения недостоверных сведений, наступления ответственности в случаях, нарушающих российское законодательство, а также об угрозах, связанных с трансграничным характером сервиса ChatGPT и возможным применением его владельцами и разработчиками для распространения дезинформации.

Библиография
1. Gill S., Kaur R. ChatGPT: Vision and challenges // Internet of Things and Cyber-Physical Systems. 2023. Vol. 3. Pp. 262-271. DOI: 10.1016/j.iotcps.2023.05.004
2. Сойфер В.А. Human factor // Онтология проектирования. 2021. Т. 11. № 1 (39). С. 8-19. DOI: 10.18287/2223-9537-2021-11-1-8-19
3. Agathokleous E., Saitanis C., Fang Ch., Yu Zh. Use of ChatGPT: What does it mean for biology and environmental science? // Science of The Total Environment. 2023. Vol. 888. DOI: 10.1016/j.scitotenv.2023.164154
4. Миронова Н.Г. Философское осмысление социальных рисков интеллектуальной автоматизации социального управления // Цифровой ученый: лаборатория философа. 2021. Т. 4. № 2. С. 125-144. DOI: 10.32326/2618-9267-2021-4-2-125-144
5. Гончаров В.С. Применение комбинированных технологий искусственного интеллекта в информационно-психологических войнах // Вопросы политологии. 2022. Т. 12. № 4 (80). С. 1118-1126. DOI: 10.35775/PSI.2022.80.4.015
6. Булычев И.И., Казаков В.Г., Кирюшин А.Н. Будущее искусственного интеллекта: скептики vs прагматики // Военный академический журнал. 2023. № 2 (38). С. 10-21. EDN: FJVPRO
7. Груздев А.А., Самарин А.С., Илларионов Г.А. Проекты цифровой философии в контексте развития digital humanities // Журнал Сибирского федерального университета. Серия: Гуманитарные науки. 2023. Т. 16. № 7. С. 1165-1176. EDN: GBBFUA
8. Есенин Р.А. Психологические вызовы цифровой реальности: искусственный интеллект сегодня и в перспективе // Профессиональное образование и рынок труда. 2023. Т. 11. № 2 (53). С. 121-128. DOI: 10.52944/PORT.2023.53.2.009
9. Kreps S., Jakesch M. Can AI communication tools increase legislative responsiveness and trust in democratic institutions? // Government Information Quarterly. 2023. Vol. 40. Iss. 3. DOI: 10.1016/j.giq.2023.101829
10. Плотникова А.М. Нейросеть как ключевое слово текущего момента // Филологический класс. 2023. Т. 28. №2. С. 45-54. EDN: TBIHHU
11. Guile D. Machine learning – A new kind of cultural tool? A “recontextualisation” perspective on machine learning + interprofessional learning // Learning, Culture and Social Interaction. 2023. Vol. 42. DOI: 10.1016/j.lcsi.2023.100738
12. Миловидов С.В. Художественные особенности произведений компьютерного искусства, созданных с использованием технологий машинного обучения // Артикульт. 2022. № 4 (48). С. 36-48. DOI: 10.28995/2227-6165-2022-4-36-48
13. Брянцева О.В., Брянцев И.И. Проблема субъектности искусственного интеллекта в системе общественных отношений // Вестник Поволжского института управления. 2023. Т. 23. № 3. С. 37-50. DOI: 10.22394/1682-2358-2023-3-37-50
14. Liu J., Zheng J., Cai X., Wu D., Yin Ch. A descriptive study based on the comparison of ChatGPT and evidence-based neurosurgeons // iScience. 2023. DOI: 10.1016/j.isci.2023.107590
15. Short С., Short J. The artificially intelligent entrepreneur: ChatGPT, prompt engineering, and entrepreneurial rhetoric creation // Journal of Business Venturing Insights. 2023. Vol. 19. DOI: 10.1016/j.jbvi.2023.e00388
16. Володенков С.В., Федорченко С.Н. Особенности феномена субъектности в условиях современных технологических трансформаций // Полис. Политические исследования. 2022. № 5. С. 40-55. DOI: 10.17976/jpps/2022.05.04
17. Вершинина Ю.В., Дятлова Е.В., Ковш К.Ю. Возможности искусственного интеллекта в образовательном процессе на примере чат-бота ChatGPT // Обзор педагогических исследований. 2023. Т. 5. № 5. С. 200-205. EDN: IBMPAS
18. Cohen S., Presil D., Katz O., Arbili O., Messica S. Rokach L. Enhancing social network hate detection using back translation and GPT-3 augmentations during training and test-time // Information Fusion. 2023. Vol. 99. DOI: 10.1016/j.inffus.2023.101887
19. Канштайнер В. Цифровой допинг для историков: можно ли сделать историю, память и историческую теорию искусственным интеллектом? // KANT: Social Sciences & Humanities. 2023. № 1 (13). С. 56-70. DOI: 10.24923/2305-8757.2023-13.5
20. Elliott Casal J., Kessler M. Can linguists distinguish between ChatGPT/AI and human writing?: A study of research ethics and academic publishing // Research Methods in Applied Linguistics. 2023. Vol. 2. 3. DOI: 10.1016/j.rmal.2023.100068
21. Currie G. Academic integrity and artificial intelligence: is ChatGPT hype, hero or heresy? // Seminars in Nuclear Medicine. 2023. Vol. 53, Iss. 5. Pp. 719-730. DOI: 10.1053/j.semnuclmed.2023.04.008
22. Kahambing J. ChatGPT, ‘polypsychic’ artificial intelligence, and psychiatry in museums // Asian Journal of Psychiatry. 2023. Vol. 83. DOI: 10.1016/j.ajp.2023.103548
23. Зорин А.Р. К вопросу правового регулирования ChatGPT // International Law Journal. 2023. Т. 6. № 6. С. 35-38. EDN: UOEZHV
24. Филюков Д.А. Применение нейронных сетей для формирования кода вредоносного программного обеспечения // Инновации и инвестиции. 2023. № 7. С. 199-204. EDN: ZBHRXM
25. Anderson S. “Places to stand”: Multiple metaphors for framing ChatGPT's corpus // Computers and Composition. 2023. Vol. 68. DOI: 10.1016/j.compcom.2023.102778
26. Смирнов А.И., Исаева Т.В. Международная безопасность: вызовы и угрозы технологий искусственного интеллекта // Международная жизнь. 2023. № 8. С. 94-107. EDN: ALSAZ
References
1. Gill, S., & Kaur, R. (2023). ChatGPT: Vision and challenges. Internet of Things and Cyber-Physical Systems, 3, 262-271. doi:10.1016/j.iotcps.2023.05.004
2. Soifer, V.A. (2021). Human factor. Ontology of Designing, 11(1(39)), 8-19. doi:10.18287/2223-9537-2021-11-1-8-19
3. Agathokleous, E., Saitanis, C., Fang, Ch., & Yu, Zh. (2023). Use of ChatGPT: What does it mean for biology and environmental science? Science of The Total Environment, 888. doi:10.1016/j.scitotenv.2023.164154
4. Mironova, N.G. (2021). Philosophical understanding of social risks of intellectual automation of social management. The Digital Scholar: Philosopher's Lab, 4(2), 125-144. doi:10.32326/2618-9267-2021-4-2-125-144
5. Goncharov, V.S. (2022). Application of combined artificial intelligence technologies in information and psychological warfare. Political science issues, 12(4(80)), 1118-1126. doi:10.35775/PSI.2022.80.4.015
6. Bulychev, I.I., Kazakov, V.G., & Kiryushin, A.N. (2023). The future of artificial intelligence: skeptics vs pragmatists. Military academic journal, 2(38), 10-21. EDN: FJVPRO
7. Gruzdev, A.A., Samarin, A.S., & Illarionov, G.A. (2023). Digital philosophy projects in the context of digital humanities development. Journal of Siberian Federal University. Humanities & Social Sciences, 16(7), 1165-1176. EDN: GBBFUA
8. Yesenin, R.A. (2023). Psychological challenges of digital reality: artificial intelligence today and in the future. Professionalʹnoe obrazovanie i rynok truda, 11(2(53)), 121-128. doi:10.52944/PORT.2023.53.2.009
9. Krepsm, S., & Jakeschm, M. (2023). Can AI communication tools increase legislative responsiveness and trust in democratic institutions? Government Information Quarterly, 3(40). doi:10.1016/j.giq.2023.101829
10. Plotnikova, A.M. (2023). Neural network as a keyword of the current moment. Philological class, 28(2), 45-54. EDN: TBIHHU
11. Guile, D. (2023). Machine learning – A new kind of cultural tool? A “recontextualisation” perspective on machine learning + interprofessional learning. Learning, Culture and Social Interaction, 42. doi:10.1016/j.lcsi.2023.100738
12. Milovidov, S.V. (2022). Artistic features of computer art works created using machine learning technologies. Artetcult, 4(48), 36-48. doi:10.28995/2227-6165-2022-4-36-48
13. Bryantseva, O.V., & Bryantsev, I.I. (2023). The problem of subjectivity of artificial intelligence in the system of public relations. The Bulletin of the Volga Region Institute of Administration, 23(3), 37-50. doi:10.22394/1682-2358-2023-3-37-50
14. Liu, J., Zheng, J., Cai, X., Wu, D., & Yin, Ch. (2023). A descriptive study based on the comparison of ChatGPT and evidence-based neurosurgeons. iScience. doi:10.1016/j.isci.2023.107590
15. Short, С., & Short, J. (2023). The artificially intelligent entrepreneur: ChatGPT, prompt engineering, and entrepreneurial rhetoric creation. Journal of Business Venturing Insights, 19. doi:10.1016/j.jbvi.2023.e00388
16. Volodenkov, S.V., & Fedorchenko S.N. (2022). Features of the phenomenon of subjectivity in the conditions of modern technological transformations. Polis. Political Studies, 5, 40-55. doi:10.17976/jpps/2022.05.04
17. Vershinina, Yu.V., Dyatlova, E.V., Kovsh, & K.Yu. (2023). The possibilities of artificial intelligence in the educational process on the example of the chat bot ChatGPT. Review of pedagogical research, 5(5), 200-205. EDN: IBMPAS
18. Cohen, S., Presil, D., Katz, O., Arbili, O., Messica, & S. Rokach, L. (2023). Enhancing social network hate detection using back translation and GPT-3 augmentations during training and test-time. Information Fusion, 99. doi:10.1016/j.inffus.2023.101887
19. Kansteiner, V. (2023). Digital doping for historians: is it possible to make history, memory and historical theory artificial intelligence? KANT: Social Sciences & Humanities, 1(13), 56-70. doi:10.24923/2305-8757.2023-13.5
20. Elliott Casal, J., & Kessler, M. (2023). Can linguists distinguish between ChatGPT/AI and human writing?: A study of research ethics and academic publishing. Research Methods in Applied Linguistics, 2, 3. doi:10.1016/j.rmal.2023.100068
21. Currie, G. (2023). Academic integrity and artificial intelligence: is ChatGPT hype, hero or heresy? Seminars in Nuclear Medicine, 5(53), 719-730. doi:10.1053/j.semnuclmed.2023.04.008
22. Kahambing, J. ( 2023). ChatGPT, ‘polypsychic’ artificial intelligence, and psychiatry in museums. Asian Journal of Psychiatry, 83. doi:10.1016/j.ajp.2023.103548
23. Zorin, A.R. (2023). On the issue of legal regulation of ChatGPT. International Law Journal, 6(6), 35-38. EDN: UOEZHV
24. Filyukov, D.A. (2023). Application of neural networks for the formation of malicious software code. Innovacii i investicii, 7, 199-204. EDN: ZBHRXM
25. Anderson, S. (2023). “Places to stand”: Multiple metaphors for framing ChatGPT's corpus. Computers and Composition, 68. doi:10.1016/j.compcom.2023.102778
26. Smirnov, A.I., & Isaeva, T.V. (2023). International security: challenges and threats of artificial intelligence technologies. Meždunarodnaâ žiznʹ, 8, 94-107. EDN: ALSAZN

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

В журнал «Философия и культура» автор представил свою статью «Культурологическая деконструкция социально-культурных угроз ChatGPT информационной безопасности российских граждан», в которой проведено исследование социокультурного потенциала защиты информационного пространства от недобросовестного использования средств и программ искусственного интеллекта.
Автор исходит в изучении данного вопроса из того, что применение культурологического подхода может способствовать эффективной оценке рисков и выработке мер безопасности использования гражданами России в социально-культурной деятельности ChatGPT как публичного зарубежного массового цифрового сервиса.
Актуальность исследования обусловлена современной геополитической и социокультурной ситуацией, а именно осложнением международных отношений, в том числе с глобальными цифровыми платформами, базирующимися в США, в связи с началом в 2022 году Специальной военной операции на Украине. Практическая значимость исследования заключается в том, что полученные результаты могут быть использованы для дальнейших исследований и разработок методических материалов в областях культурологии и развития культуры информационной безопасности в России.
Проведя анализ научной обоснованности проблематики, автор отмечает возрастающий общественный и научный интерес к изучаемому вопросу. Анализ современной научной литературы помог автору выявить значительный разброс оценок соотношения преимуществ и угроз ChatGPT, генеративной языковой модели на основе «машинного обучения». Следовательно, научная новизна исследования заключается в применении культурологического подхода для выявления потенциальных социокультурных рисков и угроз, возникающих при использовании инструментария искусственного интеллекта.
Цель данного исследования заключается в анализе рисков использования ChatGPT в качестве средства психологической войны, фальсификации авторства, массовой безработицы журналистов и других создателей текстов. Методологическую базу составили общенаучные методы анализа и синтеза, метод прогнозирования.
Автором отмечается необходимость культурологического подхода для профильной взвешенной оценки социально-культурных возможностей и угроз ChatGPT как технологии искусственно интеллекта, так как декларации разработчиков о возможностях подобных решений нуждаются в сдержанно-критическом осмыслении. Автор настаивает, что они зачастую были сильно преувеличены в целях агрессивного маркетинга для привлечения инвестиций. Полюсами таких завышенных оценок являются утопия и антиутопия.
Придерживаясь теории культуры, автор выражает мнение, что единственным субъектом социально-культурной деятельности является человек, коллективы людей (общество). Технические предметы, используемые и изготавливаемые человеком, являются орудиями, инструментами совместной деятельности людей, их деятельностного общения в труде, быту и преобразовании общественных отношений. Как бумага и карандаш, так и социальная сеть, интернет-мессенджер и ChatGPT — всё это в равной степени, хотя и на разных стадиях исторического развития, технические средства совместной социально-культурной деятельности людей. Следовательно, надо избегать скоропалительных попыток превознесения и очеловечивания искусственного интеллекта и его инструментария. Не являясь социально-культурным субъектом, техника может обретать характер фактора преимуществ или угрозы человеку, исходящей от человека же, в зависимости от общественных отношений между ними, включая сознание и волю.
Автором предложена культурологическая версия классического теста Тюринга, призванного определить «разумность» машины. Задачей теста компьютерных технологий методом культурологической аксиологии автор ставит в первую очередь выявление ценности применения, её характер и значимость (или, напротив, ущерб); а затем определяющие роли социально-культурных субъектов − пользователя, создателя и разработчика.
ChatGPT как технология «искусственного интеллекта», с точки зрения рассматриваемого культурологического подхода, не является ни интеллектом, ни даже чатом, поскольку данный цифровой сервис лишь имитирует человеческое общение и любую личность воображаемого собеседника. Иллюзия общения возникает за счёт комплексного психологического фокуса.
Согласно мнению автора, риски использования ChatGPT в качестве «сверхоружия» антироссийской психологической войны, фальсификации авторства, массовой безработицы журналистов и других создателей текстов представляются гипотетическими и завышенными. Зато уже сейчас ChatGPT реально используют злоумышленники для маскировки вредоносных кодов, внедряемых в программные продукты.
Автор предлагает минимизировать социально-культурные риски ChatGPT для российских пользователей средствами государственного регулирования и повышения культуры информационной безопасности пользователей, а также созданием отечественных решений подобного класса. Эффективной мерой снижения рисков автор считает повышение общегражданской культуры информационной безопасности посредством образовательных организаций, прессы и социальной рекламы, социальных сетей и мессенджеров − разъяснение массовой аудитории сущности и механизмов работы машинных генераторов текстов, сопутствующих угроз и рисков.
В заключении автором представлен вывод по проведенному исследованию, в котором приведены все ключевые положения изложенного материала.
Представляется, что автор в своем материале затронул актуальные и интересные для современного социогуманитарного знания вопросы, избрав для анализа тему, рассмотрение которой в научно-исследовательском дискурсе повлечет определенные изменения в сложившихся подходах и направлениях анализа проблемы, затрагиваемой в представленной статье.
Полученные результаты позволяют утверждать, что изучение социокультурного аспекта информационной безопасности представляет несомненный научный и практический культурологический интерес и заслуживает дальнейшей проработки.
Следует заметить, автор достиг поставленной цели. Представленный в работе материал имеет четкую, логически выстроенную структуру, способствующую более полноценному усвоению материала. Библиографический список исследования состоит из 26 источников, в том числе и иностранных, что представляется достаточным для обобщения и анализа научного дискурса по исследуемой проблематике.
Следует констатировать: статья может представлять интерес для читателей и заслуживает того, чтобы претендовать на опубликование в авторитетном научном издании.