Рус Eng Cn Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Философия и культура
Правильная ссылка на статью:

Синергетика искусственных когнитивных систем с неравновесной устойчивостью

Грибков Андрей Армович

ORCID: 0000-0002-9734-105X

доктор технических наук

ведущий научный сотрудник; Научно-производственный комплекс "Технологический центр"

124498, Россия, г. Москва, Зеленоград, пл. Шокина, 1, строение 7

Gribkov Andrei Armovich

Doctor of Technical Science

Leading researcher; Scientific and production complex 'Technological Center'

124498, Russia, Moscow, Zelenograd, Shokina Square, 1, building 7

andarmo@yandex.ru
Другие публикации этого автора
 

 
Зеленский Александр Александрович

ORCID: 0000-0002-3464-538X

кандидат технических наук

ведущий научный сотрудник; Научно-производственный комплекс "Технологический центр"

124498, Россия, г. Москва, Зеленоград, пл. Шокина, 1, строение 7

Zelenskii Aleksandr Aleksandrovich

PhD in Technical Science

Leading researcher; Scientific and production complex 'Technological Center'

124498, Russia, Moscow, Zelenograd, Shokina square, 1, building 7

zelenskyaa@gmail.com
Другие публикации этого автора
 

 

DOI:

10.7256/2454-0757.2024.6.70887

EDN:

MJXODY

Дата направления статьи в редакцию:

29-05-2024


Дата публикации:

10-06-2024


Аннотация: В статье исследуются комплекс вопросов, определяющих синергетику искусственных когнитивных систем: условия реализации неравновесной устойчивости систем, варианты синтеза искусственной когнитивной системы, а также механизмы самоорганизации сформированного на ее основе сознания. К числу искусственных когнитивных систем предлагается относить не только системы искусственного интеллекта, имитирующие человеческое мышление, но любые многоуровневые системы, осуществляющие функции распознавания и запоминания информации, принятия решений, хранения, объяснения, понимания и производства новых знаний. Определяющим свойством когнитивной системы является способность к принятию решений. Показано, что содержанием когнитивной системы является сознание, интерпретируемое в рамках информационной концепции как информационная среда, в которой реализуется расширенная модель реальности. Сознание может квалифицироваться как открытая динамическая система, состояние которой определяется происходящими в ней (мыслительными) процессами.  Комплекс вопросов, определяющих устойчивое существование искусственных когнитивных систем, включает в себя условия реализации неравновесной устойчивости систем, варианты ее синтеза, а также синергетики сформированного на ее основе сознания. Ответы на данные вопросы позволят сформировать философскую основу для последующих исследований в области искусственных когнитивных систем, приближенных по возможностям к естественным. Для таких систем, называемых «живыми», имеет место реализация механизмов устойчивого неравновесия. Реализация искусственной когнитивной системы технически осуществляется на основе искусственной нейронной сети, а организационно – согласно акторной или реакторной модели. Процессы самоорганизации, определяющие синергетику сознания, являются частным случаем действия экстремального принципа, являющегося следствием закона избыточной реакции надсистем, регламентирующего существования диссипативных систем за счет ресурсов надсистемы. Инициация самоорганизации сознания осуществляется процессом мышления, который в силу неравновесной устойчивости сознания не останавливается. При этом мышление можно интерпретировать как процесс варьирования параметрами системы в поиске подходящих для расширенного моделирования реальности. Активация мышления происходит в результате отклонений системы от равновесия вследствие перманентных флуктуаций ее состояния.


Ключевые слова:

синергетика, самоорганизация, сознание, когнитивная система, устойчивое неравновесие, экстремальный принцип, система, надсистема, диссипация, модель реальности

Исследование выполнено при поддержке Российского научного фонда по гранту No 24-19-00692, http://rscf.ru/project/24-19-00692/

Abstract: The article explores a set of issues determining the synergetics of artificial cognitive systems: conditions for the realization of non-equilibrium stability of systems, synthesis options of artificial cognitive system, as well as mechanisms of self-organization of consciousness formed on its basis. Artificial cognitive systems are proposed to include not only artificial intelligence systems imitating human thinking, but any multilevel systems that perform the functions of recognizing and remembering information, decision-making, storage, explanation, understanding and production of new knowledge. The defining property of a cognitive system is the ability to make decisions. It is shown that the content of the cognitive system is consciousness, interpreted within the framework of the information concept as an information environment in which the extended model of reality is realized. Consciousness can be qualified as an open dynamic system. The state of such systems is determined by the processes occurring in them (thought processes - in the case of consciousness). For such systems, called "living", there is a realization of mechanisms of stable disequilibrium. The implementation of an artificial cognitive system is technically carried out on the basis of an artificial neural network, and organizationally - according to the actor or reactor model. Self-organization processes determining the synergetics of consciousness are a special case of the extreme principle, which is a consequence of the law of excessive reaction of supersystems, regulating the existence of dissipative systems at the expense of supersystem resources. The initiation of self-organization of consciousness is carried out by the process of thinking, which, due to the non-equilibrium stability of consciousness, does not stop. Thus thinking can be interpreted as a process of varying system parameters in search of suitable ones for extended modeling of reality.


Keywords:

synergetics, self-organization, consciousness, cognitive system, stable disequilibrium, extreme principle, system, supersystem, dissipation, reality model

Введение

Развитие человечества в последние десятилетия обогатило культуру широким спектром новых инструментов познания мира и создания материальных благ. Одной из областей, где человечество достигло существенных успехов, способной оказать на цивилизацию наибольшее влияние, является область информационных технологий, важной составляющей которых являются искусственные когнитивные системы.

Что в настоящее время понимают под искусственными когнитивными системами? Философский словарь определяет их как многоуровневые системы, осуществляющие функции распознавания и запоминания информации, принятия решений, хранения, объяснения, понимания и производства новых знаний [1]. В актуальных научных публикациях искусственные когнитивные системы определяют несколько упрощенно – как системы искусственного интеллекта, имитирующие человеческое мышление («объясняющий искусственный интеллект» [2]), которые могут быть использованы в качестве вспомогательного инструмента познания. По мнению авторов, системы искусственного интеллекта являются частным случаем искусственных когнитивных систем, которые могут существенно различаться по способности решать интеллектуальные задачи. Определяющим свойством искусственных когнитивных систем является их способность к принятию решений: не транслировать решение человека-оператора, а принимать решения автономно, согласно изменяющемся внешним условиям и своим внутренним свойствам, в том числе вложенным алгоритмам. В контексте предлагаемого представления искусственной когнитивной системой является как креативный искусственный интеллект [3], сопоставимый с человеком в решении интеллектуальных задач, так и автопилот самолета или система автоматической парковки автомобиля.

Искусственные когнитивные системы являются важным элементом современной технической цивилизации. В краткосрочной перспективе их роль будет расти, в среднесрочной – они станут основным средством достижения цели цивилизации, заключающейся в удовлетворении потребностей человека: биологических, социальных и интеллектуальных (духовных).

Содержанием когнитивной системы (как естественной, так и искусственной) является сознание. Исследования авторов показали [4], что в рамках информационной концепции сознание можно интерпретировать как информационную среду, в которой реализуется расширенная модель реальности. Сознание – информационная система, его элементы – информационные объекты, сложным образом отражающие реальность. В результате сознание не является чем-то вещественным, хотя и формируется как результат процессов в реальности и требует физического носителя сознания (центральную нервную систему или искусственную когнитивную систему). Кроме того, в общем случае существование сознания не предполагает обязательного наличия самосознания или субъектности.

Подходы к определению естественных и искусственных когнитивных систем принципиально различны. Это обусловлено различием решаемых задач: анализа существующей системы – в случае естественных когнитивных систем; синтеза новой системы – в случае искусственных когнитивных систем. Анализ существующей системы представляет собой решение прямой задачи, синтез новой системы с заданными параметрами – обратную задачу [5].

Для естественной когнитивной системы в виде человеческого интеллекта решение прямой задачи выглядит следующим образом: совокупность нейронов, связанных в нейронную сеть (в центральной нервной системе), в определенных условиях (сенсорная система человека, внешние воздействия и т.д.) организуется и формирует интегральный результат в виде элемента сознания (информационного объекта). Указанная последовательность формирования информационных объектов не может быть детально детерминирована, однако существующие в настоящее время (неполные) знания в области нейрофизиологии позволяют оценивать изложенный механизм как качественно соответствующий действительности [6].

Для искусственной когнитивной системе решение обратной задачи выглядит следующим образом: под определенный информационный объект в сознании необходимо найти соответствующую, порождающую его техническую реализацию; для сложных искусственных когнитивных систем эта техническая реализация включает определение параметров нейронной сети, алгоритмов обработки данных и многое другое. В большинстве случаев такая обратная задача непосредственно не может быть решена. Единственной возможностью является «подбор» решения на основе варьирования параметрами, т.е. многократное решение прямой задачи до тех пор, пока результат не будет соответствовать требуемому. Для этого необходимо представление решаемой задачи в виде виртуальной модели, где вместо реальных объектов задействуются информационные объекты (необязательно соотносимые с реальностью).

Механизм определения состояния искусственной когнитивной системы на основе варьирования параметрами виртуальной модели придает ее формированию эволюционный характер. В результате она будет регламентироваться принципами синергетики – самоорганизации открытой системы. При этом сохранение системы будет обеспечиваться на основе устойчивого неравновесия.

Комплекс вопросов, определяющих устойчивое существование искусственных когнитивных систем, включает в себя условия реализации неравновесной устойчивости систем, варианты синтеза искусственной когнитивной системы, а также синергетики сформированного на ее основе сознания. Перечисленные три вопроса мы планируем рассмотреть в данной статье. Это позволит сформировать философскую основу для последующих исследований в области искусственных когнитивных систем, приближенных по своим синергетическим возможностям к естественным.

Неравновесная устойчивость систем

Большинство систем, которые являются предметами анализа различных конкретных наук (физики, химии, технических и других наук), обеспесивают свою устойчивость как результат уравновешивания противоположных процессов (расширения и сжатия, разрушения и объединения, нагрева и охлаждения и т.д.). Исследования «живых» и открытых динамических систем показали, что возможен принципиально иной механизм обеспечения устойчивости. Для «живой» системы состояние равновесия (покоя, отсутствия изменений) означает смерть – завершение существования и потерю устойчивости: умершее живое существо более не может сохраняться, процессы поддержания устойчивости перестают работать, начинается разложение. Для построения «живых» систем используются походы, основанные на использовании принципа устойчивого неравновесия и концепции динамической кинетической стабильности.

Принцип устойчивого неравновесия впервые был сформулирован Эрвином Бауэром [7, с. 32]: «Все и только живые системы никогда не бывают в равновесии и исполняют за счет своей свободной энергии постоянно работу против равновесия, требуемого законами физики и химии при существующих внешних условиях». Дальнейшие исследования систем с устойчивым неравновесием показали, что такие системы не обязательно являются биологическими (т.е. действительно живыми), но также могут быть химическими (их исследованием занимается неравновесная термодинамика П. Гленсдорфа и И. Пригожина [8]), экономическими [9] и другими открытыми системами [10].

Одним из практических механизмов обеспечения устойчивого неравновесия сложных «живых» систем является динамическая кинетическая стабильность (ДКС): «… этот вид стабильности, применимый исключительно к постоянно реплицирующимся системам, будь то химические или биологические, вытекает непосредственно из мощного кинетического характера и присущей процессу репликации неустойчивости…» [11], «… концепция ДКС совершенно отлична от обычного вида стабильности в природе – термодинамической стабильности…» [там же], «…для наблюдения специфического поведения реплицирующихся систем необходимо постоянно поддерживать далекие от равновесия условия…» [12].

Для осмысления в рамках философии природы устойчивого неравновесия зададимся вопросом: «В каком случае невозможна устойчивость системы на основе баланса и равновесия?». Ответ, вероятно, может быть только один: в том случае, когда содержание системы (как объекта познания) определяется не элементами, а процессами, которые, в свою очередь, требуют для своего поддержания неравновесия (поскольку всякий процесс есть изменение, которое инициируется разностью свойств системы).

Почему основным содержанием «живых» систем являются процессы, а не элементы и структуры? Почему элементы и структуры возможны и в неживой природе, но, когда природа «вдыхает жизнь» в систему, она одновременно делает главными для сохранения системы протекающие в ней процессы? Исчерпывающего ответа на данные вопросы дать невозможно, однако частичным ответом является противоречие эволюции и «живых» систем с неуклонным ростом энтропии в мире. Эволюция соответствует локальному снижению энтропии и поэтому для наиболее сложных динамических систем (например, «живых») не может фиксироваться в виде устойчивых равновесных форм. Такие «живые» системы неизбежно разрушатся, подчиняясь неуклонному росту энтропии, если процессы, которые их порождают, не продолжатся. Пока идут процессы, порождаемые неравновесием в «живой» системе, она продолжает свое существование. Надсистема, частью которой является «живая» система, тратит на нее свои ресурсы, энтропия надсистемы растет, а в «живой» системе имеет место локальное снижение энтропии. Процесс дальнейшего локального снижения энтропии соответствует эволюционному развитию.

В контексте определения отношений система-надсистема необходимо заметить, что разделение систем на «живые» и неживые, а также деление систем на открытые и закрытые (изолированные) является исключительно эпистемологическим. В реальности все системы являются открытыми, диссипативными (в терминологии П. Гленсдорфа и И. Пригожина) и определяются процессами. Примат процессов может не выявляться на уровне, который исследуется в процессе познания системы, и в этом случае она корректно описываются как совокупность взаимосвязанных элементов. Однако примат процессов в определении этой системы обязательно проявится на уровне надсистемы или надсистемы над надсистемой и т.д. При этом каждая система (кроме Вселенной) существует за счет ресурсов надсистемы [13]. Это означает, что из трех известных вариантов самоорганизации (диссипативной, описываемой на основе синергического подхода; консервативной, соответствующей упорядочению в равновесных условиях, применяемой в супрамолекулярной химии; континуальной, происходящий в системе за счет внутренней работы против равновесия) достоверным является только вариант диссипативной самоорганизации. Видимость прочих вариантов возникает вследствие ограниченности глубины анализа, из которого исключаются существенные процессы, определяющие претерпеваемые исследуемой системой изменения. Учет этих процессов показал бы, что во всех случаях системы являются открытыми и диссипативными.

Сознание, независимо от реализации носителя (центральная нервная система, искусственная нейронная сеть и т.д.), – «живая» система, определяемая происходящими в ней (мыслительными) процессами. При этом не только сознание, но и его физический носитель обеспечивает свое существование на основе устойчивого неравновесия. Это справедливо для естественной когнитивной системы: центральная нервная система, образованная у человека головным и спинным мозгом, несомненно, – «живая» система. В равной степени это справедливо для искусственной когнитивной системы: компьютер не является статической разновесной системой – для реализации своего функционального назначения в нем должны идти электромагнитные процессы, подпитываемые внешним источником энергии.

Искусственная когнитивная система

Синтез искусственной когнитивной системы – комплексная задача, исходные параметры которой зависят от выбора архитектуры и варианта ее реализации.

Выбор архитектуры искусственной когнитивной системы определяется ее предпочтительной реализацией на базе нейронной сети. Обучаемость, универсальность, автономность, быстродействие и др. необходимые когнитивной системе свойства обеспечиваются в случае децентрализации управления, наилучшим образом реализуемой при использовании искусственной нейронной сети (хотя данное решение и не является безальтернативным).

Практическая реализация децентрализованной системы на базе нейронной сети предполагает использование акторной или реакторной модели (модели реляционных акторов) [14]. В основе акторной модели лежит программно-математическое представление системы в виде совокупности акторов – автономных объектов с различными свойствами, обменивающихся сообщениями с другими акторами для совместного управления системой [15, 16]. Акторы могут представлять собой виртуальные сущности (например, объекты в информационной среде – сознании), либо иметь физическую реализацию в виде процессора или иного устройства. В модели реляционных акторов [17, 18] управление осуществляется не за счет обмена сообщениями, как в акторной модели, а за счет реакции на события.

Как мы уже указали, возможна физическая (инструментальная) и виртуальная (симуляционная) реализация акторов. В случае искусственных когнитивных систем не самой высокой сложности, например, выполняющих управление технологическим оборудованием, перспективным является использование в качестве акторов реальных физических элементов – датчиков, преобразователей, вычислительных модулей, интеграторов и т.д. В этом случае достигается максимальное быстродействие управления. По мере усложнения когнитивной системы она становится все менее детерминированной, что в контексте решения задачи синтеза (искусственной когнитивной системы) означает неизбежность перехода к использованию в качестве акторов информационных объектов – виртуальных сущностей в сознании. При этом открываются широкие возможности как варьирования параметрами когнитивной системы, определяющими сознание, так и самопроизвольного развития и усложнения сознания – синергетики.

Отчетливые проявления в искусственных когнитивных системах механизмов синергетики, подобной реализующейся в человеческом сознании, выявляются при обучении даже наиболее простых систем искусственного интеллекта – систем машинного обучения: «нейросети, обучающиеся при помощи механизмов обратного распространения ошибки, порой показывают удивительно «человекоподобные» результаты даже там, где речь идет о неправильном или ошибочном поведении» [19].

Основой для теоретического определения синергетики искусственных когнитивных систем могут стать предложенные Г. Хакеном синергетическая интерпретация когнитивной деятельности [20, с. 243-314], синергетический подход к изучению сложных неравновесных систем [21, с. 36-37] и иерархии неустойчивостей в самоорганизующихся системах и устройствах [22, с. 36-38]. Существенный интерес представляет также предложенная проф. Цветковым В.А. концепция информационной синергетики [23]. Ключевым понятием информационной синергетики являются информационное поле, в котором реальные объекты отражаются в виде информационных моделей, реальные процессы – в информационные отношения. Информационные процессы и отношения в информационном поле взаимодействуют, порождая новые объекты и отношения. Информационные процессы, информационные взаимодействия, информационные отношения определяют динамику и самоорганизацию информационной системы, т.е. ее синергетику.

Специфика существования сознания в виду информационной среды (информационного поля – в терминологии информационной синергетики), в которой формирование информационных объектов не детерминировано, а происходит методом «проб и ошибок» (как в естественных системах), делает теоретическое обоснование синергетики искусственных когнитивных систем необязательным для ее практической реализации (что не ставит под сомнение академическую значимость такого обоснования). В частности, искусственная когнитивная система в виде системы глубинного машинного обучения, реализованная на базе искусственной нейронной сети, в процессе обучения будет самостоятельно выявлять и обобщать сложные зависимости между входными и выходными данными в виде соответствующих коэффициентов связи между нейронами.

Синергетическая способность искусственной когнитивной системы определяется не вложенными в нее алгоритмами обработки данных (такие алгоритмы необходимы, но они могут быть самими элементарными), а имеющими ресурсами, например, количеством используемых нейронов. Нечто подобное имеет место в природе с естественными когнитивными системами: для обретения способности к интеллектуальной деятельности требуется достаточно крупный мозг с большим числом нейронов, вспомогательных и др. клеток. Такой мозг есть у человека, у животных мозг существенно меньше и, соответственно, ниже способности животных к мыслительной деятельности.

Синергетика сознания

В рамках синергетики систему называют «самоорганизующейся, если она без специфического воздействия извне обретает какую-то пространственную, временную или функциональную структуру [21, с. 34]. Это происходит за счет «специфического согласования отдельных частей системы» [там же, с. 52]. В чем же причина этого согласования?

Явление согласования открытых систем достаточно распространено. Оно представляет собой реализацию экстремального принципа, согласно которому система ведет себя таким образом, чтобы некоторая характеризующая ее активность величина принимала экстремальное (минимальное или максимальное) возможное значение. Частными случаями экстремального принципа являются принцип наименьшего действия, принцип Ле Шателье – Брауна и др. Исследования показывают связь экстремального принципа с законом избыточной реакции надсистем, согласно которому «устойчивость открытой системы обеспечивается за счет избыточной реакции надсистемы на активность этой системы» [13]. К сознанию, представляющему собой открытую систему с неравновесной устойчивостью, сохраняющую свою устойчивость за счет ресурсов надсистемы, закон избыточной реакции надсистемы полностью применим.

Практическая реализация указанного согласования в случае сознания представляет собой поэтапную самоорганизацию информационной среды. Процесс формирования и развития сознания (в виде информационной среды с неравновесной устойчивостью) у когнитивной системы можно представить как двухуровневое явление. На уровне физического носителя сознания записываются (в виде изменения его электромагнитных или иных свойств) значимые данные, фиксирующие промежуточные, различающиеся его состояния. Но виртуальном уровне реализуется (в виде информационного процесса) мышление, представляющее собой процесс варьирования данными от носителя сознания и рожденными в процессе мышления (аналогично операциям с данными в оперативной памяти вычислительной машины). Если в процессе мышления формируются значимые данные, то они фиксируется в носителе сознания, переводя его в новое состояние.

Инициация самоорганизации информационной среды осуществляется процессом мышления, который в силу неравновесной устойчивости сознания не останавливается. Процесс мышления можно интерпретировать как процесс варьирования параметрами системы в поиске подходящих для расширенного моделирования реальности. Активация мышления происходит в результате отклонений системы от равновесия вследствие перманентных флуктуаций ее состояния. В отдельных случаях эти флуктуации приводят к изменениям системы, которые фиксируются, что соответствует переходу системы в новое состояние. И. Пригожин связывал такие переходы с нарушениями устойчивости вследствие флуктуаций вблизи точек бифуркации [24, с. 115].

Выводы

Резюмируем проведенное в статье исследование:

1. Понятие искусственных когнитивных систем следует существенно расширить и включить в число когнитивных систем любые многоуровневые системы, осуществляющие функции распознавания и запоминания информации, принятия решений, хранения, объяснения, понимания и производства новых знаний. Определяющим свойством искусственных когнитивных систем является их способность к принятию решений. Важным частными случаями искусственной когнитивной системой является креативный искусственный интеллект.

2. Для сложной искусственной когнитивной системы единственной возможностью реализации сознания является «подбор» решения на основе варьирования параметрами, т.е. многократное решение прямой задачи до тех пор, пока результат не будет соответствовать требуемому.

3. Для «живых» систем, т.е. открытых динамических систем, состояние которых определяется происходящими в них процессами, имеет место реализация механизмов устойчивого неравновесия. Сознание является «живой» системой, определяемой происходящими в ней мыслительными процессами.

4. Предпочтительной для обеспечения децентрализации и быстродействия реализацией искусственной когнитивной системы является система, основанная на использовании искусственных нейронных сетей, организованная согласно акторной или реакторной модели.

5. В настоящее время имеется существенный теоретический задел в области синергетической интерпретации самоорганизации сложных нелинейных неравновесных систем, в том числе информационных и когнитивных. Дальнейшее развитие теоретических знаний в этой области имеет большой академический интерес. При этом результативность практической реализации искусственных когнитивных систем определяется не сложностью используемых в них алгоритмов, а доступными ресурсами (искусственными нейронами и вспомогательными элементами).

6. Явление согласования отдельных частей системы (в том числе, сознания) представляет собой частный случай реализации экстремального принципа, в свою очередь, обусловленного действием закона избыточной реакции надсистем, регламентирующего существования диссипативных систем за счет ресурсов надсистемы.

Библиография
1Философия: Энциклопедический словарь / Под ред. А.А. Ивина. М.: Гардарики, 2004. 1072 с.
2Nirenburg S. Cognitive Systems as Explanatory Artificial Intelligence. In: Ga-la, N., Rapp, R., Bel-Enguix, G. (eds) Language Production, Cognition, and the Lexicon. Text, Speech and Language Technology. 2015. Vol 48. P. 37-49
3Грибков А.А., Зеленский А.А. Общая теория систем и креативный искусственный интеллект // Философия и культура. 2023. №11. С. 32-44
4Грибков А.А., Зеленский А.А. Определение сознания, самосознания и субъектности в рамках информационной концепции // Философия и культура. 2023. №12. С. 1-14
5Макаров А.Д. Алгоритм решения прямой и обратной задачи в контексте методов сравнительного анализа и синтеза / А. Д. Макаров, О. В. Шайдаров // Региональные аспекты управления, экономики и права Северо-западного федерального округа России. 2021. №1(52). С. 61-75
6Сергин В.Я. Сознание и мышление: природа и нейронные механизмы // Открытое образование. 2010. №6. С. 119-132
7 Бауэр Э.С. Теоретическая биология. М.-Л., Изд. ВИЭМ, 1935. 151 с.
8Гленсдорф П., Пригожин И. Термодинамическая теория структуры, устойчивости и флуктуаций. М.: Мир, 1973. 280 с.
9Чупров С.В. Неустойчивое равновесие и устойчивое неравновесие экономической системы. От воззрений Н.Д. Кондратьева к современной парадигме // ЭНСР. 2006. №3 (34). С. 112-120
10Климонтович Ю.Л. Критерии относительной степени упорядоченности открытых систем // УФН. 1996. Том 166. №11. С 1231-1243
11Pross A., Pascal R. The origin of life: what we know, what we can know and what we will never know // Open Biology. 2013. Vol. 3. Issue 3. 120190
12Pascal R., Pross A., Sutherland J.D. Towards an evolutionary theory of the origin of life based on kinetics and thermodynamics // Open Biology. 2013. Vol. 3. Issue 11. 30156
13Грибков А.А. Закон избыточной реакции надсистем и экстремальный принцип // Общество: философия, история, культура. 2023. №10. С. 25-30
14Зеленский А.А., Грибков А.А. Акторное моделирование когнитивных систем реального времени: онтологическое обоснование и программно-математическая реализация // Философская мысль. 2024. №1. С. 1-12
15Burgin M. Systems, Actors and Agents: Operation in a multicomponent environment. 2017, 28 p. URL: arXiv:1711.08319
16Rinaldi L., Torquati M., Mencagli G., Danelutto M., Menga T. Accelerating Actor-based Applications with Parallel Patterns // 27th Euromicro International Conference on Parallel, Distributed and Network-Based Processing. 2019. P. 140-147
17Shah V., Vaz Salles M.A. Reactors: A case for predictable, virtualized actor database systems // International Conference on Management of Data. 2018. P. 259-274
18Lohstroh М., Menard С., Bateni S., Lee E. Toward a Lingua Franca for Deterministic Concurrent Systems // ACM Transactions on Embedded Computing Systems. 2021. Vol. 20. No. 4. P. 1-27
19Ушаков Д.В., Валуева Е.А. Вызовы искусственного интеллекта для психологии / Человек и системы искусственного интеллекта. Под ред. В.А. Лекторского. СПб.: Издательство «Юридический центр», 2022. С. 110
20Хакен Г. Принципы работы головного мозга: Синергетический подход к активности мозга, поведению и когнитивной деятельности. М.: ПЕР СЭ, 2001. 351 с.
21Хакен Г. Информация и самоорганизация: Макроскопический подход к сложным системам. М.: УРСС: ЛЕНАНД, 2014. 320 с.
22Хакен Г. Синергетика: Иерархии неустойчивостей в самоорганизующихся системах и устройствах. М.: Мир, 1985. 424 с.
23Цветков В.Я. Информационная синергетика // Образовательные ресурсы и технологии. 2021. №2 (35). С. 72-78
24Пригожин И. От существующего к возникающему: Время и сложность в физических науках. М.: Наука, Гл. ред. физ.-мат. лит. 1985. 327 с.
References
1Philosophy: Encyclopedic Dictionary (2004) / Edited by A.A. Ivin. Moscow: Gardariki
2. Nirenburg, S. (2015). Cognitive Systems as Explanatory Artificial Intelligence. In: Ga-la, N., Rapp, R., Bel-Enguix, G. (eds) Language Production, Cognition, and the Lexicon. Text, Speech and Language Technology. Vol 48, 37-49.
3. Gribkov, A.A., Zelenskij, A.A. (2023). General theory of systems and creative artificial intelligence. Philosophy and Culture. No. 11, 32-44
4. Gribkov, A.A., Zelenskij, A.A. (2023). Definition of consciousness, self-consciousness and subjectness within the information concept. Philosophy and Culture. No 12, 1-14
5. Makarov, A.D., Shajdarov, O.V. (2021). Algorithm of the direct and inverse problem solution in the context of the comparative analysis and synthesis methods. Regional aspects of management, economy and law of the North-West Federal District of Russia. No (52), 61-75
6. Sergin, V.Y. (2010). Consciousness and thinking: nature and neural mechanisms. Open Education. No 6, 119-132
7 Bauer, E.S. (1935). Theoretical Biology. M.-L.: VIEM
8. Glensdorf, P., Prigozhin I. (1973). Thermodynamic Theory of Structure, Stability and Fluctuations. M.: Mir
9. Chuprov, S.V. (2006). Unstable equilibrium and stable disequilibrium of the economic system. From N.D. Kondratiev's views to the modern paradigm. ENSR. No. 3 (34), 112-120
10. Klimontovich, Y.L. (1996). Criteria of the relative degree of ordering of the open systems. UFN [UVN]. Vol. 166. No 11, 1231-1243
11. Pross, A., Pascal, R. (2013). The origin of life: what we know, what we can know and what we will never know. Open Biology. Vol. 3. Issue 3, 120190
12. Pascal, R., Pross, A., Sutherland, J.D. (2013). Towards an evolutionary theory of the origin of life based on kinetics and thermodynamics. Open Biology. Vol. 3. Issue 11, 30156
13. Gribkov, A.A. (2023). The Law of Overreaction of Supersystems and Extreme Principle. Society: Philosophy, History, Culture. No 10, 25-30
14. Zelenskij, A.A., Gribkov, A.A. (2024). Actor modeling of the real-time cognitive systems: ontological substantiation and program-mathematical realization. Philosophical Thought. No. 1, 1-12
15. Burgin, M. (2017). Systems, Actors and Agents: Operation in a multicomponent environment. URL: arXiv:1711.08319.
16. Rinaldi, L., Torquati, M., Mencagli, G., Danelutto, M., Menga, T. (2019). Accelerating Actor-based Applications with Parallel Patterns. 27th Euromicro International Conference on Parallel, Distributed and Network-Based Processing. 140-147
17. Shah, V., Vaz Salles, M.A. (2018). Reactors: A case for predictable, virtualized actor database systems. International Conference on Management of Data. 259-274
18. Lohstroh, M., Menard S., Bateni S., Lee E. (2021). Toward a Lingua Franca for Deterministic Concurrent Systems. ACM Transactions on Embedded Computing Systems. Vol. 20. No. 4, 1-27
19. Ushakov, D.V., Valueva, E.A. (2022). Challenges of artificial intelligence for psychology / Human being and artificial intelligence systems. Edited by V.A. Lektorsky. SPb.: Publishing house "Legal Center". 110
20. Haken, G. (2001). Principles of the Brain: A Synergetic Approach to Brain Activity, Behavior, and Cognitive Activity] Moscow: PER SE. 243-314
21. Haken, G. (2014). Information and Self-Organization: Macroscopic Approach to Complex Systems. Moscow: URSS: LENAND. 36-37
22. Haken, G. (1985). Synergetics: Hierarchies of Instabilities in Self-Organizing Systems and Devices. Moscow: Mir. 36-38
23. Tsvetkov, V.Y. (2021). Information Synergetics. Educational Resources and Technologies. No. 2 (35), 72-78
24. Prigozhin, I. (1985). From Existing to Emerging: Time and complexity in physical sciences. Moscow: Nauka. 115

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Рецензируемая статья посвящена анализу одной из составляющих проблемы создания искусственных когнитивных систем. По результатам исследования автор предлагает расширить это понятие, включив в его объём «любые многоуровневые системы, осуществляющие функции распознавания и запоминания информации, принятия решений, хранения, объяснения, понимания и производства новых знаний». При этом автор даёт и весьма широкое понимание «сознания», представляя его как «информационную среду, в которой реализуется расширенная модель реальности» (думается, однако, что в этом рабочем определении не получила отражения «субъектность», столь важная для понимания деятельности «живого сознания»). По его мнению, искусственная когнитивная система способна реализовать аналогичные «живому сознанию» действия на основе «подбора» решения, осуществляемого в условиях «варьирования параметрами», «многократного решения прямой задачи до тех пор, пока результат не будет соответствовать требуемому». Рецензент считает возможным представить эти положения читателю, сознавая при этом, что они являются дискуссионными, и вряд ли можно с уверенностью утверждать, что в рецензируемой статье представлено достаточное обоснование для их принятия. Тем не менее, содержание статьи вполне может рассматриваться в качестве основы для ведения дискуссии по заявленной теме. Представляется несколько странным, что относительно небольшое «тело статьи» служит для автора основанием формулировки весьма многочисленных и «сильных» (содержательно нагруженных) выводов. При более глубоком знакомстве с текстом возникает впечатление, что каждая из этих двух его частей «живёт свой жизнью», во всяком случае, трудно согласиться тем, что все предлагаемые выводы в достаточной мере обоснованы предшествующим изложением. Думается, автор мог бы в оставшееся до публикации время либо расширить и конкретизировать основную часть текста, либо сократить или объединить близкие по смыслу выводы, чтобы избежать указанного впечатления диссонанса между указанными двумя частями повествования. Во всяком случае, первое положение выводов непременно следует снять, это банальная констатация, которая не нуждается в научном обосновании. Третье положение повторяет определение, на которое автор ссылается и в основном тексте, так что его также можно снять без ущерба для содержания статьи. Наконец, девятое положение представляется весьма «спекулятивным» по своему характеру, подобного рода высказывания вряд ли вообще могут быть доказаны в границах научного дискурса. Остались в тексте и некоторые «технические» погрешности, главным образом, стилистического характера: «…которая способна …, является область информационных технологий, важной составляющей которых…», «в результате сознание не является чем-то реальным, хотя и формируется как результат…», «…определяют достаточно упрощенно» («достаточность» не может приписываться негативным характеристикам, а «упрощённость» относится к числу именно таких характеристик), и т.п. Несмотря на высказанные замечания, которые автор может учесть в рабочем порядке, считаю возможным рекомендовать опубликовать статью в научном журнале.