Рус Eng Cn Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Право и политика
Правильная ссылка на статью:

«Цифровая легитимация» научного знания: к постановке проблемы

Яник Андрей Александрович

кандидат технических наук

ведущий научный сотрудник, Институт демографических исследований ФНИСЦ РАН

119333, Россия, г. Москва, ул. Фотиевой, 6, корп.1, оф. 1

Yanik Andrey Aleksandrovich

PhD in Technical Science

Leading Research Associate, Institute for Demographic Research of the Federal Center of Theoretical and Applied Sociology of the Russian Academy of Sciences

119333, Russia, g. Moscow, ul. Fotievoi, 6, korp.1, of. 1

cpi_2002_1@yahoo.co.uk
Другие публикации этого автора
 

 

DOI:

10.7256/2454-0706.2020.10.34413

Дата направления статьи в редакцию:

19-11-2020


Дата публикации:

26-11-2020


Аннотация: Появление новых методов научных исследований, основанных на компьютерной обработке больших объемов данных (экспериментальных, статистических, вторичной информации и пр.), привело не только к расширению способов научного познания, но также к изменениям в процессах легитимации новых знаний. В статье рассматриваются отдельные аспекты указанных перемен, ставится вопрос о необходимости более пристального и систематического мониторинга и анализа процессов изменения механизмов легитимации научных знаний, полученных в рамках «науки, основанной на больших данных». В работе используются общенаучные методы и приемы исследования: наблюдение, сравнение, описание, анализ и синтез, абстрагирование, обобщение и другие подходы. Сделан вывод, что в рамках «четвертой парадигмы» науки (Digital-Intensive Science) формируется четвертая стратегия легитимации научных знаний – «цифровая легитимация». Фактически, знание, созданное наукой, основанной на интенсивном использовании данных, легитимируется тем, насколько сложные и масштабные технологии были использованы для его получения. Показана необходимость пристального исследования «цифрового» типа легитимации, поскольку экспансия цифрового способа производства научных результатов содержит ряд рисков. В частности, наряду с накоплением ошибок и снижением качества научной экспертизы, наиболее серьезными рисками являются возможное попадание науки в институциональные ловушки развития, а также углубление существующего системного кризиса.


Ключевые слова:

Четвертая парадигма, Легитимация знаний, Цифровая трансформация, Цифровые технологии, Большие данные, Искусственный интеллект, Научное развитие, Управление наукой, Цифровой мир, Управление рисками

Abstract: Manifestation of the new methods of scientific research based on computational processing of high volumes of data (experimental, statistical, secondary information, etc.) led to broadening of the methods of scientific cognition, as well as to changes in the processes of legitimation of new knowledge. The article examines separate aspects of the indicated changes, and raises a question on the need for more accurate and systematic monitoring and analysis over the processes of changing the mechanisms of legitimation of scientific knowledge, obtained within the framework of “science based on big data”. The conclusion is made that in the context of the Fourth Paradigm (Data-Intensive Science) is being formed the fourth strategy for legitimation of scientific knowledge – “digital legitimation”. The knowledge generated by data-intensive science is legitimized virtually by complexity and scale of technologies used for its acquisition. The author underlines the need for thorough analysis of the “digital” type of legitimation due to the fact that the expansion of digital method for production of scientific results bears a number of risks. Particularly, alongside with accumulation of inaccuracies and deterioration in the quality of scientific examination, most severe risks consist in possibility of science being caught into the institutional development traps, as well as in exacerbation of the existing systemic crisis.


Keywords:

Fourth paradigm, Legitimation of Knowledge, Digital Transformation, Digital Technologies, Big Data, Artificial Intelligence, Science Development, Science Governance, Digital World, Risk Management

Введение

Развитие цифровой революции, проникновение цифровых технологий во все сферы общественной жизни, включая процесс научного познания, сопровождается впечатляющим ростом объема данных, которые циркулируют в виртуальном мире.

Согласно прогнозам аналитической компании IDC в текущем году мировой объем данных составит 59 зеттабайт, а к 2025 году увеличится почти в три раза - до 175 зеттабайт [1]. Зеттабайт – это огромная величина, которую вряд ли можно представить. Если один байт – это один знак, то один зеттабайт равен 1021 байт. Чтобы аудитория могла осознать эту величину, популяризаторы науки приводят сопоставления с разными привычными явлениями: например, если вообразить, что на носителе объемом в 1 Зеттабайт записано видео с высоким разрешением, то его можно было бы смотреть без остановки 63 миллиона лет [2].

Помимо общего увеличения мирового массива цифровых данных, продолжают ускоряться темпы его роста: согласно уже упомянутому отчету IDC, в 2021-2024 гг. будет создано данных больше, чем за тридцать предыдущих лет (1990-2020). Однако доля собственно новых (уникальных, вновь созданных) данных является невысокой – она составляет чуть больше 10% и будет снижаться и дальше [3].

Одновременно с цифровизацией и ростом объема цифровых данных развиваются методы их компьютерной обработки. Технологии Big Data (Big Data - большие, непрерывно генерируемые объемы данных разной степени структурированности [4]), Data Mining, алгоритмы машинного обучения всё больше проникают не только в естественнонаучные исследования, но также в сферу общественных и гуманитарных наук. Происходит цифровая трансформация науки, которая означает качественное изменение всех процессов, связанных с функционированием научной сферы на основе интеграции интеллектуальных данных во все аспекты деятельности. Как следствие, цифровая трансформация процессов научного познания, становление «науки, основанной на интенсивном использовании данных» (Data-Intensive Science), экспансия методов получения «знаний, детерминированных большими данными», приводит не только к изменению парадигмы научного познания (возникновение «четвертой парадигмы» науки [5]), но, как представляется, неизбежно влияет на механизмы легитимации знаний.

Вопрос легитимации научных знаний

Вопрос легитимации научных знаний стал предметом пристального внимания философии науки и в то же время – практики управления научным развитием, начиная с середины ХХ века, и особенно в современный период постмодерна и «постправды», когда произошли глубокие перемены в отношениях между наукой и обществом. Государство стало относиться к науке предельно прагматично, как к «движущей силе» экономического развития, и рассматривать финансирование научной сферы сугубо в качестве инвестиций, которые должны приносить поддающуюся исчислимой оценке отдачу. В таком контексте наука отныне обязана доказывать не только научную достоверность, но и социально-экономическую ценность получаемых знаний. Что касается перемен в отношениях общества, то граждане более не готовы признавать безусловным интеллектуальный авторитет науки и требуют доказательств социетальной полезности труда ученых. Доверие к науке снижается. Одной из причин этого выступает ускоряющееся различие между темпами прироста объема знаний и гораздо большими темпами прироста проблем [6-7].

Еще одна причина – усложнение технологий научного поиска. Даже в парадигме экспериментальной науки, невозможно абсолютно точное воспроизведение сколько-нибудь сложных результатов. Постоянно возрастает не только число интерпретаций, но и количество наблюдаемых версий реальности. Это обстоятельство также ведет к тому, что в эпоху модерна и постмодерна вопрос об объективности знания заменяется вопросом его легитимации (в предположении объективности) [8-11].

Согласно Ж.-Ф. Лиотару, происходит изменение статуса знания, когда сама по себе научная истина начинает вызывать недоверие и на передний план выходят характеристики знания как товара, прежде всего, с точки зрения эффективности использования и стоимости. Исходя из единства науки, этики и политики в эпоху постмодерна, французский философ сравнивал процесс легитимации научного знания с феноменом легитимности в политике: «главная проблема - это правила. Это одна и та же проблема для политиков, а мы все политики - даже не зная, что это значит» [12].

Анализируя трансформацию науки в условиях постмодерна, исследователи отмечали влияние на процессы легитимации научных знаний такого фактора, как нарративизация их представления. Сам Ж.-Ф. Лиотар еще в конце 1970-х годов, демонстрируя различия между научным и нарративным знанием, подчеркивал что последнее «не придает большого значения вопросу своей легитимации» [12, с. 69] и не нуждается в нем, поскольку оно совпадает с «общим образованием», является очевидным. Всякий успешный нарратив убедителен в силу своей эстетической привлекательности: он содержит яркий сюжет, внутреннюю логику и интригу, развивается по канонам драматического жанра, обращается к эмоциям и вызывает ассоциации. Намного сложнее в ситуации постмодерна «приходится» научному знанию, которое «требует выбора одной из языковых игр – денотативной, и исключения других. Критерий приемлемости высказывания – оценка его истинности» [12, с. 66]. Как результат – «сухое» научное знание проигрывает в убедительности нарративам «постправды» и разного рода мифологическим конструктам, которые для обыденного восприятия приобретают силу научной аксиомы и не требуют доказательств [13].

В постоянной конкуренции научного знания и научного дискурса (нарратива) для обоснования научности нужны критерии, устанавливаемые внешними (по отношению к науке) метасубъектами, поэтому и появляется сюжет легитимации. А сама легитимация знания, если говорить предельно кратко, означает, иногда достаточно протяженный, процесс признания и закрепления статуса знания как научного, а не только содержательного (семантического) объяснения. В целом, благодаря Ж.-Ф. Лиотару, известны три стратегии легитимации научного знания: через право определять, что справедливо, через соответствие определенным условиям, и через эффективность (результативность) [14-16].

Представляется, что в условиях глобального технологического перехода и экспансии Data-Intensive Science складывается четвертая стратегия легитимации знания - по факту его получения с помощью сложных цифровых технологий и/или установок «Мегасайенс».

Особенности «четвертой парадигмы» науки

«Четвертой парадигмой» науки называют науку, интенсивно использующую данные (Data-Intensive Science), - новый способ исследований с опорой на большие данные и высокопроизводительные вычисления. Авторы термина назвали новый способ получения научных знаний именно «четвертой парадигмой», поскольку, по их мнению, он пришел на смену трём ранее существовавшим, исторически взаимосвязанным парадигмам - эмпирической, теоретической и вычислительной (основанной на цифровых моделях). Новая парадигма рассматривается как детерминированный данными, основанный на данных (data-driven), ориентированный на извлечение (exploration-centered) скрытых знаний стиль науки, отличающийся масштабным использованием цифровых инфраструктур, IT-технологий и программных средств для того, чтобы обеспечить ученым возможность анализировать данные, управлять и обмениваться ими [5, 17]. Фактически, речь идет о возможностях и перспективах полной «виртуализации» исследований, когда изучаются не реальные эмпирические объекты и даже не их математические модели, а соответствующим образом подготовленные цифровые образы феноменов и процессов, представляющих научный интерес.

В отличие от вычислительной парадигмы науки, где главную роль играют цифровые модели, основу Data-Intensive Science составляют три ключевых понятия:

(1) сбор данных (data capture) – процесс извлечения данных из бумажных или электронных документов с превращением их в машиночитаемые данные;

(2) кураторство данных (data curation) – сложный процесс, связанный с отбором необходимых данных из различных источников, их логической организацией, интеграцией, должным описанием (аннотированием), публикацией, представлением, реализованными таким образом, чтобы обеспечить длительное сохранение ценности данных и их доступность для дальнейшего использования [18];

(3) анализ данных (data analysis).

Таким образом, парадигма Data-Intensive Science, по сути, опирается на представления о некоем универсальном и все время расширяющимся цифровом хранилище (глобальном собрании) данных, которые можно постоянно и различным образом использовать на благо науки, экономики и общества.

В свою очередь, для эффективной поддержки этой деятельности программные приложения должны удовлетворять основным системным требованиям - совместимости, интеграции, автоматизации, воспроизводимости и эффективной обработки данных. Ни одна существующая информационная технология не может одинаково полно удовлетворить всем этим основным условиям, и поэтому также происходит взрывной рост гибридных технологий, включая облачные и параллельные вычисления, для научных процессов такого типа.

«Четвертая парадигма» науки меняет структуру труда и ведет к появлению новых специальностей, связанных с оперированием данными. Постоянно растет потребность не в учёных, владеющих методами научного познания, а в инженерах и практиках, специализирующихся на методах взаимодействия с данными, обладающих необходимыми умениями и навыками их сбора, систематизации и обработки [19]. Фактически, Data-Intensive Science рекрутирует в сферу науки всё больше «цифровых рабочих» (Data Science Workers) и все меньше требует учёных-исследователей в традиционном понимании сути этой профессии.

Еще одна особенность Data-Intensive Science связана с трансформацией традиционных стилей исследований и распространения знаний, что, в частности, вылилось в масштабные проекты «открытого доступа» (Open Access) и «открытой науки» (Open Science) [20-21]. Наконец, Data-Intensive Science позволяет практически каждому гражданину, независимо от возраста и образования, принять участие в научных исследования, «стать ненадолго учёным», коллекционируя и обрабатывая данные, например, при помощи сервисов облачных вычислений, либо предоставив мощности своего компьютера для использования в проектах распределённых (сетевых, коллективных, параллельных) вычислений (grid computing). Государства целенаправленно стимулируют деятельность по вовлечению рядовых граждан в научные исследования, по развитию так называемой «гражданской науки» (Citizen Science), или крауд-науки (Crowd-Science), поскольку считается, что такого рода проекты способны позитивно влиять на отношение общества к профессиональным ученым и науке, развивать интерес молодежи к научному способу познания мира (например: [22]).

Особенности научных результатов Data-Intensive Science

Методы Data-Intensive Science позволяют получать научный результат, который трудно оспорить или оценить, даже обладая профессиональными знаниями в выбранной для анализа предметной области. Зачастую в сфере Data-Intensive Science новое (или условно новое) знание возникает в результате «вторичной переработки» ранее накопленных данных с помощью новых технологий. Нередко полученный на основе использования больших данных результат может представляться почти очевидным: исследователи презентуют некое оригинальное прочтение известного научного сюжета или тонкую причинно-следственную связь, которая ранее оставалась вне поля зрения, возможно, именно в силу своей банальности.

В качестве иллюстрации исследований и результатов такого рода ниже представлено описание двух (из шести) научных статей, получивших в 2018 году приз Коццарелли за качество и оригинальность, который присуждает редакционная коллегия журнала «Труды Национальной академии наук США» (Proceedings of the National Academy of Sciences of the United States of America, PNAS) (см. Таблица 1).

Необходимо отметить, что результат, полученный с помощью разного рода современных технологий и больших данных, как правило, настолько сложен в реализации, что именно эта технологическая сложность становится залогом его научной убедительности. Использование современных цифровых технологий делает исследование, основанное на больших данных, лишь формально доступным для повторения. В реальности он является невоспроизводимым (irreproducible results), поскольку воспроизвести в точности все процедуры и проверить итоги могут лишь те, кто имеет абсолютно такие же технические возможности и ресурсы.

Таблица 1. Иллюстративное представление статей, получивших Cozzarelli Prize 2018 за качество и оригинальность (Proceedings of the National Academy of Sciences of the United States of America)

Область исследования:

Физические и математические науки

Поведенческие и социальные науки

Название статьи

«Машина активного обучения учится разрабатывать новые квантовые эксперименты»

«Люди, институты и творческие мысли в дебатах Французской Революции»

Обоснование актуальности

Дальнейшие развитие квантовой физики требует постановки нетривиальных сложных экспериментов, проектирование которых затруднено и часто противоречит человеческой интуиции.

Структурные механизмы принятия политических решений обычно сводятся к обсуждению конкретных идей, а общие принципы остаются малопонятными; это особенно важно в случае модели демократий и революций.

Основные положения

Представлена автономная модель машинного обучения (projective simulation system), которая учится проектировать новые сложные эксперименты по созданию многомерных квантовых запутанных (entangled) многофотонных состояний, не опираясь на уже накопленные знания.

Проведена машинная обработка транскриптов 40 тыс. дебатов депутатов французской Национальной конституционной ассамблеи (1789—1791) для анализа механизмов возникновения, передачи и разрушения определенных словесных шаблонов (word patterns). Идея – изучить, как личные качества ораторов влияли на восприятие лингвистических паттернов парламентом в целом и, следовательно, на принятие или отвержение тех или иных идей.

Обсуждение и заключение

В своей работе машина активного обучения (система искусственного интеллекта), в частности, обнаруживает оригинальные экспериментальные методы, которые только становятся стандартными в современных квантово-оптических экспериментах; это свойство не требовалось от машины заранее, но сформировалось в процессе обучения.

Машинный анализ лингвистических и риторических компонентов разноречия (heteroglossia) позволил провести оценку структур речи (по критерию расстояния Кульбака-Лейблера) и проследить культурную эволюцию словесных шаблонов в координатах «новизна / быстротечность». Удалось подтвердить различия в манере лидеров левых и правых сил создавать и транслировать определенные словесные шаблоны. Показано, что великие ораторы привлекали внимание публики своими яркими речами, однако меньше влияли на формирование революционного законодательства, чем «институциональные игроки» - депутаты (в основном левые), которые смогли овладеть аппаратом Ассамблеи и получить соответствующие полномочия в законотворчестве. «Полученные количественные результаты согласуются с уже существующими качественными интерпретациями, но также показывают важную динамику обработки информации, которая до сих пор игнорировалась».

Источник

Melnikov A.A, Nautrup H.P., Krenn M., Dunjko V., Tiersch M., Zeilinger A., and Briegel H.J. Active learning machine learns to create new quantum experiments // PNAS. 2018. Vol. 115. № 6. P. 1221-1226

Barron A.T.J, Huang J., Spang R.L., DeDeo S. Individuals, institutions, and innovation in the debates of the French Revolution // PNAS. 2018. Vol. 115. № 18. P. 4607-4612

Фактически, знание, полученное в «четвертой парадигме» науки, оказывается «имманентно легитимным», поскольку общественное (и научное) сознание ставит знак равенства между технологической оснащенностью, сложностью, масштабностью работы и научным качеством. При этом в силу объективной сложности «перепроверки» полученных результатов внешними экспертами формируются новые угрозы в виде получения недостоверного знания.

Так, со всей очевидностью возрастает риск научной ошибки: даже объективные неточности и неопределенности, например, в научной гипотезе, или выбранной методологии буквально «растворяются» и нивелируются самими используемыми технологиями. Попытки проверить, или смоделировать (simulation) зависимость научного вывода от изменения условий требуют того же объема средств, времени и технологий. При этом важно, что время и ресурсы тратятся не после, а до момента получения научного знания. Современные представления о том, что финансовые ресурсы - это не расходы на науку, а инвестиции, которые должны приносить прибыль, не позволяют их использовать на «дублирование» (проверку) результатов, а только на получение нового знания.

Кроме того, попытки снизить указанные риски и проверить правильность результатов, полученных на основе больших данных, по определению, финансово невыгодны и неэффективны, и только уже по этой причине не будут реализованы. Другими словами, если на стадии проектирования исследования были ошибки, либо некорректные допущения, то последующая масштабная и ресурсоемкая деятельность делает практически невозможным их исправление в силу так называемого qwerty-эффекта. С одной стороны, восхищение мощью современных технологий снижает уровень критичности экспертов. С другой стороны, известно, что чем больше ресурсов вложено в не самое эффективное направление развития, тем меньше шансов, что ошибка будет исправлена.

В итоге, экспансия технологий Data-Intensive Science, в том виде как они развиваются сегодня, может привести к накоплению ошибок и снижению прогностических возможностей науки в целом.

Риски «цифровой легитимации» знаний

Существует также общефилософская проблема, связанная с сутью новой, «четвертой парадигмы» науки. Научное мышление неразрывно связано с сомнениями, в том числе в «окончательной достоверности» полученных научных ответов. Суть науки в том, что она всегда сомневается. Однако, как представляется, Data-Intensive Science - это наука, которая не сомневается в полученных результатах, поскольку использование компьютерных технологий, возможностей искусственного интеллекта, а также следование процедурам и стандартам работы с данными формально снимают сомнения в возможности ошибки. Это опасная ситуация.

Как справедливо отмечает Е.Ю. Журавлева, перефразируя и продолжая в контексте идей Т. Розака [23] цитату из поэмы Т.С. Эллиота [24], «Где та мудрость, что мы потеряли в море знания? Где то знание, что мы потеряли в океане информации? Где та информация, которую мы потеряли в потоке данных?» [25]. (Отсылка к известной концепции информационной иерархии DIKW (Data, Information, Knowledge, Wisdom), где каждый новый уровень базируется на предыдущем, добавляя к нему новые свойства).

В этом контексте не удивительно, что формально не требующее какой-то внешней, дополнительной легитимации знание, полученное в рамках науки, основанной на больших данных, и представляющееся достоверным и убедительным уже в силу используемых для его получения цифровых технологий, может не вызывать особого доверия ни у рядовых граждан, ни у специалистов. Одна из причин этого – двойственное отношение общественного сознания к распространению новых цифровых технологий.

Как известно, с течением времени прежние оптимистичные прогнозы по поводу грядущих прорывных открытий и инновационных перспектив, к которым должно привести взрывное распространение систем Big Data, машинного обучения и искусственного интеллекта (всего того, что составляет содержание Data-Intensive Science), становятся менее радужными и более осторожными. Общество испытывает тревогу из-за того, что технологии и связанные с ними перемены развиваются слишком быстро.

Показательными в этом плане были результаты опроса, проведенного в США опроса, в котором сравнивалось восприятие систем искусственного интеллекта (ИИ) их создателями и широкой общественностью [26].

Рисунок 1

Отношение общества и специалистов к возможным рискам,
которые несет внедрение во все сферы жизни систем искусственного интеллекта
(на основе материалов: 2019 Edelman AI Survey Results Report)

Не менее противоречивым является отношение общественности к быстрому развитию новых технологий и в России. Многочисленные социологические обследования российской аудитории показывают, что отношения россиян к новым технологиям остается двойственным. В среднем более половины населения высказывает интерес к современным технологиям (54%), но при этом почти две трети респондентов считают себя плохо информированными в этой области [27]. В отличие от зарубежных респондентов, россияне более оптимистично относятся к перспективам использования искусственного интеллекта: в начале 2020 г. позитивное отношение к применению технологий ИИ высказывали 48% граждан, 31% – нейтральное, 12% - негативное. По мнению граждан, искусственный интеллект должен внедряться, прежде всего, в сферу науки (72%), промышленности (69%), транспорта (66%). Но в целом респонденты не слишком хорошо понимают суть такого рода технологий: менее трети респондентов дали определение ИИ, менее 40% смогли назвать сферы его применения [28]. Опасения в отношении искусственного интеллекта связаны главным образом с ожиданиями разного рода технических сбоев (треть респондентов), угрозами безопасности личных данных (21%), невозможностью предсказать последствия внедрения (17%) [28].

Таким образом, существование заметной доли скептицизма к современным цифровым технологиям с неизбежностью сказывается и на уровне доверия к научным знаниям, получаемым с помощью этих технологий на основе использования больших данных. Надо отметить, что в науке принятия решений уже давно возникли сомнения в ценности подходов, основанных исключительно на данных (data-driven management). Управленческий опыт показывает, что если в основе принятия решений находятся только данные, то итоговая стратегия может оказаться ошибочной [29]. Более эффективным способом считается принятие решений, основанных на информированности (data-informed management). В этом случае данные являются важным, но не единственным фактором. Не менее значима интерпретация данных, видение и понимание смысла полученных данных в широком контексте деятельности субъекта, принимающего решения. Представляется, что такой подход является одним из способов снижения рисков накопления ошибок в Data-Intensive Science.

Выводы

В условиях цифровой трансформации науки возникает четвертая стратегия легитимации научного знания, соответствующая «четвертой парадигме» науки. В отличие от традиционных способов легитимации знаний, требующих признания, либо аргументации логическими выводами и экспертными заключениями, либо убеждения, знание цифровой эпохи легитимируется тем, насколько сложные и масштабные технологии были использованы для его получения.

С одной стороны, эта стратегия недостаточно эффективна, поскольку в обществе существует двойственное отношение к непогрешимости современных технологий. Представляется, что такой скептицизм вполне оправдан. Уверенность в том, что использование больших данных и алгоритмов машинного обучения способно нивелировать разного рода погрешности и ошибки, является довольно рискованной. Как известно, обучающие алгоритмы отражают картину мира и привычные схемы действий своих авторов, а потому ни один искусственный интеллект не может быть «умнее» своего создателя.

С другой стороны, стратегия легитимации знаний, основанная на преимуществах Data-Intensive Science, содержит ряд рисков. Представляется, что наряду с возможным накоплением неисправимых ошибок и снижением качества научной экспертизы, наиболее серьезные из них – это попадание науки в институциональные ловушки развития, а также углубление существующего системного кризиса. Как известно, институциональные ловушки это самый опасный вид неудачной стратегии, детерминированной зависимостью от предшествующего развития [30-31]. Некритичное отношение к «всемогуществу» современных IT-технологий и стремление получить максимальную отдачу от ресурсоемкой научной инфраструктуры могут приводить к выбору решений и проектов, которые представляются выгодными и полезными в краткосрочном периоде. Однако при долгосрочном анализе они могут оказаться не только менее эффективными, чем их альтернативы, но даже стать барьером на пути развития.

Что касается системного кризиса, то он характерен для всей современной науки, переживающей глубокие перемены. Цифровая трансформация системы производства научного знания (в том числе, благодаря постепенной цифровой трансформации социума) формирует ситуацию мировоззренческого кризиса, когда ценности традиционной идеологии науки (формы общественного самосознания) уже поставлены под сомнение, а новые еще не сформировались. Эта ситуация особенно характерна для ценностно-регулятивного аспекта мировоззрения, связанного с механизмами легитимации научного знания [32-35].

Есть и другие обстоятельства. Во-первых, продолжается изменение места и роли науки как социального института в системе общественных отношений. С одной стороны, происходит трансформация внешнего контура, связанного с обоснованием общественной значимости науки, особого статуса и специфических прав учёных. Общество, осознающее себя источником ресурсов для финансирования науки, всё чаще требует доказательств целесообразности расходов на научный бюджет и не готово выдавать карт-бланш учёным без обоснования полезности планируемых научных результатов (концепция ответственных исследований). С другой стороны, трансформируется и внутренняя функция, связанная с регулированием отношений в научном сообществе как привилегированной «цеховой» организации. В последние десятилетия все с большей очевидностью происходит разрушение механизмов академического самоуправления. Принцип Холдейна (Haldane principle) [36], согласно которому решения о том, на что тратить средства на исследования, принимают учёные, а не политики, заменяется внешним управлением процессами содержательного развития науки через механизмы приоритетного финансирования.

Во-вторых, сохраняются проблемы в области целеполагания научного развития. Несмотря на наличие механизмов стратегического планирования, экспансия идей неоменеджериализма [37] и попытки управлять наукой как бизнес-проектом ведут к сокращению горизонта планирования, преобладанию краткосрочных целей с ориентацией на быструю финансовую отдачу. Разрушение традиционных механизмов легитимации научных знаний в условиях цифровой трансформации науки, а также рост востребованности в специалистах, «обслуживающих» данные и обезличивание результатов исследований (от авторов – к обезличенным данным: from people to Data Set) ведут к размыванию престижа и статуса профессии учёного.

Взятые каждый по отдельности, эти обстоятельства никоим образом не угрожают целостности системы производства научного знания и даже в какой-то мере выступают ресурсами развития и обновления науки. Однако их одновременное сочетание содержит риски потери темпов научного развития и угрозу своевременной реализации планов четвертой технологической революции.

Какие могут быть выходы?

Представляется, что необходимо прицельно исследовать особенности легитимации научного знания, получаемого в рамках «четвертой парадигмы» науки, а также неучтенные риски экспансии Data-Intensive Science.

Одновременно необходимо продолжать усилия, нацеленные на восстановление доверия общества к науке, в первую очередь путем дальнейшего «раскрытия» науки обществу, повышения ее транспарентности. Начиная с последней четверти ХХ века, происходит целенаправленное выведение науки из отгороженной разными барьерами от любопытствующего интереса рядовых граждан сферы элитарной деятельности в публичное пространство, где к учёному предъявляется требование быть в постоянном контакте, в равноправном диалоге с государством и обществом, чтобы убедительно обосновывать свою полезность и право на часть общественных ресурсов. Концепт «публичной сферы», предложенный в 1962 г. Ю. Хабермасом [38-39], дает ещё одну возможность для понимания причин, почему исключительное значение науки для общества больше не является аксиомой: на площадке диалога, где субъекты дискуссии имеют равные права, любые устоявшиеся представления (включая авторитет науки) могут стать предметом критического обсуждения.

Хотя выход науки в публичную сферу, сопровождающийся реформированием традиционной «системы производства научного знания», может быть достаточно болезненным процессом, в целом он представляется полезным, поскольку открытый диалог с обществом о проблемах, которые должна решать наука, способствует восстановлению её авторитета и признанию социетальной значимости.

Библиография
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
References
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Предметом исследования статьи выступает новая парадигма производства научных знаний, которая пытается найти решение проблемы его легитимации. Автор анализирует современную ситуацию научного производства, когда наука в полной мере стала равноправной производительной силой, во много лишившись элитарности, свойственной ей в предыдущие эпохи человеческой истории. Оборотной стороной научно-технической революции стала проблемы верификации знаний, которые производит наука, ибо подход к ней становится все более прагматичным – общество и государство согласны платить только за те знания, которые могут принести реальную экономическую отдачу.

Методологией исследования выступает анализ и сравнение старых (условно) и новой парадигм легитимации научных знаний, основанной на широком использовании цифровых технологий. Автор прослеживает историческое развитие указанных парадигм, проводит содержательный анализ из несоответствия современным условиям и проводит анализ четвертой парадигмы науки, или науки, интенсивно использующей данные.

Актуальность статьи подтверждается обращением к теме легитимации научного знания не только со стороны информационных технологий, но и со стороны новой социологии (яркий пример – акторно-сетевая теория Б.Латура), а также попытки применения к данной проблематике инструментария новой институциональной экономики (А.Олейник). В условиях экономического кризиса и последних события, связанных с пандемией, объем инвестиций в научные исследования будет естественным образом сокращаться, по крайней мере, в менее актуальные ее направления, что актуализирует конкуренцию научных проектов за получение финансирования. Одновременно будут ужесточаться критерии верификации даже не столько научности, сколько полезности полученных знаний.

Научная новизна статьи заключается в том, что автор привлекает и анализирует существенный объем исследований, посвященных указанному аспекту лигитимации научного знания, и на этой основе предлагает подходы, которые могли бы если не решить, то указать направления развития складывающейся в производстве научных знаний ситуации. Конечно, представленная модель «четырех парадигм» не может претендовать на полный охват данной проблематики, как мы уже указали выше, а потому исследования должны продолжаться, привлекая альтернативные подходы.

Достоинством статьи является ее хорошая структурированность, насыщенность представленного материала, проработка многочисленных источников. Автор владеет материалом, его выводы ясно сформулированы, тезисы изложены языком, который будет понятен специалисту из областей, не связанных непосредственно с темой больших данных. Это несомненно привлечет к статье дополнительный интерес.

Библиография включает 39 источников, что указывает на тщательную проработку автором представленной темы. Библиография может служить хорошей отправной точкой для дальнейшего изучения темы легитимации научного знания.

Статья достойна публикации. Ее интересно читать, она посвящена актуальной темы, которая носит междисциплинарный характер, поэтому привлечет, как нам представляется, интерес специалистов из различных областей науки.