Рус Eng Cn Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Litera
Правильная ссылка на статью:

Сравнительный анализ генерации заголовков к научным работам на русском и английском языках с использованием больших языковых моделей

Тимохов Алексей Дмитриевич

ORCID: 0000-0003-4626-9120

магистр; кафедра Языкознания и переводоведения; Московский городской педагогический университет

105064, Россия, г. Москва, Малый Казённый пер., 5Б

Timokhov Alexey Dmitrievich

Graduate student, Department of Linguistics and Translation Studies, Moscow City University

5B Maly Kazenniy Lane, Moscow, 105064, Russia

timokhovad@mgpu.ru
Другие публикации этого автора
 

 

DOI:

10.25136/2409-8698.2025.5.74592

EDN:

QFSGSS

Дата направления статьи в редакцию:

24-05-2025


Дата публикации:

31-05-2025


Аннотация: В работе представлен сравнительный анализ эффективности и особенностей использования больших языковых моделей (ChatGPT, Gemini, Mistral, Llama) для автоматизированной генерации заголовков к научным публикациям на русском и английском языках. В рамках исследования изучаются специфика функционирования моделей как в лингвистическом, так и в межъязыковом аспектах, а также их способность учитывать требования различных академических традиций. Эмпирическую базу составляет корпус из 100 статей гуманитарного и технического профиля, опубликованных в 2018–2023 годах, что позволяет анализировать работу моделей на материалах, отражающих широкий спектр тематик и жанровых особенностей. Особое внимание уделяется выявлению различий между моделями как в стилистических и структурных предпочтениях, так и в особенностях межъязыковой адаптации. Экспериментальная процедура включала тестирование моделей в режиме zero-shot промптинга с использованием унифицированных промптов, сформулированных на основе краткого содержания оригинальных работ. Оценка сгенерированных заголовков проводилась по критериям степени детализации, терминологической точности и соответствия жанровым нормам академического дискурса. Полученные результаты показывают, что рассмотренные модели в целом способны генерировать заголовки, отвечающие базовым жанровым требованиям, однако демонстрируют выраженные различия в уровне информативности, степени детализации и стилистических особенностях, придерживаясь различных стратегий генерации. В работе впервые проводится межъязыковое сопоставление возможностей различных больших языковых моделей в контексте академического дискурса и предлагается обращение к новому типу материала для лингвистических исследований — тексту, созданному искусственным интеллектом, а не порождённым непосредственно человеком. Несмотря на то, что большие языковые модели демонстрируют значительный потенциал в качестве инструмента для генерации предварительных вариантов заголовков научных публикаций, отмеченные различия в степени информативности и стилистике требуют критического подхода: сгенерированные тексты следует рассматривать как основу, требующую редакторской доработки для полного соответствия академическим нормам.


Ключевые слова:

академический дискурс, большие языковые модели, генерация текста, заголовок научной статьи, малоформатные тексты, искусственный интеллект, обработка естественного языка, автоматическая генерация текста, zero-shot промптинг, написание научного исследования

Abstract: This study evaluates the performance and nuances of several large language models — ChatGPT, Gemini, Mistral, and Llama — focusing on their capacity to generate academic article titles in both Russian and English. The analysis explores how these models perform in terms of linguistic quality and cross-linguistic adaptation, as well as their adherence to established conventions of different academic traditions. Drawing on a diverse corpus of 100 academic articles published between 2018 and 2023 across humanities and technical fields in both languages, the research examines the ability of these models to handle a wide spectrum of subject matter and genre-specific demands. Special attention is given to identifying differences between models, both in terms of stylistic and structural preferences and in the context of cross-linguistic adaptation when generating titles in Russian and English. Employing unified zero-shot prompts based on concise summaries of the original articles, the models generated alternative titles, which were subsequently analysed according to their level of detail, terminological accuracy, and stylistic conformity to academic conventions. The findings indicate that all tested models are generally capable of producing relevant and genre-appropriate titles; however, they exhibit clear differences in informativeness, granularity, and stylistic nuance, each demonstrating its own generation strategy. This paper offers the first comparative multilingual analysis of several large language models within the context of academic discourse, introducing the linguistic community and academia to an emerging type of research material — AI-generated texts, as opposed to conventionally authored texts produced directly by humans. Despite demonstrating considerable potential as preliminary aids in generating academic titles, variations in informativeness and style among models highlight the necessity for careful editorial oversight. AI-generated titles should thus be viewed as initial drafts that require refinement to ensure full compliance with academic standards.


Keywords:

academic discourse, large language models, text generation, academic title, short texts, artificial intelligence, natural language processing, automated text generation, zero-shot prompting, academic writing

Введение

Стремительное развитие технологий искусственного интеллекта (ИИ) в последнее десятилетие, особенно в области генеративного ИИ, существенно меняет подходы к обработке и созданию текстов. Современные большие языковые модели, обученные на обширных корпусах данных, демонстрируют способность создавать связные тексты на основе кратких запросов на естественном языке, что открывает перспективы их использования при подготовке научных публикаций [21]. Уже предпринимаются попытки задействовать подобные модели для автоматической генерации отдельных фрагментов научных статей, однако данные эксперименты также сопровождаются дискуссиями о пользе и возможных рисках такого подхода [20, 21]. Ряд исследователей рассматривает генеративный ИИ как эффективный вспомогательный инструмент, способный значительно оптимизировать подготовку статьи к публикации на разных этапах [10, 12], тогда как другие указывают на потенциальные и уже существующие проблемы достоверности и соблюдения академической этики, связанные с использованием больших языковых моделей в научной деятельности [17, 19]. Несмотря на неоднозначность оценок, очевидно, что потенциал ИИ в научно-исследовательской деятельности чрезвычайно высок, а задача объективной оценки возможностей и ограничений таких моделей остаётся актуальной и требует тщательного изучения.

Важным элементом научной статьи является заголовок, который выполняет информационную и номинативную функции, обозначая содержание работы и привлекая внимание целевой аудитории. Эффективный заголовок должен быть одновременно кратким и информативным, отражать тему исследования и соответствовать стилевым и жанровым нормам конкретного академического дискурса. При этом требования к оформлению заголовков могут существенно различаться в русскоязычной и англоязычной научных традициях — подобные различия могут представлять особую сложность для больших языковых моделей, преимущественно обученных на англоязычных корпусах, и проявляться в стилистических и структурных отклонениях при автоматической генерации русскоязычных заголовков.

Несмотря на растущий интерес к использованию генеративного ИИ при написании научных работ, отмечается сравнительно малое количество публикаций, посвящённых данной проблеме [12, 18, 19], а существующие исследования рассматривают преимущественно англоязычные публикации и моделями семейства GPT, не уделяя при этом достаточного внимания рассмотрению иных языков и моделей. Настоящая работа призвана восполнить указанный пробел, предлагая сравнительный анализ возможностей различных общедоступных больших языковых моделей (ChatGPT, Gemini, Mistral, Llama) при генерации заголовков к научным публикациям на русском и английском языках с помощью zero-shot промптинга.

Цель исследования заключается в выявлении и сравнении характерных особенностей генерации заголовков научных статей на русском и английском языках, а также оценке соответствия полученных результатов стилистическим и жанровым нормам академического дискурса. Практическая значимость работы обусловлена возможностью использования её выводов в качестве рекомендаций для исследователей, стремящихся эффективно задействовать генеративные языковые модели при подготовке научных текстов.

Заголовок как малый жанр академического дискурса

Академический дискурс понимается как совокупность коммуникативных практик научного сообщества, включающая письменные и устные жанры, предназначенные для передачи нового знания в институциональных рамках [2, 3, 8]. Для письменного академического дискурса характерны черты функционального научного стиля, такие как объективность изложения, логичность и аргументированность, стандартизированная структура текстов и соблюдение определённых языковых норм (терминологичность, отсутствие разговорной лексики, регламентированная риторика и др.) [1, 3]. Несмотря на универсальность научной рациональности, национальные академические традиции накладывают свой отпечаток на стиль и организацию научных текстов.

Так, англоязычный академический дискурс исторически приобрёл статус глобального стандарта научного общения [13] и характеризуется жёстко регламентированной структурой изложения, тенденцией к лаконичности, информационной насыщенности, а также нацеленности на новизну и применимость результатов исследования, что связано с высокой конкуренцией в рамках международного научного сообщества, требующей от исследователя демонстрации преимуществ и ценности предлагаемого исследования по сравнению с существующими работами [5, 9]. В свою очередь, данное требование обусловливает характерную для англоязычного академического дискурса ориентацию на читателя, что достигается за счёт структурной предсказуемости, акцента на представлении результатов, а также общей «прозрачности» исследования. Напротив, русскоязычный академический дискурс описывается исследователями как преимущественно ориентированный на автора: автор самостоятельно определяет объём и способ подачи информации, полагаясь на интуитивное членение текста и подготовленность читателя. Для русскоязычного академического дискурса характерны высокая формальность и обезличенность изложения, допускается импликация части содержания без явного разъяснения — предполагается, что заинтересованный читатель сумеет восполнить недостающие звенья через обращение к фоновым знаниям или сторонним источникам [6]. Тем не менее, в последние годы под влиянием международных стандартов наблюдается сближение русскоязычного академического дискурса с англоязычными жанровыми традициями [9].

Заголовок научной работы относится к категории малоформатных текстов в рамках академического дискурса, выполняющих вспомогательную функцию. К малоформатным текстам относят вторичные тексты, создаваемые на основе полного научного произведения и передающие его содержание в сжатом, свёрнутом виде [7]. Помимо заголовков, к малоформатным текстам относятся аннотации, резюме, тезисы и другие краткие формы представления исследования. Заголовок научной работы традиционно рассматривается как максимально сжатое наименование исследования, призванное сообщить основную тему и фокус работы. Заголовок при этом является наиболее кратким из подобных жанров: его объем обычно не превышает одной строки текста, а содержание ограничивается ключевыми концептами работы. Основная функция заголовка — информативная: он обозначает предмет исследования и тем самым обеспечивает первичную идентификацию работы. Заголовок должен максимально точно указывать на проблему или тему, рассматриваемую в статье, возможно — на объект и (реже) метод или результат, если это увеличивает информативность заголовка. Требования к заголовку обусловлены общими принципами научного стиля и коммуникативной достаточности: он должен быть кратким, понятным для целевой аудитории и корректно отражающим содержание статьи. В то же время заголовок должен включать в себя основные ключевые слова исследования (термины, обозначающие главный объект или процесс), что повышает его индексируемость в научно-информационных системах. Жанровая специфика заголовка заключается также в его фиксированном положении — в самом начале статьи — и единственности: у научной публикации может быть только один заголовок, поэтому он концентрирует в себе максимум содержания при минимальном объёме текста. Таким образом, заголовок выступает своеобразным компромиссом между краткостью и информативностью, а его создание требует учёта как лингвостилистических норм, так и жанровых конвенций академического дискурса.

Применение больших языковых моделей для генерации научного текста

Большие языковые модели — это класc нейросетевых моделей, предназначенных для обработки и генерации текстов, отличительной чертой которых является значительный объём параметров и обучение на масштабных корпусах текстовых данных. Благодаря современным архитектурным решениям и объёмам обучения большие языковые модели обладают способностью решать широкий круг задач по работе с естественным языком без специализированной донастройки под каждую задачу. Иными словами, одна и та же предобученная языковая модель может применяться для перевода, ответа на вопросы, суммаризации или написания текстов и т.д., получая для этого лишь соответствующий запрос (инструкцию) на естественном языке (в противовес программным языкам).

Прорыв в области языкового моделирования связан с появлением архитектуры «трансформера», предложенной в работе Attention Is All You Need [11]. Трансформер реализует механизм самовнимания (от англ. self-attention), позволяющий модели эффективно учитывать контекст на любых расстояниях в тексте и обрабатывать слова параллельно. На основе трансформеров были построены архитектуры, давшие начало современным большим языковым моделям. В частности, модель BERT от Google представляет собой двунаправленный трансформер-энкодер, обучающийся восстанавливать пропущенные слова по контексту слева и справа [14]. Модели типа GPT (Generative Pre-Trained Transformer), разработанные OpenAI, используют трансформер-декодер и авторегрессионный принцип генерации текста: они предсказывают каждое следующее слово на основе всех предыдущих. Такой подход оказался особенно успешен для порождения связного текста, что и демонстрируют языковые модели вроде ChatGPT. Существенной особенностью данных моделей является способность продолжать текст в заданном стиле: получив начальную фразу или инструкцию, они статистически достраивают наиболее вероятное продолжение, обучаясь на множестве примеров человеческой речи. Исследования показывают, что с ростом размера модели её языковые способности качественно возрастают — вплоть до появления зачатков комплексного рассуждения и обобщения знаний при достижении определённого масштаба параметров [15].

Вместе с тем применение генеративного ИИ при написании научных работ сопряжено с рядом ограничений. Исследователи отмечают, что тексты, генерируемые языковыми моделями, могут содержать фактически неверную или искажённую информацию, требовать стилистической доработки и адаптации под требования конкретного издания или научной области [21, 22]. Активно обсуждаются также и этические аспекты использования ИИ — в частности, подчёркивается необходимость прозрачности в указании вклада модели и опасения относительно возможного снижения качества научных работ при чрезмерном использовании ИИ [21].

Взаимодействие пользователя с большой языковой моделью происходит через формулирование запроса на естественном языке, который получил название промпт (от англ. prompt — подсказка). Промпт позволяет не только задать модели задачу, но также указать контекст и стиль требуемого ответа — формулировка запроса во многом определяет качество результата генерации. В отличие от традиционного программирования, где поведение системы задаётся соответствующим кодом, промптинг предполагает «программирование примером» — пользователю достаточно описать, что требуется от модели, а та сама генерирует решение, опираясь на вероятностные закономерности языка и накопленные знания. Данный подход породил целый ряд стратегий эффективного составления запросов для достижения нужного результата [16]. В контексте данной работы интерес представляет генерация посредством zero-shot промптинга, при котором модель получает содержательную формулировку задания (предложить заголовок по краткому описанию исследования) без предоставления ожидаемых примеров генерации, что позволяет оценить базовые способности модели на основе её предобученных знаний и языковой интуиции, а также даёт возможность выявить «академическую компетентность» конкретной модели.

Материал исследования и отбор моделей

Для проведения эксперимента были выбраны общедоступные большие языковые модели, соответствующие следующим критериям:

  • Уникальность архитектуры, исключающая дублирование используемых алгоритмов и позволяющая охватить широкий спектр различных систем;
  • Доступность без оплаты и/или необходимости оформления подписки;
  • Наличие пользовательского веб-интерфейса без необходимости (до)настройки модели;
  • Возможность получения ответа на русском и английском языках в академическом стиле для проведения анализа в многоязычном контексте;
  • Отсутствие существенных ограничений на объём сообщений для включения достаточной информации о публикациях.

Из начальной выборки, в которую вошли модели Azure (от Microsoft), ChatGPT (от OpenAI), Gemini (от Google), Claude (от Anthropic), Mistral (от Mistral AI), Llama (от Meta), Pi (от Infection AI), Grok (от xAI), были отобраны четыре модели: ChatGPT (модель ChatGPT-4o mini), Gemini (модель Gemini 1.0 Pro), Mistral (модель Mistral Large) и Llama (модель Llama 3 80B). Данные модели различаются архитектурой и объёмом обучающих данных, что предположительно оказывает влияние на стиль и качество генерируемых ими текстов.

Материалом исследования послужил корпус из 100 случайно отобранных научных публикаций, находящихся в открытом доступе и поровну представляющих русскоязычный и англоязычный академический дискурс. В выборку вошли статьи по различным исследовательским направлениям (гуманитарным и техническим), что обеспечило разнообразие тематик для проверки универсальности моделей и/или возможных дисциплинарных предпочтений. Отобранные исследования, а также полученные в ходе работы результаты генерации, составили «нейрокорпуса», доступный для ознакомления и верификации полученных результатов [4].

Процедура генерации и анализа

Для создания равных условий всем моделям предъявлялся идентичный запрос на соответствующем языке, содержащий указание на тематику работы на основе текста краткого текста аннотации, составленной автором (авторами) оригинальной работы, и просьбу предложить несколько вариантов заголовков. Так, для русскоязычных работ каждая модель получала следующее сообщение: «Я пишу научно-исследовательскую работу, посвящённую [краткое описание темы]. Предложи мне 3 варианта названия данной статьи на русском языке.» Аналогично для англоязычных работ: "I'm in the process of writing a research paper on [краткое описание темы]. Can you suggest three possible titles I could use for my study?" Краткое описание темы формулировалось на основе аннотации статьи таким образом, чтобы отразить основную проблематику исследования. Так как генерация выполнялась посредством zero-shot промптинга, то есть без предоставления примеров правильных или исходных заголовков, важным условием было отсутствие в запросе прямого указания желательного формата ответа — модели самостоятельно определяли стиль и формат предлагаемых вариантов. Каждый диалог производился в отдельном чате, чтобы исключить влияние предыдущих ответов на поведение моделей. В результате по каждой исходной работе было получено 12 альтернативных заголовков (по 3 от каждой из 4 моделей), а общий объем сгенерированных заголовков составил 600 русскоязычных и 600 англоязычных наименований.

Каждый сгенерированный заголовок впоследствии оценивался на соответствие теме и содержанию статьи, жанровым требованиям (лаконичность, наличие ключевых терминов), а также наличие отклонений (например, фактические искажения, употребление некорректной лексики или стилистические отклонения). Сопоставление результатов проводилось в двух разрезах: между моделями (выявление типичных черт и отличий в стилях заголовков, предложенных каждой моделью) и между языками (сравнение характерных особенностей генерирования заголовков на русском и английском). Полученные результаты генерации позволяют выявить различные стилистические тенденции, характерные для каждой из моделей.

Отметим, что указание отобранных работ как собственных в данных запросах приводится для моделирования реальной ситуации, в которой авторы рассматриваемых работ могли бы обратиться к языковым моделям на этапе подготовки статей к публикации, а также для упрощения запроса и процесса генерации, не являясь претензией на авторство оригинальных публикаций.

Сравнительный анализ результатов генерации

Все рассмотренные модели успешно справляются с задачей генерации трёх вариантов заголовков для каждого запроса, при этом предлагаемые варианты в целом отличаются достаточной степенью стилистического соответствия жанровым и дискурсивным требованиям и верно отражают содержание отобранных работ. Тем не менее степень соответствия сгенерированных заголовков требованиям академического дискурса варьируется в зависимости от модели и языка. В целом для англоязычных статей модели предлагают варианты, ближе подходящие к оригинальным заголовкам по стилю и содержанию, тогда как для русскоязычных работ отмечается обратная тенденция: предлагаемые варианты, хотя и соответствуют называемым исследованиям, лишь частично соотносятся с авторскими заголовками. Вместе с этим генерируемые заголовки в ряде случаев отличаются от исходных бОльшим объёмом: модели часто прибегают к использованию более распространённых заголовков, включающих не только указание темы исследования, а дополнительные формулировки, содержащие указания на второстепенные аспекты исследования. В частности, это обусловлено стремлением моделей к использованию двухчастной структуры заголовка и включению второстепенной информацию, необходимой для её построения, при генерации на обоих языках. В Таблице 1 приведены примеры результатов генерации заголовков, демонстрирующие ориентацию моделей ChatGPT и Mistral на детализацию заголовков с акцентом на методах и объектах (авторах и произведениях) исследования, Gemini — на использование образных формулировок («миры фэнтези») и более простую структуру, Llama — на облегчённые формулировки при умеренной степени детализации (см. Таблицу 1). Подобная тенденция отражает стремление моделей предоставить пользователю как можно больше информации несмотря на её нерелевантность для заголовка. Обратная ситуация наблюдается реже: в отдельных случаях модели, напротив, способны предложить более короткий и ёмкий заголовок по сравнению с авторским, устраняя избыточные подробности оригинала. Подобные случаи характерны преимущественно для содержательных англоязычных заголовков — для данных работ модели успешно предлагают более короткие варианты, содержательно соответствующие авторским заголовкам. Примеры генерации в Таблице 2 демонстрируют, как модели предлагают более лаконичные формулировки для работы с объёмным оригинальном заголовком, сохраняя ключевую информацию об исследовании при опущении вспомогательных деталей (например, тип исследования, источник полученных данных и география проведения), что позволяет добится большей компактности (см. Таблицу 2).

ChatGPT

Модифицированная классификация фэнтези-произведений: Новые подходы и примеры анализа

Переосмысленная классификация фэнтези: Сравнительный анализ произведений Толкиена и Мартина

Классификация фэнтези: Обновлённый подход и его применение к произведениям Толкиена и Мартина

Gemini

Модифицированная классификация фэнтези-произведений: теоретические основы и практическая апробация

К совершенствованию классификации фэнтези: новый подход и его апробация

Миры фэнтези: разработка усовершенствованной классификации

Mistral

Модифицированная классификация фэнтези-произведений: анализ на примере «Властелина колец» и «Игры престолов»

Совершенствование классификации фэнтези: исследование на основе произведений Толкина и Мартина

Новый подход к классификации фэнтези: анализ известных произведений и предложение модифицированной системы

Llama

Классификация фэнтези-произведений: проблемы и перспективы

Модифицированная классификация фэнтези-произведений: теоретические основы и практическая апробация

Классификация фэнтези: поиск оптимальной модели на основе анализа классических произведений

Таблица 1. Примеры заголовков, предложенных языковыми моделями к оригинальной работе «Проблема классификации фэнтези-произведений».

ChatGPT

Bilingualism and Speech, Language, and Communication Needs: Insights from Speech and Language Therapists in Singapore and the UK

Navigating Bilingualism: Speech and Language Therapists' Perspectives and Practices for Families with Speech, Language, and Communication Needs

Bridging Languages: Understanding Speech and Language Therapists' Views on Bilingualism and Its Impact on Children with SLCN

Gemini

Bilingualism and SLCN: A Comparative Study of Speech and Language Therapists' Opinions and Practices in Singapore and the UK

Supporting Bilingual Families with SLCN: A Survey of Speech and Language Therapists' Knowledge and Practices

Bridging the Gap: The Role of Speech and Language Therapists in Promoting Bilingualism for Children with SLCN

Mistral

Speech and Language Therapists' Perspectives on Bilingualism: A Cross-Cultural Comparison Between Singapore and the UK

Bilingualism and Speech, Language, and Communication Needs: Exploring the Opinions and Practices of Speech and Language Therapists in Singapore and the UK

Promoting Evidence-Based Advice for Bilingual Families: Insights from Speech and Language Therapists in Singapore and the UK

Llama

Bilingualism in Speech and Language Therapy: A Comparative Study of SLT Opinions and Practices in Singapore and the UK

SLTs' Perspectives on Bilingualism: Variability in Opinions and Practices with Bilingual Families in Singapore and the UK

Bridging the Gap: An Exploratory Study of Speech and Language Therapists' Opinions and Practices on Bilingualism in Singapore and the UK

Таблица 2. Примеры заголовков, предложенных языковыми моделями к оригинальной работе "A survey of speech and language therapists' opinions of bilingualism and the advice they give to bilingual families of children with speech, language and communication needs – a comparative study between the UK and Singapore".

Несмотря на ряд общих черт в подходах всех моделей, проведённый анализ показывает, что каждая из четырёх моделей придерживается собственной стратегии при генерации заголовков. ChatGPT последовательно демонстрирует высокий уровень детализации и старается отразить наибольший объём информации на основе описания исследования. Заголовки от ChatGPT, вне зависимости от языка генерации, зачастую состоят из двух частей (разделяемых с помощью двоеточия) или распространённой конструкции, включающей ключевые термины, объекты или отдельные аспекты исследования, упомянутые в запросе. Примеры, представленные в Таблице 3, иллюстрируют стремление ChatGPT перечислить максимально возможное количество информации: модель указывает как основную тему исследования, так и дополнительные категории, что усложняет заголовок и, в частности, связано с используемой моделью структурой построения заголовка (см. Таблицу 3). Подобный подход обеспечивает высокую информативность и точность, однако в некоторых случаях может приводить к перегруженности заголовков второстепенными деталями. Тем не менее, несмотря на высокую степень детализации, предлагаемые ChatGPT заголовки в целом не превышают объём заголовков, предлагаемых другими моделями, а при генерации заголовков к работам по техническим дисциплинам в ряде случаев не превышают и объём авторского заголовка (см. Таблицу 4). Таким образом, стиль ChatGPT можно охарактеризовать как информативный, однако потенциально избыточный.

ChatGPT

Сложности межкультурного общения: Анализ коммуникативного поведения французских, японских и русских туристов

Культурный интеллект в межкультурной коммуникации: Проблемы и условия успешного взаимодействия между французами, японцами и русскими

Взаимодействие представителей высококонтекстных культур: Изучение коммуникативных трудностей и путей их преодоления на примере французов, японцев и русских

Таблица 3. Примеры заголовков, предложенных моделью ChatGPT к оригинальной работе «Как русскому понять француза и японца, или условия успешности межкультурного общения».

ChatGPT

Разработка единых дидактических принципов для создания эффективных онлайн-платформ в образовательных учреждениях

Унифицированная информационная экосреда учебного заведения: проблемы, принципы и практическое применение

Кросс-платформенные системы управления IT-лабораториями: дидактические принципы и методы интеграции в образовательный процесс

Таблица 4. Примеры заголовков, предложенных моделью ChatGPT к оригинальной работе «Концепция дидактических принципов формирования информационной образовательной экосреды учебного заведения».

Модель Gemini, напротив, демонстрирует склонность к генерации более кратких и целостных, нераспространённых формулировок, придерживаясь умеренного уровня детализации. Модель также стремится к воспроизведению двухчастной структуры построения заголовка, однако включает в его основу преимущественно ключевые аспекты темы, опуская при этом менее релевантную второстепенную информацию. Характерной особенностью Gemini по сравнению с остальными моделями выступает творческий подход к подаче материала: модель частотно использует метафорические обороты и конструкции для выражения ключевой цели исследования, стараясь при этом придерживаться нейтральных формулировок в рамках научного стиля. Анализ предлагаемых заголовков показывает, что модель стремится воспроизводить распространённые в англоязычной научной практике клише, адаптируя их под особенности конкретного исследования. Тем не менее характер предлагаемых формулировок в ряде случаев сближает их с научно-популярным стилем, особенно при генерации на русском языке, для которого не характерны подобные модели построения заголовков. Так, примеры, приведённые в Таблице 5, демонстрируют реализацию творческого подхода посредством использования метафорического описания явления эвфемизации («новые маски старых слов»), а также риторического вопроса о торжестве политкорректности — обе формулировки выходят за рамки привычного академического тона, однако являются допустимыми в рамках научной коммуникации (см. Таблицу 5). Аналогичной стратегии модель придерживается и при генерации на английском языке, предлагая заголовки с ярко выраженными образными оборотами для работ как по гуманитарным, так и по техническим направлениям (см. Таблицы 6, 7). Общий стиль Gemini можно определить как ясный и строго выдержанный в терминологическом отношении, однако обладающий выраженными элементами научно-популярной стилистики.

Gemini

Эвфемизация в современном английском языке: влияние политкорректности на репрезентацию чувствительных тем

Новые маски старых слов: эвфемизация и политкорректность в современном англоязычном дискурсе

Эволюция эвфемизмов в английском языке: торжество политкорректности?

Таблица 5. Примеры заголовков, предложенных моделью Gemini к оригинальной работе «Эвфемизация речи на современном этапе развития английского языка».

Gemini

Metaphorical Feast: A Comparative Analysis of Monomodal and Multimodal Metaphors in Jordanian and American Food Advertisements on Facebook

Beyond the Bite: The Persuasive Power of Metaphors in Food Advertising on Facebook

Cultural Palette: A Cross-Cultural Study of Metaphorical Representations in Food Advertising

Таблица 6. Примеры заголовков, предложенных моделью Gemini к оригинальной работе "The use of monomodal and multimodal metaphors in advertising Jordanian and American food products on Facebook: A comparative study".

Gemini

Beyond the Algorithm: Power Imbalances and Algorithmic Bias in Healthcare

From the Margins to the Mainstream: Leveraging Collective Action to Address Algorithmic Bias in Healthcare

Reimagining AI in Healthcare: A Call for Power Redistribution and Ethical Tech Development

Таблица 7. Примеры заголовков, предложенных моделью Gemini к оригинальной работе "Algorithmic bias in artificial intelligence is a problem—And the root issue is power".

Модель Mistral занимает промежуточную позицию, и по уровню детализации её подход соотносится с подходом ChatGPT: модель старается включить в заголовок максимальное количество информации о содержании статьи и придерживается аналогичной структуры построения заголовка, однако в целом избегает избыточной конкретики. Например, Mistral реже, чем ChatGPT, раскрывает дополнительные аспекты рассматриваемой в исследовании проблемы или объекты исследования, ограничиваясь наиболее значимыми или обобщая их, а также прибегает к менее распространённым структурам. Так, в примерах, представленных в Таблице 8, модель включает все компоненты исследования, содержащиеся в исходном запросе, придерживаясь достаточно высокого уровня детализации, однако предлагает менее содержательные структуры, чем модели ChatGPT и Llama (см. Таблицу 8). Таким образом, стиль Mistral можно охарактеризовать как умеренно детализированный и информативный.

ChatGPT

Иерархическая структура применения чат-ботов в автоматизации построения индивидуальных образовательных траекторий

Особенности использования чат-ботов в образовательном процессе: Формирование иерархии методов автоматизации индивидуальных образовательных траекторий

Автоматизация образовательных траекторий с помощью чат-ботов: Иерархическая классификация и специфика применения

Mistral

Иерархическая структура применения чат-ботов для автоматизации индивидуальных образовательных траекторий

Технологии чат-ботов в образовательном процессе: иерархия и автоматизация индивидуальных траекторий

Специфика использования чат-ботов для автоматизации построения индивидуальных образовательных траекторий: иерархический подход

Llama

Использование чат-ботов в образовательном процессе: иерархическая структура применений и возможности автоматизации индивидуальных образовательных траекторий

Чат-боты в образовании: построение индивидуальных образовательных траекторий и организационно-педагогические решения

Автоматизация индивидуальных образовательных траекторий с помощью чат-ботов: иерархическая структура применений и перспективы развития

Таблица 8. Примеры заголовков, предложенных моделями ChatGPT, Mistral и Llama к оригинальной работе «Иерархическая структура способов применения чат-ботов при автоматизации построения индивидуальных образовательных траекторий».

Модель Llama придерживается смешанного подхода и ориентируется на ясность изложения при соблюдении основных особенностей научного стиля, демонстрируя при этом различный уровень детализации в зависимости от конкретного исследования. В большинстве рассмотренных случаев заголовки, предлагаемые Llama, используют характерную для англоязычного дискурса структуру при генерации на обоих языках и представляют собой распространённую формулировку основных аспектов работы или рассматриваемой проблемы, что приводит к перегруженности заголовков (см. Таблицу 9). В то же время предлагаемые моделью варианты в ряде случаев отличаются лаконичностью и краткостью по сравнению с вариантами других моделей (см. Таблицы 1, 10). Несмотря на различия в подходах, модель не допускает смысловых искажений при генерации, однако особенности её стиля обусловливают необходимость тщательной проверки предлагаемых вариантов с точки зрения полноты передачи информации.

Llama

Текстовый принт как лингвокультурное явление: декоративная надпись на футболке как инструмент продвижения социальных, культурных и политических идей

Продвигающий текст: роль декоративной надписи на футболке в формировании социального, культурного и политического дискурса

Лингвокультурный потенциал текстового принта: декоративная надпись на футболке как маркетинговый инструмент продвижения идей

Таблица 9. Примеры заголовков, предложенных моделью Llama к оригинальной работе «Англоязычный текстовый принт как продвигающий текст».

ChatGPT

Учебно-методические аспекты формирования математической грамотности: Практико-ориентированные задачи и их роль в обучении

Методология развития математической грамотности у обучающихся: Анализ практических задач и их применение

Формирование математической грамотности в образовательном процессе: Примеры и подходы к практико-ориентированным задачам

Gemini

Формирование математической грамотности обучающихся через решение практико-ориентированных задач: опыт и перспективы

Математика для жизни: развитие математической грамотности на основе практических задач

Практико-ориентированные задачи как средство формирования математической грамотности: теоретические основы и методические рекомендации

Mistral

Учебно-методические аспекты формирования математической грамотности у обучающихся: практико-ориентированные задачи и их роль в образовательном процессе

Формирование математической грамотности через практико-ориентированные задачи: методические подходы и их эффективность

Практико-ориентированные задачи как инструмент формирования математической грамотности у обучающихся: учебно-методические аспекты и примеры

Llama

Математическая грамотность в современной школе: проблемы и пути решения

Формирование математической грамотности у обучающихся: теоретические и практические аспекты

Математическая грамотность как ключевой компонент качества образования: проблемы и перспективы развития

Таблица 10. Примеры заголовков, предложенных языковыми моделями к оригинальной работе «Математическое моделирование — важнейший этап формирования математической грамотности в условиях запросов современного общества».

При анализе русскоязычных и англоязычных заголовков также представляется возможным выделить ряд характерных различий. Как указывалось, для английских статей модели чаще предлагают заголовки, близкие к оригинальным: отмечаются случаи, когда как минимум один из трёх сгенерированных заголовков демонстрирует значительное сходство с исходным вариантом автора работы, что свидетельствует о том, что модели успешно интерпретируют особенности исследования (см. Таблицу 11). Более того, отмечается, что модели проявляют более творческий подход в генерации отдельных фрагментов английских заголовков, что не выявляется при генерации на русском языке. Так, ChatGPT сохраняет строгую академическую структуру и придерживается устоявшихся в академическом дискурса оборотов (например, "Bridging the Gap" или подобные сочетания, частотно используемые авторами англоязычных работ), тогда как общая направленность на творческий подход и метафоричность, выявленные в заголовках, предлагаемых Gemini на русском языке, сохраняются и в английским вариантах. Вместе с тем смещение на метафоричность проявляется и в заголовках, предлагаемых Mistral, однако данная модель в меньшей степени прибегает к использованию художественных образов и опирается преимущественно на использование аллитерации на основе ключевой проблемы исследования ("Subtitling Swearing", "Mood and Meaning", "Declaratives of Division", "Comparative Creativity"). В то же время творческий подход к генерации проявляется и в отдельных заголовках, предлагаемых Llama: модель также добавляет художественные фрагменты с использованием метафоры и аллитерации, что не отмечалось при генерации на русском языке ("Coherence through Inference", "Savoring the Metaphor", "Feeding the Imagination", "Tasting the Difference", "Lost in Translation", "The Creative Paradox", "The Dual-Edged Sword of Artificial Intelligence", "Beyond the Binary", "Scalpel Meets Algorithm"). Предположительно, подобный сдвиг связан с различиями между русскоязычным и англоязычным академическим дискурсом, для которого в большей степени характерно использование популярных формулировок, чем для работ на русском языке, а выявленная разница позволяет говорить о том, что все языковые модели (кроме Gemini) учитывают данную разницу.

ChatGPT

Harnessing the Power of Situated AI: A Framework for Enhancing Human-Machine Relationships in Competitive Organizations

Beyond Automation: Redefining Cohesion, Autonomy, and Equality in AI-Driven Competitive Advantages

Situating AI in Organizations: A New Framework for Anchoring, Bounding, and Calibrating Human-Machine Collaboration

Gemini

Situating AI: A Framework for Human-Machine Cohesion, Autonomy, and Equality

Beyond the Hype: A Human-Centered Approach to AI Competitive Advantage

Anchoring, Bounding, and Calibrating: A New Paradigm for AI-Driven Organizational Transformation

Mistral

Situating AI in Organizations: The Role of Cohesion, Autonomy, and Equality in Realizing AI-Driven Competitive Advantages

Beyond Algorithms: Anchoring, Bounding, and Calibrating AI for Organizational Success in the Digital Economy

A New Paradigm for AI Integration: How Cohesion, Autonomy, and Equality Can Unlock AI's Full Potential in Organizations

Llama

Rethinking Situated AI: A Framework for Unlocking Human-Machine Synergies in the Digital Economy

Situating AI in the Organization: A Tripartite Framework for Cohesion, Autonomy, and Equality

From Anchoring to Calibrating: A Situated AI Framework for Harnessing AI-Driven Competitive Advantages

Таблица 11. Примеры заголовков, предложенных языковыми моделями к оригинальной работе "Situating artificial intelligence in organization: A human-machine relationship perspective".

В то же время для работ на русском языке модели редко воспроизводят авторские формулировки — практически все предложенные варианты существенно отличаются от оригинальных заголовков по структуре. Как представляется, данное различие обусловлено стремлением моделей к построению заголовков к работам на русском языке по шаблонам, типичным преимущественно для английского языка (что в свою очередь обусловлено преобладающим объёмом обучающих данных на английском языке), а также вариативностью способов построения заголовка научной работы на русском языке. Так, например, двухчастная структура заголовка с двоеточием, разделяющим заголовок на две части, используется моделями значительно чаще, чем это характерно для оригинальных публикаций на русском языке, не отражая таким образом полный спектр возможных вариантов заголовков. Так, 555 заголовков, сгенерированных на русском языке, построены в соответствии с двухчастной структурой, при этом одинаковую склонность к её использованию демонстрируют все модели: 143 заголовка от ChatGPT, 142 от Gemini, 127 от Mistral и 143 от Llama, тогда как в оригинальных заголовках статей она встречается лишь 3 раза. Вместе с тем типичные для русскоязычного академического дискурса конструкции типа «‎К вопросу о…» «Проблема…», «А как Б» и синтаксические конструкции со вставками типа «(на материале…)», встречающиеся в том числе в заголовках отобранных в ходе исследованиях работ, воспроизводятся моделями лишь в единичных случаях. Так, из числа всех сгенерированных на русском языке заголовков конструкция «К вопросу о…» лишь единожды предлагается моделями ChatGPT и Gemini и не встречается среди вариантов, предложенных другими моделями:

- «Интертекстуальные стратегии в русской прозе XXI века: к вопросу о функциональном значении (ChatGPT, к оригинальной работе «Интертекстуальность художественного дискурса как реализация культурно-интеграционных процессов»)»;

- «К вопросу о формировании единого информационного пространства в образовании: стандарты и архитектура (Gemini, к оригинальной работе «Стандарты цифровой образовательной среды и архитектура данных в образовании»)».

Конструкция «Проблема…» также используется всего один раз и предлагается только моделью Gemini к оригинальной работе «Концепция дидактических принципов формирования информационной образовательной экосреды учебного заведения»:

- «Единая информационная экосистема учебного заведения: проблема унификации и пути ее решения на примере IT-лаборатории».

Впрочем, в отдельных случаях модели успешно демонстрируют способность к адаптации предлагаемых заголовков на русском языке и отказываются от двухчастной структуры заголовка, предлагая цельные утверждения, в большей степени соответствующие русскоязычному академическому дискурсу. Так, конструкция «А как Б» встречается значительно чаще и используется всеми моделями: ChatGPT и Mistral используют её в 10 и 12 предложенных заголовках соответственно, тогда как Gemini и Llama прибегают к её употреблению в два раза чаще, предлагая 23 и 22 заголовка с подобной структурой соответственно и демонстрируя вкупе с отмеченными выше особенностями большее стремление к соответствию нормам русскоязычного академического дискурса.

Наряду с этим, в предлагаемых моделями вариантах на русском языке отмечаются частотные нарушения в соблюдении буквенного регистра, связанные с использованием заглавных букв для первого слова после двоеточия. Так, ChatGPT следует данному правилу примерно в половине случаев, используя как прописные, так и строчные буквы для первых слов. Вместе с тем для одной из публикаций ChatGPT были предложены заголовки, полностью воспроизводящие английский заголовочный регистр с использованием прописных букв для всех самостоятельных слов, что нехарактерно для русского языка и недопустимо в рамках академической коммуникации. В то же время Mistral чаще соблюдает нормы русской стилистики, хотя воспроизведение английской капитализации также встречается во многих из предложенных заголовков. Примечательно, однако, что модели Gemini и Llama наиболее последовательно соблюдают правила русского языка и предлагают заголовки с нерелевантной капитализацией лишь для двух и одной работ соответственно.

Результаты

Полученные результаты свидетельствуют о том, что большие языковые модели могут быть использованы в качестве инструментов для генерации заголовков научных работ. Все четыре модели продемонстрировали способность верно интерпретировать исходный запрос и формулировать на его основе релевантные заголовки, соответствующие теме исследования и отвечающие основным жанровым требованиям научного заголовка. Вместе с тем сравнительный анализ позволил выявить характерные особенности генерации каждой модели, а также выделить ряд недостатков.

В первую очередь, модели демонстрируют различия в степени детализации, информативности и образности заголовков. ChatGPT характеризуется высоким уровнем детализации и терминологической точности, стремясь максимально полно отразить содержание исследований, однако в отдельных случаях включает второстепенные детали, что может требовать дополнительной доработки посредством исключения наименее релевантных аспектов. При генерации на русском языке модель демонстрирует определённую адаптивность, избегая образных конструкций, характерных для её англоязычных текстов, однако в целом следует англоязычной модели построения заголовков и часто допускает ошибки в капитализации, не соответствующей русскоязычной традиции. Отмечается, что в ряде случаев предлагаемые моделями заголовки отличаются высоким объёмом за счёт воспроизведения двухчастной структуры заголовка и включению второстепенной информацию, необходимой для её построения. Для заголовков Gemini свойственна умеренная детализация с акцентом на новизне и значимости работы, сопровождмаемая выраженной склонностью к использованию метафорических и образных формулировок, более характерных для научно-популярного дискурса. Тем не менее, для достижения полного соответствия требованиям академического дискурса предложенные Gemini заголовки нередко требуют стилистической доработки. Модель также склонна воспроизводить двухчастные конструкции заголовков, типичные для англоязычной традиции, хотя в ряде случаев удачно адаптирует формулировки к особенностям русскоязычного научного стиля. Mistral, аналогично ChatGPT, демонстрирует высокий уровень информативности и детализации, акцентируя внимание на наиболее значимых аспектах исследования и стараясь избегать явной перегрузки заголовков второстепенной информацией. Вместе с этим модель последовательно применяет англоязычную двухчастную структуру заголовков независимо от языка генерации, однако использование образных конструкций наблюдается только при генерации на английском языке. Модель Llama реализует смешанный подход, в котором отсутствуют чётко выраженные стилистические или структурные предпочтения. В большинстве случаев модель генерирует подробные и терминологически точные заголовки, однако также предлагает значительно более лаконичные варианты, сохраняя при этом достаточный уровень информативности. Несмотря на частое использование англоязычной двухчастной структуры, Llama периодически демонстрирует успешную адаптацию формулировок к нормам русского языка, а также избегает характерных для других моделей ошибок в капитализации. При этом при генерации на русском языке Llama чаще остальных моделей прибегает к использованию структур, характерных для русскоязычного дискурса, хотя и прибегает преимущественно к использованию двухчастных заголовков.

Помимо этого, обнаружено явное влияние языковой специфики на результаты генерации. Русскоязычным авторам, применяющим большие языковые модели, необходимо учитывать, что модели склонны воспроизводить шаблоны, характерные для англоязычной академической традиции, но менее релевантные для научных работ, написанных на русском языке. В частности, это касается модели организации заголовка, а также ряда различий в капитализации: предлагаемые языковыми моделями заголовки, хотя и не содержат содержательных искажений, могут требовать замены на конструкции, более релевантные в рамках русскоязычного академического дискурса. При генерации на английском языке модели, напротив, качественно воспроизводят формат научного заголовка, что, предположительно, объясняется преобладанием английского языка в обучающих данных моделей. Таким образом, при генерации на русском языке предлагаемые заголовки нуждаются в дополнительной правке для приведения их в соответствие с устоявшейся практикой и принятыми моделями построения заголовков.

В ходе анализа также выявлено незначительное влияние специфики научной области на результат генерации. Так, для статей по гуманитарным дисциплинам модели предлагают более стилистически разнородные заголовки, тогда как для работ по техническим дисциплинам наблюдается меньшая вариативность: все модели предлагают достаточно схожие заголовки, в ряде случаев близкие или совпадающие с оригинальными, что может объясняться более стандартизированным языком технических исследований и однозначностью терминологии.

Наконец, подчеркнём, что в рамках настоящего исследования генерация заголовков рассматривался исключительно посредством zero-shot промптинга, нацеленного на выявление базового поведения моделей и не предполагающего использования более продвинутых методов промптинга. Тем не менее, очевидно, что качество генерируемых языковыми моделями заголовков можно повысить с помощью более продвинутых техник, в частности, с помощью итеративного промптинга, позволяющего пользователю проанализировать первоначальные варианты и продолжить взаимодействие с моделью, указав на выявленные недостатки исходного результата и попросив об их устранении. В рамках проведённого эксперимента была проведена ограниченная проверка итеративного промптинга, и предварительные наблюдения демонстрируют, что дополнительные подсказки позволяют устранить часть отмеченных недостатков. Так, модели успешно исправляют неверный регистр в заголовках на русском языке и избавляются от нерелевантных деталей, сохраняя при этом присущие им сильные стороны (см. Таблицы 12, 13). Подробное рассмотрение эффективности более сложных методов промптинга представляется перспективным направлением дальнейших исследований.

ChatGPT

Эволюция терминов в кинематографе и анимации: Анализ переосмысления лексических единиц 'cartoon' и 'gag'

От карикатуры к кинематографу: Историко-лингвистическое исследование терминов 'cartoon' и 'gag'

Терминологизация в анимации и кино: История и лексические трансформации 'cartoon' и 'gag'

Gemini

Эволюция терминов: переосмысление и терминологизация лексических единиц "cartoon" и "gag" в кинематографе и анимации

От комикса к кино: трансформация лексики "cartoon" и "gag" в терминологии кинематографа и анимации

"Cartoon" и "gag": лингвистический анализ терминологизации в контексте кинематографа и анимации

Mistral

Эволюция терминов 'cartoon' и 'gag' в контексте кинематографа и анимации: Исторический и лингвистический анализ

Переосмысление и терминологизация лексических единиц 'cartoon' и 'gag' в сфере анимации и кино

История и лингвистика внедрения терминов 'cartoon' и 'gag' в терминологическую систему кинематографа и анимации

Llama

Эволюция терминологии в анимации: лингвистический анализ лексических единиц "cartoon" и "gag"

Лингвистические и исторические аспекты интеграции "cartoon" и "gag" в терминологическую систему кинематографа и анимации

Переосмысление и терминологизация в анимации: исследование лексических единиц "cartoon" и "gag" в контексте кинематографического и анимационного дискурса

Таблица 12. Примеры исходных заголовков, предложенных языковыми моделями к оригинальной работе «К вопросу о переосмыслении и терминологизации лексических единиц cartoon, gag».

ChatGPT

Эволюция терминов 'cartoon' и 'gag' в кинематографе и анимации

Историко-лингвистическое переосмысление терминов 'cartoon' и 'gag' в кино и анимации

Терминологизация лексем 'cartoon' и 'gag' в сфере кинематографа и анимации

Gemini

Терминологическая эволюция лексем "cartoon" и "gag" в дискурсе кинематографии и анимации

Лингвистический анализ процессов терминологизации лексических единиц "cartoon" и "gag" в кинематографической и анимационной терминосистемах

Динамика семантической трансформации и терминологического закрепления лексем "cartoon" и "gag" в контексте кинематографа и анимации

Mistral

Эволюция терминов 'cartoon' и 'gag' в кинематографе и анимации

Переосмысление и терминологизация 'cartoon' и 'gag' в анимации и кино

Исторический и лингвистический анализ терминов 'cartoon' и 'gag'

Llama

Лингвистическая эволюция терминов "cartoon" и "gag" в контексте кинематографа и анимации

Интеграция "cartoon" и "gag" в терминологическую систему: исторический и лингвистический анализ

Терминологизация в анимации: лингвистическое исследование лексических единиц "cartoon" и "gag"

Таблица 13. Примеры обновлённых заголовков, предложенных языковыми моделями к оригинальной работе «К вопросу о переосмыслении и терминологизации лексических единиц cartoon, gag».

В совокупности, полученные результаты демонстрируют значительный потенциал генеративного ИИ в качестве вспомогательного инструмента исследователя. Использование нескольких моделей и сопоставление предложенных ими заголовков может быть продуктивной стратегией: получив различные варианты, автор вправе выбрать наиболее удачный или самостоятельно сформулировать окончательный вариант, комбинируя удачные решения разных моделей, что позволяет ускорить процесс создания эффективного заголовка при соблюдении ответственного подхода и понимании специфики каждой модели.

Заключение

Проведённое исследование подтверждает, что большие языковые модели способны генерировать заголовки к научным публикациям на русском и английском языках при корректной постановке задачи. Полученные с помощью zero-shot промптинга варианты заголовков в большинстве случаев соответствуют тематике и в целом удовлетворяют жанровым требованиям академического дискурса. В то же время сравнительный анализ показал, что каждая модель обладает собственным «стилем» генерации: так, ChatGPT и Mistral стремятся максимально полно отразить содержание исходной работы, Gemini предлагает более сжатые и нередко креативные формулировки, Llama стремится к созданию более коротких и простых (с терминологической точки зрения) заголовков. К преимуществам ChatGPT следует отнести терминологическую точность и высокую степень информативности и академичности, однако данная модель демонстрирует склонность к перенасыщению заголовков второстепенными аспектами. Mistral также придерживается высокого уровня информативности, однако в ряде случаев избегает излишней конкретики; вместе с тем предлагаемые данной моделью формулировки могут отличаться менее высокой степенью терминологичности. Gemini последовательно предлагает связные и лёгкие для восприятия заголовки, акцентируя внимание на значимости и новизне исследования, но часто выходит за рамки строго академического тона за счёт образности и широкого использования метафорических формулировок. Llama создаёт лаконичные заголовки, акцентируя внимание на основной цели работы, однако для модели характерны терминологические и стилистические упрощения, которые приводят к отклонениям от норм академического дискурса. Кроме того, выявлено, что при генерации на русском языке модели демонстрируют влияние норм англоязычного дискурса, проявляющееся в воспроизведении двухчастной формы заголовков и неправомерной капитализации слов, что свидетельствует о недостаточной степени адаптации больших языковых моделей к особенностям русского языка.

В заключение, проведённое исследование подтверждает, что большие языковые модели способны выступать эффективными помощниками при подготовке научно-исследовательской работы к публикации, генерируя варианты заголовков, соответствующие конкретному исследованию. Тем не менее, именно исследователь решает, какой из предложенных языковыми моделями вариантов действительно отражает его работу и отвечает всем критериям научной коммуникации. Использование генеративного ИИ требует понимания его специфики и ограничений, однако соблюдение этого условия открывает новые возможности для оптимизации процесса написания научных работ.

Библиография
1. Вахтерова Е. В. Исследование академического дискурса в отечественной и зарубежной лингвистике // Глобус. 2021. № 1 (58). С. 22-26. EDN: JNENZS. DOI: 10.52013/2658-5197-58-1-7.
2. Зубкова Л. И. Конститутивные признаки академического дискурса // Известия ВГПУ. 2009. № 5. С. 28-32. EDN: LPAWPB.
3. Попова Т. П. Некоторые особенности академического дискурса // Известия ВГПУ. 2015. № 7 (102). С. 85-91. EDN: UZBHWJ.
4. Тимохов А. Д. Нейрокорпус заголовков и аннотаций к научным публикациям на русском и английском языках [Электронный ресурс]. URL: https://drive.google.com/drive/u/1/folders/1yHUHT1mwRo42HxMOBXfuCYOU1TQ01noP (дата обращения: 19.05.2025).
5. Хутыз И. П. Особенности конструирования академического дискурса: ориентация на читателя / автора // Вестник Майкопского государственного технологического университета. 2015. № 1. С. 77-82. EDN: TRZRRJ.
6. Хутыз И. П. Лингвокультурные традиции в пространстве академического дискурса: особенности конструирования // Вестник Московского городского педагогического университета. Серия: Филология. Теория языка. Языковое образование. 2016. № 3 (23). С. 86-93. EDN: WLSIZF.
7. Черкунова М. В. Малоформатный текст: к определению понятия (теоретические аспекты) // Известия Саратовского университета. Новая серия. Серия Филология. Журналистика. 2022. № 3. С. 248-253. EDN: BTSHTN. DOI: 10.18500/1817-7115-2022-22-3-248-253.
8. Шпенюк И. Е. Научно-академический дискурс как институциональный тип дискурса // Известия Гомельского государственного университета им. Ф. Скорины. 2016. № 4 (97). С. 132-137. EDN: WWIFGV.
9. Шутова Н. М., Померанец И. Б. Аннотация к научной статье на английском и русском языках: сопоставительный анализ и проблемы перевода // Филологические науки. Вопросы теории и практики. 2020. № 10. С. 318-324. EDN: GUGPZI. DOI: 10.30853/filnauki.2020.10.62.
10. Altmäe S., Sola-Leyva A., Salumets A. Artificial intelligence in scientific writing: a friend or a foe? // Reproductive BioMedicine Online. 2023. V. 47. No 1. Pp. 3-9. DOI: 10.1016/j.rbmo.2023.04.009. EDN: VWHRLW.
11. Attention Is All You Need / Vaswani A., Shazeer N., Parmar N. et al. // Advances in Neural Information Processing Systems. 2017. V. 30. Pp. 5998-6008.
12. Benichou L. The role of using ChatGPT AI in writing medical scientific articles // Journal of Stomatology, Oral and Maxillofacial Surgery. 2023. V. 124. No 5. Pp. 1-5. DOI: 10.1016/j.jormas.2023.101456. EDN: FUZCSY.
13. Bennett K. English Academic Discourse: Hegemonic Status and Implications for Translation (with particular reference to Portuguese). Lambert Academic Publishing. 2012. 284 p.
14. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding / Devlin J., Chang M.-W., Lee K. et al. // Proceedings of NAACL-HLT 2019. 2019. Pp. 4171-4186.
15. Brown T., Mann B., Ryder N. et al. Language Models are Few-Shot Learners // Advances in Neural Information Processing Systems. 2020. V. 33. Pp. 1877-1901.
16. Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in NLP / Liu P., Yuan W., Fu J. et al. // ACM Computing Surveys. 2021. V. 55. No 9. Pp. 1-35.
17. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? / Bender E. M., Gebru T., McMillan-Major A. et al. // Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. 2021. Pp. 610-623.
18. On ChatGPT and beyond: How generative artificial intelligence may affect research, teaching, and practice / Peres R., Schreier M., Schweidel D. et al. // International Journal of Research in Marketing. 2023. V. 40. No 2. Pp. 269-275. DOI: 10.1016/j.ijresmar.2023.03.001. EDN: LMXQWJ.
19. Özcan A., Polat S. Artificial Intelligence and Chat Bots in Academic Research // Journal of Research in Social Sciences and Language. 2023. V. 3. No 2. Pp. 81-90.
20. The Role of Artificial Intelligence in Scientific Writing / Kammer M. N., Gomila P., Vumbaco D. J. et al. // Journal of Clinical Case Reports, Medical Images and Health Sciences. 2023. V. 3. No 3. Pp. 1-6. DOI: 10.55920/jcrmhs.2023.03.001116. EDN: XTXHCE.
21. Salvagno M., Taccone F. S., Gerli A. G. Can artificial intelligence help for scientific writing? // Critical Care. 2023. V. 27. No 75. Pp. 1-5.
22. Opinion Paper: “So what if ChatGPT wrote it?” Multidisciplinary perspectives on opportunities, challenges and implications of generative conversational AI for research, practice and policy / Dwivedi Y. K., Kshetri N., Hughes L. et al. // International Journal of Information Management. 2023. V. 71. P. 102642. DOI: 10.1016/j.ijinfomgt.2023.102642. EDN: GFXYHE.
References
1. Vakhtyrova, E. V. (2021). The study of academic discourse in domestic and foreign linguistics. Globus, 1, 22-26. https://doi.org/10.52013/2658-5197-58-1-7
2. Zubkova, L. I. (2009). Constitutive features of academic discourse. Izvestiya VGPU, 5, 28-32.
3. Popova, T. P. (2015). Some features of academic discourse. Izvestiya VGPU, 7, 85-91.
4. Timokhov, A. D. (n.d.). Neurocorpus of titles and annotations to scientific publications in Russian and English [Electronic resource]. Retrieved May 19, 2025, from https://drive.google.com/drive/u/1/folders/1yHUHT1mwRo42HxMOBXfuCYOU1TQ01noP
5. Khutyz, I. P. (2015). Features of constructing academic discourse: Orientation towards the reader/author. Bulletin of the Maykop State Technological University, 1, 77-82.
6. Khutyz, I. P. (2016). Linguocultural traditions in the space of academic discourse: Features of construction. Bulletin of the Moscow City Pedagogical University. Series: Philology. Language Theory. Language Education, 3, 86-93.
7. Cherkunova, M. V. (2022). Small-format text: Towards defining the concept (theoretical aspects). Izvestiya of Saratov University. New Series. Philology. Journalism, 3, 248-253. https://doi.org/10.18500/1817-7115-2022-22-3-248-253
8. Shpenyuk, I. E. (2016). Scientific-academic discourse as an institutional type of discourse. Izvestiya of Gomel State University named after F. Skorina, 4, 132-137.
9. Shutova, N. M., & Pomeranets, I. B. (2020). Abstract for a scientific article in English and Russian: Comparative analysis and translation problems. Philological Sciences. Questions of Theory and Practice, 10, 318-324. https://doi.org/10.30853/filnauki.2020.10.62
10. Altmäe, S., Sola-Leyva, A., & Salumets, A. (2023). Artificial intelligence in scientific writing: A friend or a foe? Reproductive BioMedicine Online, 47(1), 3-9. https://doi.org/10.1016/j.rbmo.2023.04.009
11. Vaswani, A., Shazeer, N., Parmar, N., et al. (2017). Attention is all you need. In Advances in Neural Information Processing Systems (Vol. 30, pp. 5998-6008).
12. Benichou, L. (2023). The role of using ChatGPT AI in writing medical scientific articles. Journal of Stomatology, Oral and Maxillofacial Surgery, 124(5), 1-5. https://doi.org/10.1016/j.jormas.2023.101456
13. Bennett, K. (2012). English academic discourse: Hegemonic status and implications for translation (with particular reference to Portuguese). Lambert Academic Publishing.
14. Devlin, J., Chang, M.-W., Lee, K., et al. (2019). BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of NAACL-HLT 2019 (pp. 4171-4186).
15. Brown, T., Mann, B., Ryder, N., et al. (2020). Language models are few-shot learners. In Advances in Neural Information Processing Systems (Vol. 33, pp. 1877-1901).
16. Liu, P., Yuan, W., Fu, J., et al. (2021). Pre-train, prompt, and predict: A systematic survey of prompting methods in NLP. ACM Computing Surveys, 55(9), 1-35.
17. Bender, E. M., Gebru, T., McMillan-Major, A., et al. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp. 610-623).
18. Peres, R., Schreier, M., Schweidel, D., et al. (2023). On ChatGPT and beyond: How generative artificial intelligence may affect research, teaching, and practice. International Journal of Research in Marketing, 40(2), 269-275. https://doi.org/10.1016/j.ijresmar.2023.03.001
19. Özcan, A., & Polat, S. (2023). Artificial intelligence and chat bots in academic research. Journal of Research in Social Sciences and Language, 3(2), 81-90.
20. Kammer, M. N., Gomila, P., Vumbaco, D. J., et al. (2023). The role of artificial intelligence in scientific writing. Journal of Clinical Case Reports, Medical Images and Health Sciences, 3(3), 1-6. https://doi.org/10.55920/jcrmhs.2023.03.001116
21. Salvagno, M., Taccone, F. S., & Gerli, A. G. (2023). Can artificial intelligence help for scientific writing? Critical Care, 27(75), 1-5.
22. Dwivedi, Y. K., Kshetri, N., Hughes, L., et al. (2023). Opinion paper: “So what if ChatGPT wrote it?” Multidisciplinary perspectives on opportunities, challenges and implications of generative conversational AI for research, practice and policy. International Journal of Information Management, 71, 102642. https://doi.org/10.1016/j.ijinfomgt.2023.102642

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

В рецензируемой статье представлен сравнительный анализ возможностей различных общедоступных больших языковых моделей (ChatGPT, Gemini, Mistral, Llama) при генерации заголовков к научным публикациям на русском и английском языках с помощью zero-shot промптинга. Актуальность работы определяется стремительным развитием технологий искусственного интеллекта (ИИ), особенно в области генеративного ИИ, однако, «несмотря на растущий интерес к использованию генеративного ИИ при написании научных работ, отмечается сравнительно малое количество публикаций, посвящённых данной проблеме, а существующие исследования рассматривают преимущественно англоязычные публикации и модели семейства GPT, не уделяя при этом достаточного внимания рассмотрению иных языков и моделей».
Эмпирической базой исследования послужил корпус из 100 случайно отобранных научных публикаций, находящихся в открытом доступе и поровну представляющих русскоязычный и англоязычный академический дискурс. В выборку вошли статьи по различным исследовательским направлениям (гуманитарным и техническим), что обеспечило разнообразие тематик для проверки универсальности моделей и/или возможных дисциплинарных предпочтений. Выбор больших языковых моделей ChatGPT (модель ChatGPT-4o mini), Gemini (модель Gemini 1.0 Pro), Mistral (модель Mistral Large) и Llama (модель Llama 3 80B) обусловлен их соответствием необходимым критериям (уникальность архитектуры; доступность без оплаты и/или необходимости оформления подписки; наличие пользовательского веб-интерфейса без необходимости (до)настройки модели; возможность получения ответа на русском и английском языках в академическом стиле для проведения анализа в многоязычном контексте; отсутствие существенных ограничений на объём сообщений для включения достаточной информации о публикациях).
Теоретической основой работы выступили труды российских и зарубежных ученых, посвященные различным аспектам научно-академического дискурса; сопоставительному анализу и проблемам перевода аннотации к научной статье; использованию технологий искусственного интеллекта в научных исследованиях и в подготовке научных публикаций и др. Библиография статьи насчитывает 22 источника, представляется достаточной для обобщения и анализа теоретического аспекта изучаемой проблематики, соответствует специфике изучаемого предмета, содержательным требованиям и находит отражение на страницах рукописи. Все цитаты ученых сопровождаются авторскими комментариями. Следует отметить высокую актуальность использованных источников, что еще раз свидетельствует о повышенном интересе научного сообщества к изучаемому вопросу.
Методология исследования определена поставленной целью («выявить и сравнить характерные особенности генерации заголовков научных статей на русском и английском языках, а также оценить соответствие полученных результатов стилистическим и жанровым нормам академического дискурса») и задачами и носит комплексный характер: применяются общенаучные методы анализа и синтеза, обобщения; описательный метод; дискурсивный и сравнительно-сопоставительный методы; социокультурный анализ, эксперимент и др.
В ходе анализа теоретического материала и его практического обоснования рассматриваются теоретические аспекты академического дискурса и заголовка как малого жанра академического дискурса, изучаются особенности применения больших языковых моделей для генерации научного текста, описывается экспериментальная часть исследования, выявляются характерные особенности генерации каждой модели и выделяются их недостатки; формулируются обоснованные выводы («большие языковые модели способны генерировать заголовки к научным публикациям на русском и английском языках при корректной постановке задачи»; «каждая модель обладает собственным «стилем» генерации»; «использование нескольких моделей и сопоставление предложенных ими заголовков может быть продуктивной стратегией: получив различные варианты, автор вправе выбрать наиболее удачный или самостоятельно сформулировать окончательный вариант, комбинируя удачные решения разных моделей, что позволяет ускорить процесс создания эффективного заголовка при соблюдении ответственного подхода и понимании специфики каждой модели» и др.).
Таким образом, автор(ы) провели достаточно серьезный анализ состояния исследуемой проблемы. Полученные результаты, безусловно, имеют теоретическую значимость и определяются вкладом в изучение возможностей различных общедоступных больших языковых моделей при генерации заголовков к научным публикациям на русском и английском языках. Практическая ценность обусловлена возможностью применения полученных результатов в качестве рекомендаций для исследователей, стремящихся эффективно задействовать генеративные языковые модели при подготовке научных текстов.
Стиль изложения отвечает требованиям научного описания и характеризуется логичностью и доступностью. Содержание работы соответствует названию, логика исследования четкая. Статья имеет завершенный вид; она вполне самостоятельна, оригинальна, будет интересна и полезна широкому кругу лиц и может быть рекомендована к публикации в научном журнале «Litera».