Preview

Концепт: философия, религия, культура

Расширенный поиск

Когнитивные механизмы больших языковых моделей: диалог с чат-ботом GigaChat

https://doi.org/10.24833/2541-8831-2025-2-34-30-50

Аннотация

Статья посвящена актуальной теме анализа когнитивных механизмов, реализованных в современных больших языковых моделях (БЯМ) на базе архитектуры трансформеров. Демонстрация ими высоких показателей производительности стимулирует обсуждение гипотетической возможности возникновения феноменов сознания в процессе их функционирования. Цель исследования — уточнить потенциал БЯМ в моделировании функций человеческого сознания с учётом новейших достижений в области взаимодействия с искусственным интеллектом (ИИ). Для достижения этой цели было необходимо решить следующие задачи: 1) оценить степень продвижения научного сообщества в обсуждении ключевых парадоксов философии сознания (тест Тьюринга, «Китайская комната»); 2) зафиксировать ключевые позиции в текущих спорах о пределах моделирования когнитивных процессов в системах искусственных нейронных сетей; 3) провести эксперимент по взаимодействию с чат-ботом GigaChat и проанализировать полученные данные для оценки текущего состояния когнитивных способностей системы. В качестве основных материалов исследования использовались результаты экспериментов с GigaChat, а также научные публикации и философские труды, посвящённые вопросам ИИ и сознания. Методологическая основа исследования включала категориальный и ценностный анализ; также были использованы дискурс-анализ и SWOT-анализ. Ключевым методом стало взаимодействие с чат-ботом GigaChat. В результате исследования было установлено, что GigaChat демонстрирует высокую способность к интерпретации информации, генерации текста и адаптации к контексту беседы, осознавая свои возможности и ограничения, а также различая категории субъектов («вы», «мы», «ты», «я»), однако современные системы ИИ всё ещё не способны воспроизводить ключевые черты человеческого сознания, такие как развитое самосознание и субъективный опыт. Выводы: научное сообщество продвинулось в обсуждении ключевых парадоксов философии сознания (теста Тьюринга и «Китайской комнаты»), учитывая новые достижения в области взаимодействия с ИИ, однако остаётся ряд нерешённых вопросов относительно критериев сознания; в текущих спорах о пределах моделирования когнитивных процессов в системах ИИ зафиксированы различные философские и методологические подходы, но создание сознательного ИИ продолжает оставаться предметом острых дискуссий и неопределённости; экспериментальное взаимодействие с GigaChat показало, что система обладает значительными когнитивными возможностями, такими как адаптация к контексту и распознавание категорий субъектов, но она ещё далека от воспроизведения полного спектра человеческого сознания, включая развитое самосознание и субъективный опыт.

Об авторе

Н. П. Мартыненко
Аппарат Совета Федерации Федерального Собрания РФ
Россия

Николай Петрович Мартыненко — доктор философских наук, советник Управления информации и взаимодействия со СМИ

103426,  г. Москва, ул. Б. Дмитровка, дом 26



Список литературы

1. Белянин, М. Н. Джон Серл и "трудная проблема сознания" // Вестник Московского университета. Серия 7: Философия. — 2011. — № 4. — С. 38–50.

2. Васильев В.В. Трудная проблема сознания. — Москва: Прогресс-Традиция, 2009. — 269 с.

3. Искусственный интеллект в исследованиях сознания и общественной жизни (к 70-летию статьи А. Тьюринга "Вычислительные машины и разум") (материалы круглого стола) / В. А. Лекторский, Е. А. Алексеева, Н. Н. Емельянова [и др.] // Философия науки и техники. — 2022. — Т. 27, № 1. — С. 5–33. https://doi.org/10.21146/2413-9084-2022-27-1-5-33

4. Лекун Я. Как учится машина: революция в области нейронных сетей и глубокого обучения. — Москва: Интеллектуальная литература, 2020. — 350 с.

5. Пенроуз Р. Новый ум короля: о компьютерах, мышлении и законах физики. — Москва: УРСС, 2003. — 382 с.

6. Уланова А. Е. Образ противника технологий в рассказе А. Азимова "Раб корректуры": современная интерпретация // Концепт: философия, религия, культура. — 2020. — Т. 4, № 2. — С. 135–143. https://doi.org/10.24833/2541-8831-2020-2-14-135-143

7. Уланова А. Е. Сознание, тело и культура сквозь призму энактивизма в контексте развития искусственного интеллекта // Вестник Воронежского государственного университета. Серия: Философия. — 2019. — № 4. — С. 88–95.

8. Blum L., Blum M. A theory of consciousness from a theoretical computer science perspective: Insights from the Conscious Turing Machine // Proceedings of the National Academy of Sciences. — 2022. — Vol. 119, № 21. — e2115934119. https://doi.org/10.1073/pnas.2115934119

9. Bojić L., Stojković I., Jolić Marjanović Z. Signs of consciousness in AI: Can GPT-3 tell how smart it really is? // Humanities and Social Sciences Communications. — 2024. — Vol. 11, № 1. — 1631. https://doi.org/10.1057/s41599-024-04154-3

10. Dennett D. Intuition Pumps and Other Tools for Thinking. — New York: W. V. Norton and Company, 2013. — 496 p.

11. Harnad S., Scherzer P. First, scale up to the robotic Turing test, then worry about feeling // Artificial

12. Intelligence in Medicine. — 2008. — Vol. 44, № 2. — P. 83–89. https://doi.org/10.1016/j.artmed.2008.08.008

13. Searle J. R. Mind: A Brief Introduction. — New York: Oxford University Press, 2004. — 336 p. https://doi.org/10.1093/oso/9780195157338.001.0001

14. Searle J. R. Minds, brains, and programs // Behavioral and Brain Sciences. — 1980. — Vol. 3, № 3. — P. 417–424. https://doi.org/10.1017/S0140525X00005756

15. Turing A. Computing machinery and intelligence // Mind. — 1950. — Vol. 59, № 236. — P. 433–460.


Рецензия

Для цитирования:


Мартыненко Н.П. Когнитивные механизмы больших языковых моделей: диалог с чат-ботом GigaChat. Концепт: философия, религия, культура. 2025;9(2):30-50. https://doi.org/10.24833/2541-8831-2025-2-34-30-50

For citation:


Martynenko N.P. Cognitive Mechanisms of Large Language Models: Interaction with GigaChat. Concept: philosophy, religion, culture. 2025;9(2):30-50. (In Russ.) https://doi.org/10.24833/2541-8831-2025-2-34-30-50

Просмотров: 114


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 2541-8831 (Print)
ISSN 2619-0540 (Online)