Preview

Концепт: философия, религия, культура

Расширенный поиск

Моральный тест Тьюринга в оптиках нормализации отношения к ИИ в социально значимых технологиях будущего

https://doi.org/10.24833/2541-8831-2025-4-36-8-24

Аннотация

Распространение новых технологий поднимает проблему применения и адаптации теста Тьюринга для оценки моральных решений, принимаемых системами искусственного интеллекта (ИИ), в контексте биоэтики. Актуальность этой проблемы для философии культуры заключается в необходимости анализа перспектив гармоничного сосуществования человека и искусственных систем с учётом доминирующих культурных нормативных систем, одной из которых является мораль. Цель данного исследования состоит в уточнении подходов к решению этических проблем, связанных с ИИ, на фоне его включения в новейшие социальные технологии. В соответствии с этим необходимо было решить следующие задачи исследования: 1) выявить и описать проблемы, связанные с распространением ИИ в социальной сфере; 2) уточнить специфику постановки этических вопросов, возникающих по ходу внедрения ИИ в этой области; 3) систематизировать сведения о деонтологических оптиках, претендующих на решение проблемы социальной нормализации использования ИИ. Материалами исследования выступают сведения о новейших разработках социального инжиниринга, то есть технологиях, применяющих ИИ в решении социальных задач (в медицине и уходе за пожилыми), а также исследовательская литература, посвящённая использованию ИИ в социальной инженерии будущего. Работа опирается на культурно-ориентированный подход. Использованы метод кейсов и SWOT-анализ. На основе анализа исследовательской литературы представлены различные модификации морального Теста Тьюринга: сравнительный моральный тест Тьюринга (сМТТ), тест на этическую компетентность, тест этической безопасности машины и тест Тьюринга на распределение (моральных) приоритетов (Turing Triage Test). В результате исследования доказано, что моральный тест Тьюринга является функциональным инструментом для демонстрации этической безопасности искусственных систем, но не может служить доказательством наличия у них моральной субъектности в человеческом понимании, что особенно актуально для чувствительной сферы биоэтики. Выводы исследования заключаются в следующем. Во-первых, в рамках разработки указанных модификаций описаны методологические трудности и ограничения данных подходов, связанные с проблемой подражания, «отсутствием понимания» у ИИ, риском программных ошибок и фундаментальными различиями между мышлением и способностью быть моральным субъектом. Во-вторых, продемонстрирована практическая значимость разработки критериев этической верификации ИИ и уточнены конкретные биоэтические проблемы, возникающие при их использовании (проблема ответственности, автономии пациента, стигматизации, равенства доступа). В-третьих, систематизированы философские подходы к вопросу о возможности создания «подлинно» морального ИИ; особо выделены возражения против данного тезиса, основанные на аргументах биологического натурализма (Дж. Сёрл), феноменологии (Х. Дрейфус), а также концепции эрозии моральных навыков человека.

Об авторе

А. В. Антипов
Институт философии РАН
Россия

Алексей Владимирович Антипов — кандидат философских наук, старший научный сотрудник сектора гуманитарных экспертиз и биоэтики

109240, Россия, г. Москва, ул. Гончарная, д. 12, стр. 1



Список литературы

1. Алексеев А. Ю. Комплексный тест Тьюринга: философско-методологические и социокультурные аспекты. — Москва: ИИнтеЛЛ, 2013. — 303 c.

2. Астахов С. Феноменология против символического искусственного интеллекта: философия научения Хьюберта Дрейфуса // Логос. — 2020. — Т. 30, №. 2. — С. 157–193. https://doi.org/10.22394/08695377-2020-2-157-190

3. Коломийцев С. Ю. Тест Тьюринга и искусственное мышление в начале XXI века // Человек. — 2015. — №. 4. — С. 59–68.

4. Мартыненко Н. П. Когнитивные механизмы больших языковых моделей: диалог с чат-ботом GigaChat // Концепт: философия, религия, культура. — 2025. — Т. 9, № 2. — С. 30–50. https://doi.org/10.24833/2541-8831-2025-2-34-30-50

5. Мерло-Понти М. Феноменология восприятия. — Санкт-Петербург: Ювента; Наука, 1999. — 605 c.

6. Милгрэм С. Подчинение авторитету: Научный взгляд на власть и мораль. — Москва: Альпина нонфикшн, 2023. — 349 c.

7. Олейников Ю. В. Сингулярность постиндустриального общества // Знание. Понимание. Умение. — 2021. — № 2. — С. 85–95.

8. Разин А. В. Мораль и мозг. Идеальное и рациональное // Человек. — 2017. — № 2. — С. 33–46.

9. Резаев А. В., Трегубова Н. Д. «Искусственный интеллект», «онлайн-культура», «искусственная социальность»: определение понятий // Мониторинг общественного мнения: Экономические и социальные перемены. — 2019. — № 6. — С. 35–47. https://doi.org/10.14515/monitoring.2019.6.03

10. Сингер П. Освобождение животных. — Москва: Синдбад, 2009. — 448 c.

11. Тьюринг А. М. Могут ли машины мыслить. — Москва: Физматгиз,1960. — 112 c.

12. Хэзлитт Г. Основания морали. — Москва: Мысль; Челябинск: Социум, 2019. — 539 с.

13. Allen C., Varner G., Zinser J. Prolegomena to any future artificial moral agent // Journal of

14. Experimental & Theoretical Artificial Intelligence. — 2000. — Vol. 12, No 3. — P. 251–261. https://doi.org/10.1080/09528130050111428

15. Arnold T., Scheutz M. Against the moral Turing test: accountable design and the moral reasoning of autonomous systems // Ethics and Information Technology. — 2016. — Vol. 18, No 2. — P. 103–115. https://doi.org/10.1007/s10676-016-9389-x

16. Attributions toward artificial agents in a modified Moral Turing Test / E Aharoni,. S. Fernandes,

17. D. J. Brady, et al. // Scientific report. — 2024. — Vol. 14, No 1. — 8458. https://doi.org/10.1038/s41598-02458087-7

18. Bohn E. D. In Defense of the Moral Turing Test: A Reply // Philosophy & Technology. — 2025. — Vol. 38,

19. No 2. — 40. https://doi.org/10.1007/s13347-025-00869-6

20. Bohn E. D. The moral Turing test: A defense // Philosophy & Technology. — 2024. — Vol. 37, No 3. — 111. https://doi.org/10.1007/s13347-024-00793-1

21. Dela Cruz N. L. Save the Digients! On the Moral Status of AI // The Philosophy of Ted Chiang. — Cham:

22. Springer Nature Switzerland, 2025. — P. 195-202. https://doi.org/10.1007/978-3-031-81662-8_21

23. Dreyfus H. L. What Computers Still Can’t Do: A Critique of Artificial Reason. — Cambridge: MIT Press, 1992. — 313 p.

24. ElliQ, an AI-driven social robot to alleviate loneliness: progress and lessons learned / E. Broadbent, K. Loveys, G. Ilan, et al. // The Journal of Aging Research & Lifestyle. — 2024. — Vol. 13. — P. 22–28. https://doi.org/10.14283/jarlife.2024.2

25. Ethical implications of using the paro robot / C. J. Calo, N. Hunt-Bull. L. Lewis, T. Metzler // Human-Robot Interaction in Elder Care. — San Francisco: Association for the Advancement of Artificial Intelligence, 2011. — P. 20-24.

26. Gerdes A., Øhrstrøm P. Issues in robot ethics seen through the lens of a moral Turing test // Journal of Information, Communication and Ethics in Society. — 2015. — Vol. 13, No 2. — P. 98–109. https://doi.org/10.1108/JICES-09-2014-0038

27. Krzanowski R. M., Trombik K. Ethical Machine Safety Test // Transhumanism: The Proper Guide to a

28. Posthuman Condition or a Dangerous Idea? Cognitive Technologies. — Cham: Springer, 2020. —

29. P. 141–154. https://doi.org/10.1007/978-3-030-56546-6_10

30. Moor J. H. The mature, importance, and difficulty of machine ethics // Machine ethics and robot ethics. — London: Routledge, 2020. — P. 233–236. https://doi.org/10.4324/9781003074991

31. Proudfoot D. Turing’s test vs the moral turing test // Philosophy & Technology. — 2024. — Vol. 37,

32. No 4. — 134. https://doi.org/10.1007/s13347-024-00825-w

33. Shibata T., Wada K. Robot therapy: a new approach for mental healthcare of the elderly — a mini-review // Gerontology. — 2011. — Vol. 57, No 4. — P. 378–386. https://doi.org/10.1159/000319015

34. Singer P. The expanding circle: Ethics, evolution, and moral progress. — Princeton: Princeton University Press, 2011. — 227 p.

35. Sparrow R. The turing triage test // Ethics and information technology. — 2004. — Vol. 6, No 4. — P. 203–213. https://doi.org/10.1007/s10676-004-6491-2

36. The benefits of and barriers to using a social robot PARO in care settings: scoping review / L. Hung, C. Liu, E. Woldum, et al. // BMC geriatrics. — 2019. — Vol. 19, No 1. — 232. https://doi.org/10.1186/s12877019-1244-6

37. Turkle S. Reclaiming conversation: The power of talk in a digital age. — New York: Penguin Books, 2015. — 448 p.

38. Wallach W., Allen C. Hard problems: Framing the Chinese room in which a robot takes a moral Turing test // 38th Annual Convention of the Society for the Study of Artificial Intelligence and the Simulation of Behaviour (AISB 2012). Part 12. — New York: Curran Associates, 2014. — P. 1-6.


Рецензия

Для цитирования:


Антипов А.В. Моральный тест Тьюринга в оптиках нормализации отношения к ИИ в социально значимых технологиях будущего. Концепт: философия, религия, культура. 2025;9(4):8-24. https://doi.org/10.24833/2541-8831-2025-4-36-8-24

For citation:


Antipov A.V. The Moral Turing Test within the Frameworks for Normalizing Attitudes towards AI in Socially Significant Future Technologies. Concept: philosophy, religion, culture. 2025;9(4):8-24. (In Russ.) https://doi.org/10.24833/2541-8831-2025-4-36-8-24

Просмотров: 42


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 2541-8831 (Print)
ISSN 2619-0540 (Online)