<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.3 20210610//EN" "JATS-journalpublishing1-3.dtd">
<article article-type="research-article" dtd-version="1.3" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xml:lang="ru"><front><journal-meta><journal-id journal-id-type="publisher-id">mgimoconcept</journal-id><journal-title-group><journal-title xml:lang="ru">Концепт: философия, религия, культура</journal-title><trans-title-group xml:lang="en"><trans-title>Concept: philosophy, religion, culture</trans-title></trans-title-group></journal-title-group><issn pub-type="ppub">2541-8831</issn><issn pub-type="epub">2619-0540</issn><publisher><publisher-name>МГИМО</publisher-name></publisher></journal-meta><article-meta><article-id pub-id-type="doi">10.24833/2541-8831-2024-2-30-8-21</article-id><article-id custom-type="elpub" pub-id-type="custom">mgimoconcept-896</article-id><article-categories><subj-group subj-group-type="heading"><subject>Research Article</subject></subj-group><subj-group subj-group-type="section-heading" xml:lang="ru"><subject>ФИЛОСОФИЯ</subject></subj-group><subj-group subj-group-type="section-heading" xml:lang="en"><subject>RESEARCH ARTICLES. PHILOSOPHY</subject></subj-group></article-categories><title-group><article-title>О роли этической теории в структуре искусственных моральных агентов в культурном поле информационного общества</article-title><trans-title-group xml:lang="en"><trans-title>On the Role of the Ethical Theory in the Structure of Artificial Moral Agents in the Cultural Field of the Information Society</trans-title></trans-title-group></title-group><contrib-group><contrib contrib-type="author" corresp="yes"><contrib-id contrib-id-type="orcid">https://orcid.org/0000-0002-7048-3373</contrib-id><name-alternatives><name name-style="eastern" xml:lang="ru"><surname>Антипов</surname><given-names>А. В.</given-names></name><name name-style="western" xml:lang="en"><surname>Antipov</surname><given-names>A. V.</given-names></name></name-alternatives><bio xml:lang="ru"><p>Алексей Владимирович Антипов — кандидат философских наук, научный сотрудник сектора гуманитарных экспертиз и биоэтики </p><p>109240, Россия, г. Москва, ул. Гончарная, д. 12, стр. 1. (Россия)</p></bio><bio xml:lang="en"><p>Aleksei V. Antipov — PhD (Philosophy), Researcher, Department of Humanitarian Expertise andBioethics</p><p>12/1 Goncharnaya Str., Moscow, Russia, 109240 (Russia)</p></bio><email xlink:type="simple">nelson02@yandex.ru</email><xref ref-type="aff" rid="aff-1"/></contrib></contrib-group><aff-alternatives id="aff-1"><aff xml:lang="ru">Институт философии РАН<country>Россия</country></aff><aff xml:lang="en">Institute of Philosophy, Russian Academy of Sciences<country>Russian Federation</country></aff></aff-alternatives><pub-date pub-type="collection"><year>2024</year></pub-date><pub-date pub-type="epub"><day>26</day><month>06</month><year>2024</year></pub-date><volume>8</volume><issue>2</issue><fpage>8</fpage><lpage>21</lpage><permissions><copyright-statement>Copyright &amp;#x00A9; Антипов А.В., 2024</copyright-statement><copyright-year>2024</copyright-year><copyright-holder xml:lang="ru">Антипов А.В.</copyright-holder><copyright-holder xml:lang="en">Antipov A.V.</copyright-holder><license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/" xlink:type="simple"><license-p>This work is licensed under a Creative Commons Attribution 4.0 License.</license-p></license></permissions><self-uri xlink:href="https://concept.mgimo.ru/jour/article/view/896">https://concept.mgimo.ru/jour/article/view/896</self-uri><abstract><p>В рамках данного исследования актуализируются этические и философские аспекты создания искусственных интеллектуальных систем и искусственных моральных агентов. Актуальность обращения к данной проблеме обусловлена насущными задачами осмысления процесса формирования цифровой этики, которая в пространстве современной культуры занимает всё более значимое положение. Неоднозначный характер данного феномена определил не до конца сформированный предмет анализа. Вместе с тем очевидно, что этические характеристики выступают частью общекультурного пространства встраивания в мир людей интеллектуальных систем и рефлексии над этим процессом. Таким образом, цель исследования состоит в выделении и анализе различных подходов к роли этической теории в структуре искусственных моральных агентов. Для этого реализуются следующие задачи. Во-первых, рассматриваются различные стратегии этической регуляции с точки зрения их формализации для использования в интеллектуальных системах. Особое внимание уделяется негативным проявлениям создания искусственных моральных агентов, а также анализируются аргументы против их появления. Среди последних выделяются как общеизвестные (проблема злонамеренного использования и экзистенциальные переживания человечества как вида), так и более специфичные для философии и этики (например, манипуляция поведением за счёт эмуляции эмоций и проблема удалённого доступа и использования). Во-вторых, поднимаются вопросы, связанные с этикой интеллектуальных систем, приводятся противоречия, связанные с их реализацией. В-третьих, анализируются деонтология и утилитаризм в качестве теорий, подходящих для формализации и использования в структуре и архитектуре искусственных моральных агентов. Для реализации обозначенных шагов используются методология этической и гуманитарной экспертизы и анализа кейсов. Основным материалом для проведения исследования служат теоретические модели реализации искусственных моральных агентов и встраивания в них этических теорий, таких как деонтология и утилитаризм. Также на основании кейса социального робота рассматриваются различия между деонтологией и утилитаризмом с точки зрения разрешения конкретных ситуаций. Результат исследования состоит в обнаружении как позитивных моментов, так и существенных изъянов в каждом из рассмотренных подходов. Например, использование утилитаризма как моральной арифметики больше и лучше отвечает требованиям формализации и использования в архитектуре искусственных моральных агентов, поскольку каждому действию и его последствиям возможно представить количественный параметр. Однако деонтология позволяет выстроить теорию разрешенных и запрещенных действий, которые способны лучше отражать реальный процесс совершения поступка. Основным затруднением для формализации деонтологии является проблема соотнесения типов долженствования и сложность работы с категорией допустимости действия, поскольку допустимое не является ни запрещённым действием, ни обязательным для исполнения. На основании проведённого анализа обоснована перспективность следующего вывода: недостаточно просто формализовать этическую теорию, необходимо сделать так, чтобы искусственные агенты могли самостоятельно построить этическую модель.</p></abstract><trans-abstract xml:lang="en"><p>This study actualizes the ethical and philosophical aspects of creating artificial intelligent systems and artificial moral agents. The relevance of the study is justified by the need to comprehend the formation of digital ethics, which in the space of modern culture occupies an increasingly dominant position. At the same time, its ambiguous nature and inchoate subject of analysis are shown. Ethical characteristics are a part of the general cultural space of embedding intellectual systems into the world of people and reflection on this process. The aim of the research is to analyze ethical theory in the structure of artificial moral agents. For this purpose, the following tasks are realized. Firstly, various strategies of ethical regulation are considered from the point of view of their formalization for use in intelligent systems. Special attention is paid to the negative manifestations of the creation of artificial moral agents, and the arguments against their appearance are analyzed. Among the latter are both well-known ones (the problem of malicious use and existential experiences of mankind as a species) and more specificly for philosophy and ethics (such as manipulation of behavior through emulation of emotions and the problem of remote access and use). Secondly, issues related to the ethics of intelligent systems are raised and the controversies surrounding their implementation are presented. Thirdly, deontology and utilitarianism are analyzed as theories suitable for formalization and use in the structure and architecture of artificial moral agents. The methodology of ethical and humanitarian expertise and case analysis are used to fulfill the outlined steps. The main material for the research is theoretical models of realization of artificial moral agents and embedding ethical theories such as deontology and utilitarianism into them. Also, based on a case study of a social robot, the differences between deontology and utilitarianism are examined in terms of case resolution. The result of the study is a discussion that the use of utilitarianism as moral arithmetic is better suited to formalization and the use of artificial moral agents in the architecture, as it is possible to represent each action and its consequences with a quantitative parameter. However, deontology allows the construction of a theory of permitted and prohibited actions that can better reflect the actual process of doing an act. The main difficulty for deontology and its formalization is the correlation of the categories and the category of permissibility of an action, as it is difficult to identify it as a separate use case since it is neither a forbidden action nor an obligatory one. Based on this, it is concluded that it is not enough to simply formalize an ethical theory, but it is necessary to make it possible for artificial agents to construct an ethical model on their own.</p></trans-abstract><kwd-group xml:lang="ru"><kwd>интеллектуальные системы</kwd><kwd>ответственность</kwd><kwd>дилеммы</kwd><kwd>искусственные моральные агенты</kwd><kwd>этика</kwd><kwd>биоэтика</kwd></kwd-group><kwd-group xml:lang="en"><kwd>intelligent systems</kwd><kwd>responsibility</kwd><kwd>dilemmas</kwd><kwd>artificial moral agents</kwd><kwd>ethics</kwd><kwd>bioethics</kwd></kwd-group></article-meta></front><back><ref-list><title>References</title><ref id="cit1"><label>1</label><citation-alternatives><mixed-citation xml:lang="ru">Антипов А.В. Автономия искусственных моральных агентов // Человек, интеллект, познание. — Новосибирск: Новосибирский национальный исследовательский государственный университет, 2023a. — С. 235–237.</mixed-citation><mixed-citation xml:lang="en">Allen, C., Smit, I. and Wallach, W. (2005) ‘Artificial Morality: Top-down, Bottom-up, and Hybrid</mixed-citation></citation-alternatives></ref><ref id="cit2"><label>2</label><citation-alternatives><mixed-citation xml:lang="ru">Антипов А.В. Искусственные моральные агенты: анализ аргументов против // Цифровые технологии и право. — Казань: Издательство "Познание", 2023b. — С. 15–20. https://doi.org/10.21202/978-5-8399-978-5-8399-0819-2_476</mixed-citation><mixed-citation xml:lang="en">Approaches’, Ethics and Information Technology, 7(3), pp. 149–155. https://doi.org/10.1007/s10676-0060004-4</mixed-citation></citation-alternatives></ref><ref id="cit3"><label>3</label><citation-alternatives><mixed-citation xml:lang="ru">Уланова А.Е. Образ противника технологий в рассказе А. Азимова «Раб корректуры»: современная интерпретация // Концепт: философия, религия, культура. — 2020. — Т. 4, № 2. — С. 135–143. https://doi.org/10.24833/2541-8831-2020-2-14-135-143</mixed-citation><mixed-citation xml:lang="en">Anderson, S. L. (2011) ‘Philosophical Concerns with Machine Ethics’, in Machine Ethics. Cambridge: Cambridge University Press, pp. 162–167. https://doi.org/10.1017/CBO9780511978036.014</mixed-citation></citation-alternatives></ref><ref id="cit4"><label>4</label><citation-alternatives><mixed-citation xml:lang="ru">Allen C., Smit I., Wallach W. Artificial Morality: Top-down, Bottom-up, and Hybrid Approaches // Ethics and Information Technology. — 2005. — Vol. 7, No 3. — P. 149–155. https://doi.org/10.1007/s10676-0060004-4</mixed-citation><mixed-citation xml:lang="en">Antipov, A. V. (2023b) ‘Artificial moral agents: an analysis of the argument against them’, in Digital technologies and law. Kazan: Izdatel’stvo ‘ZnaniyePoznaniye’ Publ., pp. 15–20. (In Russian). https://doi. org/10.21202/978-5-8399-978-5-8399-0819-2_476</mixed-citation></citation-alternatives></ref><ref id="cit5"><label>5</label><citation-alternatives><mixed-citation xml:lang="ru">Anderson S.L. Philosophical Concerns with Machine Ethics // Machine Ethics. — Cambridge: Cambridge University Press, 2011. — P. 162–167. https://doi.org/10.1017/CBO9780511978036.014</mixed-citation><mixed-citation xml:lang="en">Antipov, A. V. (2023a) ‘Avtonomiya iskusstvennykh moral’nykh agentov [Autonomy of artificial moral agents]’, in Chelovek, intellekt, poznaniye [Man, intelligence, cognition]. Novosibirsk: Novosibirskiy issledovatel’skiy natsional’nyy gosudarstvennyy universitet Publ., pp. 235–237. (In Russian).</mixed-citation></citation-alternatives></ref><ref id="cit6"><label>6</label><citation-alternatives><mixed-citation xml:lang="ru">Artificial Moral Agents: A Survey of the Current Status / J.-A. Cervantes, S. López, L.-F. Rodríguez, et al. // Science and Engineering Ethics. — 2020. — Vol. 26, No 2. — P. 501–532. https://doi.org/10.1007/s11948019-00151-x</mixed-citation><mixed-citation xml:lang="en">Cervantes, J.-A. et al. (2020) ‘Artificial Moral Agents: A Survey of the Current Status’, Science and</mixed-citation></citation-alternatives></ref><ref id="cit7"><label>7</label><citation-alternatives><mixed-citation xml:lang="ru">Chakraborty A., Bhuyan N. Can artificial intelligence be a Kantian moral agent? On moral autonomy of AI system // AI and Ethics. — 2024. — Vol. 4, No 2. — P. 325–331. https://doi.org/10.1007/s43681-023-00269-6</mixed-citation><mixed-citation xml:lang="en">Engineering Ethics, 26(2), pp. 501–532. https://doi.org/10.1007/s11948-019-00151-x</mixed-citation></citation-alternatives></ref><ref id="cit8"><label>8</label><citation-alternatives><mixed-citation xml:lang="ru">Cristani M., Burato E. Approximate solutions of moral dilemmas in multiple agent system // Knowledge and Information Systems. — 2009. — Vol. 18, No 2. — P. 157–181. https://doi.org/10.1007/s10115-0080172-0</mixed-citation><mixed-citation xml:lang="en">Chakraborty, A. and Bhuyan, N. (2024) ‘Can artificial intelligence be a Kantian moral agent? On moral autonomy of AI system’, AI and Ethics, 4(2), pp. 325–331. https://doi.org/10.1007/s43681-023-00269-6</mixed-citation></citation-alternatives></ref><ref id="cit9"><label>9</label><citation-alternatives><mixed-citation xml:lang="ru">Formosa P., Ryan M. Making moral machines: why we need artificial moral agents // AI &amp; SOCIETY. — 2021. — Vol. 36, No 3. — P. 839–851. https://doi.org/10.1007/s00146-020-01089-6</mixed-citation><mixed-citation xml:lang="en">Cristani, M. and Burato, E. (2009) ‘Approximate solutions of moral dilemmas in multiple agent system’, Knowledge and Information Systems, 18(2), pp. 157–181. https://doi.org/10.1007/s10115-008-0172-0</mixed-citation></citation-alternatives></ref><ref id="cit10"><label>10</label><citation-alternatives><mixed-citation xml:lang="ru">Franck G. The economy of attention // Journal of Sociology. — 2019. — Vol. 55, No 1. — P. 8–19. https://doi.org/10.1177/1440783318811778</mixed-citation><mixed-citation xml:lang="en">Formosa, P. and Ryan, M. (2021) ‘Making moral machines: why we need artificial moral agents’,  AI &amp; SOCIETY, 36(3), pp. 839–851. https://doi.org/10.1007/s00146-020-01089-6</mixed-citation></citation-alternatives></ref><ref id="cit11"><label>11</label><citation-alternatives><mixed-citation xml:lang="ru">Hanna R., Kazim E. Philosophical foundations for digital ethics and AI Ethics: a dignitarian approach // AI and Ethics. — 2021. — Vol. 1, No 4. — P. 405–423. https://doi.org/10.1007/s43681-021-00040-9</mixed-citation><mixed-citation xml:lang="en">Franck, G. (2019) ‘The economy of attention’, Journal of Sociology, 55(1), pp. 8–19. https://doi. org/10.1177/1440783318811778</mixed-citation></citation-alternatives></ref><ref id="cit12"><label>12</label><citation-alternatives><mixed-citation xml:lang="ru">Luke A. Digital Ethics Now // Language and Literacy. — 2018. — Vol. 20, No 3. — P. 185–198. https://doi.org/10.20360/langandlit29416</mixed-citation><mixed-citation xml:lang="en">Hanna, R. and Kazim, E. (2021) ‘Philosophical foundations for digital ethics and AI Ethics: a dignitarian approach’, AI and Ethics, 1(4), pp. 405–423. https://doi.org/10.1007/s43681-021-00040-9</mixed-citation></citation-alternatives></ref><ref id="cit13"><label>13</label><citation-alternatives><mixed-citation xml:lang="ru">Moor J.H. The Nature, Importance, and Difficulty of Machine Ethics // IEEE Intelligent Systems. — 2006. — Vol. 21, No 4. — P. 18–21. https://doi.org/10.1109/MIS.2006.80</mixed-citation><mixed-citation xml:lang="en">Luke, A. (2018) ‘Digital Ethics Now’, Language and Literacy, 20(3), pp. 185–198. https://doi.org/10.20360/ langandlit29416</mixed-citation></citation-alternatives></ref><ref id="cit14"><label>14</label><citation-alternatives><mixed-citation xml:lang="ru">Pereira L.M., Lopes A.B. Artificial Intelligence, Machine Autonomy and Emerging Needs // Machine</mixed-citation><mixed-citation xml:lang="en">Moor, J. H. (2006) ‘The Nature, Importance, and Difficulty of Machine Ethics’, IEEE Intelligent Systems, 21(4), pp. 18–21. https://doi.org/10.1109/MIS.2006.80</mixed-citation></citation-alternatives></ref><ref id="cit15"><label>15</label><citation-alternatives><mixed-citation xml:lang="ru">Ethics. Studies in Applied Philosophy, Epistemology and Rational Ethics. — Cham: Springer, 2020. — P. 19–24. https://doi.org/10.1007/978-3-030-39630-5_2</mixed-citation><mixed-citation xml:lang="en">Pereira, L. M. and Lopes, A. B. (2020) ‘Artificial Intelligence, Machine Autonomy and Emerging Needs’, in Machine Ethics. Studies in Applied Philosophy, Epistemology and Rational Ethics. Cham: Springer, pp. 19–24. https://doi.org/10.1007/978-3-030-39630-5_2</mixed-citation></citation-alternatives></ref><ref id="cit16"><label>16</label><citation-alternatives><mixed-citation xml:lang="ru">Powers T.M. Prospects for a Kantian Machine // IEEE Intelligent Systems. — 2006. — Vol. 21, No 4. — P. 46–51. https://doi.org/10.1109/MIS.2006.77</mixed-citation><mixed-citation xml:lang="en">Powers, T. M. (2006) ‘Prospects for a Kantian Machine’, IEEE Intelligent Systems, 21(4), pp. 46–51. https:// doi.org/10.1109/MIS.2006.77</mixed-citation></citation-alternatives></ref><ref id="cit17"><label>17</label><citation-alternatives><mixed-citation xml:lang="ru">Strasser A. Distributed responsibility in human–machine interactions // AI and Ethics. — 2022. — Vol. 2, No 3. — P. 523–532. https://doi.org/10.1007/s43681-021-00109-5</mixed-citation><mixed-citation xml:lang="en">Strasser, A. (2022) ‘Distributed responsibility in human–machine interactions’, AI and Ethics, 2(3), pp. 523–532. https://doi.org/10.1007/s43681-021-00109-5</mixed-citation></citation-alternatives></ref><ref id="cit18"><label>18</label><citation-alternatives><mixed-citation xml:lang="ru">Turing A.M. Computing machinery and intelligence // Mind. — 1950. — Vol. LIX, No 236. — P. 433–460. https://doi.org/10.1093/mind/LIX.236.433</mixed-citation><mixed-citation xml:lang="en">Turing, A. M. (1950) ‘Computing machinery and intelligence’, Mind, LIX(236), pp. 433–460. https://doi. org/10.1093/mind/LIX.236.433</mixed-citation></citation-alternatives></ref><ref id="cit19"><label>19</label><citation-alternatives><mixed-citation xml:lang="ru">Voigt P., von dem Bussche A. The EU General Data Protection Regulation (GDPR). — Cham: Springer International Publishing, 2017. — 383 p. https://doi.org/10.1007/978-3-319-57959-7</mixed-citation><mixed-citation xml:lang="en">Ulanova, A. E. (2020) ‘The image of the opponent of technological innovation in Galley Slave by A.Asimov: modern interpretation’, Concept: philosophy, religion, culture, 4(2), pp. 135–143. (In Russian) https://doi.org/10.24833/2541-8831-2020-2-14-135-143</mixed-citation></citation-alternatives></ref><ref id="cit20"><label>20</label><citation-alternatives><mixed-citation xml:lang="ru">Whiting R., Pritchard K. Digital ethics // The SAGE Handbook of Qualitative Business and Management Research Methods: History and Traditions. — London: SAGE Publications Ltd, 2018. — P. 562–577. https://doi.org/10.4135/9781526430212</mixed-citation><mixed-citation xml:lang="en">Voigt, P. and von dem Bussche, A. (2017) The EU General Data Protection Regulation (GDPR). Cham: Springer International Publishing. https://doi.org/10.1007/978-3-319-57959-7</mixed-citation></citation-alternatives></ref><ref id="cit21"><label>21</label><citation-alternatives><mixed-citation xml:lang="ru">Zuboff S. Surveillance Capitalism and the Challenge of Collective Action // New Labor Forum. — 2019. — Vol. 28, No 1. — P. 10–29. https://doi.org/10.1177/1095796018819461</mixed-citation><mixed-citation xml:lang="en">Whiting, R. and Pritchard, K. (2018) ‘Digital ethics’, in The SAGE Handbook of Qualitative Business and Management Research Methods: History and Traditions. London: SAGE Publications Ltd, pp. 562–577. https:// doi.org/10.4135/9781526430212</mixed-citation></citation-alternatives></ref><ref id="cit22"><label>22</label><citation-alternatives><mixed-citation xml:lang="ru">Zuboff, S. (2019) ‘Surveillance Capitalism and the Challenge of Collective Action’, New Labor Forum, 28(1), pp. 10–29. https://doi.org/10.1177/1095796018819461</mixed-citation><mixed-citation xml:lang="en">Zuboff, S. (2019) ‘Surveillance Capitalism and the Challenge of Collective Action’, New Labor Forum, 28(1), pp. 10–29. https://doi.org/10.1177/1095796018819461</mixed-citation></citation-alternatives></ref></ref-list><fn-group><fn fn-type="conflict"><p>The authors declare that there are no conflicts of interest present.</p></fn></fn-group></back></article>
