pISSN: 1229-0750
대동철학 (2021)
pp.103~118
인공 도덕행위자(AMA)가 지닌 윤리적 한계
본 연구는 최근 주목 받고 있는 AI에 적용 가능한 윤리적 접근법이 타당한지를 검토해 보고자 한다. 이러한 검토는 우선 AI가 과연 윤리적일 수 있는가 하는 근본적인 물음에서 부터 어떻게 기술적으로 AMA(인공 도덕행위자)를 구현 가능한가 하는 방법론의 검토를 동시에 요한다. 이는 다시 AMA가 과연 자율적인 개체로서 인식될 수 있는지에 대한 문제 와 지속적으로 논의되고 있는 AMA 관련 윤리적 접근법 또한 포함한다. 필자는 이와 관련 된 여러 논의들을 검토하고 각각의 논의들이 가진 특징 및 한계점을 분석하고자 한다. 이 러한 모든 검토들은 AMA의 근본적인 한계를 드러내려는 필자의 의도로 수렴된다. 필자는 근본적으로 AI가 자율적인 도덕행위자가 될 수 없고, 바로 이 때문에 어떤 이상적인 AMA 로도 AI가 가져올 수 있는 위험을 막을 수 없다고 주장한다. 필자는 이것이 한나 아렌트가 말한 ‘사유행위’와 같은 선상에서 비판 가능한 문제라고 생각하며 논의를 마무리 짓고자 한다.
On the Ethical Limitation of AMA (Artificial Moral Agent)
This research reviews some of the ethical approaches appliable to AI(Artificial Intelligence), whether they are valid. It starts from a fundamental question of AI could be an ethical being and, at the same time, requires the analysis of some methodology that tries to embody AMA(Artificial Moral Agent) technically. It also includes whether the AMA could be regarded as an autonomous individual and ethical approaches, being continuously discussed, regarding the AMA, covering both the characteristics and limitations of each discussion. It goes further to the genuine intention to uncover the fundamental limit of AMA. In this study, I argue that AI, fundamentally, cannot be an autonomous moral agent; thus, there is no ideal AMA possibly to prevent assumable dangers caused by AI. The conclusion of this study would be in the similar context of Arendt, H.’s: the argument in this study critiques AMA with her concept of thinking activity.