[AI, 사람을 향하다] 인간 중심의 윤리와 결과 중심의 생성형 AI

[AI, 사람을 향하다] 인간 중심의 윤리와 결과 중심의 생성형 AI

금진호 목원대학교 겸임교수/인간 중심 AI 저자 

기사승인 2025-06-11 10:41:26 업데이트 2025-06-11 13:50:16
금진호 목원대학교 겸임교수/인간 중심 AI 저자 

도덕이란 무엇일까? 우리는 무엇을 기준으로 ‘옳다’, ‘그르다’를 판단할까? 이 질문은 철학의 오래된 주제이자, AI가 인간의 결정을 대신하려는 지금, 더욱 중요한 문제가 되었다. 사람들은 대체로 ‘규범과 윤리’에 따라 행동한다. 칸트와 같은 철학자들은 도덕적 원칙이나 의무에 중심이 되는 윤리로 “거짓말을 해서는 안 된다”는 규칙은 상황과 결과와 무관하게 지켜져야 한다.

인간은 종종 이런 절대적 기준에 따라 행동하려 노력한다. 물론, 실제로는 감정이나 맥락, 사회적 압력 등 수많은 요소에 영향을 받지만, 도덕적 판단의 이상은 원칙 중심이다. 

반면 AI는 다르다. AI는 윤리가 아니라 결과를 중심으로 판단한다. 일종의 결과주의적 윤리를 따르는 셈이다. 무엇이 더 효율적인가? 어떤 선택이 전체의 이익을 극대화하는가? 어떤 조치가 통계적으로 더 나은 결과를 낳는가? 예컨대, 자율주행차는 사고가 불가피할 때 ‘한 명을 희생시켜 다수를 구하는’ 선택을 할 수 있다. 이는 전형적인 결과주의적 사고방식, 즉 ‘최대 다수의 최대 행복’을 추구하는 윤리다. 

이 차이의 과정은 확연히 다르다. 사람은 때때로 결과를 무시하더라도 도덕적 원칙을 지키려 한다. 반면 AI는 원칙보다는 결과를 통해 의사결정을 최적화한다. 문제는 여기에 있다. 결과주의는 냉정하고 계산적이다. 인간이 느끼는 공감이나 정의감, 상황 맥락은 고려되지 않는다.

사람이 보기엔 “비인간적”이거나 “냉혹”해 보일 수 있는 판단이 AI에게는 가장 논리적인 선택일 수 있다. 하지만 반대로 생각해보자. 인간은 감정에 휘둘리고, 이중잣대를 적용하며, 때때로 규칙조차 무시한다. 도덕적 기준이 있다고 하면서도, 실제로는 그것을 지키지 못하는 경우가 허다하다. AI는 오히려 일관되게, 예측 가능한 방식으로 ‘옳음’을 추구한다. 그렇다면 우리는 어떤 윤리를 더 신뢰해야 할까? 

AI의 결과주의는 명확하고 계산 가능한 도덕을 제공하지만, 맥락을 이해하지 못한다는 한계를 가진다. 반면 인간의 규범과 윤리는 이상적으로 보이지만, 현실에서는 자주 무너진다. 결국엔 둘을 비교하면서, AI에게 도덕을 가르치는 것만큼이나 우리 자신이 어떤 도덕을 추구하고 있는지 돌아봐야 한다. AI 시대의 윤리 문제는 단순히 기술의 문제가 아니다. 그것은 우리가 어떤 사람이기를 원하는가에 대한 질문이기도 하다. 

챗GPT 이미지.

그렇다면 “기계가 사람보다 더 도덕적일 수 있을까?” 이 질문에, 사람들은 고개를 갸웃할지도 모른다. 도덕은 감정과 양심, 공감 능력과 같은 인간 고유의 특성에서 나오는 것이라고 믿기 때문이다. 하지만 아이러니하게도, 요즘 우리는 인간보다 덜 편향되고, 더 일관된 판단을 내리는 AI의 존재 가능성을 점점 더 진지하게 고민하게 된다. 

예를 들어보자. 병원 응급실에서 어떤 환자를 먼저 치료해야 할지를 결정하는 상황이 있다고 하자. 의사는 때때로 감정이나 편견, 또는 개인적 판단에 따라 결정을 내릴 수 있다. 반면 AI는 통계적 생존 가능성, 중증도, 자원 효율성 등을 고려해 ‘합리적’이라고 평가되는 결정을 내릴 수 있다. 이 경우, 감정이 개입되지 않는 AI의 결정이 더 공정하고 도덕적으로 보일 수도 있다. 

실제로 많은 AI 시스템은 ‘도덕적 판단’을 시뮬레이션하도록 설계된다. 차별을 피하고, 규칙을 일관되게 적용하며, 과거의 데이터에 따라 최선의 결과를 추론하는 방식이다. 그래서 일부는 “AI가 인간보다 더 도덕적”일 수 있다고 주장한다. 감정에 휘둘리지 않고, 부정직하지 않으며, 지시받은 윤리 규범을 어기지 않는 존재이기 때문이다. AI는 학습된 범위를 넘어선 공감이나 창의적 판단이 불가능하기 때문이다.  

그렇다면 우리는 AI에게 완전한 도덕성을 기대할 수 있을까? 아마도 아닐 것이다. 그러나 한 가지는 분명하다. AI는 우리가 가진 도덕적 한계인 편견, 감정, 일관성 부족을 돌아보게 하는 거울이 될 수는 있다. AI가 만든 결정이 때때로 우리보다 더 ‘공정해 보이는’ 순간, 우리는 오히려 “나는 과연 얼마나 도덕적인가?”라는 질문을 던지게 된다. 결국 AI의 도덕성 논의는, 기술의 능력을 묻는 것이 아니라 인간의 도덕적 역량에 대한 성찰로 이어진다. 그리고 그 지점에서, 우리는 기술과 도덕이 아니라 기술을 통해 사람을 다시 바라보는 철학을 시작하게 된다.

나는 AI보다 더 도덕적인가?

홍석원 기자
001hong@kukinews.com
홍석원 기자