지식은 울림으로 완성된다.

공명(Resonance)은 철학과 우주, 그리고 데이터를 잇는 지식 블로그입니다. 정보는 단순한 사실이 아니라 사람 사이의 울림입니다. 이곳에서 당신의 생각은 새로운 파동이 됩니다

철학·우주·데이터를 잇는 블로그 공명 정보가 감정과 사유로 울리는 곳

AI와 철학(인공지능)

64. AI와 가치 판단 | 가치를 평가하는가, 재현하는가

공명(Resonance) 2025. 12. 1. 22:00

AI와 가치 판단 | 가치를 평가하는가, 재현하는가

AI와 가치 판단 은 인공지능이 실제로 가치를 평가할 수 있는지, 아니면 학습된 패턴을 재현할 뿐인지 기술·철학적으로 분석합니다. LLM 구조, 가치 정렬 문제, 비트겐슈타인·데리다 사상을 함께 다룹니다. AI는 가치에 대해 말할 수 있지만, 가치를 ‘가질’ 수는 없다.

저울에 가치를 매기는 인간과 기하학적인 데이터를 측정하는 ai

 

 

 

서론 — 가치는 데이터로 환원되지 않는다

인간은 규칙을 적용하듯 가치 판단을 하지 않습니다. 가치는 경험, 상처, 공감, 문화적 기억, 그리고 스스로의 삶의 서사 속에서 형성됩니다. 반면 AI는 수십억 개의 텍스트를 학습하고, 가장 자연스럽고 빈도가 높은 패턴을 추출해 문장을 생성합니다.

최근 AI가 도덕적으로 보이는 응답을 내놓으면서 중요한 질문이 떠오릅니다. “AI는 가치를 스스로 평가하는가, 아니면 단지 가치가 있는 척하는가?”

 

 

 

 

AI가 ‘가치 판단’을 할 수 없는 기술적 구조

확률적 계산은 가치 판단이 아니다

언어모델은 ‘도덕적으로 보이는’ 답변을 할 수 있지만, 실제로는 다음에 올 단어의 확률을 계산하는 과정입니다. 도덕적 명제가 출력되는 이유는 그것이 ‘옳아서’가 아니라, 과거 데이터에서 ‘그럴듯하게’ 나타났기 때문입니다.

선호·책임·감정의 부재

인간이 가치 판단을 하는 이유는 선택이 삶에 영향을 미치기 때문입니다. 죄책감, 후회, 상실, 자부심 같은 감정은 판단을 바꾸고 성찰을 만듭니다. 그러나 AI는 어떤 판단도 책임지지 않고, 어떤 결과에도 상처받지 않습니다. 손실이 없으면 참된 의미의 판단도 존재할 수 없습니다.

경험 기반의 가치 형성이 불가능하다

가치는 세계와 부딪히며 생깁니다. 부정의 경험, 타인의 고통을 목격한 기억, 공동체 안에서 겪은 충돌과 화해 등은 인간만이 가지는 경험적 자원입니다. AI는 이러한 경험을 가지지 않기 때문에 “가치 판단처럼 보이는 문장”만 생성할 뿐, 가치의 내적 구조는 성립하지 않습니다.

Alignment 기술은 윤리를 만들어내지 않는다

RLHF, Constitutional AI, 거버넌스 규칙 등은 AI를 ‘도덕적으로 보이게’ 만드는 기술일 뿐입니다. 이는 통계적 순응(statistical obedience)입니다. 순응은 윤리가 아니며, 선택의 주체성도 아닙니다.

 

 

 

 

철학적 관점 — 가치는 ‘주체’가 있어야만 성립한다

비트겐슈타인 — 가치는 삶의 형식에서 나온다

비트겐슈타인은 윤리적 명제는 단순한 사실 설명이 아니며, 삶의 형식(Form of Life) 속에서만 의미를 가진다고 했습니다. AI는 삶의 형식이 없습니다. 가치가 싹틀 공동체·전통·행위의 맥락이 없습니다.

데리다 — 윤리는 타자의 얼굴에서 시작된다

데리다는 윤리는 ‘타자의 취약한 얼굴을 마주하는 순간’ 발생한다고 말했습니다. AI는 타자를 만나지 않고, 타인의 고통 앞에서 무거운 침묵을 경험하지 않으며, 책임의 요구를 느끼지 못합니다.

매킨타이어 — 덕과 가치는 공동체적 실천에서 형성된다

매킨타이어는 인간의 덕은 전통과 공동체 속에서 형성된다고 말했습니다. 그러나 AI에게는 역사적 맥락이나 서사적 소속이 없습니다. AI의 “덕”은 훈련 데이터의 산물일 뿐입니다.

 

 

 

 

사례 — AI가 ‘판단한 것처럼 보이는’ 순간들

콘텐츠 필터링은 위험을 감지하지만 피해의 본질을 이해하지 못합니다.

채용·대출 모델은 공정해 보이나 데이터 속 구조적 편향을 그대로 재현합니다.

도덕 조언은 질문 방식에 따라 응답이 달라지며, 이는 가치의 부재를 보여줍니다.

AI 법률 보조는 논리를 따르지만 책임을 지지 않습니다.

결국 AI는 가치를 말할 수는 있지만, 가치를 ‘가질’ 수는 없습니다.

 

 

 

 

결론 — 가치는 ‘살면서 감당해야 하는 무게’다

AI는 윤리적 문장을 생성할 수 있지만, 윤리적 신념을 형성할 수는 없습니다. AI는 상처받지 않고, 후회하지 않으며, 자신의 선택이 스스로를 변화시키지도 않습니다.

AI는 가치를 ‘표현’한다. 인간은 가치를 ‘살아낸다’.

그래서 질문은 다시 우리에게 돌아옵니다. “나는 어떤 가치를 선택하며 살아가고 있는가?”

 

 

참고: Wittgenstein 『Lecture on Ethics』, Derrida 『The Gift of Death』, Alasdair MacIntyre 『After Virtue』, RLHF & Alignment 연구.
반응형