AI 알고리즘의 정의, 알고리즘의 공정함은 코드로 표현될 수 있을까? 공정성 지표와 편향 문제를 기술·철학의 관점에서 해부하고, 설명가능성과 참여 거버넌스로 이어지는 정의의 과정을 제안합니다. 정의는 완성된 수식이 아니라, 끊임없이 갱신되는 대화의 형식입니다.

서론 — 공정함을 계산할 수 있을까
인공지능의 판단은 언제나 데이터의 그림자를 지닙니다. 채용 알고리즘이 특정 성별을 선호하거나, 대출 모델이 특정 지역을 불리하게 예측하는 사례는 드물지 않습니다. 이는 단순한 코드 오류가 아니라, 공정함 자체를 수학적으로 정의하려는 시도의 한계와 맞닿아 있습니다. 수천 년간 철학이 다뤄 온 정의(正義)가 이제는 목적함수와 제약식으로 번역되고 있습니다. 그렇다면 우리는 정말로 정의를 계산할 수 있겠습니까?
알고리즘의 윤리 구조
AI의 결정은 입력 데이터, 손실함수, 목적함수의 조합으로 탄생합니다. 정확도(accuracy)만을 극대화하면, 표본 수가 적은 소수집단의 오류가 구조적으로 커질 수 있습니다. 이를 보완하기 위해 다음과 같은 공정성 지표가 사용됩니다.
- Demographic Parity(인구학적 균형): 집단별 긍정 예측 비율을 동일하게 맞춥니다.
- Equal Opportunity(기회 평등): 실제로 자격이 있는 집단 내 재현율을 동일하게 유지합니다.
- Calibration(보정의 일관성): 모든 집단에서 예측 확률과 실제 빈도가 일치하도록 보정합니다.
그러나 이 지표들은 동시에 모두 만족되기 어렵다는 것이 수학적으로 알려져 있습니다. 결국 공정함은 단일 해답의 문제가 아니라, 어떤 기준을 우선시할 것인가에 대한 사회적·철학적 선택의 문제입니다.
철학적 관점 — 정의의 두 얼굴
플라톤은 『국가』에서 정의를 “각자가 자기 역할을 다하는 상태”로 보았고, 아리스토텔레스는 “동등한 자에게는 동등하게, 불평등한 자에게는 불평등하게”라는 비례적 정의를 강조했습니다. 즉 공정함은 맥락에 의존하며, 결과의 균등과 기회의 균등은 서로 다른 정의관을 반영합니다.
하버마스는 정의를 절대적 결과라기보다 대화적 합리성의 산물로 보았습니다. AI 윤리 또한 이 통찰을 받아들여야 합니다. 완벽한 수식 대신, 이해관계자가 참여하여 판단 과정을 검증할 수 있도록 설명가능성(Explainability)과 참여 거버넌스(Governance)를 설계해야 합니다.
결론 — 정의는 계산이 아니라 대화다
공정한 AI란 오류가 없는 모델이 아니라, 불완전함을 인정하고 지속적으로 수정할 수 있는 시스템입니다. 모델 카드와 데이터 시트 공개, 편향 영향평가, 사후 모니터링은 그 대화의 최소 조건입니다. 알고리즘이 인간을 대신해 판단하는 시대일수록, 정의를 유지하는 일은 여전히 인간의 책임입니다. 우리는 공정함을 수식으로 닫는 대신, 설명과 참여로 여는 길을 선택해야 합니다.