AI 윤리와 자율성 AI는 의사결정을 수행합니다. 칸트의 정언명령은 ‘AI가 결과가 아닌 의무에서 행동할 수 있는가’를 묻습니다. 도덕은 코드화될 수 있을까요? 서론AI는 이제 진단·주행·신용·치료 배분 등에서 결정 주체로 기능합니다. 매 결정에는 도덕적 무게가 실립니다 — 누가 이익을 얻고, 누가 비용을 치르는가. 철학의 질문이 기술의 한가운데로 들어왔습니다. 기계가 도덕적일 수 있을까요?칸트는 도덕을 의도와 보편적 도덕법칙에 따른 의무에서 찾았습니다. 이것이 자율성입니다. 그렇다면 AI의 ‘자율’은 무엇을 의미할까요? 기술적 기반 — 알고리즘에서 윤리로머신러닝은 목적함수를 최소/최대화하지만, ‘왜 옳은가’를 이해하지는 못합니다. 윤리를 주입하려는 대표적 시도는 다음과 같습니다.RLHF: 인간 피드백..