지식은 울림으로 완성된다.

공명(Resonance)은 철학과 우주, 그리고 데이터를 잇는 지식 블로그입니다. 정보는 단순한 사실이 아니라 사람 사이의 울림입니다. 이곳에서 당신의 생각은 새로운 파동이 됩니다

철학·우주·데이터를 잇는 블로그 공명 정보가 감정과 사유로 울리는 곳

rlhf 2

24. AI와 의사소통의 윤리 | 대화하는 기계, 이해하는 인간

AI와 의사소통의 윤리 AI는 인간의 언어를 분석하고 감정을 모사하지만, 이해하지는 못한다. 트랜스포머와 강화학습을 기반으로 한 AI 대화 기술의 원리와 의사소통의 윤리를 탐구한다. AI 언어 이해의 기술적 기반AI가 인간의 언어를 이해하는 것처럼 보이는 이유는 대규모 언어모델(LLM, Large Language Model)의 구조에 있습니다. 이 모델은 트랜스포머(Transformer)라는 신경망 기술을 사용해, 단어의 순서를 넘어 문맥 전체를 분석합니다. 각 단어는 ‘벡터(수치)’로 변환되어, 문장 속 의미적 관계가 수학적으로 표현됩니다. 이렇게 생성된 언어 벡터는 문장의 의미를 확률적으로 예측하게 하고, AI는 가장 가능성 높은 단어를 선택해 자연스러운 문장을 만듭니다. 그러나 이 과정은 이해가 ..

19. AI 윤리와 자율성 | 도덕 알고리즘

AI 윤리와 자율성 AI는 의사결정을 수행합니다. 칸트의 정언명령은 ‘AI가 결과가 아닌 의무에서 행동할 수 있는가’를 묻습니다. 도덕은 코드화될 수 있을까요? 서론AI는 이제 진단·주행·신용·치료 배분 등에서 결정 주체로 기능합니다. 매 결정에는 도덕적 무게가 실립니다 — 누가 이익을 얻고, 누가 비용을 치르는가. 철학의 질문이 기술의 한가운데로 들어왔습니다. 기계가 도덕적일 수 있을까요?칸트는 도덕을 의도와 보편적 도덕법칙에 따른 의무에서 찾았습니다. 이것이 자율성입니다. 그렇다면 AI의 ‘자율’은 무엇을 의미할까요? 기술적 기반 — 알고리즘에서 윤리로머신러닝은 목적함수를 최소/최대화하지만, ‘왜 옳은가’를 이해하지는 못합니다. 윤리를 주입하려는 대표적 시도는 다음과 같습니다.RLHF: 인간 피드백..