AI가 만든 가짜 판례에 법조계 '충격'... 한국도 안전지대 아냐
AI, 법조계를 뒤흔들다: 신뢰의 위협
신뢰가 핵심 자산인 법조계가 AI의 부작용으로 신음하고 있다. 법정 내 잘못된 AI 활용 사례에 대한 지적이 어제오늘 일은 아니다. 하지만 AI가 생성한 가짜 판례나 인용문을 검증 없이 활용했다가 적발되는 사례는 최근까지도 국내외에서 끊이지 않는 추세다. 무엇보다 AI 시대에 인간 전문가의 권위와 신뢰가 지켜지려면, 사용자들의 책임감 있는 AI 사용 의식이 중요하다는 지적이 따른다.

해외 법정, 'AI발 가짜 판례'에 발칵
지난 16일 영국 가디언 보도에 따르면, 초드허리 라흐만(Chowdhury Rahman)이라는 이름의 변호사가 AI 생성 판례를 재판부에 제출했다가 적발돼 물의를 빚었다. 라흐만은 온두라스 국적 자매의 망명 사건 항소심 준비 과정에서 챗GPT와 유사한 생성형 AI를 사용한 것으로 전해진다. 그러나 그가 항소 이유서에 적시한 총 12개의 판례 중 일부는 아예 존재하지 않았고 다른 것들은 인용된 법적 주장과 전혀 무관한 것으로 밝혀졌다.

한국, AI 가짜 판례 위험에서 안전하지 않아
국내 사정도 다르지 않다. 지난 17일 국회 행정안전위원회 국정감사 현장에서는 AI 위험에 안이했던 경찰청이 도마 위에 올랐다. 이날 더불어민주 권칠승 의원은 경기 용인동부경찰서가 아동복지법 위반 사건에 내린 불송치 결정문에 '가짜 법리'가 사용됐다며 유재성 경찰청장 직무대행을 질타했다. 현장에서 공개된 경기 용인동부경찰서 결정문 일부에 따르면 '일시적 언행만으로는 정신 건강에 해를 끼친다고 단정하기 어렵고, 반복성·지속성이 인정돼야 한다'는 등의 내용을 대법원과 서울북부지법 판결이 인용돼 있다. 하지만 이는 실제 판결문에 존재하지 않는 내용이었으며 챗GPT로 작성된 사실이 드러났다.

가짜 판례 생성의 근본 원인: AI의 기술적 한계
법조인들도 깜빡 속을 수 있는 '가짜 판례'는 왜 생성되는 걸까? 이는 현세대 AI의 엔진 역할을 하는 대형언어모델(LLM)의 기술적 특성에 기인한다. AI가 그럴싸한 거짓말을 하는 문제, 흔히 '환각(Hallucination)'으로 잘 알려진 이 문제는 아직 기술적으로 100% 근절이 불가능한 문제로 꼽힌다. LLM이 문장을 생성하는 과정은 사람처럼 정확한 맥락과 사실에만 근거를 두지 않는다. 학습된 데이터, 주어진 데이터에서 맥락상 통계적으로 가장 그럴듯한 다음 단어를 예측해 생성하는 '확률형 시스템'이다.

AI의 맹점: 사용자 만족을 위한 '가짜' 생성
무엇보다 AI는 사용자 요구에 부응하려는 경향이 있다. 컴퓨터 시스템의 보상은 '사용자의 긍정적 반응'이다. 따라서 학습 과정에서 모델은 인간이 선호하는 답변에 가중치를 부여한다. 만약 변호사가 "A라는 주장을 뒷받침할 판례를 찾아줘"라고 명령했을 때 적절한 판례가 없다면, AI는 사용자를 만족시키기 위해 그럴듯한 판례 창작이라는 수를 택할 수 있다는 뜻이다.

판례 데이터 접근성의 문제와 해결책
또한 애초에 범용 AI가 판례와 같은 법률 지식에 강하지 않다는 점도 한계다. 특히 한국은 판례 데이터 접근성이 유독 낮은 국가로 꼽힌다. 현재 미국 연방법원이나 유럽 주요국은 판결문 선고 후 일정 기간(24시간~1개월) 이내에 이를 대부분 무료로 공개한다. 반면 한국은 극소수 판결문을 제외하면 수요자가 1건당 1000원의 수수료를 내고 판결문 열람을 신청해야 한다. 판결문 내 개인정보 비실명화 작업과 관련 예산 부족이 유료화의 근거지만, 원하는 판례 데이터를 구하는 것이 상대적으로 힘든 구조다.

AI 리터러시: 책임감 있는 사용의 중요성
관계자의 말처럼 전문가들은 근본적으로 법조인의 AI 리터러시(Literacy, 문해력)가 문제라고 입을 모은다. AI가 생성한 결과물은 어디까지나 '보조적 수단'임에도 100% '맹신'하는 법조인들의 인식이 문제라는 것이다. 앞서 서호주 법원에서 AI 생성 판례가 적발된 변호사 역시 "AI가 생성한 내용은 신뢰할 수 있다는 잘못된 가정으로 모든 인용을 검증하지 않았다"고 인정한 사실이 전해진다.

AI 가짜 판례 쇼크: 법조계 신뢰를 위협하는 그림자
AI 기술 발전과 함께 법조계에서 AI가 생성한 가짜 판례 사용 사례가 증가하며 신뢰에 금이 가고 있습니다. 해외는 물론, 국내에서도 유사한 사례가 발생하며 AI의 맹목적인 신뢰에 대한 경고가 이어지고 있습니다. AI 기술의 한계를 인지하고, 책임감 있는 사용과 AI 리터러시 교육을 통해 법조계의 신뢰를 지켜나가야 합니다.

자주 묻는 질문: AI 가짜 판례 관련 Q&A
Q.AI가 생성한 가짜 판례는 왜 발생하는 건가요?
A.AI의 '환각' 현상, 즉 그럴듯한 거짓말을 생성하는 기술적 한계와 사용자의 요구에 부응하려는 AI의 특성, 그리고 부족한 판례 데이터 접근성 등이 복합적으로 작용하여 가짜 판례가 생성됩니다.
Q.AI 가짜 판례 문제를 해결하기 위한 방법은 무엇인가요?
A.AI 기술의 지속적인 개선과 함께, 법조인의 AI 리터러시를 높이고, AI 결과물에 대한 맹신을 경계하며, AI를 보조적인 도구로 활용하는 책임감 있는 자세가 중요합니다.
Q.AI 기술이 발전하면 가짜 판례 문제는 해결될 수 있을까요?
A.AI 기술 발전은 '환각' 발생 가능성을 낮추는 데 기여할 수 있지만, 완벽한 해결책은 아닙니다. AI 기술과 더불어 법조인의 윤리 의식과 책임감 있는 AI 활용이 함께 이루어져야 합니다.
