스탠퍼드 연구 결과, AI 법률 시스템의 부정확성 드러나
스탠퍼드 대학교의 최근 연구에 따르면, 법률 연구에 사용되는 AI 시스템에 우려되는 부정확성이 발견되었습니다. 이는 법조계와 LexisNexis, Thomson Reuters와 같은 기술 공급업체에 영향을 미칠 것으로 보입니다. 법률 연구를 위해 고안된 AI 도구들이 17%의 질의에서 잘못된 정보를 제공하고 있는데, 이를 "환각"이라고 합니다. 이는 잘못된 법적 판단으로 이어질 수 있습니다. 연구자들은 법률 시스템 내에서 AI 사용을 위한 투명하고 공개적인 기준 마련을 주장하고 있습니다.
주요 요약
- 약 75%의 법조 전문가들이 스탠퍼드 연구에서 밝혀진 17%의 오류율에도 불구하고 AI를 일상 업무에 도입하는 것을 고려하고 있습니다.
- LexisNexis와 Thomson Reuters 등 업계 선도 기업의 AI 도구들이 일반 AI 모델에 비해 오류를 줄이고 있지만, 여전히 6건 중 1건 이상에서 부정확한 결과를 생성하고 있습니다.
- 이 연구는 검색 강화 생성(RAG) 기술이 AI 도구의 부정확성을 해결하는 데 한계가 있음을 보여주며, 특히 관련 정보 확보와 문서 정확성 보장의 어려움과 같은 법률 분야의 고유한 과제를 강조합니다.
- AI 도구의 투명성 부족과 높은 오류율로 인해 법조 전문가들의 책임감 있고 윤리적인 활용에 어려움이 있으며, 잠재적인 효율성 저하를 막기 위해 수동 검증이 필요합니다.
분석
이 연구 결과는 법조 실무자의 상당 비율이 AI를 일상적인 활동에 활용하려 한다는 점에서 큰 영향을 미칩니다. 연구에서 지적된 17%의 오류율은 잘못된 법적 판단을 초래할 수 있으며, 법조 기관과 전문가들이 AI 생성 정보를 확인하는 데 추가 투자와 시간 배분이 필요할 것입니다.
또한 AI 도구에 의존하는 국가와 법 체계는 정의 실현의 실패와 같은 심각한 결과에 직면할 수 있습니다. 따라서 이 연구는 법조계가 투명하고 공개적인 기준을 수립하고 AI 도구에 대한 엄격한 평가를 실시하여 부정확성을 해결하고 책임감 있는 활용을 촉진할 필요성을 강조하고 있습니다.