1, 인간미와 인간적인 판단 부족: 기계 사법은 알고리즘과 데이터 분석을 바탕으로 판결을 내리고 인간 판사처럼 사건의 특수한 상황, 배경, 인정을 고려할 수 없다. 이로 인해 개인 상황의 미묘한 차이를 충분히 고려하지 못하고 인간적인 판단이 부족하다.
2. 데이터 편차 및 불공정: 기계 정의의 판단 결과는 입력 데이터 및 알고리즘 설계에 따라 달라집니다. 데이터에 편차가 있거나 알고리즘에 결함이 있는 경우 기계 정의는 불공정한 결과를 낳는다. 예를 들어, 알고리즘 훈련 데이터에 인종적 또는 성별 편견이 존재하면 판단이 특정 집단에 불공평할 수 있습니다. (데이비드 아셀, Northern Exposure (미국 TV 드라마), 남녀명언)
3. 투명성과 해석 가능성: 기계 정의의 의사 결정 과정은 종종 복잡하며 많은 양의 데이터와 알고리즘 모델을 포함합니다. 이로 인해 판단 결과의 투명성과 해석 가능성, 즉 기계가 어떻게 결정을 내리는지 이해하기 어렵다. 이것은 사법 정의에 대한 대중의 신뢰와 평가에 어려움을 가져왔다.
4. 기술적 의존성 및 취약성 위험: 기계적 정의는 기술 장비 및 소프트웨어 시스템의 운영에 의존하며, 장애나 허점이 발생하면 잘못된 판단 결과나 데이터 유출로 이어질 수 있습니다. 또한 해커 공격과 악의적인 조작 기술도 기계 사법에 위협이 될 수 있다.
5. 법률 적응성: 법률의 발전 변화는 사회와 인간의 가치에 적응하는 과정이다. 기계 사법의 알고리즘과 모델은 종종 역사적 데이터와 규칙에 따라 훈련을 하며, 법률의 진화와 신흥 문제에 대한 처리에 적응하기 어려워 기계 사법의 판결이 사회의 기대와 요구에 맞지 않게 되는 경우가 많다.
기계 사법이란 기계화 기술과 알고리즘에 의지하여 판결과 판결을 내리는 사법방식을 말한다.