인공지능이 보편화되면서 그에 따른 침해 책임의 인정과 부담은 현행 침해법 제도에 대한 또 다른 도전이다.
"현행법으로 볼 때, 침해책임주체는 민사 주체일 뿐, 인공지능 자체는 새로운 침해책임주체가 되기가 어렵다. 그럼에도 인공지능 침해 책임의 인정은 많은 현실적인 문제에 직면해 있다. " 청화대 로스쿨 교수 정효는 침해가 발생한 후 인공지능의 소유자인 사람은 책임을 져야 한다고 생각한다. 법적으로 논란이 없는 것 같다. 그러나, 인공지능의 구체적인 행동은 프로그램에 의해 통제된다. 침해가 발생했을 때 소유자인지 소프트웨어 개발자인지 여부는 논의할 만하다. "
마찬가지로, 무인자동차가 타인에게 피해와 침해를 일으킬 때 운전자인지 자동차 소유자인지, 아니면 자동차 제조사나 자동운전 기술의 개발자가 책임을 져야 하는가? 법률은 전문적인 무인자동차 침해 책임 규칙을 제정할 필요가 있습니까? 이 문제들은 진일보한 연구가 필요하다.
"현실적으로 인공지능 침해 책임의 책임 원칙은 더 많은 위험 책임이나 무과실 책임을 수반할 수 있다." 쳉 샤오 (Cheng Xiao) 는 제품 책임 또는 자동차 교통 사고 책임과 같은 무과실 책임을 적용 할 수 있다고 믿는다. 그러나 앞으로 고려해야 할 것은 인공지능 기술의 응용 자체가 매우 위험한 작업 (예: 드론) 에 속하는지, 이는 매우 위험한 작업으로 인한 손해책임이 적용되는지 여부를 결정한다는 것이다.
"현재 인공지능 침해 책임에서 인과관계, 잘못 등의 요소에 대한 판단은 점점 더 복잡해지고 있다." 쳉 하오는 또한 이전에 노출 된 일부 app "빅 데이터 살인" 과 "알고리즘 차별" 이 코드의 불투명도와 알고리즘 자체의 자기 학습 및 적응 능력 때문에 "개발자에게 알고리즘 차별을 비난하기 어렵다" 고 언급했다.
쳉 샤오 (Cheng Xiao) 의 관점에서 인공 지능으로 인한 새로운 문제와 도전에 대한 법률 시스템 연구에 대한 예방 조치는 미래의 사법 관행에 대한 주도권을 잡을 것입니다. "인공지능은 이미 도착했지만 생산생활의 각 분야에 불균등하게 분포되어 있다. 우리는 미래가 고르게 분포되어 있을 때까지 기다려서는 안 된다. 인공지능은 이미 생산생활의 모든 측면에 완전히 녹아들어 비로소 법적으로 그것을 규범화할 생각을 하게 되었다. " 쳉 샤오 는 말했다.