엄밀히 말하면 인공지능은 약한 인공지능과 강한 인공지능으로 나눌 수 있다. 약한 인공지능은 인류가 설계하고 창조한 인간 지능의 어떤 방면을 가리키며, 인간의 통제에서 완전히 벗어나서는 안 된다. 예를 들어 시리는 휴대전화 소프트웨어의 복잡하고 약한 인공지능에 의지하여 인터넷 클라우드의 복잡하고 약한 인공지능과 도킹하여 인간적인 고급 약한 인공지능 프로젝트를 만들었다. 강력한 인공지능은 인간과 동일하거나 능가하는 지능 수준을 가지고 있기 때문에 인간처럼 모든 문제를 해결할 수 있으며, 그 작동은 인간의 통제를 전혀 받지 않는다. 물론 현재로서는 강력한 인공지능은 아직 실현되지 않은 환상이다.
인공지능의 법적 문제를 연구하려면 우선 그 핵심 질문에 답해야 한다. 인공지능의 법적 지위는 무엇인가? 인공지능은 사람이냐 물건이냐? 법적 주체 자격을 가질 수 있습니까?
인공지능업계는 선진도에 따라 인공지능을 약한 인공지능, 강한 인공지능, 슈퍼인공지능의 세 가지 범주로 나누었다. [4] 현재 인공지능의 발전 단계에 따라 인공지능은 여전히' 약한 인공지능 시대' 에 있다. 약한 인공지능은 인류가 설계하고 창조한 인간 지능의 어떤 방면을 가리키며, 인간의 통제에서 완전히 벗어나서는 안 된다.
약한 인공지능의 경우, 인공지능은 단지 행위일 뿐, 법률 주체 자격을 구성하지 않는다. 인공지능은 주체 행동의 도구이므로 주체 행동의 한 가지 방법이며 주체 행동의 연장이다. 이런 행위가 법률행위의 객관적 요소, 주관적 요소, 확인요건을 충족하면 인공지능 주체를 구성하는 법적 행위다.
법률 행위의 객관적 요건은 외적 행위, 수단, 결과를 포함한다. 행위는 법률행위의 가장 기본적인 요소이며, 법률행위 주체가 객체에 작용하는 중개 방식이다. 이전에 인공지능에 대한 분석에 직면하여 인공지능이 행동이자 행동 방식이라는 것을 알아냈다. (윌리엄 셰익스피어, 인공지능, 인공지능, 인공지능, 인공지능, 인공지능, 인공지능, 인공지능) 따라서 인공지능은 그 주체인' 인공지능의 개발자, 제작자, 사용자' 가 행동하고 행동하는 방식이다. [5] 현재 인공지능은 이미 일정한 사회적 영향을 미쳤다. 도구를 만드는 이유는 사람들이 환경에 적응하고 변화하기 때문이며, 자신의 생존과 발전을 위해 인류가 직면한 여러 가지 문제를 해결하기 위해 인류가 수행해야 할 다양한 임무를 완수하도록 돕기 때문이다.
결론적으로 인공지능은 주체의 합법적인 행위이다. 현재로서는 분명히 그들에게 개성을 부여할 필요가 없다. 약한 인공지능이 인격을 부여받는다면, 그것은 독립적으로 책임을 져야 한다는 것을 의미한다. 그렇다면 약한 인공지능이 사고를 일으켜 피해를 입힌다면 피해자는 제조사나 사용자가 아닌 약한 인공지능으로부터 보상을 받아야 한다. 현행 법률 제도 하에서, 피해자가 고칠 수 없는 결과를 초래할 수 있는 것이 분명하다.
유네스코가 20 16 년 통과시킨 로봇 윤리 보고서 초안에 따르면 이 보고서는 스마트제품 (로봇) 을 통상적인 기술제품으로 간주하고 스마트제품과 그 기술에 대한 피해는 제품책임 관련 제도를 통해 조정할 수 있다. 이 경우 인공지능의 침해 책임은 특수침해 책임 중 제품 책임 원칙, 즉 무과실 책임으로 인정하고 추궁할 수 있으며, 과실의 존재를 증명할 필요가 없다. 보고서는 독립의식이 없는 약한 인공지능 제품만을 겨냥한 것이므로, 독립의식을 가진 인공지능을 통상적인 의미에서 기술제품으로 보는 것은 분명히 불합리하다.