최근 몇 년 동안 인공지능이 지속적으로 상승하여 전 세계 과학 연구 개발의 새로운 이슈가 되었다. 구글, 바이두, 알리바바, 텐센트 등 국내외 많은 대형 인터넷 회사들이 자금과 인재에 대한 투자를 늘려 인공지능 기술의 고지를 선점하려고 노력하고 있다. 국가 차원에서 많은 나라들도 인공지능 발전을 지원하는 정책을 내놓았다. 예를 들어, 20 14 년, EU 는 EU 로봇 R&D 프로그램, 20 16 년, 미국은 인공지능 개발 및 연구 국가 전략 프로그램, 20 17 년, 2017 년 올해 7 월 중국 정부는' 차세대 인공지능 발전 계획' 도 발표했다.
인공지능은 대량의 기술 실업을 초래할 수 있다.
인공지능은 인류의 생활을 더 좋게 만들 것인가, 아니면 더 나쁘게 만들 것인가? 인공지능은 비약적으로 도약하면서 의문과 보이콧을 동반한다.
최근 영국의 저명한 물리학자 스티븐 호킹 (Stephen hawking) 은 인공지능 (AI) 의 부상이' 인류 문명사에서 최악의 사건' 일 수 있다고 밝혔다. 인간 사회가 AI 의 발전을 통제할 수 있는 방법을 찾지 않는 한, 결과는 상상할 수 없다. 실제로 인공지능이 부적절하게 사용되면 많은 문제가 발생할 수 있습니다.
첫째로, 인공지능은 대량의 기술 실업을 초래할 수 있다. 이개복 혁신공장 회장은 20 16WISE 컨퍼런스에서 향후 10 년 동안 전 세계 50% 의 업무가 인공지능으로 대체될 것이라고 밝혔다. 정확한 데이터는 예측할 수 없을 수도 있지만 인공지능은 필연적으로 많은 직업을 사라지게 하고 취업침체로 이어질 수 있어 사회에 불안정을 초래할 수 있다.
둘째, 인공 지능은 새로운 불평등으로 이어질 수 있습니다. 개발자들은 인종적 편견, 성차별, 특정 질병 차별이 있을 수 있으며, 이를 바탕으로 개발된 인공지능에는 알고리즘 차별이 있어 새로운 불평등이 생길 수 있다. 또한 인공지능으로 인한 고용 침체와 생산성 향상으로 인해 부가 소수의 사람들에게 더 집중될 수 있으며, 이로 인해 새로운 자본 불평등이 초래될 수도 있다.
셋째, 인공지능은 책임 격차를 초래할 수 있다. 인공지능으로 인한 피해에 대해 어떻게 분배 책임을 져야 할지는 * * * * 의 인식이 이루어지지 않았다. 개발자와 생산자가 결함에 대한 보증책임을 져야 하는지, 인공지능의 법적 인격적 지위가 성립될 수 있을지는 미지수다. 개발자나 생산자가 파산 등으로 책임을 질 수 없을 때 부상자는 보상을 받지 못할 수도 있다.
넷째, 인공지능은 통제력을 잃고 후인류의 적이 될 수 있다. 개발자와 사용자는 부적절한 목적으로 인공지능을 개발하고 사용할 수 있으며, 이는 인류에게 파멸적인 재난을 초래할 수 있다. 예를 들어, 일부 극단적인 테러 단체들은 인공지능의 개발과 사용을 남용할 수 있다. 그리고 현재 인공지능은 이미 심도 있는 학습 능력을 갖추고 있으며, 계속 진화할 것이다. 호킹은 "느린 생물학적 진화로 인해 인간은 AI 와 경쟁할 수 없고 결국 대체될 것" 이라고 경고했다.
인공지능에 대한 우려는 근거 없는 것이 아니다.
인공지능의 출현에 대해 은밀한 우려가 있다는 것을 알 수 있는 것은 합리적이다. 많은 새로운 것들이 처음 등장했을 때, 널리 받아들여지지 않았고, 심지어 강한 보이콧을 당하기도 했다. 100 년 전의' 차마전' 과 마찬가지로, 자동차가 생산되자마자 마차업계의 강한 저항을 받았다. 왜냐하면 자동차가 마부, 마차 제조사, 마구간 매니저, 마분청소기 등 많은 사람들의 생계에 심각한 영향을 미쳤기 때문이다. 그러나, 선진 기술은 결국 막을 수 없고, 자동차는 결국 마차를 대신할 것이다.
인공지능은 반드시 미래에 인류 사회에 천지개벽의 변화를 가져올 것이다. 그러나 인공지능에 대한 많은 우려는 근거가 없는 것이 아니다. 효과적인 법적 규범이 없다면 인공지능은 인류의 복음이 아니라 인류의 죽음의 시계가 될 수도 있다. 그러나 인공 지능의 숨겨진 위험 때문에 개발을 완전히 금지하거나 부적절하게 제한해서는 안됩니다. 대신, 우리는 법률을 적극 활용해 인공지능을 적당히 효과적으로 감독해야 한다.
인공지능을 감독하는 것은 바로 인간의 지능을 감독하는 것이다.
사람은 인공지능의 총스위치이기 때문에 인공지능에 대한 규제는 우선 감독관의 지능이 필요하고, 인공지능의 개발자도 감독해야 한다. 개발자들은 인공지능을 설계할 때 사람 중심적이고, 이윤 극대화보다는 사회복지 극대화에 유리한 이념으로 기본적인 사회윤리를 준수하고, 각종 차별적 관념을 없애고, 평등의 원칙을 준수해야 한다. 부당한 목적을 위해 인공지능을 개발하는 것을 금지하다. 개발자는 관련 코드 프로그램을 신중하게 설계해야 하며, 인공지능이 홍보하는 수익이 그로 인한 피해에 크게 비례하지 않거나 비례 원칙을 위반하거나 통제력을 잃을 수 있다면 제때에 포기해야 한다.
둘째, 인공지능의 판매자와 사용자를 감독해야 한다. 판매자는 인공지능 제품 입고 검사 검수 제도를 수립하고 시행하고 인공지능 제품의 합격증 등을 검증하고 불합격한 인공지능 제품의 판매를 금지하고 인증 마크와 같은 품질 표시를 위조하거나 사용해서는 안 된다. 사용자는 마땅히 인공지능을 합리적으로 사용해야 하며 국가, 사회, 타인의 합법적인 권익을 훼손해서는 안 된다. 법은 적절한 사용 조건과 기준을 설정해야 한다.
셋째, 인공 지능 피해의 책임 분담 메커니즘을 명확히 한다. 개발자가 설계상 고의적이거나 중대한 과실이 있어 손해를 입힐 경우, 개발자는 책임을 져야 한다. 개발자가 당시의 인지적 한계로 미래를 예측하지 못해 피해를 입힌다면 개발자도 책임, 즉 결함 보증의 책임을 져야 한다. 개발자가 이익으로 그에 상응하는 위험을 감수해야 하기 때문이다. 이를 통해 개발자에게 해당 코드 프로그램을 세심하게 설계하도록 독촉할 수 있다. (존 F. 케네디, Northern Exposure (미국 TV 드라마), 예술명언) 클레임 방식에서 사용자와 피해자는 개발자나 판매자에게 직접 클레임을 제기할 수 있다. 판매자와 사용자가 잘못을 저질렀으니 그에 상응하는 책임을 져야 한다. 게다가, 점진적으로 완벽한 인공지능 제품 보험 제도를 세워야 한다.
기술 중립이 법치에서 벗어날 수 있는 것은 아니다.
과학기술은 법률의 궤도에서 발전해야 한다. 기술 중립은 기술이 법치에서 벗어날 수 있다는 것을 의미하지 않는다. 은밀한 근심이 있지만 법이 제대로 규정되면 많은 장점을 지닌 인공지능은 앞으로 인류 사회에 무한한 양의 에너지를 가져다 줄 것이다.
따라서 인공지능에 대한 적절하고 효과적인 감독을 실시하고 관련 법률제도를 제때에 수립, 변경 및 폐지해야 한다. 중국 국무부는' 차세대 인공지능 발전 계획' 에서' 인공지능 법규, 윤리 규범, 정책체계 수립, 인공지능 안전평가와 통제력 형성' 을 제안했다. 정부는 인공지능을 규제할 때 과학기술 혁신과 법률규제의 관계를 적절히 처리하고,' 혁신 장려, 포용성, 신중함' 원칙에 따라 사전 기록, 사후 징벌 메커니즘을 세워 법이 공민의 권리를 효과적으로 보호할 수 있도록 해야 하며, 과학기술 혁신을 지지하고 촉진할 수 있도록 해야 한다.