현재 위치 - 법률 상담 무료 플랫폼 - 온라인 법률 자문 - 기업 응용 분야의 인공 지능 윤리 강령
기업 응용 분야의 인공 지능 윤리 강령
기업 응용 분야의 인공 지능 윤리 강령

AI 는 지능 수준이 인간보다 낮거나 높지 않은 소프트웨어 제품으로,' 강강 AI' 라고도 한다. 그러나 위의 새 프로젝트에서 AI 에 대한 정의에는 인간의 의사 결정을 보완하거나 대체하는 기계 학습 및 데이터 중심 알고리즘도 포함됩니다.

예를 들어, 어두운 피부 사용자가 센서 위에 손을 올려놓을 때 일부 자동 비누 디스펜서가 작동하지 않는다는 증거가 있습니다. 이 시스템들은 모두 개발자가 직접 테스트한 것이지, 피부색이 다른 사용자들에게 테스트한 것이 아니다. 이 예는 인간이 만든 알고리즘이 개발자의 관점과 편견에 따라 행동한다는 것을 보여준다.

얼마나 많은 CEO 들이 자신의 회사가 AI 와 AI 알고리즘을 어떻게 획득하고 사용하는지 실제로 알고 있습니까?

인공지능 (AI) 이 점점 더 엔터프라이즈 애플리케이션에 사용되고 있습니다. 데이터 분석을 통해 고객 및 경쟁업체에 유용한 통찰력을 얻을 수 있어 경쟁 우위를 확보할 수 있습니다. 그러나 인공지능과 기업 인공지능 알고리즘의 도덕적 영향을 평가하는 병렬 추세도 있다.

바로 작년에 MIT 와 하버드대가 공동으로 인공지능 윤리를 탐구하는 프로젝트를 시작했는데, 2 천 7 백만 달러가 들었다. (윌리엄 셰익스피어, MIT, Northern Exposure (미국 TV 드라마), 과학명언) 최근 구글 20 14 가 인수한 영국 사설회사인 DeepMindTechnologies 는 AI 윤리를 연구하는 새로운 연구팀을 설립했다. 기타 최근 인공지능 윤리 프로그램으로는 IEEE 글로벌 인공지능 및 자치시스템 윤리 고려 프로그램, 뉴욕대 아이노 연구소, 캠브리지대 Leverhulme 미래지능연구센터가 있습니다.

왜 인공지능 도덕규범이 이렇게 재미있고, 그것은 상업조직에 무엇을 의미할까요?

최근 재난적인 브랜드 평판 피해와 대중의 비판은 기업에 인공지능을 배치하는 데 수반될 수 있는 윤리, 사회, 기업 위험을 드러낸다.

AI 의 정의

일부 전문가들은 AI 가 지능 수준이 인간보다 낮거나 높지 않은 소프트웨어 제품, 즉' 강강 AI' 를 가리킨다고 주장한다. 그러나 위의 새 프로젝트에서 AI 에 대한 정의에는 인간의 의사 결정을 보완하거나 대체하는 기계 학습 및 데이터 중심 알고리즘도 포함됩니다.

만약 우리가 이 광범위한 정의를 받아들인다면, 우리는 AI 가 이미 컴퓨터 시대의 특징이 된 지 여러 해가 되었다는 것을 깨달아야 한다. 오늘날, 빅 데이터, 인터넷 및 소셜 미디어 시대에는 인공지능 사용의 많은 장점이 널리 알려지고 널리 인정되고 있습니다. 즉, 인공지능은 기업에 경쟁 우위를 제공하고 효율성을 높이며 고객과 그 행동을 통찰할 수 있습니다.

알고리즘을 사용하여 데이터의 중요한 패턴과 가치를 발견하는 것은 가치 창출을 위한 비용 절감 방법, 특히 시장화 경쟁 환경에서 거의 만장일치로 인식되고 있습니다. 그러나 인공지능 윤리 프로젝트의 출현은 이러한 유익한 인공지능 응용이 역효과를 낼 수 있다는 것을 증명한다. 최근 재난적인 브랜드 평판 피해와 대중의 비판은 기업에 인공지능을 배치하는 데 수반될 수 있는 윤리, 사회, 기업 위험을 드러낸다.

상업기관은 그들이 AI 를 사용하는 방식에 대해 신중히 생각해야 한다. 왜냐하면 그것은 또한 상업적 위험을 초래할 수 있기 때문이다.

만약 한 기업이 AI 알고리즘이나 기계 학습 시스템 개발자의 잠재적 편견을 발견하지 못한다면, 그것은 기업의 모든 이해 관계자의 편견을 체계화할 수 있다.

사람들의 편견과 차별

AI 알고리즘과 우리가 이러한 알고리즘을 훈련시키는 데 사용하는 데이터 세트는 보통 인간에게서 나온다. 따라서, 이 알고리즘들은 불가피하게 사람들의 편견을 반영한다. 예를 들어, 어두운 피부 사용자가 센서 위에 손을 올려놓을 때 일부 자동 비누 디스펜서가 작동하지 않는다는 증거가 있습니다. 이 시스템들은 모두 개발자가 직접 테스트한 것이지, 피부색이 다른 사용자들에게 테스트한 것이 아니다. 이 예는 인간이 만든 알고리즘이 개발자의 관점과 편견에 따라 행동한다는 것을 보여준다.

이러한 편차는 일반적으로 의도하지 않지만, 결과가 의도적이든 의도하지 않든, 이러한 실수를 저지른 회사들은 잠재적인 위험에 직면하게 됩니다. (데이비드 아셀, Northern Exposure (미국 TV 드라마), 실패명언) 더 중요한 것은 의도적이든 무의식적이든 인공알고리즘에 내재된 인간의 편견이 검열을 크게 회피해 기업들이 AI 를 사용할 위험을 초래할 수 있다는 점이다.

만약 한 기업이 AI 알고리즘이나 기계 학습 시스템 개발자의 잠재적 편견을 발견하지 못한다면, 그것은 기업의 모든 이해 관계자의 편견을 체계화할 수 있다. 이로 인해 기업은 브랜드 평판 손상, 법적 소송, 대중의 비판, 직원 및 고객의 신뢰를 잃을 수 있습니다.

기업은 단순히 규율을 준수하는 것이 아니라 자신과 사회를 위해 더 많은 일을 해야 합니까? 기업은 AI 사용에 대한 공정하고 투명하며 인류에 대한 책임이 있다고 당당하게 말할 수 있습니까?

인공 지능의 광범위한 응용 및 위험

편견이 있는 비누액기는 단지 예일 뿐, 인공지능 알고리즘은 채용, 판결, 안전조작에도 사용될 수 있다. 소셜 미디어의 정상 또는 비정상 작동에 내재된 요소입니다.

간단히 말해서, AI 는 수많은 일상과 전문 업무에 사용된다. 그것은 어디에나 있고, 기업에 대한 잠재적 위험도 마찬가지다. 우리가 직면한 과제는 알고리즘이 어떻게 설계되고 감사되는지 이해함으로써 개발자의 의견과 편견 (의도적이든 무의식적이든) 을 피하는 것이다. 이것은 도전적인 문제를 제기한다.

얼마나 많은 CEO 들이 자신의 회사가 AI 와 AI 알고리즘을 어떻게 획득하고 사용하는지 실제로 알고 있습니까? (많은 기업들이 타사 AI 솔루션 공급업체와 협력하고 있습니다. ) 을 참조하십시오

회사의 실사는 법적 요구이다. 여기에는 회사에서 AI 응용 프로그램을 생성하고 사용하는 방법을 검토하는 작업이 포함되어 있습니까? AI 를 사용하는 회사에 대한 실사와 준수에 대한 법적 정의가 포괄적입니까? 전통적인 도덕과 기업 책임 개념이 여기에 적용됩니까?

기업은 단순히 규율을 준수하는 것이 아니라 자신과 사회를 위해 더 많은 일을 해야 합니까? 기업은 AI 사용에 대한 공정하고 투명하며 인류에 대한 책임이 있다고 당당하게 말할 수 있습니까?

이러한 질문에 답하기 위해 기업은 기업 윤리에 대한 입장을 검토 및 명확히 하고 체계적인 접근 방식을 사용하여 위험을 평가해야 합니다.

이런 추세를 조장하다

두 가지 추세는 AI 애플리케이션 및 AI 사용자 위험 평가의 긴급성과 중요성을 증가시킬 수 있습니다. 첫째, 소비자, 시민 및 정책 입안자들은 인공지능의 보편화와 가능한 남용 또는 예상치 못한 결과에 대해 점점 더 우려하고 있습니다. 따라서 투명성, 형평성, 책임제는 경쟁 우위로 더 많은 관심을 끌고 있다.

마지막으로 중요한 가치를 식별하고, AI 알고리즘의 설계에 포함시키고, 관련 위험을 이해하고, AI 관행에서 개인, 기업 및 사회의 유효성을 계속 검증하고자 합니다.

행동 호소

이러한 문제를 해결하는 첫 번째 단계는 의식이다. 귀사는 AI 를 어떻게 사용하는데, 누가 영향을 받을 수 있습니까? 평가를 위해 외부 전문가를 고용해야 합니까?

당신 회사의 핵심 가치관을 분명히 하는 것도 중요합니다. 당신이 AI 를 사용하는 방식이 그 가치관에 부합합니까? 그렇지 않다면, 우리는 어떻게 둘을 일치시킬까요?

이 문제를 해결하는 데 도움이 될 수 있는 자원이 있다. 예를 들어, 저는 다양한 AI 관련 어플리케이션의 모범 사례를 연구하고, 이러한 이해 및 의사 결정 지침을 강화하고, AI 응용 프로그램의 표준을 개발하는 데 도움이 되는 리소스를 제공하는 IEEE 인공 지능 및 자치 시스템 글로벌 윤리 고려 프로그램의 임원입니다. (IEEE 는 가장 큰 기술 전문 단체인 전기 전자 엔지니어 협회를 가리키며, 기술 발전을 촉진하고 인류를 축복하기 위해 노력하고 있습니다. ) 을 참조하십시오

중요한 자원은 이 프로그램의' 윤리디자인: 인공지능과 자주시스템이 인류의 복지를 우선시하는 비전' 이다. 이 문서는 이미 제 2 판을 출판하여 기술자가 독립과 지능 기술을 개발하는 과정에서 도덕적 요소를 우선적으로 고려하도록 독려했다.

이 프로그램은 IEEE 표준협회와 밀접한 협력 관계를 맺었다. 최근 IEEE 표준협회는 어린이와 학생의 데이터 거버넌스, 고용주의 투명한 관행, 인간의 개입 AI 의 기준을 마련하여 우리 각자에게 영향을 미치는 알고리즘의 개발이 인간의 가치관을 지향하도록 하기 시작했다.

마지막으로 중요한 가치를 식별하고, AI 알고리즘의 설계에 포함시키고, 관련 위험을 이해하고, AI 관행에서 개인, 기업 및 사회의 유효성을 계속 검증하고자 합니다.

안심하세요, 이것은 새로운 과제이며, 이 글에서 표현한 관심과 목표는 여전히 사람들이 적극적으로 연구하는 분야입니다. 그러나 인공지능 시대에 사회에 책임을 지는 기업이 되기 위해서는 기업 지도자들이 문제를 인식하고 기업 가치를 결정하고 이를 인공지능 응용의 도덕설계에 포함시켜야 한다.