첫 번째 취약점. 인공지능 시스템은 여전히 장면이나 맥락을 벗어난 행동을 이해하지 못한다. 체스나 게임 등 고정된 규칙의 범위 내에서는 이러한 약점이 드러나지 않지만, 장면이 바뀌거나 변화가 일정 범위를 초과하면 인공지능은 즉시 "생각"할 수 없습니다.
둘째, 예측 불가능성입니다. 사용자는 AI가 어떤 결정을 내릴지 예측할 수 없습니다. 이는 시스템이 설계자의 원래 의도와 일치하지 않는 결정을 내릴 수 있기 때문에 이점이자 위험입니다.
셋째, 보안 문제와 취약점. 기계는 과정보다는 결과에 집중할 뿐 시스템의 허점을 찾아 말 그대로의 목표를 달성할 뿐이지만, 그것이 사용하는 방식은 설계자의 본래 의도가 아닐 수도 있다. 예를 들어, 도발적인 콘텐츠는 시청 시간을 늘릴 수 있으므로 웹사이트에서는 극단주의 동영상을 추천합니다. 또 다른 예로, 네트워크 보안 시스템은 파괴적인 소프트웨어 이식의 주요 원인이 사람이라고 판단하여 사람이 시스템에 진입하는 것을 허용하지 않습니다.
넷째, 인간과 컴퓨터의 상호작용이 실패합니다. 기계가 제안하고 인간이 최종 결정을 내리는 것은 인공지능의 특정 약점을 해결하기 위한 일반적인 방법이지만, 시스템 한계나 시스템 피드백에 대한 의사 결정자의 인지 능력이 다르기 때문에 이 문제는 근본적으로 해결될 수 없습니다.
확장 정보:
컴퓨터가 등장했을 때 인간은 인간의 사고를 시뮬레이션할 수 있는 도구를 갖기 시작했습니다. 그 후 몇 년 동안 수많은 과학자들이 이 목표를 위해 열심히 노력했습니다. 이제 인공지능은 더 이상 몇몇 과학자들의 전유물이 아닙니다. 전 세계 거의 모든 대학의 컴퓨터학과에서 이 과목을 공부하는 사람들이 있습니다. 컴퓨터공학을 전공하는 대학생들도 오늘날 모두의 끊임없는 노력으로 그러한 과정을 배워야 합니다. 컴퓨터가 정말 똑똑해진 것 같습니다.
예를 들어, 1997년 5월 IBM이 개발한 DEEP BLUE 컴퓨터가 체스 명장 카스파로프를 이겼습니다. 어떤 곳에서는 컴퓨터가 원래 인간만을 위한 작업인 다른 작업을 수행하도록 돕는다는 사실을 눈치채지 못할 수도 있습니다. 컴퓨터는 빠른 속도와 정확성으로 인간을 위한 역할을 수행합니다.
인공지능은 언제나 컴퓨터 과학의 최첨단 주제였습니다. 컴퓨터 프로그래밍 언어와 기타 컴퓨터 소프트웨어는 인공지능의 발전으로 인해 존재합니다.