현재 위치 - 법률 상담 무료 플랫폼 - 특허 조회 - 구글이 고위험 자살 집단을 식별하기 위해 알고리즘을 사용할 수 있는 이유는 무엇입니까?
구글이 고위험 자살 집단을 식별하기 위해 알고리즘을 사용할 수 있는 이유는 무엇입니까?
큰 데이터는 자살의 위험을 더 잘 계산할 수 있기 때문이다. 구글은 두 개의 데이터 포인트, 즉 청소년과 컨설턴트의 대화 초기 단계, 컨설턴트가 그들과 이야기를 나눈 후 완성한 자살 위험 평가 등을 이용해 인공지능 훈련을 실시한다. 인공지능은 초기 단계와 최종 위험 평가의 데이터를 비교함으로써 초기 반응에 따라 자살 위험을 예측할 수 있다는 생각이다.

트레버 프로젝트의 기술 책임자인 존 캘러리 (John Callery) 는 "우리가 처음 몇 가지 정보와 최종 위험 평가에 따라 알고리즘을 훈련시킬 수 있다면, 많은 인류가 감지할 수 없지만 기계가 인식할 수 있는 것을 발견할 수 있다는 것을 알게 될 것" 이라고 말했다. Callery 는 컨설턴트들이 계속 자신의 평가를 할 것이라고 덧붙였다.

알고리즘은 알 수 없는 패턴을 식별할 수 있는 놀라운 잠재력을 가지고 있지만, 훌륭한' 문지기' 가 되려면 문제가 발생할 때 용감하게 앞으로 나아가서 제때에 개입하는 것이 관건이다. 비록 우리가 어떤 방면에서 이미 해냈지만, 이것이 우리가 진정으로 기술에 녹아들고 싶어하는 것인지는 아직 미지수이다. 캐나다와 영국의 공중 보건 프로젝트는 자살 위험을 예측하기 위해 소셜 미디어 데이터를 발굴한다. 페이스북에서는 알고리즘이 영상에서 자해나 폭력을 감지하면 현장 영상을 신속하게 표기해 경찰에 송신한다. (윌리엄 셰익스피어, 자해, 자해, 폭력, 폭력, 폭력, 폭력, 폭력, 폭력, 폭력)

우리는 구글에서' 해주 방법',' 의료 조언',' 실연을 회복하는 법' 을 검색했다. 우리는 구글로 모든 것을 이해한다. 검색 결과에 관련없는 정보가 섞일 수도 있고 오도될 수도 있지만 검색 자체는 이를 판단하지 않는다.

텍사스 대학 오스틴 분교 인류발전과 가정과학학과 주임인 스티븐 러셀은 "집에 가서 인터넷을 한다" 고 말했다. 그들은 이 정보를 세계 어느 누구에게도 공개할 수 있다. " 러셀은 수십 년 동안 연구성 소수 집단을 연구해 왔으며, 그의 연구는 독창적이다. 그는 심리적 문제가 있는 학생들은' 구글로 이런 문제를 해결해서는 안 된다' 고 말했지만, 실생활의 모든 문지기들은 수십 년 동안 이들 집단에 대한 오명과 편견을 가지고 있기 때문에 성소수집단에 대해 개방적이고 긍정적인 태도를 취하기가 정말 어렵다고 말했다. 그는 이렇게 말했다. "오늘날에도, 나는 몇몇 지배인들이' 우리 이곳에는 이런 아이가 없다' 고 말하는 것을 들을 수 있다. ♫ 이것은 항상 현실의 딜레마였다. ""