미국시민자유협회(ACLU)는 경고음을 울리다 경찰 보고서 작성에 AI를 사용하는 것에 대해 기술이 증거와 법원 사건에 영향을 미치는 오류를 생성할 수 있다고 말했습니다. 비영리단체는 기술의 위험성을 강조했습니다. 백수행원 소식 캘리포니아 경찰서는 Axon의 Draft One이라는 프로그램을 사용하여 신체 카메라 녹음 내용을 기록하고 경찰 보고서의 첫 번째 초안을 작성하고 있습니다.
프레즈노의 한 경찰서는 시범 프로그램에 따라 Draft One을 사용하고 있지만 경범죄 신고에만 사용하고 있다고 말했습니다. Rob Beckwith 부국장은 “그것은 단지 템플릿에 지나지 않습니다.”라고 말했습니다. 업계 인사이더. “경찰이 버튼을 누르고 보고서를 생성하도록 설계되지 않았습니다.” 그는 부서에서 필사본에 오류가 있는 것을 확인했으며 군대 훈련을 위해 프레즈노 카운티 DA 사무실과 협의했다고 말했습니다.
그러나 ACLU는 AI 사용과 관련된 네 가지 문제를 지적했습니다. 우선, AI는 “기발하고 신뢰할 수 없으며 사실을 만들어내는 경향이 있고… 또한 편견이 있다”고 말했습니다. 둘째, 사건에 대한 경찰관의 기억은 “AI 바디 카메라 기반 스토리텔링에 오염되기 전에” 기억되어야 한다고 말했다. 경찰 신고가 단순히 신체 카메라 영상을 AI로 재해시한 것이라면 특정 사실이 생략될 수 있으며 경찰이 카메라에 포착되지 않은 불법적인 행위를 했다면 거짓말을 할 수도 있다고 덧붙였습니다.
세 번째 요점은 투명성에 관한 것이었습니다. ACLU에 따르면 대중은 독립적인 전문가의 분석을 기반으로 그것이 어떻게 작동하는지 정확히 이해할 필요가 있기 때문입니다. 형사 사건의 피고인은 증거를 조사할 수 있어야 하지만 “이러한 시스템의 작동 중 상당 부분은 여전히 미스터리로 남아 있습니다.” 마지막으로, 그룹은 AI 기록을 사용하면 재량권 사용에 대한 책임이 제거될 수 있다고 지적했습니다. “이러한 이유로 ACLU는 경찰이 경찰이 AI를 사용하여 경찰 보고서 초안을 생성하도록 허용해서는 안 된다고 생각합니다”라고 말했습니다.