인공지능이 우리 삶에 깊숙이 자리 잡고 있다. 형사사법 분야도 예외가 아니다. 범죄예방은 물론이고 증거분석과 양형에 이르기까지 형사사법 과정의 다양한 단계서 인공지능 기술이 활용되고 있다.
한쪽에서는 AI 기술이 형사사법의 효율성과 정확성, 그리고 공정성을 높일 것이라고 주장한다. 반면 편견, 투명성, 윤리적 문제 등을 고려해야 한다며 우려하는 시선도 제법 보인다.
여러 논쟁에도 불구하고 AI의 활용은 거부할 수 없는 대세가 되고 있다. 전통적 경찰이 사람에 의한 인력 치안이었다면 이제는 과학기술을 최대한 활용하는 과학 치안이 거역할 수 없는 추세가 아닐까 한다.
현재 형사사법 과정서 인공지능이 가장 활발하게 활용되는 건 범죄예방 분야다. 인공지능이 범죄 활동에 대응하고 범죄 문제를 해결하는 방법을 혁신하는 범죄예방 분야서 강력한 도구로 등장한 것이다.
‘예측적 경찰 활동 알고리즘(Predictive Policing Algorithm)’이나 개선된 감시 체계와 같은 AI 기술을 적용함으로써, 관계 당국에서는 방대한 데이터를 분석하고, 유형을 정확하고 신속하게 파악하며, 어떤 사람이 범행할 개연성이 높은가를 알 수 있게 됨으로써 이를 근거로 전략적으로 자원을 배분할 수 있다는 것이다.
이것이 바로 인공지능이 가져다주는 효율성과 정확성일 것이다. 특히 자원의 한계를 고려한다면 효율성의 가치는 훨씬 더 부각될 수밖에 없다.
인공지능으로 작동하는 감시 체계도 의심스러운 행동을 파악하고 실시간 감시를 향상시킴으로써 범죄예방에 핵심적인 역할을 할 수 있다.
얼굴 인식 기술과 향상된 영상 분석 기술을 탑재한 감시 카메라는 비정상적인 행위를 찾아내 의심스러운 사람을 파악하고, 경찰에 실시간으로 알린다. 이런 시스템은 조기경보 및 신속 대응을 가능하게 만들고 기물파손, 절도, 공공질서 위반 행위와 같은 범죄예방에 도움을 준다.
AI 기술은 소셜미디어 플랫폼의 분석과 모니터링으로 잠재적인 위협을 발견할 수 있게 한다. 이런 기법은 범죄 발생 전 잠재적 범죄 사건을 미연에 파악해 조기에 개입함으로써 범죄를 사전에 방지하는 데 도움을 줄 수 있다.
그러나 AI 기술의 적용과 지나친 의존은 사생활 침해와 ‘허위 긍정(False Positive)’, 즉 사실이 아닌데도 사실로 예측하는 오류 등과 관련된 우려를 낳기도 한다. AI가 경찰을 비롯한 전체 형사사법제도에 효율성, 정확성, 공정성을 가져올 수 있지만 동시에 편견과 윤리적 문제도 동반할 수 있는 것이다.
이 같은 우려를 불식시키면서 AI를 적용하기 위해서라도 형사사법기관은 공정성, 투명성, 책임성을 더욱 강조할 필요가 있다. AI는 사회적 편견과 제도적 불평등 등을 반영할 수 있는 역사적 데이터를 기반으로 기계적 학습을 거치기 때문에 이렇게 편향된 데이터를 사용하는 AI는 차별적 관행을 더욱 확대하고 영속화시킬 수 있다.
AI가 위험 장소, 시간, 인물, 행동 등에 대한 조기 파악과 개입이라는 선물을 줬지만, 한편으로는 사람을 프로파일링해 범죄가 행해지기 전 행동을 취하는 것은 ‘모든 형사절차서 유죄가 확정되기 전까진 무죄로 추정된다’는 헌법적 권리를 침해하는 것으로 볼 수도 있다.
인공지능의 활용은 기회임과 동시에 도전이다. AI 기술이 효율성, 정확성, 공정성을 높이지만 동시에 편견, 투명성, 윤리성과 관련된 우려를 완전히 지워내진 못한 상태다. AI의 장점은 극대화하면서 공정성, 정의, 평등성의 원칙은 지켜야 하고 이를 위해서는 기술 향상과 개인의 자유와 권리의 균형이 필요하다.
사실 AI는 인간의 대체제가 아니라 보완제여야 하고, 최종 판단과 의사결정 책임은 AI의 기술이나 기계가 아닌, 인간이어야 한다. 기계와 기술에 대한 인간의 엄격한 감시와 감독이 편향된 결과와 부정의한 관행을 최소화할 수 있다.
[이윤호는?]
동국대 경찰행정학과 명예교수
고려사이버대 경찰학과 석좌교수