[미디어펜=김하늘 기자] 앞으로 금융회사는 인공지능(AI) 윤리원칙 마련, 조직 구성, 위험관리정책 수립 등 3중 내부통제장치를 마련해야 한다.
금융위원회는 8일 제1차 디지털 금융협의회 데이터분과회의를 개최하고 이같은 내용의 '금융분야 AI 가이드라인'을 발표했다.
우선 AI 금융거래를 하는 모든 금융사들은 내부통제 장치를 마련해야 한다. 회사별 원칙과 기준을 세워 AI 윤리 원칙을 마련한 후 잠재적인 위험을 평가·관리할 AI 전담 조직도 구축해야하며, 위험관리정책도 수립하도록 해 3중 내부통제장치를 마련해야 한다.
특히 신용평가, 대출 심사, 보험심사, 카드발급 심사 등 AI 의사결정이 개인 금융거래계약의 체결에 중대한 영향을 가져오는 경우 이에 대한 내부통제·승인 절차 등을 마련하고 별도 책임자를 지정해야 한다.
AI가 사람의 의사결정과정을 대체할 때는 필요시 사람에 의한 AI 시스템 감독·통제가 가능하도록 시스템도 설계하도록 했다.
AI를 통해 사생활 정보 등 민감정보를 활용하고자 할 경우 비식별 조치 등 안전한 정보 활용을 위한 충분한 조치를 거쳐야 하며, AI 학습에 이용되는 데이터의 출처, 품질, 편향성 등도 검증해야 한다.
도규상 부위원장은 "AI 기술의 안전성 등에 대한 사회적 신뢰가 충분하지 않은 만큼 이번 가이드라인을 통해 발생 가능한 위험을 명확히 인지하고 금융서비스 목적에 맞게 위험을 통제해야 한다"며 "AI 학습데이터의 품질을 엄격히 관리하고 개인정보보호 체계도 한층 강화해야 한다"고 말했다.
또 "사람에 의한 금융서비스를 받을 때와 같이 금융소비자가 서비스를 이해하고, 자신의 권리를 불편함 없이 행사토록 지원해야 한다"고 덧붙였다.
[미디어펜=김하늘 기자]