[이데일리 최정훈 기자] 금융당국이 금융분야 인공지능(AI) 활용에 대한 가이드라인 개정 작업에 속도를 내고 있다. 최근 정권 교체 이후 대통령실에 AI수석비서관을 신설하고 관련 법제화 논의가 본격화하면서 금융권에서도 AI 규범을 고도화할 필요성이 커졌기 때문이다. 그러나 ‘책임소재 불명확’, ‘소비자 보호 미흡’ 등 기존 문제는 여전히 해소되지 못했다는 지적이 나온다.
![]() |
[그래픽=이데일리 김정훈 기자] |
11일 금융당국에 따르면 금융위원회는 지난달 29일 ‘금융분야 AI 활용 가이드라인 개정방향 연구’ 용역에 대해 2000만원 규모의 추가 계약을 체결했다. 이 연구는 올해 3월부터 이미 진행하던 용역이었지만 최근 AI 관련 정책환경 변화에 맞춰 범위와 내용을 고도화하기 위해 연장 결정을 내린 것이다. 이재명 대통령 당선 이후 대통령실에 AI수석비서관직을 신설하고 AI 관련 입법도 정부 핵심 어젠다로 부상한 만큼 금융위 역시 이에 보조를 맞추는 행보로 풀이된다.
현행 가이드라인은 2021년 12월 제정한 것으로 금융사의 AI 활용 시 설명가능성, 공정성, 책임성 등을 확보하도록 권고하는 자율규범이다. 그러나 기술 발전 속도에 비해 지나치게 추상적이고 법적 구속력이 없다는 점에서 실효성 부족 문제가 꾸준히 제기됐다. 이에 금융위는 지난해 12월 AI 가이드라인 개정을 공식화했지만 당시 정국 혼란과 비상계엄 선포 논란 등으로 실무 착수는 지연됐다. 그 사이 생성형 AI가 대출 심사, 보험 인수심사, 고객상담 등 금융 영역에 빠르게 확산하며 규제 공백이 커졌다.
특히 AI가 내린 결정에 오류나 편향이 발생했을 때 책임소재가 불명확하다는 점이 비판의 핵심이다. 예를 들어 AI가 신용평가 모델에서 특정 집단에 불리한 결과를 내거나 생성형 AI가 잘못된 금융 조언을 내놨을 때 금융사와 기술 제공사 중 누가 그 책임을 질 것인지에 대해 명확한 기준이 없다.
이번 용역 개정의 핵심 쟁점 중 하나도 바로 생성형 AI에 대한 통제 체계 마련이다. 기존 가이드라인은 전통적인 머신러닝 기반 기술을 전제로 만들어졌지만 최근에는 생성형 AI나 외부 API를 활용한 하이브리드 형태의 시스템이 빠르게 도입하고 있어 규범의 적용범위와 책임구조도 재정립이 필요하다.
또 AI 의사결정에 대한 설명요구권이나 이의제기권 등 금융소비자의 권리를 실질적으로 보장할 수 있는 장치도 부족하다는 지적이다. 현행 가이드라인은 “소비자가 이해할 수 있도록 설명”하도록 권고하고 있지만 실제 금융사에서는 시스템 구조나 모델 한계를 이유로 충분한 설명을 회피하는 사례가 적지 않다.
일각에선 이번 개정 작업이 자율규범 수준을 넘어서 법적 기준이나 감독체계 정비로 이어지지 않으면 실효성이 떨어질 수 있다고 지적한다. 특히 유럽연합(EU)은 올해 초 AI법(AI Act)을 제정해 고위험 AI에 대한 엄격한 의무 규정을 도입했고, 미국·싱가포르 등도 실무 지침과 감독기능을 구체화하고 있다.
이번 연구용역은 오는 7월까지 완료될 예정이며, 금융위는 이를 바탕으로 하반기 중 가이드라인 개정안을 마련할 계획이다. 이후 업계 의견수렴 및 시범 적용 등을 거쳐 규범 체계를 정비할 방침이다. 하지만 AI 기술이 실생활 금융에 빠르게 침투하고 있는 만큼, ‘형식적 가이드라인 개정’에 그칠 때 규제 실효성 논란은 계속될 수밖에 없다는 지적도 함께 나온다.
금융권 관계자는 “AI를 도입하면 효율성이 높아지는 건 사실이지만, 민감한 의사결정까지 AI가 관여하면 소비자 민원도 급증할 수 있다”며 “이번 가이드라인 개정이 단순한 권고 수준을 넘어 실질적인 책임 구조나 설명 기준이 담겨야 한다”고 말했다.