FNTIMES 대한민국 최고 금융 경제지
ad

다가온 AI 시대, 미래 앞당기는 은행권 (하)

임지윤 기자

dlawldbs20@

기사입력 : 2021-08-30 14:16 최종수정 : 2021-08-30 14:29

사생활 침해‧편향성 등에 대비해야

AI 전문 인력 확보가 시급

데이터 댐 활용도 높여야

  • kakao share
  • facebook share
  • telegram share
  • twitter share
  • clipboard copy
디지털기술의 급성장과 신종 코로나바이러스 감염증(코로나19)으로 인해 인공지능(AI) 위주로 금융업 비즈니스 모델이 재편되고 있다. 일각에서는 AI가 인간 기본권을 침해할 수 있고, 개인 신용 정보가 보호되지 않을 수 있다는 우려도 나온다./사진=픽사베이(Pixabay)

디지털기술의 급성장과 신종 코로나바이러스 감염증(코로나19)으로 인해 인공지능(AI) 위주로 금융업 비즈니스 모델이 재편되고 있다. 일각에서는 AI가 인간 기본권을 침해할 수 있고, 개인 신용 정보가 보호되지 않을 수 있다는 우려도 나온다./사진=픽사베이(Pixabay)

이미지 확대보기
[한국금융신문 임지윤 기자] 금융업의 인공지능 활용, 어디까지 왔을까? 금융 소비자에게는 어떤 장단점이 있을까? 인공지능이 활용에 적극 나서는 은행권의 현재 모습을 비추며 미래 전망을 알아본다. <편집자 주>

본격적인 기술혁명 시대가 펼쳐졌다. 디지털기술의 급성장과 신종 코로나바이러스 감염증(코로나19)으로 인해 인공지능(AI) 위주로 금융업 비즈니스 모델이 재편되고 있는 것이다.

은행들은 AI 기반의 스마트폰 불법 프로그램 탐지 서비스를 선보이며 소비자보호 체계를 고도화하고 있다. AI 기반 문자판독(OCR) 시스템을 도입해 업무 효율성도 높이는 중이다.

하지만 AI가 인간 기본권을 침해할 수 있고, 개인 신용 정보가 보호되지 않을 수 있다는 우려도 일각에서 제기된다. 아울러 정보통신(IT) 분야와 금융업이 활발하게 융합할 수 있도록 규제를 완화할 필요성도 언급되고 있다.

이런 가운데 금융위원회는 지난달 AI 기반 금융 서비스 개발을 위한 가이드라인을 발표했다. 주요 핵심 내용은 ‘지속 가능한 금융혁신 환경 조성’이다.

◇ AI로 인한 리스크 줄여야

인공지능 분야 전문가들은 자동화한 의사결정 등 AI가 갖는 특수성으로 인해 신중한 활용을 요구한다.

서정호 금융연구원 선임연구위원은 지난 17일 한국금융연구원에서 열린 ‘금융업의 인공지능 활용과 향후 과제’ 세미나에서 “인공지능으로 인해 금융소비자나 금융회사가 어떤 유형의 피해를 입을 수 있을지 상정하고, 해당 피해를 최소화하는 방안을 모색해야 한다”며 “재산 손실 외에도 사생활 침해, 편향성 등 인간 기본권을 침해할 개연성에 대비해야 한다”고 목소리 높였다.

서 연구위원은 “이러한 AI로 인한 문제를 해결하기 위해 분야별 필요시 알고리즘의 투명성과 설명 가능성을 높이는 방안이 마련돼야 한다”며 “개인신용 정보 보호, 개인신용 정보에 기반한 차별 금지, 금융상품 판매행위 규제 준수 등이 AI 활용 분야에서 적절히 보장되고 있는지 점검할 필요가 있다”고 피력했다.

이어 “인공지능이 개입된 판단으로 손실 발생 시 책임 소재가 명확하게 정의되어야 할 것”이라며 “운영리스크에 관한 가이드라인이 필요하다”고 주장했다.

그는 “다만, 인공지능 정의가 불명확하므로 단순히 ‘인공지능’에 일률적 규제를 설계하는 것은 무의미하다”며 “높은 수준의 리스크를 발생시키는 분야에 집중적으로 규제하는 ‘리스크 기반의 접근’이 필요하다”고 설명했다.

고학수 서울대학교법학전문대학원 교수는 금융 독해력 판단을 위한 인프라를 구축해야 한다고 주장했다. 그는 “AI를 활용한 금융 서비스 제공에 있어 금융 소비자의 이해 수준 등을 고려해야 한다”며 “금융 독해력 측정이 가능해지면, 장차 개인에 맞는 개별화한 설명도 가능해질 수 있다”고 말했다.

고 교수는 지난 2019년 ‘애플 카드’(Apple Card)가 성차별 논란에 휩싸인 사례를 들며 “AI의 활용 과정에서 공정성에 관한 논란이 발생할 가능성이 있다”고 말했다.

당시 애플 카드는 같은 조건에 여성의 신용점수가 더 높은데도 남편의 신용 한도가 10~20배 이상 높게 나와 이용자들이 문제를 제기했다. 신용 한도를 부여하는 AI(인공지능)에 사회적 편견이 내재돼있다는 지적이 지속적으로 제기됐고, 결국 뉴욕 금융당국은 조사에 착수했다.

고 교수는 “AI 공정성에 관해 다양한 개념이 제시돼 있는데, 이 중 금융 영역에 적합한 개념 지표가 어떤 것인지 구체화하고, 측정 가능한 형태의 지표를 두출해 낼 필요가 있다”며 “투명성 제고를 위해 요구되는 ‘설명 가능성’ 개념을 어떻게 구현할 것인지에 관해서도 구체화하는 과정이 필요하다”고 말했다.

그는 “AI나 머신러닝 모델의 설명 가능성 구현에는 설명 가능한 모델을 사용하는 방법과 ‘블랙박스’ 모델을 설명하는 방안 등이 있다”며 “블랙박스 모델을 이용하더라도, ▲글로벌 ▲국지적 ▲예제 기반 등 다양한 방법으로 설명하는 방식이 개발되고 있는데, 이중 금융 영역에 적용 가능한 방법이 어떤 것인지에 관한 추가 모색이 필요하다”고 덧붙였다.

구태훈 KB국민은행 금융AI센터장 역시 전문 인력 확보 등을 통해 리스크를 최소화할 필요성에 동의했다. 그는 “AI 기술 내재화는 관련 전문성 확보와 개발 조직 보유, 플랫폼 서비스 제공으로 정의할 수 있다”며 “이를 통해 금융기업이 디지털 전환(DT) 리스크를 최소화하면서 고객 경험 극대화를 달성할 수 있다”고 전했다.

구 센터장은 “금융 AI 발전을 통해 글로벌 금융 서비스 경쟁력을 확보해야 하고, 빅테크(대형 정보기술 기업) 기술의 사용자가 아니라 빅테크가 되고자 하는 노력이 필요하다”며 “하나의 같은 조직 아래에서 민첩하게 수행, 관리가 이뤄지도록 일하는 방식을 변화해야 하고, 전문 역할 중심으로 조직을 개편해야 하며 본질적인 경쟁력 확보를 위해 중장기적 AI 과제 및 로드맵이 있어야 한다”고 덧붙였다.
트위터 이용자 데이비드 핸슨은 애플 카드 신용 한도가 인공지능(AI) 알고리즘에 따라 성별 차이가 발생한다고 비판해 많은 네티즌의 공감을 받았다./사진=트위터 화면 갈무리

트위터 이용자 데이비드 핸슨은 애플 카드 신용 한도가 인공지능(AI) 알고리즘에 따라 성별 차이가 발생한다고 비판해 많은 네티즌의 공감을 받았다./사진=트위터 화면 갈무리

이미지 확대보기
◇ “금융과 IT 협업 위해 AI 관련 규제 완화 필요”

서진호 선임연구위원은 “오픈소스 기반으로 발전하는 AI는 ‘망 분리 규제’로 인해 내부 활용에 어려움이 많다”며 “IT 개발 분야와 금융업 간 협업이 활발하게 이뤄질 수 있도록 관련 규제를 완화할 필요가 있다”고 말했다.

또한 “인공지능 학습 수행을 위한 공공 클라우드 환경을 충분히 활용할 수 있도록 지원이 있어야 한다”며 “은행 내부의 데이터만으로 인공지능 기술을 도입하는 데는 한계가 있기 때문에 테스트 베드나 공공 데이터, 데이터 댐의 활용을 높여야 한다”고 덧붙였다.

서 연구위원은 금융사에 관한 제언도 아끼지 않았다.

그는 “무엇보다 금융회사 내부에 인공지능 관련 데이터 관리를 책임질 거버넌스를 명확하게 구축하고, 인공지능 도입 효과도 지속적으로 관리해야 한다”며 “전문 인력 부족이 가장 시급한 문제로 인식되고 있으므로, 머신러닝 엔지니어나 데이터 분석 전문가 등 세부 분야별로 중장기 인력 확보 방안을 마련하고 추진해야 한다”고 말했다.

이어 “자체 역량이 부족한 부분에 관해서는 핀테크 등 외부 기업과의 협업이나 기술기업 투자를 적극 추진해야 할 것”이라고 전했다.

급변하는 금융업 변화에 따라 금융보안을 더욱 신경 써야 한다는 지적도 나왔다.

이상록 금융보안원 보안연구부장은 “AI 거버넌스 구축과 운영‧관리적 대응, AI 개발 단계별 기술적 대응 등을 통해 AI 보안 위협에 대응해야 한다”며 “이를 위해 업권별로 AI 실무지침 및 서비스별 세부 준칙 마련 시 AI 보안에 관한 내용이 구체적으로 포함될 필요가 있다”고 주장했다.

현재 미국과 영국, 싱가포르 등 영미계는 직접 규제보다는 가이드라인 형식으로 민간 자율을 우선시하고 있으며, 가이드라인에는 안전성과 윤리적 책임성을 강조하고 편향성을 줄이는 내용이 주를 이룬다.

이와 반대로 유럽연합(EU) 집행위원회에서는 인공지능 관련 법안을 최근 의회에 제출했다. 고위험 AI 시스템을 8가지 유형으로 정의하고 법적 요구 사항을 제시했으며, ▲고위험 AI 시스템에 대한 적합성 평가 ▲AI 규제 샌드박스 ▲시장감시 기능 강화 등을 법안 내용에 담았다. 오는 2023년 5월 시행을 목표로 한다. 규제와 함께 AI 도입 촉진을 위한 테스트 베드 구축 등도 지원 중이다.

국내에서는 지난 2019년 관계 부처 합동으로 ‘인공지능 국가전략’을 제시하고 추진과제와 실행계획을 발표했다. 지난해 AI 법제 정비단을 출범과 함께 ‘인공지능 법‧제도‧규제 정비 로드맵’도 제시한 상황이다. 금융 분야에 관해서는 ‘이상 금융거래 탐지 및 차단시스템 기반의 전자금융사고 대응체계 강화’와 ‘결제 및 인증 서비스의 안전성 강화’를 우선 추진과제로 설정했다.
금융위원회가 지난달 발표한 금융 분야 인공지능(AI) 가이드라인./자료=금융위원회

금융위원회가 지난달 발표한 금융 분야 인공지능(AI) 가이드라인./자료=금융위원회

이미지 확대보기
◇ “지속 가능한 금융혁신 환경 조성할 것”

금융위원회는 지난해 7월 금융위원회에서 ‘금융 분야 AI 활성화 워킹그룹’을 구성해 운영 중이다. 지난달 도규상닫기도규상기사 모아보기 부위원장 주재로 '제1차 디지털금융협의회 데이터 분과회의'를 열어 AI 기반 금융 서비스 개발을 위한 가이드라인을 발표하기도 했다. ▲금융산업의 책임성 강조 ▲학습용 데이터의 정확성·안전성 확보 ▲금융 서비스의 투명성·공정성 담보 ▲금융소비자 권리의 보장을 중심으로 구성됐다.

우선 AI 서비스의 책임 있는 운영을 위해 ▲AI 윤리 원칙 마련 ▲AI 조직 구성 ▲위험관리 정책 수립의 '3중 내부 통제장치'가 마련된다. AI 윤리의 경우 금융사는 회사별 가치, AI 활용 상황 등에 따라 AI 서비스 개발과 운영 시 준수해야 할 원칙과 기준을 수립해야 한다. AI의 잠재적 위험을 평가·관리할 구성원의 역할과 책임과 권한을 서비스 전단계에 걸쳐 구체적으로 정의하도록 했다. 아울러 AI 의사결정이 개인의 금융거래 계약의 체결·유지에 중대한 영향을 가져오는 경우 내부통제·승인 절차 등을 마련하고 별도의 책임자를 지정하도록 했다.

또한 학습용 AI 개발·학습 단계에서 질 좋은 데이터가 활용되도록 하고 개인신용 정보 오·남용이 없도록 정보보호도 강화한다. 특히 사생활 정보 등 민감정보를 활용할 경우 안전한 정보 활용을 위한 충분한 조치를 거치도록 했다. 소비자 차별이 나타나지 않도록 서비스 특성별로 위험요인을 통제하고 서비스 공정성도 높인다.

금융위는 금융소비자가 AI 서비스에 관한 충분한 설명을 듣고 자신의 권리를 충분히 행사할 수 있도록 지원할 방침이다. 또한 이 같은 내용을 골자로 한 '금융 분야 AI 가이드라인'을 연내 시행하려고 한다. 금융업권‧협회 등을 중심으로 실무지침 제정 조직을 구성·운영해 3분기 내 실무지침도 마련할 계획이다.

도규상 금융위 부위원장은 "앞으로 AI 등 기술혁신이 금융의 질적 변화를 주도할 전망"이라며 "AI 기술의 안전성 등에 관한 사회적 신뢰가 충분하지 않은 만큼 이번 가이드라인을 통해 AI 금융 서비스에 대한 사회적 신뢰를 공고히 하고 지속 가능한 금융혁신 환경 조성을 추진할 계획"이라고 말했다.

임지윤 기자 dlawldbs20@fntimes.com

가장 핫한 경제 소식! 한국금융신문의 ‘추천뉴스’를 받아보세요~

데일리 금융경제뉴스 FNTIMES - 저작권법에 의거 상업적 목적의 무단 전재, 복사, 배포 금지
Copyright ⓒ 한국금융신문 & FNTIMES.com

오늘의 뉴스

ad
ad
ad
ad

한국금융 포럼 사이버관

더보기

FT카드뉴스

더보기
[카드뉴스] 국립생태원과 함께 환경보호 활동 강화하는 KT&G
[카드뉴스] 신생아 특례 대출 조건, 한도, 금리, 신청방법 등 총정리...연 1%대, 최대 5억
[카드뉴스] 어닝시즌은 ‘실적발표기간’으로
[카드뉴스] 팝업 스토어? '반짝매장'으로
[카드뉴스] 버티포트? '수직 이착륙장', UAM '도심항공교통'으로 [1]

FT도서

더보기
ad