ㅁ [AI 도입 현황] 금융권의 AI 활용은 초기 머신러닝 기반의 리스크 관리에서 최근 생성형 AI를
활용한 내부 역량 강화로 빠르게 전환
ㅇ 특히 글로벌 해외투자은행들은 AakResearchGPT(모건스탠리), IndexGPT(JP모건), GSAIAssistant(골드만삭스) 등 자체 모델 개발로 기술 내재화를 추진
ㅁ [AI 규제 동향] 글로벌 표준 규제 체계가 부재한 상황에서 각국은 자국의 AI 경쟁력을 바탕으로
독자 규제를 추진 중이며, 규제 방식은 위험도 기반 차등 규제가 부상
ㅇ 유럽연합은 안전을 강조한 세계 최초의 포괄적 규제를 제정하면서 AI 위험을 3단계 (수용불가, 고위험, 저위험)로 분류해 차등 규제를 제안
ㅇ 반면 미국은 혁신을 우선시 하며 단일 법안 대신 각 연방기관이 소관 분야의 AI 리스크를 관리하는 부문별 접근을 채택
ㅁ [AI 규제 공백] ChatGPT 등 대규모 언어모델의 등장으로 AI의 블랙박스 특성이 심화
되면서 설명가능성(explainability) 부재가 금융 규제의 핵심 과제로 부상했으나,
거버넌스ㆍ 모델 개발 문서화ㆍ검증 등 기존 원칙에 암묵적으로만 반영되어 규제가 미흡
ㅇ 바젤위원회는 설명 불가능한 AI 모델의 규제자본 산출 결과를 신뢰할 수 없다는 입장 을 표명했으며, 금융안정위원회는 유사한 AI의 광범위한 사용으로 시장 충격 발생 시 시스템리스크로 확산될 가능성을 우려
ㅁ [설명가능성에 대한 기술적 한계] AI 모델의 설명가능성을 확보하려는 노력(SHAP,
LIME 등) 에도 불구하고, ChatGPT와 같은 대규모 언어모델의 등장으로 인해 설명은
사실상 불가능
ㅇ 최신 AI 모델의 설명 요구 충족의 어려움, 동적 AI 모델 관리의 한계, 제3자 모델 검증의 한계 등이 기존 모델 리스크 관리 패러다임의 전반적인 재검토를 시사
ㅁ [시사점] ChatGPT와 같은 대규모 언어모델 시대에 금융 AI의 설명가능성 확보는
기술 적으로 불가능함에도 불구, 현재는 규제상 필수적으로 요구되는 역설적 상황에
직면. 이에 완벽한 설명가능성을 요구하기보다는 설명 불가능성을 AI의 본질적
리스크로 인정하고 규제 프레임워크의 재설계, 제3자 모델의 최소 투명성 확보,
생성형 AI의 단계적 도입 전략 등 현실적 접근 방안을 고려할 필요