본문 바로가기

정책칼럼

인공지능과 체계적위험 (25-12-04)/Stephen Cecchetti外.ESRB

<요 약>

 

    (  *요약본은 Google의 NotebookLM이 보고서의 이전 버전을 요약하라는 요청을 받고 처음 작성한 초안을 대대적으로 편집한 버전임. 보고서의 다른 부분에서는 AI 도구를 사소한 편집에만 사용헀음).

 

이 보고서에서는 인공지능(AI)의 급속한 발전과 광범위한 도입이 금융 안정성에 미치는 영향을 논의한다. 기업의 대규모 투자로 ChatGPT, Claude, Gemini와 같은 대규모 언어 모델(LLM)과 같은 고급 AI 기능이 널리 활용될 수 있게 되었다. 현재 일부 모델은 주간 활성 사용자가 8억 명에 달하고 사용하기 쉬운 도구의 확산으로 AI가 기업 프로세스에 빠르게 통합되고 있지만  이를 효과적으로 구현하는 방법에 대한 합의는 아직 부족한 실정이다. 본 보고서에서는 AI가 과학 발전 가속화, 경제 성장 촉진, 더 나은 의사 결정 및 위험 관리, 의료 서비스 향상 등 상당한 이점을 제공하지만, 금융 시스템과 사회에 대한 위험에 대한 심각한 우려를 야기한다는 점이 강조된다. AI는 방대한 양의 비정형 데이터를 처리하고 사용자와 자연스럽게 상호 작용할 수 있어 인간의 업무를 보완하고 대체할 수 있으며, 업무 구성 방식에 혁명을 일으킬 가능성이 있다. 그러나 이러한 위험에는 AI 오류 감지의 어려움, 유전적 편견, 과도한 의존, 감독의 어려움과 같은 위험이 수반된다. 이러한 점을 염두에 두고 AI가 금융 분야의 기존 시스템 리스크를 어떻게 증폭 또는 변화시키거나 새로운 리스크를 창출할 수 있는지 살펴본다.체계적 금융 위험은 일반적으로 유동성 불일치, 공통 노출, 상호 연결성, 대체성 부족, 레버리지라는 5가지 범주에서 발생한다.중요도 순으로, 이러한 위험을 악화시킬 수 있는 AI 기능은 다음과 같다.

 

  • 모니터링 과제:     AI 시스템의 복잡성으로 인해 사용자와 당국 모두 효과적인 감독을 하기 어렵다.  • 집중 및 진입 장벽:     AI 공급업체 수가 적으면 단일 실패 지점과 상호 연결성이 발생할 수 있다.  • 모델 균일성:    유사한 AI 모델을 널리 사용하면 상관관계가 있는 노출과 증폭된 시장 반응이 발생할 수 있다.   • 과도한 의존과 과도한 신뢰:     호황기에 우수한 성과를 보이면 사람들은 AI를 지나치게 신뢰하게 되어 위험 감수를 높이고 감독을 방해할 수 있다. 또한, 일부 작업에서 입증된 정확성은 현재 역량을 넘어서는 다른 작업에서도 유사한 정확성을 신뢰하게 만들 수 있다.   • 속도:     거래 속도, 반응 속도, 자동화가 향상되면 순환성이 확대되고 부정적인 프로세스를 중단하기가 더 어려워질 수 있다.   • 불투명성과 은폐:     AI의 복잡성으로 인해 투명성이 떨어지고 의도적으로 정보를 은폐하는 것이 쉬워질 수 있다.  • 악의적인 사용:     AI는 악의적인 행위자에 의한 내부 사기, 사이버 공격 및 시장 조작 능력을 향상시킬 수 있다.  • 환각과 잘못된 정보:     AI는 거짓되거나 오해의 소지가 있는 정보를 생성할 수 있으며, 이로 인해 널리 잘못된 정보에 기반한 결정이 이루어지고 그에 따라 시장이 불안정해질 수 있다.  • 과거 데이터에 대한 제약:   AI는 과거 데이터에 의존하기 때문에 예상치 못한 "꼬리 사건"에 어려움을 겪을 수 있으며, 이는 과도한 위험 부담으로 이어질 가능성이 있다.  • 검증되지 않은 법적 지위: AI 활동에 대한 법적 책임에 대한 모호함(예: 교육을 위한 데이터 사용 권리 및 제공된 조언에 대한 책임)은 공급업체나 금융 기관이 AI 관련 법적 좌절에 직면할 경우 체계적 위험을 초래할 수 있습니다.   • 복잡성으로 인해 이해하기 어려움: AI의 의사결정 프로세스를 이해하는 데 어려움이 있어 사용자가 결함을 발견하거나 예상치 못한 동작이 나타나면 실행이 중단될 수 있다.

 

자기 인식 AI와 AI에 대한 인간의 완전한 의존과 같은 잠재적 특징은 이러한 위험을 더욱 증폭시킬 수 있으며, 인간의 통제력 상실과 사회적 의존의 극심한 증가로 이어질 가능성이 있다.이러한 시스템적 위험과 그에 따른 시장 실패(고정 비용 및 네트워크 효과, 정보 비대칭, 제한된 합리성)에 대응하여,  AI가 야기하는 시스템적 위험을 해결하기 위한 신중하고 균형 잡힌 정책적 접근이 요구된다. 여기에는 경쟁 및 소비자 보호 정책과 더불어 건전성 규제 및 감독의 조정이 포함된다.

 

주요 정책 제안은 다음과 같다.

 

   • 규제 조정:    자본 및 유동성 요건을 재조정하고, 회로 차단기를 강화하고, 내부자 거래 및 기타 유형의 시장 남용을 다루는 규정을 개정하고, 중앙은행 유동성 시설을 조정한다.   • 투명성 요구 사항: AI 사용에 대한 투명성을 높이기 위해 금융 상품에 라벨을 추가한다.   • "스킨 인 더 게임" 및 "정교함 수준" 요구 사항:      AI 제공자와 사용자가 적절한 위험을 감수하도록 보장한다.   • 감독 강화:    감독자를 위한 적절한 IT 및 인력 자원을 확보하고, 분석 역량을 강화하고, 감독 및 집행을 강화하며, 국경 간 협력을 촉진한다.

 

이러한 모든 요소들은 AI의 영향과 영향력 경로, 그리고 금융 부문에서의 AI 활용 범위를 더욱 명확하게 파악하기 위해 추가적인 분석이 필요할 것이다. 특히, AI는 빠르게 변화하는 특성과 그 글로벌한 규모로 인해 국제 협력이 필수적이므로 이러한 정책조정들은 신속하게 이루어져야 한다. 보고서는 금융 분야발전이  AI의 발전 속도를 따라가지 못할 경우 금융 불안정성이 심화되고 당국의 개입이 더욱 빈번해질 수 있다고 결론지었다.

 

 

ESRB Advisory Scientific Committee No 16

esrb.ascreport202512_AIandsystemicrisk.en.pdf
2.15MB