Archiving/TECH

미래 기술 트렌드 전망: 초거대 AI 규제 동향

pixel-waves 2025. 1. 5. 19:20

초거대 AI (Artificial Intelligence)란?

초거대 AI란, 방대한 양의 데이터를 학습하여 매우 크고 복잡한 딥러닝 모델로 개발된 인공지능을 의미합니다. 특히 초거대 AI는 주로 자연어 처리(NLP), 컴퓨터 비전, 멀티모달 처리 등 다양한 작업을 수행할 수 있는 범용 인공지능 모델로 주목받고 있습니다.

 


주요국 AI 육성정책 및 규제 동향

기술의 발전이 사회적으로 긍정적인 방향으로 나아가기 위해서는 윤리적 고려와 규제가 필수적입니다.

📍미국

    ◾전략 및 육성 정책

        - 「2020 국가 AI 이니셔티브법」

        - 국가 AI R&D 전략 계획 업데이트

        - 「국방수권법」
       - 「AI 역량강화법」
       - 「미국 AI 진흥법」

    ◾규제
       - AI 권리장전을 위한 청사진

        - AI 위험관리 프레임워크
        - 안전하고 신뢰할 수 있는 AI 개발 및 사용에 대한 행정명령
        - 캘리포니아주 AI 정책 행정명령
         - 2022 알고리즘 책임법안 

         - AI 면책 조항 금지법안   
         - 알고리즘·AI 사용으로 인한 장애인 채용 차별 방지 지침

        - AI와 자율성 기능의 책임 있는 군사적 사용에 관한 정치적 선언

📍유럽연합, UN
    ◾전략 및 육성 정책

        - AI에 관한 협력계획 업데이트
       - 「EU 반도체법」
       - AI 및 신소재 등 핵심기술 투자
       - AI 인력 양성(유럽 AI 우수센터 네트워크 프로그램, 마리 퀴리 액션 등)


    ◾규제
       - AI 법안

        - AI 민사책임지침안

📍영국
    ◾전략 및 육성 정책

        - AI 로드맵
       - 영국 혁신전략
       - 국가 AI 전략

        - 튜링 AI 펠로우십   
       - 영국 디지털 전략

 

    ◾규제

        - 2023년 AI 규제에 대한 혁신 친화적 접근법

        - AI와 데이터 보호 지침  
        - 공공부문 AI 조달 가이드라인

        - 생성형 AI의 개인정보 침해 위험 경고

        - AI 산업 발전과 이용자 보호를 위한 7가지 원칙

 

📍일본

    ◾전략 및 육성 정책

        - AI 전략 2022
       - 반도체산업 부활을 위한 기본전략

 

    ◾규제 
       - 인간 중심의 AI 사회원칙
       - 「저작권법」에 따른 AI 규제 권고
       - 「개인정보 보호법」에 따른 생성형 AI 서비스 규제 권고


📍중국

    ◾전략 및 육성 정책

        - 차세대 AI 발전계획
       - AI 시나리오 혁신 가속화 지침

        - 과학기술강국 도약을 위한 7대 기술

 

    ◾규제  
       - 차세대 AI 윤리규범
       - 「생성형 AI 서비스 관리 잠정방법」


국내 AI 육성정책 및 규제 동향

📍주요부처 동향

    ◾개인정보보호위원

        - '인공지능과 데이터 프라이버시 국제 컨퍼런스'를 개최하여 주요국(한, 영, 독, 일) 개인정보 감독기관과 국제기구(OECD), 국내외 인공지능 관련 전문가를 초청하여 인공지능 규율 방향에 대해 논의한 바 있습니다. 주요 정책 방향으로는 ① 인공지능(AI) 서비스 제공자에 대한 안전장치 제공, ② 규정 중심(rule-based)에서 원칙 중심(principle-based)으로 규제 패러다임 전환, ③ 인공지능(AI)의 리스크 기준으로 차등적 규제 도입이 제시되었습니다. 

 

    ◾과학기술정보통신부

        - 인공지능 윤리 및 신뢰성 확보를 위해 OECD, EU 등의 인공지능 권고안을 반영한 인공지능 윤리기준을 2020년 12월에 수립하였으며, 주요 요건으로는 ① 인권보장, ② 프라이버시 보호, ③ 다양성 존중, ④ 침해 금지, ⑤ 공공성, ⑥ 연대성, ⑦ 데이터 관리, ⑧ 책임성, ⑨ 안전성, ⑩ 투명성이 있습니다. 

        - 또한, 윤리기준을 자율적으로 준수·점검할 수 있는 가이드라인을 2022년 2월에 발표했습니다. 가이드라인 윤리기준 10대 핵심요건 기반이며, 개발안내서는 기술적 구현 이 가능한 4개 핵심요건 기반으로 알려져 있습니다. 

 

    ◾방송통신위원회

        - '인공지능 기반 미디어 추천 서비스 이용자 보호 기본원칙'을 2021년 6월에 마련한 바 있습니다.

 

○ 전략 및 비전

        - 인공지능 국가전략

        - 인공지능 일상화 및 산업 고도화 계획

        - 초거대 AI 경쟁력 강화 방안

        - 전국민 AI 일상화 실행계획

 

○ 제도·규제 정비

        - 인공지능(AI) 윤리 기준

        - 인공지능 법·제도·규제 정비 로드맵

        - 인공지능 개발과 활용에 관한 인권 가이드라인

        - 인공지능(AI) 윤리 국가표준(KS)

        - 인공지능 시대 안전한 개인정보 활용 정책방향

 

○ 인프라 구축

        - 국가초고성능컴퓨팅 혁신전략

        - 제3차 클라우드컴퓨팅 기본계획

        - 제1차(`23~25) 데이터산업 진흥 기본계획

        - 디지털플랫폼정부 실현계획

 

○ R&D 및 인재양성

        - 사람중심 인공지능 핵심원천기술개발

        - 디지털 인재양성 종합방안

        - 국가전략기술 육성방안

        - 제1차 국가연구개발 중장기 투자전

 


초거대 AI의 한계와 문제점

초거대 AI는 혁신과 효율성을 가져오는 동시에, 여러 한계와 문제점 또한 제기되고 있습니다. 

○ 기술적 한계

    ◾부정확성

        - 초거대 AI의 응답이 항상 정확하거나 신뢰할 수 있는 것은 아닙니다. 잘못된 정보나 비논리적 결과를 생성할 가능성이 존재합니다. 

 

    ◾빅테크의 독점

        - 초거대 AI 개발에는 막대한 자본과 기술력이 필요합니다. 이에 주로 빅테크 기업에 의존할 수 밖에 없는 현황이며, 기술과 데이터의 독점 문제의 가능성이 높습니다.  

 

○ 윤리적 한계

    ◾편향성

        - 학습 데이터에 내재된 사회적 편견과 차별이 AI 결과에 반영될 위험이 있습니다.

 

    ◾개인정보 침해

        - 방대한 데이터 학습 과정에서 개인 정보가 유출되거나 부적절하게 사용될 가능성이 있습니다. 

        - 데이터 보호와 프라이버시 침해 문제에 대한 위험이 있습니다. 

 

    ◾저작권 문제

        - AI가 생성한 결과물이 기존 저작물을 무단으로 활용하거나 유사한 경우가 발생할 수 있습니다.

        - AI가 생성한 창작물에 대한 법적 소유권이나 저작권 문제가 모호한 상황입니다

 

    ◾범죄 이용 가능성

        - 초거대 AI를 악용한 해킹, 사이버 공격, 사기, 가짜뉴스 생성 등 범죄 행위 증가 우려가 있습니다.

 

📍책임 있는 AI를 위한 국제 가이드라인 및 권고

    ◾UN 인권이사회의 신기술과 인권 결의

        - AI의 인권적 함의를 다룬 UN 인권이사회 최초 결의로 AI의 개발·활용에 있어 인권 보호, 투명성, 차별 지양, 인권 영향평가 등 AI 분야의 인권 보호를 위한 원칙 제시 

 

    ◾OECD의 AI 권고

        - AI와 관련된 용어 정의, 책임 있고 신뢰 가능한 AI 구현을 위한 5가지 원칙과 5가지 국가정책 및 국제협력 방향 제시

 

    ◾UNESCO의 AI 윤리 권고

        - 최초의 전 세계를 대상으로 AI 시스템의 연구개발과 그 활용 과정 전반에 적용되어야 할 인간 중심의 윤리에 대한 가치와 원칙 제시

 

    ◾UNICEF의 아동을 고려한 AI 가이드라인

        - 디지털 환경에서 기업 정책과 활동에서 우선시되어야 할 아동의 권리를 강조하고 아동을 고려한 AI 가이드라인 제시

 

    ◾AI의 책임 있는 군사적 이용에 관한 고위급회의의 공동 행동 촉구서

        - 군사 영역에서 AI 시스템의 이용에 따른 위험성에 대한 우려를 제기하고 책임 있는 AI의 사용과 국제법 준수 등 강조

 


 

초거대 AI의 발전은 국가 경쟁력을 높이고 다양한 사회적 혜택을 가져올 수 있지만, 기술적·윤리적 한계를 보완하기 위한 규제와 정책이 반드시 필요한 듯 보입니다. AI 기반의 투명하고 신뢰 가능한 시스템 구축이 필수적이며, AI 활용과 관련한 법적·윤리적 책임을 명확히 하여 사용자의 신뢰와 안정성을 보장받아야 한다고 생각이 듭니다.