
초거대 AI (Artificial Intelligence)란?
초거대 AI란, 방대한 양의 데이터를 학습하여 매우 크고 복잡한 딥러닝 모델로 개발된 인공지능을 의미합니다. 특히 초거대 AI는 주로 자연어 처리(NLP), 컴퓨터 비전, 멀티모달 처리 등 다양한 작업을 수행할 수 있는 범용 인공지능 모델로 주목받고 있습니다.
주요국 AI 육성정책 및 규제 동향
기술의 발전이 사회적으로 긍정적인 방향으로 나아가기 위해서는 윤리적 고려와 규제가 필수적입니다.
📍미국
◾전략 및 육성 정책
- 「2020 국가 AI 이니셔티브법」
- 국가 AI R&D 전략 계획 업데이트
- 「국방수권법」
- 「AI 역량강화법」
- 「미국 AI 진흥법」
◾규제
- AI 권리장전을 위한 청사진
- AI 위험관리 프레임워크
- 안전하고 신뢰할 수 있는 AI 개발 및 사용에 대한 행정명령
- 캘리포니아주 AI 정책 행정명령
- 2022 알고리즘 책임법안
- AI 면책 조항 금지법안
- 알고리즘·AI 사용으로 인한 장애인 채용 차별 방지 지침
- AI와 자율성 기능의 책임 있는 군사적 사용에 관한 정치적 선언
📍유럽연합, UN
◾전략 및 육성 정책
- AI에 관한 협력계획 업데이트
- 「EU 반도체법」
- AI 및 신소재 등 핵심기술 투자
- AI 인력 양성(유럽 AI 우수센터 네트워크 프로그램, 마리 퀴리 액션 등)
◾규제
- AI 법안
- AI 민사책임지침안
📍영국
◾전략 및 육성 정책
- AI 로드맵
- 영국 혁신전략
- 국가 AI 전략
- 튜링 AI 펠로우십
- 영국 디지털 전략
◾규제
- 2023년 AI 규제에 대한 혁신 친화적 접근법
- AI와 데이터 보호 지침
- 공공부문 AI 조달 가이드라인
- 생성형 AI의 개인정보 침해 위험 경고
- AI 산업 발전과 이용자 보호를 위한 7가지 원칙
📍일본
◾전략 및 육성 정책
- AI 전략 2022
- 반도체산업 부활을 위한 기본전략
◾규제
- 인간 중심의 AI 사회원칙
- 「저작권법」에 따른 AI 규제 권고
- 「개인정보 보호법」에 따른 생성형 AI 서비스 규제 권고
📍중국
◾전략 및 육성 정책
- 차세대 AI 발전계획
- AI 시나리오 혁신 가속화 지침
- 과학기술강국 도약을 위한 7대 기술
◾규제
- 차세대 AI 윤리규범
- 「생성형 AI 서비스 관리 잠정방법」
국내 AI 육성정책 및 규제 동향
📍주요부처 동향
◾개인정보보호위원
- '인공지능과 데이터 프라이버시 국제 컨퍼런스'를 개최하여 주요국(한, 영, 독, 일) 개인정보 감독기관과 국제기구(OECD), 국내외 인공지능 관련 전문가를 초청하여 인공지능 규율 방향에 대해 논의한 바 있습니다. 주요 정책 방향으로는 ① 인공지능(AI) 서비스 제공자에 대한 안전장치 제공, ② 규정 중심(rule-based)에서 원칙 중심(principle-based)으로 규제 패러다임 전환, ③ 인공지능(AI)의 리스크 기준으로 차등적 규제 도입이 제시되었습니다.
◾과학기술정보통신부
- 인공지능 윤리 및 신뢰성 확보를 위해 OECD, EU 등의 인공지능 권고안을 반영한 인공지능 윤리기준을 2020년 12월에 수립하였으며, 주요 요건으로는 ① 인권보장, ② 프라이버시 보호, ③ 다양성 존중, ④ 침해 금지, ⑤ 공공성, ⑥ 연대성, ⑦ 데이터 관리, ⑧ 책임성, ⑨ 안전성, ⑩ 투명성이 있습니다.
- 또한, 윤리기준을 자율적으로 준수·점검할 수 있는 가이드라인을 2022년 2월에 발표했습니다. 가이드라인은 윤리기준 10대 핵심요건 기반이며, 개발안내서는 기술적 구현 이 가능한 4개 핵심요건 기반으로 알려져 있습니다.
◾방송통신위원회
- '인공지능 기반 미디어 추천 서비스 이용자 보호 기본원칙'을 2021년 6월에 마련한 바 있습니다.
○ 전략 및 비전
- 인공지능 국가전략
- 인공지능 일상화 및 산업 고도화 계획
- 초거대 AI 경쟁력 강화 방안
- 전국민 AI 일상화 실행계획
○ 제도·규제 정비
- 인공지능(AI) 윤리 기준
- 인공지능 법·제도·규제 정비 로드맵
- 인공지능 개발과 활용에 관한 인권 가이드라인
- 인공지능(AI) 윤리 국가표준(KS)
- 인공지능 시대 안전한 개인정보 활용 정책방향
○ 인프라 구축
- 국가초고성능컴퓨팅 혁신전략
- 제3차 클라우드컴퓨팅 기본계획
- 제1차(`23~25) 데이터산업 진흥 기본계획
- 디지털플랫폼정부 실현계획
○ R&D 및 인재양성
- 사람중심 인공지능 핵심원천기술개발
- 디지털 인재양성 종합방안
- 국가전략기술 육성방안
- 제1차 국가연구개발 중장기 투자전
초거대 AI의 한계와 문제점
초거대 AI는 혁신과 효율성을 가져오는 동시에, 여러 한계와 문제점 또한 제기되고 있습니다.○ 기술적 한계
◾부정확성
- 초거대 AI의 응답이 항상 정확하거나 신뢰할 수 있는 것은 아닙니다. 잘못된 정보나 비논리적 결과를 생성할 가능성이 존재합니다.
◾빅테크의 독점
- 초거대 AI 개발에는 막대한 자본과 기술력이 필요합니다. 이에 주로 빅테크 기업에 의존할 수 밖에 없는 현황이며, 기술과 데이터의 독점 문제의 가능성이 높습니다.
○ 윤리적 한계
◾편향성
- 학습 데이터에 내재된 사회적 편견과 차별이 AI 결과에 반영될 위험이 있습니다.
◾개인정보 침해
- 방대한 데이터 학습 과정에서 개인 정보가 유출되거나 부적절하게 사용될 가능성이 있습니다.
- 데이터 보호와 프라이버시 침해 문제에 대한 위험이 있습니다.
◾저작권 문제
- AI가 생성한 결과물이 기존 저작물을 무단으로 활용하거나 유사한 경우가 발생할 수 있습니다.
- AI가 생성한 창작물에 대한 법적 소유권이나 저작권 문제가 모호한 상황입니다.
◾범죄 이용 가능성
- 초거대 AI를 악용한 해킹, 사이버 공격, 사기, 가짜뉴스 생성 등 범죄 행위 증가 우려가 있습니다.
📍책임 있는 AI를 위한 국제 가이드라인 및 권고
◾UN 인권이사회의 신기술과 인권 결의
- AI의 인권적 함의를 다룬 UN 인권이사회 최초 결의로 AI의 개발·활용에 있어 인권 보호, 투명성, 차별 지양, 인권 영향평가 등 AI 분야의 인권 보호를 위한 원칙 제시
◾OECD의 AI 권고
- AI와 관련된 용어 정의, 책임 있고 신뢰 가능한 AI 구현을 위한 5가지 원칙과 5가지 국가정책 및 국제협력 방향 제시
◾UNESCO의 AI 윤리 권고
- 최초의 전 세계를 대상으로 AI 시스템의 연구개발과 그 활용 과정 전반에 적용되어야 할 인간 중심의 윤리에 대한 가치와 원칙 제시
◾UNICEF의 아동을 고려한 AI 가이드라인
- 디지털 환경에서 기업 정책과 활동에서 우선시되어야 할 아동의 권리를 강조하고 아동을 고려한 AI 가이드라인 제시
◾AI의 책임 있는 군사적 이용에 관한 고위급회의의 공동 행동 촉구서
- 군사 영역에서 AI 시스템의 이용에 따른 위험성에 대한 우려를 제기하고 책임 있는 AI의 사용과 국제법 준수 등 강조
초거대 AI의 발전은 국가 경쟁력을 높이고 다양한 사회적 혜택을 가져올 수 있지만, 기술적·윤리적 한계를 보완하기 위한 규제와 정책이 반드시 필요한 듯 보입니다. AI 기반의 투명하고 신뢰 가능한 시스템 구축이 필수적이며, AI 활용과 관련한 법적·윤리적 책임을 명확히 하여 사용자의 신뢰와 안정성을 보장받아야 한다고 생각이 듭니다.
'Archiving > TECH' 카테고리의 다른 글
미래 기술 트렌드 전망: 글로벌 AI 기업 현황 및 분석 (54) | 2025.01.02 |
---|