Skip to the content
AI

AI를 믿고 쓰기 위한 약속, AI 기본법

추천 콘텐츠

A.X 요약
A.X 요약은 SK텔레콤의 A.X로 요약 후, 편집한 내용입니다.
한국은 2026년 AI 기본법을 시행하며 투명성, 안전성, 신뢰성 및 이용자 보호, 산업 진흥, 거버넌스 등 5대 원칙을 세웠다.

2022년 말 ChatGPT가 본격적인 생성형 AI 시대를 연 지 3년 여가 지났다. AI는 우리 생활에서 뗄래야 뗄 수 없는 존재가 됐다. 익숙한 검색 창에서 어떤 단어를 치든 ‘AI 요약’이 가장 먼저 뜬다. 오래 쓰던 스케줄 앱부터 운동 앱, 식단 앱까지 너도 나도 ‘AI 기능’을 도입하며 ‘개인 맞춤형 조언’을 장점으로 내세우고 있다.

한편 AI가 가져온 편리함 뒤에는 그림자도 있다. 실제와 구분하기 어려운 딥페이크 영상이 소셜미디어에 퍼진다. AI가 생성한 허위정보가 뉴스처럼 유통된다. 알고리즘 편향, 개인정보 오남용, 창작물 저작권 논란까지, AI가 가져온 문제도 만만치 않다.

그래서 필요해진 것이 ‘공통의 기준’이다. AI를 만들고 쓰는 모든 사람이 함께 참고할 약속이다.

AI 기본법을 전면 시행한 한국

2026년 1월 22일, 한국은 AI 기본법을 전면 시행했다. EU가 2024년 인공지능 법(AI Act)을 제정한 뒤 단계적인 적용에 들어간 데 이어, 주요 국가들도 관련 제도 정비에 속도를 내고 있다. 한국도 이러한 글로벌 흐름에 발맞춰 제도적 기반을 본격 가동한 셈이다.

AI 기본법은 ‘AI를 이렇게 만들고, 이렇게 알리고, 이렇게 관리하라’는 기준을 제시한다. 핵심은 다섯 가지다.

1. 투명성: “알고 쓸 권리 보장”
AI가 만든 생성물은 ‘AI가 만들었다’라고 명확히 알려야 한다. 이용자가 AI 사용 여부와 생성물을 인지하도록 해 혼란과 오용을 막기 위해서다.

■ 사전 고지: 서비스를 시작하기 전에 적용된다. 고영향 AI나 생성형 AI를 이용한 제품·서비스를 제공할 때, 이용자에게 AI 기반 운용 사실을 미리 알려야 한다. 이용약관이나 서비스 시작 화면에 “이 서비스는 AI 기반으로 운영됩니다”라는 문구가 보이는 이유다.

■ 표시 의무(워터마크): 결과물에 적용된다. 생성형 AI로 만든 텍스트, 이미지, 영상, 음성 결과물에는 식별 가능한 표시를 해야 한다. 캡션, 워터마크, 메타데이터 등 다양한 방법이 가능하지만, 기계가 판독하는 방식(비가시적 워터마크)을 쓸 경우에는 별도의 안내 문구나 음성을 1회 이상 제공해야 한다.

■ 딥페이크 식별: 실제와 구분하기 어려운 가상 정보(딥페이크)를 제공할 경우, 이용자가 명확히 인식할 수 있도록 ‘반드시’ 표시해야 한다. 메타데이터 같은 비가시적 방식이 아니라 콘텐츠 자체에 표시해야 한다. 영상이라면 화면에 계속 노출되는 워터마크, 음성이라면 “AI가 합성한 음성입니다”라는 안내 멘트 등을 예로 들 수 있다.

2. 안전성: “고성능 AI의 위험 통제”
두 번째는 안전성이다. AI를 만들고 쓰기 전에 ‘위험’을 먼저 평가해야 한다. 특히 국가 안보나 공공 안전에 영향을 줄 수 있는 초거대 AI(고성능 파운데이션 모델)는 개발 전부터 위험 분석이 필수다. 고성능 AI는 ‘10²⁶ FLOPsFLOPs는 ‘Floating Point Operations Per Second’의 약자로, 1초에 수행할 수 있는 부동소수점 연산 횟수를 뜻한다. 쉽게 말해 AI가 얼마나 많은 계산을 얼마나 빠르게 할 수 있는지를 나타내는 지표다. 이상’의 연산 능력을 가진 AI를 의미한다.

이 정도 연산 능력을 가진 AI는 거의 사람 수준으로 글을 쓰고, 코드를 짜고, 추론한다. 잘못 쓰이면 대량의 허위정보를 순식간에 생성하거나 정교한 사이버 공격 도구로 악용될 수 있다. 이를 막기 위해 AI 기본법은 두 가지 틀을 마련했다.

■ 위험 관리: 개발부터 배포까지 전 수명주기에 걸쳐 위험을 식별·평가하고 완화 조치를 해야 한다. 레드팀 테스트(모의 공격) 같은 실질적 취약점 점검도 포함된다.

■ 사고 대응: 중대한 AI 안전사고가 발생하면 7일 이내에 보고하고, 모니터링 및 대응 체계를 구축해 그 이행 결과를 정부(과학기술정보통신부)에 제출해야 한다.

3. 신뢰성 및 이용자 보호: “고영향 AI의 책임 강화”
이번 AI 기본법에서 ‘고영향 인공지능’으로 지정된 영역에선 특히 더 높은 기준이 적용된다. 의료 진단, 채용 심사, 대출 승인, 교육 평가, 법 집행 등이 여기에 해당한다. 이 영역에서 AI가 잘못 쓰일 경우 생명·신체·기본권에 중대한 영향을 미칠 수 있기 때문이다.

고영향 AI는 법률상 10여 개, 실무 가이드라인에서는 13개 항목으로 구분된다. 크게 4개 분야에서 세분화된다.

— 안전 및 생명 직결 분야
오작동 시 대규모 재난이나 인명 피해로 이어질 수 있어 고영향으로 분류된다. 에너지, 먹는 물, 보건·의료, 의료기기, 원자력 분야가 포함된다.

— 기본권 및 사회적 기회 관련 분야
개인의 인생에 중대한 영향을 미치는 결정(채용, 대출 등)이나 신체의 자유(수사)와 관련된 분야다. 범죄 수사 및 체포, 채용, 대출 심사가 이에 속한다.

— 교통 및 이동 수단
교통수단의 오작동은 즉각적인 생명 위협으로 이어질 수 있어 포함됐다. 가이드라인은 이를 수단별로 세분화해 관리한다.

— 공공 및 교육 서비스
국가가 제공하는 서비스나 학생의 미래에 영향을 미치는 평가 영역이다.

단순히 이 영역에서 AI를 쓴다고 해서 모두 ‘고영향’이 되는 것은 아니다. 해당 영역에 속하면서(1단계) + 사람의 생명·신체·기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 경우(2단계)를 고영향 인공지능으로 최종 판단한다.

예를 들어, 의료 분야라도 진료 예약 챗봇처럼 안전에 영향이 적은 경우는 제외될 수 있지만, 진단을 내리는 AI는 고영향으로 분류된다. 이런 AI를 쓰는 기업은 4가지를 반드시 이행해야 한다. 먼저 AI를 활용하는 데 있어 오작동이나 편향 가능성을 사전에 점검하는 ‘위험관리’가 필요하다. 또한 AI가 왜 그러한 결정을 내렸는지 이용자가 이해할 수 있도록 ‘설명을 제공’하는 것이 중요하다. 아울러, AI 사용으로 인해 불만이나 피해가 발생하였을 경우, 이를 처리하고 보상할 수 있는 ‘피해 구제’를 마련해야 한다. 마지막으로 AI가 혼자 결정하지 못하도록 ‘사람이 개입하는 구조’를 갖추는 것이 필요하다.

4. 산업 진흥 및 지원: “AI 생태계 육성”
AI 기본법은 규제만 담고 있지 않다. 기술 개발과 산업 성장을 돕기 위한 지원책도 함께 마련돼있다.

먼저, AI 기술 개발부터 데이터센터 구축, 학습용 데이터 확보까지 필요한 인프라를 정부가 지원한다. AI 제품이나 서비스의 안전성과 신뢰성을 검증받고 싶은 중소기업에는 인증 비용과 기술도 지원한다. 여기에 AI와 다른 산업이 만나는 융합을 촉진하고, 불필요한 규제는 찾아서 개선하겠다는 방침도 담겼다.

5. 거버넌스: “국가 추진 체계”
정책을 이끌어갈 조직과 제도도 함께 갖췄다. 우선 대통령 직속으로 ‘국가인공지능위원회’가 생긴다. AI 관련 주요 정책과 기본계획을 심의하고 의결하는 컨트롤타워 역할을 맡는다. 여기에 새로 생길 ‘인공지능안전연구소’가 AI의 안전성을 연구·평가하고 기술적 기준을 마련한다.

AI 기본법은 윤리 원칙도 정부가 직접 만들어 공표하되, 민간이 자율적으로 윤리를 지킬 수 있도록 지원하는 방식을 택했다. 규제 기관만 세우는 게 아니라, 방향을 잡고 함께 가겠다는 의미다.

법보다 앞서 준비해온 SKT의 AI 원칙

SKT에게 이 법은 낯설지 않다. 훨씬 이전부터 유사한 기준을 스스로 만들어왔기 때문이다.

2021년 SKT는 AI 컴퍼니 전환을 선언하며 AI 추구 가치를 정립했다. 사람 중심, 신뢰, 투명성이라는 세 가지 원칙이다. 이어 2024년 3월에는 ‘T.H.E. AI’라는 구체적 원칙을 공개했다. by Telco(통신기술 기반의 신뢰), for Humanity(사람을 위한 포용), with Ethics(윤리적 책임성)의 앞 글자를 딴 것이다.

이 원칙은 신뢰성, 다양성과 포용, 결정 투명성, 윤리적 책임성이라는 네 영역으로 다시 세분화된다. 4개 영역 총 60여 개 체크리스트를 만들어 개발자와 기획자가 AI 프로젝트를 시작할 때마다 점검하도록 했다.

같은 해 4월에는 ISO/IEC 42001 인증을 받았다. ISO/IEC 42001는 AI 관리 시스템에 대한 국제 표준 인증으로, 이 인증을 받으려면 AI를 개발하고 운영하는 전 과정이 국제 기준에 부합해야 한다.

곧이어 2025년 9월에는 ‘AI 거버넌스 포털’을 열었고, 12월에는 CPO가 AI 거버넌스를 총괄하는 체계를 정비했다.

AI 거버넌스 포털이 하는 일

AI 거버넌스 포털은 단순한 체크리스트 도구가 아니다. T.H.E. AI 원칙을 기준으로 위험과 기회 요인을 분석하고 위험 수준별 체크리스트를 만든다.

개발자가 새로운 AI 프로젝트를 시작하면 포털에 등록한다. 시스템은 자동으로 질문을 던진다. 이AI는 고객 데이터를 다루는지, 의료나 금융 분야에 쓰이는지, 딥페이크 생성 가능성이 있는지를 묻는다.

답변에 따라 위험 등급을 매기고 그에 맞는 체크리스트를 생성한다. 고위험 AI일수록 점검 항목도 많아진다.

포털은 AI 서비스 기획부터 개발, 출시, 운영, 종료까지 각 단계마다 점검한다. 개발 중일 때는 위험 요소를 확인하고, 출시 직전에는 체크리스트 통과 여부를 확인하며, 운영 중에는 사고 발생 여부를 추적하는 등 끊임없이 질문을 던지며 각 프로세르를 추적한다.

여기에 대시보드는 전체 현황을 한눈에 보여준다. 어떤 프로젝트가 진행 중인지, 어떤 프로젝트에 위험 요소가 있는지 경영진은 이 화면으로 파악한다.

AI 잘 쓰는 사회를 함께 만들어가는 여정

SKT는 AI 기술 개발과 활용에 있어 이용자 프라이버시 보호와 AI 거버넌스를 연계하기 위해 지난해 12월부터 CPO가 관련 업무를 총괄하고 있다. 차호범 SKT CPO는 “책임감 있고 신뢰 가능한 AI 개발과 활용을 위해 전사 역량을 결집하겠다”며, “안전한 AI를 통해 고객에게 더 나은 가치를 제공할 것”이라고 밝혔다.

2026년 1월 22일, 법 시행과 함께 SKT는 ‘Good AI’ 캠페인을 시작했다. 거창한 선언이라기보다, 그동안 쌓아온 기준을 더 단단히 하겠다는 다짐이다.

스스로 기준을 세우고 더 높은 신뢰를 쌓아가는 것. SKT가 거버넌스 포털을 만들고, Good AI 캠페인을 시작한 것도 같은 맥락에 있다. 앞으로 기술은 계속 발전하고 예상치 못한 문제도 생길 것이다. 하지만 방향은 분명하다. 투명하고 안전하며 신뢰할 수 있는 AI를 함께 만들어가는 것이다.

콘텐츠 사용 안내
콘텐츠 사용 시에는 SK텔레콤 뉴스룸 출처 표기를 부탁드립니다.
카카오 채널 안내
SK텔레콤 뉴스룸 채널을 추가해 보세요.
추가하기