<김삼기의 시사펀치> AI기본법 시행령, 속도보다 원칙이 먼저다

2025.11.14 09:39:44 호수 0호

과학기술정보통신부(이하 과기부)는 지난해 12월26일 국회를 통과한 ‘AI기본법’의 시행령 제정안(하위법령 제정안)을 지난 12일 입법 예고했다. 이재명 대통령이 지난 4일 시정연설에서 “AI 고속도로가 늦으면 한 세대가 뒤처진다”고 말한 지 불과 8일 만이다.



과기부는 내달 22일까지 40일간 대국민 의견수렴을 거쳐 내년 1월22일부터 공식 시행된다고 밝혔다. 법제처 심사와 국무회의 심의도 속도를 낼 분위기다. AI기본법 추진은 유럽연합(EU)에 이어 우리나라가 세계에서 두 번째로 대단한 대한민국이 아닐 수 없다.

그러나 겉으론 한국이 AI 규제 체계를 일찍 갖춘 것처럼 보이지만, 실제 내막을 보면 다르다. 시민사회는 “무규제에 가깝다”고 비판하고, 업계는 “그래도 과도하다”고 반발하는 아이러니한 상황이다. 규제도 아니고 진흥도 아닌, 애매한 형태의 시행령이라는 지적이 나오는 이유다.

가장 큰 논란은 ‘고영향 AI’의 정의가 지나치게 좁다는 점이다. 사람의 생명·신체·기본권에 중대한 위해를 줄 가능성이 있는 AI를 특별 관리하겠다고 했지만, 시행령은 여기에 해당하는 사례를 극도로 제한했다.

예컨대 현대제철 당진 공장에서 투입된 로봇개 순찰 시스템은 노동자 감시 논란을 일으켰지만, 정부 기준에 따르면 직접적인 신체 위험이 없다는 이유로 고영향 AI에 포함되지 않는다. 기본권 침해 가능성이 충분함에도 불구하고 핵심 위험이 법의 바깥에 있는 셈이다.

EU가 공공장소 얼굴 인식과 감정 분석, 취약계층 정서 조작형 AI를 금지하는 것과는 극명하게 대비된다. 한국엔 금지 AI가 단 하나도 없다. 위험을 좁게 해석해 규제의 가장 중요한 축이 실종된 상태다.


책임의 공백도 문제다. 이번 시행령은 AI 개발자와 제공자에게만 안전의무를 부여하고, AI를 실제로 활용해 판단을 내리는 병원·기업·은행 등은 단순한 이용자로 규정해 법적 책임을 지지 않는다.

그러나 현실의 위험은 AI 그 자체가 아니라 AI 판단을 그대로 받아들이는 주체가 결정하는 과정에서 생긴다. 병원이 AI 진단에 기대 치료 결정을 내리거나, 기업이 AI 채용 시스템을 통해 지원자를 걸러내고, 은행이 AI 심사를 통해 대출 여부를 확정하는 상황에서, 최종 판단을 내린 기관에 아무 책임을 지우지 않겠다는 건 상당히 시대착오적이다.

AI 시대의 위험을 예방하려면 AI 판단의 마지막 고리에 있는 기관들이 최소한의 설명 의무와 책임 의무를 져야 하지만, 이번 시행령은 오히려 이 구조를 법적 면제로 고착시키는 방향에 더 가깝다.

특히 쟁점은 과태료의 ‘1년 이상 유예’다. 정부는 산업 진흥을 위해 준비 시간을 주겠다는 입장이지만, AI 기술의 속도가 1년이면 이미 몇 세대가 바뀌는 속도라는 점을 고려하면 이는 사실상 1년간의 규제 공백을 공식화한 것과 다름없다.

시민사회가 “안전의무를 지키지 않아도 되는 시간표를 정부가 만들어준 것”이라고 비판하는 이유다. 산업계는 “그래도 규제가 많다”고 하고, 시민단체는 “너무 느슨하다”고 한다는 것은 결국, 어느 쪽에도 신뢰받지 못한 시행령이 만들어졌다는 뜻이기도 하다.

‘생성형 AI’ 표시 의무 역시 논쟁이 많다. 정부는 실제와 구별하기 어려운 AI 콘텐츠에는 “AI로 생성된 결과입니다”라는 문구를 명시하게 했고, 딥페이크는 연령과 신체조건에 맞춰 더 명확히 표시하도록 했다.

그러나 AI가 콘텐츠 제작의 기본 도구가 된 현실에서 이 문구는 머지않아 온라인 전체의 기본 문장이 될 가능성이 높다. 과도한 표시 의무는 중소 제작자에게 부담을 주고 사용자 경험을 떨어뜨리며, 정작 불법 딥페이크는 음지에서 표시 없이 유통될 수 있다.

따라서 모든 생성형 AI에 일괄적 표시를 강제하는 대신, 정치 광고·재난 정보·공공문서 등 고위험 분야에서는 강한 표시 의무를 적용하고, 일반 콘텐츠는 자율표시로 전환하는 정교한 차등 규제가 필요하다.

고성능 AI 기준을 10의 26승 FLOPs 이상 누적 연산량으로 규정한 것도 논란을 낳고 있다. 미국과 EU의 논의를 참고했다는 점은 이해되지만, 이 기준은 사실상 오픈AI·메타·구글 등 초거대 모델을 겨냥한 것이고, 국내 기업 대부분은 해당되지 않는다.

결국 규제는 있어 보이지만 실효성은 낮고, 국내 기술 현실이 고려되지 않았다는 지적이 나온다. 국내 기업이 현실적으로 감당할 수 있는 ‘K-고성능 AI 기준’을 파라미터 수·연산량·데이터 민감도 등 다양한 요소로 다층화해 설계하는 것이 바람직하다.


해외와 비교해보면 한국 시행령의 한계는 더 분명해진다. EU는 금지·고위험·저위험의 삼단 구조로 위험을 세분화하고, 미국은 사전 규제보다 기업 책임성과 투명성을 강화하는 방식을 택하며, 중국은 생성형 AI 규제를 세계 최상위 수준으로 강화했다.

그러나 한국은 이들 어느 모델도 닮지 않았다. 금지 항목은 없고, 책임 주체는 비어 있으며, 과태료는 유예됐다. 규제와 진흥의 균형을 잃은 채 핵심 요소만 덜어낸 ‘미완의 기본법’이라는 평가가 나올 수밖에 없다.

그렇다면 무엇을 고쳐야 할까? 기본권 침해 가능성이 큰 감시·통제·얼굴인식·정서 분석 기술을 고영향 AI 범위에 포함하고, AI의 판단을 실제로 사용하는 기관에도 책임과 설명 의무를 부여해야 한다.

과태료 유예는 위험도 기반으로 단계별 적용하고, 생성형 AI 표시 의무는 실효성을 기준으로 재설계해야 한다. 또 국내 산업 현실을 고려한 한국형 고성능 AI 기준을 마련해야 한다.

AI 시대의 경쟁력은 속도만으로 결정되지 않는다. 국민이 안심하고 기술을 받아들일 수 있는 신뢰, 기업이 예측 가능한 환경에서 혁신할 수 있는 안정성, 정부가 일관된 원칙을 지키는 공정성이 함께 구축돼야 비로소 산업도 성장할 수 있다.

필자는 지난 5일 ‘<김삼기의 시사펀치> 사람 빠진 AI 고속도로’에서 “이 대통령이 시정연설에서 AI 강국을 언급하며 미래를 설계했지만, 그 미래까지 걸어가야 할 ‘사람(국민)의 속도’는 없다”고 지적한 바 있다. 그런데 8일 만에 과기부는 AI기본법 시행령을 입법 예고했다.

국민의 속도를 무시하면 많은 부작용이 생긴다는 점을 정부가 명심해야 한다.

이번 시행령은 규제의 외형만 갖춘 채 핵심을 비워두고 있다. ‘세계 두 번째 제정국’이라는 숫자에 만족할 것이 아니라, 정부가 AI 시대에 어떤 원칙을 세우고, 국민을 위한 안전망을 어떻게 만들 것인지부터 다시 정해야 한다.

필자는 정부가 더 단단한 원칙과 더 촘촘한 안전망을 갖춘 AI 시대의 설계자가 되길 바란다. 지금 필요한 건 속도가 아니라 신뢰고, 그 신뢰를 만드는 힘은 결국 정부의 결단과 진정성에서 나와야 한다. 이번 시행령 논란이 오히려 더 나은 법과 더 강한 국가 경쟁력을 만드는 계기가 되길 바란다.


AI 기본법은 기술법이 아니라 새 시대의 사회 계약이다. 이 계약의 빈틈을 메우는 작업이야말로 한국이 진정한 AI 강국으로 가는 출발점이 될 것이다.
 

저작권자 ©일요시사 무단전재 및 재배포 금지


설문조사

진행중인 설문 항목이 없습니다.






Copyright ©일요시사 all rights reserved.