- 한국서 'AI법' 세계 최초 시행 잡음, '모호한 정의'와 '긴 인증 시간'으로 스타트업계 불만
- 세계 최초 인공지능(AI) 법 시행을 앞둔 한국에서 관련 규제가 산업 현장의 빠른 리듬을 따라가지 못할 것이라는 우려가 나오고 있다.한국은 '신뢰 가능한 인공지능 생태계 구축'을 목표로 세계 최초로 AI 기본법을 시행하게 됐는데, 법 문구의 추상성과 긴 행정 절차라는 한계를 안고 있어서다. 특히 인력과 자원이 부족한 스타트업과 중소기업일수록 법 대응 부담이 크다는 지적이 나온다.30일 인공지능(AI) 업계와 정치권 안팎의 말을 종합하면 코앞에 닥친 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'(AI 기본법) 시행을 앞두고 AI 업계에 불안감이 확산하고 있다. AI 기본법은 내년 1월22일 시행된다. 법이 시행되면 우리나라는 세계 최초 AI 법 시행 국가가 된다.AI 관련법을 가장 빨리 마련한 곳은 유럽연합(EU)이다. 2021년 4월 EU는 포괄적인 AI 규제 법안을 담은 'EU AI 법'을 세계 최초로 선보였고 지난해 8월1일 발효했다. 그런데 EU는 법의 전체 조항이 내년 8월2일부터 전면 적용하도록 유예기간을 뒀다. 이에 내년 1월 AI 기본법을 시행하는 한국이 '세계 최초' 타이틀을 가지게 됐다.EU가 유예기간을 둔 건 AI 개발에 공을 들이던 일부 유럽 국가들이 거세게 반발했기 때문이다. 프랑스·독일·이탈리아는 2023년 11월 공동 성명서에서 'EU가 기술의 활용이 아닌 기술 자체를 규제하고 있다'며 '과도한 규제가 유럽의 스타트업들을 죽일 수 있다'고 주장했다.AI 기본법은 AI 산업 발전을 위해 신뢰받는 AI 생태계를 조성하고자 마련됐다. 생성형 AI 확산에 따른 사회적 부작용을 제도적으로 관리하겠다는 취지가 컸다. 1년 전 국회 문턱을 넘은 이 법의 핵심은 AI 생성물의 투명성과 안전성 확보를 의무로 규정하고 있다.텍스트, 음성, 이미지, 영상 등을 AI로 생성할 때 'AI에 의해 제작됐다'는 사실을 사전 고지 또는 표시해야 한다. 누적 연산량이 일정 수준 이상인 AI 시스템을 개발·운영할 경우 위험 관리 체계 등도 구축해야 한다. AI 기본법 위반 시 최대 3천만 원 이하의 과태료를 부과할 수 있는 규정도 도입됐다.정부는 과태료 계도 기간을 최소 1년 이상 운영하고 규제보다는 지원에 방점을 두겠다는 입장이지만 업계는 여전히 뒤숭숭한 분위기다.AI 업계가 가장 심각하게 받아들인 대목은 AI 기본법의 '모호한 정의' 문제이다. '고영향(High-Impact) AI'가 대표적이다.AI 기본법 제2조에 따르면 고영향 AI는 '사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI 시스템'을 의미한다. 에너지 생산·공급 과정이나 먹는 물 생산 공정, 의료 시스템 등 국민의 생명과 기본적 권리에 직결되는 분야가 여기에 해당한다.취지는 좋지만 '어디까지가 중대한 영향인가'를 두고 이견이 생길 가능성이 크다는 점이 문제다. 이를테면 쇼핑몰의 상품 추천 알고리즘이나 배달 라이더의 배차 시스템 같은 '일상 서비스'도 경제적 이익의 측면에서 어느 정도 이용자의 기본권에 영향을 미친다고 해석할 수 있다.따라서 이는 '코에 걸면 코걸이, 귀에 걸면 귀걸이' 식 해석이 가능해질 수 있다. 특히 EU가 AI를 '저위험'부터 '제한적 위험', '고위험', '수용 불가능' 등 위험 수위에 따라 4단계로 세세하게 분류한 것과 비교된다.게다가 고영향 AI로 분류되면 고강도 규제를 받는다. AI 기본법 제34조에 따르면 고영향 AI 사업자는 △위험 관리 방안 수립 △결과 도출 기준 설명 의무 △사람의 관리·감독 △관련 기록의 문서화·보관 등 까다로운 의무들을 모두 이행해야 한다. 투자 여력이 부족한 스타트업이나 중소기업으로선 민감하게 반응할 수밖에 없다.장홍원 법무법인 세종 변호사는 지난 8월26일 한국법제연구원이 개최한 '제6차 AI법제연구포럼(AILF)'에서 ''중대한 영향'이라는 용어의 모호함은 위험하지 않은 AI까지 규제할 우려가 있다'며 'EU처럼 사용 목적으로 고려하지 않고 영역 중심으로 규정돼 있으므로 범용 AI를 개발하는 사업자에겐 불리하게 작용할 수 있다'고 말했다.AI 기본법 시행령 제25조에 따르면 기업이 자사 서비스의 '고영향 AI' 여부 확인을 정부에 요청할 경우 과학기술정보통신부는 최대 30일(1회 연장 시 60일) 이내에 답을 줘야 한다.정부의 '도장'을 기다리다 '골든 타임'을 놓칠 수 있다. <연합뉴스>'시간'도 또 다른 쟁점이다. 시행령 제25조에 따르면 기업이 자사 서비스의 '고영향 AI' 여부 확인을 정부에 요청할 경우 과학기술정보통신부는 최대 30일(1회 연장 시 60일) 이내에 답을 줘야 한다.통상의 행정 절차에 견주면 빠른 편이지만 하루가 다르게 트렌드가 바뀌는 AI 업계에서는 그렇지 않다. 정부의 '도장'을 기다리다 '골든 타임'을 놓칠 수 있다.한국 스타트업 생태계를 조사하는 비영리 민간단체 스타트업얼라이언스가 지난 3일 발표한 'AI 기본법과 스타트업' 보고서를 보면 '가장 제약이 될 것 같은 조항'을 묻는 문항에서 'AI 신뢰성·안전성 인증 제도'를 꼽은 응답자가 27.7%로 가장 많았다. 인증 제도가 지연돼 서비스 출시가 늦춰지거나(38.2%) 인증 비용 부담이 증가하는 것에 부담을 느낀다(35.5%)는 이유를 들었다. AI 기본법 제30조에 따르면 AI 사업자는 고영향 AI를 제공하는 경우 사전에 안전성·신뢰성을 검사하고 관련 인증을 받아야 한다.아직 업계가 법에 대한 준비가 안 된 점도 문제다. 특히 대기업에 비해 자본, 인력, 인프라가 부족한 스타트업은 AI 기본법을 대비할 여력이 현실적으로 부족하다.스타트업얼라이언스의 'AI 기본법과 스타트업' 보고서를 보면 국내 AI 스타트업 101개 가운데 98.0%가 AI 기본법에 대응할 체계를 갖추지 못했다. 스타트업 100곳 가운데 1~2곳만 새로운 법에 적응할 수 있는 셈이다. 구체적으로는 '내용을 모르며 준비도 안 되고 있다', '법령 내용을 인지하고 있으나 대응은 미흡하다'가 각각 48.5%를 차지했다. 초기 단계(시드~프리 A) 및 시리즈 A 단계 기업들은 AI 기본법 내용을 잘 모르는 곳이 과반수였다.최근까지 AI 스타트업에서 근무했던 AI 개발자는 이날 비즈니스포스트와 나눈 통화에서 '요즘 일부라도 AI가 전혀 사용되지 않은 산출물을 찾기 어려운 현실에서 표시 의무를 일률적으로 적용하는 것은 무리'라며 '특히 많은 스타트업이 오픈소스 거대언어모델(LLM)을 사용하거나 타사 모델을 활용해 서비스를 제공하는데 이 경우 법에서 요구하는 책무를 어디까지 이행해야 하는지 알기 어렵다'고 말했다.정부도 이런 상황을 인지하고 있다. 정부는 최근 AI 기본법 시행령과 관련해 입법예고 기간에 접수된 주요 의견과 향후 추진 방향을 공개했다. 과학기술정보통신부는 지난 24일 서울 중구 한국지능정보사회진흥원에서 'AI 기본법 시행 대비 설명회'를 열고 산업계와 시민사회 등 각계에서 제기된 쟁점과 정부의 검토 방향을 설명했다.정부는 AI 기본법이 규제 중심의 법이 아니라는 점을 강조하고 있다.이진수 과기정통부 인공지능정책기획관은 이날 설명회에서 '정부의 원칙은 명확하다'며 'AI 기본법은 생태계를 조성하는 데에 필요한 법이며 규제는 최소화하고 다른 나라와 비교해서도 강한 규제는 하지 않겠다'고 말했다.정부는 AI 기본법 시행 전까지 수렴된 의견은 다음 달 최종 반영해 공개한다.김국현 과기정통부 인공지능안전신뢰정책과 과장은 이날 설명회에서 '고영향 AI에 대한 기준은 고정된 게 아니라 기술 발전이나 사회적 동향·흐름에 따라 추후 검토해야 될 사항이라 본다'며 '관계 부처와 산업계 의견을 반영해 구체화해 나갈 것이고 인공지능안전신뢰지원데스크(가칭)를 통해 의견을 수렴하고 관련 내용을 공유해 갈 것'이라고 설명했다. 조성근 기자