"고영향AI"에 대한 통합검색 결과
통합검색(2)
정치(0)

[입법 리포트]AI 기본법 시행령 입법예고…과태료 최소 1년 유예, 빅테크 국내대리인 기준 확정 과학기술정보통신부가 내년 1월 22일 시행되는 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(AI 기본법)의 시행령 제정안을 공개하고 다음 달 22일까지 의견 수렴에 나섰다. 이번 시행령에는 제도 시행 초기 혼란을 줄이기 위해 과태료 부과를 최소 1년 이상 유예하는 계도기간을 두는 내용이 포함됐다. 과태료 유예로 제도 연착륙 유도과기정통부는 “AI 기본법 시행 초기 기업의 준비 기간과 제도 안착을 위한 유예가 필요하다”며 과태료 적용 시점과 운영 방식을 의견 수렴 후 확정할 예정이라고 밝혔다. 정부는 초기 과태료 유예를 통해 기업이 제도의 취지를 이해하고, 실무 체계를 갖출 수 있도록 지원한다는 방침이다. 중복 규제 최소화·관계 부처 협의 강화시행령 제정안은 지난 9월 공개된 초안과 가이드라인을 바탕으로 마련됐다. 특히 식품의약품안전처, 금융위원회, 원자력안전위원회 등 관계 부처와 협의해 중복 규제를 최소화하는 데 초점을 맞췄다. 예를 들어 디지털의료제품법을 충족한 경우, 별도의 의무 없이 AI 기본법상 ‘고영향 AI’ 사업자 요건을 이행한 것으로 간주하도록 했다. 해외 빅테크 국내대리인 지정 기준 명시해외 사업자의 국내 책임성 확보를 위해 대리인 지정 기준도 구체화됐다. 전년도 매출액 1조원 이상, 국내 서비스 매출 100억원 이상, 일평균 이용자 100만명 이상인 기업은 국내대리인을 지정해야 한다. 또한 AI 서비스 관련 사고로 정부의 자료 제출 요구를 받은 경우에도 지정 의무가 발생한다. 투명성 강화와 딥페이크 표시 의무화고영향 AI나 생성형 AI를 활용한 제품·서비스 제공 시 이용자에게 AI 기반 운영 사실을 명확히 고지해야 한다. 특히 딥페이크처럼 실제와 구분하기 어려운 결과물은 생성형 AI가 제작한 것임을 명확히 표시해야 하며, 이용자의 연령이나 신체 조건에 따라 고지 방식을 조정할 수 있다. 다만 내부 업무용 AI 등 명백한 비공개 활용의 경우는 예외로 적용된다. 고영향 AI 판단 기준·영향평가 절차 마련시행령은 고영향 AI의 범위를 사용 영역, 기본권 침해 위험, 영향의 중대성과 빈도 등을 기준으로 판단하도록 규정했다. 고영향 AI 확인 절차는 기본 30일, 필요 시 한 차례 30일 연장이 가능하다. 아울러 ‘인공지능 영향평가’ 제도를 도입해 특정 AI가 기본권에 미치는 영향과 완화 방안을 체계적으로 검토할 수 있도록 했다. 기업 지원 위한 통합안내지원센터 신설과태료 유예 기간 동안 기업의 부담을 덜고 제도 적응을 돕기 위해 ‘AI 통합안내지원센터(가칭)’가 운영된다. 정부는 이 센터를 통해 업계의 애로사항을 수렴하고, 향후 법령 및 가이드라인 개정 시 이를 반영하는 방안을 검토할 예정이다.배경훈 부총리 겸 과기정통부 장관은 “AI 기본법 시행령 제정안은 대한민국이 AI 3대 강국으로 자리매김하기 위한 제도적 초석이 될 것”이라며 “입법예고 기간 동안 현장의 다양한 의견을 폭넓게 수렴하겠다”고 말했다.
5시간 전
[AI 동향과 법] AI 기본법의 향방은? EU AI Act를 중심으로 대한민국의 AI 기본법(「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」, 이하 ‘AI 기본법’)은 2024년 12월 26일 국회 본회의를 통과했고, 2026년 1월 22일부터 시행될 예정이다. 정부는 이 법의 구체적 시행령 마련을 위한 태스크포스(TF)를 가동하며, '고영향 AI'의 정의와 규제 방식을 놓고 치열한 논의를 진행 중이다. 향후 대한민국의 AI 규제가 어떤 방향성을 가질지 전망하기 위해서는 EU AI Act의 핵심 원칙과 규제 방식을 참고할 필요가 있다. 특히 대한민국 AI 기본법과 EU AI Act의 유사성은 ‘투명성’ 의무에서 잘 드러난다. EU AI Act는 고위험 AI 시스템에 대하여 데이터의 출처, 처리방식, 작동원리 등 상세한 정보를 명확하게 공개하도록 강제하고 있다(제13조, 제15조). 특히 생성형 AI가 만든 텍스트나 이미지 같은 콘텐츠는 반드시 'AI 생성'임을 명시하도록 요구한다(전문 제10항, 제13조, 제14조). 대한민국 AI 기본법 역시 투명성을 핵심 원칙으로 삼고 있으며, AI 사업자가 고영향 또는 생성형 인공지능 기반 제품이나 서비스를 제공할 경우 이용자에게 사전에 AI 사용 사실을 고지하고, 생성형 AI가 결과물을 만들었다는 점을 명시하도록 규정하고 있다(제31조 제1항, 제2항). 대한민국 AI 기본법은 구체적 사항을 하위 법령으로 위임하고 있는 ‘인간감독 의무’와 ‘자동화된 의사결정 제한’ 영역에서 EU AI Act는 어떻게 규율하고 있을까. 인간감독 의무의 경우, 대한민국 AI 기본법은 '고영향 AI'를 사용할 때 인간 감독을 기본 원칙으로 규정하고 있지만(제3조, 제34조 제1항 제4호), 감독의 구체적인 방식과 수준은 시행령에 위임된 상태이다. 반면 EU AI Act는 고위험 AI 시스템을 사용할 경우 반드시 인간 감독을 의무화하고 있다. 특히 생체인식과 같은 민감한 분야에서는 최소 두 명 이상의 사람이 결과를 독립적으로 확인하고 검토하도록 요구하여 감독을 더욱 강화하고 있으며, 이를 위반할 경우 강력한 제재를 부과할 수 있도록 규정하고 있다. 자동화된 의사결정 제한의 경우에도 대한민국 AI 기본법은 자동화된 의사결정에 대한 구체적인 제한 규정을 두지 않고 있으며, 하위 법령을 통해 이 문제를 어떻게 접근할지 아직 명확히 정하지 않았다. EU AI Act는 개인의 법적 지위나 권리에 중대한 영향을 미치는 경우 전적으로 자동화된 의사결정을 엄격히 금지하고 있다. 또한, 반드시 인간이 개입하여 자동화된 결정의 결과를 수정하거나 무효화할 수 있는 권리를 보장하고 있다.대한민국의 AI 기본법은 큰 틀의 원칙만을 제시하고 세부사항은 하위 법령에 위임해 놓은 상태이다. 여기서 우리 정부가 맞닥뜨릴 가장 흥미롭고도 예민한 질문은 바로 'AI 육성과 규제의 균형점은 어디인가'일 것이다. 특히 한국은 AI 산업을 미래 성장동력으로 보고, AI 클러스터 지정, 데이터센터 확충, 중소기업 지원 등 '적극적 육성책'에 힘을 싣고 있다. 반면 EU는 AI의 신뢰성과 안전성을 강조하며 리스크 관리에 엄격한 잣대를 들이대고 있다. 이런 상황에서 향후 국내 하위법령 제정 과정은 마치 줄타기와 같다. 유럽의 엄격한 규제 철학을 어느 정도 수용하여 국제적 신뢰를 확보하면서도, 산업 발전에 과도한 제약을 주지 않는 '한국형 균형점'을 찾아야 하는 복잡한 숙제를 안고 있는 셈이다. 결국, AI라는 기술혁신의 물결 위에서 한국이 과연 '속도'와 '안전'이라는 두 마리 토끼를 모두 잡을 수 있을지, 하위법령의 구체적인 논의 과정에 관심을 기울여야 하는 이유가 바로 여기에 있다.
2025.03.20
