"딥페이크 선거"에 대한 통합검색 결과
통합검색(2)
경제(0)

美시민단체 “오픈AI ‘소라2’ 중단하라”…딥페이크 확산 우려미국 시민단체가 인공지능(AI) 영상 생성 모델 ‘소라2(Sora 2)’의 윤리적 위험을 이유로 오픈AI에 서비스 중단을 요구했다. 허위정보·성적 콘텐츠 확산 경고시민단체 ‘퍼블릭 시티즌(Public Citizen)’은 11일(현지시간) 오픈AI 샘 올트먼 CEO에게 공개서한을 보내 “사회적 위험에 대비하지 않은 채 서비스를 추진하고 있다”며 “즉각 배포를 중단하고 법률·인권 전문가들과 함께 안전 기준을 마련하라”고 촉구했다. 단체는 특히 소라2가 정치·선거 관련 딥페이크 영상을 대량으로 만들어 허위 정보 확산을 부추길 수 있다고 지적했다. 내년 미국 중간선거를 앞둔 상황에서 악용 가능성이 크다는 경고다. 초상권·저작권 침해 사례도 지적퍼블릭 시티즌은 소라2 이용 과정에서 개인의 이름·이미지·초상권이 동의 없이 사용되거나, 저작권이 있는 이미지를 기반으로 한 생성물이 등장하는 사례가 있다고 밝혔다. 여성과 미성년자를 성적으로 묘사한 콘텐츠가 무분별하게 유통될 위험도 함께 제기됐다. “안전장치 없는 성급한 출시” 비판단체의 기술책임성 담당 변호사 J. B. 브랜치는 “소라2의 급속한 출시는 오픈AI가 안전장치가 불충분한 제품을 시장에 서둘러 내놓는 일관된 패턴을 드러낸다”고 비판했다. 그는 “AI 기술의 사회적 파급력을 고려할 때, 기업은 혁신보다 윤리적 책임을 우선해야 한다”고 덧붙였다. 
2025.11.12

AI 조작 영상의 습격... 우리 선거는 안전할까?딥페이크가 선거의 신뢰를 위협하는 수단으로 부상하면서 전 세계가 법적 기술적 대응에 나서고 있다. AI로 생성된 허위 영상과 음성이 실제 정치인의 발언처럼 퍼질 경우 유권자들의 판단을 흐리고 선거 결과에 중대한 영향을 줄 수 있기 때문이다. 한국은 세계 최초 수준으로 딥페이크 선거운동을 금지한 법안을 시행 중이며 미국과 유럽, 호주 등도 다양한 방식으로 대응하고 있다. 이 기사에서는 각국의 규제 방식과 기술 대응 수준을 살펴보고 한국이 주는 시사점을 정리한다. 지난해 1월 미국 뉴햄프셔주에서 조 바이든 전 미국 대통령의 음성을 흉내 낸 딥페이크 음성이 자동전화를 통해 민주당 지지자들에게 퍼지는 사건이 벌어졌다. 내용은 투표를 하지 말라는 메시지였다. 뉴햄프셔 검찰은 유권자 탄압과 후보 사칭 혐의로 해당 사건을 수사했고, 연방통신위원회(FCC)는 통신법 위반으로 600만달러 벌금을 부과했다. 이 사건은 딥페이크가 선거에 직접 개입한 사례로 기록되어 이후 미국 내 최소 18개 주가 선거 딥페이크를 금지하는 법안을 마련했다. 그러나 미국 연방 차원에서는 아직 명확한 딥페이크 금지법이 부재하고 헌법상 표현의 자유 침해 논란도 제기되고 있다. 대표적으로 캘리포니아주의 딥페이크 규제법은 위헌 소송으로 시행이 중단된 상태다. EU는 2023년부터 시행된 디지털서비스법(DSA)으로 플랫폼에 대한 딥페이크 감시 책임을 강화했다. 유튜브와 페이스북 같은 대형 플랫폼은 선거 관련 딥페이크나 조작 콘텐츠를 정기적으로 점검하고 보고할 의무가 있으며 인공지능법(AI Act)을 통해 딥페이크 콘텐츠에는 반드시 합성 사실을 명시하는 레이블을 부착해야 한다. EU 각국도 기존 명예훼손법과 허위정보유포 금지법을 활용해 딥페이크를 제재하고 있으며 2024년 유럽의회 선거를 앞두고 각 정당이 딥페이크 사용 자제를 서약했다. 국내에서는 공직선거법 제82조의8을 통해 2024년 1월부터 AI 기반 딥페이크를 활용한 선거운동을 전면 금지하고 있다. 선거에 사용된 모든 합성 음성 영상은 실제와 구분이 어려운 경우 불법으로 간주되며 위반 시 형사처벌을 받을 수 있다. 실제로 2024년 총선을 앞두고 특정 후보자의 부인을 음해하는 딥페이크 영상이 확산될 조짐이 있었고 이에 캠프 측이 즉각 대응에 나섰다. 중앙선거관리위원회는 딥페이크 영상에 대해 "오인 가능성이 있다면 모두 불법"이라는 입장을 밝혔고 주요 포털사들과 긴급 간담회를 열어 삭제 요청 시 즉시 협조할 것을 요청한 것이다. 현재 페이스북과 유튜브, 틱톡 등 글로벌 플랫폼은 자체 AI 탐지 기술을 활용해 딥페이크를 식별하고 삭제하고 있으며, EU DSA에 따라 탐지 결과를 연 1회 이상 공개해야 한다. 미국에서는 마이크로소프트가 '비디오 인증기'를 개발했고 어도비와 뉴욕타임스는 콘텐츠 진위 연합(C2PA)을 조직해 영상의 촬영 시점과 편집 이력을 기록하는 기술을 개발했다. AI가 만든 콘텐츠에는 워터마크를 삽입하거나 AI 합성임을 식별할 수 있는 신호를 넣는 기술도 확산되고 있다. 미국 의회는 2024년 'No AI Fraud Act'를 추진해 이 같은 식별 정보 삽입을 의무화하려는 움직임이 일고 있다. 여기에 딥페이크는 국경을 초월한 위협이기 때문에 국제 공조도 강화되고 있다. 미국 국방고등연구계획국(DARPA)은 미디어 포렌식 프로그램을 통해 전 세계 연구기관과 함께 딥페이크 탐지 기술을 개발 중이고 2023년 G7 히로시마 정상회의에서도 AI 기반 허위정보에 공동 대응하겠다는 선언이 있었다. 각국 선관위는 선거 기간 플랫폼에 딥페이크 의심 영상을 제보하면 우선 조치하도록 협력 체계를 구축하고 있다. ◆ 딥페이크에 대응하기 위한 움직임 다만, 딥페이크 대응은 법과 기술만으로 충분하지 않다. 플랫폼 기업과 언론사의 자율적 규제도 중요하다. 메타와 유튜브는 정치광고에 딥페이크 사용 시 명확히 표기하도록 정책을 강화했고 언론사들은 AI 생성 콘텐츠의 출처 명시를 의무화하고 있다. 일례로 뉴욕타임스는 편집 방침에 "혼동을 줄 수 있는 합성 이미지 사용을 금지한다"는 항목을 추가했고 로이터와 AFP는 SNS 상의 의심 영상에 대한 팩트체크 기사를 신속히 내보내고 있다. 국내 언론사들도 속속들이 팩트체크 전담팀을 운영해 가짜 영상 검증 보도를 강화 중이다. 아울러 정당과 유권자 역시 책임 있는 태도가 요구된다. EU의 정당들은 선거 기간 딥페이크 사용을 하지 않겠다는 자율 서약을 했고 미국 일부 후보는 AI 합성 콘텐츠를 사용할 경우 "가상후보임을 명시하겠다"는 방침을 밝혔다. 시민단체와 교육기관은 유권자들이 딥페이크를 식별할 수 있도록 미디어 리터러시 교육을 확대하고 있다. 예컨대 미국의 브레넌센터는 "영상 속 인물의 안면 움직임과 음성톤이 부자연스러운 경우 주의하라"는 안내를 배포하고 있다. 한편, 한국은 선거 딥페이크 규제에서 세계적인 선도국으로 평가받는다. 다만 지나치게 포괄적인 금지는 표현의 자유 침해 논란을 낳을 수 있고 예술 표현이나 풍자까지 위축시킬 우려도 있다. 향후 기술 변화에 따라 법적 기준을 정교화하고 수사기관의 디지털 포렌식 역량도 함께 강화해야 한다. 궁극적으로는 유권자 스스로가 의심하고 판단할 수 있도록 돕는 교육과 캠페인이 선행되어야 한다. 
2025.04.22
