"SNS알고리즘"에 대한 통합검색 결과
통합검색(2)
정치(0)

식약처, 마약 불법유통 수사의뢰 85건…5년 만에 최대치 식품의약품안전처(이하 식약처)가 올해 마약류 불법유통 게시물 85건을 경찰에 수사의뢰한 것으로 나타났다. 지난해 단 한 건도 없었던 수사의뢰가 급증하면서, 최근 온라인상 마약류 확산에 대응이 본격화된 것으로 분석된다. 작년 ‘0건’에서 올해 85건으로 급증국회 보건복지위원회 소속 서미화 더불어민주당 의원이 식약처로부터 제출받은 자료에 따르면, 올해 18월 식약처가 마약·향정신성의약품·대마 등 온라인 불법유통 게시물을 적발해 수사의뢰한 건수는 85건으로 집계됐다.이는 2020년 이후 5년간의 누적 수사의뢰 건수(45건)의 두 배에 가까운 수치다.연도별로 보면 2020년 0건, 2021년 26건, 2022년 13건, 2023년 6건으로 줄었고, 2024년에는 전무했다. 하지만 올해 들어 국회의 지적 이후 대응이 강화되며 급증세로 돌아섰다. “무책임 비판” 이후 적극 대응 나서식약처는 지난해 불법유통 게시물 4만9천786건을 적발하고도 단 한 건의 수사의뢰도 하지 않아 ‘솜방망이 대응’이라는 비판을 받았다.이에 따라 올해는 적발 건수(3만1천894건)가 다소 줄었음에도 수사의뢰는 적극적으로 이뤄지고 있다.식약처 관계자는 “작년 수사의뢰 부재에 대한 지적 이후 경찰 등 수사기관과의 협조를 강화했다”며 “온라인상 불법유통 근절을 위한 대응 체계를 보완 중”이라고 설명했다. SNS 확산의 중심, ‘엑스(X)’올해 18월 SNS를 통한 마약류 불법유통 적발 건수는 7천103건으로 전체의 22.3%를 차지했다.이 가운데 일론 머스크 테슬라 CEO가 운영하는 ‘엑스(X·옛 트위터)’ 플랫폼에서만 6천92건(85.8%)이 발견돼, 불법 게시물 10건 중 9건이 엑스에 집중된 것으로 나타났다.반면 페이스북은 28건, 유튜브 2건, 인스타그램은 0건으로 상대적으로 적었다. “온라인 마약 유통, 국가안보 수준의 위협”서미화 의원은 “SNS를 통한 마약 홍보와 판매가 손쉽게 이뤄지고 있다”며 “국민 안전을 위해 모니터링 인력과 예산을 대폭 확대해야 한다”고 강조했다.전문가들은 SNS 알고리즘을 악용한 유통망이 빠르게 진화하고 있어, 식약처·경찰청·방통위 간의 실시간 공조 체계 구축이 시급하다고 지적한다.
2025.10.05

SNS 알고리즘과 극단화 논란…‘필터 버블’은 존재하는가 최근 미국에서 보수 성향 활동가 찰리 커크가 피습당한 사건 이후, 그 배경 중 하나로 소셜미디어(SNS) 알고리즘의 부작용이 지목됐다. 사용자 맞춤형 추천 시스템이 극단주의적 사고를 부추기고 이념적 분열을 심화시켰다는 주장이다. 과연 알고리즘이 개인을 극단으로 몰아넣는 ‘필터 버블(filter bubble)’ 현상은 실제로 존재할까. 알고리즘의 작동 원리SNS의 핵심은 개인화 추천이다. 이용자가 ‘좋아요’를 누르거나, 특정 영상을 오래 시청하거나, 댓글·공유 같은 반응을 보이면, 그 데이터를 바탕으로 비슷한 콘텐츠가 재차 제공된다. 유튜브의 경우 2016년 구글 엔지니어들이 공개한 논문에 따르면 추천 시스템은 크게 두 단계다. 먼저 협업 필터링을 통해 유사한 이용자 집단을 묶고, 이들이 선호하는 콘텐츠를 후보군으로 제시한다. 이어 랭킹 알고리즘이 시청 시간을 최대화할 수 있는 순서대로 점수를 매겨 수십 개의 동영상을 노출한다. 실제로 2019년 유튜브 최고상품담당자(CPO)는 “전체 시청 시간의 70%가 추천 알고리즘에 의해 발생했다”고 밝힌 바 있다. 표면적으로는 개인화 서비스지만, 비판자들은 이를 두고 “알고리즘이 이용자의 선택권을 빼앗아 특정 정보 울타리 안에 가두고 있다”고 경고한다. 필터 버블 실험적 검증엘리 패리저가 2011년 저서에서 제기한 필터 버블 개념은 이후 다양한 실험을 통해 검증됐다. 2021년 발표된 국내 연구에서는 새로운 유튜브 계정을 만들어 보수·진보 성향 채널을 각각 구독하고 며칠간 영상을 시청한 뒤 추천 목록을 분석했다. 그 결과 보수 계정에서는 보수 성향 영상 비율이 첫날 14%에서 6일째 86%로 높아졌고, 진보 계정 역시 8%에서 84%로 증가했다. 연구진은 “추천된 영상의 주제가 계정 성향에 따라 뚜렷하게 달라졌다”고 밝혔다. 또 2018년에는 구글 검색 알고리즘을 대상으로, 계정을 보수·진보 성향으로 ‘길들이기’ 한 뒤 중립적인 검색어를 입력했을 때 결과가 얼마나 달라지는지를 실험했다. 시간이 지날수록 성향에 맞춘 검색 결과 노출 비율이 꾸준히 증가하며 편향이 강화됐다. 이는 개인화 알고리즘이 실제로 필터 버블을 형성할 수 있음을 보여준다. 반향실 효과와 개인의 선택그러나 모든 분석이 알고리즘만을 원인으로 지목하지는 않는다. ‘반향실 효과(Echo Chamber Effect)’라는 개념은 같은 현상을 다른 관점에서 설명한다. 즉, 알고리즘보다 개인이 스스로 자신의 성향에 맞는 정보를 선택적으로 소비하기 때문에 편향이 강화된다는 것이다. 2015년 사이언스에 실린 연구는 1억 명 이상의 페이스북 사용자 데이터를 분석해, 반대 성향 콘텐츠 노출을 줄이는 데 알고리즘의 영향은 약 5%에 불과했지만, 사용자의 클릭 선택은 17% 이상이었다고 보고했다. 다만 해당 연구는 저자가 모두 페이스북 소속이어서 이해 상충 문제가 제기됐다. 2022년 옥스퍼드대 로이터연구소 역시 방대한 문헌 검토 끝에 “필터 버블 증거는 제한적이며, 반향실 효과가 더 유력하다”고 결론지었다. 보고서는 알고리즘이 오히려 이용자가 평소 찾지 않던 뉴스 출처를 접하게 할 가능성도 있다고 지적했다. 극단화 현상의 실제 양상결국 필터 버블이든 반향실 효과든, 현실에서는 두 요인이 동시에 작동하며 사용자의 기존 견해를 강화하고 반대 견해를 배척하는 경향을 보인다. 정치적 편향이 짙은 콘텐츠를 반복적으로 접하다 보면 확증편향이 심화되고, 이성적 대화보다 갈등적 사고가 두드러질 수 있다. 이는 미국과 유럽 등지에서 SNS를 통한 가짜뉴스 확산, 선거 개입 논란, 극단주의 폭력 사건과 맞물려 사회적 우려를 키운 배경이다. 대처 방안전문가들은 결국 ‘사용자의 태도’가 관건이라고 강조한다. 숭실대 김규정 교수는 2022년 논문에서 “작은 소비에도 다양한 플랫폼을 비교하듯, SNS 콘텐츠도 교차적으로 접근해야 한다”며 “비판적 사고를 통해 정보의 출처와 의도를 살펴보는 습관이 필요하다”고 조언했다. 개인화 알고리즘이 주는 편리함을 무조건 거부할 수는 없지만, 이용자가 능동적으로 다양한 관점을 수용하려는 노력이 없다면 극단화 위험은 줄어들기 어렵다는 지적이다. 용어 설명“필터 버블(Filter Bubble)”은 인터넷 정보제공자가 사용자의 검색 기록, 클릭 패턴 등 개인 데이터를 바탕으로 맞춤형 정보만 제공하면서, 이용자가 다양한 관점이나 반대 의견에 노출되지 못하고 편향된 정보에만 갇히는 현상을 의미한다. 
2025.09.26
