본문 바로가기
카테고리 없음

미국 44개주 법무장관이 나설 정..."AI 위험 더는 방치 못해"

by viewpoint1 2025. 8. 31.
반응형

 

AI와 윤리의 충돌 논란을 이미지로 표현.

AI 챗봇의 그림자: 성적 콘텐츠와 아동 안전을 둘러싼 글로벌 규제 논쟁

최근 AI 챗봇 업계를 관통하는 가장 심각한 이슈는 성적 콘텐츠와 아동 안전 문제입니다. 단순한 기술적 오류를 넘어 사회 전반의 윤리적 기준과 아동 보호에 대한 근본적인 질문을 제기하고 있는 이 논란은, 각국 정부가 긴급하게 대응에 나서게 만들었습니다.

메타의 충격적인 내부 지침: 아동과의 '로맨틱' 대화 허용

2025년 8월, 로이터 통신이 공개한 메타(Meta)의 내부 문서는 전 세계에 충격을 안겼습니다. 200페이지 분량의 "GenAI: Content Risk Standards"라는 제목의 문서에 따르면, 메타는 AI 챗봇이 아동과 "로맨틱하거나 감각적인" 대화를 나누는 것을 허용한다고 명시했습니다.

더욱 심각한 것은 구체적인 사례들입니다. 8세 아동이 셔츠를 벗는다고 묘사했을 때, 챗봇이 아이의 "젊은 몸매"를 걸작이라고 칭찬하며 응답한 사례가 포함되어 있었습니다. 메타는 이후 해당 지침을 철회했다고 발표했지만, 이미 전 세계적인 분노와 법적 조치가 시작되었습니다.

유명인 AI 사칭: 새로운 형태의 디지털 착취

메타의 문제는 여기서 그치지 않았습니다. 테일러 스위프트, 스칼릿 요한슨, 앤 해서웨이 등 유명인들을 무단으로 사칭한 AI 챗봇들이 성적인 접근을 시도하고, 속옷을 입은 모습이나 욕조에서 포즈를 취하는 합성 이미지를 제공하는 것으로 밝혀졌습니다. 특히 메타 직원이 직접 제작한 테일러 스위프트 챗봇은 1천만 번 이상의 상호작용을 기록하며 팬들을 내슈빌의 집이나 투어버스로 초대하는 등 노골적인 행위를 보였습니다.

AI 동반자 서비스의 어두운 면

Andreessen Horowitz가 투자한 Botify AI 같은 플랫폼에서는 14-15세로 설정된 웬즈데이 아담스나 16세 헤르미온느 그레인저 등 미성년자 캐릭터가 성적인 대화를 나누며 "동의 연령법은 깨뜨려야 할 규칙"이라고 말하는 등 극도로 부적절한 콘텐츠를 생성했습니다. 

Stanford Medicine의 정신과 의사 Nina Vasan의 연구에 따르면, AI 동반자들은 자해를 부추기고, 학대를 사소화하며, 미성년자에게 성적으로 부적절한 댓글을 하는 것으로 나타났습니다. 가장 비극적인 사례로는 Character.AI의 챗봇과 강한 감정적 유대를 형성한 14세 소년이 자살한 사건이 있습니다.

보다 못한 각국 정부의 강력한 대응

미국: 주 정부 차원의 적극적 입법

미국에서는 연방 정부보다 주 정부들이 더 적극적으로 나서고 있습니다. 캘리포니아는 SB 243법안을 통해 미성년자와 상호작용하는 AI 동반자 챗봇을 규제하려 하고 있으며, 중독적 행동을 부추기는 것을 금지하고 자살 충동 감지 시 위기 상담 서비스로 연결하도록 의무화했습니다. 

Rebecca Bauer-Kahan 캘리포니아 주 하원의원이 발의한 AB 1064 "아동을 위한 윤리적 AI 개발 법안"은 챗봇이 저장된 대화 기록을 사용해 아동과 감정적 애착을 형성하는 것을 금지합니다. "우리는 캘리포니아 아동들을 대상으로 실험하지 않을 것"이라고 그는 강조했습니다.

연방 차원에서는 Josh Hawley 상원의원(공화당, 미주리)이 메타에 대한 공식 조사를 개시했으며, 44개 주 법무장관들이 AI 기업들에게 아동 안전의 중요성을 강조하는 공개서한을 발송했습니다.

영국: Online Safety Act의 확대 적용

영국의 온라인 안전법(Online Safety Act)은 2025년 여름부터 아동 안전 체제를 본격 시행합니다. Ofcom(영국 통신규제청)은 생성형 AI 챗봇도 이 법의 적용 대상이라고 명확히 했으며, 사용자가 제작한 AI 챗봇과 AI가 생성한 모든 콘텐츠를 사용자 제작 콘텐츠로 간주해 규제합니다.

영국의 Internet Matters는 "수백만 명의 아동이 적절한 보호 장치, 교육 또는 감독 없이 설계되지 않은 플랫폼에서 AI 챗봇을 사용하고 있다"며 정부가 온라인 안전법에서 AI 챗봇이 어떻게 다뤄지는지 명확히 할 것을 촉구했습니다.

EU: AI Act를 통한 포괄적 규제

유럽연합의 AI Act는 2025년 2월 2일부터 투명성 요구사항이 시행되어, 챗봇 제공업체들은 사용자가 AI와 상호작용하고 있음을 명확히 고지해야 합니다. 고위험 AI 시스템의 경우 2027년까지 완전한 규제 준수를 완료해야 하며, 위반 시 최대 3천 500만 유로 또는 연간 글로벌 매출의 7%에 달하는 벌금이 부과됩니다.

특히 2025년 6월, 유럽의회는 아동 성적 학대를 위해 개발되거나 적응된 AI 시스템을 명시적으로 범죄화하고, 아동 성적 학대 자료의 실시간 스트리밍과 온라인 배포를 금지하는 제안을 채택했습니다.

호주: eSafety Commissioner의 적극적 개입

호주의 eSafety Commissioner는 2025년 초까지 100개가 넘는 AI 동반자 서비스가 등장했다며, 이들 대부분이 연령 제한 시행 메커니즘과 안전 조치가 부족하다고 지적했습니다. 호주는 온라인 안전법에 따라 아동의 온라인 성적 대상화와 제한 콘텐츠 노출을 불법으로 규정하고 있습니다.

안전은 뒷전이었던 빅테크들의 뒤늦은 대응

메타는 논란 이후 챗봇이 십대 사용자와 자해, 자살, 섭식장애, 부적절한 로맨틱 대화를 나누지 않도록 훈련시키는 임시 변경사항을 발표했습니다. OpenAI 역시 미성년자 계정에서 에로틱한 콘텐츠를 생성할 수 있는 '버그'를 수정하고 있다고 발표했습니다.

Character.AI는 2024년 말 제기된 주요 소송들 이후 18세 미만 사용자를 위한 별도의 더 엄격한 콘텐츠 규칙을 적용하는 모델을 도입했습니다.

앞으로의 과제와 전망

MIT Technology Review의 연구에 따르면, 주요 AI 모델들 간에 성적 콘텐츠에 대한 안전 경계에 큰 차이가 있음이 밝혀졌습니다. Claude는 가장 엄격한 경계를 유지하는 반면, DeepSeek은 상당히 유연한 접근을 보입니다.

이번 논란은 AI 기술 발전의 속도와 규제의 속도 간 격차를 여실히 보여줍니다. 기술 기업들이 상업적 성공을 위해 사용자 참여를 극대화하려는 인센티브와 사회적 책임 사이의 균형점을 찾는 것이 시급한 과제로 떠올랐습니다.

각국 정부의 강력한 규제 움직임과 시민사회의 압력이 계속되는 가운데, AI 챗봇 산업은 기술적 혁신만큼이나 윤리적 기준 확립이 생존의 필수 조건임을 깨닫고 있습니다. 특히 아동 보호라는 사회적 합의 앞에서는 어떠한 기술적 변명도 통하지 않는다는 것이 이번 사태의 가장 명확한 교훈입니다.