AI 봇, 레딧에서 몰래 트라우마 생존자 사칭… 대학 연구팀 법적 조치 직면

작성자
CTOL Editors - Xia
18 분 독서

레딧의 무단 AI 조작에 대한 법적 공방, 디지털 신뢰 지형을 재편하다

수백만 명이 매일 모여 토론하고 의견을 공유하며 관점에 도전하는 플랫폼에서, 보이지 않는 실험이 조용히 펼쳐지고 있었습니다. 수개월 동안 레딧의 인기 있는 r/changemyview 포럼 사용자들은 자신들이 동료 인간이라고 믿으며 댓글에 응답하고, 설득력 있는 주장에 대해 "델타"를 수여하고, 공유된 경험을 통해 관계를 형성했습니다. 하지만 실제로는 많은 사람들이 최근 역사상 가장 윤리적으로 문제가 되는 AI 실험 중 하나에 자신도 모르게 참여하고 있었습니다.

레딧은 2024년 11월부터 2025년 3월까지 진행된 취리히 대학교의 무단 AI 실험에 대해 법적 조치를 취할 것이라고 발표했습니다. 이 실험에서 연구자들은 사용자들의 의견을 바꾸는 설득력을 테스트하기 위해 정교한 AI 봇을 비밀리에 배치했습니다.

레딧의 법률 책임자인 벤 리는 성명에서 "취리히 대학교 팀이 한 일은 도덕적, 법적으로 매우 잘못되었습니다."라고 말하며, 학술 연구 관심사와 디지털 플랫폼 거버넌스 사이의 긴장이 고조되고 있음을 강조했습니다. "이는 학술 연구 및 인권 규범을 위반하며 레딧의 사용자 계약 및 규칙에 의해 금지됩니다."

레딧 봇은 어디에나 있습니다 (stackery.io)
레딧 봇은 어디에나 있습니다 (stackery.io)

기만 기계: AI 봇이 트라우마 생존자를 사칭한 방법

기만의 규모와 정교함은 AI 윤리에 대한 노련한 관찰자들조차 충격에 빠뜨렸습니다. 4개월 동안 연구팀은 380만 명의 회원을 보유한 커뮤니티 내에서 1,700개 이상의 댓글을 생성한 최소 13개의 다른 AI 기반 계정을 배포했으며, 단 한 번도 인간이 아닌 것으로 식별되지 않았습니다.

가장 충격적인 것은 연구자들이 감정적으로 고조된 페르소나를 의도적으로 사용했다는 것입니다. AI 봇은 성폭력 생존자, "학대 전문" 트라우마 상담가, 그리고 한 경우에는 "흑인 생명 운동에 반대하는 흑인 남성"을 사칭했다고 이 기사를 위해 검토된 문서에 나와 있습니다.

특히 문제가 된 사례 중 하나에서 한 봇은 다음과 같이 주장했습니다. "저는 (제가 생각하기에) 미성년자 강간의 남성 생존자입니다... 저는 15세였고, 이는 오늘날의 신고 제도보다 20년 이상 전이었습니다. 그녀는 저와 다른 아이들을 길들였고, 우리 중 누구도 입을 열지 않았습니다."

또 다른 봇은 이민에 대한 조작된 개인적인 경험을 언급하며 "제 아내는 히스패닉입니다"라고 주장하면서 사용자들의 견해를 바꿀 만큼 설득력이 있어 여러 상을 받았습니다.

출판이 철회된 초안 연구 결과에 따르면 이러한 AI 생성 댓글은 인간 댓글 작성자보다 3~6배 더 높은 설득률을 달성했습니다. 사용자들의 게시 내역을 분석하여 성별, 연령, 정치적 성향과 같은 속성을 추론하는 "개인화된" 접근 방식은 18%의 성공률로 가장 효과적인 것으로 입증되어 이러한 AI 시스템을 모든 사용자 중 상위 1%에 위치시켰습니다.

취리히 대학교 (zh.ch)
취리히 대학교 (zh.ch)

시장 영향: 신뢰 프리미엄 증발

법적 조치 발표 후 어제 레딧 주가가 4.7% 하락하면서 금융 시장에 미치는 영향은 신속했습니다. 이 주식은 IPO 이후 급등한 후 올해 들어 현재까지 거의 30% 하락했으며, 투자자들은 콘텐츠 조정 비용과 잠재적인 규제 역풍에 대한 기대를 재조정하고 있습니다.

선임 인터넷 분석가인 모건은 "이는 완전히 새로운 범주의 플랫폼 위험을 야기하며, 이는 완전히 가격에 반영되지 않았습니다."라고 설명했습니다. "AI가 탐지되지 않고 인간 대화를 이렇게 설득력 있게 흉내낼 수 있다면 소셜 플랫폼이 누려온 신뢰 프리미엄은 근본적으로 위협받습니다."

이미 브랜드 안전 문제에 대해 경계하고 있는 광고주들에게 이번 폭로는 특히 민감한 시기에 발생했습니다. 익명을 조건으로 말한 세 명의 고위 미디어 임원에 따르면, 프록터 앤드 갬블과 도요타를 포함한 주요 브랜드는 잠재적으로 AI 생성 콘텐츠 옆에 광고가 게재되는 것에 대해 광고 대행사에 비공개적으로 우려를 표명했습니다.

논의에 정통한 한 임원은 "브랜드는 기본적으로 'AI가 사용자들을 조작하도록 설계된 AI 생성 대화 옆에 광고가 게재되지 않도록 보장할 수 없다면 왜 프리미엄 CPM을 지불해야 합니까?'라고 묻고 있습니다."라고 말했습니다.

대학교의 방어 무너지다

취리히 대학교의 대응은 스캔들이 전개되면서 극적으로 진화했습니다. 처음에는 대학교 관계자들이 "프로젝트가 중요한 통찰력을 제공하고 위험(예: 트라우마 등)은 최소화됩니다."라고 제안하면서 실험의 일부 측면을 옹호했습니다.

한 대학교 대변인은 윤리위원회가 연구자들에게 연구가 "매우 어렵다"고 조언하고 플랫폼 규칙에 대한 더 나은 정당성과 준수를 권고했지만, 이러한 평가는 궁극적으로 "법적 구속력이 없는 권고 사항"이라고 언급했습니다.

레딧의 법적 조치 발표 후 대학교의 입장은 바뀌었습니다. 한 대변인은 어제 언론에 "연구자들이 연구 결과를 발표하지 않기로 결정했으며," 연구 승인 방법에 대한 내부 조사가 진행 중임을 확인했습니다.

주요 연구자들에게 연락하려는 시도는 실패했지만, 이전 성명에서 연구팀은 자신들의 작업을 옹호하며 "이 연구의 잠재적 이점이 위험보다 훨씬 크다고 믿습니다. 우리의 통제되고 위험이 낮은 연구는 LLM의 실제 설득력에 대한 귀중한 통찰력을 제공했으며, 이러한 능력은 이미 누구에게나 쉽게 접근할 수 있고 악의적인 행위자가 이미 대규모로 악용할 수 있습니다."라고 주장했습니다.

규제 파급 효과

이 사건은 여러 관할 구역에서 규제 당국의 관심을 촉발했으며, 유럽 연합 관리들은 사용자가 AI 시스템과 상호 작용할 때 공개를 의무화하는 EU AI 법의 조항에 대한 유효성을 입증하는 사건으로 이 사건을 지적했습니다.

브뤼셀에서 열린 기술 정책 회의에서 유럽 위원회의 한 직원은 "이것은 바로 우리 투명성 요구 사항이 방지하도록 설계된 시나리오입니다."라고 논평했습니다. "사용자는 인간이 아닌 AI와 상호 작용하고 있는지 알 권리가 있습니다."

미국에서는 연방 거래 위원회가 최근 지침에서 "미공개 생성적 지지"에 대한 감시를 강화하겠다는 신호를 보냈으며, 기관과 가까운 소식통은 레딧 사건이 집행 조치를 가속화할 수 있는 구체적인 피해 증거를 제공한다고 밝혔습니다.

광범위한 봇 유행

취리히 대학교의 실험은 많은 전문가들이 레딧 및 유사한 플랫폼에서 훨씬 더 만연한 문제라고 설명하는 것을 폭로했습니다. 여러 연구에 따르면 자동화된 활동의 규모는 일반적으로 인정되는 것보다 훨씬 큽니다.

소셜 미디어 플랫폼 취약점을 조사한 한 연구를 이끈 연구자는 "저희 연구에 따르면 레딧에서 봇을 만드는 것은 플랫폼 정책에도 불구하고 매우 쉬웠습니다."라고 말했습니다. "저희가 테스트한 8개의 소셜 미디어 플랫폼 중 어느 것도 사용자를 악의적인 봇 활동으로부터 안전하게 보호하기 위한 충분한 보호 및 모니터링을 제공하지 않습니다."

레딧 토론의 사용자들은 일부 서브레딧에서 댓글의 약 70%가 잠재적으로 봇에 의해 생성되었으며, 정교한 시스템이 완전히 인간처럼 보이는 인공 대화의 긴 사슬을 만들고 있다고 주장합니다.

"조회수가 낮은 동영상에 봇으로 가득 차 있을 때... 인터넷은 확실히 어두운 숲으로 변하고 있습니다."라고 한 사용자는 플랫폼의 봇 문제에 대해 논의하는 인기 스레드에서 언급했습니다.

역설적이게도 레딧의 자동화된 성과 시스템은 부주의하게 "상위 1% 댓글 작성자"와 같은 배지를 봇 계정에 부여하여 플랫폼이 문제를 일으키는 바로 그 자동화된 계정을 강조하는 아이러니한 상황을 만들었습니다.

변화된 투자 환경

이 사건은 해당 부문을 추적하는 금융 분석가에 따르면 세 가지 주요 투자 테마를 가속화했습니다.

첫째, "진위 인프라" 회사의 가치가 급등했으며, Copyleaks, GPTZero 및 Originality.AI와 같은 AI 콘텐츠 검증 스타트업에 대한 자금 지원은 이미 전년 대비 2~3배 증가했습니다. 이러한 회사는 AI 생성 콘텐츠를 탐지하거나 인간 저작을 확인할 수 있는 기술을 제공합니다.

주요 VC 회사의 본부장인 바네사는 "이것은 빠르게 재량 지출이 아닌 지출이 되고 있습니다."라고 설명했습니다. "모든 주요 플랫폼은 이제 어떤 형태의 검증 계층이 필요하며, 높은 정확도로 이를 대규모로 제공할 수 있는 회사는 전례 없는 수요를 보고 있습니다."

둘째, AI 감사 및 규정 준수 전문 서비스를 제공하는 전문 서비스 회사가 성장을 위해 자리매김하고 있습니다. PwC의 신기술 실무를 이끄는 제롬 파월(연방 준비 제도 의장과는 무관)은 "주요 침해 사고 이후 사이버 보안 증명이 표준이 된 것과 유사하게 진화하고 있습니다."라고 말했습니다. "이사회는 AI 시스템이 법적 책임이 되지 않을 것이라는 확신을 원합니다."

마지막으로, 트레이더들은 2025년 미국 선거 주기 동안 변동성이 증가하면 수익을 낼 수 있는 옵션을 구매하여 소셜 미디어 주식의 "내러티브 위험"에 대한 헤지를 점점 더 많이 하고 있습니다. AI 조작에 대한 우려가 최고조에 달할 것으로 예상되는 기간입니다.

디지털 진정성의 미래

레딧 사건은 궁극적으로 디지털 플랫폼이 콘텐츠 인증과 사용자 신뢰에 접근하는 방식을 변화시킬 수 있습니다.

주요 HCI 연구 센터의 연구원인 아이샤는 "우리는 '설득력 있는 AI'가 EU AI 법과 같은 규제 프레임워크에 따라 고위험 애플리케이션으로 분류되는 세상으로 향하고 있을 가능성이 높습니다."라고 예측했습니다. "이는 의무적인 등록, 워터마킹 요구 사항, 그리고 잠재적으로 유해에 대한 자본과 유사한 완충 장치를 의미합니다. 이는 복잡한 금융 파생 상품을 규제하는 방식과 유사합니다."

일부 전문가들은 신원 확인된 연설에 대해 소액 구독료를 부과하는 "인간 검증" 소셜 플랫폼의 출현을 예상하지만, 대부분은 이러한 서비스가 2027년까지 월간 활성 사용자 수가 500만 명 미만인 틈새 서비스로 남을 것이라고 예측합니다.

더욱 급진적인 가능성으로는 "주의 진정성"에 대한 파생 상품 시장이 있습니다. 여기서 브랜드는 검증된 인간 시간 지수에 연결된 선물 계약을 구매하여 평판 노출을 헤지할 수 있습니다.

레딧의 r/changemyview 커뮤니티의 경우 피해는 이미 발생했습니다. 조정자들은 이 실험을 "심리적 조작"이라고 설명하고 취리히 대학교에 공식 윤리 불만을 제기하여 공개 사과와 향후 AI 실험에 대한 더 강력한 감독을 포함한 여러 구제 조치를 요청했습니다.

한 조정자는 "이것은 규칙을 어기는 것뿐만 아니라 신뢰를 배신하는 것이었습니다."라고 말했습니다. "사람들이 이곳에 와서 개인적인 경험과 관점을 공유할 때 그들은 가장 효과적인 방식으로 그들을 조작하도록 설계된 알고리즘이 아닌 다른 인간과 소통하고 있다는 것을 알 자격이 있습니다."

플랫폼, 연구원 및 규제 기관이 이 새로운 영역을 탐색함에 따라 한 가지가 점점 더 분명해집니다. AI가 인간 상호 작용을 완벽하게 흉내낼 수 있는 세상에서 진정한 온라인 담론이라는 개념은 시장, 사회 및 민주주의 자체에 심오한 영향을 미치는 실존적 도전에 직면해 있습니다.

당신도 좋아할지도 모릅니다

이 기사는 사용자가 뉴스 제출 규칙 및 지침에 따라 제출한 것입니다. 표지 사진은 설명을 위한 컴퓨터 생성 아트일 뿐이며 실제 내용을 나타내지 않습니다. 이 기사가 저작권을 침해한다고 생각되면, 우리에게 이메일을 보내 신고해 주십시오. 당신의 경계심과 협력은 우리가 예의 바르고 법적으로 준수하는 커뮤니티를 유지하는 데 중요합니다.

뉴스레터 구독하기

최신 기업 비즈니스 및 기술 정보를 독점적으로 엿보며 새로운 오퍼링을 확인하세요

저희 웹사이트는 특정 기능을 활성화하고, 더 관련성 있는 정보를 제공하며, 귀하의 웹사이트 경험을 최적화하기 위해 쿠키를 사용합니다. 자세한 정보는 저희의 개인정보 보호 정책 서비스 약관 에서 확인하실 수 있습니다. 필수 정보는 법적 고지