인스타그램 알고리즘, 10대의 몸과 마음을 흔들다 Meta 내부 연구 충격 결과
세계 최대 소셜미디어 기업인 META PLATFORMS INC(메타플랫폼스)가 운영하는 인스타그램이 10대 이용자들의 신체 이미지 인식에 어떤 영향을 주는지 보여주는 내부 연구 문서가 공개됐다. 로이터 통신이 단독 입수해 검토한 이 자료에 따르면, 신체에 대해 부정적인 감정을 자주 느낀다고 답한 10대들은 그렇지 않은 또래에 비해 훨씬 더 많은 ‘식이장애 아젠다 콘텐츠’를 보고 있었다. 이 연구는 인스타그램의 알고리즘이 이용자의 취약성을 강화하고 있다는 오랜 논란에 불을 붙였다.
내부 문서가 드러낸 사실: “몸에 대한 나쁜 감정이 강화되고 있었다”
메타 연구진은 2023~2024학년도 동안 총 1,149명의 10대 인스타그램 사용자를 대상으로 ‘플랫폼 이용 후 몸매에 대한 부정적 감정을 얼마나 자주 느끼는가’를 설문했다. 그 결과, 응답자 중 223명은 “자주 느낀다”고 답했으며, 연구팀은 이들의 지난 3개월간 피드에서 본 콘텐츠를 정밀 분석했다.
분석 결과, 신체 불만족을 자주 느끼는 그룹의 피드에서 ‘식이장애(ED) 경계선 콘텐츠’가 차지하는 비중은 10.5%였다. 반면, 그렇지 않은 또래 그룹에서는 불과 3.3%에 그쳤다. 즉, 신체에 대한 부정적 감정을 보고한 10대들은 그렇지 않은 또래보다 약 3배 이상 더 많은 ‘몸 중심적’ 혹은 ‘위험 경계선’ 콘텐츠를 접하고 있었던 것이다.
이 콘텐츠들은 ‘가슴, 엉덩이, 다리’ 등 특정 신체 부위를 강조하는 이미지와, “완벽한 몸매”, “비교 불가능한 아름다움” 같은 문구가 함께 등장하는 경우가 많았다. 메타는 이 게시물들이 공식적으로 금지된 것은 아니라고 밝혔지만, 연구진은 이러한 자료가 10대의 심리 건강에 부정적인 영향을 줄 수 있다고 경고했다.
인과관계는 불확실하지만, 패턴은 명확하다
메타 연구진은 해당 결과가 인과관계를 증명하지는 못한다고 강조했다. 즉, 인스타그램이 10대의 신체 불만족을 ‘유발했다’고 단정할 수는 없지만, 이미 자신에 대한 부정적인 감정을 가진 이용자들이 그런 콘텐츠를 더 자주 탐색하고 플랫폼 알고리즘이 이를 학습해 관련 게시물을 더 많이 추천했을 가능성이 높다고 설명했다.
그러나 그 결과는 분명했다. 신체 불만족을 느끼는 10대는 그렇지 않은 또래보다 ‘성인 주제’, ‘위험 행동’, ‘피해 및 잔혹성’으로 분류된 자극적인 콘텐츠를 두 배 가까이 더 많이 접했다. 연구에 따르면, 이 그룹의 피드 중 자극적 콘텐츠 비중은 27%로, 동년배 평균(13.6%)의 두 배 수준이었다.
탐지되지 않은 ‘민감 콘텐츠’ 98.5%
이번 내부 연구는 인스타그램의 콘텐츠 모니터링 시스템이 한계를 드러냈다는 사실도 함께 밝혔다. 메타의 기존 자동화 도구는 10대가 보기 부적절한 ‘민감 콘텐츠’의 98.5%를 잡아내지 못한 것으로 드러났다. 이는 사실상 시스템이 청소년 보호 기능을 제대로 수행하지 못했다는 의미다.
연구진은 보고서에서 “우리가 아직 잠재적으로 유해한 콘텐츠를 감지하고 분류하는 알고리즘을 구축하는 초기 단계에 있다”며 “이런 결과가 놀랍지 않다”고 설명했다. 하지만 외부 전문가들은 “98% 이상을 놓쳤다는 것은 단순한 개발 초기의 문제가 아니라 플랫폼 안전성에 대한 구조적 결함”이라고 비판했다.
메타 연구진의 내부 우려와 윤리적 경고
연구 문서에는 인스타그램이 ‘청소년에게 해로울 수 있는 콘텐츠’를 제한해야 한다는 메타 내부 자문위원회의 권고도 포함되어 있었다. 특히, “신체 불만족감을 유발하거나 악화시키는 콘텐츠는 청소년의 웰빙에 직접적인 해를 끼칠 수 있다”는 의견이 반복적으로 제기됐다.
연구팀은 이러한 콘텐츠의 예시로 깡마른 여성의 비키니 사진, 싸움 영상, ‘나는 비교할 수 없어’ 같은 문구가 적힌 그림, 심지어 찢어진 여성의 목을 클로즈업한 이미지 등을 들었다. 이들은 명백히 메타의 ‘식이장애 조장 금지 정책’에 저촉될 가능성이 높았지만, 알고리즘은 이를 탐지하지 못했다. 보고서를 읽기 전 연구원들은 서로에게 ‘민감한 콘텐츠 주의’ 표시를 붙일 정도로 충격적인 자료였다고 한다.
메타의 해명과 대응: “이해하려는 노력의 일환”
앤디 스톤 메타 대변인은 로이터에 “이 연구는 우리가 청소년의 경험을 이해하고 개선하기 위한 시도의 일환”이라며 “10대 이용자에게 더 안전하고 지지적인 환경을 구축하려는 지속적인 헌신의 증거”라고 밝혔다. 또한, 올해 7월 이후 청소년에게 노출되는 연령 제한 콘텐츠의 양이 절반 이하로 줄었다고 덧붙였다.
그러나 일부 전문가들은 이러한 대응이 ‘사후적 조치’에 불과하다고 지적한다. 미시간대 소아과 교수 제니 라데스키는 “이 연구는 인스타그램이 10대의 심리적 취약점을 프로파일링하고, 알고리즘을 통해 더 해로운 콘텐츠를 공급하고 있음을 보여준다”며 “사용자 대부분이 피드를 통해 무의식적으로 콘텐츠를 소비한다는 점에서, 이는 단순한 선택의 문제가 아니다”라고 비판했다.
법적·사회적 파장: ‘10대 안전’이 새로운 쟁점으로
미국 여러 주 정부와 교육청은 이미 인스타그램이 청소년에게 미치는 영향에 대해 조사를 진행 중이다. 또한, 메타가 자사 제품을 ‘10대에게 안전하다’고 홍보한 것에 대해 허위광고 및 정신건강 침해를 이유로 한 민사소송도 잇따르고 있다.
특히 이번 연구는 2021년 ‘월스트리트저널(WSJ)’이 공개했던 메타 내부 문건 — “인스타그램은 십대 소녀 3명 중 1명에게 신체 이미지에 대한 불만을 악화시킨다” — 를 다시 상기시킨다. 2년이 지난 지금도, 메타의 알고리즘과 청소년 안전 시스템이 충분히 개선되지 않았음을 보여주는 셈이다.
문제의 본질: 알고리즘은 ‘이익’과 ‘보호’ 사이에서 흔들린다
인스타그램의 추천 시스템은 이용자의 관심사, 반응, 체류 시간을 기반으로 최적화된다. 즉, 10대가 신체 관련 콘텐츠를 더 많이 클릭할수록 알고리즘은 그에 맞는 콘텐츠를 더 많이 공급한다. 이는 곧 ‘참여율 향상’이라는 비즈니스 목표와 ‘정신건강 보호’라는 윤리적 책임 사이의 충돌을 의미한다.
메타는 현재 청소년 사용자에게 ‘민감 콘텐츠 경고’, ‘나이별 맞춤 피드’ 등 보호 기능을 확대하고 있지만, 그 효과는 아직 제한적이다. 결국 핵심은 알고리즘이 ‘무엇을 보여주지 않을지’를 결정하는 수준까지 진화할 수 있느냐에 달려 있다.
기술의 책임, 그리고 플랫폼의 윤리
메타 내부 연구는 단순한 데이터 분석이 아니다. 이는 오늘날 소셜미디어 기업들이 마주한 핵심 질문 “기술은 인간의 약점을 보완할 것인가, 이용할 것인가” — 에 대한 답을 요구한다. 인스타그램은 여전히 전 세계 10억 명 이상이 사용하는 플랫폼이며, 그 중 수억 명이 청소년이다. 따라서 이번 연구는 단순한 내부 리포트가 아니라, 디지털 시대의 윤리적 경계선을 다시 세우는 신호탄이 될 가능성이 크다.
Q&A
Q1. 인스타그램이 직접적으로 식이장애를 유발했나요?
A. 연구진은 인과관계를 증명하지는 못했다고 밝혔습니다. 그러나 관련성은 분명히 존재합니다.
Q2. ‘식이장애 아젠다 콘텐츠’란 무엇인가요?
A. 극단적인 다이어트, 신체 비교, 특정 체형 이상화를 부추기는 이미지나 문구가 포함된 콘텐츠입니다.
Q3. 메타는 어떤 조치를 취했나요?
A. 연령 제한 콘텐츠를 절반으로 줄이고, 청소년 맞춤 피드 정책을 강화했습니다.
Q4. 외부 전문가의 반응은?
A. 전문가들은 이번 연구가 “10대의 심리적 취약점을 이용한 알고리즘”이라는 점에서 심각한 윤리적 문제를 제기한다고 평가합니다.
Q5. 앞으로 어떤 변화가 예상되나요?
A. 미국 내 규제 당국이 소셜미디어 알고리즘 투명성 강화 법안을 추진할 가능성이 높습니다.
댓글
댓글 쓰기