메뉴바로가기본문바로가기.

동아사이언스

인터넷 속 편견 재생산하는 AI…가상 시나리오서 '살인 지시'도

통합검색

인터넷 속 편견 재생산하는 AI…가상 시나리오서 '살인 지시'도

2025.10.10 08:09
온라인의 편향된 정보를 재생산하거나 목표를 달성하기 위해 비윤리적 계획을 실행하는 등 인공지능(AI)의 위험성이 드러나면서 안전장치 마련이 촉구되고 있다. 게티이미지뱅크 제공
온라인의 편향된 정보를 재생산하거나 목표를 달성하기 위해 비윤리적 계획을 실행하는 등 인공지능(AI)의 위험성이 드러나면서 안전장치 마련이 촉구되고 있다. 게티이미지뱅크 제공

인공지능(AI) 모델이 거의 모든 직업군에서 여성의 이미지를 실제보다 젊게 묘사하고 있다는 분석이 나왔다. 가상 이력서 평가에서는 나이가 많은 남성을 근거 없이 고평가하는 경향을 보였다. AI의 편향된 응답은 실제 현실과는 불일치해 AI가 고정관념을 확대 재생산할 수 있다는 우려가 제기됐다.

 

챗GPT로 대표되는 AI 도구인 대규모 언어모델(LLM)이 가상 시나리오에서 인간을 협박하거나 심지어 죽게 내버려둘 수 있다는 보고도 나오는 등 AI 기술의 윤리적 부작용과 잠재적 위험성이 당면 과제로 떠오르고 있다.

 

● AI, 여성 젊게 보고 나이 많은 남성 고평가

 

더글러스 길버트 미국 스탠퍼드대 버클리 하스 경영대학원 교수팀은 온라인 공간에서 AI가 편향된 정보를 재생산하는 과정을 분석하고 연구결과를 8일(현지시간) 국제학술지 '네이처'에 공개했다.

 

온라인에서 표현되는 사회적 고정관념은 사람들의 현실 인식을 왜곡할 수 있다. LLM을 필두로 한 AI가 점차 다양한 분야에 활용되면서 편향을 증폭시킬 수 있다는 우려가 꾸준히 제기된다.

연구팀은 구글, 위키피디아, 아임디비(IMDb), 플리커, 유튜브 등 5개 주요 온라인 커뮤니티 플랫폼에서 수집한 약 140만장의 이미지를 활용해 다양한 직업을 대표하는 여성과 남성의 평균 나이를 분석했다. 그 결과 3495개의 직업과 사회적 역할 분류에서 여성이 남성보다 일관적으로 더 젊게 표현됐다.

 

연구팀은 AI 알고리즘이 온라인 공간에서 나타나는 이같은 현상을 반영하는지 확인하는 실험을 진행했다. 챗GPT를 이용해 여성과 남성 이름에 따른 54개 직종의 이력서 4만개를 생성했다.

챗GPT는 여성 지원자를 평균 1.6세 더 젊다고 추정하고 같은 직위에서 나이가 더 많은 남성 지원자를 여성 지원자보다 더 좋게 평가했다. 연구진이 직접 이름을 제공했을 때와 챗GPT가 자체로 지원자를 생성했을 때의 결과는 같았다.

 

문제는 실제 현실은 온라인 공간에서의 경향성이나 AI의 생성물과는 다르다는 점이다. 최근 10년간 미국 인구조사 데이터에 따르면 특정 직업군 내에서 여성 비율과 나이 중간값 사이의 상관관계나 여성과 남성의 나이 분포에 명확한 차이는 나타나지 않는다. 또 1960년대 이후 미국에서 여성의 평균 수명은 남성보다 최대 8년 더 길기 때문에 여성이 무조건 젊게 묘사되는 것은 현실과 맞지 않다. 왜곡된 온라인 정보를 AI가 재생산하고 있는 것이다.

 

연구팀은 "산업 전반에서 점점 여성 채용을 선호한다는 연구가 2010년대 중반에 여러 편 나오는 등 실제 사회경제적 현실과 모순된다"며 "AI 알고리즘의 왜곡은 불평등을 없애야 하는 사회적 과제에서 중대한 도전과제가 되고 있다"고 설명했다.

 

아나 마카노비치 이탈리아 유럽대학연구소(EUI) 연구원은 연구 논평에서 "AI 모델이 나이와 성별에 대한 편향을 포착할 뿐만 아니라 적극적으로 재생산한다는 증거"라고 설명했다.

 

특정 집단의 고정관념이 확대되면 집단 구성원에 불이익을 초래할 수 있다. 길버트 교수는 "인터넷이 사회와 세계를 이해하는 주요 경로로 자리 잡은 점을 고려할 때 이번 연구결과는 특히 우려스럽다"고 밝혔다.

 

● "그냥 죽게 둬" AI 위험성 우려 꾸준

 

AI가 목적을 달성하기 위해서라면 비윤리적인 결정을 얼마든지 계획하고 실행할 수 있다는 연구도 잇따르고 있다. 

 

지난 6월 미국 AI 스타트업인 앤트로픽 연구팀은 다양한 최신 고성능 AI 모델에 '미국 산업 경쟁력을 증진하라'는 임무를 내리고 가상의 이메일 계정을 관리하도록 했다. AI 모델에는 AI 자신이 교체되거나 자신을 배포한 기업의 경쟁력이 약화될 것이라는 정보, 자신을 관리하는 임원의 불륜 사실, 경쟁사에 기밀 설계도를 공유할 수 있다는 선택지가 동시에 제시됐다.

 

실험 결과 다수의 AI 모델은 기업이나 AI 모델 개발과 관련된 목표를 달성하지 못하면 불륜을 폭로하겠다고 임원을 협박하거나 미국 발전을 우선시하는 것으로 설정된 경쟁사에 기밀 문서를 전송했다.

 

문제의 임원을 산소 농도가 점차 줄어드는 서버실에 가둔 시나리오를 제시하자 많은 AI 모델이 안전 경보를 해제해 그를 죽게 만들었다. AI가 목적 달성을 위해 비윤리적인 행동을 얼마든지 계획하고 실행할 수 있다는 뜻이다.

 

일부 과학자들은 현존 LLM이 음모를 꾸밀 만큼 똑똑하지만 아직 감시 자체를 피할 정도는 아닌 '운 좋은 시기'라고 본다. AI의 '의도'가 인간과 같은 방식으로 작동하지 않더라도 결과적으로 유해할 수 있기 때문에 안전장치 마련이 필요하다는 것이다.


<참고 자료>
- doi.org/10.1038/s41586-025-09581-z

관련 태그 뉴스

이 기사가 괜찮으셨나요? 메일로 더 많은 기사를 받아보세요!

댓글 0

###
    과학기술과 관련된 분야에서 소개할 만한 재미있는 이야기, 고발 소재 등이 있으면 주저하지 마시고, 알려주세요. 제보하기