보이지 않는 편견, 보이는 이미지 : AI와 성 고정관념
정신의학신문 ㅣ 최명제 정신건강의학과 전문의
여러분은 혹시 AI가 그려낸 '교수들의 파티' 모습을 본 적이 있으신가요? 최근 미국의 한 심리학자가 AI 이미지 생성 툴에 ‘교수들이 야외에서 파티를 하며 의자를 불태우는 장면’을 그려달라고 요청했는데요. 그 결과는 놀라웠습니다. 이미지 속 열 명의 교수들은 모두 남성이었기 때문입니다. 그리고 그 누구도, 여성이나 유색인종은 찾아볼 수 없었습니다.
사실 AI 만들어준 이 이미지는 단순한 우연이라고만 할 수는 없습니다. AI는 인간이 만든 데이터를 바탕으로 학습합니다. 그 데이터에는 우리가 오랫동안 사회 속에서 반복해 온 편견과 고정관념들이 고스란히 담겨 있지요. 예를 들어, 인터넷 백과사전, 뉴스, 논문, 블로그 등 대중에게 공개된 정보들 속에서 ‘교수’라는 단어는 대부분 남성과 연결되어 있습니다. 그렇기 때문에 AI는 마치 그게 당연한 듯이 ‘교수=남성’이라는 이미지를 생성해 냅니다.
이러한 현상은 비단 성별에만 국한되지 않습니다. 인종, 사회경제적 지위, 직업군, 나이 등 다양한 영역에서 우리가 인식하지 못한 채 반복해 온 차별과 고정관념들이 AI를 통해 더 정교하게 재현되고 있습니다. 결국 AI는 우리가 지금까지 무엇을 믿어왔고, 어떤 방식으로 사회를 바라보았는지를 '거울처럼' 보여주는 셈입니다.
그렇다면 우리는 이 거울을 어떻게 마주해야 할까요?
먼저, 고정관념이 어떻게 만들어졌는지 그 과정을 이해하는 것이 중요합니다. 어린이들은 아주 이른 시기부터 성에 대한 고정된 이미지를 형성하기 시작합니다. 과학자를 그려보라는 요청에 대부분의 아이들은 남성을 그립니다. 그리고 이 경향은 나이가 들수록 심해집니다. 아이들은 주변 어른들의 말과 행동을 통해 ‘과학자 = 남성’, ‘리더 = 남성’이라는 메시지를 반복적으로 내면화합니다. 물론 현실은 다릅니다. 여성 과학자, 여성 리더, 여성 교수는 분명 존재하며, 점점 그 수는 늘어나고 있습니다. 그러나 문화와 구조는 여전히 이 변화를 반영하지 못하고 있는 경우가 많습니다.
AI가 그러한 왜곡된 문화적 데이터에 기반해 작동하기 때문에, 아무리 기술이 발전하더라도 그 바탕이 되는 ‘사람들의 생각’이 바뀌지 않는 한 AI 역시 같은 편견을 반복할 수밖에 없습니다. 그러므로 이 문제는 단지 기술의 문제가 아니라 우리 모두의 인식과 태도의 문제이기도 합니다.
여러분은 어떻게 생각하시나요? 혹시 “요즘은 여성도 교수 많잖아요, 그럼 된 거 아닌가요?”라고 생각하실 수도 있습니다. 하지만 단지 수의 문제만이 아닙니다. 특정 존재에 대해서 떠올려보라고 했을 때 누가 '당연한 존재'로 인식되는지, 누가 '대표 이미지'로 떠오르는지는 한 사회의 무의식과 문화적 구조를 보여줍니다. 그리고 그것이 아이들의 인식에까지 영향을 미칩니다.
이에 더해 성별 고정관념은 단지 직업 이미지나 사회적 역할에 그치지 않고 개인의 자기 인식과 자존감, 가능성에 대한 기대에도 깊게 영향을 미칩니다. 심리학 연구에서는 여섯 살에서 일곱 살 사이의 여자아이들이 ‘정말 똑똑한 사람을 위한 게임’에는 흥미를 덜 느끼는 경향을 보였다는 결과가 있습니다. 즉, ‘똑똑하다’는 이미지를 자신과 연결 짓지 않는 현상이 이미 이른 시기에 나타나는 것이지요. 이는 장기적으로 여성들이 수학, 과학, 기술 분야에서 자신감을 잃거나 도전하지 않게 되는 배경이 될 수 있습니다.
또한 AI가 생성한 이미지 속에서 여성이 빠졌다는 사실은 단지 ‘보이는 것’의 문제가 아니라, 사회에서 누가 인정받고, 누가 발언권을 가지며, 누가 '전문가'로 여겨지는지를 상징적으로 보여주는 장면이기도 합니다. 이는 심리적 차원에서 중요한 의미를 가집니다. 사회적 인정과 정체성 형성은 우리 모두에게 매우 깊은 영향을 미치기 때문입니다.
그렇다면 우리는 이런 상황에 어떻게 대응해야 할까요?
첫째, 우리가 접하는 이미지나 정보에 대해 “이건 왜 이런 식으로 표현되었을까?”라는 질문을 던져보는 연습이 필요합니다. AI가 만든 이미지뿐 아니라, 교과서, 광고, 기사 속의 표현들도 마찬가지입니다. 그 안에 어떤 고정관념이 숨어 있는지 스스로 성찰해 보는 것이 첫걸음입니다.
둘째, 일상에서 다양한 성별, 배경, 인종, 국적, 문화적 특성을 가진 사람들을 '대표 이미지'로 제시하려는 노력이 필요합니다. 자녀가 과학자 놀이를 할 때 “여자 과학자도 많아”라고 말해주는 것, 회의 자료나 발표 이미지에 여성과 남성 모두를 균형 있게 포함시키는 것, 이런 작은 실천들이 모이면 사회 전체의 무의식에 조금씩 균열을 만들 수 있습니다.
셋째, AI를 개발하거나 활용하는 기업, 연구자들도 보다 포괄적이고 균형 잡힌 데이터를 학습시키기 위한 노력이 필요합니다. 이는 단지 도덕적 책임을 넘어서, 기술의 신뢰성과 다양성을 높이는 일이기도 합니다.
넷째, 우리의 말과 태도를 돌아볼 필요가 있습니다. 평소 아이들에게 “남자라서 이걸 잘해”, “여자니까 조심해야 해”와 같은 표현을 무심코 하지는 않았는지, 주변의 성 역할 고정관념을 강화하는 말이나 행동을 반복하고 있지는 않았는지 점검해 볼 수 있습니다. 우리 스스로 인식하지 못한 편견들이 다음 세대로 전달되는 경로가 되기 때문입니다.
마지막으로, 우리 사회가 젠더 문제에 대해 더 깊이 있는 대화를 나눌 수 있는 분위기를 만들어야 합니다. 물론 요즘 우리나라에서는 성별 갈등이 매우 민감한 주제로 떠오르고 있지요. 그러나 갈등을 피하려고 침묵하거나, 또는 한쪽만을 비난하는 방식은 오히려 문제를 더 고착화시킬 수 있습니다. 서로를 이해하고, 편견을 점검하며, 더 다양하고 건강한 사회를 만들어가기 위한 지향점에서 논의가 이루어져야 합니다.
AI는 인간의 거울입니다. 그리고 이제 이 거울을 다시 들여다보아야 할 때입니다. 무엇을 바꾸고 싶은지, 어떤 미래를 만들고 싶은지를 스스로에게 물어보는 그 과정에서, 진짜 변화가 시작될 수 있습니다.
건대하늘 정신건강의학과 의원 ㅣ 최명제 원장
<참고문헌>
Lobue, V. (2025, April 14). Why ChatGPT Thinks Professors Are Men—and So Do Our Kids. Psychology Today. https://www.psychologytoday.com/us/blog/the-baby-scientist/202504/why-chatgpt-thinks-professors-are-men-and-so-do-our-kids