AI 채용 솔루션의 공정성, 과연 신뢰할 수 있을까?
AI 채용 솔루션의 공정성, 과연 신뢰할 수 있을까?
“지원자 수가 너무 많아서 사람이 일일이 다 볼 수 없어요.” 이 말은 이제 채용 현장에서 꽤 흔히 들을 수 있는 말이 됐다. 특히 대기업이나 인기 있는 IT 기업의 경우, 수천 명의 이력서가 한 번에 몰려오니, 서류 검토만으로도 며칠씩 걸리는 건 예사다. 그래서 요즘은 AI가 이 과정을 대신해준다. 이력서 선별, 역량 분석, 성향 진단, 심지어 인터뷰 평가까지도 AI가 관여한다. 이름도 다양한데, ATS(Applicant Tracking System)에서부터 AI 인터뷰 솔루션, 자동 추천 엔진까지 다양하게 발전 중이다. 그런데 문득 이런 생각이 든다. **이렇게 채용을 AI에게 맡겨도 정말 공정한 걸까?** 기술이 효율을 높이는 건 인정하지만, 공정성이라는 문제 앞에서는 아직도 선뜻 ‘그렇다’고 말하기 어렵다. 나는 지금의 AI 채용 시스템이 효율은 뛰어나지만, 인간다움이라는 기준에서는 여전히 고민할 부분이 많다고 느낀다.
AI는 과연 '객관적'일까?
많은 사람들이 ‘AI 채용 시스템은 사람이 아니라서 편견 없이 평가할 수 있다’고 생각한다. 어쩌면 맞는 말일지도 모른다. 하지만 나는 이 부분이 가장 큰 오해라고 생각한다. AI는 본질적으로 인간이 만든 데이터로 학습한다. 그리고 그 데이터는 과거의 판단과 평가의 축적물이다. 문제는 과거 그 자체가 완벽하게 공정하지 않았다는 점이다. 대표적인 사례가 아마존의 AI 채용 시스템이다. 이전에도 언급된 적이 있지만, 이 시스템은 여성 지원자의 이력서를 반복적으로 낮게 평가했다. 이유는 단순했다. AI가 학습한 10년간의 성공 사례 대부분이 남성이었기 때문이다. 데이터는 그 자체로 이미 편향돼 있었고, AI는 그것을 기준 삼아 ‘합리적’이라 판단한 것이다. 나는 이 지점을 굉장히 중요하게 본다. 사람은 편향적이지만, 스스로 그 편향을 인식할 수 있는 능력이 있다. 하지만 AI는 스스로가 편향됐다는 걸 모른다. ‘사실처럼 보이는 과거’에만 충실하다. 그리고 우리는 이걸 ‘객관적’이라고 착각한다. 예를 들어, 5년 전 높은 평가를 받았던 이력서를 학습한 AI는 특정 키워드(예: “해외 경험”, “경영전략 프로젝트”, “Top-tier 대학”)가 반복되면 무조건 가산점을 준다. 그런데 요즘 세대는 해외 경험이 어려워졌고, 학벌에 대한 평가는 많이 달라졌다. 이런 변화까지 AI가 반영할 수 있을까? 나는 회의적이다. 더 큰 문제는, AI가 왜 그렇게 판단했는지 알 수 없다는 점이다. 이른바 블랙박스 문제다. HR담당자가 ‘왜 이 지원자가 탈락했는가’를 물어도, 명확한 답을 받기 어렵다. “AI가 평가한 결과입니다”라는 말이 고작이다. 나는 이 부분에서 가장 큰 불신이 생긴다. 평가 기준이 불투명한 채용 시스템을 어떻게 공정하다고 말할 수 있을까? 나는 ‘투명한 불공정’보다 더 위험한 게 ‘불투명한 공정’이라고 생각한다.
지원자의 다양성을 감안한 평가가 가능한가?
AI 채용 시스템이 가진 또 하나의 약점은 ‘정형화된 평가’다. 모든 지원자를 동일한 기준에 따라 평가한다는 점은 공정해 보이지만, 실상은 그렇지 않다. 지원자마다 환경, 배경, 성장 조건, 표현 방식이 다르기 때문이다. 나는 채용이란 결국 **다름을 보는 능력**이라고 생각한다. 그런데 AI는 다름을 ‘편차’로 해석하고, 결국 정해진 이상형에 가까운 사람만을 추려낸다. 실제로 최근 AI 면접 시스템을 이용한 후기를 보면, 답변의 길이, 말투, 표정, 시선 처리, 목소리 톤까지 분석된다는 이야기가 많다. 마치 표준형 인간을 기준으로 점수를 주는 느낌이다. 그런데 이건 굉장히 위험한 시도다. 왜냐하면 그 기준이 문화적 배경, 성격, 말 습관, 심지어 신체적 특징과도 밀접하게 연결되어 있기 때문이다. 누군가는 긴장하면 말을 더듬고, 누군가는 조용한 성향이라 눈을 잘 마주치지 못한다. 이런 특성을 ‘비효율적’이라고 판단하는 건 과연 올바른가? 내가 특히 불편했던 건, AI가 ‘감정 분석’을 한다는 항목이었다. 긍정적인 감정을 보인 지원자에게 더 높은 점수를 준다는 것이다. 그런데 진심으로 성실한 사람은 오히려 면접에서 더 긴장하고, 표정이 굳을 수도 있다. 표정과 감정 사이에는 분명한 간극이 존재한다. 그리고 그 간극을 읽는 건 기계가 아니라 사람이어야 한다고 나는 믿는다.
기업 입장에선 당연히 효율이 중요하다. 수천 명의 지원자를 평가할 때 AI는 빠르고 비용이 적게 든다. 하지만 그렇게 추려진 최종 후보가 정말로 회사에 어울리는 사람일까? 나는 과거 함께 일했던 팀원 중, 이력서 상으로는 평범하지만 탁월한 태도와 감각을 지닌 동료들이 있었다. 만약 그들이 AI의 스크리닝을 통과하지 못했다면, 나는 그들의 존재조차 몰랐을 것이다. 그리고 그건 조직 전체의 손해라고 생각한다.
공정한 AI 채용을 위한 조건들
그렇다고 해서 AI 채용을 전면 부정할 수는 없다. 나는 AI가 분명 인사 업무에서 큰 역할을 할 수 있다고 생각한다. 단, 그 전제는 **기술을 신뢰하기 전에, 기술을 통제할 수 있는 구조가 있어야 한다는 것**이다. 공정한 AI 채용을 위해 가장 먼저 필요한 건 ‘책임의 주체’다. AI가 평가한 결과라도, 최종 판단은 사람이어야 한다. 그리고 그 판단의 기준이 어떻게 설계되었는지 투명하게 공개되어야 한다. 또 하나는 데이터 검증과 다양성 확보다. AI가 학습하는 데이터셋이 특정 집단이나 환경에 편중되어 있다면, 그 결과는 반복적인 배제와 차별로 이어질 수 있다. 이 문제는 단지 ‘기술 개발자’의 몫이 아니라, 기업, 교육기관, 정책 입안자 모두가 고민해야 할 문제다. 특히 국내 기업의 경우, 데이터셋에 대한 신뢰성과 출처, 편향 여부에 대해 더 철저한 기준을 마련할 필요가 있다고 본다.
마지막으로, 나는 AI 채용에서 **지원자 경험을 중심에 두는 관점**이 필요하다고 본다. 현재 대부분의 AI 채용 솔루션은 기업의 효율만을 중심으로 설계되어 있다. 하지만 채용은 일방적인 선발이 아니라 쌍방의 선택이다. 지원자도 자신이 왜 떨어졌는지 알고 싶고, 피드백을 통해 스스로를 돌아볼 기회를 얻고 싶어 한다. AI가 이런 지원자 경험까지 설계하지 못한다면, 그것은 반쪽짜리 기술일 뿐이다. 결국, 공정성은 기술이 아니라 사람이 만드는 것이다. 우리는 AI가 아닌 인간의 기준을 다시 세워야 한다. 나는 기술을 믿는다. 하지만 기술이 사람을 평가할 때는, 반드시 그 기술을 감시하고 제어할 수 있는 인간 중심의 틀이 전제되어야 한다고 믿는다. 그리고 그 틀은 법과 윤리, 그리고 현실적인 감각 속에서 만들어져야 한다.
기술을 의심하는 것이 아니라, 기술을 설계한 기준을 묻는 일
AI 채용 솔루션의 공정성에 대한 질문은 결국 ‘기술이 얼마나 정교하냐’가 아니라 ‘기술이 어떤 기준 위에서 작동하느냐’의 문제라고 나는 생각한다. 그리고 그 기준은 인간이 만든 것이며, 언제든 바뀔 수 있다. 문제는 우리가 그 기준을 충분히 자각하지 못한 채, 기술이 ‘더 똑똑하니까 맞겠지’라고 넘겨짚는 태도다. 나는 AI가 채용의 전 과정을 대신하는 시대는 오지 않을 거라 믿는다. 오히려 그 기술을 사람 중심으로 재설계하고, **도구로서 활용하는 감각**을 가진 조직이 진짜 미래형 기업이 될 것이다. 기술을 두려워할 필요는 없지만, 그 기술을 만든 구조와 기준을 끊임없이 묻는 태도는 반드시 필요하다. 그래야만 우리는 기술을 통해 ‘더 공정한 세상’을 조금이라도 가까이 갈 수 있을 것이다.