내 자소서가 휴지 조각? 범인은 AI였다

 

"귀하의 뛰어난 역량에도 불구하고..."

취업 준비생이라면 누구나 받아봤을 통보. 새벽 3시에 도착한 이 메일은 과연 인사 담당자가 밤을 새워가며 내 자소서를 읽은 결과일까? 천만에. 당신을 탈락시킨 건, 0.1초 만에 당신의 당락을 결정하고 쿨링 팬을 식히고 있을 'AI 면접관'일 확률이 높다.



기업들은 환호한다. 수만 장의 이력서를 커피 한 잔 마실 시간에 처리해주니, 이보다 훌륭한 '효율의 신'은 없어 보인다. 표정을 읽고, 목소리 톤을 분석하고, 키워드를 솎아내는 AI. 그들은 이걸 '혁신'이라 부른다. 하지만 우리는 여기에 아주 불편한 질문을 던져야 한다. 

"그 기계, 진짜 공정한 거 맞습니까?"

편견을 배운 우등생, AI

"AI는 감정이 없으니 사람보다 공정하다"는 말은 반은 맞고 반은 틀렸다. AI는 감정이 없다. 대신, 인간이 가진 '최악의 편견'을 스펀지처럼 흡수한다.

업계에서 전설처럼 회자되는 아마존의 AI 채용 폐기 사건을 기억하는가? 아마존이 야심 차게 개발한 채용 AI는 10년 치 이력서를 학습하자마자 성차별주의자가 되어버렸다. 이유는 단순하고도 충격적이었다. 과거 IT 업계 지원자와 합격자 대부분이 남성이었기 때문이다. AI는 이 데이터를 보고 기계적인 결론을 내렸다.

"여성? 감점."

이것이 바로 'Garbage In, Garbage Out(쓰레기가 들어가면 쓰레기가 나온다)'의 법칙이다. 과거의 데이터가 차별적이었다면, AI는 그 차별을 충실히 계승하고 심지어 강화한다. 만약 당신이 이 억울한 알고리즘 때문에 떨어졌다면, 누구에게 하소연할 것인가? 서버실의 컴퓨터? 아니면 알고리즘을 짠 개발자?



유럽이 AI에 '경고장'을 날린 이유

눈치 빠른 유럽(EU)은 이미 칼을 빼 들었다. EU AI법은 채용 시스템을 '고위험(High-Risk)' 등급으로 분류했다. 원자력 발전소나 의료 기기만큼이나 위험하게 다뤄야 한다는 뜻이다.

핵심은 '설명할 수 있는가'이다. 지원자가 "내가 왜 떨어졌소?"라고 물었을 때, 기업은 납득할 만한 이유를 대야 한다. "AI 점수가 낮아서요"라는 말은 이제 법정에서 통하지 않는다. "당신의 리더십 경험이 우리 인재상과 맞지 않았다"는 식의 구체적인 근거가 필요하다.

문제는 딥러닝 기반의 AI가 속을 알 수 없는 '블랙박스'라는 점이다. 왜 점수를 깎았는지 개발자조차 설명 못 하는 경우가 허다하다. 설명할 수 없는 불합격은 그저 폭력일 뿐이다.


결국은 '사람에 대한 예의'다

AI 도입을 고민하는 HR 담당자들에게 묻고 싶다. 효율성이라는 달콤한 사탕 뒤에 숨겨진 '법적 리스크'와 '윤리적 함정'을 감당할 준비가 되었는가?

알고리즘 공정성 감사(Audit)는 선택이 아닌 필수다. 내 AI가 특정 학교, 성별, 지역을 은연중에 선호하고 있지는 않은지 끊임없이 의심해야 한다. 그리고 무엇보다, 마지막 도장은 반드시 '사람'이 찍어야 한다.

누군가의 인생을 결정짓는 일이다. 클릭 한 번으로 처리하기엔, 우리네 인생의 무게가 그리 가볍지 않다. 기술이 아무리 발전해도, 사람을 맞이하고 떠나보내는 일에 대한 최소한의 예의. 그것마저 기계에 외주를 줄 수는 없지 않은가.

이 블로그의 인기 게시물

Suno AI를 활용한 매력적인 노래 작사법: 핵심 가이드

AI가 만든 곡, 대중가요 시장에서 성공할 수 있을까?

영화 파벨만스 리뷰 및 심층 분석 | 스필버그의 고백록