라벨이 시사 칼럼인 게시물 표시

내 자소서가 휴지 조각? 범인은 AI였다

이미지
  "귀하의 뛰어난 역량에도 불구하고..." 취업 준비생이라면 누구나 받아봤을 통보. 새벽 3시에 도착한 이 메일은 과연 인사 담당자가 밤을 새워가며 내 자소서를 읽은 결과일까? 천만에. 당신을 탈락시킨 건, 0.1초 만에 당신의 당락을 결정하고 쿨링 팬을 식히고 있을 'AI 면접관'일 확률이 높다. 기업들은 환호한다. 수만 장의 이력서를 커피 한 잔 마실 시간에 처리해주니, 이보다 훌륭한 '효율의 신'은 없어 보인다. 표정을 읽고, 목소리 톤을 분석하고, 키워드를 솎아내는 AI. 그들은 이걸 '혁신'이라 부른다. 하지만 우리는 여기에 아주 불편한 질문을 던져야 한다.  "그 기계, 진짜 공정한 거 맞습니까?" 편견을 배운 우등생, AI "AI는 감정이 없으니 사람보다 공정하다"는 말은 반은 맞고 반은 틀렸다. AI는 감정이 없다. 대신, 인간이 가진 '최악의 편견'을 스펀지처럼 흡수한다. 업계에서 전설처럼 회자되는 아마존의 AI 채용 폐기 사건을 기억하는가? 아마존이 야심 차게 개발한 채용 AI는 10년 치 이력서를 학습하자마자 성차별주의자가 되어버렸다. 이유는 단순하고도 충격적이었다. 과거 IT 업계 지원자와 합격자 대부분이 남성이었기 때문이다. AI는 이 데이터를 보고 기계적인 결론을 내렸다. "여성? 감점." 이것이 바로 'Garbage In, Garbage Out(쓰레기가 들어가면 쓰레기가 나온다)'의 법칙이다. 과거의 데이터가 차별적이었다면, AI는 그 차별을 충실히 계승하고 심지어 강화한다. 만약 당신이 이 억울한 알고리즘 때문에 떨어졌다면, 누구에게 하소연할 것인가? 서버실의 컴퓨터? 아니면 알고리즘을 짠 개발자? 유럽이 AI에 '경고장'을 날린 이유 눈치 빠른 유럽(EU)은 이미 칼을 빼 들었다. EU AI법은 채용 시스템을 '고위험(High-Risk)' 등급으로 분류했다....

스마트폰은 알고 있다, 우리가 얼마나 가난한지 (부제: 디지털 복지와 감시 사회)

이미지
디지털 복지와 감시 사회 내 주머니 속 스마트폰은 나보다 나를 더 잘 압니다. 어젯밤 누구를 만났는지, 점심값으로 얼마를 썼는지, 심지어 내 심박수가 언제 빨라졌는지까지도요. 편리하죠. 그런데 이 '편리함'이 누군가에게는 생존을 위협하는 '공포'가 된다면, 믿으시겠습니까? 우리는 지금 **'디지털 복지 국가(Digital Welfare State)'**라는 꽤 그럴싸한 세상에 살고 있습니다. 정부는 말합니다. "인공지능(AI)과 빅데이터로 복지 사각지대를 없애겠다"고요. 서류 더미 속에서 신음하던 공무원들을 구하고, 도움이 절실한 이웃을 핀셋처럼 찾아내겠다는 약속. 반대할 명분이 없어 보입니다. 하지만 그 매끈한 디지털 표면 아래에는 **'가난을 감시하는 눈'**이 시퍼렇게 빛나고 있다는 사실, 우리는 종종 잊고 삽니다. "당신은 가난하니까, 잠재적 범죄자입니다" 너무 과격한 표현 같나요? 네덜란드의 'SyRI(시리)' 이야기를 들어보면 생각이 달라지실 겁니다. 아이폰 시리(Siri)가 아닙니다. 네덜란드 정부가 야심 차게 도입했던 '복지 부정수급 탐지 시스템'의 이름입니다. 이 알고리즘은 물 소비량, 전화 사용 내역 같은 온갖 사생활 데이터를 섞어 시민들에게 점수를 매겼습니다. 문제는 이 시스템이 유독 가난한 동네와 이민자 거주지만을 뚫어져라 쳐다봤다는 겁니다. 부유한 동네의 탈세는 잡지 않으면서, 빈민가의 빵 한 조각은 현미경으로 들여다본 셈이죠. 결국 법원은 "기술적 효율성이 인권보다 우선할 수 없다"며 이 시스템의 전원을 꺼버렸습니다. 통쾌한 승리였지만, 한편으론 씁쓸합니다. 법원이 막지 않았다면 우리는 여전히 '알고리즘 판사' 앞에서 내 결백을 증명해야 했을 테니까요. 데이터가 된 사람들: '송파 세 모녀'와 한국의 현실 남의 나라 이야기만은 아닙니다. 우리에게도 아픈 기억, ...