자세히 보기

Autorin

채용에서의 AI 활용, 아직은 갈 길 먼 이유

뉴스
2021.10.275분

이력서를 분석하고 지원자를 선별하기 위해 자동화된 평가, 디지털 면접, 데이터 애널리틱스에 주목하는 기업이 늘고 있다. 이 과정에서 인공지능의 사용이 증가하기도 했다. 그러나 IT의 과제 중 하나로 다양성, 형평성 및 포용성(DEI)이 대두되고 있는 가운데, 서툰 AI 활용이 도움이 되기보다는 해를 끼칠 수 있다는 주장이 제기되고 있다.

IEEE 펠로우이자 뉴욕대학교 텐던 공과대학 학장 겸 윌리엄 R 버클리 교수인 젤레나 코바체비치는 “편향은 대개 데이터에서 비롯된다. 데이터 집합이나 결정에 참고할 만한 요소가 없다면, 당연히 지원자를 제대로 찾아내서 평가하지 못할 것”이라고 말했다.

채용에 AI를 사용하는 데 있어 특히 큰 문제는 채용 시스템을 구축하는 기반이 되는 과거 데이터가 궁극적으로 고유한 편견을 가질 수 있다는 점이다. 과거 데이터 세트가 충분히 풍부하지 않다면, AI 채용 도구는 십수 년 전에 존재했던 편견을 갖게 될 가능성이 매우 높다. 그러나 효과적으로 사용한다면, AI는 더 효율적이고 공정한 채용 과정을 만드는데 도움을 줄 수 있기도 하다.

AI에서 편견의 위험성
AI 알고리즘은 일반적으로 과거 데이터에 기반하여 훈련되기 때문에 편향성이 문제시되곤 한다. 데이터 과학에서 편향은 학습 알고리즘의 잘못된 가정으로부터 발생하는 오류라고 정의된다. 현재 환경을 반영하지 않는 데이터로 알고리즘을 교육하면 잘못된 결과가 도출될 것이다. 따라서, 특히 IT와 같이 역사적으로 다양성 문제가 있었던 산업에서 과거 고용 데이터로 알고리즘을 교육하는 것은 큰 실수가 될 수 있다.

전자개인정보센터(Electronic Privacy Information Center, EPIC)의 AI 및 인권 펠로우인 벤 윈터스는 “AI 소프트웨어가 본질적으로 편향되지 않았거나 편향된 영향을 끼치지 않는다는 것을 보증하는 것은 정말 어려운 일이다. 이 점을 방지하기 위해 취할 수 있는 조치들이 있기는 하지만 “많은 시스템이 인종과 장애에 따라 편향된 효과를 갖는 것으로 나타나곤 한다”라고 말했다.

데이터 세트에 주목할 만한 다양성이 없다면, 대표성이 부족한 그룹에 대해 제대로 평가하고 예측하는 것은 불가능하다. 미래의 모든 후보들을 과거의 원형과 비교할 것이다고 코바체비치는 지적했다.

그녀는 “만약 기업이 과거 ‘아이비리그 학교’ 출신들만 채용했다면, 덜 알려진 학교 출신의 지원자가 어떤 성적을 낼지 사실 알지 못한다”라고 말했다.

BMC 소프트웨어에서 기업의 사회적 책임, 다양성, 형평성 및 포용성을 책임지고 있는 웬디 렌트쉴러는 AI가 채용 과정에 가져올 수 있는 잠재적인 부정적 요소를 우려하는 인물이다. 그녀는 AI 채용 도구를 개발하려 했던 아마존의 시도를 대표적인 사례로 언급했다. 그 알고리즘이 여성을 차별한다는 이유로 아마존은 해당 프로젝트를 중단해야만 했다.

렌트쉴러는 “거대한 소프트웨어 회사조차 이 일을 제대로 할 수 없었던 것이다”라고 말했다.

AI의 차별 
가능한 한 윤리적으로 채용 과정에서 AI를 사용하고 과장된 광고의 희생양이 되지 않도록 하는 것은 기업에 달려있다. 민주주의 기술 센터의 직원 프라이버시 선임 정책 자문가인 매튜 쉬어러는 인사부는 보통 비용센터로 치부되기 때문에 리더들은 때때로 비용 절감을 도울 수 있는 자동화 기술을 도입하기를 원한다고 설명했다. 

그러나 이러한 열망으로 인해 기업들은 자신들이 사용하고 있는 소프트웨어의 잠재적인 부정적 측면을 간과하게 될 수도 있다는 지적이다. 쉬어러는 또한 AI 채용 소프트웨어 업체들의 주장 중 상당수가 완전히 거짓은 아니더라도 과대 포장된 경우가 많다고 강조했다.

그는 “특히 사람들의 표정, 목소리 톤, 성격을 측정하는 모든 것을 분석한다고 주장하는 도구들이 있다. 이는 허튼소리다”라고 말했다.

예컨대, 화상 면접에서 지원자의 목소리 톤, 표정, 기타 성격을 측정할 수 있다고 주장하는 도구는 기껏해야 “문화적으로 얼마나 ‘정상적인’ 사람인지를 측정하는 것”이며, 이는 궁극적으로 장애가 있는 지원자나 여타 비전형적인 지원자를 배제할 수 있다고 그는 설명했다. 

그리고 렌트쉴러가 지적했듯이, BIPOC(Black, Indigenous and People of Color), 여성, 그리고 장애인 지원자들은 면접에서 ‘코드 전환’(code switching)이라는 행동이 보이는 경향을 가진다. 과소 대표되는 그룹들이 주류에 속한 다른 사람들을 더 편안하게 해주기 위해 그들이 말하고, 보이고, 행동하는 방식을 조정하는 양태를 의미한다. 이 경우, AI 시스템은 그것을 알아차리고 그들의 행동을 진실하지 않거나 정직하지 못한 것으로 잘못 식별할 수 있다.

AI 채용의 규제 
AI는 비교적 신기술이기 때문에 개인정보 보호 및 거래 관행에 관련된 법률 및 정책에 관해서 감독을 거의 받지 않는다. 그러나 몇몇 분쟁이 이미 나타나고 있는 중이다. 

윈터스는 EPIC가 하이어뷰(HireVue)를 공정거래위원회에 제소한 사례를 언급했다.  채용 소프트웨어에 안면 인식 사용과 관련하여 기만적인 비즈니스 관행을 사용했다고 주장이었다.

하이어뷰는 “후보자들의 말과 안면 움직임을 추적 및 분석해 체격, 감정지능, 의사소통 능력, 인지능력, 문제해결 능력 등을 분석할 수 있는 소프트웨어를 제공한다”고 주장했지만, 결국 안면 인식 관련 주장과 자사 소프트웨어에서 해당 기술의 사용을 철회했다.

한편으로는 AI가 지원자의 화상 면접, 평가, 이력서, 링크드인 프로필 또는 기타 공개 소셜 미디어 프로필을 분석하면서 지원자에 관해 수집할 수 있는 데이터의 양에 대해서도 우려가 있다. 종종, 지원자들은 면접 과정에서 자신이 AI 도구에 의해 분석되고 있는지조차 알지 못하며 그 데이터가 어떻게 관리되는지에 대해서도 규제가 거의 없다.

윈터스는 “전반적으로 AI 채용 도구에 대한 감시가 거의 이루어지지 않고 있다. 여러 주 혹은 지방에서 법안이 도입되었다. 그러나 이러한 법안들 중 다수는 정부 기관에 적용되지 않고 중요한 해결책을 제시하지 않는 등 상당한 허점이 있다”라고 말했다.

그는 이어 “AI 활용 채용과 관련해 미래의 규제는 상당한 투명성, 이러한 도구의 적용에 대한 통제, 엄격한 데이터 수집· 사용 및 보존 제한, 자유롭게 공개되는 독립적인 타사 테스트를 필요로 한다”라고 덧붙였다. 

AI의 책임 있는 사용
BMC의 렌트쉴러와 그녀의 팀은 회사의 ‘인적 자본이 더 전략적’이 될 수 있도록 돕기 위해 AI를 사용하는 방법을 찾고자 시도하고 있다. 지원자들이 지원하는 역할에 대한 능력기반 평가를 사용하여 지원자를 선별할 수 있는 도구를 구현했다. 

BMC는 또한 AI를 사용하여 직무 기술에서 문제가 될만한 언어를 식별해 중립적이고 포용적인 언어를 보장하도록 했다. 또한 BMC는 적응교육 과정에서 복리후생 및 내부 조직 정보를 신입사원과 연계하기 위해 이 소프트웨어를 사용했다. 

렌트쉴러는 자신의 목표가 자신의 팀에 있는 사람들을 대체하는 것이 아니라 그들이 일을 보다 효과적으로 할 수 있도록 도울 수 있는 AI와 자동화를 구현하는 방법을 찾는 것이라고 설명했다.

AI 알고리즘이 과거 채용 데이터를 기반으로 한 본질적인 편향성을 가질 수 있지만, 이를 피하기 위한 한 가지 방법은 능력기반 채용에 더욱 집중하는 것이다. 렌트쉴러의 팀은 AI 도구만을 사용하여 그들이 인력에 추가하고자 하는 특정 기술을 가진 지원자를 식별하고 역사적으로 지원자를 채용 과정에서 배제해왔을 수 있는 교육, 성별, 이름 및 기타 식별 정보는 무시한다. 

이렇게 함으로써 예상치 못한 배경 출신의 지원자들을 고용했다고 렌트쉴러는 전했다. 원래 치과의사였으면서 코딩 경험도 좀 있는 시리아 난민이 여기에 포함된다. 시스템이 코딩 능력이 있는 지원자를 찾는 데만 집중했기 때문에 전직 치과의사가 걸러지지 않고 회사에 채용됐던 것이다.

다른 윤리적 전략에는 견제와 균형을 실시하는 것이 포함된다. 쉬어러는 이력서를 검토해서 채용 담당자에게 잠재적인 지원자 정보를 보내는 도구를 사례로 들었다. 

이 도구는 채용 담당자가 이력서를 탈락시켰을지라도 지원자의 이력서가 다시 알고리즘을 통해 좋은 예비 지원자로 지정되면 또 다른 채용 담당자에게 보내진다. 이를 통해 이력서가 인간에 의해 이중으로 확인되는 한편, AI가 독자적으로 결정하는 상황을 차단할 수 있었다. 

쉬어러는 “인간이 판단을 유지하고 기계가 말하는 것에만 의존하지 않는 것이 중요하다. 인간 채용 담당자는 기계가 도출해낸 결과를 별다른 반박자료가 없는 한 수용하려는 경향을 가지기 때문이다”라고 말했다. dl-ciokorea@foundryco.com