AI 채용 문제점 ① 편향된 데이터로는 공정한 채용이 불가능하다

2023-03-03


AI 채용 문제점 ① 편향된 데이터로는 공정한 채용이 불가능하다




온라인 채용 서비스 모던 하이어(Modern Hire) 설문조사 결과 기업 4곳 중 거의 3곳이 지난 2022년 인재 채용 관련 기술을 구매했으며, 70%는 2023년에 경기 침체가 오더라도 투자를 계속할 예정이라고 밝혔습니다. 그만큼 채용에 있어 AI는 필수 도구가 되어가고 있는데요.


이런 트렌드에도 불구하고 AI 채용은 아직까지 신뢰하기 어렵다는 이유로 도입하지 않고 있는 기업도 있습니다. AI 채용을 신뢰하지 못하는 이유는 크게 2가지인데요. 이 문제는 채용 분야뿐 아니라 AI를 활용하는 모든 분야에 포함될 수 있는 이유일 것 같습니다.


첫째, 공정한 채용이 불가능하다는 것입니다. 편향된 데이터로 학습한 AI는 편향된 데이터 기반으로 결과를 만들기 때문에 결국 공정한 채용을 위해 도입한 AI 채용 서비스가 공정하지 않은 결과를 만들어내는 것이죠. 예들 들어, 특정 대학 출신의 개발자가 업무를 잘한다는 데이터를 학습시키면 특정 대학 출신 지원자에게만 높은 점수를 주게 됩니다.


둘째, 결과에 대한 설명이 불가능합니다. AI 채용 서비스로 지원자에 대한 평가는 가능하지만 왜 이런 결과가 나왔는지 설명 불가능하다는 문제는 이미 여러 번 지적되어 왔죠. 특히나 1월 개인정보보호 위원회와 고용노동부가 공동으로 발표한 '개인정보보호 가이드라인'에서도 앞으론 인공지능(AI) 면접을 본 지원자가 탈락 사유를 문의할 경우 AI의 결과를 담당자 등이 검토한 후, 그 결과를 지원자에 설명해야 하기 때문에 설명 가능한 AI가 더욱 중요해질 것으로 보입니다.


이번 포스팅에서는 2가지 문제 중 첫 번째인 데이터 편향성에 대한 얘기를 해보겠습니다.



데이터 편향성이 문제가 되는 이유는 무엇일까요? 

요즘 핫한 챗GPT, 들어보셨죠? 챗GPT의 문제는 정확히 얘기하자면 편향성의 예시는 아니지만, 잘못된 데이터로 인해 발생하는 문제죠.


챗GPT는 사용자와 대화를 주고받는 형식으로 질문에 답하는 언어모델입니다. 챗GPT를 이용하다 보면 정말 인터넷에 검색하는 것보다 빠르게 결과를 제공하기 때문에 생성 AI 시대를 본격화했다는 평가를 받고 있죠. 간단하게는 요리 레시피 검색부터 리포트, 논문, 자기소개서까지 챗GPT에서 생성된 결과를 이용하고 있습니다. 하지만 이런 챗GPT도 결국은 AI이기 때문에 큰 문제점이 있습니다.


바로 틀린 답변을 정답처럼 말하는 할루시네이션(환각) 현상입니다. 챗GPT는 기본적으로 인터넷상 텍스트 데이터를 통해 정보를 수집하고 학습하는 만큼 데이터에 존재하는 편견과 가짜 뉴스, 잘못된 정보를 그대로 받아들일 수밖에 없습니다. 그리고 이를 사실처럼 답변하죠.


또 다른 예시는 2020년 12월 말에 출시되었던 AI 챗봇 이루다입니다. 일부 사용자들이 이루다에게 한 성희롱과 혐오 발언을 했는데 이를 이루다의 딥러닝 알고리즘으로 학습한 것입니다. 그 결과 성소수자나 장애인에 대한 차별과 혐오 발언, 개인정보 유출 등의 문제로 중단되었습니다.



데이터 편향성과 AI 채용이 무슨 관련이 있나요?

챗GPT와 이루다로 잘못된 데이터를 학습한 AI의 문제점에 대해 얘기해 봤는데요. 그렇다면 이런 문제점이 AI 채용 서비스랑은 무슨 관련이 있는 걸까요?


AI 채용 서비스에게 가장 중요한 점 중 하나는 "사용되는 AI가 정말 공정한가"입니다. 사실 채용 분야에서 AI를 활용하려는 이유는 명확합니다. 사람보다 빠르고 사람보다 정확하고 사람보다 공정하기를 기대하기 때문인데요. 속도와 정확성은 당연하겠지만 AI라고 해서 모두 공정할까요? 아닙니다. AI가 공정하기 위해서는 편향되지 않은 데이터를 학습해야 공정한 결과를 내릴 수 있습니다.


2014년부터 아마존에서는 AI 채용 서비스를 개발해왔는데요. 개발된 서비스 실험 결과 여성을 차별하는 문제점이 발견되었습니다. 특히나 소프트웨어 개발자 및 기타 기술 직무 지원자가 성 중립적으로 평가되지 않은 것이죠. 예를 들어, 이력서에 ‘여성 체스 동아리’처럼 ‘여성’이라는 단어가 포함되면 감점되는 것입니다. 여자 대학을 졸업한 지원자의 점수가 깎이는 경우도 있었으며 남성 기술자들이 이력서에 자주 쓰는 동사를 유리하게 인식했다고 합니다.


이는 축적된 데이터를 학습해서 작동하는 AI의 딥러닝 방식 때문에 발생한 문제였습니다. 지난 10년간 회사에 제출된 이력서 패턴을 학습해서 지원자들을 평가하다 보니 남성 지원자들의 이력서를 더 많이 학습했기 때문인 거죠.


아마존처럼 편향된 데이터를 학습한 AI는 공정하지 않은 채용 결과를 만들어내기 때문에 공정성이 중요한 채용 분야에서의 AI 서비스 활용에 걸림돌이 되고 있었습니다.



AI 채용 서비스는 무조건 쓰면 안되는 건가요?

AI 채용 서비스의 문제점을 알고 나니, 정말 우리 기업에 도입해도 되는 건가 걱정이 될 수 있는데요. 무조건 이용하지 말아야 하는 것은 아닙니다. 도입 전 조금만 알아보면 충분히 해결 가능한 단점이기 때문이죠. AI 채용 서비스를 이용하되 해당 AI가 편향된 데이터를 학습하지 않았는지를 확인하면 괜찮습니다.


AI 서류평가 서비스 프리즘과 대화형 AI 면접 서비스 몬스터는 처음 AI 기술을 개발할 때부터 이를 방지하기 위해 편향되지 않은 데이터만 학습시켰습니다. 편향되지 않은 데이터를 학습시킬 수 있던 방법은 2가지입니다.


먼저, 블라인드 마스킹 기술을 이용하여 인적사항이 포함된 항목을 제외한 후 AI 학습 데이터로 사용하고 있습니다. 텍스트 안에는 이름, 성별, 출신 학교, 출신 지역, 종교 등 다양한 인적사항이 포함되어 있는데요. 일반적으로 AI 학습 데이터를 만들 때 데이터를 정제하지 않고 그대로 학습시키는 경우가 많은데요. 무하유에서는 모든 AI에 학습되는 데이터에서 인적사항을 제외하고 편향성 문제가 없는 텍스트로 정제하여 학습시키고 있죠. 이렇게 학습된 AI는 편향성을 가지지 않습니다.


또한 데이터 팩토리를 통해 인증된 작업자만이 데이터 라벨링을 할 수 있습니다. 보통 데이터 라벨링이라고 하면 부업으로 많이들 알고 있는데요. 전문적인 지식이 없더라도 쉽게 일할 수 있다고 많이 알려져 있습니다. 하지만 충분히 교육받지 않은 작업자가 라벨링한 데이터에는 그만큼 오류도 많습니다. 무하유는 자체적으로 교육 후 테스트를 통해 인증된 작업자만이 데이터 라벨링을 할 수 있도록 관리하고 있습니다. 이 데이터 팩토리에서 가공된 데이터로만 학습하기 때문에 잘못된 데이터가 들어갈 수 없죠.




AI 채용 문제점 ② AI 면접 결과에 대한 설명이 불가능하다


특허청에서도 지식재산 행정시스템과 평가시스템 전반에 충분히 검증된 AI 기술을 접목해 기능 고도화와 더불어 혁신적 변화를 이루겠다고 발표한 만큼 올해부터는 더 많은 분야에서 AI 기술이 적극적으로 활용될 것이라 예상되는데요.


AI 기술 도입 전 해당 기술의 데이터가 편향되지는 않았는지 꼭 확인해 보고 도입하셔서 무하유의 미션처럼 반복적인 업무로부터 해방되고 업무 자동화가 이루어질 수 있으면 좋겠습니다. 


AI 채용의 2번째 문제점, 설명 불가능한 AI는 다음 포스팅에서 다뤄보겠습니다.


무하유의 HR 뉴스레터를 구독해 주시면 채용 관련 소식을 빠르게 확인하실 수 있습니다.



> 참고기사

[CIO] 인사 담당자가 AI 봇? 인공지능으로 채용 강화하는 기업들

[머니투데이] 리포트도 대신 쓰는 AI…가짜뉴스·편견에 빠져 삐뚤어진다

[뉴시스] [넷플 '정이'로 본 AI 윤리②]잘못 배운 'AI'가 사람 차별

[조선일보] “이력서에 ‘여성’ 들어가면 감점”…아마존 AI 채용, 도입 취소

[파이낸셜뉴스] "내가 왜 탈락했지?" 깜깜이 AI면접 결과, 정보 요구 가능해진다

(주)무하유 ㅣ 대표자: 신동호

사업자번호: 206-86-55577

Tel: 1588-9784

서울 성동구 성수일로8길 5 A동 2층


Copyright  © 2022. (주)무하유. All rights reserved.