인공지능(AI)을 이용한 신규 인력채용의 문제점 AI recruitment tool pulled by Amazon for sex bias


AI recruitment tool pulled by Amazon for sex bias

Recruitment software was not favourable towards women


Amazon has been forced to scrap an artificial intelligence system used by the company for recruitment after it was found the technology was biased against female applicants.



Reuters




 

인공지능(AI)을 이용한 신규 인력채용의 문제점  


채용 인공지능 기술 아마존 최초 도입

여성 지원자에 불리하게 작용 더 이상 적용하지 않아


   클라우드 서비스 제공업체인 아마존은 신입사원 채용 시 여성 지원자에게 불리하게 작용하는 인공지능(AI, Artificial Intelligence) 시스템을 이용한다는 이유로 同 시스템을 더 이상 이용하지 않는다.


인공지능 기술은 입사 지원자를 빠르게 필터링하기 위한 방법의 일환으로 2014년 아마존에서 처음 개발되었다. 이를 통해 아마존은 상위 5명의 인원을 뽑을 수 있었다. 그러나 2015년 아마존은 인공지능을 이용한 채용 방법이 성에 중립적인 방법으로 이루어지지 않는다는 점을 알게 되었다.




문제는 시스템이 어떻게 훈련되는가에 있다. 同社의 인공지능 시스템은 10년 이상의 인력자원을 선택하도록 이력서를 선별한다. 대부분의 지원자는 남성이었다. 로이터 통신사의 보도에 따르면, 시스템은 여성보다 남성 지원자를 선호하도록 훈련된 것으로 나타났다. 同 시스템은 “여성의”라는 단어가 발견되면 이력서를 후순위로 배치하고, 모든 여성 대학원 졸업생을 배제한 것으로 조사되었다.


보도에 따르면, 비록 아마존이 이러한 단어에 따른 선별적인 조치를 취하지 않도록 소프트웨어를 수정했지만, 여성에 대해 차별적인 다른 방법을 사용하는지에 대해 확신하지 못하는 것으로 나타났다.


아마존의 에딘버그 엔지니어링 허브에 설립된 대응팀은 업무 기능과 위치를 상세히 입력한 500개의 모델을 만들었다. 이 시스템은 지난 입사지원자의 이력서에서 나타나는 5만 개에 이르는 단어를 인식하도록 훈련받았다.


이 시스템은 대부분의 IT 분야 지원자들의 이력서에서 나타나는 일반적인 내용에 대해 낮은 중요도를 부여하는 대신, “실행된(executed)”, 그리고 “성취된(captured)” 등 남성 지원자들의 이력서에 보다 많은 등장하는 단어를 선호하도록 훈련받았다.


 

The Guardian

edited by kcontents


인공지능 시스템에 사용된 모델은 다양한 적절치 않은 일자리에 부적합한 인력을 추천하는 등 다른 문제들도 보였다.




이러한 문제들로 인해 아마존의 최고경영진은 이 프로젝트에 대한 희망을 잃고 팀 운영을 중단하기로 결정했다고 익명의 정보원은 주장했다. 또한 이 인공지능 시스템은 지원자들을 필터링하는 기능만을 갖춘 것은 아니었다.


아마존은 현재 기초적인 선별 작업을 위해 상당히 기술적 수준이 낮은 도구를 사용하는 것으로 나타났다.

ndsl.kr


edited by kcontents


The AI tech was first developed at Amazon in 2014 as a way of quickly filtering out most candidates and providing the firm with the top five people. However, by 2015, it was realised that the system was not rating applicants in a gender-neutral way.


The problem lay in how the system was trained. It was fed CVs to detect patterns in recruiting over a 10-year period. Most of the applications came from men. According to a report from Reuters, the system taught itself that male candidates were preferable to women. It downgraded CVs if found words such as “women’s” and penalised graduates of all-female colleges.




brandequity.economictimes.indiatimes.com


While Amazon recoded the software to make the AI neutral to these terms, this did not guarantee that the technology would find other methods of being discriminatory against women, the report said.


The team, set up in Amazon’s Edinburgh engineering hub, created 500 models concentrated on detailed job functions and locations. The system was also taught to recognise around 50,000 terms that showed up on past candidates’ CVs.


The technology learned to assign little importance to skills common across IT applicants, favouring terms more commonly found on male engineers’ resumes, such as “executed” and “captured,” the report said.




The model used in the AI system had other problems that led to unqualified candidates being recommended for a variety of unsuitable jobs.


This eventually led to Amazon pulling the plug on the team as executives “lost hope” over the project, anonymous sources told Amazon. The tool could not be solely relied upon to sort candidates.


The firm now uses a “much-watered down version” of the recruiting engine to carry out “rudimentary chores”.

https://www.itpro.co.uk/machine-learning/32083/ai-recruitment-tool-pulled-by-amazon-for-sex-bias?




 kcontents



댓글()