16.10.2022 | Кембриджские исследователи считают, что ПО для найма с ИИ-алгоритмами – автоматизированная лженаука |
Согласно новой работе, опубликованной исследователями из Центра гендерных исследований Кембриджского университета, ИИ демонстрирует субъективность и ненадежность при отборе сотрудников, а также использует алгоритмы, основанные на лженауке. "ИИ нельзя обучить определять только связанные с работой характеристики и игнорировать гендерные/расовые характеристики кандидата. Это связано с тем, что те качества, которые, как мы считаем, необходимы для того, чтобы быть хорошим работником, по своей сути связаны с гендерными и расовыми характеристиками", – сказала Керри Маккерет, постдок из Центра гендерных исследований Кембриджского университета. Особое беспокойство у исследователей вызвали инструменты, сравнивающие мельчайшие детали речи и телодвижений кандидата с идеальным образцом сотрудника компании. По словам соавтора исследования, доктора Элеонору Драге, такие инструменты не имеют никакой научной основы и больше похожи на френологию – антинаучную теорию о связи психических свойств человека и строения его черепа. Кроме того, вместе с шестью студентами, изучающими компьютерные науки, исследователи создали свой собственный упрощенный инструмент для подбора персонала на ИИ-алгоритмах, который оценивал фотографии кандидатов по "большой пятерке" личностных качеств:
Но все полученные оценки были искажены многими не относящимися к делу переменными. Например, оценка личности менялась после изменения контрастности/яркости/насыщенности фото. Кроме того, многие другие исследователи пришли к аналогичным выводам. Еще на оценку влияют очки и головной платок. Однако не все специалисты скептически относятся к подобным технологиям. Некоторые считают, что ИИ может помочь в увеличении разнообразия сотрудников компании за счет анализа больших пулов кандидатов. |
Проверить безопасность сайта