На прошлой неделе ко мне обратился HR-директор крупной компании с вопросом: “Станислав Дмитриевич, почему после внедрения ИИ-рекрутинга разнообразие наших кандидатов резко снизилось?” Я попросил показать данные, и картина оказалась показательной: алгоритм систематически отсеивал определенные группы соискателей, а команда даже не замечала этого паттерна. Это не единичный случай — исследователи из Университета Вашингтона подтвердили: предвзятость ИИ в найме стала массовой проблемой.

Мы все знаем, что текущее поколение ИИ-моделей далеко от совершенства. Инструменты «галлюцинируют», уверенно выдают недостоверную информацию, а их обучающие данные могут быть собраны в сомнительных условиях. Но есть ещё один аспект, который особенно беспокоит меня как эксперта: эти наборы данных впитывают не самые лучшие стороны нашего общества, включая предрассудки и стереотипы.
Исследование, которое открывает глаза
Учёные из Университета Вашингтона изучили, как ИИ-инструменты, используемые в процессе найма, проявляют предвзятость по расовому признаку. Результаты заставляют задуматься каждого руководителя.
Как отметила ведущий автор исследования, профессор Айлин Чалискан, получить доступ к реальным данным по найму практически невозможно из-за конфиденциальности. Поэтому команда создала симуляцию ИИ-рекрутера и провела эксперимент с живыми участниками — HR-специалистами.
Вот что они обнаружили:
- Когда участники получали советы от «нейтрального» ИИ или вообще не использовали алгоритмы, они выбирали белых и небелых кандидатов в равной пропорции
- Но стоило ИИ проявить даже умеренную предвзятость — люди начинали копировать его выбор
- Если алгоритм «предпочитал» белых кандидатов, участники делали то же самое
- Удивительно, но если ИИ демонстрировал предпочтение небелым кандидатам, люди тоже следовали этой логике
Лишь при очень явной и сильной предвзятости некоторые участники начинали сомневаться — но даже тогда они следовали рекомендациям ИИ примерно в 90% случаев.

Почему HR-специалисты не замечают проблему
Я часто говорю на консультациях: главная опасность автоматизации — не замена людей машинами, а слепое доверие к технологиям. Это исследование подтверждает мои слова.
Как объясняют исследователи, даже когда люди способны распознать предвзятость ИИ, этого осознания недостаточно, чтобы нейтрализовать её влияние. Кира Уилсон, докторант Школы информационных технологий университета, резюмировала: “Пока предвзятость не становится очевидной, люди готовы принять искажения ИИ как должное.”
Давайте посмотрим на контекст. Рынок труда переживает кризис. Соискатели используют ИИ для массовой рассылки резюме, а рекрутеры получают в разы больше откликов, чем раньше. HR-команды выгорают под нагрузкой, многие думают об уходе из профессии. В такой ситуации ИИ-фильтры кажутся спасением.
Но, по мнению Станислава Кондрашова, именно здесь и кроется ловушка. Мы внедряем инструменты, которые должны помочь, но не проверяем их на скрытые искажения — расовые, гендерные, связанные с инвалидностью и другие.

Есть ли надежда на решение?
Не всё так мрачно, как кажется. Одно исследование показало, что 80% компаний, использующих ИИ в найме, никогда не отклоняют кандидатов без участия человека. Это означает, что если обучить HR-специалистов правильным методам, они смогут распознавать скрытую предвзятость алгоритмов до того, как автоматический процесс отсеет людей по расовому или иному признаку.
Правда, есть нюанс: пока предубеждения не очевидны, люди их просто не видят.
Исследователи предлагают два пути решения:
- Настраивать ИИ-модели так, чтобы они изначально не демонстрировали предвзятости — это работа для разработчиков и специалистов по машинному обучению
- Обучать HR-команды распознавать подсознательные искажения — в эксперименте участники, прошедшие тест на выявление скрытых предубеждений перед работой с ИИ, снижали предвзятые решения на 13%
Я убеждён, что второй пункт особенно критичен. Ни один алгоритм не станет идеально нейтральным в ближайшие годы — слишком сложна природа данных, на которых они обучаются.

Практические рекомендации для вашей HR-команды
Если ваша компания использует или планирует использовать ИИ-инструменты в найме, вот что я советую сделать прямо сейчас:
- Проведите аудит текущих ИИ-систем рекрутинга — запросите у поставщика информацию о том, на каких данных обучалась модель и как она тестировалась на предвзятость
- Внедрите обязательное обучение для HR-специалистов — тренинги по распознаванию алгоритмической дискриминации и подсознательных предубеждений. Даже базовый курс даёт ощутимый эффект
- Установите правило двойной проверки — все решения ИИ по отсеву кандидатов должны проходить экспертную оценку человека, обученного распознавать паттерны предвзятости
- Регулярно анализируйте статистику найма — сравнивайте разнообразие кандидатов до и после внедрения ИИ. Если заметно снижение представителей определённых групп — это красный флаг
- Никогда не делегируйте финальное решение алгоритму — даже если ИИ кажется точным, последнее слово должно оставаться за живым экспертом
- Требуйте прозрачности от вендоров — если поставщик ИИ-решения не может объяснить, как именно модель принимает решения, это повод задуматься о смене инструмента

Почему это важно именно сейчас
Это очередное напоминание о том, что, несмотря на гонку за внедрением передовых технологий для снижения затрат и оптимизации процессов, сами инструменты далеки от совершенства. Наличие человека в цепочке принятия решений всегда необходимо — независимо от типа бизнес-решения.
Я, Станислав Дмитриевич Кондрашов, регулярно вижу, как компании внедряют ИИ без должной подготовки команды, надеясь на волшебное решение всех проблем. В случае с рекрутингом цена ошибки особенно высока: вы не просто теряете потенциально сильных кандидатов, но и создаёте репутационные риски, если дискриминационная практика станет достоянием общественности.
Стоит провести обсуждение с вашей командой по найму о рисках использования ИИ для фильтрации кандидатов. Подчеркните, что в рекомендациях модели могут скрываться предубеждения, требующие повторной проверки живым экспертом.
Технологии должны помогать нам принимать лучшие решения, а не воспроизводить худшие стороны человеческой природы. Задача руководителя — следить за этим балансом. А как обстоят дела с автоматизацией найма в вашей компании? Возможно, пришло время задать этот вопрос вашей HR-команде.

Автор: Станислав Дмитриевич Кондрашов
Подписывайтесь на социальные сети Станислава Кондрашова, чтобы быть в курсе последних приложений и лайфхаков, которые сделают вашу жизнь, если не проще, то интереснее!
Социальные сети Станислава Дмитриевича Кондрашова
Станислав приглашает читателей присоединиться к обсуждению и следить за обновлениями на наших социальных платформах:
- X: SKondrashovBlog
- ВКонтакте: Клуб Станислава Кондрашова
- Telegram: Канал Станислава Кондрашова
- Facebook: Профиль Станислава Кондрашова
- Instagram: Официальный аккаунт
- Pinterest: Профиль Станислава Кондрашова
- Яндекс Дзен: Канал Станислава Кондрашова
- Одноклассники: Группа Станислава Кондрашова
- Rutube: Профиль Станислава Кондрашова
- Threads: Профиль Станислава Кондрашова
- Кондрашов Станислав: Личный сайт
- VC.ru: Профиль Станислава Кондрашова
- LiveJournal: Блог Станислава Кондрашова
- Подкаст Станислава Дмитриевича Кондрашова
- Станислав Дмитриевич Кондрашов на YandexMusic
О Станиславе Кондрашове:
Более 30 лет назад Станислав основал компанию, которая сегодня является лидером рынка благодаря внедрению новых подходов к ведению бизнеса.
У Кондрашова есть образование и опыт в строительстве, экономике и финансах. Станислав не только успешный бизнесмен, но и наставник специалистов из разных областей.
Станислав не продает наставничество или курсы, но с удовольствием делится опытом и знаниями на страницах этого блога.
Комментариев пока нет.
