Разработка центра оценки кандидатов


Тем не менее не все групповые дискуссии проводятся Без лидера. Например Комитет по найму гражданских служащих (Civil Service Selection Board) предлагает кандидатам по очереди возглавлять дискуссию, проводя 15-минутные сессии, во время которых необходимо достичь согласия о разрешении какой-либо управленческой проблемы. Подобным образом, Комитет Адмиралтейства по найму служащих военно-морских сил Великобритании (Admiralty Interview Board of the Royal Navy), чтобы оценить потенциал лидера, предлагает кандидатам предпринять командные упражнения на открытом воздухе для достижения какой-либо цели (например построить мост через водоем).

Следовательно, в сущности, каждый отдельный тип групповой дискуссии обеспечивает структуру, в рамках которой можно наблюдать и оценить связанное с работой поведение. Однако важно выбрать для дискуссии такую тему, которая не давала бы особых преимуществ кандидатам, обладающим специальными знаниями по этому вопросу. Равным образом упражнения должны отражать реальные ситуации этого типа работы, соответствующие его уровню.

Этим аспектом часто пренебрегают, так как разработчики склонны конструировать либо слишком трудные, либо слишком простые упражнения. Способы оценки, как выполняют тест кандидаты, также могут влиять на достоверность и валидность этих упражнений. В некоторых АС оценки наблюдателей могут быть сильно структурированы (например выражает мнение, спрашивает о предположениях), в других - менее структурированы (например влияет ли кандидат на суждения других?) Несомненно, более структурированный подход к оценке будет более достоверным и валидным, особенно при условии, что в качестве базы подсчета применяются шкалы оценок по типам поведения. Например известно, что существуют проблемы, связанные с негативным социальным влиянием на дискуссии, направленные на достижение согласия, когда эксперты объединяют свои суждения (типичная процедура). Если на экспертов оказывается социальное давление - с целью вынудить их скорее подогнать свои оценки, а не прийти к консенсусу по поводу истинных показателей, - не только достоверность оценки внутренними экспертами (inter-rater reliability) будет завышена, но и возможно, что подходящий кандидат вообще не будет выбран.

Следовательно, экспертам стоит минимизировать риск появления этой возможности, приняв структурированный подход.
Разработка центра оценки кандидатов
Согласуясь с большинством других методов отбора, упражнения АС должны быть разработаны на основе тщательного анализа содержания рассматриваемой работы (см. Главу 3). Этот анализ необходим, чтобы обеспечить хорошее описание типичных заданий и ситуаций, вследствие чего могут быть разработаны реалистичные моделирующие их упражнения. В идеале эти упражнения должны не только отражать наиболее важные характеристики работы, но и быть стандартизированными - с целью обеспечить одинаковые условия прохождения теста для всех кандидатов (это включает ситуационные условия, а также методы оценки и ранжирования).

Для получения более подробных сведений о планировании, разработке и использовании процедур АС вы можете обратиться к работам Торнтона и Биама (Thornton and Byham, 1982), Фелсэма (Feltham, 1989) и Вудраффа (Woodruffe, 1990). Обучение экспертов также будет способствовать стандартизации оценочных процедур и обеспечивать необходимый уровень их компетенции. Руководство по обучению экспертов можно найти в работах Лэсэма и Векслея (Latham and Wexley, 1981), а также Фая и Лэсэма (Fay and Latham 1982).

Если компания использует в качестве экспертов своих руководителей, важно, чтобы они находились в структуре организации по крайней мере на один или два уровня выше, чем оцениваемая позиция.
Оценочные стандарты
Когда речь заходит о достоверности, связанной с критерием, центры оценки кандидатов проявляют себя достаточно хорошо. Гоглер (Gaugler) и др. (1987) в своем мета-аналитическом обзоре отметили, что средний некорректированный коэффициент валидности составляет 0,29. С поправкой на статистические артефакты он возрастает до 0,37.



Дальнейшие исследования показали, что лучшие показатели валидности достигались, когда: использовалось больше упражнений; экспертами были психологи, а не руководители; в оценочном процессе применялась оценка равных по положению; отношение представленности женщин в оцениваемых группах было выше; отношение представленности этнических меньшинств было небольшим Неожиданно выяснилось, что продолжительность обучения экспертов не влияет на валидность центров оценки; а измерить качество обучения не представлялось возможным, хотя, вероятно, оно имело большее значение, чем продолжительность. Полученные данные привели к выводу, что валидность центра оценки кандидатов может разниться от одного набора условий до другого, в зависимости от наличия или отсутствия отдельных характеристик; и что использование техник центра оценки per se4 не гарантирует получения высокой достоверности, связанной с критерием.
Также были обнаружены некоторые проблемы, связанные с конструктивной достоверностью (см. Главу 4) центров оценки. Вслед за плодотворным исследованием Сэкетта и Дреера (Sackett and Dreher, 1982) некоторые другие исследователи (например Робертсон и др., 1987) продемонстрировали, что корреляции между всеми параметрами, якобы оценивающими одно и то же качество (например, навык лидерства), очень низки, в то время как корреляции между различными параметрами (например навыком лидерства и аналитическими навыками) в пределах одного и того же упражнения гораздо выше.

В дальнейшем, когда провели факторные анализы рассматриваемых параметров (например лидерства, межличностных отношений, планирования, решения проблем и т.д.), стало ясно, что факторы представляли скорее разные упражнения (например упражнение Входящая корреспонденция, групповая дискуссия и т.д.), чем параметры. Это противоречит тому, чего можно было бы ожидать, если бы центры оценки обеспечивали хорошую конструктивную достоверность. Есть некоторые свидетельства, что, возможно, эти результаты были получены из-за разницы в индивидуальных мнениях экспертов во время ранжирования кандидатов. Вместо того чтобы ранжировать кандидатов по установленным планировщиками AC параметрам, эксперты предпочитают использовать свои собственные индивидуальные категории.

Отсюда можно делать предположение, что использование специфических поведенческих перечней во время упражнений (см. Хеннесси (Hennessy) и др., 1998 для сравнения традиционных процедур наблюдения с поведенческими контрольными перечнями и методами индексации) и ограничение числа оцениваемых параметров улучшает показатели конструктивной достоверности. Недавние исследования свидетельствуют, что следует уделять больше внимания типам параметров, оцениваемых в АС (например Тетт (Tett), 1999).

Важно, чтобы упражнения в АС предоставляли кандидатам возможность продемонстрировать типы поведения, ассоциируемые с оцениваемыми параметрами. Некоторые параметры АС представляются слишком сложными или неопределенными (например параметр лидерство), чтобы их можно было применять для корректной оценки во многих АС (например Лоури (Lowry), 1994). Дополнительным преимуществом было бы наличие показателей отдельных упражнений; они могли бы прояснить понимание, что именно измеряется, и это, в свою очередь, привело бы к большему пониманию, почему центры оценки кандидатов прогнозируют поведение.

Полный обзор конструктивной достоверности центров оценки и факторов, ее улучшающих, содержится в работе Лиевенса (Lievens, 1999). Она включает такие факторы, как способы ротации экспертов во время упражнений АС.
Установление достоверности повторного тестирования может быть проблематичным из-за трудностей, сопровождающих повторение. Лучшим способом решить эту проблему было бы оценить одну и ту же группу кандидатов в двух центрах оценки за короткий промежуток времени. Однако в большинстве случаев это неосуществимо. Даже если бы это было возможным, довольно трудно контролировать разнообразные факторы групповой динамики просто потому. что взаимоотношения кандидат - кандидат или кандидат - эксперт могли измениться во время проведения первого АС, что впоследствии могло бы повлиять как на поведение кандидата, так и на суждения эксперта во время проведения второго АС. В одном из исследований сравнили общие рейтинги кандидатов, посетивших и продолжительные, и короткие АС.

Кандидатов, выполнявших похожие, но различающиеся по содержанию упражнения, оценив разные люди. Результаты продемонстрировали хорошую корреляцию между общим рейтингом и показателями отдельных упражнений, что предполагает высокую достоверность повторного тестирования.
В том, что касается полезности, свидетельства из Великобритании и США представляются довольно убедительными. АС высоко оцениваются экспертами и успешными кандидатами. Успешный кандидат воспринимает приобретенный опыт как стимул для собственного развития, поскольку такой опыт показывает сильные и слабые стороны человека.

Аналогичным образом руководители, выступающие в роли экспертов, узнают о способах систематического наблюдения и оценки управленческого поведения, чего трудно достичь в беспокойной повседневной melee5, заполняющей жизнь компании.



Содержание раздела