Wytyczne i reguły etyczne dotyczące stosowania ośrodka oceny (wersja 2008 r.)

Kategorie: Artykuły, Przywództwo, rozwój menedżerski, HRM

Międzynarodowa Grupa Zadaniowa ds. Standardów Ośrodków Oceny

Dokument zatwierdzony przez 34. „Międzynarodowy kongres poświęcony metodom ośrodka oceny” (The International Congress on Assessment Center Methods), który odbył się 24 września 2008 roku w Waszyngtonie (w wersji angielskiej dostępny na stronie:www.assessmentcenters.org)

Niniejszy dokument stanowi uaktualnioną wersję „Wytycznych”, które były opracowywane począwszy od 1975 roku. Każda wersja została opracowana i zatwierdzona przez specjalistów z zakresu praktycznego wykorzystania ośrodka oceny. „Wytyczne” stanowią zestawienie kwestii, które uznaje się za najważniejsze dla wszystkich użytkowników metody ośrodka oceny. Przykładowo, przy korzystaniu z ośrodka oceny podstawowym pojęciem jest zastosowanie symulacji związanych ze stanowiskiem pracy (job-related). Tego typu ćwiczenia symulacyjne umożliwiają poszczególnym osobom wykazanie się posiadanymi umiejętnościami w sytuacjach istotnych podczas wykonywania zadań zawodowych. Jak podkreśla się w dokumencie, procedury nie można definiować jako ośrodka oceny, jeśli nie obejmuje ona przynajmniej jednej (zazwyczaj kilku) symulacji, która wymaga od ocenianej osoby zareagowania na tą nową sytuację.

Pozostałe istotne obszary, których dokument dotyczy, to między innymi uwarunkowania przeprowadzania selekcji oraz szkoleń osób oceniających, z zastosowaniem „kompetencji” jako wymiarów docelowych, kwestie uzasadnień, kwestie dotyczące praw uczestników, jak również wykorzystanie technologii w ośrodkach oceny. Obecna wersja standardów obejmuje również zagadnienia związane ze stosowaniem ośrodka oceny w różnych uwarunkowaniach kulturowych.

Dennis A. Joiner, specjalista ds. assessment center

Spis treści

1. Cel
2. Historia wytycznych
3. Definicja ośrodka oceny (assessment center)

1. Analiza stanowiska pracy
2. Klasyfikacja behawioralna
3. Techniki oceny
4. Wielostronna ocena
5. Symulacje
6. Asesorzy
7. Szkolenia asesorów
8. Rejestracja zachowań
9. Integracja danych

4. Działania nie stanowiące ośrodka oceny
5. Sformułowanie regulaminu ośrodka oceny

1. Cel
2. Osoby oceniane
3. Asesorzy
4. Wykorzystanie danych
5. Kwalifikacje konsultantów lub projektantów ośrodków oceny.
6. Walidacja
7. Uregulowania prawne

6. Szkolenie asesorów

1. Treść szkolenia
2. Czas trwania szkolenia 3. Wytyczne poziomu wyników i certyfikacja
4. Aktualność szkoleń i doświadczeń

7. Świadome uczestnictwo
8. Zagadnienia walidacji
9. Cele ośrodka oceny
10. Prawa uczestnika
11. Prowadzenie ośrodków oceny w różnych kontekstach kulturowych
12. Wytyczne krajowe dla ośrodka oceny


Bibliografia

Słownik pojęć
Członkowie Grupy Zadaniowej

 

1. Cel

Dokument ma na celu ustalenie profesjonalnych standardów oraz ustosunkowanie się do zagadnień o charakterze etycznym dla podmiotów stosujących metodę ośrodka oceny. Niniejsze wytyczne dotyczyć mają w zamyśle zarówno zastosowań aktualnych, jak i przyszłych. Określenie „ośrodek oceny” (assessment center) jest zastrzeżone dla metod zgodnych z niniejszymi standardami.

Zawarte w dokumencie standardy zawierają: (1) wskazówki dla psychologów organizacji, konsultantów organizacyjnych, specjalistów i teoretyków z dziedziny zarządzania zasobami ludzkimi oraz innych osób projektujących i realizujących ośrodki oceny; (2) informacje dla kadry kierowniczej, wspomagające podejmowanie decyzji, czy wprowadzić metodykę ośrodka oceny; (3) wskazówki dla asesorów w ramach ośrodka oceny; (4) pomoc z zakresu wykorzystania technologii w ocenie.

 

2. Historia wytycznych

W wyniku szybkiego wzrostu popularności metody ośrodka oceny w ostatnich latach jej stosowanie rozpowszechniło się w wielu firmach i instytucjach. Ośrodki oceny stosowane są obecnie w przemyśle, oświacie, wojsku, instytucjach rządowych, policji i innych organizacjach. Praktycy donoszą o poważnych problemach, których występowanie świadczy o potrzebie wprowadzenia standardów obowiązujących użytkowników tej metody. Trzeci „Międzynarodowy kongres poświęcony metodom ośrodka oceny”, który odbył się w Quebeku w maju 1975 roku, zatwierdził pierwszy zestaw standardów. Oparte one zostały na obserwacjach oraz doświadczeniu grupy profesjonalistów, reprezentujących wielu spośród największych użytkowników tej metody.

Postępy, jakie zaszły w latach 1975-1979 w zakresie wytycznych krajowych odnośnie do badań, a także doświadczenia zawodowe z pierwotnymi standardami, sugerowały konieczność oceny i weryfikacji standardów. Wytyczne z roku 1979 obejmowały podstawowe elementy pierwotnych standardów oraz – w odpowiedzi na zapotrzebowanie – zawierały także: (1) dalsze definicje; (2) wyjaśnienie wpływu na organizacje i uczestników; (3) szersze wskazówki w zakresie szkoleń; (4) dodatkowe informacje na temat walidacji.

Od roku 1979 zasięg stosowania ośrodków oceny rozszerzył się na wiele różnych organizacji, które poddawały takiej ocenie osoby wykonujące różnorodne zawody. W tym okresie naciski na zmianę metody ośrodka oceny pochodziły z trzech różnych źródeł. Po pierwsze, podejmowano próby uproszczenia procedur tak, aby stały się one mniej czasochłonne i tańsze. Po drugie, pojawiły się nowe argumenty teoretyczne i wyniki badań empirycznych, według których metoda ośrodka oceny nie działała dokładnie tak, jak widzieliby to jej twórcy. W związku z czym sugerowano konieczność zmian tej metody. Po trzecie, wiele zastosowań, które pretendowały do miana ośrodków oceny, okazywały się być niezgodnymi z poprzednimi standardami, gdyż mogły one być zbyt niejednoznaczne. Zmiany w wydaniu trzecim z roku 1989 miały uwzględnić potrzebne korekty oraz rozwiązywać niektóre problemy, które pojawiły się w okresie od 1979 do 1989 roku. Zmiana standardów z roku 1989 zapoczątkowana została podczas 15. „Międzynarodowego kongresu poświęconego metodom ośrodka oceny”, który odbył się w Bostonie (w kwietniu 1987) i na którym dr Douglas Bray prowadził dyskusje z wieloma uczestnikami.

Następnie dr Bray oraz dr George Thornton zgromadzili dodatkowe uwagi od grupy osób realizujących ośrodki oceny w praktyce. Zespół zadaniowy z 1989 roku sformułował uwagi do projektów nowej wersji wytycznych, sporządzonych przez Braya i Thorntona. Późniejszy projekt został zaprezentowany i omówiony podczas 16. „Kongresu” w maju 1988 roku w Tampie.

Wytyczne z roku 1989 zostały opracowane w odpowiedzi na uwagi pozyskane podczas kongresu w 1988 roku oraz od członków zespołu zadaniowego, następnie zatwierdzone przez większość członków tego zespołu oraz przez uczestników 17. „Kongresu”, który odbył się w maju 1989 roku w Pittsburgh. Zmiany wytycznych z roku 1989 w stosunku do wydań poprzednich zawierały: (1) wskazania roli analizy stanowiska pracy; (2) objaśnienia rodzajów ocenianych kompetencji/wymiarów oraz konieczności ich stosowania; (3) specyfikacje procesów obserwacji, rejestracji, oceny i syntezy informacji; (4) dalsze specyfikacje szkoleń dla asesorów (osób oceniających.)

Aktualna wersja wytycznych została po raz pierwszy zaprezentowana podczas 27. „Międzynarodowego kongresu poświęconego metodom ośrodka oceny”, który odbył się w Orlando w czerwcu 1999 roku i podczas którego dr David R. MacDonald przeprowadził rozmowy z wieloma obecnymi ekspertami z dziedziny ośrodków oceny, jak również zebrał opinie podczas zgromadzenia ogólnego odnośnie tych aspektów standardów, które powinny być uwzględnione po raz pierwszy lub rozważone ponownie. Głównym czynnikiem decydującym o opracowaniu nowej wersji był fakt, iż od czasu wydania z roku 1989 upłynęło pełne dziesięć lat. Wśród innych czynników wymienić należy zainteresowanie wbudowaniem technologii w metodykę ośrodków oceny oraz stwierdzenie potrzeby dalszego skonkretyzowania definicji szeregu koncepcji i pojęć.

Wyniki pracy członków zespołu zadaniowego, pracującego nad wersją z 2000 roku, zostały zebrane w wersji dokumentu, który zaprezentowano i zatwierdzono podczas 28. „Kongresu” w maju 2000 roku w San Francisco, w którym uczestniczyło 150 osób z takich krajów, jak: Australia, Belgia, Brazylia, Kanada, Kolumbia, Niemcy, Indie, Indonezja, Włochy, Japonia, Meksyk, Holandia, Filipiny, Singapur, Szwecja, Szwajcaria, Tajwan, Zjednoczone Emiraty Arabskie, Wielka Brytania oraz Stany Zjednoczone.

Zmiany obecnej wersji wytycznych zostały zapoczątkowane podczas 32. „Międzynarodowego Kongresu poświęconego metodom ośrodka oceny”, który odbył się w Las Vegas w październiku 2004 roku. W czasie dyskusji poruszono aktualne kwestie związane z ośrodkiem oceny, których poprzednio nie uwzględniono w wytycznych. W konsekwencji Kongres podjął decyzję, aby je uzupełnić i ulepszyć w odniesieniu do dwóch obszarów. Po pierwsze, w związku z rosnącą liczbą wielonarodowościowych organizacji wykorzystujących ośrodek oceny w różnych regionach geograficznych, istnieje potrzeba sformułowania/określenia wytycznych dotyczących globalnych praktyk stosowania ośrodka oceny. I po drugie, biorąc pod uwagę najnowsze badania nad efektywnością różnych aspektów związanych ze szkoleniem asesorów, Kongres wysunął sugestię, aby poszerzyć wytyczne w tym zakresie.

Kolejna tura dyskusji nad tymi kwestiami odbyła się w 2006 roku podczas 33. Kongresu w Londynie. Zalecono wówczas, aby w wytycznych uwzględnić następujące okoliczności: (1) wykorzystanie technologii w ośrodku oceny, (2) znajomość różnic pomiędzy ośrodkami oceny wykorzystywanymi w różnych celach.

Obecna, zmieniona wersja wytycznych, prowadzona pod kierunkiem Debory Rupp i Douga Reynoldsa, została jednogłośnie zatwierdzona przez 34. Międzynarodowy Kongres (2008, Waszyngton), w którym uczestniczyli delegaci reprezentujący Austrię, Belgię, Kanadę, Chiny, Niemcy, Indie, Indonezję, Meksyk, Holandię, Rumunię, Rosję, Signapur, Republikę Południowej Afryki, Południową Koreę, Hiszpanię, Szwecję, Zjednoczone Emiraty Arabskie, Wielką Brytanię, Stany Zjednoczone.

 

3. Definicja ośrodka oceny (assessment center)

Ośrodek oceny zawiera wystandaryzowane oceny zachowania, oparte na danych z wielu źródeł. Wykorzystuje się kilku przeszkolonych obserwatorów oraz różne techniki. Oceny zachowania formułuje się w znacznej części na podstawie odpowiednio opracowanych ćwiczeń symulacyjnych. Oceny te są następnie zbierane podczas spotkania asesorów lub w procesie integracji statystycznej. W trakcie takich spotkań gromadzi się zbiorcze oceny zachowań, a także często poszczególne oceny z ćwiczeń. Wynikiem tej dyskusji jest ocena osoby, wobec której zastosowano ośrodek oceny, ocenianej na wymiarach/kompetencjach lub innych czynnikach, które ma mierzyć dany ośrodek oceny. Statystyczne metody łączenia wyników należy weryfikować zgodnie z przyjętymi profesjonalnymi standardami.

Technologia może być wykorzystywana do usprawnienia pisania raportów, prezentacji materiałów do ćwiczeń, obliczania wymiarów, klasyfikacji zachowań itd., o ile w ten sposób nie obniża się standardów walidacyjnych odnoszących się do podstawowych warunków tworzenia procedur opisanych poniżej.

Istnieje różnica pomiędzy ośrodkiem oceny a metodologią ośrodka oceny. Różne aspekty metodologii ośrodka oceny są stosowane w procedurach, które nie są zgodne ze wszystkimi wytycznymi tutaj określonymi, na przykład w przypadku, gdy psycholog lub specjalista z dziedziny kadr, działając samodzielnie, wprowadza symulację jako element oceny jakiejś osoby. Niniejsze procedury nie obejmują tego rodzaju procedur oceny pracowników. Każda tego typu metoda winna być oceniana odrębnie. Procedury, które nie przestrzegają wszystkich przedstawionych w niniejszym dokumencie standardów, nie należy nazywać „ośrodkami oceny” lub używać jako części nazwy.

Poniżej przedstawiono podstawowe warunki, jakie musi spełnić procedura, aby można ją było zaklasyfikować jako ośrodek oceny.

1. Analiza stanowiska pracy

Należy ją przeprowadzić na poziomie zachowań, aby określić wymiary, kompetencje, atrybuty i wskaźniki efektywności na danym stanowisku, za pomocą których stwierdza się, co ośrodek oceny powinien oceniać.

Rodzaj i zakres analizy stanowiska pracy zależy od celu oceny, stopnia skomplikowania stanowiska pracy, jakości uzyskanych wcześniej informacji pod względem wystarczającego i właściwego ich zakresu, a także podobieństwa nowego stanowiska do stanowisk badanych wcześniej. Jeżeli przy wyborze wymiarów i ćwiczeń przewidzianych dla nowego stanowiska wykorzystuje się wcześniejsze analizy stanowiska pracy, należy uwzględnić dokumentację świadczącą o porównywalności obu stanowisk pracy.

Jeżeli stanowisko aktualnie nie istnieje, można prowadzić analizy faktycznych bądź przewidywanych zadań czy ról, które stanowić będą składnik nowego stanowiska, jak również pozycji, poziomu w hierarchii zawodowej czy grupy zawodów.

Docelowe wymiary można także określić na podstawie analizy wizji, wartości, strategii lub głównych celów danej firmy lub instytucji.

Do określenia wymiarów/kompetencji, jakie miałyby być badane przez ośrodek oceny, można zastosować procedury modelowania kompetencji, o ile byłyby one realizowane według tego samego rygoru co tradycyjne metody analizy stanowiska pracy. Rygor w tym zakresie oznacza zaangażowanie ekspertów w danej dziedzinie, dysponujących wiedzą na temat wymogów dotyczących stanowiska, jak również gromadzenie i analizę ilościową kluczowych składników danego stanowiska pracy oraz udokumentowanie rzetelności wyników. Wynik każdej analizy stanowiska pracy lub modelowania kompetencji musi jednoznacznie wskazywać na kategorie zachowań, które można obserwować w ramach procedur oceny.

„Kompetencja” natomiast może, ale nie musi poddawać się ocenie behawioralnej, zdefiniowanej w niniejszym dokumencie. Kompetencja, zgodnie z użyciem tego słowa w różnych współczesnych źródłach, dotyczy silnych stron organizacji, celów organizacji, konstruktu, grupy powiązanych zachowań bądź atrybutów. Kompetencję można traktować jako wymiar zachowaniowy dla potrzeb oceny w ośrodku oceny o tyle, o ile da się ona precyzyjnie zdefiniować i wyrazić poprzez zachowania możliwe do zaobserwowania na danym stanowisku lub w grupie stanowisk, a także podczas ćwiczeń symulacyjnych. Konieczne jest także wykazanie związku pomiędzy kompetencją a powodzeniem w danej pracy, na danym stanowisku lub w grupie zawodów.

2. Klasyfikacja behawioralna

Zachowania obserwowane u uczestników należy klasyfikować w jasne i odpowiednie kategorie, np. wymiary zachowania, atrybuty, charakterystyki, zdolności, umiejętności, kompetencje, wiedza. W wytycznych, pojęcie „wymiar” jest stosowane do opisu każdej kategorii zachowania. Trzeba zauważyć, że inne wzory klasyfikacji również mogą być stosowane. Na przykład kategorie mogą obejmować komponenty wykonywanej pracy lub oceny jako takiej.

3. Techniki oceny

Techniki stosowane w ośrodku oceny muszą być opracowane w sposób zapewniający uzyskanie za ich pomocą informacji niezbędnych do oceny wymiarów wybranych uprzednio na podstawie analizy stanowiska pracy.

Twórcy ośrodków oceny powinni ustalić związki pomiędzy zachowaniami, kompetencjami oraz technikami ćwiczeń/ocen. Związki te powinny być udokumentowane w macierzy zestawiającej kompetencje i techniki ćwiczeń/oceny.

4. Wielostronna ocena

Należy stosować połączenie różnych technik oceny. Mogą one obejmować testy, wywiady, kwestionariusze, narzędzia socjometryczne oraz symulacje. Techniki oceny opracowuje się lub dobiera, aby możliwe było zaobserwowanie różnorodnych zachowań i informacji odnoszących się do kompetencji/wymiarów. Jako informacje oceniające można także gromadzić dane z samooceny i oceny 360º. Techniki oceny są wstępnie testowane celem stwierdzenia, czy dostarczają rzetelnych, obiektywnych i właściwych informacji behawioralnych dla danej organizacji. Pre-testing może obejmować próbną realizację na uczestnikach podobnych do kandydatów ocenianych za pomocą ośrodka oceny, dogłębną weryfikację przez ekspertów w tej dziedzinie pod względem dokładności i reprezentatywności próbek zachowań i/lub dokumentację zastosowania konkretnych technik w odniesieniu do podobnych stanowisk w podobnych firmach/instytucjach.

5. Symulacje

Techniki oceny muszą zawierać odpowiednią liczbę symulacji ściśle związanych ze stanowiskiem pracy (job-related), dających możliwość obserwacji zachowań kandydata, reprezentujących każdą z ocenianych kompetencji/wymiarów. Każdy ośrodek oceny musi zawierać przynajmniej jedną symulację związaną ze stanowiskiem pracy, przy czym zazwyczaj zawiera ich kilka. Symulacja jest ćwiczeniem lub techniką zbudowaną w celu wywołania zachowań związanych z wymiarami efektywności na danym stanowisku, które wymagają od uczestników reagowania zachowaniem na bodźce sytuacyjne. Przykładami symulacji są między innymi ćwiczenia grupowe, ćwiczenia typu in-basket (technika koszyka), symulacje interakcji (wywiady), prezentacje i ćwiczenia ze zbierania informacji.

Bodźce mogą być także prezentowane w postaci symulacji wideo lub wirtualnych, za pomocą komputera, sprzętu wideo, internetu lub intranetu. W przypadku prostych prac można wykorzystać jedną lub dwie symulacje związane ze stanowiskiem pracy, o ile analiza stanowiska jednoznacznie wskazuje, iż tylko jedna lub dwie symulacje wystarczą do uwzględnienia znacznej części zakresu ocenianego stanowiska. Jeśli stosowana jest tylko jedna, wszechstronna technika oceny, wówczas musi ona składać się z odrębnych segmentów związanych ze stanowiskiem pracy. Projektanci ośrodków oceny powinni także starać się przygotowywać ćwiczenia w taki sposób, aby rzetelnie wyłaniały one dużą liczbę zachowań związanych z kompetencjami. To z kolei powinno zapewnić osobom oceniającym szerokie możliwości obserwacji zachowań związanych z kompetencjami. Bodźce występujące w symulacji są analogiczne lub podobne do bodźców występujących w sytuacji pracy, choć mogą zachodzić w innych warunkach. Pożądany poziom wierności odtworzenia bodźca wynika z celów ośrodka oceny. Wierność odtworzenia może być dość niska w przypadku programów wstępnej identyfikacji i selekcji do stanowisk niemenedżerskich, a dość wysoka w przypadku programów przeznaczonych do diagnostyki potrzeb szkoleniowych doświadczonych menedżerów. Projektanci ośrodków oceny powinni uważać na to, aby zawartość ćwiczeń nie faworyzowała niektórych grup badanych osób (np. osób z określonych grup rasowych, narodowych, wiekowych czy płciowych) z przyczyn nieistotnych dla badania.

Aby metodę oceny można było uznać za symulację behawioralną na potrzeby ośrodka oceny, według definicji zawartej w niniejszym dokumencie, musi ona wymagać od ocenianej osoby określonych zachowań. Od osoby ocenianej należy wymagać konkretnej reakcji. Procedury oceny, w których osoba oceniana musi jedynie wybierać spośród przedstawionych jej alternatywnych reakcji, tak jak ma to miejsce w przypadku testów wielokrotnego wyboru czy skomputeryzowanych ćwiczeń z zakresu techniki koszyka, nie spełniają podanego kryterium. Analogicznie, nie jest odpowiednią techniką wywiad sytuacyjny, która wymaga wyłącznie wyrażenia intencji określonych zachowań. Nie są nimi także „mało realne” symulacje ani wywiady sytuacyjne. Mogą one wprawdzie prowadzić do uzyskania bardzo rzetelnych i trafnych wyników, natomiast nie stanowią oceny behawioralnej wymaganej w kontekście ośrodków oceny.

Materiały ośrodka oceny często stanowią własność intelektualną chronioną przez międzynarodowe przepisy dotyczące ochrony praw autorskich. W każdych warunkach należy przestrzegać praw autorskich i ochrony własności intelektualnej innych osób i podmiotów.

6. Asesorzy

Konieczne jest wykorzystanie kilku asesorów, którzy będą obserwować i oceniać każdą osobę ocenianą. Przy doborze grupy asesorów należy uwzględniać takie czynniki, jak zróżnicowanie rasowe, narodowościowe, wiekowe, płciowe, hierarchiczne i funkcjonalno-zawodowe.

Do oceny można wykorzystać technologię informatyczną, o ile w danej sytuacji można wykazać, iż program komputerowy przeprowadzi ocenę przynajmniej tak dobrze, jak człowiek.

Maksymalna liczba osób ocenianych w proporcji do oceniających wynika z kilku zmiennych, w tym z rodzaju stosowanych ćwiczeń, ocenianych wymiarów, ról osób oceniających, rodzaju prowadzonej integracji wyników, zakresu szkoleń dla osób oceniających, doświadczenia oceniających i celu ośrodka oceny. Typową proporcją jest dwóch ocenianych na jednego oceniającego.

Aktualny zwierzchnik ocenianej osoby nie może uczestniczyć w ocenie swojego bezpośredniego podwładnego, jeżeli uzyskane w badaniu dane mają być wykorzystane do celów selekcji lub awansu.

7. Szkolenia asesorów

Asesorzy przed dopuszczeniem do uczestnictwa w ośrodku oceny muszą odbyć dogłębne szkolenia i uzyskać poziom wykonania zgodny z wytycznymi zawartymi w dziale „Szkolenia asesorów”.

8. Rejestracja zachowań

Asesorzy muszą stosować usystematyzowaną procedurę rejestracji konkretnych obserwacji behawioralnych w chwili obserwacji. Procedura ta może obejmować takie techniki, jak notatki odręczne, skale obserwacji behawioralnej lub behawioralne „listy kontrolne” (checklist).

Można wykorzystywać rejestrację dźwięku i obrazu, a nagrany materiał analizować w późniejszym terminie.

Osoby oceniające muszą sporządzić raport z obserwacji poczynionych podczas każdego ćwiczenia przed dyskusją integracyjną lub integracją statystyczną.

9. Integracja danych

Integracja zachowań musi być oparta na zgromadzeniu informacji od asesorów (pooling) lub procesie integracji statystycznej, zwalidowanym zgodnie z profesjonalnymi standardami. Podczas dyskusji integracyjnej każdego z wymiarów osoby oceniające powinny przekazać informacje pochodzące z oceny zachowania podczas symulacji, natomiast nie powinny zdawać relacji nie związanych z celem procesu oceny. Integrację informacji można osiągnąć w procesie konsensusu lub inną metodą podejmowania wspólnej decyzji. Metody łączenia ocen informacji omawianych podczas sesji integracyjnych asesorów muszą być poparte analizą rzetelności dyskusji oceniających.

Można także stosować technologię informatyczną w procesie integracji danych, o ile spełnione zostaną warunki wymienione w niniejszym dziale.

 

4. Działania nie stanowiące ośrodka oceny

Poniższe działania nie są uznawane za ośrodek oceny.

  1. Procedury oceny, które nie wymagają od osoby ocenianej obserwowalnych zachowań, nie są symulacjami behawioralnymi, a zatem żaden program oceny składający się wyłącznie z tego rodzaju procedur nie może być zaklasyfikowany jako ośrodek oceny zgodnie z niniejszą definicją. Przykłady takich programów to skomputeryzowane zadania typu in-basket (według techniki koszyka), wymagające wyłącznie odpowiedzi wielokrotnego wyboru, wywiady sytuacyjne, w których podaje się tylko intencje zachowań, a także pisemne testy kompetencyjne. W ramach ośrodka oceny mogą być stosowane procedury, które nie wymagają od osoby ocenianej obserwowalnych zachowań, jednakże muszą one występować wraz z przynajmniej jedną symulacją, w której występuje obserwowalne zachowanie.
  2. Wywiady panelowe lub seria kilku następujących po sobie wywiadów jako jedyna technika.
  3. Stosowanie tylko jednej techniki (nawet jeśli jest to symulacja) jako wyłącznej podstawy do sformułowania oceny. Ograniczenie niniejsze nie wyklucza jednak zastosowania jednej uniwersalnej techniki oceny, której zakres obejmuje różne elementy związane ze stanowiskiem pracy (np. duże, złożone symulacje lub wirtualne ośrodki oceny z kilkoma zdefiniowanymi komponentami, w których występują liczne możliwości obserwacji w różnych sytuacjach).
  4. Korzystanie tylko z baterii testów papierowych, niezależnie od tego, czy formułowane oceny są oparte na sposobie statystycznego łączenia wyników, czy też na podstawie subiektywnej oceny.
  5. Ocena przez jednego asesora (tzn. weryfikacja przez jedną osobę z zastosowaniem różnych technik, jak np. testy pisemne, wywiady, testy osobowości czy symulacje).
  6. Zastosowanie kilku symulacji z udziałem kilku osób oceniających, ale bez integracji(pooling) danych (tzn. każdy oceniający sporządza raport z wyników uzyskanych w danym ćwiczeniu, natomiast ostatecznym produktem ośrodka są indywidualne, nie powiązane ze sobą raporty).
  7. Fizyczna lokalizacja oznaczona jako „ośrodek oceny”, nie spełniająca wymogów metodologicznych opisanych wyżej.

 

5. Sformułowanie regulaminu ośrodka oceny

Skuteczność działań ośrodków oceny jest wyższa, jeżeli działają one w ramach systemu zarządzania kapitałem ludzkim. Przed wprowadzeniem ośrodka oceny jako procedury w jakiejś organizacji należy sformułować i zatwierdzić regulamin organizacyjny. Regulamin organizacyjny ośrodka oceny powinien odnosić się do następujących zagadnień:

1. Cel

Może to być selekcja kandydatów, diagnostyka rozwojowa, wczesna identyfikacja, ocena potencjału, ocena kompetencji, planowanie rotacji stanowisk oraz wszelkie kombinacje powyższych zakresów.

Przed przystąpieniem do oceny uczestnik ośrodka oceny powinien zostać poinformowany o tym, jakie decyzje zostaną lub mogą zostać podjęte na podstawie informacji uzyskanych w drodze oceny. Jeżeli organizacja zamierza podejmować decyzje na podstawie innych danych niż te, o których uczestnik został poinformowany przed rozpoczęciem procedury oceny, wówczas należy uczestnikowi jednoznacznie przedstawić podstawy decyzji i uzyskać jego zgodę.

Ponadto, osoba tworząca ośrodek oceny powinna być świadoma celu tego działania, kiedy opracowuje, rozwija, wdraża i waliduje program, a także kiedy podejmuje decyzje o wyborze wymiarów, treści symulacji, selekcji i szkoleniu asesorów, obliczaniu wyników, udzielaniu informacji zwrotnych i ewaluacji.

2. Osoby oceniane

Należy wskazać populację osób, która ma zostać oceniona, metodę doboru osób ocenianych z całej grupy, procedurę informowania oraz politykę dotyczącą oceniania.

3. Asesorzy

Należy wskazać populację asesorów (z wyszczególnieniem płci, wieku, przynależności rasowej i narodowościowej), ograniczenia w wykorzystaniu asesorów, ich doświadczenie, ocenę wyników takich osób i wymagań z zakresu ich kwalifikacji, o ile takowe występują.

4. Wykorzystanie danych

Należy określić obieg dokumentów oceny w obrębie organizacji, osoby upoważnione do otrzymania raportów, ograniczenia w dostępie do informacji, procedury i sposoby ewaluacji programu, procedury przekazywania informacji zwrotnych kierownictwu i pracownikom oraz czas przechowywania danych w aktach. W szczególności w przypadku zastosowania omawianej techniki do celów selekcji zaleca się, aby dane zostały wykorzystane w ciągu dwóch lat od ich pozyskania ze względu na prawdopodobieństwo wystąpienia zmian w uczestnikach lub w organizacji.

5. Kwalifikacje konsultantów lub projektantów ośrodków oceny.

Należy wskazać wewnętrznych lub zewnętrznych konsultantów odpowiedzialnych za opracowanie ośrodka lub ćwiczeń/symulacji na potrzeby ośrodka, jak również wyszczególnić kwalifikacje zawodowe i odbyte szkolenia takiej osoby lub osób.

6. Walidacja

W sformułowaniu regulaminu należy wskazać stosowany model walidacji. Jeżeli w ramach walidacji badana jest trafność treściowa (content-oriented validity), wówczas należy przedstawić dokumentację opisującą związek pomiędzy treścią stanowiska/grupy stanowisk a wymiarami i ćwiczeniami, a także dowody rzetelności obserwacji i oceny zachowania. W przypadku gdy dokumenty pochodzą z wcześniejszych badań, których podsumowania mogą być sformułowane w postaci metaanaliz, organizacja musi udowodnić, iż aktualne stanowisko/grupa stanowisk oraz ośrodek oceny są porównywalne i możliwe do generalizacji do tego stanowiska i ośrodki oceny. Jeżeli w danym wypadku przeprowadzone zostało badanie trafności prognostycznej (criterion-related validity), wówczas należy przedstawić pełną dokumentację badania. Jeśli badania uzasadniające są dopiero w fazie przygotowań, należy sporządzić harmonogram wskazujący termin, w którym dostępny będzie raport z walidacji. Techniki wykorzystywane do walidacji powinny być dostosowane do celu ośrodka oceny (np. selekcja lub rozwój).

7. Uregulowania prawne

Wpływ na tworzenie ośrodka oceny, jego walidację, wdrożenie i dokumentację może mieć prawo, które obowiązuje w miejscu działania organizacji/instytucji, jak i prawo obowiązujące w miejscu, gdzie odbywa się ośrodek oceny. W większości krajów obowiązują uregulowania, które chronią członków grup słabszych społecznie (mniejszości narodowe/etniczne, imigranci, grupy etniczne, grupy religijne, grupy wyróżnione ze względu na wiek, poglądy polityczne lub orientację seksualną). Konkretne regulacje dotyczące ośrodka oceny, które zapewniają poszanowanie praw, powinny być sprecyzowane w odpowiednich przepisach.

 

6. Szkolenie asesorów

Szkolenie asesorów stanowi integralny składnik programu ośrodka oceny. Dla szkolenia asesorów należy jednoznacznie określić cele szkoleniowe oraz standardy poziomu wykonania. Należy rozważyć następujące aspekty szkolenia:

1. Treść szkolenia

Niezależnie od metodologii szkolenia asesorów, cel jest ten sam – uzyskanie rzetelnych i dokładnych ocen formułowanych przez asesorów. Można stosować szeroką gamę metod szkoleniowych (np. wykłady, dyskusje, obserwacja działań kandydatów, pokazy wideo, obserwacje innych asesorów), o ile tylko możliwe jest wykazanie, że uzyskano rzetelne i dokładne oceny asesorów. Asesorzy powinni być przeszkoleni w zakresie:

  • ocenianych wymiarów wraz z definicjami odnoszącymi się do zachowań;
  • obserwacji, rejestrowania, klasyfikacji i oceny zachowań, które dotyczą ocenianych wymiarów;
  • treści ćwiczeń oraz tego, jakie wymiary podlegają ocenie w konkretnym ćwiczeniu;
  • unikania typowych błędów podczas obserwacji i w ocenie (obejmujących odróżnianie rzeczywistych/właściwych zachowań od interpretacji).

Zależnie od celu ośrodka oceny szkolenie może obejmować dodatkowe aspekty, takie jak: profesjonalizm, wiedza o organizacji, wiedza o stanowisku pracy, którego dotyczy ośrodek oceny, umiejętność przekazywania stosownej ustnej lub pisemnej informacji zwrotnej i spójności w odgrywaniu ról.

Wymagane jest osiągnięcie następujących minimalnych celów szkoleniowych:

  1. dokładna znajomość organizacji i stanowiska/grupy stanowisk lub grupy normatywnej poddawanej ocenie celem zapewnienia efektywnego kontekstu dla ocen formułowanych przez oceniających;
  2. dogłębna znajomość i zrozumienie ocenianych wymiarów, ich definicji, związku z wynikami osiąganymi w pracy oraz przykładów efektywności i nieefektywności działania na danym stanowisku;
  3. dogłębna wiedza i zrozumienie technik oceniania, właściwych wymiarów do obserwacji w poszczególnych częściach ośrodka oceny, przewidywanych lub typowych zachowań, przykładów lub próbek faktycznych zachowań itp.;
  4. udokumentowana umiejętność obserwacji, rejestracji i klasyfikacji zachowania w formie wymiarów, w tym także znajomość form stosowanych przez dany ośrodek;
  5. dokładna znajomość i zrozumienie procedur oceny i klasyfikacji, w tym także sposobów integrowania danych;
  6. dogłębna znajomość i zrozumienie zasad i praktyki oceny stosowanej w organizacji, w tym także ograniczeń w zakresie sposobów wykorzystania danych uzyskanych w trakcie oceny, o ile jest to wymagane od asesorów.
  7. dokładna znajomość i zrozumienie procedur przekazywania informacji zwrotnych tam, gdzie znajduje to zastosowanie, aby uzyskać u osób ocenianych ich pełną akceptację informacji zwrotnych i spowodować zmianę zachowań;
  8. wykazywane umiejętności przekazywania dokładnych ustnych i pisemnych informacji zwrotnych, o ile informacje zwrotne przekazywane są przez asesorów;
  9. udokumentowana wiedza i umiejętność postępowania w sposób obiektywny i stały w roli przyjmowanej podczas ćwiczeń interaktywnych (np. symulacji w cztery oczy czy ćwiczeniach na gromadzenie informacji), jeżeli od asesorów wymaga się umiejętności odgrywania ról; w role w scenkach symulacyjnych mogą wcielać się także osoby nie pełniące funkcji asesorów, o ile wyniki osiągane przez nich w szkoleniach dają im możliwości odgrywania roli w sposób obiektywny i stały.

2. Czas trwania szkolenia

Długość szkolenia dla asesorów może różnić się w zależności od wielu uwarunkowań, które ogólnie można podzielić na trzy główne obszary:

  1. kwestie dotyczące osoby szkolącej i struktury kursu:

– stosowany tryb lub tryby nauczania,
– kwalifikacje i fachowe umiejętności szkolącego,
– sekwencja szkoleń i instrukcji;

b. kwestie dotyczące osoby asesorów:

– zdobyta wcześniej wiedza i doświadczenie w zakresie podobnych technik oceny,
– typ asesorów (np. psychologowie lub menedżerowie)
– doświadczenie i znajomość organizacji oraz docelowych stanowisk/grup stanowisk bądź poziomu docelowego,
– częstotliwość uczestnictwa asesorów,
– inne odnośne kwalifikacje i zakresy specjalizacji (np. umiejętność testowania i formułowania ocen, kompetencje z zakresu executive coaching);

c. kwestie dotyczące programu oceny:

– stopień trudności docelowego stanowiska,
– liczba wymiarów/kompetencji używanych w ocenie,
– przewidywane wykorzystanie informacji płynących z oceny (np. bezpośrednia selekcja, szeroki zakres zagadnień przydziałów stanowisk, rozwój),
– liczba i poziom złożoności ćwiczeń,
– podział ról i obowiązków między osobami oceniającymi i innymi członkami zespołu oceniającego (np. administratorem i innymi pracownikami pomocniczymi),
– zakres wsparcia udzielanego oceniającym w postaci podręczników do obserwacji i oceny.

Należy pamiętać, iż długość szkolenia nie jest tożsama z jego jakością. Trudno jest wskazać precyzyjne wytyczne dotyczące minimalnej liczby godzin czy dni szkolenia asesorów. Natomiast wieloletnie doświadczenie dowiodło, iż w przypadku wstępnego szkolenia asesorów, nie dysponujących doświadczeniem w ośrodku oceny zgodnym z wytycznymi zawartymi w niniejszym dokumencie, typowy ośrodek oceny może wymagać dwóch dni szkolenia oceniających na każdy dzień stosowania ćwiczeń. Asesorzy dysponujący doświadczeniem w zakresie wdrażania podobnych technik oceny w innych programach mogą potrzebować krótszych szkoleń. Dłuższe szkolenia mogą być konieczne w przypadku bardziej złożonych ośrodków oceny, stosujących różnorodne formaty ćwiczeń symulacyjnych, gdy tymczasem prostsze ośrodki oceny mogą wymagać krótszego szkolenia. W każdym razie kwalifikacje asesora stanowią kluczowy aspekt programu oceny. Rzeczywistą gwarancją jakości szkolenia powinna być kompetencja asesora, zgodna z powyższym opisem.

3. Wytyczne poziomu wyników i certyfikacja

Każdy ośrodek oceny powinien dysponować jednoznacznie określonymi wytycznymi dotyczącymi poziomu wykonania dla asesorów zależnie od celu ośrodka oceny i zróżnicowanych ról podejmowanych przez asesora. Takie wytyczne powinny obejmować przynajmniej następujące umiejętności:

  1. ocena zachowania w sposób wystandaryzowany,
  2. rozpoznawanie, obserwowanie i raportowanie zachowań na odpowiednich wymiarach itp.,
  3. przeprowadzenie ćwiczenia, jeśli osoba oceniająca pełni taką rolę,
  4. obiektywne i spójne odgrywanie roli w ćwiczeniach interaktywnych, jeśli jest to wymagane od asesora,
  5. udzielanie pozytywnej i negatywnej informacji zwrotnej wraz z potwierdzającymi ją przykładami w sposób, który uwzględnia obawy osoby ocenianej, empatyczny i nie zagrażający jego samoocenie,
  6. motywowanie ocenianych osób i zachęcanie ich do działań coachingowych, planowania działań i wyznaczania celów.

Konieczne jest zastosowanie pewnych kwantyfikatorów określających, czy szkolona osoba posiada wystarczające kwalifikacje do pełnienia funkcji asesora. Sposoby pomiaru wyników pracy asesora mogą być różne i obejmować dane dotyczące: (1) dokładności i rzetelności ocen wykonania (definiowanych w odniesieniu do standardów „eksperckich” lub zbieżnych z ocenami innych asesorów), (2) krytyki raportów asesora oraz (3) obserwację asesora podczas szkolenia przez zespół zajmujący się ośrodkiem oceny. Ocena efektów pracy asesorów przed przystąpieniem przez nich do pełnienia rzeczywistych obowiązków zapewnia, że osoby takie zostaną odpowiednio przeszkolone do pełnienia funkcji oceniającej, a efekty ich pracy będą okresowo kontrolowane w celu praktycznego stosowania umiejętności nabytych podczas szkolenia.

Każda organizacja musi wykazać, iż osoby oceniające, działające w jej ramach, spełniają minimalne standardy efektywności. Może to wymagać opracowania dodatkowych szkoleń lub innych działań zaleconych asesorom, którzy nie osiągną założonego poziomu wyników.

Osoba szkoląca asesorów powinna umieć umożliwiać im rozwijanie umiejętności oceniających, o których mowa powyżej, a także oceniać stopień nabycia takich umiejętności.

4. Aktualność szkoleń i doświadczeń

Czas pomiędzy szkoleniem asesora a pierwszym praktycznym zastosowaniem nabytej wiedzy w roli oceniającego powinien być krótki (np. nie może przekroczyć sześciu miesięcy). Jeżeli upłynął dłuższy czas, przyszli asesorzy powinni odbyć kurs przypominający lub specjalny trening realizowany przez wykwalifikowanego administratora ośrodka oceny. Asesor, który nie dysponuje aktualnym doświadczeniem w ocenianiu (tzn. mniej niż dwa ośrodki oceny w ostatnich dwóch latach), powinien odbyć kurs odświeżający przed ponownym wstąpieniem w obowiązki oceniającego lub też specjalny trening realizowany przez wykwalifikowanego administratora ośrodka oceny.

 

7. Świadome uczestnictwo

Organizacja zobowiązana jest do wysłania ogłoszenia przed przystąpieniem do oceny, aby uczestnicy byli w pełni poinformowani o programie. Najkorzystniej jest, gdy informacja taka zostanie udostępniona na piśmie przed wdrożeniem ośrodka. Inną opcją jest wykorzystanie materiałów w części wstępnie opisujących ośrodek oceny. Przekazywane informacje mogą różnić się w poszczególnych organizacjach, jednak wszystkim przyszłym uczestnikom powinny być przekazane następujące podstawowe informacje:

  1. Cel(e). Założony cel(e) ośrodka oceny. Organizacja może zdecydować się na ujawnienie sprawdzanych wymiarów oraz ogólnego charakteru ćwiczeń przed rozpoczęciem oceny.
  2. Selekcja. Sposób doboru osób przewidzianych do uczestnictwa w ośrodku.
  3. Możliwości wyboru. Dotyczą uczestniczenia w ośrodku oceny przez konkretną osobę jako warunku zatrudnienia, awansu, rozwoju itp.
  4. Kadra. Ogólne informacje na temat kadry oceniającej, w tym skład osobowy i kwalifikacje osób oceniających.
  5. Materiały. Jakie materiały ośrodka oceny wypełniane przez daną osobę są gromadzone i przechowywane przez organizację?
  6. Wyniki. W jaki sposób zostaną wykorzystane wyniki ośrodka oceny i jak długo wyniki oceny będą przechowywane w aktach?
  7. Informacja zwrotna. Kiedy, w jaki sposób (np. pisemnie, ustnie w kontakcie osobistym, z pomocą technologii) i jaki rodzaj informacji zwrotnych (np. według wymiarów, ćwiczeń, czy w sposób łączony) będzie przekazywany uczestnikom?
  8. Rozwój. Sposoby udzielania wsparcia po ośrodku oceny i monitoringu, jeśli są (np. coaching prowadzony przez osoby z zewnątrz, szkolenia, mentoring, wsparcie ze strony najwyższej kadry zarządzającej/przełożonych).
  9. Współzależności. W jaki sposób wyniki ośrodka oceny będą powiązane ze strategią i kulturą organizacji oraz w jaki sposób wyniki będą zintegrowane z innymi systemami HRM.
  10. Ponowna ocena. Jest wprowadzana procedura ewentualnej ponownej oceny, jeśli będzie to koniczne.
  11. Dostęp do informacji. Dla kogo będą dostępne raporty ośrodka oceny i pod jakimi warunkami.
  12. Kontakt. Kto będzie osobą do kontaktu, odpowiedzialną za zgromadzone dane i gdzie będą przechowywane lub archiwizowane wyniki.

 

8. Zagadnienia walidacji

Główny czynnik decydujący o coraz powszechniejszej akceptacji i wykorzystaniu ośrodków oceny jest bezpośrednio związany z naciskiem na wiarygodne badania walidacyjne. Przeprowadzono i omówiono w literaturze fachowej liczne badania wykazujące walidację predyktywną indywidualnych programów ośrodków oceny w różnych warunkach organizacyjnych. Nie można jednak uznać dotychczasowej historii badań walidacyjnych tego procesu za gwarancję walidacji konkretnego programu oceny ani też uogólniać jego powodzenia na nowe zastosowania.

Badanie walidacyjne programu ośrodka oceny jest złożonym technicznie procesem, przy czym istotne jest, aby spełniało ono normy profesjonalne oraz prawne. Badania mogą być prowadzone przez osoby zaznajomione z technicznymi i prawnymi zagadnieniami dotyczącymi procedur walidacji. Przy ocenie walidacyjnej programów ośrodków oceny szczególnie istotne jest udokumentowanie doboru wymiarów itp. ocenianych w ramach ośrodka oceny. Ponadto należy również udokumentować związek pomiędzy ćwiczeniami wykorzystywanymi w ocenie a ocenianymi wymiarami, atrybutami i kompetencjami.

Badania generalizacji walidacyjnej (validity generalization) w odniesieniu do ośrodków oceny sugerują, iż ogólna ocena uzyskana w sposób zgodny z niniejszymi wytycznymi wykazuje dość wysoki poziom walidacji prognostycznej. Takie wyniki przemawiają na korzyść zastosowania nowych ośrodków oceny w innych warunkach, jeżeli stanowisko, ćwiczenia, osoby oceniające i oceniane w nowej sytuacji wykazują cechy podobne do analogicznych, zbadanych w analizie generalizacji walidacyjnej, i jeśli stosowane są podobne procedury obserwacji, raportowania i integrowania informacji. Badania generalizacji walidacyjnej predyktywnej ogólnej oceny nie muszą stwierdzać zasadności danej procedury do innych celów, np. diagnozowanie potrzeb szkoleniowych, dokładne oszacowanie poziomu umiejętności w zakresie odrębnych wymiarów czy istotności uczestnictwa w ośrodku oceny dla rozwoju.

Standardy techniczne i zasady walidacji opisane są w następujących dokumentach: Principles for the Validation and Use of Personnel Selection Procedures (Zasady walidacji i stosowania procedur selekcji pracowników), Society for Industrial and Organizational Psychology, Inc, 2003 oraz Standards for Educational and Psychological Testing (Standardy testów edukacyjnych i psychologicznych), American Psychological Association, & National Council on Measurements in Education, 1999.

 

9. Cele ośrodka oceny

Ośrodek oceny na ogół jest wykorzystywany do trzech głównych celów: (1) przewidywania zachowań, uwzględnianych w przyszłych decyzjach, (2) diagnozowania potrzeb szkoleniowych i (3) rozwijania kandydatów w zakresie badanych wymiarów. Stosuje się go również do innych celów, które będą ewoluowały wraz z coraz powszechniejszym wykorzystywaniem tej metody.

Forma i działania związane z ośrodkiem oceny mogą się różnić, co jest związane z założonymi celami. Na przykład, kiedy ośrodek oceny tworzy się wyłącznie do wspierania decyzji personalnych (np. awansu), nacisk może być położony na rzetelność i trafność całościowych oszacowań ośrodka oceny. W tym przypadku nie ma potrzeby opracowywać wyników dla pojedynczych wymiarów zachowania. Odmiennie, ośrodek oceny w celach diagnostycznych może wymagać stworzenia rzetelnych i trafnych wyników dla pojedynczych wymiarów.

Rozwojowy ośrodek oceny (Developmental Assessment Center – DC) służy ocenie i rozwojowi wymiarów, których można się nauczyć (np. umiejętności i kompetencji, które można doskonalić w odpowiednim czasie). DC obejmuje wielokrotne udzielanie informacji zwrotnej i powtarzanie działań; możliwe jest powtarzanie ćwiczeń tego samego typu (typów), aby w ten sposób ukierunkować doskonalenie w zakresie wymiarów. W rezultacie takie programy mogą być dłuższe niż ośrodki oceny tworzone w celach predykcji lub diagnozy. Informacja zwrotna jest kluczowym elementem programu DC; aby przyspieszyć uczenie się, powinna być udzielania niezwłocznie. Często rolą asesorów w DC jest nie tylko obserwacja i ocena zachowań pracowników, ale także zachęcanie ich do uczenia się i rozwoju poprzez udzielanie informacji zwrotnej czy stymulowanie do planowania rozwoju podczas procesu oceny.

Jeśli koncentrujemy się wyłącznie na uczeniu, DC może być w mniejszym stopniu wystandaryzowany w porównaniu do ośrodka oceny, wykorzystywanego do podejmowania decyzji, oraz może być dopasowywany do potrzeb rozwojowych uczestników. Jeśli walidujemy lub w inny sposób oceniamy wyniki DC, właściwym kryterium jest zmiana, jaka nastąpiła w rozumieniu, zachowaniu i biegłości uczestników w zakresie pożądanych wymiarów.

Z uwagi na opisane wyżej różnice, ośrodki oceny powinny być tworzone i wdrażane stosownie do ich założonego celu.

 

10. Prawa uczestnika

W Stanach Zjednoczonych rząd federalny wprowadził Ustawę o wolności informacji (Freedom of Information Act) oraz Ustawę o ochronie danych osobowych (Privacy Act) z roku 1974 celem zagwarantowania pewnych środków ochrony obywatela przed naruszeniem prywatności. Pewne aspekty szerszej interpretacji tych ustaw stosuje się do ogólnego wykorzystania danych ośrodka oceny.

W toku działalności ośrodka oceny powstaje zwykle duża ilość danych dotyczących osoby poddanej badaniom przez ośrodek oceny. Takie dane związane z oceną występują w różnych postaciach i mogą obejmować uwagi z obserwacji, raporty z wyników uzyskiwanych w ćwiczeniach, klasyfikacji przez osoby oceniające, klasyfikacji przez inne osoby badane, testy papierowe lub komputerowe oraz ostateczne raporty ośrodka oceny. Powyższy wykaz, nie mający charakteru wyczerpującego, nie wyszczególnia jednak zakresu informacji osobistych, jakie mogą być gromadzone. Sugeruje się przestrzeganie następujących wytycznych odnośnie do wykorzystania takich danych:

  1. Osoby oceniane powinny otrzymywać informacje zwrotne na temat wyników uzyskanych przez nie w ośrodku oceny, jak również o wszelkich sformułowanych zaleceniach.
  2. Oceniani członkowie organizacji mają prawo do zapoznania się z wszelkimi formalnymi raportami podsumowującymi na piśmie, dotyczącymi osiągniętych przez siebie wyników oraz sporządzonych i przedstawionych kierownictwu zaleceń. Kandydaci do pracy w organizacji powinni przynajmniej uzyskać wgląd do ostatecznej rekomendacji oraz w miarę możliwości i na wniosek kandydata – do uzasadnienia rekomendacji.
  3. Ze względu na bezpieczeństwo testów, ćwiczenia ośrodków oceny oraz raporty asesorów na temat wyników osiągniętych w konkretnych ćwiczeniach są niejawne, natomiast racjonalne i merytoryczne uzasadnienia ocen wymiarów i wynikających z nich zaleceń powinny być udostępnione na wniosek ocenianej osoby.
  4. Organizacja powinna informować osobę oceniającą o tym, jakie zapisy i dane są gromadzone, przechowywane, wykorzystywane i rozpowszechniane. Oceniana osoba powinna być informowana o tym, że jej zachowania są nagrywane podczas ośrodka oceny oraz w sytuacji, gdy te nagrania lub inne dane osobowe będą przekazywane poza granice kraju lub poprzez Internet. Organizacja musi podjąć środki ostrożności, aby zapewnić bezpieczeństwo danych przekazywanych przez Internet. Organizacje, które zbierają dane osobowe w procesie oceny, powinny dostosować się do właściwych uregulowań dotyczących ochrony danych, takich jak Dyrektywa Unii Europejskiej na temat ochrony danych (European Union Directive on Data Protection) i Zasady ochrony bezpieczeństwa i prywatności Stanów Zjednoczonych (US Safe Harbor Privacy Principles).
  5. Jeżeli organizacja postanowi wykorzystać wyniki oceny do celów innych niż zapowiedziane wcześniej, które mogą mieć wpływ na osobę ocenianą, należy o tym osobę ocenianą powiadomić i uzyskać jej zgodę.

 

11. Prowadzenie ośrodków oceny w różnych kontekstach kulturowych

W budowaniu programów ośrodka oceny coraz powszechniej są przekraczane granice kulturowe i krajowe. W pewnych sytuacjach niezbędne jest przystosowanie działań związanych z ośrodkiem oceny do lokalnej kultury, w której jest on wykorzystywany. W innych sytuacjach możliwa jest decyzja o wystandaryzowaniu programu ośrodka oceny dla wszystkich regionów, w których będzie on wykorzystywany.

Praktycy wykorzystujący metodę ośrodka oceny poza granicami kraju/regionu, w którym on powstał, powinni określić, jaki zakres dopasowania kulturowego jest niezbędny. Analizy powinny zawierać dowody na to, że walidacja i możliwości zastosowania ośrodka oceny nie są obniżone zarówno na etapie tworzenia, jak i wdrażania.

W tym procesie należy uwzględnić zestaw uwarunkowań, które obejmują:

  • zakres cech wspólnych występujących w kulturze, biznesie, prawie i środowisku społeczno-politycznym różnych krajów (np. przekonania kulturowe i zachowania, lokalne prawo dla biznesu);
  • różnice w krajowych wytycznych ustanowione przez lokalne stowarzyszenia zawodowe;
  • cechy wspólne dotyczące umiejętności/wymiarów, które decydują o powodzeniu na danym stanowisku;
  • jednolitość standardów wykonania/zachowań, decydujących o powodzeniu na danym stanowisku;
  • zakres cech wspólnych w modelu biznesowym pomiędzy organizacjami, w których wykorzystywany jest ośrodek oceny/metoda (np. strategia biznesowa, wizja, wartości, praktyki);
  • poziom centralizacji lub decentralizacji kontroli (np. lokalna) nad jednostkami organizacyjnymi;
  • wymogi w zakresie porównań statystycznych (np. porównania normatywne) do interpretacji wyników w różnych lokalizacjach;
  • zakres potrzeb związanych z transferem personelu pomiędzy krajami/kulturami.

Jeśli program ośrodka oceny jest specyficzny pod względem kulturowym, to modyfikując go w odniesieniu do każdej kultury, w której ośrodek oceny ma być wykorzystywany, należy wziąć pod uwagę następujące aspekty:

  • wybór kryteriów wykonania,
  • kryteria osiągnięcia sukcesu na danym stanowisku,
  • wybór ćwiczeń,
  • szkolenie asesorów,
  • proces udzielania informacji zwrotnej.

Jednakże, pewne aspekty ośrodka oceny powinny pozostać wystandaryzowane, nawet jeśli proces jest dostosowywany do specyfiki kulturowej. Właściwości, które powinny pozostać takie same niezależnie od kultury, obejmują:

  • włączenie obserwacji zachowań,
  • szkolenie asesorów w zakresie oceny zachowań,
  • klasyfikacja i ocenianie zachowań,
  • systematyczny proces integracji ocen pomiędzy ćwiczeniami, wymiarami i asesorami.

 

12. Wytyczne krajowe dla ośrodka oceny

Poza wytycznymi międzynarodowymi, prezentowanymi tutaj, niektóre kraje stworzyły lokalne wytyczne, których należy przestrzegać (przy jednoczesnym przestrzeganiu wytycznych międzynarodowych). Przykłady standardów krajowych:

  • Republika Południowej Afryki: Assessment Center Study Group. (2007). Wytyczne dla ośrodków oceny i rozwoju w Południowej Afryce (4 edycja).
  • Niemcy: Standards der assessment-center-technik. (2004). Uberblick und Hintergrundinformationen Hamburg, Germany: Arbeitskreis Assessment Center e.V.
  • Indonezja: Indonesian Task Force on Assessment Center Guidelines. (2002). Daya Dimensi Indonesia. Ethical guidelince for assessment center operations.

 

Bibliografia

American Educational Research Association, American Psychological Association, & National Council on Measurements in Education. (1999) Standards for Educational and Psychological Testing. Washington, DC: American Psychological Association. Available at http://www.apa.org/science/standards.html (accessed 1 August 2008).

American Psychological Association Council of Representatives. (1990) APA Guidelines for Providers of Psychological Services to Ethnic, Linguistic, and Culturally Diverse Populations. Boston: American Psychological Association. Available at http://www.apa.org/pi/guide.html (accessed 1 August 2008). American Psychological Association Public Interest Directorate and Council of Representatives. (2002) Guidelines on Multicultural Education, Training, Research, Practice, and Organizational Change for Psychologists. Washington, DC: American Psychological Association. Available at http://www.apa.org/pi/multiculturalguidelines.pdf (accessed 1 August 2008).

International Test Commission. (2000) International Test Commission Test Adaptation Guidelines. International Test Commission. Available at http://www.intestcom.org/test_ adaptation.htm (accessed 1 August 2008).

Society for Industrial and Organizational Psychology & American Psychological Association. (2003) Principles for the Validation and Use of Personnel Selection Procedures (4th edn). Bowling Green, OH: Society for Industrial and Organizational Psychology. Available at http://www.siop. org/_Principles/principles.pdf (accessed 1 August 2008).

US Department of Commerce. (2000). Safe harbor privacy principles. Available at http://www.export.gov/safeharbor (accessed 1 August 2008).

 

Słownik pojęć

Osoba oceniana – osoba, której kompetencje są mierzone przez ośrodek oceny.
Ośrodek oceny (assessment center) – proces prowadzony z zastosowaniem różnorodnych technik oraz wielu osób oceniających, w wyniku którego formułowane są oceny dotyczące zakresu, w jakim uczestnik demonstruje wybrane kompetencje.
Asesor – osoba przeszkolona w zakresie obserwacji, rejestracji, klasyfikacji i wydawania miarodajnych ocen na temat zachowań osób ocenianych.
Kompetencja, zwana także wymiarem – układ lub grupa zachowań o charakterze specyficznym, dającym się obserwować i weryfikować, które można wiarygodnie i logicznie klasyfikować łącznie, związanych z powodzeniem w pracy na danym stanowisku.
Wymiar – zob. kompetencja.
Informacje zwrotne – informacje porównujące faktycznie uzyskane wyniki ze standardowym lub pożądanym poziomem wyników.
Wysoka (lub niska) wierność odtworzenia bodźca (fidelity) – stopień, w jakim symulacja ośrodka oceny wymaga od osoby ocenianej faktycznego wykazania zachowań związanych z jedną lub większą liczbą wybranych kompetencji. Wierność odtworzenia dotyczy realności symulacji w porównaniu z faktycznymi sytuacjami na stanowisku pracy, zadaniami itp.
Analiza stanowiska pracy (job-analysis) – proces, stanowiący zazwyczaj połączenie takich technik, jak wywiady i obserwacje dotychczasowych pracowników, stanowiskowe listy kontrolne, rozmowy z kierownictwem wyższego szczebla/dyrekcją), wykorzystywany do stwierdzenia kompetencji związanych z sukcesem lub porażką na danym stanowisku, w danej roli zawodowej lub grupie stanowisk.
Rzetelność (reliability) – zakres, w jakim proces pomiarowy przynosi powtarzalne wyniki (w jednakowych warunkach) podczas powtarzających się pomiarów.
Symulacja – ćwiczenie lub technika, które pozwalają wywołać zachowania związane z wymiarami efektywności wykazywanej w pracy, wymuszające na uczestnikach behawioralne reakcje na bodźce sytuacyjne.
Walidacja – zakres, w jakim narzędzie lub proces pomiarowy, takie jak ośrodek oceny, przynosi użyteczne wyniki. Pomiar może dotyczyć różnych zakresów walidacji (np. „teoretyczna”, „treściowa”, „prognostyczna”, „społeczna”), w zależności od analizowanych zagadnień i badanego narzędzia lub procesu.

 

D o  p o b r a n i a: Wytyczne_i_reguly_etyczne_AC

 

Członkowie Grupy Zadaniowej

Grupa zadaniowa – wydanie z 1975 roku

Albert Alon,  Miracle Food Mart (Canada)

Douglas W. Bray, Ph.D,  AT&T

William C. Byham, Ph.D,  Development Dimensions International, Inc.

Lois A. Crooks, Educational Testing Service

Donald L Grant, Ph.D, AT&T and University of Georgia

Lowell W. Hellervik, Ph.D, University of Minnesota

James R. Huck, Ph.D, AT&T-Michigan Bell Telephone Company

Cabot L. Jaffee, Ph.D, Assessment Designs, Inc.

Alan I. Kraut, Ph.D, International Business Machines

John H. McConnell, American Management Association

Leonard W. Slivinski, Ph.D, Public Service Commission (Canada)

Thomas E. Standing, Ph.D, The Standard Oil Company B Ohio

Edwin Yager, Consulting Associates

 

Grupa zadaniowa – wydanie z 1979 roku

Albert Alon, Miracle Food Mart (Canada)

Dale Baker, U.S. Civil Service Commission

Douglas W. Bray, Ph.D, AT&T

William C. Byham, Ph.D, Development Dimensions International, Inc.

Steven L. Cohen, Ph.D, Assessment Designs, Inc.

Lois A. Crooks, Educational Testing Service

Donald L. Grant, Ph.D, University of Georgia

Milton D. Hakel, Ph.D, Ohio State University

Lowell W. Hellervik, Ph.D, University of Minnesota

James R. Huck, Ph.D, Human Resources International

Cabot L Jaffee, Ph.D,  Assessment Designs, Inc.

Frank M. McIntyre, Ph.D, Consulting Associates

Joseph L. Moses, Ph.D. (Chair), AT&T

Nicky B. Schnarr, International Business Machines

Leonard W. Slivinski, Ph.D, Public Service Commission (Canada)

Thomas E. Standing, Ph.D, Standard Oil of Ohio

Edwin Yager, Consulting Associates

 

Grupa zadaniowa – wydanie z 1989 roku

Virginia R. Boehm, Ph.D, Assessment & Development Associates

Douglas W. Bray, Ph.D. (Co-Chair),  Development Dimensions International, Inc.

William C. Byham, Ph.D, Development Dimensions International, Inc.

Anne Marie Carlisi, Ph.D, BellSouth

John J. Clancy, Clancy & Associates

Reginald Ellis, Canadian National Railway

Joep Esser, Mars B.V. (The Netherlands)

Fred Frank, Ph.D, Electronic Selection Systems Corporation

Ann C. Gowdey, Connecticut Mutual

Dennis A. Joiner, Joiner & Associates

Rhonda Miller, New York Power Authority

Marilyn Quaintance-Gowing, Ph.D, U.S. Office of Personnel Management

Robert F. Silzer, Ph.D, Personnel Decisions, Inc.

George Thornton HI, Ph.D. (Co-Chair), Colorado State University

 

Grupa zadaniowa – wydanie z roku 2000

William C. Byham, Ph.D, Development Dimensions International, Inc.

Richard Flanary, Nat’l. Assoc. of Secondary School Principals

Marilyn K. Gowing, Ph.D, U.S. Office of Personnel Management

James R. Huck, Ph.D, Human Resources International

Jeffrey D. Kudisch, Ph.D, University of Southern Mississippi

David R. MacDonald, Ph.D. (Chair), Steelcase Inc.

Patrick T. Maher, D.Crim, Personnel & Organization Development Consultants, Inc.

Jeroen J.J.L. Seegers, Assessment & Development Consult (The Netherlands)

George C. Thornton III, Ph.D, Colorado State University

 

 

Share on FacebookShare on Google+Tweet about this on Twitter