0001info@leibniz-psychology.org | © 1996-2018 ZPID

 

 



 Vollansicht des PSYNDEX Tests-Dokuments:
Assessment Center

 PSYNDEX Tests-Dokument: 9001743
 

AC - Assessment Center (PSYNDEX Tests Review)

 

Assessment Center/zpid
Synonym(e): Assessment-Center; Assessment Center Technik (ACT)

 Arbeitskreis Assessment Center e.V. (Hrsg.).
 (1996). Assessment Center als Instrument der Personalentwicklung. Schlüsselkompetenzen - Qualitätsstandards - Prozessoptimierung. Hamburg: Windmühle.

 Bezugsquelle: Zum Assessment Center ist eine umfassende Quellenlage mit einer unüberschaubaren Anzahl von Publikationen gegeben, zahlreiche Anbieter haben entsprechende Leistungen in ihrem Produktfolio.
Anmerkung: Unter anderem werden vom Hogrefe Verlag Seminare zum Assessment Center veranstaltet.
 Adresse(n): o Hogrefe Verlag GmbH & Co. KG, Merkelstraße 3, D-37085 Göttingen ; E-Mail: verlag@hogrefe.de ; URL: http://www.hogrefe.de/ ; Stand: 1.11.2018
o Arbeitskreis Assessment Center e.V., Schröderstiftstraße 26, D-20146 Hamburg ; E-Mail: ak-buero@arbeitskreis-ac.de ; URL: http://www.arbeitskreis-ac.de/ ; Stand: 4.12.2008
 WWW-Informationen:
 

Abstract

Diagnostische Zielsetzung:
ACs stellen eine Methode der Personalauswahl und -entwicklung da, die vorwiegend bei (potenziellen) Führungskräften eingesetzt wird. Es werden Verhaltensweisen der Teilnehmer beobachtet und bewertet, die für den beruflichen Erfolg auf der jeweils zu besetzenden Position bedeutsam sein sollen. Dies sind insbesondere soziale Fertigkeiten (z.B. "Kommunikationsfähigkeit", "Durchsetzungskraft"), aber auch kognitiv-methodische Fertigkeiten (z.B. "Planungsfähigkeit", "Präsentationstechnik") und persönliche Merkmale (z.B. "Stressstabilität", "Ausstrahlung").


Aufbau:
Es existieren unzählige Varianten der AC-Technik. In einem "typischen" AC, das 1-3 Tage dauert, wird an einer (ca. 8-12 Teilnehmer umfassenden) Bewerbergruppe eine Serie von mehreren berufsbezogenen Untersuchungsverfahren (z.B. Präsentationen, Gruppendiskussionen, Einzelübungen, standardisierte Testverfahren) eingesetzt. Die Leistungen der Teilnehmer werden durch mehrere geschulte Beobachter auf verhaltensnah definierten Anforderungsdimensionen beurteilt und mit einem vorab formulierten Anforderungsprofil verglichen. Die Beurteilungen werden in einer Beobachterkonferenz unter Leitung eines neutralen Moderators (überwiegend) nach dem Prinzip der klinischen Urteilsbildung zu einer Entscheidung über den Teilnehmer (z.B. bzgl. seiner Eignung für die Position oder empfehlenswerte Fördermaßnahmen) verdichtet. Die Ergebnisse werden in mündlicher und schriftlicher Form an die Teilnehmer rückgemeldet.


Grundlagen und Konstruktion:
Die Konstruktion von ACs basiert auf der sog. "kriteriumsorientierten Testtheorie". In Tätigkeitsanalysen werd mittels standardisierter und nicht-standardisierter Methoden (z.B. Analyse von Stellenbeschreibungen, Mitarbeiter- und Vorgesetztenbefragung) ein Anforderungsprofil erarbeitet, das auf die jeweilige berufliche Position zugeschnitten ist. Die situativen Übungen, in denen die festgelegten Verhaltensdimensionen beobachtbar sein sollen, werden sodann auf Grundlage subjektiver Kriterien (persönliche Erfahrungen, Kreativität etc.) ausgewählt.


Empirische Prüfung und Gütekriterien:
Reliabilität: Die interne Konsistenz und die Paralleltestreliabilität von AC-Beurteilungen sind verschiedenen Studien zufolge mit Werten von rtt < = .65 als eher niedrig zu beurteilen. Schätzungen der Test-Retestreliabilität über unterschiedliche Testwiederholungszeiträume variieren erheblich. Von Scholz (1994) werden in einer Zusammenfassung mehrerer Untersuchungen Werte zwischen rtt = .06 und rtt = .90 berichtet; Kelbetz und Schuler (2002) fanden über ein 2-Jahresintervall überwiegend niedrige, allenfalls jedoch moderate Retestkorrelationen zwischen den betrachteten Urteilsdimensionen (-.03 < = rtt < =.50) resp. den durchgeführten Einzelverfahren (-.16 < = rtt < = .60).
Validität: Die Augenschein- und Kontentvalidität sowie die prädiktive Validität von ACs sind verglichen mit anderen Verfahren zur Personalauswahl als hoch zu kennzeichnen; speziell für die Vorhersage des späteren Berufserfolgs scheint das AC das derzeit geeignetste Verfahren darzustellen. Probleme bestehen hinsichtlich der Konstruktvalidität. So zeigt sich in Multitrait-Multimethod-Analysen durchweg, dass die Beobachtungen sich eher zu Methoden- resp. Übungsfaktoren als zu Merkmalsfaktoren bündeln lassen. Mittlerweise sind verschiedene Moderatorvariablen bekannt, durch deren Berücksichtigung sich die konvergente und divergente Validität von ACs erhöhen lässt (z.B. Mitteilung der Anforderungsdimensionen an die Teilnehmer).
Normen: Eine statistische Normierung von ACs liegt nicht vor; die Bewertung der Ergebnisse erfolgt kriterienorientiert, d.h. ausgehend von den Anforderungen der zu besetzenden beruflichen Position.

 

Testkonzept

 

Theoretischer Hintergrund

Nach Jeserich (1981, S. 33 f.) "verstehen wir unter der Assessment-Center-Methode ein systematisches Verfahren zur qualifizierten Feststellung von Verhaltensleistungen bzw. Verhaltensdefiziten, das von mehreren Beobachtern gleichzeitig für mehrere Teilnehmer in Bezug auf vorher definierte Anforderungen angewandt wird". Es handelt sich bei ihr um eine verhaltensorientierte (im Gegensatz zur traditionellen persönlichkeitsorientierten) Vorgehensweise, die insbesondere in der Personalauswahl und -entwicklung (und hier bevorzugt bei Führungskräften) genutzt wird. Vergleichbar zur Arbeitsprobe oder zur Probezeit folgt das AC dem Prinzip der Verhaltenssimulation (Kanning & Holling, 2002, S. 527): Statt lediglich nach berufsrelevantem Verhalten zu fragen, soll dieses unmittelbar in (berufs-)alltagsnahen Situationen gezeigt und beobachtet werden. Die AC-Methode geht dabei von folgenden Voraussetzungen aus (vgl. z.B. Neubauer, 1980, S. 124):
- Nicht allein die Persönlichkeit, sondern zahlreiche Einflussfaktoren bestimmen die Eignung als Führungskraft.
- Die Bewältigung von Führungsaufgaben kann trainiert werden.
- Für die Diagnostizierung von Führungseignung ist die Erstellung eines individuellen Anforderungsprofils erforderlich; dieses Anforderungsprofil ist spezifisch auf die konkrete Stelle und das Unternehmen zuzuschneiden.
- Anforderungsprofile müssen mit den Stärken und Schwächen von Mitarbeitern in Deckung gebracht werden.
- Stärken und Schwächen stellen beobachtbares und damit diagnostizierbares Verhalten dar.
Vom deutschsprachigen Arbeitskreis Assessment Center wurden neun Standards für die AC-Gestaltung propagiert, die im Wesentlichen mit denen internationaler Gruppen (Task Force on Assessment Centers Guidelines, 2001; zit. nach Kleinmann, 2003) übereinstimmen (vgl. Fisseni & Fennekels, 1995, S. 259 ff.; Höft & Funke, 2001, S. 151):
(1) Anforderungsorientierung: ACs müssen auf einer unternehmensspezifischen Anforderungsanalyse basieren, auf deren Grundlage ein umfassendes Anforderungsprofil erstellt wird, mit dem die Ergebnisse der Teilnehmer zu vergleichen sind.
(2) Verhaltensorientierung: In ACs sind Verhaltensbeschreibungen zu protokollieren, um zwischen gezeigtem, beobachtbarem Verhalten und dessen Interpretationen (z.B. Fähigkeitszuschreibungen) unterscheiden zu können.
(3) Prinzip der kontrollierten Subjektivität: In ACs sind stets Mehrfachbeurteilungen durch mehrere geschulte Beobachter vorzunehmen, um die Beurteilungsobjektivität zu erhöhen.
(4) Simulationsprinzip: In ACs werden Situationen nachgestellt und beobachtet, die in ihrer Anzahl und Vielfalt für die berufliche Wirklichkeit in der jeweiligen Zielposition relevant sind.
(5) Transparenzprinzip: In ACs sind alle Beteiligten (Teilnehmer, Beobachter, Entwickler) über Grundziele, Ablauf und Bedeutung der Verfahren vollständig zu informieren.
(6) Individualitätsprinzip: Nach Abschluss eines ACs erhält jeder Teilnehmer ein verhaltensbezogenes Feedback.
(7) Systemprinzip: ACs sind stets in die Gesamtstruktur der Personal- und Organisationsentwicklung des Unternehmens einzubinden und darauf abzustimmen.
(8) Lernorientierung des Verfahrens selbst: Eine Evaluation des ACs ist obligatorisch.
(9) Organisierte Prozesssteuerung: ACs sind flexibel zu moderieren; eine Einflussnahme darf nur im Sinne einer Prozesssteuerung, nicht aber in Form einer Ergebnisbeeinflussung stattfinden.
Die konkrete Durchführung eines ACs ist dabei stets eingebettet in einen umfassenden Prozess der Planung, Vorbereitung und Nachbereitung. Als Ablaufphasen, die jeweils in mehrere Teilschritte untergliedert sind, lassen sich unterscheiden (vgl. z.B. Jeserich, 1981, S. 35; Kleinmann, 2003, S. 53):
(1) Positionierung (Festlegung von Zweck und Zielgruppe; Bildung einer Projektgruppe, in der die Vorüberlegungen konkretisiert werden; Implementierung des AC).
(2) Konstruktion (Tätigkeitsanalyse zu Gewinnung von Anforderungsdimensionen; Aufgabenkonstruktion; Konstruktion der Beobachtungs- und Bewertungsskalen; logistische Vorbereitungen; vgl. auch den Punkt "Testkonstruktion").
(3) Ablauf (Beobachtertraining, Einführung der Teilnehmer, Durchführung, Beobachterkonferenz).
(4) Nachbereitung (Feedback, u.U. anhand eines Leitfadens; Fördergespräch; Personalentwicklungsmaßnahmen; möglichst kontinuierliche Evaluation).
 

Testaufbau

Bei ACs handelt es sich um komplexe multimethodale Untersuchungsverfahren. An ihnen sind stets mehrere Personengruppen beteiligt (Teilnehmer, Beobachter, Moderator, ggf. Assistenten), die jeweils unterschiedliche Rollen und Aufgaben übernehmen (vgl. Fisseni & Fennekels, 1995, S. 76 ff.; Kanning & Holling, 2002, S. 532 ff.).
Die zu beurteilenden Teilnehmer durchlaufen eine Serie von Aufgaben resp. situativen Übungen (ca. 3 bis 10, je nach Ziel des AC; vgl. Kleinmann, 2003, S. 36), in denen sie Verhaltensweisen zeigen, welche die künftige Bewährung in der Berufssituation vorhersagen sollen. Prinzipiell können Einzelübungen (z.B. Präsentation, Fallstudie, Postkorb), Zweierübungen (z.B. Rollenspiele, Dispute über vorgegebene Themen) und Gruppenübungen (z.B. Gruppendiskussionen mit und ohne Rollenzuweisung, Konstruktionsübungen) unterschieden werden. Die Übungen sind überwiegend mündlich, teils jedoch auch schriftlich zu bearbeiten. Für ihre Vorbereitung stehen den Teilnehmern mehr oder weniger viel Zeit und Materialien zur Verfügung. Im Rahmen eines ACs können ferner standardisierte psychologische Testverfahren zur Anwendung kommen, z.B. Persönlichkeitsfragebögen wie der 16PF oder Leistungs- und Intelligenztests. Krause und Gebert (2003a) ermittelten in einer Analyse von ACs in 75 deutschsprachigen Organisationen die folgenden Verbreitungshäufigkeiten der verschiedenen Übungsarten (in Klammern finden sich die Zahlenwerte aus einer Vergleichsstudie in n = 215 US-amerikanischen Organisationen; Spychalski, Quinones, Gaugler & Pohley, 1997):
- Gruppendiskussion: 95 (100) Prozent;
- Präsentation: 89 (46) Prozent;
- Interview: 87 (57) Prozent;
- Fallstudie: 65 (38) Prozent;
- Postkorb: 53 (82) Prozent;
- Testverfahren: 5 (31) Prozent;
- Rollenspiel: 3 (54) Prozent.
Während jeder Übung werden das Verhalten und die Arbeitsergebnisse jedes Teilnehmers von mehreren trainierten Beobachtern protokolliert (z.B. künftigen Vorgesetzten oder geschulten Außenstehenden). In der Regel kommen auf 8 bis 12 Teilnehmer etwa 4 bis 6 Beobachter, d.h. das Zahlenverhältnis Teilnehmer:Beurteiler beträgt ca. 2:1 (z.B. Sarges, 2001). Zur Vermeidung systematischer Urteilsfehler wird meist nach einem festgelegten Plan eine Rotation der Beobachter vorgenommen, sodass jeder Beobachter in jeder Übung unterschiedliche Teilnehmer beobachtet. Da sich die Beobachtung und Bewertung ausschließlich auf das Verhalten der Teilnehmer in den Übungen beschränken soll, ist sicherzustellen, dass außerhalb der Übungen keine (formellen oder informellen) Kontakte zwischen Teilnehmern und Beobachtern stattfinden.
Die Auswahl der Beobachtungsdimensionen erfolgt orientiert an den Anforderungen der jeweiligen beruflichen Position. Art und Anzahl der Dimensionen variieren erheblich zwischen verschiedenen ACs. Was die Art der Dimensionen angeht, so stehen soziale Fertigkeiten im Vordergrund (z.B. Einfühlungsvermögen, Zuhörfähigkeit, mündliche und schriftliche Kommunikationsfähigkeit, Kontaktfreude, Teamfähigkeit, Konfliktverhalten). Darüber hinaus werden kognitive und methodische Fertigkeiten (z.B. Entscheidungsfähigkeit, Kostenbewusstsein, systematische Bearbeitung komplexer Prozesse, Problemanalyse, Präsentationstechnik, Umsetzen von Fachinformationen) sowie persönliche Merkmale (z.B. Ausstrahlung, Begeisterungsfähigkeit, Lernfähigkeit, Lernbereitschaft, Stressstabilität und Belastbarkeit, Ausdauer, Sorgfalt) aus den Beobachtungen erschlossen (Boettger, 2004, S. 10 ff.; Görn, Spinath, Hennecke & Stiensmeier-Pelster, 2002, S. 17; zu konzeptuellen und methodischen Problemen bei der Festlegung der Dimensionen vgl. Kleinmann, 2003, S. 23 ff.). Eine Analyse von n = 140 deutschsprachigen ACs (Neubauer et al., 2002, zit. nach Kleinmann, 2003, S. 24) ergab, dass die Anforderungsdimensionen "Kommunikationsfähigkeit", "Durchsetzungskraft" und "Kooperationsfähigkeit" mit einer Häufigkeit von über 80 Prozent die höchste Verbreitung aufwiesen, gefolgt von "Führungskompetenz", "Konfliktfähigkeit" und "Problemlösefähigkeit" mit einer Häufigkeit von jeweils über 70 Prozent. Was die Anzahl der Dimensionen anbelangt, so ergab eine Studie in deutschsprachigen Unternehmen (Krause, Meyer zu Kniendorf & Gebert, 2001), dass bei mehr als 60 Prozent der befragten Unternehmen in ACs sechs bis zehn Dimensionen beobachtet und bewertet wurden; ca. 25 Prozent präferierten eine höhere Zahl (teils mehr als 15), lediglich ca. 15 Prozent eine geringere Zahl (4-5) Dimensionen). Um die Kapazität der Beobachter nicht zu überfordern, sollten pro Aufgabe und Beobachter maximal drei Verhaltens- resp. Merkmalsdimensionen zu beachten sein (Kanning & Holling, 2002, S. 535).
Die Beobachtungen sind bereits während der Übungen stichpunktartig zu notieren. Im Anschluss an jede Übung wird den Beobachtern zusätzlich Gelegenheit gegeben, ihre Beobachtungen und Bewertungen schriftlich festzuhalten. Dies kann verbal oder numerisch mittels verschiedener Methoden geschehen:
- unstandardisiert in Form kurzer verbaler Beschreibungen des Teilnehmerverhaltens;
- standardisiert auf Checklisten, in denen Verhaltensweisen beschrieben sind, die den Anforderungsdimensionen zugeordnet sind; hier sind lediglich die in der Übung aufgetretenen Verhaltensweisen anzukreuzen;
- standardisiert auf zumeist fünfstufigen Ratingskalen (z.B. von 1 = "unbefriedigend" bis 5 = "hervorragend"). Zu bevorzugen sind hier nach Kleinmann (2003, S. 57 f.) sog. "behaviorally anchored rating scales", bei denen die Kategorien der Skala nicht durch Zahlen oder verbale Bewertungen definiert sind, sondern durch konkrete Verhaltensbeschreibungen. Auf weiteren Ratingskalen ist mitunter direkt zu beurteilen, in welchem Maße der Bewerber das im Anforderungsprofil festgelegte Kriterium auf der jeweiligen Anforderungsdimension erfüllt.
Ergänzend zu den Beobachterurteilen können Selbsteinschätzungen und Peer-Ratings der AC-Teilnehmer erfasst werden (Fisseni & Fennekels, 1995, S. 102 f.): Lt. Krause und Gebert (2003a, S. 188) wurden Selbsteinschätzungen in 56 (31) Prozent der ACs in den befragten deutschsprachigen resp. US-amerikanischen Organisationen erhoben; die Verbreitung von Peer-Ratings war mit lediglich 22 (19) Prozent deutlich geringer.
Der Ablauf des ACs wird durch einen Moderator organisiert und koordiniert. Die Aufgabe des Moderators besteht in der Leitung des AC. Er hat für die adäquate Vorbereitung, Durchführung und Nachbereitung Sorge zu tragen, u.a. begrüßt und informiert er die Beteiligten über den Ablauf und die Ziele des AC, erläutert die Übungen und moderiert die Beobachterkonferenzen. Er enthält sich jedoch jeder Bewertung der Bewerber und nimmt eine Rolle als "neutraler, aber freundlicher Experte" ein (Kanning & Holling, 2002, S. 533.). Bei den organisatorischen Aufgaben wird der Moderator ggf. durch Assistenten unterstützt. Bevorzugt handelt es sich dabei um für diese Funktion geschulte Studierende oder Praktikanten. Die Assistenten sind für den reibungslosen Ablauf des ACs zuständig, haben z.B. Teilnehmer und Beobachter mit den benötigten Materialien zu versorgen, die Einhaltung von Zeitvorgaben und Regeln der Übungen zu überwachen und ggf. Teile der Auswertung von schriftlichen Übungen zu übernehmen. Darüber hinaus kann ein "Back Office" eingerichtet werden, in dem die Beobachterurteile gesammelt und zusammengefasst werden.
 

Auswertungsmodus

Die Auswertung und Entscheidungsfindung erfolgt zumeist qualitativ nach dem Prinzip der klinischen Urteilsbildung: Im Rahmen einer sog. "Beobachterkonferenz" werden sämtliche Beobachtungen eines Bewerbers zusammengetragen und diskutiert, bis ein Konsens über die Gesamtbewertung des Bewerbers resp. sein Profil (d.h. die Ausprägungen der Auswertungsdimensionen) gefunden wurde. Das gewonnene Profil wird mit dem Anforderungsprofil abgeglichen, das die Grundlage der AC-Konstruktion bildete. Je höher die Übereinstimmung, d.h. je mehr der zuvor festgelegten Kriterien der Bewerber erfüllt, desto höher ist seine Eignung für die Position und desto geringer sein Entwicklungsbedarf. Probleme dieses Prozederes (z.B. systematische Urteilsfehler, gruppendynamische Prozesse) und Strategien zu ihrer Vermeidung (insbesondere angemessenes Moderatorverhalten) werden bspw. bei Boettger (2004, S. 83 ff.) diskutiert.
Die qualitative Auswertung kann prinzipiell durch eine statistische Urteilsbildung auf der Basis (ggf. gewichteter) Mittelwerte auf den Anforderungsdimensionen ergänzt werden. Eine ausschließlich statistische Urteilsfindung ist jedoch unter Praxisbedingungen unrealistisch und wird sehr kritisch gesehen: Zum einen dürften in den wenigsten ACs vollständig quantifizierte Daten und erprobte Algorithmen zu ihrer Verknüpfung vorliegen. Zum anderen bieten verbale (klinische) Urteile nach Einschätzung von Fisseni und Fennekels (1995, S. 110) "vielfältige Chancen der Differenzierung und Individualisierung - bieten mehr, als das numerische Urteil 'aufnehmen' kann".
Die Ergebnisse werden in mündlicher Form und/oder in Form eines mehr oder weniger ausführlichen schriftlichen Gutachtens ("Expertise") an die Teilnehmer rückgemeldet. Mündliche Rückmeldungen über Stärken und Schwächen werden im Rahmen von Einzelgesprächen gegeben, in denen auch hieraus abgeleitete Personalentwicklungsmaßnahmen thematisiert werden können. Um die Akzeptanz der Rückmeldungen zu erhöhen und widersprechende Sichtweisen zu klären, sollten die Teilnehmer auch Gelegenheit erhalten, ihr Erleben des AC-Verlaufs und ihres Verhaltens im AC zu verbalisieren (zu Zielen, Zeitpunkt, inhaltlichen und stilistischen Prinzipien der Rückmeldegespräche vgl. Fisseni & Fennekels, 1995, S. 153 ff.).
Die schriftlichen Berichte, die auch dem Auftraggeber zur Verfügung gestellt werden, sind etwa wie folgt aufgebaut (Boettger, 2004, S. 94): (1) Kurzbeschreibung der durchgeführten Verfahren (kann nach Fisseni & Fennekels, 1995, S. 141, entfallen); (2) Kurzbeschreibung der beobachteten Kompetenzen resp. Anforderungsdimensionen; (3) Ergebnisbericht inkl. Zusammenfassung und Empfehlungen; (4) Profil zur Visualisierung von Stärken und Entwicklungsbedarf des Teilnehmers.
 

Auswertungshilfen

Für die von den Beobachtern auszuwertenden Aufgaben werden standardisierte und möglichst einfach handhabbare Formulare entwickelt, mit deren Hilfe Verhaltensweisen kodiert und einzelnen Anforderungsmerkmalen zugeordnet werden (vgl. z.B. Fisseni & Fennekels, 1995, S. 98 ff.; Kanning & Holling, 2002, S. 537 f.). Auch für die Bewertung der protokollierten Beobachtungen werden entsprechende Checklisten mit Verhaltensweisen (auf denen die in der Übung gezeigten Verhaltensweisen markiert werden sollen) oder Ratingskalen (auf denen bspw. der Grad der Bewerbereignung zu bewerten ist) zur Verfügung gestellt. Des Weiteren werden Profilblätter genutzt, um die Ist- und Soll-Werte der Kriterienausprägungen zu visualisieren. Auswertungs- und Interpretationsbeispiele sowie Beispiele für schriftliche Gutachten finden sich z.B. bei Boettger (2004, S. 95 ff.) sowie bei Fisseni und Fennekels (1995, S. 145 ff.).
 

Auswertungszeit

Präzise Angaben über die Auswertungszeit sind nicht möglich. Aufgrund des mehrstufigen Beurteilungs- und Auswertungsprozesses (individuelles Zusammenfassen der protokollierten Beobachtungen und Abgabe von Beurteilungen des Teilnehmerverhaltens in einzelnen Übungen, Sammeln und Aggregieren der Urteile in der Beobachterkonferenz, Rückmeldegespräche mit den Teilnehmern, Abfassen der schriftlichen Gutachten) müssen jedoch alles in allem mehrere Stunden eingeplant werden. Allein für die Beobachterkonferenz soll gelten: "Pro Teilnehmer ist mit mindestens ein bis zwei Stunden Besprechungszeit zu rechnen" (Kleinmann, 2003, S. 59). Bei geschickter Zeitplanung kann ein Teil der Auswertung parallel zum laufenden AC (z.B. während der Vorbereitungszeit der Teilnehmer auf die kommenden Übungen) vorgenommen werden.
 

Itembeispiele

Im Folgenden können lediglich einige Grundprinzipien der in ACs oft verwendeten Aufgabentypen skizziert werden, da die spezifischen Übungen zu umfangreich sind, um hier vollständig wiedergegeben zu werden (zum Überblick vgl. auch Kanning & Holling, 2002, S. 530 ff.). Beispiele für Übungen und die zur Beurteilung des Verhaltens in ihnen herangezogenen Dimensionen finden sich z.B. bei Boettger (2004, 30 ff.). Bei Fisseni und Fennekels (1995, S. 56 ff., S. 187 ff.) werden vielfältige Beispiele für Übungen sowie der komplette Aufbau und Ablauf eines ACs exemplarisch wiedergegeben.
(1) Einzelübungen
- Stegreifrede: Der Teilnehmer hat vor einer Gruppe ohne Vorbereitung einen 3- bis 5-minütigen Vortrag zu einem vorgegebenen berufsbezogenen Thema ("Erläutern Sie, welche Ziele Sie in Ihrem Einflussbereich in diesem Jahr erreichen wollen"; Fisseni & Fennekels, 1995, S. 213) oder einem "sinnlosen" Thema ("Büroklammer"; Kanning & Holling, 2002, S. 531).
- Präsentation: Der Teilnehmer hat ebenfalls zu einem vorgegebenen (in der Regel berufsbezogenen) Thema einen Vortrag zu halten, darf sich jedoch auf diesen vorbereiten und Hilfsmittel verwenden (z.B. Medien zur Visualisierung). Die Präsentation wird oft ergänzend zu anderen Übungen herangezogen (z.B. Bearbeitung einer Fallstudie oder einer Postkorbübung, s.u.). Die verfügbare Redezeit beträgt hierbei ca. 10 bis 20 Minuten.
- Fallstudie (schriftliche Ausarbeitung): Aus vorliegendem Informationsmaterial und zu einer gegebenen Problemstellung (z.B. einem Organisationsproblem) sind innerhalb einer vorgegebenen Zeitspanne schriftlich Lösungsvorschläge zu erarbeiten, z.B. Erarbeitung einer Ministervorlage, Entwürfe von Reden und Richtlinien, Stellungnahme zu Organisationsänderungen usw.
- Postkorb-Aufgaben: Der Teilnehmer wird mit einer hypothetischen Arbeitssituation in einem fiktiven Unternehmen konfrontiert und muss aus dieser Rolle heraus eine Serie von Schriftstücken innerhalb einer eng begrenzten (für eine vollständige Lösung kaum ausreichenden) Zeitspanne bearbeiten, z.B. Prioritäten setzen, komplexe Entscheidungen treffen, Aufgaben delegieren, Terminpläne erstellen etc. Die Aufgabe sollte durch ein Interview oder eine Präsentation ergänzt werden, in dem der Proband getroffene Entscheidungen erläutern kann.
(2) Zweiergespräch/Rollenspiel
In einer Interviewsimulation soll der Teilnehmer die Rolle eines Vorgesetzten, Kollegen oder Kundenberaters einnehmen; Gesprächspartner kann ein anderer Teilnehmer oder ein Rollenspieler sein, dem zuvor vom AC-Moderator eine bestimmte Rolle zugewiesen wurde. In der zur Verfügung stehenden Zeit sollen Probleme konstruktiv gelöst werden, z.B. bei der Besprechung nachlassender Leistungen oder der Eröffnung relativ schwacher Beurteilungen eines Mitarbeiters, Entgegennahme einer Mitarbeiterbeschwerde, Verhindern einer vom Mitarbeiter bereits beschlossenen Kündigung usw.
(3) Gruppenübungen
Gruppenübungen werden in Kleingruppen von 4 bis maximal 8 Personen durchgeführt. Die Teilnehmer erhalten eine Aufgabe, die innerhalb eines vorgegebenen Zeitrahmens (meist 30 Minuten bis 1 Stunde) zu lösen ist.
- Führerlose Gruppendiskussion: Die Teilnehmer diskutieren ein klar definiertes Thema resp. versuchen, eine Gruppenaufgabe zu lösen, indem durch Diskussion ein Konsens hergestellt wird (z.B. Übung "Vorgesetztenverhalten" bei Fisseni & Fennekels, 1995, S. 224 f.: Die Teilnehmer erhalten 10 kurze Beschreibungen von Vorgesetztenverhalten und sollen diese zunächst individuell in eine Rangreihe bringen, um anschließend in der Gruppe eine gemeinsame Prioritätenliste zu erarbeiten).
- Gruppendiskussion mit Führer: Die Teilnehmer diskutieren ebenfalls ein klar definiertes Thema, wobei einer der Gruppenteilnehmer vorab (z.B. per Losentscheid) zum Vorsitzenden bestimmt wird.
- Gruppendiskussion mit verteilten Rollen: Den Teilnehmern werden bestimmte Rollen zugewiesen (z.B. Positionen innerhalb eines Unternehmens) und sie müssen in dieser Rolle zu einem allgemeinen Diskussionsgegenstand (Gibt es einen optimalen Führungsstil?) oder zu spezifischen Problemen eine Gruppendiskussion führen ("Stellen Sie in der 'Unternehmenskonferenz' der Abteilungsleiter die Situation Ihres Bereichs dar und entwickeln Sie - zumindest ansatzweise - ein Konzept für die nächsten Jahre"; vgl. Fisseni & Fennekels, 1995, S. 217).
- Konstruktionsübung (z.B. Heilmann, 2002): In einer Gruppe ist aus vorliegenden gegenständlichen Materialien (z.B. Pappe, Schrauben, Gummibälle, Klebstoff, Mineralwasserflaschen) ein konkretes Produkt zu konstruieren, z.B. eine Waage oder eine Brücke zu bauen.
 

Durchführung

 

Testformen

ACs werden überwiegend als Gruppentest durchgeführt, sehr selten auch als Einzel-AC, in dem ein einzelner Bewerber (meist über einen Tag hinweg) beobachtet wird. Unterschieden wird zwischen internen und externen ACs (z.B. Krause & Gebert, 2003b). Erstere werden mit bereits im Unternehmen Beschäftigten, Letztere zur Auswahl neuer Mitarbeiter eingesetzt. Dementsprechend wird weiter differenziert zwischen ACs mit dem Ziel der Personalselektion (Auswahl-AC) vs. zur Personalentwicklung resp. -förderung (Förder-AC; z.B. Görn, 2002). Daneben werden zahlreiche seltener eingesetzte Varianten der AC-Technik genannt (z.B. Jerusalem, 2003, S. 41; Kleinmann, 2003, S. 66 f.), z.B.:
- das dynamische (strukturvernetzte) AC: Es wird versucht, die Realität in einem Unternehmen in einem Planspiel möglichst genau nachzubilden, indem den Teilnehmern für das gesamte AC bestimmte Rollen zugewiesen werden und die einzelnen Übungen aufeinander aufbauen.
- das Lernpotenzial-AC: Den Teilnehmern werden im AC-Verlauf Rückmeldungen zu ihrem Verhalten und Optimierungshinweise gegeben, um beobachten zu können, inwieweit sie ihr Verhalten darauf hin modifizieren.
- das AC on the job: Beobachtung der Teilnehmer in der Position, die sie bekleiden (sollen).
Teile von ACs liegen mittlerweile auch in computergestützter Version vor, insbesondere Varianten der Postkorbübung.
ACs werden nahezu weltweit eingesetzt, wobei Schwerpunkte der Verbreitung weiterhin in Nordamerika sowie West- und Mitteleuropa liegen (zum Überblick vgl. Trost, 2002). Eine Sammlung von Erfahrungsberichten aus verschiedenen ACs findet sich bspw. in dem Band des Arbeitskreis Assessment Center e.V. (1996) sowie bei Sarges (2001).
 

Altersbereiche

ACs werden mit älteren Jugendlichen (Ausbildungsplatzbewerbern), vorwiegend jedoch mit Erwachsenen (meist Bewerbern um Führungspositionen) durchgeführt.
 

Durchführungszeit

Die Durchführungsdauer der einzelnen Aufgaben innerhalb eines ACs ist im Regelfall exakt festgelegt. Sie kann wenige Minuten (z.B. bei der Stegreifrede), aber auch mehrere Stunden (z.B. bei Postkorbaufgaben oder Gruppendiskussionen mit individueller Vorbereitung) betragen. Die Gesamtdauer eines ACs variiert zwischen einigen Stunden und mehreren Tagen; zumeist beträgt sie 1 bis 3 Tage (Kanning & Holling, 2002, S. 527).
 

Material

Für Teilnehmer und Beobachter werden umfangreiche schriftliche Materialien (Informationen und Instruktionen zu den einzelnen Übungen, Kodier- und Auswertungsblätter mit Bearbeitungshinweisen etc.) und Schreibgerät benötigt. Hinzu kommen ggf. weitere Materialien für Konstruktionsübungen sowie bei computergestützter Durchführung die entsprechende Hard- und Software.
Die Materialien werden meist spezifisch für das jeweilige AC entwickelt. Mittlerweile liegen jedoch auch publizierte Materialien für komplette ACs resp. für einzelne AC-Übungen (z.B. Postkorb) vor, die kostenpflichtig bezogen werden können (z.B. Musch, Rahn & Lieberei, 2001).
 

Instruktion

Die Instruktionen an die Teilnehmer liegen teils in standardisierter schriftlicher Form vor (insbesondere bei Postkorbübungen), teils werden sie mündlich gegeben. Die Instruktionen an die Beobachter liegen ebenfalls teils schriftlich vor, teils werden sie in umfassenden Schulungen mündlich vermittelt.
 

Durchführungsvoraussetzungen

Als Beobachter kommen nur sorgfältig ausgewählte und eingehend geschulte Personen in Frage. Als optimal im Hinblick auf die Validität des ACs gilt ein Beobachterteam, das sich aus Mitarbeitern des Auftrag gebenden Unternehmens (z.B. Personalentwicklern oder Führungskräften) und aus neutralen Personen (insbesondere [angehenden] Psychologen) zusammensetzt (Kleinmann, 2003, S. 21). Im Rahmen von Beurteilertrainings, die im Mittel 1 1/2 Tage dauern (Kleinmann, 2003, S. 58), werden die Beobachter mit ihrer Rolle als Diagnostiker, den AC-spezifischen Beurteilungsinstrumenten und Strategien zur Vermeidung möglicher Beurteilungsfehler vertraut gemacht (für Trainingsziele und -methoden vgl. Böttger, 2004, S. 70 ff.; Fisseni & Fennekels, 1995, S. 113 ff.; Kleinmann, 2003, S. 42 ff.; Neubauer, 1980, S. 141 f.).
Die Moderatorrolle in der Beobachterkonferenz sollte von einem erfahrenen Diplom-Psychologen übernommen werden, der über umfassende Erfahrung im Umgang mit Gruppen verfügt (vgl. Böttger, 2004, S. 86 ff.). Auch die Rückmeldungen an die Teilnehmer sollten nur von Personen gegeben werden, die in Gesprächsführung geschult sind; üblicherweise sollten dies ein Psychologe sowie eine weitere Person sein, die als Beobachter an dem AC teilgenommen hat (Kleinmann, 2003, S. 60).
Hinsichtlich der situativen Bedingungen gilt es zu beachten, dass die Räumlichkeiten eine für die jeweilige Gruppengröße und die geplanten Übungen adäquate Größe und technische Ausstattung aufweisen müssen (z.B. genügend Platz für die ungestörte Vorbereitung von Einzel- oder Kleingruppenarbeiten; Pausenraum; Overhead-Projektor oder Flip-Chart für Präsentationen etc.).
 

Testkonstruktion

Einen geschichtlichen Abriss des AC-Gedankens geben Domsch und Jochum (1989). Vorläufer der AC-Technik finden sich demnach in der Militärgeschichte. Elemente des Verfahrens wurden in Deutschland bereits im und nach dem 1. Weltkrieg, in den USA bereits während des 2. Weltkriegs zur Auswahl von Offizieren resp. Agenten eingesetzt. Die erste Längsschnittstudie zu Assessment Centern wurde in dem amerikanischen Unternehmen AT&T durchgeführt. In Deutschland setzten die Unternehmen IBM und BAT seit 1970 ACs ein. Eine Befragung von n = 281 Unternehmen unterschiedlicher Größe aus Deutschland, Österreich und der Schweiz (Krause & Gebert, 2003a) ergab, dass von diesen ca. die Hälfte (n = 141) AC-Verfahren nutzten; in einer US-amerikanischen Vergleichsstudie (Spychalski et al., 1997) hatten 215 von 291 Organisationen angegeben, ACs anzuwenden.
Die Konstruktion eines spezifischen ACs entspricht am ehesten der sog. "kriteriumsorientierten Testtheorie" (Klauer, 1987): Die Leistungen der Probanden werden nicht (wie in der Klassischen Testtheorie) mit stichprobenbezogenen Normen verglichen, sondern mit inhaltlich definierten Zielen (vgl. z.B. Fisseni & Fennekels, 1995): Einem seriösen AC geht in einem ersten Schritt die Erarbeitung eines Anforderungsprofils auf der Basis einer sorgfältigen Anforderungs- resp. Tätigkeitsanalyse bzgl. der konkret zu besetzenden beruflichen Position voraus. Dieses Profil sollte in enger Zusammenarbeit mit dem Unternehmen (z.B. mit der direkten Führungskraft des auszuwählenden Bewerbers) entwickelt werden. Hierzu können verschiedene Techniken und Methoden mit unterschiedlichem Grad der Standardisierung genutzt werden (z.B. vorliegende Arbeitsplatzbeschreibungen, Interviews mit Stelleninhabern oder Vorgesetzten, Fragebögen, Critical-incident-Technik; zum Überblick s. Fisseni & Fennekels, 1995, S. 37 ff.; Kleinmann, 2003, S. 55 f.). Ergebnis der Anforderungsanalyse ist ein verhaltensnah definiertes Anforderungsprofil, in dem die als relevant eingestuften Verhaltensdimensionen und Kriterien (sensu wünschenswerte resp. erforderliche Ausprägungen des Verhaltens) durch jeweils mehrere konkret beobachtbare Verhaltensweisen beschrieben sind (z.B. "soziale Kompetenz": "bringt Partner Vertrauen entgegen, unterstellt Positives"; "hört zu/unterbricht nicht"; "greift Ideen auf/versorgt andere mit Informationen" etc.).
Im nächsten Schritt werden die Übungen festgelegt, in denen die Anforderungsdimensionen und -kriterien beobachtet werden sollen. Grundlegend folgt das AC den Prinzipien des Multitrait-Multimethod-Modells, d.h. jedes der interessierenden Bewerbermerkmale (traits) wird durch mehrere Übungen (methods) gemessen (Kanning & Holling 2002, S. 528). Umgekehrt werden in jeder Übung mehrere Merkmale beobachtet. Qualitätsanforderungen an die Gestaltung der Übungen werden z.B. von Kleinmann (2003, S. 37 f.) formuliert. Testtheoretische Erwägungen spielen bei der Auswahl offenbar keine bedeutsame Rolle: "Der Übergang von den generellen Anforderungen zu den konkreten Übungen, in denen sie sich abbilden, ist keineswegs ein rein deduktiver Schritt, er wird vielmehr geleitet und gesteuert von Erfahrung, Intuition und Kreativität. In die Konstruktion von Übungen gehen erhebliche Anteile von konkreten Kenntnissen, von Einfallsreichtum und Phantasie mit ein" (Fisseni & Fennekels, 1995, S. 55).
 

Gütekriterien

 

Objektivität

Der Grad der Durchführungs- und Auswertungsobjektivität hängt u.a. ab von den eingesetzten Verfahren. Bei Papier- und Bleistifttests ist kaum mit Problemen diesbezüglich zu rechnen. Problematischer sind die weniger standardisierten Untersuchungsverfahren, da sie zwangsläufig eine Vielzahl unkontrollierbarer situationaler Einflüsse enthalten (z.B. wird das Verhalten in Gruppendiskussionen durch die Zusammensetzung der Gruppe mit bestimmt). Die Interpretationsobjektivität wird durch die Präzision des Anforderungsprofils und der definierten Kriterien, aber auch durch den Verlauf der Beobachterkonferenz bestimmt (insbesondere die Qualität der Moderation, durch die gruppendynamische Prozesse gesteuert und dadurch systematische Urteilsfehler verhindert werden).
In Studien zur Beurteilerübereinstimmung (zusammenfassend Fisseni & Fennekels, 1995) ergaben sich überwiegend befriedigende Koeffizienten. Für den deutschen Sprachraum berichtet bspw. Jeserich (1981, S. 319) zwischen verschiedenen Urteilern eine Übereinstimmung von r = .84 (bei trainierten Psychologen) resp. r = .81 (bei trainierten Laien). Scholz (1994, S. 95 f.) ermittelte Interraterreliabilitäten, die zwischen .45 und .88 variierten.
 

Reliabilität

Es liegen Befunde zur internen Konsistenz sowie der Paralleltest- und der Retestreliabilität von ACs vor. Laut Thornton und Byham (1982) ist die interne Konsistenz von AC-Beurteilungen auf der Mehrzahl der Urteilsdimensionen mit ca. rtt = .25 als niedrig zu beurteilen. Für die Paralleltestreliabilität findet sich bei Scholz (1994, S. 97) eine Schätzung von .35 < = rtt < = .47; als "Paralleltests" wurden in dieser Studie zwei Gruppendiskussionen innerhalb eines ACs interpretiert. Aus einer neueren deutschen Studie berichtet Kleinmann (1997, S. 207) eine Korrelation von rtt = .65 zwischen den Beurteilungen in zwei am gleichen Tag durchgeführten, gleichartig aufgebauten Kurz-AC.
Zur Test-Retestreliabilität werden bei Scholz (1994, S. 166) verschiedene Studien zusammengefasst, in denen die Reliabilitätskoeffizienten über unterschiedliche Testwiederholungszeiträume zwischen rtt = .06 und rtt = .90 variierten. In einer weiteren Studie resultierte für das interne Auswahl-AC mit n = 47 Mitarbeitern eines Finanzdienstleisters (Kelbetz & Schuler, 2002) über ein Test-Retestintervall von durchschnittlich zwei Jahren eine Test-Retestkorrelation von rtt = .41 für den Gesamt-AC-Durchschnittswert. Dabei waren allerdings erhebliche Schwankungen der Retestreliabilitäten zwischen den betrachteten Urteilsdimensionen (-.03 < = rtt < =.50) sowie den durchgeführten Einzelverfahren (-.16 < = rtt < = .60) zu verzeichnen.
Ferner wurden im Rahmen konfirmatorischer Multitrait-Multimethod-Analysen Reliabilitätsanalysen (Steyer, Partchev, Menz & Seiß, 2000) nach der Generalisierten Klassischen Testtheorie durchgeführt. In diesen Analysen ergaben sich überwiegend befriedigende (methodenspezifische) Reliabilitätsschätzungen für die gemessenen Merkmale.
 

Validität

Das Gütekriterium der "Validität" hat in der Forschung vergleichsweise am meisten Aufmerksamkeit auf sich gezogen (zum Überblick vgl. v.a. Fisseni & Fennekels, 1995, S. 161 ff.; Kleinmann, 1997).
Augenscheinvalidität und "soziale Validität" (Schuler & Stehle, 1983) werden in der Literatur gemeinhin als hoch gekennzeichnet: ACs verfügen aus Sicht der Teilnehmer über hohe Plausibilität und werden von ihnen gut akzeptiert, insbesondere im Vergleich mit klassischen Intelligenz- und Persönlichkeitstests oder biografischen Fragebögen.
Einem systematisch konstruierten AC kann zudem eine hohe inhaltlich-logische Gültigkeit zugesprochen werden, da es definitionsgemäß auf einer umfassenden Arbeitsplatzanalyse basiert, aus der die Anforderungsdimensionen und Übungen abgeleitet werden.
Zur Ermittlung der prädiktiven Validität wurden Beziehungen zwischen Prognosen, die mittels eines ACs erstellt wurden, und Indikatoren des späteren Berufserfolgs (z.B. Bewährung in der erlangten Position, Karriereschritte, Gehaltszuwachs etc.) betrachtet. Übersichtsarbeiten zufolge variieren die Korrelationskoeffizienten zwischen AC-Ergebnis und beruflicher Bewährung zwischen -.25 und .78 (vgl. Kleinmann, 1997, S. 22). In einer Metaanalyse (Thornton, Gaugler, Rosenthal & Bentson, 1992), in die 50 Validitätsstudien und insgesamt 107 Validitätskoeffizienten eingegangen waren, ergab sich eine (korrigierte) mittlere Schätzung für die prädiktive Validität von r = .37 (mit einer Varianz von .017). Vergleichbar hohe Validitätskoeffizienten wurden allenfalls für biografische Fragebögen ermittelt, während klassische Auswahlinstrumente erheblich niedrigere Werte erreichten; so ergab sich für das klassische Vorstellungsgespräch lediglich eine korrigierte mittlere Validität von r = .14. Die Validitätskoeffizienten für ACs fielen (u.a.) dann höher aus, wenn die Beurteiler Psychologen (vs. Manager) waren, wenn Peer-Ratings der andern AC-Kandidaten einbezogen wurden und wenn der prozentuale Anteil weiblicher Kandidaten hoch war. Exemplarisch sei hierzu eine der bekanntesten Studien wiedergegeben, die sog. "Management Progress Study" (MPS) in der Firma AT&T (Bray & Grant, 1966, zit. nach Kleinmann, 1997, S. 20 f.). n = 422 Mitarbeiter wurden in einem AC beurteilt, die Beurteilungen wurden jedoch nicht für Beförderungen etc. herangezogen, sondern blieben geheim. Nach 8 und 16 Jahren wurden die Prognosen aufgrund des ACs (erreicht der Kandidat die Ebene des mittleren Management oder nicht?) mit dem tatsächlichen Aufstieg innerhalb der Firma verglichen; zum Vergleich wurden Prognosen herangezogen, welche die Personalabteilung über die Aufstiegschancen des jeweiligen Mitarbeiters erstellt hatte. Eine Übersicht der Ergebnisse liefert Tabelle 1. Bspw. hatten von den Mitarbeitern, denen aufgrund ihrer AC-Ergebnisse ein Aufstieg in die sog. dritte Führungsebene prognostiziert worden war, nach 8 Jahren 64 Prozent tatsächlich diese Ebene erreicht. War die gleiche Prognose aufgrund von Einschätzungen der Personalabteilung getroffen worden, betrug der Anteil entsprechend aufgestiegener Mitarbeiter lediglich 48 Prozent.

Tabelle 1
Trefferquoten und Validitätskoeffizienten nach 8 und 16 Jahren in der Firma AT&T (zit. nach Kleinmann, 1997, S. 21).
-------------------------------------------------------------------------------- 
Praediktor Kriterium
--------------------------------------------------------------------------------
Assessment nach 8 Jahren nach 16 Jahren
Center-Prognose: mit ohne mit ohne
"Kandidat wird in 10 College College College College
Jahren im mittleren
Management sein" N
--------------------------------------------------------------------------------
ja 103 64% 40% 89% 46%
nein/fraglich 106 32% 9% 66% 16%
Validitaetskoeffizient .46 .46 .33 .40
--------------------------------------------------------------------------------

Zu der Frage, welchen Beitrag einzelne AC-Übungen zur prädiktiven Validität leisten, liegen erst wenige Ergebnisse vor. In einer deutschen Studie (n = 47 Teilnehmer interner ACs in einem Dienstleistungsunternehmen) fanden Rahn und Moser (2000), dass berufliche Potenzial- und Leistungsbeurteilungen bedeutsam mit AC-Leistungen in einer Gruppendiskussion, in einem Mitarbeitergespräch sowie einer Präsentation korreliert waren, nicht jedoch mit den Urteilen über die Bearbeitung einer Fallstudie und eines Postkorbs.
Zur Konstruktvalidierung wurden exploratorische und konfirmatorische Faktorenanalysen (insbesondere Multitrait-Multimethod-Analysen, MTMM-Analysen) durchgeführt. Deren Ergebnissen zufolge ist die Konstruktvalidität von ACs sehr kritisch zu beurteilen. Zwar werden von Neubauer (1980, S. 153) die Ergebnisse mehrerer Faktorenanalysen zur AC-Technik aus "klassischen" amerikanischen Studien zusammengefasst, in denen inhaltlich interpretierbare Faktoren gefunden wurden (z.B. "Generelle Effektivität" als Faktor höherer Ordnung, "Administrative Fähigkeiten", "Interpersonelle Fähigkeiten", "Gefühlskontrolle", "Intellektuelle Fähigkeiten" oder "Arbeitsorientierte Motivation"). Viele weitere Studien (schon Sackett & Dreher, 1982) stellten jedoch fest, dass den AC-Beurteilungen eher Übungs- als Anforderungsfaktoren zugrunde liegen, d.h. dass Beurteiler die Teilnehmer innerhalb einer Übung auf allen Dimensionen ähnlich, auf der gleichen Anforderungsdimension über verschiedene Übungen hinweg jedoch sehr unterschiedlich bewerten. Bspw. fand Russell (1987) in einer MTMM-Analyse, in die Daten aus zwei AC-Übungen (Postkorb und Rollenspiel) und Einschätzungen auf sechs Anforderungsdimensionen (z.B. Mündliche Kommunikation, Entscheidungsfähigkeit) eingingen, lediglich Korrelationen von .20 bis .29 zwischen den in den beiden Übungen beurteilten Merkmalen, während die Einschätzungen auf verschiedenen Dimensionen innerhalb einer Übung mit Werten zwischen .39 und .71 deutlich höher korreliert waren.
Lammers und Holling (2000) konnten allerdings zeigen, dass sich die konvergente und diskriminante Validität von ACs erhöhen, wenn auf eine Beobachterrotation verzichtet wird. Dieser Befund wird darauf zurückgeführt, dass im MTMM-Auswertungsschema die Effekte der (üblicherweise nicht perfekten) Interraterreliabilität auf die Korrelationsmuster unzureichend berücksichtigt werden, was in der Faktorenanalyse die Extraktion von "Methodenfaktoren" begünstigt.
Kleinmann (1997, S. 26 f., S. 221 f.) fasst darüber hinaus die Ergebnisse eigener und fremder Studien zu Moderatorvariablen der konvergenten und divergenten Validität von ACs zusammen. Die konvergente Validität liegt demnach dann höher, wenn
- auf eine Beurteilerrotation verzichtet wird,
- ein angemessenes Auswertungsverfahren für die MTMM-Analyse gewählt wird,
- die Beurteiler weniger Beobachtungsdimensionen berücksichtigen müssen,
- die Beurteiler Checklisten verwenden,
- die Teilnehmer die Anforderungsdimensionen mitgeteilt bekommen,
- die individuelle situationsübergreifende "Verhaltenskonsistenz" der Teilnehmer bekannt ist und bei der Ergebnisbewertung berücksichtigt wird und
- die Urteile nicht nach jeder Übung (aufgabenweise Auswertung) abgegeben werden, sondern erst am Ende des ACs jedes Merkmal über alle Aufgaben hinweg zu beurteilen ist (merkmalsweise Auswertung).
Die diskriminante Validität des ACs wird nach Kleinmann (1997, S. 221 f.) erhöht
- durch die Bekanntgabe der Anforderungsdimensionen an die Teilnehmer,
- eine Orientierung der Teilnehmer an diesen Dimensionen sowie
- dann, wenn zeitgleich mehrere unterschiedliche Verhaltensweisen gemessen werden, die für die gleiche Anforderungsdimension relevant sind.
Es wurden ferner Personmerkmale identifiziert, die systematisch mit dem Abschneiden im AC zusammenhängen. So stellten Scholz und Schuler (1993) in einer Metaanalyse fest, dass AC-Gesamtergebnisse mit der allgemeinen Intelligenz der Teilnehmer (mittleres r = .33) sowie mit Persönlichkeitskonstrukten (z.B. soziale Kompetenz, r = .31; Leistungsmotivation, r = .30; Selbstvertrauen, r = .24; Dominanz; r = .23) korreliert sind.
 

Normierung

Eine statistische Normierung von ACs wird nicht vorgenommen, da die Methode nicht auf einen interindividuellen Vergleich der Teilnehmer (sensu "normorientierte" Diagnostik) abzielt, sondern auf eine kriterienorientierte Diagnostik, ohne dass aber die Methoden der Kriteriumsorientierten Testtheorie tatsächlich eingesetzt werden. Als Vergleichs"norm" fungiert hier das AC-spezifische Anforderungsprofil, das von den Teilnehmern mehr oder weniger gut erfüllt werden kann.
 

Anwendungsmöglichkeiten

Nach einer Schätzung von Thornton und Byham (1982) werden etwa 95 Prozent aller ACs in Bereichen der Personalauswahl und -entwicklung eingesetzt. Einsatzzwecke sind nach Schuler (1996, S. 120) im Einzelnen:
- interne Personalauswahl,
- Auswahl externer Bewerber,
- Laufbahnplanung,
- Ausbildungsberatung,
- Beurteilung, insbesondere Potenzialentwicklung,
- Trainingsbedarfsanalyse,
- Teamentwicklung,
- Berufsberatung,
- Berufliche Rehabilitation,
- Arbeitsplatzgestaltung,
- Forschung.
ACs sind aufgrund des hohen Zeit-, Personal- und Materialaufwands mit erheblichen Kosten verbunden; lt. verschiedenen Studien (zusammenfassend Kleinmann, 2003, S. 10) ist mit 500-2500 Euro pro Teilnehmer zu rechnen. AC-Verfahren werden daher primär zur Auswahl und Förderung von (potenziellen) Führungskräften genutzt, da hier der Nutzen einer richtigen Entscheidung (resp. die Kosten einer möglichen Fehlentscheidung) verglichen mit den AC-Kosten als hoch zu veranschlagen ist.
 

Bewertung

Die AC-Technik stellt ein Instrument zur Personalauswahl und -entwicklung dar, dessen Verbreitung im Verlauf der vergangenen drei Jahrzehnte stetig gewachsen ist, und dies, obwohl es sich um ein sehr teures, zeit- und organisationsaufwendiges Verfahren handelt. Diese Popularität verdanken ACs sicherlich zum einen ihrer Alltagsnähe und der damit verbundenen hohen Augenscheinvalidität und sozialen Akzeptanz, zum anderen aber auch ihrer praktischen Bewährung. Angesichts der erzielten "Trefferquoten" bei der Stellenbesetzung resp. der Vermeidung von personellen Fehlentscheidungen scheinen ACs den hohen Aufwand zu rechtfertigen: Die prädiktive Validität des "im Augenblick besten Verfahrens zur Auswahl und Entwicklung von Führungskräften" für den späteren Berufserfolg (Neubauer, 1980 [!], S. 154) konnte in etlichen Studien nachgewiesen werden.
Bedenklich erscheinen jedoch die Befunde zu den übrigen Gütekriterien. Zwar wurde argumentiert, dass die Klassische Testtheorie (KTT) streng genommen keinen angemessenen Messrahmen für ACs biete (Fisseni & Fennekels, 1995, S. 162 ff.), doch konzedieren die Autoren, dass sich - auch angesichts des Fehlens einer adäquaten alternativen Messtheorie - eine wissenschaftliche Begründung des ACs weiterhin auf die drei Hauptgütekriterien der KTT stützen müsse (S. 168). Was die Objektivität und Reliabilität angeht, so variieren die entsprechenden empirischen Befunde erheblich und sprechen teils für eine befriedigende, teils jedoch für eine absolut unzureichende Verfahrensgüte. Durchweg sehr kritisch beurteilt wird die Konstruktvalidität von AC. Anstelle der in diesem Zusammenhang vorgebrachten vielfältigen Argumente sei lediglich das Resümee von Schuler (1987, S. 13) zitiert: "Bis dato muss als ungeklärt gelten, was den Urteilen der Beobachter zugrunde liegt - diejenigen Eigenschaften, die man eigentlich damit erfassen will, sind es allenfalls zum Teil."
Für die Praxis der AC-Anwendung scheint ein weiterer Aspekt von Belang: Da sich die konkreten Abläufe und die verwendeten Verfahren beträchtlich unterscheiden, sind die an einem AC gefundenen Ergebnisse nicht ohne weiteres auf andere Formen übertragbar. Streng genommen müsste jedes AC (oder zumindest jeder Typ von AC) einer neuen systematischen Evaluation unterzogen werden. Dies wird jedoch (mit Ausnahme der Kontentvalidität) in deutschsprachigen Organisationen offenbar nur äußerst selten getan (Krause & Gebert, 2003a). Die Autoren leiten aus ihren Daten "einen deutlichen Verbesserungsbedarf im Hinblick auf die AC-Anwendung" (S. 189) ab. Sie fordern insbesondere, "ideologische Vorbehalte" gegen bewährte psychometrisch fundierte Testverfahren zu überwinden und diese stärker als bislang in ACs einzubinden, um die Potenziale, die grundsätzlich in der multimethodalen Vorgehensweise liegen, besser auszuschöpfen. Darüber hinaus gilt es - nicht zuletzt unter dem Gesichtspunkt der möglichen Kostenersparnis - in weiteren Bewährungskontrollen genauer zu klären, auf welche Übungen die hohe prädiktive Validität von ACs im Einzelnen zurückgeführt werden kann.
 

Literatur

  • Arbeitskreis Assessment Center e.V. (Hrsg.). (1996). Assessment Center als Instrument der Personalentwicklung. Schlüsselkompetenzen - Qualitätsstandards - Prozessoptimierung. Hamburg: Windmühle.
  • Boettger, A. (2004). Assessment Center. Ein Arbeitshandbuch. Renningen: expert Verlag.
  • Domsch, M. & Jochum, I. (1989). Zur Geschichte des Assessment Centers - Ursprünge und Werdegänge. In C. Lattmann (Hrsg.), Das Assessment-Center - Verfahren der Eignungsbeurteilung. Sein Aufbau, seine Anwendung und sein Aussagegehalt (S. 4-18). Heidelberg: Physica.
  • Fisseni, H.-J. & Fennekels, G.P. (1995). Das Assessment Center. Eine Einführung für Praktiker. Göttingen: Verlag für Angewandte Psychologie.
  • Görn, A. (2002). Optimierung von Assessment-Center-Verfahren in der Personalentwicklung auf Grundlage theoretischer Erkenntnisse der Lern- und Leistungsmotivationsforschung. Berlin: Tenea.
  • Görn, A., Spinath, B., Hennecke, M. & Stiensmeier-Pelster, J. (2002). Assessment-Center als Methode moderner Personalentwicklung. Ein Leitfaden für die Praxis. Landau: Verlag Empirische Pädagogik.
  • Heilmann, K. (2002). Die Konstruktionsübung: Eine besondere Gruppenübung im Assessment-Center. In E. Fay (Hrsg.), Das Assessment-Center in der Praxis. Konzepte - Erfahrungen - Innovationen (S. 33-129). Göttingen: Vandenhoeck & Ruprecht.
  • Höft, S. & Funke, U. (2001). Simulationsorientierte Verfahren in der Personalauswahl. In H. Schuler (Hrsg.), Lehrbuch der Personalpsychologie (S. 135-173). Göttingen: Hogrefe.
  • Jerusalem, R. (2003). Soziale Faktoren im Kontext eines Assessment Centers. Eine Untersuchung zum Konzept der sozialen Orientierungen. Münster: Lit Verlag.
  • Jeserich, W. (1981). Mitarbeiter auswählen und fördern. Assessment-Center-Verfahren. München: Hanser.
  • Kanning, U. P. & Holling, H. (Hrsg.). (2002). Handbuch personaldiagnostischer Instrumente (S. 527-543: Assessment Center). Göttingen: Hogrefe.
  • Kelbetz, G. & Schuler, H. (2002). Verbessert Vorerfahrung die Leistung im Assessment Center? Zeitschrift für Personalpsychologie, 1, 4-18.
  • Klauer, K. J. (1987). Kriteriumsorientierte Tests. Lehrbuch der Theorie und Praxis lehrzielorientierten Messens. Göttingen: Hogrefe.
  • Kleinmann, M. (1997). Assessment-Center. Stand der Forschung - Konsequenzen für die Praxis. Göttingen: Verlag für Angewandte Psychologie.
  • Kleinmann, M. (2003). Assessment-Center. Göttingen: Hogrefe.
  • Krause, D.E. & Gebert, D. (2003a). Personalauswahl und - entwicklung durch Assessment Center: Ein Vergleich der Entwicklung, Durchführung und Evaluation von Assessment Centern in der deutschsprachigen und US-amerikanischen Wirtschaft. Wirtschaftspsychologie (Pabst Science Publishers), 5 (1), 186-189.
  • Krause, D.E. & Gebert, D. (2003b). Unterschiede in der Durchführung zwischen internen und externen Assessment Centern - Eine empirische Analyse. Zeitschrift für Arbeits- und Organisationspsychologie, 47 (2), 87-94.
  • Krause, D.E., Meyer zu Kniendorf, C. & Gebert, D. (2001). Das Assessment Center in der deutschsprachigen Wirtschaft. Personal - Zeitschrift für Human Ressource Management, 11, 638-642.
  • Lammers, F. & Holling, H. (2000). Beobachterrotation und die Konstruktvalidität des Assessment Centers. Zeitschrift für Differentielle und Diagnostische Psychologie, 21 (4), 270-278.
  • Musch, J., Rahn, B. & Lieberei, W. (2001). BPM. Bonner Postkorb-Module. Die Postkörbe CaterTrans, Chronos, Minos und AeroWings. Göttingen: Hogrefe.
  • Neubauer, R. (1980). Die Assessment Center Technik: Ein verhaltensorientierter Ansatz zur Führungskräfteauswahl. In R. Neubauer & L.v. Rosenstiel (Hrsg.), Handbuch der angewandten Psychologie. Band 1: Arbeit und Organisation (S. 122-158). München: Verlag Moderne Industrie.
  • Rahn, B. & Moser, K. (2000). Beiträge verschiedener Prädiktoren zur Kriteriumsvalidität eines Assessment Centers. Zeitschrift für Personalforschung, 2, 177-190.
  • Russell, C.G. (1987). Person characteristic vs. role congruency explanations for assessment center ratings. Academy of Management Journal, 30, 817-826.
  • Sackett, P.R. & Dreher, G.F. (1982). Constructs and assessment center dimensions: Some troubling empirical findings. Journal of Applied Psychology, 67, 401-410.
  • Sarges, W. (Hrsg.). (2001). Weiterentwicklungen der Assessment Center-Methode (2., überarbeitete und erweiterte Auflage). Göttingen: Hogrefe.
  • Scholz, G. (1994). Das Assessment-Center: Konstruktvalidität und Dynamisierung. Eine Metaanalyse und ein Experiment zur psychologischen Bedeutung des Assessment-Center. Göttingen: Verlag für angewandte Psychologie.
  • Scholz, O. & Schuler, H. (1993). Das nomologische Netzwerk des Assessment Centers: Eine Metaanalyse. Zeitschrift für Arbeits- und Organisationspsychologie, 37 (2), 73-85.
  • Schuler, H. (1987). Assessment Center als Auswahl- und Entwicklungsinstrument. In H. Schuler & W. Stehle (Hrsg.), Assessment Center als Methode der Personalentwicklung (S. 1-35). Göttingen: Hogrefe.
  • Schuler, H. (1996). Psychologische Personalauswahl: Einführung in die Berufseignungsdiagnostik. Göttingen: Verlag für Angewandte Psychologie.
  • Schuler, H. & Stehle, W. (1983). Neuere Entwicklungen des Assessment Center Ansatzes - beurteilt unter dem Aspekt der sozialen Validität. Zeitschrift für Arbeits- und Organisationspsychologie, 27, 33-44.
  • Spychalski, A.C., Quinones, M.A., Gaugler, B.B. & Pohley, K. (1997). A survey of assessment center practices in organizations in the United States. Personnel Psychology, 50, 71-90.
  • Steyer, R., Partchev, I., Menz, S. & Seiß, K. (2000). Die Anwendung von Multitrait-Multimethod Modellen in der Assessment-Center-Diagnostik der Bundeswehr. Untersuchungen des Psychologischen Dienstes der Bundeswehr, 35, 95-139.
  • Thornton, G.C.III & Byham, W.C. (1982). Assessment centers and managerial performance. New York: Academic Press.
  • Thornton, G.C., Gaugler, B.B., Rosenthal, D.B. & Bentson, C. (1987). Die prädiktive Validität des Assessment-Centers - Eine Meta-Analyse. In H. Schuler & W. Stehle (Hrsg.), Assessment Center als Methode der Personalentwicklung (S. 36-60). Stuttgart: Verlag für Angewandte Psychologie.
  • Trost, G. (2002). Assessment-Center-Verfahren für Führungskräfte auf drei Kontinenten: Was ist gleich? Was ist anders? In E. Fay (Hrsg.), Das Assessment-Center in der Praxis. Konzepte - Erfahrungen - Innovationen (S. 33-52). Göttingen: Vandenhoeck & Ruprecht.
 

Wichtige neuere Publikationen

  • Arbeitskreis Assessment Center e.V. (Hrsg.). (2005). Aus Konfusionen, Kontroversen und Konzepten wächst Kompetenz. Dokumentation zum 6. Deutschen Assessment-Center-Kongress 2005 [505 Seiten auf CD-ROM]. Lengerich: Pabst.
  • Arbeitskreis Assessment Center e.V. (Hrsg.). (2004). Standards der Assessment Center Technik. Hamburg: Arbeitskreis Assessment Center e.V.
  • Becker, N., Höft, S., Holzenkamp, M. & Spinath, F.M. (2011). The predicitive validity of Assessment Centers in German-speaking regions. A meta-analysis. Journal of Personnel Psychology, 10 (2), 61-69.
  • Benit, N. & Soellner, R. (2012). Validität von Assessment-Centern in deutschen Unternehmen. Vergleich von Unternehmensdaten mit einer bestehenden Metaanalyse. Personal, 11, 32-39.
  • Bieri, C., Schuler, P. & Stirnemann, B. (2009). Assessment Center für angehende Studierende des Lehrberufs - ein faires Auswahlverfahren? Unterrichtswissenschaft, 37 (2), 105-117.
  • Boltz, J., Kanning, U.P. & Hüttemann, T. (2009). Treffende Prognosen durch Beachtung von Standards. Personalführung, Heft 10, 32-37.
  • Contarini, C. & Vannotti, M. (2006). Das Development Center mit Peer-Feedback. Ein Praxisbeispiel. Wirtschaftspsychologie, 8 (4), 11-19.
  • Drexler, A. & Möller, H. (2007). Einsatz eines Assessment Centers im Rahmen von Unternehmensnachfolge. Organisationsberatung, Supervision, Coaching, 14 (4), 331-344.
  • Eck, C. D., Jöri, H. & Vogt, M. (2010). Assessment Center. Entwicklung und Anwendung (2. Auflage). Berlin: Springer.
  • Eck, C. D., Jöri, H. & Vogt, M. (2016). Assessment Center. Assessment-Center. Entwicklung und Anwendung - mit 57 AC-Übungen und Checklisten. (3., überarbeitete und aktualisierte Auflage). Berlin: Springer.
  • Ehret, A. & Stumpf, S. (2006). Interkulturelle Assessment Center: Anforderungen und Gestaltungsempfehlungen. Wirtschaftspsychologie, 8 (4), 20-30.
  • Eichstaedt, J. (2005). Online-Assessment-Center: Ein neues Paradigma. In K.-H. Renner, A. Schütz & F. Machilek (Hrsg.), Internet und Persönlichkeit. Differentiell-psychologische und diagnostische Aspekte der Internetnutzung (S. 315-326). Göttingen: Hogrefe.
  • Emrich, M. & Diehl, M. (2007). Flexibel versus charakterstark. Die Effekte situativen und dispositionellen Self-Monitorings im Assessment Center. Zeitschrift für Personalpsychologie, 6 (1), 2-11.
  • Fisseni, H.J. & Preusser, I. (2007). Assessment-Center: Eine Einführung in Theorie und Praxis. Göttingen: Hogrefe. (Buchbesprechungen von Petra Gelléri in Zeitschrift für Personalpsychologie, 2007, 6 (4), 179-180, und Anja Strobel in Report Psychologie, 2008, 33 (3), 142-143).
  • Glodek, R. (2006). Was man als Gruppenleiter den ganzen Tag so macht ... Entwicklung von Szenarien für Einzel-Assessment-Center. Wirtschaftspsychologie, 8 (4), 5-10.
  • Heilmann, K. (2009). Kompetenzentwicklung im Development- Center - Variationen der klassischen Assessment-Center- Methode. In S. Dlugosch & A. Teröde (Hrsg.) Eignungsdiagnostik im Wandel. Perspektiven - Trends - Konzepte (S. 127-148). Göttingen: Vandenhoeck & Ruprecht.
  • Höft, S. (2005). Assessment Center-Forschung und -Praxis: Zwei getrennte Welten? (Editorial). Zeitschrift für Personalpsychologie, 4 (4), 147-150.
  • Höft, S. & Lüth, N. (2006). Ein computerbasiertes Trainingstool für Assessment-Center-Beobachter. Wirtschaftspsychologie, 8 (4), 40-47.
  • Höft, S. & Melchers, K.G. (2010). Training von AC-Beobachtern: Worauf kommt es an? Wirtschaftspsychologie, 12 (2), 32-40
  • Höft, S. & Obermann, C. (2010). Der Praxiseinsatz von Assessment Centern im deutschsprachigen Raum: Eine zeitliche Verlaufsanalyse basierend auf den Anwenderbefragungen des Arbeitskreises Assessment Center e.V. von 2001 und 2008. Wirtschaftspsychologie, 12 (2), 5-16.
  • Höft, S. & Obermann, C. (2011). Die Qualität von Assessment Centern im deutschsprachigen Raum: Stabil mit Hoffnung zur Besserung. In P. Gelléri & C. Winter (Hrsg.), Potenziale der Personalpsychologie. Einfluss personaldiagnostischer Maßnahmen auf den Berufs- und Unternehmenserfolg (S. 249-268). Göttingen: Hogrefe.
  • Höft, S., Stumpf, S. & Sünderhauf, K. (Hrsg.). (2006). Assessment Center. Fundierte Lösungen für die Personalauswahl und -entwicklung (Themenheft). Wirtschaftspsychologie, 8 (4).
  • Holzenkamp, M., Spinath, F.M. & Höft, S. (2010). Wie valide sind Assessment Center im deutschsprachigen Raum? Eine Überblicksstudie mit Empfehlungen für die AC-Praxis. Wirtschaftspsychologie, 12 (2), 17-25.
  • John, M. (2007). Assessment Center. In M. John & G.W. Maier (Hrsg.), Eignungsdiagnostik in der Personalarbeit. Grundlagen, Methoden, Erfahrungen (S. 231-252). Düsseldorf: Symposium Publishing GmbH.
  • Kanning, U.P., Pöttker, J. & Gelléri, P. (2007). Assessment Center Praxis in deutschen Großunternehmen. Ein Vergleich zwischen wissenschaftlichem Anspruch und Realität. Zeitschrift für Arbeits- und Organisationspsychologie, 51 (4), 155-167.
  • Kersting, M. (2008). Zur Zukunft von Assessment-Center-Verfahren. Möglichkeiten der Qualitätssicherung und -optimierung. Personalführung, 41 (12), 72-80.
  • Kersting, M. (2010). Akzeptanz von Assessment Centern: Was kommt an und worauf kommt es an? Wirtschaftspsychologie, 12 (2), 58-65.
  • Klehe, U.-C., Kleinmann, M., Nieß, C. & Grazi, J. (2014). Impression management behavior in Assessment Centers: Artificial behavior or much ado about nothing? Human Performance, 27 (1), 1-24. -PSYNDEX-Lit Dok.-Nr. 0277633
  • Kleinmann, M. (2013). Assessment Center (2., überarbeitete und erweiterte Auflage) [Beilagen: Checkliste für Assessment Center; Standards zur Durchführung von Assessment Centern]. Göttingen: Hogrefe.
  • Krause, D.E. & Kersting, M. (2008). "Is it all about intelligence?" Kognitive Fähigkeitstests und Assessment Center: Ein neuer Blick auf eine kontrovers diskutierte Befundlage. In W. Sarges & D. Scheffer (Hrsg.), Innovative Ansätze für die Eignungsdiagnostik (S. 343-352). Göttingen: Hogrefe.
  • Krause, D.E., Kersting, M., Heggestad, E.D. & Thornton, G.C. (2006). Incremental validity of assessment center ratings over cognitive ability tests: A study at the executive management level. International Journal of Selection and Assessment, 14 (4), 360-371. -PSYNDEX-Lit Dok.-Nr. 0194368
  • Krause, D.E. & Thornton, G.C.III. (2007). Kulturelle Vielfalt und Assessment-Center. Handlungsempfehlungen für Forschung und Praxis. Führung + Organisation, 76 (4), 223-230.
  • Marggraf-Michel, C., Höft, S. & Bonnist, H. (2006). Practice und Coaching: Strategien zur Vorbereitung von Teilnehmern auf Assessment-Center-Verfahren. Wirtschaftspsychologie, 8 (4), 31-39.
  • Martinke, D. (2006). Evaluation personaldiagnostischer Instrumente unter Verwendung von Nutzenüberlegungen am Beispiel des Assessment-Centers. Unveröffentlichte Dissertation, Universität Bielefeld, Fakultät für Psychologie und Sportwissenschaften. -PSYNDEX-Lit Dok.-Nr. 0193389
  • Melchers, K.G., Henggeler, C. Kleinmann, M. (2007. Do within-dimension ratings in assessment centers really lead to improved construct validtiy? A meta-analytic reassessment. Zeitschrift für Personalpsychologie, 6 (4), 141-149.
  • Mönig, H. & Gröben, S. (2009). Der Online-Postkorb als Bestandteil eines klassischen Assessment-Centers bei der Deutschen Bahn AG. In H. Steiner (Hrsg.), Online-Assessment. Grundlagen und Anwendung von Online-Tests in der Unternehmenspraxis (S. 141-157). Berlin: Springer.
  • Neubauer, R. & Höft, S. (2006). Standards der Assessment-Center-Technik - Version 2004. Überblick und Hintergrundinformationen. Wirtschaftspsychologie, 8 (4), 77-82.
  • Obermann, C. (2006). Evaluation eines Assessment-Centers - Wie geht das, wenn nur wenige Außenkriterien vorliegen? Wirtschaftspsychologie, 8 (4), 68-76.
  • Obermann, C. (2006). Assessment-Center. Entwicklung - Durchführung - Trends (3., überarbeitete und erweiterte Auflage). Wiesbaden: Gabler. (Buchbesprechung von Stefan Höft in Wirtschaftspsychologie, 2006, 8 (4), 85-86).
  • Obermann, C. (2013). Assessment-Center. In A. Frey, U. Lissmann & B. Schwarz (Hrsg.), Handbuch Berufspädagogische Diagnostik (S. 216-233). Weinheim: Beltz.
  • Obermann, c. & Höft, S. (2008). Assessment-Center: Entwicklung statt Auswahl. Wirtschaftspsychologie aktuell, 3, 18-20.
  • Paschen, M., Weidemann, A., Turck, D. & Stöwe, C. (2005). Assessment Center professionell: Worauf es ankommt und wie Sie vorgehen (2., erweiterte Auflage). Göttingen: Hogrefe.
  • Prechtl, E. (2009). Interkulturelles Assessment Center - Prognosekraft für Auslandsentsendungen und multikulturelle Gruppen. Lengerich: Pabst.
  • Prechtl, E. (2010). Eine Studie zur Vorhersagekraft eines interkulturellen Assessment Centers. Wirtschaftspsychologie, 12 (2), 41-49.
  • Püttjer, C. & Schnierda, U. (2006). Assessment-Center-Training für Führungskräfte. Die wichtigsten Übungen - die besten Lösungen. Frankfurt: Campus.
  • Sarges, W. (2013). Kritik an der Assessment-Center-Praxis. In W. Sarges (Hrsg.), Management-Diagnostik (4., vollständig überarbeitete und erweiterte Auflage) (S. 819-824). Göttingen: Hogrefe.
  • Schuler, H. (2007). Spielwiese für Laien? Weshalb das Assessment-Center seinem Ruf nicht mehr gerecht werden kann. Wirtschaftspsychologie aktuell, 14 (2), 27-30.
  • Schuler, H. (Hrsg.). (2007). Assessment Center zur Potenzialanalyse. Göttingen: Hogrefe. [397 Seiten, Euro 49,95] (Buchbesprechungen von Anja Strobel in Report Psychologie, 33 (5), 252-253, Christof Obermann in Zeitschrift für Personalpsychologie, 2007, 8 (1), S. 41).
  • Schulze Versmar, K., Thomas, E. & Kersting, M. (2007). Wissen, was gefordert wird. Personalmarketing. Die soziale Akzeptanz von Assessment Centern. PersonalMagazin, 08/2007, 20-22.
  • Strobel, A., Lammerskitten, E. & Glodek, R. (2010). Die Interview-Standards des Arbeitskreises Assessment Center e.V. - Entwicklung, Inhalte, Nutzen. Wirtschaftspsychologie, 12 (2), 26-31.
  • Sünderhauf, K., Stumpf, S. & Höft, S. (Hrsg.). (2005). Assessment Center - Von der Auftragsklärung bis zur Qualitätssicherung. Ein Handbuch von Praktikern für Praktiker. Lengerich: Pabst. (Rezension von Anna Koch in Report Psychologie, 2005, 30 (9), 377-378)
  • Teröde, A. (2009). Assessment Center im internationalen Kontext - Welche rolle spielt "Kultur"? In S. Dlugosch & A. Teröde (Hrsg.), Eignungsdiagnostik im Wandel. Perspektiven - Trends - Konzepte (S. 149-176). Göttingen: Vandenhoeck & Ruprecht.
  • Thomas & Schölmerich, (2011). Potenziale oder Kompetenzen? Diagnostik mit einem Potenzial-Assessment-Center. Zeitschrift Führung + Organisation, 80 (1), 36-41.
  • Thornton, G.C. III & Rupp, D.E. (2006). Assessment Centers in human resource management: Strategies for prediction, diagnosis, and development. Mahwah: Lawrence Erlbaum Associates, Inc. (Buchbesprechung von Siegfried Stumpf in Wirtschaftspsychologie, 2006, 8 (4), 83-84).
  • Timmermann, P. (2006). Von der Hochseilstation ins Labyrinth. Innovatives Outdoor AC verspricht hohe Prognosequalität. Kommunikation & Seminar, 15 (5), 21-24.
  • Warneke, C.M. (2007). Analytisches und strategisches Denken im Assessment Center. Evaluation einer sprachfreien Gruppenübung. Saarbrücken: VDM Verlag Dr. Müller.
  • Westermann, F. (2007). Anwendungsmöglichkeiten des Entwicklungsquadrates im Assessment Center. In F. Westermann (Hrsg.), Entwicklungsquadrat. Theoretische Fundierung und praktische Anwendungen (S. 59-68). Göttingen: Hogrefe.
  • Wirz, A., Melchers, K. G., Schultheiss, S. & Kleinmann, M. (2014). Are improvements in Assessment Center construct-related validity paralleled by improvements in criterion-related validity? The effects of exercise similarity on Assessment Center validity. Journal of Personnel Psychology, 13 (4), 184-193.
  • - WEITERE LITERATUR:
  • Kanning, U.P. (Hrsg.). (2004). Standards der Personaldiagnostik (S. 433-479: Assessment Center, darin S. 477-479: "Standards für Assessment Center"). Göttingen: Hogrefe.
 

Rezensionen

  • Fesefeldt, J. (2016). Nützliche Diagnostik oder Gaukelwerk? Überlegungen zur Qualität des Assessment-Centers. Wirtschaftspsychologie aktuell, 23 (3), 9-12.
  • Fisseni, H.-J. (2003). Fay, E. (Hrsg.). (2002). Das Assessment-Center in der Praxis. Konzepte - Erfahrungen - Innovationen (Buchbesprechungen). Zeitschrift für Personalpsychologie, 2 (3), 149-152.
  • Hossiep, R. (1994). Das Assessment-Center (Aus der Arbeit des Testkuratoriums). Diagnostica, 40 (1), 89-104.
  • Kanning, U. (2005). Kleinmann, M. (2003). Assessment Center (Reihe Praxis der Personalpsychologie. Band 3) (Buchbesprechungen). Zeitschrift für Arbeits- und Organisationspsychologie, 49 (1), 52-53.
  • Krause, D.E. (2007). Nur ein mittelmäßiger Mensch ist immer in Hochform - eine Sammelrezension zu aktuellen Assessment-Center-Büchern (Buchbesprechungen). Zeitschrift für Arbeits- und Organisationspsychologie, 51 (4), 192-200.
  • Sarges, W. (2013). Kritik an der Assessment-Center-Praxis. In W. Sarges (Hrsg.), Management-Diagnostik (4., vollständig überarbeitete und erweiterte Auflage) (S. 819-824). Göttingen: Hogrefe.
  • Whiler, A. (2014). Kleinmann, M. (2013). Assessment-Center (2., überarb. u. erw. Aufl.). Göttingen: Hogrefe. 128 Seiten, Euro 24,95 (Buchbesprechungen). Zeitschrift für Arbeits- und Organisationspsychologie, 58 (1), 41-42.
 
 Anne-Kathrin Mayer (30.03.2005)
 APA-Schlagworte/PSYNDEX Terms:

Classical Test Theory; Criterion Referenced Tests; Assessment Centers; Employment Tests; Management Personnel; Industrial and Organizational Psychology; Personnel Selection; Personnel Placement; Personnel Training; Personnel Evaluation; Job Applicant Screening; Achievement Potential; Organizational Behavior; Management Decision Making

Klassische Testtheorie; Kriteriumsorientierte Tests; Assessment-Center; Personalauslesetests; Führungskräfte; Arbeits- und Organisationspsychologie; Personalauswahl; Personalplatzierung; Personalschulung; Personalbeurteilung; Bewerberauslese; Leistungspotenzial; Organisationsverhalten; Entscheidungsfindung im Management

 weitere Schlagworte:

1956; Testbatterie; Anforderungsprofil; Mehrfachbeurteilung; Methodenvielfalt
 Klassifikation:

Berufs- und arbeitspsychologische Tests; Personalmanagement, Personalauslese und Personalausbildung; Management und Managementtraining
Personalauswahl- und Personalbeurteilungsverfahren sowie Assessment-Center-Verfahren; Auslesetests
7.3.2.4; 4.4
 Anwendungstyp: Selection
 Art der Publikation: Test; Other Publication (90; 922)
 Sprache: German
 Übersetzungen: English
 Land: United States
 Publikationsjahr: 1996
 Änderungsdatum: 201605
 info@leibniz-psychology.org | © 1996-2018 ZPID