Themen: Einführung, Testtheorie, Leistungs- und Persönlichkeitstests, Normierung, Projektive Verfahren, Dark Triad
of Personality (TOP), Vertrauensintervall, Standardmessfehler, Kritische Differenz
Was sind Diagnostische Verfahren? (Teil 1)
Definition
Psychologische Diagnostik ist eine Teildisziplin der Psychologie. Sie dient der Beantwortung von
Fragestellungen, die sich auf die Beschreibung, Klassifikation, Erklärung oder Vorhersage menschlichen
Verhaltens und Erlebens beziehen.
Sie schließt die gezielte Erhebung von Informationen über das Verhalten und Erleben eines oder mehrerer
Menschen sowie deren relevanter Bedingungen ein.
Die erhobenen Informationen werden für die Beantwortung der Fragestellung interpretiert. Das diagnostische
Handeln wird von psychologischem Wissen geleitet.
Zur Erhebung von Informationen werden Methoden verwendet, die wissenschaftlichen Standards genügen.
Abgrenzung
Psychologische Diagnostik ist nicht:
- Reines Testen: Testen ist nur eine von mehreren Methoden der Datenerhebung
- Medizinische Diagnostik: Dort stehen körperliche Merkmale im Fokus, nicht Verhalten/Erleben von
Menschen
- Evaluation: „Evaluation ist die systematische Untersuchung des Nutzens oder Wertes eines
Gegenstandes. Solche Evaluationsgegenstände können z. B. Programme, Projekte, Produkte,
Maßnahmen, Leistungen, Organisationen, Politik, Technologie oder Forschung sein“
Anwendungsgebiete
- Leitgedanke: Erst Diagnose, dann Intervention.
- Einsatz in vielen Feldern der Psychologie (z. B. klinisch, pädagogisch, wirtschaftspsychologisch, forensich…)
Der Diagnostische Prozess (lässt sich in fünf Schritte unterteilen):
Schritt 1: Formulierung der globalen Fragestellung
Schritt 2: Differenzierung der globalen Fragestellung in dafür in Frage kommende Teilfragen (sog.
„psychologische Fragen“)
Schritt 3: Auswahl der zur Beantwortung der Teilfragen bestmöglichen diagnostischen Instrumente
Schritt 4: Durchführung und Auswertung der diagnostischen Instrumente
1
,Schritt 5: Integration der Ergebnisse zur Beantwortung der Teilfragen und der globalen Fragestellung
Diagnostische Verfahren in der Wirtschaftspsychologie
- Leistungs- und Persönlichkeitsdiagnostik: Untersuchungsgegenstand ist Erleben/Verhalten von Individuen
-> konstruktorientierte Verfahren, bspw.: Führungsverhaltensdiagnostik
- Arbeitsanalyse: Untersuchungsgegenstand sind die Bedingungen von Arbeit -> bspw.: Analyse physischer &
psychischer Anforderungen
- Organisationsdiagnostik: Untersuchungsgegenstand sind Aspekte von Organisation -> bspw.:
Mitarbeiterbefragungen
Psychologische Konstrukte…
- … sind Fähigkeiten, Fertigkeiten, Eigenschaften, Einstellungen und Zustände von Personen,
die intrapersonal stabil (wie über einen langen Zeitraum verantwortungsbewusst) und interpersonal
variabel (wie gut kompatibel mit vielen verschiedenen Kollegen) sein sollen
Konstruktorientierte Verfahren
è Vorgehen:
- Erfassen nicht direkt beobachtbarer Eigenschaften einer Person -> Konstruktvalidität beachten!
- es wird davon auf eine nicht unmittelbar beobachtbare Eigenschaft der Person geschlossen ->
Kriteriumsvalidität beachten!
- anhand der Ausprägung der Personenmerkmals wird auf den zu erwartenden Erfolg geschlossen
è Validität rtc – Misst der Test das, was er messen soll?
è Validität = gibt an, wie gut der Test in der Lage ist, genau das zu messen, was er zu messen vorgibt
è 2 Arten von Validität:
1. Konstruktvalidität = Misst der Test tatsächlich das untersuchte Konstrukt?
- Konvergent: Hohe Korrelation mit Tests ähnlicher Konstrukte
- Diskriminante Validität: Geringe Korrelation mit Tests unähnlicher Konstrukte
2
, 2. Kriteriumsvalidität = Kann anhand des Merkmals (z. B. Intelligenz) ein Kriterium (z. B. Arbeitsleistung)
vorhergesagt werden?
- Prädiktiv: Test sagt zukünftiges Verhalten/Leistung voraus
- Konkurrent: Test (wie Intelligenztest) korreliert mit gleichzeitig erhobenen Außenkriterien (wie Schulnoten)
✅ Bewertung:
- unter .40 = niedrig
- .40 – .60 = mittel
- über .60 = hoch
Überblick über Diagnostische Verfahren
• Leistungs- und Intelligenztests (z. B. d2, IST-70)
• Subjektive Persönlichkeitstests (z. B. BIP, NEO-FFI, FEEL-E)
è ca. 80% aller Diagnostischer Verfahren gehören zu oberen beiden Testkategorien
• Objektive Verfahren (z. B. OLMT)
• Projektive Verfahren (z. B. Rorschach, TAT)
• Verhaltensbeobachtung/-beurteilung
• Diagnostisches Interview
Wie prüft man, ob Objektivität, Reliabilität und Validität gegeben sind und wie kann man sie nachträglich
verbessern?
Objektivität (3 Arten)
a) Durchführungsobjektivität: Standardisierte Instruktionen; Gleiche Testbedingungen (Zeit, Material, Raum)
- Prüfung: Vergleich der Testergebnisse bei unterschiedlichen Testleitern -> keine systematischen
Unterschiede → Objektivität gegeben
b) Auswertungsobjektivität: klare Auswertungsregeln; Punkteschlüssel/Schablonen
- Prüfung: zwei Personen werten denselben Test aus → identische Ergebnisse → Objektivität gegeben
c) Interpretationsobjektivität: Normtabellen; klare Interpretationsrichtlinien
- Prüfung: verschiedene Diagnostiker kommen zur gleichen Interpretation
3
, Reliabilität – Messgenauigkeit/Zuverlässigkeit/wie wenig Messfehler
- je nach Reliabilitätsart:
a) Interne Konsistenz
- Prüfung, ob Items dasselbe Konstrukt messen (Kennwert: Cronbachs α): Item-Analyse, Item-Gesamtwert-
Korrelation, Faktorenanalyse
b) Retest-Reliabilität
- derselbe Test zu zwei Zeitpunkten -> Korrelation der beiden Messungen: hohe Korrelation → stabile Messung
c) Paralleltest-Reliabilität
- zwei gleichwertige Testformen (Form A/B) -> Korrelation der Ergebnisse
Validität – Gültigkeit (misst der Test das richtige Konstrukt?)
- man unterscheidet mehrere Validitätsarten:
a) Inhaltsvalidität: Experten beurteilen, ob Items das Konstrukt abdecken -> theoretische Prüfung
b) Kriteriumsvalidität: Vergleich mit externem Kriterium -> Korrelation mit Leistung, Verhalten, Erfolg
- Beispiele: Test ↔ Schulnote; Test ↔ Arbeitsleistung
c) Konstruktvalidität: Konvergente Validität (hohe Korrelation mit ähnlichen Tests), Diskriminante Validität (geringe
Korrelation mit unähnlichen Tests), Faktorielle Validität (richtige Faktorenstruktur)
- Objektivität – am leichtesten nachträglich zu verbessern…
- durch… Instruktionen präzisieren, Durchführung stärker standardisieren, klare
Auswertungsschlüssel erstellen, Interpretationsrichtlinien ergänzen
- geht oft ohne neue Datenerhebung
- Beispiel: Unklare Bewertung offener Antworten
→ Einführung eines Punkteschemas
→ Auswertungsobjektivität steigt
- Reliabilität – teilweise nachträglich verbesserbar…
- durch… Items mit schlechter Trennschärfe entfernen, Items überarbeiten (klarer formulieren), Test
verlängern (mehr gute Items), Parallelformen einsetzen
- meist ist dafür eine neue Datenerhebung nötig
- Validität – am schwierigsten nachträglich zu verbessern (Validität hängt davon ab, ob der Test
überhaupt das richtige Konstrukt misst -> lässt sich nicht einfach „reparieren“)…
- durch… Interpretation einschränken („misst eher X als Y“), neue Validierungsstudien durchführen,
zusätzliche Skalen ergänzen, Test theoretisch neu fundieren
- wenn das Konstrukt falsch operationalisiert ist → Neukonstruktion nötig
4