Tẹsttheorie,
1) Psychologie: Bezeichnung für das formale System syntaktischer Basisannahmen (die Axiome) und die daraus abgeleiteten Verfahrensvorschriften, an denen sich die Konstruktion psychologischer Tests orientiert. Die Testtheorie wurde 1950 von Harold Gulliksen (* 1903, ✝ 1996) formuliert und 1968 von Frederic Mather Lord (* 1912, ✝ 2000) und Melvin Robert Novick (* 1932) überarbeitet und systematisiert. Die klassische Testtheorie basiert auf drei Axiomen: Das Existenzaxiom besagt, dass zu jedem mit einem Test gemessenen Wert einer Person grundsätzlich ein wahrer Wert existiert, der eine Aussage über den Ausprägungsgrad eines über die Zeit konstanten Merkmals zulässt. Das Fehleraxiom stellt fest, dass jeder Testwert mit einem Messfehler behaftet ist und dieser der Zufallsverteilung (Normalverteilung) unterliegt. Das Verknüpfungsaxiom besagt, dass jeder mit einem Test erhobene Wert zusammengesetzt ist aus einem wahren und einem Fehlerwert. Aus der Testtheorie leiten sich die Voraussetzungen für die Testgütekriterien ab. Nahezu alle praktisch bedeutsamen Tests sind nach diesen Kriterien entwickelt.
Das in vielerlei Hinsicht nur bedingt zulängliche Konzept der klassischen Testtheorie machte weitere Testtheorien erforderlich. Die probabilistische Testtheorie baut im Gegensatz zur klassischen auf der Annahme auf, dass die zu erfassenden psychischen Merkmale als »latente Dimensionen« (englisch latent traits) nicht mit dem beobachteten Testverhalten gleichgesetzt werden können. Damit werden überprüfbare Hypothesen über die Beziehungen zwischen latenter Dimension und bestimmten Stichproben definierbar, die zu populationsunabhängigen Schätzwerten für die Ausprägung der latenten Merkmalsdimension bei einem Individuum führen sollen. Das bisher bekannteste Modell zur Überprüfung solcher Beziehungen ist das 1960 von dem Dänen Georg Rasch (* 1901, ✝ 1980) entwickelte Rasch-Modell. Nach probabilistischen Testmodellen sind bis heute nur wenige Tests entwickelt worden.
C. Michel u. W. Conrad: Theoret. Grundl. psychometr. Tests, in: Grundl. psycholog. Diagnostik., hg. v. K.-J. Groffmann u. a. (1982);
2) mathematische Statistik: Gesamtheit von Verfahren zur Überprüfung von Annahmen (Hypothesen) über die unbekannte Verteilung Q eines Merkmals (einer Grundgesamtheit) aufgrund einer Stichprobe x = (x1, x2,. .., xn). Ziel der Testtheorie ist die Konstruktion eines (statistischen) Tests (Testverfahren, Prüfverfahren), der eine vor Durchführung der Beobachtungen aufgestellte Nullhypothese H0 für gewisse Werte von x »statistisch gesichert« ablehnt oder (damit gleichbedeutend) eine gegenteilige Hypothese H1 (die Alternativ- oder Gegenhypothese) annimmt. Hierbei muss bekannt sein, dass die Wahrscheinlichkeitsverteilung Q zu einer Familie von parameterabhängigen Verteilungen Qϑ gehört (Verteilungsannahme, Statistik). Dabei werden die Hypothesen mithilfe des Parameters ϑ formuliert; ein Test zur Prüfung einer Hypothese heißt Parametertest, falls ϑ endlich dimensional ist. Die Nullhypothese ist häufig durch eine Maßzahl (wie Erwartungswert, Varianz) der Verteilung festgelegt. - Ist z. B. bekannt, dass die Taktfrequenz von Prozessoren eine Normalverteilung N (μ, σ2 ) mit unbekanntem Mittelwert μ (= ϑ) und bekannter Varianz σ2 besitzt und wird vermutet, dass die Taktfrequenz im Mittel oberhalb eines Sollwerts μ0 liegt, so wählt man als Nullhypothese die Aussage, dass die wahre, aber unbekannte Taktfrequenz kleiner als μ0 ist.
Ein statistischer Test ist festgelegt durch eine Stichprobenfunktion T (x), in der Testtheorie Testgröße oder Prüfgröße genannt, und einem Ablehnungsbereich (kritischer Bereich) A ⊂ ℝ. Der Test lehnt bei Vorliegen der Stichprobe x die Nullhypothese genau dann ab, wenn T (x) in A liegt. Häufig ist T (x) ein »guter« Schätzer der die Nullhypothese definierenden Maßzahl. In obigem Beispiel wählt man für T (x) den Mittelwert x̅ und für A ein Intervall der Form A = (c, ∞) mit einer noch zu bestimmenden hinreichend großen Zahl c, da dann bei Vorliegen von H0 die Zahl T (x) nur für wenige Stichproben in A liegt.
In der Testtheorie werden Fehler 1. und 2. Art unterschieden. Ein Test begeht einen Fehler 1. Art, wenn er H0 irrtümlich ablehnt. Signifikanztests zu einer vor Durchführung des Test festgelegten »kleinen« Irrtumswahrscheinlichkeit α (z. B. α = 0,05) sind durch die Eigenschaft definiert, dass für sie die maximale Wahrscheinlichkeit für einen Fehler 1. Art (ungefähr) gleich α ist. Die Zahl 1 — α heißt Sicherheitswahrscheinlichkeit. Die Wahl von α liegt im Ermessen des Testanwenders. Bei mehrfacher Anwendung des Tests wird also in höchstens 100 · α % der Fälle H0 irrtümlich abgelehnt. In obigem Beispiel liegt ein Signifikanztest für α = 0,05 vor, falls c = μ0 + 1,645 σ / gewählt wird. Er lehnt H0 genau dann ab, wenn x̅ signifikant (deutlich, nicht allein zufällig) den Sollwert μ0 überschreitet. Zur Konstruktion von Signifikanztests benötigt man das Verteilungsgesetz der Prüfgröße, die Test- oder Prüfverteilung, die bei den klassischen Tests Normal-, t-, Chi-Quadrat- und F-Verteilungen sind. - Ein Fehler 2. Art wird begangen, wenn man H0 irrtümlich nicht ablehnt, obwohl H1 vorliegt. I. Allgemeinen ist die maximale Wahrscheinlichkeit für einen Fehler 2. Art gleich 1 - α, also sehr hoch. Daher darf man, wenn T (x) nicht in A liegt, H0 nicht annehmen, sondern nur bis auf weiteres als (Arbeits-)Hypothese beibehalten. Zur Untersuchung der Wahrscheinlichkeit der Fehler 1. und 2. Art eines Tests wird dessen Gütefunktion benutzt. Sie gibt an, wie groß die Wahrscheinlichkeit der Ablehnung von H0 als Funktion des Parameters ϑ ist.
Komplizierte Probleme treten beim Testen von Hypothesen über mehrere Merkmale auf, z. B. beim T-Test (t-Verteilung) und beim F-Test. Nichtparametrische Tests, z. B. der Chi-Quadrat-Unabhängigkeitstest (Chi-Quadrat-Verteilung), behandeln Verteilungsannahmen, bei denen ϑ nicht endlich dimensional ist. Dazu gehören auch Anpassungstests (z. B. der Kolmogorow-Test) mit der Hypothese H0, dass Q eine vorgegebene stetige Verteilungsfunkion F0 besitzt. Solche Tests versuchen, einer Grundgesamtheit mit unbekannter Verteilungsfunkion eine Verteilungsfunktion F0 »anzupassen«.
Universal-Lexikon. 2012.