Citation Hunt

Das unten stehende Wikipedia-Snippet wird von keiner verlässlichen Quelle unterstützt. Kannst du eine finden?

Klicke auf Verstanden!, um zu Wikipedia zu gehen und das Snippet zu reparieren, oder Nächstes!, um ein anderes zu sehen. Viel Glück!

In Seite Statistischer Test:

"

In den meisten Fällen ist die exakte Wahrscheinlichkeitsverteilung der Teststatistik unter der Nullhypothese nicht bekannt. Man steht also vor dem Problem, dass kein kritischer Bereich zum vorgegebenen Niveau festgelegt werden kann. In diesen Fällen erweitert man die Klasse der zulässigen Tests auf solche, die asymptotisch das richtige Niveau besitzen. Formal bedeutet dies, dass man den Bereich K {\displaystyle K} so wählt, dass für alle θ Θ 0 {\displaystyle \theta \in \Theta _{0}} die Bedingung

erfüllt ist. In der Regel erhält man solche asymptotischen Tests via Normalapproximation; man versucht also, die Teststatistik so zu transformieren, dass sie gegen eine Normalverteilung konvergiert.

Einfache Beispiele hierfür sind der einfache und doppelte t-Test für Erwartungswerte. Hier folgt die asymptotische Verteilung direkt aus dem zentralen Grenzwertsatz in der Anwendung auf das arithmetische Mittel.

Daneben gibt es aber eine Reihe weiterer statistischer Methoden, die die Herleitung der asymptotischen Normalverteilung auch für kompliziertere Funktionale erlauben. Hierunter fällt die Delta-Methode[1] für nichtlineare, differenzierbare Transformationen asymptotisch normalverteilter Zufallsvariablen:

Sei c : R p R q {\displaystyle c\colon R^{p}\rightarrow R^{q}} eine differenzierbare Funktion und sei ein Schätzer β ^ R p {\displaystyle {\hat {\beta }}\in R^{p}} n {\displaystyle {\sqrt {n}}} -normalverteilt mit asymptotischer Kovarianzmatrix V {\displaystyle V} , dann hat n 0 , 5 ( β ^ β ) {\displaystyle n^{0,5}({\hat {\beta }}-\beta )} folgende Verteilung: N ( 0 , ( c / β ) V ( c / β ) ) {\displaystyle {\mathcal {N}}(0,(\partial c/\partial \beta )'V(\partial c/\partial \beta ))} .

Ferner hat die nichtparametrische Delta-Methode (auch: Einflussfunktionsmethode) einige Fortschritte gebracht:

Sei T ( F ) {\displaystyle T(F)} ein Funktional, das von der Verteilung F {\displaystyle F} abhängt. Sei L ( x ) lim δ 0 ( T ( ( 1 δ ) F + δ G ) T ( F ) ) / δ ) {\displaystyle L(x)\equiv \lim _{\delta \rightarrow 0}(T((1-\delta )F+\delta G)-T(F))/\delta )} die Gâteaux-Ableitung der Statistik bei F {\displaystyle F} (Einflussfunktion) und sei T {\displaystyle T} Hadamard-differenzierbar bezüglich sup x | F ( x ) G ( x ) | {\displaystyle \sup _{x}|F(x)-G(x)|} , dann hat n ( T ( F ^ ) T ( F ) ) {\displaystyle {\sqrt {n}}(T({\hat {F}})-T(F))} folgende Verteilung: N ( 0 , L ( x ) 2 d F ( x ) ) {\displaystyle {\mathcal {N}}\left(0,\int L(x)^{2}\mathrm {d} F(x)\right)} .

Die Deltamethode erlaubt Normalverteilungsapproximationen für nichtlineare, differenzierbare Transformationen (asymptotisch) normalverteilter Zufallsvariablen, während die Einflussfunktionsmethode solche Approximationen für viele interessante Charakteristika einer Verteilung zulässt. Darunter fallen u. a. die Momente (also etwa: Varianz, Kurtosis usw.), aber auch Funktionen dieser Momente (etwa: Korrelationskoeffizient).

Eine wichtige weitere Anforderung an einen guten Test ist, dass er bei wachsendem Stichprobenumfang empfindlicher wird. In statistischen Termini bedeutet dies, dass bei Vorliegen einer konsistenten Teststatistik die Wahrscheinlichkeit dafür steigt, dass die Nullhypothese auch tatsächlich zu Gunsten der Alternativhypothese verworfen wird, falls sie nicht stimmt. Speziell wenn der Unterschied zwischen dem tatsächlichen Verhalten der Zufallsvariablen und der Hypothese sehr gering ist, wird er erst bei einem entsprechend großen Stichprobenumfang entdeckt. Ob diese Abweichungen jedoch von praktischer Bedeutung sind und überhaupt den Aufwand einer großen Stichprobe rechtfertigen, hängt von dem zu untersuchenden Aspekt ab.