Wie weit können Messwerte vom Mittelwert abweichen?

Wenn wir eine Größe oft gemessen haben, möchten wir statt allen Messwerten einfach einen typischen Wert angeben. Wie groß ist z.B. das typische Einkommen aller Österreicher? Oft wird dafür das arithmetische Mittel \bar{x} verwendet, das eigentlich der Schwerpunkt der Messwerte ist. (Zur Diskussion Mittelwert oder Median wird es noch einen Artikel geben.)

Die einzelnen Messwerte streuen mehr oder weniger weit um diesen Mittelwert. Ein Maß für die Streuung ist die Standardabweichung s_n. Als typischer Bereich der Werte wird oft das Intervall [\bar{x}-s_n;\bar{x}+s_n] verwendet.

Aber wie viele Werte sind wirklich in diesem Bereich bzw. wie weit können die Messwerte überhaupt vom Mittelwert abweichen? Wie wir sehen werden, ist [\bar{x}-\sqrt{2}\,s_n;\bar{x}+\sqrt{2}\,s_n] der Bereich, in dem garantiert mindestens die Hälfte der Messwerte liegt. Und typisch kann ja nur etwas sein, was zumindest für die Hälfte zutrifft. Darüber hinaus liegen sicher alle n Messwerte im Intervall [\bar{x}-\sqrt{n-1}\cdot s_n;\bar{x}+\sqrt{n-1}\cdot s_n].

Arithmetisches Mittel und Standardabweichung

Für die n Messwerte x_1, x_2, …, x_n berechnen wir den Mittelwert \bar{x} mit

\displaystyle\bar{x}=\frac{1}{n}\cdot\sum_{i=1}^nx_i\,.

Die Varianz s_n^2 ist die mittlere quadratische Abweichung vom Mittelwert

\displaystyle s_n^2=\frac{1}{n}\cdot\sum_{i=1}^n(x_i-\bar{x})^2\,,

und die Standardabweichung ist die Wurzel aus der Varianz

\displaystyle s_n=\sqrt{\frac{1}{n}\cdot\sum_{i=1}^n(x_i-\bar{x})^2}\,.

Die Tschebyschow-Ungleichung

Durch das Quadrat sind alle Summanden in der Varianz positiv (oder 0); lassen wir einen Teil davon weg, kann die Summe daher nur kleiner werden. Deshalb gilt

\displaystyle s_n^2\geq\frac{1}{n}\cdot\sum_{\lvert x_i-\bar{x}\rvert\geq a}(x_i-\bar{x})^2\,,

weil wir jetzt nur die Messwerte x_i nehmen, die mindestens a vom Mittelwert \bar{x} abweichen (in beide Richtungen).

Es mag überraschen, dass die Summe der Abstandsquadrate kleiner wird, wenn wir die Werte nahe beim Mittelwert weglassen. Aber die Varianz ist eben die Summe über die Werte mit großem und kleinem Abstand.

Wenn \lvert x_i-\bar{x}\rvert\geq a ist, muss aber auch (x_i-\bar{x})^2\geq a^2 sein, woraus

\displaystyle s_n^2\geq\frac{1}{n}\cdot\sum_{\lvert x_i-\bar{x}\rvert\geq a}a^2=\frac{a^2}{n}\cdot\sum_{\lvert x_i-\bar{x}\rvert\geq a}1

folgt. Die letzte Summe zählt einfach die Anzahl der Messwerte, die mindestens den Abstand a vom Mittelwert haben.

Dividieren wir die letzte Ungleichung noch durch a^2, erhalten wir

\displaystyle\boxed{\frac{1}{n}\cdot\sum_{\lvert x_i-\bar{x}\rvert\geq a}1\leq\frac{s_n^2}{a^2}}\,.

Die linke Seite ist der Bruchteil der Messwerte, deren Abstand vom Mittelwert mindestens a beträgt. Und dieser Bruchteil nimmt mit zunehmendem Abstand a zumindest quadratisch ab. Das ist die Tschebyschow-Ungleichung für Messwerte.

Dabei sind die n Messwerte x_1, \ldots, x_n und ihre Varianz s_n^2 fix. Was wir uns aussuchen können ist der Abstand a und daraus erhalten wir den maximalen Bruchteil der Messwerte mit Mindestabstand a zum Mittelwert; oder wir suchen uns umgekehrt den Bruchteil aus und erhalten den Abstand a.

Messen wir den Abstand in Standardabweichungen, a=k\cdot s_n, erhalten wir die Variante

\displaystyle\frac{1}{n}\cdot\sum_{\lvert x_i-\bar{x}\rvert\geq k\cdot s_n}1\leq\frac{1}{k^2}

für den Bruchteil, der mindestens k Standardabweichungen weit weg ist.

Für k=1 ergibt sich, dass alle Messwerte mindestens eine Standardabweichung abweichen können; mit k=2 können nur maximal ein Viertel der Werte zwei Standardabweichungen oder mehr weg sein; und mit k=3 folgt, dass nur ein Neuntel der Messwerte über drei Standardabweichungen vom Mittel weg sein kann.

Abschätzung des Bruchteils

Umgekehrt ist der Bruchteil b der Messwerte, die näher als k Standardabweichungen beim Mittelwert liegen, mindestens

\displaystyle\begin{aligned}b=\frac{1}{n}\cdot\sum_{\lvert x_i-\bar{x}\rvert<k\cdot s_n}1&=1-\frac{1}{n}\cdot\sum_{\lvert x_i-\bar{x}\rvert\geq k\cdot s_n}1\\&\geq1-\frac{1}{k^2}\,.\end{aligned}

Für k=\sqrt{2} wird die rechte Seite gleich 1/2. Egal welche Messung wir durchführen, mindestens die Hälfte der Messwerte liegt näher als \sqrt{2}\,s_n beim Mittelwert \bar{x}. Ohne weiteres Wissen über den Ursprung der Messwerte können wir nichts Genaueres aussagen.

Wenn wir viele Werte aus einer Normalverteilung ziehen (s.u.), könnten wir sogar sagen, dass rund 2/3 der Werte innerhalb einer Standardabweichung um den Mittelwert liegen. Für diese viel schärfere Aussage benötigen wir aber zusätzliches Wissen.

Interessant ist, wie viel Standardabweichungen k wir für einen vorgegebenen Bruchteil b maximal vom Mittelwert weg sein können. Formen wir die letzte Ungleichung auf k um, erhalten wir

\displaystyle k\leq\frac{1}{\sqrt{1-b}}\,.

Abb. 1 zeigt das Resultat. Die blaue Kurve ist die maximale Abweichung aus der Tschebyschow-Ungleichung. Die Abweichungen beliebiger Messungen können nicht größer sein, wir sind also sicher irgendwo in der blau schattierten Fläche.

Abb. 1: Die Tschebyschow-Ungleichung ergibt für jeden Bruchteil der Messwerte eine maximale Abweichung vom Mittelwert, gemessen in Standardabweichungen. Egal mit welchen Messwerten, wir liegen sicher in der blau schattierten Fläche.

Die Hälfte der Messwerte haben maximal den Abstand \sqrt{2}\,s_n, zwei Drittel maximal \sqrt{3}\,s_n und drei Viertel maximal 2\,s_n.

Beispiele

1. Nehmen wir zunächst an, wir haben die drei Werte -1, 0 und 1 gemessen. Offensichtlich ist \bar{x}=0 und die Standardabweichung ist

s_n=\displaystyle\sqrt{\frac{1}{3}\cdot\bigl[(-1-0)^2+(0-0)^2+(1-0)^2\bigr]}=\sqrt{\frac{2}{3}}\approx0.82\,.

Von den drei Zahlen ist eine gleich dem Mittelwert, hat also den Abstand 0. Die beiden anderen haben jeweils den Abstand 1, sind also \sqrt{\frac{3}{2}}\cdot s_n\approx1.22\,s_n weit weg.

Ein Drittel der Messwerte hat also maximalen Abstand 0, die zwei anderen Drittel haben maximalen Abstand 1.22\,s_n. Diese Anteile sind durch die zwei Geradenstücke in Abb. 2 dargestellt. Prinzipiell kann man diese Geradenstücke auch als stückweise konstante Funktion auffassen. Solange der Bruchteil kleiner gleich 1/3 ist, ist die maximale Abweichung 0; wenn der Bruchteil größer als 1/3 ist, dann ist die maximale Abweichung 1=1.22\,s_n.

Abb. 2: Abweichungen der Messwerte -1, 0 und 1 von ihrem Mittelwert (rot). Die strichlierte Linie ist die maximale Abweichung dieser Messwerte nach der Samuelson-Ungleichung (s.u.).

An Sprungstellen von einem Geradenstück zum nächsten, gehört der Punkt zum unteren Stück, ist am oberen daher mit einem offenen Kreis markiert. Wenn man viele Messwerte und Abstände zum Mittelwert hat, werden die Geradenstücke kürzer und die Endpunkte wandern aufeinander zu. Im Grenzfall von unendlich vielen Abständen werden aus den Geradenstücken einzelne Punkte, die auf einer Kurve liegen (s.u.).

2. Nehmen wir an, wir hätten die vier Messwerte -1, 0, 0 und 1. Der Mittelwert ist wieder 0, und die Standardabweichung s_n=\sqrt{\frac{1}{2}}\approx0.71 ist etwas kleiner. Hier hat die eine Hälfte der Messwerte maximal die Abweichung 0 und die andere Hälfte maximal die Abweichung 1=\sqrt{2}\,s_n\approx1.41\,s_n (s. Abb. 3).

Abb. 3: Wie Abb. 2, aber für die Messwerte -1, 0, 0 und 1.

3. Die Messwerte -1, 8-mal die 0 und 1 legen den Sprung zu einem noch größeren Bruchteil der Messwerte. Der Mittelwert ist weiter 0, die Standardabweichung ist nun noch kleiner mit s_n=\sqrt{\frac{1}{5}}\approx0.45. Acht von zehn Werten haben daher die Abweichung 0 vom Mittelwert, und 2 jeweils den Abstand 1=\sqrt{5}\,s_n\approx2.34\,s_n (s. Abb. 4).

Abb. 4: Wie Abb. 2, aber für die Messwerte -1, 0, 0, 0, 0, 0, 0, 0, 0 und 1.

Die drei Beispiele haben gezeigt, dass Sprünge an die Grenze der Tschebyschow-Ungleichung herankommen können – es also keine allgemein gültige, schärfere Abschätzung geben kann. Mit vielen Werten nahe des Mittelwerts und ein paar weiter weg können diese Sprünge bei jedem beliebig großen Bruchteil der Messwerte auftreten.

4. Als letztes Beispiel nehmen wir die sechs Messwerte -3,-2, -1, 1, 2 und 3. Der Mittelwert ist wieder 0, und die Standardabweichung ist diesmal s_n=\sqrt{\frac{14}{3}}\approx2.16. Ein Drittel der Messwerte weicht maximal 1=\sqrt{\frac{3}{14}}\cdot s_n\approx0.46\,s_n vom Mittelwert ab, ein weiteres Drittel um 2=\sqrt{\frac{2^2\cdot3}{14}}\cdot s_n\approx0.93\,s_n und das letzte Drittel um maximal 3=\sqrt{\frac{3^2\cdot 3}{14}}\cdot s_n\approx1.39\,s_n (s. Abb. 5). Hier haben wir also mehrere Sprünge, von denen keiner an die Grenzkurve herankommt.

Abb. 5: Wie Abb. 2, aber für die Messwerte -3, -2, -1, 1, 2 und 3.

Verschiebungen und Skalierungen

Wenn wir zu allen Messwerten dieselbe Zahl addieren, verschiebt sich auch der Mittelwert um diese Zahl, weil sie in jedem Summanden drinsteckt. Daher ändern sich die Abstände zum Mittelwert dadurch gar nicht.

Würden wir statt der Messwerte -1, 0, 0 und 1 in Abb. 3 z.B. die Werte 5, 6, 6 und 7 nehmen, würde sich an Abb. 3 genau nichts ändern.

Ähnlich ist es, wenn wir alle Werte mit derselben Zahl (> 0) multiplizieren. Dieser Faktor steckt in allen Werten, kann daher aus der Summe für den Mittelwert herausgehoben werden, und multipliziert daher ebenfalls den Mittelwert. In der Standardabweichung kann man das Quadrat dieses Faktors aus der Summe herausheben, durch die Wurzel wird es aber wieder derselbe Faktor. Die Abstände werden jetzt zwar mitskaliert, aber wenn wir sie in Einheiten der Standardabweichung messen, ändert sich wieder nichts.

Würden wir die Werte hinter Abb. 3 mit 2 multiplizieren, hätten wir -2, 0, 0 und 2. Die Standardabweichung ist jetzt aber auch auf \sqrt{2} verdoppelt, wodurch sich an Abb. 3 wieder nichts ändern würde.

Wir können also beliebige Messwerte standardisieren, indem wir ihren Mittelwert subtrahieren und durch ihre Standardabweichung dividieren. Dann erhalten wir neue Werte mit Mittelwert 0 und Standardabweichung 1, der Vergleich mit der Tschebyschow-Ungleichung bleibt dabei unverändert.

Normalverteilung

Wie wir oben schon erwähnt haben, gilt die Tschebyschow-Ungleichung für beliebige Mengen von Messwerten. Wenn wir aber etwas mehr wissen, woher unsere Messwerte kommen, können wir die Grenzen meistens kleiner machen.

Eine stetige Zufallsvariable beschreibt im Wesentlichen das Verhalten von überabzählbar unendlich vielen Messwerten, speziell bezüglich Lage und Streuung. Die wichtigste dieser Verteilungen ist die Normalverteilung, deren Wahrscheinlichkeitsdichte in Abb. 6 gezeigt ist.

Wenn wir viele Zufallszahlen aus so einer Verteilung ziehen, dann kommen mehr Werte aus den Bereichen, wo die Wahrscheinlichkeitsdichte groß ist.

Abb. 6: Die Wahrscheinlichkeitsdichte einer (Standard-)Normalverteilung. Es gilt \sigma = 1.

Weil wir jetzt tatsächlich unsere Wahrscheinlichkeitsdichte kennen, können wir sofort die maximale Abweichung für den Bruchteil b berechnen. In Abb. 6 ist die grün schattierte Fläche jener Bruchteil b der Messwerte, die maximal k\cdot\sigma in beide Richtungen abweichen. (Für eine Verteilung übernimmt \sigma die Rolle von s_n.)

Eine für alle stetigen Verteilungen definierte Funktion ist die kummulative Verteilung \Phi(x), die den Flächeninhalt unter der Dichte von -\infty bis x berechnet. Aufgrund der Symmetrie unserer Dichte ist dieser rote Flächeninhalt gleich (1-b)/2. Damit haben wir die Gleichung

\displaystyle\Phi(-k\cdot\sigma)=\frac{1-b}{2}\,.

Mithilfe der Umkehrfunktion \Phi^{-1} können wir nach

\displaystyle k\cdot\sigma=-\Phi^{-1}\left(\frac{1-b}{2}\right)

auflösen, wobei für die Standardnormalverteilung \sigma=1 ist. In R wird die rechte Seite mittels des Befehls

-qnorm((1.0 - b)/2.0)

berechnet. Damit ergibt sich die grüne Kurve in Abb. 7, die wir mit

b <- seq(0.0, 2.0*pnorm(5.0) - 1.0,
         length.out = 500)
k <- -qnorm((1.0 - b)/2.0)
plot(b, k, type = "l",
     col = "darkgreen", lwd = 2)

zeichnen lassen können. Dabei ist 5.0 der Maximalwert für k.

Abb. 7: Vergleich der für alle Messungen geltenden Grenze aufgrund der Tschebyschow-Ungleichung (blau) und der speziell für eine Normalverteilung gültigen Grenze (grün).

Unser Wissen über die Normalverteilung ermöglicht jetzt engere Grenzen. Für 50% der Messwerte ist die maximale Abweichung vom Mittel 0.67\,\sigma statt 1.41\,s_n; für zwei Drittel der Werte 0.97\,\sigma statt 1.73\,s_n; und für drei Viertel der Werte 1.15\,\sigma statt 2\,s_n. Erst, wenn wir praktisch alle Messwerte erfassen wollen, müssen wir zu beliebig großen Abweichungen gehen.

Wenn wir eine endliche Menge an Zufallszahlen aus einer stetigen Verteilung ziehen, kann diese Stichprobe nicht exakt der Verteilung von überabzählbar unendlich vielen Werten entsprechen. Sie wird aber meistens in der »Nähe« liegen.

Ziehen wir z.B. 20 Werte aus einer Standardnormalverteilung, könnte sich Abb. 8 ergeben. Die Intervalle der Bruchteile sind zwar in der Nähe der grünen Normalverteilungskurve, liegen aber nicht ganz darauf.

Abb. 8: Wie Abb. 2, aber für eine Stichprobe vom Umfang 20, die aus einer Standardnormalverteilung gezogen wurde.

Wenn wir den Umfang der Stichprobe auf z.B. 2000 Werte erhöhen, erhalten wir Abb. 9. Die Geradenstücke sind jetzt kürzer als die Durchmesser der Punkte, wodurch sich praktische eine durchgehende Kurve ergibt. Diese folgt fast, aber noch nicht exakt der grünen Normalverteilungskurve.

Abb. 9: Wie Abb. 8, aber mit einer Stichprobe vom Umfang 2000. Die Samuelson-Grenze wäre hier bei \sqrt{2000-1}\approx44.7.

Für andere Verteilungen ergeben sich jeweils unterschiedliche Grenzkurven.

Die Samuelson-Ungleichung

Die Idee, dass wir durch Weglassen nicht-negativer Summanden eine Summe nur kleiner machen können, führt noch zu einer weiteren Abschätzung.

Wenn x_j irgendeiner der Messwerte x_1, \ldots, x_n ist, gilt nämlich

\displaystyle(x_j-\bar{x})^2\leq\sum_{i=1}^n(x_i-\bar{x})^2=n\cdot s_n^2\,.

Ziehen wir die Wurzel, erhalten wir links den Betrag, weil x_j-\bar{x} auch negativ werden könnte:

\lvert x_j-\bar{x}\rvert\leq\sqrt{n}\cdot s_n\,.

Weil x_j ein völlig beliebig Messwert war, kann keiner der Messwerte weiter als \sqrt{n} Standardabweichung vom Mittelwert weg sein.

Wie Paul Samuelson in den 1960ern herausfand (und andere schon davor …), lässt sich diese Schranke noch ein bisschen reduzieren. Die längliche Herleitung dazu habe ich in den Anhang verschoben. Die Samuelson-Ungleichung lautet jedenfalls

\displaystyle\boxed{\lvert x_j-\bar{x}\rvert\leq\sqrt{n-1}\cdot s_n}\,.

Alle, also 100% der Messwerte, weichen maximal \sqrt{n-1} Standardabweichungen vom arithmetischen Mittel ab. In den Abbildungen 2 bis 5 und 8 ist diese Schranke jeweils als strichlierte Linie eingezeichnet.

Eine schärfere allgemeine Abschätzung als die Samuelson-Ungleichung kann es nicht geben, weil ihr Minimum z.B. für die Messwerte -1 und 1 angenommen wird. Der Mittelwert ist 0, die Standardabweichung s_n=\sqrt{\frac{1}{2}\cdot\left[(-1-0)^2+(1-0)^2\right]}=1 und es ist auch \sqrt{2-1}=1.

Tschebyschow gegen Samuelson

Die Tschebyschow-Ungleichung besagt, wenn der Bruchteil der Messwerte gegen 1 geht, muss der Maximalabstand zum Mittelwert gegen Unendlich gehen. Und es gibt keine bessere allgemeine Abschätzung. Die Samuelson-Ungleichung hingegen besagt, dass alle Messwerte – also der Bruchteil 1 – maximal \sqrt{n-1}\cdot s_n abweicht. Widerspricht sich das nicht?

Wie wir oben gesehen haben, brauchen wir für eine große Abweichung nahe dem Bruchteil 1 viele Werte, die nahe beim Mittelwert liegen, um die Standardabweichung klein zu halten, und ein paar, die weiter weg liegen. Insgesamt geht also auch die Anzahl n der Messwerte gegen Unendlich, wodurch sich der Widerspruch auflöst.

Besonders interessant ist die Samuelson-Ungleichung für kleine Mengen. Nehmen wir z.B. eine Gruppe von 5 Personen, deren Durchschnittsgröße 1.80 m sein möge, mit einer Standardabweichung von 5 cm. Dann kann die größte Person maximal 1.90 m groß und die kleinste maximal 1.70 m klein gewesen sein (\sqrt{5-1}=2).

Diskussion

Tschebyschow- und Samuelson-Ungleichung geben überraschende Antworten, wie weit Messwerte um den Mittelwert streuen können. Beide messen die Abweichungen in Standardabweichungen und folgen aus unserer Definition der Standardabweichung. Eine andere Definition würde andere Grenzen ergeben.

Wir haben zwar die ganze Zeit von Messwerten gesprochen, aber weder Tschebyschow noch Samuelson haben irgendein Geheimwissen über den Messprozess. Tatsächlich geht es einfach nur um Zahlenmengen und ihre Eigenschaften. Ob wir die Zahlen erfunden, am Schwarzmarkt gekauft oder tatsächlich gemessen haben, spielt keine Rolle.

Anhang: Herleitung der Samuelson-Ungleichung

Dazu definieren wir zuerst den Mittelwert \bar{x}_j aller Werte außer x_j:

\displaystyle\bar{x}_j=\frac{1}{n-1}\cdot\sum_{i\neq j}x_i

(es ist ja ein Wert weniger).

Dieses \bar{x}_j können wir in die Varianz hinein schummeln:

\displaystyle\begin{aligned}s_n^2&=\frac{1}{n}\cdot\sum_{i=1}^n(x_i-\bar{x})^2\\&=\frac{1}{n}\cdot\sum_{i=1}^n(x_i-\bar{x}_j+\bar{x}_j-\bar{x})^2\\&=\frac{1}{n}\cdot\sum_{i=1}^n\left[(x_i-\bar{x}_j)-(\bar{x}-\bar{x}_j)\right]^2\\&=\frac{1}{n}\cdot\sum_{i=1}^n\left[(x_i-\bar{x}_j)^2-2(x_i-\bar{x}_j)(\bar{x}-\bar{x}_j)+(\bar{x}-\bar{x}_j)^2\right]\,,\end{aligned}

wobei wir in der letzten Zeile eine binomische Formel verwendet haben. Diese lange Summe können wir in mehrere Summen aufspalten, wobei alles ohne i im Index eine Konstante ist:

\displaystyle\begin{aligned}s_n^2=\frac{1}{n}\cdot\Biggl[&\sum_{i=1}^n(x_i-\bar{x}_j)^2\\&-2(\bar{x}-\bar{x}_j)\cdot\sum_{i=1}^n(x_i-\bar{x}_j)\\&+n\cdot(\bar{x}-\bar{x}_j)^2\Biggr]\,.\end{aligned}

Der letzte Summand ergibt sich, weil wir n-mal die Konstante (\bar{x}-\bar{x}_j)^2 addiert haben. Mit der Definition des Mittelwerts und weil \bar{x}_j eine Konstante ist, folgt

\displaystyle\sum_{i=1}^n(x_i-\bar{x}_j)=n\cdot\bar{x}-n\cdot\bar{x}_j=n\cdot(\bar{x}-\bar{x}_j)\,.

Setzen wir das in die Varianz ein, erhalten wir

\displaystyle\begin{aligned}s_n^2&=\frac{1}{n}\cdot\left[\sum_{i=1}^n(x_i-\bar{x}_j)^2-2n\cdot(\bar{x}-\bar{x}_j)^2+n\cdot(\bar{x}-\bar{x}_j)^2\right]\\&=\frac{1}{n}\cdot\sum_{i=1}^n(x_i-\bar{x}_j)^2-(\bar{x}-\bar{x}_j)^2\\&=\frac{1}{n}\cdot\sum_{i\neq j}^n(x_i-\bar{x}_j)^2+\frac{1}{n}\cdot(x_j-\bar{x}_j)^2-(\bar{x}-\bar{x}_j)^2\,,\end{aligned}

wobei in der letzten Zeile den Summanden mit i=j aus der Summe genommen haben.

Jetzt kommt unsere Definition von \bar{x}_j ins Spiel: Es gilt nämlich

\displaystyle n\cdot\bar{x}=\sum_{i=1}^nx_i=x_j+\sum_{i\neq j}x_i=x_j+(n-1)\cdot\bar{x}_j=x_j+n\cdot\bar{x}_j-\bar{x}_j

und deshalb auch

x_j-\bar{x}_j=n\cdot\bar{x}-n\cdot\bar{x}_j=n\cdot(\bar{x}-\bar{x}_j)

und

x_j=n\cdot\bar{x}-(n-1)\cdot\bar{x}_j\,,

woraus

\displaystyle\begin{aligned}x_j-\bar{x}&=n\cdot\bar{x}-(n-1)\cdot\bar{x}_j-\bar{x}\\&=(n-1)\cdot\bar{x}-(n-1)\cdot\bar{x}_j\\&=(n-1)\cdot(\bar{x}-\bar{x}_j)\end{aligned}

folgt.

Eingesetzt in die Varianz, ergibt sich

\displaystyle\begin{aligned}s_n^2&=\frac{1}{n}\cdot\sum_{i\neq j}^n(x_i-\bar{x}_j)^2+\frac{1}{n}\cdot n^2\cdot(\bar{x}-\bar{x}_j)^2-(\bar{x}-\bar{x}_j)^2\\&=\frac{1}{n}\cdot\sum_{i\neq j}^n(x_i-\bar{x}_j)^2+(n-1)\cdot(\bar{x}-\bar{x}_j)^2\\&=\underbrace{\frac{1}{n}\cdot\sum_{i\neq j}^n(x_i-\bar{x}_j)^2}_{\displaystyle\geq0}+\frac{1}{n-1}\cdot(x_j-\bar{x})^2\\&\geq\frac{1}{n-1}\cdot(x_j-\bar{x})^2\end{aligned}

und damit die Behauptung. Die Reduktion des Faktors von \sqrt{n} auf \sqrt{n-1} ist zugegeben etwas mühsam.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.