BannerBannerBanner

Berechnung einer Regressionsgeraden

Ziel dieses Abschnittes ist es zu erläutern, wie man zu einer gegebenen Datenmenge eine möglichst gut approximierende so genannte Regressionsgerade berechnet.

Ist $(x_i,y_i)$ für $i=1\ldots n$ der gegebene Datensatz, so kann man die Regressionsgerade wie folgt berechnen. Man definiert sich zunächst die Matrix $M$ und den Vektor $y$ gemäß:

\[M=\left(\matrix{ 1&x_1\cr 1&x_2\cr \vdots&\vdots\cr 1&x_4\cr }\right); \qquad y=\left(\matrix{ y_1\cr y_2\cr \vdots\cr y_4\cr }\right) \]

Sodann löst man das Gleichungssystem:
\[ M^TM\cdot \left(\matrix{ a \cr b \cr }\right) = M^T y \]
Man beachte, dass $M^TM$ eine $2\times 2$ Matrix ist und dass $M^Ty$ eine $2$-dimensionaler Vektor ist. Nach Lösen des linearen Gleichungssystems sind die Variablen $a$ and $b$ die Paramter der gesuchten Geraden. Diese hat dann die Gleichung

\[ y=a+b \cdot x. \]


Im folgenden Beispiel wird zu einer gegebenen Menge von Punkten eine Gerade bestimmt, so dass die Summe der Abstandsquadrate in $y$-Richtung minimiert wird. Man kann die roten Punkte ziehen und beobachten, wie sich dabei die Gerade verändert.

Bitte schalten Sie Java ein, um eine Cinderella-Konstruktion zu sehen.


Im folgenden Beispiel kann man experimentell nachprüfen, dass das Minimum der Quadratsumme tatsächlich von der berechneten blauen Gerade angenommen wird. An den beiden grünen Punkten kann man die Position einer Testgeraden festlegen. Die Summe der Abstandsquadrate der Testgeraden werden im Vergleich zur Quadratsumme der Regressionsgeraden angezeigt. (Bei Bedarf kann man sich die Quadrate bezüglich der grünen Geraden durch Betätigen des Schalters in der Ecke anzeigen lassen.)

Bitte schalten Sie Java ein, um eine Cinderella-Konstruktion zu sehen.


Nächstes Kapitel: Regression 2