Regression: Allgemeine Gleichung 2. Ordnung
Quellen
Wikipedia : 
Carl Friedrich Gauß 
 
Wikipedia : 
Gaußsches Eliminationsverfahren
 
Wikipedia : 
Cramersche Regel
 
OpenHardSoftWare.de : 
Cramersche Regel
 
Download als PDF-Dokument : 
2206181041_GeneralEquation2ndOrder.pdf
Übersicht
Allgemeine Gleichung 2. Grades in 
impliziter Form:
 
 
$\boxed{F(x, y) = a x^2 + b y^2 + c x y + d x + e y - 1}$   (1)
 
  mit $a, b, c, d, e \in \mathbb{R}$ und $x, y \in \mathbb{R}$
 
 
$\boxed{F_{theory}(x, y) = a x^2 + b y^2 + c x y + d x + e y - 1}$   (1.1)
 
 
$\boxed{F_{measure}(x_i, y_i) = a x_i^2 + b y_i^2 + c x_i y_i + d x_i + e y_i - 1}$   (1.2)
 
Dabei gilt die Nicht-Identität für alle gegebenen Punkte:
$\forall P_i(x_i, y_i) \neq \forall P_j(x_j, y_j)$ 
 
mit $N$ : Anzahl der Punkte $P_i$ und $i, j \in [5, .. , N]$
 
  
  Allgemeine Gleichung zweiten Grades(hier Ellipse) mit gegebenen Punkten
 
Herleitung
Allgemeine Gleichung 2. Grades:
 
 
$F^\star(x, y) = 0 = a^\star x^2 + b^\star y^2 + c^\star x y + d^\star x + e^\star y + f^\star$
 
 
Identisch zu (Division durch $-f$):
 
 
$\boxed{F(x, y) := a x^2 + b y^2 + c x y + d x + e y - 1}$   (1)*
 
 
ohne Einschränkung der Allgemeinheit. Damit gilt es, die (linearen) Koeffizienten $a, b, c, d, e$
  
zu bei einer gegebenen Punktemenge $P_i = (x_i, y_i)$ zu berechnen.
 
Die "Methode der kleinsten Fehlerquadrate" nach 
Carl Friedrich Gauss liefert folgenden Ansatz:
 
 
$\boxed{S = \sum\limits_{i=1}^{N}{\bigg[F_m(x, y) - F_t(x, y)\bigg]^2}}$   (2)
 
 
mit: $F_{theory}(x, y) = F_t(x, y) = a x^2 + b y^2 + c x y + d x + e y - 1 = 0$     (1.1)*
 
und: $F_{measure}(x, y) = F_m(x_i, y_i) = a x_i^2 + b y_i^2 + c x_i y_i + d x_i + e y_i - 1$     (1.2)*
ergibt sich:
 
 
$S = \sum\limits_{i=1}^{N}{\bigg[ F_m(x_i, y_i) - F_t(x, y) \bigg]^2}$
 
 
$S = \sum\limits_{i=1}^{N}{\bigg[ F_m(x_i, y_i) - 0 \bigg]^2}$
 
 
$S = \sum\limits_{i=1}^{N}{\bigg[ F_m(x_i, y_i) \bigg]^2}$
 
 
$\boxed{S = \sum\limits_{i=1}^{N}{\bigg[ a x_i^2 + b y_i^2 + c x_i y_i + d x_i + e y_i - 1 \bigg]^2}}$   (3)
 
 
Notwendige Bedingungen, damit die Koeffizienten $a, b, .. ,e$ optimal mit kleinstem Fehler
durch die Punkte $P_i(xi, y_i)$ gefittet werden:
 
 
$\dfrac{\partial S}{\partial a} = 0 = 2 \sum\limits_i \big[ a x_i^2 + b y_i^2 + c x_i y_i + d x_i + e y_i - 1 \big]\big[ x_i^2 \big]$
 
 
$\dfrac{\partial S}{\partial b} = 0 = 2 \sum\limits_i \big[ a x_i^2 + b y_i^2 + c x_i y_i + d x_i + e y_i - 1 \big]\big[ y_i^2 \big]$
 
 
$\dfrac{\partial S}{\partial c} = 0 = 2 \sum\limits_i \big[ a x_i^2 + b y_i^2 + c x_i y_i + d x_i + e y_i - 1 \big]\big[ x_i y_i \big]$
 
 
$\dfrac{\partial S}{\partial d} = 0 = 2 \sum\limits_i \big[ a x_i^2 + b y_i^2 + c x_i y_i + d x_i + e y_i - 1 \big]\big[ x_i \big]$
 
 
$\dfrac{\partial S}{\partial e} = 0 = 2 \sum\limits_i \big[ a x_i^2 + b y_i^2 + c x_i y_i + d x_i + e y_i - 1 \big]\big[ y_i \big]$
 
 
$\dfrac{\partial S}{\partial a} = 0 = \sum\limits_i \big[ a x_i^4 + b x_i^2 y_i^2 + c x_i^3 y_i + d x_i^3 + e x_i^2 y_i - x_i^2 \big]$
 
 
$\dfrac{\partial S}{\partial b} = 0 = \sum\limits_i \big[ a x_i^2 y_i^2 + b y_i^4 + c x_i y_i^3 + d x_i y_i^2 + e y_i^3 - y_i^2 \big]$
 
 
$\dfrac{\partial S}{\partial c} = 0 = \sum\limits_i \big[ a x_i^3 y_i + b x_i y_i^3 + c x_i^2 y_i^2 + d x_i^2 y_i + e x_i y_i^2 - x_i y_i \big]$
 
 
$\dfrac{\partial S}{\partial d} = 0 = \sum\limits_i \big[ a x_i^3 + b x_i y_i^2 + c x_i^2 y_i + d x_i^2 + e x_i y_i - x_i \big]$
 
 
$\dfrac{\partial S}{\partial e} = 0 = \sum\limits_i \big[ a x_i^2 y_i + b y_i^3 + c x_i y_i^2 + d x_i y_i + e y_i^2 - y_i \big]$
 
 
$a\sum\limits_i x_i^4 + b \sum\limits_i x_i^2 y_i^2 + c \sum\limits_i x_i^3 y_i + d \sum\limits_i x_i^3 + e \sum\limits_i x_i^2 y_i = \sum\limits_i x_i^2$
 
 
$a \sum\limits_i x_i^2 y_i^2 + b \sum\limits_i y_i^4 + c \sum\limits_i x_i y_i^3 + d \sum\limits_i x_i y_i^2 + e \sum\limits_i y_i^3 = \sum\limits_i y_i^2$
 
 
$a \sum\limits_i x_i^3 y_i + b \sum\limits_i x_i y_i^3 + c \sum\limits_i x_i^2 y_i^2 + d \sum\limits_i x_i^2 y_i + e \sum\limits_i x_i y_i^2 = \sum\limits_i x_i y_i$
 
 
$a \sum\limits_i x_i^3 + b \sum\limits_i x_i y_i^2 + c \sum\limits_i x_i^2 y_i + d \sum\limits_i x_i^2 + e \sum\limits_i x_i y_i = \sum\limits_i x_i$
 
 
$a \sum\limits_i x_i^2 y_i + b \sum\limits_i y_i^3 + c \sum\limits_i x_i y_i^2 + d \sum\limits_i x_i y_i + e \sum\limits_i y_i^2 = \sum\limits_i y_i$
 
 
 
Daher folgt ein lineares Gleichungssystem der Unbekannten $a, b, c, d, e$ :
 
 
$ \begin{pmatrix}
a & b & c & d & e & iT\\
\sum\limits_i x_i^4 & \sum\limits_i x_i^2 y_i^2 & \sum\limits_i x_i^3 y_i & \sum\limits_i x_i^3 & \sum\limits_i x_i^2 y_i & \sum\limits_i x_i^2  \\
\sum\limits_i x_i^2 y_i^2 & \sum\limits_i y_i^4 & \sum\limits_i x_i y_i^3 & \sum\limits_i x_i y_i^2 & \sum\limits_i y_i^3 & \sum\limits_i y_i^2 \\
\sum\limits_i x_i^3 y_i & \sum\limits_i x_i y_i^3 & \sum\limits_i x_i^2 y_i^2 & \sum\limits_i x_i^2 y_i & \sum\limits_i x_i y_i^2 & \sum\limits_i x_i y_i \\
\sum\limits_i x_i^3 & \sum\limits_i x_i y_i^2 & \sum\limits_i x_i^2 y_i & \sum\limits_i x_i^2 & \sum\limits_i x_i y_i & \sum\limits_i x_i \\
\sum\limits_i x_i^2 y_i & \sum\limits_i y_i^3 & \sum\limits_i x_i y_i^2 & \sum\limits_i x_i y_i & \sum\limits_i y_i^2 & \sum\limits_i y_i
\end{pmatrix} $
 
 
Die Lösungen für $a, b, c, d, e$ ergeben sich prinzipiell aus der 
Cramerschen Regel:
 
 
$\boxed{a = \dfrac{D_a}{D}}$    $\boxed{b = \dfrac{D_b}{D}}$    $\boxed{c = \dfrac{D_c}{D}}$    $\boxed{d = \dfrac{D_d}{D}}$    $\boxed{e = \dfrac{D_e}{D}}$
 
 
Da die Anzahl der Unbekannten $a, b, c, d, e$ die Zahl 4 überschreitet, eignet sich das
 
Gaußsche Eliminationsverfahren zur effizienten Bestimmung der Unbekannten.
  
        
        WebSites   
        Module   
        Mathematik