Linear regression w/ normal equation & gradient descent
Compare changes
Files
2- Alexandre Roulois authored
+ 711
− 0
"Or, nous aurions besoin d’une matrice de dimensions $(2,2)$ au moment d’effectuer le produit matriciel avec $B$, et ce afin d’obtenir $m$ et $b$. Il nous manque clairement une dimension. D’autant plus que, à bien réfléchir, dans la géométrie euclidienne, on a besoin de deux points pour tracer une droite. Comment faire pour calculer le coefficient directeur et l’ordonnée à l’origine d’une droite qui n’en comporte qu’un seul ?\n",
"La solution consiste à rajouter une dimension à $A$, de telle manière que le produit n’en soit pas affecté. On en revient toujous à l’équation réduite d’une droite $y = \\theta x$ où $x$ est notre matrice $A$ et $\\theta$ la matrice qui devra contenir $m$ et $b$. Or, dans notre exemple, $\\theta$ ne pourra être constitué que d’un élément, ce qui ne nous permettra pas de retrouver la formule canonique $y = mx + b$, mais seulement $y = mx$ avec en prime une fausse estimation de $m$. Pour que le produit matriciel fonctionne, nous allons fixer la nouvelle dimension de notre matrice initiale $A$ à $1$ pour obtenir :\n",
"Si l’on reprend toutes les étapes du calcul de l’équation normale, nous devons d’abord trouver la transposée de $A^\\prime$. $A^\\prime$ est une matrice carrée de dimensions $(2, 2)$. Pour obtenir sa transposée, il suffit de tracer une diagonale entre le premier élément de la première ligne ($1$) et le dernier élément de la deuxième ligne ($5$), puis d’effectuer un pivot autour de cet axe. Les nombres $1$ et $3$ inversent ainsi leur position :\n",