Richiami di algebra lineare
in costruzione
Vettori e matrici
Norma
Norma nello spazio \(L^p\) di ordine \(p\)
\(\parallel \vec{x} \parallel _p := \left ( \sum_{i=1}^n \vert x_i \vert ^p \right ) ^{\frac{1}{p}}\)
Norma euclidea (\(\ell ^2\)) di ordine \(p=2\)
\(\parallel \vec{x} \parallel := \sqrt{\left \langle \vec{x}, \vec{x} \right \rangle }\)
Versore
Un versore è un vettore in uno spazio normato di modulo unitario, utilizzato per indicare una particolare direzione e verso. Dato un qualunque vettore \(\mathbf{v}\) (diverso dal vettore nullo che è l’unico ad avere modulo pari a zero) è possibile formarne un versore moltiplicandolo per il reciproco del suo modulo
Somma vettoriale
\(\vec{x}+\vec{y}= \begin{pmatrix} x_1 + y_1 \\ x_2 + y_2 \\ ... \\ x_n + y_n \end{pmatrix}\)
Prodotto scalare
Il prodotto scalare (dot product) tra due vettori è uno scalare (un numero), è un prodotto interno (inner product) nello spazio Euclideo. A livello di notazione solitamente il primo si esprime con un punto tra i due elementi e il secondo tra parentesi angolate.
\(\vec{x}\cdot \vec{y}=\left \langle \vec{x}, \vec{y} \right \rangle = \sum_{i=1}^n x_i y_i\)
Per vettori riga vale il prodotto matriciale: \(x\kern 0em_{\small (1\times n)}y^T\kern 0em_{\small (n\times1)}\)
Per vettori colonna vale il prodotto matriciale: \(x^T\kern 0em_{\small (1\times n)}y\kern 0em_{\small (n\times1)}\)
Il prodotto scalare tra vettori è nullo se e solo se i due vettori sono perpendicolari.
Esempio prodotto due vettori in forma matriciale (≡ prodotto matriciale Riga × Colonna)
\(\begin{pmatrix}
y_1 & y_2 & y_3
\end{pmatrix}
\begin{pmatrix}
x_1 \\
x_2 \\
x_3
\end{pmatrix} = x_1 y_1 + x_2 y_2 + x_3 y_3\)
Prodotto vettoriale
Il prodotto vettoriale tra due vettori è un vettore.
\(\vec{x} \times \vec{y}=\vec{z}\)
Somma matriciale
\([A+B]_{ij}=[A]_{ij}+[B]_{ij}\)
Prodotto matriciale
\([AB]_{ik}=\sum_{j=1}^n [A]_{ij} [B]_{jk}\) con \(i=1,...,l\) e \(k=1,...,m\)
Riga × Colonna
Operazioni e proprietà utili delle matrici
- \((A^T)^T\) \(=A\)
- \((AB)^T\) \(=A^T B^T\)
- \((A+B)^T\) \(=A^T+B^T\)
- \((A^{-1})^T\) \(=(A^T)^{-1}\)
- \(A^{-1}A\) \(=I\)
- \((A^{-1}A)^T=I^T\) \(=I\)
- dato che \((AB)^T=B^TA^T\)
- \(A^T(A^{-1})^T\) \(=I\)
- dato che \(A\) è invertibile allora anche \(A^T\) lo è
- \((A^T)^{-1}A^T(A^{-1})^T\) \(=(A^T)^{-1}I\)
- \((A^{-1})^T\) \(=(A^T)^{-1}\)
- \([(X^TX)^{-1}X^T]^T=X[(X^TX)^{-1}]^T=X[(X^TX)^T]^{-1}=X[(X)^T(X^T)^T]^{-1}\) \(=X(X^TX)^{-1}\)
- Se \(Q\) matrice ortogonale, allora \(Q^TQ=I\) quindi \(Q^T=Q^{-1}\)
- \((AB)^{-1}\) \(=B^{-1}A^{-1}\)
- \(\mbox{det}(A^T)\) \(=\mbox{det}(A)\)
- \(\mbox{det}(AB)\) \(=\mbox{det}(A)\cdot \mbox{det}(B)\)
- \(\mbox{det}(I)=1\Rightarrow \mbox{det}(A^{-1})\) \(=\frac{1}{\mbox{det}(A)}\)
- Pseudo-inversa di una matrice non quadrata: \(A^+=A^T(AA^T)^{-1}\)
- Traccia di una matrice: \(\mbox{tr}(A)=\sum_i A_{ii}=\sum_i \lambda_i\) con \(\lambda_i\) i-esimo autovalore
Decomposizioni matriciali
Elenco delle più diffuse
Decomposizione spettrale
Data una matrice \(A\kern 0em_{\small (n\times n)}\) reale simmetrica quadrata (es. matrice delle varianze e covarianze), si può esprimere come
\(A=\sum_{i=1}^n \lambda_i v_i v_i^T = V \Lambda V^T = V \Lambda V^{-1}\)
con \(\lambda_i\) è l’autovalore dell’autovettore \(v_i\), \(V\) matrice ortogonale degli autovettori e \(\Lambda\) la corrispondente matrice diagonale degli autovalori di \(A\).
Decomposizione a valori singolari (SVD)
Data una matrice \(A\kern 0em_{\small (n\times p)}\), si può esprimere come
\(A=U\kern 0em_{\small (n\times n)}D\kern 0em_{\small (n\times p)}V^T\kern 0em_{\small (p\times n)}\)
con \(U^TU=V^T V=I_n\) matrici unitarie e \(D\) diagonale non-negativa.
I valori singolari sono ordinati, in alto a sinistra si trova l’elemento di \(D\) che contiene il più grande valore singolare.
Geometria analitica
Distanza da un punto dall’iperpiano
Generico iperpiano in \(\mathbb{R}^p\) di equazione \(a+b^T x=0\) con \(x\in \mathbb{R}^p\)
identificato dai coefficienti \(a\in \mathbb{R}\) e \(b\in \mathbb{R}\), si ha che:
- per ogni punto \(x_i\) che giace sull’iperpiano \(\Rightarrow b^T x_i=-a\)
- per ogni coppia di punti \(x_1\) e \(x_2\) che giacciono sull’iperpiano \(\Rightarrow b^T (x_1-x_2)=0\)
- quindi il vettore \(b\) è ortogonale all’iperpiano
- \(b^*=b/{\vert\vert b \vert\vert}\) vettore di norma unitaria
- la distanza da un generico punto \(X\in \mathbb{R}^p\) dall’iperpiano, cioè la distanza tra \(X\) e \(x_0\), con \(x_0\) proiezione ortogonale di \(X\) che giace sull’iperpiano (quindi \(b^T x_0=-a\)), è data da:
\(\vert\vert X - x_0 \vert\vert = {b^*}^T(X-x_0)=\frac{1}{\vert\vert b \vert\vert} (b^T X+a)\)
Utili
Risorse
- Distanze da una retta (Scuola Normale Superiore di Pisa)
- Identità trigonometriche