Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D Le Miniguide all'orientamento Gli eBook di Federica La Corte in Rete
 
Federica World
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Luciano Rosati » 2.CALCOLO TENSORIALE - parte 1


Spazi vettoriali e funzioni lineari

Si illustrano nel seguito alcuni concetti di grande utilità per lo studio della cinematica e della statica dei mezzi continui. In particolare si riporta nel seguito una discossione sintetica delle principali proprietà di spazi vettoriali, trasformazioni lineari, spazi dotati di prodotto interno, spazi Euclidei, prodotti vettoriali, determinanti, algebra tensoriale e calcolo vettoriale.



Si definisce “spazio vettoriale” sul campo reale un insieme $\mathcal{U}$, i cui elementi sono detti vettori, in cui sono definite le seguenti operazioni:

\mathbf{u}_{1} \in \mathcal{U},\quad\mathbf{u}_2 \in\mathcal{U}&\quad\implies\quad\mathbf{u}_{1}+\mathbf{u}_{2}\in\mathcal{U}                          (somma tra vettori)

\mathbf{u}\in\cal{U},\quad\alpha\in\mathcal{R}&\quad\implies\quad\alpha\,\mathbf{u}\in\cal{U}\qquad\matrice                   (moltiplicazione di un vettore per uno scalare)                                                                   (1.1)

\forall \mathbf{u}, \mathbf{u}_1, \mathbf{u}_2, \mathbf{u}_3 \in \mathcal{U} :

associatività                                                                             \hfill&\mathbf{u}_{1}+(\mathbf{u}_{2}+\mathbf{u}_{3})=(\mathbf{u}_{1}+\mathbf{u}_{2})+\mathbf{u}_{3}=\mathbf{u}_{1}+\mathbf{u}_{2}+\mathbf{u}_{3}

commutatività                                                                          \mathbf{u}_{1}+\mathbf{u}_{2}=\mathbf{u}_{2}+\mathbf{u}_{1}                                                                                         (1.2)

\exists l’elemento \bf{o} (vettore nullo) tale che                                      \mathbf{u}+\bf{o}=\bf{o}+\mathbf{u}=\mathbf{u}

 la moltiplicazione di un vettore per uno scalare gode delle seguenti ulteriori proprietà $\forall \alpha,\alpha_{1},\alpha_{2}\in\mathcal{R}$ e $\forall \mathbf{u},\mathbf{u}_{1},\mathbf{u}_{2}\in\cal{U}$ :

distributività                                                         $$(\alpha_{1} + \alpha_{2}) \, \mathbf{u} = \alpha_{1} \, \mathbf{u} + \alpha_{2} \, \mathbf{u}$$ $$ \alpha \,( \mathbf{u}_{1} + \mathbf{u}_{2}) = \alpha \, \mathbf{u}_{1} + \alpha \, \mathbf{u}_{2}$$                                                                                              (1.3)

associatività                                                         (\alpha_{1}\,\alpha_{2})\,\mathbf{u}=\alpha_{1}\,(\alpha_{2}\,\mathbf{u})=\alpha_{1}\,\alpha_{2}\,\mathbf{u}

 

 

 

 

 

 

Vettori linearmente indipendenti

I vettori di un insieme $\{\mathbf{u}_{1},\mathbf{u}_{2}\ldots,\mathbf{u}_{m}\}$ sono detti linearmente indipendenti se l’unica loro combinazione lineare che fornisce il vettore nullo è quella costituita da coefficienti tutti nulli:

 

c_{1}\,\mathbf{u}_{1}+c_{2}\,\mathbf{u}_{2}+\cdots+c_{m}\,\mathbf{u}_{m}=\mathbf{o}\quad\implies\quad c_{1}=c_{2}=\cdots=c_{m}=0                                                        (1.4)

 

 

 

 

 

 

 

 

Funzioni lineari

Dati due spazi vettoriali \cal{U e \cal{V, una trasformazione \mathbf{A}:\mathcal{U}\to\mathcal{V} ,detta anche “funzione” o “operatore”, si dice lineare se vale la relazione:

\mathbf{A}\,(\alpha_{1}\,\mathbf{u}_{1}+\alpha_{2}\,\mathbf{u}_{2})=\alpha_{1}\,\mathbf{A}\,(\mathbf{u}_{1})+\alpha_{2}\,\mathbf{A}\,(\mathbf{u}_{2}) \qquad \forall \mathbf{u}_{1},\mathbf{u}_{2}\in\mathcal{U}\qquad\forall \alpha_{1},\alpha_{2}\in \mathcal{R}                                         (1.5)

 

Si dimostra che l’insieme delle trasformazioni lineari \mathbfbf{A}:\mathcal{U}\to\mathcal{V}  è a sua volta uno spazio vettoriale denotato con \mathcal{L}(\mathcal{U},\mathcal{V}) . In genere, se non diversamente indicato, si scrive più semplicemente \mathbf{A}(\mathbf{u})=\mathbf{A} \mathbf{u} 

 

Spazi di dimensione finita e basi

Uno spazio vettoriale $\cal{U}$ si dice di dimensione finita $n$ quando il numero massimo di vettori linearmente indipendenti di $\cal{U}$ è pari a $n$. Un insieme di $n$ vettori linearmente indipendenti, $\{\mathbf{e}_{1},\mathbf{e}_{2}\ldots,\mathbf{e}_{n}\}$, è detto allora una base di $\cal{U}$ ed un qualsiasi vettore di $\cal{U}$ può esprimersi univocamente come combinazione lineare di $\{\mathbf{e}_{1},\mathbf{e}_{2}\ldots,\mathbf{e}_{n}\}$. Pertanto:

\forall\mathbf{u}\in\mathcal{U}\,\,\exists!, u_{1},u_{2},\ldots,u_{n}\in\mathcal{R}\,:\, \mathbf{u}=u_{1}\,\mathbf{e}_{1}+u_{2}\,\mathbf{e}_{2}+\cdots+u_{n}\,\mathbf{e}_{n}                                                      (1.6)

 avendo indicato con il simbolo $\exists!$ l’espressione ‘esiste e sono univocamente definiti’. Gli scalari u_{i}, $i=,1,\ldots,n$, sono detti le componenti di $\mathbf{u}$ rispetto alla base $\{\mathbf{e}_{1},\mathbf{e}_{2}\ldots,\mathbf{e}_{n}\}$. Nel seguito per comodità si utilizzeranno indifferentemente le seguenti notazioni:

 \mathbf{u}=u_{1}\,\mathbf{e}_{1}+u_{2}\,\mathbf{e}_{2}+\cdots+u_{n}\,\mathbf{e}_{n}=\sum_{i=1}^{n}u_{i}\,\mathbf{e}_{i}=u_{i}\,\mathbf{e}_{i}                                                                         (1.7)

l’ultima delle quali è nota come ‘convenzione degli indici ripetuti’poichè l’indice $i$ nell’ultima espressione è ripetuto due volte. L’estremo superiore della somma, e cioè $n$ nel caso specifico, deve essere chiaro dal contesto.

Si sottolinea il carattere immateriale dell’indice $i$ usato nella formula precedente potendosi scrivere indifferentemente,

\mathbf{u} = u_i \mathbf{e}_i = u_j \mathbf{e}_j

in quanto il pedice usato per denotare le componenti di $\mathbf{u}$, essendo ripetuto, è arbitrario.

 

 

 

 

 

 

 

 

 

 

Uno spazio vettoriale U si dice di dimensione finita n quando il numero massimo di vettori linearmente indipendenti di U è pari a n. Un insieme di n vettori linearmente indipendenti, {e1, e2 . . . , en}, è detto allora una base di U ed un qualsiasi vettore di U può esprimersi univocamente come combinazione lineare di {e1, e2 . . . , en}. Pertanto:

u ∈ U ∃!, u1, u2, . . . , un ∈ ℜ : u = u1 e1+ u2e2 + · · · + unen (6)

avendo indicato con il simbolo ∃! l’espressione ‘esiste e sono univocamente definiti’.

Gli scalari ui, i =, 1, . . . , n, sono detti le componenti di u rispetto alla base {e1, e2 . . . , en}.

Nel seguito per comodità si utilizzeranno indifferentemente le seguenti notazioni:

\mathbf u=u_1e_1+u_2e_2+...+u_ne_n=\sum_{i=1}^n u_ie_i=u_ie_i \hspace{1cm}(7)

l’ultima delle quali è nota come ‘convenzione degli indici ripetuti’poichè l’indice i nell’ultima espressione è ripetuto due volte. L’estremo superiore della somma, e cioè n nel caso specifico, deve essere chiaro dal contesto. Si sottolinea il carattere immateriale dell’indice i usato nella formula precedente potendosi scrivere indifferentemente,

\mathbf u=u_ie_i=u_je_j

in quanto il pedice usato per denotare le componenti di u, essendo ripetuto, è arbitrario.

Lo spazio Euclideo di punti (1/2)

La notazione di sistema di riferimento cartesiano è ben nota in analisi vettoriale. Essa può essere presentata in modo formale introducendo il seguente concetto. Si definisce spazio euclideo di punti $\cal{E}$ un insieme nel quale sia definita una funzione $f:\cal{E} \times \cal{E} \to \cal{U}$ tale che   

1      $f(\mathbf{x},\mathbf{y})=f(\mathbf{x},\mathbf{z})+f(\mathbf{z},\mathbf{y}) \qquad \forall \mathbf{x}, \mathbf{y}, \mathbf{z} \in \mathcal{E}$

2      \forall \bf{x}\in \cal{E} e \mathbf{u} \in \cal{U}   \exists! \mathbf{y} \in \mathcal{E}: f(\mathbf{x},\mathbf{y})=\mathbf{u} 

 

 

 

 

 

 

Lo spazio Euclideo di punti (2/2)

Gli elementi di $\cal{E}$ si dicono punti e $\cal{U}$ è detto spazio delle traslazioni. In particolare f(\bf{x},\bf{y}) viene detto vettore individuato dal punto iniziale \bf{x} e dal punto finale \bf{y} e la funzione f viene denotata come differenza di punti; per essa viene comunemente adottata la notazione più suggestiva 

(\bf{x},\bf{y})=\bf{y}-\bf{x}=\bf{u}                                                                                                                (1.8)

ovvero

 \mathbf{y}=\mathbf{x}+\mathbf{u}                                                                                                                        (1.9)

Dunque la [1.8] si scrive anche

\bf{y}-\bf{x}=\bf{z}-\bf{x}+\bf{y}-\bf{z}\qquad \forall \bf{x},\bf{y},\bf{z} \in \cal{E}                                                                                           (1.10)

e corrisponde alla cosiddetta regola del parallelogramma.

Si noti che uno spazio euclideo di punti non è uno spazio vettoriale. Si definisce elemento nullo di $\cal{E}$ e si indica con $\mathbf{0}$ l’elemento per il quale

\mathbf{x}-\bf{x}=\mathbf{0}                                                                                                                         (1.11)

Infatti da (1.10) si ricava, ponendo \bf{x}=\bf{y}=\bf{z},

 \mathbf{x}-\mathbf{x}=\mathbf{x}-\mathbf{x}+\mathbf{x}-\mathbf{x}                                                                                                            (1.12)

 da cui consegue la (1.11). È importante sottolineare la differenza tra il punto $\mathbf{0}$ ed il vettore nullo $\bf{o}$.

Spazi vettoriali dotati di prodotto interno (1/2)

É evidente dalla definizione di spazio vettoriale reale che concetti elementari, ancorché di grande interesse applicativo, quali distanze, angoli e lunghezze non hanno significato.

Per tale motivo è necessario munire \cal{U} di una ulteriore struttura algebrica che consenta di caratterizzare \cal{U} come spazio dotato di prodotto interno.

In particolare uno spazio dotato di prodotto interno è uno spazio vettoriale \cal{U} in cui sia definita una funzione g:\cal{U \times \cal{U \to \cal{R che sia simmetrica, bilineare e definita positiva.

In altri termini tale funzione, denotata con il simbolo \mathbf{u} \cdot \bf{v \,\,\forall \mathbf{u},\bf{v \in \cal{U, risulta

1. Simmetrica                                \mathbf{u}_1 \cdot \mathbf{u}_2 = \mathbf{u}_2 \cdot \mathbf{u}_1 \qquad \forall \mathbf{u}_1, \mathbf{u}_2 \in \cal{U 

2a. Bilineare                                  (\lambda \mathbf{u}_1) \cdot \mathbf{u}_2 = \mathbf{u}_1 \cdot (\lambda \mathbf{u}_2) = \lambda \mathbf{u}_1 \cdot \mathbf{u}_2 \qquad \forall \mathbf{u}_1, \mathbf{u}_2 \in \cal{U} \qquad \lambda \in \mathcal{R} 

2b.                                                \mathbf{u}_1 \cdot (\mathbf{u}_2 + \mathbf{u}_3) = \mathbf{u}_1 \cdot \mathbf{u}_2 + \mathbf{u}_1 \cdot \mathbf{u}_3

3. Definita positiva                        \mathbf{u} \cdot \mathbf{u} > 0 \qquad \forall \mathbf{u} \ne \bf{o

 

 

 

 

1. Simmetrica

\mathbf{u_1\cdot u_2=u_2\cdot u_1 \hspace{1cm}\forall u_1, u_2 \in} U

2a.

Bilineare

\mathbf{(\lambda u_1)\cdot u_2=u_1\cdot(\lambda u_2)=\lambda u_1\cdot u_2\hspace{1cm}\forall u_1,\; u_2 \in U\hspace{0,5cm}\lambda \in \mathbb{R}}

2b.

\mathbf{ u_1 \cdot (u_2 + u_3) = u_1 \cdot u_2 + u_1 \cdot u_3}

 

 

 

 

Spazi vettoriali dotati di prodotto interno (2/2)

È quindi possibile definire la lunghezza o norma di un vettore 

$$\mid \mathbf{u} \mid {\overset{\mathit{def}}{=}} \sqrt{\mathbf{u} \cdot \mathbf{u}}$$

e la distanza tra vettori $\mathbf{u}_1, \mathbf{u}_2$ di $\cal{U$ 

$$d(\mathbf{u}_1,\mathbf{u}_2)=\mid \mathbf{u}_1 - \mathbf{u}_2 \mid$$

Si definisce angolo tra due vettori $\mathbf{u}_1,\mathbf{u}_2 \in \cal{U}$ la quantità

\cos \theta = \frac{\mathbf{u}_1 \cdot \mathbf{u}_2}{\mid \mathbf{u}_1 \mid \mid \mathbf{u}_2 \mid} \qquad \forall \mathbf{u}_1, \mathbf{u}_2 \in \cal{U}

ed è possibile dimostrare utilizzando una disuguaglianza, detta di Schwarz, che risulta

 -1 \le \cos \theta \le 1

 coerentemente con la definizione nota dalla trigonometria.

 

 

 

 

Basi ortonormali e sistemi di riferimento Cartesiani (1/4)

Una base \{\mathbf{e}_{1},\mathbf{e}_{2},\mathbf{e}_{3}\} di $\cal{U}$ si dice ortonormale quando i suoi vettori sono di modulo unitario e sono a due a due ortogonali fra loro, ovvero quando risulta:

\mathbf{e}_{i}\cdot\mathbf{e}_{j}=\delta_{ij}                                                                                                  (1.13)

dove $\delta_{ij}$ indica il simbolo di Kronecker, definito da:

\delta_{ij}=\begin{cases} 1 & \mbox{se } i=j \\ 0 & \mbox{se }i\not=j \end{cases}                                                                                          (1.14)

La quantità $\delta_{ij}$ rappresenta altresì le componenti di posto $i-j$ della matrice identica

I =\left[ \begin{array}{ccc}1 & 0 & 0\\0 & 1 & 0\\0 & 0 & 1 \\\end{array} \right]

Si definisce sistema di riferimento Cartesiano l’insieme costituito di un elemento prefissato di \cal{E, detto origine e denotato con $\mathbf{0}$, e di una base ortonormale per lo spazio vettoriale \cal{U delle traslazioni associato ad \cal{E.

Fissato $\mathbf{0}$, ogni punto di $\bf{x \in \cal{E$ può essere univocamente rappresentato nella forma

\mathbf{x} - \mathbf{0} = \mathbf{u} = u_i \cdot \mathbf{e}_i

La $n-pla$ di scalari $\{ u_1, u_2, \cdots, u_n \}$ viene detta coordinate di \bf{x rispetto al sistema di riferimento o componenti di $\mathbf{u}$.

 

 

 

 

 

 

 

Una base {e1, e2, e3} di U si dice ortonormale quando i suoi vettori sono di modulo unitario e sono a due a due ortogonali fra loro, ovvero quando risulta:

\mathbf{e_i \cdot e_j = \delta_{ij} \hspace{1cm}} (13)

dove δij indica il simbolo di Kronecker, definito da:

\delta_{ij}=\left\{\begin{array}{l}1\text{  se  }i=j \\ 0\text{  se  }i\neq j\end{array}\hspace{1cm}(14)

La quantitàδij rappresenta altresì le componenti di posto i−j della matrice identica

I=\left[\begin{array}{l} 1\; 0\; 0 \\ 0\; 1\; 0 \\ 0\; 0\; 1\end{array}\right]

Si definisce sistema di riferimento Cartesiano l’insieme costituito di un elemento prefissato di ε, detto origine e denotato con 0, e di una base ortonormale per lo spazio vettoriale U delle traslazioni associato ad ε. Fissato 0, ogni punto di x ∈ ε può essere univocamente rappresentato nella forma

\mathbf{x - 0 = u = u_i\cdot e_i}

La n −pla di scalari {u1, u2, · · · , un} viene detta coordinate di x rispetto al sistema di riferimento o componenti di u.

 

Basi ortonormali e sistemi di riferimento Cartesiani (2/4)

L’uso di una base ortonormale è particolarmente comodo per ricavare la componente generica di un vettore, ad esempio quella di posto $i$ .Risulta infatti:

 u\cdot\mathbf{e}_{i}=(u_{j}\,\mathbf{e}_{j})\cdot\mathbf{e}_{i}=u_{j}\,(\mathbf{e}_{j}\cdot\mathbf{e}_{i})=\delta_{ij}\,u_{j}=u_{i}                                         (1.15)

Nel caso $n=3$ la formula precedente si scrive esplicitamente come segue:

{\mathbf{u}\cdot\mathbf{e}_{1}&=(u_{1}\,\mathbf{e}_{1}+u_{2}\,\mathbf{e}_{2}+u_{3}\,\mathbf{e}_{3})\cdot\mathbf{e}_{1}=u_{1}\,\mathbf{e}_{1}\cdot\mathbf{e}_{1}+u_{2}\,\mathbf{e}_{2}\cdot\mathbf{e}_{1}+u_{3}\,\mathbf{e}_{3}\cdot\mathbf{e}_{1}=       

=u_{1}\,(\mathbf{e}_{1}\cdot\mathbf{e}_{1})+u_{2}\,(\mathbf{e}_{2}\cdot\mathbf{e}_{1})+u_{3}\,(\mathbf{e}_{3}\cdot\mathbf{e}_{1})=u_{1}                                                       (1.16)

in quanto $\mathbf{e}_{1}\cdot\mathbf{e}_{1}=1$, mentre $\mathbf{e}_{2}\cdot\mathbf{e}_{1}=\mathbf{e}_{3}\cdot\mathbf{e}_{1}=0$.

In figura 1 si fornisce una interpretazione geometrica di quanto detto per un vettore del piano, ovvero di uno spazio euclideo bidimensionale. Essendo la base ortonormale, le componenti del vettore $\mathbf{u}$ in figura si ottengono come proiezioni ortogonali del vettore stesso sui vettori della base. Per la componente 1, ad esempio, si ha che $u_{1}=|\mathbf{u}|\,\cos \widehat{\mathbf{u}\mathbf{e}_{1}}$. Essendo $|\mathbf{e}_{1}|=1$, si ottiene in definitiva:  $u_{1}=|\mathbf{u}|\,|\mathbf{e}_{1}|\,\cos \widehat{\mathbf{u}\mathbf{e}_{1}}=\mathbf{u}\cdot\mathbf{e}_{1}$.

 

 

 

 

 

 

Figura 1: Componenti del vettore del piano u rispetto alla base ortonormale {e1, e2}.

Figura 1: Componenti del vettore del piano u rispetto alla base ortonormale {e1, e2}.


Basi ortonormali e sistemi di riferimento Cartesiani (3/4)

Nel caso di spazio euclideo, cui faremo sempre riferimento nel seguito, la distanza tra punti, o equivalentemente la lunghezza del vettore ad essi associato, è un concetto elementare. Pertanto è possibile definire il prodotto scalare nella forma 

\mathbf{u} \cdot \bf{v = \mid \mathbf{u} \mid \mid \bf{v \mid \cos (\widehat{\mathbf{u}\bf{v}}) \qquad \forall \mathbf{u}, \bf{v \in \cal{U}                                                  (1.17)

essendo \widehat{\mathbf{u} \bf{v}} l’angolo formato tra i vettori $\mathbf{u}$ e \bf{v.

Tale definizione, detta \textit{intrinseca}, prescinde dalla particolare base ortonormale prescelta nello spazio \cal{U . Essa può essere specializzata in una prefissata base ortonormale esprimendola come somma dei prodotti delle componenti omologhe di $\mathbf{u}$ e $\bf{v}$. Infatti si ha:

\mathbf{u}\cdot\mathbf{v}=(u_{j}\,\mathbf{e}_{j})\cdot(v_{i}\,\mathbf{e}_{i})=(\mathbf{e}_{j}\cdot\mathbf{e}_{i})u_{j}\,v_{i}=\delta_{ij}\,u_{j}\,v_{i}=u_{i}\,v_{i}                                                                           (1.18)

ovvero in esteso: 

\mathbf{u}\cdot\mathbf{v}&=&(u_{1}\,\mathbf{e}_{1}+u_{2}\,\mathbf{e}_{2}+u_{3}\,\mathbf{e}_{3})\cdot(v_{1}\,\mathbf{e}_{1}+v_{2}\,\mathbf{e}_{2}+v_{3}\,\mathbf{e}_{3})= 

         &=&\mathbf{e}_{1}\cdot\mathbf{e}_{1}\,u_{1}\,v_{1}+\mathbf{e}_{2}\cdot\mathbf{e}_{1}\,u_{2}\,v_{1}+\mathbf{e}_{3}\cdot\mathbf{e}_{1}\,u_{3}\,v_{1}+ \mathbf{e}_{1}\cdot\mathbf{e}_{2}\,u_{1}\,v_{2}+\mathbf{e}_{2}\cdot\mathbf{e}_{2}\,u_{2}\,v_{2}

         &+&\mathbf{e}_{3}\cdot\mathbf{e}_{2}\,u_{3}\,v_{2}+\,\mathbf{e}_{1}\cdot\mathbf{e}_{3}\,u_{1}\,v_{3}+\mathbf{e}_{2}\cdot\mathbf{e}_{3}\,u_{2}\,v_{3}+\mathbf{e}_{3}\cdot\mathbf{e}_{3}\,u_{3}\,v_{3}=

         &=&\mathbf{e}_{1}\cdot\mathbf{e}_{1}\,u_{1}\,v_{1}+\mathbf{e}_{2}\cdot\mathbf{e}_{2}\,u_{2}\,v_{2}+\mathbf{e}_{3}\cdot\mathbf{e}_{3}\,u_{3}\,v_{3}=u_{1}\,v_{1}+u_{2}\,v_{2}+u_{3}\,v_{3}

 

 

 

 

 

 

 

Basi ortonormali e sistemi di riferimento Cartesiani (4/4)

La relazione precedente si può anche scrivere:

\mathbf{u}\cdot\mathbf{v}= \left[ \begin{array}{c} u_{1} \\ u_{2} \\ u_{3}\\ \end{array} \right]\cdot \left[ \begin{array}{c} v_{1} \\ v_{2} \\ v_{3}\\ \end{array} \right] =u_{1}\,v_{1}+u_{2}\,v_{2}+u_{3}\,v_{3}                                                                  (1.19)

Evidentemente in una nuova base ortonormale, ad esempio $\{ \overline{\bf{e}}_1, \overline{\bf{e}}_2, \overline{\bf{e}}_3\}$, variano le componenti associate ad $\bf{u}$ e $\bf{v}$ risultando $\mathbf{u} \equiv \{ \overline{u}_1, \overline{u}_2, \overline{u}_3 \}$ e $\mathbf{v} \equiv \{ \overline{v}_1, \overline{v}_2, \overline{v}_3 \}$.

Pertanto

\mathbf{u} \cdot \mathbf{v} = \overline{u}_1 \,\, \overline{v}_1 + \overline{u}_2 \,\,\overline{v}_2 + \overline{u}_3\,\, \overline{v}_3

Tuttavia, gli scalari a secondo membro della relazione precedente, pur essendo diversi da quelli che compaiono a secondo membro della (1.19) forniscono lo stesso risultato, proprio in virtù della definizione (1.17) visto che questa prescinde dalla particolare base prescelta in \cal{U. Questo giustifica la qualifica ‘intrinseca’ adottata per caratterizzarla.   

 

 

 

 

 

Tensori e matrice associate ad un tensore (1/3)

In seguito prenderemo sempre in esame trasformazioni lineari che associano vettori di $\cal{U}$ ad altri vettori ancora di $\cal{U}$, ovvero funzioni $\bf{A}:\cal{U}\to\cal{U}$. Una traformazione di tale tipo è detta tensore. Sia $\bf{u}$ un vettore di $\cal{U}$ e $\bf{v}\in\cal{U$ il suo trasformato tramite il tensore $\bf{A}$. Si ha dunque:

\bf{v}=\bf{A}\,\bf{u}                                                                                                        (1.20)

Assegnata una base ortonormale $\{\bf{e}_{i}\}$, si ha:

 v_{i}=\bf{v}\cdot\bf{e}_{i}=(\bf{A}\,\bf{u})\cdot\bf{e}_{i}=\bf{A}\,\bf{u}\cdot\bf{e}_{i}                                                                               (1.21)

dove le parentesi sono state eliminate in quanto il risultato dell’operazione $\bf{A}\,\bf{u}\cdot\bf{e}_{i}$ è uno scalare sicché occorre necessariamente calcolare dapprima il vettore $\bf{A}\,\bf{u}$ e poi moltiplicare scalarmente tale vettore per $\bf{e}_{i}$. Esprimendo $\bf{u}$ in termini di componenti rispetto ad $\{\bf{e}_{i}\}$, ovvero ponendo $\mathbf{u}=u_{j}\,\mathbf{e}_{j}$, e sfruttando la linearità di $\bf{A}$, si ha:

v_{i}=\mathbf{A}\,(u_{j}\,\mathbf{e}_{j})\cdot\mathbf{e}_{i}=(\mathbf{A}\,\mathbf{e}_{j}\cdot\mathbf{e}_{i})\,u_{j}                                                                              (1.22)

In esteso

v_{1}=\mathbf{A}\,(u_{1}\,\mathbf{e}_{1}+u_{2}\,\mathbf{e}_{2}+u_{3}\,\mathbf{e}_{3})\cdot\mathbf{e}_{1}=(\mathbf{A}\,\mathbf{e}_{1}\cdot\mathbf{e}_{1})\,u_{1}+(\mathbf{A}\,\mathbf{e}_{2}\cdot\mathbf{e}_{1})\,u_{2}+(\mathbf{A}\,\mathbf{e}_{3}\cdot\mathbf{e}_{1})\,u_{3}

Si definisce matrice associata ad $\bf{A}$ e si indica con $[\bf{A}]$ la tabella di scalari definita dalla relazione 

$$[A]_{ij}=A_{ij}=\bf{A} e_j \cdot \bf{e}_i= \bf{e}_i \cdot A\bf{e}_j$$

\mathbf{A} \mathbf{e}_j \cdot \mathbf{e}_i = A_{kj} \mathbf{e}_k \cdot \mathbf{e}_i = A_{kj} \delta_{ki} = A_{ij}                                                                         (1.23)

che costituisce per l’appunto la relazione (1.23)

 

 

 

Tensori e matrice associate ad un tensore (2/4)

In altri termini la matrice $[\mathbf{A}]$ associata al tensore $\mathbf{A}$ si ottiene disponendo secondo le colonne della tabella $[\mathbf{A}]$ le componenti dei vettori di base trasformati tramite \mathbf{A}

[\mathbf{A}]&=&[\mathbf{A} \mathbf{e}_1, \mathbf{A}\mathbf{e}_2, \mathbf{A} \mathbf{e}_3]=                                                                                                                                                                            (1.24)

      =\left[\begin{array}{c:c:c}\mathbf{e}_1 \cdot \mathbf{A} \mathbf{e}_1 & \mathbf{e}_1 \cdot \mathbf{A} \mathbf{e}_2 & \mathbf{e}_1 \cdot \mathbf{A} \mathbf{e}_3 \\\mathbf{e}_2 \cdot \mathbf{A} \mathbf{e}_1 & \mathbf{e}_2 \cdot \mathbf{A} \mathbf{e}_2 & \mathbf{e}_2 \cdot \mathbf{A} \mathbf{e}_3 \\\mathbf{e}_3 \cdot \mathbf{A} \mathbf{e}_1 & \mathbf{e}_3 \cdot \mathbf{A} \mathbf{e}_2 & \mathbf{e}_3 \cdot \mathbf{A} \mathbf{e}_3 \end{array}\right]=

      =\left[\begin{array}{ccc}A_{11} & A_{12} & A_{13} \\A_{21} & A_{22} & A_{23} \\A_{31} & A_{32} & A_{33} \\\end{array}\right]=

Il motivo per il quale la matrice associata ad $\mathbf{A}$ viene definita attraverso la regola (1.23) anziché quella, pià spontanea, $A_{ij}=A\mathbf{e}_i \cdot \mathbf{e}_j$ risiede nella conseguenza che tale definizione ha nel valutare le componenti del vettore $\mathbf{v}$ trasformato secondo la relazione $\mathbf{v} = \mathbf{A} \mathbf{u}$, a partire da quelle di $\mathbf{u}$ e dalle componenti di $[\mathbf{A}]$.

 

Tensori e matrice associate ad un tensore (3/4)

Infatti, sostituendo la (1.23) nella (1.22) si ottiene la relazione

v_i = A_{ij} u_j 

In altri temini assegnata una base ortonormale, il vettore delle componenti di $\mathbf{v}$, trasformato tramite il tensore $\mathbf{A}$ del vettore $\mathbf{u}$, si ottiene effettuando il prodotto righe per colonne della matrice associata ad $\mathbf{A}$ per il vettore delle componenti di $\mathbf{u}$ rispetto alla stessa base. Tale matrice verrà indicata con $[\mathbf{A}]$ e le sue componenti con $A_{ij}$. 

Evidentemente, se avessimo adottato la convenzione $A_{ij}=A \mathbf{e}_i \cdot \mathbf{e}_j$ al posto della (1.23)il vettore $[\mathbf{v}]$ delle componenti di $\mathbf{v}$ si sarebbe ottenuto, in maniera del tutto lecita, facendo il prodotto \emph{colonne per righe} di $[\mathbf{A}]$ e $[\mathbf{u}]$.

Tensori e matrice associate ad un tensore (4/4)

Ancor più interessante della precedente osservazione, legata essenzialmente alla procedura operativa con cui eseguire i calcoli necessari per ottenere $[\mathbf{v}]$, è quella di carattere teorico che consegue dalla (1.20) scrivendo

\mathbf{v} = \mathbf{A} \mathbf{u} = \mathbf{A} u_j \mathbf{e}_j = u_j \mathbf{A} \mathbf{e}_j                                                                                              (1.25)

Infatti, tale relazione stabilisce che il vettore $\mathbf{v}$ si ottiene combinando linearmente i vettori $\mathbf{A} \mathbf{e}_j$ con le componenti $u_j$ di $\mathbf{u}$. In esplicito

$$\mathbf{v} = u_1 \mathbf{A} \mathbf{e}_1 + u_2 \mathbf{A} \mathbf{e}_2 + u_3 \mathbf{A} \mathbf{e}_3$$

Poichè, come detto, $\mathbf{A} \mathbf{e}_j \, (j=1, \ldots, 3)$ costituisce la $j$-esima colonna della matrice associata ad $\mathbf{A}$, la (1.25) stabilisce in ultima analisi che il vettore $\mathbf{v}$ si ottiene semplicemente combinando linearmente le colonne $\mathbf{A}$ con i coefficienti numerici pari alle analoghe componenti di $\mathbf{u}$.  Infine, è utile in alcuni casi considerare l’ulteriore proprietà equivalente alla (1.23)

\mathbf{A} \mathbf{e}_j = A_{kj} \mathbf{e}_k                                                                                                         (1.26)

Infatti, moltiplicando scalarmente per $\mathbf{e}_i$ i membri risulta

$$\mathbf{A} \mathbf{e}_j \cdot \mathbf{e}_i = A_{kj} \mathbf{e}_k \cdot \mathbf{e}_i = A_{kj} \delta_{ki} = A_{ij}$$ 

che costituisce per l’appunto la relazione (1.23)

Prodotto fra tensori (1/2)

La composizione di due tensori $\mathbf{A}$ e $\mathbf{B}$, detta anche prodotto di $\mathbf{A}$ per $\mathbf{B}$, è a sua volta un tensore definito dalla relazione:

(\mathbf{A}\,\mathbf{B})\,\mathbf{u}=\mathbf{A}\,(\mathbf{B}\,\mathbf{u})\quad\forall\mathbf{u}                                                                                                  (1.27)

Il prodotto di tue tensori gode della proprietà associativa, per cui $(\mathbf{A}\,\mathbf{B})\,\mathbf{C}=\mathbf{A}\,(\mathbf{B}\,\mathbf{C})=\mathbf{A}\,\mathbf{B}\,\mathbf{C}$, ma non di quella commutativa, poiché in generale $\mathbf{A}\,\mathbf{B}\not=\mathbf{B}\,\mathbf{A}$. Si dice che i due tensori $\mathbf{A}$ e $\mathbf{B}$ commutano quando risulta $\mathbf{A} \mathbf{B} = \mathbf{B} \mathbf{A}$.

La matrice associata al prodotto $\mathbf{A}\,\mathbf{B}$ rispetto ad una base ortonormale si ottiene mediante il prodotto righe per colonne delle matrici associate ad  $\mathbf{A}$ ed a $\mathbf{B}$ rispetto alla stessa base. Infatti si ha:

(\mathbf{A}\,\mathbf{B}\,\mathbf{a})_{i}=[\mathbf{A}\,\mathbf{B}]_{ij}\,a_{j}\quad\forall\mathbf{a}\in\mathcal{U}                                                                                             (1.28)

ed inoltre:

(\mathbf{A}\,\mathbf{B}\,\mathbf{a})_{i}=A_{ik}\,(\mathbf{B}\,\mathbf{a})_{k}=A_{ik}\,(B_{kj}\,a_{j})=(A_{ik}\,B_{kj})\,a_{j}\quad\forall\mathbf{a}\in\mathcal{U}                                                                        (1.29)

da cui:

[\mathbf{A}\,\mathbf{B}]_{ij}=A_{ik}\,B_{kj}                                                                                                          (1.30)

L’ultima relazione rappresenta, in forma indiciale, il prodotto righe per colonne di $[\mathbf{A}]$ e $[\mathbf{B}]$. Infatti, l’elemento $ij$ della matrice $[\mathbf{A}\,\mathbf{B}]$, si ottiene come somma dei prodotti delle componenti omologhe della riga $i$-esima di $\mathbf{A}$ e della colonna $j$-esima di $\mathbf{B}$. Infatti al variare di $k$, gli elementi $\mathbf{A}_{ik}$  sono gli elementi della riga $i$-esima di $\mathbf{A}$, mentre gli elementi $B_{kj}$ sono gli elementi della colonna $j$-esima di $B$. 

Prodotto fra tensori (2/2)

Per esteso, per $n=3$, si ha:

 [\mathbf{A}\,\mathbf{B}]=\left[ \begin{array}{ccc} A_{11}&A_{12}&A_{13}\\ A_{21}&A_{22}&A_{23}\\ A_{31}&A_{32}&A_{33}\\ \end{array} \right] \left[ \begin{array}{ccc} B_{11}&B_{12}&B_{13}\\ B_{21}&B_{22}&B_{23}\\ B_{31}&B_{32}&B_{33} \\ \end{array} \right]=                                                                                                                               (1.31)

=\left[ \begin{array}{ccc} A_{11}\,B_{11}+A_{12}\,B_{21}+A_{13}\,B_{31}& A_{11}\,B_{12}+A_{12}\,B_{22}+A_{13}\,B_{32}& A_{11}\,B_{13}+A_{12}\,B_{23}+A_{13}\,B_{33}\\ A_{21}\,B_{11}+A_{22}\,B_{21}+A_{23}\,B_{31}& A_{21}\,B_{12}+A_{22}\,B_{22}+A_{23}\,B_{32}& A_{21}\,B_{13}+A_{22}\,B_{23}+A_{23}\,B_{33}\\ A_{31}\,B_{11}+A_{32}\,B_{21}+A_{33}\,B_{31}& A_{31}\,B_{12}+A_{32}\,B_{22}+A_{33}\,B_{32}& A_{31}\,B_{13}+A_{32}\,B_{23}+A_{33}\,B_{33} \\ \end{array} \right]

 

 

 

 

 

Inverso di un tensore (1/2)

Un tensore $\mathbf{A}$ si dice invertibile se risulta iniettivo

\mathbf{u}_1 \ne \mathbf{u}_2 \Rightarrow \mathbf{A} \mathbf{u}_1 \ne \mathbf{A} \mathbf{u}_2 \qquad \forall \mathbf{u}_1, \mathbf{u}_2 \in \mathcal{U} 

e suriettivo

\forall \mathbf{v} \in \mathcal{U} \,\, \exists \,\, \textnormal{almeno un elemento} \,\, \mathbf{u} \in \mathcal{U} : \mathbf{v} = \mathbf{A} \mathbf{u}

Equivalentemente, un tensore si dice invertibile se e solo se $\mathbf{A} \mathbf{u} = \mathbf{o}$ implica \mathbf{u} = \mathbf{o}. Se $\mathbf{A}$  è invertibile si definisce inverso di $\mathbf{A}$ e si denota con $\mathbf{A}^{-1}$ l’operatore 

$$\mathbf{A}^{-1} : \mathbf{v} \in \mathcal{U} \rightarrow \mathbf{u} \in \mathcal{U} : \mathbf{A} \mathbf{u} = \mathbf{v}$$

con $\mathbf{u}$ univocamente definito per la proprietà di iniettività di $\mathbf{A}$ L’operatore $\mathbf{A}^{-1}$ è effettivamente lineare, quindi un tensore, in quanto posto $\mathbf{v}_1 = \mathbf{A} \mathbf{u}_1$ e $\mathbf{v}_2=\mathbf{A} \mathbf{u}_2$, la relazione

$$\mathbf{A} (\alpha_1 \mathbf{u}_1 + \alpha_2 \mathbf{u}_2) = \alpha_1 \mathbf{A} \mathbf{u}_1 + \alpha_2 \mathbf{A} \mathbf{u}_2 = \alpha_1 \mathbf{v}_1 + \alpha_2 \mathbf{v}_2 \qquad \forall \alpha_1, \alpha_2 \in \mathbb{R} $$

 implica 

\alpha_1 \mathbf{u}_1 + \alpha_2 \mathbf{u}_2 = \alpha_1 \mathbf{A}^{-1} \mathbf{v}_1 + \alpha_2 \mathbf{A}^{-1} \mathbf{v}_2 = (\alpha_1 \mathbf{v}_1 + \alpha_2 \mathbf{v}_2) 

Dalla definizione di un tensore inverso discende, in definitiva, che se $\mathbf{A}$ è invertibile 

$$\mathbf{A} \mathbf{A}^{-1} = \mathbf{A}^{-1} \mathbf{A} = \mathbf{I}$$

 

Inverso di un tensore (2/2)

Per ricavare l’espressione della matrice $[\mathbf{A}^{-1}]$ associata a $\mathbf{A}^{-1}$ osserviamo che le due relazioni equivalenti 

\mathbf{v} = \mathbf{A} \mathbf{u} \Leftrightarrow \mathbf{u} = \mathbf{A}^{-1} \mathbf{v} \qquad \forall \mathbf{u}, \mathbf{v} \in \mathcal{U}

si scirivono in forma indiciale come segue

$$v_j = A_{jk} u_k \qquad u_i = [\mathbf{A}^{-1}]_{ij} v_j = A^{-1}_{ij} v_j$$

Pertanto, sostituendo la prima nella seconda delle espressioni precedenti si ottiene 

$$u_i = [\mathbf{A}^{-1}]_{ij} v_j = [\mathbf{A}^{-1}]_{ij} A_{jk} u_k = [\mathbf{A}^{-1}]_{ij} [\mathbf{A}]_{jk} u_k$$

e cioè 

$$[\mathbf{A}^{-1}]_{ij} [\mathbf{A}]_{jk} = A^{-1}_{ij} A_{jk} = \delta_{ik} = [\mathbf{I}]_{ik}$$

La relazione precedente equivale a scrivere

$$[\mathbf{A}^{-1}]_{ij} = \{ [\mathbf{A}]^{-1} \}_{ij}$$

ovvero

$$[\mathbf{A}^{-1}] = [\mathbf{A}]^{-1}$$

Quindi in un sistema di riferimento cartesiano, la matrice associata al tensore inverso $[\mathbf{A}^{-1}]$ coincide con l’inversa della matrice

associata al tensore \mathbf{A}

 

Trasposto di un tensore (1/2)

Assegnato il tensore $\mathbf{A} : \mathcal{U} \to \mathcal{U}$ si definisce trasposto di $\mathbf{A}$, e si indica con il simbolo $\mathbf{A}^T$, il tensore per il quale 

\mathbf{A} \mathbf{u} \cdot \mathbf{v} = \mathbf{u} \cdot \mathbf{A}^T \mathbf{v} \qquad \forall \mathbf{u}, \mathbf{v} \in \mathcal{U} 

In particolare

(\mathbf{A} \mathbf{B})^T = \mathbf{B}^T \mathbf{A}^T                                                                                                             (1.32)

Infatti, per definizione di operatore trasposto

[(\mathbf{A} \mathbf{B})^T \mathbf{a}] \cdot \mathbf{b} = \mathbf{a} \cdot (\mathbf{A} \mathbf{B}) \mathbf{b} \qquad \forall \mathbf{a}, \mathbf{b} \in \mathcal{U} 

ma

(\mathbf{A} \mathbf{B}) \mathbf{b} \cdot \mathbf{c} = \mathbf{B} \mathbf{b} \cdot \mathbf{A}^T \mathbf{a} = \mathbf{b} \cdot \mathbf{B}^T \mathbf{A}^T \mathbf{a} 

da cui scaturisce il risultato.

 

Trasposto di un tensore (2/2)

In particolare se $\mathbf{A}$ è un tensore invertibile risulta

(\mathbf{A}^{-1})^T = (\mathbf{A}^T)^{-1} = \mathbf{A}^{-T}                                                                                         (1.33)

Infatti, osservando che $\mathbf{I} = \mathbf{I}^T$, si ha

\mathbf{I}=\mathbf{I}^T = (\mathbf{A}^{-1} \mathbf{A})^T = \mathbf{A}^T (\mathbf{A}^{-1})^T

in virtù della (1.32). Pertanto dalla relazione precedente scaturisce la (1.33).

 Per calcolare la matrice $[\mathbf{A}^T]$ associata al tensore $\mathbf{A}^T$ in una base ortonormale è sufficiente applicare la definizione

[\mathbf{A}^T]_{ij} = A_{ij}^T = \mathbf{A}^T \mathbf{e}_j \cdot \mathbf{e}_i = \mathbf{e}_j \cdot \mathbf{A} \mathbf{e}_i = A_{ij}                                                                                   (1.34)

sicchè l’elemento di posto $ij$ della matrice $[\mathbf{A}^T]$ coincide con quello che occupa la posizione simmetrica in $[\mathbf{A}]$ e cioè l’elemento di posto $ji$ di $[\mathbf{A}]$. In altri termini $[\mathbf{A}^T]$ è la matrice trasposta di $[\mathbf{A}]$ ossia quella che si ottiene scambiando tra loro gli elementi simmetrici rispetto alla diagonale principale.  In formule si scrive 

[\mathbf{A}^T] = [\mathbf{A}]^T                                                                                                      (1.35)

 formula valida in un sitema di riferimento cartesiano.

 

 

 

 

 

Tensori simmetrici ed emisimmetrici

Si definisce simmetrico un tensore $\mathbf{A}$ per il quale risulti 

$$\mathbf{A} = \mathbf{A}^T$$ 

ed emisimmetrico un tensore caratterizzato dalla proprietà

$$\mathbf{A} = - \mathbf{A}^T$$

In particolare per un tensore simmetrico risulta $[\mathbf{A}] = [\mathbf{A}]^T$ e cioè, in una base ortonormale, la matrice associata al tensore coincide con la sua trasposta. Analogamente, per un tensore emisimmetrico $(\mathbf{A} = - \mathbf{A}^T)$ risulta $[\mathbf{A}]=-[\mathbf{A}]^T$   Queste definizioni consentono di osservare che ogni tensore può essere univocamente decomposto come somma di un tensore simmetrico ed uno emissimmetrico. Infatti 

$$\mathbf{A} = \frac{1}{2} (\mathbf{A} + \mathbf{A}^T) + \frac{1}{2} (\mathbf{A} - \mathbf{A}^T)$$

relazione che si scrive altresì

$$\mathbf{A} = \textnormal{sim}\, \mathbf{A} + \textnormal{emi}\,\mathbf{A}$$

avendo posto 

$$\textnormal{sim}\, \mathbf{A} = \frac{1}{2} (\mathbf{A} + \mathbf{A}^T) = \textnormal{sym} \,A   \qquad  \textnormal{emi} \,\mathbf{A} = \frac{1}{2} (\mathbf{A} - \mathbf{A}^T) = \textnormal{skw}\, \mathbf{A} $$

Gli ultimi simboli delle precedenti identità rappresentano le denominazioni anglosassoni.

Tensori ortogonali (1/3)

Si definisce ortogonale un tensore $\mathbf{A} : \mathcal{U} \to \mathcal{U}$ per il quale

\mathbf{A} \mathbf{u}_1 \cdot \mathbf{A} \mathbf{u}_2 = \mathbf{u}_1 \cdot \mathbf{u}_2 \qquad \forall \mathbf{u}_1, \mathbf{u}_2 \in \mathcal{U}                                                                                                   (1.36)

In particolare, se $\mathbf{u}_1$ e $\mathbf{u}_2$ sono ortogonali risulta 

\mathbf{A} \mathbf{u}_1 \cdot \mathbf{A} \mathbf{u}_2 = 0 

sicchè una trasformazione ortogonale trasforma basi ortonormali di $\mathcal{U}$ in basi ortonormali.

Si ricava altresì dalla (1.36) che 

$$|\mathbf{A} \mathbf{u}| = (\mathbf{A} \mathbf{u} \cdot \mathbf{A} \mathbf{u})^{1/2} = (\mathbf{u} \cdot \mathbf{u})^{1/2} = |\mathbf{u}|$$

sicchè un tensore ortogonale non modifica la lunghezza dei vettori su cui opera.

Poichè l’unico vettore ad essere trasformato nel vettore nullo da un tensore ortogonale $\mathbf{A}$ è il vettore nullo, si ricava che $\mathbf{A}$ è invertibile. È consuetudine denotare i tensori ortogonali con il simbolo $\mathbf{Q}$. 

Una importante caratterizzazione dei tensori ortogonali è quella fornita dal seguente risultato.

                                                                                             

Tensori ortogonali (2/3)

\textbf{Teorema}: Un tensore $\mathbf{Q}$ è ortogonale se e solo se $\mathbf{Q} \mathbf{Q}^T = \mathbf{I}$. 

Infatti, dalla (1.36) si ricava

\mathbf{u}_1 \cdot \mathbf{u}_2 = \mathbf{u}_1 \cdot \mathbf{Q}^T \mathbf{Q} \mathbf{u}_2 = \mathbf{u}_1 \cdot \mathbf{u}_2 \qquad \forall \mathbf{u}_1, \mathbf{u}_2 \in \mathcal{U} 

e quindi essendo, l’identità soddisfatta $\forall \mathbf{u}_1$$\mathbf{u}_2$

\mathbf{Q}^T \mathbf{Q} = \mathbf{I}                                                                                                            (1.37)

Viceversa, se sussite l’identità precedente, si ricava che $\mathbf{Q}$ è ortogonale ripercorrendo al contrario le relazioni precedenti.

Una formulazione equivalente della (1.37) si ottiene moltiplicando ambo i membri dell’espressione precedente per $\mathbf{Q}^T$.

$$\mathbf{Q}^T \mathbf{Q} \mathbf{Q}^T = \mathbf{Q}^T$$

ovvero, moltiplicando per $\mathbf{Q}^{-T}$,                                                      

  $$\mathbf{Q} \mathbf{Q}^T = \mathbf{I}$$

Dunque, possiamo affermare che  

\mathbf{Q} \textnormal{\,\,ortogonale} \Leftrightarrow \mathbf{Q}^T \mathbf{Q} = \mathbf{Q} \mathbf{Q}^T = \mathbf{I}                                                                          (1.38)

relazione dalla quale si ottiene l’ulteriore risultato per il quale l’inverso di un tensore ortogonale coincide con il trasposto. 

 

 

 

 

 

Tensori ortogonali (3/3)

Come si vedrà nel seguito tale proprietà è particolarmente utile nelle formule che esprimono la variazione delle componenti di vettori e tensori al variare della base. In una base cartesiana la relazione (1.38) diventa, in base alla (1.30) 

$$(Q^T)_{ij} Q_{jk} = \delta_{ik} = Q_{ji} Q_{jk} = \delta_{ik}$$

ovvero                            

  $$[\mathbf{Q}^T] [\mathbf{Q}] = [\mathbf{I}]$$     

Quindi, ricordando la definizione di matrice inversa

[\mathbf{Q}^T] = [\mathbf{Q}]^{-1} \Leftrightarrow [\mathbf{Q}]^T = [\mathbf{Q}]^{-1}                                                                             (1.39)

in cui l’ultima equivalenza scaturisce dalla proprietà (1.35) per la quale $[\mathbf{Q}^T]=[\mathbf{Q}]^T$.

In definitiva per un tensore ortogonale rappresentato in una base ortonormale, l’inversa della corrispondente matrice può essere valutata molto più semplicemente calcolando la trasposta della matrice stessa.

Tensori definiti in segno

Un tensore $\mathbf{A} : \mathcal{U} \to \mathcal{U}$ si dice

\left\{\begin{array}{l}\textnormal{ definito positivo } \\\textnormal{ semidefinito positivo } \\\textnormal{ definito negativo } \\\textnormal{ semidefinito negativo } \\\end{array}\right.\textnormal{ se } \mathbf{A} \mathbf{u} \cdot \mathbf{u}\left\{\begin{array}{c}> 0 \\\ge 0 \\< 0 \\\le 0\end{array}\right.\qquad \forall \mathbf{u} \in \mathcal{U} : \mathbf{u} \ne \mathbf{o}

Le trasformazioni ortogonali $\mathbf{Q}$ definite positive sono delle rotazioni e si indicano con il simbolo \mathbf{R}.

 

 

Prodotto tensoriale (1/3)

Assegnati due vettori $\mathbf{a}$ e $\mathbf{b}$ di $\mathcal{U}$, si definisce prodotto tensoriale di $\mathbf{a}$ per $\mathbf{b}$, e si indica con $\mathbf{a}\otimes\mathbf{b}$, il tensore definito dalla seguente relazione:

\begeq(\mathbf{a}\otimes\mathbf{b})\,\mathbf{c}\,{\overset{\mathit{def}}{=}}\,\mathbf{a}\,(\mathbf{b}\cdot\mathbf{c}) = (\mathbf{b} \cdot \mathbf{c} ) \mathbf{a} \qquad\forall\mathbf{c}\in\mathcal{U}                                                                      (1.40)

In componenti si ha:

[(\mathbf{a}\otimes\mathbf{b})\,\mathbf{c}]_{i}=(\mathbf{a}\otimes\mathbf{b})_{ij}\,\cc_{j}\qquad\forall\mathbf{c}\in\mathcal{U}                                                                               (1.41)

ed inoltre, dalla definizione (1.40):

[(\mathbf{a}\otimes\mathbf{b})\,\mathbf{c}]_{i}=[\mathbf{a}\,(\mathbf{b}\cdot\mathbf{c})]_{i}=a_{i}\,(\mathbf{b}\cdot\mathbf{c})=a_{i}\,(b_{j}\,c_{j})=(a_{i}\,b_{j})\,c_{j}\qquad\forall\mathbf{c}\in\mathcal{U}                                                 (1.42)

Pertanto, confrontando le ultime due relazioni si ricava 

(\mathbf{a}\otimes\mathbf{b})_{ij}=a_{i}\,b_{j}                                                                                               (1.43)

La matrice associata al tensore $\mathbf{a}\otimes\mathbf{b}$ è dunque la seguente:

\mathbf{a}\otimes\mathbf{b}=\left[ \begin{array}{ccc} a_{1}\,b_{1} & a_{1}\,b_{2} & a_{1}\, b_{3}\\ a_{2}\, b_{1} & a_{2}\, b_{2} & a_{2}\, b_{3}\\ a_{3}\, b_{1} & a_{3}\, b_{2} & a_{3}\, b_{3}\\ \end{array} \right]                                                                                     (1.44)

 

 

 

Prodotto tensoriale (2/3)

Una proprietà molto utile è 

$$(\mathbf{a} \otimes \mathbf{b})^T = \mathbf{b} \otimes \mathbf{a}$$

infatti

(\mathbf{a} \otimes \mathbf{b})^T \mathbf{c} \cdot \mathbf{d} &=& \mathbf{c} \cdot (\mathbf{a} \otimes \mathbf{b}) \mathbf{d} = \mathbf{c} \cdot (\mathbf{b} \cdot \mathbf{d}) \mathbf{a} = (\mathbf{a} \cdot \mathbf{c}) (\mathbf{b} \cdot \mathbf{d}) = (\mathbf{a} \cdot \mathbf{c}) \mathbf{b} \cdot \mathbf{d} = (\mathbf{b} \otimes \mathbf{a}) \mathbf{c} \cdot \mathbf{d}</p>
<p>                           (1.45)

Un’applicazione particolarmente utile del prodotto tensoriale consegue dalla proprietà (1.26) in quanto

$$\mathbf{A} \mathbf{e}_j = A_{kj} \mathbf{e}_k = A_{kq} \mathbf{e}_k \delta_{qj} = A_{kq} \mathbf{e}_k (\mathbf{e}_q \cdot \mathbf{e}_j) = A_{kq} (\mathbf{e}_k \otimes \mathbf{e}_q) \mathbf{e}_j$$

Pertanto si ottiene la seguente rappresentazione esplicita di $\mathbf{A}$

\mathbf{A} &=& A_{kq} \mathbf{e}_k \otimes \mathbf{e}_q =  A_{11} \mathbf{e}_1 \otimes \mathbf{e}_1 + A_{12} \mathbf{e}_1 \otimes \mathbf{e}_2 + \cdots + A_{33} \mathbf{e}_3 \otimes \mathbf{e}_3                                              (1.46)

Prodotto tensoriale (3/3)

la cui interpretazione matricale è del tutto evidente

$$[\mathbf{A}] = A_{11} [\mathbf{e}_1 \otimes \mathbf{e}_1] + A_{12} [\mathbf{e}_1 \otimes \mathbf{e}_2] + \cdots + A_{33} [\mathbf{e}_3 \otimes \mathbf{e}_3]$$

ovvero

[\mathbf{A}]= \left[ \begin{array}{ccc} A_{11} & 0 & 0\\ 0 & 0 & 0\\ 0 & 0 & 0 \\ \end{array} \right] + \left[ \begin{array}{ccc} 0 & A_{12} & 0\\ 0 & 0 & 0\\ 0 & 0 & 0 \\ \end{array} \right] + \cdots + \left[ \begin{array}{ccc} 0 & 0 & 0\\ 0 & 0 & 0\\ 0 & 0 & A_{33} \\ \end{array} \right]

Si noti che la (1.47) rappresenta la generalizzazione della (1.7) nel senso che il tensore $\mathbf{A}$ viene espresso attraverso le sue componenti $A_{kq}$  rispetto ai tensori $\{\mathbf{e}_k \otimes \mathbf{e}_q \}$ che costituiscono una base, ortonormale, dello spazio vettoriale $\mathcal{L} (\mathcal{U},\mathcal{U})$ dei tensori $\mathbf{A}: \mathcal{U} \to \mathcal{U}$.

Legge di trasformazione delle componenti di un vettore al variare della base (1/3)

In svariate applicazioni è spesso necessario esprimere le componenti di un vettore, univocamente note in una base assegnata, in una nuova base. Occorre quindi derivare le formule mediante le quali esprimere le componenti di un vettore nella nuova base a partire dalla conoscenza delle componenti del vettore nella base iniziale. Per fissare le idee faremo riferimento ad uno spazio $\mathcal{U}$ di dimensioni tre anche se i ragionamenti illustrati nel seguito valgono in generale.  Sia $\{ \mathbf{e}_1, \mathbf{e}_2, \mathbf{e}_3 \}$ la base iniziale e $\{ \overline{\mathbf{e}}_1, \overline{\mathbf{e}}_2, \overline{\mathbf{e}_3} \}$ la nuova base di $\mathcal{U}$. Evidentemente i versori della nuova base, non necessariamente cartesiana, saranno assegnati tramite una trasformazione \mathbf{T} invertibile le cui componenti saranno assegnate nella base iniziale, essendo questa l’unica base inizialmente nota. Scriveremo quindi

 \overline{\mathbf{e}}_j = \mathbf{T} \mathbf{e}_j = T_{kj} \mathbf{e}_k  

Assegnato un vettore $\mathbf{u} \in \mathcal{U}$ di cui sono note le componenti $u_j$ rispetto alla base $\{\mathbf{e}_i\}$ il problema da risolvere è quello di determinare le componenti $\overline{u}_k$ nella base $\{ \mathbf{e}_k \}$. Scriveremo allora

\mathbf{u} = \overline{u}_k \overline{\mathbf{e}}_k = \overline{u}_k \mathbf{T} \mathbf{e}_k = \overline{u}_k T_{jk} \mathbf{e}_j = T_{jk} \overline{u}_k \mathbf{e}_j                                                                         (1.47)

Essendo per ipotesi

\mathbf{u} = u_j \mathbf{e}_j 

il confronto tra le relazioni precedenti fornisce

u_j = T_{jk} \overline{u}_k \Leftrightarrow [\mathbf{u}] = [\mathbf{T}] [\overline{\mathbf{u}}]                                                                                 (1.48)

Ne consegue che il vettore incognito $\overline{\mathbf{u}}$ si ottiene risolvendo il precedente sistema di equazioni il cui vettore dei termini noti è fornito dal vettore $[\mathbf{u}]$ delle componenti di $\mathbf{u}$ rispetto alla base iniziale.

 

Legge di trasformazione delle componenti di un vettore al variare della base (2/3)

Essendo \mathbf{T} invertibile, in quanto esso trasforma la base iniziale nella nuova base, risulta 

[\overline{\mathbf{u}}] = [\mathbf{T}]^{-1} [\mathbf{u}]                                                                                                     (1.49)

Un caso particolarmente semplice, che evita l’inversione della matrice associata a \mathbf{T} nella base iniziale, si ottiene quando la trasformazione tra la base iniziale e quella finale è governata da un tensore ortogonale $[\mathbf{Q}]$. Quindi se la base iniziale è ortonormale tale risulta essere anche la nuova base. In tal caso, infatti, come mostrato in (1.39), la (1.49) si semplifica scrivendo

[\overline{\mathbf{u}}] = [\mathbf{Q}]^{T} [\mathbf{u}]                                                                                                      (1.50)

È importante sottolineare la differenza concettuale che esiste tra la (1.50) e la relazione seguente 

\overline{\mathbf{u}} = \mathbf{Q}^{T} \mathbf{u}                                                                                                        (1.51)

solo apparentemente identica alla precedente.

Infatti la (1.50) esprime le componenti dello \emph{stesso} vettore $\mathbf{u}$ in due basi diverse; pertanto pur essendo il vettore identico le relative componenti, ovvero $[\mathbf{u}]$ nella base $\{ \mathbf{e}_i \}$ e $[\overline{\mathbf{u}}]$ nella base $\{ \overline{\mathbf{e}}_i \}$, sono diverse. Viceversa la (1.51), in quanto trasformazione governata da un tensore, ancorché ortogonale, trasforma il vettore $\mathbf{u}$ in un altro vettore.

 

Legge di trasformazione delle componenti di un vettore al variare della base (3/3)

A titolo esemplificativo si consideri un caso piano e si faccia riferimento alla base iniziale $\{\mathbf{e}_1 , \mathbf{e}_2 \}$  ed a una nuova base denotata con $\{\overline{\mathbf{e}}_1 , \overline{\mathbf{e}}_2 \}$ ottenuta ruotando i versori della base iniziale di un angolo $\alpha$ in senso antiorario.

$$\overline{\mathbf{e}}_1 = \mathbf{Q} \mathbf{e}_1 \qquad \overline{\mathbf{e}}_2 = \mathbf{Q} \mathbf{e}_2$$   

Pertanto la matrice associata a $\mathbf{Q}$ diventa (FIGURA 2)

[\mathbf{Q}]=\left[ \begin{array}{cc}\mathbf{e}_1 \cdot \mathbf{Q} \mathbf{e}_1 & \mathbf{e}_1 \cdot \mathbf{Q} \mathbf{e}_2 \\\mathbf{e}_2 \cdot \mathbf{Q} \mathbf{e}_1 & \mathbf{e}_2 \cdot \mathbf{Q} \mathbf{e}_2\end{array} \right]=\left[ \begin{array}{cc}\cos \alpha & -\textnormal{sen} \,\alpha \\\textnormal{sen} \,\alpha & \cos \alpha\end{array} \right]

e le componenti $[\overline{\mathbf{u}}]$ di un vettore $\mathbf{u}$ di cui siano note le componenti $[\mathbf{u}]$ nella base iniziale si otterranno, in base alle (1.50) come

[\overline{\mathbf{u}}]=\left[ \begin{array}{cc}\cos \alpha & \textnormal{sen} \,\alpha \\-\textnormal{sen} \,\alpha & \cos \alpha\end{array} \right][\mathbf{u}]                                                                               (1.52)

In particolare se $\mathbf{u} = 5 (\cos \alpha, \sin \alpha)$ e cioè è un vettore diretto secondo $\overline{\mathbf{e}}_1$ le sue componenti $[\mathbf{u}]$ sono $(5 \cos \alpha, 5 \sin \alpha)$ mentre le componenti $[\overline{\mathbf{u}}]$ devono valere $(5,0)$ come è facile utilizzando la (1.52) 

Legge di trasformazione delle componenti di un tensore al variare della base (1/3)

In modo del tutto analogo a quanto illustrato per le componenti di un vettore, siano interessati a determinare la legge con cui variano le componenti di un tensore, inizialmente note in  una base $\{ \mathbf{e}_k \}$, quando quest’ultima varia secondo una legge del tipo

$$\overline{\mathbf{e}}_k = \mathbf{T} \mathbf{e}_k = T_{pk} \mathbf{e}_p$

con $\mathbf{T}$ tensore invertibile.

 

Legge di trasformazione delle componenti di un tensore al variare della base (2/3)

Assegnato il tensore $\mathbf{A}$ e la relazione 

$$\mathbf{A} \mathbf{u} = \mathbf{v} \qquad \forall \mathbf{u}, \mathbf{v} \in \mathcal{U}$$

si può scrivere, nelle due basi,

A_{ij} u_j = v_i \qquad \overline{A}_{pq} \overline{u}_q = \overline{v}_p                                                                               (1.53)

Supponiamo note le componenti di $\mathbf{A}$$\mathbf{u}$ e $\mathbf{v}$ nella base $\{ \mathbf{e}_k \}$, ossia le grandezza che compaiono nella prima delle relazioni precedenti e si vogliono calcolare le componenti di $\mathbf{A}$ nella nuova base $\{ \overline{\mathbf{e}}_k \}$ ovvero le grandezze $\overline{A}_{pq}$. A tale scopo disponiamo già della relazione (1.47) che ci consente di esprimere

$$u_j = T_{jq} \overline{u}_q\qquad \textnormal{e} \qquad v_i = T_{ip} \overline{v}_p$$

Legge di trasformazione delle componenti di un tensore al variare della base (3/3)

Sostituendo le relazioni precedenti nella (1.53) risulta

A_{ij} T_{ij} \overline{u}_{q} = T_{ip} \overline{A}_{pq} \overline{u}_{q}                                                                                   (1.54)

ovvero

\overline{A}_{pq} = (T^{-1})_{pi} A_{ij} T_{ij}

Quindi le componenti di $\mathbf{A}$ nella nuova base si ottengono componendo le tra matrici $[\mathbf{T}^{-1}]$$[\mathbf{A}]$ e [\mathbf{T}] tutte note nella base iniziale. Naturalmente, se il cambio di base è governato da un tensore ortogonale $\mathbf{Q}$ la (1.54) si semplifica ulteriormente come segue

[\overline{\mathbf{A}}]=[\mathbf{Q}]^T [\mathbf{A}] [\mathbf{Q}]                                                                                       (1.55) 

essendo $[\mathbf{Q}]$ la matrice associata a $\mathbf{Q}$ nella base iniziale.

  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion