Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D Le Miniguide all'orientamento Gli eBook di Federica La Corte in Rete
 
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Luciano Rosati » 3.CALCOLO TENSORIALE - parte 2


Prodotti vettoriali e tensori emisimmetrici associati (1/5)

Nel seguito, per semplicità, faremo riferimento ad uno spazio vettoriale di dimensione tre.

Si definisce prodotto vettoriale in \mathcal{U} una funzione, denotata con \mathbf{u} \times \mathbf{v}, definita in \mathcal{U} \times \mathcal{U} ed a valori in \mathcal{U} tale che, \forall \mathbf{u}, \mathbf{v},\mathbf{w} \in \mathcal{U}

$\normaltext{1)  }\,\,\mathbf{u} \times \mathbf{v} = -\mathbf{v} \times \mathbf{u}$

$\normaltext{2)}\,\, \mathbf{u} \times (\mathbf{u} + \mathbf{w})= \mathbf{u} \times \mathbf{v} + \mathbf{u} \times \mathbf{w}$

$\normaltext{3)}\,\,\lambda (\mathbf{u} \times \mathbf{v}) = (\lambda \mathbf{u}) \times \mathbf{v} \qquad \forall \lambda \in \mathbb{R}$

$\normaltext{4)}\,\,(\mathbf{u} \times \mathbf{v})\cdot \mathbf{u} = (\mathbf{u} \times \mathbf{v}) \cdot \mathbf{v} = 0$

\textnormal{5)\,\,}(\mathbf{u} \times \mathbf{v}) = |u||v| \sin\theta

      con    \theta: \qquad \displaystyle{\cos\theta=\frac{\mathbf{u} \cdot \mathbf{v}}{|u||v|}} \qquad \textnormal{e} \,\, 0 < \theta < \pi

Dal punto di vista geometrico $|\mathbf{u} \times \mathbf{v}|$ è l’area del parallelogramma i cui lati, di lunghezza $|\mathbf{u}|$ e $|\mathbf{v}|$, si intersecano formando un angolo $\theta$.

In particolare $\mathbf{u} \times \mathbf{v} = \mathbf{o}$.

Sfruttando la proprietà $1)$ è possibile anche dimostrare che

                                               \lambda (\mathbf{u} \times \mathbf{v}) = \mathbf{u} \times (\lambda \mathbf{v})                                                                                                     (2.1)

e

 (\mathbf{u} + \mathbf{v}) \times \mathbf{w} = \mathbf{u} \times \mathbf{w} + \mathbf{v} \times \mathbf{w} 

 

                                                                                

Prodotti vettoriali e tensori emisimmetrici associati (2/5)

In particolare la proprietà $2)$ e la (2.1) consentono di affermare che l’operatore $\mathbf{u} \times$ inteso come trasformazione di $\mathcal{U} \to \mathcal{U}$ è lineare. Quindi è un tensore che si denota con $\mathbf{W}_{\mathbf{u}}$. In altri termini si scrive

\mathbf{u} \times \mathbf{v} = \mathbf{W}_\mathbf{u} \mathbf{v} \qquad \forall \mathbf{u},\mathbf{v} \in \mathcal{U}                                                                                                    (2.2)

e mostreremo tra breve che $\mathbf{W}_{\mathbf{u}}$ è un tensore emisimmetrico.

Si consideri infatti l’ulteriore operazione h\mathcal{U} \times \mathcal{U} \times \mathcal{U} \to \mathcal{R}

[\mathbf{u},\mathbf{v},\mathbf{w}] {\overset{\mathit{def}}{=}} \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w})                                                                                                        (2.3)

detta prodotto misto. Come è noto essa fornisce il volume del parallelepipedo i cui lati sono definiti dai vettori $\mathbf{u}$$\mathbf{v}$ e $\mathbf{w}$.

Ebbene, assegnata una base ortonormale $\{\mathbf{e}_1, \mathbf{e}_2, \mathbf{e}_3\}$ risulta  

\mathbf{e}_i \times \mathbf{e}_j = \pm \mathbf{e}_k

essendo $i$ $j$ $k$ una arbitraria permutazione pari degli indici $1$$2$ e $3$ ovvero una possibile fra le terne $123$$231$$312$.

Ad esempio per $i=1$$j=2$ e $k=3$ risulta 

\mathbf{e}_i \times \mathbf{e}_2 = \pm \mathbf{e}_3

Infatti, $\mathbf{e}_1 \times \mathbf{e}_2 \in \mathcal{U}$ sicchè

\mathbf{e}_i \times \mathbf{e}_2 = \alpha \mathbf{e}_1 + \beta \mathbf{e}_2 + \gamma \mathbf{e}_3

 

Prodotti vettoriali e tensori emisimmetrici associati (3/5)

D’altra parte per la proprietà  $4)$ del prodotto vettoriale risulta

\alpha = (\mathbf{e}_1 \times \mathbf{e}_2) \cdot \mathbf{e}_1 = 0 \qquad \beta = (\mathbf{e}_1 \times \mathbf{e}_2) \cdot \mathbf{e}_2 = 0 

sicché

$$\mathbf{e}_1 \times \mathbf{e}_2 = \gamma \mathbf{e}_3$$

Risultando altresì

$$|\mathbf{e}_1 \times \mathbf{e}_2|=1$$

deve necessariamente essere 

\gamma = \pm 1

Uno spazio vettoriale $\mathcal{U}$ nel quale si scelga $\gamma=1$ ovvero 

\mathbf{e}_1 \times \mathbf{e}_2 = \mathbf{e}_3                                                                                                   (2.4)

viene detto con orientazione positiva. Nel seguito faremo sempre riferimento a spazi vettoriali con orientazione positiva. In tal caso, con ragionamento analogo a quello precedente si dimostra che

\mathbf{e}_2 \times \mathbf{e}_3 &=& \mathbf{e}_1                                                                                                    (2.5)

                                              \mathbf{e}_3 \times \mathbf{e}_1 &=& \mathbf{e}_2                                                                                                            

 

Prodotti vettoriali e tensori emisimmetrici associati (4/5)

Possiamo quindi esprimere il prodotto scalare in termini di componenti rispetto ad una base cartesiana scrivendo   

\mathbf{u} \times \mathbf{v} &=& u_i \mathbf{e}_i \times v_j \mathbf{e}_j =

           &=& (u_1 \mathbf{e}_1 + u_2 \mathbf{e}_2 + u_3 \mathbf{e}_3) \times (v_1 \mathbf{e}_1 + v_2 \mathbf{e}_2 + v_3 \mathbf{e}_3) =                                                                                                                          (2.6)

            &=& (u_2 v_3 - u_3 v_2) \mathbf{e}_1 + (u_3 v_1 - u_1 v_3) \mathbf{e}_2 + (u_1 v_3 - u_2 v_1) \mathbf{e}_3

in virtù delle proprietà del prodotto vettoriale introdotte in precedenza nonchè di quelle riportate in (2.5)  

La (2.6) si esprime in modo ancora più sintetico come segue

(\mathbf{u} \times \mathbf{v})_i = \epsilon_{ijk} u_j v_k                                                                                                        (2.7)

Introducendo il cosiddetto simbolo di permutazione $\epsilon_{ijk}$ definito da 

 \epsilon_{ijk}=\left\{\begin{array}{ccl} 1\hfill&\textnormal{ se } & ijk= 123, 231, 312 \\ -1\hfill&\textnormal{ se } & ijk= 132, 213, 321 \\ 0\hfill&\textnormal{ se } & \textnormal{due degli indici $i$,$j$,$k$ coincidono} \end{array} \right.  

Prodotti vettoriali e tensori emisimmetrici associati (5/5)

Infatti sviluppando per esteso la (2.7) si ha, per $i=1$

 

\begin{array}{cccl} (\mathbf{u} \times \mathbf{v})_1 = \epsilon_{1jk} u_j v_k &=& &\epsilon_{111} u_1 v_1 + \epsilon_{112} u_1 v_2 + \epsilon_{113} u_1 v_3 + \\ &&+& \epsilon_{121} u_2 v_1 + \epsilon_{122} u_2 v_2 + \epsilon_{123} u_2 v_3 + \\ &&+& \epsilon_{131} u_3 v_1 + \epsilon_{132} u_3 v_2 + \epsilon_{133} u_3 v_3 + \\ &=& &\epsilon_{123} u_2 v_3 + \epsilon_{132} u_3 v_2 = u_2 v_3 - u_3 v_2 \end{array}                                                                                        (2.8)

ovvero la prima componente nella formula (2.6). Ponendo $i=2$ e $i=3$ si ricavano in modo analogo la seconda e terza componente di $\mathbf{u} \times \mathbf{v}$ in (2.6). Ulteriori proprietà del simbolo di permutazione, molto utili nelle applicazioni sono le seguenti

Identità (1/4)

Identità $\epsilon - \delta$

È l’identità che si ottiene considerando il prodotto di due permutazioni, ovvero

$$\epsilon_{ijk} \epsilon_{ipq} = \delta_{jp} \delta_{kq} - \delta_{jq} \delta_{kp}$$

Infatti il prodotto dei permutatori a primo membro è sempre diverso da zero purchè le coppie di indici $(jk)$ $(pq)$ contengano la stessa coppia di indici, indipendentemente del loro ordine, e queste siano diverse da $i$

Se le coppie di indici $(jk)$ e $(pq)$ coincidono anche nell’ordine il prodotto dei permutatori a primo membro è pari a 1, poiché le permutazioni delle terne $ijk$ e $ipq$ saranno entrambi pari o entrami dispari, come il primo dei prodotti a secondo membro. 

Viceversa, se l’ordine degli indici $(jk)$ e $(pq)$ è diverso il prodotto a primo membro è pari a -1 come il secondo dei prodotti a secondo membro. Infatti il primo dei prodotti $\delta_{jp}\delta_{kq}$ è nullo, essendo per ipotesi$j \ne p$  e $k \ne q$, mentre sarannno pari a $1$ sia $\delta_{jq}$ che $\delta_{kp}$

Nell’ipotesi in cui le coppie di indici $(jk)$ e $(pq)$ siano diverse, uno dei permutatori sarà sempre nullo in quanto l’indice $i$, che sottintende una sommatoria, sarà sempre coicidente con almeno uno degli indici della coppia $(jk)$ $(pq)$. In questo caso l’annullarsi del primo membro si verifica anche a secondo membro poiché se $\delta_{jp}=1$, in quanto gli indici $j$ e $p$ sono uguali, sarà certamente $\delta_{kp}=0$ poichè per ipotesi gli indici nelle coppie $(j,k)$ e $(pq)$ sono distinti. 

 

Identità (2/4)

Come caso particolare dell’identità $\epsilon - \delta$ si ricava l’ulteriore risultato

\epsilon_{ijk} \epsilon_{ij\ell} = \delta_{jj} \delta_{k\ell} - \delta_{j\ell} \delta_{kj} = 3 \delta_{k\ell} - \delta_{k\ell} = 2 \delta_{k\ell}                                                                              (2.9)

da cui consegue altresì 

$$\epsilon_{ijk} \epsilon_{ijk} = 2 \delta_{kk}=6$$

Invocando la (2.9) si può anche scrivere

$$\epsilon_{ijk}(\mathbf{e}_i \times \mathbf{e}_j) \cdot \mathbf{e}_\ell = 2 \mathbf{e}_k \cdot \mathbf{e}_\ell$$

Poiché la relazione precedente vale per un generico versore $\mathbf{e}_\ell$ si ricava

\mathbf{e}_k =\frac{1}{2} \epsilon_{ijk} \mathbf{e}_i \times \mathbf{e}_j = \frac{1}{2} \epsilon_{kij} \mathbf{e}_i \times \mathbf{e}_j

In uno spazio vettoriale con orientazione positiva risulta

\mathbf{e}_i \times \mathbf{e}_j = \epsilon_{ijk} \mathbf{e}_k                                                                                              (2.10)

o, equivalentemente

\epsilon_{ijk}= (\mathbf{e}_i \times \mathbf{e}_j) \cdot \mathbf{e}_k                                                                                            (2.11)

 

 

Identità (3/4)

La relazione precedente può anche scriversi 

(\mathbf{e}_i \times \mathbf{e}_j) \cdot \mathbf{e}_k = \epsilon_{ijk} (\mathbf{e}_1 \times \mathbf{e}_2) \cdot \mathbf{e}_3                                                                              (2.12)

In quanto, essendo $(\mathbf{e}_1 \times \mathbf{e}_2) \cdot \mathbf{e}_3 = 1$ in uno spazio con orientazione positiva, $\epsilon_{ijk}$ rappresenta il valore assunto dal primo membro in funzione della permutazione degli indici $i$$j$ e $k$. Conseguentemente si ricava dalla (2.3)

\mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) = \epsilon_{ijk} u_i v_j w_k\                                                                                       (2.13)

 e

\mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) = \mathbf{v} \cdot (\mathbf{w} \times \mathbf{u}) = \mathbf{w} \cdot (\mathbf{u} \times \mathbf{v})

ovvero

$$\mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) = -\mathbf{v} \cdot (\mathbf{u} \times \mathbf{w}) = -\mathbf{w} \cdot (\mathbf{v} \times \mathbf{u})= -\mathbf{u} \cdot (\mathbf{w} \times \mathbf{v})$$

Assegnati tre vettori arbitrari $\mathbf{u}$, $\mathbf{v}$, $\mathbf{w} \in \mathcal{U}$

\mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) = 0  \,\,\, \Leftrightarrow \,\,\, \mathbf{u},\mathbf{v},\mathbf{w} \qquad          sono linearmente dipendenti 

Infatti, se $\mathbf{u}$, $\mathbf{v}$ e $\mathbf{w}$ sono linearmente dipendenti $\mathbf{u}=\lambda \mathbf{v} + \mu \mathbf{w}$ con $\lambda$ e $\mu \in \mathbb{R}$  sicché sussiste l’implicazione $\Leftarrow$ nella relazione precedente in virtù della proprietà $2)$ del prodotto scalare e di quella $4)$ del prodotto vettoriale.



Identità (4/4)

Per dimostrare l’implicazione $\Rightarrow$ nella relazione precedente supponiamo $\mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) = 0$. Se $\mathbf{v} \times \mathbf{w} = \mathbf{o}$, $\mathbf{v}$ e $\mathbf{w}$ sono paralleli e quindi i vettori $\mathbf{u}$, $\mathbf{v}$ e $\mathbf{w}$ sono linearmente dipendenti. Nell’ipotesi $\mathbf{v} \times \mathbf{w} \ne \mathbf{o}$, e cioè $\mathbf{v}$ e $\mathbf{w}$ linearmente indipendenti, escludiamo il caso $\mathbf{u}=\mathbf{o}$ perchè in tal caso i vettori $\mathbf{u}$, $\mathbf{v}$ e $\mathbf{w}$ sarebbero banalmente lineramente indipendenti. Dunque se $\mathbf{u} \ne \mathbf{o}$ e $\mathbf{u} \cdot (\mathbf{u} \times \mathbf{w})=0$ risulta gioco forza $\mathbf{u} \perp$ a $\mathbf{v} \times \mathbf{w}$ dove il simbolo $\perp$ indica “ortogonale”. In tale caso $\mathbf{u}$ appartiene al sottospazio individuato da $\mathbf{v}$ e $\mathbf{w}$ ossia quello per il quale $\mathbf{v}$ e $\mathbf{w}$, per ipotesi linearmente indipendenti, formano una base. Quindi $\mathbf{u}$, $\mathbf{v}$ e $\mathbf{w}$ sono lineramente dipendenti. In virtù della proprietà precedente e della definizione di tensore trasposto si ricava dalla (2.2) che

$$(\mathbf{u} \times \mathbf{v}) \cdot \mathbf{w} = \mathbf{W}_\mathbf{u} \mathbf{v} \cdot \mathbf{w} = \mathbf{v} \cdot \mathbf{W}_\mathbf{u}^T \mathbf{w}  $$

ovvero

(\mathbf{w} \times \mathbf{u}) \cdot \mathbf{v} = -(\mathbf{u} \times \mathbf{w}) \cdot \mathbf{v} = - \mathbf{W}_\mathbf{u}^T \mathbf{u} \cdot \mathbf{v}

e quindi che $\mathbf{W}_\mathbf{u}$ è un tensore emisimmetrico.

Identità (/)

 Il tensore $\mathbf{W}_\mathbf{u}$ viene anche detto tensore emisimmetrico associato ad $\mathbf{u}$ e quest’ultimo vettore assiale associato a $\mathbf{W}_\mathbf{u}$.                                                                                                                                                                                                          

Dalla definizione (2.2) di tensore emisimmetrico $\mathbf{W}_\mathbf{u}$ associato ad $\mathbf{u}$, ovvero             

$$\mathbf{W}_\mathbf{u} \mathbf{v} = \mathbf{u} \times \mathbf{v} \qquad \forall \,\, \mathbf{u}, \mathbf{v} \in \mathcal{U}$$

 si ricavano come segue le componenti di $\mathbf{W}_\mathbf{u}$ a partire da quella di $\mathbf{u}$.

 Infatti, per definizione di matrice associata ad un tensore si ha, ricordando altresì la (2.10)

(\mathbf{W}_\mathbf{u})_{ij} = \mathbf{W}_\mathbf{u} \mathbf{e}_j \cdot \mathbf{e}_i = (\mathbf{u} \times \mathbf{e}_j) \cdot \mathbf{e}_i = (\mathbf{e}_j \times \mathbf{e}_i) \cdot \mathbf{u} = \epsilon_{jik} \mathbf{e}_k \cdot \mathbf{u} = - \epsilon_{ijk} u_k

In termini matriciali si ha

$$[\mathbf{W}_\mathbf{u}]=\left[\begin{array}{ccc}0 & -u_3 & u_2 \\u_3 & 0 & -u_1 \\-u_2 & u_1 & 0\end{array}\right]$$



Identità (/)

Viceversa, per ricavare le componenti del vettore assiale a partire da quelle di un tensore emisimmetrico $\mathbf{W}$ si procede come segue

Esprimiamo la (2.2) in componenti

$$\epsilon_{ijk} u_j v_k = W_{ik} v_k$$

ovvero

$$\epsilon_{ijk} u_j = W_{ik} \Leftrightarrow -\epsilon_{ikj} u_j = W_{ik}$$

Sfruttando la (2.9) possiamo scrivere

$$\epsilon_{ikp} \epsilon_{ikj} u_j = - \epsilon_{ikp} W_{ik} = -\epsilon_{pik} W_{ik}$$

e quindi

$$2 \delta_{pj} u_j = - \epsilon_{pik} W_{ik}$$

ossia

u_p = - \frac{1}{2} \epsilon_{pik} W_{ik}

Invarianti di un tensore di ordine 2

Si definiscono invarianti di un tensore \mathbf{A} di ordine 2, e si denotano con $I_\mathbf{A}$, $II_\mathbf{A}$ e $III_\mathbf{A}$, gli scalari che godono delle seguenti proprietà $\forall \mathbf{u}$, \mathbf{v}, \mathbf{w} \in \mathcal{U}.

\begin{subequations} \begin{align} \mathbf{A}\mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) + \mathbf{u} \cdot (\mathbf{A} \mathbf{v} \times \mathbf{w}) + \mathbf{u} \cdot (\mathbf{v} \times \mathbf{A} \mathbf{w}) &= I_\mathbf{A} \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) \,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\textnormal{(2.14a)}\\ \mathbf{A}\mathbf{u} \cdot (\mathbf{A}\mathbf{v} \times \mathbf{w}) + \mathbf{A}\mathbf{u} \cdot (\mathbf{v} \times \mathbf{A}\mathbf{w}) + \mathbf{u} \cdot (\mathbf{A}\mathbf{v} \times \mathbf{A} \mathbf{w}) &= II_\mathbf{A} \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) \,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\textnormal{(2.14b)}\\ \mathbf{A}\mathbf{u} \cdot (\mathbf{A}\mathbf{v} \times \mathbf{A}\mathbf{w}) &= III_\mathbf{A} \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) \,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\textnormal{(2.14c)} \end{align} \end{subequations}

 In particolare l’invariante di ordine tre, ovvero $III_\mathbf{A}$ è denotato più comunemente determinante di $\mathbf{A}$ e viene indicato con $\det \mathbf{A}$. Quindi il suo significato geometrico è quello di fornire il rapporto tra il volume associato ai tre vettori $\mathbf{u}$, $\mathbf{v}$ e $\mathbf{w}$ (purché linearmente indipendenti) e quello associato ai rispettivi trasformati tramite $\mathbf{A}$, ovvero $\mathbf{A}\mathbf{u}$, $\mathbf{A}\mathbf{v}$ e $\mathbf{A}\mathbf{w}$.



Invarianti di un tensore di ordine 2 (2/2)

In effetti, le formule precedenti sussistono anche se $\mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) = 0$Infatti, dalla prima si ricava, ponendo $\mathbf{u} = u_i \mathbf{e}_i$, $\mathbf{v} = v_j \mathbf{e}_j$ e \mathbf{w} = w_k \mathbf{e}_k

 \mathbf{A}\mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) + \mathbf{u} \cdot (\mathbf{A}\mathbf{v} \times \mathbf{w}) + \mathbf{u} \cdot (\mathbf{v} \times \mathbf{A} \mathbf{w}) =                               

= u_i v_j w_k [ \mathbf{A}\mathbf{e}_i(\mathbf{e}_j \times \mathbf{e}_k) + \mathbf{e}_i \cdot (\mathbf{A} \mathbf{e}_j \times \mathbf{e}_k) + \mathbf{e}_i \cdot (\mathbf{e}_j \times \mathbf{A} \mathbf{e}_k)] =                                

= \epsilon_{ijk} u_i v_j w_k [\mathbf{A} \mathbf{e}_i \cdot (\mathbf{e}_2 \times \mathbf{e}_3) + \mathbf{e}_1 \cdot (\mathbf{A} \mathbf{e}_2 \times \mathbf{e}_3)] + \mathbf{e}_1 \cdot (\mathbf{e}_2 \times \mathbf{A} \mathbf{e}_3)=                                

= \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) \mathbf{I}_\mathbf{A}                               

in virtù delle (2.12) e (2.13).

Analogamente si ragiona per le altre due relazioni delle (2.14b) e (2.14c). In definitiva, ad ogni tensore $\mathbf{A}$ di ordine 2 sono univocamente associati tre scalari che costituiscono una proprietà intrinseca di $\mathbf{A}$, quindi indipendentemente dalla particolare rappresentazione matriciale di $\mathbf{A}$ in un assegnato sistema di riferimento.

Questa proprietà diventerà ancora più significativa nel seguito quando si introdurranno le trasformazioni di similitudine per un tensore.

 

 

Proprietà del determinante

Un tensore $\mathbf{A} : \mathcal{U} \to \mathcal{U}$ è invertibile se e solo se $\det \mathbf{A} \ne 0$.

Infatti, senza ledere la generalità della trattazione, possiamo scegliere $\mathbf{u}=\mathbf{e}_1$,$\mathbf{v}=\mathbf{e}_2$ e $\mathbf{w}=\mathbf{e}_3$ in (2.14c) ottenendo

$$\det \mathbf{A} = \mathbf{A} \mathbf{e}_1 \cdot (\mathbf{A} \mathbf{e}_2 \times \mathbf{A} \mathbf{e}_3)$$

Quindi, se $\det \mathbf{A} \ne 0$, i vettori $\mathbf{A} \mathbf{e}_1$, $\mathbf{A} \mathbf{e}_2$ e $\mathbf{A} \mathbf{e}_3$ sono linearmente indipendenti. Ne consegue che, scelto un arbitrario $\mathbf{b} \in \mathcal{U}$ di componenti $b_1$, $b_2$ e $b_3$, risulterà

$$\mathbf{A} \mathbf{b} = b_1 \mathbf{A} \mathbf{e}_1 + b_2 \mathbf{A} \mathbf{e}_2 + b_3 \mathbf{A} \mathbf{e}_3$$

Pertanto, essendo $\mathbf{A} \mathbf{e}_1$, $\mathbf{A} \mathbf{e}_2$ e $\mathbf{A} \mathbf{e}_3$ linearmente indipendenti, l’equazione

\mathbf{A}\mathbf{b} = \mathbf{o} 

ammette sola la soluzione banale $b_1=b_2=b_3=0$. Quindi $\mathbf{A}$ è invertibile.

Viceversa se $\mathbf{A}$ è invertibile, i vettori $\mathbf{A}\mathbf{e}_1$, $\mathbf{A}\mathbf{e}_2$ e $\mathbf{A}\mathbf{e}_3$ sono linearmente indipendenti; ciò implica

$$\det \mathbf{A} = \mathbf{A} \mathbf{e}_1 \cdot (\mathbf{A} \mathbf{e}_2 \times \mathbf{A} \mathbf{e}_3) \ne 0 $$ 

Determinante della composizione tra tensori

Sfruttando la definizione (2.14c) di determinante di un tensore si dimostra agevolmente che

\det (\mathbf{A} \mathbf{B}) = (\det \mathbf{A}) (\det \mathbf{B}) = \det (\mathbf{B} \mathbf{A})                                                                      (2.15)

In particolare se $\mathbf{A}$ è invertibile, ovvero $\mathbf{A} \mathbf{A}^{-1}= \mathbf{A}^{-1} \mathbf{A} = \mathbf{I} $, si ricava 

\det \mathbf{A}^{-1} = \frac{1}{\det \mathbf{A}}                                                                                           (2.16)

essendo \det \mathbf{I} = 1

Espressione del determinante in funzione delle componenti cartesiane di A (1/2)

In base alla definizione (2.14c) di determinante risulta

$$(\det \mathbf{A}) \mathbf{e}_p \cdot (\mathbf{e}_q \times \mathbf{e}_r) = \mathbf{e}_i \cdot (\mathbf{e}_j \times \mathbf{e}_k) A_{ip} A_{jq} A_{kr}$$

avendo posto $\mathbf{u}=\mathbf{e}_p$, $\mathbf{v}=\mathbf{e}_q$, $\mathbf{w}=\mathbf{e}_r$, $\mathbf{A} \mathbf{e}_p=\mathbf{A}_{ip} \mathbf{e}_i$, ecc….

La relazione precedente si scrive anche 

\epsilon_{pqr} \det \mathbf{A} = \epsilon_{ijk} A_{ip} A_{jq} A_{kr}                                                                            (2.17)

sicché ponendo $p=1$, $q=2$ e $r=3$ risulta

$$\det \mathbf{A} = \epsilon_{ijk} A_{i1} A_{j2} A_{k3}$$

che costituisce la cosiddetta regola di Binet per il calcolo del determinante di una matrice.

Dalla (2.17) si ricava anche, moltiplicando per $\epsilon_{pqr}$ e ricordando il risultato $\epsilon_{pqr} \epsilon_{pqr} = 3! = 6$,

$$\det \mathbf{A} = \frac{1}{6} \epsilon_{ijk} \epsilon_{pqr} A_{ip} A_{jq} A_{kr}$$

Dalla relazione precedente consegue altresì

$$\det \mathbf{A} = \frac{1}{6} \epsilon_{pqr} \epsilon_{ijk} (\mathbf{A}^T)_{pi} (\mathbf{A}^T)_{qj} (\mathbf{A}^T)_{rk} = \det \mathbf{A}^T$$

 

Espressione del determinante in funzione delle componenti cartesiane di A (2/2)

Pertanto i tensori ortogonali, e cioè quelli definiti da

$$\mathbf{Q} \mathbf{Q}^T = \mathbf{Q}^T \mathbf{Q} = \mathbf{I}$$

sono anche caratterizzati dalla proprietà 

$$\det \mathbf{Q} = \pm 1$$

in virtù della (2.15).

In particolare i tensori ortogonali per i quali $\det \mathbf{A} = +1$ si chiamano rotazioni e si indicano comunemente con il simbolo $\mathbf{R}$.

Aggiunto e cofattore (1/3)

Si definisce aggiunto di un tensore $\mathbf{A} : \mathcal{U} \to \mathcal{U}$ il tensore definito dalla seguente proprietà

\mathbf{A}^A \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) = \mathbf{u} \cdot (\mathbf{A} \mathbf{v} \times \mathbf{A} \mathbf{w}) \qquad \forall \mathbf{u}, \mathbf{v} , \mathbf{w} \in \mathcal{U}                                                         (2.18)

la cui motivazione sarà maggiormente chiarita quando si introdurrà il concetto di polinomio caratteristico di $\mathbf{A}$. Per illustrare il legame tra l’agginuto di $\mathbf{A}$ e $\det \mathbf{A}$ si ponga $\mathbf{u} = \mathbf{A} \mathbf{z}$ nella relazione precedente. Si ottiene allora

$$\mathbf{A}^A \mathbf{A}\mathbf{z} \cdot (\mathbf{v} \times \mathbf{w}) = \mathbf{A}\mathbf{z} \cdot (\mathbf{A} \mathbf{v} \times \mathbf{A} \mathbf{w}) = (\det \mathbf{A}) \mathbf{z} \cdot (\mathbf{v} \times \mathbf{w})  $$

ovvero 

\mathbf{A}^A \mathbf{A} = (\det \mathbf{A}) \mathbf{I}                                                                                       (2.19)

In particolare, se $\mathbf{A}$ è invertibile, si ricava dalla relazione precedente 

\mathbf{A}^{-1} = \frac{\mathbf{A}^A}{\det \mathbf{A}}                                                                                          (2.20)

ciò che costituisce una utile caratterizzazione dell’inversa di un tensore.  Le componenti cartesiane di $\mathbf{A}^A$ si ottengono a partire da quella di $\mathbf{A}$ utilizzando la (2.18)

$$\mathbf{u} \cdot (\mathbf{A}^A)^T (\mathbf{v} \times \mathbf{w}) = \mathbf{u} \cdot (\mathbf{A} \mathbf{v} \times \mathbf{A} \mathbf{w})$$

ovvero

(\mathbf{A}^A)^T (\mathbf{v} \times \mathbf{w}) = \mathbf{A} \mathbf{v} \times \mathbf{A} \mathbf{w}                                                                            (2.21)

Aggiunto e cofattore (2/3)

Pertanto

$$[(\mathbf{A}^A)^T]_{kj} (\mathbf{v} \times \mathbf{w})_j = \epsilon_{kpq} (\mathbf{A} \mathbf{v})_p (\mathbf{A} \mathbf{w})_q$$

da cui si ottiene

$$(\mathbf{A}^A)_{jk} \epsilon_{jrs} v_r w_s = \epsilon_{kpq} A_{pr} v_r A_{qs} w_s$$

e cioè

$$(\mathbf{A}^A)_{jk} \epsilon_{jrs} = \epsilon_{kpq} A_{pr} A_{qs}$$

Moltiplicando ambo i membri per $\epsilon_{irs}$ e ricordando la proprietà $\epsilon_{jrs} \epsilon_{irs} = 2 \delta_{ji}$ si ottiene quindi 

(\mathbf{A}^A)_{ik} = \frac{1}{2} \epsilon_{irs} \epsilon_{kpq} A_{pr} A_{qs}                                                                             (2.22)

che fornisce il risultato cercato.

La (2.21) consente anche di introdurre il cofattore di $\mathbf{A}$, denotato con $\mathbf{A}^C$ e caratterizzato dalla proprietà

\mathbf{A}^C = (\mathbf{A}^A)^T,                                                                                       (2.23)

come il tensore per il quale

$$\mathbf{A}^C (\mathbf{v} \times \mathbf{w}) = \mathbf{A}^C \mathbf{v} \times \mathbf{A}^C \mathbf{w} \qquad \forall \mathbf{v}, \mathbf{w} \in \mathcal{U}$$

 

Aggiunto e cofattore (3/3)

Mostreremo fra breve che il secondo invariante di $\mathbf{A}$, denotato in precedenza con $II_\mathbf{A}$, dipende da questi due tensori nel senso che 

II_\mathbf{A} = tr \mathbf{A}^C = tr \mathbf{A}^A = I_{\mathbf{A}^C} = I_{\mathbf{A}^A}                                                                     (2.24)

avendo indicato con il simbolo tr (\bullet) il primo invariante di un tensore (\bullet).

Dalle (2.22) e (2.23) si ricava 

$$(A^C)_{ij} = \frac{1}{2} \epsilon_{irs} \epsilon_{jpq} A_{rp} A_{sq} $$

Nel caso $\dim \mathcal{U} = 3$ la formula precedente corrisponde a costruire operativamente la matrice associata ad $\mathbf{A}^C$ come segue

 $$(\mathbf{A}^C)_{ij} = (-1)^{i+j} M_{ij}$$ 

essendo $M_{ij}$ il determinante della matrice ottenuta da $\mathbf{A}$ rimuovendo la \textit{i-esima} colonna. 

Ad esempio

(\mathbf{A}^C)_{12} = (-1)^{1+2} \det\left[\begin{array}{cc}A_{21} & A_{23} \\A_{31} & A_{33}\end{array}\right]=- (A_{21} A_{33} - A_{31} A_{23})

 

Traccia di un tensore (1/2)

Abbiamo già anticipato, nel caratterizzare il secondo invariante di un tensore tramite la (48), che la traccia di un tensore $\mathbf{A} : \mathcal{U} \to \mathcal{U}$, denotata con 

$$tr \mathbf{A} = I_\mathbf{A}$$ 

costituisce il primo invariante di $\mathbf{A}$ ovvero lo scalare che soddisfa la (2.14c). In termini di componenti cartesiane risulta

$$tr \mathbf{A} = A_{ii} $$ 

e cioè la traccia di un tensore costituisce la somma degli elementi della diagonale principale della matrice associata ad $\mathbf{A}$. Infatti, ponendo $\mathbf{u}=\mathbf{e}_1$, $\mathbf{v} = \mathbf{e}_2$ e $\mathbf{w}=\mathbf{e}_3$ nella (2.14c), si ha

$$\mathbf{A} \mathbf{e}_1 \cdot (\mathbf{e}_2 \times \mathbf{e}_3) + \mathbf{e}_1 \cdot (\mathbf{A} \mathbf{e}_2 \times \mathbf{e}_3) + \mathbf{e}_1 \cdot (\mathbf{e}_2 \times \mathbf{A} \mathbf{e}_3) = tr \mathbf{A} $$ 

ovvero

tr \mathbf{A} &=& A_{j1} \mathbf{e}_j \cdot (\mathbf{e}_2 \times \mathbf{e}_3) + \mathbf{e}_1 \cdot (A_{k2} \mathbf{e}_k \times \mathbf{e}_3) + \mathbf{e}_1 \cdot (\mathbf{e}_2 \times A_{p3} \mathbf{e}_p) =

       &=& A_{11} \mathbf{e}_1 \cdot (\mathbf{e}_2 \times \mathbf{e}_3) + \mathbf{e}_1 \cdot (A_{22} \mathbf{e}_2 \times \mathbf{e}_3) + \mathbf{e}_1 \cdot (\mathbf{e}_2 \times A_{33} \mathbf{e}_3) =

       &=& A_{11} + A_{22} + A_{33}

 

Traccia di un tensore (2/2)

In virtù delle proprietà del prodotto misto e di quelle che definiscono un tensore, consegue dalla (2.14c) che

tr (\lambda \mathbf{A} + \mu \mathbf{B}) = \lambda tr \mathbf{A} + \mu tr \mathbf{B} \qquad \forall \lambda, \mu \in \mathbb{R} \qquad \forall \mathbf{A}, \mathbf{B} \in \mathcal{U}

Inoltre 

tr (\mathbf{A} \mathbf{B}) = tr (\mathbf{B} \mathbf{A}) = A_{ij} B_{ij}                                                                           (2.25)

Infatti

$$tr \mathbf{A} \mathbf{B} = (\mathbf{A} \mathbf{B})_{ii} = \mathbf{A}_{ik} \mathbf{B}_{ki} = \mathbf{B}_{ki} \mathbf{A}_{ik} = tr (\mathbf{B} \mathbf{A})$$

La proprietà (2.25) viene utilizzata per munire lo spazio $\mathcal{L} (\mathcal{U}, \mathcal{U})$ di prodotto interno

Risulta altresì 

$$tr \mathbf{A}^T = tr \mathbf{A}$$

$$tr (\mathbf{u} \otimes \mathbf{v}) = \mathbf{u} \cdot \mathbf{v}$$

Infine 

$$tr \mathbf{W} = 0$$

se \mathbf{W} è emisimmetrico.

Polinomio caratteristico di un tensore (1/5)

Assegnato un tensore $\mathbf{A} : \mathcal{U} \to \mathcal{U}$ e uno scalare $\lambda \in \mathbb{R}$ si definisce polinomio caratteristico di $\mathbf{A}$ il polinomio $f(\lambda,\mathbf{A})$ definito da 

$$f(\lambda,\mathbf{A}) = \det (\mathbf{A}-\lambda \mathbf{I})$$

Una fondamentale proprietà del polinomio caratteristico, particolarmente utile per le applicazioni, è fornita dal risultato seguente

f(\lambda,\mathbf{A}) = -\lambda^3 + I_\mathbf{A} \lambda^2 - II_\mathbf{A} \lambda + III_\mathbf{A}                                                                   (2.26)

con

\begin{array}{ccc}I_A = tr \mathbf{A} \qquad & II_A = tr \mathbf{A}^A \qquad & III_A= \det \mathbf{A}\end{array}                                                          (2.27)

Infatti, dalla (2.14c) consegue

$$f(\lambda, \mathbf{A}) \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) = (\mathbf{A} - \lambda \mathbf{I}) \mathbf{u} \cdot [(\mathbf{A} - \lambda \mathbf{I})\mathbf{v} \times (\mathbf{A} - \lambda \mathbf{I})\mathbf{w}]$$

ovvero, sviluppando i prodotti

f(\lambda, \mathbf{A}) \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) = &-& \lambda^3 \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) + \lambda^2 [\mathbf{A} \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) + \mathbf{u} \cdot (\mathbf{A} \mathbf{v} \times \mathbf{w}) +

                                           &+& \mathbf{u} \cdot (\mathbf{v} \times \mathbf{A} \mathbf{w})] - \lambda [\mathbf{A} \mathbf{u} \cdot (\mathbf{A} \mathbf{v} \times \mathbf{w})+\mathbf{u} \cdot (\mathbf{A} \mathbf{v} \times \mathbf{A} \mathbf{w}) +  

                                           &+& \mathbf{A} \mathbf{u} \cdot (\mathbf{v} \times \mathbf{A} \mathbf{w})] + \mathbf{A} \mathbf{u} \cdot (\mathbf{A} \mathbf{v} \times \mathbf{A} \mathbf{w})



Polinomio caratteristico di un tensore (2/5)

Il coefficiente di $\lambda^2$ è, per definizione, $tr \mathbf{A}$ $\mathbf{u} \cdot (\mathbf{v} \times \mathbf{w})$ così come l’ultimo termine è pari a $\det \mathbf{A}$ $\mathbf{u} \cdot (\mathbf{v} \times \mathbf{w})$.

Il coefficiente di $\lambda$ è invece pari a 

                                    \mathbf{A} \mathbf{u} \cdot (\mathbf{A} \mathbf{v} \times \mathbf{w}) + \mathbf{u} \cdot (\mathbf{A} \mathbf{v} \times \mathbf{A} \mathbf{w}) + \mathbf{A} \mathbf{u} \cdot (\mathbf{v} \times \mathbf{A} \mathbf{w}) = 

                                     \\\mathbf{w} \cdot (\mathbf{A} \mathbf{u} \times \mathbf{A} \mathbf{v}) + \mathbf{A}^A \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) + \mathbf{v} \cdot (\mathbf{A} \mathbf{w} \times \mathbf{A} \mathbf{u}) = 

                                          \\\mathbf{A}^A \mathbf{w} \cdot (\mathbf{u} \times \mathbf{v}) + \mathbf{A}^T \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) + \mathbf{A}^A \mathbf{v} \cdot (\mathbf{w} \times \mathbf{u})

in base alla definizione (2.18) di tensore aggiunto.

La relazione precedente si scrive anche

\mathbf{A} \mathbf{u} \cdot (\mathbf{A} \mathbf{v} \times \mathbf{w}) + \mathbf{u} \cdot (\mathbf{A} \mathbf{v} \times \mathbf{A} \mathbf{w}) + \mathbf{A} \mathbf{u} \cdot (\mathbf{v} \times \mathbf{A} \mathbf{w}) =                                                                     

\\\mathbf{A}^A \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w}) + \mathbf{u} \cdot (\mathbf{A}^A \mathbf{v} \times \mathbf{w}) + \mathbf{u} \cdot (\mathbf{v} \times \mathbf{A}^A \mathbf{w}) = (tr \mathbf{A}) \mathbf{u} \cdot (\mathbf{v} \times \mathbf{w})                                                                     

da cui scaturisce la (2.26)



 

 

 

Polinomio caratteristico di un tensore (3/5)

Vogliamo ora dimostrare il seguente importante 

\textbf{Teorema di Cayley-Hamilton} – Ogni tensore $\mathbf{A} : \mathcal{U} \to \mathcal{U}$ soddisfa la sua equazione caratteristica, ovvero

-\mathbf{A}^3 + I_A \mathbf{A}^2 - II_A \mathbf{A} + III_A \mathbf{I} = \textbf{0}                                                                            (2.28)

Infatti, in base alla (2.18) risulta 

(\mathbf{A} - \lambda \mathbf{I})^A (\mathbf{A} - \lambda \mathbf{I}) = \det (\mathbf{A} - \lambda \mathbf{I}) \mathbf{I} = f(\mathbf{A} - \lambda \mathbf{I}) \mathbf{I}                                                              (2.29)

D’altra parte dalla definizione (2.18) di tensore aggiunto scaturisce che $(\mathbf{A} - \lambda \mathbf{I})^A$ è un polinomio tensoriale di secondo grado in $\lambda$, ovvero

(\mathbf{A} - \lambda \mathbf{I})^A = \lambda^2 \mathbf{B}_0 - \lambda \mathbf{B}_1 + \mathbf{B}_2                                                                              (2.30)

con $\mathbf{B}_0$, $\mathbf{B}_1$ e $\mathbf{B}_2$ tensori da determinare. Poichè la relazione precedente deve valre per ogni scalare $\lambda$ si ha banalmente, per $\lambda=0$, che $\mathbf{B}_2=\mathbf{A}^A$. Peraltro, sostituendo le (2.26) e (2.30) nella (2.29) e uguagliando in ambo i membri, rispettivamente, i termini dipendenti da $\lambda^0$,$\lambda^1$,$\lambda^2$ e $\lambda^3$ si ottiene 

\mathbf{B}_2 \mathbf{A} = \mathbf{A}^A = III_\mathbf{A} \mathbf{I}                                                                                    (2.31a)

\mathbf{B}_1 \mathbf{A} + \mathbf{B}_2 = II_\mathbf{A} \mathbf{I}                                                                                     (2.31b)

\mathbf{B}_0 \mathbf{A} + \mathbf{B}_1 = I_\mathbf{A} \mathbf{I}                                                                                     (2.31c)

\mathbf{B}_0=\mathbf{I}                                                                                    (2.31d)



Polinomio caratteristico di un tensore (4/5)

La prima delle relazioni precedenti è la proprietà (2.19) di $\mathbf{A}^A$.  Moltiplicando le quattro relazioni precedenti, rispettivamente, per $\mathbf{A}^0$, $\mathbf{A}$, $\mathbf{A}^2$ e $\mathbf{A}^3$ si ottiene il risultato. Sommando alla (2.31b) la (2.31c) moltiplicata per $-\mathbf{A}$ e ricordando che $\mathbf{B}_2=\mathbf{A}^A$ si ottiene 

$$\mathbf{A}^A = \mathbf{A}^2 - I_\mathbf{A} \mathbf{A} + II_\mathbf{A} \mathbf{I}$$

Considerando la traccia dell’identità precdente e osservando che $tr \mathbf{I} = 3$ si ricava

$$II_\mathbf{A} = tr \mathbf{A}^A = tr \mathbf{A}^2 - I_\mathbf{A} tr \mathbf{A} + 3 II_\mathbf{A}$$

ovvero

II_\mathbf{A}=\frac{1}{2}[(tr \mathbf{A})^2 - tr \mathbf{A}^2]                                                                                     (2.32)

 Non è superfluo evidenziare la differenza esistente tra i due termini a secondo membro dell’espressione precedente. Il primo rappresenta il quadrato di $tr \mathbf{A}$ mentre il secondo la traccia del tensore $\mathbf{A}^2=\mathbf{A}\mathbf{A}$.

Polinomio caratteristico di un tensore (5/5)

Assegnato un tensore invertibile $\mathbf{A} : \mathcal{U} \to \mathcal{U} $  è spesso molto utile esprimere gli invarianti di $\mathbf{A}^{-1}$ in funzione di quelli di $\mathbf{A}$.  In particolare, ricordando la formula (2.16) si ha banalmente 

$$III_{\mathbf{A}^{-1}}=\frac{1}{III_\mathbf{A}}$$

Analogamente, dalla (2.20) consegue 

$$I_{\mathbf{A}^{-1}}=\frac{tr \mathbf{A}^A}{III_\mathbf{A}} = \frac{II_\mathbf{A}}{III_\mathbf{A}}$$

Infine, scambiando tra loro $\mathbf{A}$ e $\mathbf{A}^{-1}$ nelle relazioni precedenti si ricava

$$II_{\mathbf{A}^{-1}}=\frac{I_\mathbf{A}}{III_\mathbf{A}}$$

Un’altra utile identità si ottiene considerando la traccia di ambo i membri della (2.28). si ottiene infatti

$$tr \mathbf{A}^3 - tr \mathbf{A} tr \mathbf{A}^2 + \frac{1}{2} \left[ (tr \mathbf{A})^2 - tr \mathbf{A}^2 \right] tr \mathbf{A} - 3 \det \mathbf{A} = 0$$

ovvero

\det \mathbf{A} = \frac{1}{6} \left[ (tr \mathbf{A})^3 - 3 tr \mathbf{A} tr \mathbf{A}^2 + 2 tr \mathbf{A}^3 \right]

Tensori simili (1/6)

Consideriamo la relazione                                                                    \mathbf{B} \mathbf{u} = \mathbf{v}                                                                                                      (2.33)

con $\mathbf{B} \in \mathcal{L} (\mathcal{U}, \mathcal{U})$ e $\mathbf{u}$ vettore arbitrario di $\mathcal{U}$. Evidentemente, se $\mathbf{c} \ne \mathbf{u}$, risulterà

$$\mathbf{B} \mathbf{c} = \mathbf{d} \ne \mathbf{v}$$

In particolare, supponendo che il vettore $\mathbf{c}$ sia il trasformato di $\mathbf{u}$ tramite un tensore $\mathbf{T} : \mathcal{U} \to \mathcal{U}$ invertibile, ovvero

$$\mathbf{c} = \mathbf{T} \mathbf{u}$$

si avrà, in generale

$$\mathbf{B} \mathbf{T} \mathbf{u} = \mathbf{d} \ne \mathbf{T} \mathbf{v}$$

Viceversa, per motivi che saranno più chiari tra breve, vogliamo capire se, fissati $\mathbf{B}$ e $\mathbf{T}$, esiste un tensore $\mathbf{C}$ per il quale

\mathbf{C} \mathbf{T}\mathbf{u} = \mathbf{T} \mathbf{v} \qquad \forall \mathbf{u} \in \mathcal{U}

con $\mathbf{v}$ tale da soddisfare la (2.33).

Sostituendo quest’ultima nella relazione precedente si ricava banalmente 

\mathbf{C} = \mathbf{T} \mathbf{B} \mathbf{T}^{-1}                                                                                               (2.34)

e si dice che i tensori $\mathbf{C}$ e $\mathbf{B}$ sono simili rispetto alla traformazione $\mathbf{T}$.



Tensori simili (2/5)

Per fornire una interpretazione alternativa e più suggestiva del risultato precedente consideriamo il seguente problema. Assegnato un tensore $\mathbf{T} : \mathcal{U} \to \mathcal{U} $  invertibile e due basi, non necessariamente cartesiane, $\{\mathbf{e}_1, \mathbf{e}_2, \cdots, \mathbf{e}_n\}$$\{\mathbf{f}_1, \mathbf{f}_2, \cdots, \mathbf{f}_n\}$ con  $\mathbf{f}_j=\mathbf{T} \mathbf{e}_j$ vogliamo stabilire il legame esistente tra i tensori che hanno le stesse componenti, siano esse $A_{ij}$, nelle due basi.

In altri termini, posto

\mathbf{B} = A_{ij} \mathbf{e}_i \otimes \mathbf{e}_j \qquad           e          \qquad \mathbf{C} = A_{ij} \mathbf{f}_i \otimes \mathbf{f}_j

ci chiediamo quale legame esista tra $\mathbf{B}$ e $\mathbf{C}$.

Essendo 

$$\mathbf{C} \mathbf{f}_j = A_{kj} \mathbf{f}_k = A_{kj} \mathbf{T} \mathbf{e}_k = \mathbf{T} A_{kj} \mathbf{e}_k$$

risulta

\mathbf{T}^{-1} \mathbf{C}\mathbf{f}_j = A_{kj} \mathbf{e}_k                                                                                                    (2.35)

D’altra parte, avendo supposto che $\mathbf{B}$ ha nella base $\{\mathbf{e}_1, \mathbf{e}_2, \cdots, \mathbf{e}_n\}$ le stesse componenti di $\mathbf{C}$  nella base $\{\mathbf{f}_1, \mathbf{f}_2, \cdots, \mathbf{f}_n\}$ risulta

$$\mathbf{B} \mathbf{e}_j = A_{kj} \mathbf{e}_k$$

ovvero

\mathbf{B} \mathbf{T}^{-1} \mathbf{f}_j = A_{kj} \mathbf{e}_k                                                                                                     (2.36)

 

Tensori simili (3/5)

Confrontando le (2.35) e (2.36) ne consegue che

\mathbf{T}^{-1} \mathbf{C} = \mathbf{B} \mathbf{T}^{-1}

o, equivalentemente,

 \mathbf{C} = \mathbf{T} \mathbf{B} \mathbf{T}^{-1}

relazione coincidente con la (2.34).

Questo ulteriore risultato giustifica l’aggettivo simile utilizzato per caratterizzare tensori legati dalla proprietà (2.34). Infatti essi sono tutti e soli quei tensori che hanno le stesse componenti in basi diverse. Conseguentemente, è lecito aspettarsi che tensori simili siano caratterizzati dagli stessi valori dei rispettivi invarianti, e cioè che risulti 

$$I_{\mathbf{T} \mathbf{B} \mathbf{T}^{-1}} = I_{\mathbf{B}}$$ $$II_{\mathbf{T}\mathbf{B}\mathbf{T}^{-1}} = II_{\mathbf{B}}$$ $$III_{\mathbf{T}\mathbf{B}\mathbf{T}^{-1}} = III_{\mathbf{B}}$$

Infatti

$$I_{\mathbf{T} \mathbf{B} \mathbf{T}^{-1}} = tr (\mathbf{T} \mathbf{B} \mathbf{T}^{-1})= tr (\mathbf{T}^{-1} \mathbf{T} \mathbf{B}) = tr \mathbf{B} = I_\mathbf{B}$$

in virtù della (2.25)

 

Tensori simili (4/5)

Analogamente, dalla (2.32) consegue

$$II_{\mathbf{T}\mathbf{B}\mathbf{T}^{-1}} &=& \frac{1}{2} [(tr \mathbf{T}\mathbf{B}\mathbf{T}^{-1})^2 - tr (\mathbf{T}\mathbf{B}\mathbf{T}^{-1})^2] $$ $$ \,\,\,\,\,\,\,\qquad\qquad \qquad =\frac{1}{2} [(tr \mathbf{T}^{-1}\mathbf{T}\mathbf{B})^2 - tr (\mathbf{T}\mathbf{B}\mathbf{T}^{-1} \mathbf{T}\mathbf{B}\mathbf{T}^{-1})] $$ $$ \,\,\,\qquad\qquad = \frac{1}{2} [(tr \mathbf{B})^2 - tr (\mathbf{T}^{-1}\mathbf{T}\mathbf{B}^2)] = II_\mathbf{B}$$

 Infine, in virtù della (2.15) si ha

$$ III_{\mathbf{T}\mathbf{B}\mathbf{T}^{-1}}=\det ({\mathbf{T}\mathbf{B}\mathbf{T}^{-1}}) = \det (\mathbf{T}^{-1}\mathbf{T} \mathbf{B}) = \det \mathbf{B} = III_\mathbf{B} $$



Tensori simili (5/5)

Nel caso particolare che il tensore $\mathbf{T}$ sia ortogonale la relazione di similitudine tra i tensori $\mathbf{C}$ e $\mathbf{B}$ si scrive

\mathbf{C}= \mathbf{Q} \mathbf{B} \mathbf{Q}^T                                                                                                                  (2.37)

ed essa assume un’importanza fondamentale nel caratterizzare il comportamento costitutivo dei materiali. Non è superfluo evidenziare la differenza concettuale esistente tra la relazione precedente e quella, solo apparentemente simile, 

[\bar{\mathbf{A}}] = [\mathbf{Q}]^T [\mathbf{A}] [\mathbf{Q}]                                                                                                                 (2.38)

 ricavata nella formula (1.55). Infatti la (2.37) esprime il legame tra due operatori diversi, ovvero $\mathbf{C}$ e $\mathbf{B}$, ma accomunati dal fatto di avere le stesse matrici associate in due sistemi di riferimento diversi, sistemi le cui basi sono collegate tra loro per il tramite dell’operatore $\mathbf{Q}$.

Viceversa la (2.38) esprime il legame tra le matrici $[\bar{\mathbf{A}}]$ e $[\mathbf{A}]$, diverse tra loro, associate al medesimo operatore $\mathbf{A}$ allorquando esso viene rappresentato in due sistemi di riferimento le cui basi sono messe in relazione tramite il tensore $\mathbf{Q}$.

  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion