Covariante e controvariante (algebra lineare)
In algebra lineare , gli aggettivi covariante e controvariante sono usati per descrivere il modo in cui le quantità variano durante un cambio di base . Si dice che queste quantità siano covarianti quando variano come i vettori della base, e controvarianti quando variano in modo opposto.
La nozione è strettamente legata al concetto di dualità : le coordinate covarianti in una base corrispondono in effetti alle coordinate controvarianti nella doppia base, e viceversa.
Nella geometria differenziale , la considerazione degli spazi tangenti permette di estendere i due concetti a famiglie di funzioni definite su varietà differenziali .
La manipolazione delle quantità covarianti e controvarianti è facilitata dalla convenzione di sommatoria di Einstein , che sarà ampiamente utilizzata in questo articolo.
Definizione
Sia uno spazio vettoriale dimensionale finito , così come due basi e tale che il cambio di base del verso sia scritto:
V{\ displaystyle {\ mathcal {V}}}non{\ displaystyle n}e=(e1,e2,...,enon){\ Displaystyle \ mathbf {e} = (\ mathbf {e} _ {1}, \ mathbf {e} _ {2}, \ ldots, \ mathbf {e} _ {n})}e′=(e′1,e′2,...,e′non){\ Displaystyle \ mathbf {e '} = (\ mathbf {e'} _ {1}, \ mathbf {e '} _ {2}, \ ldots, \ mathbf {e'} _ {n})}e{\ displaystyle \ mathbf {e}}e′{\ displaystyle \ mathbf {e '}}
e′io=Aiojej{\ displaystyle \ mathbf {e '} _ {i} = A_ {i} ^ {j} \ mathbf {e} _ {j}}
dove i coefficienti formano la matrice di passaggio .
Aioj{\ displaystyle A_ {i} ^ {j}}
Sia quindi una famiglia di funzioni, ciascuna verso uno spazio vettoriale con lo stesso campo di .
X=(X(io))io=1...non{\ displaystyle X = (X (i)) _ {i = 1 \ ldots n}}Vnon{\ displaystyle {\ mathcal {V}} ^ {n}}V{\ displaystyle {\ mathcal {V}}}
Le famiglie di vettori e vengono quindi indicate rispettivamente e .
(X(io)(e′))io=1...non{\ displaystyle (X (i) (\ mathbf {e} ')) _ {i = 1 \ ldots n}}(X(io)(e))io=1...non{\ displaystyle (X (i) (\ mathbf {e})) _ {i = 1 \ ldots n}}(X′(io))io=1...non{\ displaystyle (x '(i)) _ {i = 1 \ ldots n}}(X(io))io=1...non{\ displaystyle (x (i)) _ {i = 1 \ ldots n}}
X{\ displaystyle X}si dice che sia covariante quandoX′(io)=∑j=1nonAiojX(j){\ displaystyle x '(i) = \ sum _ {j = 1} ^ {n} A_ {i} ^ {j} x (j)}
L'indizio viene quindi annotato in fondo e si può usare la convenzione di Einstein, in modo che sia scritto:
Xio′=AiojXj{\ displaystyle x_ {i} '= A_ {i} ^ {j} x_ {j}}
X{\ displaystyle X}si dice che sia controvariante quandoX(j)=∑io=1nonAiojX′(io){\ displaystyle x (j) = \ sum _ {i = 1} ^ {n} A_ {i} ^ {j} x '(i)}
L'indizio viene quindi annotato in alto e si può usare la convenzione di Einstein, in modo che sia scritto:
Xj=AiojX′io{\ displaystyle x ^ {j} = A_ {i} ^ {j} x '^ {i}}
Con un leggero abuso di linguaggio, i termini covariante e controvariante vengono applicati anche a famiglie di vettori e , essendo implicita la dipendenza dalla scelta della base.
(Xio)io=1...non{\ displaystyle (x_ {i}) _ {i = 1 \ ldots n}}(Xio)io=1...non{\ displaystyle (x ^ {i}) _ {i = 1 \ ldots n}}
Esempi
Decomposizione in una base
Teorema e definizione -
I coefficienti della scomposizione unica di un vettore in una base formano una famiglia controvariante di scalari chiamate coordinate controvarianti , che sono quindi denotate con un indice alto.
X=Xioeio{\ displaystyle \ mathbf {x} = x ^ {i} \ mathbf {e} _ {i}}
Dimostrazione
Sia un vettore e una base .
X{\ displaystyle \ mathbf {x}}(eio)io=1...non{\ displaystyle (\ mathbf {e} _ {i}) _ {i = 1 \ ldots n}}
X{\ displaystyle \ mathbf {x}} è scritto in un modo unico:
X=∑io=1nonX(io)eio{\ Displaystyle \ mathbf {x} = \ sum _ {i = 1} ^ {n} x (i) \ mathbf {e} _ {i}}Gli scalari formano quindi una famiglia di funzioni worm .
(X(io))io=1...non{\ displaystyle (x (i)) _ {i = 1 \ ldots n}}Vnon{\ displaystyle {\ mathcal {V}} ^ {n}}R{\ displaystyle \ mathbb {R}}
Nella base è scritto:
(eio′)io=1...non{\ displaystyle (\ mathbf {e} '_ {i}) _ {i = 1 \ ldots n}}X{\ displaystyle \ mathbf {x}}
X=∑io=1nonX′(io)eio′{\ Displaystyle \ mathbf {x} = \ sum _ {i = 1} ^ {n} x '(i) \ mathbf {e}' _ {i}}Perciò:
X=∑io=1nonX′(io)Aiojej=∑j=1non(∑io=1nonX′(io)Aioj)ej{\ displaystyle \ mathbf {x} = \ sum _ {i = 1} ^ {n} x '(i) A_ {i} ^ {j} \ mathbf {e} _ {j} = \ sum _ {j = 1} ^ {n} (\ sum _ {i = 1} ^ {n} x '(i) A_ {i} ^ {j}) \ mathbf {e} _ {j}}E quindi, tenendo conto dell'unicità della scomposizione della base :
X{\ displaystyle \ mathbf {x}}(ej)j=1...non{\ displaystyle (\ mathbf {e} _ {j}) _ {j = 1 \ ldots n}}
X(j)=∑io=1nonX′(io)Aioj=∑io=1nonAiojX′(io){\ Displaystyle x (j) = \ sum _ {i = 1} ^ {n} x '(i) A_ {i} ^ {j} = \ sum _ {i = 1} ^ {n} A_ {i} ^ {j} x '(i)}∎
Prodotti Dot in una base
Teorema e definizione - I prodotti scalari di un vettore dai vettori di una base costituiscono una famiglia covariante di scalari chiamate coordinate covarianti , che sono quindi denotate con un indice basso.
Xio=X⋅eio{\ Displaystyle x_ {i} = \ mathbf {x} \ cdot \ mathbf {e} _ {i}}
Dimostrazione
I prodotti puntiformi di un vettore dai vettori di una base possono essere scritti:
X{\ displaystyle \ mathbf {x}}(eio)io=1...non{\ displaystyle (\ mathbf {e} _ {i}) _ {i = 1 \ ldots n}}
X(io)=X⋅eio{\ Displaystyle x (i) = \ mathbf {x} \ cdot \ mathbf {e} _ {i}}Questi scalari formano una famiglia di funzioni worm .
Vnon{\ displaystyle {\ mathcal {V}} ^ {n}}R{\ displaystyle \ mathbb {R}}
Abbiamo quindi:
X′(io)=X⋅eio′=X⋅(Aiojej)=AiojX⋅ej=AiojX(j){\ displaystyle {\ begin {array} {rcl} x '(i) & = & \ mathbf {x} \ cdot \ mathbf {e}' _ {i} \\ & = & \ mathbf {x} \ cdot ( A_ {i} ^ {j} \ mathbf {e} _ {j}) \\ & = & A_ {i} ^ {j} \ mathbf {x} \ cdot \ mathbf {e} _ {j} \\ & = & A_ {i} ^ {j} x (j) \ end {array}}}La famiglia è quindi ben covariante.
X(io){\ displaystyle x (i)}∎
Derivate direzionali
Nell'analisi vettoriale è possibile definire l'operatore derivativo direzionale secondo una direzione come segue:
d{\ displaystyle \ mathbf {d}}
∂d:EV→EVf↦(X↦limϵ→0f(X+ϵd)-f(X)ϵ){\ displaystyle {\ begin {array} {rccl} \ partial _ {\ mathbf {d}}: & {\ mathcal {E}} ^ {\ mathcal {V}} & \ rightarrow & {\ mathcal {E}} ^ {\ mathcal {V}} \\ & f & \ mapsto & (\ mathbf {x} \ mapsto \ lim _ {\ epsilon \ rightarrow 0} {\ frac {f (\ mathbf {x} + \ epsilon \ mathbf {d}) -f (\ mathbf {x})} {\ epsilon}}) \ end {array}}}
Teorema - Gli operatori di derivazione direzionale secondo le direzioni definite dai vettori di una base formano una famiglia covariante di operatori, che sono quindi indicati con un indice basso.
∂io=∂eio{\ Displaystyle \ partial _ {i} = \ partial _ {\ mathbf {e} _ {i}}}
Dimostrazione
È una diretta conseguenza della linearità dell'operatore di derivazione direzionale secondo la direzione.
∂eio′=∂Aiojej=Aioj∂ej{\ Displaystyle \ partial _ {\ mathbf {e} '_ {i}} = \ partial _ {A_ {i} ^ {j} \ mathbf {e} _ {j}} = A_ {i} ^ {j} \ partial _ {\ mathbf {e} _ {j}}}∎
∂iof{\ displaystyle \ partial _ {i} f}a volte è notato .
f,io{\ displaystyle f _ {, i}}
Proprietà
Collegamento con doppia base
Se è uno spazio vettoriale o dimensionale finito, allora e il suo duale sono isomorfi . Pertanto, ogni vettore di corrisponde a un vettore unico di , ea volte identifichiamo i due. Nella seguente affermazione, la seconda uguaglianza deve quindi essere intesa come una corrispondenza piuttosto che come un'uguaglianza.
E{\ displaystyle E}R{\ displaystyle \ mathbf {R}}VS{\ displaystyle \ mathbf {C}}E{\ displaystyle E}E∗{\ displaystyle E ^ {*}}X{\ displaystyle \ mathbf {x}}E{\ displaystyle E}X∗{\ displaystyle \ mathbf {x ^ {*}}}E∗{\ displaystyle E ^ {*}}
Inoltre, ciò che si intende per "prodotto scalare" nella seguente affermazione e la sua dimostrazione è in realtà la parentesi di dualità di e di , vale a dire il risultato dell'applicazione della forma lineare a .
X⋅eio{\ displaystyle \ mathbf {x} \ cdot \ mathbf {e} ^ {i}}eio{\ displaystyle \ mathbf {e} ^ {i}}X{\ displaystyle \ mathbf {x}}eio(X){\ displaystyle \ mathbf {e} ^ {i} (\ mathbf {x})}eio{\ displaystyle \ mathbf {e} ^ {i}}X{\ displaystyle \ mathbf {x}}
Teorema - Le coordinate covarianti in una base sono le coordinate controvarianti nella doppia base e viceversa.
X=(X⋅eio)eio=(X⋅eio)eio{\ displaystyle \ mathbf {x} = (\ mathbf {x} \ cdot \ mathbf {e} ^ {i}) \ mathbf {e} _ {i} = (\ mathbf {x} \ cdot \ mathbf {e} _ {i}) \ mathbf {e} ^ {i}}
Cioè:
Xio=X⋅eioX=Xioeio{\ displaystyle {\ begin {array} {c} x ^ {i} = \ mathbf {x} \ cdot \ mathbf {e ^ {i}} \\\ mathbf {x} = x_ {i} \ mathbf {e } ^ {i} \ end {array}}}
Dimostrazione
Abbiamo, per definizione delle coordinate del vettore :
X{\ displaystyle \ mathbf {x}}
X=Xioeio{\ displaystyle \ mathbf {x} = x ^ {i} \ mathbf {e} _ {i}}Per definizione della doppia base, quindi, calcolando il prodotto scalare :
eio⋅ej=δioj{\ displaystyle \ mathbf {e} _ {i} \ cdot \ mathbf {e} ^ {j} = \ delta _ {i} ^ {j}}ej{\ displaystyle \ mathbf {e} ^ {j}}
X⋅ej=Xioeio⋅ej=Xioδioj=Xj{\ displaystyle \ mathbf {x} \ cdot \ mathbf {e} ^ {j} = x ^ {i} \ mathbf {e} _ {i} \ cdot \ mathbf {e} ^ {j} = x ^ {i } \ delta _ {i} ^ {j} = x ^ {j}}E così:
Xj=X⋅ej{\ displaystyle x ^ {j} = \ mathbf {x} \ cdot \ mathbf {e} ^ {j}}Cioè:
X=(X⋅eio)eio{\ Displaystyle \ mathbf {x} = (\ mathbf {x} \ cdot \ mathbf {e} ^ {i}) \ mathbf {e} _ {i}}∎
Dimostrazione
X{\ displaystyle \ mathbf {x}}è scritto, nella doppia base :
eio{\ displaystyle \ mathbf {e} ^ {i}}
X=X~(io)eio{\ displaystyle \ mathbf {x} = {\ tilde {x}} (i) \ mathbf {e} ^ {i}}Il prodotto dot da fornisce:
ej{\ displaystyle \ mathbf {e} _ {j}}
X⋅ej=X~(io)eio⋅ej=X~(io)δjio=X~(j){\ Displaystyle \ mathbf {x} \ cdot \ mathbf {e} _ {j} = {\ tilde {x}} (i) \ mathbf {e} ^ {i} \ cdot \ mathbf {e} _ {j} = {\ tilde {x}} (i) \ delta _ {j} ^ {i} = {\ tilde {x}} (j)}e così:
X⋅ej=X~(j){\ displaystyle \ mathbf {x} \ cdot \ mathbf {e} _ {j} = {\ tilde {x}} (j)}Da dove:
X=(X⋅eio)eio{\ Displaystyle \ mathbf {x} = (\ mathbf {x} \ cdot \ mathbf {e} _ {i}) \ mathbf {e} ^ {i}}∎
Prodotto contrattato
Teorema e definizione -
Siano
e due famiglie rispettivamente controvarianti e covarianti, con valori in un'algebra associativa . Espressione
(aio)io=1...non{\ displaystyle (a ^ {i}) _ {i = 1 \ ldots n}}(bio)io=1...non{\ displaystyle (b_ {i}) _ {i = 1 \ ldots n}}
aiobio{\ displaystyle a ^ {i} b_ {i}}
non dipende dalla scelta della base utilizzata, e si chiama prodotto contrattualizzato .
Dimostrazione
Annotando e le espressioni delle due famiglie nella base , si ottiene:
(a′io)io=1...non{\ displaystyle (a '^ {i}) _ {i = 1 \ ldots n}}(bio′)io=1...non{\ displaystyle (b '_ {i}) _ {i = 1 \ ldots n}}eio=1...non′{\ displaystyle \ mathbf {e} '_ {i = 1 \ ldots n}}
a′iobio′=a′io(Aiojbj)=Aioja′iobj=(Aioja′io)bj=ajbj{\ displaystyle {\ begin {array} {rcl} a '^ {i} b' _ {i} & = & a '^ {i} (A_ {i} ^ {j} b_ {j}) \\ & = & A_ {i} ^ {j} a '^ {i} b_ {j} \\ & = & (A_ {i} ^ {j} a' ^ {i}) b_ {j} \\ & = & a ^ {j} b_ {j} \ end {array}}}∎
Estensione in geometria differenziale
Nella geometria differenziale , gli spazi considerati, cioè le varietà differenziali , non hanno struttura spaziale vettoriale e come tali i concetti di covarianza e controvarianza non sono direttamente applicabili. Tuttavia, le varietà differenziali sono, localmente, assimilabili a spazi vettoriali attraverso spazi tangenti . Le corrispondenze naturali consentono quindi di definire le nozioni viste sopra non più in relazione ad un cambio di base, ma piuttosto in relazione ad un cambio di coordinate .
X′μ(Xμ){\ displaystyle x '^ {\ mu} (x ^ {\ mu})}
A livello locale, queste coordinate variano a seconda dei differenziali:
dX′μ=∂X′μ∂XνdXν=∂νX′μdXν=AνμdXν{\ displaystyle dx '^ {\ mu} = {\ frac {\ partial x' ^ {\ mu}} {\ partial x ^ {\ nu}}} dx ^ {\ nu} = \ partial _ {\ nu} x '^ {\ mu} dx ^ {\ nu} = A _ {\ nu} ^ {\ mu} dx ^ {\ nu}}I differenziali formano quindi una base nello spazio tangente, mentre le derivate parziali formano la matrice di passaggio.
dXμ{\ displaystyle dx ^ {\ mu}}
Pertanto, quando un insieme di funzioni varia come i differenziali, vale a dire quando
Tμ{\ displaystyle T ^ {\ mu}}
T′μ=∂νX′μTν{\ displaystyle T '^ {\ mu} = \ partial _ {\ nu} x' ^ {\ mu} T ^ {\ nu}}
allora si dice che l'indice è covariante "per" (o "secondo") .
T{\ displaystyle T}μ{\ displaystyle \ mu}
Quando un insieme varia in modo opposto, cioè quando
Tν{\ displaystyle T _ {\ nu}}
Tν=∂νX′μTμ′{\ displaystyle T _ {\ nu} = \ partial _ {\ nu} x '^ {\ mu} T' _ {\ mu}}
o
,
T′μ=∂Xν∂X′μTν=∂μXνTν{\ displaystyle {T '} _ {\ mu} = {\ frac {\ partial x ^ {\ nu}} {\ partial x' ^ {\ mu}}} T _ {\ nu} = \ partial _ {\ mu} x ^ {\ nu} T _ {\ nu}}
allora si dice che sia controvariante "per" (o "secondo") l'indice .
T{\ displaystyle T}ν{\ displaystyle \ nu}
T{\ displaystyle T}può benissimo essere covariante per alcuni indici e controvariante per altri. Viene quindi scritta la trasformazione più generale:
T′ν1...νKμ1...μl=∂ν1X′α1...∂νKX′αK∂β1Xμ1...∂βlXμlTα1...αKβ1...βl{\ displaystyle {T '} _ {\ nu _ {1} \ ldots \ nu _ {k}} ^ {\ mu _ {1} \ ldots \ mu _ {l}} = \ partial _ {\ nu _ { 1}} {x '} ^ {\ alpha _ {1}} \ ldots \ partial _ {\ nu _ {k}} {x'} ^ {\ alpha _ {k}} \ partial _ {\ beta _ { 1}} x ^ {\ mu _ {1}} \ ldots \ partial _ {\ beta _ {l}} x ^ {\ mu _ {l}} T _ {\ alpha _ {1} \ ldots \ alpha _ {k}} ^ {\ beta _ {1} ... \ beta _ {l}}}
Ciò costituisce una definizione semplificata del concetto di tensore .
Alcuni autori, come Sean M. Carroll (cfr. Bibliografia), preferiscono posizionare il simbolo primo sugli indici e non sul tensore. Notano quanto segue:
Tν1′...νK′μ1′...μl′=∂ν1′Xμ1...∂νK′XμK∂ν1Xμ1′...∂νlXμl′Tμ1...μKν1...νl{\ displaystyle T _ {\ nu _ {1} '\ ldots \ nu _ {k}'} ^ {\ mu _ {1} '\ ldots \ mu _ {l}'} = \ partial _ {\ nu _ {1} '} {x} ^ {\ mu _ {1}} \ ldots \ partial _ {\ nu _ {k}'} {x} ^ {\ mu _ {k}} \ partial _ {\ nu _ {1}} x ^ {\ mu _ {1} '} \ ldots \ partial _ {\ nu _ {l}} x ^ {\ mu _ {l}'} T _ {\ mu _ {1} \ ldots \ mu _ {k}} ^ {\ nu _ {1} ... \ nu _ {l}}}
Altri usi del termine
I concetti di covarianza e controvarianza si trovano in altri campi, come l'informatica, in particolare per quanto riguarda la tipizzazione dei dati . Il legame tra questi diversi usi riflette una struttura comune più astratta che rientra essenzialmente nella teoria delle categorie .
Bibliografia
Articoli Correlati
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">