In matematica , le matrici sono array di elementi (numeri, caratteri) che servono per interpretare in termini computazionali, e quindi operativi, i risultati teorici dell'algebra lineare e anche dell'algebra bilineare .
Tutte le discipline che studiano i fenomeni lineari utilizzano le matrici. Quanto ai fenomeni non lineari, se ne danno spesso approssimazioni lineari, come nell'ottica geometrica con le approssimazioni di Gauss .
Anche se il calcolo matriciale per sé appare all'inizio del XIX ° secolo, stampi, come tabelle di numeri, hanno una lunga storia di applicazione nella risoluzione di equazioni lineari . Il testo cinese Nove Capitoli sull'Arte Matematica scrive al II ° secolo aC. AD , è il primo esempio noto dell'uso delle tabelle per risolvere sistemi di equazioni , introducendo addirittura il concetto di determinante . Nel 1545 Girolamo Cardano fece conoscere questo metodo in Europa pubblicando la sua Ars Magna . Il matematico giapponese Seki Takakazu usò indipendentemente le stesse tecniche per risolvere i sistemi di equazioni nel 1683. Nei Paesi Bassi, Johan de Witt fa trasformazioni geometriche usando le tabelle nel suo libro del 1659, Elementa curvarum linearum . Tra il 1700 e il 1710, Leibniz mostrò come utilizzare le tabelle per annotare dati o soluzioni e sperimentò a questo scopo più di 50 sistemi di tabelle. Nel 1750, Gabriel Cramer pubblicò la regola che porta il suo nome .
Nel 1850, il termine “matrice” (che sarà tradotto con matrice) viene coniato (sulla radice latina mater ) da James Joseph Sylvester , che lo vede come un oggetto che dà origine alla famiglia dei determinanti attualmente chiamati minori , cioè le determinanti delle sottomatrici ottenute rimuovendo righe e colonne. In un articolo del 1851 Sylvester specifica:
"In articoli precedenti, ho chiamato una matrice rettangolare di termini matrice da cui diversi sistemi di determinanti possono essere generati, come se dalle viscere di un genitore comune".Nel 1854, Arthur Cayley pubblicò un trattato sulle trasformazioni geometriche usando le matrici in un modo molto più generale di qualsiasi cosa fosse stata fatta prima di lui. Definisce le consuete operazioni di calcolo matriciale (addizione, moltiplicazione e divisione) e mostra le proprietà di associatività e distributività della moltiplicazione. Fino ad allora, l'uso delle matrici era stato essenzialmente limitato al calcolo dei determinanti; questo approccio astratto alle operazioni matriciali è rivoluzionario. Nel 1858 Cayley pubblicò il suo A Memoir on the Theory of Matrices , in cui affermava e dimostrava il teorema di Cayley-Hamilton per matrici 2 × 2.
Molti teoremi sono inoltre dimostrati all'inizio solo per piccole matrici: dopo Cauchy, Hamilton generalizza il teorema a matrici 4 × 4, e solo nel 1898 Frobenius , studiando forme bilineari , dimostrò il teorema in qualsiasi dimensione. E 'stato anche alla fine del XIX ° secolo, che Wilhelm Jordan stabilisce il metodo di eliminazione di Gauss-Jordan (generalizzando il metodo di Gauss per gli array phased ). Agli inizi del XX ° secolo, le matrici sono centrali in algebra lineare , grazie anche al ruolo che esse svolgono nei sistemi di classificazione numeri ipercomplesse del secolo precedente.
Un matematico inglese di nome Cullis fu il primo, nel 1913, ad utilizzare la moderna notazione di parentesi (o parentesi) per rappresentare matrici, nonché la notazione sistematica A = [ a i , j ] per rappresentare la matrice la cui a i , j è il termine della i -esima riga e della j -esima colonna.
La formulazione della meccanica quantistica mediante la meccanica delle matrici , dovuta a Heisenberg , Born e Jordan , ha portato allo studio di matrici comprendenti un numero infinito di righe e colonne. Successivamente, von Neumann ha chiarito i fondamenti matematici della meccanica quantistica , sostituendo queste matrici con operatori lineari sugli spazi di Hilbert .
Lo studio teorico dei determinanti proviene da diverse fonti. Problemi di teoria dei numeri portano Gauss a mettere in relazione alle matrici (o più precisamente al loro determinante) i coefficienti di una forma quadratica così come le mappe lineari in dimensione tre. Gotthold Eisenstein sviluppa queste nozioni, notando in particolare che nella notazione moderna il prodotto di matrici non è commutativo. Cauchy è il primo a dimostrare risultati generali sui determinanti, utilizzando come definizione del determinante della matrice A = [ a i , j ] il risultato della sostituzione, nel polinomio , delle potenze ak
jdi un jk . Mostra anche, nel 1829, che gli autovalori di una matrice simmetrica sono reali. Jacobi studia i "determinanti funzionali" (chiamati poi Jacobiani da Sylvester), usati per descrivere le trasformazioni geometriche da un punto di vista infinitesimale ; i libri Vorlesungen über die Theorie der Determinanten di Leopold Kronecker e Zur Determinantentheorie di Karl Weierstrass , entrambi pubblicati nel 1903, definiscono per la prima volta le determinanti assiomaticamente come forme multilineari alternate .
Almeno due importanti matematici hanno usato la parola in un senso insolito.
Bertrand Russell e Alfred North Whitehead nei loro Principia Mathematica , usano la parola "matrice" nel contesto del loro assioma di riducibilità (in) . Questo assioma permette di ridurre il tipo di una funzione, essendo le funzioni di tipo 0 identiche alla loro estensione (en) ; chiamano "matrice" una funzione che ha solo variabili libere . Quindi, ad esempio, una funzione Φ ( x , y ) di due variabili x e y può essere ridotta a un insieme di funzioni di una singola variabile, ad esempio y , "considerando" la funzione per tutti i valori sostituiti a i a la variabile x poi ridotta a “matrice” di valori procedendo nello stesso modo per y : ∀ b j , ∀ a i , Φ ( a i , b j ) .
Alfred Tarski , nella sua Introduzione alla logica del 1946, usa la parola "matrice" come sinonimo di tavola della verità .
Una matrice con m righe e n colonne è una matrice rettangolare di m × n numeri, disposti riga per riga. Ci sono m righe e in ogni riga n elementi.
Più formalmente e più in generale, siano I , J e K tre insiemi ( K sarà spesso dotato di una struttura ad anello o anche di un campo commutativo ).
Chiamato tipo matrice ( I , J ) con coefficienti in K , qualsiasi famiglia di elementi K indicizzata dal prodotto cartesiano I × J , ovvero qualsiasi implementazione da A a I × J in K .
Molto spesso, come nel resto di questo articolo, gli insiemi I e J sono finiti e sono rispettivamente gli insiemi di interi {1,…, m } e {1,…, n } . In questo caso si dice che la matrice ha m righe e n colonne, oppure che è di dimensione o grandezza ( m , n ) . Indicando a i , j l'immagine di una coppia ( i , j ) con la mappa A , la matrice può quindi essere indicata
o più semplicemente ( a i , j ) se il contesto si presta ad esso.
Nel caso particolare in cui I o J è l' insieme vuoto , la matrice corrispondente è chiamata matrice vuota .
Di solito una matrice è rappresentata sotto forma di una tabella rettangolare. Ad esempio, sotto è rappresentata una matrice A , a coefficienti interi, e di dimensione (3,4):
In questa rappresentazione, il primo coefficiente della dimensione è il numero di righe e il secondo il numero di colonne nella tabella. Una matrice per cui il numero m di righe è uguale al numero n di colonne sarà chiamata matrice quadrata di dimensione (o ordine ) n . Una matrice con una sola riga e n colonne è chiamata matrice riga di dimensione n . Una matrice con m righe e una singola colonna è detta matrice colonna di dimensione m .
Per individuare un coefficiente di una matrice, indichiamo il suo indice di riga quindi il suo indice di colonna, le righe conteggiando dall'alto verso il basso e le colonne da sinistra a destra. Ad esempio, indicheremo con a i , j , i coefficienti della matrice A , i compreso tra 1 e 3 indicando il numero della riga su cui compare il coefficiente previsto, e j compreso tra 1 e 4 indicando il suo numero di colonna; quindi un 2,4 = 7 .
La disposizione generale dei coefficienti di una matrice A di dimensione ( m , n ) è quindi la seguente
I coefficienti a i , j con i = j si dicono diagonali , quelli con i extra j si dicono extradiagonali .
Una sottomatrice di A è una matrice ottenuta selezionando una parte I ⊂ {1, ..., m } delle sue righe e una parte J ⊂ {1, ..., n } delle sue colonne; indichiamo A I , J . Diciamo che una sottomatrice è principale se I = J nella definizione precedente. La diagonale di A è il vettore
dove p = min ( m , n ) .
Per eseguire determinate operazioni può essere utile lavorare sul sistema di righe o colonne di una matrice. Possiamo quindi scriverlo in una delle seguenti forme
L'insieme delle matrici con coefficienti in K aventi m righe e n colonne è indicato con M m , n ( K ) (o talvolta M ( m , n , K ) ).
Quando m = n indichiamo più semplicemente M n ( K ) .
Sia K un insieme e A = ( a i , j ) 1 ≤ i ≤ m , 1 ≤ j ≤ n ∈ M m , n ( K ) ; Chiamiamo la matrice trasposta di A matrice A T = ( a j , i ) 1 ≤ j ≤ n , 1 ≤ i ≤ m ∈ M n , m ( K ) . Se K è un magma , A T = ( a j , i ) 1 ≤ j ≤ n , 1 ≤ i ≤ m ∈ M n , m ( K op ) dove K op è il magma opposto di K .
Ad esempio, con la matrice A degli esempi precedenti, abbiamo
Supponiamo ora che K sia dotato di una struttura ad anello ; gli elementi di K saranno detti scalari , al contrario delle matrici che vedremo possono essere considerate come vettori .
Definiamo su M m , n ( K ) una legge di composizione interna risultante dalla somma degli scalari:
.Possiamo solo aggiungere due matrici della stessa dimensione.
Per ogni valore della coppia ( m , n ) , lo spazio M m , n ( K ) diventa allora un gruppo abeliano , con elemento neutro la matrice nulla , quella di cui tutti i coefficienti sono uguali a 0.
Definiamo anche un'operazione a destra di K su ogni spazio M m , n ( K ) associando, ad ogni scalare λ in K e ad ogni matrice ( a i , j ) a coefficienti in K , la matrice ( a i , j ) λ = ( una i , j λ ) ottenuto eseguendo la moltiplicazione sulla destra, in K , di tutti i coefficienti della matrice iniziale λ : è la moltiplicazione per uno scalare . Quando l'anello è commutativo, la moltiplicazione può essere eseguita anche a sinistra.
Prendendo sempre la matrice A del primo esempio ( vedi sopra ):
Gli spazi M m , n ( K ) così ottenuti hanno quindi una struttura di K - modulo destro , e più in particolare di K - spazio vettoriale , se K è un campo commutativo .
Base canonica dello spazio matricialeIl K -modulo M m , n ( K ) è libero di rango mn , cioè ha una base di mn elementi: basta considerare la base canonica ( E i , j ) 1 ≤ i ≤ m , 1 ≤ j ≤ n . La matrice E i , j è quella in cui tutti i coefficienti sono nulli tranne quello dell'indice ( i , j ) , che è uguale a 1.
Le coordinate nella base canonica di una matrice A sono i suoi coefficienti:
Iniziamo definendo il prodotto di una matrice riga per una matrice colonna. Sia n un intero, L una matrice di righe, x i i suoi coefficienti, C una matrice di colonne, y i i suoi coefficienti. Si presume che entrambi siano di dimensione n . Definiamo quindi il prodotto, considerato come uno scalare o una matrice di dimensione (1, 1):
Si nota la condizione di compatibilità sulle dimensioni delle matrici (uguaglianza del numero di colonne della prima con il numero di righe della seconda). Definiamo ora più in generale un prodotto tra due matrici, la prima, ( x i , j ) in M m , n ( K ) , la seconda, ( y i , j ) in M n , p ( K ) , sempre con a condizione di compatibilità sulle taglie (e l'ordine dei fattori della moltiplicazione non può in generale essere modificato). Il risultato ottenuto è una matrice di M m , p ( K ) , i cui coefficienti ( z i , j ) sono ottenuti da:
Alla luce dell'esempio della moltiplicazione di una matrice riga per una matrice colonna, possiamo riformulare questa definizione dicendo che questo coefficiente è uguale al prodotto della riga i della prima matrice per la colonna j della seconda, che si scrive come segue, se L i sono le righe della prima matrice e C j le colonne della seconda, il prodotto è: .
Il prodotto matriciale è associativo , distributivo a destra ea sinistra rispetto all'addizione matriciale. D'altra parte, anche quando le dimensioni permettono di dare un senso alla domanda e anche se l'anello degli scalari è commutativo, un prodotto di matrici generalmente non commuta : AB non è in generale uguale a BA , ad esempio:
Nota : il prodotto di due matrici diverse da zero può essere zero, come nell'esempio sopra.
Succede addirittura, a seconda delle rispettive dimensioni delle matrici A e B , che uno dei due prodotti esista e l'altro no.
La trasposizione e il prodotto matrice sono compatibili nel seguente senso:
( anche se l'anello K non è commutativo , ricordando che le matrici trasposte hanno i loro coefficienti nell'anello opposto K op ).
Identità e matrice inversa di una matricePer ogni intero n indichiamo con I n la matrice quadrata di dimensione n i cui coefficienti diagonali sono uguali a 1 e gli altri coefficienti sono zero; è detta matrice identità di dimensione n.
dove δ i, j denotano il simbolo di Kronecker .
In base alla compatibilità delle dimensioni, le matrici I n sono neutre a sinistra e a destra per la moltiplicazione.
Sia A una matrice di dimensione ( m , n ). Diciamo che A è invertibile a destra (rispettivamente a sinistra) se esiste una matrice B di dimensione ( n , m ) tale che AB = I m (rispettivamente BA = I n ). Si dice semplicemente che è invertibile se è sia destro che sinistro. Il sottoinsieme di M n ( K ) costituito dalle matrici invertibili ha una struttura a gruppi per il prodotto matriciale; è chiamato un gruppo lineare e denotato GL n ( K ) .
Per una matrice quadrata con coefficienti in un anello commutativo K , essendo invertibile a destra o a sinistra o avente un determinante invertibile in K (cioè diverso da zero se K è un campo) sono tre proprietà equivalenti.
Quando l'anello K è commutativo, l'insieme M n ( K ) di matrici quadrate di dimensione n è quindi dotato di una struttura di K - algebra associativa e unitaria con l'addizione matriciale, il prodotto per uno scalare e la matrice prodotto.
Chiamata matrice scalare una matrice della forma I n λ dove λ è un membro dell'anello K .
Queste matrici sono chiamate matrici scalari perché si comportano come scalari, rispetto alla moltiplicazione:
Quando K è commutativo, o, altrimenti, quando λ è centrale in K , cioè quando lambda commuta con tutti gli elementi di K , abbiamo anche:
Viceversa, qualsiasi matrice B di M n ( K ) tale che ∀ A ∈ M n ( K ), AB = BA è una matrice scalare I n λ dove λ è centrale in K (ciò si dimostra prendendo per A le matrici dei base canonica ).
Una matrice della forma:
si chiamerà matrice diagonale .
Oltre al determinante, un'altra funzione degna di nota è la traccia . Entrambi compaiono in un oggetto più generale, il polinomio caratteristico , che a sua volta fornisce alcune caratterizzazioni di matrici diagonalizzabili (cioè simili a una matrice diagonale), o di trigonalizzazione .
Esistono diversi modi per far agire il gruppo lineare GL n ( K ) sugli spazi delle matrici, in particolare:
Descriviamo ora i risultati classici su queste azioni, quando gli scalari formano un campo commutativo. Le prime due azioni sono spesso considerate contemporaneamente; ci interessa quindi la domanda: date due matrici A e B di dimensione ( m , n ) , esistono matrici P ∈ GL m ( K ) e Q ∈ GL m ( K ) tali che A = PBQ −1 ? In tal caso le due matrici A e B si dicono equivalenti . Il risultato principale è che due matrici sono equivalenti se e solo se hanno lo stesso rango , il che si esprime ancora dicendo che il rango è un invariante completo per le classi doppie definite dalle due azioni di moltiplicazione a sinistra e a destra . Inoltre, data una matrice, si possono trovare altre matrici privilegiate (le matrici scalate ) nella stessa orbita per una di queste azioni con il metodo del pivot gaussiano .
Per l'azione per coniugazione, due matrici quadrate A e B di dimensione n nella stessa orbita ammettono una relazione della forma A = PBP −1 , per una certa matrice invertibile P di dimensione n ; due di queste matrici si dicono simili . Più delicata è la descrizione di un sistema completo di invarianti (che caratterizzano matrici simili). Chiamiamo questi invarianti gli invarianti di similarità . Da un punto di vista algoritmico, la riduzione di una matrice arbitraria a matrice in forma privilegiata viene effettuata da un algoritmo ispirato a quello del pivot gaussiano, vedi teorema dei fattori invarianti .
Uno dei principali vantaggi delle matrici è che permettono di scrivere convenientemente , con una certa canonicità, le consuete operazioni di algebra lineare .
Il primo punto è notare che il K -modulo K n è canonicamente identificato con lo spazio delle matrici colonna M n , 1 ( K ) : se e i è l' n -gruppo di K n i cui coefficienti sono zero, eccetto i - th che vale 1, le associamo la i - esima matrice di colonna E i , 1 della base canonica di M n , 1 ( K ) (quella i cui coefficienti sono zero tranne la i -esima che vale 1 ), ed estendiamo l'identificazione per linearità; la matrice associata ad ogni n- uplet sarà chiamata matrice di coordinate canoniche .
Altre identificazioni sono comunque possibili; quando si può parlare di una base (se l'anello degli scalari è un campo, per esempio), si possono associare le matrici elementari delle colonne a qualsiasi base dello spazio K n (o più in generale di un modulo K - libero), quindi estendere di nuovo per linearità; le matrici associate saranno chiamate matrici coordinate nella base considerata.
Si possono giustapporre le matrici di coordinate, in una base fissa, di più n -uple. Otteniamo così la matrice di coordinate di una famiglia di vettori. Il rango della matrice è quindi definito come la dimensione della famiglia di questi vettori. In particolare, la matrice di una base in un'altra base è detta matrice di passaggio tra queste due basi, o matrice di cambio di base. Se X e X ' sono le matrici coordinate dello stesso vettore in due basi B e C , e che P è la matrice di passaggio dalla base C alla base B , si ha la relazione (una matrice di passaggio è sempre invertibile):
Siano E ed F due spazi vettoriali di rispettive dimensioni n e m su un campo K , B una base E , C una base F e φ una mappatura lineare di E in F .
Chiamiamo la matrice di φ nella coppia di basi ( B , C ) la matrice mat B , C ( φ ) di M m , n ( K ) tale che per qualsiasi vettore x di E , se indichiamo y = φ ( x ) , X = mat B ( x ) e Y = mat C ( y ) , quindi:
Se è una seconda mappa lineare, di F in un terzo spazio vettoriale G di base D , allora, rispetto alle basi B , C , D , la matrice del composto ψ ∘ φ è uguale al prodotto delle matrici di ψ e Phi . Più precisamente :
L'applicazione di L ( E , F ) in M m , n ( K ) che ad ogni φ associa la sua matrice in ( B , C ) è un isomorfismo degli spazi vettoriali .
Per ogni matrice M di M m , n ( K ) , la mappa X ↦ MX del K - spazio vettoriale M n , 1 ( K ) nel K - spazio vettoriale M m , 1 ( K ) è lineare. Questo è un punto chiave nel collegamento tra algebra lineare e matrici. Di conseguenza, spesso accade che la matrice M si identifichi con questa mappa lineare. Parleremo poi del nucleo della matrice, degli autospazi della matrice, dell'immagine della matrice, ecc.
Se B e B ' sono due basi di E , C e C' due basi di F , P = mat B ( B ' ) la matrice di passaggio da B a B' e Q la matrice di passaggio da C a C ' , allora le due matrici M ed M ' della stessa mappa lineare di E in F , nelle coppie di basi ( B , C ) e ( B' , C ' ), sono legate da: M' = Q −1 MP . Si nota quindi che due matrici equivalenti sono due matrici che rappresentano la stessa mappa lineare in basi diverse. In particolare, nel caso di un endomorfismo , se imponiamo B = C e B ' = C' , la formula precedente diventa: M '= P −1 MP e due matrici simili sono due matrici che rappresentano lo stesso endomorfismo in basi diverse .
trasposizioneSono ancora E ed F due vettori di K- spazi di dimensioni finite, rispettive basi B e C , e φ una mappatura lineare di E in F . L'applicazione lineare trasposta t φ: F * → E * tra i loro duali è definita da
La sua matrice nella coppia di basi duali ( C *, B *) è legata a quella di φ in ( B , C ) da:
NotaQuando l'anello non è commutativo, se i vettori sono rappresentati da matrici colonna, l'algebra lineare è compatibile con il calcolo matriciale solo se i moduli o gli spazi vettoriali considerati sono a destra , come negli articoli sopra dettagliati, una mappa lineare corrispondente a sinistra moltiplicazione di un vettore colonna per la matrice che lo rappresenta. Se vogliamo avere moduli o spazi vettoriali a sinistra , dobbiamo rappresentare i vettori per matrici riga , una mappa lineare questa volta rappresentata dalla moltiplicazione a destra di un vettore riga per la matrice che lo rappresenta.
In generale, un sistema di m equazioni lineari con n incognite può essere scritto nella forma seguente:
dove x 1 , ..., x n sono le incognite ei numeri a i , j sono i coefficienti del sistema.
Questo sistema può essere scritto in forma matriciale:
insieme a :
la teoria della risoluzione dei sistemi utilizza gli invarianti legati alla matrice A (detta matrice del sistema ), ad esempio il suo rango, e, nel caso in cui A sia invertibile, il suo determinante (si veda l'articolo Regola di Cramer ).
In questo paragrafo si assumerà che l'anello K degli scalari sia commutativo. Nella maggior parte delle applicazioni, questo sarà un campo commutativo.
Esiste anche il caso non commutativo, ma vanno prese alcune precauzioni e le notazioni diventano troppo pesanti per questo articolo.
Sia E un K -modulo e B = ( e 1 , ..., e n ) una base E .
Sia una forma bilineare . Definiamo la matrice di in base B con la seguente formula:
Nel caso particolare in cui K = ℝ e f è un prodotto scalare, questa matrice è chiamata matrice di Gram .
La matrice mat B f è simmetrica (rispettivamente antisimmetrica ) se e solo se la forma bilineare è simmetrica (rispettivamente antisimmetrica ).
Lasciare x ed y due vettori di E . Indichiamo con X e Y le loro coordinate nella base B e A = mat B f . Abbiamo quindi la formula .
Due forme bilineari sono uguali se e solo se hanno la stessa matrice in una data base.
Quando K è un campo di caratteristica diverso da 2, si chiama matrice di forma quadratica la matrice della forma bilineare simmetrica da cui risulta la forma quadratica.
Sia E un K -modulo libero e B, C due basi di E . Considera una forma bilineare.
Nota M = mat B f la matrice f in base B e M ' = matt C f la matrice f in base C . Indichiamo con P = mat B C la matrice del passaggio. Abbiamo quindi la formula di cambio base per una forma bilineare (da non confondere con quella per un'applicazione lineare ):
Due matrici quadrate A e B si dicono congruenti se esiste una matrice P invertibile tale che
Due matrici congruenti sono due matrici che rappresentano la stessa forma bilineare in due basi diverse.
Quando K è un campo di caratteristica diversa da 2, qualsiasi matrice simmetrica è congruente a una matrice diagonale. L'algoritmo utilizzato è chiamato riduzione gaussiana da non confondere con il pivot gaussiano .
Una matrice si dice simmetrica se è uguale alla sua trasposta e antisimmetrica se è opposta alla sua trasposta.
Una matrice A con coefficienti complessi è detta hermitiana se è uguale alla trasposta del coniugato di matrice A .
Si dice una matrice A
(Per ulteriori esempi, vedere in fondo alla pagina: palette "Articoli correlati" e "Matrici")
Usiamo male il termine decomposizione di una matrice, sia che si tratti di una vera decomposizione (in somma) come nella scomposizione di Dunford o di una fattorizzazione come nella maggior parte delle altre decomposizioni.
In tutto questo paragrafo, K = ℝ o ℂ .
Una norma matriciale è una norma algebra sulla algebra M n ( K ) , che è uno spazio vettoriale norma che è inoltre sub-moltiplicativa.
Il raggio spettrale di una matrice quadrata A con coefficienti complessi è il modulo più grande dei suoi autovalori . È uguale al limite inferiore delle norme matriciali di A .
Su M n ( K ) , ogni norma N subordinata a una norma su K n è una norma algebrica che soddisfa inoltre N ( I n ) = 1 (falso è il contrario).
Lo spazio vettoriale M m , n (ℝ ) , canonicamente isomorfo a ℝ mn , eredita la sua struttura euclidea . Il prodotto scalare si trascrive come
dove denota la traccia (ie, ) e a i , j (resp. b i , j ) denotano gli elementi di A (resp. B ). Lo standard associato a questo prodotto scalare è lo standard di Frobenius o lo standard Hilbert-Schmidt :
dove σ ( A ) è il vettore dei valori singolari di A ed è la norma euclidea .
Se m = n > 1 , non è una norma subordinata, poiché
La disuguaglianza di Cauchy-Schwarz è scritta (come per qualsiasi prodotto scalare):
Questa disuguaglianza può essere rafforzata dalla disuguaglianza della traccia di von Neumann :
dove σ ( A ) è il vettore dei valori singolari di A , disposti in ordine decrescente . Ha la stessa struttura della disuguaglianza Ky Fan , che assume che le matrici siano quadrate e simmetriche (possiamo quindi sostituire σ (•) con il vettore degli autovalori).
Lo spazio vettoriale M m, n (ℂ) è dotato di una struttura simile allo spazio hermitiano .
Sia A ∈ M n (ℂ) o N algebra standard e tutta una serie di raggi di convergenza R .
Allora se N ( A ) < R , la serie è assolutamente convergente . (Lo mostriamo usando che N ( A n ) ≤ N ( A ) n .)
In particolare, si può definire, per qualsiasi matrice quadrata complessa, la quantità
Il calcolo effettivo di questo esponenziale avviene per riduzione della matrice .
L'esponenziale gioca un ruolo centrale nello studio dei sistemi lineari di equazioni differenziali .