Rayleigh quoziente
In matematica , per una matrice Hermitiana A e un vettore x diverso da zero, il quoziente di Rayleigh è l'espressione scalare definita da
R(A,X)=X∗AXX∗X{\ displaystyle R (A, x) = {\ frac {x ^ {*} Ax} {x ^ {*} x}}}![R (A, x) = {\ frac {x ^ {{*}} Ax} {x ^ {{*}} x}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/db32183f389d9ebda6cd086b4f34e4842affc5ea)
dove x * denota il vettore aggiunto di x . Per una matrice simmetrica a coefficienti reali , il vettore x * è semplicemente la sua trasposizione x T .
In entrambi i casi, il quoziente di Rayleigh fornisce un valore reale che fornisce informazioni sullo spettro della matrice dalle seguenti due proprietà fondamentali:
Queste due proprietà possono essere sfruttate per determinare numericamente i valori, i vettori e gli autospazi di un operatore Hermitiano o simmetrico.
Il quoziente di Rayleigh, la cui proprietà estrema può essere correlata al principio di minima energia potenziale in meccanica , fu studiato per la prima volta da Rayleigh (1877).
Walter Ritz riprese l'idea nel 1909 per farne la base di un metodo di approssimazione variazionale.
Proprietà
Partendo da una matrice simmetrica Hermitiana (i cui autovalori sono reali), il quoziente di Rayleigh soddisfa le seguenti proprietà:
- È una funzione omogenea di grado 1 poiché R ( A , cx ) = R ( A , x ) per ogni scalare c .
- Per x non a zero, dove e sono gli stessi estremi di A . Si raggiunge un'uguaglianza se e solo se x è un autovettore per il corrispondente autovalore estremo.λmin≤R(A,X)≤λmax{\ displaystyle \ lambda _ {\ min} \ leq R (A, x) \ leq \ lambda _ {\ max}}
λmin{\ displaystyle \ lambda _ {\ min}}
λmax{\ displaystyle \ lambda _ {\ max}}![\ lambda _ {\ max}](https://wikimedia.org/api/rest_v1/media/math/render/svg/957584ae6a35f9edf293cb486d7436fb5b75e803)
- Se x 0 è un autovettore autovalore non estremo, allora R ( A , x ) ha un punto di sella nell'intorno di x 0 .
Elementi di giustificazione
Prova di proprietà 2
Nel caso reale, la matrice simmetrica è diagonalizzabile nel senso che esiste una matrice ortogonale O (le cui colonne sono autovettori) e una matrice diagonale D i cui coefficienti sono gli autovalori come
λio{\ displaystyle \ lambda _ {i}}![\ lambda _ {{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/72fde940918edf84caf3d406cc7d31949166820f)
A=ODOT.{\ displaystyle A = ODO ^ {T}.}![A = ODO ^ {{T}}.](https://wikimedia.org/api/rest_v1/media/math/render/svg/90456f5179db497dcfed21d9cbf2d5ff5dffeb63)
Nel caso complesso, la matrice Hermitiana può essere diagonalizzata utilizzando una matrice unitaria e il ragionamento è identico.
A=UDU∗{\ displaystyle A = UDU ^ {*}}![A = UDU ^ {{*}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3ef144012b04ddf7d0c21b61126c9f6ac99ad6e7)
Il cambio di variabile preserva la norma euclidea e quindi
y=OTX{\ displaystyle y = O ^ {T} x}![y = O ^ {T} x](https://wikimedia.org/api/rest_v1/media/math/render/svg/afc001e7128d4113c1de3767d648a10c8df48c60)
R(A,X)=Φ(y) con Φ(y)=∑ioλioyio2∑ioyio2.{\ displaystyle R (A, x) = \ Phi (y) {\ text {with}} \ Phi (y) = {\ frac {\ sum _ {i} \ lambda _ {i} y_ {i} ^ { 2}} {\ sum _ {i} y_ {i} ^ {2}}}.}![R (A, x) = \ Phi (y) {\ text {con}} \ Phi (y) = {\ frac {\ sum _ {{i}} \ lambda _ {{i}} y _ {{i }} ^ {{2}}} {\ sum _ {{i}} y _ {{i}} ^ {{2}}}}.](https://wikimedia.org/api/rest_v1/media/math/render/svg/265259b4490b9976d2608f91ebd84fb3033fbddc)
Nelle variabili y i , il quoziente di Rayleigh è una media ponderata degli autovalori, che giustifica la proprietà 2.
Prova di proprietà 3
Si presume che gli autovalori siano distinti l'uno dall'altro; in caso contrario, è sufficiente raccogliere i termini di Φ ( y ) da gruppi di più autovalori.
Controlliamo che il gradiente e la matrice hessiana di Φ ( y ) siano scritti rispettivamente
∂Φ(y)∂yio=2‖y‖2yio(λio-Φ(y)).{\ displaystyle {\ frac {\ partial \ Phi (y)} {\ partial y_ {i}}} = {\ frac {2} {\ left \ | y \ right \ | ^ {2}}} \, y_ {i} \, (\ lambda _ {i} - \ Phi (y)).}
H(Φ(y))=2‖y‖2(J+2‖y‖2S){\ displaystyle H (\ Phi (y)) = {\ frac {2} {\ left \ | y \ right \ | ^ {2}}} (J + {\ frac {2} {\ left \ | y \ destra \ | ^ {2}}} S)}
dove J è una matrice diagonale:
Jioio=λio-Φ(y){\ displaystyle J_ {ii} = \ lambda _ {i} - \ Phi (y)}
Sioj=yioyj(2Φ(y)-λio-λj).{\ displaystyle S_ {ij} = y_ {i} \, y_ {j} \, (2 \, \ Phi (y) - \ lambda _ {i} - \ lambda _ {j}).}
Con autovalori distinti, il gradiente svanisce se e solo se tutti y i sono zero tranne uno. Scegliendo arbitrariamente un indice k e ponendo ( simbolo di Kronecker ), deduciamo:
yio=δioK{\ displaystyle y_ {i} = \ delta _ {ik}}![y _ {{i}} = \ delta _ {{ik}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8e198ebdbd5977a30d4a9aacad128a7c5feb3ad3)
Φ(y)=λK,{\ displaystyle \ Phi (y) = \ lambda _ {k},}
Jioio=λio-λK e Sioj=0,{\ displaystyle J_ {ii} = \ lambda _ {i} - \ lambda _ {k} {\ text {e}} S_ {ij} = 0,}
H(Φ(y)){\ displaystyle H (\ Phi (y))}![H (\ Phi (y))](https://wikimedia.org/api/rest_v1/media/math/render/svg/2b98b5e954db9310ced897e060483bf7ef448bbb)
è diagonale con
Hioio=2(λio-λK).{\ displaystyle H_ {ii} = 2 (\ lambda _ {i} - \ lambda _ {k}).}
Finalmente
- Se y k è uno dei due autovalori estremi, è effettivamente un estremo di Φ ( y ) perché gli elementi di H hanno lo stesso segno.
- Altrimenti, i termini diagonali di H cambiano segno ed è un punto di sella.
Nota: H kk = 0 riflette l'omogeneità di Φ ( y ) .
Un altro approccio
La norma di x non ha effetto per la proprietà 1, possiamo anche formulare il problema con il metodo dei moltiplicatori di Lagrange trovando x che massimizza (o minimizza) x T A x sotto il vincolo x T x = 1 Si tratta quindi di una questione di considerando la funzione
Ψ(X,μ)=XTAX+μ(1-XTX){\ displaystyle \ Psi (x, \ mu) = x ^ {T} Ax + \ mu (1-x ^ {T} x)}![\ Psi (x, \ mu) = x ^ {{T}} Ax + \ mu (1-x ^ {{T}} x)](https://wikimedia.org/api/rest_v1/media/math/render/svg/ae68405a3244ac80a4236ba1ad747626efa3a3b5)
e trova x e μ che annullano il differenziale di Ψ ( x , μ) . La soluzione è data dalle seguenti condizioni necessarie (ma non sufficienti in generale):
AX=μX{\ displaystyle Ax = \ mu x}
XTX=1.{\ displaystyle x ^ {T} x = 1.}
Combinato con il teorema min-max di Current - Fischer , il quoziente di Rayleigh permette di determinare uno ad uno tutti gli autovalori di una matrice. Può anche essere utilizzato per calcolare un valore approssimativo di un autovalore da un'approssimazione di un autovettore. Queste idee costituiscono anche la base dell'algoritmo di iterazione Rayleigh .
Caso speciale di matrici autoadiacenti positive
Le matrici autoadiacenti positive (cioè semi-definite positive) hanno autovalori positivi o nulli e il quoziente di Rayleigh rimane quindi sempre positivo o zero. Questo è particolarmente vero per le matrici di covarianza e questa proprietà è la base dell'analisi delle componenti principali e delle correlazioni canoniche.
Metodo Rayleigh-Ritz
La teoria di Sturm-Liouville si riferisce all'azione del lineare
L(y)=1w(X)(-ddX[p(X)dydX]+q(X)y){\ displaystyle L (y) = {\ frac {1} {w (x)}} \ left (- {\ frac {\ mathrm {d}} {\ mathrm {d} x}} \ left [p (x ) {\ frac {\ mathrm {d} y} {\ mathrm {d} x}} \ right] + q (x) y \ right)}![L (y) = {\ frac {1} {w (x)}} \ left (- {\ frac {{\ mathrm d}} {{\ mathrm d} x}} \ left [p (x) {\ frac {{\ mathrm d} y} {{\ mathrm d} x}} \ right] + q (x) y \ right)](https://wikimedia.org/api/rest_v1/media/math/render/svg/f8dd8b186ed70d41cdf927e5483440519efb0a93)
sul spazio pre-Hilbert di funzioni y ( x ) soddisfa la condizioni limite specifico per x = un e b , dotato del prodotto scalare : .
⟨y1,y2⟩=∫abw(X)y1(X)y2(X)dX{\ displaystyle \ langle {y_ {1}, y_ {2}} \ rangle = \ int _ {a} ^ {b} {w (x) y_ {1} (x) y_ {2} (x)} \ matematica {d} x}![\ langle {y_ {1}, y_ {2}} \ rangle = \ int _ {a} ^ {b} {w (x) y_ {1} (x) y_ {2} (x)} {\ mathrm d } X](https://wikimedia.org/api/rest_v1/media/math/render/svg/a2f531d8200466ee10fe1a728fdc955854194f99)
In questo caso, il quoziente di Rayleigh è
ρ(X)=⟨y,Ly⟩⟨y,y⟩=∫aby(X)(-ddX[p(X)dydX]+q(X)y(X))dX∫abw(X)y(X)2dX.{\ displaystyle \ rho (x) = {\ frac {\ langle {y, Ly} \ rangle} {\ langle {y, y} \ rangle}} = {\ frac {\ int _ {a} ^ {b} {y (x) \ left (- {\ frac {\ mathrm {d}} {\ mathrm {d} x}} \ left [p (x) {\ frac {\ mathrm {d} y} {\ mathrm { d} x}} \ right] + q (x) y (x) \ right)} \ mathrm {d} x} {\ int _ {a} ^ {b} {w (x) y (x) ^ { 2}} \ mathrm {d} x}}.}![\ rho (x) = {\ frac {\ langle {y, Ly} \ rangle} {\ langle {y, y} \ rangle}} = {\ frac {\ int _ {a} ^ {b} {y ( x) \ left (- {\ frac {{\ mathrm d}} {{\ mathrm d} x}} \ left [p (x) {\ frac {{\ mathrm d} y} {{\ mathrm d } x}} \ right] + q (x) y (x) \ right)} {\ mathrm d} x} {\ int _ {a} ^ {b} {w (x) y (x) ^ {2 }} {\ mathrm d} x}}.](https://wikimedia.org/api/rest_v1/media/math/render/svg/9d3ce58ab8f7ac21449ba6c83a9c028e429985e0)
A volte è presentato in una forma equivalente, ottenuta dividendo l'integrale del numeratore e integrando per parti :
ρ(X)=⟨y,Ly⟩⟨y,y⟩=∫aby(X)(-ddX[p(X)y′(X)])dX+∫abq(X)y(X)2dX∫abw(X)y(X)2dX{\ displaystyle \ rho (x) = {\ frac {\ langle {y, Ly} \ rangle} {\ langle {y, y} \ rangle}} = {\ frac {\ int _ {a} ^ {b} {y (x) \ left (- {\ frac {\ mathrm {d}} {\ mathrm {d} x}} \ left [p (x) y '(x) \ right] \ right)} \ mathrm { d} x + \ int _ {a} ^ {b} {q (x) y (x) ^ {2}} \ mathrm {d} x} {\ int _ {a} ^ {b} {w (x ) y (x) ^ {2}} \ mathrm {d} x}}}
=-y(X)[p(X)y′(X)]|ab+∫aby′(X)[p(X)y′(X)]dX+∫abq(X)y(X)2dX∫abw(X)y(X)2dX{\ Displaystyle = {\ frac {-y (x) \ left [p (x) y '(x) \ right] | _ {a} ^ {b} + \ int _ {a} ^ {b} {y '(x) \ sinistra [p (x) y' (x) \ destra]} \ mathrm {d} x + \ int _ {a} ^ {b} {q (x) y (x) ^ {2} } \ mathrm {d} x} {\ int _ {a} ^ {b} {w (x) y (x) ^ {2}} \ mathrm {d} x}}}
=-p(X)y(X)y′(X)|ab+∫ab[p(X)y′(X)2+q(X)y(X)2]dX∫abw(X)y(X)2dX.{\ displaystyle = {\ frac {-p (x) y (x) y '(x) | _ {a} ^ {b} + \ int _ {a} ^ {b} \ sinistra [p (x) y '(x) ^ {2} + q (x) y (x) ^ {2} \ right] \ mathrm {d} x} {\ int _ {a} ^ {b} {w (x) y (x ) ^ {2}} \ mathrm {d} x}}.}
Per determinare una soluzione approssimativa dell'equazione
y¯(X){\ displaystyle {\ bar {y}} (x)}![{\ bar y} (x)](https://wikimedia.org/api/rest_v1/media/math/render/svg/4ad68d9d68b4605703d4b348417d8f71c558dca1)
-ddX[p(X)dydX]+q(X)y=0{\ displaystyle - {\ frac {\ mathrm {d}} {\ mathrm {d} x}} \ sinistra [p (x) {\ frac {\ mathrm {d} y} {\ mathrm {d} x}} \ right] + q (x) y = 0}![- {\ frac {{\ mathrm d}} {{\ mathrm d} x}} \ left [p (x) {\ frac {{\ mathrm d} y} {{\ mathrm d} x}} \ destra] + q (x) y = 0](https://wikimedia.org/api/rest_v1/media/math/render/svg/d5535ee434291d26838ea90b5696767359442dc4)
verifica delle condizioni al contorno, abbiamo scelto una serie di funzioni di controllo se stessi le condizioni al contorno, e cerchiamo la soluzione approssimata come combinazione lineare di modalità p selezionato: . I coefficienti sconosciuti si ottengono scrivendo la stazionarietà del quoziente di Rayleigh :,
che determina p equazioni lineari di incogniteu1,u2,...,up{\ displaystyle u_ {1}, u_ {2}, ..., u_ {p}}
y¯(X)=∑io=1pαiouio(X){\ displaystyle {\ bar {y}} (x) = \ textstyle \ sum _ {i = 1} ^ {p} \ alpha _ {i} u_ {i} (x)}
αio{\ displaystyle \ alpha _ {i}}
∂ρ∂αio=0{\ displaystyle {\ tfrac {\ partial \ rho} {\ partial \ alpha _ {i}}} = 0}
(αio)io=1,...,p{\ displaystyle (\ alpha _ {i}) _ {i = 1, ..., p}}
Generalizzazione
Possiamo estendere la nozione di quoziente di Rayleigh a due matrici simmetriche definite positive reali ( A , B ) , e ad un vettore x diverso da zero , secondo:
R(A,B;X): =XTAXXTBX.{\ displaystyle R (A, B; x): = {\ frac {x ^ {T} Ax} {x ^ {T} Bx}}.}![R (A, B; x): = {\ frac {x ^ {T} Ax} {x ^ {T} Bx}}.](https://wikimedia.org/api/rest_v1/media/math/render/svg/b906c0dfe3d5eb8b30e87dfd81ef856adbf5ba4a)
Questa "Quoziente di Rayleigh generalizzato" è ridotto al quoziente di Rayleigh R ( D , Cx ) mediante lavorazione dove C è la fattorizzazione di Cholesky della matrice B .
D=VS-TAVS-1{\ displaystyle D = C ^ {- T} AC ^ {- 1}}![D = C ^ {{- T}} AC ^ {{- 1}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/72e8c84333dc311d2d0ccd32614a28dedfdd54da)
Note e riferimenti
(fr) Questo articolo è parzialmente o interamente tratto dall'articolo di Wikipedia in
inglese intitolato
" Quoziente di Rayleigh " ( vedi la lista degli autori ) .
-
Vedi ad es. Ciarlet 2006 , p. 12-13.
Bibliografia
- Philippe Ciarlet , Introduzione all'analisi e ottimizzazione di matrici numeriche , Masson, coll. "Matematica. Appl. per il Maestro ",2006, 5 ° ed. , 279 p. ( ISBN 978-2-10-050808-2 )
-
Patrick Lascaux e Raymond Théodor, Analisi numerica di Matrix applicata all'arte dell'ingegneria , t. 1: metodi diretti [ dettaglio delle edizioni ], § 1.4 ("Forma Hermitiana associata ...")
- (it) John William Strutt Rayleigh , The Theory of Sound , vol. Io, McMillan Co.,1877( riproduzione 1945) ( ISBN 0-486-60292-3 , letto online ) , cap. IV ("Sistemi vibranti in generale") , p. 106-129
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">