Perceptron

Il perceptron è un algoritmo di apprendimento supervisionato di classificatori binari (cioè separando due classi). È stato inventato nel 1957 da Frank Rosenblatt presso l'Aeronautics Laboratory della Cornell University. È un neurone formale dotato di una regola di apprendimento che determina automaticamente i pesi sinaptici in modo da separare un problema di apprendimento supervisionato. Se il problema è separabile linearmente, un teorema assicura che la regola del perceptron permetta di trovare un separatore tra le due classi.

Definizione

Il perceptron può essere visto come il tipo più semplice di rete neurale . È un classificatore lineare . Questo tipo di rete neurale non contiene cicli (è una rete neurale a propagazione in avanti ). Nella sua versione semplificata, il perceptron è a strato singolo e ha un solo output (booleano) a cui sono collegati tutti gli ingressi (booleano). Più in generale, le voci possono essere numeri reali.

Un perceptron con n input e un singolo output o è definito dai dati di n pesi (o coefficienti sinaptici) e un bias (o soglia) da:

L'output o risulta quindi dall'applicazione della funzione Heaviside al potenziale postsinaptico , con:

Questa funzione non lineare è chiamata funzione di attivazione. Un'alternativa comunemente usata è la tangente iperbolica .

La regola di Hebb

Regola di Hebb, stabilito da Donald Hebb , è una regola di apprendimento delle reti neurali artificiali nel contesto delle assemblee di neuroni di studio.

Questa regola suggerisce che quando due neuroni sono eccitati insieme, creano o rafforzano un legame tra di loro.

Nel caso di un singolo neurone artificiale che utilizza la funzione segno come funzione di attivazione, ciò significa che:

dove rappresenta il peso corretto e rappresenta la fase di apprendimento.

Questa regola purtroppo non è applicabile in alcuni casi, sebbene la soluzione esista.

Regola di apprendimento di Perceptron (legge di Widrow-Hoff)

Il perceptron di Frank Rosenblatt è molto vicino alla regola di Hebb , con la grande differenza che tiene conto dell'errore osservato in uscita.

Questa funzione è consigliata quando si utilizza la tangente iperbolica (tanh) come funzione di attivazione.

= il peso corretto

= output previsto

= output osservato

= il tasso di apprendimento

= inserimento del peso per l'uscita prevista

= il peso attuale

Note e riferimenti

  1. "  Rivista psicologica vol. 65, No. 6, 1958 "percettrone: una probabilistica MODELLO PER INFORMAZIONI CONSERVAZIONE E ORGANIZZAZIONE NEL CERVELLO" - F. Rosenblatt  " su citeseerx.ist.psu.edu (accessibile 1 ° maggio 2018 )
  2. The Perceptron , in Marc Tommasi, Machine learning: neural networks , course at the University of Lille 3
  3. Donald Olding HEBB, The Organization of Behaviour, New York, Wiley & Sons, 1949

Vedi anche

Bibliografia

- ripreso in JA Anderson & E. Rosenfeld (1988), Neurocomputing. Fondamenti di ricerca, MIT Press


<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">