Machine Learning

Il Perceptron in Machine Learning

Nel lontano 1943, dopo uno studio approfondito del cervello umano, i due padri fondatori del Perceptron, McCullock e Pitts (MCP) pubblicarono un primo schema di cellula semplificata che prese il loro nome.

I neuroni non sono altro che cellule nervose interconnesse che si trovano nel cervello e sono coinvolte nell’elaborazione e trasmissione di segnali chimici elettrici.

Perceptron

Il funzionamento è molto semplice, i segnali di input vengono ricevuti dai dendriti, una volta oltrepassato l’intero corpo della cellula nervosa, se il segnale supera una certa soglia viene prodotto un output rilasciato da un assone, la parte finale.

La regola di apprendimento del Perceptron

Pochi anni dopo Frank Rosenblatt, pubblica il primo concetto della regola di apprendimento del perceptron basta sul modello MCP. Nel dettaglio, Roseblatt, propose un algoritmo che avrebbe appreso in maniera automatica i coefficienti di peso ottimale da moltiplicare con le caratteristiche di input in modo da prendere una decisione sul fatto che un neurone si attivi o no.

Questo tipo di algoritmo viene utilizzato per prevedere se un campione appartiene a una classe o meno, quindi, in parole povere stiamo parlando di un compito di apprendimento con supervisione.

Il problema quindi non è altro che un compito di classificazione binaria dove le classi sono o positiva (1) o negativa (-1). La funzione di attivazione Ø(z) invece prende una combinazione lineare di determinati valori di input x e un corrispondente vettore di pesi w. L’input della rete è ovviamente z (z=w1x1 + . . . + wmxm).

A questo punto se l’output della funzione è maggiore della soglia 0 allora l’input della rete rientra nella classe 1, altrimenti nella classe -1. Matematicamente rappresentiamo la funzione in questo modo:

Perceptron

Tutto ciò viene utilizzato per discriminare fra due classi separabili in modo lineare:

Perceptron

Ora, in parole povere, andiamo a vedere in maniera tecnica come funziona la regola di apprendimento di Rosenblatt:

  1. inizializziamo i pesi a 0 o numeri casuali piccoli;
  2. per ogni campione di addestramento x(i) :
    • calcolare il valore di output ý
    • aggiornare i pesi
Leggi articolo   Funzionamento API di stima scikit-learn

Attraverso questa rappresentazione illustriamo meglio il concetto generale di funzionamento de perceptron:

Il perceptron riceve gli input di un campione x e li combina con i pesi w per calcolare l’input della rete. Quest’ultimo viene poi passato alla funzione di attivazione che genera il nostro output binario (1 o -1) l’etichetta della classe prevista per il campione – durante la fase di apprendimento, l’output, viene utilizzato per calcolare l’errore della previsione e aggiornare i pesi.

Condividi il post

Condividi su facebook
Condividi su google
Condividi su twitter
Condividi su email
Condividi su whatsapp