Storia dell'I.A.

L'idea di 'una macchina che pensa' risale all'antica Grecia.Ma dall'avvento dell'informatica elettronica (e relativamente ad alcuni degli argomenti trattati in questo articolo), gli eventi chiave nell'evoluzione dell'intelligenza artificiale sono i seguenti:

1950: Alan Turing pubblica Computing Machinery and Intelligence. Nell'articolo, Turing, famoso per aver decifrato il codice ENIGMA dei nazisti durante la Seconda Guerra Mondiale, propone di rispondere alla domanda "Le macchine possono pensare?" e introduce il test di Turing per determinare se un computer può dimostrare la stessa intelligenza (o i risultati della stessa intelligenza) di un essere umano.Da allora il valore del test di Turing è stato oggetto di dibattito.

1956: John McCarthy conia il termine “intelligenza artificiale” in occasione della prima conferenza sull’AI al Dartmouth College.(McCarthy avrebbe successivamente inventato il linguaggio LISP.)Più tardi, nello stesso anno, Allen Newell, JC Shaw e Herbert Simon creano Logic Theorist, il primo programma di intelligenza artificiale funzionante.

1967: Frank Rosenblatt costruisce il Mark 1 Perceptron, il primo computer basato su una rete neurale che "impara" per tentativi ed errori.Appena un anno dopo, Marvin Minsky e Seymour Papert pubblicano un libro intitolato Perceptrons, che diventa sia l'opera fondamentale sulle reti neurali sia, almeno per un po', un argomento contro i futuri progetti di ricerca sulle reti neurali.

Anni '80: le reti neurali che utilizzano un algoritmo di backpropagation per addestrarsi diventano ampiamente utilizzate nelle applicazioni di intelligenza artificiale.

1997IBM Deep Blue batte l'allora campione del mondo di scacchi Garry Kasparov, in una partita a scacchi (e rivincita).

2011IBM Watson batte i campioni Ken Jennings e Brad Rutter a Jeopardy!

2015: il supercomputer Minwa di Baidu utilizza un tipo speciale di rete neurale profonda, chiamata rete neurale convolutiva, per identificare e categorizzare le immagini con un tasso di accuratezza superiore alla media umana.

2016: il programma AlphaGo di DeepMind, alimentato da una rete neurale profonda, batte Lee Sodol, il campione del mondo di Go, in un incontro di cinque partite.La vittoria è significativa se si considera l'enorme numero di mosse possibili nel corso del gioco (oltre 14,5 trilioni dopo solo quattro mosse!). Successivamente, Google ha acquistato DeepMind per una cifra stimata di 400 milioni di dollari.

2023: l'aumento dei modelli di linguaggio di grandi dimensioni, o LLM, come ChatGPT, crea un enorme cambiamento nelle prestazioni dell’AI e nel suo potenziale di generare valore aziendale.
Con queste nuove pratiche di AI generativa, è possibile pre-addestrare i modelli di apprendimento profondo su grandi quantità di dati non elaborati e non etichettati.