HSG - AI EVOLUTION

Il Contest dedicato all'Intelligenza Artificiale

Categoria: Educational
Adatto a: Studenti delle Scuole
Inizio: 24/02/2025 Fine: 02/03/2025

 GUARDA ANCHE 

Approfondiamo un pò di Storia

L'idea di una "macchina che pensa" risale all'antica Grecia. Ma dall'avvento dell'informatica elettronica (e relativamente ad alcuni degli argomenti trattati in questo articolo), gli eventi chiave nell'evoluzione dell'intelligenza artificiale sono i seguenti:

  • 1950: Alan Turing pubblica Computing Machinery and Intelligence (il collegamento risiede al di fuori di Iberia). In questo articolo, Turing, famoso per aver decifrato il codice tedesco ENIGMA durante la seconda guerra mondiale e spesso definito il " padre dell'informatica ", pone la seguente domanda: " Le macchine possono pensare? "  Da lì, offre un test, ora noto come "Test di Turing", in cui un interrogatore umano cerca di distinguere una risposta testuale umana da quella del computer. Sebbene questo test sia stato sottoposto a molti controlli dopo la sua pubblicazione, rimane una parte importante della storia dell'AI, nonché un concetto attuale nel campo della filosofia, in quanto si avvale delle teorie della linguistica.

  • 1956: John McCarthy conia il termine "intelligenza artificiale" in occasione della prima conferenza sull’AI al Dartmouth College (McCarthy avrebbe successivamente inventato il linguaggio LISP). Più tardi, nello stesso anno, Allen Newell, JC Shaw e Herbert Simon creano Logic Theorist, il primo programma di intelligenza artificiale funzionante.

  • 1967: Frank Rosenblatt costruisce il Mark 1 Perceptron, il primo computer basato su una rete neurale che "impara" per tentativi ed errori.Appena un anno dopo, Marvin Minsky e Seymour Papert pubblicano un libro intitolato Perceptrons, che diventa sia l'opera fondamentale sulle reti neurali sia, almeno per un po', un argomento contro i futuri progetti di ricerca sulle reti neurali.

  • Anni '80: le reti neurali che utilizzano un algoritmo di backpropagation per addestrarsi diventano ampiamente utilizzate nelle applicazioni di intelligenza artificiale.

  • 1995: Stuart Russell e Peter Norvig pubblicano Artificial Intelligence: A Modern Approach (link esterno a ibm.com), che diventa uno dei principali manuali nello studio dell'AI. In esso si approfondiscono quattro potenziali obiettivi o definizioni di AI, che differenziano i sistemi informatici sulla base della razionalità e del pensiero rispetto all'azione:

  • 1997: IBM Deep Blue batte l'allora campione del mondo di scacchi Garry Kasparov, in una partita a scacchi (e rivincita).

  • 2004: John McCarthy scrive un articolo, What Is Artificial Intelligence? (link esterno a ibm.com) e propone una definizione di AI spesso citata.

  • 2011: IBM watson batte i campioni Ken Jennings e Brad Rutter a Jeopardy.


  • 2015: il supercomputer Minwa di Baidu utilizza un tipo speciale di rete neurale profonda, chiamata rete neurale convolutiva, per identificare e categorizzare le immagini con un tasso di accuratezza superiore alla media umana.


  • 2016: il programma AlphaGo di DeepMind, alimentato da una rete neurale profonda, batte Lee Sodol, il campione del mondo di Go, in un incontro di cinque partite.La vittoria è significativa se si considera l'enorme numero di mosse possibili nel corso del gioco (oltre 14,5 trilioni dopo solo quattro mosse!). Successivamente, Google ha acquistato DeepMind per una cifra stimata di 400 milioni di dollari.


  • 2023: l'aumento dei modelli di linguaggio di grandi dimensioni, o LLM, come ChatGPT, crea un enorme cambiamento nelle prestazioni dell’AI e nel suo potenziale di generare valore aziendale. Con queste nuove pratiche di AI generativa, è possibile pre-addestrare i modelli di apprendimento profondo su grandi quantità di dati non elaborati e non etichettati.