Una storia completa dell’intelligenza artificiale

La storia dell’intelligenza artificiale può sembrare un argomento denso e impenetrabile per le persone che non sono esperte di informatica e dei suoi sottoinsiemi.

Nonostante quanto mistificante e intoccabile possa sembrare l’intelligenza artificiale, quando viene scomposta, è molto più facile da capire di quanto si possa pensare.

In termini profani, l’IA è la comprensione che le macchine possono interpretare, estrarre e imparare dai dati esterni in un modo in cui tali macchine imitano funzionalmente le pratiche cognitive normalmente attribuite agli umani. L’intelligenza artificiale si basa sulla nozione che i processi di pensiero umano hanno la capacità di essere replicati e meccanizzati.

Salta a:

AI dal 380 a.C. al 1900
AI dal 1900 al 1950
AI negli anni ’50
AI negli anni ’60
AI negli anni ’70
AI negli anni ’80
AI negli anni ’90
AI dal 2000 al 2010
AI dal 2010 ai giorni nostri

La storia dell’intelligenza artificiale risale all’antichità, quando i filosofi riflettevano sull’idea che gli esseri artificiali, uomini meccanici e altri automi fossero esistiti o potessero esistere in qualche modo.

Grazie ai primi pensatori, l’intelligenza artificiale divenne sempre più tangibile nel corso del 1700 e oltre. I filosofi contemplarono come il pensiero umano potesse essere artificialmente meccanizzato e manipolato da macchine intelligenti non umane. I processi di pensiero che hanno alimentato l’interesse nell’IA hanno avuto origine quando i filosofi classici, i matematici e i logici hanno considerato la manipolazione dei simboli (meccanicamente), portando infine all’invenzione di un computer digitale programmabile, l’Atanasoff Berry Computer (ABC) negli anni ’40. Questa specifica invenzione ha ispirato gli scienziati ad andare avanti con l’idea di creare un “cervello elettronico”, o un essere artificialmente intelligente.

Passò quasi un decennio prima che le icone dell’IA aiutassero nella comprensione del campo che abbiamo oggi. Alan Turing, un matematico tra l’altro, propose un test che misurava la capacità di una macchina di replicare le azioni umane fino a un livello indistinguibile dal comportamento umano. Più tardi nello stesso decennio, il campo di ricerca dell’IA fu fondato durante una conferenza estiva al Dartmouth College a metà degli anni ’50, dove John McCarthy, scienziato informatico e cognitivo, coniò il termine “intelligenza artificiale”.

Dagli anni ’50 in poi, molti scienziati, programmatori, logici e teorici hanno contribuito a solidificare la moderna comprensione dell’intelligenza artificiale nel suo complesso. Con ogni nuovo decennio sono arrivate innovazioni e scoperte che hanno cambiato la conoscenza fondamentale delle persone del campo dell’intelligenza artificiale e come i progressi storici hanno catapultato l’IA dall’essere una fantasia irraggiungibile a una realtà tangibile per le generazioni attuali e future.

Continua a leggere per saperne di più su specifici progressi e momenti nel corso della storia dell’IA.

Eventi chiave nella storia dell’intelligenza artificiale

Non è sorprendente che l’intelligenza artificiale sia cresciuta rapidamente dopo il 1900, ma ciò che è sorprendente è come molte persone abbiano pensato all’IA centinaia di anni prima che ci fosse persino una parola per descrivere ciò a cui stavano pensando.

AI dal 380 a.C. al 1900

Tra il 380 a.C. e la fine del 1600: Vari matematici, teologi, filosofi, professori e autori riflettono su tecniche meccaniche, macchine da calcolo e sistemi numerici che alla fine portano al concetto di pensiero “umano” meccanizzato in esseri non umani.

All’inizio del 1700: Le rappresentazioni di macchine onniscienti simili ai computer erano più ampiamente discusse nella letteratura popolare. Il romanzo di Jonathan Swift “I viaggi di Gulliver” menziona un dispositivo chiamato motore, che è uno dei primi riferimenti alla tecnologia moderna, in particolare un computer. Lo scopo di questo dispositivo era quello di migliorare la conoscenza e le operazioni meccaniche fino al punto in cui anche la persona con meno talento sarebbe sembrata abile – tutto con l’assistenza e la conoscenza di una mente non umana (imitando l’intelligenza artificiale.)

1872: Il romanzo “Erewhon” dell’autore Samuel Butler giocava con l’idea che in un punto indeterminato del futuro le macchine avrebbero avuto il potenziale per possedere la coscienza.

AI dal 1900 al 1950

Una volta arrivati al 1900, il ritmo con cui l’innovazione nell’intelligenza artificiale crebbe fu significativo.

1921: Karel Čapek, un drammaturgo ceco, pubblica la sua opera di fantascienza “Rossum’s Universal Robots” (traduzione inglese). La sua opera esplorava il concetto di persone artificiali fatte in fabbrica che lui chiamava robot – il primo riferimento conosciuto alla parola. Da questo punto in poi, le persone presero l’idea del “robot” e la implementarono nella loro ricerca, arte e scoperte.

1927: Il film di fantascienza Metropolis, diretto da Fritz Lang, presentava una ragazza robotica che era fisicamente indistinguibile dalla controparte umana da cui prendeva le sembianze. La ragazza-robot artificialmente intelligente attacca poi la città, portando il caos in una Berlino futuristica. Questo film è importante perché è la prima rappresentazione sullo schermo di un robot e quindi ha dato ispirazione ad altri famosi personaggi non umani come C-P30 in Star Wars.

1929: Il biologo e professore giapponese Makoto Nishimura crea Gakutensoku, il primo robot costruito in Giappone. Gakutensoku si traduce in “imparare dalle leggi della natura”, implicando che la mente artificialmente intelligente del robot poteva derivare la conoscenza dalle persone e dalla natura. Alcune delle sue caratteristiche includevano il movimento della testa e delle mani e il cambiamento delle espressioni facciali.

1939: John Vincent Atanasoff (fisico e inventore), insieme al suo assistente studente laureato Clifford Berry, crea il computer Atanasoff-Berry (ABC) con una sovvenzione di 650 dollari alla Iowa State University. L’ABC pesava oltre 700 libbre e poteva risolvere fino a 29 equazioni lineari simultanee.

1949: Il libro dello scienziato informatico Edmund Berkeley “Giant Brains: Or Machines That Think” nota che le macchine sono state sempre più capaci di gestire grandi quantità di informazioni con velocità e abilità. Ha continuato a paragonare le macchine a un cervello umano se fosse fatto di “hardware e fili invece di carne e nervi”, descrivendo l’abilità delle macchine a quella della mente umana, affermando che “una macchina, quindi, può pensare.”

AI negli anni ’50

Gli anni ’50 si sono rivelati un periodo in cui molti progressi nel campo dell’intelligenza artificiale sono arrivati a compimento con una ripresa dei risultati basati sulla ricerca in AI da vari scienziati informatici tra gli altri.

1950: Claude Shannon, “il padre della teoria dell’informazione”, pubblica “Programming a Computer for Playing Chess”, che fu il primo articolo a discutere lo sviluppo di un programma per computer per giocare a scacchi.

1950: Alan Turing pubblica “Computing Machinery and Intelligence”, che propone l’idea di The Imitation Game – una domanda che considera se le macchine possono pensare. Questa proposta divenne in seguito Il test di Turing, che misurava l’intelligenza delle macchine (artificiali). Lo sviluppo di Turing ha testato la capacità di una macchina di pensare come farebbe un umano. Il test di Turing divenne una componente importante nella filosofia dell’intelligenza artificiale, che discute di intelligenza, coscienza e capacità nelle macchine.

1952: Arthur Samuel, uno scienziato informatico, sviluppa un programma per computer che gioca a dama – il primo che impara autonomamente a giocare un gioco.

1955: John McCarthy e un team di uomini crearono una proposta per un workshop sull'”intelligenza artificiale”. Nel 1956, quando il workshop ebbe luogo, la nascita ufficiale della parola fu attribuita a McCarthy.

1955: Allen Newell (ricercatore), Herbert Simon (economista) e Cliff Shaw (programmatore) sono co-autori di Logic Theorist, il primo programma per computer di intelligenza artificiale.

1958: McCarthy sviluppa il Lisp, il linguaggio di programmazione più popolare e ancora preferito per la ricerca sull’intelligenza artificiale.

1959: Samuel conia il termine “machine learning” parlando della programmazione di un computer per giocare una partita a scacchi meglio dell’umano che ha scritto il suo programma.

AI negli anni 60

L’innovazione nel campo dell’intelligenza artificiale crebbe rapidamente negli anni 60. La creazione di nuovi linguaggi di programmazione, robot e automi, studi di ricerca e film che rappresentavano esseri artificialmente intelligenti aumentarono in popolarità. Questo evidenziò pesantemente l’importanza dell’IA nella seconda metà del XX secolo.

1961: Unimate, un robot industriale inventato da George Devol negli anni ’50, divenne il primo a lavorare in una catena di montaggio della General Motors nel New Jersey. Le sue responsabilità includevano il trasporto delle fusioni dalla linea di assemblaggio e la saldatura delle parti sulle auto – un compito ritenuto pericoloso per gli umani.

1961: James Slagle, scienziato e professore di informatica, sviluppò SAINT (Symbolic Automatic INTegrator), un programma euristico per la risoluzione di problemi il cui obiettivo era l’integrazione simbolica nel calcolo del primo anno.

1964: Daniel Bobrow, scienziato informatico, crea STUDENT, un primo programma di IA scritto in Lisp che risolve problemi di algebra. STUDENT è citato come una delle prime pietre miliari dell’elaborazione del linguaggio naturale AI.

1965: Joseph Weizenbaum, scienziato informatico e professore, sviluppò ELIZA, un programma interattivo per computer che poteva conversare funzionalmente in inglese con una persona. L’obiettivo di Weizenbaum era quello di dimostrare come la comunicazione tra una mente artificialmente intelligente contro una mente umana fosse “superficiale”, ma scoprì che molte persone attribuivano caratteristiche antropomorfe a ELIZA.

1966: Shakey the Robot, sviluppato da Charles Rosen con l’aiuto di altre 11 persone, fu il primo robot mobile di uso generale, conosciuto anche come “la prima persona elettronica”

1968: Esce il film di fantascienza 2001: Odissea nello spazio, diretto da Stanley Kubrick. Presenta HAL (Heuristically programmed ALgorithmic computer), un computer senziente. HAL controlla i sistemi dell’astronave e interagisce con l’equipaggio della nave, conversando con loro come se HAL fosse umano, finché un malfunzionamento non cambia le interazioni di HAL in modo negativo.

1968: Terry Winograd, professore di informatica, crea SHRDLU, un primo programma informatico in linguaggio naturale.

AI negli anni ’70

Come gli anni ’60, gli anni ’70 hanno dato spazio a progressi accelerati, in particolare concentrandosi su robot e automi. Tuttavia, l’intelligenza artificiale negli anni ’70 ha affrontato delle sfide, come il ridotto sostegno del governo alla ricerca sull’IA.

1970: WABOT-1, il primo robot antropomorfo, fu costruito in Giappone alla Waseda University. Le sue caratteristiche includevano arti mobili, capacità di vedere e di conversare.

1973: James Lighthill, matematico applicato, riferì lo stato della ricerca sull’intelligenza artificiale al British Science Council, affermando: “in nessuna parte del campo le scoperte fatte finora hanno prodotto il grande impatto che è stato poi promesso”, il che ha portato a una significativa riduzione del sostegno alla ricerca sull’IA da parte del governo britannico.

1977: Esce il film Star Wars del regista George Lucas. Il film presenta C-3PO, un robot umanoide che è progettato come un droide di protocollo ed è “fluente in più di sette milioni di forme di comunicazione”. Come compagno di C-3PO, il film presenta anche R2-D2 – un piccolo droide astromeccanico incapace di parlare (l’inverso di C-3PO); invece, R2-D2 comunica con bip elettronici. Le sue funzioni includono piccole riparazioni e co-pilotaggio di caccia stellari.

1979: Lo Stanford Cart, un robot mobile telecomandato e dotato di TV, fu creato dall’allora studente di ingegneria meccanica James L. Adams nel 1961. Nel 1979, uno “slider”, o girello meccanico che muoveva la telecamera da un lato all’altro, fu aggiunto da Hans Moravec, allora studente di dottorato. Il carrello attraversò con successo una stanza piena di sedie senza interferenze umane in circa cinque ore, rendendolo uno dei primi esempi di veicolo autonomo.

AI negli anni ’80

La rapida crescita dell’intelligenza artificiale continuò negli anni ’80. Nonostante i progressi e l’eccitazione dietro l’IA, la cautela circondava un inevitabile “AI Winter”, un periodo di riduzione dei finanziamenti e dell’interesse per l’intelligenza artificiale.

1980: WABOT-2 fu costruito alla Waseda University. Questa versione del WABOT permetteva all’umanoide di comunicare con le persone, oltre a leggere spartiti musicali e suonare musica su un organo elettronico.

1981: Il Ministero giapponese del Commercio Internazionale e dell’Industria stanziò 850 milioni di dollari per il progetto Fifth Generation Computer, il cui obiettivo era quello di sviluppare computer che potessero conversare, tradurre lingue, interpretare immagini ed esprimere ragionamenti simili a quelli umani.
1984: Esce il film Electric Dreams, diretto da Steve Barron. La trama ruota attorno a un triangolo amoroso tra un uomo, una donna e un personal computer senziente chiamato “Edgar”.

1984: Alla Association for the Advancement of Artificial Intelligence (AAAI), Roger Schank (teorico dell’IA) e Marvin Minsky (scienziato cognitivo) avvertono dell’inverno dell’IA, il primo caso in cui l’interesse e i finanziamenti per la ricerca sull’intelligenza artificiale sarebbero diminuiti. Il loro avvertimento si avverò nel giro di tre anni.

1986: Mercedes-Benz costruisce e rilascia un furgone senza conducente dotato di telecamere e sensori sotto la direzione di Ernst Dickmanns. Era in grado di guidare fino a 55 mph su una strada senza altri ostacoli né conducenti umani.

1988: L’informatico e filosofo Judea Pearl ha pubblicato “Probabilistic Reasoning in Intelligent Systems”. A Pearl si attribuisce anche l’invenzione delle reti bayesiane, un “modello grafico probabilistico” che rappresenta insiemi di variabili e le loro dipendenze tramite un grafo aciclico diretto (DAG).

1988: Rollo Carpenter, programmatore e inventore di due chatbot, Jabberwacky e Cleverbot (rilasciato negli anni ’90), ha sviluppato Jabberwacky per “simulare la naturale chat umana in un modo interessante, divertente e umoristico”. Questo è un esempio di AI attraverso un chatbot che comunica con le persone.

AI negli anni ’90

La fine del millennio era all’orizzonte, ma questa anticipazione ha solo aiutato l’intelligenza artificiale nelle sue continue fasi di crescita.

1995: L’informatico Richard Wallace sviluppò il chatbot A.L.I.C.E (Artificial Linguistic Internet Computer Entity), ispirato da ELIZA di Weizenbaum. Ciò che differenziava A.L.I.C.E. da ELIZA era l’aggiunta della raccolta di dati campione in linguaggio naturale.

1997: Gli scienziati informatici Sepp Hochreiter e Jürgen Schmidhuber sviluppano la Long Short-Term Memory (LSTM), un tipo di architettura di rete neurale ricorrente (RNN) usata per il riconoscimento della scrittura e del parlato.
1997: Deep Blue, un computer che gioca a scacchi sviluppato da IBM è diventato il primo sistema a vincere una partita di scacchi contro un campione del mondo in carica.

1998: Dave Hampton e Caleb Chung inventano Furby, il primo robot giocattolo “da compagnia” per bambini.

1999: In linea con Furby, Sony introduce AIBO (Artificial Intelligence RoBOt), un cane robotico da 2.000 dollari creato per “imparare” interagendo con l’ambiente, i proprietari e altri AIBO. Le sue caratteristiche includevano la capacità di capire e rispondere a più di 100 comandi vocali e di comunicare con il suo proprietario umano.

AI dal 2000-2010

Il nuovo millennio era in corso – e dopo che le paure dell’anno 2000 si sono spente – l’AI ha continuato a crescere. Come previsto, sono stati creati più esseri artificialmente intelligenti, così come media creativi (film, in particolare) sul concetto di intelligenza artificiale e dove potrebbe essere diretto.

2000: Il problema Y2K, noto anche come il problema dell’anno 2000, era una classe di bug del computer relativi alla formattazione e alla memorizzazione dei dati del calendario elettronico a partire dal 01/01/2000. Dato che tutti i software e programmi internet erano stati creati nel 1900, alcuni sistemi avrebbero avuto problemi ad adattarsi al nuovo formato dell’anno 2000 (e oltre). In precedenza, questi sistemi automatizzati dovevano cambiare solo le ultime due cifre dell’anno; ora, tutte e quattro le cifre dovevano essere cambiate – una sfida per la tecnologia e per coloro che la usavano.

2000: La professoressa Cynthia Breazeal sviluppa Kismet, un robot in grado di riconoscere e simulare emozioni con il suo volto. Era strutturato come un volto umano con occhi, labbra, palpebre e sopracciglia.

2000: Honda rilascia ASIMO, un robot umanoide artificialmente intelligente.

2001: esce il film di fantascienza A.I. Artificial Intelligence, diretto da Steven Spielberg. Il film è ambientato in una società futuristica e distopica e segue David, un bambino umanoide avanzato che è programmato con sentimenti antropomorfi, inclusa la capacità di amare.

2002: i-Robot rilascia Roomba, un aspirapolvere robot autonomo che pulisce evitando gli ostacoli.

2004: I rover di esplorazione robotica Spirit e Opportunity della NASA navigano sulla superficie di Marte senza intervento umano.

2004: Esce il film di fantascienza I, Robot, diretto da Alex Proyas. Ambientato nell’anno 2035, i robot umanoidi servono il genere umano mentre un individuo è veementemente anti-robot, dato l’esito di una tragedia personale (determinata da un robot.)

2006: Oren Etzioni (professore di informatica), Michele Banko, e Michael Cafarella (informatici), coniano il termine “lettura automatica”, definendola come comprensione autonoma non supervisionata del testo.

2007: Il professore di informatica Fei Fei Li e i colleghi hanno assemblato ImageNet, un database di immagini annotate il cui scopo è quello di aiutare la ricerca di software di riconoscimento degli oggetti.
2009: Google sviluppa segretamente un’auto senza conducente. Nel 2014, ha superato il test di guida autonoma del Nevada.

AI dal 2010 ad oggi

Il decennio in corso è stato immensamente importante per l’innovazione AI. Dal 2010 in poi, l’intelligenza artificiale è diventata parte integrante della nostra esistenza quotidiana. Usiamo smartphone che hanno assistenti vocali e computer che hanno funzioni di “intelligenza” che la maggior parte di noi dà per scontato. L’IA non è più una chimera e non lo è più da tempo.

2010: ImageNet lancia l’ImageNet Large Scale Visual Recognition Challenge (ILSVRC), la loro competizione annuale di riconoscimento degli oggetti AI.

2010: Microsoft lancia Kinect per Xbox 360, il primo dispositivo di gioco che traccia il movimento del corpo umano utilizzando una telecamera 3D e il rilevamento a infrarossi.

2011: Watson, un computer che risponde a domande in linguaggio naturale creato da IBM, ha sconfitto due ex campioni di Jeopardy!, Ken Jennings e Brad Rutter, in una partita televisiva.

2011: Apple rilascia Siri, un assistente virtuale sui sistemi operativi Apple iOS. Siri utilizza un’interfaccia utente in linguaggio naturale per dedurre, osservare, rispondere e raccomandare cose al suo utente umano. Si adatta ai comandi vocali e proietta una “esperienza individualizzata” per utente.

2012: Jeff Dean e Andrew Ng (ricercatori di Google) hanno addestrato una grande rete neurale di 16.000 processori a riconoscere immagini di gatti (pur non dando alcuna informazione di base) mostrandole 10 milioni di immagini non etichettate dai video di YouTube.

2013: Un team di ricerca della Carnegie Mellon University ha rilasciato Never Ending Image Learner (NEIL), un sistema di apprendimento automatico semantico che potrebbe confrontare e analizzare le relazioni tra immagini.

2014: Microsoft ha rilasciato Cortana, la loro versione di un assistente virtuale simile a Siri su iOS.

2014: Amazon ha creato Amazon Alexa, un assistente domestico che si è sviluppato in altoparlanti intelligenti che funzionano come assistenti personali.

Related: Guarda le 43 imperdibili statistiche di ricerca vocale per vedere quanto sia davvero popolare questa tecnologia.

2015: Elon Musk, Stephen Hawking, e Steve Wozniak tra altri 3.000 hanno firmato una lettera aperta che vieta lo sviluppo e l’uso di armi autonome (per scopi di guerra.)

2015-2017: AlphaGo di Google DeepMind, un programma per computer che gioca al gioco da tavolo Go, ha sconfitto vari campioni (umani).

2016: Un robot umanoide di nome Sophia viene creato da Hanson Robotics. È conosciuta come il primo “cittadino robot”. Ciò che distingue Sophia dai precedenti umanoidi è la sua somiglianza con un vero essere umano, con la sua capacità di vedere (riconoscimento delle immagini), fare espressioni facciali e comunicare attraverso l’AI.

2016: Google ha rilasciato Google Home, un altoparlante intelligente che utilizza l’AI per agire come un “assistente personale” per aiutare gli utenti a ricordare i compiti, creare appuntamenti e cercare informazioni con la voce.

2017: Il laboratorio di ricerca sull’intelligenza artificiale di Facebook ha addestrato due “agenti di dialogo” (chatbot) a comunicare tra loro per imparare a negoziare. Tuttavia, mentre i chatbot conversavano, si sono discostati dal linguaggio umano (programmato in inglese) e hanno inventato un proprio linguaggio per comunicare tra loro – esibendo l’intelligenza artificiale in grande misura.

2018: Alibaba (gruppo tecnologico cinese) elaborazione del linguaggio AI ha superato l’intelletto umano in un test di lettura e comprensione di Stanford. L’elaborazione del linguaggio di Alibaba ha segnato “82,44 contro 82,30 su un set di 100.000 domande” – una sconfitta di stretta misura, ma comunque una sconfitta.

2018: Google ha sviluppato BERT, la prima “rappresentazione linguistica bidirezionale e non supervisionata che può essere utilizzata su una varietà di compiti di linguaggio naturale utilizzando l’apprendimento di trasferimento.”

2018: Samsung ha introdotto Bixby, un assistente virtuale. Le funzioni di Bixby includono Voice, dove l’utente può parlare e porre domande, raccomandazioni e suggerimenti; Vision, dove la capacità di “vedere” di Bixby è integrata nell’app della fotocamera e può vedere ciò che l’utente vede (es. identificazione di oggetti, ricerca, acquisto, traduzione, riconoscimento di punti di riferimento); e Home, dove Bixby utilizza informazioni basate su app per aiutare a utilizzare e interagire con l’utente (ad esempio applicazioni meteo e fitness.)

Cosa aspettarsi per l’IA nel 2019 e oltre?

I progressi dell’intelligenza artificiale stanno avvenendo a un ritmo senza precedenti. Detto questo, possiamo aspettarci che le tendenze dell’ultimo decennio continuino ad oscillare verso l’alto nel prossimo anno. Alcune cose da tenere d’occhio nel 2019 includono:

  • Chatbot + assistenti virtuali: Rafforzamento dell’automazione dei chatbot e degli assistenti virtuali per una maggiore esperienza utente
  • Elaborazione del linguaggio naturale (NLP): Aumento delle capacità NLP per le app artificialmente intelligenti, compresi (e specialmente per) chatbot e assistenti virtuali
  • Machine Learning e Machine Learning automatizzato: ML si sposterà verso algoritmi AutoML per permettere a sviluppatori e programmatori di risolvere problemi senza creare modelli specifici
  • Veicoli autonomi: Nonostante la cattiva stampa che circonda vari veicoli a guida autonoma difettosi, è sicuro assumere che ci sarà una spinta più forte per automatizzare il processo di guida del prodotto dal punto A al punto B per 1. Risparmiare sul costo del lavoro umano, 2. Ottimizzare il processo di acquisto-spedizione-arrivo al consumatore tramite veicoli a guida autonoma che – in sostanza – non si stancheranno al volante

Related: Dai un’occhiata alle ultime statistiche sull’intelligenza artificiale per il 2019 per rimanere aggiornati sulle ultime informazioni sulla tecnologia AI.

Il nostro obiettivo? Stare al passo con i progressi dell’AI

Per stare al passo con il mondo della tecnologia, dobbiamo stare al passo con le innovazioni dell’intelligenza artificiale. Dai robot umanoidi come Sophia agli assistenti per la casa come Alexa, l’IA sta avanzando ad un ritmo accelerato. Un giorno, gli esseri umani avranno compagni artificialmente intelligenti al di là di giocattoli come AIBO o Furby; un giorno, l’IA e il genere umano potrebbero coesistere in un modo in cui gli esseri umani e gli umanoidi sono indistinguibili l’uno dall’altro.

E un giorno?

Il giorno potrebbe essere prima di quanto pensiamo.

Ancora curioso di tutte le cose AI? Leggi le tendenze del 2019 nell’intelligenza artificiale o impara di più sui diversi tipi di IA per acquisire maggiori conoscenze nel 2019 e oltre!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.