Une histoire complète de l’intelligence artificielle

L’histoire de l’intelligence artificielle peut sembler un sujet dense et impénétrable pour les personnes qui ne sont pas bien rodées à l’informatique et à ses sous-ensembles.

Malgré la façon dont l’intelligence artificielle peut sembler mystifiante et intouchable, lorsqu’elle est décomposée, elle est beaucoup plus facile à comprendre que vous ne le pensez.

En termes simples, l’IA est la compréhension que les machines peuvent interpréter, exploiter et apprendre des données externes d’une manière où lesdites machines imitent fonctionnellement les pratiques cognitives normalement attribuées aux humains. L’intelligence artificielle repose sur la notion que les processus de pensée humains ont la capacité d’être à la fois reproduits et mécanisés.

Sauter à :

IA de 380 av. J.-C. à 1900
AI de 1900 à 1950
AI dans les années 1950
AI dans les années 1960
AI dans les années 1970
AI dans les années 1980
AI dans les années 1990
AI de 2000 à 2010
AI de 2010 à nos jours

L’histoire de l’intelligence artificielle remonte à l’antiquité avec des philosophes qui ruminent l’idée que des êtres artificiels, des hommes mécaniques, et autres automates avaient existé ou pouvaient exister d’une certaine manière.

Grâce aux premiers penseurs, l’intelligence artificielle est devenue de plus en plus tangible tout au long des années 1700 et au-delà. Les philosophes ont envisagé comment la pensée humaine pourrait être artificiellement mécanisée et manipulée par des machines intelligentes non humaines. Les processus de pensée qui ont alimenté l’intérêt pour l’IA sont nés lorsque les philosophes classiques, les mathématiciens et les logiciens ont envisagé la manipulation de symboles (mécaniquement), ce qui a finalement conduit à l’invention d’un ordinateur numérique programmable, l’ordinateur Atanasoff Berry (ABC), dans les années 1940. Cette invention spécifique a inspiré les scientifiques à aller de l’avant avec l’idée de créer un « cerveau électronique », ou un être artificiellement intelligent.

Presque une décennie s’est écoulée avant que les icônes de l’IA n’aident à la compréhension du domaine que nous avons aujourd’hui. Alan Turing, un mathématicien entre autres, a proposé un test qui mesurait la capacité d’une machine à reproduire des actions humaines à un degré indiscernable du comportement humain. Plus tard dans la même décennie, le domaine de la recherche sur l’IA a été fondé lors d’une conférence d’été au Dartmouth College au milieu des années 1950, où John McCarthy, informaticien et spécialiste des sciences cognitives, a inventé le terme « intelligence artificielle ».

À partir des années 1950, de nombreux scientifiques, programmeurs, logiciens et théoriciens ont contribué à solidifier la compréhension moderne de l’intelligence artificielle dans son ensemble. Avec chaque nouvelle décennie sont apparues des innovations et des découvertes qui ont changé les connaissances fondamentales des gens sur le domaine de l’intelligence artificielle et la façon dont les progrès historiques ont catapulté l’IA d’un fantasme irréalisable à une réalité tangible pour les générations actuelles et futures.

Continuez à lire pour en savoir plus sur les progrès et les moments spécifiques tout au long de l’histoire de l’IA.

Événements clés de l’histoire de l’intelligence artificielle

Il n’est pas surprenant que l’intelligence artificielle se soit développée rapidement après 1900, mais ce qui est surprenant, c’est le nombre de personnes qui ont pensé à l’IA des centaines d’années avant qu’il y ait même un mot pour décrire ce à quoi elles pensaient.

AI de 380 avant JC à 1900

Entre 380 avant JC et la fin des années 1600 : Divers mathématiciens, théologiens, philosophes, professeurs et auteurs ont réfléchi à des techniques mécaniques, à des machines à calculer et à des systèmes numériques qui ont tous fini par aboutir au concept de pensée « humaine » mécanisée chez des êtres non humains.

Début des années 1700 : Les représentations de machines omniscientes apparentées aux ordinateurs étaient plus largement abordées dans la littérature populaire. Le roman « Les voyages de Gulliver » de Jonathan Swift mentionne un appareil appelé le moteur, qui est l’une des premières références à la technologie moderne, plus précisément à un ordinateur. L’objectif de ce dispositif était d’améliorer les connaissances et les opérations mécaniques à un point tel que même la personne la moins douée semblerait être habile – le tout avec l’aide et les connaissances d’un esprit non humain (imitant l’intelligence artificielle.)

1872 : Le roman « Erewhon » de l’auteur Samuel Butler jouait avec l’idée qu’à un moment indéterminé dans le futur, les machines auraient le potentiel de posséder une conscience.

AI de 1900-1950

Une fois que les années 1900 ont frappé, le rythme avec lequel l’innovation dans l’intelligence artificielle a augmenté était significatif.

1921 : Karel Čapek, un dramaturge tchèque, a publié sa pièce de science-fiction « Rossum’s Universal Robots » (traduction anglaise). Sa pièce explore le concept de personnes artificielles fabriquées en usine qu’il appelle des robots – la première référence connue à ce mot. À partir de ce moment, les gens ont repris l’idée de « robot » et l’ont mise en œuvre dans leurs recherches, leur art et leurs découvertes.

1927 : Le film de science-fiction Metropolis, réalisé par Fritz Lang, met en scène une jeune fille robotique qui ne se distingue physiquement pas de son homologue humain dont elle prend la ressemblance. La jeune fille-robot, dotée d’une intelligence artificielle, attaque la ville, semant le chaos dans un Berlin futuriste. Ce film revêt une grande importance car il s’agit de la première représentation à l’écran d’un robot et a ainsi inspiré d’autres personnages non humains célèbres comme C-P30 dans Star Wars.

1929 : Le biologiste et professeur japonais Makoto Nishimura crée Gakutensoku, le premier robot à être construit au Japon. Gakutensoku se traduit par « apprentissage à partir des lois de la nature », ce qui implique que l’esprit artificiellement intelligent du robot pouvait tirer des connaissances des gens et de la nature. Certaines de ses caractéristiques comprenaient le déplacement de sa tête et de ses mains ainsi que le changement de ses expressions faciales.

1939 : John Vincent Atanasoff (physicien et inventeur), aux côtés de son assistant étudiant diplômé Clifford Berry, crée l’ordinateur Atanasoff-Berry (ABC) avec une subvention de 650 dollars à l’université d’État de l’Iowa. L’ABC pesait plus de 700 livres et pouvait résoudre jusqu’à 29 équations linéaires simultanées.

1949 : Le livre de l’informaticien Edmund Berkeley « Giant Brains : Or Machines That Think » note que les machines ont été de plus en plus capables de traiter de grandes quantités d’informations avec rapidité et habileté. Il poursuit en comparant les machines à un cerveau humain s’il était fait de « matériel et de fil au lieu de chair et de nerfs », décrivant la capacité des machines à celle de l’esprit humain, affirmant qu' »une machine, par conséquent, peut penser. »

L’IA dans les années 1950

Les années 1950 se sont avérées être une période où de nombreuses avancées dans le domaine de l’intelligence artificielle se sont concrétisées avec une montée en puissance des résultats basés sur la recherche en IA par divers informaticiens entre autres.

1950 : Claude Shannon, « le père de la théorie de l’information », publie « Programmer un ordinateur pour jouer aux échecs », qui est le premier article à discuter du développement d’un programme informatique pour jouer aux échecs.

1950 : Alan Turing publie « Computing Machinery and Intelligence », qui propose l’idée de The Imitation Game – une question qui considérait si les machines peuvent penser. Cette proposition est ensuite devenue le test de Turing, qui mesure l’intelligence des machines (artificielles). Le développement de Turing a permis de tester la capacité d’une machine à penser comme le ferait un humain. Le test de Turing est devenu un élément important de la philosophie de l’intelligence artificielle, qui discute de l’intelligence, de la conscience et de la capacité des machines.

1952 : Arthur Samuel, un informaticien, met au point un programme informatique de jeu de dames – le premier à apprendre de façon autonome comment jouer à un jeu.

1955 : John McCarthy et une équipe d’hommes ont créé une proposition pour un atelier sur « l’intelligence artificielle ». En 1956, lorsque l’atelier a eu lieu, la naissance officielle du mot a été attribuée à McCarthy.

1955 : Allen Newell (chercheur), Herbert Simon (économiste) et Cliff Shaw (programmeur) cosignent Logic Theorist, le premier programme informatique d’intelligence artificielle.

1958 : McCarthy a développé Lisp, le langage de programmation le plus populaire et toujours privilégié pour la recherche en intelligence artificielle.

1959 : Samuel invente le terme « apprentissage automatique » en parlant de la programmation d’un ordinateur pour jouer une partie d’échecs mieux que l’humain qui a écrit son programme.

L’IA dans les années 1960

L’innovation dans le domaine de l’intelligence artificielle a connu une croissance rapide tout au long des années 1960. La création de nouveaux langages de programmation, de robots et d’automates, d’études de recherche et de films mettant en scène des êtres artificiellement intelligents a augmenté en popularité. Cela a fortement souligné l’importance de l’IA dans la seconde moitié du 20e siècle.

1961 : Unimate, un robot industriel inventé par George Devol dans les années 1950, est devenu le premier à travailler sur une chaîne de montage de General Motors dans le New Jersey. Ses responsabilités comprenaient le transport des pièces moulées sous pression de la chaîne de montage et le soudage des pièces sur les voitures – une tâche jugée dangereuse pour les humains.

1961 : James Slagle, informaticien et professeur, développe SAINT (Symbolic Automatic INTegrator), un programme heuristique de résolution de problèmes dont l’objet était l’intégration symbolique en calcul de première année.

1964 : Daniel Bobrow, informaticien, a créé STUDENT, un premier programme d’IA écrit en Lisp qui résolvait des problèmes de mots d’algèbre. STUDENT est cité comme un des premiers jalons du traitement du langage naturel en IA.

1965 : Joseph Weizenbaum, informaticien et professeur, a développé ELIZA, un programme informatique interactif qui pouvait fonctionnellement converser en anglais avec une personne. L’objectif de Weizenbaum était de démontrer comment la communication entre un esprit artificiellement intelligent par rapport à un esprit humain était « superficielle », mais il a découvert que de nombreuses personnes attribuaient des caractéristiques anthropomorphiques à ELIZA.

1966 : Shakey le Robot, développé par Charles Rosen avec l’aide de 11 autres personnes, était le premier robot mobile à usage général, également connu sous le nom de « première personne électronique ».

1968 : Le film de science-fiction 2001 : l’Odyssée de l’espace, réalisé par Stanley Kubrick, sort sur les écrans. Il met en scène HAL (Heuristically programmed ALgorithmic computer), un ordinateur doué de sensibilité. HAL contrôle les systèmes du vaisseau spatial et interagit avec l’équipage du vaisseau, conversant avec eux comme si HAL était humain jusqu’à ce qu’un dysfonctionnement modifie les interactions de HAL de manière négative.

1968 : Terry Winograd, professeur d’informatique, crée SHRDLU, un des premiers programmes informatiques en langage naturel.

L’IA dans les années 1970

Comme les années 1960, les années 1970 ont laissé place à des avancées accélérées, notamment axées sur les robots et les automates. Cependant, l’intelligence artificielle dans les années 1970 a été confrontée à des défis, tels que la réduction du soutien gouvernemental à la recherche sur l’IA.

1970 : WABOT-1, le premier robot anthropomorphe, a été construit au Japon à l’université de Waseda. Ses caractéristiques comprenaient des membres mobiles, la capacité de voir et la capacité de converser.

1973 : James Lighthill, mathématicien appliqué, fait état de l’état de la recherche en intelligence artificielle au Conseil scientifique britannique, en déclarant : « dans aucune partie du domaine, les découvertes faites jusqu’à présent n’ont produit l’impact majeur qui était alors promis », ce qui a conduit à une réduction significative du soutien à la recherche en IA via le gouvernement britannique.

1977 : Le film Star Wars du réalisateur George Lucas sort sur les écrans. Le film met en scène C-3PO, un robot humanoïde conçu comme un droïde de protocole et qui « maîtrise plus de sept millions de formes de communication. » En tant que compagnon de C-3PO, le film présente également R2-D2, un petit droïde astromécano incapable de parler (l’inverse de C-3PO) ; R2-D2 communique avec des bips électroniques. Ses fonctions incluent les petites réparations et le copilotage de chasseurs stellaires.

1979 : Le Stanford Cart, un robot mobile télécommandé et équipé d’une télévision a été créé par James L. Adams, alors étudiant diplômé en génie mécanique, en 1961. En 1979, Hans Moravec, alors étudiant en doctorat, ajoute un « slider », ou pivot mécanique permettant de déplacer la caméra de télévision d’un côté à l’autre. Le chariot a traversé avec succès une pièce remplie de chaises sans intervention humaine en environ cinq heures, ce qui en fait l’un des premiers exemples de véhicule autonome.

AI dans les années 1980

La croissance rapide de l’intelligence artificielle s’est poursuivie tout au long des années 1980. Malgré les progrès et l’excitation derrière l’IA, la prudence a entouré un inévitable « hiver de l’IA », une période de réduction du financement et de l’intérêt pour l’intelligence artificielle.

1980 : Le WABOT-2 a été construit à l’université de Waseda. Ce début de WABOT a permis à l’humanoïde de communiquer avec les gens ainsi que de lire des partitions musicales et de jouer de la musique sur un orgue électronique.

1981 : Le ministère japonais du Commerce international et de l’Industrie alloue 850 millions de dollars au projet d’ordinateur de cinquième génération, dont l’objectif est de développer des ordinateurs capables de converser, de traduire des langues, d’interpréter des images et d’exprimer un raisonnement de type humain.
1984 : Le film Electric Dreams, réalisé par Steve Barron, sort sur les écrans. L’intrigue tourne autour d’un triangle amoureux entre un homme, une femme et un ordinateur personnel sensible appelé « Edgar ».

1984 : Lors de l’Association pour l’avancement de l’intelligence artificielle (AAAI), Roger Schank (théoricien de l’IA) et Marvin Minsky (scientifique cognitif) mettent en garde contre l’hiver de l’IA, la première instance où l’intérêt et le financement de la recherche en intelligence artificielle diminueraient. Leur avertissement s’est réalisé dans un délai de trois ans.

1986 : Mercedes-Benz a construit et mis en circulation une camionnette sans conducteur équipée de caméras et de capteurs sous la direction d’Ernst Dickmanns. Elle était capable de rouler jusqu’à 55 mph sur une route sans autre obstacle ni conducteur humain.

1988 : L’informaticien et philosophe Judea Pearl publie « Probabilistic Reasoning in Intelligent Systems ». Pearl est également crédité de l’invention des réseaux bayésiens, un « modèle graphique probabiliste » qui représente des ensembles de variables et leurs dépendances via un graphe acyclique dirigé (DAG).

1988 : Rollo Carpenter, programmeur et inventeur de deux chatbots, Jabberwacky et Cleverbot (sortis dans les années 1990), a développé Jabberwacky pour « simuler le chat humain naturel d’une manière intéressante, divertissante et humoristique. » C’est un exemple d’IA via un chatbot communiquant avec les gens.

L’IA dans les années 1990

La fin du millénaire se profilait à l’horizon, mais cette anticipation n’a fait qu’aider l’intelligence artificielle dans ses étapes continues de croissance.

1995 : L’informaticien Richard Wallace a développé le chatbot A.L.I.C.E (Artificial Linguistic Internet Computer Entity), inspiré de l’ELIZA de Weizenbaum. Ce qui différenciait A.L.I.C.E. d’ELIZA était l’ajout de la collecte de données d’échantillons de langage naturel.

1997 : Les informaticiens Sepp Hochreiter et Jürgen Schmidhuber ont développé la mémoire à long terme (LSTM), un type d’architecture de réseau neuronal récurrent (RNN) utilisé pour la reconnaissance de l’écriture manuscrite et de la parole.
1997 : Deep Blue, un ordinateur joueur d’échecs développé par IBM est devenu le premier système à gagner une partie d’échecs et un match contre un champion du monde en titre.

1998 : Dave Hampton et Caleb Chung inventent Furby, le premier robot-jouet « animal de compagnie » pour les enfants.

1999 : Dans la lignée de Furby, Sony présente AIBO (Artificial Intelligence RoBOt), un chien de compagnie robotisé de 2 000 $ conçu pour « apprendre » en interagissant avec son environnement, ses propriétaires et les autres AIBO. Ses caractéristiques comprenaient la capacité de comprendre et de répondre à plus de 100 commandes vocales et de communiquer avec son propriétaire humain.

AI de 2000-2010

Le nouveau millénaire était en cours – et après que les craintes de l’an 2000 se soient apaisées – l’IA a continué à suivre une tendance à la hausse. Comme prévu, plus d’êtres artificiellement intelligents ont été créés ainsi que des médias créatifs (film, spécifiquement) sur le concept d’intelligence artificielle et où il pourrait se diriger.

2000 : Le problème de l’an 2000, également connu sous le nom de problème de l’an 2000, était une classe de bugs informatiques liés au formatage et au stockage des données du calendrier électronique à partir du 01/01/2000. Étant donné que tous les logiciels et programmes Internet avaient été créés dans les années 1900, certains systèmes avaient du mal à s’adapter au nouveau format d’année de l’an 2000 (et au-delà). Auparavant, ces systèmes automatisés n’avaient qu’à changer les deux derniers chiffres de l’année ; désormais, les quatre chiffres doivent être basculés – un défi pour la technologie et ceux qui l’utilisent.

2000 : Le professeur Cynthia Breazeal a développé Kismet, un robot qui pouvait reconnaître et simuler des émotions avec son visage. Il était structuré comme un visage humain avec des yeux, des lèvres, des paupières et des sourcils.

2000 : Honda sort ASIMO, un robot humanoïde artificiellement intelligent.

2001 : Sortie du film de science-fiction A.I. Artificial Intelligence, réalisé par Steven Spielberg. Le film se déroule dans une société futuriste et dystopique et suit David, un enfant humanoïde avancé qui est programmé avec des sentiments anthropomorphes, y compris la capacité d’aimer.

2002 : i-Robot sort Roomba, un aspirateur robot autonome qui nettoie en évitant les obstacles.

2004 : Les rovers d’exploration robotisés Spirit et Opportunity de la NASA naviguent à la surface de Mars sans intervention humaine.

2004 : Sortie du film de science-fiction I, Robot, réalisé par Alex Proyas. Situé en 2035, des robots humanoïdes servent l’humanité tandis qu’un individu est farouchement anti-robot, étant donné l’issue d’une tragédie personnelle (déterminée par un robot.)

2006 : Oren Etzioni (professeur d’informatique), Michele Banko et Michael Cafarella (informaticiens), inventent le terme « lecture automatique », le définissant comme une compréhension autonome non supervisée d’un texte.

2007 : Le professeur d’informatique Fei Fei Li et ses collègues ont assemblé ImageNet, une base de données d’images annotées dont le but est d’aider à la recherche de logiciels de reconnaissance d’objets.
2009 : Google a secrètement développé une voiture sans conducteur. En 2014, elle a passé le test de conduite autonome du Nevada.

AI 2010 à aujourd’hui

La décennie actuelle a été immensément importante pour l’innovation en matière d’IA. À partir de 2010, l’intelligence artificielle s’est intégrée dans notre existence quotidienne. Nous utilisons des smartphones dotés d’assistants vocaux et des ordinateurs dotés de fonctions d' »intelligence » que la plupart d’entre nous considèrent comme acquises. L’IA n’est plus une chimère et ne l’a pas été depuis un certain temps.

2010 : ImageNet a lancé l’ImageNet Large Scale Visual Recognition Challenge (ILSVRC), leur concours annuel de reconnaissance d’objets par l’IA.

2010 : Microsoft a lancé Kinect pour Xbox 360, le premier appareil de jeu qui suivait les mouvements du corps humain à l’aide d’une caméra 3D et d’une détection infrarouge.

2011 : Watson, un ordinateur de réponse aux questions en langage naturel créé par IBM, a battu deux anciens champions de Jeopardy !, Ken Jennings et Brad Rutter, dans un jeu télévisé.

2011 : Apple a lancé Siri, un assistant virtuel sur les systèmes d’exploitation iOS d’Apple. Siri utilise une interface utilisateur en langage naturel pour déduire, observer, répondre et recommander des choses à son utilisateur humain. Il s’adapte aux commandes vocales et projette une « expérience individualisée » par utilisateur.

2012 : Jeff Dean et Andrew Ng (chercheurs de Google) ont entraîné un grand réseau neuronal de 16 000 processeurs à reconnaître des images de chats (bien qu’il ne donne aucune information de fond) en lui montrant 10 millions d’images non étiquetées provenant de vidéos YouTube.

2013 : Une équipe de recherche de l’Université Carnegie Mellon a publié Never Ending Image Learner (NEIL), un système d’apprentissage automatique sémantique qui pourrait comparer et analyser les relations entre les images.

2014 : Microsoft a publié Cortana, sa version d’un assistant virtuel similaire à Siri sur iOS.

2014 : Amazon a créé Amazon Alexa, un assistant domestique qui s’est développé en haut-parleurs intelligents qui fonctionnent comme des assistants personnels.

Relié : Consultez les 43 statistiques incontournables sur la recherche vocale pour voir à quel point cette technologie est vraiment populaire.

2015 : Elon Musk, Stephen Hawking et Steve Wozniak parmi 3 000 autres personnes ont signé une lettre ouverte interdisant le développement et l’utilisation d’armes autonomes (à des fins de guerre.)

2015-2017 : AlphaGo de Google DeepMind, un programme informatique qui joue au jeu de société Go, a battu divers champions (humains).

2016 : Un robot humanoïde nommé Sophia est créé par Hanson Robotics. Elle est connue comme le premier « robot citoyen ». Ce qui distingue Sophia des humanoïdes précédents, c’est sa ressemblance avec un être humain réel, avec sa capacité à voir (reconnaissance d’image), à faire des expressions faciales et à communiquer grâce à l’IA.

2016 : Google a lancé Google Home, un haut-parleur intelligent qui utilise l’IA pour agir comme un « assistant personnel » afin d’aider les utilisateurs à se rappeler des tâches, à créer des rendez-vous et à rechercher des informations par la voix.

2017 : Le laboratoire de recherche en intelligence artificielle de Facebook a entraîné deux « agents de dialogue » (chatbots) à communiquer entre eux afin d’apprendre à négocier. Cependant, au fur et à mesure que les chatbots conversaient, ils se sont écartés du langage humain (programmé en anglais) et ont inventé leur propre langage pour communiquer entre eux – faisant preuve d’intelligence artificielle à un grand degré.

2018 : L’IA de traitement du langage d’Alibaba (groupe technologique chinois) a surpassé l’intelligence humaine lors d’un test de lecture et de compréhension à Stanford. Le traitement du langage d’Alibaba a obtenu un score de « 82,44 contre 82,30 sur un ensemble de 100 000 questions » – une défaite étroite, mais une défaite tout de même.

2018 : Google a développé BERT, la première « représentation bidirectionnelle et non supervisée du langage qui peut être utilisée sur une variété de tâches de langage naturel en utilisant l’apprentissage par transfert. »

2018 : Samsung a présenté Bixby, un assistant virtuel. Les fonctions de Bixby comprennent la voix, où l’utilisateur peut parler et poser des questions, des recommandations et des suggestions ; la vision, où la capacité de  » voir  » de Bixby est intégrée à l’application de la caméra et peut voir ce que l’utilisateur voit (ex. l’identification d’objets, la recherche, l’achat, la traduction, la reconnaissance de points de repère) ; et Home, où Bixby utilise des informations basées sur l’app pour aider à utiliser et à interagir avec l’utilisateur (par exemple, les applications de météo et de fitness.)

Que prévoir pour l’IA en 2019 et au-delà?

Les progrès de l’intelligence artificielle se produisent à un rythme sans précédent. Cela étant dit, nous pouvons nous attendre à ce que les tendances de la dernière décennie continuent à osciller vers le haut dans l’année à venir. Voici quelques éléments à surveiller en 2019 :

  • Chatbots + assistants virtuels : Renforcement de l’automatisation des chatbots et des assistants virtuels pour une expérience utilisateur accrue
  • Traitement du langage naturel (NLP) : Augmentation des capacités NLP pour les apps artificiellement intelligentes, y compris (et surtout pour) les chatbots et les assistants virtuels
  • Apprentissage automatique et apprentissage automatique : Le ML évoluera vers des algorithmes AutoML pour permettre aux développeurs et aux programmeurs de résoudre des problèmes sans créer de modèles spécifiques
  • Véhicules autonomes : Malgré une mauvaise presse entourant divers véhicules autonomes défectueux, on peut supposer qu’il y aura une poussée plus forte pour automatiser le processus de conduite de produits d’un point A à un point B pour 1. économiser sur le coût de la main-d’œuvre humaine, 2. optimiser le processus d’achat-expédition-arrivée au consommateur via des véhicules autonomes qui – en substance – ne se fatigueront pas au volant

Relié : Consultez les dernières statistiques sur l’intelligence artificielle pour 2019 afin de vous tenir au courant des dernières infos sur les technologies de l’IA.

Notre objectif ? Suivre le rythme des avancées de l’IA

Pour suivre le monde de la tech, nous devons suivre le rythme des innovations en matière d’intelligence artificielle. Des robots humanoïdes comme Sophia aux assistants de haut-parleurs domestiques comme Alexa, l’IA progresse à un rythme accéléré. Un jour, les humains auront des compagnons artificiellement intelligents au-delà des jouets comme AIBO ou Furby ; un jour, l’IA et l’humanité pourraient coexister d’une manière où les humains et les humanoïdes sont indiscernables les uns des autres.

Et un jour ?

Un jour pourrait être plus tôt que nous le pensons.

Toujours curieux de tout ce qui concerne l’IA ? Lisez les tendances de 2019 en matière d’intelligence artificielle ou apprenez-en davantage sur les différents types d’IA pour acquérir plus de connaissances en 2019 et au-delà !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.