La historia de la inteligencia artificial puede parecer un tema denso e impenetrable para las personas que no están bien versadas en la informática y sus subconjuntos.
A pesar de lo desconcertante e intocable que pueda parecer la inteligencia artificial, cuando se desglosa, es mucho más fácil de entender de lo que se piensa.
¿Qué es la inteligencia artificial?
La inteligencia artificial es un subconjunto de las ciencias de la computación que se centra en la inteligencia impulsada por las máquinas (es decir, la inteligencia no humana).
En términos sencillos, la IA es la comprensión de que las máquinas pueden interpretar, minar y aprender de los datos externos de una manera en la que dichas máquinas imitan funcionalmente las prácticas cognitivas normalmente atribuidas a los seres humanos. La inteligencia artificial se basa en la noción de que los procesos de pensamiento humano tienen la capacidad de ser replicados y mecanizados.
Salto a:
La IA del 380 a.C. a 1900
La IA de 1900-1950
La IA en los años 50
La IA en los años 60
La IA en los años 70
La IA en los años 80
La IA en los años 90
La IA de 2000-2010
La IA de 2010 a la actualidad
La historia de la inteligencia artificial se remonta a la antigüedad con los filósofos meditando la idea de que los seres artificiales, hombres mecánicos y otros autómatas habían existido o podían existir de alguna manera.
Gracias a los primeros pensadores, la inteligencia artificial se hizo cada vez más tangible a lo largo de los años 1700 y posteriores. Los filósofos contemplaron cómo el pensamiento humano podría ser mecanizado y manipulado artificialmente por máquinas inteligentes no humanas. Los procesos de pensamiento que alimentaron el interés por la IA se originaron cuando los filósofos, matemáticos y lógicos clásicos consideraron la manipulación de símbolos (mecánicamente), lo que finalmente condujo a la invención de un ordenador digital programable, el Atanasoff Berry Computer (ABC) en la década de 1940. Este invento concreto inspiró a los científicos a avanzar en la idea de crear un «cerebro electrónico», o un ser artificialmente inteligente.
Pasó casi una década antes de que los iconos de la IA ayudaran a comprender el campo que tenemos hoy. Alan Turing, matemático entre otras cosas, propuso una prueba que medía la capacidad de una máquina para replicar las acciones humanas hasta un grado indistinguible del comportamiento humano. Más tarde, en esa misma década, se fundó el campo de investigación de la IA durante una conferencia de verano en el Dartmouth College a mediados de los años 50, donde John McCarthy, científico informático y cognitivo, acuñó el término «inteligencia artificial».
Desde los años 50 en adelante, muchos científicos, programadores, lógicos y teóricos ayudaron a solidificar la comprensión moderna de la inteligencia artificial en su conjunto. Con cada nueva década llegaron innovaciones y descubrimientos que cambiaron el conocimiento fundamental de la gente sobre el campo de la inteligencia artificial y cómo los avances históricos han catapultado a la IA de ser una fantasía inalcanzable a una realidad tangible para las generaciones actuales y futuras.
Continúe leyendo para aprender más sobre avances y momentos específicos a lo largo de la historia de la IA.
Eventos clave en la historia de la inteligencia artificial
No es sorprendente que la inteligencia artificial haya crecido rápidamente después de 1900, pero lo que sí es sorprendente es la cantidad de gente que pensó en la IA cientos de años antes de que existiera siquiera una palabra para describir lo que estaban pensando.
La IA desde el 380 a.C. hasta 1900
Entre el 380 a.C. y finales del 1600: Diversos matemáticos, teólogos, filósofos, profesores y autores reflexionaron sobre las técnicas mecánicas, las máquinas de cálculo y los sistemas numéricos que, finalmente, condujeron al concepto de pensamiento «humano» mecanizado en seres no humanos.
Principios del siglo XVII: Las representaciones de máquinas omniscientes similares a los ordenadores fueron más ampliamente discutidas en la literatura popular. En la novela de Jonathan Swift «Los viajes de Gulliver» se menciona un dispositivo llamado motor, que es una de las primeras referencias a la tecnología moderna, concretamente a un ordenador. El propósito de este dispositivo era mejorar el conocimiento y las operaciones mecánicas hasta un punto en el que incluso la persona con menos talento parecería ser hábil, todo ello con la asistencia y el conocimiento de una mente no humana (imitando la inteligencia artificial.)
1872: La novela «Erewhon» del autor Samuel Butler jugaba con la idea de que en un momento indeterminado del futuro las máquinas tendrían el potencial de poseer conciencia.
La IA de 1900 a 1950
Una vez llegada la década de 1900, el ritmo de crecimiento de la innovación en inteligencia artificial fue significativo.
1921: Karel Čapek, un dramaturgo checo, estrenó su obra de ciencia ficción «Los robots universales de Rossum» (traducción al inglés). Su obra exploraba el concepto de personas artificiales fabricadas en fábricas a las que llamaba robots, la primera referencia conocida a la palabra. A partir de este momento, la gente tomó la idea del «robot» y la implementó en sus investigaciones, arte y descubrimientos.
1927: La película de ciencia ficción Metrópolis, dirigida por Fritz Lang, presentaba a una chica robótica que era físicamente indistinguible de la contraparte humana de la que tomaba su semejanza. La niña-robot, con inteligencia artificial, ataca la ciudad y causa estragos en un Berlín futurista. Esta película es importante porque es la primera representación en pantalla de un robot y, por tanto, sirvió de inspiración para otros famosos personajes no humanos, como C-P30 en La Guerra de las Galaxias.
1929: El biólogo y profesor japonés Makoto Nishimura creó Gakutensoku, el primer robot construido en Japón. Gakutensoku se traduce como «aprendizaje de las leyes de la naturaleza», lo que implica que la mente artificialmente inteligente del robot podía obtener conocimientos de las personas y la naturaleza. Algunas de sus características eran mover la cabeza y las manos, así como cambiar sus expresiones faciales.
1939: John Vincent Atanasoff (físico e inventor), junto a su ayudante de posgrado Clifford Berry, creó el ordenador Atanasoff-Berry (ABC) con una subvención de 650 dólares en la Universidad Estatal de Iowa. El ABC pesaba más de 700 libras y podía resolver hasta 29 ecuaciones lineales simultáneas.
1949: El libro del informático Edmund Berkeley «Giant Brains: Or Machines That Think» (Cerebros gigantes o máquinas que piensan) señala que las máquinas son cada vez más capaces de manejar grandes cantidades de información con rapidez y habilidad. Continuó comparando las máquinas con un cerebro humano si estuviera hecho de «hardware y cables en lugar de carne y nervios», describiendo la capacidad de las máquinas con la de la mente humana, afirmando que «una máquina, por lo tanto, puede pensar».
La IA en la década de 1950
La década de 1950 resultó ser una época en la que muchos avances en el campo de la inteligencia artificial dieron sus frutos con un aumento de los descubrimientos basados en la investigación en IA por parte de varios informáticos, entre otros.
1950: Claude Shannon, «el padre de la teoría de la información», publicó «Programming a Computer for Playing Chess» (Programando un ordenador para jugar al ajedrez), que fue el primer artículo en el que se hablaba del desarrollo de un programa informático para jugar al ajedrez.
1950: Alan Turing publicó «Computing Machinery and Intelligence», en el que proponía la idea de El Juego de la Imitación, una pregunta que consideraba si las máquinas pueden pensar. Esta propuesta se convirtió posteriormente en el Test de Turing, que medía la inteligencia de las máquinas (artificiales). El desarrollo de Turing puso a prueba la capacidad de una máquina para pensar como lo haría un humano. El Test de Turing se convirtió en un componente importante en la filosofía de la inteligencia artificial, que discute la inteligencia, la conciencia y la capacidad en las máquinas.
1952: Arthur Samuel, informático, desarrolla un programa informático para jugar a las damas, el primero que aprende de forma independiente a jugar a un juego.
1955: John McCarthy y un equipo de hombres crearon una propuesta para un taller sobre «inteligencia artificial». En 1956, cuando se celebró el taller, el nacimiento oficial de la palabra se atribuyó a McCarthy.
1955: Allen Newell (investigador), Herbert Simon (economista) y Cliff Shaw (programador) son coautores de Logic Theorist, el primer programa informático de inteligencia artificial.
1958: McCarthy desarrolló Lisp, el lenguaje de programación más popular y aún favorecido para la investigación de la inteligencia artificial.
1959: Samuel acuña el término «aprendizaje automático» al hablar de la programación de un ordenador para que juegue una partida de ajedrez mejor que el humano que escribió su programa.
La IA en la década de 1960
La innovación en el campo de la inteligencia artificial creció rápidamente a lo largo de la década de 1960. La creación de nuevos lenguajes de programación, robots y autómatas, estudios de investigación y películas que mostraban seres artificialmente inteligentes aumentaron su popularidad. Esto puso de manifiesto la importancia de la IA en la segunda mitad del siglo XX.
1961: Unimate, un robot industrial inventado por George Devol en la década de 1950, se convirtió en el primero en trabajar en una línea de montaje de General Motors en Nueva Jersey. Sus responsabilidades incluían el transporte de piezas fundidas de la línea de montaje y la soldadura de las piezas en los coches, una tarea considerada peligrosa para los humanos.
1961: James Slagle, informático y profesor, desarrolló SAINT (Symbolic Automatic INTegrator), un programa heurístico de resolución de problemas cuyo objetivo era la integración simbólica en el cálculo de primer año.
1964: Daniel Bobrow, informático, creó STUDENT, uno de los primeros programas de IA escrito en Lisp que resolvía problemas de palabras de álgebra. STUDENT es citado como uno de los primeros hitos del procesamiento del lenguaje natural de la IA.
1965: Joseph Weizenbaum, informático y profesor, desarrolló ELIZA, un programa informático interactivo que podía conversar funcionalmente en inglés con una persona. El objetivo de Weizenbaum era demostrar que la comunicación entre una mente artificialmente inteligente y una mente humana era «superficial», pero descubrió que muchas personas atribuían a ELIZA características antropomórficas.
1966: El robot Shakey, desarrollado por Charles Rosen con la ayuda de otras 11 personas, fue el primer robot móvil de uso general, también conocido como la «primera persona electrónica».
1968: Se estrena la película de ciencia ficción 2001: Una odisea del espacio, dirigida por Stanley Kubrick. En ella aparece HAL (Heuristically programmed ALgorithmic computer), un ordenador sensible. HAL controla los sistemas de la nave espacial e interactúa con la tripulación de la misma, conversando con ellos como si HAL fuera humano, hasta que una avería cambia las interacciones de HAL de forma negativa.
1968: Terry Winograd, profesor de ciencias de la computación, creó SHRDLU, uno de los primeros programas informáticos de lenguaje natural.
La IA en la década de 1970
Al igual que la década de 1960, la de 1970 dio paso a avances acelerados, especialmente centrados en robots y autómatas. Sin embargo, la inteligencia artificial en la década de 1970 se enfrentó a desafíos, como la reducción del apoyo gubernamental a la investigación en IA.
1970: WABOT-1, el primer robot antropomórfico, fue construido en Japón en la Universidad de Waseda. Sus características incluían extremidades móviles, capacidad de ver y de conversar.
1973: James Lighthill, matemático aplicado, informó del estado de la investigación en inteligencia artificial al Consejo Científico Británico, declarando: «en ninguna parte del campo los descubrimientos realizados hasta el momento han producido el gran impacto que entonces se prometía», lo que llevó a reducir significativamente el apoyo a la investigación en IA por parte del gobierno británico.
1977: Se estrena la película La guerra de las galaxias del director George Lucas. La película presenta a C-3PO, un robot humanoide diseñado como droide de protocolo y que «domina más de siete millones de formas de comunicación». Como compañero de C-3PO, la película también presenta a R2-D2, un pequeño droide astromecánico que es incapaz de hablar como humano (lo contrario que C-3PO); en su lugar, R2-D2 se comunica con pitidos electrónicos. Sus funciones incluyen pequeñas reparaciones y copilotar cazas estelares.
1979: El Stanford Cart, un robot móvil equipado con televisión y controlado a distancia, fue creado por el entonces estudiante de ingeniería mecánica James L. Adams en 1961. En 1979, Hans Moravec, entonces estudiante de doctorado, añadió un «deslizador» o giro mecánico que movía la cámara de televisión de lado a lado. El carro cruzó con éxito una sala llena de sillas sin interferencia humana en aproximadamente cinco horas, convirtiéndose en uno de los primeros ejemplos de vehículo autónomo.
La IA en la década de 1980
El rápido crecimiento de la inteligencia artificial continuó durante la década de 1980. A pesar de los avances y el entusiasmo que suscitaba la IA, la cautela rodeó un inevitable «invierno de la IA», un periodo de reducción de la financiación y el interés por la inteligencia artificial.
1980: Se construye el WABOT-2 en la Universidad de Waseda. Este inicio del WABOT permitía al humanoide comunicarse con las personas, así como leer partituras y tocar música en un órgano electrónico.
1981: El Ministerio de Comercio Internacional e Industria de Japón asignó 850 millones de dólares al proyecto de la Quinta Generación de Ordenadores, cuyo objetivo era desarrollar ordenadores que pudieran conversar, traducir idiomas, interpretar imágenes y expresar un razonamiento similar al humano.
1984: se estrena la película Electric Dreams, dirigida por Steve Barron. La trama gira en torno a un triángulo amoroso entre un hombre, una mujer y un ordenador personal sensible llamado «Edgar».
1984: En la Asociación para el Avance de la Inteligencia Artificial (AAAI), Roger Schank (teórico de la IA) y Marvin Minsky (científico cognitivo) advierten del invierno de la IA, el primer caso en el que disminuiría el interés y la financiación de la investigación en inteligencia artificial. Su advertencia se hizo realidad en tres años.
1986: Mercedes-Benz construyó y lanzó al mercado una furgoneta sin conductor equipada con cámaras y sensores bajo la dirección de Ernst Dickmanns. Era capaz de conducir hasta 55 mph en una carretera sin otros obstáculos ni conductores humanos.
1988: el informático y filósofo Judea Pearl publica «Razonamiento probabilístico en sistemas inteligentes». A Pearl también se le atribuye la invención de las redes bayesianas, un «modelo gráfico probabilístico» que representa conjuntos de variables y sus dependencias mediante un gráfico acíclico dirigido (DAG).
1988: Rollo Carpenter, programador e inventor de dos chatbots, Jabberwacky y Cleverbot (lanzados en la década de 1990), desarrolló Jabberwacky para «simular el chat humano natural de una manera interesante, entretenida y humorística.» Este es un ejemplo de IA a través de un chatbot que se comunica con las personas.
La IA en la década de 1990
El fin del milenio estaba en el horizonte, pero esta anticipación sólo ayudó a la inteligencia artificial en sus continuas etapas de crecimiento.
1995: El informático Richard Wallace desarrolló el chatbot A.L.I.C.E (Artificial Linguistic Internet Computer Entity), inspirado en el ELIZA de Weizenbaum. Lo que diferenciaba a A.L.I.C.E. de ELIZA era la adición de la recogida de datos de muestras de lenguaje natural.
1997: Los informáticos Sepp Hochreiter y Jürgen Schmidhuber desarrollaron la memoria a largo plazo (LSTM), un tipo de arquitectura de red neuronal recurrente (RNN) utilizada para el reconocimiento de la escritura y el habla.
1997: Deep Blue, un ordenador para jugar al ajedrez desarrollado por IBM, se convirtió en el primer sistema en ganar una partida de ajedrez y enfrentarse a un actual campeón del mundo.
1998: Dave Hampton y Caleb Chung inventan Furby, el primer robot de juguete «mascota» para niños.
1999: Al igual que Furby, Sony presenta AIBO (Artificial Intelligence RoBOt), un perro robot de 2.000 dólares diseñado para «aprender» interactuando con su entorno, sus dueños y otros AIBO. Sus características incluyen la capacidad de entender y responder a más de 100 comandos de voz y comunicarse con su dueño humano.
La IA de 2000-2010
El nuevo milenio estaba en marcha -y después de que los temores del efecto 2000 se disiparan- la IA continuó su tendencia al alza. Como era de esperar, se crearon más seres artificialmente inteligentes, así como medios de comunicación creativos (películas, concretamente) sobre el concepto de inteligencia artificial y hacia dónde podría dirigirse.
2000: El problema del efecto 2000, también conocido como el problema del año 2000, fue una clase de errores informáticos relacionados con el formato y el almacenamiento de los datos del calendario electrónico a partir del 01/01/2000. Dado que todo el software y los programas de Internet habían sido creados en la década de 1900, algunos sistemas tendrían problemas para adaptarse al nuevo formato del año 2000 (y posteriores). Antes, estos sistemas automatizados sólo tenían que cambiar los dos últimos dígitos del año; ahora, había que cambiar los cuatro dígitos, lo que suponía un reto para la tecnología y quienes la utilizaban.
2000: La profesora Cynthia Breazeal desarrolló Kismet, un robot que podía reconocer y simular emociones con su rostro. Estaba estructurado como un rostro humano con ojos, labios, párpados y cejas.
2000: Honda lanza ASIMO, un robot humanoide artificialmente inteligente.
2001: se estrena la película de ciencia ficción Inteligencia Artificial, dirigida por Steven Spielberg. La película está ambientada en una sociedad futurista y distópica y sigue a David, un niño humanoide avanzado que está programado con sentimientos antropomórficos, incluida la capacidad de amar.
2002: i-Robot lanza Roomba, un robot aspirador autónomo que limpia mientras evita los obstáculos.
2004: Los robots de exploración Spirit y Opportunity de la NASA navegan por la superficie de Marte sin intervención humana.
2004: Se estrena la película de ciencia ficción I, Robot, dirigida por Alex Proyas. Ambientada en el año 2035, los robots humanoides sirven a la humanidad, mientras que un individuo se muestra vehementemente contrario a los robots, dado el desenlace de una tragedia personal (determinada por un robot).
2006: Oren Etzioni (profesor de informática), Michele Banko y Michael Cafarella (informáticos), acuñan el término «lectura automática», definiéndolo como la comprensión autónoma no supervisada de un texto.
2007: El profesor de informática Fei Fei Li y sus colegas reunieron ImageNet, una base de datos de imágenes anotadas cuyo propósito es ayudar en la investigación de software de reconocimiento de objetos.
2009: Google desarrolló en secreto un coche sin conductor. En 2014, superó la prueba de autoconducción de Nevada.
AI 2010 hasta la actualidad
La década actual ha sido inmensamente importante para la innovación en IA. Desde 2010, la inteligencia artificial se ha integrado en nuestro día a día. Usamos teléfonos inteligentes que tienen asistentes de voz y ordenadores que tienen funciones de «inteligencia» que la mayoría de nosotros da por sentado. La IA ya no es una quimera y no lo ha sido durante algún tiempo.
2010: ImageNet lanzó el ImageNet Large Scale Visual Recognition Challenge (ILSVRC), su concurso anual de reconocimiento de objetos con IA.
2010: Microsoft lanza Kinect para Xbox 360, el primer dispositivo de juego que rastrea el movimiento del cuerpo humano mediante una cámara 3D y detección de infrarrojos.
2011: Watson, un ordenador de respuesta a preguntas en lenguaje natural creado por IBM, derrota a dos antiguos campeones de Jeopardy!, Ken Jennings y Brad Rutter, en una partida televisada.
2011: Apple lanzó Siri, un asistente virtual en los sistemas operativos iOS de Apple. Siri utiliza una interfaz de usuario en lenguaje natural para inferir, observar, responder y recomendar cosas a su usuario humano. Se adapta a los comandos de voz y proyecta una «experiencia individualizada» por usuario.
2012: Jeff Dean y Andrew Ng (investigadores de Google) entrenaron una gran red neuronal de 16.000 procesadores para reconocer imágenes de gatos (a pesar de no dar ninguna información de fondo) mostrándole 10 millones de imágenes sin etiquetar de vídeos de YouTube.
2013: Un equipo de investigación de la Universidad Carnegie Mellon lanzó Never Ending Image Learner (NEIL), un sistema de aprendizaje automático semántico que podía comparar y analizar las relaciones entre imágenes.
2014: Microsoft lanzó Cortana, su versión de un asistente virtual similar a Siri en iOS.
2014: Amazon creó Amazon Alexa, un asistente para el hogar que se convirtió en altavoces inteligentes que funcionan como asistentes personales.
Relación: Vea las 43 estadísticas de búsqueda por voz que no pueden faltar para ver cuán popular es realmente esta tecnología.
2015: Elon Musk, Stephen Hawking y Steve Wozniak, entre otras 3.000 personas, firmaron una carta abierta para prohibir el desarrollo y el uso de armas autónomas (con fines bélicos).
2015-2017: AlphaGo de Google DeepMind, un programa informático que juega al juego de mesa Go, derrotó a varios campeones (humanos).
2016: Un robot humanoide llamado Sophia es creado por Hanson Robotics. Se la conoce como la primera «ciudadana robot». Lo que distingue a Sophia de los humanoides anteriores es su parecido con un ser humano real, con su capacidad de ver (reconocimiento de imágenes), hacer expresiones faciales y comunicarse a través de la IA.
2016: Google lanzó Google Home, un altavoz inteligente que utiliza la IA para actuar como «asistente personal» para ayudar a los usuarios a recordar tareas, crear citas y buscar información por voz.
2017: El laboratorio de Investigación de Inteligencia Artificial de Facebook entrenó a dos «agentes de diálogo» (chatbots) para que se comunicaran entre sí con el fin de aprender a negociar. Sin embargo, a medida que los chatbots conversaban, se apartaron del lenguaje humano (programado en inglés) e inventaron su propio lenguaje para comunicarse entre sí, exhibiendo inteligencia artificial en gran medida.
2018: La IA de procesamiento del lenguaje de Alibaba (grupo tecnológico chino) superó al intelecto humano en una prueba de lectura y comprensión de Stanford. El procesamiento del lenguaje de Alibaba obtuvo una puntuación de «82,44 frente a 82,30 en un conjunto de 100.000 preguntas», una derrota ajustada, pero una derrota al fin y al cabo.
2018: Google desarrolló BERT, la primera «representación lingüística bidireccional y no supervisada que puede utilizarse en una variedad de tareas de lenguaje natural utilizando el aprendizaje de transferencia».
2018: Samsung presentó Bixby, un asistente virtual. Las funciones de Bixby incluyen Voz, donde el usuario puede hablar y hacer preguntas, recomendaciones y sugerencias; Visión, donde la capacidad de «ver» de Bixby está integrada en la app de la cámara y puede ver lo que el usuario ve (Ej. identificación de objetos, búsqueda, compra, traducción, reconocimiento de puntos de referencia); y Home, donde Bixby utiliza información basada en la app para ayudar a utilizar e interactuar con el usuario (por ejemplo, aplicaciones meteorológicas y de fitness.)
¿Qué esperar de la IA en 2019 y más allá?
Los avances de la inteligencia artificial se están produciendo a un ritmo sin precedentes. Dicho esto, podemos esperar que las tendencias de la última década sigan oscilando al alza en el próximo año. Algunas cosas a las que debemos prestar atención en 2019 incluyen:
- Chatbots + asistentes virtuales: Fortalecimiento de la automatización de chatbots y asistentes virtuales para mejorar la experiencia del usuario
- Procesamiento del lenguaje natural (NLP): Aumento de las capacidades de PNL para las aplicaciones artificialmente inteligentes, incluyendo (y especialmente para) los chatbots y los asistentes virtuales
- Aprendizaje automático y aprendizaje automático: El ML cambiará hacia algoritmos de AutoML para permitir a los desarrolladores y programadores resolver problemas sin crear modelos específicos
- Vehículos autónomos: A pesar de la mala prensa que rodea a varios vehículos de autoconducción defectuosos, es seguro asumir que habrá un impulso más fuerte para automatizar el proceso de conducir el producto desde el punto A hasta el punto B para 1. Ahorrar en el coste de la mano de obra humana, 2. Optimizar el proceso de compra-envío-llegada al consumidor a través de vehículos de autoconducción que -en esencia- no se cansarán al volante
Relacionado: Consulta las últimas estadísticas de inteligencia artificial de 2019 para estar al día de la última información tecnológica sobre IA.
¿Nuestro objetivo? Mantener el ritmo de los avances en IA
Para estar al día en el mundo de la tecnología, tenemos que seguir el ritmo de las innovaciones en inteligencia artificial. Desde los robots humanoides como Sophia hasta los asistentes de los altavoces domésticos como Alexa, la IA avanza a un ritmo acelerado. Algún día, los humanos tendrán compañeros artificialmente inteligentes más allá de juguetes como AIBO o Furby; algún día, la IA y la humanidad podrían coexistir de manera que los humanos y los humanoides sean indistinguibles entre sí.
¿Y algún día? ¡Lee sobre las tendencias de 2019 en inteligencia artificial o aprende más sobre los diferentes tipos de IA para obtener más conocimientos en 2019 y más allá!