Evolucion de la inteligencia artificial

5 minutos de lectura aprox.

¿Cuál ha sido la evolución de la Inteligencia Artificial?

En la primera mitad del siglo XX, la ciencia ficción familiarizó al mundo con el concepto de robots artificialmente inteligentes. Comenzó con el «desalmado» hombre de hojalata del Mago de Oz y continuó con el robot humanoide que se hacía pasar por María en Metrópolis. En la década de 1950, ya había una generación de científicos, matemáticos y filósofos con el concepto de inteligencia artificial o IA asimilado culturalmente en sus mentes.

Uno de ellos fue Alan Turing, un joven polímata británico que exploró la posibilidad matemática de la inteligencia artificial. Turing sugirió que los humanos utilizan la información disponible además de la razón para resolver problemas y tomar decisiones, así que ¿por qué las máquinas no pueden hacer lo mismo? Este era el marco lógico de su artículo de 1950, Computing Machinery and Intelligence, en el que discutía cómo construir máquinas inteligentes y cómo probar su inteligencia.

Por desgracia, hablar es barato. ¿Qué impidió a Turing ponerse a trabajar en ese mismo momento? En primer lugar, los ordenadores debían cambiar fundamentalmente.

Antes de 1949 los ordenadores carecían de un requisito clave para la inteligencia: no podían almacenar órdenes, sólo ejecutarlas. En otras palabras, se podía decir a los ordenadores lo que tenían que hacer, pero no podían recordar lo que hacían. En segundo lugar, la informática era extremadamente cara.

¿Qué es la Inteligencia Artificial y cómo está evolucionando?

A principios de la década de 1950, el coste de alquilar un ordenador ascendía a 200.. 000 dólares al mes. Sólo las universidades de prestigio y las grandes empresas tecnológicas podían permitirse el lujo de adentrarse en estas aguas inexploradas.

Para convencer a las fuentes de financiación de que la inteligencia artificial merecía la pena, se necesitaba una prueba de concepto y el apoyo de personas de alto nivel. Cinco años más tarde, la prueba de concepto se puso en marcha con el Logic Theorist de Allen Newell, Cliff Shaw y Herbert Simon. El Logic Theorist era un programa diseñado para imitar las habilidades de resolución de problemas de un humano y fue financiado por la Corporación RAND de Investigación y Desarrollo.

Es considerado por muchos como el primer programa de inteligencia artificial y fue presentado en el Proyecto de Investigación de Verano de Dartmouth sobre Inteligencia Artificial DSRPAI organizado por John McCarthy y Marvin Minsky en 1956. En esta histórica conferencia, McCarthy, imaginando un gran esfuerzo de colaboración, reunió a los mejores investigadores de diversos campos para un debate abierto sobre la inteligencia artificial, término que acuñó en el propio evento. Lamentablemente, la conferencia no cumplió las expectativas de McCarthy; la gente iba y venía a su antojo, y no se llegó a un acuerdo sobre métodos estándar para el campo.

A pesar de ello, todo el mundo se adhirió de todo corazón a la idea de que la IA era factible.

¿Que se ha logrado hasta ahora con la Inteligencia Artificial?

La importancia de este acontecimiento no se puede subestimar, ya que catalizó los siguientes veinte años de investigación en IA.. En la década de 1980, la IA se reavivó gracias a dos fuentes: la ampliación del conjunto de herramientas algorítmicas y un aumento de los fondos. John Hopfield y David Rumelhart popularizaron las técnicas de «aprendizaje profundo» que permitían a los ordenadores aprender utilizando la experiencia.

Por otro lado, Edward Feigenbaum introdujo sistemas expertos que imitaban el proceso de toma de decisiones de un experto humano. El programa preguntaba a un experto en un campo cómo responder en una situación determinada y, una vez aprendido esto para prácticamente cualquier situación, los no expertos podían recibir consejos de ese programa. Los sistemas expertos se utilizaron ampliamente en las industrias.

El gobierno japonés financió en gran medida los sistemas expertos y otros esfuerzos relacionados con la IA como parte de su Proyecto de Computación de Quinta Generación FGCP. De 1982 a 1990, invirtieron 400 millones de dólares con el objetivo de revolucionar el procesamiento informático, implementar la programación lógica y mejorar la inteligencia artificial. Por desgracia, la mayoría de los ambiciosos objetivos no se cumplieron. Sin embargo, se podría argumentar que los efectos indirectos del FGCP inspiraron a una joven generación de ingenieros y científicos de gran talento.

¿Quién acuño el término de Inteligencia Artificial?

En cualquier caso, la financiación del FGCP cesó y la IA dejó de ser el centro de atención.. Irónicamente, en ausencia de financiación gubernamental y de publicidad, la IA prosperó. Durante las décadas de 1990 y 2000, se alcanzaron muchos de los objetivos más importantes de la inteligencia artificial.

En 1997, el actual campeón mundial de ajedrez y gran maestro Gary Kasparov fue derrotado por Deep Blue de IBM, un programa informático para jugar al ajedrez. Este partido tan publicitado fue la primera vez que un campeón mundial de ajedrez perdía ante un ordenador y sirvió como un gran paso hacia un programa de toma de decisiones artificialmente inteligente. Ese mismo año, el software de reconocimiento de voz, desarrollado por Dragon Systems, se implantó en Windows.

Este fue otro gran paso adelante, pero en la dirección del esfuerzo de la interpretación del lenguaje hablado. Parecía que no había ningún problema que las máquinas no pudieran resolver. Incluso las emociones humanas eran un juego limpio, como demuestra Kismet, un robot desarrollado por Cynthia Breazeal que podía reconocer y mostrar emocionesNo nos hemos vuelto más inteligentes en la forma de codificar la inteligencia artificial, así que ¿qué ha cambiado?

Resulta que el fundamento

Consultor SEO | Web | + posts

Programador reconvertido a consultor SEO. Me gusta automatizar cosas, de hecho, este articulo ha sido generado a partir de otras webs de forma automática.