Inteligencia Artificial; ¿las máquinas serán como nosotros?

**Dota a las computadoras de ‘lógica’ para que comprendan preguntas y respondan como lo haría un humano


Inteligencia Artificial; ¿las máquinas serán como nosotros?

La Crónica de Chihuahua
18 de septiembre, 19:00 pm

CIUDAD DE MÉXICO.- Recientemente el término “Inteligencia Artificial” suena mucho en el ámbito tecnológico, desde desarrollos como Watson, la supercomputadora de IBM, hasta AlphaGo, la computadora de Google que ganó el juego chino llamado Go, considerado uno de los más complejos y en el cual se dice que se requiere más “mentalidad humana” para llegar a ganar.

Sin embargo, la Inteligencia Artificial no es un concepto nuevo. Fue acuñado en 1956, por John McCarthy quién la definió como “La ciencia de construir computadoras y programas de cómputo que emulen la inteligencia humana”.

Y a pesar de que desde hace años se intenta desarrollar este tipo de tecnología, fue hasta la llegada del Siglo 21 que se han hecho avances más tangibles al respecto.

“La Inteligencia Artificial se encuentra ya entre nosotros”, señala Paul Sullivan, evangelista de nuevas tecnologías de Autodesk, empresa desarrolladora de software. “Siri de Apple, Google Now de Google y Cortana de Microsoft son buenos ejemplos de ello. Son asistentes personales a los que se les pregunta dónde queda una tienda o a qué hora es la función del cine son un ejemplo muy cercano que tiene la gente de Inteligencia Artificial ya aplicada”, señala el experto.

La Inteligencia Artificial se diferencia de otras áreas del cómputo tradicional por la forma en que se busca que la computadora resuelva problemas. En un proceso tradicional se sigue una solución lineal, una secuencia con la cual se busca resolver el problema y si algo llega a fallar se muestra un error, mientras que en la Inteligencia Artificial se dota a la computadora de una estructura de lógica por bloques, además de un acercamiento de procesamiento semántico, esto quiere decir que la computadora intenta comprender lo que se le pregunta descomponiendo la frase por palabras y le otorga varias aproximaciones al problema hasta obtener la respuesta correcta, tal como lo haría la mente humana.

UN POCO DE HISTORIA
Desde el año 1956 hasta 1990, diversos científicos en computación han colaborado en la teoría de la Inteligencia Artificial, desde el programa LISP, creado en 1958 por John McCarthy, el primer lenguaje de computación que procesaba simbólicamente las peticiones, pasando por la contribución de Bertrand Raphael con su Recuperación Semántica de Información, el cual enseñó a las computadoras a entender las frases y su sentido, hasta llegar a la Programación Orientada a Objetos, desarrollada en el Centro de Cómputo de Oslo, Noruega, que permitió que los lenguajes de programación permitan a las computadoras asociar una palabra con un objeto, esto emula la forma en que la mente humana por ejemplo, forma la imagen mental de una silla, cuando lee esa palabra.

“Creo que la suma de todo ese conocimiento se hizo visible en 1997 cuando Deep Blue de IBM le ganó a Gary Kaspárov en aquel épico encuentro de ajedrez, y creo que también ahí fue cuando los miedos hacia la Inteligencia Artificial se hicieron mayores”, señaló Brian David Johnson, Futurista Residente de la Consultora Frost & Sullivan.

El miedo a Skynet y Hal 9000. En este tema coincide Paul Sullivan, para él, el desarrollo de la Inteligencia Artificial se encuentra envuelta en mitos y temores que han hecho más lento su desarrollo y ocasionado que el público en general tenga prejuicios contra ella.

“Creo que Hollywood y la literatura de ficción nos han predispuesto a la Inteligencia Artificial, estas películas como “Terminator” en dónde robots con Inteligencia Artificial quieren acabar con los humanos, o películas como “2001: Una Odisea del Espacio”, con HAL, la Inteligencia Artificial que no tiene reparos en asesinar a su tripulación con tal de llevar a cabo su misión.

Creo que son el tipo de temáticas que nos tienen a todos como sociedad muy temerosos del desarrollo pero, hay que ser claros en este tema, las máquinas nunca van a dominarnos, la inteligencia humana tiene mecanismos muy complejos para razonar y discernir cosas, la Inteligencia Artificial siempre va a ser un socio, ella va a necesitar de los humanos, como nosotros necesitaremos de ella”, apuntó.

Más allá del miedo a una dominación mundial de las máquinas, el temor real tanto de personas como de gobiernos es el desequilibrio en la economía mundial que la llegada de las máquinas inteligentes traerá con su implementación.

El Foro Económico Mundial ha advertido que la implementación de robots en la economía mundial ocasionará la pérdida de alrededor de 20 millones de empleos desde ahora y hasta 2025.

Pero para Brian David Johnson, el panorama es mucho más amplio que solo un desplazamiento de los humanos por parte de la tecnología.

“Este tema de los robots como tus compañeros de trabajo es uno de los mitos más grandes, aún estamos a muchas décadas de que exista un robot humanoide completamente consciente y capaz de interactuar con los humanos como par. La Inteligencia Artificial sí va a desplazar trabajos, pero trabajos peligrosos y monótonos: los industriales, los que significan cargar peso, los que implican entrar en zonas de riesgo“.

En retorno, nuevos trabajos se crearán, estarán relacionados con administrar, supervisar y dar mantenimiento a los robots, que podrán trabajar sin intervención humana, pero necesitarán un humano supervisando, es como los aviones, que actualmente pueden realizar un vuelo por su cuenta, pero no lo permitimos, por eso siempre hay un piloto que supervisa el vuelo”.

No obstante entre la comunidad científica la preocupación es real. Hombres de la talla del astrofísico Stephen Hawkins o Steve Wozniak, cofundador de Apple, entre otros, han dirigido una carta a los principales centros de investigación en el mundo externando su preocupación por el eventual desarrollo de máquinas que podrían no obedecer a sus contrapartes humanas.

¿CÓMO LA CONSTRUIMOS?
La Inteligencia Artificial ha despertado preocupaciones, pero expertos como Sullivan se sienten confiados de que no será dañina para el ser humano debido a la forma en que se construye actualmente.

Además de los cientos de lenguajes y avances hechos durante la segunda mitad del Siglo XX, se ha alcanzado un consenso entre científicos e ingenieros dedicados al desarrollo de la Inteligencia Artificial para fijar como base las Tres Leyes de la Robótica, publicadas en 1942 por Isaac Asimov, en el cuento “El Fugitivo”.

Estas leyes son:
> Un robot no debe dañar a un ser humano o, por inacción, permitir que un ser humano sufra algún daño.
> Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con lo establecido en la Primera Ley.
> Un robot debe proteger su propia existencia mientras esta protección no entre en conflicto con la Primera o la Segunda Ley.

Bajo estas tres premisas se busca que la Inteligencia Artificial siempre sea un aliado para el ser humano y, pese a poder tomar consciencia de su existencia, mantenga estos paradigmas como pilares de su programación.

La Inteligencia Artificial se compone además de lenguajes que analizan datos estructurados, conocidos como Big Data y por algoritmos de cómputo por objetos y semánticos conocidos como Machine Learning.

En 2011, cuando Watson, la supercomputadora de IBM ganó el juego ¡Jeopardy!, fue un gran avance en el campo de la Inteligencia Artificial ya que el juego consiste en que el presentador ofrece a los concursantes respuestas en diversas categorías y los participantes deben elaborar la pregunta, además deben formularla antes de 10 segundos para no perder su turno.

Watson obtuvo su victoria gracias a que estaba conectada a un servidor con información de enciclopedias, diccionarios, documentos de cultura general e historia mundial. A través de este servidor fue posible que la supercomputadora pudiera cumplir con los requerimientos del concurso y eventualmente ganarlo.

A pesar del hito, Watson se encontraba limitado al conocimiento que contenía su base de datos, sin ella, el algoritmo semántico que le da inteligencia no podría haber contestado una sola de las preguntas.

El siguiente paso es dotar a la Inteligencia Artificial de Cómputo Cognitivo, mejor conocido como Machine Learning. “Una Inteligencia que aprende de su contraparte humana, que va refinando la información y se convierte en una verdadera asistente, con la capacidad de establecer prioridades y entablar una relación de valor con el humano es lo que se pretende con el Machine Learning”, aseguró Jonathan Foster, Líder Global de Desarrollo de Cortana.

“Cortana, asistente personal de Windows 10, actualmente puede realizar alrededor de 2 mil peticiones del usuario, tiene la capacidad de conectarse a Internet, a tus correos electrónicos y agenda, lo que la libera del cajón de depender de una base de datos fija, con lo que potencialmente sus siguientes versiones evolucionarán hacia una Inteligencia que conozca tus gustos e intereses y recurra a Internet para nutrirse de información y llevar una conversación contigo”, aseguró.

Mark Zuckerberg, director de Facebook, está también interesado en el desarrollo de esta tecnología y ha estado trabajado en la creación de un mayordomo de inteligencia artificial.

Un reporte de la OCDE afirma que México es el país en Latinoamérica que registra mayor adopción de plataformas de Inteligencia Artificial, seguido de Colombia, principalmente por el gran número de centros de soporte al cliente que tienen instalados, y en el caso de México en particular, consecuencia de que la industria automotriz y aeroespacial ha apostado por el desarrollo de este sector.

“México tiene un gran futuro en el campo de la Inteligencia Artificial, el número de personas jóvenes estudiando ingenierías en computación y robótica es impresionante. Lo que las diversas universidades están haciendo nos permite pensar que los próximos avances en inteligencia artificial y robótica vendrán de países como México, Brasil, Colombia, opinó Paul Sullivan, de Autodesk.

Los expertos aseguran que las mejoras en el cómputo cuántico permitirán una inteligencia artificial más consciente de su entorno y capaz de emular el comportamiento humano.

ENTÉRESE
Existen cinco tipos de Inteligencia Artificial basados en su equivalencia a la ejecución que un humano haría de las mismas acciones o tareas:
> Óptima: Refiere a que no es posible realizar una tarea de mejor manera.
> Fortaleza Sobre-Humana: Significa que al ejecutar tareas se comporta mejor que cualquiera de los seres humanos en el planeta.
> Súper-humana: Identifica a aquellas Inteligencias Artificiales que se comportan mejor que la mayoría de los seres humanos al ejecutar acciones o tareas.
> Par-humana: Es aquella que se comporta en su ejecución y lógica de manera similar a la mayoría de los seres humanos.
> Subhumana: Es aquella que realiza acciones y tareas básicas y que se comporta por debajo del rango cognitivo de la mayoría de los seres humanos.
Inteligencias artificiales famosas:
> 1997, Deep Blue de IBM. Vence a Gary Kaspárov campeón mundial de Ajedrez.
> 2011, Watson de IBM. Gana el programa de concursos ¡Jeopardy! Compitió contra los dos mejores jugadores humanos de todos los tiempos.
> 2011, Siri de Apple. Considerado el primer asistente personal disponible para los usuarios comunes. Se basa en la utilización de software de reconocimiento de lenguaje.
> 2012, Google Now de Google. Considerado como “El avance del año” por la revista Popular Science. Utiliza algoritmos de lenguaje natural para brindar información a los usuarios.
> 2014, Cortana de Microsoft. Asistente personal que utiliza algoritmos de lenguaje natural y semántico, responde a sus usuarios de acuerdo al contexto cultural del país donde es desplegada.

¡Sea el primero en escribir un comentario!

---ooOoo---