Inteligencia artificial: ¿Se “revolucionarán” las máquinas?

Inteligencia artificial: ¿Se “revolucionarán” las máquinas?

9 de abril del 2017

El futuro: carros que andan por el cielo y no por avenidas; casas completamente mecanizadas; ropa brillante, vistosa, que podría lavarse y secarse sola, y que se adecuaría automáticamente a la talla —sí: como en Volver al  Futuro—. Viajes muy adentro del espacio exterior; colonias en la luna y otros u otros cuerpos celestes; una o más guerras vividas o por empezar; un virus terrible y mortal; respuestas a muchas preguntas. Una vida completamente dependiente de la tecnología.

La imaginación podría quedarse corta ante las distintas perspectivas que eso, el futuro tendría para nosotros. Puede que lo que el cine y la literatura de ciencia ficción han intentado mostrarnos no sea ni remotamente parecido a lo que vendrá: podría ser peor. O mejor. Hay, sin embargo, una constante en todos esos relatos: las increíbles cosas que podrán hacer las máquinas. Y ese futuro, real y posible, cada vez está más cerca: la inteligencia artificial de hoy es la prueba de ello.

La tecnología, el último siglo, ha avanzado casi que a zancadas. La inteligencia artificial significaría la posibilidad de que un día —que no está muy lejos—, las maquinas puedan no sólo pensar por sí mismas, tomar sus propias decisiones, sino incluso, y no es del todo descabellado, tener consciencia.

Ya sabemos, por ejemplo, que una última generación de máquinas está en capacidad de aprender. El proceso se llama Machine learnig, término que traduciría “aprendizaje automático. Google es uno de los pioneros en el desarrollo de ese campo. El ejemplo más claro de ello es el Traductor Google.

El Traductor es un programa preparado para reaccionar a nuestro comportamiento, y que sigue aprendiendo, que sigue mejorando. En la medida que se van poniendo frases o que se piden traducciones, el programa amplía sus horizontes y traduce mejor. Modismos y tecnicismos de cada lenguaje son, literalmente, “aprendidos”. Es una lógica muy simple: entre más traduce, más aprende.

“Analiza miles de millones de palabras y documentos en busca de patrones que lo ayudan a determinar cuál es  la mejor traducción. Al detectar esos patrones en documentos que ya han sido traducidos por un humano, puede intuir de forma inteligente cuál es la alternativa más adecuada”, dice Google.

Otro caso sería el de las tiendas online. Amazon aprende de nuestros gustos, de acuerdo al historial de búsqueda. Sabe lo que queremos comprar  a través de nuestros costumbres, de nuestra rutina.

Podemos entender el Machine learning como un proceso de conversión de datos en conocimiento a partir del estudio del comportamiento. Basa sus desarrollos en la informática, la ingeniería y la estadística.  Hasta aquí todo parece “normal”. Y lo es en realidad; sin embargo hay una frontera, una delgadísima línea que se podría estar a punto de pasar: ¿En algún punto las máquinas podrían independizarse del control del ser humano? ¿Qué harían entonces?

Ya las máquinas son capaces de pensar. El punto es que puedan —y aún sólo es una hipótesis—, tener consciencia. O singularidad que es como la ciencia ha llamado esa idea. No significa nada más que un computador, una red o un robot sean capaces de manejarse a sí mismo, y que al mismo tiempo tengan la capacidad de crecer, de mejorar. Se llega incluso a decir que podría “sentir”. Una máquina así,  independiente, con una inteligencia mayor a la del hombre, está en la categoría de Inteligencia artificial fuerte.

Stephen Hawking, uno de los científicos más respetados y uno, además, de los hombres más brillantes de la modernidad, ha dicho que “el desarrollo de una completa inteligencia artificial (IA) podría traducirse en el fin de la raza humana. Los humanos, que son seres limitados por su lenta evolución biológica, no podrán competir con las máquinas, y serán superados. Se ha convertido en mi marca, y no la hubiese cambiado por una con un tono más natural y un acento británico. Me han dicho que los niños que necesitan una voz en la computadora, quieren una como la mía”.

El debate va más allá de la simple cuestión tecnológica. Google, el gigante, el todo poderoso, lo sabe, y por eso está contratando filósofos. ¿Qué van a hacer, entre expertos en programación, en robótica, en computadoras, en tecnología, un experto en Platón, en Nietzshe, en Hegel?

Los alcances y los límites de la inteligencia artificial, plantean una pregunta ética, basada en un futuro posible, un futuro en el que las cosas se ven confusas. Y a eso van los filósofos a Google  —y a IBM, y a Microsoft, y en muchos más—: a responder la pregunta; a entender y descifrar el futuro.

Foto: Shutterstock

Foto: Shutterstock

La rama que se encarga de esa pregunta se llama ética en la inteligencia artificial. Partamos de que hay tres leyes en la Robótica, que podrían hacerse extensivas para la tecnología en general. Las planteó el escritor de ciencia ficción Isaac Asimov. Dicen que: 1) Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño; 2) Un robot debe hacer realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley, y 3) Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

En esa medida, es deber de la filosofía aplicada a la tecnología, estudiar, tanto que las máquinas sean capaces de hacer daño al hombre, a la vida, a la naturaleza, como una especie de código de comportamiento que ellas deberían tener.

La pregunta queda en el aire.  Las otrora imposibles imágenes del cine o la literatura, se ven reales y plausibles. El hecho de que haya una rama encargada del estudio de esa pregunta y de las posibles respuestas, de las posibles opciones es una invitación a cuestionarse para dónde vamos, por qué camino. ¿Qué harán las maquinas con nosotros? Quién sabe.

Foto: Youtube