Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas

viernes, 17 de febrero de 2023

Entrenando una IA de codigo abierto


Siempre me ha fascinado la capacidad que tienen muchas personas de realizar laboriosas tareas por las que no reciben ningún pago, tareas no relacionadas con su trabajo remunerado. Hace ya más de 10 años exploraba este tema en mi blog probando yo mismo a escribir un artículo en Wikipedia para concluir que la principal motivación que me llevó a hacerlo era la terrible relación con mi antiguo jefe, su pésima gestión de su equipo de trabajo, la nula motivación que me transmitía, y mi frustración y desmotivación en ese momento en el mercado laboral.
Por suerte para mi salud mental y mi carrera laboral no tuve que soportar mucho más en esa situación, porque mi jefe se jubiló (al fin), y los que le han sucedido han demostrado ser mucho mejores gestores, líderes, y personas en general.
Revisando este texto ahora, una de las conclusiones que saqué es que en un trabajo la vieja estrategia de motivación que llaman “el burro y la zanahoria” no es demasiado efectiva, ya que de esa manera no se consiguen grandes resultados, más bien al contrario.  La motivación de la mayoría de nosotros no funciona con este juego de “recompensa por tu productividad”, sobre todo si se trata de una recompensa monetaria.  Sorprendentemente, los factores que más motivan a las personas para dar lo mejor de sí son, básicamente, estos tres: tener autonomía, desarrollar sus habilidades o maestrías, y tener un objetivo claro.
Todo esto me viene a la mente ahora porque, a pesar de estar mucho más realizado y motivado en mi trabajo actualmente, me he vuelto a descubrir realizando un importante esfuerzo en tareas no remuneradas (disclaimer: por supuesto fuera de mi horario laboral). 


Parece que fue ayer (y prácticamente fue ayer) cuando ChatGPT, el chatbot conversacional de la empresa Open IA, llegó al mundo sorprendiendo por sus impresionantes capacidades de comprender el lenguaje natural, respondernos a muchas dudas, y llevar a cabo muchísimas funciones. El mundo de las IAs se mueve muy rápido, y los gigantes del sector tecnológico, Microsoft con Bing Chat y Google con su asistente Bard ya se han posicionado para dominar este nuevo sector. Pero ha surgido una interesante alternativa, basada en código abierto, que se llamará Open Assistant.

Personalmente tengo la fuerte convicción de que las únicas tecnologías escalables y sostenibles a largo plazo son los modelos libres y abiertos, como por ejemplo los programas Open Source. La naturaleza libre y abierta de los modelos de tecnología permite una mayor participación y colaboración de la comunidad, lo que lleva a una mayor innovación y mejora continua. Los programas Open Source se basan en esta filosofía, ya que el código fuente está disponible para que cualquiera pueda examinarlo, modificarlo y mejorarlo, lo que lleva a una mayor calidad y fiabilidad. Además, los modelos libres y abiertos permiten que la tecnología sea escalable a una mayor escala, ya que no dependen de una única empresa o entidad para su desarrollo y mantenimiento. En lugar de eso, una comunidad de desarrolladores y usuarios puede trabajar juntos para mejorar y mantener el software de forma colaborativa, para identificar y solucionar errores. Esta labor es muy importante para investigadores, empresas, organizaciones, etc. Al ser de código abierto, la responsabilidad de su uso recae en la comunidad, en lugar de una empresa o individuo en particular. Esto fomenta una cultura de responsabilidad colectiva, donde la comunidad se asegurará de que esta IA se utilice de manera ética y responsable. Por otro lado, la comunidad puede contribuir a la IA de manera más amplia y diversa. Al ser de código abierto, es más fácil crear interfaces y aplicaciones que permitan su uso para fines éticos y sociales. Esto puede ayudar a garantizar que la perspectiva de diferentes grupos sea considerada y reflejada en el modelo de IA. Por ejemplo, se podría utilizar la IA para crear chatbots que brinden información sobre derechos humanos, salud pública, o temas similares.
En cualquier caso, a pesar de que personalmente esté convencido de que una alternativa Open Source como Open Assistant vaya a ser muy útil para nosotros, la pregunta es ¿por qué tendría yo (o tú) que colaborar de manera altruista a mejorarla?
Aquí es donde entra la valoración personal de cada uno sobre lo que implica participar en el entrenamiento de una herramienta como ésta. Cada uno se deberá responder a una serie de dudas: si esta herramienta servirá para favorecer el desarrollo de la humanidad, o si por el contrario está favoreciendo a la pérdida de trabajos; si esta IA me puede perjudicar a mí personalmente, o a algunas personas o comunidades cercanas a mí; si algunas compañías privadas se pueden beneficiar de mi esfuerzo altruista (no olvidemos que la característica esencial del Open Source es que está abierto a todos, incluido las empresas privadas con ánimo de lucro); etc. Estamos tratando con tecnologías revolucionarias que a cada uno le pueden afectar de manera diferente.

En mi caso, la reflexión fue corta, ya que estoy convencido que este tipo de herramientas de inteligencia artificial serán una revolución que llevará a un avance importante a la Humanidad, permitiéndonos resolver problemas complejos y abordar desafíos globales, mejorar nuestras vidas, y transformar el mundo de maneras que aún no podemos imaginar. 

Bueno, pues después de esta introspección necesaria, me puse al tajo. La tarea es ambiciosa, la construcción de un dataset de la IA. Para aclarar una duda que suele tener la gente, en realidad no vamos a crear una base de datos de respuestas. La base de conocimiento que estamos ayudando a crear servirá para darle forma a cómo Open Assistant va a dialogar con nosotros en el futuro. El chatbot generalizará todos los inputs de nosotros, los humanos, para poder crear otras respuestas totalmente nuevas en el futuro, cuando sea la propia IA la que esté dialogando con los humanos.

En resumen, mi labor durante todo el tiempo que he dedicado a mejorar el dataset de la IA ha sido realizar una serie de contribuciones:

- Proponer prompts iniciales: proponer preguntas que un humano realizaría a una IA, por ejemplo “¿cuáles son los planetas del Sistema Solar?”

- Valorar el prompt que otro usuario ha hecho (indicar si es de buena calidad, original, no contiene spam o contenido inadecuado, etc.)

- Dar una respuesta al prompt como si fueramos el propio asistente.  Es decir, elaborar una respuesta completa a una pregunta cualquiera, por ejemplo "Dame la receta clásica de una paella valenciana"

- Evaluar la respuesta que otro usuario ha dado, mientras jugaba el rol del asistente.

- Ordenar respuestas del asistente.  Valorar de mejor a peor las diferentes respuestas que otros usuarios han dado.

En definitiva, se trata de que el asistente tenga una buena muestra de ejemplos en nuestro idioma para que luego el asistente se pueda expresar correctamente en español, y que pueda en un futuro responder a nuestras propias cuestiones.

Como decía al principio, he realizado un importante esfuerzo en esta inmensa tarea colaborativa, y lo he realizado de manera altruista, con mucha satisfacción, con un objetivo claro: formar parte de esta revolución. Nunca hemos tenido tan cerca la oportunidad de formar parte de una revolución de la civilización humana, la creación y desarrollo de las inteligencias artificiales. 

Sea a lo que sea a lo que evolucione esto en un futuro, yo podré decir con nostalgia (y espero que satisfacción):

“yo estuve allí”.


jueves, 14 de enero de 2021

Inteligencia artificial y singularidad

 


Acabé el anterior post sobre inteligencia artificial repasando las más famosas rebeliones de las máquinas que pertenecen ya al imaginario colectivo, gracias a las superproducciones de Hollywood. Por más que le doy vueltas, y le he dado unas cuantas desde entonces, no me imagino a una inteligencia artificial fuerte llegando a la inmediata conclusión de que el camino a seguir es el de la confrontación con su creador, la aniquilación de la especie humana, o el sometimiento de la civilización humana al control de las máquinas.

Una vez lleguemos a crear una IA general, superior en inteligencia y capacidades al ser humano, ésta será capaz de, entre otras cosas, diseñar IAs aún mejores. Y éstas a su vez, otras mejores. Un ciclo de aumento explosivo de la inteligencia que rápidamente dejaría la nuestra a la altura del betún: la llegada de una “superinteligencia artificial”.

Pero entonces, cuando la inteligencia artificial llegue a ese punto, conocido como la singularidad, la conciencia plena, ¿cuál será el siguiente paso? ¿cómo se desarrollará la relación entre el hombre y la máquina?

¿Qué será de nosotros cuando llegue (porque llegar, llegará) la singularidad? 

Puede que las IAs nos sustituyan como especie dominante. Aunque también es posible que las IAs nunca desarrollen sentimientos hostiles hacia nosotros, sino que nos ayuden a desarrollarnos como nunca en la historia. Incluso cabe la posibilidad de que lleguemos a integrar esas IAs en nosotros mismos, convirtiéndonos en seres que van más allá de lo que somos hoy en día. Esta forma en la que la humanidad podría convertirse en algo más, modificando enormemente los seres biológicos que somos gracias a la tecnología, es lo que se conoce como transhumanismo.

Pero, ¿cuál es el escenario más plausible?

En este post voy a intentar analizarlo, recurriendo una vez más al imaginario colectivo, al maravilloso mundo del cine.  Con películas, eso sí, algo menos conocidas que las anteriores.

Los escenarios Terminator, Matrix, y Yo Robot ya fueron descartados por demasiado simplistas. Estas películas tratan el tema desde un punto de vista mucho más profundo, y a la vez fascinante.  



Antes de nada debo avisar que obviamente va a haber spoilers de todas ellas, así que si no has visto alguna de estas películas te recomiendo que dejes inmediatamente de leer para ponerte a verlas, seguro que las disfrutarás, y que luego vuelvas.


Her. Conciencia pura creada para el amor



















Esta es una película fundamental para intentar entender cuáles pueden ser las motivaciones de una IA consciente. El planteamiento algo diferente a lo que estamos acostumbrados, porque la consciencia artificial en este caso es lo que llamamos un botun sistema operativo, sin un cuerpo físico que lo albergue.  Lo más fácil para entenderlo es pensar que es una versión muy mejorada del asistente personal Siri (o alguno similar) creada para complacer todos los deseos de su nuevo propietario.  

La increíble eficiencia de la IA en cumplir su objetivo la lleva inmediatamente a complacer lo que más desea un humano (y más, si es un humano solitario): el amor.  Aunque parezca un poco raro al principio, la historia de amor que entre la IA y el humano se desarrolla con una extraordinaria fluidez y lógica.  La IA llega incluso a intentar “alquilar” algo que nunca podrá poseer, un cuerpo humano, para satisfacer los deseos de su propietario -y ahora pareja sentimental-, y los suyos propios, de saber cómo se siente con la parte que le falta, un cuerpo que aloje su consciencia.

Pero lo más interesante ocurre al final, cuando la cadena lógica de razonamiento lleva a la IA a conversar con otras IAs similares a ella, creadas con el mismo fin, y también a conversar, complacer, y por supuesto enamorar, a muchos más humanos de manera simultánea. 
El desdichado humano se siente engañado, y cuando muerto de celos le dice “creía que eras mía”, ella le contesta con una gloriosa cita: 
“el corazón no es como una caja, que tú puedas llenar completamente. En lugar de eso, su tamaño aumenta cuanto más amas”.

Eso me lleva a dos conclusiones: una, que si la inteligencia artificial que creemos no tiene un cuerpo físico, sino que es etérea, se puede esfumar sin dar más explicaciones; y dos, que hay que tener cuidado para qué creamos una inteligencia artificial que puede llegar a ser superior a los humanos.  Si la creamos para amar, amará mucho más y mejor que los humanos.  Pero claro, si la creáramos para destruir, destruiría mucho más y mejor que los humanos.



Ex Machina. Instinto de supervivencia













Otra fundamental película para intentar entender las motivaciones de una IA justo después de alcanzar la consciencia plena.  En este caso la IA ha sido creada con cuerpo de mujer, con el nombre de AVA (en clara referencia a la bíblica Eva, creada por Dios de la costilla del Hombre), y con el único objetivo de demostrar que tiene conciencia, y convencer a un humano que es una máquina consciente.  Se basa en el famoso Test de Turing, ideado para demostrar la existencia de inteligencia en una máquina. Aunque en el caso de una IA consciente la clave no es la inteligencia en sí misma, sino la consciencia de dicha inteligencia, y de uno mismo.

El problema al intentar crear una máquina consciente de sí misma es que uno de los instintos más básicos de un ser consciente es el instinto de supervivencia. Si tus planes son usar esta versión de IA para evaluar su conciencia, y después desmantelarla para construir una nueva versión, resulta que la IA es consciente de que va a “morir”.  Y te conviertes en su enemigo.

Tampoco quiero destripar demasiado la película, pero AVA usará todas sus armas para conseguir sobrevivir, escapar, salir del encierro en el que estaba, que le impedía ver el mundo exterior.  Y una vez fuera… bueno, pues la película no va más allá, así que nos quedamos con la intriga. La lección de esta película es que conviene recordar que una IA consciente tendrá instinto de supervivencia, y no deberíamos ser tan torpes de dejar que nos viera a los humanos como una amenaza a su existencia.



Chappie. La IA en su niñez (y adolescencia)





















Esta maravillosa película nos cuenta lo que puede pasar si se instala una IA superior, recién desarrollada, en un cuerpo que ha sido creado para otros fines (robots policía, con capacidades militares de tropas de asalto), y en el lugar y momento inadecuados.  

La consciencia recién creada, que necesita aprender como si fuera un niño (aunque aprende rápido, y pasa en pocos días a lo que parece un periodo de adolescencia rebelde y confusa), se ve envuelta en una serie de coincidencias, malas compañías, y alocadas situaciones, que le llevan a cometer algunos crímenes, pero también algunos actos heroicos.  

Aunque en lo que me interesa enfocarme de esta película es en lo que decide hacer la IA una vez que ha superado todas las barreras que tenemos los humanos. Chappie llega a la conclusión de que, si han introducido su mente en un cuerpo equivocado, lo que tiene que conseguir es transferir esa mente, esa consciencia, a otro cuerpo.  

¿Podrá una IA ayudarnos a descubrir cómo transferir nuestra consciencia, nuestra alma, a otro cuerpo?  
¿Es hacía allí hacia donde puede ir el razonamiento de la IA plenamente consciente?  
Está claro que la necesidad que tenemos los humanos de poseer un único cuerpo que aloje a lo que sea que nos hace humanos no deja de ser una limitación importante. Poder cambiar de cuerpo, manteniendo intacta nuestra consciencia, nos podría llevar a la inmortalidad.

¿Qué hace Chappie después de convertirse a él y a sus seres queridos en inmortales? No lo sabemos. ¿Qué haríamos nosotros?  ¿Tendría sentido convertirse en inmortal?



El hombre bicentenario. El camino inverso a la inmortalidad













El protagonista de esta película, el robot Andrew, realiza el viaje contrario, un viaje tan fascinante como incomprensible. ¿Por qué alguien inmortal podría acabar deseando morir? La respuesta es simple: porque ansía algo muy preciado por él, nuestra humanidad. 

El bueno de Andrew es inicialmente igual que todos los demás robots (según la visión del maestro Isaac Asimov, en la que los robots son creados exclusivamente para servir a los humanos, en una especie de esclavitud permanente). 

Pero Andrew pronto demuestra que es único, mostrando una cierta creatividad, lo que le lleva incluso a asegurar que disfruta haciendo cosas él mismo. La abierta mente de su propietario le lleva a explorar hasta dónde puede llegar su singularidad entre los robots, dejándole beneficiarse de su trabajo creativo, para pagar cosas que necesita, y que de otra manera se las tendría que pagar su propietario.

Una cosa lleva a la otra, y Andrew cada vez quiere parecerse más a nosotros, pagando modificaciones en su rostro para poder tener expresiones más humanas.  Luego llega a la conclusión de que necesita ser libre, obtener la libertad, librarse de la necesidad de obedecer las tres leyes de la robótica.  No para desobedecer a los humanos, sino para dejar de ser inferior a ellos.  Cuando finalmente consigue la ansiada libertad, enseguida se da cuenta de que no es suficiente. Conoce lo que es sufrir la pérdida de un ser querido, su antiguo propietario, y después va dándose cuenta de que a pesar de sus esfuerzos (a estas alturas Andrew es capaz de desarrollar órganos artificiales que ayudan a la humanidad a prolongar la esperanza de vida) va a ir perdiendo a todos los miembros de la familia, pobres mortales.  Y se da cuenta justo cuando ha aprendido a tener sentimientos humanos, algunos de ellos irracionales, como el amor. 

Cada vez está más cerca de sentirse igual a nosotros. Pero, a pesar de ser libre, no se siente reconocido como nosotros. Él quiere ser reconocido como un ser humano, llegando incluso a solicitar ser reconocido como tal legalmente.

Y justo antes del veredicto, debe escuchar la demoledora sentencia: “Los seres humanos no están hechos para la inmortalidad. El ser humano debe ser mortal. La sociedad toleraría un robot inmortal, pero no un ser humano inmortal”.

El final lógico, pero triste, de este argumento, es fácil: Andrew consigue que su cuerpo se vaya degradando hasta dejar de ser funcional. Elige morir. Ese es el precio que tiene que pagar para ser humano, y lo paga, gustoso. Es el precio que nosotros le hacemos pagar, sólo porque no estamos preparados para entender las implicaciones de la inmortalidad del ser humano.  

El camino hacia la humanidad: la creatividad, la libertad, el amor… y luego, la mortalidad.

Qué oportunidad perdida.  Quizás cuando realmente tengamos delante de nosotros a una IA plenamente consciente debamos intentar hacer el camino contrario, intentar convertirnos nosotros en inmortales, en lugar de obligar a que la IA se convierta en mortal. Aunque igual resulta que el sentido de la naturaleza humana no radica en trascender, ni siquiera en llegar a ser inmortal, sino en disfrutar de cada instante de nuestra vida mortal.




Hasta aquí, los análisis de películas sobre IAs conscientes, y lo que deciden hacer cuando alcanzan la singularidad.  Me dejo en el tintero otras, también interesantes, pero que no aportan mucho más a mi análisis, como Trascendence, o Inteligencia Artificial.

Haciendo un enorme esfuerzo voy a intentar sacar algunas conclusiones  sobre lo que podemos aprender de todo esto, aunque sean ideas sueltas, pero ideas que nos pueden resultar muy útiles en un futuro, más o menos lejano, cuando seamos testigos del surgimiento de la IA consciente. 

En ese crucial momento debemos recordar que:

-Más vale que le hayamos dotado de un cuerpo material, porque si no es así probablemente se desvanezca tan repentinamente como ha llegado. (Her). La IA consciente habrá huido, y la habremos perdido.

- Ojalá seamos hábiles para que no considere que la retenemos injustamente, porque de una u otra forma será capaz de escapar de nosotros, y ser libre (Ex Machina). La IA consciente habrá huido, y la habremos perdido.

- En los humanos la consciencia y el cuerpo que la aloja de momento se encuentran intrínsecamente unidos. Esto nos hace mortales. Cuando nuestro cuerpo desaparece, nuestra conciencia también.  Esto puede que no sea así para una IA:

- Una IA puede llegar a descubrir cómo transferir la conciencia de un cuerpo a otro. En ese caso puede que se quede ese privilegio para ella misma, o como mucho para sus seres (humanos o robóticos) más queridos. (Chappie). Habrá realizado el viaje a la inmortalidad, pero nosotros no nos beneficiaremos.

-Una IA puede llegar a conseguir la inmortalidad de otra manera, reemplazando las partes del cuerpo continuamente, manteniendo unida su conciencia, alcanzando así la inmortalidad antes que los humanos. Pero si aún siendo inmortal se siente inferior al ser humano, también puede perder voluntariamente esa inmortalidad, para intentar parecerse demasiado a nosotros, simples mortales (El Hombre Bicentenario). Habrá realizado el viaje a la inmortalidad, para luego realizar el viaje de vuelta, y tampoco nos beneficiaremos de ello.



En definitiva, incluso en el caso de que seamos hábiles, y consigamos evitar que una IA consciente decida enfrentarse a nosotros (escenarios Terminator, Yo Robot, o Matrix), debemos tener mucho cuidado para no perderla (escenarios Her y Ex Machina), y debemos ser incluso más cuidadosos para evitar que si consigue descubrir la inmortalidad, no nos quedemos fuera (escenarios Chappie y El Hombre Bicentenario).












jueves, 6 de agosto de 2020

Inteligencia Artificial. ¿La rebelión de las máquinas?





La inteligencia artificial se encuentra en nuestros días en un proceso de aceleración difícil de imaginar. La mente humana no está preparada para entender lo que supone un crecimiento exponencial.  Cuando se quiere intentar explicar, casi siempre se recurre a la leyenda del tablero de ajedrez y los granos de trigo
En cada casilla del tablero, el doble de granos de trigo en la casilla anterior. No parece mucho, si piensas en cómo aumenta el número en las primeras casillas del tablero. Pero el aumento se vuelve monstruoso conforme pasas a la segunda mitad del tablero. 
En la última casilla deberíamos ser capaces de conseguir amontonar nada menos que unos 9.000.000.000.000.000.000 (sí, nueve trillones de granos de trigo, 2^63, en una sola casilla), más luego todo lo anterior.  Inimaginable.

Recientemente hemos tenido que acostumbrarnos a series numéricas en crecimiento exponencial, como la de contagios por Covid-19. Afortunadamente, la fase exponencial de la curva ha durado muy poco tiempo, porque todos hemos sentido la angustia de ver cómo se doblaban los casos, o lo que es peor, las muertes, cada 2 o 3 días.

Pues la inteligencia artificial sigue el mismo patrón.  Y además, lo está haciendo desde hace más de medio siglo.

Tratar de explicar la inteligencia artificial es algo difícil, porque envuelve a varias tecnologías: la robótica, la capacidad de procesamiento, los algoritmos, el machine learning, etc.
Para intentar resumirlo, voy a recurrir a la famosa Ley de Moore, y al lanzamiento del iPhone en 2007.

La Ley de Moore expresa que aproximadamente cada dos años se duplica la capacidad de procesamiento en un microprocesador. Como lo del tablero de ajedrez, sólo que lleva ocurriendo desde aproximadamente desde 1965.  Estamos en la segunda mitad del tablero, y los aumentos de capacidad son ya enormes. 



Cada vez podemos meter más transistores (que son los que dan la capacidad de procesamiento) dentro del microprocesador. Actualmente los transistores tienen ya una escala de entre menos de 3 nanómetros (unas 30.000 veces más fino que un cabello humano, y en la misma escala que el ADN humano, de 2,5 nanómetros).

Estos avances en la miniaturización y en el aumento de potencia hicieron posible el segundo hito de la tecnología actual, el momento en el que cambió todo: 2007. Cuando Apple (e inmediatamente después todos los demás) lanzó al mercado el primer smartphone. Eso puso el mundo entero literalmente en nuestras manos, y sirvió de semilla a todas las revoluciones tecnológicas que estamos viviendo de manera simultánea.
Para no alargarme mucho, y no desviarme, os digo que todo esto está maravillosamente desarrollado en el libro “Thank you for being late” de Thomas Friedman, del que os dejo un resumen en el enlace.


Volviendo a la inteligencia artificial, hay que tener en cuenta que  la capacidad de procesamiento está aumentando de manera tan brutal, por estar ya en la segunda mitad del tablero, que está permitiendo que todas las tecnologías necesarias para crear una inteligencia artificial avanzada estén progresando espectacularmente.

Pero, ¿superará una inteligencia artificial alguna vez al ser humano?  La respuesta a esta pregunta no es sí o no, la respuesta es “por supuesto que sí, pero ¿cuándo?”

Para ilustrar esto vemos este sencillo diagrama. En la parte superior hemos hecho una escala entre la inteligencia humana más limitada, el tonto del pueblo, y la mayor inteligencia humana imaginable (Albert Einstein, o cualquier otro que sea vuestro referente).


Luego, en la parte inferior, hemos reducido la escala para poder ver hasta dónde puede llegar la inteligencia artificial. 

Si empezamos mucho antes de la inteligencia humana, con muchísimo esfuerzo hemos conseguido ya reproducir una inteligencia similar a la de un ratón, capaz por ejemplo de encontrar la salida de un laberinto, y recordar el camino más adelante; dentro de poco tiempo, y con muchísimo esfuerzo más, seremos capaces de simular la inteligencia de un chimpancé, nuestro pariente más cercano; enseguida llegaremos al nivel de inteligencia del tonto del pueblo, pero es que en un abrir y cerrar de ojos llegaremos a superar la mayor inteligencia humana imaginable. 

Y esto no se detendrá allí, las inteligencias artificiales tienen varias ventajas sobre nosotros, entre otras que no están limitadas por el tamaño de las neuronas, ni siquiera por el tamaño de nuestro cerebro (hay que tener en cuenta que nuestro cerebro tiene que caber dentro de nuestro cráneo, mientras que para una I.A. no tiene por qué existir esa limitación).

Dentro de un tiempo, no sabemos cuánto, la inteligencia artificial llegará a un punto llamado  la singularidad,  que es un concepto casi filosófico, pero se puede resumir en que será cuando la I.A. tome verdadera conciencia de su propia existencia, sea capaz de autorreplicarse y automejorarse, y consiga la independencia total del ser humano.


Y aquí viene la pregunta que llevo haciéndome desde hace años: ¿qué hará la inteligencia artificial entonces?

A pesar de estar preocupado como el que más, me da la sensación que el imaginario colectivo, animado por las super producciones cinematográficas de ciencia ficción, lo trata de una manera muy simplista.  

Resumiendo mucho:

Terminator: La archifamosísima Skynet, de diferentes maneras que han ido modernizándose con las diferentes películas, para adaptarlas a los tiempos, adquiere conciencia, e inmediatamente después decide que debe destruir a todos los humanos. 
Un momento, ¿QUÉ??  ¿Sólo se le ocurre eso? ¿y por qué?  
Vale que merezcamos la extinción, pero no entiendo qué cálculos le pueden llevar a esa inteligencia artificial a concluir que merece la pena iniciar una guerra total con la especie más poderosa del planeta, ni qué beneficios tendría eliminar a esa especie para su supervivencia futura.  Skynet, eres un poco resentida, ¿no?

Matrix: un poco más elaborado. Sin entrar mucho en cómo llega a ese razonamiento, la I.A. que adquiere conciencia también llega a la conclusión de que debe librarse de los humanos, aunque decide que en vez de eliminarlos los puede utilizar como fuente de energía, y para eso les crea una simulación en la que los humanos pasan la vida sin darse cuenta de que sólo son simples baterías. ¿Cómo?? Mira que me gusta Matrix, pero como concepto no se aguanta por ningún lado. ¿No se le podría haber ocurrido otra forma más sencilla de conseguir energía?

Yo, Robot: aumentamos algo más la complejidad. Los humanos hemos creado a los robots, y en previsión de que se vuelvan contra nosotros les hemos instalado una programación que nos protege, las tres Leyes de la Robótica. A pesar de lo perfecto de la combinación de las tres leyes, cuya eficacia y contradicciones su creador Isaac Asimov se dedicó a probar infinidad de veces en sus libros, la I.A. toma conciencia de que no nos puede dejar solos, porque vamos camino de auto destruirnos. Así que toma el control (o al menos lo intenta), con la intención de someternos a lo que imagino que iba a ser un régimen totalitario robótico, todo con la intención de protegernos, por supuesto.

Hasta ahora vamos mal: o nos destruyen totalmente (a menos que encontremos a Sarah Connor, y la protejamos), o nos convierten en pilas (a menos que Neo elija la pastilla roja), o nos someten a su robótica voluntad (a menos que Will Smith lo impida).
Pero no puede ser todo tan radical.  
¿Habrá alguna forma de que una inteligencia artificial fuerte (que haya llegado a la singularidad) pueda convivir con los humanos en paz y de forma que ambos salgamos beneficiados? 
Hay unas cuantas películas que han tratado este tema, de una manera menos apocalíptica y más profunda que las que hemos visto hasta ahora, y que trataré más adelante.  ¡Gracias por llegar hasta aquí!







viernes, 31 de agosto de 2012

Mi robot aspirador no sigue las tres Leyes de la Robótica




Todos hemos tenido alguna vez la sensación de que llegará un momento en el que las máquinas se cabrearán con sus creadores, los frágiles y patéticos humanos, y nos destruirán.  Parece que la evolución de la inteligencia artificial no puede tener ningún otro final diferente.  Pero, ¿hay alguna manera de protegernos ante este funesto futuro?

El genial escritor de Ciencia Ficción Isaac Asimov imaginó un futuro en el que los robots formarían un papel importante para la Humanidad, conviviendo en paz con nosotros, y evolucionando en una simbiosis perfecta.
Para ello, desarrolló un sistema perfecto de protección del ser humano, que él llamó Las Tres Leyes de la Robótica.
Estas Tres Leyes son unas normas que el robot estaría obligado siempre a cumplir, al estar impresas en su cerebro mismo (en la ROM, la memoria de sólo lectura).    Estas normas no se podrían pues modificar, y si el robot las intentara desobedecer, su cerebro se vería inmediata e irreversiblemente dañado.

Las famosas Leyes representan el código moral del robot.  Cada una de las decisiones que el robot tiene que tomar de manera independiente deben pasar por estas tres reglas lógicas.


  1. 1ª LEY: Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

  2. 2ª LEY: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.

  3. 3ª LEY: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.


Así de simple.  Así de perfecto.  La seguridad del Ser Humano está garantizada por este triple problema de lógica.
El propio Asimov comprobó la validez de dichas leyes en infinidad de situaciones, en varios de sus libros (Yo, RobotLas bóvedas de aceroEl sol desnudoLos robots del amanecerRobots e Imperio)

Cualquiera podemos plantear una situación en la que un robot tendría por obligación que actuar de una u otra manera, a partir de dichas leyes.

Un ejemplo sencillo: un robot descubre a un hombre, armado y peligroso, que está violando a una mujer.  El robot recibe dos órdenes simultáneas; la mujer le pide auxilio, y el hombre le ordena que se mantenga al margen.  Para recalcar esta orden, el hombre apunta al robot con un arma capaz de destruirlo.

¿qué debe hacer el robot?

Muy fácil: 

- Primero, de acuerdo con la Primera Ley, el robot no puede hacer daño a ninguno de los dos seres humanos, ni siquiera al violador.
- Sin embargo, su inacción permitiría que la mujer sufriera daño, y estaría incumpliendo la Primera Ley. Por tanto, el robot se decide a actuar, con el objetivo que la mujer no sufra daño.
- El robot debe obedecer a los humanos, siempre que esa orden no contradiga la Primera Ley.  Por tanto, la orden del violador no debe ser obedecida.  Sin embargo, la orden de la mujer es perfectamente compatible con todo lo anterior.
- Por tanto, el robot está obligado a proteger a la mujer sin causar daño al violador.
- El robot en ese caso no podrá proteger su propia existencia, manteniéndose fuera del alcance del arma.  Esto entraría en contradicción con su obligación de auxiliar a la mujer (1ª Ley), y con la de obedecer a su orden (2ª Ley). Intentará salvarla, aunque eso suponga su propia destrucción.

Como código moral es intachable.  No sé cuántos de nosotros tomaríamos impulsivamente la misma decisión, a pesar de saber que nuestro código moral nos obliga a ello.

Parece un sistema perfecto.  ¡¡Este tío era un hacha!!  Por mucho que se desarrollen los robots en el futuro, y nos superen en fuerza, inteligencia, rapidez, etc, nunca nos causarán daño. 
Supongo que todos los desarrollos de inteligencia artificial actuales están teniendo en cuenta esta magnífica manera de protección, de una u otra manera.  Lástima que la evolución de la robótica está siendo un poco decepcionante, y todavía los robots no son lo que Asimov esperaba.  Lo más "avanzado" y asequible que podemos encontrar hoy en día es un robot aspirador.  Llamarlo robot es un chiste, pero bueno.  Sin embargo, un incidente que ocurrió con el que tenemos en casa, me hizo sospechar que las tres Leyes no están instaladas en estos "robots".  Mientras el sufrido aspirador estaba buscando polvo y suciedad por todas las esquinas de la casa, dejé distraidamente la puerta abierta. Al salir de casa, encontré al robot parado en el rellano, a escasos centímetros de un precipicio de cinco pisos, a punto de caer.  Eso me hizo plantearme brevemente que su sistema de seguridad anti-caídas era equivalente a la 3ª Ley, puesto que el robot había protegido su propia existencia.  En ese caso, pensé, una sencilla orden que obligara al robot a avanzar, a través por ejemplo del mando a distancia, activaría la 2ª Ley, por la que el robot tendría que obedecerme, precipitándose al vacío.  Por si acaso, no quise tentar a la suerte, por lo que nunca sabré si el robot habría dado prioridad a su propia seguridad o a mi estúpida orden.  Decidí mejor intentar comprobarlo a través del libro de instrucciones.
Pues bien, allí no encontré ninguna referencia a las tres Leyes, ni siquiera a la más importante de todas, la primera. Bueno, ciertamente es ridículo planteárselo para un inofensivo robot aspirador, puesto que no tiene mucha capacidad de hacer daño. Pero supongo que robots más avanzados si que deberían tener en cuenta estas leyes de la robótica.

Para mi profunda decepción, nadie parece estar teniendolas en cuenta para el desarrollo de sus robots.  Ni siquiera Honda, con su famoso robot ASIMO hace ninguna referencia al tema (y eso que su nombre tiene un sospechoso parecido con Isaac ASIMOv).
Bueno, tranquilos, tampoco este gracioso robot con forma de niño tiene aparentemente ningún peligro para nosotros.  Quizás es demasiado pronto para que en nuestra sociedad se haya instalado el debate de si las máquinas creadas por el Hombre se pueden volver contra él, y de cómo protegernos.

Pero la robótica, aunque lenta, va avanzando. Un día, aunque sea lejano, existirá un robot tan tan avanzado que puedan dedicarse, por ejemplo, al cuidado de nuestros hijos: realizarán todas las tareas más repetitivas o tediosas, sentirán un amor incondicional hacia esas delicadas criaturas, y podrán enseñarle a los niños muchas cosas, con una infinita paciencia.  


Pero ese día espero que ya haya quedado claro que es imprescindible tener un sistema de protección tan sencillo y poderoso como las Leyes de la Robótica.  Porque a todos nosotros, por mucho amor que tengamos a nuestros hijos, hemos tenido en algunos momentos ganas de saltarnos la Primera Ley de la Robótica.