La Singularidad Desnuda

Un universo impredecible de pensamientos y cavilaciones sobre ciencia, tecnología y otros conundros

De la IA simiente a la singularidad tecnológica

Posted by Carlos en abril 6, 2007

La idea de la singularidad tecnológica -esto es, de la creación por medio de la tecnología de inteligencia superior a la humana- se asienta básicamente sobre dos pilares: la ley de los retornos acelerados, y la IA simiente. La primera es una generalización de la Ley de Moore (y de hecho muchas veces se usa informalmente el término Ley de Moore para referirse a ella). Como es bien sabido, la Ley de Moore establece un patrón de crecimiento exponencial del número de transistores por circuito integrado a coste mínimo: cada dos años, este número se dobla. Dado que dicho número de transistores se correlaciona con el rendimiento que es capaz de alcanzar el computador, pueden formularse leyes similares en relación al crecimiento de la capacidad de cómputo a precio fijo. De hecho, Ray Kurzweil ha extrapolado este patrón hacia atrás, incluyendo sistemas basados en válvulas de vacío, relés, o componentes electromecánicos, llegando a la conclusión de que (1) el patrón de crecimiento acelerado no es particular de la tecnología actual, y (2) el tiempo necesario para duplicar la capacidad de cómputo se va reduciendo cada vez más.

Moore’s Law (credit: Ray Kurzweil)
Credit: Ray Kurzweil

De acuerdo con esta tendencia, se argumenta que se alcanzará la capacidad de cómputo equivalente a la mente humana (1011 neuronas x 103 sinapsis/neurona x 200 activaciones/sinapsis.segundo = 2·1016 operaciones/segundo según las estimaciones de Ray Kurzweil) a un coste irrisorio en una o dos décadas. Lo importante no es tanto el momento en que se logre, sino lo que ocurrirá entonces, o más precisamente en el momento que se tenga una IA simiente. La IA simiente es en esencia una reformulación de la idea de máquina ultrainteligente que I.J. Good definió en 1965:

Definamos una máquina ultrainteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano, independientemente de la inteligencia de éste. Puesto que el diseño de máquinas es una de esas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; sin duda, habría una “explosión de inteligencia” y la inteligencia humana quedará rezagada…

La clave está en el hecho de que la capacidad de esta IA simiente está ligada a la tecnología que la produjo, y que por lo tanto una mejora en la misma resulta en un aumento de su capacidad, que a su vez abre la puerta a nuevas mejoras. Esta posibilidad de auto-mejora recursiva genera un bucle de realimentación positivo que en última instancia da lugar al surgimiento de la singularidad tecnológica.

¿Cuánto tiempo puede pasar desde que se tenga la IA simiente a la singularidad tecnológica? Dependerá del ritmo de crecimiento de la capacidad de cómputo. La Ley de Moore establece un plazo de dos años para doblar el número de transistores, pero Kurzweil afirma que la capacidad de cómputo se dobla cada año. Tomemos el punto medio: 18 meses. Ahora, lo importante está en el hecho de que estos 18 meses no representan un periodo de tiempo absoluto medido por cierto reloj en la Tierra, sino que corresponden a 18 meses de trabajo humano. Si el trabajo lo realiza una IA con capacidad equivalente a la humana, esos 18 meses corresponden al tiempo subjetivo que dicha IA experimenta. Si t representa el tiempo subjetivo, entonces el patron de crecimiento de la potencia de cómputo es p(t) = p(0)eat, donde podemos tomar p(0)=1 por convención. El tiempo subjetivo experimentado por la IA simiente dependerá directamente de la potencia de cómputo de la máquina sobre la que se ejecute. Llegamos entonces a un sistema de ecuaciones diferenciales como sigue:

  1. \frac{dp}{d\tau}= \alpha e^{\alpha \tau}
  2. \frac{dt}{d\tau}= \frac{1}{p}

Si integramos numéricamente estas ecuaciones, se observa que el tiempo subjetivo experimentado por la IA empieza a acelerarse vertiginosamente. A los 13 meses (tiempo humano) de su creación, su percepción subjetiva va el doble de rápido. A los 19.5 meses, va cuatro veces más rápido. Antes de los 23 meses ya va ocho veces más rápido, y un mes y medio después dieciséis veces más rápido. Antes de llegar a los 26 meses se produce la divergencia total, y la capacidad de cómputo aumenta sin límite. Se ha llegado a la singularidad. Obviamente, en la práctica no se podría llegar al infinito, ya que la capacidad de cómputo requiere energía, y ésta es finita (y por otra parte, no está claro que el tiempo subjetivo pueda reducirse sin fin por debajo de la escala de Planck). En cualquier caso, la IA resultante trascendería toda comprensión humana, y cambiaría el devenir de la Humanidad. Parafraseando a Churchill, podría ser el principio del fin (si la IA es hostil) o el fin del principio (si la IA es amigable).

Por supuesto, todo lo anterior está sujeto a varias suposiciones claves. La primera, que es posible producir una IA simiente. No está claro que pueda ser así, al menos en el marco de un sistema computacional tipo Turing. Suponiendo que esto sí es posible, hay que plantearse si el patrón de crecimiento acelerado seguiría siendo válido a partir de dicho punto. Todo indica que podremos ver si esto es cierto o no antes de veinte años. Sólo hay que esperar y llegado el caso, confiar en la benevolencia de la IA que trascienda.

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Anuncios

13 comentarios to “De la IA simiente a la singularidad tecnológica”

  1. Felipe said

    Estas cuestiones son realmente fascinantes. Sin embargo me parece arriesgado asimilar la inteligencia a la potencia computacional. Con esto no estoy negando la posibilidad de la inteligencia artificial, simplemente digo que la cosa es más compleja. Para mí lo esencial de la inteligencia es la capacidad para identificar y resolver problemas que no se habían presentado antes. La memoria y la capacidad de cómputo son importantes pues permitirán hacer esta tarea con mayor eficiencia, pero lo inteligente no es eso, sino el algoritmo. No creo que del aumento de la potencia de cálculo se derive una inteligencia. Aún así, estoy de acuerdo en que las consecuencias serían fabulosas, pero no nos trascenderían en el sentido en que parece indicarse. Simplemente podremos conocer el resultado de cálculos que ahora ignoramos y que no podríamos conocer de no ser por esas máquinas. Pero no veo yo por qué éstos resultados deban ser menos inteligibles.

  2. Carlos said

    Hola Felipe. Efectivamente, concuerdo contigo en que potencia computacional no es lo mismo que inteligencia, y eso es lo que me hace ser algo escéptico con el argumento de Kurzweil que intenta estimar la potencia de cómputo del cerebro. Quizás alcanzar esa potencia de cómputo deba ser tomado como una condición necesaria y no como condición suficiente. Aún así, está por ver que incluso siendo capaces de alcanzar esa potencia de cómputo seamos capaces de crear una IA simiente.

    Ahora bien, asumiendo que se consiguiera en algún momento del futuro (como propugnan los defensores de la IA fuerte), y que dicha IA fuese un programa funcionando en un cierto dispositivo de cómputo sujeto a algo similar a la Ley de Moore, entonces al mejorarse dicho dispositivo la IA “pensaría” más rápido, y dado que ella podría producir nuevas mejoras tecnológicas (incluso quizás auto-optimizar partes de su programación), el proceso se realimentaría sin más límites que los físicos.

    En un escenario como éste, es muy interesante la noción de inteligibilidad que comentas. Creo que aunque posiblemente haciendo abstracción de nuestras limitaciones físicas ningún conocimiento alcanzable por una IA de ese tipo estaría vedado en principio a un humano, la propia escala de algunos de estos resultados los harían inabarcables e inconcebibles para nosotros. En fin, es algo apasionante para pensar, y que de ser cierto, lo tenemos casi a la vuelta de la esquina.

  3. kikito said

    Yo no sería tan antropocentrista como Churchill.

    Llegada al punto que mencionas, la IA probablemente se las habrá apañado para ser autosuficiente y no requerir de intervención humana. En tal caso, ni nos ayudará ni nos perjudicará; simplemente “vivirá” su “vida”, según sus propios objetivos, que seguramente sean completamente incomprensibles y ajenos a nosotros.

    … “inescrutables” es la palabra que me viene a la mente 🙂

    Aprovecho que recientemente ha sido el decimoquinto aniversario de la muerte de Isaac Asimov para recomendar la lectura del relato corto “La Última Pregunta”, de dicho autor.

    Un saludo, muy buen post!

  4. ale said

    Muy interesante, sin embargo también hay pensar que pensar que el poder de calculo de los últimos 20 años se incremento muchisimo. Ahora … fue tan pronunciado el crecimiento de los resultados obtenidos mediante IA? es debatible, lo sé, pero personalmente creo que se avanzo mucho en áreas muy especificas y aun no existen solidos resultados que igualen la capacidad del ser humano.
    Una vez un amigo me contó algo que leyó por algún lado, quizás alguien ya lo conozca y me pueda decir la fuente. En breve decía que el hombre era incapaz de crear algo parecido a su mente porque para eso debía ser capaz de entender su propia mente primero, e inmediatamente despues de hacerlo se volvia un ser superior a lo que era y a lo que creaba, y asi en forma sucesiva …

  5. Carlos said

    ¡Gracias Kikito! Creo que es inevitable ser un poco antropocentrista, ya que si esa IA es construida por humanos, es posible (incluso deseable) que sus motivaciones -insertadas por sus creadores- sean en algún sentido “amigables” hacia nosotros. De lo contrario, incluso si la IA no es hostil sino simplemente indiferente, la situación podría ser muy complicada (la IA podría persiguir sus objetivos sin importarle si en el camino se extermina a toda la Humanidad).

    “La Última Pregunta” es un gran relato (en la que la IA es precisamente amigable 😉 ), muy recomendable ciertamente de leer. Si a alguien le interesa, está disponible por ejemplo en:

    http://www.ubik.com.ar/303/pregunta.htm

    Saludos.

  6. Carlos said

    Hola Ale. Creo que lo que comentas en relación al modelado de la mente entronca con los teoremas de incompletitud de Gödel. Esa es precisamente una de las objeciones que se pueden hacer a la IA simiente, aunque jugando a abogado del diablo, es posible que la IA simiente no necesitara tener capacidad humana en todos los aspectos. En cualquier caso es cierto que no es algo alcanzable a corto plazo, pero las cosas podrían cambiar rápidamente (por ejemplo, cada vez hay más gente trabajando en ello, y más recursos materiales y computacionales).

  7. iabal said

    Sinceramente dudo mucho que el modelo computacional actual (Máquina de Turing) sea capaz de abordar la simulación del comportamiento de nuestro cerebro.

    Como ya dijeron por ahí arriba existe un problema fundamental, y es que nosotros no conocemos como funciona nuestro cerebro, conocemos muy poco acerca de él por lo cual todavía nos queda mucho para poder simularlo…

    Por otra parte, pienso que ese tampoco tiene porqué ser el camino, hemos superado a la naturaleza en muchas ocasiones y esta podría ser otra, es decir, podríamos crear un modelo de razonamiento mucho más potente. Y por potente no quiero decir rápido, la capacidad computacional no la veo para nada ligada a la IA, es que sinceramente creo que no tiene nada que ver una cosa con la otra. Nuestro cerebro es tremendamente lento, lo único rápido en nuestro sistema neuronal son las reacciones ante el dolor etc, y son precisamente las reacciones más irracionales. No es la capacidad de cómputo lo que nos hace inteligentes. Es más, ¿qué es una operación en nuestro cerebro?

    Otro apunte, ¿realmente será un algoritmo nuestra forma de razonar?

  8. Carlos said

    Hola Iabal. El que nuestra mente sea algorítmica es una cuestión muy debatida. Es posible que como argumenta Roger Penrose haya factores no-algorítmicos en el nivel más básico de nuestro razonamiento. Si eso es así, nos encontramos con dos cuestiones interesantes: en primer lugar, si se aproximan (aunque sea burdamente) esos factores no-algorítmicos de algún modo algorítmico, ¿surgirá una mente quasi-humana, o el resultado tendrá algún handicap esencial? En segundo lugar, ¿podría construirse algún dispositivo físico que explotara esos principios no-algorítmicos para realizar una simulación del cerebro? Una simulación de ese tipo podría ser el modo de esquivar el tener que confeccionar un modelo abstracto del cerebro, aunque elevaría en bastantes niveles de magnitud los requisitos de capacidad de cómputo:

    http://en.wikipedia.org/wiki/Strong_AI#Simulated_human_brain_model

    Como dice el aforismo, vivimos tiempos interesantes…

  9. CarlosD said

    Muy buen post. Creo que hoy por hoy no podemos más que especular sobre dónde se encontrará el estado del arte en computación masiva dentro de unos años..
    Personalmente veo dos dificultades relacionadas con la meta de alcanzar la IA simiente:

    * Creo que el término “capacidad de cómputo de la mente humana” muchas veces se malinterpreta. Realmente la mente no calcula nada, o dicho de otra forma, no existen números fluyendo entre neuronas. Lo que sí hace muy bien es predecir situaciones y utilizar el conocimiento previamente adquirido para solucionar problemas similares. El hablar de capacidad de cómputo del cerebro es como hablar de la capacidad de cómputo de una antena para calcular el campo electromagnético dispersado. Evidentemente la antena no calcula nada, sino que somos nosotros los que podemos hacerlo por simulación.

    * La ley de Moore puede tener problemas cuando se llega al límite tecnológico de integración de transistores. No se puede seguir aumentando la frecuencia de reloj de los chips porque ya hay que tener en cuenta los fenómenos de propagación (es decir, la señal existente en un extremo de la línea es distinta a la del otro extremo). Por eso se tiende ahora mismo a la paralelización, lo cual puede afectar al comportamiento de esta ley.

    Otro apunte: Personalmente creo que nuestra forma de razonar sí que está basada en un conjunto de algoritmos.

    Un saludo y enhorabuena por la gran calidad del blog.

  10. Carlos said

    ¡Gracias Carlos! Estoy totalmente de acuerdo en que muchas veces se dan saltos al vacío cuando se habla de la capacidad de cómputo de la mente humana. La idea de Kurzweil y otros es que cada sinapsis es una puerta lógica, y de ahí sale su estimación. No es irrazonable, pero es cierto que desconocemos mucho acerca de los mecanismos de funcionamiento del cerebro, por lo que pueden muy bien existir otros efectos que hagan esta estimación irrisora. Ahora bien, que hay un proceso de computo es innegable desde el momento en que se plantea que el razonamiento es algorítmico. Fíjate que la analogía de los números fluyendo es igualmente aplicable a un PC, en el que podría decirse que lo que fluye son sólo electrones. 😉

    Sobre la Ley de Moore, efectivamente, la miniaturización no puede seguir indefinidamente, por lo que si no se produce en algún momento un salto tecnológico, podemos tener un “aterrizaje forzoso”. El paralelismo puede ayudar a que no sea un frenazo en seco, pero como indicas, no va a permitir el mismo tipo de crecimiento exponencial. Veremos qué pasa. Saludos.

  11. […] De la IA simiente a la singularidad tecnológica […]

  12. […] in Singularidad, IA. trackback Un post que leí en el estupendo blog La Singularidad Desnuda, hablaba de la IA Simiente, y calculaba que, una vez se cree esta Inteligencia Artificial, se tardarían unos 26 meses en […]

  13. […] Prestad atención especial a: Artificial General Intelligence: Now Is the Time por Ben Goertzel, que adelanta a diez años la aparición de una inteligencia artificial, y a unos meses después la Singularidad, coincidiendo con el autor de La Singularidad Desnuda. […]

Sorry, the comment form is closed at this time.

 
A %d blogueros les gusta esto: