La Singularidad Desnuda

Un universo impredecible de pensamientos y cavilaciones sobre ciencia, tecnología y otros conundros

Archivos de la categoría ‘Computadores’

Ingeniería Informática: “Yes, We Can”

Publicado por Carlos en noviembre 19, 2008

Preparando las pancartas

Cabeza de la Manifestación

Apadrina un Informático

Camiseta USB

Picateclas, no

Marea InformáticaObama también programa

Publicado en Computadores, Informática, Política, Sociedad, Universidad | Etiquetado: , , , | Comentarios desactivados

Debate sobre Ingeniería Informática en Punto Radio

Publicado por Carlos en noviembre 18, 2008

En la edición de hoy de “Protagonistas” de Luis del Olmo en Punto Radio ha habido un debate sobre la situación actual de la Ingeniería Informática, en el que han participado entre otros Jacinto Canales (del Colegio Profesional de Ingenieros Informáticos de Castilla y León), Luis Salvador (senador del PSOE) y Ferrán Amago (Decano del Colegio Oficial de Ingenieros Técnicos de Telecomunicación). El audio del programa (unos 16 minutos) está disponible aquí.

Además de un par de llamadas de madres desesperadas (y no siempre bien informadas), es interesante oír como Luis Salvador es capaz de defender en el mismo discurso lo bien que está la desregularización de la informática, que poco más o menos nos puede poner en la senda del MIT, y a la vez su compromiso de cambiar esa situación para que “en un breve periodo de tiempo” se equipare al resto de ingenierías. Nada extraño, ya que es sabido que entre la completitud y la consistencia, los políticos no suelen optar por lo segundo.

Publicado en Computadores, Informática, Política, Radio, Universidad | Etiquetado: , , | 2 Comments »

Comunicado de la CODDI en relación al futuro de la Ingeniería Informática

Publicado por Carlos en noviembre 17, 2008

La Conferencia de Decanos y Directores de Centros Universitarios de Informática (CODDI) de España ha preparado un comunicado en relación a los planes anunciados por el Ministerio de Ciencia e Innovación de tratar de manera diferenciada a la Ingeniería Informática frente al resto de ingenierías. La nota emitida hace unos días por el Colegio Profesional de Ingenieros Informáticos de Andalucía en términos bastante dramáticos causó a buen seguro una profunda preocupación (injustificada en muchos extremos) a más de uno, pero tuvo el efecto positivo de catalizar una suerte de excitación gremial, de esas que no suelen gustar en demasía a los gobernantes de turno.

No es tan fiero el león como lo pintan (en este blog hay una explicación bastante precisa del marco general de la situación), pero las dentelladas de un león manso también duelen, y si encima el domador lo azuza para que sólo te muerda a ti, la cosa te solivianta aunque tengas la piel dura. El comunicado del CODDI, que reproduzco a continuación, sale al paso de algunas exageraciones vertidas, pero mantiene la preocupación por lo que los planes actuales suponen de agravio comparativo y desvirtuación de una titulación con competencias comunes en toda España. Es largo, posiblemente con intención didáctica y de llegar a la más amplia audiencia posible, pero su lectura merece la pena.

COMUNICADO DE LA CODDI
Conferencia de Decanos y Directores de Centros Universitarios de Informática
16 de noviembre de 2008

En los últimos días se ha producido la movilización de profesionales y estudiantes para llamar la atención del Gobierno sobre la situación de la ingeniería en informática en España y reclamar medidas para su regulación como profesión y para la elaboración de los futuros planes de estudios. Esta movilización esta teniendo gran repercusión en los medios y en el público en general generando cierta alarma en algunos casos al interpretarse erróneamente la problemática subyacente. En este momento la CODDI, como representación del ámbito académico, considera necesario y oportuno hacer pública su posición al respecto de estos dos temas.

El Real Decreto 1393/2007, de 29 de octubre, por el que se establece la ordenación de las enseñanzas universitarias oficiales, implica la desaparición del actual catálogo de títulos universitarios, y da la potestad a las universidades de proponer nuevos títulos siempre que satisfagan una serie de condiciones. Esto no significa que las titulaciones de Ingeniería Informática desaparezcan; de hecho ya existen en la actualidad nuevos grados oficiales adaptados a este RD con la denominación Graduado/a en Ingeniería Informática y en estos días hay un número significativo de universidades presentando grados con la misma denominación para su verificación. El mismo caso se replica con el resto de titulaciones universitarias, que no desaparecen, se adaptan al nuevo sistema con similar o distinta denominación según el criterio de la universidad proponente. Tampoco es cierto que los actuales títulos pierdan su validez oficial ya que, y según establece el mismo RD, mantendrán todos sus efectos académicos y, en su caso, profesionales. Y finalmente, también es erróneo pensar que el nuevo sistema de titulaciones reste efectividad profesional a los nuevos títulos de Informática con respecto a los actuales, habida cuenta que la Ingeniería Informática nunca ha estado regulada. El problema de la Ingeniería Informática tiene que ver precisamente con esto, con su falta de regulación y con el trato diferenciado que se da en este RD a sus planes de estudio en comparación con las otras ingenierías para las cuales se exige un marco de referencia de obligado cumplimiento (vulgarmente conocido como “fichas”).

Desde el inicio del proceso de construcción del Espacio Europeo de Educación Superior la CODDI ha insistido ante el Gobierno en la necesidad de la regulación de la profesión de Ingeniero Informático. Como es bien sabido, la regulación del ejercicio de una profesión titulada debe inspirarse en el criterio del interés público, razón por la cual el resto de las ingenierías están reguladas, para proteger a la sociedad de la mala praxis en el uso de sus tecnologías asegurando que sus profesionales tienen la formación universitaria adecuada cuando diseñan, planifican y ejecutan un proyecto. El campo de la informática es un campo relativamente joven comparado con el resto de ingenierías y en relación a su origen de carácter científico. Sin embargo, su aplicación cada vez más extendida en todos los ámbitos y su complejidad cada vez mayor han hecho que el desarrollo de un sistema informático pase de ser una actividad cuasi científica o incluso artesanal a ser una labor de ingeniería.

La primera vez que se asoció el término “ingeniería” con la informática fue en el año 1968 durante la primera conferencia de la OTAN sobre desarrollo de software. En dicha conferencia se constató que, aún ya por entonces, la capacidad de los ordenadores y la complejidad de los problemas que se solucionaban con ellos crecía demasiado rápidamente para la forma en que se desarrollaban sus programas, resultando con los métodos que se utilizaban entonces un software no fiable, con fallos frecuentes y con enormes necesidades de mantenimiento. Todo esto hizo que naciera la disciplina de la Ingeniería del Software, que tomando como fuente los métodos de las ingenierías clásicas establecía cómo desarrollar software siguiendo los estándares de cualquier ingeniería.

Actualmente, con la capacidad de cómputo de los ordenadores existentes la complejidad de los sistemas informáticos ha crecido enormemente y su desarrollo requiere frecuentemente la participación de cientos o miles de personas. Por ejemplo, un sistema tan familiar para todo el público, y de un tamaño medio como es el sistema operativo Windows Vista, contiene 50 millones de líneas de código y han participado alrededor de 4.000 ingenieros durante los 7 años de su desarrollo. No es muy frecuente encontrar en otras ingenierías obras o procesos de diseño industrial de tamaño y complejidad similar que por otro lado tengan como resultado un producto con tanto impacto y accesibilidad en la sociedad. Además, hay que tener en cuenta que la complejidad de desarrollar un sistema informático no sólo radica en cómo realizar su software sino en cómo manejar la máquina que lo ejecuta. Muchos de los sistemas informáticos actuales no se desarrollan para ejecutarse en un único ordenador sino en una red. Por ejemplo, el también familiar Google realiza tan rápidamente sus búsquedas porque se ejecuta sobre una red de ordenadores que se estima entre unos 450.000 y un millón, distribuidos en más de 25 centros a lo largo y ancho del mundo. Tampoco es frecuente encontrar en otras ingenierías que se utilice una maquinaria tan compleja para una tarea tan aparentemente sencilla, útil y con tanto impacto en la sociedad. Por último, el despliegue del sistema informático de una empresa de servicios puede requerir la coordinación en su funcionamiento de miles de ordenadores y programas que interactúan entre si en tiempo real, y con miles de usuarios que solicitan un servicio inmediato y seguro a prueba de cualquier imprevisto. Por ejemplo, el Corte Inglés cuenta con un sistema informático centralizado con más de 86.000 aparatos electrónicos y 1.900 servidores de aplicaciones y de datos conectados a su red, el grupo suma 15.000 millones de instrucciones por segundo, que se traducen en unos 3.518 millones de transacciones anuales, y su ‘Tienda Internet’ soporta 1.417 millones de visitas al año. Es difícil encontrar en otras ingenierías ejemplos de sistemas tan críticos como éste, de tanta complejidad de organización industrial, y con un impacto similar en la vida cotidiana de la sociedad.

Las aplicaciones de la informática en la España actual se encuentran en todos los ámbitos y aspectos: telecomunicaciones, defensa, aviación civil, transporte terrestre, transporte marítimo, sistemas industriales, energía, medicina y salud, etc., todos ellos pertenecientes a profesiones reguladas cuyas tecnologías incorporan cada vez más sistemas informatizados. Sin embargo, esa parte informática de su desarrollo tecnológico, tan vital y crítica en esos campos de cuyos fallos no sólo pueden resultar pérdidas económicas sino también de vidas humanas, no esta regulada y por tanto no se asegura que el profesional responsable de su ejecución tenga la formación adecuada, que es la de Ingeniero Técnico e Ingeniero en Informática. Ejemplo de ello es que se legisla y reglamenta continuamente para que los proyectos en ciertas áreas críticas no relacionadas con la informática estén ejecutados por profesionales titulados competentes, como son la Ley 10/2005, sobre la Televisión Digital Terrestre y la Televisión por Cable, el R.D. 944/2005 sobre el Plan técnico nacional de la televisión digital terrestre, la Orden ITC/1077/2006 sobre instalaciones colectivas de recepción de televisión, etc., mientras que en otras similarmente críticas pero que están relacionadas con sistemas informáticos, como la Ley 15/1999 de protección de datos, el R.D. 1720/2007 sobre el reglamento de la anterior, la Ley 59/2003 sobre la firma electrónica, etc., no se asegura que el técnico competente en la materia tenga la formación adecuada para ejecutar los proyectos. Es por todo ello que la CODDI lleva insistiendo continuamente ante el Gobierno en la necesidad de la regulación de la profesión de Ingeniero Informático. Y es por ello que la CODDI está defendiendo la necesidad de aplicar un tratamiento homogéneo a todas las titulaciones de ingeniería para que el nuevo espacio que surja de la reforma universitaria sea coherente y de futuro.

El Ministerio de Ciencia e Innovación (MICINN) ha elaborado varios proyectos de Acuerdo de Consejo de Ministros y Orden Ministerial con objeto de establecer las condiciones a las que deberán adecuarse los títulos que habiliten para el ejercicio de las profesiones reguladas de Ingeniero Técnico e Ingeniero de acuerdo con lo establecido en el RD 1393/2007. Dentro de este conjunto de órdenes no se encuentra ninguna referida a la ingeniería ni a la ingeniería técnica en informática como consecuencia de no ser éstas profesiones reguladas y con atribuciones. La CODDI entiende que el único camino para que el MICINN pueda dar a los futuros títulos de grado y master en el área de informática el mismo tratamiento que al resto de las ingenierías y establecer las condiciones a las que deberán adecuarse los futuros títulos pasa, necesariamente, por aplicar medidas que regulen las profesiones de Ingeniería e Ingeniería Técnica en Informática. Esta regulación escapa de las competencias del MICINN y es potestad de otros ministerios, como es el Ministerio de Economía y Hacienda, el Ministerio de Industria Turismo y Comercio, y el Ministerio de la Presidencia como coordinador.

La propuesta actual del MICINN es, dentro de sus posibilidades, establecer con el apoyo del Consejo de Universidades una medida de autorregulación voluntaria para las universidades respecto de los requisitos a los que deben adecuarse los títulos de informática, remitiendo a la ANECA las condiciones que han sido elaboradas por la CODDI con el apoyo de los Colegios Profesionales para que sean utilizadas en la verificación de sus propuestas de títulos.

La CODDI agradece los esfuerzos y el trabajo que desde el MICINN se están realizando para resolver el problema, personalizando este reconocimiento en la persona del Director General de Universidades, Felipe Pétriz. Pero la CODDI considera que esta medida, sin el respaldo de una orden ministerial, es completamente ineficaz. No puede obligarse a una universidad a ajustarse a una serie de requisitos en el diseño de los nuevos títulos si el MICINN, que es competente para ello, no establece dicho carácter obligatorio. De hecho ya existen hoy en día referentes que la ANECA utiliza en la verificación de los títulos, como los libros blancos, que no son evidentemente un marco suficiente en el ámbito de las ingenierías como profesiones reguladas por lo que el MICINN ha decidido elaborar órdenes para establecer sus requisitos.

En esta situación es imposible que el proceso de elaboración de los futuros títulos de grado y Máster en Ingeniería Informática pueda desarrollarse con normalidad, eficacia y a tiempo. Esta situación resulta más grave si cabe teniendo en cuenta que son más de 90.000 los estudiantes de estas titulaciones en las universidades españolas y del orden de 100.000 los profesionales que trabajan en un sector tan clave como este para la economía española todavía sin regulación, con todos los riesgos que ello conlleva. Como una prueba más de la importancia de que el proceso de reforma de las ingenierías tenga un tratamiento homogéneo, los Portavoces de los Grupos Parlamentarios de la Comisión de Ciencia e Innovación del Senado, en la Sesión del 12 de noviembre, aprobaron por unanimidad instar al Gobierno a incorporar las titulaciones del ámbito de la Ingeniería Informática (grado y máster) en la discusión del conjunto de las ingenierías. Asimismo aprobaron instar al Gobierno a estudiar, respetando la legislación y normativa vigentes, las posibilidades de definir soluciones transitorias para que la Ingeniería Informática tenga el mismo trato que el resto de las Ingenierías hasta el desarrollo legislativo de la regulación de profesiones en el marco de trasposición de la Directiva Europea de Servicios.

En relación con la regulación de las atribuciones profesionales en el ámbito de la informática, desde la CODDI queremos volver a resaltar que la ley 12/1986, de 1 de Abril, sobre regulación de las atribuciones profesionales de los Arquitectos e Ingenieros Técnicos, dice en su preámbulo que “se toma como referencia de sus respectivas especialidades, y no obstante su eventual y necesaria reforma o modificación en virtud de las cambiantes circunstancias y exigencias de orden tecnológico, académico y de demanda social, las especialidades de ingeniería que figuran enumeradas en el decreto 148/1969”, enumeración que obviamente no incluye a Informática. Consideramos que, en relación con Informática, se dan todas las exigencias que se contemplaron en esta ley para la modificación o actualización del listado de 1969 de ingenierías reguladas: cambios tecnológicos, académicos y de demanda social, que justifican más que sobradamente la necesidad de incluir la Informática como una especialidad más dentro de las ingenierías reguladas.

Por todo lo anterior la CODDI desea reiterar su petición al Gobierno, al Ministerio de Economía y Hacienda, al Ministerio de Industria Turismo y Comercio y al Ministerio de la Presidencia, de que procedan a actualizar la ley 12/1986, de 1 de Abril, sobre regulación de las atribuciones profesionales de los Arquitectos e Ingenieros Técnicos incluyendo la especialidad de Informática y, a continuación, elabore un proyecto de órdenes con objeto de establecer las condiciones a las que deberán adecuarse los títulos que habiliten para el ejercicio de las profesiones de Ingeniero Técnico e Ingeniero en Informática. La CODDI entiende que, a la vez que respeta en todos sus términos la legislación y normativa vigentes, ésta sería la solución transitoria más adecuada hasta la transposición de la Directiva Europea a la que alude el acuerdo de los Portavoces de los Grupos Parlamentarios del Senado.

Publicado en Computadores, Informática, Universidad | Etiquetado: , , , , | 8 Comments »

Computación cuántica más allá del Arco Iris

Publicado por Carlos en octubre 14, 2008

La computación cuántica sigue siendo uno de los santos griales de la física y la informática, por más que algunas veces sus posibilidades se hayan sobredimensionado. Un computador cuántico operativo tendría grandes aplicaciones en campos particulares, como pueden ser la factorización de enteros o la simulación de estados cuánticos. Sin embargo, la construcción de un dispositivo de estas características se viene topando de bruces con limitaciones técnicas a la hora de vencer la decoherencia, y de ser escalable. Los esfuerzos por vencer estas limitaciones se vienen sucediendo, y quizás una de las líneas de ataque más prometedoras la constituye la computación cuántica unidireccional.

A diferencia de la computación cuántica “clásica” -que podemos imaginar como una extensión de los circuitos lógicos tradicionales a circuitos cuánticos que manipulan de manera reversible bits entrelazados- la computación cuántica unidireccional se basa en la realización de medidas -un proceso inherentemente irreversible- sobre un sistema cuántico adecuadamente preparado inicialmente, y que será destruido en el proceso. Así, mientras en el modelo clásico de computación cuántica la medida se realiza sólo sobre el estado final del sistema tras atravesar las puertas cuánticas, en este modelo se realizan de manera continua. Más aún, las medidas que se hagan en un momento determinado dependerán en general del resultado de las medidas anteriores. La gran ventaja de esto es que la dificultad tecnológica se concentra fundamentalmente en la construcción del estado inicial -el denominado (a falta de mejor traducción) estado racimo, que puede imaginarse como una malla muy compleja de estados entrelazados- ya que la realización de las medidas posteriores admite implementaciones prácticas aceptables.

En este contexto es en el que Nicolas C. Menicucci (de Princeton y la Universidad de Queensland), Steven T. Flammia (de la Universidad de Waterloo), y Olivier Pfister (de la Universidad de Virginia), han sugerido un mecanismo que puede suponer un gran paso adelante en la construcción de dichos estados racimo. Dicho mecanismo se describe en un trabajo titulado

publicado hace un par de semanas en Physics Review Letters. Parte de la idea de Menicucci et al. se basa en el empleo de fotones entrelazados. Dicho empleo no es nuevo en sí, ya que debido a su mayor resistencia a la decoherencia se han postulado como uno de los mejores candidatos a portadores de información. El problema de esto es que se requiere algún dispositivo óptico no lineal para que se produzca la interacción entre fotones en las puertas cuánticas, lo que es tecnológicamente complejo y costoso. En el sistema de Menicucci et al. se sugiere sin embargo un procedimiento más asequible, formado por una cavidad óptica en cuyos extremos hay espejos, y en cuyo interior hay un cristal capaz de dividir o unir pares de fotones de frecuencias específicas. Dichos pares de fotones quedarán entrelazados, y ahí reside el quid del asunto: mediante el empleo de 15 láseres de diferentes frecuencias se podrá construir una macromalla toroidal de estados entrelazados, un arco iris de información, que constituirá el estado inicial de la computación.

Menicucci et al. - Phys. Res. Lett. 101, 130501 (2008)

Menicucci et al. - Phys. Res. Lett. 101, 130501 (2008)

En su trabajo, Menicucci et al. muestran que una malla de este tipo es universal, y por lo tanto que es susceptible de ser la base para la realización de cualquier computación. ¿Será ésta la llave que permita abrir el cofre del tesoro cuántico? Habrá que esperar para ver si la escalabilidad del sistema es en la práctica tan parsimoniosa como el análisis teórico sugiere, pero nada impide mientras tanto ser optimistas.

Publicado en Computadores, Física, Tecnología | Etiquetado: | 1 Comment »

La existencia de un paquete de datos…

Publicado por Carlos en julio 8, 2008

… es muy atribulada, y a veces no nos damos cuenta de ello.

rerouted

Publicado en Comic, Computadores, Geek, Informática | Etiquetado: | 1 Comment »

El Test de Turing Musical: ¿Conseguiremos un Tommy Dorsey cibernético?

Publicado por Carlos en abril 24, 2007

El test de Turing -del que hace algún tiempo hablábamos en relación a la posibilidad de que un buscador de Internet como Google pudiera ser el primero en superarlo- es una de las más clásicas caracterizaciones de la Inteligencia Artificial. Hay que recordar que a grandes rasgos lo que en él se plantea es que una máquina cuya capacidad la hace ser indistinguible de un humano en una conversación puede ser caracterizada como “pensante”. Esta caracterización está por supuesto sujeta a un amplio debate que podemos abordar con más detalle en un futuro artículo. Consideremos por el momento una de las objeciones que se suelen plantear, y que hace referencia al hecho de que esta prueba adolezca de “chauvinismo” antropomórfico. En este sentido, por una parte está la cuestión de fondo de que se busca en la máquina sujeta al test la expresión de un comportamiento asimilable al humano. Por otra parte está la cuestión de forma de que se exige que la conversación se plantee mediante un lenguaje humano. En relación a la primera objeción, cabe aducir que aun siendo cierta, es verdad también que puede objetivizar la prueba en tanto en cuanto que asumir inteligencia en un sentido abstracto puede ser difuso y subjetivo. La argumentación no termina ahí, pero dejémosla de lado y concentrémonos en la segunda cuestión, la formal. Esta objeción es interesante por varios motivos, como por ejemplo que la elección del lenguaje podría ser muy relevante a la hora de facilitar o dificultar que la máquina pasara el test, que el procesamiento de lenguaje natural introduce un nivel adicional de complejidad que no necesariamente debe conllevar inteligencia aparejada, o que simplemente el uso del lenguaje puede ser un factor de distracción debido por ejemplo al uso de expresiones de relleno. ¿De qué manera pueden mitigarse algunas de estas dificultades? Quizás la respuesta la tengamos en el uso de un lenguaje más flexible y más universal: la música.

Planteémonos una analogía al test de Turing en términos musicales. Una primera idea puede ser la de tomar dos composiciones musicales, una compuesta por un hombre, y otra por una máquina, y someterlas a la consideración de un experto. Si el mismo es incapaz de determinar cuál es la humana, y cuál la creada por la máquina, podríamos decir que ésta ha pasado el test. El problema es que un test como éste puede plantear dificultades para la máquina si el humano es un gran compositor (en el test de Turing clásico si el humano es un gran orador la máquina estaría comprometida, pero en menor medida, ya que es más fácil simular la oratoria que el talento musical); por otra parte sería muy fácil para la máquina si el humano es un pésimo compositor, o un compositor -digamos- extravagante en sus obras (este inconveniente sí es análogo al que se plantea en el test de Turing clásico). Démosle entonces una vuelta de tuerca al test, y planteémoslo en otros términos, como si de una conversación se tratase: tendríamos una orquesta virtual, dentro de la cual estaría el juez como músico o como director. Si la actuación de la máquina es indistinguible de la de un humano durante la obra (que puede -y debe- conllevar su parte de improvisación) diríamos que ha pasado el test.

musicbot.jpg
Credit: Dean MacAdam, ScienceNews

Una cosa como la anterior plantea numerosas dificultades. Una parte de las mismas está relacionada con el propio reconocimiento del sonido musical, problema similar al reconocimiento del habla. Es preciso que la máquina sea capaz de identificar las notas individuales (y considérese que hay ruido, múltiples notas superpuestas por parte de diferentes instrumentos, etc.), y esto es una tarea muy compleja. Sin embargo, los progresos que se han hecho en este área son enormes (¡gracias Villa por el link!). Por ejemplo, utilizando técnicas de aprendizaje automático (redes neuronales, modelos bayesianos, etc.) se puede mejorar la identificación de los sonidos, ya que las secuencias de notas no son arbitrarias sino que siguen algunos patrones generales que hacen que sean agradables a nuestro oído. Más aún, se ha conseguido que un ordenador correlacione las notas con la partitura, de manera que siga el desarrollo de la obra y sea capaz de proporcionar acompañamiento a un solista, siguiendo su ritmo. Se trata sin duda de un logro excepcional, aunque aún falta dar el siguiente paso: introducir la creatividad y la interacción en la composición. Hay algunas cosas interesantes hechas con redes neuronales, o con algoritmos evolutivos, pero aún distan mucho de lo que se consideraría equivalente al rendimiento humano en algo así como una jam session. De todas formas, quién sabe si veremos antes a un robot saxofonista improvisando en una banda de jazz que a un robot conversacional pasando el test de Turing.

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Publicado en Computación Evolutiva, Computadores, Inteligencia Artificial, Música | Etiquetado: | 4 Comments »

De la IA simiente a la singularidad tecnológica

Publicado por Carlos en abril 6, 2007

La idea de la singularidad tecnológica -esto es, de la creación por medio de la tecnología de inteligencia superior a la humana- se asienta básicamente sobre dos pilares: la ley de los retornos acelerados, y la IA simiente. La primera es una generalización de la Ley de Moore (y de hecho muchas veces se usa informalmente el término Ley de Moore para referirse a ella). Como es bien sabido, la Ley de Moore establece un patrón de crecimiento exponencial del número de transistores por circuito integrado a coste mínimo: cada dos años, este número se dobla. Dado que dicho número de transistores se correlaciona con el rendimiento que es capaz de alcanzar el computador, pueden formularse leyes similares en relación al crecimiento de la capacidad de cómputo a precio fijo. De hecho, Ray Kurzweil ha extrapolado este patrón hacia atrás, incluyendo sistemas basados en válvulas de vacío, relés, o componentes electromecánicos, llegando a la conclusión de que (1) el patrón de crecimiento acelerado no es particular de la tecnología actual, y (2) el tiempo necesario para duplicar la capacidad de cómputo se va reduciendo cada vez más.

Moore’s Law (credit: Ray Kurzweil)
Credit: Ray Kurzweil

De acuerdo con esta tendencia, se argumenta que se alcanzará la capacidad de cómputo equivalente a la mente humana (1011 neuronas x 103 sinapsis/neurona x 200 activaciones/sinapsis.segundo = 2·1016 operaciones/segundo según las estimaciones de Ray Kurzweil) a un coste irrisorio en una o dos décadas. Lo importante no es tanto el momento en que se logre, sino lo que ocurrirá entonces, o más precisamente en el momento que se tenga una IA simiente. La IA simiente es en esencia una reformulación de la idea de máquina ultrainteligente que I.J. Good definió en 1965:

Definamos una máquina ultrainteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano, independientemente de la inteligencia de éste. Puesto que el diseño de máquinas es una de esas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; sin duda, habría una “explosión de inteligencia” y la inteligencia humana quedará rezagada…

La clave está en el hecho de que la capacidad de esta IA simiente está ligada a la tecnología que la produjo, y que por lo tanto una mejora en la misma resulta en un aumento de su capacidad, que a su vez abre la puerta a nuevas mejoras. Esta posibilidad de auto-mejora recursiva genera un bucle de realimentación positivo que en última instancia da lugar al surgimiento de la singularidad tecnológica.

¿Cuánto tiempo puede pasar desde que se tenga la IA simiente a la singularidad tecnológica? Dependerá del ritmo de crecimiento de la capacidad de cómputo. La Ley de Moore establece un plazo de dos años para doblar el número de transistores, pero Kurzweil afirma que la capacidad de cómputo se dobla cada año. Tomemos el punto medio: 18 meses. Ahora, lo importante está en el hecho de que estos 18 meses no representan un periodo de tiempo absoluto medido por cierto reloj en la Tierra, sino que corresponden a 18 meses de trabajo humano. Si el trabajo lo realiza una IA con capacidad equivalente a la humana, esos 18 meses corresponden al tiempo subjetivo que dicha IA experimenta. Si t representa el tiempo subjetivo, entonces el patron de crecimiento de la potencia de cómputo es p(t) = p(0)eat, donde podemos tomar p(0)=1 por convención. El tiempo subjetivo experimentado por la IA simiente dependerá directamente de la potencia de cómputo de la máquina sobre la que se ejecute. Llegamos entonces a un sistema de ecuaciones diferenciales como sigue:

  1. \frac{dp}{d\tau}= \alpha e^{\alpha \tau}
  2. \frac{dt}{d\tau}= \frac{1}{p}

Si integramos numéricamente estas ecuaciones, se observa que el tiempo subjetivo experimentado por la IA empieza a acelerarse vertiginosamente. A los 13 meses (tiempo humano) de su creación, su percepción subjetiva va el doble de rápido. A los 19.5 meses, va cuatro veces más rápido. Antes de los 23 meses ya va ocho veces más rápido, y un mes y medio después dieciséis veces más rápido. Antes de llegar a los 26 meses se produce la divergencia total, y la capacidad de cómputo aumenta sin límite. Se ha llegado a la singularidad. Obviamente, en la práctica no se podría llegar al infinito, ya que la capacidad de cómputo requiere energía, y ésta es finita (y por otra parte, no está claro que el tiempo subjetivo pueda reducirse sin fin por debajo de la escala de Planck). En cualquier caso, la IA resultante trascendería toda comprensión humana, y cambiaría el devenir de la Humanidad. Parafraseando a Churchill, podría ser el principio del fin (si la IA es hostil) o el fin del principio (si la IA es amigable).

Por supuesto, todo lo anterior está sujeto a varias suposiciones claves. La primera, que es posible producir una IA simiente. No está claro que pueda ser así, al menos en el marco de un sistema computacional tipo Turing. Suponiendo que esto sí es posible, hay que plantearse si el patrón de crecimiento acelerado seguiría siendo válido a partir de dicho punto. Todo indica que podremos ver si esto es cierto o no antes de veinte años. Sólo hay que esperar y llegado el caso, confiar en la benevolencia de la IA que trascienda.

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Publicado en Computadores, Inteligencia Artificial, Singularidad | 13 Comments »

Supercomputación en una Playstation 3

Publicado por Carlos en abril 4, 2007

¿Quién dijo que una consola de videojuegos sólo sirve para matar marcianos? También puede valer para encontrarlos, o para ayudar a resolver otros innumerables problemas científicos. Y es que cuando uno compra una de estas consolas está adquiriendo en realidad un dispositivo de cómputo que representa la punta de lanza tecnológica en procesamiento numérico específico. En su interior se encuentra hardware especializado, optimizado para realizar las complejas simulaciones físicas que subyacen a muchos juegos o para hacer el rendering fotorrealista de las escenas de los mismos. Si a esto añadimos la capacidad de interconexión a través de Internet, tenemos todos los ingredientes para desarrollar una plataforma de cómputo masivo distribuido.

Playstation 3

Lo anterior no es en sí mismo novedoso. Desde el histórico proyecto SETI@home han surgido diferentes iniciativas en computación grid que intentan aprovechar los ciclos libres de millones de equipos conectados a Internet. Lo que sí resulta especialmente interesante es la extrema capacidad de cómputo de las videoconsolas, y cómo éstas se adaptan especialmente a la resolución de este tipo de problemas. Pensemos por ejemplo en una Playstation 3. Esta consola incorpora un procesador Cell de 8 núcleos a 3.2GHz. Uno de ellos es el denominado “Power Processing Element” (PPE), similar a un PowerPC y responsable de ejecutar el sistema operativo y coordinar el funcionamiento del sistema. Los restante siete núcleos son los Synergistic Processing Elements (SPEs), procesadores RISC con registros de 128-bits que se encargan de “machacar números” (aunque uno de ellos está dedicado a otro tipo de labores, tales como seguridad). Si a esto le unimos la unidad de procesamiento de gráficos, el rendimiento combinado del sistema puede alcanzar los 2 teraflops.

Simulations of the villin headpieceEsto no ha pasado desapercibido para los administradores de Folding@home, un proyecto de computación distribuida en el área de la biología molecular que estudia el plegado de las proteínas (algo de capital importancia, ya que la función que desempeña una proteína está determinada por su estructura plegada tridimensional). Para ello es necesario realizar simulaciones físicas del proceso, lo que requiere ingentes recursos computacionales. Desde Folding@home se ha llegado a un acuerdo con Sony que ha facilitado la disponibilidad del software necesario para que quien lo desee pueda contribuir la capacidad de cómputo de su consola al proyecto. El resultado es espectacular, ya que con unas 22,000 consolas activas se están consiguiendo 289 teraflops (recordemos que la capacidad de cómputo sostenido del supercomputador más potente en la actualidad es de 280 teraflops), prácticamente la mitad de la capacidad de cómputo total, que incluye más de 240,000 CPUs. Los administradores del proyecto confían en llegar pronto al petaflop. Hay también planes de extender a la PS3 otros proyectos de computación distribuida (a través de BOINC).

El único inconveniente de momento es que esta aplicación no puede hacerse en background, ya que en el momento en que el usuario empiece a jugar no habrá potencia restante que dedicar a otro tipo de cálculos. En cualquier caso, uno no está jugando las 24h del día, así que ya sabes, hazle un favor a la ciencia, y compra una videoconsola.

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Publicado en Biología Molecular, Computadores, Informática, Internet | 8 Comments »

Un supercomputador en casa

Publicado por Carlos en febrero 15, 2007

Hace ya casi 90 años que se acuñó el término supercomputador para referirse a las máquinas tabuladoras de IBM, pero ha sido en la segunda mitad del s. XX en la que se ha ido formando la imagen en la cultura popular del término, que más o menos viene a ser la de un gran sistema formado por numerosos módulos interconectados que llenan una enorme sala,  y que se dedica a complejos cálculos científicos. La verdad es que esta imagen no está del todo desencaminada. Ciertamente, los supercomputadores son sistemas que van marcando en cada momento las fronteras actuales en capacidad de cómputo dedicado, y suelen estar formados por una gran cantidad de procesadores que trabajan en paralelo. Su extrema capacidad de proceso les permite abordar problemas de cálculo intensivo, como modelos climáticos, simulaciones en astrofísica, en biología molecular, etc. Para entender exactamente cuál es la capacidad requerida para esto, podemos consultar Top500.org, una relación los 500 supercomputadores más potentes del mundo, actualizada dos veces al año. Si consultamos la última lista nos encontramos por ejemplo a Mare Nostrum, el supercomputador más potente de Europa y 5º del mundo que tiene el BSC-CNS (Barcelona Supercomputing Center – Centro Nacional de Supercomputación). El primer puesto lo ocupa el IBM BlueGene/L, un supercomputador situado en el Lawrence Livermore National Laboratory de California (EE.UU.).

Configuración IBM BlueGene/L
Credit: LLNL

BlueGene/L está compuesto por 65,536 nodos de dos procesadores cada uno (esto es, 131,072 procesadores en total), conectados entre sí en una rejilla toroidal de 32x32x64. El sistema ocupa más de 230 m2, y requiere una potencia de 1.5 MW. Tiene una memoria principal de 32 tebibytes (245 bytes), y su potencia de cómputo sostenido es de 280 teraflops (280 billones de operaciones en punto flotante por segundo), alcanzando picos de 360 teraflops.

Si lo anterior es impresionante, no muy lejos queda la presentación que hace unos días realizó Intel de un prototipo de su procesador de 80 núcleos. Cada uno de estos núcleos contiene dos unidades de cálculo en punto flotante, y está interconectado con los núcleos vecinos en una rejilla bidimensional. Lo verdaderamente destacable es que esta arquitectura conseguirá 1 teraflop funcionando a 3.16 GHz, con un coste energético de sólo 62 W, similar a la de los ordenadores de sobremesa actuales. Como referencia, hace 10 años era necesario un supercomputador de 10,000 procesadores Pentium Pro para alcanzar esta capacidad de cómputo.

Intel 80-core processor
Credit: Intel

Intel afirma que en unos cinco años comercializará este procesador. Si tenemos en cuenta que los últimos supercomputadores en la lista de Top500.org están en torno a 2.7 teraflops, podremos tener pronto en casa el equivalente a un supercomputador actual. Aunque esto es lo que en el fondo ha ido pasando siempre (los ordenadores de sobremesa actuales serían supercomputadores hace 25 años), es reseñable tanto la manera en la que se van acortando los plazos, como la escala de la capacidad de cómputo que se pone a disposición del público general. Puede darse la circunstancia de que dentro de, digamos, una década la potencia de cómputo bruta en un laboratorio docente de una universidad sea superior a la de los supercomputadores punteros de hoy en día. Imaginemos la escena, entra el profesor en clase y dice: “La práctica de hoy es simular el clima en el Hemisferio Norte para los próximos siete días.”

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Publicado en Computadores, Informática, Tecnología, What-if | 5 Comments »