La Singularidad Desnuda

Un universo impredecible de pensamientos y cavilaciones sobre ciencia, tecnología y otros conundros

Archive for the ‘Informática’ Category

Computación humana para automatización de diseño electrónico

Posted by Carlos en agosto 10, 2009

El artículo que describe el trabajo del que hablábamos hace algo más de una semana sobre la resolución del instancias de SAT mediante un juego está ya disponible online. Se trata de

de Andrew DeOrio y Valeria Bertacco. El artículo es muy corto, sólo dos páginas, y no proporciona muchos más detalles acerca del sistema. Sí menciona algún aspecto de interés, como es el hecho de que la disposición espacial de las cláusulas intenta corresponderse con las variables que la afectan (lamentablemente no entra en detalles sobre cómo  han atacado este extremo, ya que es un problema de optimización geométrica muy interesante).

Con todo, lo más relevante del artículo sean las referencias a la escalabilidad (que ya anticipamos el otro día como uno de los cuellos de botella del enfoque). Al parecer, la idea básica es que cada nivel sea una visión local de una parte del problema completo, visión que se irá ampliando al ir aumentando de dificultad. En instancias de gran tamaño sugieren emplear un enfoque multi-jugador en el que cada participante juega sobre una parte del problema. Obviamente hay interrelaciones entre estas partes (si modificamos una variable podemos alterar el estado de una cláusula de otro tablero), por lo que la división debería hacerse de manera astuta de forma que estas interrelaciones sean mínimas. La mala noticia es que tendríamos entonces un problema de corte mínimo en grafos, que es NP-hard si se introducen restricciones sobre el número de interrelaciones entre subconjuntos.

Posted in Complejidad, Juegos, Optimización Combinatoria | Etiquetado: , , , , | 1 Comment »

Resuelve problemas NP-completos mientras juegas

Posted by Carlos en julio 29, 2009

La clase NP -de la que ya hemos hablado en alguna ocasión- abarca aquellos problemas de decisión que pueden resolverse en tiempo polinómico no determinista, o lo que es lo mismo, aquellos problemas para los que es posible verificar en tiempo polinómico la validez de una solución dada. Esta clase ha sido tradicionalmente empleada como sucedáneo de la idea de intratabilidad computacional. No se trata de la mejor caracterización, ni siquiera de la más apropiada, puesto que admite mucha patología y en ocasiones tiene un impacto práctico limitado, pero eso será tema de algún futuro post. Sea como fuere, es común que allá donde nos enfrentemos a un problema NP-hard se emplee este hecho como justificación para el empleo de algún tipo de (meta)heurística.

Nuestra comprensión sobre cómo aplicar metaheurísticas para resolver problemas específicos ha avanzado enormemente en la última década. Una de las claves está en ser capaces de explotar conocimiento del problema durante el proceso de búsqueda. Técnicas tales como los algoritmos meméticos se basan fundamentalmente en esta idea. Evidentemente no se trata de algo trivial de conseguir, y aquí es donde es posible que la mente humana eche una mano y no en la ingeniería del proceso sino contribuyendo capacidad de búsqueda pura y dura. No se trata por supuesto de cálculo numérico ni de búsqueda sistemática, sino de explotar algunas de las cualidades que nuestros cerebros han ido desarrollando durante millones de años de evolución: estrategia y procesamiento visual.

La capacidad de extraer información de un torrente de datos visuales es una de nuestras grandes bazas. Estamos programados para buscar orden en el caos, patrones en el ruido blanco, formas conocidas en el desorden. Áreas tales como la minería de datos visual intentan explotar precisamente esta característica. Por otra parte nuestra visión estratégica, la capacidad de trazar planes y seleccionar heurísticamente las ramificaciones más relevantes es también bien conocida en el ámbito -por ejemplo- de los juegos de tablero. Es precisamente en este área en el que investigadores de la Universidad de Michigan han intentado aunar ambas capacidades y dirigirlas hacia la resolución de problemas NP-completos. Andrew DeOrio y Valeria Bertacco, del departamento de ingeniería eléctrica e informática de la citada universidad, han desarrollado un entorno en el que se pueden resolver instancias del problema de la satisfacibilidad lógica mediante un juego lejanamente relacionado con el clásico lights off.

FunSAT - Pulsa sobre la imagen para jugar

FunSAT - Pulsa sobre la imagen para jugar

En el tablero tenemos una matriz de burbujas que representan las cláusulas de la instancia del problema (esto es, las restricciones que debemos satisfacer). Estas cláusulas dependen de un conjunto de variables, representadas como rectángulos en los bordes del tablero. Pulsando sobre éstos podemos fijar una cierta variable a cierto/falso o dejarla indefinida. De resultas de cualquiera de estas acciones algunas cláusulas pasarán a estar satisfechas (lo que se indicará mediante el color verde) o insatisfecha (un tono grisáceo, tanto más oscuro cuantas menos variables que puedan afectar a dicha cláusula nos queden sin asignar). El tamaño de cada burbuja indica el número de variables que intervienen en ella (se puede jugar también a 3-SAT, variante clásica en la que todas las cláusulas tienen 3 variables involucradas).

Lo interesante es que las instancias de SAT que se plantean en este juego corresponden supuestamente a problemas de diseño VLSI.  El análisis de lo que el juego puede dar de sí lo han publicado en un artículo titulado

  • Human computing for EDA

que presentarán en la próxima Design Automation Conference, que se celebra en San Francisco en estos días. El artículo aún no está disponible, por lo que se puede añadir poco más a lo ya comentado. Esperaremos a leerlo para ver cuál es el planteamiento a largo plazo del invento, que a priori diríase que adolece de un problema de escalabilidad. Y es que el ser humano es extraordinario, pero dentro de un límite.

Posted in Complejidad, Juegos, Optimización Combinatoria | Etiquetado: , , , | 2 Comments »

Realidad Virtual y Vida Artificial: de la Biomecánica a la Inteligencia

Posted by Carlos en julio 14, 2009

Las charlas plenarias de las conferencias suelen navegar por la procelosa frontera que separa el tema central de la reunión con otros temas relacionados (y en ocasiones transcurren directamente al otro lado de la frontera). Suele ser una buena política, ya que en las zonas de confluencia las cosas se ponen divertidas, y de hecho este ha sido el caso de la primera de las charlas invitadas que hemos disfrutado. El orador era Demitri Terzopoulos, que estuvo involucrado en los comités de programa de estos saraos tiempo ha pero que nunca ha llegado a aplicar computación evolutiva a su área de trabajo. Era pues un gran desconocido a priori para el grueso de la audiencia -salvedad hecha de los que trabajan en visión por computador- a pesar de tener un currículo investigador talla XXL, y hay que decir que después de su charla los allí presentes recordaremos bien su nombre, pues fue una hora y media extremadamente interesante y entretenida.

El título de su charla fue “Artificial Life Simulation of Humans and Lower Animals: From Biomechanics to Intelligence”, y durante la misma intentó explicarnos algunas de las claves de la emergente fusión entre realidad virtual y vida artificial, cuyo objetivo final es la construcción de agentes biomiméticos autónomos. En sus diapositivas iniciales nos mostró lo que no es uno de dichos agentes, como por ejemplo los dinosaurios de Parque Jurásico, o los protagonistas de Toy Story por citar un par de ejemplos. Las cosas empezaron a calentarse un poco con los ejércitos de El Señor de los Anillos, que podríamos englobar dentro de la categoría de enjambres (animar manualmente cada uno de los miles de personajes en el ejercito es inasumible, por lo que cada uno de ellos está dotado de un sistema simple basado en reglas para determinar su comportamiento). En este punto fue donde nos presentó los diferentes niveles en los que hay que intervenir para construir un sistema biomimético autónomo, y que se organizan jerárquicamente como sigue:

Niveles para la simulación de un sistema biomimético. Credit: Demitri Terzopoulos

Niveles para la simulación de un sistema biomimético. Credit: Demitri Terzopoulos

La ilustración inicial de estas ideas corrió a cargo de una fauna submarina sintética que el propio Demitri desarrolló con sus colaboradores. El nivel más bajo de la jerarquía estaba definido en este caso por un armazón de cada uno de los peces, construido a partir de partículas unidas mediante una combinación de muelle y amortiguador. Algunos de los segmentos del pez hacen las veces de músculos, y en ellos la longitud natural del muelle puede modificarse a voluntad. El modelo resultante queda descrito por una colección de ecuaciones diferenciales que determinan la respuesta dinámica al movimiento del pez en el medio líquido. La locomoción del pez se optimizó mediante una técnica de búsqueda local (no entró en muchos detalles al respecto) para que resultara en el movimiento más fluido y energéticamente económico. En este punto, el movimiento de natación de peces y morenas resultante era extremadamente realista.

Para simular la percepción, los peces estaban dotados de sensores visuales que permitían cubrir un cierto ángulo en la dirección de orientación de la criatura. La información así obtenida era procesada según técnicas estándar de visión por computador, para proporcionar la entrada al siguiente nivel, el comportamiento. Éste es esencialmente reactivo, y está determinado por una red neuronal que determina la acción correspondiente a un determinado estímulo. Para la simulación de los animales marinos se incluyó un registro de memoria con capacidad unidad. Esto permite que el animal desarrolle un comportamiento básico -seguir un objeto, alimentarse, ..- que pueda ser interrumpido cuando por ejemplo se entre en modo huida al detectar un depredador, y luego reanudado cuando cese el peligro.

En el ejemplo del mundo submarino no había mucho lugar para el nivel más alto de la pirámide y que entronca plenamente con la inteligencia artificial. En el siguiente ejemplo que abordó -seres humanos sintéticos- sí que era más relevante, aunque no entró en él. Sí describió unos modelos muy interesantes relativos a la simulación de rostros humanos (quien haya visto Final Fantasy recordará el fotorrealismo de algunos de los personajes). Los niveles más bajos de la pirámide se abordan de la misma manera que en el caso de los peces, aunque más arriba se introduce un elemento más interesante: redes bayesianas para la determinación del comportamiento. Resultaba curioso ver cómo un rostro humano sintético era capaz de reaccionar a estímulos visuales, siguiendo la trayectoria de un objeto o mostrando enfado o satisfacción dependiendo de su patrón de movimiento.

La charla terminó con algunas ideas sobre lo que podemos esperar en el futuro. Alguien planteó si quizás en algunos años una versión virtual de Demitri podría dar esa misma charla ante una audiencia igualmente virtual. Él estuvo de acuerdo en que eso será factible, aunque no cree vivir para verlo (hay que decir que no es muy mayor, cuarenta y tantos según mi ojo de buen cubero). Yo soy sin embargo más optimista que él.

Posted in Aprendizaje Automático, Computación Evolutiva, Inteligencia Artificial, Vida Artificial | Etiquetado: , , , , | 6 Comments »

Evolución de Algoritmos Cuánticos

Posted by Carlos en julio 10, 2009

Una de sesiones más interesantes de lo que llevamos de conferencia ha sido la referida a evolución de algoritmos cuánticos. El ponente de la misma ha sido Lee Spector (uno de cuyos trabajos sobre inteligencia artificial comentamos aquí in ilo tempore), y durante aproximadamente 2 horas nos desgranó un tutorial sobre algoritmos cuánticos que desembocó en la interrelación de los mismos con la programación genética. Antes de llegar a este último punto, comenzamos recordando uno de los experimentos más clásicos (y no por ello menos sorprendente) de la mecánica cuántica, esto es, el interferómetro de Mach-Zehnder.

Interferómetro de MAch-Zender (credit: Danielmader)

Interferómetro de Mach-Zender (credit: Danielmader)

En este experimento se emplean dos espejos semi-reflectantes (abajo a la izquierda, y arriba a la derecha) que con una probabilidad del 50% dejan pasar un fotón incidente o lo reflejan en dirección perpendicular. La intuición clásica indica que dado que hay dos bifurcaciones, cada una de las cuales es equiprobable, un fotón tendría un 50% de probabilidades de llegar al segundo espejo semi-reflectante por el camino superior y un 50% de hacerlo por el camino inferior. Una vez en el mismo, tendría un 50% de probabilidades de ser reflejado y un 50% de atravesarlo. Sumando el 25% de probabilidad de que el fotón llegue por el camino superior y se refleje y el 25% de que llegue por el camino inferior y atraviese el espejo, llegamos a que un 50% de los fotones llegarían al detector 2. Sin embargo, esta intuición no es correcta ya que la realidad indica que el 100% de los fotones llegan al detector 1. Esto es debido a que al ser reflejado un fotón se produce un cambio de fase de media longitud de onda en el mismo. De resultas del mismo se produce una interferencia destructiva al superponer los estados que desembocan en el detector 2, por lo que ningún fotón puede llegar al mismo. La única posibilidad factible son los caminos que llevan al detector 1.

Este experimento admite una vuelta de tuerca muy interesante: imaginemos que tenemos bombas cuya espoleta se activa en el momento que detectan un fotón. Dada una de estas bombas, podemos saber si funciona correctamente (o por el contrario es defectuosa) simplemente exponiéndola a la luz, aunque obviamente esto conduciría a la pérdida de todas las bombas plenamente funcionales. Un procedimiento más astuto hace uso del montaje anterior, y da lugar a lo que se conoce como comprobador de bombas de Elitzur-Vaidman. Básicamente, sustituimos el reflector inferior derecho por la bomba. Ahora, si la bomba es defectuosa se comportará como un espejo y el sistema será equivalente al anterior, es decir, todos los fotones llegarán al detector 1. Sin embargo, si la bomba funciona correctamente el fotón no puede seguir en estado superpuesto camino superior/camino inferior, ya que la explosión de la bomba supone un proceso de medida, y la función de onda debe colapsar a uno de los dos estados. Por lo tanto, puede pasar que la bomba explote (si el estado al que el fotón colapsa es el camino inferior), o que no lo haga (si el estado es el camino superior). En este segundo caso, al llegar al segundo espejo semi-reflectante no se produce interferencia destructiva, y hay un 50%-50% de posibilidades de que llegue a un detector o al otro. Si llega al detector 2 estamos seguros de que la bomba es buena. En otro caso hay que repetir el experimento hasta que eventualmente la bomba explote, el fotón llegue al detector 2, o tengamos una certeza razonable de que la probabilidad de que la bomba sea defectuosa es despreciable.

Dándole otra vuelta más de tuerca al sistema, podemos sustituir la bomba por un computador que ejecutará un algoritmo y producirá o no un fotón de salida. Nuevamente, inspeccionando los detectores podemos determinar cuál sería la salida del algoritmo, sin necesariamente ejecutarlo. Este montaje fue propuesto por Onus Hosten et al. en un artículo titulado

publicado en Nature (véase también este comunicado de prensa). Toda esta discusión constituyó un punto de entrada para ilustrar el concepto de superposición de estados y -tras una breve disgresión sobre la mente humana, la consciencia y su computabilidad- entrar en la noción de qubits y puertas lógicas cuánticas.Estas últimas las vimos a través de su notación matricial. Por ejemplo, si tenemos un qubit con valor \alpha|0\rangle + \beta|1\rangle, la siguiente matriz representa un NOT:

\left(\begin{array}{cc} 0 & 1 \\ 1 & 0 \end{array} \right)

ya que al multiplicarla por el vector columna (\alpha,\beta) obtenemos el vector columna (\beta,\alpha) (puede verse por ejemplo que en el caso clásico en el que \alpha=1, \beta=0 o viceversa se obtiene el resultado complementario). Más interesante es la puerta lógica SNR (square root of NOT):

1/\sqrt{2}\left(\begin{array}{cc} 1 & -1 \\ 1 & 1 \end{array} \right)

Al aplicarla una vez a un qubit que es 1 ó 0 se obtiene una suerte de aleatorización, ya que se pasa a un estado de superposición equiprobable entre ambos valores. Al aplicarla por segunda vez, se obtiene sin embargo el complemento:

\left(\begin{array}{c} 1 \\ 0 \end{array} \right) \Rightarrow \left(\begin{array}{c} 1/\sqrt{2} \\ 1/\sqrt{2} \end{array} \right) \Rightarrow \left(\begin{array}{c} 0 \\ 1 \end{array} \right).

Una de las posibilidades para la aplicación de técnicas de programación genética es tratar de buscar puertas cuánticas ad hoc, mediante la evolución de las matriz que la define. Yendo más allá, se puede pensar en programación genética para combinar puertas lógicas preexistentes y obtener un circuito que desarrolla un cierto propósito buscado. Un ejemplo de esto nos lo dio con un trabajo (que hay que decir ya tiene unos años) en el que se consiguió una solución nueva y eficiente a un problema simple (pero por algo hay que empezar). El trabajo en cuestión es

del propio Lee Spector et al., y que apareció en las actas del CEC 1999. Otras líneas de desarrollo apuntan a la construcción de algoritmos híbridos que combinan elementos clásicos con elementos cuánticos. Un área apasionante sin duda.

Posted in Computación Evolutiva, Física | Etiquetado: , , | Comentarios desactivados en Evolución de Algoritmos Cuánticos

Montreal, nous sommes ici!

Posted by Carlos en julio 8, 2009

Este año la “Gran Cosa Científica” (Prof. Frink dixit) del área de la computación ev olutiva tiene lugar en Montreal (Quebec, Canadá), y para allá que hemos liado el petate y agarrado un avión.

Rue Saint Antoine

El verano por estos lares es como los programas culturales en televisión: todo el mundo ha oído hablar de ellos, pero pocos los disfrutan. Unos suaves 15C y una menos suave lluvia nos ha recibido a nuestra llegada. La sede del congreso está en un lugar céntrico, y desde el que se puede dar una pequeño e interesante paseo.

Notre Dame of Montreal

En cuanto el ritmo de sesiones lo permita, intentaremos seguir explorando le Vieux-Montreal. Stay tuned…

Posted in Computación Evolutiva, Lugares, Viajar | Etiquetado: , , , | 5 Comments »

Jugando con Darwin a la Evolución – ¿Quién quiere vivir un millón de años?

Posted by Carlos en enero 13, 2009

En este año 2009 se cumple el segundo centenario del nacimiento de Charles Darwin, y el 150º aniversario de la publicación de su obra “El Origen de las Especies“. Con motivo de esta efemérides, la Unión Internacional de Historia y Filosofía de la Ciencia ha declarado este año el “Año Mundial de la Biología”, y la Unión Internacional de Ciencias Biológicas lo ha declarado el “Año de Darwin”. Hay varias webs en las que se recopila información sobre (aquí, aquí y aquí, por ejemplo). 

Glosar la contribución de Darwin a la biología en particular y a la ciencia en general es a estas alturas innecesario, a pesar de que por motivos ideológicos haya aún quién intenta negar lo evidente. En cualquier caso, no está de más resaltar una vez más la belleza y elegancia del proceso evolutivo, ya tenga lugar a nivel biológico, cultural, o computacional. Precisamente en relación a esto último, puede ser divertido dedicar un rato a jugar con una pequeña aplicación flash que con motivo de la celebración del Año de Darwin ha publicado en su web Science Channel (¡gracias Pablo por el aviso!)

Darwin's Evolution Game (click para jugar)

Se trata de un juego a caballo entre los algoritmos genéticos y la vida artificial, en la línea (simplificada) de aquel famoso SimLife. El objetivo es contribuir a que un pequeño grupo de animales similares a aves perdure durante un millón de años, adaptándose a los cambios ambientales que se suceden. En la misma aplicación se puede acceder a información biográfica de Darwin, y a un juego tipo test sobre Darwin y la evolución. Que se diviertan Vds.

Posted in Computación Evolutiva, Evolución, Juegos, Vida Artificial | Etiquetado: , | 7 Comments »

Ingeniería Informática: “Yes, We Can”

Posted by Carlos en noviembre 19, 2008

Preparando las pancartas

Cabeza de la Manifestación

Apadrina un Informático

Camiseta USB

Picateclas, no

Marea InformáticaObama también programa

Posted in Computadores, Informática, Política, Sociedad, Universidad | Etiquetado: , , , | Comentarios desactivados en Ingeniería Informática: “Yes, We Can”

Debate sobre Ingeniería Informática en Punto Radio

Posted by Carlos en noviembre 18, 2008

En la edición de hoy de “Protagonistas” de Luis del Olmo en Punto Radio ha habido un debate sobre la situación actual de la Ingeniería Informática, en el que han participado entre otros Jacinto Canales (del Colegio Profesional de Ingenieros Informáticos de Castilla y León), Luis Salvador (senador del PSOE) y Ferrán Amago (Decano del Colegio Oficial de Ingenieros Técnicos de Telecomunicación). El audio del programa (unos 16 minutos) está disponible aquí.

Además de un par de llamadas de madres desesperadas (y no siempre bien informadas), es interesante oír como Luis Salvador es capaz de defender en el mismo discurso lo bien que está la desregularización de la informática, que poco más o menos nos puede poner en la senda del MIT, y a la vez su compromiso de cambiar esa situación para que “en un breve periodo de tiempo” se equipare al resto de ingenierías. Nada extraño, ya que es sabido que entre la completitud y la consistencia, los políticos no suelen optar por lo segundo.

Posted in Computadores, Informática, Política, Radio, Universidad | Etiquetado: , , | 2 Comments »

Comunicado de la CODDI en relación al futuro de la Ingeniería Informática

Posted by Carlos en noviembre 17, 2008

La Conferencia de Decanos y Directores de Centros Universitarios de Informática (CODDI) de España ha preparado un comunicado en relación a los planes anunciados por el Ministerio de Ciencia e Innovación de tratar de manera diferenciada a la Ingeniería Informática frente al resto de ingenierías. La nota emitida hace unos días por el Colegio Profesional de Ingenieros Informáticos de Andalucía en términos bastante dramáticos causó a buen seguro una profunda preocupación (injustificada en muchos extremos) a más de uno, pero tuvo el efecto positivo de catalizar una suerte de excitación gremial, de esas que no suelen gustar en demasía a los gobernantes de turno.

No es tan fiero el león como lo pintan (en este blog hay una explicación bastante precisa del marco general de la situación), pero las dentelladas de un león manso también duelen, y si encima el domador lo azuza para que sólo te muerda a ti, la cosa te solivianta aunque tengas la piel dura. El comunicado del CODDI, que reproduzco a continuación, sale al paso de algunas exageraciones vertidas, pero mantiene la preocupación por lo que los planes actuales suponen de agravio comparativo y desvirtuación de una titulación con competencias comunes en toda España. Es largo, posiblemente con intención didáctica y de llegar a la más amplia audiencia posible, pero su lectura merece la pena.

COMUNICADO DE LA CODDI
Conferencia de Decanos y Directores de Centros Universitarios de Informática
16 de noviembre de 2008

En los últimos días se ha producido la movilización de profesionales y estudiantes para llamar la atención del Gobierno sobre la situación de la ingeniería en informática en España y reclamar medidas para su regulación como profesión y para la elaboración de los futuros planes de estudios. Esta movilización esta teniendo gran repercusión en los medios y en el público en general generando cierta alarma en algunos casos al interpretarse erróneamente la problemática subyacente. En este momento la CODDI, como representación del ámbito académico, considera necesario y oportuno hacer pública su posición al respecto de estos dos temas.

El Real Decreto 1393/2007, de 29 de octubre, por el que se establece la ordenación de las enseñanzas universitarias oficiales, implica la desaparición del actual catálogo de títulos universitarios, y da la potestad a las universidades de proponer nuevos títulos siempre que satisfagan una serie de condiciones. Esto no significa que las titulaciones de Ingeniería Informática desaparezcan; de hecho ya existen en la actualidad nuevos grados oficiales adaptados a este RD con la denominación Graduado/a en Ingeniería Informática y en estos días hay un número significativo de universidades presentando grados con la misma denominación para su verificación. El mismo caso se replica con el resto de titulaciones universitarias, que no desaparecen, se adaptan al nuevo sistema con similar o distinta denominación según el criterio de la universidad proponente. Tampoco es cierto que los actuales títulos pierdan su validez oficial ya que, y según establece el mismo RD, mantendrán todos sus efectos académicos y, en su caso, profesionales. Y finalmente, también es erróneo pensar que el nuevo sistema de titulaciones reste efectividad profesional a los nuevos títulos de Informática con respecto a los actuales, habida cuenta que la Ingeniería Informática nunca ha estado regulada. El problema de la Ingeniería Informática tiene que ver precisamente con esto, con su falta de regulación y con el trato diferenciado que se da en este RD a sus planes de estudio en comparación con las otras ingenierías para las cuales se exige un marco de referencia de obligado cumplimiento (vulgarmente conocido como “fichas”).

Desde el inicio del proceso de construcción del Espacio Europeo de Educación Superior la CODDI ha insistido ante el Gobierno en la necesidad de la regulación de la profesión de Ingeniero Informático. Como es bien sabido, la regulación del ejercicio de una profesión titulada debe inspirarse en el criterio del interés público, razón por la cual el resto de las ingenierías están reguladas, para proteger a la sociedad de la mala praxis en el uso de sus tecnologías asegurando que sus profesionales tienen la formación universitaria adecuada cuando diseñan, planifican y ejecutan un proyecto. El campo de la informática es un campo relativamente joven comparado con el resto de ingenierías y en relación a su origen de carácter científico. Sin embargo, su aplicación cada vez más extendida en todos los ámbitos y su complejidad cada vez mayor han hecho que el desarrollo de un sistema informático pase de ser una actividad cuasi científica o incluso artesanal a ser una labor de ingeniería.

La primera vez que se asoció el término “ingeniería” con la informática fue en el año 1968 durante la primera conferencia de la OTAN sobre desarrollo de software. En dicha conferencia se constató que, aún ya por entonces, la capacidad de los ordenadores y la complejidad de los problemas que se solucionaban con ellos crecía demasiado rápidamente para la forma en que se desarrollaban sus programas, resultando con los métodos que se utilizaban entonces un software no fiable, con fallos frecuentes y con enormes necesidades de mantenimiento. Todo esto hizo que naciera la disciplina de la Ingeniería del Software, que tomando como fuente los métodos de las ingenierías clásicas establecía cómo desarrollar software siguiendo los estándares de cualquier ingeniería.

Actualmente, con la capacidad de cómputo de los ordenadores existentes la complejidad de los sistemas informáticos ha crecido enormemente y su desarrollo requiere frecuentemente la participación de cientos o miles de personas. Por ejemplo, un sistema tan familiar para todo el público, y de un tamaño medio como es el sistema operativo Windows Vista, contiene 50 millones de líneas de código y han participado alrededor de 4.000 ingenieros durante los 7 años de su desarrollo. No es muy frecuente encontrar en otras ingenierías obras o procesos de diseño industrial de tamaño y complejidad similar que por otro lado tengan como resultado un producto con tanto impacto y accesibilidad en la sociedad. Además, hay que tener en cuenta que la complejidad de desarrollar un sistema informático no sólo radica en cómo realizar su software sino en cómo manejar la máquina que lo ejecuta. Muchos de los sistemas informáticos actuales no se desarrollan para ejecutarse en un único ordenador sino en una red. Por ejemplo, el también familiar Google realiza tan rápidamente sus búsquedas porque se ejecuta sobre una red de ordenadores que se estima entre unos 450.000 y un millón, distribuidos en más de 25 centros a lo largo y ancho del mundo. Tampoco es frecuente encontrar en otras ingenierías que se utilice una maquinaria tan compleja para una tarea tan aparentemente sencilla, útil y con tanto impacto en la sociedad. Por último, el despliegue del sistema informático de una empresa de servicios puede requerir la coordinación en su funcionamiento de miles de ordenadores y programas que interactúan entre si en tiempo real, y con miles de usuarios que solicitan un servicio inmediato y seguro a prueba de cualquier imprevisto. Por ejemplo, el Corte Inglés cuenta con un sistema informático centralizado con más de 86.000 aparatos electrónicos y 1.900 servidores de aplicaciones y de datos conectados a su red, el grupo suma 15.000 millones de instrucciones por segundo, que se traducen en unos 3.518 millones de transacciones anuales, y su ‘Tienda Internet’ soporta 1.417 millones de visitas al año. Es difícil encontrar en otras ingenierías ejemplos de sistemas tan críticos como éste, de tanta complejidad de organización industrial, y con un impacto similar en la vida cotidiana de la sociedad.

Las aplicaciones de la informática en la España actual se encuentran en todos los ámbitos y aspectos: telecomunicaciones, defensa, aviación civil, transporte terrestre, transporte marítimo, sistemas industriales, energía, medicina y salud, etc., todos ellos pertenecientes a profesiones reguladas cuyas tecnologías incorporan cada vez más sistemas informatizados. Sin embargo, esa parte informática de su desarrollo tecnológico, tan vital y crítica en esos campos de cuyos fallos no sólo pueden resultar pérdidas económicas sino también de vidas humanas, no esta regulada y por tanto no se asegura que el profesional responsable de su ejecución tenga la formación adecuada, que es la de Ingeniero Técnico e Ingeniero en Informática. Ejemplo de ello es que se legisla y reglamenta continuamente para que los proyectos en ciertas áreas críticas no relacionadas con la informática estén ejecutados por profesionales titulados competentes, como son la Ley 10/2005, sobre la Televisión Digital Terrestre y la Televisión por Cable, el R.D. 944/2005 sobre el Plan técnico nacional de la televisión digital terrestre, la Orden ITC/1077/2006 sobre instalaciones colectivas de recepción de televisión, etc., mientras que en otras similarmente críticas pero que están relacionadas con sistemas informáticos, como la Ley 15/1999 de protección de datos, el R.D. 1720/2007 sobre el reglamento de la anterior, la Ley 59/2003 sobre la firma electrónica, etc., no se asegura que el técnico competente en la materia tenga la formación adecuada para ejecutar los proyectos. Es por todo ello que la CODDI lleva insistiendo continuamente ante el Gobierno en la necesidad de la regulación de la profesión de Ingeniero Informático. Y es por ello que la CODDI está defendiendo la necesidad de aplicar un tratamiento homogéneo a todas las titulaciones de ingeniería para que el nuevo espacio que surja de la reforma universitaria sea coherente y de futuro.

El Ministerio de Ciencia e Innovación (MICINN) ha elaborado varios proyectos de Acuerdo de Consejo de Ministros y Orden Ministerial con objeto de establecer las condiciones a las que deberán adecuarse los títulos que habiliten para el ejercicio de las profesiones reguladas de Ingeniero Técnico e Ingeniero de acuerdo con lo establecido en el RD 1393/2007. Dentro de este conjunto de órdenes no se encuentra ninguna referida a la ingeniería ni a la ingeniería técnica en informática como consecuencia de no ser éstas profesiones reguladas y con atribuciones. La CODDI entiende que el único camino para que el MICINN pueda dar a los futuros títulos de grado y master en el área de informática el mismo tratamiento que al resto de las ingenierías y establecer las condiciones a las que deberán adecuarse los futuros títulos pasa, necesariamente, por aplicar medidas que regulen las profesiones de Ingeniería e Ingeniería Técnica en Informática. Esta regulación escapa de las competencias del MICINN y es potestad de otros ministerios, como es el Ministerio de Economía y Hacienda, el Ministerio de Industria Turismo y Comercio, y el Ministerio de la Presidencia como coordinador.

La propuesta actual del MICINN es, dentro de sus posibilidades, establecer con el apoyo del Consejo de Universidades una medida de autorregulación voluntaria para las universidades respecto de los requisitos a los que deben adecuarse los títulos de informática, remitiendo a la ANECA las condiciones que han sido elaboradas por la CODDI con el apoyo de los Colegios Profesionales para que sean utilizadas en la verificación de sus propuestas de títulos.

La CODDI agradece los esfuerzos y el trabajo que desde el MICINN se están realizando para resolver el problema, personalizando este reconocimiento en la persona del Director General de Universidades, Felipe Pétriz. Pero la CODDI considera que esta medida, sin el respaldo de una orden ministerial, es completamente ineficaz. No puede obligarse a una universidad a ajustarse a una serie de requisitos en el diseño de los nuevos títulos si el MICINN, que es competente para ello, no establece dicho carácter obligatorio. De hecho ya existen hoy en día referentes que la ANECA utiliza en la verificación de los títulos, como los libros blancos, que no son evidentemente un marco suficiente en el ámbito de las ingenierías como profesiones reguladas por lo que el MICINN ha decidido elaborar órdenes para establecer sus requisitos.

En esta situación es imposible que el proceso de elaboración de los futuros títulos de grado y Máster en Ingeniería Informática pueda desarrollarse con normalidad, eficacia y a tiempo. Esta situación resulta más grave si cabe teniendo en cuenta que son más de 90.000 los estudiantes de estas titulaciones en las universidades españolas y del orden de 100.000 los profesionales que trabajan en un sector tan clave como este para la economía española todavía sin regulación, con todos los riesgos que ello conlleva. Como una prueba más de la importancia de que el proceso de reforma de las ingenierías tenga un tratamiento homogéneo, los Portavoces de los Grupos Parlamentarios de la Comisión de Ciencia e Innovación del Senado, en la Sesión del 12 de noviembre, aprobaron por unanimidad instar al Gobierno a incorporar las titulaciones del ámbito de la Ingeniería Informática (grado y máster) en la discusión del conjunto de las ingenierías. Asimismo aprobaron instar al Gobierno a estudiar, respetando la legislación y normativa vigentes, las posibilidades de definir soluciones transitorias para que la Ingeniería Informática tenga el mismo trato que el resto de las Ingenierías hasta el desarrollo legislativo de la regulación de profesiones en el marco de trasposición de la Directiva Europea de Servicios.

En relación con la regulación de las atribuciones profesionales en el ámbito de la informática, desde la CODDI queremos volver a resaltar que la ley 12/1986, de 1 de Abril, sobre regulación de las atribuciones profesionales de los Arquitectos e Ingenieros Técnicos, dice en su preámbulo que “se toma como referencia de sus respectivas especialidades, y no obstante su eventual y necesaria reforma o modificación en virtud de las cambiantes circunstancias y exigencias de orden tecnológico, académico y de demanda social, las especialidades de ingeniería que figuran enumeradas en el decreto 148/1969”, enumeración que obviamente no incluye a Informática. Consideramos que, en relación con Informática, se dan todas las exigencias que se contemplaron en esta ley para la modificación o actualización del listado de 1969 de ingenierías reguladas: cambios tecnológicos, académicos y de demanda social, que justifican más que sobradamente la necesidad de incluir la Informática como una especialidad más dentro de las ingenierías reguladas.

Por todo lo anterior la CODDI desea reiterar su petición al Gobierno, al Ministerio de Economía y Hacienda, al Ministerio de Industria Turismo y Comercio y al Ministerio de la Presidencia, de que procedan a actualizar la ley 12/1986, de 1 de Abril, sobre regulación de las atribuciones profesionales de los Arquitectos e Ingenieros Técnicos incluyendo la especialidad de Informática y, a continuación, elabore un proyecto de órdenes con objeto de establecer las condiciones a las que deberán adecuarse los títulos que habiliten para el ejercicio de las profesiones de Ingeniero Técnico e Ingeniero en Informática. La CODDI entiende que, a la vez que respeta en todos sus términos la legislación y normativa vigentes, ésta sería la solución transitoria más adecuada hasta la transposición de la Directiva Europea a la que alude el acuerdo de los Portavoces de los Grupos Parlamentarios del Senado.

Posted in Computadores, Informática, Universidad | Etiquetado: , , , , | 8 Comments »

Jornadas de Inteligencia Computacional Aplicada al Negocio en Valencia

Posted by Carlos en julio 24, 2008

Los próximos 25-26 de septiembre (jueves-viernes) tendrán lugar en Valencia unas Jornadas de Inteligencia Computacional Aplicada al Negocio. Si lo tuyo son los algoritmos evolutivos, las redes neuronales, o los sistemas complejos, o si deseas aprender sobre el tema de boca de figuras como Zbigniew Michalewicz o JJ Merelo, y por supuesto, disfrutar del encanto inigualable de la bella ciudad de Valencia, es una gran oportunidad.

Posted in Computación Evolutiva | Etiquetado: , , | 1 Comment »