La Singularidad Desnuda

Un universo impredecible de pensamientos y cavilaciones sobre ciencia, tecnología y otros conundros

Posts Tagged ‘Test de Turing’

El Test de Turing (con un giro)

Posted by Carlos en noviembre 23, 2007

Posted in Comic, Inteligencia Artificial | Etiquetado: , , | 2 Comments »

Soylent Grid: Cómo convertir los CAPTCHA en un sistema de computación humana distribuida

Posted by Carlos en octubre 17, 2007

CAPTCHA A poco que uno se mueva por la red las posibilidades de enfrentarse a un CAPTCHA aumentan rápidamente. Basta con querer escribir un comentario en algún blog, crear una cuenta de correo electrónico, o acceder por primera vez a algún servicio on-line para que con gran probabilidad nos muestren alguna combinación distorsionada de caracteres que debemos identificar para proseguir. Este tipo de rudimentario test de Turing es preciso para evitar abusos en estos sistemas, impidiendo que bots accedan a los servicios. La idea básica es que el esfuerzo necesario para resolver uno de estos desafíos (de estar bien diseñado) sería enorme -imposible de manera ideal- para un sistema automatizado, pero mínimo para un humano, quizás unos pocos segundos.

Partiendo de la base de lo anterior, cabría preguntarse si ese esfuerzo cognitivo realizado por los usuarios humanos podría aprovecharse de algún modo adicional al de la propia detección de bots. Hay que tener en cuenta que aunque individualmente dicho esfuerzo es mínimo, si hay miles, centenares de miles o incluso millones de personas conectadas a Internet y sometidas a un CAPTCHA a diario, el esfuerzo acumulado pasa a ser enormemente considerable. Una utilidad para el mismo es la que Stephan Steinbach, Vincent Rabaud y Serge Belongie, del Departamento de Informática e Ingeniería de la Universidad de California San Diego, han propuesto en un trabajo titulado

presentado en la conferencia Interactive Computer Vision 2007. La idea de estos investigadores es la de emplear este esfuerzo cognitivo para el etiquetado o segmentación de imágenes, con vistas a su utilización en por ejemplo aplicaciones de asistencia a personas con discapacidad visual. Pensemos en lo siguiente: al entrar a un cierto sitio web se nos muestran una serie de fotografías de productos de un supermercado, y se nos pide que identifiquemos aquellas que contienen un determinado producto o clase de productos (conservas, bebidas gaseosas, etc.). De entre estas fotografías habrá unas cuantas que ya están correctamente etiquetadas con antelación. Si el usuario falla en la identificación de éstas no ha pasado el CAPTCHA y se le niega el acceso. Por el contrario, si las identifica correctamente, se asume que su respuesta a las fotografías no etiquetadas es la correcta (por supuesto en todo el proceso el usuario no sabe qué imágenes son de control y cuáles no, por lo que intenta contestar siempre correctamente). Mediante un adecuado dimensionamiento del número de fotografías se puede garantizar que por pura combinatoria la probabilidad de que se pase el test al azar, o de que conteste correctamente a las preguntas de control e incorrectamente a las no etiquetadas es muy pequeña. Más aún, el hecho de que hay miles de usuarios permitiría eliminar fácilmente este tipo de errores de etiquetados a través de análisis estadísticos.

Los tipos de prueba en los que los autores están pensando son cuatro: identificar el nombre de un objeto, identificar las fotografías que tengan un cierto objeto o las diferentes apariciones de un cierto objeto en una fotografía, dibujar el contorno de un objeto en una fotografía, o identificar si una imagen es estéticamente agradable o no. Este tipo de cuestiones serían proporcionadas por un grupo de investigación a las organizaciones cliente (aquellas que quieren disponer de CAPTCHA en sus páginas web), que se beneficiarían de un sistema de detección de bots eficaz y barato, a la vez que proporcionarían información muy útil a los investigadores. Todos contentos.

Como nota anecdótica, el nombre Soylent Grid es por supuesto una referencia a la película de ciencia-ficción Soylent Green (“Cuando el destino nos alcance“). Y es que el ingrediente básico tanto de la supuesta comida a base de plancton que da el nombre a la película, como de la red computacional que en este caso se usaría es el mismo.

Posted in Ciencia Ficción, Cine, Informática, Internet, Tecnología | Etiquetado: , , , , , | 4 Comments »

El Test de Turing Musical: ¿Conseguiremos un Tommy Dorsey cibernético?

Posted by Carlos en abril 24, 2007

El test de Turing -del que hace algún tiempo hablábamos en relación a la posibilidad de que un buscador de Internet como Google pudiera ser el primero en superarlo- es una de las más clásicas caracterizaciones de la Inteligencia Artificial. Hay que recordar que a grandes rasgos lo que en él se plantea es que una máquina cuya capacidad la hace ser indistinguible de un humano en una conversación puede ser caracterizada como “pensante”. Esta caracterización está por supuesto sujeta a un amplio debate que podemos abordar con más detalle en un futuro artículo. Consideremos por el momento una de las objeciones que se suelen plantear, y que hace referencia al hecho de que esta prueba adolezca de “chauvinismo” antropomórfico. En este sentido, por una parte está la cuestión de fondo de que se busca en la máquina sujeta al test la expresión de un comportamiento asimilable al humano. Por otra parte está la cuestión de forma de que se exige que la conversación se plantee mediante un lenguaje humano. En relación a la primera objeción, cabe aducir que aun siendo cierta, es verdad también que puede objetivizar la prueba en tanto en cuanto que asumir inteligencia en un sentido abstracto puede ser difuso y subjetivo. La argumentación no termina ahí, pero dejémosla de lado y concentrémonos en la segunda cuestión, la formal. Esta objeción es interesante por varios motivos, como por ejemplo que la elección del lenguaje podría ser muy relevante a la hora de facilitar o dificultar que la máquina pasara el test, que el procesamiento de lenguaje natural introduce un nivel adicional de complejidad que no necesariamente debe conllevar inteligencia aparejada, o que simplemente el uso del lenguaje puede ser un factor de distracción debido por ejemplo al uso de expresiones de relleno. ¿De qué manera pueden mitigarse algunas de estas dificultades? Quizás la respuesta la tengamos en el uso de un lenguaje más flexible y más universal: la música.

Planteémonos una analogía al test de Turing en términos musicales. Una primera idea puede ser la de tomar dos composiciones musicales, una compuesta por un hombre, y otra por una máquina, y someterlas a la consideración de un experto. Si el mismo es incapaz de determinar cuál es la humana, y cuál la creada por la máquina, podríamos decir que ésta ha pasado el test. El problema es que un test como éste puede plantear dificultades para la máquina si el humano es un gran compositor (en el test de Turing clásico si el humano es un gran orador la máquina estaría comprometida, pero en menor medida, ya que es más fácil simular la oratoria que el talento musical); por otra parte sería muy fácil para la máquina si el humano es un pésimo compositor, o un compositor -digamos- extravagante en sus obras (este inconveniente sí es análogo al que se plantea en el test de Turing clásico). Démosle entonces una vuelta de tuerca al test, y planteémoslo en otros términos, como si de una conversación se tratase: tendríamos una orquesta virtual, dentro de la cual estaría el juez como músico o como director. Si la actuación de la máquina es indistinguible de la de un humano durante la obra (que puede -y debe- conllevar su parte de improvisación) diríamos que ha pasado el test.

musicbot.jpg
Credit: Dean MacAdam, ScienceNews

Una cosa como la anterior plantea numerosas dificultades. Una parte de las mismas está relacionada con el propio reconocimiento del sonido musical, problema similar al reconocimiento del habla. Es preciso que la máquina sea capaz de identificar las notas individuales (y considérese que hay ruido, múltiples notas superpuestas por parte de diferentes instrumentos, etc.), y esto es una tarea muy compleja. Sin embargo, los progresos que se han hecho en este área son enormes (¡gracias Villa por el link!). Por ejemplo, utilizando técnicas de aprendizaje automático (redes neuronales, modelos bayesianos, etc.) se puede mejorar la identificación de los sonidos, ya que las secuencias de notas no son arbitrarias sino que siguen algunos patrones generales que hacen que sean agradables a nuestro oído. Más aún, se ha conseguido que un ordenador correlacione las notas con la partitura, de manera que siga el desarrollo de la obra y sea capaz de proporcionar acompañamiento a un solista, siguiendo su ritmo. Se trata sin duda de un logro excepcional, aunque aún falta dar el siguiente paso: introducir la creatividad y la interacción en la composición. Hay algunas cosas interesantes hechas con redes neuronales, o con algoritmos evolutivos, pero aún distan mucho de lo que se consideraría equivalente al rendimiento humano en algo así como una jam session. De todas formas, quién sabe si veremos antes a un robot saxofonista improvisando en una banda de jazz que a un robot conversacional pasando el test de Turing.

Enviar a Blog Memes Enviar a del.icio.us Enviar a digg Enviar a fresqui Enviar a menéame

Posted in Computación Evolutiva, Computadores, Inteligencia Artificial, Música | Etiquetado: | 4 Comments »

¿Superará pronto Google el test de Turing?

Posted by Carlos en diciembre 6, 2006

El test de Turing es uno de los más clásicos intentos de caracterizar la inteligencia humana, y determinar si un sistema artificial puede considerarse “inteligente”. Básicamente, el test consiste en disponer a dos personas (un juez, y un sujeto de control) y a la máquina escrutada en tres habitaciones separadas. La persona que actúa como juez puede comunicarse a través de algún sistema textual (un teletipo en la versión primigénea del test, o un sistema de mensajería instantánea en la actualidad) con cualquiera de las dos habitaciones, aunque no sabe cuál de las dos contiene a la máquina o al sujeto de control. Si después de conversar durante un tiempo razonable con ambas habitaciones sigue siendo incapaz de determinar dónde está la máquina (puede pensarse incluso en una versión del test en la que el juez no sabe si realmente hay una máquina y una persona, o dos personas), diríamos que ésta ha pasado el test de Turing.

Aunque el test de Turing es cuestionable en muchos aspectos (puede consultarse la bibliografía compilada por Ayse Pinar Saygin, o ir directamente a obras como “La Nueva Mente del Emperador” de Roger Penrose), podríamos al menos conceder que fija un listón mínimo que ha de ser superado antes de que otorguemos a una máquina la categoría de “inteligente” en el sentido humano (nuevamente, esto puede ser discutible, pero admitámoslo así). De hecho, se trata de algo bastante complejo, ya que conlleva procesamiento de lenguaje natural, y cierta capacidad de razonamiento abstracto. En la actualidad, es posible definir programas que mediante circunloquios, frases generales, etc. lleguen a aburrir a un posible interlocutor, pero eso quedaría fácilmente al descubierto en un test de Turing (o al menos levantaría las sospechas del juez), cuando se viera que uno de los interlocutores (el humano) da respuestas precisas, mientras que el otro responde de manera vaga. Se persigue pues algo más que la mera conversación: compresión, e intercambio de información. Esto es un obejtivo clarmente ambicioso que no está claro cuándo se podrá conseguir. Mitchell Kapor y Ray Kurzweil han apostado 10,000$ cada uno sobre si en 2029 habrá algún sistema que pase el test de Turing (Kapor dice que no, y Kurzweil dice que sí).

Pues bien, podría ser que Kurzweil tuviera posibilidades de ganar la apuesta y -más aún- que el primer sistema en superar el test de Turing no sea una IA fruto de sesudos proyectos de quinta generación, sino una herramienta que todos usamos a diario: los buscadores de Internet. Según datos de la Acceleration Studies Foundation presentados en el reciente Standford Singularity Summit, la longitud media de las consultas que devuelven resultados precisos era de1.3 en 1998 (Altavista), de 1.8 en 2000 (Google en lo sucesivo), 2.6 en la actualidad, y se prevee de 5.2 y 10.4 en 2012 y 2019 respectivamente. Éste es el típico patrón de crecimiento exponencial que se da en la bien conocida Ley de Moore, y en tantos otros fenómenos relacionados con el desarrollo científico y tecnológico. Lo interesante es que una pregunta normal formulada entre seres humanos tiene una longitud media de unas 10-12 palabras (esto puede variar de un lenguaje a otro, pero no es demasiado importante). Ello quiere decir que se podrán plantear preguntas muy concretas a Google (o a su sucesor en los años venideros) y obtener respuestas precisas. Por ejemplo: “¿cómo están mejor los spaghetti carbonara, con nata o sin nata?” y rápidamente nos diría que… (habrá que esperar unos años para saberlo). ¿No es fantástico?

Posted in Inteligencia Artificial, Singularidad, Tecnología | Etiquetado: , | 19 Comments »