-->

Los niños pequeños aprenden palabras igual que los perros. ¿Podrían hacerlo las máquinas?

Los algoritmos y procesos de inteligencia artificial (IA) han recibido un impulso muy grande en los últimos años. A ello han contribuido las grandes bases de datos, la potencia de los nuevos microprocesadores y la mayor comprensión del funcionamiento matemático.

Sin embargo, las técnicas que están más de moda, como el famoso deep-learning, ya están dando muestras de agotamiento. Además, cada vez más científicos defienden que hay que desarrollar nuevas herramientas. En palabras de Pedro Domingos, “llevamos empleando los mismos principios desde 1950”.

En los últimos años, la inspiración que ha hecho avanzar a la IA proviene de la neurociencia y la psicología. Hoy parece mentira, pero en su origen estas dos disciplinas iban de la mano. Sin embargo, según se fueron desarrollando y especializando, cada vez se separaron más y más.

Hoy es el día en que la combinación de ellas puede arrojar luz sobre nuevos algoritmos de IA. En el presente artículo, quiero demostrar un caso particular, entre muchos, de alianza entre disciplinas.

 

¿Cómo aprenden palabras nuevas los perros?

Estos animales emplean una técnica muy curiosa. Pensemos que en un experimento disponemos de tres objetos: los nombres de dos de ellos son conocidos por los canes (por ejemplo, pelota y peluche), y el del restante, no (zapatilla).

Si pedimos al perro que nos dé la zapatilla, ¿cómo distinguirá el objeto correcto? A modo de descarte, elegirá el cuerpo cuyo nombre desconoce. Si nuestra respuesta es positiva, en adelante él aprenderá que zapatilla es ese objeto de tela de colores y goma.




No es la única manera en la que los perros aprenden palabras nuevas. Los investigadores afirman que, en esta manera de aprender, los canes lo hacen impulsados por una confusión mental. Los psicólogos llaman a este fenómeno el principio de mutua exclusividad.

Nuestras mascotas no son las únicas que pueden manejar este principio. Se ha demostrado que los chimpancés y los niños pequeños también la emplean. En definitiva, se conoce desde hace mucho tiempo.

La opinión mayoritaria de los científicos es que, debido a la complejidad del cerebro humano, la mutua exclusividad no es el único mecanismo que interviene en el aprendizaje de palabras. Pero no hay ninguna duda sobre su existencia. Basta con ver a un niño para entender que no existe aún ninguna máquina parecida a la mente de esa criatura.

Ahora bien, ¿cómo trasladamos esta habilidad a los algoritmos de IA tradicionales? Las redes neuronales actualmente carecen de mutua exclusividad, y de muchas más características del aprendizaje humano.

Por ejemplo, estas herramientas funcionan muy mal para aprender ideas nuevas sin borrar las antiguas. Tampoco para elaborar generalizaciones (si sabes conducir un modelo de coche, sabrás conducir el resto de modelos).

Por esta razón, se está tendiendo a integrar las aportaciones provenientes de la neurociencia y psicología. No tenemos ninguna certeza de que lleguemos a imitar perfectamente todo el aprendizaje humano. Pero ese es el tipo de respuestas que persigue cualquier labor de investigación.



Este artículo se publicó originalmente en The Conversation, sitio web que os recomiendo visitar

Qué difícil es predecir el futuro

Estas semanas están siendo de mucha actividad para el autor de este blog. Entre otras tareas, estoy leyendo sobre predicciones erróneas y la validez de los 'expertos' para hacer predicciones. Prometo contar las historias e ideas interesantes -para mí- que estoy encontrando. Pero de momento, hoy os dejo con una confesión de Wilbur Wright, uno de los precursores del primer vuelo.

Durante un importante discurso en el Aéroclub de France, la primera institución aeronáutica en el mundo, fundada en 1898, el mayor de los hermanos dijo:



Confieso que en 1901 le admití a Orville que durante 50 años el hombre no lograría volar.




Dos años más tarde, el 17 de diciembre de 1903, ellos mismos lo lograron.

Fíjense los lectores qué difícil es hacer predicciones, incluso de la gente que más sabe, como para acertar. ¿Harán los expertos mejores predicciones que los no-expertos?


El Gran Hermano (digo, Hacienda) os vigila: fraudes y delitos

En las fechas en las que a mí me entró el gusto por aporrear las teclas del ordenador y leer sobre seguridad informática, los consejos de seguridad en esencia, diferían poco de los actuales. En aquella época de módems de Internet que crearon una de las bandas sonoras de nuestras vidas, esas lejanas entrevistas y consejos de Una al Día ya insistían en no clicar en todos los enlaces, el phising, contraseñas de correo seguras, etc.

Con el Big Bang de las redes sociales, que aunque no lo creamos, no estaban ahí hace tanto tiempo, los consejos se ampliaron a 'ojo con lo que publicamos en las redes sociales'. La mayoría de usuarios opina que estas sabias palabras no merecen de su atención, y así se ve lo que se ve por Instagram, Facebook, y ya saben los lectores cuáles más.

Pero luego te encuentras con que cada vez más empresas husmean el perfil de los candidatos a sus puestos de trabajo o los bancos a la hora de concederte un préstamo. Posiblemente mucha gente aún piense que el sacrificio de ocultar su última escapada de fin de semana no compense la incorporación a una empresa. Ya intentará entrar en otra entidad.



En este hambre voraz del contenido de tus redes sociales, conocí hace poco que incluso el patrón de todos nosotros, Hacienda, lo usa como práctica habitual. Y quizás ahora los lectores muestren más interés en ocultar el contenido de sus redes:

La noticia me pilla tarde. Concretamente, ya en 2015 se anunciaba que se iba a crear un Gran Hermano para espiar las redes sociales. Ellos lo llamaron 'Plan Anual de Control Tributario. Según el artículo que enlazo:

A través de programas informáticos espía que recabarán y clasificarán la información de la red a través de un sistema que todavía no han especificado, Hacienda investigará las páginas webs, las redes sociales, los foros o los blogs de quien considere para detectar posibles prácticas fraudulentas. Estos datos se sumarán a los ficheros que el fisco ya posee sobre empresas y particulares.


Seguir leyendo: http://www.libremercado.com/2015-02-21/montoro-crea-un-gran-hermano-fiscal-para-espiar-las-redes-sociales-1276541280/

En el mismo artículo señalan que esto es una práctica anterior a 2015. Esto no afecta solo a España, sino que se da en multitud de países, algunos desde 2004. 

Es decir, los métodos habituales de detección de fraude en el cobro de ayudas, o de una modesta declaración de ingresos en tu declaración, se verá contrastada con las fotos en playas paradisíacas, o incluso cosas más prosaícas, como pistas de si convives o no con más personas, lo cual es un impedimento para el cobro de numerosas ayudas sociales. Y me temo que esto, con la mejora de la identificación de imágenes con inteligencia artificial, irá a más. ¿Qué hacen luego con nuestros datos? ¿Cumple la ley de Protección de Datos Personales?

Según mi admirado Teniente Kaffee (profesional de Justicia que trabaja para el Estado, como dice él), si la cuenta de Facebook está abierta, todo esto es legal en un juicio. En cambio, si Hacienda te pide amistad como 'Antonio, el del barrio', y aprovecha tu confianza para cotillear en tu cuenta, la prueba se invalida.

Queda claro que desde hace tiempo, mucho, vivimos en un Gran Hermano. Pero nos vigilan asumiendo la naturaleza humana de la picaresca y la evasión fiscal. No 'nos cuidan'. El Ministerio de Sanidad usando la misma información de las redes sociales, podría detectar ánimos suicidas, enfermedades mentales o algún otro tipo de dolencia.

Violencia de género y algoritmos

La dictadura de las matemáticas hace tiempo que se halla entre nosotros. No es necesario que se integre en un cuerpo robótico, de metal, sino que actualmente ya se encuentran gobernando programas informáticos y leyes que gobiernan nuestras vidas. Estoy seguro de que si dejo a los lectores de este humilde blog, 2 minutos para pensar a qué sector puede afectar las fórmulas matemáticas y los algoritmos, estoy seguro de que la mayoría sugerirá la banca, el empleo o el transporte. Pero no, en esta ocasión vengo a hablar de violencia de sexo.

Concretamente, quiero describir brevemente la herramienta matemática, fría y sin alma, que se emplea en España cuando hay un delito de esta naturaleza.

Desde 2007, cuando una mujer acude con un problema de violencia de sexo, la policía le pide que rellene un cuestionario. Posteriormente, el agente de la autoridad rellena a su vez otro cuestionario distinto, ya que en muchas ocasiones la víctima no es capaz de responder fría y objetivamente.

Tras el rellenado de esos dos formularios, se aplica una fórmula matemática super-sencilla y se calcula el riesgo de volver a ser atacada que tiene esa mujer. Concretamente, la fórmula puede arrojar uno de estos cinco resultados: no apreciado, bajo, medio, alto y extremo. Sin sentimentalismos.

Lista de preguntas del protocolo VPR



De esa manera, la vida de esa mujer queda en manos de una fórmula matemática, ya que en función del resultado la policía le asignará más o menos medidas de protección.

Esta sencilla operación matemática se ha obtenido estudiando casos antiguos de delitos de violencia de sexo. En otras palabras, se estudió qué respondieron las mujeres de entonces, y si fueron atacadas de nuevo o no. En lenguaje científico podíamos denominar a esto un ajuste por regresión, prácticamente.

Pero en mi opinión, debería llamarnos la atención que en lugar de la intuición policial, nos fiemos de esa ley numérica. Además, lo que ocurrió en el pasado, no tiene por qué repetirse en el futuro, y menos tratándose de personas y nuestra imprevisibilidad.

Este algoritmo no es inteligencia artificial, tal y como se ha vendido en algunos medios (por ejemplo). No, es algo de una complejidad mucho más baja.

Los cuestionarios difieren un poco entre los cuerpos policiales del país (EPV-R, para la Policía Vasca, o VPR para la Policía Nacional). Ya ha habido numerosas quejas que advierten que este algoritmo no funcionaba correctamente, pero puede tardar meses en que el cuestionario cambie. ¿Y cómo daríais explicaciones a las familiares de la víctima, si fuerais conscientes de que la aplicación de una fórmula que podría usar un niño de 12 años, ha decidido que la víctima no tuviera protección?



NOTA:

Los cuestionarios los podéis encontrar a partir de la página 101 del manual de Viogén del Ministerio del Interior.

Hay artículos científicos que 'validan' el sistema empleado por la Policía, como este o este. Sin embargo, la metodología empleada está lejos de ser robusta, en mi humilde opinión.



Este artículo es la adaptación y traducción de un artículo que se publicó el día 6 de junio en el diario Berria, escrito en euskera.


¿La (des)robotización que va tomando forma?

Ayer comenté en la Red del Pajarito la conversación con un antiguo alumno que trabaja dando asistencia técnica a industrias manufactureras del norte de España. 

Como las palabras se las lleva el viento, y los tuits también, voy a dejar aquí la reflexión de este ingeniero respecto a mis consultas tras ver el revuelo que causó con algunos usuarios de Twitter. Concretamente, le pregunté si las industrias que él visitaba se estaban robotizando o no. Y él me dijo 'en todo caso, yo diría que se están desrobotizando'. Y paso a explicar este fenómeno:

Para simplificar el relato, llamémosle Igor al protagonista de la historia. El tipo de máquinas a las que asiste este chico, son máquinas de corte de chapa, plegado, punzado, etc. Se trata de un tipo de operaciones de escasa precisión y bajo valor añadido. En definitiva, las fábricas que ofrecen este servicio tienen que ser competitivos en coste y entregar los pedidos rápido. La precisión de estas operaciones es de décimas de milímetro o de ángulo. Estas empresas, en muchas ocasiones, suelen ser proveedores de otros fabricantes o ensambladores finales.

Fuente



La razón fundamental para que los robots no sean viables en este tipo de industria es que las tiradas de piezas a realizar normalmente son cortas, y que se necesita ser muy flexible. De un día a otro te puede llamar un cliente importante y decirte: 'para mañana me tienes que hacer 100 cabinas de ascensor'. Con lo cual, el proveedor normalmente tiene que interrumpir su producción, y poner a hacer una operación distinta a su línea de producción.

Reprogramar un robot es costoso, lleva 1h y se requiere cierto nivel de cualificación. En cambio, hacer que un operario cambie de operación es sencillo, barato, y no se requiere que tenga mucha experiencia ni cualificación, según Igor.

Pero la clave fundamental para que la implantación de este tipo de robots tenga éxito es sobre todo que se fabrique lotes grandes. En otro sector totalmente distinto, el de alimentación, Igor mencionaba que la automatización es muy alta, ya que ahí la producción apenas varía. 

Una vez reposada la información, me surge una duda: ¿a qué le llamaría mi interlocutor exactamente desrobotizar? ¿A devolver robots a sus proveedores? ¿O a no emplear todas las capacidades de una máquina para hacer las operaciones, y optar por hacerlas manuales?

¿Dónde queda la conectividad y la inteligencia artificial? No soy portador de malas noticias: sí que existe y tiene presencia cada vez mayor en las industrias. Cada vez las máquinas están más conectadas a su alrededor. Por otro lado, la matriz japonesa que vende las máquinas de corte de las que estoy hablando, monitoriza estos aparatos remotamente a sus clientes, de manera que puede predecir gracias a múltiples sensores cuándo se va a romper algún elemento del ingenio.

Sin embargo, un punto preocupante es que este tipo de producción de operaciones de corte-doblado de chapa... no es de valor añadido, ni representa un producto propio con una barrera de mercado alta. Eso deja en una situación más indefensa a cualquier empresa. En otra conversación de Twitter, me comentaban que en nuestro país una grandísima parte del trabajo es de body-shipping (es decir, A subcontrata a B, que a su vez, subcontrata a C). Según mi antiguo alumno, las empresas que tienen un producto propio, pueden controlar su stock, sus tiradas, tiempos, etc, y entonces, pueden automatizar sus líneas. Y automatizando, logran mayor competitividad respecto a la competencia.

Por lo tanto, esto vuelve a demostrar que un mercado o una tecnología no se impondrá por imperativo legal ni porque suene mucho en los periódicos. Sino que las leyes, el talento, las empresas y el mercado tienen que ser propicios.

¿Qué pensáis vosotros de todo esto? ¿Qué experiencia habéis tenido con la (des)robotización?

¿Cuántos ordenadores hacen falta para identificar a un gato?

16.000.

Si ya estáis satisfechos, podéis dejar de leer el artículo. De lo contrario, en las siguientes líneas explicaré brevemente la cifra.




En 2012 el New York Times con el llamativo título de 'How Many Computers to Identify a Cat? 16,000', y describe un experimento llevado a cabo por Google, y que tuvo mucho bombo en los medios de comunicación. 

El experimento representa un hito importante por dos motivos principalmente. En primer lugar, es un experimento en gran escala (no os imagináis el problema que es la escalabilidad de estos algoritmos. No voy a entrar ahora en ello). En segundo lugar, se detectaron gatos sin que nadie etiquetara previamente miles de imágenes que contenían gatos. A ver si me explico:

Podéis llegar a tener miles de personas semi-esclavas etiquetando las fotos en las que aparecen gatos, lo que se conoce como data-turks. Consiste en ver millones de imágenes y señalar las fotos que tienen a estos felinos. 

Pero Google no lo hizo así, sino que se valió de 10 millones de vídeos de YouTube, los dividió en millones de fotogramas distintos, y sin que nadie más dijera nada más, supo identificar a los lindos gatitos. Para ello, invirtió 3 días. ¿Cómo es esto? Realmente, Google no sabe que un gato es un gato, pero sí que llegó a clasificar fotos. Es decir, supo distinguir unas formas, colores, ojos, volúmenes que se parecían entre sí, y que eran diferentes a las formas, colores, ojos, volúmenes de una mesa, o un coche, o una persona. Posteriormente, una persona puso un nombre a cada clasificación. Fotos clasificadas como 'gatos', como 'coches', como 'personas', etc.

El artículo original publicado por Google explicando su investigación está aquí.

Por todo esto, basta con ver cómo se comporta, cómo aprende y cómo relaciona conceptos un bebé de 6 meses, y no digamos ya 3 años, para ver que el nivel de el aprendizaje artificial está aún a años luz de una criatura humana. Y eso a mí me resulta fascinante.

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Web Hosting