-->

Los niños pequeños aprenden palabras igual que los perros. ¿Podrían hacerlo las máquinas?

Los algoritmos y procesos de inteligencia artificial (IA) han recibido un impulso muy grande en los últimos años. A ello han contribuido las grandes bases de datos, la potencia de los nuevos microprocesadores y la mayor comprensión del funcionamiento matemático.

Sin embargo, las técnicas que están más de moda, como el famoso deep-learning, ya están dando muestras de agotamiento. Además, cada vez más científicos defienden que hay que desarrollar nuevas herramientas. En palabras de Pedro Domingos, “llevamos empleando los mismos principios desde 1950”.

En los últimos años, la inspiración que ha hecho avanzar a la IA proviene de la neurociencia y la psicología. Hoy parece mentira, pero en su origen estas dos disciplinas iban de la mano. Sin embargo, según se fueron desarrollando y especializando, cada vez se separaron más y más.

Hoy es el día en que la combinación de ellas puede arrojar luz sobre nuevos algoritmos de IA. En el presente artículo, quiero demostrar un caso particular, entre muchos, de alianza entre disciplinas.

 

¿Cómo aprenden palabras nuevas los perros?

Estos animales emplean una técnica muy curiosa. Pensemos que en un experimento disponemos de tres objetos: los nombres de dos de ellos son conocidos por los canes (por ejemplo, pelota y peluche), y el del restante, no (zapatilla).

Si pedimos al perro que nos dé la zapatilla, ¿cómo distinguirá el objeto correcto? A modo de descarte, elegirá el cuerpo cuyo nombre desconoce. Si nuestra respuesta es positiva, en adelante él aprenderá que zapatilla es ese objeto de tela de colores y goma.




No es la única manera en la que los perros aprenden palabras nuevas. Los investigadores afirman que, en esta manera de aprender, los canes lo hacen impulsados por una confusión mental. Los psicólogos llaman a este fenómeno el principio de mutua exclusividad.

Nuestras mascotas no son las únicas que pueden manejar este principio. Se ha demostrado que los chimpancés y los niños pequeños también la emplean. En definitiva, se conoce desde hace mucho tiempo.

La opinión mayoritaria de los científicos es que, debido a la complejidad del cerebro humano, la mutua exclusividad no es el único mecanismo que interviene en el aprendizaje de palabras. Pero no hay ninguna duda sobre su existencia. Basta con ver a un niño para entender que no existe aún ninguna máquina parecida a la mente de esa criatura.

Ahora bien, ¿cómo trasladamos esta habilidad a los algoritmos de IA tradicionales? Las redes neuronales actualmente carecen de mutua exclusividad, y de muchas más características del aprendizaje humano.

Por ejemplo, estas herramientas funcionan muy mal para aprender ideas nuevas sin borrar las antiguas. Tampoco para elaborar generalizaciones (si sabes conducir un modelo de coche, sabrás conducir el resto de modelos).

Por esta razón, se está tendiendo a integrar las aportaciones provenientes de la neurociencia y psicología. No tenemos ninguna certeza de que lleguemos a imitar perfectamente todo el aprendizaje humano. Pero ese es el tipo de respuestas que persigue cualquier labor de investigación.



Este artículo se publicó originalmente en The Conversation, sitio web que os recomiendo visitar

Qué difícil es predecir el futuro

Estas semanas están siendo de mucha actividad para el autor de este blog. Entre otras tareas, estoy leyendo sobre predicciones erróneas y la validez de los 'expertos' para hacer predicciones. Prometo contar las historias e ideas interesantes -para mí- que estoy encontrando. Pero de momento, hoy os dejo con una confesión de Wilbur Wright, uno de los precursores del primer vuelo.

Durante un importante discurso en el Aéroclub de France, la primera institución aeronáutica en el mundo, fundada en 1898, el mayor de los hermanos dijo:



Confieso que en 1901 le admití a Orville que durante 50 años el hombre no lograría volar.




Dos años más tarde, el 17 de diciembre de 1903, ellos mismos lo lograron.

Fíjense los lectores qué difícil es hacer predicciones, incluso de la gente que más sabe, como para acertar. ¿Harán los expertos mejores predicciones que los no-expertos?


El Gran Hermano (digo, Hacienda) os vigila: fraudes y delitos

En las fechas en las que a mí me entró el gusto por aporrear las teclas del ordenador y leer sobre seguridad informática, los consejos de seguridad en esencia, diferían poco de los actuales. En aquella época de módems de Internet que crearon una de las bandas sonoras de nuestras vidas, esas lejanas entrevistas y consejos de Una al Día ya insistían en no clicar en todos los enlaces, el phising, contraseñas de correo seguras, etc.

Con el Big Bang de las redes sociales, que aunque no lo creamos, no estaban ahí hace tanto tiempo, los consejos se ampliaron a 'ojo con lo que publicamos en las redes sociales'. La mayoría de usuarios opina que estas sabias palabras no merecen de su atención, y así se ve lo que se ve por Instagram, Facebook, y ya saben los lectores cuáles más.

Pero luego te encuentras con que cada vez más empresas husmean el perfil de los candidatos a sus puestos de trabajo o los bancos a la hora de concederte un préstamo. Posiblemente mucha gente aún piense que el sacrificio de ocultar su última escapada de fin de semana no compense la incorporación a una empresa. Ya intentará entrar en otra entidad.



En este hambre voraz del contenido de tus redes sociales, conocí hace poco que incluso el patrón de todos nosotros, Hacienda, lo usa como práctica habitual. Y quizás ahora los lectores muestren más interés en ocultar el contenido de sus redes:

La noticia me pilla tarde. Concretamente, ya en 2015 se anunciaba que se iba a crear un Gran Hermano para espiar las redes sociales. Ellos lo llamaron 'Plan Anual de Control Tributario. Según el artículo que enlazo:

A través de programas informáticos espía que recabarán y clasificarán la información de la red a través de un sistema que todavía no han especificado, Hacienda investigará las páginas webs, las redes sociales, los foros o los blogs de quien considere para detectar posibles prácticas fraudulentas. Estos datos se sumarán a los ficheros que el fisco ya posee sobre empresas y particulares.


Seguir leyendo: http://www.libremercado.com/2015-02-21/montoro-crea-un-gran-hermano-fiscal-para-espiar-las-redes-sociales-1276541280/

En el mismo artículo señalan que esto es una práctica anterior a 2015. Esto no afecta solo a España, sino que se da en multitud de países, algunos desde 2004. 

Es decir, los métodos habituales de detección de fraude en el cobro de ayudas, o de una modesta declaración de ingresos en tu declaración, se verá contrastada con las fotos en playas paradisíacas, o incluso cosas más prosaícas, como pistas de si convives o no con más personas, lo cual es un impedimento para el cobro de numerosas ayudas sociales. Y me temo que esto, con la mejora de la identificación de imágenes con inteligencia artificial, irá a más. ¿Qué hacen luego con nuestros datos? ¿Cumple la ley de Protección de Datos Personales?

Según mi admirado Teniente Kaffee (profesional de Justicia que trabaja para el Estado, como dice él), si la cuenta de Facebook está abierta, todo esto es legal en un juicio. En cambio, si Hacienda te pide amistad como 'Antonio, el del barrio', y aprovecha tu confianza para cotillear en tu cuenta, la prueba se invalida.

Queda claro que desde hace tiempo, mucho, vivimos en un Gran Hermano. Pero nos vigilan asumiendo la naturaleza humana de la picaresca y la evasión fiscal. No 'nos cuidan'. El Ministerio de Sanidad usando la misma información de las redes sociales, podría detectar ánimos suicidas, enfermedades mentales o algún otro tipo de dolencia.

Violencia de género y algoritmos

La dictadura de las matemáticas hace tiempo que se halla entre nosotros. No es necesario que se integre en un cuerpo robótico, de metal, sino que actualmente ya se encuentran gobernando programas informáticos y leyes que gobiernan nuestras vidas. Estoy seguro de que si dejo a los lectores de este humilde blog, 2 minutos para pensar a qué sector puede afectar las fórmulas matemáticas y los algoritmos, estoy seguro de que la mayoría sugerirá la banca, el empleo o el transporte. Pero no, en esta ocasión vengo a hablar de violencia de sexo.

Concretamente, quiero describir brevemente la herramienta matemática, fría y sin alma, que se emplea en España cuando hay un delito de esta naturaleza.

Desde 2007, cuando una mujer acude con un problema de violencia de sexo, la policía le pide que rellene un cuestionario. Posteriormente, el agente de la autoridad rellena a su vez otro cuestionario distinto, ya que en muchas ocasiones la víctima no es capaz de responder fría y objetivamente.

Tras el rellenado de esos dos formularios, se aplica una fórmula matemática super-sencilla y se calcula el riesgo de volver a ser atacada que tiene esa mujer. Concretamente, la fórmula puede arrojar uno de estos cinco resultados: no apreciado, bajo, medio, alto y extremo. Sin sentimentalismos.

Lista de preguntas del protocolo VPR



De esa manera, la vida de esa mujer queda en manos de una fórmula matemática, ya que en función del resultado la policía le asignará más o menos medidas de protección.

Esta sencilla operación matemática se ha obtenido estudiando casos antiguos de delitos de violencia de sexo. En otras palabras, se estudió qué respondieron las mujeres de entonces, y si fueron atacadas de nuevo o no. En lenguaje científico podíamos denominar a esto un ajuste por regresión, prácticamente.

Pero en mi opinión, debería llamarnos la atención que en lugar de la intuición policial, nos fiemos de esa ley numérica. Además, lo que ocurrió en el pasado, no tiene por qué repetirse en el futuro, y menos tratándose de personas y nuestra imprevisibilidad.

Este algoritmo no es inteligencia artificial, tal y como se ha vendido en algunos medios (por ejemplo). No, es algo de una complejidad mucho más baja.

Los cuestionarios difieren un poco entre los cuerpos policiales del país (EPV-R, para la Policía Vasca, o VPR para la Policía Nacional). Ya ha habido numerosas quejas que advierten que este algoritmo no funcionaba correctamente, pero puede tardar meses en que el cuestionario cambie. ¿Y cómo daríais explicaciones a las familiares de la víctima, si fuerais conscientes de que la aplicación de una fórmula que podría usar un niño de 12 años, ha decidido que la víctima no tuviera protección?



NOTA:

Los cuestionarios los podéis encontrar a partir de la página 101 del manual de Viogén del Ministerio del Interior.

Hay artículos científicos que 'validan' el sistema empleado por la Policía, como este o este. Sin embargo, la metodología empleada está lejos de ser robusta, en mi humilde opinión.



Este artículo es la adaptación y traducción de un artículo que se publicó el día 6 de junio en el diario Berria, escrito en euskera.


¿La (des)robotización que va tomando forma?

Ayer comenté en la Red del Pajarito la conversación con un antiguo alumno que trabaja dando asistencia técnica a industrias manufactureras del norte de España. 

Como las palabras se las lleva el viento, y los tuits también, voy a dejar aquí la reflexión de este ingeniero respecto a mis consultas tras ver el revuelo que causó con algunos usuarios de Twitter. Concretamente, le pregunté si las industrias que él visitaba se estaban robotizando o no. Y él me dijo 'en todo caso, yo diría que se están desrobotizando'. Y paso a explicar este fenómeno:

Para simplificar el relato, llamémosle Igor al protagonista de la historia. El tipo de máquinas a las que asiste este chico, son máquinas de corte de chapa, plegado, punzado, etc. Se trata de un tipo de operaciones de escasa precisión y bajo valor añadido. En definitiva, las fábricas que ofrecen este servicio tienen que ser competitivos en coste y entregar los pedidos rápido. La precisión de estas operaciones es de décimas de milímetro o de ángulo. Estas empresas, en muchas ocasiones, suelen ser proveedores de otros fabricantes o ensambladores finales.

Fuente



La razón fundamental para que los robots no sean viables en este tipo de industria es que las tiradas de piezas a realizar normalmente son cortas, y que se necesita ser muy flexible. De un día a otro te puede llamar un cliente importante y decirte: 'para mañana me tienes que hacer 100 cabinas de ascensor'. Con lo cual, el proveedor normalmente tiene que interrumpir su producción, y poner a hacer una operación distinta a su línea de producción.

Reprogramar un robot es costoso, lleva 1h y se requiere cierto nivel de cualificación. En cambio, hacer que un operario cambie de operación es sencillo, barato, y no se requiere que tenga mucha experiencia ni cualificación, según Igor.

Pero la clave fundamental para que la implantación de este tipo de robots tenga éxito es sobre todo que se fabrique lotes grandes. En otro sector totalmente distinto, el de alimentación, Igor mencionaba que la automatización es muy alta, ya que ahí la producción apenas varía. 

Una vez reposada la información, me surge una duda: ¿a qué le llamaría mi interlocutor exactamente desrobotizar? ¿A devolver robots a sus proveedores? ¿O a no emplear todas las capacidades de una máquina para hacer las operaciones, y optar por hacerlas manuales?

¿Dónde queda la conectividad y la inteligencia artificial? No soy portador de malas noticias: sí que existe y tiene presencia cada vez mayor en las industrias. Cada vez las máquinas están más conectadas a su alrededor. Por otro lado, la matriz japonesa que vende las máquinas de corte de las que estoy hablando, monitoriza estos aparatos remotamente a sus clientes, de manera que puede predecir gracias a múltiples sensores cuándo se va a romper algún elemento del ingenio.

Sin embargo, un punto preocupante es que este tipo de producción de operaciones de corte-doblado de chapa... no es de valor añadido, ni representa un producto propio con una barrera de mercado alta. Eso deja en una situación más indefensa a cualquier empresa. En otra conversación de Twitter, me comentaban que en nuestro país una grandísima parte del trabajo es de body-shipping (es decir, A subcontrata a B, que a su vez, subcontrata a C). Según mi antiguo alumno, las empresas que tienen un producto propio, pueden controlar su stock, sus tiradas, tiempos, etc, y entonces, pueden automatizar sus líneas. Y automatizando, logran mayor competitividad respecto a la competencia.

Por lo tanto, esto vuelve a demostrar que un mercado o una tecnología no se impondrá por imperativo legal ni porque suene mucho en los periódicos. Sino que las leyes, el talento, las empresas y el mercado tienen que ser propicios.

¿Qué pensáis vosotros de todo esto? ¿Qué experiencia habéis tenido con la (des)robotización?

¿Cuántos ordenadores hacen falta para identificar a un gato?

16.000.

Si ya estáis satisfechos, podéis dejar de leer el artículo. De lo contrario, en las siguientes líneas explicaré brevemente la cifra.




En 2012 el New York Times con el llamativo título de 'How Many Computers to Identify a Cat? 16,000', y describe un experimento llevado a cabo por Google, y que tuvo mucho bombo en los medios de comunicación. 

El experimento representa un hito importante por dos motivos principalmente. En primer lugar, es un experimento en gran escala (no os imagináis el problema que es la escalabilidad de estos algoritmos. No voy a entrar ahora en ello). En segundo lugar, se detectaron gatos sin que nadie etiquetara previamente miles de imágenes que contenían gatos. A ver si me explico:

Podéis llegar a tener miles de personas semi-esclavas etiquetando las fotos en las que aparecen gatos, lo que se conoce como data-turks. Consiste en ver millones de imágenes y señalar las fotos que tienen a estos felinos. 

Pero Google no lo hizo así, sino que se valió de 10 millones de vídeos de YouTube, los dividió en millones de fotogramas distintos, y sin que nadie más dijera nada más, supo identificar a los lindos gatitos. Para ello, invirtió 3 días. ¿Cómo es esto? Realmente, Google no sabe que un gato es un gato, pero sí que llegó a clasificar fotos. Es decir, supo distinguir unas formas, colores, ojos, volúmenes que se parecían entre sí, y que eran diferentes a las formas, colores, ojos, volúmenes de una mesa, o un coche, o una persona. Posteriormente, una persona puso un nombre a cada clasificación. Fotos clasificadas como 'gatos', como 'coches', como 'personas', etc.

El artículo original publicado por Google explicando su investigación está aquí.

Por todo esto, basta con ver cómo se comporta, cómo aprende y cómo relaciona conceptos un bebé de 6 meses, y no digamos ya 3 años, para ver que el nivel de el aprendizaje artificial está aún a años luz de una criatura humana. Y eso a mí me resulta fascinante.

La Drosophila del razonamiento

Este artículo se publicó originalmente el 22 de febrero en la Revista Dyna, publicación de investigación en ingeniería:




Las partidas de ajedrez contra la inteligencia artificial se están convirtiendo en una unidad de medida popular. Como la unidad de 'campos de fútbol' al hablar de superficie quemada en un bosque. El hecho de que un algoritmo venza a un Gran Maestro en este juego de mesa parece que sea un sinónimo del peligro de las máquinas para la sociedad o el advenimiento de Skynet.

Sin embargo, no hay nada más lejos de la realidad. Si la inteligencia artificial se enfrenta a humanos en juegos como el ajedrez, o el Go, es por tratarse de unas actividades perfectamente acotadas por unas reglas. Y no nos engañemos, era cuestión de tiempo que la inteligencia artificial venciese por su mayor poder de computación y falta de cansancio.

Me resulta curioso constatar que el ajedrez siempre ha sido considerado desde hace mucho como una actividad de demostración de poderío intelectual. Mucho antes que los soviéticos, en 1770 el inventor húngaro Wolfgang von Kempelen, creó un artefacto que 'jugaba' al ajedrez. Lo llamaron The Turk y más que una máquina, se convirtió en un fenómeno del espectáculo. The Turk viajó por toda la geografía durante más de 80 años retando al público a jugar una partida. Y su primera actuación no fue en una plaza menor, sino que debutó en la Corte de los Habsburgo en Viena. De hecho, jugó contra grandes figuras históricas, como Napoleón, Benjamin Franklin e incluso pudo inspirar a Charles Babbage para su Máquina Analítica. Sin embargo, no era más que un truco de ilusionista. A pesar de la apariencia de 'robot' primitivo que se puede ver en la siguiente imagen, el ingenio escondía a una pequeña persona, muy habilidosa en este juego, que era el que realizaba todo el trabajo de intelecto.





The Turk (Wikipedia)





Mucho más honesto y posterior fue el intento de uno de los más grandes inventores españoles: el Ajedrecista, de Leonardo Torres Quevedo. En su ingenio no cabía la prestidigitación de The Turk, pero en cambio, no era capaz de desarrollar una partida completa. El Ajedrecista controlaba mecánicamente un rey y una torre que jugaba contra un rey, manejado por el humano. El desenlace de este planteamiento era irremediable hacia el jaque mate o las tablas, por lo que la máquina de Torres Quevedo ganaba siempre. A pesar de eso, causó una gran sensación en 1914 cuando se presentó en París.

El Ajedrecista (El País)



No me puedo imaginar las sensaciones de frustración y asombro de los participantes en estas partidas contra ‘la máquina’, tanto The Turk como El Ajedrecista. Tal era el engaño y aplomo de la máquina de Kempelen que, en su partida contra Napoleón, éste realizó un movimiento ilegal para intentar engañar a la máquina, y The Turk reaccionó tirando todas las piezas fuera del tablero. Ese gesto contra uno de los hombres más poderosos de la época, demuestra que el truco estaba muy logrado y que su inventor tenía toda la confianza del mundo en sí mismo.


El ejemplo más cercano a los famosos algoritmos actuales, como Deep Blue o AlphaZero, lo tenemos que buscar en 1948, cuando Alan Turing y David Champernowne desarrollaron el programa conocido como Turochamp. Pero lo más increíble es que lo desarrollaron antes de que se inventara el ordenador. Las reglas de este sistema se basan en otorgar un valor concreto a cada pieza del tablero, a la posibilidad de que el rey sea atacado, a la movilidad y a la posibilidad de hacer jaque. Constituye la primera idea de inteligencia artificial capaz de enfrentarse a un humano en este juego de mesa. La primera partida de su historia fue contra la mujer de Champernowne, y ganó. La segunda fue contra Alick Glennie, y la perdió. Pero esta segunda hazaña quedó registrada para siempre en el artículo científico Digital Computers applied to Games, del propio Turing


El ajedrez. Quizás la Drosophila del razonamiento [1].


BIBLIOGRAFIA

[1]  Ed Sandifer. How Euler did it. The cannonballs http://eulerarchive.maa.org/hedi/HEDI-2006-12.pdf

Los robots de Boston Dynamics: ¿el Skynet está cerca?

En los últimos días, circula por Internet un GIF demostrando la evolución de los famosos robots de Boston Dynamics en los últimos 10 años.


via Gfycat


Aunque hay otra versión del mismo GIF, más apocalíptica.

No será la intención de este humilde divulgador infravalorar los avances de Boston Robotics, pero sí la de valorar las cosa en su justa medida: los famosos vídeos de esta empresa norteamericana no son presentaciones técnicas, sino comerciales. Los vídeos que finalmente publican en su canal de YouTube no salen a la primera, no se ven los numerosos fallos que seguro que tienen los robots, y todos los obstáculos están planeados.

Los tweets que acompañaban a los vídeos que he adjuntado aquí daban a entender que en 10 años la progresión de Boston Dynamics iba a ser la misma, o incluso más alta. Pero no hay ninguna base técnica para afirmar que eso vaya a ser posible, y lo siento mucho por los amantes de ciencia-ficción. Además, la transición del punto de tecnología actual de Boston Dynamics al punto de tecnología de Terminator es como ir de la Tierra a Júpiter. Y ese es un punto que hay que tener claro: esos robots no son inteligentes. Simplemente reaccionan ante obstáculos y estímulos que detectan, probablemente, por sensores de distancia o visión artificial. Pero los robots no tienen ni una pizca de conciencia.

Precisamente una de las principales críticas que hacemos a esta empresa es que en sus presentaciones no explica el software ni las novedades técnicas que permiten lograr los ingenios que logran. Una mayor transparencia ayudaría a hacerse una idea de dónde podrían estar en un par de años.

Esta empresa fue adquirida por Google en 2013 y vendida tres años más tarde. Hay algún conspiranoíco al respecto, que piensa que Google ya habrá absorbido todo el conocimiento de esta empresa y la vende cuando no le aportaba más. Sin embargo, oh, qué sorpresa, según llegó a mis oídos, no había nada de eso, sino razones mucho más prosaicas, que consistían en que Google y BD no se entendían nada bien. Y ahora la emrpesa de robots es propiedad de Softbank, un gigante de inversión japonés.

A mí particularmente, una de las cosas que más me llama la atención y me mosquea, es el tobillo de los robots. Esta articulación de los animales y de los humanos es algo asombroso, ya que le permite andar por multitud de terrenos y de desniveles. Es como si tuviéramos un circuito de control interno que sabe exactamente cuánta fuerza tenemos que hacer en la arena para no caernos, en la nieve, o en la carretera. Pero de eso disertaré en alguna entrada futura de esta bitácora.

No me quiero marchar sin dejaros un vídeo ejemplo de los fallos habituales que aún hacen robots que han costado miles de dólares, e incluso estando financiados por DARPA.








Fuentes:
What's really going on in this Boston Dynamics robot videos?

Boston Dynamics' robots — impressive, but far from the Terminator

Taller de Inteligencia Artificial para estudiantes de bachillerato

La pasada semana tuve el honor de llevar a cabo una actividad que me dio muchas satisfacciones. Concretamente, después de más de un año de trabajo, organicé un pequeño taller de inteligencia artificial para alumnos de bachillerato en un colegio de mi querida San Sebastián. La motivación principal para realizarlo es que creemos que actualmente no hay apenas propuestas para enseñar las matemáticas de la inteligencia artificial a estudiantes jóvenes. Sí que hay multitud de talleres que enseñan robótica con Arduino o Raspberry. Pero no hay ninguno que explique que detrás de la inteligencia artificial hay matemáticas muy sencillas. Por lo tanto, a partir de esta idea creamos una propuesta de taller. Este artículo pretende describir en qué consistió esta actividad y su propósito:

La premisa más importante es conocer los objetivos del taller. Para nosotros, la intención no era enseñar inteligencia artificial, sino desmitificar esta disciplina y hacer conscientes a los alumnos de las matemáticas simples que hay tras ellas. Tener esto en cuenta es muy importante.

Además, el taller se basaba en ejercicios realizados con el lenguaje de programación Scratch. Este lenguaje, para quien no lo conozca, es un entorno de programación gráfico que permite realizar pequeños algoritmos y tareas arrastrando bloques de colores, eligiendo variables de una manera muy visual, etc. Es un tipo de herramienta muy útil para iniciar a los alumnos en nociones básicas de programación, y soy conocedor de varios colegios de la región que lo usan con estudiantes a partir de 13 años.

Pero volvamos al taller. La actividad completa duró una hora y el tiempo se repartió de la siguiente manera:

En los 15 primeros minutos de actividad, se impartieron los siguientes conceptos de una manera muy sintética:
              - Introducción a la inteligencia artificial
              - En qué consiste el algoritmo de clusterización K-means
              -  Cómo funciona una red neuronal

Posteriormente, los chavales tuvieron 45 minutos para realizar dos ejercicios y poner en práctica las nociones básicas que se les había impartido hace unos minutos. La metodología de esta parte práctica se implementó de la siguiente manera: los alumnos trabajaron en parejas, y tenían a su disposición el archivo de un algoritmo de inteligencia artificial implementado en Scratch. En este archivo estaba implementado casi todo el código necesario, salvo un par de huecos que tenían que rellenar para que todo el programa se ejecutase correctamente. Para que fuera un poco más fácil, en una esquina de la zona de trabajo de Scratch, los alumnos tenían las piezas de código que había que encajar en los huecos, pero desordenadas. Una vez que completaban el código, los estudiantes podían comprobar si habían acertado o no ejecutándolo en el mismo Scratch.

A los estudiantes se les asignó dos problemas, uno detrás de otro:

1) El algoritmo de clusterización K-means, donde tenían que conseguir clasificar una nube de puntos en tantos clusters como quisieran. Los clusters estaban definidos por 'puntos gordos' de colores, y la clasificación consistía en pintar los puntitos según el color del 'punto gordo' más cercano que tuvieran.

2) Posteriormente se asignó una red neuronal muy sencilla (dos entradas y una salida), entrenada con los datos de entrada y salida de una puerta lógica AND. Para cada ejercicio disponían de 20 minutos como máximo.

A continuación incluyo algunas imágenes representativas de estos problemas:





Parece sencillo, ¿no? Ahora vienen los resultados: para nosotros el taller fue un éxito, ya que todas las parejas de alumnos completaron los ejercicios antes del tiempo asignado, y tenían la sensación de haber entendido el ejercicio y el algoritmo.

Para comprobar esta comprensión, los estudiantes tuvieron que completar un test de preguntas antes y después del taller. En esta prueba, nosotros, como investigadores, queríamos comprobar el grado de alcance de consecución de los objetivos que nos habíamos marcado. Y la buena noticia es que estamos muy contentos con los resultados que obtuvimos. Por ejemplo, una de las preguntas planteadas era:

El nivel de conocimientos matemáticos y técnicos requeridos para entender la inteligencia artificial está fuera del alcance de la mayoría de la población.

Con la puntuación de una escala Lickert (1 a 5, 1: totalmente desacuerdo; 5: totalmente de acuerdo) tuvimos diferencias muy significativas en las respuestas antes y después del taller, lo cual demuestra que la metodología que empleamos es bastante acertada para conseguir este objetivo.

Tal y como prometí en Twitter, he dejado colgados en un repositorio abierto los archivos de Scratch completos utilizados en el taller. Aunque aún no aparezca, estarán bajo una licencia GNU GPLv3. Porque el conocimiento debe ser libre.

La metodología del taller está registrada en el archivo de propiedad intelectual. Finalmente, mi grupo de I+D y yo hemos publicado tres artículos explicando el taller: dos trabajos para dos congresos internacionales y un artículo científico en Arxiv titulado Using Scratch to Teach Undergraduate Students' Skills on Artificial Intelligence donde explicamos el estado del arte y motivaciones para realizar el taller de inteligencia artificial. Ojo, que en este caso, el taller que explicamos en Arxiv no es exactamente el mismo que he descrito en este artículo de blog. Ese aún está en el horno :-).

El taller de inteligencia artificial sigue creciendo y ya estamos planteando nuevos ejercicios para entender cómo funciona un ordenador o un robot para escapar de un laberinto, o conocer el camino más corto en un circuito.


¿Os gusta la idea? ¿Os parece que habría que mejorar algo? Si os interesa algo de todo esto, no dudéis en hacerlo en los comentarios del artículo o a través del email ideasecundaria@yahoo.es.

Los bancos tienen derecho a evaluarte, y tú, a pedir explicaciones

Desde hace tiempo creo que los debates sobre inteligencia artificial no llegan al público general. Hay muchas razones para ello, pero la fundamental será que probablemente no sepamos enfocar bien la importancia de esta disciplina, ni explicar bien en qué consiste. Por ende, la gente ve lejana su aplicación en sistemas reales que afecten a nuestras vidas.

Sin embargo, la entrada de hoy pretende demostrar que sí, ya hace un tiempo que nos está afectando. ¿En qué? En que ahora, ya no tienes que convencer a tu director del banco de que te mereces un préstamo, sino que tienes que convencer al algoritmo. Y esta afirmación no es mía, sino que es ni más ni menos, que del BBVA, uno de los principales bancos de España y Europa.


Esta imagen se puede ver en esta web del banco, a fecha de redacción del artículo

No lo he visto anunciado de esta manera en más bancos, pero supongo que será una cuestión de invertir más tiempo. Volviendo a la citada web de este banco, en ella se cita qué empresas de IA usan para decidir sobre la concesión de tu préstamo o no. En este caso, son Earnest, Zestfinance, Affirm y Upstart.

Según he leído, las sucursales no evalúan a sus clientes a la hora de solicitar un préstamo, sino que los clientes están permanente evaluados. Es lo que se llama el credit scoring. En otras palabras, el banco internamente maneja cómo de buen cliente eres para ellos desde el minuto 0. 

No obstante, no he logrado encontrar en ningún artículo científico ni en ningún sitio el algoritmo que siguen estas empresas para evaluarte con una nota numérica. Obviamente, se me ocurren cosas de sentido común, como si soy un buen pagador, si ingreso mi nómina en ese banco, de cuánto es esa nómina, si tengo otros productos, etc. Pero luego, si preguntamos un poco más, hay demasiadas lagunas: ¿cuánto importa cada una de las variables (nómina, otros productos)? ¿importa cuántas veces consulto el saldo? ¿importa que detecten que viajo mucho? ¿si detectan que tengo facturas de juegos de azar, es automático denegarme el crédito para mi algoritmo, a pesar de que mi nómina sea de 5 cifras?

Todas estas son preguntas que no se pueden resolver hasta que no se hagan públicos los algoritmos según los cuales nuestro banco nos ponen nota. Por ejemplo, aquí de nuevo el BBVA explica qué es el scoring, pero no cómo lo calculan ellos. Y es llamativa la frase con la que cierran el artículo: 'Y estáte seguro: estás escorinizado'.

Creo que un préstamo sobre nuestra vivienda, coche o emprendimiento de negocio ya es un algoritmo real que nos afecta de lleno en nuestra vida, y sobre el que no sé cómo de conscientes somos.


Querido lector, fíjate otra vez en la imagen que he colgado, por favor. En mi opinión, lo preocupante de este tipo de mensajes es la frivolidad con la que se anuncia, como si el banco escurriera el bulto respecto a la decisión sobre tu préstamo. Es decir, 'tú, cliente, me has pedido un préstamo, no te lo doy, pero no es culpa mía, sino que es de un algoritmo que no es de mi empresa y por lo tanto no tengo ni idea. Solo lo dice la máquina'.

Pues querido cliente, SÍ que tenemos derecho a pedir transparencia respecto a estas decisiones, tanto en Europa como en América. Vayamos primero por el Viejo Continente: el célebre reglamente de protección de datos GDPR que aprobó la UE, establece en su artículo 22 que como ciudadanos europeos tenemos derecho a cualquier algoritmo que decida sobre nosotros con inteligencia artificial, incluso si ese algoritmo está en posesión de una empresa no europea (dediqué una entrada a este artículo).

En el caso de Estados Unidos, tienen el Equal Credit Opportunity Act, una ley redactada en 1974 que da el poder a los ciudadanos de conocer los motivos de la concesión/denegación del crédito.

Es importante defender como ciudadanos este tipo de derechos, de lo contrario, cada vez estaremos más a merced de los bancos. Además, el mayor enemigo de este tipo de empresas hoy en día, son las empresas tecnológicas. PayPal, Google, Amazon, Facebook... están dando pasos para operar como entidades crediticias a escala global, y probablemente ellos tienen muchos más datos sobre nosotros que nuestros bancos. ¿Os imagináis que 'el algoritmo' dictamine que Google no os conceda el crédito porque ha detectado que escribís muchas veces en el email 'pelotazo'? Si lo hace, tenemos derecho a saberlo.

Ayer hablaba con Ekaitz Zarraga sobre inteligencias artificiales. Él afirmaba que el mundo tiene que ser mucho más sencillo para que pueda estar dominado por un algoritmo como AlphaZero, y que hacer el mundo más simple, es más rápido que diseñar una inteligencia artificial al estilo Terminator. El hecho de externalizar las decisiones sobre nuestros préstamos bancarios me parece una bonita metáfora de simplificar este mundo.

Reseña de Daemon, de Daniel Suárez

Los libros que publico por este rincón de la blogosfera acostumbran a ser de divulgación (Civilización, El Ojo desnudo, o The Rise of the Robots, entre otros). En cambio, la obra de hoy, Daemon, es de ciencia-ficción y la traigo a colación debido al planteamiento y argumento sorprendente que tiene, por lo menos para mí.

La obra me la recomendó @eztabai, y plantea un escenario en el que una inteligencia artificial se cuela en cualquier sistema electrónico que podáis imaginaros en una ciudad, y hace y deshace a voluntad. A ese sistema se le denomina Daemon. Además, la idea tiene aún una vuelta de tuerca, y es que esa entidad inteligente es la mente de una persona ya fallecida. Cualquier acción o palabra durante el libro se le atribuye a esta persona, por lo tanto.

El libro no es una reflexión sesuda sobre ciencia ni inteligencia artificial, sino que narra los acontecimientos de una manera bastante rápida y dejando un montón de cabos sueltos. Y es que esta obra está inacadaba y tiene una segunda parte que imagino que resolverá todos los misterios (aunque aún no me la ha leído). En resumen, es una ampliación al planteamiento de la película I, robot, que me ha sorprendido mucho. 

El estilo es bastante ágil, aunque para mí el autor se detiene demasiado en descripciones, y la cadena de acontecimientos rápidos no siempre se puede seguir muy bien. Además, que el libro anticipase claramente que va a tener una segunda parte no es que sea de mi gusto. Pero para ídem, los colores.




Podéis encontrar la sinopsis de esta obra en la web oficial del autor.

¿Es rentable hoy en día tener un coche?

Quien me conoce, sabrá que tengo cierto síndrome de Diógenes (y alguno más). Esta entrada es el resultado de una de las consecuencias de esa manía. 

Compré mi coche nuevo en mayo de 2008, y lo uso casi a diario. Creo que no merece la pena a efectos del artículo revelar el modelo. Basta con decir que es un utilitario de gasolina. Siempre he solido guardar las distintas facturas que el coche ha generado por las distintas revisiones y averías. Entre eso, y justificantes bancarios que guardaba, he desarrollado la tabla en la que se reflejan los gastos de visita al taller mecánico, impuestos y seguros obligatorios que ha generado el coche.

Nota aclaratoria: el coche aún está en uso y siempre he realizado las revisiones que le tocaban. Considero que el coche ha salido bueno. Es decir, salvo un detalle, no se le ha roto nada prematuramente, y lo que he sustituido ha sido por uso y desgaste. 

He redondeado los números de la viñeta municipal y el seguro en ocasiones.



Gastos durante la vida de coche
MES COSTE [€] CONCEPTO
1 15.000 Precio de coche
2 200 Seguro
10 215 Seguro
12 178,98 Mantenimiento
15 40 Viñeta municipal
22 215 Seguro
24 166,37 Mantenimiento
27 40 Viñeta municipal
34 220 Seguro
38 40 Viñeta municipal
39 347,24 Mantenimiento y reparación
46 230 Seguro
51 40 Viñeta municipal
53 133 Mantenimiento
58 240 Seguro
60 155 Mantenimiento
63 40 Viñeta municipal
69 218,91 Mantenimiento
70 240 Seguro
71 40,57 ITV
74 40 Viñeta municipal
75 120,49 Pastillas de freno
82 250 Seguro
83 118,05 Mantenimiento
84 527,49 Paragolpes y neumáticos
88 40 Viñeta municipal
89 439,28 Freno de mano
95 505,50 Correa y bomba de agua
96 254,55 Seguro
98 40,57 ITV
99 207,53 Mantenimiento y cambio batería
102 40 Viñeta
108 163,65 Mantenimiento
109 269,18 Seguro
110 488,88 Elevalunas eléctrico
114 40 Viñeta municipal
118 162,55 Mantenimiento
121 279,77 Seguro
122 40,57 ITV
124 241,01Mantenimiento
126 42,36 Viñeta municipal
131 174,92 Mantenimiento


Lo que pretendía con este artículo era poder estimar cuál era el coste del vehículo al mes a lo largo de su vida, sumando el precio de compra y el resto de conceptos. Y el resultado es la siguiente gráfica:

 Como se puede ver, los primeros meses no permiten apreciar bien qué ocurre a partir del mes 10 aproximadamente. Así que la siguiente gráfica es un detalle de la primera, a partir del mes 22.


El coste total del coche a día de hoy asciende a 22.486€. Como se puede ver, a partir del mes 102 la amortización del coche desciende de 200€/mes, y la línea se tiende a convertir en una asíntota. A día de hoy, la amortización está en torno a 170€/mes, a la cual habría que sumar el combustible y el garaje (quien lo tenga). El que lo tenga todo, podría estar en unos 400€/mes tranquilamente.

Por otro lado, tampoco tengo claro que la gráfica siempre sea descendiente, ya que llega un punto en el que el coche requerirá de más mantenimiento y reparaciones.

Otro dato interesante es el coste del km/€. Aproximadamente he recorrido 170.000km, así que el km está ahora mismo a 13,22 céntimos. 

El gráfico pretende ayudar a decidirme en un futuro sobre una opción de renting de coche o no. 

¿Qué os parece? ¿Os ha llamado la atención?





Más rápido que el pensamiento

La empresa Ferranti ha construido el primer ordenador capaz de jugar a un juego de manera autónoma contra un humano. Concretamente, la actividad es el juego Nim. Se ha presentado en el Festival de Gran Bretaña y el lema que ha usado la empresa es faster than thought (más rápido que el pensamiento). La máquina se llama Nimrod.




Parece un titular de 2019, ¿no? Pues no. Concretamente, Nimrod fue presentada en 1951, y corresponde a uno de los primeros ordenadores. Fue el primero de la historia en jugar de manera autónoma a un vídeojuego, y es obra de John Bennett. Al igual que los primeros ordenadores de la historia, este ordenador solo sabía hacer operaciones matemáticas sencillas, como las que son necesarias en el juego Nim, y además, ya había un ingenio precedente electromecánico de 1940 en el que se basaron.

Fuente

La reacción de los periodistas fue de cierto temor y describián a Nimrod como una máquina pensante que dudaba antes de ejecutar su jugada. La reacción del periodista Paul Jennings, de la BBC, fue la siguiente:

This looks like a tremendous grey refrigerator.... It's absolutely frightening.... I suppose at the next exhibition they'll even have real heaps of matches and awful steel arms will come out of the machine to pick them up


O incluso en los periódicos se describía a la máquina como una caja mágica:

Fuente
 

¿Os suenan estas reacciones? Podrían escribirse hoy en día. Era el nacimiento de la industria del videojuego. No hace falta que explique aquí lo que ha evolucionado desde entonces esta tecnología. Con este pequeño artículo, pretendo demostrar lo difícil que es la regulación, el compromiso entre el freno para desarrollar nuevas ideas. No significa que no esté a favor de la regulación. Pero no será fácil y requerirá el consenso de todos.

Por cierto, el término de inteligencia artificial no se había acuñado aún, ya que no fue hasta el verano de 1956 a cargo de John McCarthy



REFERENCIAS



El estudio del tiro parabólico sin ordenadores

Este artículo se publicó originalmente el 22 de febrero en la Revista Dyna, publicación de investigación en ingeniería:



El estudio de la trayectoria de las bolas de cañón es un bonito caso de las tensiones entre el conocimiento práctico y teórico en la ciencia a lo largo de la historia. Sorprende la cantidad de matemáticas que se dedicaron a este campo.

Nicolo Tartaglia es un científico del siglo XVI, cuya fama ha llegado hasta nuestros días principalmente por la pelea que tuvo con Cardano sobre la resolución algebraica de las ecuaciones cúbicas. Sin embargo, Tartaglia también publicó en 1537 La nova scientia, en la cual describía la trayectoria de un proyectil como si fuera una línea recta inicial, y una posterior caída:

Figura 1: Ilustración de tiro mixto y portada de Nova scientia [1] 





Figura 2: Ilustración de tiro horizontal, según Tartaglia [2]


Realmente, ni siquiera el propio Tartaglia se terminó creyendo su teoría, tal y como reconoció años más tarde. Pero este pensador italiano sentó las bases para crear unos ábacos que tabulaban sus cálculos, y así poder calcular la longitud del tiro en función de la inclinación del cañón. Estos ábacos se usaron hasta el siglo XVIII.

Más tarde, en 1638, Galileo Galilei propuso su modelo de disparo parabólico, lo cual era un poco absurdo, ya que Galileo, a pesar de conocer que había algún tipo de resistencia al aire, no la contabilizó en sus cálculos. El caso es que conseguía una trayectoria simétrica que no resultaba nada realista, y por eso, los artilleros siguieron usando el modelo de Tartaglia. En ciertas ocasiones, hasta les era suficiente usar el modelo de tiro triangular de Daniel Santbech, propuesto en 1561.

Figura 3: Modelo de disparo de Daniel Santhech [1]

Sin embargo, todo esto cambió en el siglo XVIII con nuestro siguiente personaje: Benjamin Robins. Este científico inglés nació en Bath en 1707, justo el mismo año que el matemático Euler. Pronto se dedicó a la ingeniería militar, y su mayor contribución al estudio de la balística reside en que sugirió que era imprescindible tener en cuenta la fuerza de resistencia de aire, y que dependía mucho más de la velocidad inicial del disparo que de su alcance. Para demostrarlo, Benjamin Robins diseñó un péndulo balístico, gracias al cual podía calcular las velocidades iniciales de los proyectiles, teniendo en cuenta la mecánica newtoniana y la teoría de péndulos de Huygens. De hecho, a Robins también se le considera el padre de los túneles de viento por este tipo de aportaciones.
 
Figura 4: Péndulo balístico de Robins   
 


Esencialmente, el invento consistía en disparar una bala contra la masa colgada del péndulo y calcular su arco. La masa del péndulo era bastante mayor que la de las balas de aquella época.


Benjamin Robins ya era miembro de la Royal Society desde 1727, y afortunadamente, la grandeza de este personaje se notó enseguida. En 1742 publicó su obra New principles of gunnery. Cómo sería el libro, que un empleador de Euler, Federico el Grande de Prusia, preguntó al matemático cuál era el mejor libro de balística, y a pesar del poco apego que tenía Robins a su propio libro, Euler lo eligió. No solo eso, sino que lo tradujo del inglés al alemán, y añadió unos cuantos comentarios sobre él. De manera que el nuevo manuscrito pasó de tener 150 páginas a 720. En 1783, se tradujo al francés, y según cuenta Napoleón, fue uno de los libros que más influyó a sus científicos e ingenieros.

Escribió una vez un oficial de artillería, que Robins era a la artillería como el inmortal Newton lo era a la filosofía. Antes de su influencia, el acierto en el tiro era una cuestión de azar sujeta a múltiples variables e incertidumbres. Ese mismo siglo, el presidente de la Royal Society fue más allá y afirmó que Robins había inventado una ciencia nueva.










BIBLIOGRAFIA

[1] Janet Heine Barnett (2009). Mathematics goes ballistic: Benjamin Robins, Leonhard Euler, and the mathematical education of military engineers, BSHM Bulletin: Journal of the British Society for the History of Mathematics, 24:2, 92-104, DOI: 10.1080/17498430902820887

[2] Ed Sandifer. How Euler did it. The cannonballs http://eulerarchive.maa.org/hedi/HEDI-2006-12.pdf

[3] The first wind tunnels.

https://www.centennialofflight.net/essay/Evolution_of_Technology/first_wind_tunnels/Tech34.htm

[4] McMurran, S., & Rickey, V. F. (2008, October). The impact of ballistics on mathematics. In Published in the Proceedings of the 16th ARL/USMA Technical Symposium https://www.revolvy.com/page/Benjamin-Robins

[5] Steele, B. D. (1994). Muskets and pendulums: Benjamin robins, Leonhard Euler, and the ballistics revolution. Technology and Culture, 35(2), 348-382


 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Web Hosting