-->

Sobre aranceles y el libro Retirar la escalera

Esta semana de nuevo, el presidente Trump volvió a hacer de las suyas y nos despertamos con nuevos aranceles sobre productos de todo el mundo.

Tras ese mal despertar, cada vez más frecuente, la reacción habitual de los medios es alabar las bondades del libre comercio internacional y la eliminación de tasas arancelarias. Alegran que Trump no solo va a perjudicar mucho a China, Europa y otros países, sino al mismo Estados Unidos.

Hete aquí que tras este debate, decidí leer el libro Kicking away the ladder, traducido como 'Retirar la escalera', de Ha-Joon Chang, quien estudia cómo se hicieron ricos los países ricos, pero de verdad.

No hago spoiler, ya que esta afirmación sobre el libro la podéis encontrar en su contraportada y multitud de artículos: el libre comercio no existe, ni se ha dado prácticamente en ningún momento de la historia.



El libro se divide en tres bloques:
  • medidas proteccionistas que llevó a cabo cada país a lo largo de su historia para proteger su riqueza e industria.
  • qué hicieron, una vez alcanzado el poderío económico, para que otros países no les alcanzasen.
  • la creación y valor de las instituciones económicas, sociales, financieras que surgieron en los últimos años. ¿Frenan a los países en vías de desarrollo, cuando los países ya desarrollados no necesitaron nunca estas instituciones?

El libro me ha parecido soberbio, y muy buen documentado. Tanto, que más que como lectura ligera se podría usar como libro de consulta. Y para acabar, os dejo aquí algunos extractos de esta obra, que responden a algunas de las cuestiones sobre aranceles hoy en día, aunque la situación macroeconómica sea ligeramente distinta:


pág61: Con la Revolución Industrial de la segunda mitad del siglo XVIII, Inglaterra empezó a aumentar su liderazgo tecnológico sobre otros países. Sin embargo, aún así prosiguió con su política de promoción industrial, que mantuvo hasta mediados del siglo XIX. [...]. El primero y principal componente de esta política era, claramente la protección arancelaria.


pág79: Solo después de la Segunda Guerra Mundial, Estados Unidos - con su supremacía industrial sin competencia- acabó por liberalizar el comercio y pasó a liderar la causa del libre comercio. Sin embargo, cabe señalar que Estados Unidos nunca lo practicó en la misma medida que lo hiciera el Reino Unido durante su período de libre comercio (de 1860 a 1932).


Pág 71: [...] actualmente los historiadores económicos reconocen cada vez más la importancia del proteccionismo en Estados Unidos, cuando antes solían ser extremadamente cautelosos a la hora de hacer algún comentario positivo al respecto.

Pág 77: Graf von Reden, quien introdujo con éxito tecnologías avanzada de los países más desarrollados (especialmente de Inglaterra [...]) mediante una combinación de espionaje industrial durante finales del siglo XVIII y principios del siglo XIX.



¿Son evitables los ataques con drones?

La respuesta corta a la pregunta del título es: ahora mismo, no.

Si algún lector quiere seguir leyendo, desarrollaré un poco más la explicación. Al hilo de los ataques sufridos en las instalaciones de Saudi Aramco, muchas personas se preguntan si el ataque se pudo evitar. O incluso, pensando en el futuro, si se podrá evitar cuando vuelva a pasar. La respuesta es que no será nada fácil. No hay un sistema de contramedidas 100 % fiable.

¿Se acuerdan los lectores de que el año pasado unos drones obligaron a cerrar el aeropuerto de Gatwick? Fíjense en el caos y en la dificultad para tratar estas emergencias, que incluso las autoridades llegaron a pensar que quizás esos drones nunca habían existido. Había tal confusión que, meses más tarde, la policía en uno de sus informes finales recogió más de 100 visiones de estos multirrotores.




El caso de Gatwick es diferente del de Aramco, ya que no se emplearon los drones para el ataque. Estas máquinas se llevan usando para hacer daño al enemigo desde hace bastante tiempo. Ya en el siglo XIII a.C. la dinastia china Song usaba cometas para sobrevolar por encima de sus enemigos, a las que entonces prendía fuego. Ese episodio representa el primer vestigio de la guerra con drones.

Si viajamos a tiempos más recientes, en 2003 la OTAN lanzó un programa que duraría 10 años para el estudio de contramedidas contra esta tecnología. Este informe no ha sido abierto al público. En 2008, el think tank RAND Corporation publicó un informe sobre la amenaza que los robots voladores suponían para la seguridad de Estados Unidos. El ISIS usó con gran éxito estos aparatos en sus ataques. Una de las maniobras más sonadas fue la de enero de 2018, cuando este grupo terrorista coordinó una docena de estos ingenios contra dos instalaciones militares en Rusia.

Además, a los responsables de seguridad les pone los pelos como escarpias la aparente naturalidad con la que los vehículos aéreos no tripulados se acercan a objetivos muy sensibles. Como Pedro por su casa, que dirían. En 2013, por ejemplo, el Partido Pirata alemán voló un drone muy cerca de Angela Merkel, sin ningún peligro, pero dejando muchas dudas sobre la preparación de la seguridad ante estas eventualidades. Incluso en 2015, un hombre estrelló su juguete en los terrenos de la Casa Blanca.

Medidas de defensa

Conviene aclarar que las medidas antiaéreas tradicionales no sirven de nada contra estos aparatos. En 2016, un sencillo drone que sobrevoló el cielo de Israel procedente de Siria no sucumbió ante el ataque de dos misiles Patriot ni de un misil aire-aire lanzado desde un avión israelí. Las medidas antidrones son más sutiles.

Actualmente, los sistemas para combatir a los vehículos aéreos no tripulados los podemos clasificar en los siguientes tipos:

Detección

Los drones son tan pequeños que no son fáciles de detectar con un radar. Se emplean otras tecnologías como sensores de radiofrecuencia, acústicos y ópticos. Estas medidas tienen la desventaja de que necesitan tener línea directa de visión con la máquina voladora. Para solventarlo, existen sensores acústicos, que se valen de grandes librerías que intentan detectar el sonido característico de estos aparatos. Pero la incorporación al mercado de estos drones es muy rápida, y la librería no siempre es fácil de mantener actualizada. Todas estas imprecisiones llevan a que haya un gran número de falsos positivos, lo cual no es nada deseable.

Interceptación

Estas medidas consisten en interrumpir las comunicaciones del drone. Ya sea con el operador que lo maneje, con una estación o con un satélite. Esto tampoco es 100 % efectivo, ya que muchos están programados para navegar de manera autónoma.



 Por otro lado, también se contempla la idea de lanzar redes para atascar los rotores del drone. Hay espectaculares vídeos comerciales sobre estas iniciativas de derribo de UAVs con unas armas bastante aparatosas que normalmente requieren un espacio aéreo totalmente despejado.



En esta línea encontramos también el famoso caso de las águilas usadas por la policía holandesa, aunque esta idea se rechazó finalmente.

Algunos fabricantes de drones tienen la opción de configurar en qué área geográfica pueden operar sus productos, tal y como lo demostró la empresa DJI en el conflicto de Siria. Esta medida parece fácilmente salvable por unos terroristas.

Aunque el mayor problema de atacar un drone que transporta una bomba es: ¿qué hacer cuando caiga? Por lo tanto, vuelve a quedar claro que no existen medidas 100 % efectivas de interceptación.

Conclusión

El número y el mercado de contramedidas se ha multiplicado en los últimos años y la amenaza hace tiempo que está detectada. Muchas medidas que he presentado aquí no se pueden usar directamente en un aeropuerto, ya que podría interferir en la comunicación con los aviones, así que un caso como el de Gatwick podría repetirse.

Sin embargo, tanto pero no significa que evitar este tipo de ataques sea imposible. Aunque no sean tan mediáticos, ya existen casos de interceptación de drones, como en el aeropuerto de Londres hace unos pocos días. El interés de las fuerzas de seguridad y los ejércitos en este ámbito va en aumento.




Este artículo se publicó originalmente en The Conversation, sitio web que os recomiendo visitar





En Naukas: Los Pecados Capitales en las predicciones sobre IA y robots

La inteligencia artificial y la robótica van camino de convertirse en el perro del hortelano: ni come ni deja comer. Dicho de otra manera: hay que seguir mejorando la tecnología e incorporarla en los sectores económicos. Pero al mismo tiempo va a destruir empleos y empresas, y probablemente cambie la sociedad. Pero las expectativas que nos han creado, están claramente infladas.

Los investigadores y divulgadores, tenemos a menudo muchos textos que son una referencia para nosotros. Puede ser por el estilo, por el mensaje o por lo que a cada uno le transmita. Y hay uno que yo recomiendo especialmente sobre inteligencia artificial y robótica, y es el texto titulado The Seven Deadly Sins of Predicting the Future of AI (Los 7 Pecados Capitales de las predicciones de Inteligencia Artificial), del ínclito Rodney Brooks.

En esta entrada, me gustaría destacar tres pecados mencionados en este artículo, donde mezclaré traducciones libres del texto con comentarios personales. Comencemos:




Existe una gran histeria sobre el impacto social de la inteligencia artificial, sobre todo en cuanto al impacto en la pérdida de empleos. Hay afirmaciones como la siguiente: ‘el 50% de los empleos actuales desaparecerá en favor de los robots’. Que un robot en un laboratorio tenga la capacidad de doblar ropa, no significa que vaya a sustituir a un/a profesional de una tienda de ropa. Las posibilidades de laboratorio son eso, simplemente. Entornos de laboratorio. ¿Cuántos experimentos se han llevado a cabo de robots en múltiples puestos de trabajo que dicen que van a acaparar? ¿Cuántos robots están actualmente en esos puestos? La respuesta a ambas preguntas es la misma: CERO.

Los robots que dicen que son autónomos, no lo son tanto, las empresas que dicen que emplean inteligencia artificial, no la usan realmente, e incluso se puede hablar de cierta desrobotización. Estos son algunos de los Pecados Capitales para saber bien a qué atenernos en esta tecnología.


Sub/sobrevaloración

Roy Amara, fundador del Institute for the Future de Sillicon Valley, enunció lo que hoy se conoce como la ley de Amara:

Tendemos a sobrestimar el efecto de una tecnología a corto plazo, y subestimarlo en el largo.

Un ejemplo claro de esta afirmación lo encontramos en el GPS. Esta tecnología comenzó con la creación en 1978 de una red de 28 satélites, cuyo propósito era ayudar en el lanzamiento preciso de bombas del ejército estadounidense. La primera prueba de este objetivo tuvo lugar en 1991 durante la operación Tormenta del Desierto, y fue prometedora. Sin embargo, durante la década de los 90, los militares aún albergaban muchas dudas sobre su utilidad, y no fue hasta el año 2000 cuando fue mayoritariamente aceptado.

Desde 1978 hasta ese momento, el programa de GPS estuvo a punto de ser cancelado una y otra vez. Pero de repente, la tecnología se reveló con unas utilidades que nunca fueron previstas en su concepción. Hoy en día permite aplicaciones, sin las cuales el mundo sería un poco diferente.
Algo parecido ocurrió con la informática. Cuando se comenzaron a comercializar ordenadores en la década de los 50, había una percepción de que eliminarían muchísimos empleos. Sin embargo, durante los 30 primeros años de presencia social, apenas tuvieron efecto en la vida de la gente. Esto cambió a partir de los 80, y ahora vivimos rodeados de informática y electrónica por doquier.

Por lo tanto, es un error humano muy habitual sobrestimar las posibilidades de una tecnología en el corto plazo, y de subestimarlo en el largo. No sabemos aún cuánto será ese ‘largo plazo’ para la inteligencia artificial, ya que se le lleva sobrestimando en los 60, 80 y ahora.

 

Escenarios hollywoodienses

¿Cuál es la diferencia entre los alienígenas y los robots? La respuesta es que los aliens, si vienen, quizás nos pillen totalmente desprevenidos. Pero eso será imposible con los robots de aspecto e inteligencia similar a Terminator. Ni siquiera está claro que sea alcanzable lo que denominamos Inteligencia Artificial General, que implica el razonamiento y aprendizaje de un humano. Ojalá sí que sea viable técnicamente, pero hoy por hoy, los científicos estamos demostrando que no tenemos ni idea de cómo desarrollarla. Ahora mismo las habilidades de la inteligencia artificial son muy limitadas.

En ese largo proceso de investigación hacia esa inteligencia superior, todo nuestro entorno cambiará. Cambiará el mundo. Por otro lado, la situación técnica, social y económica para cuando ese momento llegue, puede que sea muy distinta de la actual. Dejar volar la imaginación en obras literarias o cinematográficas no es más que eso: un ejercicio de imaginación sin base real.
  


Velocidad de despliegue

El software se está comiendo a la industria. Además, el tiempo de despliegue de nuevas versiones de programas informáticos, es cercana a 0 y el software impera en muchos sectores económicos.
En cambio, la velocidad de despliegue del hardware no es inmediata, ni mucho menos. Hay muchos ejemplos de ello. Aún existen muchos servicios que emplean versiones muy antiguas del sistema operativo Windows. En muchísimas fábricas, el mecanismo de control principal continúa siendo el dispositivo llamado PLC, que comenzó a introducirse en 1968. Incluso en el ejército estadounidense se emplea tecnología antigua: aún emplean el bombardero B-52, concebido en 1961, y han anunciado que pretenden seguir usándolo hasta 2040.

Cualquier persona que conozca alguna gran industria, sabrá que la reconfiguración del sistema de control o de información interna requiere mucho tiempo, pruebas y habitualmente la asistencia de varios consultores para reorganizar toda la fábrica.

Es decir, la incorporación de robots en la mayoría de sectores económicos lleva una desquiciante gran cantidad de tiempo. No se da de la noche a la mañana. Por eso, entre otras razones, la unidad de medida de tiempo para calcular cuándo los robots destruirán empleos (lo harán) es el año.

Estos son solo los Pecados Capitales que he querido destacar, y que espero que ayuden a ser escépticos sobre muchos de los titulares futuristas que se ven sobre IA y robótica. Como dice el economista Tim Hardford, ‘predecir el futuro siempre ha sido un juego muy divertido, pero totalmente infructuoso’.

Y creo que todo esto sive de cortina de humo mediática para cambios sociales que sí que nos van a afectar en un plazo muy corto y de los que casi nadie habla. Por ejemplo, la clasificación social en distintos perfiles o los sistemas de crédito social (también en Europa). Pero esto ya se queda para una próxima entrada.

 

 Esta entrada se publicó originalmente en Naukas. Y aprovecho para recordaros que el evento de divulgación Naukas Bilbao está al caer.



El mito de la Educación y la Revolución Industrial

Sea cual sea el problema, la solución siempre será la educación. Dicho de otro modo, desde las conversaciones de barra de bar hasta juntas directivas de grandes empresas, a la hora de intentar aportar alternativas sobre cómo arreglar el mundo, irremediablemente las ideas y los participantes desembocarán en cambiar el sistema de educación. El cual es un terreno tremendamente resbaladizo.

Las quejas habituales son: ‘no aplican la creatividad’, ‘solo se enseña a memorizar exámenes’, ‘no se les obliga a trabajar en grupo’… y el último en incorporarse, ‘es el mismo método de enseñanza que el de la Revolución Industrial, donde se creaban alumnos con producción en cadena’.



Recordemos que la revolución Industrial es originaria del siglo XVIII. Y no, el mito de El modelo de educación basada en la fábrica no es más que eso. Un mito. Este artículo pretende arrojar luz sobre el origen de nuestro actual sistema educativo, imperante en prácticamente todo el mundo. Está basado en la enseñanza uniforme a todo el alumnado, estratificado en distintos niveles y construidos en función de la jerarquía del aprendizaje tradicional: matemáticas y ciencia en la cúspide, humanidades en el medio, y arte abajo.

Hasta el siglo XVIII los estados no comenzaron a hacerse con el control de la Educación. Desde la época de las antiguas civilizaciones hasta ese momento, la docencia y aprendizaje se desempeñaba en grupos informales, pero la mayoría de la población permanecía iletrada. La chispa que desató todo un nuevo paradigma en la Educación, se remonta a la Europa Napoleónica. Más concretamente, a la derrota que Prusia sufrió ante Napoleón en 1806 en la batalla de Jena. Tras esa derrota, los mandatarios prusianos llegaron a la conclusión de que sus soldados pensaban mucho por sí mismos en el campo de batalla, en lugar de acatar órdenes. El momento culmen de estos reclamos lo formuló el filósofo Johann Fichte en su discurso Directrices para la nación alemana, en el que pronunció la siguiente sentencia: ‘La educación debería proveer los instrumentos para destruir la voluntad’.

Por lo tanto, arropado por las corrientes de pensamiento de la época, que asumían al estado como un garante de la moral y el progreso, e ideas de Rousseau de emplear la educación para formar ciudadanos libres, Prusia se puso manos a la obra. Esta región ya contaba con un sistema pequeño de educación obligatoria puesto en marcha en 1763 por Federico El Grande, y que fue pionero en Europa. Sin embargo, tras la derrota de Jena, se exigieron reformas a este sistema.

Como consecuencia, Prusia comenzó a implantar un sistema educativo en 1807 que culminó en 1819, bajo un halo de enfoque científico y la dirección de Wilhelm von Humboldt. El resultado final instruía a los alumnos sobre qué pensar, en qué momento y durante cuánto tiempo. Sin embargo, este sistema tenía trampa y era un sistema totalmente elitista y de control de pensamiento.

El sistema de educación prusiano se dividía en tres niveles: Akadamiensschulen, Realsschulen y Volksschulen. El primero se reservó para la élite económica y nobiliaria de la población, que correspondía a un 1% únicamente. Aquí, los alumnos aprendían a ser futuros mandatarios políticos, a pensar estratégicamente, aprendían historia, escribían y leían mucho y se hacían expertos en el arte de ordenar. A continuación, el siguiente nivel social, que abarcaba entre un 5 y 7,5% de la población, aprendía a ser ingenieros, arquitectos, médicos, abogados o cualquier otro servicio que los gestores políticos pudieran requerir. Finalmente, la inmensa mayoría de la población acudía al último nivel, a La Escuela del Pueblo, donde aprendían obediencia, cooperación, literatura básica y grandes éxitos históricos del Estado. (fuente).

Y lo mejor que le puede ocurrir a un sistema, es tener rápidos resultados. A pesar de que al avezado lector le será difícil establecer una relación causa-efecto clara, Prusia se cobró venganza ante Napoléon 8 años más tarde del episodio de Jena, nada más y nada menos que en la Batalla de Waterloo. No solo eso, sino que, según los mandatarios, la población más sumisa y disciplinada permitió vencer en la guerra Franco-Prusiana y lograr la reunificación de Alemania y llevó a Prusia a ser un ejército dominante hasta finales del siglo XIX.

El éxito del Sistema fue pronto ampliamente admirado por otros estados, debido principalmente a la reducción de la población iletrada y a su eficiencia, y el Sistema se expandió a países como Estados Unidos y Japón.

En resumen, no es cierto que el sistema de educación provenga del mundo industrial, sino más bien del militar. Y es ahora nuestra responsabilidad adaptar esta importante actividad a los nuevos tiempos.



Este artículo se publicó originalmente en la DYNA, revista de investigación que recomiendo visitar.

¿Para qué necesitamos aerotaxis si ya existen los helicópteros?

En los últimos meses hemos vuelto a oír hablar de la promesa tecnológica de los aerotaxis urbanos. Fabricantes de todo el mundo han presentado distintas propuestas. Entre ellos, encontramos a Uber, Volocopter, Airbus, Lilium y la española Tecnalia.



Si el lector siente curiosidad puede encontrar en internet muchos más diseños de estos aerotaxis. Tras eso, comprobará que la tendencia consiste en crear vehículos muy semejantes a drones o multicópteros gigantes. Estos disponen de varios rotores, y algunos se parecen a naves de ciencia ficción, como la de Avatar.

Uber Elevate, en su página oficial, promete que el aerotaxi será el futuro de la movilidad urbana, y que permitirá desplazamientos rápidos desde las afueras de las ciudades hasta el centro. Nada distinto de lo que anuncian el resto de fabricantes.

Todo esto sigue sin aclarar a futuros usuarios e inquietos ingenieros por qué hay que diseñar aerotaxis si ya disponemos de helicópteros que cumplen esta misión.

Realicemos una breve comparativa entre ambos vehículos para ver las correspondientes ventajas de cada uno.


En primer lugar, los helicópteros son aparatos muy eficientes en su desplazamiento horizontal. La física demuestra que disponer de una nave con un único gran rotor requiere menos energía para desplazarse. Sin embargo, los vehículos multirrotores a los que se asemejan los aerotaxis, mejoran la eficiencia de los helicópteros en el ascenso vertical y en flotar en el aire, lo que en inglés se conoce como hover.

La incorporación de muchos pequeños rotores al aerotaxi le otorga seguridad. Si en pleno vuelo falla uno de los rotores, el resto podrá compensarlo para evitar un accidente catastrófico. El helicóptero tampoco tiene este problema: si falla su rotor principal, puede descender lentamente en el modo autogiro. La comparativa sigue en empate.

Otro motivo para que hoy no tengamos líneas regulares de helicópteros en las ciudades es el ruido que provocarían. Debido a que las palas de esta nave son muy largas, la velocidad que alcanzan en la punta es muy superior a la de los aspas de los vehículos tipo dron. Ese detalle es responsable de la gran generación de ruido de los helicópteros, que nos volvería locos en cualquier ciudad.

En cuanto a su manejo, el helicóptero no se limita a hacer girar su rotor, mientras que el drone, sí. El helicóptero realiza distintos movimientos con sus palas a través de sus dos controles: el cíclico y el colectivo. Estos movimientos permiten que el helicóptero pueda cambiar de dirección e inclinarse. Sin embargo, los vehículos tipo dron son mecánicamente más sencillos, ya que simplemente hacen girar sus hélices. Nada más. Por lo tanto, a pesar de que los controles del helicóptero son una tecnología muy madura, la simplicidad mecánica del diseño multirrotor del aerotaxi le hace ganar ventaja a este último.


El verdadero motivo tras su existencia

No hemos llegado aún a la que probablemente es la razón principal del diseño de los aerotaxis. Es una idea mucho más prosaica que cualquier motivo de diseño técnico. Los lectores quizás no se den cuenta, pero a la hora de consumir nuevos artículos tecnológicos valoran en grado sumo esta característica.

Es, ni más ni menos, que la presentación de formas estéticas futuristas y rompedoras genera novedad. Esta es una gran herramienta de marketing para atraer la atención del público y de potenciales inversores.

Si al fabricar una nueva generación de un coche solo variara su motor, sin actualizar la carrocería y apariencia, probablemente a los compradores les sedujera mucho menos su adquisición. Algo parecido ocurre con los teléfonos móviles, que no solo renuevan sus circuitos electrónicos.
Por todo ello, reutilizar los helicópteros como aerotaxis no resulta atractivo.

En cualquier caso, la mayoría de modelos aquí presentados aún son prototipos y están en fase de pruebas para refinar sus diseños. Solo los resultados de estos tests revelarán si el planteamiento elegido para estas naves es satisfactorio o no.

 

Este artículo se publicó originalmente en The Conversation, sitio web que os recomiendo visitar



Lady Norman, una sufragista en patinete

En la época de la imagen y el montaje audiovisual en la que vivimos, ¿qué pensaría cualquier persona al ver la siguiente foto?


Fuente de la imagen


Usted no se equivoca: se trata del antepasado del patinete eléctrico, esos inventos que inundan hoy en día nuestras ciudades, ¡pero de 1916! Y la mujer que posa con él es Florence Norman (1883-1964), más conocida como Lady Norman.



Podéis seguir leyendo el artículo en la web de publicación orininal, MujeresConCiencia. Un blog sobre mujeres (a menudo olvidadas) que inspiraron y marcaron la historia de la Ciencia

Boston Dynamics en los 80

A estas alturas, ya todo el mundo conoce a la empresa Boston Dynamics y sus vídeos de robots increíbles. No todo el mundo sabe muy bien hacia adónde se dirige esta compañía. Y va camino de convertirse en una empresa que provoca inquietud y risas a partes iguales.

Pero merece la pena recordar que toda gran idea tuvo un origen humilde, y es lo que pretendo recordar con este post de hoy. Corría el año 1980 y el fundador de esta empresa, Marc Raibert, era profesor en las prestigiosa universidad Carnegie Mellon. En ella, fundó el laboratorio Leg Lab, que podríamos traducir como el Laboratorio Pata, en referencia a las investigaciones que realizaban sobre cómo se obtenía el equilibrio con robots de una pata. Un ejemplo de estos orígenes se ve en el siguiente vídeo:




Experimentos así permiten ver lo que cuesta avanzar en desarrollos tecnológicos y que los grandes diseños no salen de la nada. O por lo menos, eso pretende el autor de estas líneas.

Por cierto, siempre me gusta recordar que estamos a años luz de un hipotético Skynet y que estos robots nos apunten con una metralleta conscientemente. Y prueba de ello es que uno de los últimos robots de Boston Dynamics, ese temible robot-perro, tuvo un pequeño incidente en una presentación:




Los niños pequeños aprenden palabras igual que los perros. ¿Podrían hacerlo las máquinas?

Los algoritmos y procesos de inteligencia artificial (IA) han recibido un impulso muy grande en los últimos años. A ello han contribuido las grandes bases de datos, la potencia de los nuevos microprocesadores y la mayor comprensión del funcionamiento matemático.

Sin embargo, las técnicas que están más de moda, como el famoso deep-learning, ya están dando muestras de agotamiento. Además, cada vez más científicos defienden que hay que desarrollar nuevas herramientas. En palabras de Pedro Domingos, “llevamos empleando los mismos principios desde 1950”.

En los últimos años, la inspiración que ha hecho avanzar a la IA proviene de la neurociencia y la psicología. Hoy parece mentira, pero en su origen estas dos disciplinas iban de la mano. Sin embargo, según se fueron desarrollando y especializando, cada vez se separaron más y más.

Hoy es el día en que la combinación de ellas puede arrojar luz sobre nuevos algoritmos de IA. En el presente artículo, quiero demostrar un caso particular, entre muchos, de alianza entre disciplinas.

 

¿Cómo aprenden palabras nuevas los perros?

Estos animales emplean una técnica muy curiosa. Pensemos que en un experimento disponemos de tres objetos: los nombres de dos de ellos son conocidos por los canes (por ejemplo, pelota y peluche), y el del restante, no (zapatilla).

Si pedimos al perro que nos dé la zapatilla, ¿cómo distinguirá el objeto correcto? A modo de descarte, elegirá el cuerpo cuyo nombre desconoce. Si nuestra respuesta es positiva, en adelante él aprenderá que zapatilla es ese objeto de tela de colores y goma.




No es la única manera en la que los perros aprenden palabras nuevas. Los investigadores afirman que, en esta manera de aprender, los canes lo hacen impulsados por una confusión mental. Los psicólogos llaman a este fenómeno el principio de mutua exclusividad.

Nuestras mascotas no son las únicas que pueden manejar este principio. Se ha demostrado que los chimpancés y los niños pequeños también la emplean. En definitiva, se conoce desde hace mucho tiempo.

La opinión mayoritaria de los científicos es que, debido a la complejidad del cerebro humano, la mutua exclusividad no es el único mecanismo que interviene en el aprendizaje de palabras. Pero no hay ninguna duda sobre su existencia. Basta con ver a un niño para entender que no existe aún ninguna máquina parecida a la mente de esa criatura.

Ahora bien, ¿cómo trasladamos esta habilidad a los algoritmos de IA tradicionales? Las redes neuronales actualmente carecen de mutua exclusividad, y de muchas más características del aprendizaje humano.

Por ejemplo, estas herramientas funcionan muy mal para aprender ideas nuevas sin borrar las antiguas. Tampoco para elaborar generalizaciones (si sabes conducir un modelo de coche, sabrás conducir el resto de modelos).

Por esta razón, se está tendiendo a integrar las aportaciones provenientes de la neurociencia y psicología. No tenemos ninguna certeza de que lleguemos a imitar perfectamente todo el aprendizaje humano. Pero ese es el tipo de respuestas que persigue cualquier labor de investigación.



Este artículo se publicó originalmente en The Conversation, sitio web que os recomiendo visitar

Qué difícil es predecir el futuro

Estas semanas están siendo de mucha actividad para el autor de este blog. Entre otras tareas, estoy leyendo sobre predicciones erróneas y la validez de los 'expertos' para hacer predicciones. Prometo contar las historias e ideas interesantes -para mí- que estoy encontrando. Pero de momento, hoy os dejo con una confesión de Wilbur Wright, uno de los precursores del primer vuelo.

Durante un importante discurso en el Aéroclub de France, la primera institución aeronáutica en el mundo, fundada en 1898, el mayor de los hermanos dijo:



Confieso que en 1901 le admití a Orville que durante 50 años el hombre no lograría volar.




Dos años más tarde, el 17 de diciembre de 1903, ellos mismos lo lograron.

Fíjense los lectores qué difícil es hacer predicciones, incluso de la gente que más sabe, como para acertar. ¿Harán los expertos mejores predicciones que los no-expertos?


El Gran Hermano (digo, Hacienda) os vigila: fraudes y delitos

En las fechas en las que a mí me entró el gusto por aporrear las teclas del ordenador y leer sobre seguridad informática, los consejos de seguridad en esencia, diferían poco de los actuales. En aquella época de módems de Internet que crearon una de las bandas sonoras de nuestras vidas, esas lejanas entrevistas y consejos de Una al Día ya insistían en no clicar en todos los enlaces, el phising, contraseñas de correo seguras, etc.

Con el Big Bang de las redes sociales, que aunque no lo creamos, no estaban ahí hace tanto tiempo, los consejos se ampliaron a 'ojo con lo que publicamos en las redes sociales'. La mayoría de usuarios opina que estas sabias palabras no merecen de su atención, y así se ve lo que se ve por Instagram, Facebook, y ya saben los lectores cuáles más.

Pero luego te encuentras con que cada vez más empresas husmean el perfil de los candidatos a sus puestos de trabajo o los bancos a la hora de concederte un préstamo. Posiblemente mucha gente aún piense que el sacrificio de ocultar su última escapada de fin de semana no compense la incorporación a una empresa. Ya intentará entrar en otra entidad.



En este hambre voraz del contenido de tus redes sociales, conocí hace poco que incluso el patrón de todos nosotros, Hacienda, lo usa como práctica habitual. Y quizás ahora los lectores muestren más interés en ocultar el contenido de sus redes:

La noticia me pilla tarde. Concretamente, ya en 2015 se anunciaba que se iba a crear un Gran Hermano para espiar las redes sociales. Ellos lo llamaron 'Plan Anual de Control Tributario. Según el artículo que enlazo:

A través de programas informáticos espía que recabarán y clasificarán la información de la red a través de un sistema que todavía no han especificado, Hacienda investigará las páginas webs, las redes sociales, los foros o los blogs de quien considere para detectar posibles prácticas fraudulentas. Estos datos se sumarán a los ficheros que el fisco ya posee sobre empresas y particulares.


Seguir leyendo: http://www.libremercado.com/2015-02-21/montoro-crea-un-gran-hermano-fiscal-para-espiar-las-redes-sociales-1276541280/

En el mismo artículo señalan que esto es una práctica anterior a 2015. Esto no afecta solo a España, sino que se da en multitud de países, algunos desde 2004. 

Es decir, los métodos habituales de detección de fraude en el cobro de ayudas, o de una modesta declaración de ingresos en tu declaración, se verá contrastada con las fotos en playas paradisíacas, o incluso cosas más prosaícas, como pistas de si convives o no con más personas, lo cual es un impedimento para el cobro de numerosas ayudas sociales. Y me temo que esto, con la mejora de la identificación de imágenes con inteligencia artificial, irá a más. ¿Qué hacen luego con nuestros datos? ¿Cumple la ley de Protección de Datos Personales?

Según mi admirado Teniente Kaffee (profesional de Justicia que trabaja para el Estado, como dice él), si la cuenta de Facebook está abierta, todo esto es legal en un juicio. En cambio, si Hacienda te pide amistad como 'Antonio, el del barrio', y aprovecha tu confianza para cotillear en tu cuenta, la prueba se invalida.

Queda claro que desde hace tiempo, mucho, vivimos en un Gran Hermano. Pero nos vigilan asumiendo la naturaleza humana de la picaresca y la evasión fiscal. No 'nos cuidan'. El Ministerio de Sanidad usando la misma información de las redes sociales, podría detectar ánimos suicidas, enfermedades mentales o algún otro tipo de dolencia.

Violencia de género y algoritmos

La dictadura de las matemáticas hace tiempo que se halla entre nosotros. No es necesario que se integre en un cuerpo robótico, de metal, sino que actualmente ya se encuentran gobernando programas informáticos y leyes que gobiernan nuestras vidas. Estoy seguro de que si dejo a los lectores de este humilde blog, 2 minutos para pensar a qué sector puede afectar las fórmulas matemáticas y los algoritmos, estoy seguro de que la mayoría sugerirá la banca, el empleo o el transporte. Pero no, en esta ocasión vengo a hablar de violencia de sexo.

Concretamente, quiero describir brevemente la herramienta matemática, fría y sin alma, que se emplea en España cuando hay un delito de esta naturaleza.

Desde 2007, cuando una mujer acude con un problema de violencia de sexo, la policía le pide que rellene un cuestionario. Posteriormente, el agente de la autoridad rellena a su vez otro cuestionario distinto, ya que en muchas ocasiones la víctima no es capaz de responder fría y objetivamente.

Tras el rellenado de esos dos formularios, se aplica una fórmula matemática super-sencilla y se calcula el riesgo de volver a ser atacada que tiene esa mujer. Concretamente, la fórmula puede arrojar uno de estos cinco resultados: no apreciado, bajo, medio, alto y extremo. Sin sentimentalismos.

Lista de preguntas del protocolo VPR



De esa manera, la vida de esa mujer queda en manos de una fórmula matemática, ya que en función del resultado la policía le asignará más o menos medidas de protección.

Esta sencilla operación matemática se ha obtenido estudiando casos antiguos de delitos de violencia de sexo. En otras palabras, se estudió qué respondieron las mujeres de entonces, y si fueron atacadas de nuevo o no. En lenguaje científico podíamos denominar a esto un ajuste por regresión, prácticamente.

Pero en mi opinión, debería llamarnos la atención que en lugar de la intuición policial, nos fiemos de esa ley numérica. Además, lo que ocurrió en el pasado, no tiene por qué repetirse en el futuro, y menos tratándose de personas y nuestra imprevisibilidad.

Este algoritmo no es inteligencia artificial, tal y como se ha vendido en algunos medios (por ejemplo). No, es algo de una complejidad mucho más baja.

Los cuestionarios difieren un poco entre los cuerpos policiales del país (EPV-R, para la Policía Vasca, o VPR para la Policía Nacional). Ya ha habido numerosas quejas que advierten que este algoritmo no funcionaba correctamente, pero puede tardar meses en que el cuestionario cambie. ¿Y cómo daríais explicaciones a las familiares de la víctima, si fuerais conscientes de que la aplicación de una fórmula que podría usar un niño de 12 años, ha decidido que la víctima no tuviera protección?



NOTA:

Los cuestionarios los podéis encontrar a partir de la página 101 del manual de Viogén del Ministerio del Interior.

Hay artículos científicos que 'validan' el sistema empleado por la Policía, como este o este. Sin embargo, la metodología empleada está lejos de ser robusta, en mi humilde opinión.



Este artículo es la adaptación y traducción de un artículo que se publicó el día 6 de junio en el diario Berria, escrito en euskera.


¿La (des)robotización que va tomando forma?

Ayer comenté en la Red del Pajarito la conversación con un antiguo alumno que trabaja dando asistencia técnica a industrias manufactureras del norte de España. 

Como las palabras se las lleva el viento, y los tuits también, voy a dejar aquí la reflexión de este ingeniero respecto a mis consultas tras ver el revuelo que causó con algunos usuarios de Twitter. Concretamente, le pregunté si las industrias que él visitaba se estaban robotizando o no. Y él me dijo 'en todo caso, yo diría que se están desrobotizando'. Y paso a explicar este fenómeno:

Para simplificar el relato, llamémosle Igor al protagonista de la historia. El tipo de máquinas a las que asiste este chico, son máquinas de corte de chapa, plegado, punzado, etc. Se trata de un tipo de operaciones de escasa precisión y bajo valor añadido. En definitiva, las fábricas que ofrecen este servicio tienen que ser competitivos en coste y entregar los pedidos rápido. La precisión de estas operaciones es de décimas de milímetro o de ángulo. Estas empresas, en muchas ocasiones, suelen ser proveedores de otros fabricantes o ensambladores finales.

Fuente



La razón fundamental para que los robots no sean viables en este tipo de industria es que las tiradas de piezas a realizar normalmente son cortas, y que se necesita ser muy flexible. De un día a otro te puede llamar un cliente importante y decirte: 'para mañana me tienes que hacer 100 cabinas de ascensor'. Con lo cual, el proveedor normalmente tiene que interrumpir su producción, y poner a hacer una operación distinta a su línea de producción.

Reprogramar un robot es costoso, lleva 1h y se requiere cierto nivel de cualificación. En cambio, hacer que un operario cambie de operación es sencillo, barato, y no se requiere que tenga mucha experiencia ni cualificación, según Igor.

Pero la clave fundamental para que la implantación de este tipo de robots tenga éxito es sobre todo que se fabrique lotes grandes. En otro sector totalmente distinto, el de alimentación, Igor mencionaba que la automatización es muy alta, ya que ahí la producción apenas varía. 

Una vez reposada la información, me surge una duda: ¿a qué le llamaría mi interlocutor exactamente desrobotizar? ¿A devolver robots a sus proveedores? ¿O a no emplear todas las capacidades de una máquina para hacer las operaciones, y optar por hacerlas manuales?

¿Dónde queda la conectividad y la inteligencia artificial? No soy portador de malas noticias: sí que existe y tiene presencia cada vez mayor en las industrias. Cada vez las máquinas están más conectadas a su alrededor. Por otro lado, la matriz japonesa que vende las máquinas de corte de las que estoy hablando, monitoriza estos aparatos remotamente a sus clientes, de manera que puede predecir gracias a múltiples sensores cuándo se va a romper algún elemento del ingenio.

Sin embargo, un punto preocupante es que este tipo de producción de operaciones de corte-doblado de chapa... no es de valor añadido, ni representa un producto propio con una barrera de mercado alta. Eso deja en una situación más indefensa a cualquier empresa. En otra conversación de Twitter, me comentaban que en nuestro país una grandísima parte del trabajo es de body-shipping (es decir, A subcontrata a B, que a su vez, subcontrata a C). Según mi antiguo alumno, las empresas que tienen un producto propio, pueden controlar su stock, sus tiradas, tiempos, etc, y entonces, pueden automatizar sus líneas. Y automatizando, logran mayor competitividad respecto a la competencia.

Por lo tanto, esto vuelve a demostrar que un mercado o una tecnología no se impondrá por imperativo legal ni porque suene mucho en los periódicos. Sino que las leyes, el talento, las empresas y el mercado tienen que ser propicios.

¿Qué pensáis vosotros de todo esto? ¿Qué experiencia habéis tenido con la (des)robotización?

¿Cuántos ordenadores hacen falta para identificar a un gato?

16.000.

Si ya estáis satisfechos, podéis dejar de leer el artículo. De lo contrario, en las siguientes líneas explicaré brevemente la cifra.




En 2012 el New York Times con el llamativo título de 'How Many Computers to Identify a Cat? 16,000', y describe un experimento llevado a cabo por Google, y que tuvo mucho bombo en los medios de comunicación. 

El experimento representa un hito importante por dos motivos principalmente. En primer lugar, es un experimento en gran escala (no os imagináis el problema que es la escalabilidad de estos algoritmos. No voy a entrar ahora en ello). En segundo lugar, se detectaron gatos sin que nadie etiquetara previamente miles de imágenes que contenían gatos. A ver si me explico:

Podéis llegar a tener miles de personas semi-esclavas etiquetando las fotos en las que aparecen gatos, lo que se conoce como data-turks. Consiste en ver millones de imágenes y señalar las fotos que tienen a estos felinos. 

Pero Google no lo hizo así, sino que se valió de 10 millones de vídeos de YouTube, los dividió en millones de fotogramas distintos, y sin que nadie más dijera nada más, supo identificar a los lindos gatitos. Para ello, invirtió 3 días. ¿Cómo es esto? Realmente, Google no sabe que un gato es un gato, pero sí que llegó a clasificar fotos. Es decir, supo distinguir unas formas, colores, ojos, volúmenes que se parecían entre sí, y que eran diferentes a las formas, colores, ojos, volúmenes de una mesa, o un coche, o una persona. Posteriormente, una persona puso un nombre a cada clasificación. Fotos clasificadas como 'gatos', como 'coches', como 'personas', etc.

El artículo original publicado por Google explicando su investigación está aquí.

Por todo esto, basta con ver cómo se comporta, cómo aprende y cómo relaciona conceptos un bebé de 6 meses, y no digamos ya 3 años, para ver que el nivel de el aprendizaje artificial está aún a años luz de una criatura humana. Y eso a mí me resulta fascinante.

La Drosophila del razonamiento

Este artículo se publicó originalmente el 22 de febrero en la Revista Dyna, publicación de investigación en ingeniería:




Las partidas de ajedrez contra la inteligencia artificial se están convirtiendo en una unidad de medida popular. Como la unidad de 'campos de fútbol' al hablar de superficie quemada en un bosque. El hecho de que un algoritmo venza a un Gran Maestro en este juego de mesa parece que sea un sinónimo del peligro de las máquinas para la sociedad o el advenimiento de Skynet.

Sin embargo, no hay nada más lejos de la realidad. Si la inteligencia artificial se enfrenta a humanos en juegos como el ajedrez, o el Go, es por tratarse de unas actividades perfectamente acotadas por unas reglas. Y no nos engañemos, era cuestión de tiempo que la inteligencia artificial venciese por su mayor poder de computación y falta de cansancio.

Me resulta curioso constatar que el ajedrez siempre ha sido considerado desde hace mucho como una actividad de demostración de poderío intelectual. Mucho antes que los soviéticos, en 1770 el inventor húngaro Wolfgang von Kempelen, creó un artefacto que 'jugaba' al ajedrez. Lo llamaron The Turk y más que una máquina, se convirtió en un fenómeno del espectáculo. The Turk viajó por toda la geografía durante más de 80 años retando al público a jugar una partida. Y su primera actuación no fue en una plaza menor, sino que debutó en la Corte de los Habsburgo en Viena. De hecho, jugó contra grandes figuras históricas, como Napoleón, Benjamin Franklin e incluso pudo inspirar a Charles Babbage para su Máquina Analítica. Sin embargo, no era más que un truco de ilusionista. A pesar de la apariencia de 'robot' primitivo que se puede ver en la siguiente imagen, el ingenio escondía a una pequeña persona, muy habilidosa en este juego, que era el que realizaba todo el trabajo de intelecto.





The Turk (Wikipedia)





Mucho más honesto y posterior fue el intento de uno de los más grandes inventores españoles: el Ajedrecista, de Leonardo Torres Quevedo. En su ingenio no cabía la prestidigitación de The Turk, pero en cambio, no era capaz de desarrollar una partida completa. El Ajedrecista controlaba mecánicamente un rey y una torre que jugaba contra un rey, manejado por el humano. El desenlace de este planteamiento era irremediable hacia el jaque mate o las tablas, por lo que la máquina de Torres Quevedo ganaba siempre. A pesar de eso, causó una gran sensación en 1914 cuando se presentó en París.

El Ajedrecista (El País)



No me puedo imaginar las sensaciones de frustración y asombro de los participantes en estas partidas contra ‘la máquina’, tanto The Turk como El Ajedrecista. Tal era el engaño y aplomo de la máquina de Kempelen que, en su partida contra Napoleón, éste realizó un movimiento ilegal para intentar engañar a la máquina, y The Turk reaccionó tirando todas las piezas fuera del tablero. Ese gesto contra uno de los hombres más poderosos de la época, demuestra que el truco estaba muy logrado y que su inventor tenía toda la confianza del mundo en sí mismo.


El ejemplo más cercano a los famosos algoritmos actuales, como Deep Blue o AlphaZero, lo tenemos que buscar en 1948, cuando Alan Turing y David Champernowne desarrollaron el programa conocido como Turochamp. Pero lo más increíble es que lo desarrollaron antes de que se inventara el ordenador. Las reglas de este sistema se basan en otorgar un valor concreto a cada pieza del tablero, a la posibilidad de que el rey sea atacado, a la movilidad y a la posibilidad de hacer jaque. Constituye la primera idea de inteligencia artificial capaz de enfrentarse a un humano en este juego de mesa. La primera partida de su historia fue contra la mujer de Champernowne, y ganó. La segunda fue contra Alick Glennie, y la perdió. Pero esta segunda hazaña quedó registrada para siempre en el artículo científico Digital Computers applied to Games, del propio Turing


El ajedrez. Quizás la Drosophila del razonamiento [1].


BIBLIOGRAFIA

[1]  Ed Sandifer. How Euler did it. The cannonballs http://eulerarchive.maa.org/hedi/HEDI-2006-12.pdf

Los robots de Boston Dynamics: ¿el Skynet está cerca?

En los últimos días, circula por Internet un GIF demostrando la evolución de los famosos robots de Boston Dynamics en los últimos 10 años.


via Gfycat


Aunque hay otra versión del mismo GIF, más apocalíptica.

No será la intención de este humilde divulgador infravalorar los avances de Boston Robotics, pero sí la de valorar las cosa en su justa medida: los famosos vídeos de esta empresa norteamericana no son presentaciones técnicas, sino comerciales. Los vídeos que finalmente publican en su canal de YouTube no salen a la primera, no se ven los numerosos fallos que seguro que tienen los robots, y todos los obstáculos están planeados.

Los tweets que acompañaban a los vídeos que he adjuntado aquí daban a entender que en 10 años la progresión de Boston Dynamics iba a ser la misma, o incluso más alta. Pero no hay ninguna base técnica para afirmar que eso vaya a ser posible, y lo siento mucho por los amantes de ciencia-ficción. Además, la transición del punto de tecnología actual de Boston Dynamics al punto de tecnología de Terminator es como ir de la Tierra a Júpiter. Y ese es un punto que hay que tener claro: esos robots no son inteligentes. Simplemente reaccionan ante obstáculos y estímulos que detectan, probablemente, por sensores de distancia o visión artificial. Pero los robots no tienen ni una pizca de conciencia.

Precisamente una de las principales críticas que hacemos a esta empresa es que en sus presentaciones no explica el software ni las novedades técnicas que permiten lograr los ingenios que logran. Una mayor transparencia ayudaría a hacerse una idea de dónde podrían estar en un par de años.

Esta empresa fue adquirida por Google en 2013 y vendida tres años más tarde. Hay algún conspiranoíco al respecto, que piensa que Google ya habrá absorbido todo el conocimiento de esta empresa y la vende cuando no le aportaba más. Sin embargo, oh, qué sorpresa, según llegó a mis oídos, no había nada de eso, sino razones mucho más prosaicas, que consistían en que Google y BD no se entendían nada bien. Y ahora la emrpesa de robots es propiedad de Softbank, un gigante de inversión japonés.

A mí particularmente, una de las cosas que más me llama la atención y me mosquea, es el tobillo de los robots. Esta articulación de los animales y de los humanos es algo asombroso, ya que le permite andar por multitud de terrenos y de desniveles. Es como si tuviéramos un circuito de control interno que sabe exactamente cuánta fuerza tenemos que hacer en la arena para no caernos, en la nieve, o en la carretera. Pero de eso disertaré en alguna entrada futura de esta bitácora.

No me quiero marchar sin dejaros un vídeo ejemplo de los fallos habituales que aún hacen robots que han costado miles de dólares, e incluso estando financiados por DARPA.








Fuentes:
What's really going on in this Boston Dynamics robot videos?

Boston Dynamics' robots — impressive, but far from the Terminator

Taller de Inteligencia Artificial para estudiantes de bachillerato

La pasada semana tuve el honor de llevar a cabo una actividad que me dio muchas satisfacciones. Concretamente, después de más de un año de trabajo, organicé un pequeño taller de inteligencia artificial para alumnos de bachillerato en un colegio de mi querida San Sebastián. La motivación principal para realizarlo es que creemos que actualmente no hay apenas propuestas para enseñar las matemáticas de la inteligencia artificial a estudiantes jóvenes. Sí que hay multitud de talleres que enseñan robótica con Arduino o Raspberry. Pero no hay ninguno que explique que detrás de la inteligencia artificial hay matemáticas muy sencillas. Por lo tanto, a partir de esta idea creamos una propuesta de taller. Este artículo pretende describir en qué consistió esta actividad y su propósito:

La premisa más importante es conocer los objetivos del taller. Para nosotros, la intención no era enseñar inteligencia artificial, sino desmitificar esta disciplina y hacer conscientes a los alumnos de las matemáticas simples que hay tras ellas. Tener esto en cuenta es muy importante.

Además, el taller se basaba en ejercicios realizados con el lenguaje de programación Scratch. Este lenguaje, para quien no lo conozca, es un entorno de programación gráfico que permite realizar pequeños algoritmos y tareas arrastrando bloques de colores, eligiendo variables de una manera muy visual, etc. Es un tipo de herramienta muy útil para iniciar a los alumnos en nociones básicas de programación, y soy conocedor de varios colegios de la región que lo usan con estudiantes a partir de 13 años.

Pero volvamos al taller. La actividad completa duró una hora y el tiempo se repartió de la siguiente manera:

En los 15 primeros minutos de actividad, se impartieron los siguientes conceptos de una manera muy sintética:
              - Introducción a la inteligencia artificial
              - En qué consiste el algoritmo de clusterización K-means
              -  Cómo funciona una red neuronal

Posteriormente, los chavales tuvieron 45 minutos para realizar dos ejercicios y poner en práctica las nociones básicas que se les había impartido hace unos minutos. La metodología de esta parte práctica se implementó de la siguiente manera: los alumnos trabajaron en parejas, y tenían a su disposición el archivo de un algoritmo de inteligencia artificial implementado en Scratch. En este archivo estaba implementado casi todo el código necesario, salvo un par de huecos que tenían que rellenar para que todo el programa se ejecutase correctamente. Para que fuera un poco más fácil, en una esquina de la zona de trabajo de Scratch, los alumnos tenían las piezas de código que había que encajar en los huecos, pero desordenadas. Una vez que completaban el código, los estudiantes podían comprobar si habían acertado o no ejecutándolo en el mismo Scratch.

A los estudiantes se les asignó dos problemas, uno detrás de otro:

1) El algoritmo de clusterización K-means, donde tenían que conseguir clasificar una nube de puntos en tantos clusters como quisieran. Los clusters estaban definidos por 'puntos gordos' de colores, y la clasificación consistía en pintar los puntitos según el color del 'punto gordo' más cercano que tuvieran.

2) Posteriormente se asignó una red neuronal muy sencilla (dos entradas y una salida), entrenada con los datos de entrada y salida de una puerta lógica AND. Para cada ejercicio disponían de 20 minutos como máximo.

A continuación incluyo algunas imágenes representativas de estos problemas:





Parece sencillo, ¿no? Ahora vienen los resultados: para nosotros el taller fue un éxito, ya que todas las parejas de alumnos completaron los ejercicios antes del tiempo asignado, y tenían la sensación de haber entendido el ejercicio y el algoritmo.

Para comprobar esta comprensión, los estudiantes tuvieron que completar un test de preguntas antes y después del taller. En esta prueba, nosotros, como investigadores, queríamos comprobar el grado de alcance de consecución de los objetivos que nos habíamos marcado. Y la buena noticia es que estamos muy contentos con los resultados que obtuvimos. Por ejemplo, una de las preguntas planteadas era:

El nivel de conocimientos matemáticos y técnicos requeridos para entender la inteligencia artificial está fuera del alcance de la mayoría de la población.

Con la puntuación de una escala Lickert (1 a 5, 1: totalmente desacuerdo; 5: totalmente de acuerdo) tuvimos diferencias muy significativas en las respuestas antes y después del taller, lo cual demuestra que la metodología que empleamos es bastante acertada para conseguir este objetivo.

Tal y como prometí en Twitter, he dejado colgados en un repositorio abierto los archivos de Scratch completos utilizados en el taller. Aunque aún no aparezca, estarán bajo una licencia GNU GPLv3. Porque el conocimiento debe ser libre.

La metodología del taller está registrada en el archivo de propiedad intelectual. Finalmente, mi grupo de I+D y yo hemos publicado tres artículos explicando el taller: dos trabajos para dos congresos internacionales y un artículo científico en Arxiv titulado Using Scratch to Teach Undergraduate Students' Skills on Artificial Intelligence donde explicamos el estado del arte y motivaciones para realizar el taller de inteligencia artificial. Ojo, que en este caso, el taller que explicamos en Arxiv no es exactamente el mismo que he descrito en este artículo de blog. Ese aún está en el horno :-).

El taller de inteligencia artificial sigue creciendo y ya estamos planteando nuevos ejercicios para entender cómo funciona un ordenador o un robot para escapar de un laberinto, o conocer el camino más corto en un circuito.


¿Os gusta la idea? ¿Os parece que habría que mejorar algo? Si os interesa algo de todo esto, no dudéis en hacerlo en los comentarios del artículo o a través del email ideasecundaria@yahoo.es.

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Web Hosting