-->

¿Cuántos ordenadores hacen falta para identificar a un gato?

16.000.

Si ya estáis satisfechos, podéis dejar de leer el artículo. De lo contrario, en las siguientes líneas explicaré brevemente la cifra.




En 2012 el New York Times con el llamativo título de 'How Many Computers to Identify a Cat? 16,000', y describe un experimento llevado a cabo por Google, y que tuvo mucho bombo en los medios de comunicación. 

El experimento representa un hito importante por dos motivos principalmente. En primer lugar, es un experimento en gran escala (no os imagináis el problema que es la escalabilidad de estos algoritmos. No voy a entrar ahora en ello). En segundo lugar, se detectaron gatos sin que nadie etiquetara previamente miles de imágenes que contenían gatos. A ver si me explico:

Podéis llegar a tener miles de personas semi-esclavas etiquetando las fotos en las que aparecen gatos, lo que se conoce como data-turks. Consiste en ver millones de imágenes y señalar las fotos que tienen a estos felinos. 

Pero Google no lo hizo así, sino que se valió de 10 millones de vídeos de YouTube, los dividió en millones de fotogramas distintos, y sin que nadie más dijera nada más, supo identificar a los lindos gatitos. Para ello, invirtió 3 días. ¿Cómo es esto? Realmente, Google no sabe que un gato es un gato, pero sí que llegó a clasificar fotos. Es decir, supo distinguir unas formas, colores, ojos, volúmenes que se parecían entre sí, y que eran diferentes a las formas, colores, ojos, volúmenes de una mesa, o un coche, o una persona. Posteriormente, una persona puso un nombre a cada clasificación. Fotos clasificadas como 'gatos', como 'coches', como 'personas', etc.

El artículo original publicado por Google explicando su investigación está aquí.

Por todo esto, basta con ver cómo se comporta, cómo aprende y cómo relaciona conceptos un bebé de 6 meses, y no digamos ya 3 años, para ver que el nivel de el aprendizaje artificial está aún a años luz de una criatura humana. Y eso a mí me resulta fascinante.

La Drosophila del razonamiento

Este artículo se publicó originalmente el 22 de febrero en la Revista Dyna, publicación de investigación en ingeniería:




Las partidas de ajedrez contra la inteligencia artificial se están convirtiendo en una unidad de medida popular. Como la unidad de 'campos de fútbol' al hablar de superficie quemada en un bosque. El hecho de que un algoritmo venza a un Gran Maestro en este juego de mesa parece que sea un sinónimo del peligro de las máquinas para la sociedad o el advenimiento de Skynet.

Sin embargo, no hay nada más lejos de la realidad. Si la inteligencia artificial se enfrenta a humanos en juegos como el ajedrez, o el Go, es por tratarse de unas actividades perfectamente acotadas por unas reglas. Y no nos engañemos, era cuestión de tiempo que la inteligencia artificial venciese por su mayor poder de computación y falta de cansancio.

Me resulta curioso constatar que el ajedrez siempre ha sido considerado desde hace mucho como una actividad de demostración de poderío intelectual. Mucho antes que los soviéticos, en 1770 el inventor húngaro Wolfgang von Kempelen, creó un artefacto que 'jugaba' al ajedrez. Lo llamaron The Turk y más que una máquina, se convirtió en un fenómeno del espectáculo. The Turk viajó por toda la geografía durante más de 80 años retando al público a jugar una partida. Y su primera actuación no fue en una plaza menor, sino que debutó en la Corte de los Habsburgo en Viena. De hecho, jugó contra grandes figuras históricas, como Napoleón, Benjamin Franklin e incluso pudo inspirar a Charles Babbage para su Máquina Analítica. Sin embargo, no era más que un truco de ilusionista. A pesar de la apariencia de 'robot' primitivo que se puede ver en la siguiente imagen, el ingenio escondía a una pequeña persona, muy habilidosa en este juego, que era el que realizaba todo el trabajo de intelecto.





The Turk (Wikipedia)





Mucho más honesto y posterior fue el intento de uno de los más grandes inventores españoles: el Ajedrecista, de Leonardo Torres Quevedo. En su ingenio no cabía la prestidigitación de The Turk, pero en cambio, no era capaz de desarrollar una partida completa. El Ajedrecista controlaba mecánicamente un rey y una torre que jugaba contra un rey, manejado por el humano. El desenlace de este planteamiento era irremediable hacia el jaque mate o las tablas, por lo que la máquina de Torres Quevedo ganaba siempre. A pesar de eso, causó una gran sensación en 1914 cuando se presentó en París.

El Ajedrecista (El País)



No me puedo imaginar las sensaciones de frustración y asombro de los participantes en estas partidas contra ‘la máquina’, tanto The Turk como El Ajedrecista. Tal era el engaño y aplomo de la máquina de Kempelen que, en su partida contra Napoleón, éste realizó un movimiento ilegal para intentar engañar a la máquina, y The Turk reaccionó tirando todas las piezas fuera del tablero. Ese gesto contra uno de los hombres más poderosos de la época, demuestra que el truco estaba muy logrado y que su inventor tenía toda la confianza del mundo en sí mismo.


El ejemplo más cercano a los famosos algoritmos actuales, como Deep Blue o AlphaZero, lo tenemos que buscar en 1948, cuando Alan Turing y David Champernowne desarrollaron el programa conocido como Turochamp. Pero lo más increíble es que lo desarrollaron antes de que se inventara el ordenador. Las reglas de este sistema se basan en otorgar un valor concreto a cada pieza del tablero, a la posibilidad de que el rey sea atacado, a la movilidad y a la posibilidad de hacer jaque. Constituye la primera idea de inteligencia artificial capaz de enfrentarse a un humano en este juego de mesa. La primera partida de su historia fue contra la mujer de Champernowne, y ganó. La segunda fue contra Alick Glennie, y la perdió. Pero esta segunda hazaña quedó registrada para siempre en el artículo científico Digital Computers applied to Games, del propio Turing


El ajedrez. Quizás la Drosophila del razonamiento [1].


BIBLIOGRAFIA

[1]  Ed Sandifer. How Euler did it. The cannonballs http://eulerarchive.maa.org/hedi/HEDI-2006-12.pdf

Los robots de Boston Dynamics: ¿el Skynet está cerca?

En los últimos días, circula por Internet un GIF demostrando la evolución de los famosos robots de Boston Dynamics en los últimos 10 años.


via Gfycat


Aunque hay otra versión del mismo GIF, más apocalíptica.

No será la intención de este humilde divulgador infravalorar los avances de Boston Robotics, pero sí la de valorar las cosa en su justa medida: los famosos vídeos de esta empresa norteamericana no son presentaciones técnicas, sino comerciales. Los vídeos que finalmente publican en su canal de YouTube no salen a la primera, no se ven los numerosos fallos que seguro que tienen los robots, y todos los obstáculos están planeados.

Los tweets que acompañaban a los vídeos que he adjuntado aquí daban a entender que en 10 años la progresión de Boston Dynamics iba a ser la misma, o incluso más alta. Pero no hay ninguna base técnica para afirmar que eso vaya a ser posible, y lo siento mucho por los amantes de ciencia-ficción. Además, la transición del punto de tecnología actual de Boston Dynamics al punto de tecnología de Terminator es como ir de la Tierra a Júpiter. Y ese es un punto que hay que tener claro: esos robots no son inteligentes. Simplemente reaccionan ante obstáculos y estímulos que detectan, probablemente, por sensores de distancia o visión artificial. Pero los robots no tienen ni una pizca de conciencia.

Precisamente una de las principales críticas que hacemos a esta empresa es que en sus presentaciones no explica el software ni las novedades técnicas que permiten lograr los ingenios que logran. Una mayor transparencia ayudaría a hacerse una idea de dónde podrían estar en un par de años.

Esta empresa fue adquirida por Google en 2013 y vendida tres años más tarde. Hay algún conspiranoíco al respecto, que piensa que Google ya habrá absorbido todo el conocimiento de esta empresa y la vende cuando no le aportaba más. Sin embargo, oh, qué sorpresa, según llegó a mis oídos, no había nada de eso, sino razones mucho más prosaicas, que consistían en que Google y BD no se entendían nada bien. Y ahora la emrpesa de robots es propiedad de Softbank, un gigante de inversión japonés.

A mí particularmente, una de las cosas que más me llama la atención y me mosquea, es el tobillo de los robots. Esta articulación de los animales y de los humanos es algo asombroso, ya que le permite andar por multitud de terrenos y de desniveles. Es como si tuviéramos un circuito de control interno que sabe exactamente cuánta fuerza tenemos que hacer en la arena para no caernos, en la nieve, o en la carretera. Pero de eso disertaré en alguna entrada futura de esta bitácora.

No me quiero marchar sin dejaros un vídeo ejemplo de los fallos habituales que aún hacen robots que han costado miles de dólares, e incluso estando financiados por DARPA.








Fuentes:
What's really going on in this Boston Dynamics robot videos?

Boston Dynamics' robots — impressive, but far from the Terminator

Taller de Inteligencia Artificial para estudiantes de bachillerato

La pasada semana tuve el honor de llevar a cabo una actividad que me dio muchas satisfacciones. Concretamente, después de más de un año de trabajo, organicé un pequeño taller de inteligencia artificial para alumnos de bachillerato en un colegio de mi querida San Sebastián. La motivación principal para realizarlo es que creemos que actualmente no hay apenas propuestas para enseñar las matemáticas de la inteligencia artificial a estudiantes jóvenes. Sí que hay multitud de talleres que enseñan robótica con Arduino o Raspberry. Pero no hay ninguno que explique que detrás de la inteligencia artificial hay matemáticas muy sencillas. Por lo tanto, a partir de esta idea creamos una propuesta de taller. Este artículo pretende describir en qué consistió esta actividad y su propósito:

La premisa más importante es conocer los objetivos del taller. Para nosotros, la intención no era enseñar inteligencia artificial, sino desmitificar esta disciplina y hacer conscientes a los alumnos de las matemáticas simples que hay tras ellas. Tener esto en cuenta es muy importante.

Además, el taller se basaba en ejercicios realizados con el lenguaje de programación Scratch. Este lenguaje, para quien no lo conozca, es un entorno de programación gráfico que permite realizar pequeños algoritmos y tareas arrastrando bloques de colores, eligiendo variables de una manera muy visual, etc. Es un tipo de herramienta muy útil para iniciar a los alumnos en nociones básicas de programación, y soy conocedor de varios colegios de la región que lo usan con estudiantes a partir de 13 años.

Pero volvamos al taller. La actividad completa duró una hora y el tiempo se repartió de la siguiente manera:

En los 15 primeros minutos de actividad, se impartieron los siguientes conceptos de una manera muy sintética:
              - Introducción a la inteligencia artificial
              - En qué consiste el algoritmo de clusterización K-means
              -  Cómo funciona una red neuronal

Posteriormente, los chavales tuvieron 45 minutos para realizar dos ejercicios y poner en práctica las nociones básicas que se les había impartido hace unos minutos. La metodología de esta parte práctica se implementó de la siguiente manera: los alumnos trabajaron en parejas, y tenían a su disposición el archivo de un algoritmo de inteligencia artificial implementado en Scratch. En este archivo estaba implementado casi todo el código necesario, salvo un par de huecos que tenían que rellenar para que todo el programa se ejecutase correctamente. Para que fuera un poco más fácil, en una esquina de la zona de trabajo de Scratch, los alumnos tenían las piezas de código que había que encajar en los huecos, pero desordenadas. Una vez que completaban el código, los estudiantes podían comprobar si habían acertado o no ejecutándolo en el mismo Scratch.

A los estudiantes se les asignó dos problemas, uno detrás de otro:

1) El algoritmo de clusterización K-means, donde tenían que conseguir clasificar una nube de puntos en tantos clusters como quisieran. Los clusters estaban definidos por 'puntos gordos' de colores, y la clasificación consistía en pintar los puntitos según el color del 'punto gordo' más cercano que tuvieran.

2) Posteriormente se asignó una red neuronal muy sencilla (dos entradas y una salida), entrenada con los datos de entrada y salida de una puerta lógica AND. Para cada ejercicio disponían de 20 minutos como máximo.

A continuación incluyo algunas imágenes representativas de estos problemas:





Parece sencillo, ¿no? Ahora vienen los resultados: para nosotros el taller fue un éxito, ya que todas las parejas de alumnos completaron los ejercicios antes del tiempo asignado, y tenían la sensación de haber entendido el ejercicio y el algoritmo.

Para comprobar esta comprensión, los estudiantes tuvieron que completar un test de preguntas antes y después del taller. En esta prueba, nosotros, como investigadores, queríamos comprobar el grado de alcance de consecución de los objetivos que nos habíamos marcado. Y la buena noticia es que estamos muy contentos con los resultados que obtuvimos. Por ejemplo, una de las preguntas planteadas era:

El nivel de conocimientos matemáticos y técnicos requeridos para entender la inteligencia artificial está fuera del alcance de la mayoría de la población.

Con la puntuación de una escala Lickert (1 a 5, 1: totalmente desacuerdo; 5: totalmente de acuerdo) tuvimos diferencias muy significativas en las respuestas antes y después del taller, lo cual demuestra que la metodología que empleamos es bastante acertada para conseguir este objetivo.

Tal y como prometí en Twitter, he dejado colgados en un repositorio abierto los archivos de Scratch completos utilizados en el taller. Aunque aún no aparezca, estarán bajo una licencia GNU GPLv3. Porque el conocimiento debe ser libre.

La metodología del taller está registrada en el archivo de propiedad intelectual. Finalmente, mi grupo de I+D y yo hemos publicado tres artículos explicando el taller: dos trabajos para dos congresos internacionales y un artículo científico en Arxiv titulado Using Scratch to Teach Undergraduate Students' Skills on Artificial Intelligence donde explicamos el estado del arte y motivaciones para realizar el taller de inteligencia artificial. Ojo, que en este caso, el taller que explicamos en Arxiv no es exactamente el mismo que he descrito en este artículo de blog. Ese aún está en el horno :-).

El taller de inteligencia artificial sigue creciendo y ya estamos planteando nuevos ejercicios para entender cómo funciona un ordenador o un robot para escapar de un laberinto, o conocer el camino más corto en un circuito.


¿Os gusta la idea? ¿Os parece que habría que mejorar algo? Si os interesa algo de todo esto, no dudéis en hacerlo en los comentarios del artículo o a través del email ideasecundaria@yahoo.es.

Los bancos tienen derecho a evaluarte, y tú, a pedir explicaciones

Desde hace tiempo creo que los debates sobre inteligencia artificial no llegan al público general. Hay muchas razones para ello, pero la fundamental será que probablemente no sepamos enfocar bien la importancia de esta disciplina, ni explicar bien en qué consiste. Por ende, la gente ve lejana su aplicación en sistemas reales que afecten a nuestras vidas.

Sin embargo, la entrada de hoy pretende demostrar que sí, ya hace un tiempo que nos está afectando. ¿En qué? En que ahora, ya no tienes que convencer a tu director del banco de que te mereces un préstamo, sino que tienes que convencer al algoritmo. Y esta afirmación no es mía, sino que es ni más ni menos, que del BBVA, uno de los principales bancos de España y Europa.


Esta imagen se puede ver en esta web del banco, a fecha de redacción del artículo

No lo he visto anunciado de esta manera en más bancos, pero supongo que será una cuestión de invertir más tiempo. Volviendo a la citada web de este banco, en ella se cita qué empresas de IA usan para decidir sobre la concesión de tu préstamo o no. En este caso, son Earnest, Zestfinance, Affirm y Upstart.

Según he leído, las sucursales no evalúan a sus clientes a la hora de solicitar un préstamo, sino que los clientes están permanente evaluados. Es lo que se llama el credit scoring. En otras palabras, el banco internamente maneja cómo de buen cliente eres para ellos desde el minuto 0. 

No obstante, no he logrado encontrar en ningún artículo científico ni en ningún sitio el algoritmo que siguen estas empresas para evaluarte con una nota numérica. Obviamente, se me ocurren cosas de sentido común, como si soy un buen pagador, si ingreso mi nómina en ese banco, de cuánto es esa nómina, si tengo otros productos, etc. Pero luego, si preguntamos un poco más, hay demasiadas lagunas: ¿cuánto importa cada una de las variables (nómina, otros productos)? ¿importa cuántas veces consulto el saldo? ¿importa que detecten que viajo mucho? ¿si detectan que tengo facturas de juegos de azar, es automático denegarme el crédito para mi algoritmo, a pesar de que mi nómina sea de 5 cifras?

Todas estas son preguntas que no se pueden resolver hasta que no se hagan públicos los algoritmos según los cuales nuestro banco nos ponen nota. Por ejemplo, aquí de nuevo el BBVA explica qué es el scoring, pero no cómo lo calculan ellos. Y es llamativa la frase con la que cierran el artículo: 'Y estáte seguro: estás escorinizado'.

Creo que un préstamo sobre nuestra vivienda, coche o emprendimiento de negocio ya es un algoritmo real que nos afecta de lleno en nuestra vida, y sobre el que no sé cómo de conscientes somos.


Querido lector, fíjate otra vez en la imagen que he colgado, por favor. En mi opinión, lo preocupante de este tipo de mensajes es la frivolidad con la que se anuncia, como si el banco escurriera el bulto respecto a la decisión sobre tu préstamo. Es decir, 'tú, cliente, me has pedido un préstamo, no te lo doy, pero no es culpa mía, sino que es de un algoritmo que no es de mi empresa y por lo tanto no tengo ni idea. Solo lo dice la máquina'.

Pues querido cliente, SÍ que tenemos derecho a pedir transparencia respecto a estas decisiones, tanto en Europa como en América. Vayamos primero por el Viejo Continente: el célebre reglamente de protección de datos GDPR que aprobó la UE, establece en su artículo 22 que como ciudadanos europeos tenemos derecho a cualquier algoritmo que decida sobre nosotros con inteligencia artificial, incluso si ese algoritmo está en posesión de una empresa no europea (dediqué una entrada a este artículo).

En el caso de Estados Unidos, tienen el Equal Credit Opportunity Act, una ley redactada en 1974 que da el poder a los ciudadanos de conocer los motivos de la concesión/denegación del crédito.

Es importante defender como ciudadanos este tipo de derechos, de lo contrario, cada vez estaremos más a merced de los bancos. Además, el mayor enemigo de este tipo de empresas hoy en día, son las empresas tecnológicas. PayPal, Google, Amazon, Facebook... están dando pasos para operar como entidades crediticias a escala global, y probablemente ellos tienen muchos más datos sobre nosotros que nuestros bancos. ¿Os imagináis que 'el algoritmo' dictamine que Google no os conceda el crédito porque ha detectado que escribís muchas veces en el email 'pelotazo'? Si lo hace, tenemos derecho a saberlo.

Ayer hablaba con Ekaitz Zarraga sobre inteligencias artificiales. Él afirmaba que el mundo tiene que ser mucho más sencillo para que pueda estar dominado por un algoritmo como AlphaZero, y que hacer el mundo más simple, es más rápido que diseñar una inteligencia artificial al estilo Terminator. El hecho de externalizar las decisiones sobre nuestros préstamos bancarios me parece una bonita metáfora de simplificar este mundo.

Reseña de Daemon, de Daniel Suárez

Los libros que publico por este rincón de la blogosfera acostumbran a ser de divulgación (Civilización, El Ojo desnudo, o The Rise of the Robots, entre otros). En cambio, la obra de hoy, Daemon, es de ciencia-ficción y la traigo a colación debido al planteamiento y argumento sorprendente que tiene, por lo menos para mí.

La obra me la recomendó @eztabai, y plantea un escenario en el que una inteligencia artificial se cuela en cualquier sistema electrónico que podáis imaginaros en una ciudad, y hace y deshace a voluntad. A ese sistema se le denomina Daemon. Además, la idea tiene aún una vuelta de tuerca, y es que esa entidad inteligente es la mente de una persona ya fallecida. Cualquier acción o palabra durante el libro se le atribuye a esta persona, por lo tanto.

El libro no es una reflexión sesuda sobre ciencia ni inteligencia artificial, sino que narra los acontecimientos de una manera bastante rápida y dejando un montón de cabos sueltos. Y es que esta obra está inacadaba y tiene una segunda parte que imagino que resolverá todos los misterios (aunque aún no me la ha leído). En resumen, es una ampliación al planteamiento de la película I, robot, que me ha sorprendido mucho. 

El estilo es bastante ágil, aunque para mí el autor se detiene demasiado en descripciones, y la cadena de acontecimientos rápidos no siempre se puede seguir muy bien. Además, que el libro anticipase claramente que va a tener una segunda parte no es que sea de mi gusto. Pero para ídem, los colores.




Podéis encontrar la sinopsis de esta obra en la web oficial del autor.

¿Es rentable hoy en día tener un coche?

Quien me conoce, sabrá que tengo cierto síndrome de Diógenes (y alguno más). Esta entrada es el resultado de una de las consecuencias de esa manía. 

Compré mi coche nuevo en mayo de 2008, y lo uso casi a diario. Creo que no merece la pena a efectos del artículo revelar el modelo. Basta con decir que es un utilitario de gasolina. Siempre he solido guardar las distintas facturas que el coche ha generado por las distintas revisiones y averías. Entre eso, y justificantes bancarios que guardaba, he desarrollado la tabla en la que se reflejan los gastos de visita al taller mecánico, impuestos y seguros obligatorios que ha generado el coche.

Nota aclaratoria: el coche aún está en uso y siempre he realizado las revisiones que le tocaban. Considero que el coche ha salido bueno. Es decir, salvo un detalle, no se le ha roto nada prematuramente, y lo que he sustituido ha sido por uso y desgaste. 

He redondeado los números de la viñeta municipal y el seguro en ocasiones.



Gastos durante la vida de coche
MES COSTE [€] CONCEPTO
1 15.000 Precio de coche
2 200 Seguro
10 215 Seguro
12 178,98 Mantenimiento
15 40 Viñeta municipal
22 215 Seguro
24 166,37 Mantenimiento
27 40 Viñeta municipal
34 220 Seguro
38 40 Viñeta municipal
39 347,24 Mantenimiento y reparación
46 230 Seguro
51 40 Viñeta municipal
53 133 Mantenimiento
58 240 Seguro
60 155 Mantenimiento
63 40 Viñeta municipal
69 218,91 Mantenimiento
70 240 Seguro
71 40,57 ITV
74 40 Viñeta municipal
75 120,49 Pastillas de freno
82 250 Seguro
83 118,05 Mantenimiento
84 527,49 Paragolpes y neumáticos
88 40 Viñeta municipal
89 439,28 Freno de mano
95 505,50 Correa y bomba de agua
96 254,55 Seguro
98 40,57 ITV
99 207,53 Mantenimiento y cambio batería
102 40 Viñeta
108 163,65 Mantenimiento
109 269,18 Seguro
110 488,88 Elevalunas eléctrico
114 40 Viñeta municipal
118 162,55 Mantenimiento
121 279,77 Seguro
122 40,57 ITV
124 241,01Mantenimiento
126 42,36 Viñeta municipal
131 174,92 Mantenimiento


Lo que pretendía con este artículo era poder estimar cuál era el coste del vehículo al mes a lo largo de su vida, sumando el precio de compra y el resto de conceptos. Y el resultado es la siguiente gráfica:

 Como se puede ver, los primeros meses no permiten apreciar bien qué ocurre a partir del mes 10 aproximadamente. Así que la siguiente gráfica es un detalle de la primera, a partir del mes 22.


El coste total del coche a día de hoy asciende a 22.486€. Como se puede ver, a partir del mes 102 la amortización del coche desciende de 200€/mes, y la línea se tiende a convertir en una asíntota. A día de hoy, la amortización está en torno a 170€/mes, a la cual habría que sumar el combustible y el garaje (quien lo tenga). El que lo tenga todo, podría estar en unos 400€/mes tranquilamente.

Por otro lado, tampoco tengo claro que la gráfica siempre sea descendiente, ya que llega un punto en el que el coche requerirá de más mantenimiento y reparaciones.

Otro dato interesante es el coste del km/€. Aproximadamente he recorrido 170.000km, así que el km está ahora mismo a 13,22 céntimos. 

El gráfico pretende ayudar a decidirme en un futuro sobre una opción de renting de coche o no. 

¿Qué os parece? ¿Os ha llamado la atención?





Más rápido que el pensamiento

La empresa Ferranti ha construido el primer ordenador capaz de jugar a un juego de manera autónoma contra un humano. Concretamente, la actividad es el juego Nim. Se ha presentado en el Festival de Gran Bretaña y el lema que ha usado la empresa es faster than thought (más rápido que el pensamiento). La máquina se llama Nimrod.




Parece un titular de 2019, ¿no? Pues no. Concretamente, Nimrod fue presentada en 1951, y corresponde a uno de los primeros ordenadores. Fue el primero de la historia en jugar de manera autónoma a un vídeojuego, y es obra de John Bennett. Al igual que los primeros ordenadores de la historia, este ordenador solo sabía hacer operaciones matemáticas sencillas, como las que son necesarias en el juego Nim, y además, ya había un ingenio precedente electromecánico de 1940 en el que se basaron.

Fuente

La reacción de los periodistas fue de cierto temor y describián a Nimrod como una máquina pensante que dudaba antes de ejecutar su jugada. La reacción del periodista Paul Jennings, de la BBC, fue la siguiente:

This looks like a tremendous grey refrigerator.... It's absolutely frightening.... I suppose at the next exhibition they'll even have real heaps of matches and awful steel arms will come out of the machine to pick them up


O incluso en los periódicos se describía a la máquina como una caja mágica:

Fuente
 

¿Os suenan estas reacciones? Podrían escribirse hoy en día. Era el nacimiento de la industria del videojuego. No hace falta que explique aquí lo que ha evolucionado desde entonces esta tecnología. Con este pequeño artículo, pretendo demostrar lo difícil que es la regulación, el compromiso entre el freno para desarrollar nuevas ideas. No significa que no esté a favor de la regulación. Pero no será fácil y requerirá el consenso de todos.

Por cierto, el término de inteligencia artificial no se había acuñado aún, ya que no fue hasta el verano de 1956 a cargo de John McCarthy



REFERENCIAS



El estudio del tiro parabólico sin ordenadores

Este artículo se publicó originalmente el 22 de febrero en la Revista Dyna, publicación de investigación en ingeniería:



El estudio de la trayectoria de las bolas de cañón es un bonito caso de las tensiones entre el conocimiento práctico y teórico en la ciencia a lo largo de la historia. Sorprende la cantidad de matemáticas que se dedicaron a este campo.

Nicolo Tartaglia es un científico del siglo XVI, cuya fama ha llegado hasta nuestros días principalmente por la pelea que tuvo con Cardano sobre la resolución algebraica de las ecuaciones cúbicas. Sin embargo, Tartaglia también publicó en 1537 La nova scientia, en la cual describía la trayectoria de un proyectil como si fuera una línea recta inicial, y una posterior caída:

Figura 1: Ilustración de tiro mixto y portada de Nova scientia [1] 





Figura 2: Ilustración de tiro horizontal, según Tartaglia [2]


Realmente, ni siquiera el propio Tartaglia se terminó creyendo su teoría, tal y como reconoció años más tarde. Pero este pensador italiano sentó las bases para crear unos ábacos que tabulaban sus cálculos, y así poder calcular la longitud del tiro en función de la inclinación del cañón. Estos ábacos se usaron hasta el siglo XVIII.

Más tarde, en 1638, Galileo Galilei propuso su modelo de disparo parabólico, lo cual era un poco absurdo, ya que Galileo, a pesar de conocer que había algún tipo de resistencia al aire, no la contabilizó en sus cálculos. El caso es que conseguía una trayectoria simétrica que no resultaba nada realista, y por eso, los artilleros siguieron usando el modelo de Tartaglia. En ciertas ocasiones, hasta les era suficiente usar el modelo de tiro triangular de Daniel Santbech, propuesto en 1561.

Figura 3: Modelo de disparo de Daniel Santhech [1]

Sin embargo, todo esto cambió en el siglo XVIII con nuestro siguiente personaje: Benjamin Robins. Este científico inglés nació en Bath en 1707, justo el mismo año que el matemático Euler. Pronto se dedicó a la ingeniería militar, y su mayor contribución al estudio de la balística reside en que sugirió que era imprescindible tener en cuenta la fuerza de resistencia de aire, y que dependía mucho más de la velocidad inicial del disparo que de su alcance. Para demostrarlo, Benjamin Robins diseñó un péndulo balístico, gracias al cual podía calcular las velocidades iniciales de los proyectiles, teniendo en cuenta la mecánica newtoniana y la teoría de péndulos de Huygens. De hecho, a Robins también se le considera el padre de los túneles de viento por este tipo de aportaciones.
 
Figura 4: Péndulo balístico de Robins   
 


Esencialmente, el invento consistía en disparar una bala contra la masa colgada del péndulo y calcular su arco. La masa del péndulo era bastante mayor que la de las balas de aquella época.


Benjamin Robins ya era miembro de la Royal Society desde 1727, y afortunadamente, la grandeza de este personaje se notó enseguida. En 1742 publicó su obra New principles of gunnery. Cómo sería el libro, que un empleador de Euler, Federico el Grande de Prusia, preguntó al matemático cuál era el mejor libro de balística, y a pesar del poco apego que tenía Robins a su propio libro, Euler lo eligió. No solo eso, sino que lo tradujo del inglés al alemán, y añadió unos cuantos comentarios sobre él. De manera que el nuevo manuscrito pasó de tener 150 páginas a 720. En 1783, se tradujo al francés, y según cuenta Napoleón, fue uno de los libros que más influyó a sus científicos e ingenieros.

Escribió una vez un oficial de artillería, que Robins era a la artillería como el inmortal Newton lo era a la filosofía. Antes de su influencia, el acierto en el tiro era una cuestión de azar sujeta a múltiples variables e incertidumbres. Ese mismo siglo, el presidente de la Royal Society fue más allá y afirmó que Robins había inventado una ciencia nueva.










BIBLIOGRAFIA

[1] Janet Heine Barnett (2009). Mathematics goes ballistic: Benjamin Robins, Leonhard Euler, and the mathematical education of military engineers, BSHM Bulletin: Journal of the British Society for the History of Mathematics, 24:2, 92-104, DOI: 10.1080/17498430902820887

[2] Ed Sandifer. How Euler did it. The cannonballs http://eulerarchive.maa.org/hedi/HEDI-2006-12.pdf

[3] The first wind tunnels.

https://www.centennialofflight.net/essay/Evolution_of_Technology/first_wind_tunnels/Tech34.htm

[4] McMurran, S., & Rickey, V. F. (2008, October). The impact of ballistics on mathematics. In Published in the Proceedings of the 16th ARL/USMA Technical Symposium https://www.revolvy.com/page/Benjamin-Robins

[5] Steele, B. D. (1994). Muskets and pendulums: Benjamin robins, Leonhard Euler, and the ballistics revolution. Technology and Culture, 35(2), 348-382


Alexa, las voces y lo que vendrá

En las últimas semanas he recibido muchas noticias cuanto menos, sorprendentes, sobre Alexa, el asistente de voz inteligente de Amazon. A pesar de que no me guste nada usar la palabra 'inteligente' en electrodomésticos, creo que los asistentes de voz sí que la merecen, por justicia.

Y esto no son buenas noticias para los electrodomésticos, ya que se abre la nueva era en la que habrá que fijar las nuevas reglas de juego. Y me quedo muy sorprendido de las capacidades de los asistentes de voz, así que la regulación que corresponda deberá tener en cuenta cosas insospechadas.

Quizás al agudo lector no sea consciente de la cantidad de posibilidades de estos inventos. Así que en este artículo colgaré unos simples titulares (principalmente sobre Alexa) que a mí sí que me han llamado la atención:






- Alexa grabó la conversación privada de una pareja y se la envió a un contacto aleatorio

- ¿Puede Alexa mentir?

- Alexa, ¿te tengo que pedir ayuda para tomar mis decisiones? 

- Deja de hablar con extraños

- Las personas que viven solas hablan continuamente con los asistentes de voz

- Alexa y Google Home tienen la capacidad de predecir cuándo va a terminar tu relación

- ¿Por qué no tener una cita con Alexa?

- Alexa ahora da consejos para las citas

- Cómo Alexa y otros asistentes de voz recompensan a los usuarios psicológicamente

- Qué técnicas psicológicas usan los asistentes de voz contigo

- Pronto los asistentes de voz decidirán por ti en las compras





¿Os dais cuenta de todo lo que ha entrado en casa de golpe? Los asistentes de voz se basan sobre todo en el Procesamiento del Lenguaje Natural, la cual es una de las ideas de mayor impacto de la inteligencia artificial según muchos expertos. La patente de lo que sería el corazón de Alexa se presentó en 2012, y este sistema sigue aprendiendo a partir de las interacciones de los usuarios. El sistema de Google Assistant cada vez reconoce mejor las palabras y Alexa cada vez adquiere más habilidades.

La mayoría de noticias que he enlazado sobre los asistentes de voz no logran quitarse ese manto frío de inquietud y misterio sobre el futuro de esta tecnología. Los humanos no somos culpables de nuestras reacciones psicológicas y humanas hacia estos aparatos, pero las empresas y los organismos públicos sí que son responsables de cómo actúan estos aparatos con nosotros. ¿Os imagináis que Google haya detectado que el número de veces que decimos a través del asistente de voz la palabra 'coche' es indicativo de que unas acciones van a subir? ¿U os imagináis que Amazon venda al gobierno las reacciones de la población cuando por la tele emiten un discurso presidencial polémico? ¿O que midan el estado de ánimo en cada casa y propongan productos de marketing para subirlo? Tal y como insiste la Catedrática en Psicología Cognitiva, Helena Matute, 'Google y Amazon hacen experimentos de psicología con nosotros sin avisarnos de ello'. Lo cual es lo peligroso.

¿Qué clase de correlaciones, de aprendizaje no supervisado, habrán hallado sin ningún tipo de comunicación pública?

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Web Hosting