Blog de robótica e inteligencia artificial

Mostrando entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas

4/05/2020

La ONU advierte de que la inteligencia artificial apenas sirve para combatir el coronavirus

Hace unos días, la ONU advirtió de que la mayoría de algoritmos de inteligencia artificial para combatir el coronavirus aún no sirven. Este organismo sí que reconoce unas tareas en las que herramientas como el machine learning pueden ser útiles. Por ejemplo: identificación de imagen médica, creación de medicamentos, o predicción de la expansión del virus. Pero aún estas soluciones no están maduras.

Por un lado, si no se disponen de buenos datos probados durante el suficiente tiempo, esta tecnología falla mucho. Por otro lado, la ONU también especifica que la mayoría de artículos científicos de esta disciplina que están publicándose estos días, no han sido revisados por pares, por lo que su eficacia hay que ponerla aún en entredicho. Al mismo tiempo, el informe en que recogió estas ideas orienta sobre la dirección de los esfuerzos para que la inteligencia artificial sí que sea útil en pandemias en el futuro. Recordemos la ley de Roy Amara:

“Tendemos a sobrestimar el efecto de una tecnología a corto plazo, y subestimarlo en el largo”.


¿La IA puede predecir una pandemia?

La inteligencia artificial inunda titulares y nos vende que puede hacernos vivir mejor y trabajar menos. Podríamos pensar que no ha tenido ninguna intervención en la actual pandemia global de coronavirus. ¿O sí?

El 31 de diciembre del año pasado, una startup canadiense llamada BlueDot, dedicada a la vigilancia automática de enfermedades, emitió un aviso a sus clientes para que evitasen la región de Wuhan, y vaticinó a qué ciudades podía extenderse de manera inminente el virus. La OMS no lanzó tal aviso hasta 9 días más tarde. Por lo tanto, la inteligencia artificial sí que tiene un papel en la predicción de pandemias. Aunque depende de a qué llamemos “predecir”.

BlueDot destina sus esfuerzos a la monitorización de fuentes de información, tales como noticias locales, mensajes de autoridades sanitares locales y reservas de vuelo para los próximos días. Tras contar con toda esa información, su algoritmo mide el peligro y lanza un aviso en función de ello. Esta inteligencia artificial no serviría de nada si no existieran humanos escribiendo esa información.

BlueDot no estaba solo. La aplicación HealthMap del Boston Children Hospital, y el algoritmo de la empresa Metabiota, también captaron esos primeros signos de pandemia. Pero desde luego, ni el más avanzado sistema informático puede adivinar el escenario posterior. He aquí la paradoja tecnológica: investigamos en tecnologías predictoras, pero ¿quién dará el salto de fe y asumirá la responsabilidad de obedecer a una caja negra, sin observar frente a frente la amenaza? ¿Necesitamos evidencias de que el algoritmo funciona? BlueDot ya predijo correctamente la aparición del virus del Zika en un artículo en la revista The Lancet. Tal y como describe la obra El Comienzo del Infinito, los seres humanos funcionamos por impulsos.

La idea de predicción de enfermedades mediante ordenadores ya tiene unos años. El caso más famoso es el proyecto Google Flu Trends. Lanzado en 2008, esta herramienta intentaba predecir la expansión anual de la gripe en casi una treintena de países. Para ello, se basaba en las búsquedas realizadas en la web con términos como “fiebre” y “tos”.

Esta solución funcionó de una manera más o menos acertada durante unos tres años, hasta que se volvió casi una herramienta de risa. En la campaña 2011/12 sobrestimó en más de un 50 % el número de visitas al hospital, y en la siguiente, predijo más del doble. El fracaso de esta herramienta, silenciosamente ya enterrada por la empresa, se debió sobre todo a la opacidad de los criterios que Google usaba y a la alta sensibilidad del algoritmo al ruido de las búsquedas de momentos puntuales, que podían coincidir con los criterios de Google por pura casualidad. 

The Parable of Flu

Actualmente sí que se están empleando técnicas de inteligencia artificial para la predicción a corto plazo de la propagación del virus. También para otras actividades, como la identificación de sinergias y correlación de variables clínicas de pacientes, el diseño de fármacos, y el diagnóstico automático.

La idea de predecir las características de esta pandemia de inicio a fin, incluyendo la evolución de la enfermedad, es y será un imposible para cualquier ordenador. Esto es debido a que la trayectoria que toma la pandemia está sujeta a las decisiones, al momento en que se toman, climas, pirámide de población de cada país, entre otros muchos factores.

Al contrario que en la predicción de huracanes, donde se puede monitorizar perfectamente el tiempo y la presión atmosférica, en una pandemia no salta ninguna alarma cuando un virus pasa de un animal a un humano y aparece el paciente cero. Por ello, de cara a la predicción de pandemias, lo más eficaz es la creación de mapas geográficos de peligro y mejorar el intercambio de información entre instituciones. Tal y como ya ocurre desde 2018 en la predicción de focos de dengue.

“El mundo no está preparado para una pandemia severa de gripe o cualquier otro tipo de amenaza médica global”. Esta fue la conclusión del equipo científico que investigó la respuesta de la Organización Mundial de la Salud en la gripe H1N1 en 2009. Esta misma sensación se repitió en 2014 con el ébola. Los expertos siguen argumentando que la primera línea de defensa es una alerta temprana, y para ello, la solución puede que no nos guste, porque requerirían una mayor vigilancia de todo tipo de datos, y sobre todo, que las autoridades públicas entendiesen bien este tipo de herramientas.

¿Estamos dispuesto a ello? ¿A tener una recogida precisa de datos de pacientes? ¿A una correcta coordinación de todo tipo de instituciones? ¿A ceder esos datos a entidades, probablemente, con ánimo de lucro? Y sobre todo, ¿a entender y manejar la tecnología? Entonces quizás podamos alertar del siguiente virus antes de que se vuelva una pandemia.



Este artículo se publicó originalmente en The Conversation, sitio web que os recomiendo visitar
Comparte:

4/03/2020

Coronavirus: ¿dónde están los robots y las promesas?

Me parece increíble la situación que estamos viviendo. Y entiéndase bien. No me refiero a que el momento sea maravilloso, sino que los acontecimientos y medidas tomadas alrededor nuestro, quizás difícilmente sea repetibles durante nuestra existencia. Y todos aprenderemos algo de lo que estamos viviendo, y quizás salgamos de la crisis del coronavirus de manera distinta a como entramos.

En estos pensamientos se perdía mi mente, cuando caí en la cuenta de que no he escuchado ninguna noticia sobre alguna empresa que pueda continuar su actividad por tener la producción totalmente automatizada. ¿Dónde están las promesas de los robots que destruirían millones de puestos de trabajo, que nos abocarían a una vida más ociosa, a plantearnos una renta básica? En definitiva, tal y como titulaba la revista Wired hace unos días, ¿dónde están los robots que venían a salvarnos?

Si bien el entusiasmo por la robotización másiva de puestos de trabajo y automatización tuvo su apogeo en 2015, a día de hoy a mí ya se me estaba cayendo un poco la venda de los ojos. Robotizar puede que sea necesario, pero no es fácil. Y ahora que ha bajado la marea, se ve qué hay de verdad entre todas esas promesas y amenazas de una robotización masiva, realizadas hasta hace pocos meses. Waiting for the miracle, que cantaban.



Se dice que conoces de verdad a alguien en momentos de auténtica tensión, cuando el miedo nos impulsa a actuar como realmente somos. Y a cuenta de esta situación de pánico, se están viendo ciertas aplicaciones de inteligencia artificial, robots y otras, como realmente útiles, y otras que no lo son. Algunas de ellas son:

-  Drones empleados para vigilancia de la población y que cumplen la cuarentena.
-  Empleo de grandes -y bastante oscuras- plataformas tecnológicas para monitorizarnos aún más.
Diversas técnicas para geoposicionarnos de manera masiva, saber con quién nos cruzamos, etc. Y un posterior uso de inteligencia artificial para prevenir la expansión del virus.
Cámaras de videovigilancia para medir nuestra temperatura corporal.
-  El teletrabajo es perfectamente posible en multitud de trabajos, donde nunca se había planteado.

Supongo que en situaciones de emergencia se emplean las técnicas y herramientas que los gobiernos y las empresas mejor dominan, y la sensación es que todo esto no está dejando casi hueco para la esperanza sobre la bondad de la tecnología tras este bache. Y hace que siga calando la siguiente opinión sobre la IA entre muchos expertos: Es una tecnología, pero también puede ser una ideología.

Entre las empresas que sí que tengan una componente de robotización/automatización, será interesante comprobar en un futuro cómo les ha afectado esta crisis, y si han tenido mejor aguante que otras. Quizás el futuro sea aún más automático, pero no como nos prometían.

Cuídense y quédense en casa.


The greatest thing you’ll ever learn is to love and be loved in return



Comparte:

12/18/2019

Imaginar es gratis y predicciones incumplidas

Está acabando el 2019, y quizás sea hora de echar la vista atrás y leer qué escribían medios de comunicación y estudios sesudos sobre qué nos iba a deparar este año -por lo menos, en lo relativo a la tecnología, lo tocante a este blog. No nos olvidemos que predecir es uno de los placeres de esta vida.

Si hacemos una búsqueda rápida en Internet, podemos ver en El País, Las predicciones más probables para 2019, donde hablaba de:
1 - la vergüenza que íbamos a experimentar por usar el móvil y otras tecnologías en lugares públicos
2 - rostros artificiales
3 - Facebook, menos anuncios y más criptomonedas
4 - Un año de salidas a Bolsa
5 - Instagram aspira a ser un centro de compras
6 - Seguiremos oyendo hablar de Rusia

En mi opinión, las más acertadas parecen la 2) y la 6). Y son predicciones bastante conservadoras. Pero juzgue el lector por sí mismo. Veamos ahora la web BlogThinkBig, el blog de Innovación de la empresa Telefónica. Lo que anunciaba era lo siguiente:

1- La IA será una cuestión de política internacional
2- Preocupación social sobre la ‘IA transparente’
3- Automatización aplicada a todos los sectores
4- La IA creará muchos puestos de trabajo
5- Evolución y asentamiento de los asistentes virtuales

Yo creo que se ha cumplido la 2), sobre todo.



Este artículo de blog no pretende hacer una predicción de quién ha acertado más. Es un sinsentido. Como diría Bohr, predecir cualquier cosa es muy difícil, especialmente cuando se trata del futuro. Para mí el truco de que a alguien no le saquen los colores con las predicciones tecnológicas, es ser declaradamente ambiguo y usar palabras muy genéricas, como lo hizo el banco BBVA o la consultora tecnológica por excelencia, Gartner. Será el año de la transformación digital; se ampliarán los servicios... y otras frases muy poco concretas.

El que no se haya equivocado, que tire la primera piedra. Además, existe un interesante artículo científico en el que se demuestra que las predicciones entre los propios expertos de inteligencia artificial son muy inconsistentes, y que da igual ser experto que no-experto en esta materia para acertar. (Muy recomendable de leer).

Y si ya es casi imposible acertar con las predicciones a un año, ¿qué caso podemos hacer a las predicciones realizadas a más plazo? ¿A 10, a 20 años? En mi opinión, las que aciertan lo hacen por pura casualidad, ya que las ideas de por sí no son suficientes para llevar a cabo revoluciones, sino que tienen que estar acompañadas del ecosistema correspondiente. Mis admirados George Orwell e Isaac Asimov dicen que acertaron con nuestro mundo actual, y eso les ha encumbrado aún más, si cabe. ¿Realmente acertaron, o estamos exagerando un poco para que nuestras ideas encajen en nuestra mente? ¿Hubiera ocurrido algo si no se hubieran cumplido esas promesas? Para mí no, pero esto es una opinión personal.

Y no son solo los medios los que se equivocan con las predicciones. Se ha comprobado que desde 1997, el dinero invertido por las instituciones de capital riesgo es superior al que han recuperado, lo cual demuestra que predecir, incluso con olfato y buenos datos, no es fácil.

Este recorte de periódico, que se lo vi en Twitter a @elbuhodelblog, es otra muestra de un poco de olfato y mucha, muchísima suerte.



Y si estáis muy muy interesados en las evidencias científicas sobre la habilidad de hacer predicciones, os recomiendo leer Superforecasting, de Philip Tetlock.

Comparte:

11/14/2019

Apps de citas online (II) - los patrones oscuros

Esta es la segunda entrada de una serie de artículos sobre apps de citas online que he decidido crear. A lo largo de ellos, veremos distintos aspectos científicos que intervienen en este reciente fenómeno social. Aquí tenéis el primero de ellos:
Así ha quedado la serie:
 1- Apps de citas online (I): el problema matemático
2- Apps de citas online (II): los patrones oscuros
3- Apps de citas online (III): los usuarios como mercado y un poco de teoría de juegos 
4- Apps de citas online (IV): puntuación de usuarios y subasta de datos online



Patrones oscuros no es el término para referirnos a jefes que transmiten miedo, sino a trucos de los que se valen las webs o las aplicaciones para dirigirnos, como quien no quiere la cosa, hacia el producto/servicio/página que ellos quieren.

Por ejemplo, tal y como explica Carlos del Castillo en este artículo, un patrón oscuro es el frecuente mensaje que vemos a la hora de buscar un hotel en Booking: 'date prisa, tres personas más están mirando esta misma habitación'. Lo cual puede ser verdad, o no, pero siembra la semilla en nuestra cabeza hacia la compra rápida.

Son básicamente trucos psicológicos. Intentad buscar el camino para daros de baja de la suscripción de Amazon Premium. ¿A que no lo encontráis fácilmente? Ese es otro patrón oscuro, y la característica de todos ellos es que pasa desapercibido mientras navegamos y no somos conscientes de ellos.

En la misma línea de argumentación, las apps de citas también implementan pequeñas opciones oscuras que sibilinamente les hace lograr sus objetivos. En este artículo, explicaré unos cuantos de estas aplicaciones que les han llevado a tener un gran éxito, y por otro lado, no facilitan demasiado la búsqueda de la ansiada pareja. Por tratarse de la más conocida, me centraré en Tinder:


1- Es extremadamente fácil de usar

La mayoría de este tipo de software se basa en elegir entre Me gusta / No me gusta. Así de simple. Esa facilidad de uso es adictiva, y además realizamos esa elección en décimas de segundo gracias a un golpe de vista de la imagen de la persona que vemos. 

Apps como OKCupid, en origen, obligaban a los usuarios a valorar a otras personas mediante estrellas, de 1 a 5. Sin embargo, esa estrategia se demostró menos eficaz que plantear una disyuntiva. Sí/No. Así de simple.



2- El circuito de recompensa

Los científicos y los programadores saben que uno de los mecanismos que más placer liberan en el cerebro es la sorpresa inesperada. Y ésta ocurre cuando deslizamos perfiles, y de repente en uno de ellos, logramos un match o flechazo. Es decir, una chica ha dicho que le gustamos, y nosotros también. 

La dopamina que se libera en ese instante es muy poderosa. Tanto, que muchos usuarios al final hacen que Tinder sea una sala de 'trofeos', o una acumulación de flechazos que redunda en una subida de ego o de autoestima. No produce tanto placer la comunicación con los flechazos, sino la obtención de muchos de ellos.





3- El efecto halo

El efecto halo es uno de los sesgos cognitivos más conocidos de la psicología y que podemos observar con frecuencia en la vida cotidiana. Este término fue acuñado en 1920 por el psicólogo Edward L. Thorndike a partir de sus investigaciones con el ejército, cuando observó que los oficiales atribuían una valoración positiva en ellos partiendo a menudo de una sola característica, de un solo rasgo observado. O por el contrario, atribuían características generales negativas cuando vieron en sus superiores una cualidad no tan adecuada en un momento dado.

Si aplicamos este efecto a las apps de citas, se traduce en que atribuimos cualidades positivas a las personas bellas, y negativas a las personas que no lo son tanto. Y todas las apps de citas destacan la imagen, muy por encima del texto, ya que la lectura del texto no es inmediata y está en un segundo plano de la información de los usuarios. Lo principal es la imagen.




4- Las opciones infinitas


Pensemos por un momento que solo pudiéramos valorar cada día a tres usuarios. Ese límite de opciones provoca que nos pensemos mucho mejor cada elección Me gusta/No me gusta. Esta es la estrategia de la app Coffee Meets Bagel, que todavía cuenta con una base de usuarios muy inferior a otras apps mucho más veteranas y conocidas.

La mayoría de estas opciones, incluso en la opción de suscripción gratuita, permiten valorar varias decenas de usuari@s. Esto frivoliza infinitamente más la decisión sobre cada usuario que se nos cruza en la pantalla, y convierte el proceso de búsqueda de pareja en algo mucho menos sosegado. De hecho, tiende a inundar de valoraciones positivas a las chicas, y de negativas a los chicos, pero esto también es debido a una explicación económica que se quedará para un futuro artículo.
Comparte:

11/07/2019

Apps de citas online (I) - el problema matemático

Esta es la primera entrada de una serie de artículos sobre apps de citas online que he decidido crear. A lo largo de ellos, veremos distintos aspectos científicos que intervienen en este reciente fenómeno social. Aquí tenéis el primero de ellos:

Así ha quedado la serie:
 1- Apps de citas online (I): el problema matemático
2- Apps de citas online (II): los patrones oscuros
3- Apps de citas online (III): los usuarios como mercado y un poco de teoría de juegos 
4- Apps de citas online (IV): puntuación de usuarios y subasta de datos online




Según un trabajo publicado en 2019 por el investigador de Stanford, Michael Rosenfeld, el modo en que se conocen las parejas heterosexuales ha cambiado totalmente en las últimas décadas. Mejor dicho, Internet lo ha cambiado totalmente, tal y como se puede ver en la siguiente imagen (datos de Estados Unidos):
En primer lugar los chats, y posteriormente las apps de citas, están siendo los mayores catalizadores de la creación de romances. Entre las aplicaciones móviles líderes del mercado encontramos a Tinder y a OKCupid. Esta segunda, creada por cuatro matemáticos de Harvard en 2007.

Encontrar la mujer/el hombre de nuestra vida nunca ha sido tarea sencilla. En 1611, uno de los mayores astrónomos de la historia, Johannes Kepler, realizó un casting para encontrar una mujer candidata a ser su esposa, ayudarle a gestionar la casa y cuidar de sus hijos. Kepler había enviudado poco antes por la fiebre. Con la nueva situación, hizo entrevistas a 11 mujeres que se presentaron a su peculiar concurso. Y para los curiosos, se quedó con la quinta candidata, Susanna.

Kepler no estaba tan desacertado. En realidad, es la estrategia que muchos de nosotros pensaríamos como la óptima para encontrar cónyuge, y es la habitual en procesos de selección de profesionales. No es la estrategia ideal, pero claramente, aumenta las posibilidades de éxito.

En 1962, David Gale y Lloyd Shapley escribieron un breve artículo científico que se ha vuelto un clásico, en el que estudiaron el problema del pareo óptimo entre personas y sobre todo, la novedad de su estudio se centró en la estabilidad de las parejas formadas. El algoritmo de Gale-Shapley funciona en conjuntos donde el número de chicos y chicas es el mismo. Cada uno de los miembros del conjunto tiene su orden de preferencia de la personal del sexo opuesto. ¿Cómo nos aseguramos que van a encontrar su pareja ideal, y que ambas personas estarán seguras de no estar perdiéndose una opción mejor? Los pasos del algoritmo son los siguientes:



1- Cada chico se declara a su primera opción
2- Cada chica evalúa las propuestas, escoge la mejor y desecha las demás. Es decir, si está emparejada con su cuarto candidato en preferencia, y su segunda preferencia le propone un paseo, la chica se va con el nuevo candidato.
3- Cada chico rechazado invita a bailar a su segunda opción, aunque en ese momento esté con otro.
4- Se itera el proceso hasta que todas las chicas tengan una única invitación.


De esta manera, tanto el chico y la chica tienen la mejor opción a la que pueden aspirar, y la solución es estable. De matrimonios y parejas estables sólo podemos hablar en el mundo de las matemáticas. Pero del compañero de habitación perfecto, ni eso, ya que se demuestra que el llamado problema del compañero de habitación no tiene solución estable.

El estudio de Gale y Shapley no se reduce a una simple anécdota matemática que ahora nos resulta graciosa para comentar en una cena. Shapley ganó en 2012 el Premio Nobel de Economía por este tipo de trabajos, junto a Alvin Roth, por sus contribuciones en la teoría de las asignaciones estables y el diseño de mercados, según declaró la Academia.

Como se puede observar, el problema del emparejamiento no es fácil. Quizás en las apps, por su capacidad potenciadora de acceder a personas del otro sexo, lo sea




Una versión de este artículo se publicó originalmente en la DYNA, revista de investigación que recomiendo visitar.
Comparte:

11/04/2019

El 65% de los trabajos del futuro aún no han sido inventados. ¿Seguro?

La frase del título tiene un tinte apocalíptico, que se tiende a incrementar diciendo 'vuestros hijos tendrán trabajos que aún no han sido inventados'. Como profesional de la educación, esto siempre me ha parecido que era un ataque al sistema educativo en general, algo que ya comenté por estas páginas.

Sin embargo, ¿nadie se ha preguntado de dónde ha salido exactamente ese 65%, o incluso un 85%? Como muestra, la frase ha sido repetida por FastCompany, prensa española, Dell technologies, incluso el Foro Económico Mundial. De hecho, si buscáis en Google '65% of jobs...', el buscador os autocompletará con 'don't exist'. Parece que alguien se habrá ocupado de calcular el numerito, ¿no?

O pensadlo de otra manera: si fuera cierto que el 85% de empleos no existe, pensad que de cada 10 personas que conocéis, 9 de ellas van a perder su puesto de trabajo. Un poco exagerado, ¿no?

La afirmación de Dell tiene un poco de gracia, ya que esta compañía es de las que avisó que el 85% de empleo aún no está inventado. Cuando le preguntaron a a Rachel Maguire, responsable del citado informe, respondió: 'no puedo dar más referencias respecto a esta cita. Tal y como decimos en el informe, fue una conclusión de un taller'.

En ocasiones se lee que esta cifra salió de la oficina de Estadísticas Laborales de Estados Unidos, del informe de 1999 titulado 'United States Department of Labor: Futurework – Trends and Challenges for Work in the 21st Century', y si os leeis el informe, (no, por favor) esa afirmación no aparece en ninguna línea de las 90 páginas.

Según parece, no hay un origen claro de la frase, pero el relato se ha vuelto bastante viral. La seguridad con la que se redacta ese 65% parece que no da lugar a dudas sobre los sesudos estudios que han llegado a ella. Y es totalmente falso. Parece un claro ejemplo del principio de Hanlon: Nunca atribuyas a la maldad lo que puede ser explicado por la estupidez.

Los empleos siempre han evolucionado, y lo seguirán haciendo, pero no en semejantes proporciones. Así que no os tomen el pelo.


Comparte:

9/12/2019

En Naukas: Los Pecados Capitales en las predicciones sobre IA y robots

La inteligencia artificial y la robótica van camino de convertirse en el perro del hortelano: ni come ni deja comer. Dicho de otra manera: hay que seguir mejorando la tecnología e incorporarla en los sectores económicos. Pero al mismo tiempo va a destruir empleos y empresas, y probablemente cambie la sociedad. Pero las expectativas que nos han creado, están claramente infladas.

Los investigadores y divulgadores, tenemos a menudo muchos textos que son una referencia para nosotros. Puede ser por el estilo, por el mensaje o por lo que a cada uno le transmita. Y hay uno que yo recomiendo especialmente sobre inteligencia artificial y robótica, y es el texto titulado The Seven Deadly Sins of Predicting the Future of AI (Los 7 Pecados Capitales de las predicciones de Inteligencia Artificial), del ínclito Rodney Brooks.

En esta entrada, me gustaría destacar tres pecados mencionados en este artículo, donde mezclaré traducciones libres del texto con comentarios personales. Comencemos:




Existe una gran histeria sobre el impacto social de la inteligencia artificial, sobre todo en cuanto al impacto en la pérdida de empleos. Hay afirmaciones como la siguiente: ‘el 50% de los empleos actuales desaparecerá en favor de los robots’. Que un robot en un laboratorio tenga la capacidad de doblar ropa, no significa que vaya a sustituir a un/a profesional de una tienda de ropa. Las posibilidades de laboratorio son eso, simplemente. Entornos de laboratorio. ¿Cuántos experimentos se han llevado a cabo de robots en múltiples puestos de trabajo que dicen que van a acaparar? ¿Cuántos robots están actualmente en esos puestos? La respuesta a ambas preguntas es la misma: CERO.

Los robots que dicen que son autónomos, no lo son tanto, las empresas que dicen que emplean inteligencia artificial, no la usan realmente, e incluso se puede hablar de cierta desrobotización. Estos son algunos de los Pecados Capitales para saber bien a qué atenernos en esta tecnología.


Sub/sobrevaloración

Roy Amara, fundador del Institute for the Future de Sillicon Valley, enunció lo que hoy se conoce como la ley de Amara:

Tendemos a sobrestimar el efecto de una tecnología a corto plazo, y subestimarlo en el largo.

Un ejemplo claro de esta afirmación lo encontramos en el GPS. Esta tecnología comenzó con la creación en 1978 de una red de 28 satélites, cuyo propósito era ayudar en el lanzamiento preciso de bombas del ejército estadounidense. La primera prueba de este objetivo tuvo lugar en 1991 durante la operación Tormenta del Desierto, y fue prometedora. Sin embargo, durante la década de los 90, los militares aún albergaban muchas dudas sobre su utilidad, y no fue hasta el año 2000 cuando fue mayoritariamente aceptado.

Desde 1978 hasta ese momento, el programa de GPS estuvo a punto de ser cancelado una y otra vez. Pero de repente, la tecnología se reveló con unas utilidades que nunca fueron previstas en su concepción. Hoy en día permite aplicaciones, sin las cuales el mundo sería un poco diferente.
Algo parecido ocurrió con la informática. Cuando se comenzaron a comercializar ordenadores en la década de los 50, había una percepción de que eliminarían muchísimos empleos. Sin embargo, durante los 30 primeros años de presencia social, apenas tuvieron efecto en la vida de la gente. Esto cambió a partir de los 80, y ahora vivimos rodeados de informática y electrónica por doquier.

Por lo tanto, es un error humano muy habitual sobrestimar las posibilidades de una tecnología en el corto plazo, y de subestimarlo en el largo. No sabemos aún cuánto será ese ‘largo plazo’ para la inteligencia artificial, ya que se le lleva sobrestimando en los 60, 80 y ahora.

 

Escenarios hollywoodienses

¿Cuál es la diferencia entre los alienígenas y los robots? La respuesta es que los aliens, si vienen, quizás nos pillen totalmente desprevenidos. Pero eso será imposible con los robots de aspecto e inteligencia similar a Terminator. Ni siquiera está claro que sea alcanzable lo que denominamos Inteligencia Artificial General, que implica el razonamiento y aprendizaje de un humano. Ojalá sí que sea viable técnicamente, pero hoy por hoy, los científicos estamos demostrando que no tenemos ni idea de cómo desarrollarla. Ahora mismo las habilidades de la inteligencia artificial son muy limitadas.

En ese largo proceso de investigación hacia esa inteligencia superior, todo nuestro entorno cambiará. Cambiará el mundo. Por otro lado, la situación técnica, social y económica para cuando ese momento llegue, puede que sea muy distinta de la actual. Dejar volar la imaginación en obras literarias o cinematográficas no es más que eso: un ejercicio de imaginación sin base real.
  


Velocidad de despliegue

El software se está comiendo a la industria. Además, el tiempo de despliegue de nuevas versiones de programas informáticos, es cercana a 0 y el software impera en muchos sectores económicos.
En cambio, la velocidad de despliegue del hardware no es inmediata, ni mucho menos. Hay muchos ejemplos de ello. Aún existen muchos servicios que emplean versiones muy antiguas del sistema operativo Windows. En muchísimas fábricas, el mecanismo de control principal continúa siendo el dispositivo llamado PLC, que comenzó a introducirse en 1968. Incluso en el ejército estadounidense se emplea tecnología antigua: aún emplean el bombardero B-52, concebido en 1961, y han anunciado que pretenden seguir usándolo hasta 2040.

Cualquier persona que conozca alguna gran industria, sabrá que la reconfiguración del sistema de control o de información interna requiere mucho tiempo, pruebas y habitualmente la asistencia de varios consultores para reorganizar toda la fábrica.

Es decir, la incorporación de robots en la mayoría de sectores económicos lleva una desquiciante gran cantidad de tiempo. No se da de la noche a la mañana. Por eso, entre otras razones, la unidad de medida de tiempo para calcular cuándo los robots destruirán empleos (lo harán) es el año.

Estos son solo los Pecados Capitales que he querido destacar, y que espero que ayuden a ser escépticos sobre muchos de los titulares futuristas que se ven sobre IA y robótica. Como dice el economista Tim Hardford, ‘predecir el futuro siempre ha sido un juego muy divertido, pero totalmente infructuoso’.

Y creo que todo esto sive de cortina de humo mediática para cambios sociales que sí que nos van a afectar en un plazo muy corto y de los que casi nadie habla. Por ejemplo, la clasificación social en distintos perfiles o los sistemas de crédito social (también en Europa). Pero esto ya se queda para una próxima entrada.

 

 Esta entrada se publicó originalmente en Naukas. Y aprovecho para recordaros que el evento de divulgación Naukas Bilbao está al caer.



Comparte:

7/13/2019

Los niños pequeños aprenden palabras igual que los perros. ¿Podrían hacerlo las máquinas?

Los algoritmos y procesos de inteligencia artificial (IA) han recibido un impulso muy grande en los últimos años. A ello han contribuido las grandes bases de datos, la potencia de los nuevos microprocesadores y la mayor comprensión del funcionamiento matemático.

Sin embargo, las técnicas que están más de moda, como el famoso deep-learning, ya están dando muestras de agotamiento. Además, cada vez más científicos defienden que hay que desarrollar nuevas herramientas. En palabras de Pedro Domingos, “llevamos empleando los mismos principios desde 1950”.

En los últimos años, la inspiración que ha hecho avanzar a la IA proviene de la neurociencia y la psicología. Hoy parece mentira, pero en su origen estas dos disciplinas iban de la mano. Sin embargo, según se fueron desarrollando y especializando, cada vez se separaron más y más.

Hoy es el día en que la combinación de ellas puede arrojar luz sobre nuevos algoritmos de IA. En el presente artículo, quiero demostrar un caso particular, entre muchos, de alianza entre disciplinas.

 

¿Cómo aprenden palabras nuevas los perros?

Estos animales emplean una técnica muy curiosa. Pensemos que en un experimento disponemos de tres objetos: los nombres de dos de ellos son conocidos por los canes (por ejemplo, pelota y peluche), y el del restante, no (zapatilla).

Si pedimos al perro que nos dé la zapatilla, ¿cómo distinguirá el objeto correcto? A modo de descarte, elegirá el cuerpo cuyo nombre desconoce. Si nuestra respuesta es positiva, en adelante él aprenderá que zapatilla es ese objeto de tela de colores y goma.




No es la única manera en la que los perros aprenden palabras nuevas. Los investigadores afirman que, en esta manera de aprender, los canes lo hacen impulsados por una confusión mental. Los psicólogos llaman a este fenómeno el principio de mutua exclusividad.

Nuestras mascotas no son las únicas que pueden manejar este principio. Se ha demostrado que los chimpancés y los niños pequeños también la emplean. En definitiva, se conoce desde hace mucho tiempo.

La opinión mayoritaria de los científicos es que, debido a la complejidad del cerebro humano, la mutua exclusividad no es el único mecanismo que interviene en el aprendizaje de palabras. Pero no hay ninguna duda sobre su existencia. Basta con ver a un niño para entender que no existe aún ninguna máquina parecida a la mente de esa criatura.

Ahora bien, ¿cómo trasladamos esta habilidad a los algoritmos de IA tradicionales? Las redes neuronales actualmente carecen de mutua exclusividad, y de muchas más características del aprendizaje humano.

Por ejemplo, estas herramientas funcionan muy mal para aprender ideas nuevas sin borrar las antiguas. Tampoco para elaborar generalizaciones (si sabes conducir un modelo de coche, sabrás conducir el resto de modelos).

Por esta razón, se está tendiendo a integrar las aportaciones provenientes de la neurociencia y psicología. No tenemos ninguna certeza de que lleguemos a imitar perfectamente todo el aprendizaje humano. Pero ese es el tipo de respuestas que persigue cualquier labor de investigación.



Este artículo se publicó originalmente en The Conversation, sitio web que os recomiendo visitar

Comparte:

6/14/2019

El Gran Hermano (digo, Hacienda) os vigila: fraudes y delitos

En las fechas en las que a mí me entró el gusto por aporrear las teclas del ordenador y leer sobre seguridad informática, los consejos de seguridad en esencia, diferían poco de los actuales. En aquella época de módems de Internet que crearon una de las bandas sonoras de nuestras vidas, esas lejanas entrevistas y consejos de Una al Día ya insistían en no clicar en todos los enlaces, el phising, contraseñas de correo seguras, etc.

Con el Big Bang de las redes sociales, que aunque no lo creamos, no estaban ahí hace tanto tiempo, los consejos se ampliaron a 'ojo con lo que publicamos en las redes sociales'. La mayoría de usuarios opina que estas sabias palabras no merecen de su atención, y así se ve lo que se ve por Instagram, Facebook, y ya saben los lectores cuáles más.

Pero luego te encuentras con que cada vez más empresas husmean el perfil de los candidatos a sus puestos de trabajo o los bancos a la hora de concederte un préstamo. Posiblemente mucha gente aún piense que el sacrificio de ocultar su última escapada de fin de semana no compense la incorporación a una empresa. Ya intentará entrar en otra entidad.



En este hambre voraz del contenido de tus redes sociales, conocí hace poco que incluso el patrón de todos nosotros, Hacienda, lo usa como práctica habitual. Y quizás ahora los lectores muestren más interés en ocultar el contenido de sus redes:

La noticia me pilla tarde. Concretamente, ya en 2015 se anunciaba que se iba a crear un Gran Hermano para espiar las redes sociales. Ellos lo llamaron 'Plan Anual de Control Tributario. Según el artículo que enlazo:

A través de programas informáticos espía que recabarán y clasificarán la información de la red a través de un sistema que todavía no han especificado, Hacienda investigará las páginas webs, las redes sociales, los foros o los blogs de quien considere para detectar posibles prácticas fraudulentas. Estos datos se sumarán a los ficheros que el fisco ya posee sobre empresas y particulares.


Seguir leyendo: http://www.libremercado.com/2015-02-21/montoro-crea-un-gran-hermano-fiscal-para-espiar-las-redes-sociales-1276541280/

En el mismo artículo señalan que esto es una práctica anterior a 2015. Esto no afecta solo a España, sino que se da en multitud de países, algunos desde 2004. 

Es decir, los métodos habituales de detección de fraude en el cobro de ayudas, o de una modesta declaración de ingresos en tu declaración, se verá contrastada con las fotos en playas paradisíacas, o incluso cosas más prosaícas, como pistas de si convives o no con más personas, lo cual es un impedimento para el cobro de numerosas ayudas sociales. Y me temo que esto, con la mejora de la identificación de imágenes con inteligencia artificial, irá a más. ¿Qué hacen luego con nuestros datos? ¿Cumple la ley de Protección de Datos Personales?

Según mi admirado Teniente Kaffee (profesional de Justicia que trabaja para el Estado, como dice él), si la cuenta de Facebook está abierta, todo esto es legal en un juicio. En cambio, si Hacienda te pide amistad como 'Antonio, el del barrio', y aprovecha tu confianza para cotillear en tu cuenta, la prueba se invalida.

Queda claro que desde hace tiempo, mucho, vivimos en un Gran Hermano. Pero nos vigilan asumiendo la naturaleza humana de la picaresca y la evasión fiscal. No 'nos cuidan'. El Ministerio de Sanidad usando la misma información de las redes sociales, podría detectar ánimos suicidas, enfermedades mentales o algún otro tipo de dolencia.
Comparte:

6/08/2019

Violencia de género y algoritmos

La dictadura de las matemáticas hace tiempo que se halla entre nosotros. No es necesario que se integre en un cuerpo robótico, de metal, sino que actualmente ya se encuentran gobernando programas informáticos y leyes que gobiernan nuestras vidas. Estoy seguro de que si dejo a los lectores de este humilde blog, 2 minutos para pensar a qué sector puede afectar las fórmulas matemáticas y los algoritmos, estoy seguro de que la mayoría sugerirá la banca, el empleo o el transporte. Pero no, en esta ocasión vengo a hablar de violencia de sexo.

Concretamente, quiero describir brevemente la herramienta matemática, fría y sin alma, que se emplea en España cuando hay un delito de esta naturaleza.

Desde 2007, cuando una mujer acude con un problema de violencia de sexo, la policía le pide que rellene un cuestionario. Posteriormente, el agente de la autoridad rellena a su vez otro cuestionario distinto, ya que en muchas ocasiones la víctima no es capaz de responder fría y objetivamente.

Tras el rellenado de esos dos formularios, se aplica una fórmula matemática super-sencilla y se calcula el riesgo de volver a ser atacada que tiene esa mujer. Concretamente, la fórmula puede arrojar uno de estos cinco resultados: no apreciado, bajo, medio, alto y extremo. Sin sentimentalismos.

Lista de preguntas del protocolo VPR



De esa manera, la vida de esa mujer queda en manos de una fórmula matemática, ya que en función del resultado la policía le asignará más o menos medidas de protección.

Esta sencilla operación matemática se ha obtenido estudiando casos antiguos de delitos de violencia de sexo. En otras palabras, se estudió qué respondieron las mujeres de entonces, y si fueron atacadas de nuevo o no. En lenguaje científico podíamos denominar a esto un ajuste por regresión, prácticamente.

Pero en mi opinión, debería llamarnos la atención que en lugar de la intuición policial, nos fiemos de esa ley numérica. Además, lo que ocurrió en el pasado, no tiene por qué repetirse en el futuro, y menos tratándose de personas y nuestra imprevisibilidad.

Este algoritmo no es inteligencia artificial, tal y como se ha vendido en algunos medios (por ejemplo). No, es algo de una complejidad mucho más baja.

Los cuestionarios difieren un poco entre los cuerpos policiales del país (EPV-R, para la Policía Vasca, o VPR para la Policía Nacional). Ya ha habido numerosas quejas que advierten que este algoritmo no funcionaba correctamente, pero puede tardar meses en que el cuestionario cambie. ¿Y cómo daríais explicaciones a las familiares de la víctima, si fuerais conscientes de que la aplicación de una fórmula que podría usar un niño de 12 años, ha decidido que la víctima no tuviera protección?



NOTA:

Los cuestionarios los podéis encontrar a partir de la página 101 del manual de Viogén del Ministerio del Interior.

Hay artículos científicos que 'validan' el sistema empleado por la Policía, como este o este. Sin embargo, la metodología empleada está lejos de ser robusta, en mi humilde opinión.



Este artículo es la adaptación y traducción de un artículo que se publicó el día 6 de junio en el diario Berria, escrito en euskera.


Comparte:

Sígueme en redes:

descripción descripción descripción

En mi mesilla

Blog Archive