Blog de robótica e inteligencia artificial

7/30/2017

Colaboración en Next_Ciencia: Musk vs Zuckerberg: ¿quién teme al robot feroz?

Esta semana colaboro con @Next_Ciencia, la sección científica de Vozpópuli a cargo del gran @aberron. Por cierto, si no le seguís ya: ¡hacedlo, insensatos!
El enlace original es este, y a continuación os dejo una copia del artículo. Gracias a los lectores, ¡y buen domingo! 

-------------------------------------------------------------------------------------------------
En los últimos días dos grandes gurús de las nuevas tecnologías han intercambiado algunos zarpazos a propósito de sus diferentes visiones sobre la Inteligencia Artificial (IA). Elon Musk, creador de PayPal o Tesla Motors, se ha manifestado partidario de regular la IA y está convencido de que puede ser la mayor amenaza para la humanidad, mientras que el creador de Facebook, Mark Zuckerberg, cree que se trata de una actitud irresponsable y que las predicciones apocalípticas de Musk lo único que consiguen es frenar el desarrollo y la profundización en esta disciplina. Como respuesta, Musk aseguró en Twitter que la comprensión de Zuckerberg de la IA es “limitada”.
No es la primera vez que Elon Musk declara públicamente su preocupación por la IA. Ya en 2015 más de 1000 investigadores prestigiosos firmaron una carta abierta pidiendo a la ONU que prohibiese las armas militares basadas en IA. Y en cierto modo sí, es verdad, la IA está clasificada como uno de los riesgos a los que se enfrenta la población mundial. Concretamente, por las instituciones Global Challenges Foundation y World Economic Forum, y se equipara a esta tecnología a la llegada de asteroides o a la amenaza nuclear.

Sin embargo, como apunta el experto en robótica Rodney Brooks, es posible que sea el propio Musk el que tenga una visión limitada y distorsionada de la Inteligencia Artificial y el que está confundiendo los hechos. Veamos por qué.

En primer lugar, conviene aclarar el miedo de los investigadores que firmaron la famosa carta no se refiere a que una hipotética carrera militar culmine con la creación de una especie de Terminator que se vuelva en contra de la raza humana. A día de hoy, la IA está muy lejos de esos términos de volverse en contra de sus creadores y hay amenazas más apremiantes para el planeta como la guerra nuclear o el cambio climático. ¿Entonces a qué tienen miedo los firmantes de la declaración? Lo que estrictamente solicitaban en la carta abierta era que se asegure que los sistemas (robots o software) dotados con inteligencia, hagan lo que está estrictamente programado para hacer y no otra cosa inesperada. Para solucionar esto, se podría imponer que los aparatos dotados con IA tengan un código abierto, o que sean revisados por una entidad independiente u otras posibilidades. Esto no es tan fácil ni siquiera hoy en día, y si no, invito a los lectores a recordar el famoso Dieselgate de Volkswagen.

Para entenderlo, pensemos en algo más realista que en el manido Terminator: pongamos que popularizamos exoesqueletos con inteligencia artificial para ayudar a las personas mayores en sus tareas físicas diarias. Si la persona está bajando por las escaleras, y por alguna razón, requiere a los motores del exoesqueleto que desarrollen un par de fuerza que los podría quemar, ¿no nos tendríamos que asegurar que ese aparato decida siempre ejercer esa potencia y priorizar a la persona? Decirlo es fácil, pero implementarlo y certificarlo no lo es tanto.
Es decir, antes que imaginarnos historias de ciencia ficción, hay que atender a detalles más concretos y realistas. Además, como señala Brooks, las personas que tienen esta visión amenazadora de la IA suelen ser gente que no trabaja en IA, y se refiere explícitamente a las advertencias hechas por Stephen Hawking o Martin Rees. “Los que trabajamos en Inteligencia Artificial sabemos lo difícil que es conseguir que algo realmente funcione a nivel de producto”. Y aquí es donde llama la atención que Elon Musk tire piedras sobre su propio tejado, ya que él mismo está implantando Inteligencia Artificial en sus vehículos, y hace declaraciones como los que no confían en sus coches autónomos “están matando a gente” o asegura que estos modelos son dos veces más seguros. También su empresa Paypal se vale de inteligencia artificial para detectar el fraude, de modo que sembrar la duda sobre las posibilidades de esta tecnología es terreno pantanoso para él mismo.

Pero no todo van a ser palos para él. El fundador de Facebook también se equivocó en enero de 2016 afirmando que no hace falta temer a la IA. Y ese extremo tampoco es cierto. Una persona que sabe muy bien de qué va la cosa es Demis Hassabis, cofundador de DeepMind: a día de hoy, una de las empresas que más está avanzando en la IA. De hecho, sus declaraciones pueden responder tanto a Zuckerberg como Musk, ya que afirma que “estamos aún a décadas o siglos de conseguir una inteligencia artificial parecida a la humana”, “ahora mismo estamos practicando con pequeños juegos”, “pero eso no significa que no haya razones para no ser cautos”. Además, es muy optimista frente al futuro de esta tecnología, ya que está ayudando a optimizar procesos de empresas, a incrementar beneficios, a hacer mejores diagnósticos médicos, detectar fraudes y reducir los accidentes de tráfico.
Uno de los errores que puede estar cometiendo Musk y los apocalípticos es creer que tenemos un control mayor de la IA del que realmente tenemos. En este sentido Brooks recuerda que los creadores del admirado AlphaGo, el potente Google DeepMind que venció al campeón de Go, admitieron recientemente que todo podría haber salido espantosamente mal en su desafío. Y tampoco debemos perder de vista que la IA no es un ente autónomo que ha cobrado conciencia como Skynet, sino una combinación de tecnologías que los humanos están probando y que dependen fundamentalmente de nosotros.

Por el momento, algunos de los robots más avanzados siguen siendo copias bastante precarias de los autómatas que hemos visto en las películas de ciencia ficción y están a años luz de los replicantes. Observando la dificultad que aun existe para definir tareas tan sencillas como correr o parar un penalti no parece que máquinas estén muy preparadas aún para conquistar el mundo con sus movimientos.



El mejor resumen del estado de la s cosas se recoge en la primera frase del Informe de los 100 años de la IA elaborado por prestigiosos investigadores en este ámbito:

El retrato terrorífico y futurist de la Inteligencia Artificial que domina las películas y las novelas, y moldea la imaginación popular, es ficticio. En realidad la IA está cambiando ya nuestras vidas diarias, casi siempre de maneras en que mejoran la salud humana, nuestra salud y la productividad.

En este informe se realizan recomendaciones sobre la regulación de esta disciplina de cara a 2030. Y esto tiene que quedar claro: conviene estudiar ahora las medidas a adoptar, antes de que los sistemas inteligentes se hayan masificado y su buen funcionamiento, uso de datos, estandarización, etc., estén descontrolados. Por descontado que algo que se puede volver tan habitual en nuestras vidas, hay que regularlo, y ya hay iniciativas, como la que inició la Casa Blanca en 2016 o la Unión Europea

Por lo tanto, y en resumen, es conveniente quedarse con las siguientes ideas:

1) La Inteligencia Artificial está aún muy lejos de los niveles de Hollywood

2) Hay que ser cautos de cara a su desarrollo y regular los sistemas inteligente

3) Ya hay muchos dispositivos con IA en nuestras vidas y están ayudando a resolver problemas.

Así que tranquilo, Elon Musk: no eres el único que tiene interés en regular la IA. Y, por supuesto, recuerda que los robots no son el nuevo lobo feroz.




Fuente imagen
Comparte:

7/19/2017

Cuando la inteligencia artificial hace cosas inesperadas

Quizás los lectores más fieles me hayan oído decir que la inteligencia artificial puede ser peligrosa y tener consecuencias inesperadas. Desde luego, en mi opinión estamos a años luz de escenarios como el de Yo, Robot, o películas de Hollywood similares. 

Actualmente, en gran medida, los algoritmos de inteligencia artificial son como "cajas negras". No sabemos cómo funcionan exactamente, y hoy traigo un ejemplo un tanto simplón que plasma esto bastante bien.

Lo recogió por primera vez este artículo científico de 1992, aunque no fue hasta 2008 cuando Elezier Yudkowsky lo puso de moda en su artículo sobre los riesgos globales de la IA. La historia es la siguiente:

En los 80, los militares estadounidenses intentaban proteger a sus tanques de la tecnología informática de la época, de manera que no los detectasen tan fácilmente y fueran más difíciles de atacar. Para ello, tomaron 100 fotos de tanques escondidos tras los árboles y otras 100 de árboles sin tanques.

Posteriormente, diseñaron una red neuronal en la que entrenaron la detección de tanques con 50 fotos de cada caso. Es decir, usaron 50 fotos con tanques para que "el sistema" aprendiera cuándo los había, y otras 50 fotos sin tanques para que el resultado fuera que no se detectan tanques.

Este entrenamiento sirve para afinar la red neuronal. Una vez afinada (según ellos), comprobaron que con las 100 fotos que faltaban, el sistema funcionaba perfectamente en el 100% de los casos. Es decir, parecía que los militares habían apredido a discernir cuándo sí y cuándo no había tanques entre los árboles. ¡Vaya adelanto!

Sin embargo, otro día probaron de nuevo este detector, se llevaron una gran desilusión cuando vieron que fallaba más que una escopeta de feria en la nueva detección. Nadie entendía nada. 

Tuvieron que pasar muchas horas para que alguien se diera cuenta que el entrenamiento (cómo habían enseñado al detector), lo habían hecho con 200 fotos con el cielo completamente nuboso. Y en el día de las nuevas pruebas, como estaba despejado, no reconocía a los tanques.

Gracioso, ¿verdad? Ahora, cualquier investigador sabe que 100 fotos para entrenar una red neuronal son muy pocas, pero había que saberlo también en los 80. A pesar de que la potencia de computación haya aumentado, todavía nadie nos libra de que un sistema inteligente arroje resultados inesperados para el diseñador, como éste. Y ese es uno de los peligros de la IA de los que habitualmente me quejamos yo y @HelenaMatute.

De hecho, una demostración de resultado inesperado muy sonado ocurrió en 2012, cuando HP lanzó un sistema de reconocimiento facial un tanto especial. Aquí está el vídeo.




Actualización (19 de julio 2017)
A través de Twitter, @hhmmss me ha chivado que Volvo tenía cierto problema con sus coches y los canguros. Y este fallo es de 2017. Como veis, siguen sucediendo problemas de ajuste de sistemas inteligentes.
Comparte:

7/02/2017

Un año después de acabar la tesis, ¿qué?

No acostumbro a hablar mucho en el blog de mis temas profesionales. La gente que me sigue de cerca conoce que en junio 2016 obtuve mi título de doctorado en Ciencias de la Computación e Inteligencia Artificial gracias a una investigación con el título Quadrotor team modeling and control for DLO transportation. Y sigo en el mismo puesto de trabajo, como docente e investigador universitario. Pero tras este año y un poquito más me ha parecido importante ver qué he hecho tras la tesis, o intentar responderme a "¿para qué ha servido?".

La tesis es un proceso imprescindible en la carrera investigadora, ya que te formas en una manera de investigar, en extrer resultados a partir de muchas pruebas, a pensar, a plantear hipótesis, a diseñar experimentos, etc. No soy partidario de que este período se haga muy largo, ya que tras haber pasado unos años en estas prácticas, obtener la tesis se puede convertir en un trámite a superar para continuar investigando tras ella. 

En este año, me he dedicado a seguir publicando resultados de investigación que durante mi período de doctorado no me dio tiempo a publicar, pero también soy de los que piensan que no puedes hacer lo mismo durante tu período de formación que tras él. ¿Para qué te has formado 4 o más años entonces? ¿Para seguir haciendo lo mismo? No me quiero resignar a publicar artículos solamente.

Y por esa razón, mi sensación este año es que gracias a mi grupo de investigación, me he tenido que volver un poco más gestor de la investigación, y además de plantear experimentos e intentar probar hipótesis, tienes que pensar en la mejor forma de dar a conocer resultados, estar al loro de las convocatorias de proyectos públicos para ver por dónde van los tiros, leer mucho sobre los trabajos de otros grupos de investigación para ver qué hacen en los temas que tocas tú...aunque parezca mentira, toca salir mucho más del despacho para plantear reuniones, conocer la opinión de gente que trabaja en los mismos temas que tú, dar a conocer tu trabajo para ver si puede servir de utilidad a una empresa, etc.

En cierta manera, es como dirigir una pequeña empresa, en la que el producto eres tú mismo. El nuevo doctor normalmente tiene que ver cuáles son las líneas de investigación más atractivas e interesantes que pueden hacerle establecer mejores contactos, obtener mejores resultados y ser capaz de ayudar a que otros investigadores obtengan su propia tesis.

No es un camino más fácil que otras alternativas profesionales y no son pocas las veces que pienso sobre mi futuro y si estoy haciendo lo correcto en el lugar correcto, pero de entrada al final de este curso 2016-17 puedo ver que mi actividad ha cambiado respecto a otros años anteriores. Agradezco a las distintas personas que lean estas líneas y me hayan ayudado por el camino.

El mundo de la robótica y de la inteligencia artificial no solo se puede abrazar desde el mundo académico y universitario, y para mí es un tema apasionante. Si hay alguien interesado o con alguna consulta, puede planteármela a mi dirección del blog, ideasecundaria@yahoo.es.

Nos vemos en el camino.


Comparte:

Sígueme en redes:

descripción descripción descripción

En mi mesilla

Blog Archive