-->

En @MapIgnorance: la convergencia entre inteligencia artificial y neurociencia

Esta semana publiqué un artículo en el blog de divulgación de la Universidad del País Vasco, Mapping Ignorance. El artículo original está en inglés, y esta es una traducción libre de el mismo.



Muchos investigadores de inteligencia artiicial (IA) están alertando sobre un invierno en esta disciplina, lo cual significa que los científicos pueden perder interés en el campo, las instituciones reducir los fondos y perder presencia en el debate público. No sería el primer invierno de IA, no obstante. Las pasadas dos décadas han supuesto una época de optimismo sin parangón en la inteligencia artificial, y a ello han contribuido la mejora del hardware, la existencia de grandes bases de datos y el desarrollo del aprendizaje-profundo. Sin embargo, aún estamos muy lejos de una inteligencia más humana.

Personalmente, no estaría tan seguro sobre el descenso de actividad investigadora en IA, pero de lo que sí que estoy convencido es de que cada vez irá más de la mano de la neurociencia y sus reglas. Por lo tanto, podemos denominar invierno de la IA al período que se necesitará para entender lo suficientemente bien el cerebro como para dar un gran salto adelante, tanto en IA como en neurociencia. Este artículo pretender describir las tendencias actuales de los investigadores en esta dirección y algunos ejemplos de las contribuciones de la neurociencia.



Fuente


Es paradójica la situación actual, ya que en su orgien la IA estaba basada en la neurociencia y en la psicología. A partir del desarrollo posterior y expansión de estas disciplinas, los límites de estas ciencias se hicieron muy níticos y se perdió la interacción entre ellas.

La neurociencia otorga dos ventajas para la IA. En primer lugar, sirve de inspiración para una nueva multitud de nuevos algoritmos, independientes de ideas matemáticas que han dominado tradicionalmente la IA, como el aprendizaje profundo y las redes neuronales. En segundo lugar, la neurociencia puede servir de sistemas de validación de las técnicas de IA que ya existen. Si un algoritmo existente se prueba sobre un modelo de cerebro, se comprobará su plausabilidad como elemento hacia un sistema de inteligencia general.

Sin embargo, en este punto es donde las dos tendencias predominantes entre científicos difieren: investigadores como Henry Markram, Dharmendra Modha y Stepehen Larson están centrados en un modelo de simulación completo del cerebro, incluso desde un punto de vista biológico. Estiman que un millón de líneas de código son suficientes para este propósito. Están tratando de replicar todas las sinapsis, dendritas, activación de axones, etc, para poder entender cómo aprende el cerebro, o cómo obtiene información del entorno, e incluso cómo luchar contra enfermedades mentales. Sin embargo, en este artículo, hablaré sobre trabajos que sólo reproducen cómo funciona el proceso de aprendizaje, desde un punto de vista ingenieril.



Aprendizaje por refuerzo
La neurociencia ha vuelto a poner al aprendizaje por refuerzo (RL) de moda otra vez. Nunca ha sido una técnica particularmente atractiva: es un algoritmo computacionalmente muy muy ineficiente y requiere cientos o miles de experimentos para lograr la solución óptima. Pero durante la experimentación se pasa por distintos estados y decisiones y eso se ha vuelto una gran ventaja para modelar y representar algunas habilidades humanas esenciales.

Por ejemplo, RL se ha vuelto una buena representación del aprendizaje de las habilidades motoras en animales y humanos. Persigue el aprendizaje a través de las repeticiones de acciones. Querido lector, intenta simplemente recordar cómo aprendiste a montar en bici, a nadar o cómo aprendiste en una ciudad nueva el camino a casa. En definitiva, es una adición de prueba y error en el que la persona pondera mucho las buenas decisiones que le hicieron conseguir el equilibrio o llegar a su destino.

Además, la combinación de aprendizaje profundo y RL ha sido un gran hito, ya que representa el uso de memorias episódicas. RL, en este sentido, representa la habilidad natural de aprendizaje de habilidades, como las reglas de un juego. La información permanece almacenada, y a continuación, se extrae y se usa una red neuronal para hallar la solución óptima según las experiencias vividas pasadas. La combinación de RL + aprendizaje profundo se ha comprobado que es válido para simular cómo los niños adquieren experiencia y sentido común al interactuar con el entorno.

Finalmente, el RL también se está mostrando muy útil para modelar la capacidad de imaginar y planificar de los humanos. Los humanos pueden predecir resultados futuros a través de simulaciones, gracias a multitud de experiencias vividas pasadas.



Atención
Hasta hace bien poco, los modelos de redes neuronales más típicos (tradicional, convolucionales) trabajaban directamente sobre imágenes o vídeos completos, dando la misma importancia a todos los píxeles del cuadro a la hora de procesar. Sin embargo, no es así cómo trabaja el cerebro. En realidad, centra su atención en los objetos móviles, colores y partes específicas. Por lo tanto, este tipo de algoritmos de reconocimiento se están implementando para modelar la atención, y reducir el coste computacional al mismo tiempo.


Aprendizaje continuo
Una de las principales características del cerebro humano es la habilidad para aprender continuamente, sin olvidar los conocimientos y habilidades previamente adquiridos. En el caso de las redes neuronales, el re-entrenamietnto era catastrófico ya que borraba todos los conocimientos ya adquiridos. Este fenómeno se representa por el sesgo y los pesos, que representan el camino al conocimiento de una red neuronal. En la actualidad, los investigadores están desarrollando un tipo de aprendizaje y de pesos flexibles para usar la misma red neuronal para aprender nuevos conceptos, sin pérdida de información.


Aprendizaje eficiente
Los humanos tenemos una gran habilidad para aprender rápidamente nuevos conceptos a partir de unos pocos ejemplos, lo cual hace el conocimiento algo muy flexible. Esto es una habilidad extremadamente difícil para la IA. Sin embargo, sistemas de aprendizaje recientes están creando sistemas de redes neuronales que aprenden a aprender. Se puede entender con el siguiente ejemplo: un niño tiene una habilidad nautral para reconocer distintas letras, a pesar de que provengan de distintas caligrafías y personas. Las redes neuronales están adaptando este efecto ponderando el conocimiento previo con problemas parecidos.

Esto es también muy importante en la transferencia de conocimiento de los humanos. Normalmente, una persona que sabe usar un ordenador o conducir un coche, podrá usar cualquier otro ordenador y conducir cualquier otro coche.


Conclusiones
No solo la IA se beneficiará de la colaboración con la neurociencia. En la dirección contrario, la IA y sobre todo, el aprendizaje-máquina, transformaron para siempre la neurociencia y las técnicas para analizar las imágenes de resonancia magnética, la realización de diagnósticos a partir de big-data y el desarrollo de nuevos medicamentos.

En la nueva era, ninguna de las dos ciencias podrá avanzar la una sin la otra.



[1] Hassabis, D., Kumaran, D., Summerfield, C., & Botvinick, M. (2017). Neuroscience-inspired artificial intelligence. Neuron, 95(2), 245-258.

Errores de ajuste y Fukushima

Una famosa cita científica dice que si no usas datos, probablemente lo que hagas no sea ciencia. Pero contar con datos no resuelve el problema completo, ya que normalmente hay que interpretarlos y establecer una relación entre los datos con los que contemos. 

En este artículo pretendo explicar un par de casos históricos famosos sobre el problema de sobreajuste. Es decir, lograr que la relación que calcules sobre tus datos, sea demasiado cercana a los propios datos. Se va a entender muy bien con los siguientes ejemplos:


- Evolución del tamaño de población de Estados Unidos

Este ejemplo apareció en la página de Mathworks del software matemático Matlab. En ella, se dibujan algunos puntos del tamño de población de Estados Unidos a lo largo de la historia, y se ajusta con uan ecuación de segundo grado.


Pero si yo fuera Donald Trump, me preocuparía por ver la evolución de esta gráfica en el futuro:


Es decir, este ejemplo demuestra que a pesar de que la curva se ajusta muy bien a los datos puntuales con los que yo tenía, la gráfica no es correcta (o eso esperamos).

Lógicamente, no todos las líneas, según su grado, van a ajustar correctamente con la realidad, pero puede que arrojen resultados más lógicos.


 

- Ptolomeo y su sistema de círculos

Ptolomeo consideró que la Tierra era el centro del universo, y para eso creó un sistema de círculos que según él, reproducía perfectamente los movimientos de todos los cuerpos celestes alrededor de la Tierra. El problema era que había que dibujar nuevos círculos cada cierto tiempo para ajustar los datos.



Cuando el resto de los astrónomos tuvieron que crear tantos círculos que el modelado les parecía dudoso, llegó Copérnico a desarrollar un sistema más realista.


- La central de Fukushima

Este ejemplo de la central nuclear probablemente sea uno de los más esclarecedores de sobreajuste: para fabricar la central, los ingenieros se basaron en una relación denominada ley de Gutenberg - Richter, la cual establece la frecuencia de que ocurran terremotos de cierta magnitud. Desde los imperceptibles hasta los terremotos de grado 10.

Ahora, fijaros en las siguientes dos imágenes:



La primera imagen representa la relación que crearon los ingenieros, consistente en dos líneas rectas, donde el punto de inflexión ocurre alrededor de 7,3. La segunda imagen muestra un ajuste de los datos peor, consistente en una única recta. Sin embargo, la primera imagen establece que un terremoto de grado 9 se da cada 13.000 años, mientras que la segunda imagen indica que un terremoto así se da cada 300. Y por esta razón, Fukushima fue dimensionada solo para aguantar un terremoto de 8,6 grados.

¿Sorprendente? Un error de cálculo que costaba arreglar 30 segundos provocó que se echase a perder una gran infraestructura. Los datos no lo son todo. También existe su correcta interpretación.





Fuente:

1- https://ml.berkeley.edu/blog/2017/07/13/tutorial-4/
2- https://stats.stackexchange.com/questions/128616/whats-a-real-world-example-of-overfitting
3- https://datascience.stackexchange.com/questions/61/why-is-overfitting-bad-in-machine-learning
4- https://www.britannica.com/science/Ptolemaic-system

Los sesgos de los sistemas inteligentes y la realidad

Hace dos semanas, saltó a la palestra la noticia de que el programa de inteligencia artificial que usa Amazon para contratar a trabajadores tenía una clara preferencia hacia los hombres. Estas distinciones y decisiones injustas merecen más atención desde hoy mismo que la que los medios le están dando, pero no le veo fácil solución a este problema de la tecnología. En este texto explico por qué.


Para ello, me voy a centrar en un caso un poco más antiguo, de mayo de 2016, en el que el medio ProPublica acusaba a un sistema inteligente, COMPAS, usado en el sistema de justicia estadounidense, de tener un sesgo contra las personas negras a la hora de predecir si un delincuente volvería a reincidir o no. Concretamente, con las personas blancas tenía una mayor posibilidad de predecir que no reincidían, y finalmente sí que lo hacían. Mientras, con las negras predecía que iban a volver a delinquir y finalmente no lo hacían.

A pesar de que se armó un buen escándalo, cuatro meses después el Washington Post publicó un artículo en el que demostraba que las interpretaciones de sesgos sobre COMPAS que había realizado ProPublica no eran nada consistentes y que no estaba claro que el programa tuviera una mala preferencia. El problema está en cómo define ProPublica un sistema justo.


Fuente


Para Northpoint, la empresa desarrolladora de COMPAS, la aplicación es justa y veraz, ya que la proporción de la población que reincidió es igual en cualquiera de los dos colectivos, tal y como se puede ver en la imagen. A esto se le denomina calibración del sistema. Sin embargo, ProPublica se fijaba en el conjunto que finalmente no reincidió. Y aquí viene el problema: es imposible tener una solución tecnológica que sea justa según las dos definiciones. De hecho, eso de lo que acusó ProPublica es una de las consecuencias necesarias de diseñar un algoritmo sin sesgos. Un equipo de investigadores de la universidad de Stanford se propusieron calcular el coste de la equidad y concluyeron que el algoritmo, en efecto, se podía hacer que no tuviera la famosa distinción entre blancos y negros, pero a costa de perder precisión en el conjunto global. Llevaría a tener un 17% más de blancos en la cárcel con muy poco riesgo de reincidencia.

Hay que tener claro qué es estrictamente hablando, un sesgo, en el sentido matemático, y qué es lo que promulgan muchos medios. Vayamos en primer lugar con el sentido científico:

En estadística, un sesgo (bias en inglés) se define como un predictor que provoca que los todos los errores vayan en la misma dirección. Es distinto de la imprecisión (variance), el cual se usa para describir errores sin ninguna dirección en particular. El siguiente gráfico lo describe muy bien:



Fuente


Es decir, para un matemático un sesgo corresponde a la diferencia entre la respuesta que da un sistema de inteligencia artificial y la realidad. Sin embargo, los medios extienden que un sesgo es la diferencia entre la respuesta tecnológica y la realidad idealizada que tienen los periodistas. Y eso no tiene ningún sentido. Una cosa es la realidad veraz, la que existe y a partir de la cual se extraen los datos para entrenar a una solución inteligente, y otra cosa muy distinta es la realidad que alguien crea que debería ser.

Por decirlo de una manera sencilla: es nuestra realidad la que está sesgada. Y manipular los datos para que no lo sea, implica una manipulación que daría lugar a otro tipo de sesgos en las respuestas de los sistemas inteligentes. Cualquier modelización de nuestra realidad va a estar sesgada. Siempre va a existir el mismo problema mientras existan dos distribuciones de personas de diferente tamaño. De hecho, no importa cuánto me aleje o me acerque al detalle de la muestra: siempre apareceran subgrupos.

Como consecuencia, la cuestión sobre este tipo de algoritmos se reduce a una cuestión moral que habrá que regular de alguna manera. Habrá que establecer unas reglas de manera que se establezcan un orden de prioridades de sesgos asumibles, siendo conscientes de que se van a producir. De hecho, Google tiene una página interactiva donde se expone claramente un caso de dos grupos de población y cómo procesa la información un algoritmo a la hora de decidir si concederles un crédito o no. El ejemplo original se basaba en que a las personas negras les rechazaban muchos más créditos que a las blancas. Pero simplemente respondía a la realidad de que el primer grupo tenía menos ingresos y más impagos que el segundo. No nos gusta la realidad. Pero el gigante tecnológico concluye en que se podría eliminar ese sesgo a costa de que muchas menos personas reciban una respuesta positiva a su préstamo, en los dos grupos de población.

Cada vez aparecerán más casos de este tipo. Al caso de Amazon y COMPAS, hay que unir los no tan famosos del mismo Google, algoritmos financieros y medios de comunicación. Pero no serán ni los primeros ni los últimos, y hay que tener claro de qué estamos hablando.

En este caso concreto, me temo que los códigos abiertos no van a venir a arreglar el problema.




Fuentes:
- Jacobitemag.org
- Hackernoon.com


El gobierno… inversor, tomador de riesgos, innovador

Hoy traigo al blog un vídeo TED de una investigadora que me ha llamado la atención y creo que seguiré a partir de ahora. 

La charla TED habla sobre cuál es el papel del estado en la creación de ecosistemas innovadores dentro de países. La opinión general es que el estado es lento y que si de él dependiera, no existirían Googles, Facebooks, y ese tipo de empresas. De hecho, es una crítica habitual de los americanos a los europeos para explicar por qué en Europa no hay empresas de este tipo.

Sin embargo, Mariana Mazzucato quiere desmentir ese mensaje y cree que el papel del estado ha sido fundamental en muchos momentos de la historia, y en particular, en la creación de Sillicon Valley.






No quiero hacer spoiler de la charla, pero a mí sí que me ha convencido en particular que en esa zona de EEUU la intervención pública ha sido esencial. ¿Sabíais que Tesla también recibió muchos millones de subvención pública de la administración Obama, entre otras grandes empresas? De hecho, esta investigadora afirma que hemos socializado el riesgo de emprender, pero al mismo tiempo, privatizado las ganancias.

La opinión general de la población es que el estado debería de dejar máxima libertad para aflorar el talento, las oportunidades, las caídas y auges de empresas... harán de cualquier región un SV. Pero las evidencias de los datos dicen que no.

No tengo suficientes argumentos ni conocimiento para debatir respecto a este tema en profundidad, pero sí que me interesan los contextos sociales/económicos en los que se dieron el Renacimiento, la Primera Revolución Industrial y otros grandes acontecimientos históricos. En casi todos los que me encuentro, el éxito se debió a una colaboración entre las entidades público - privadas.


Fuente

Sobre la empatía hacia los robots.. y por qué no, hacia las lavadoras

Este es un artículo que se me ha ocurrido a cuenta del recomendable libro sobre How to create a mind, de Raymond Kurzweil. Y el tema no es baladí. Durante el libro, el famoso futurólogo explica los circuitos biológicos del pensamiento y las habilidades cognitivas, y posteriormente habla de otros aspectos necesarios y complementarios para que un robot se parezca a un humano. Entre otras características, está la conciencia de sí mismos y la empatía. Hay algunas más, pero en este artículo me voy a centrar en la empatía.

La empatía es una característica esencial de los humanos que ha jugado un gran papel en que formemos sociedades durante nuestra evolución, y que nos protejamos los unos a los otros. Actualmente, se está entrenando a la inteligencia artificial y a los robots para que transmitan que sienten empatía. Y la frase es exactamente esta, ya que el robot, no siente nada. Solamente estará programado para ofrecer unas expresiones faciales, unos sonidos o unos movimientos distintos dependiendo de cómo detecte el ánimo de la persona. De hecho, esta habilidad es esencial en robots sociales usados en terapias de hospital, como los que emplea brillantemente el investigador español Jordi Albo en el hospital Saint Joan de Déu.

Sin embargo, a pesar de que el robot está actuando, los estudios están revelando que los humanos sí que sienten pena/compasión/empatía por la máquina. Un ejemplo muy sencillo de explicar lo tenemos en un artículo del pasado mes de agosto. En esta ocasión, tenemos a un robot humanoide de mucho éxito, Nao, pidiendo que no lo apaguen. Y sorprendentemente, los sujetos del experimento son más reacios a apagarlo cuando el robot suplica por su vida.
 

Puede que muchos de los que lean estas líneas no tengan nunca un robot de estas características, o que piensen que a ellos no les ocurriría. Pero planteemos la siguiente situación: ¿cuántas veces hemos golpeado con violencia la impresora, la lavadora, el coche o la televisión debido a su mal funcionamiento? 






En el vídeo precedente, ¿qué ocurriría si la máquina con cada golpe, gimiera? La ciencia indica que seguramente cesaríamos en nuestra furia contra el pobre cacharro. Seguro que muchos de los presentes, usuarios del sistema operativo Windows, han tenido que usar recurrentemente Alt + Control + Supr. Eso en cierto modo es tratar mal al software, como coger del cuello a una persona y ponerle las cosas en su sitio. ¿Y si al darle a esa combinación de teclas, el ordenador emitiera un mensaje de dolor?

Ponerle sonido a Windows en estas condiciones es muy fácil, lo cual quiere decir que engañar a los humanos y hacerles imaginar que el ordenador siente daño y está vivo, no es ciencia ficción en absoluto. Es posible que conozcáis a Furby, un juguete que tuvo éxito hace unos 20 años que trataba de formar una relación emocional entre el niño y él a través de frases graciosas.

No he encontrado ningún experimento al respecto, pero ¿creéis que aumentarían la venta de aspiradoras autónomas si tuvieran caritas sonrientes en lugar de no tener expresiones faciales? Quien diga que no, a ver qué piensa cuando conozca a Cozmo.





Pero en todo progreso hay un cierto peligro. Y el peligro es bastante importante, para mi gusto. Ya que un robot con financiación militar ha demostrado que puede manipular mentalmente a un humano a través de la empatía y la interpretación de su estado de ánimo.

Y esto es lo que da un poquito de miedo y conviene regular y conocer en profundidad cómo afecta a la mente humana.

Finalmente, si pensáis que este es un problema de nuestros días, es porque no habéis visto 2001: Una odisea en el espacio, ¡que es de 1968!

Después de la margarina, vino el robo del reloj, la bombilla y hasta la cartera

Hace unos días ya os conté la maniobra legal que permitió a unos inventores holandeses robar la receta de la margarina. Hoy traigo algunos ejemplos más, tal y como adelanté.

Desde lejanos tiempos, los gobiernos han usado el mecanismo de las patentes para sus propios intereses. Los datos históricos demuestran muy poca correlación entre creación de patentes e impulso de las innovaciones. En cambio, historias como las que traigo aquí demuestran que el uso real de las patentes era como guerra comercial, creación de monopolios y robo de tecnología entre países.

Este instrumento legal comenzó en 1474 en Venecia, que empezó a premiar con derechos a los inventores y empresarios que habían creado o habían traído tecnología a Venecia. Su intención era la de atraer artesanos a la República. Fue exitoso, por lo que los países del entorno no tardaron en crear sus propias leyes de patentes. Una de las que se recuerdan como mayor acierto fue el Estatuto de los Monopolios, publicado en 1623 en Reino Unido. Hasta entonces, las patentes en ese reino las concedía la Corona prácticamente a dedo, y su posesión implicaba los derechos sobre la comercialización de la invención. Es decir, el inventor no se veía nada retribuido.

Sin embargo, esta herramienta legal ya mostró sus imperfecciones en plena Revolución Industrial, ya que por ejemplo, James Watt exprimió su famosa patente hasta su expiración para evitar que nadie más desarrollase ningún tipo de motor, lo cual provocó un freno en la evolución de esta tecnología. Y es que los monopolios sin ánimo de innovar son uno de los principales problemas de estas protecciones.

El caso es que por razones políticas o económicas, varios países han evitado tener durante bastante tiempo una ley de patentes, y sus resultados son cuanto menos llamativos. Suiza, en primer lugar, no la tuvo hasta que en 1888 publicó una ley bastante rudimentaria, y no fue hasta 1907 cuando tuvo una ley completa tal y como la entenderíamos hoy. Dinamarca daba solo 5 años de concesión de derechos y hasta 1894 no elaboró su ley. En cuanto a Holanda, abolió su ley 1869 por una victoria política a faor del libre comercio, y no la restauró hasta 1912.

Crystal Palace (Londres)


Gracias a las ferias internacionales de la época, podemos comparar los efectos de la ausencia de este tipo de leyes en estos países. Concretamente, en la exhibición de Londres de 1851 (Crystal Palace Exhibition), Suiza y Dinamarca contribuyeron cada uno con 110 innovaciones por cada millón de habitantes, mientras que la media de los países tenía entre 55 innovaciones por cada millón. También Suiza dobló al resto de países en innovaciones durante la feria de 1876 (US Centennial Exhibition). Holanda, en esa misma edición, ganó el 86% de los premios en los que competía, frente a un 46% de media de otros países.

¿Qué hacían entonces estos países para proteger sus innovaciones? Sus industrias se centraron en innovar con gran energía en sectores donde el secreto industrial era muy útil. Principalmente, fueron instrumentos científicos, procesamiento de alimentos e industria química, y se hicieron especialistas en estos procesos y artículos. De hecho, estas actividades generaron muy pocas patentes, mientras que la industria manufacturera se llevaba la mayoría de patentes.

Además de usar el secreto industrial, usaron otras técnicas menos ortodoxas. Por ejemplo, los relojeros suizos del Valle de Joux, tradicionalmente grandes relojeros, acordaron no contratar aprendices entre 1823 y 1840, e incluso muchos no dejaban entrar en sus talleres más que al equipo de trabajo de máxima confianza.


Pero aquí llega la trampa: la ausencia de ley de patentes no sólo se usó para que los trabajadores de esos países se defendieran y protegieran sus inventos, sino que también se usó para atacar a la competencia extranjera. Los mismos relojeros suizos que he mencionado en el párrafo anterior, esencialmente copiaron todos sus modelos de los relojeros británicos, que por entonces dominaban el mundo. Algo que sorprende, ya que los trabajadores de metal eran mejores en Suiza que en Inglaterra, con más experiencia.

Pero no solo en esta industria: es vox-populi que la industria farmaceútica en Suiza le debe mucho a la ausencia de patentes. En aquella época, varios inventores franceses emigraban a Suiza para poder robar patentes de sus compatriotas sin que les pudieran atacar. Es particularmente conocido el caso de Alexandre Clavel, quien en 1869 fundó Ciba AG, una empresa de tinte textil, a partir de una patente francesa. Esta empresa a la postre, terminó convirtiéndose en el actual imperio Novartis, con sede en basilea.

Curiosamente Philips, con sede en Eindhoven (Holanda) también se aprovechó de los años en que este país no tenía ley de propiedad intelectual para robar el modelo de bombilla británico.

Por lo tanto, espero que estén quedando aclaradas mis dudas sobre la eficacia de las patentes como instrumentos reales para mejorar la innovación, sino como medidas proteccionistas e incluso de ataque entre naciones.

Pero este problema se ha agravado en los últimos 30 años debido a razones geopolíticas: en 1980 la proliferación de patentes se descontroló, que es cuando Japón superó a EEUU en el número de patentes concedidas. Estados Unidos no podía permitirse que se interpretara que los ingenieros japoneses eran mejores que los suyos, por lo que cambió su sistema de patentes:
- las investigaciones académicas en las universidades son patentables
- eliminar la exigencia de demostrar que habías llevado tu idea a la práctica (puedes patentar una idea)

Fuente
De esa manera, lo que se ha conseguido es que los países se defiendan de productos extranjeros en la frontera. Es decir, pongamos que General Electric, Toshiba, Sony, tienen distintas versiones de la misma patente, pero eso no significa que hayan innovado más en el mundo.


Todo esto me lleva a pensar que habría que repensar este sistema de protección industrial, ya que no es un medio que mejore la innovación, y desde luego, usarlo como medidor de creativididad en el mundo está lejos de ser eficaz.



Fuentes

- Moser, P. (2005). How do patent laws influence innovation? Evidence from nineteenth-century world's fairs. American economic review, 95(4), 1214-1236.

- Nicholas, T. (2013). Are Patents Creative of Destructive. Antitrust LJ, 79, 405.

- Moser, P. (2013). Patents and innovation: evidence from economic history. Journal of Economic Perspectives, 27(1), 23-44.

- The patents war (2014). Documentary. https://www.youtube.com/watch?v=uM7UFEXhqwg

- The birth of a lamp factory in 1991

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Web Hosting