Blog de robótica e inteligencia artificial

Mostrando entradas con la etiqueta Naukas. Mostrar todas las entradas
Mostrando entradas con la etiqueta Naukas. Mostrar todas las entradas

9/12/2019

En Naukas: Los Pecados Capitales en las predicciones sobre IA y robots

La inteligencia artificial y la robótica van camino de convertirse en el perro del hortelano: ni come ni deja comer. Dicho de otra manera: hay que seguir mejorando la tecnología e incorporarla en los sectores económicos. Pero al mismo tiempo va a destruir empleos y empresas, y probablemente cambie la sociedad. Pero las expectativas que nos han creado, están claramente infladas.

Los investigadores y divulgadores, tenemos a menudo muchos textos que son una referencia para nosotros. Puede ser por el estilo, por el mensaje o por lo que a cada uno le transmita. Y hay uno que yo recomiendo especialmente sobre inteligencia artificial y robótica, y es el texto titulado The Seven Deadly Sins of Predicting the Future of AI (Los 7 Pecados Capitales de las predicciones de Inteligencia Artificial), del ínclito Rodney Brooks.

En esta entrada, me gustaría destacar tres pecados mencionados en este artículo, donde mezclaré traducciones libres del texto con comentarios personales. Comencemos:




Existe una gran histeria sobre el impacto social de la inteligencia artificial, sobre todo en cuanto al impacto en la pérdida de empleos. Hay afirmaciones como la siguiente: ‘el 50% de los empleos actuales desaparecerá en favor de los robots’. Que un robot en un laboratorio tenga la capacidad de doblar ropa, no significa que vaya a sustituir a un/a profesional de una tienda de ropa. Las posibilidades de laboratorio son eso, simplemente. Entornos de laboratorio. ¿Cuántos experimentos se han llevado a cabo de robots en múltiples puestos de trabajo que dicen que van a acaparar? ¿Cuántos robots están actualmente en esos puestos? La respuesta a ambas preguntas es la misma: CERO.

Los robots que dicen que son autónomos, no lo son tanto, las empresas que dicen que emplean inteligencia artificial, no la usan realmente, e incluso se puede hablar de cierta desrobotización. Estos son algunos de los Pecados Capitales para saber bien a qué atenernos en esta tecnología.


Sub/sobrevaloración

Roy Amara, fundador del Institute for the Future de Sillicon Valley, enunció lo que hoy se conoce como la ley de Amara:

Tendemos a sobrestimar el efecto de una tecnología a corto plazo, y subestimarlo en el largo.

Un ejemplo claro de esta afirmación lo encontramos en el GPS. Esta tecnología comenzó con la creación en 1978 de una red de 28 satélites, cuyo propósito era ayudar en el lanzamiento preciso de bombas del ejército estadounidense. La primera prueba de este objetivo tuvo lugar en 1991 durante la operación Tormenta del Desierto, y fue prometedora. Sin embargo, durante la década de los 90, los militares aún albergaban muchas dudas sobre su utilidad, y no fue hasta el año 2000 cuando fue mayoritariamente aceptado.

Desde 1978 hasta ese momento, el programa de GPS estuvo a punto de ser cancelado una y otra vez. Pero de repente, la tecnología se reveló con unas utilidades que nunca fueron previstas en su concepción. Hoy en día permite aplicaciones, sin las cuales el mundo sería un poco diferente.
Algo parecido ocurrió con la informática. Cuando se comenzaron a comercializar ordenadores en la década de los 50, había una percepción de que eliminarían muchísimos empleos. Sin embargo, durante los 30 primeros años de presencia social, apenas tuvieron efecto en la vida de la gente. Esto cambió a partir de los 80, y ahora vivimos rodeados de informática y electrónica por doquier.

Por lo tanto, es un error humano muy habitual sobrestimar las posibilidades de una tecnología en el corto plazo, y de subestimarlo en el largo. No sabemos aún cuánto será ese ‘largo plazo’ para la inteligencia artificial, ya que se le lleva sobrestimando en los 60, 80 y ahora.

 

Escenarios hollywoodienses

¿Cuál es la diferencia entre los alienígenas y los robots? La respuesta es que los aliens, si vienen, quizás nos pillen totalmente desprevenidos. Pero eso será imposible con los robots de aspecto e inteligencia similar a Terminator. Ni siquiera está claro que sea alcanzable lo que denominamos Inteligencia Artificial General, que implica el razonamiento y aprendizaje de un humano. Ojalá sí que sea viable técnicamente, pero hoy por hoy, los científicos estamos demostrando que no tenemos ni idea de cómo desarrollarla. Ahora mismo las habilidades de la inteligencia artificial son muy limitadas.

En ese largo proceso de investigación hacia esa inteligencia superior, todo nuestro entorno cambiará. Cambiará el mundo. Por otro lado, la situación técnica, social y económica para cuando ese momento llegue, puede que sea muy distinta de la actual. Dejar volar la imaginación en obras literarias o cinematográficas no es más que eso: un ejercicio de imaginación sin base real.
  


Velocidad de despliegue

El software se está comiendo a la industria. Además, el tiempo de despliegue de nuevas versiones de programas informáticos, es cercana a 0 y el software impera en muchos sectores económicos.
En cambio, la velocidad de despliegue del hardware no es inmediata, ni mucho menos. Hay muchos ejemplos de ello. Aún existen muchos servicios que emplean versiones muy antiguas del sistema operativo Windows. En muchísimas fábricas, el mecanismo de control principal continúa siendo el dispositivo llamado PLC, que comenzó a introducirse en 1968. Incluso en el ejército estadounidense se emplea tecnología antigua: aún emplean el bombardero B-52, concebido en 1961, y han anunciado que pretenden seguir usándolo hasta 2040.

Cualquier persona que conozca alguna gran industria, sabrá que la reconfiguración del sistema de control o de información interna requiere mucho tiempo, pruebas y habitualmente la asistencia de varios consultores para reorganizar toda la fábrica.

Es decir, la incorporación de robots en la mayoría de sectores económicos lleva una desquiciante gran cantidad de tiempo. No se da de la noche a la mañana. Por eso, entre otras razones, la unidad de medida de tiempo para calcular cuándo los robots destruirán empleos (lo harán) es el año.

Estos son solo los Pecados Capitales que he querido destacar, y que espero que ayuden a ser escépticos sobre muchos de los titulares futuristas que se ven sobre IA y robótica. Como dice el economista Tim Hardford, ‘predecir el futuro siempre ha sido un juego muy divertido, pero totalmente infructuoso’.

Y creo que todo esto sive de cortina de humo mediática para cambios sociales que sí que nos van a afectar en un plazo muy corto y de los que casi nadie habla. Por ejemplo, la clasificación social en distintos perfiles o los sistemas de crédito social (también en Europa). Pero esto ya se queda para una próxima entrada.

 

 Esta entrada se publicó originalmente en Naukas. Y aprovecho para recordaros que el evento de divulgación Naukas Bilbao está al caer.



Comparte:

9/19/2017

Mi charla en Naukas17

Y ya van 6 las charlas que he tenido el honor de impartir en Naukas Bilbao. Este año pude estar muy poco tiempo por el evento, y participé en el NaukasPro explicando qué hacemos en el grupo de investigación de la universidad. Mucha robótica e inteligencia artificial.

Muchas gracias a los asistentes, a las opiniones, y os recomiendo encarecidamente que veáis cualquier charla que os llame la atención del resto de Naukers.





Imagen de @xurxomar
Comparte:

8/03/2017

Razones para no perderse Naukas Bilbao 2017

- Naukas Bilbao es un acontecimiento referente de divulgación científica, en el que se combina ciencia + humor en charlas de aproximadamente 10 minutos.

- Este año será más grande que nunca: el evento se celebrará en el Palacio Euskalduna de Bilbao. Un escenario espectacular.

- Ya nadie se quedará sin sitio ni poder entrar. ¡El nuevo aforo es de 2.000 personas! Ni tampoco tendréis que hacer las largas colas que se han visto en las ediciones pasadas.

- Cada vez se van incorporando a la familia Naukas más ponentes, cada uno con un tema distinto y que seguro que os atraerá (biología, física, astronomía, matemáticas, derecho, informática, antropología, química, ingeniería...).

- Este año volvemos a contar con Naukas Kids: ciencia y talleres para los más pequeños.

- Volverán a haber sorpresas, científicos de prestigio internacional y entrevistas interesantes.

- Ya vamos por la séptima edición. ¡Cada vez el evento sale mejor! 

- El público que asiste, ¡normalmente otro año repite!

- La asistencia al evento es totalmente gratuita.
 

Recordad, entre el 14 y el 17 de septiembre tenéis un evento en la agenda
Aquí podéis consultar el programa provisional.









Comparte:

2/19/2017

La pregunta Naukas 2017: mi respuesta

Desde hace dos años, Naukas lleva a cabo entre los colaboradores de la plataforma una pregunta, con respuesta libre. Ninguno de nosotros conoce las respuestas de los otros. Es muy parecido a lo que popularizó Edge. Aquí tenéis las preguntas de otros años. 

La pregunta de este año fue: 

¿Cuál es el hecho más fascinante del Universo?

Y esta es mi respuesta.


Son indescriptibles las sensaciones que cualquiera de nosotros hemos tenido alguna vez al  contemplar las estrellas, y darnos cuenta de la gota en el océano que somos en el inmenso Universo. Mundos que se asoman a nuestras cúpulas celestes, y sin embargo, tan lejanos.

Uno de las realidades más sorprendentes para mí ha sido la gran capacidad de extrapolación a otros mundos de las leyes universales de la ciencia. Es decir, el ser humano es capaz de imaginar nuevos mundos y plantearse teorías sobre orígenes, funcionamiento o posible vida en los planetas a partir de las leyes que hemos deducido en el nuestro.

Los cuerpos celestes pueden estar a miles de años luz, tener atmósferas distintas, tener una masa planetaria mucho superior a la nuestra… pero se tienen que seguir cumpliendo las leyes de la Química y Física fundamentales, hasta que se demuestre lo contrario. Esa navaja suiza cósmica siempre me ha parecido una gran herramienta y un hecho sorprendente para poder imaginarnos y descubrir nuevas realidades, tan solo observando unos pocos datos desde nuestros telescopios o satélites.




Comparte:

1/15/2017

En Naukas: hacia el vehículo aéreo personal

Os dejo mi última entrada en Naukas. Este año a ver si mi carga de trabajo desciende y logro publicar más en esa plataforma y por aquí. 



Cuando a una persona le explicas que algún día podría llegar a usar vehículo aéreo como hoy en día usa el coche o la moto, se le suele iluminar la mirada. La idea resulta atractiva. Si la cultura motera defiende la libertad que proporciona una Harley-Davidson, imaginaos qué puede transmitir un Vehículo Aéreo Personal (PAV, en adelante).

Fue en 2003 cuando se sentaron las bases técnicas que definen un PAV tal y como se entiende hoy en día. Concretamente, la NASA lo define como:
  • Menos de 5 asientos.
  • Velocidad de crucero de 240–320 km/h.
  • Silencioso.
  • Cómodo.
  • Seguro.
  • Cualquier persona con una licencia de vuelo lo podrá pilotar.
  • Asequible, al igual que un viaje en coche o en avión (según distancia).
  • Apto para cualquier condición meteorológica.
  • Energéticamente eficiente.
  • Una autonomía de 1.300km
  • Capaz de aterrizar próximo al punto de destino, para lo cual se hace imprescindible la creación de pequeños aeropuertos comunitarios.
Yo añadiría “vuelo autónomo” a esta lista.

Para emocionarnos aún más, AirBus y Uber empiezan a proponer ideas como su aerotaxi, la Comisión Europea financia un proyecto para investigar en este ámbito, o la NASA propone el modelo Puffin (vídeo a continuación).


Habrá alguno que piense que el diseño de un PAV es muy fácil: basta con hacer los célebres “drones” o UAVs en escala mayor; además, son aparatos que semanalmente nos dejan noticias sobre sus avances en tecnología. ¿Cómo a nadie se le ha ocurrido industrializar uno capaz de transportar a una persona, como mínimo? Vayamos por partes:

Para empezar, un multicóptero (puede tener distinto número de brazos, pero me centraré en el de cuatro) no es nada eficiente energéticamente. Un helicóptero lo es mucho más. En el cuadricóptero los motores tienden a tener grandes cambios de velocidad de rotación para lograr la estabilidad, y eso penaliza mucho el consumo energético de las baterías.

La razón principal para esos cambios bruscos en el régimen de los rotores es debido a la inestabilidad propia de todos los multicópteros, que obliga a corregir el manejo de estos UAVs continuamente con el mando o con un sistema de vuelo autónomo.

La fórmula de la energía cinética dice que 0.5mv2 e implica que cuesta cuatro veces más de energía mover el aire al doble de velocidad, que mover el doble de masa de aire a la misma velocidad. Es decir, a mayor diámetro de hélices, el aparato sería más eficiente. Pero por otro lado, se pierde mucha estabilidad (¿entendéis ahora por qué esta universidad ganó el reto Sikorsky?)

Por último, un PAV multicóptero tendría un gran problema de seguridad. Los fallos de rotor podrían desembocar en serios accidentes a no ser que se implementen sistemas fail-safe que permitan aterrizar suavemente el “vehículo” ante la pérdida de un motor.

La empresa E-Volo lo sigue intentando, y hace prototipos y conceptos de vehículos que se asemejan a un multicóptero+helicóptero. Sin embargo, se queda en eso, prototipos y conceptos.

Pero llegados a este punto, cabe preguntarse por qué los cuadricópteros tienen tanto éxito como modelo de drone si tiene tantas pegas. Es muy fácil: por su simplicidad. Construir un cuadro de cuatro brazos con un motor en cada punta y que ese aparato vuele, es muy sencillo. No hay que preocuparse apenas por el diseño, ni por los materiales para lograr que levante el vuelo. De hecho, se ven tutoriales de diseños de drones unidos con celo y un par de listones de madera.




En resumidas cuentas, tiene mala pinta de que un posible modelo de PAV sea un cuadricóptero “más grande”. Siempre nos quedará el gadgetocóptero.



Comparte:

9/25/2016

Qué ocurre cuando le das un péndulo a una máquina

Hoy os dejo la charla que tue el honor de dar en la sesión de Naukas Bilbao 2016, y de paso agradecer a la organización y al público el apoyo y facilidades que nos dan a los ponentes. 

Mi charla se titulaba ¿Qué ocurre cuando le das un péndulo a una máquina? e intenté tocar muy superficialmente las implicaciones sociales y legales que puede tener la entrada masiva de robots en nuestras vidas. Aquí os dejo el link y la charla.




Y recordad que esta semana, Naukas sigue "de gira",  y hace escala en Donostia, donde participará en el Passion For Knowledge que organiza el Donostia International Physics Center y que reúne a varios premios Nobel y grandes científicos en varias charlas.

Aquí os dejo el programa.


Comparte:

8/31/2016

Naukas Bilbao 2016, la cita con la divulgación científica

Con el fin del verano, vuelve como un año más la gran cita de píldoras científicas: Naukas Bilbao. Este año se celebrará el 16 y 17 de septiembre, así que id haciendo hueco en vuestras agendas. El programa provisional de charlas podéis encontrarlo aquí:


Para quien no haya oído hablar de este evento, dos ideas: consiste en que los divulgadores de ciencia (principalmente participantes en la plataforma Naukas) subimos al escenario a contar ideas científicas, pero en no más de 10 minutos. Las charlas son de los temas más variados que os podáis hacer a la idea: biología, física, ingeniería, matemáticas, química, astronomía, etc.

Este año además, contaremos con la participación de Pedro Duque, el astronauta español, durante el viernes por la mañana. Además, también se realizarán sesiones de Naukas Kids para los más peques, junto a talleres y otras actividades que la organización irá desgranando en la cuenta @Naukas_com.

A un servidor le toca sus 10 minutos de gloria el viernes por la tarde: ¿Qué pasa cuando le das un péndulo a una máquina?

Habrá streaming del evento. ¡Estáis todos invitados!
Comparte:

9/28/2015

Mi participación en Naukas15: errores al copiar la realidad

Ya hace algunos fines de semana que pasó el evento Naukas15, donde impartí la charla de aproximadamente 10 minutos que os dejo a continuación: errores al copiar la realidad.




No me dispongo a hacer un resumen del evento, que ya hace tiempo que ocurrió. Solo os recomiendo ver cualquiera de las charlas del canal de EITB en el que están colgadas

El evento de este año fue espectacular. Muchas gracias a todos con los que compartí algún rato, y lo siento a los que no pude atender en condiciones. Prometo seguir intentando mejorar mis actuaciones.






Comparte:

8/17/2015

La ya tradición: se acerca Naukas Bilbao

Los habituales del blog sabréis que de vez en cuando saco el bombo y el platillo para anunciar alguno de los eventos en los que el escribe participa. 

Participo y asisto a algunos. Naukas Bilbao es sin duda la referencia, el evento de divulgación científica que más disfruto y uno de los que más aprendo. Para quien no conozca el formato de este encuentro, se trata de charlas de unos 10 minutos una detrás de otra sobre disciplinas científicas diversas: matemáticas, tecnología, cosmología, física de partículas, química, biología, etc.

El evento ya va por su quinta edición, y éste es el programa provisional para este año. Ojo, que en esta ocasión se adelanta en el calendario y pasa al 11 y 12 de septiembre en el Bizkai Aretoa de Bilbao.


Cada vez el evento goza de mayor éxito y yo disfruto mucho de compartir ideas, saludos y cervezas con público, divulgadores, curiosos y amigos.

Este año mi charla se denominará: Errores al copiar la realidad. Intento sorprender en cada edición y he hecho alguna demostración de inseguridad informática, he hablado de Formula1, del coche autónomo, y de momento no quiero adelantar en qué consistirá la de este año.

Quien pueda acercarse, que no pierda la oportunidad. Yo le pagaré el primer café o cerveza.

Comparte:

3/05/2015

La pregunta Naukas 2015

En la plataforma de divulgación Naukas se están publicando a lo largo de este mes las respuestas a la una pregunta que nos han planteado a todos los autores que estamos ahí metidos. Ninguno sabemos lo que responden los demás hasta que no se publica. Se trata de una iniciativa que Naukas comenzó el año pasado en honor a The Verge. Probablemente, mejor que yo lo expliquen ellos mismos aquí:



Este año la pregunta era: 

¿Qué avance o descubrimiento de la ciencia moderna ha hecho progresar más a la Humanidad?

Entendemos como ciencia moderna desde Copérnico hasta nuestros días.




No consigo decidirme por qué invento ha sido más determinante. Me vienen a la cabeza el avión, la máquina de vapor, los rayos X o la tecnología espacial.

Sin embargo, sí que creo que hay un factor común a la hora de dar pasos grandes en la ciencia. No solo en la ciencia moderna, sino desde tiempos de nuestros más antiguos antepasados: en la mayoría de los grandes avances, la actitud humana que más ha permitido desarrollar importantes tecnologías ha sido el ser conscientes que tenían algo peligroso en sus manos, y aún así, seguir profundizando en su estudio.

¿Acaso creemos que el dominio del fuego en la Antigüedad ocurrió sin más contratiempos? ¿No es el fuego una de los fenómenos más peligrosos y a la vez más valiosos, de los primeros hombres? ¿No prohíben ahora las madres a sus hijos pequeños que no jueguen con fuego? ¿No es esta actitud una de las características fundamentales que distingue a seres humanos y animales?

Algunos de los inventos que costó miles de vidas incorporarlas de manera segura a nuestro día a día han sido el avión, la máquina de vapor, los rayos X o la tecnología espacial.

De cara al futuro, será imprescindible hacer frente a retos que nos pueden parecer igual de arriesgados. Hoy en día hay detractores de la inteligencia artificial, los alimentos transgénicos, la investigación de células madre, mecánica cuántica, viajes espaciales más largos, etc. Estos detractores critican o la inutilidad de inversión de recursos de estas disciplinas o la peligrosidad de su desarrollo para la sociedad.

Quizás dentro de algunos siglos estemos hablando de los nuevos medios de transporte, terapias genéticas, curas médicas o incluso formas de vida diferentes a la nuestra como consecuencia de haber afrontado hoy los peligros y obstáculos que presentan las ciencias y oportunidades de mi penúltimo párrafo.

Comparte:

1/06/2015

En Naukas: ¿Cuántos graduados del MIT hacen falta para encender una bombilla?

Aquí os dejo la primera entrada de 2015. Gracias por las lecturas y opiniones. El artículo original apareció aquí


Os invito a que veáis el siguiente vídeo:


Poco se imaginaban los recién graduados del MIT el curioso reto que se les iba a plantear: encender una bombilla con un trozo de cable y una pila. Y tal y como se aprecia, estos jóvenes tienen serias dificultades para superar un reto. Obviamente, lo que nos llama la atención es que mucha gente que conozcamos, sin necesariamente formación científico-técnica, podría haber entendido la simpleza del reto a primera vista. Y en segundo lugar, nos puede impactar que esa idea fundamental no la tengan los alumnos que han completado sus estudios en una de las universidades más prestigiosas del mundo: el MIT.

El vídeo es un extracto del documental sobre educación a niños titulado Minds of our own, en el que se muestra cómo parece que aprenden los más pequeños. Tranquilos, que nadie se tire de los pelos, ya que el vídeo se emitió entre 1997 y 1998 en Estados Unidos. Todavía hay secuelas de ese premiado documental (por ejemplo, aquí), y las cuestiones sobre las mejores manera de enseñar los conceptos científicos fundamentales a los más pequeños no es para nada un debate zanjado. Desde luego, el que escribe no es la voz más autorizada para opinar sobre un método u otro, y lo más probable es que hoy en día si se realizase el mismo experimento, el resultado fuese bastante distinto. Sí que el vídeo deja entrever que una de las maneras buenas de enseñar ciencia es que los alumnos descubran los fundamentos o resuelvan los problemas por ellos mismos. Hoy en día hay universidades famosas por la implantación de métodos pioneros de enseñanza, como la de Aalborg.



Tradicionalmente las ingenierías en el mundo anglosajón han sido mucho más prácticas que en España. Aquí se imparten un mayor número de horas y se trata mucho más ideas teóricas, por lo general. Probablemente, muchos de los estudiantes Leonardo y Erasmus que hayan cursado estudios en dos sistemas universitarios hayan notado diferencias sensibles (tipo de docencia, prestigio de las universidades y carreras, sistemas de evaluación, número de créditos de prácticas, etc).

Obviamente, hay puntos positivos en ambos sistemas y estas metodologías de enseñanza evolucionan con los tiempos. Prueba de ello es que ahora este pequeño experimento sería fácilmente resuelto por graduados actuales…
Comparte:

10/05/2014

9/25/2014

En Naukas: la manejabilidad de los carritos de supermercado

Os dejo mi última aportación en la plataforma Naukas. Gracias por los comentarios recibidos y la aceptación en Menéame.



Un alto porcentaje responsable de la maniobrabilidad de un vehículo y de su agilidad está en las ruedas y las suspensiones. Las ruedas no pueden estar totalmente perpendiculares respecto al suelo, sino que tienen una ligera inclinación denominada camber. Ya se habló en Naukas de que el buen manejo de este ángulo era clave en la época en la que Sebastian Vettel arrasaba. Pero hay más ángulos que afectan a la dirección del vehículo, y en este artículo pretendo hablar del ángulo de avance, o caster en la lengua de Shakespeare.

En todos nuestros coches, las direcciones son mecatrónicas. Es decir, hay elementos mecánicos que se unen entre ellos. El ángulo de avance es el ángulo que forma el eje de la dirección con una recta perpendicular al suelo que pasa por el centro de contacto del neumático. Pero ojo, el caster se ve desde el perfil del coche, tal y como se ve en la siguiente imagen:



La vista frontal sería así, pero el ángulo que se ve no es el ángulo de avance, sino el ángulo de kingpin.



El ángulo de avance es el responsable del par de autocentrado de las ruedas: cuando estamos conduciendo un coche, al tomar una curva el coche tiende a volver a enderezar la dirección de las ruedas hacia delante. ¿Por qué ocurre esto? En primer lugar, un neumático cuando gira está sometido a una fuerza lateral en el mismo sentido hacia el que giramos, es decir, siempre sentido exterior. Y si idealizamos el neumático, esa fuerza se da en el centro de la zona de contacto.

En segundo lugar, el caster si es positivo cae detrás de esa zona de contacto. Por lo tanto, la fuerza lateral crea un momento respecto al eje de la dirección que hace que la rueda se enderece. En inglés se denomina self aligning torque.



Los diseñadores de coches tienen que decidir cuánta información sobre la carretera transmite la dirección, y este concepto es uno de los principales. Es particularmente sensible en vehículos de competición, tal y como se puede comprobar aquí.

El carrito del supermercado también sigue este criterio, y si no lo creéis, fijaos en la siguiente foto:




En esta entrada colaboraron @CarlCasan y @GuilleAlfonsin, grandes amantes de la ingeniería

Comparte:

2/27/2014

En Naukas: Permiso para ver e-mails ajenos

Os dejo mi última entrada en Naukas, que por cierto llegó a portada de Menéame. Agradezco mucho los comentarios que han hecho los usuarios, y a @jdelacueva en especial por su colaboración.




En los últimos tiempos, parece que sea algo normal publicar SMS de un famoso político, o e-mails entre empresarios y banqueros. Obviamente, el acceso a esa información no es fácil y puede estar tipificado como delito. Es importante lo de puede, ya que la jurisprudencia del Tribunal Supremo establece que el delito de revelación de secretos ha de afectar al ámbito íntimo. Pero hoy querría hablar de algo mucho más habitual en la sociedad. Me llamó la atención esta noticia publicada por un famoso medio, en el que el director de un banco pide a su director de Sistemas que le entregue todos los e-mails:


Me llama la atención la facilidad con la que un jefe puede conseguir los e-mails de todos sus empleados, y además que estén almacenados con tal antigüedad. Cuando le pregunté a la abogada especialista, Verónica Alarcón, sobre si esto es legal o no, su respuesta fue:




Es decir, puede que no sea ilegal que tu jefe te espíe los e-mails dentro de la empresa. Además, la jurisprudencia la regulación de estos actos está repartida entre distintas leyes, jurisprudencia del Supremo y convenio de los trabajadores, entre otros documentos. Los datos hablan que el 17% de las empresas vigilan estos mensajes. En este artículo voy a recopilar algunas de las distintas leyes que hablan sobre ello:

Empezamos con la Ley Orgánica de Protección de Datos. Tenemos para ello los artículos 5 y 10:

Artículo 5 . Derecho de información en la recogida de datos.
1. Los interesados a los que se soliciten datos personales deberán ser previamente informados de modo expreso, preciso e inequívoco: 
a) De la existencia de un fichero o tratamiento de datos de carácter personal, de la finalidad de la recogida de éstos y de los destinatarios de la información. 
b) Del carácter obligatorio o facultativo de su respuesta a las preguntas que les sean planteadas. 
c) De las consecuencias de la obtención de los datos o de la negativa a suministrarlos. 
d) De la posibilidad de ejercitar los derechos de acceso, rectificación, cancelación y oposición. 
e) De la identidad y dirección del responsable del tratamiento o, en su caso, de su representante.

Artículo 10. Deber de secreto
El responsable del fichero y quienes intervengan en cualquier fase del tratamiento de los datos de carácter personal están obligados al secreto profesional respecto de los mismos y al deber de guardarlos, obligaciones que subsistirán aun después de finalizar sus relaciones con el titular del fichero o, en su caso, con el responsable del mismo.

También lo contempla así el Código Penal en su artículo 197.1:
El que, para descubrir los secretos o vulnerar la intimidad de otro, sin su consentimiento, se apodere de sus papeles, cartas, mensajes de correo electrónico o cualesquiera otros documentos o efectos personales o intercepte sus telecomunicaciones o utilice artificios técnicos de escucha, transmisión, grabación o reproducción del sonido o de la imagen, o de cualquier otra señal de comunicación, será castigado con las penas de prisión de uno a cuatro años y multa de doce a veinticuatro meses.

Sin embargo, cabe destacar una sentencia del Tribunal Supremo en el que se absolvió a un profesor universitario que había accedido reitaradamente a unos correos electrónicos ajenos sin permiso de sus titulares. Uno de los argumentos para su acusación era el artículo 197.1 en cuestión. Sin embargo, el juez consideró que no era aplicable para ese caso concreto al tratarse de correos institucionales, de utilización para fines no estrictamente personales, y, por tanto, ajenos a la intimidad o privacidad de sus titulares.

En el Estatuto de los Trabajadores, en el artículo 4.2 e) se reconoce el derecho del trabajador al respeto de su intimidad y a la consideración debida a su dignidad, comprendida la protección frente al acoso por razón de origen racial o étnico, religión o convicciones, discapacidad, edad u orientación sexual, y frente al acoso sexual y al acoso por razón de sexo.

También en el artículo 18 se reconoce la inviolabilidad del trabajador:

Sólo podrán realizarse registros sobre la persona del trabajador, en sus taquillas y efectos particulares, cuando sean necesarios para la protección del patrimonio empresarial y del de los demás trabajadores de la empresa, dentro del centro de trabajo y en horas de trabajo. En su realización se respetará al máximo la dignidad e intimidad del trabajador y se contará con la asistencia de un representante legal de los trabajadores o, en su ausencia del centro de trabajo, de otro trabajador de la empresa, siempre que ello fuera posible.

Sin embargo, en el artículo 20.3 del mismo estatuto se contemplan medidas de vigilancia por parte del empresario:

El empresario podrá adoptar las medidas que estime más oportunas de vigilancia y control para verificar el cumplimiento por el trabajador de sus obligaciones y deberes laborales, guardando en su adopción y aplicación la consideración debida a su dignidad humana y teniendo en cuenta la capacidad real de los trabajadores disminuidos, en su caso.

Además, otra cosa es el convenio particular de cada sector o empresa y qué haya firmado ese empleado. Según contempla la LOPD, en caso de que el empresario advierta al trabajador de que se realiza la vigilancia del e-mail y vigilar a partir de entonces, y no antes.

Ante tanta disparidad de alternativas, el que suele sentar cátedra en estos casos suele ser el Tribunal Supremo, que va sentando precedentes con sus sentencias. Sin embargo, ahí tampoco hay una línea clara:




Abril 2010: El TSJM dio la razón a una empresa: “aunque el trabajador tiene derecho al respeto a su intimidad, no puede imponer ese respeto cuando utiliza un medio proporcionado por la empresa en contra de las instrucciones establecidas por ésta para su uso y al margen de los controles previstos para esa utilización y para garantizar la permanencia del servicio.


Por último, el Artículo 12 de la Declaración Universal de los Derechos Humanos, cita:

Nadie será objeto de injerencias arbitrarias en su vida privada, su familia, su domicilio o su correspondencia, ni de ataques a su honra o a su reputación. Toda persona tiene derecho a la protección de la ley contra tales injerencias o ataques.

La primera polémica ley sobre esto comenzó en Europa con la Ley Nokia en Finlandia, y desde entonces ha sido extendido al resto de países. Por ejemplo, el 90% de empresas inglesas tienen definida una política de uso del e-mail durante las horas laborables.

Como se puede ver, hay una gran disparidad y todavía el tema es muy controvertido. Agradezco también a Javier de la Cueva su ayuda en la redacción de este artículo.
Comparte:

10/22/2013

Quantum 2013: de cómo la ciencia ayudó a ganar una guerra

Hoy publico la charla que tuve la oportunidad de impartir en el marco del Passion For Knowledge. Este es un encuentro organizado por el DIPC de Donostia, el cual está dirigido por Pedro Miguel Echenique. En este encuentro, acostumbran a traer a Premios Nobel o científicos de contrastado prestigio para que den charlas a público general y a escolares. En esta edición, por ejemplo, acudieron Juan Ignacio Cirac, Jocelyn Bell, Amand Lucas, Rafael Yuste, entre otros.

Y entre tanto talento, este año nos colamos algunos colaboradores de Naukas, y ahí es donde entra el que escribe estas líneas. Concretamente, quise hablar de ergonomía, la cual es una disciplina científica no muy conocida, muy reducida a lo simple por el público general, y cómo es una parte imprescindible de que cualquier adelanto tecnológico tenga éxito y penetre en la sociedad. Es decir, una ciencia nueva o una tecnología no va a tener éxito por sí misma, sino también por cómo se adapte su uso al ser humano. Un ejemplo es el iPhone, donde su mayor valor añadido (sobre todo en su lanzamiento) fueron los gestos de los dedos, que ahora todas las marcas imitan como el pinch-to-zoom, or pinch-to-close. Es tecnología, sí, pero sobre todo es un éxito de la ergonomía: define la manera en la que se usa la tecnología del teléfono (pasar de menú, ver las fotos, apagarlo, etc).

Esto también ocurrió durante la IIGM, y eso es lo que intento defender en la charla que os dejo a continuación (pulsar sobre la foto):


o si lo preferís, aquí en YouTube.

Y a continuación os dejo la presentación en Slideshare:






Estos temas me traen a la memoria mis primeros pasos en el mundo laboral, en el que me tocaba averiguar cómo evitar algunos tipos de accidentes o cómo hacer un coche más seguro solo con paneles de instrumentación. En general siempre me he sentido intrigado de cómo procesa la información el cerebro, o por qué los límites de unos son distintos que los límites de otros.

Me llevó varios meses de investigación preparar la charla, en la que tuve el placer de entrar en contacto con gente que estuvo en los comienzos de la ergonomía, y leí y consulté estos libros para transmitir las ideas con rigor:



y un montón de papers científicos.

Además, me enviaron una joya de documento: está citado en la charla, y es el informe de 460 accidentes que realizó Paul Fitts para el gobierno de EEUU, titulado Analysis of Factors Contributing to 460 "Pilot Error" Experiences in Operating Aircraft Controls. Lo podéis descargar de aquí

Por último, en esta ocasión sí que tuve la oportunidad de conocer a espectadores que se acercaron a comentar la charla. Concretamente, fueron @TxoniMatxain y @xabierjota. La interacción con el público es algo que yo valoro mucho, tal y como cuento aquí. Me agradó mucho la pequeña charla que tuvimos, y Xabier me puso sobre la pista del tanque T-34, el cual es el considerado mejor tanque de la Unión Soviética durante la IIGM. ¿Pero a qué cuento viene con mi charla? He conocido que es imprescindible no hablar de los puntos fuertes de este tanque (blindaje, potencia de fuego y movilidad), sin hablar de los puntos débiles: ergonomía, facilidad de manejo y habitáculo para los soldados. Tal y como dice aquí, los tanques alemanes eran menos potentes, pero capaces de disparar dos veces antes de que lo hiciera el T-34. Esto fue clave en la mayor batalla de tanques de la historia: la batalla de Kursk, contada excepcionalmente aquí. De hecho, los rusos tenían un curioso sistema para elegir operarios para este tanque, y es que cualquier persona pequeña era automáticamente asignados (fuente).

El tanque T-34, las ametralladoras de los primeros aviones, los sistemas de comunicación entre piloto y copiloto, o el curioso sistema de desvío de balas de Roland Garros forman parte de la historia de la ergonomía, y seguro que dará lugar a más entradas en este blog.

Y a quien crea que esto de la ergonomía es una tontería, le recomiendo que eche un vistazo a esta noticia sobre el grave accidente de Spaniar hace unos pocos años.



ACTUALIZACIÓN (14 nov)
En el libro Breve Historia de la Incompetencia Militar, he leído un párrafo bastante significativo de lo que quise transmitir en la charla:

Ploesti encontró su perdición principalmente a causa de las bombas lanzadas por el bombardero B-24, el Liberator, el más fabricado durante toda la guerra. En 1939 el ejército estadounidense comprendió que un bombardeo a larga distancia desempeñaría un papel clave en cualquier guerra futura y buscó actualizar la fuerza de su bombardero B-17. El Liberator era una máquina con imperfecciones, puesto que le era difícil volar cargado de combustible y los sistemas hidráulicos a menudo se estropeaban. Olía a combustible de avión, hacía un frío glacial en él, no estaba presurizado, aunque volase a altitud media, y no poseía la mínima comodidad, hasta el punto de que su tripulación tenía que orinar en un tubo. Sin embargo, transportaba montones de bombas, volaba largas distancias y destruyó gran parte de Europa. En tiempos de guerra, esto se considera un éxito atronador.

Comparte:

4/10/2013

En Naukas: Microchips, las entrañas de la tecnología

Aquí tenéis mi última colaboración con Naukas. Como siempre, muchas gracias por los comentarios y por las opiniones en distintas redes sociales.




Cada vez es mayor la presencia de smarthphones, tablets y otra cacharrería en nuestra sociedad. ¿Ya somos conscientes de la tecnología que llevamos en las manos, o sólo queremos que el móvil tenga WhatsApp? Los smartphones están siendo la última masificación de chips en la sociedad. Elementos ocultos en las tripas de artículos eléctricos que tenemos a nuestro alrededor.




A los microchips también se les denomina circuitos integrados y hace unos meses Intel publicó un material muy interesante sobre cómo se fabrican estos elementos. Resumiré a continuación los pasos para crear uno.

El material básico para fabricar los chips es sílice. La mayor parte de arena contiene este material. Sin embargo, la experiencia de fabricación de esta tecnología ha demostrado que se necesita una arena de una calidad excelente: la cuarcita, que puede contener más de un 99% de sílice. Y encontrarla no es tan trivial. De hecho, la alta calidad y pureza de la arena es uno de los secretos de Silicon Valley y su éxito. La cuarcita es una arena depurada por la propia naturaleza y tiene la característica de no tener casi impurezas, ser un material más puro, etc. Ese es el mejor material como base para los chips.

Lo primero que hay que hacer con esta materia prima es derretirla para posteriormente extraer cilindros de sílice. Los cuales, tras un proceso de acabado superficial, pasan a cortarse en rebanadas muy finas. Estas láminas se habrán de seguir tratando, eliminando impurezas y puliéndolas. Tras esto, tendremos una oblea de sílice, cuyo proceso se puede ver en el siguiente vídeo:



Ese disco puede tener hasta 300mm de diámetro. Cuanto más grande, más chips se pueden fabricar a partir de ahí, lo cual abarata su coste. Después del corte, hay que seguir aplicando distintos tratamientos superficiales a la oblea hasta quedar calidad espejo, es decir, perfectamente lisa y sin impurezas.




Esta oblea es la base para la fabricación de los circuitos integrados o chips. Es decir, se trata de un producto complejo realizado a partir de materiales semiconductores, como el sílice, y tratado posteriormente con una serie de procesos químicos y de fotolitografía. Estos procesos son altamente complejos, y dependen en cierta medida del fabricante. En nuestro caso, expondremos los que usa Intel.

El proceso comienza con la deposición de un líquido fotorresistente. Esta sustancia tiene la particularidad de reaccionar a determinadas longitudes de onda, y es resistente a ciertas sustancias químicas. Estas características se usarán para eliminar material en el siguiente paso:

Tras dejar que se cure la sustancia fotorresistente, se le aplica luz ultravioleta. Sin embargo, gracias a una plantilla o máscara, la luz no afecta a toda la oblea, sino que solo las zonas iluminadas por la luz reaccionarán y derretirán el líquido fotorresistente. A esta técnica se le llama fotolitografía. A continuación, estos restos líquidos se eliminarán con un proceso químico.


Posteriormente, se bombardea la oblea con haces de iones cargados negativa o positivamente, los cuales reaccionan con el sílice no cubierto con la sustancia fotorresistente. Ahora ese sílice está dopado, es decir, sus características eléctricas han variado debido a los iones, y el sílice ha ganado en aislamiento o en conductividad, según el signo de los haces de iones. Después de esa incrustación de iones, ha de retirarse todo el material fotorresistente que quedaba.



Ésta es la base para la formación de transistores dentro del circuito integrado. Concretamente, en la siguiente imagen se muestra un zoom de la oblea, ya con los iones. En una única oblea pueden fabricarse hoy en día millones de transistores en zonas como ésta. Los siguientes pasos están enfocados en la construcción de uno de estos transistores. Nos centraremos en la pequeña zona de la oblea exclusivamente a partir de ahora.


Concretamente, el transistor que se va a construir es un modelo comercial de Intel, denominado Tri-Gate 3D, sobre el cual tenéis mucha información y vídeos muy ilustrativos aquí. Por ejemplo, en el primero explica a partir del 2:10 la diferencia entre transistores 2D y 3D.

Al final lo que conseguiremos es una estructura así:

Los códigos de colores no se corresponden entre las dos últimas fotos, pero para entendernos, básicamente lo que queda por hacer son las 3 patas del transistor (source, gate y drain). La base (gate) es quien controla el flujo de corriente entre drain y source, las cuales siempre componen las patas de un transistor de estas características. Los distintos pasos (compuestos básicamente por procesos fotolitográficos) para comprender cómo se puede construir un transistor así a partir de la oblea, se pueden seguir en este enlace.

Al final la oblea dispondrá de millones de transistores uno al lado del otro perfectamente ordenados, los cuales se ven al microscopio así:




Lógicamente, la oblea hay que cortarla. Un microprocesador o un circuito integrado no tienen exclusivamente un transistor, sino que le acompañan condensadores, conductores, resistencias, otros tipos de transistores y distintos elementos electrónicos que nos podamos imaginar. En el siguiente vídeo podemos ver el proceso completo de fabricación de este chip.






Al hilo del proceso que se ha explicado en el presente artículo, a continuación os dejo con algunas imágenes de qué nos podemos encontrar si abrimos algunos circuitos integrados y les tratamos un poco químicamente (podéis ver más imágenes y ver el proceso aquí).





Comparte:

3/15/2013

En Naukas: el acero y su competencia

Os dejo mi última colaboración en Naukas. Ésta vez hubo algún pequeño fallo que corrijo en esta versión respecto a la original, y también se corregirá en Naukas.






En los últimos años, yo por lo menos me he acostumbrado a escuchar la expresión “x veces más rápido que la velocidad de la luz” (películas de ciencia ficción), o “x veces la potencia de la bomba de Hiroshima” o “x veces más duro/fuerte que el acero”. En este artículo me voy a centrar en explicar bien qué significa ser más duro que el acero.

Cuando leemos un titular así, lo que todos pensamos es en el esfuerzo de tracción. Es decir, si estiro de ambos extremos, un nuevo material aguanta x veces más que lo que aguanta el acero antes de romperse. Eso es seguramente lo que piensa la mayoría. A esa característica del material se le denomina resistencia, y no dureza, y se mide en fuerza por unidad de área (tensión). Es decir, MPa, kg/cm2 u otra unidad que cumpla esa relación.

Cómo de duro es un material se refiere a la oposición que ofrece a ser rayado, perforado o abrasado. Hablamos de la capa superficial del material.





En un ensayo de resistencia, los materiales primero tienen una zona elástica. Es decir, si dejamos de hacer fuerza, el material vuelve a su estado original. Aquí hay que mencionar el módulo de Young, el cual es la relación (en esa zona elástica) entre la tensión y la deformación en la dirección en que se aplica la fuerza. Es decir, hasta una tensión límite, esa relación permanece constante. Esto ocurre hasta el límite elástico, el cual marca la tensión máxima que admite ese material sin entrar en la zona de deformación plástica. A partir de ahí, el acero o lo que sea, no vuelve a su estado original.



Sin embargo, para algunas aplicaciones interesa tener el módulo específico alto, y esto no es más que el módulo de Young dividido entre la densidad del material. Queremos tener una alta resistencia con el mínimo peso. Esto se consigue sobre todo reduciendo la densidad del material, que es una de las bazas fuertes de los materiales compuestos, o composites como se les llama frecuentemente. La siguiente gráfica muestra cómo ha evolucionado el módulo específico en la historia de la tecnología de materiales. Como vemos, los composites han supuesto un cambio exponencial. En el eje de las ordenadas está la fuerza específica, la cual es tensión entre densidad.



De hecho, la siguiente tabla es muy clara respecto a la diferencia entre módulo de Young y módulo específico.




En un sentido amplio, los materiales compuestos o composites son los constituidos por dos o más materiales. Generalmente, las propiedades mecánicas del conjunto son mejores que las propiedades mecánicas específicas de cada uno de los materiales constituyentes. Una de los compuestos suele ser discontinuo, más rígido y resistente y se le denomina refuerzo. El compuesto más débil y flexible se denomina matriz, y puede ser de epoxy. Propongo al lector que compare su módulo de Young y el módulo específico al acero. Nadie dijo que todos los materiales compuestos fueran mejores que el acero. Lo que el lector tiene que extraer de este artículo es que cuando se anuncia que un nuevo material es x veces más resistente que el acero, está referido al módulo específico. No obstante, en este caso concreto nos estamos refiriendo al esfuerzo a tracción. Los composites no se comportan por lo general bien a torsión o a cortadura.
—————————

Fuente de las gráficas: Autar K. Kaw (2006). Mechanics of Composite Materials (2nd Edition). Taylor & Francis

Comparte:

Sígueme en redes:

descripción descripción descripción

En mi mesilla

Blog Archive