Intuitivamente, cualquiera podra imaginar que al estirar de dos extremos un material cualquiera, éste se estrecha. Técnicamente dicho, se reduce la dimensión transversal a la dirección de la fuerza. El análisis de este comportamiento se denomina ensayo de tracción y es una prueba básica en el conocimiento de los materiales, como por ejemplo, con qué tensión empieza a deformar el material, y con qué tensión entra en plasticidad. Otro ensayo muy simple, es el test Charpy.
Así se realiza habitualmente un ensayo de estas características, donde las muestras de material que se emplean suelen estar normalizadas en unas dimensiones (no se puede medir un mazacote de una pieza, para que se me entienda).
La curva resultante típica es esta:
Se puede aplicar la tensión correspondiente hasta el punto B sin que el material tenga cambios permanentes en su forma. Es decir, se estira, pero las conexiones no se han roto todavía mucho, por lo que el material vuelve a su ser. Sin embargo, del punto C al punto E, el material entra en deformación plástica. Es decir, se aplica fuerza, pero al dejar de aplicarla, ya no vuelve a su estado original, sino que se queda deformado.
Está explicado de manera muy muy simplista, pero tiene mucha más ciencia por detrás.
Sin embargo, los materiales auxéticosno cumplen esta propiedad, tal y como os demuestra el siguiente vídeo:
Este post participa en la X Edición del Carnaval de Biología, que este mes está alojado por Scientia, un blog ya estáis tardando en visitar si no lo hacéis habitualmente.
Siempre me ha gustado este anuncio en el que un joven Sebastien Loeb protagoniza una serie de paralelismos entre su cuerpo y las partes de un vehículo.
Yo en este post quiero añadir uno que me propuso @EDocet, y voy a defender que el catalizador de un coche convencional es equivalente a las enzimas de los seres vivos.
El catalizador, junto a la gasolina sin plomo, es una de las principales modificaciones introducidas en el funcionamiento de los nuevos automóviles, destinadas a reducir el impacto ambiental de las emisiones contaminantes nocivas de los vehículos. Hoy en día es obligatorio, y en principio desaparecerán con los vehículos 100% eléctricos. Para quien no esté familiarizado, está situado donde indica la siguiente imagen:
A pesar de que el párrafo anterior haya mencionado la gasolina, el catalizador se aplica tanto a motor diesel como a gasolina. Aunque en diésel se usa también un filtro de partículas. Yo hoy por hoy, me profeso fan del combustible citado en primer lugar, por aportar un comentario friki.
Hasta ahora, no habrá problema para entender que este elemento no es imprescindible para que el coche funcione, pero su incorporación viene fijada por la ley de materia ambiental. De hecho, los Formula1 no usan catalizadores.
Vamos a atender a la función del catalizador: produce modificaciones químicas en los gases de escape antes de liberarlos a la atmósfera.
Y vamos a ver ahora la de las enzimas: las enzimas son proteínas complejas que producen un cambio químico específico en todas las partes del cuerpo. Por ejemplo, pueden ayudar a descomponer los alimentos que consumimos para que el cuerpo las pueda usar. La coagulación de la sangre es otro ejemplo del trabajo de las enzimas.
E incluso aquí: una enzima es una proteína que actúa como catalizador de una reacción química acelerándola.
¿Se ve el paralelismo? Existen distintos tipos de enzimas, como las digestivas, que ayudan a descomponer los alimentos y ser absorbidos en el torrente sanguíneo. Es decir, transforman unas sustancias en otras (aquí tenéis un vídeo explicativo), y eso es exxactamente lo que consiguen los catalizadores.
Realmente, en mi opinión el nombre catalizador no es el adecuado, sino que el idóneo es CONVERTIDOR CATALÍTICO. Pero eso ha ido deformándose, y ahora todo el mundo sabe, por contexto, a qué elemento nos referimos. Técnicamente, los catalizadores que tenemos en el coche son de oxidación.
Al catalizador llegan los gases procedentes de la combustión del motor, y estos son contaminantes y nocivos para la salud humana, como:
- Monóxido de carbono (responsable de la muerte dulce en algunos hogares).
- Hidrocarburos: fracciones de combustible que no han ardido. Son peligrosos porque, bajo la acción de los rayos solares y la presencia de óxidos de nitrógeno, reaccionan para producir ozono. A pesar de que la capa de ozono sea buena, no lo es a ras de suelo, ya que eso provoca irritaciones en los jos.
- NOx: Responsables de la lluvia ácida, y de irritaciones en ojos y mucosas.
El catalizador está compuesto por celdas reticulares muy pequeñas que son atravesadas por los gases nocivos. Concretamente, hay dos bloques distintos donde se produce la conversión: en el primero intervienen el paladio y el rodio, y en el segundo, el paladio y el platino. Mejor que yo lo va a explicar el siguiente vídeo, ALTAMENTE RECOMENDABLE. Lo dice alguien que pasa muchas horas buscando algo tan bien acompañado de subtítulos, gráficos, rigor y amenidad.
Pero para los que opten por no verlo, he aquí el proceso químico que ocurre dentro del catalizador. En él, por un lado se ve que entran los compuestos previamente descritos (CO, hidrocarburos y NOx) y salen dióxido de carbono, vapor de agua y nitrógeno. Todos ellos inofensivos para la salud humana.
Todo esto que hemos contado aquí tiene relación con la normativa que obliga a limitar las emisiones contaminantes de los vehículos. Ahora mismo, la vigente es la EuroV en la que, pese a la creencia popular, no se regulan sólo las emisiones de CO2, sino la de todos los contaminantes. En cuanto a CO2, pide 120gr/km. Tenéis más información sobre todo esto, que proviene de la UE, aquí y aquí.
Para terminar, sólo me resta decir que no me destaco por mis conocimientos en biología, ¡pero espero haberos convencido del paralelismo respecto a los catalizadores y las similitudes entre hombre-máquina!
Kaiku es una empresa láctea del País Vasco y ha realizado spots realmente curiosos y de idea feliz. Aunque, ¡qué caramba! ¡Para eso les pagan a los creativos! Pero recordad que para que tenga cabida en este blog, tiene que estar relacionado con la tecnología. Y esta empresa a pesar de estar encajada en el sector de la alimentación, lo ha conseguido. Así que ahí va:
Otro spot que me gustó de la misma empresa fue éste, pero no está relacionado con la temática del blog ;-D
Este mail es la respuesta al post participativo que propuse hace unos días. No sé si la aparición de la respuesta correcta de Bercebus echó para atrás a otros usuarios. El caso es que sí, el helicóptero parece que vuela sin rotor principal ya que la frecuencia de giro del rotor y la frecuencia de grabación de la cámara de vídeo son exactamente la misma. Con lo cual, la cámara siempre "captura imágenes" cuando la hélice está en la misma posición.
Aparte de la aclaración del truco óptico, cabe que los lectores se fijen en que cuando el helicóptero se eleva, a partir del segundo 25, se sigue sin ver movimiento, de lo que se deduce que un giro más rápido de la hélice no necesariamente hace elevarse al helicóptero. Este hecho es contrario a la intuición.
Se trata del archiconocido efecto estroboscópico. Técnicamiente el efecto estroboscópico es un efecto óptico que se produce al iluminar mediante destellos, un objeto que se mueve de forma rápida y periódica. Así, cuando la frecuencia de los destellos se aproxima a la frecuencia de paso del objeto ante el observador, éste lo vera moverse lentamente, hacia adelante o hacia atrás según la frecuencia de los destellos sea, respectivamente, inferior o superior a la del objeto. (fuente)
Es ilustrativo ver la influencia de la luz en este efecto mediante vídeo.
Otro ejemplo de aviación y el efecto estroboscópico es el siguiente vídeo, recomendado por mi compañero Dimas:
Según cuenta, el autor de esta grabación fue entrevistado por una tv japonesa dado el éxito que produjo este vídeo.
Esto no es sólo un recurso atractivo en el cine, sino que según el compañero que os he citado antes, en las fábricas la instalación luminaria ha de ir también desfasada para que no parezca, por ejemplo, que las sierras giratorias están paradas (pongamos que no hacen mucho ruido).
Para terminar el post, tengo que decir que no soy experto en fotografía ni grabación, aunque ya he hecho incursiones en el blog en este ámbito.
Hace unos días, @emulenews me envió este tweet, y no veáis la ilusión que me hizo que este gran divulgador y mejor persona se acordara de mí:
Y creo que en este post de trucos fotográficos y de grabación, creo que encaja que ni pintada la charla que me proponía!
Estamos que no paramos de innovar en el blog. Tras el cambio de plantilla, ligero refinamiento de la temática y de la forma, y diversos añadidos de redes sociales, hoy os propongo que veáis el siguiente vídeo, y si os animáis, respondáis cómo ocurre lo que se ve en él.
Como dicen muchos profesores, y yo también soy de esa fiilosofía, podéis consultar toda la bibliografía que queráis, incluso esta entrada que se publicó recientemente. Ánimo.
La siguiente publicación traerá la respuesta, y alguna cosa más.
Tal día como hoy hace un año decidí inaugurar Idea Secundaria. Originalmente no se llamaba así, sino que el primer nombre fue Asunto Tecnología, y antes de un mes pasó a llamarse Investigadora Mente. Creo que tras el primer mes fue bautizada con el nombre con el que se ha quedado y lo conocéis.
Fue un ramalazo, no pensé mucho a la hora de crearla, fue una de esas decisiones de chispazos. Hacia el año 2000 ya estrené un blog de humor en el desaparecido Geocities, por lo que la experiencia no era nueva. Y antes que este espacio, comencé a colaborar con el diario Noticias de Gipuzkoa en el que hablo de Formula1. Una de las mayores motivaciones de creación del blog fue que en ese momento yo era docente y mi actividad investigadora se había visto truncada. El blog para mí fue una reivindicación a toda esa época. Lo cierto es que me ha cambiado la vida. Nació con motivaciones, no con objetivos, y no es malo ya que ahora nmismo siento que no hay nada marco y se puede llegar tanto como se quiera.
No lo dudéis, tal y como comentaba en uno de mis últimos posts, lo mejor que se logra entrando en la blogosfera es entrar en contacto con gente con las mismas inquietudes que tú. Nadie los reúne, sino que Dios los cría y ellos se juntan. He conocido a gente brillante tanto humana como profesionalmente. A ello ha contribuido enormemente el blog Amazings, aunque también he tenido oportunidad de conocer otras "comunidades".
Contrariamente a lo que se piensa, esta actividad no te aísla en una burbuja. En mi caso ha sido lo contrario. Paralelamente, es un continuo vehículo de aprendizaje, ya que con las características de este blog, de divulgación científicio-técnica, es renovar o morir. La excusa para aprender no sería la misma sin él, en mi caso. Aunque además del contenido propiamente dicho, se adquieren otras habilidades, como a pelearse con HTML, hacer marketing o a cuidar un poco el estilo de la literatura.
No gano un céntimo con este blog. No presumo de ello, pero tampoco me importa. Los post que veréis en esta web han pasado mi exhaustivo y exigente test de ser apto para contarse en cenas familiares o de amigos. Si no eres capaz de contarlo de manera entretenida y atractiva para un público no especializado, mejor no lo publiques. No gustará a los lectores.
El blog persigue la divulgación sobre todo de disciplinas tecnológicas, basta con ver las etiquetas que hay. Persigo siempre el acompañar cada post de un vídeo entretenido, me encanta la música y si a mí el vídeo me anima a leer otrso textos, espero que a mis lectores les ocurra lo mismo. Aunque hay que rascar donde no pica, y me encanta también leer sobre historia, filosofía u otra disciplina.
Si no hubiera abierto el blog:
- Seguramente no tendría twitter.
- No habría conocido a un centenar de personas nuevas aproximadamente.
- Sabría menos y me explicaría seguramente peor.
- Tendría más tiempo libre que me costaría rellenar lo mismo que ahora, pero en otro tipo de actividades.
- No me habría encargado unas tarjetas de visita.
- No habría disfrutado con una actividad a lo largo de todo un año.
El blog ha recibido un total de 16.019 visitas y se han visionado más de 25.000 páginas.
Mis fuentes de inspriación son variopintas. Muchas son ideas que ya conocía, otras son totalmente inexploradas, pero que imagino que pueden dar para un buen post, y muchas pueden surgir en momentos tan triviales como una comida familiar, o entre los compañeros o mientras veo la televisión.
Es emocionante tener esta retrospectiva, pero como se dice habitualmente, que el ritmo no pare, ya que lo mejor está siempre por llegar.
No. El caso es que el sistema parece tan fácil... basta con tener dos tablas planas dando vueltas muy deprisa sobre tu cabeza, ¿no? Bueno, hay que empezar diciendo que al igual que los perfiles de ala de los aviones, en el caso de los helicópteros los perfiles tampoco son planos, y además del diámetro de las hélices hay que tener en cuenta el paso, es decir, cómo de curvadas están. La pequeña hélice de la cola sirve para girar el helicóptero o evitar que el helicóptero se ponga a girar sólo por efecto de la hélice principal.
Pero bueno, esto creo que lo dejaremos para otro día. Hoy se verá que, cuando un helicóptero cuenta con más de una hélice principal, hay varios tipos y cada uno tiene unas ventajas concretas. Concretamente están los:
ROTORES COAXIALES Se trata de las hélices alineadas en un mismo eje o mástil, que giran en direcciones opuestas.
La primera patente data de 1859 y se le concedió a Henry Bright. Hoy, gracias al uso que están teniendo en los UAVs ha resurgido su interés, a pesar de ser un modelo tan antiguo.
Tradicionalmente, han sido los rusos los que han liderado esta tipo de rotores, sobre todo gracias al Kamov Ka-50, como el que aparece en la imagen inferior (aquí un vídeo homenaje donde se ve que este helicóptero puede ponerse boca abajo). Esto demostró que esta configuración de hélices es aplicable a ámbito militar.
Los americanos no consiguieron el primer modelo funcional de este tipo hasta 1944 (empresa Hiller, modelo XH-44)!
Una de las claves de esta configuración es la gran potencia de subida gracias a los dos pares de palas, y además, en igualdad de condiciones, las hélices soportan las menores cargas, tal y como se puede ver en el siguiente gráfico. En él, se comparan la potencia/kgf vs la velocidad de vuelo:
Como se puede ver, es un diseño a caballo entre un avión y un helicóptero. No es de extrañar que estos helicópteros surgieran al principio del mundo de la aviación, como lo demuestran el FW-61 y el Fa 223 (1941). La finalidad de las aspas ahí tiene un sentido lógico, propio de aquella época incipiente: controlar el ángulo de giro longitudinal del aparato (el roll). Es decir, si la hélice izquierda tiene más fuerza que la derecha, el helicóptero se inclinará hacia la derecha. También se ha aplicado esta configuración al helicóptero más grande jamás construido: el ruso Mi-12.
Dado su "fuselaje", estos helicópteros están pensados pero una buena sustentación a altas velocidades. No nos podemos esperar que esto, técnicamente llamado Bell-Boeing V-22 Osprey, vaya despacio! Recordemos que un ingenio de la NASA para despegue vertical usaba esta misma idea.
ROTORES EN TÁNDEM
Éste el típico helicóptero que veréis en las películas bélicas, y tristemente también en algunos telediarios de actualidad. Uno de las máximas expresiones de esta configuración es el Chinook CH-47 de 1961, ampliamente usado en la Guerra de Vietnam. El primer modelo con esta configuración data de 1941, a cargo de Frank Piasecki.
La misión principal de este helicóptero fue el transporte de tropas. Es decir, es un helicóptero para cargas. Sus hélices giran en sentido contrario y esto es crucial, ya que no tiene hélice de cola para girar. La hélice de adelante, tradicionalmente en todos los rotores en tándem, gira en sentido antihorario, y la trasera, en horario. Este sistema tiene la ventaja de que toda la potencia del motor se emplea en impulsar la aeronave, evitando la pérdida del 5-15% de potencia que supone el rotor antipar. Y una última curiosidad: esos “michelines” que tiene a los lados le sirven para alojar el combustible y unas cámaras de flotabilidad: el Chinook es capaz de posarse en el agua para descargar sus tropas (fuente).
Para girar un rotor se inclina hacia un lado mientras el otro rotor lo hace hacia el lado contrario, de este modo se consigue un giro sobre si mismo. Si se pretende ir hacia delante a acelerar, el rotor trasero aumenta su velocidad, el helicóptero se inclina hacia delante y finalmente el aparato avanza. Para decelerar o incluso moverse hacia atrás, el rotor delantero es el que acelera y ocurre el proceso contrario (fuente).
ROTORES ENTRELAZADOS o ENTRECRUZADOS
Tienen dos rotores girando en sentidos opuestos y en dos mástiles distintos, con un leve ángulo de inclinación entre los dos, de manera que las palas al girar se cruzan entre sí sin colisionar. Esta disposición permite que el helicóptero vuele sin necesidad de tener un rotor en la cola. Fue desarrollada en la II GM por Alemania (Anton Flettner), y fruto de ello surgieron el Flettner Fl 265 y el Flettner Fl 282 Kolibri, ambos destinados a la guerra submarina. Tienen una gran estabilidad y una potente capacidad elevadora. Se usa como grúa y transporte de cargas.
Aunque la gran capacidad elevadora no es nueva respecto a otros helicópteros que hemos descrito. Lo que pasa es que con este modelo sí que conseguimos un aparato de pequeñas dimensiones. Un ejemplo es el Kaman K-MAX, al que se le llama el camión del cielo.
Radicales Libres no es una novela ni un relato. Se trata de un ensayo en el que el autor, Michael Brooks, defiende una especie de anti-romanticismo por la ciencia. Es decir, es un libro no apto para esas personas que piensan que los científicos son personas por encima del Bien y del Mal, cuyos días son hazañas épicas de superación y resultados son la culminación que merece todo héroe de película. No.
El libro en mi caso ha gustado de menos a más. Hay cosas con las que coincido y otras que no. Michael Brooks divide su obra en capítulos en los que en cada uno tiene a un puñado de distintos científicos como protagonistas. Al principio de la obra me dio la impresión de que el autor pretendía transmitir que los investigadores son arrogantes, prepotentes e incaapaces de encajar críticas, y que muchos han conseguido su prestigio gracias a esa actitud. La manipulación de datos en los experimentos, críticas y rencillas entre científicos, el coger el camino más corto en el método científico o saltarse permisos institucionales y dejarse guiar por la intuición en la hora de plantear el trabajo de la Ciencia están a la orden del día. Ello conlleva a que el autor plantee premios Nobel inmerecidamente otorgados, o evidencia quién se ha quedado sin el galardón injustamente.
Eso sí, el libro está maravillosamente documentado y cada capitulo es una cadena de datos y documentación perfectamente conectado y coherente. Me ha servido para conocer y repasar muchas historias, como la de Stanford Ovshinksy y los inventores del transistor. En ese sentido de documentación, le recomiendo el libro a todo el mundo.
Pero volviendo a la crítica, creo que al final hay que quedarse con la idea de que la actividad científica es otra tarea como otra cualquiera, donde existen las rivalidades, las tretas de los protagonistas para dconseguir una financiación, una llamada de atención o conseguir hacer aparentar al oponente que está equivocado. Es una especie de política. En ese sentido, no hay que pensar que los científicos son gente que escapen a la condición humana de la ambición o la necesidad del reconocimiento. Pero vamos, a los que ya nos hemos dedicado a ello no nos pilla de sorpresa. El libro es una recopilación de algunas de esas tretas llevadas a cabo por grandes figuras históricas, aunque en campos como política, deporte o filosofía ocurre otro tanto de lo mismo.
Como ejemplo, yo propuse una vez a un doctor investigador la posibilidad de realizar una base da datos internacional en la que los disitntos centros compartieran conocimiento. Eso sería mejor, ya que unas investigaciones no pisarían a otras y se alcanzarína resultados de una manera más rápida. Él me respondió que eso no es viable: la Ciencia que crea cada centro es su producto, su negocio, y Renault no dice a Ford como fabrica sus coches, por ejemplo. Con la Ciencia, lo mismo.
Reconocer los errores es de sabios, y ya, si los corriges, de super genio. Esta mañana, para dar alguna noticia distinta a la ola de frío siberiana que sacude la Península, escribí este post sobre Física de partículas. No es mi área de conocimiento, pero me gusta atreverme con otros campos (rascar donde no pica). A los 5 minutos de publicarlo, el gran @emulenews me dijo que me había colado. Él sí que es experto en este área. Esto hecho es una de las grandezas del blog: haber conseguido tener el feedback de gente que sabe más que tú, y no estar tú solo en tu islita escribiendo para ti mismo.
Dejo el artículo original, y debajo, en esta letra, lo que me dijo @emulenews.
La Teoría del Todo es una idea del campo de la Física de partículas que pretende conseguir un modelo genérico de cómo funciona nuestro universo, cómo se compone la materia y cómo se comporta la energía... a partir de particulas elementales como quarks, electrones, neutrinos y otras muchas. Es un hipótetico modelo que se quiere conseguir, y está en plena actualidad gracias a los prometedores experimentos que lleva a cabo el CERN. No soy ducho en física, pero hoy os invito esta charla en TED de Garrett Lisi: no lo conocía, pero este hombre es un físico teórico (como lo es Sheldon Cooper) un poco alternativo. No responde al prototipo de científico continuamente pensando en sus cosas, enfrascado en sus cuadernos y sus pensamientos. Garrett es un científico cool, gran amante del surf, de los deportes, de una vida ermitaña y nómada y de la buena vida en general.
Es famoso por estos rasgos de su personalidad no tan típicos, y por haber propuesto una Teoría del Todo Super Simple. La explica en el vídeo. No se ha demostrado que ninguna de estas teorías sea la correcta, pero dudo que alguien que no haya destacado en su campo le inviten a TED. Esta charla me ha supuesto a mí un buen repaso básico sobre Física de Partículas. ¡Que os guste!
Se puede leer la explicación de @emulenews de por qué esto no funcionaaquí. Y parece que he metido la pata hasta el fondo, ya que hasta hay un artículo de divulgación con bastante sorna a cuenta de Garrett Lisi.
Me tengo que plantear temática del blog, ahora que pronto cumplirá un año, va a haber que hacer reflexión interna.
Este post participa en la VII edición del Carnaval de Tecnología, alojado este mes por el blog (muy bueno, por cierto) Zemiorka.
El cifrado, común y en ocasiones incorrectamente llamado, encriptación, es una de esas cosas que nunca te percatas que está hasta que falla. Es uno de esos eslabones de la cadena que evita que alguien tenga dificultades en robar tus datos cuando accedes a tu cuenta bancaria desde el ordenador, por ejemplo. Sus aplicaciones son múltiples, aunque sobre todo se utiliza en la transmisión de información, ya sea de mensajes, o de señales que llevan tales extractos de información. Sobre todo se usa en términos informáticos hoy en día, y es de esto de lo que hablaremos.
Concretamente, quería hablar del cifrado de Feistel, también llamado estructura o red de Feistel. Vamos a entender por cifrado la conversión de unos bits en otros distintos, y en la inmensa mayoría de aplicaciones informáticas, estos bits usan el código binario o hexadecimal. Pongamos que la información se compone de 4 bits, por ejemplo 0000. El código binario toma el valor 0 ó 1, en consecuencia, nuestro ejemplo tiene 16 combinaciones posibles. Es decir, se podría transformar en 15 maneras. Eso sería el cifrado ideal.
Horst Feistel a finales de los sesenta creó uno de los sistemas de cifrado más famosos que ha llegado hasta nuestros días. Lo creó cuando era trabajador de la compañía IBM, e ideó un cifrado simétrico por rondas, ya que realiza los mismos pasos durante un número de rondas y este algoritmo es reversible. Es decir, el algoritmo de cifrado y descifrado es el mismo. El primer algoritmo en el que Feistel aplicó sus pasos fue en el algoritmo Lucífer.
Los pasos de este cifrado son los siguientes (normalmente aplicado a cadenas de 8 bits) y a 8 rondas:
1- Se divide el bit por la mitad, de manera que tenemos 4 en la izquerda (L) y 4 en la derecha (R)
2- En cada ronda, hay una función F de Feistel y una clave distinta, Ki, de tal manera que en cada ronda se realiza la siguiente operación:
Por cierto, recordamos cómo es la tabla lógica de XOR:
Recordemos que partimos de L0 y R0. Tal y como hemos explicado, el proceso de descifrado y cifrado sería como lo muestra el siguiente gráfico.
La función F realiza los siguientes pasos:
Sin ánimo de entrar mucho en detalle, vemos que desde la izquierda llega un semibloque de 32 bits, que corresponde a la mitad del byte, es decir, a L o R. Y por la derecha, llega la subclave (de 48 bits), lo que llamamos Ki. Debido a esta diferencia de tamaño, lo primero que ocurre es que el semibloque se expande (mediante permutación de expansión) a 48 bits, y a continuación se mezclan en una función XOR. Tras mezclarlo con la subclave, el bloque es dividido en ocho trozos de 6 bits antes de ser procesados por las S-cajas, o cajas de sustitución. En cada S-caja entran seis bits de entrada y salen cuatro, de acuerdo con una trasformación no lineal, especificada por una tabla de búsqueda. Las S-cajas constituyen el núcleo de la seguridad de DES — sin ellas, el cifrado sería lineal, y fácil de romper. Aunque en la actualidad ya ha sido sobradamente estudiado y vencido.
Finalmente las 32 salidas de las S-cajas se reordenan de acuerdo a una permutación fija, y se obtienen 32 bits.
Omitimos la generación de subclaves para no sobrecargar matemáticamente el post, aunque para quien lo desee, lo puede encontrar aquí (pág10). Para quien tenga curiosidad: Ésta es una calculadora que implementa el Lucifer.
A pesar de que algún lector pueda pensar "vaya chorrada, ¿a dónde vamos con esto?", no pensó así la NBS (National Bureau of Standards, el actual NIST) americana, quien pidió a IBM un cifrado nacional estándar para cifrar información a nivel gubernamental. Y ellos le dieron el algoritmo Lucifer, el cual fue desarrollado por Horst entre 1973-74.
Esta creación terminó por denominarse Data Encryption Standard en 1975, y sólo por el nombre se da a entender que es una cosa que usa mucha gente. Está oficialmente descrito aquí. Este tipo de cifrado ha llegado hasta nuestros días, y por ejemplo, es la base del cifrado y seguridad de las redes GSM de telefonía móvil, donde el algoritmo KASUMI o A5/3 tiene la arquitectura de una red de Feistel. Aunque otros algoritmos famosos también tienen su base en Feistel, como los siguientes Blowfish, Camelia, CAST-128, FEAL, HIELO, LOKI97, MARTE, MAGENTA, RC5, TÉ, Twofish, XTEA o GOST_28147-89