Quantcast
Channel: ElDiario.es - Tecnología
Viewing all 326 articles
Browse latest View live

Aventura en el museo: trucos de YouTube para enseñar tecnología a los 'millennials'

$
0
0

De la mano de la tecnología, las exposiciones buscan modernizarse y convertirse en una pequeña aventura que enganche a los más jóvenes. De esta forma, los recorridos museísticos pasarían de ser una sucesión de objetos que se contemplan para convertirse en una forma de responder a preguntas y retos que se les plantean antes y durante la visita a la instalación.

Al menos ese es el objetivo de VISIT, una nueva experiencia educativa que nace con la aspiración de divulgar la ciencia y la tecnología en los colegios españoles. Desarrollada por la empresa española GVAM y financiada por la Fundación Española para la Ciencia y la Tecnología (FECYT), esta aplicación emplea historias y los objetos más curiosos que se encuentran en el Museo Nacional de Ciencia y Tecnología (MUNCYT) en Alcobendas, Madrid, para acercar a los más jóvenes a estos campos.

Allí, los alumnos pueden descubrir los inicios de la fotografía, del cine, de la televisión y de invenciones como los microscopios y los telescopios. Sin embargo, todo empieza mucho antes de que pongan un pie en el museo, implicando a los alumnos con la futura visita. Esto es posible gracias a la plataforma virtual G-School, en la que los profesores pueden seleccionar los contenidos y planificar el recorrido deteniéndose en las piezas más atractivas para los alumnos.

Desde la cámara que viajó a la Luna hasta el curioso estereoscopio y su ilusión de imágenes con profundidad, son los propios estudiantes los que deciden cómo pasarán esas horas en el museo y qué objetos contemplarán de entre todos los que pueblan sus vitrinas. 

“Consideramos interesante partir de los objetos o las piezas que puedan resultar de su interés para, a partir de estos, explicar la lección (y no al contrario)”, explica a HojadeRouter.com Marta García-Muñoz, responsable de contenidos en GVAM. “Esto implica un cambio en la enseñanza, no solo a nivel tecnológico sino también desde el punto de vista de la metodología”. Ofreciendo la posibilidad de planificar el recorrido en función de los gustos de la clase, VISIT aplica conceptos del famoso método de enseñanza finlandés, el 'phenomenon learning': contenidos personalizados en función de lo que deciden los alumnos.

Una 'app' para resolver retos

Junto a la planificación previa, la otra gran protagonista de la experiencia es una ‘app’, VISIT, disponible para Android. La herramienta ofrece a los alumnos la posibilidad de aprender antes, durante y después el recorrido mediante un formato de explicación visual y directo que emplea píldoras de vídeo que revelan desde cómo Louis Daguerre consiguió la primera fotografía hasta cómo Anton van Leeuwenhoek, un tratante de telas de los Países Bajos, mejoró los microscopios simples.  

“Creemos que los materiales divulgativos deben adaptarse al tipo de contenidos que los niños y jóvenes consumen hoy en día”, detalla García-Muñoz. “El medio de referencia es YouTube, por lo que utilizamos vídeos cortos, pistas de audio e imágenes que puedan motivar su curiosidad y animarles a seguir investigando por su cuenta”.

Aunque los alumnos pueden ojear la aplicación en cualquier momento, no es necesario que se la descarguen antes de llegar al museo. El objetivo es que interactúen con ella cuando estén en el propio MUNCYT gracias a las tabletas con la herramienta instalada que se encuentran disponibles. Con ellas, durante el recorrido, distintas preguntas y retos llamarán la atención de los más jóvenes sobre determinados objetos de la exposición y les plantearán cuestiones que solo podrán resolver si están prestando verdadera atención a lo que está expuesto.

El pasado viernes, los alumnos de 4º de la ESO del Colegio Jesús María, en Burgos, se convirtieron en los primeros en probar la herramienta. “Se les daba una tablet a cada uno, se les explicaba el funcionamiento y ellos libremente recorrían las salas del museo”, explica Marta. Según relata, la parte del reto fue la que más les llamó la atención y los alumnos decidieron organizarse por grupos para resolver conjuntamente las cuestiones que les planteaba la 'app'.

“En una de las pruebas se les invita a utilizar los interactivos y a descubrir las diferencias entre mirar un piojo a través de un microscopio óptico o de uno electrónico. Para ello, tienen que descubrirlo en sala y marcar la pregunta correcta en la tableta”. De esta manera, comenta García-Muñoz, se establece un diálogo entre la muestra y la aplicación.

La ‘app’ ofrece además dos recorridos temáticos, "Luz y Máquinas", dirigido a estudiantes de 5º y 6º de Primaria, y "Luz y Lentes", enfocado a los alumnos de Secundaria. Este último "explica leyes de refracción y reflexión, microscopios y telescopios, etcétera, por lo tanto es de un nivel superior”, relata la responsable de contenidos. “El de Primaria se centra en las máquinas, en los aparatos, para revelar cómo el hombre, inspirado por el funcionamiento de nuestros ojos, fue capaz de crear inventos sorprendentes que han evolucionado hasta llegar al cine moderno, por ejemplo”.

La experiencia no acaba cuando la clase se monta en el autobús de vuelta al colegio. Después de la visita, los profesores pueden analizar los resultados de sus alumnos a través de los datos recogidos por la herramienta. “G-School incorpora un módulo de estadísticas que ofrece datos sobre las piezas vistas, la duración de la visita, las respuestas acertadas o falladas, etc.”, concreta García- Muñoz.

Para que la visita tampoco se termine para los alumnos, estos podrán seguir participando en actividades como grabar un 'stop motion' con plastilina o con muñecos de Playmobil en relación a lo que han visto en el museo. "También está el concurso Ignacio Barraquer", añade Marta, "en el que se les anima a que se fabriquen unas gafas que les permitirán experimentar cómo ve alguien con cataratas". Como incentivo, algunas de las creaciones de los alumnos podrán ser incorporadas a la propia ‘app’ y publicadas en el blog de VISIT.

En definitiva, una forma diferente de acercarse al museo para que los más jóvenes no se paseen indiferentes, sino que contemplen los objetos como hitos de la ciencia y la tecnología y como parte de una narración que les resulta interesante y les acerca a unos sectores con futuro a los que quizá se animen a dedicarse.

---------------------------------------------------------------------------

Todas las imágenes de este artículo son propiedad de GVAM


Los robots entrañables (o temibles) que han ganado los Goya del cine futurista

$
0
0

Un periodista, con la cara pixelada, cuenta cómo Anonymus le ha enviado información clasificada sobre un controvertido programa secreto del Gobierno estadounidense. Se trata de la iniciativa Segundo Soldado, destinada a rehabilitar a militares gravemente heridos mediante tecnología de un modo cuando menos cuestionable.

P9-13, un cortometraje que explora el dilema ético de estrechar las fronteras entre humanos y robots, acaba de ganar el primer premio en la categoría Fictional Robots del ROS Film Festival. Organizado por El Caleidoscopio —una ‘spin-off’ de la Universidad Miguel Hernández de Elche— en este festival ‘online’ han participado una cincuentena de cortos de 16 países con las máquinas como protagonistas.

El estadounidense Henry Prince, creador de 'P9-13', asegura a HojaDeRouter.com que la victoria ha sido “un maravilloso reconocimiento”. Experto en ciberseguridad, Prince estudió además en el American Film Institute Conservatory y ya había realizado algunos cortometrajes, así que contaba con un bagaje previo para rodar este falso documental, que comienza con unas imágenes supuestamente eliminadas de YouTube en las que aparece un ser similar a un humano.

“Quería explorar a qué podría parecerse una temprana tecnología de la singularidad”, reflexiona Prince. “Además, quería exponer los fallos de avanzar tan rápido en ese camino: los investigadores que son capaces de lograr cosas increíbles no pueden dejar de preguntarse si deberían hacerlas”.  

¿Qué ocurrirá si la inteligencia artificial va un paso más allá? ¿Quién toma realmente las decisiones si se conecta directamente a nuestro cerebro? Aunque las cuestiones que plantea el cortometraje sean futuristas y ficticias, lo cierto es que DARPA investiga técnicas para implantar chips en el cerebro y el cortometraje incluye grabaciones reales de experimentos dirigidos por Kevin Warwick (experto en cibernética y cíborg desde los años 90) y Jack Gallant (investigador en neurociencia cognitiva). “Quería hacer una película científicamente rigurosa para ingenieros de un ingeniero, que terminó haciéndolo por amor al arte”, señala Prince.

Su ficción se desarrolla además en la “era de la filtración”, el nombre con el que este director califica al periodo que va desde las revelaciones de Snowden a los recientes documentos que desvelan el arsenal de ciberespionaje de la CIA. Él mismo publicó el corto como un vídeo filtrado: los títulos de crédito remitían a la consultora ficticia The Shadow Corp y diseñó incluso la web del falso contratista de DARPA que trabaja en Segundo Soldado. La estrategia funcionó: además de recibir cientos de correos a través de la primera, Prince asegura que le enviaron, “sorprendentemente”, un buen número de candidaturas de empleo a la supuesta compañía dedicada a desarrollar tecnología militar.

Robots que contemplan la naturaleza

Sandra Hermida (productora de ‘Autómata’ y ‘Un monstruo viene a verme’), Javier Ordóñez, (catedrático de Lógica de la Universidad Autónoma de Madrid), Carme Torras, (investigadora en el Instituto de Robótica CSIC-UPC), o la periodista Rosa Montero han formado parte del jurado del ROS Film Festival, que no solo ha premiado cortos de ficción como ‘P9-13’, sino que también ha reconocido la labor de las películas en las que al menos uno de los actores era un robot programable “con capacidad de hablar, expresar emociones o relacionarse con humanos u otros robots”. 

'NESL', un cortometraje estadounidense, se ha alzado como vencedor en la categoría Real Robots. Prescindiendo de diálogos, la obra muestra la bellísima interacción entre distintos agentes no humanos: máquinas y minerales. Dos autómatas, provistos de una suerte de ojo y unas pinzas, interaccionan en la formación de cristales que se está produciendo en el blanco paisaje que habitan.

“En los últimos años, empezamos a estar interesados en la idea de desarrollar nuevas especies robóticas. Muchos robots de hoy en día son desarrollados por propósitos prácticos, económicos o de defensa. Estábamos mucho más interesados en otras formas de abordar los robots”, detalla Nicole Koltick, artista, arquitecta y directora del Design Futures Lab de la Universidad de Drexel, responsable del corto.

¿Qué pasaría si un autómata tuviera una afición? ¿O si se dedicara exclusivamente a tareas bellas o poéticas? Tras plantearse esas filosóficas cuestiones, Koltick decidió situar a los autómatas, desarrollados como parte de su proyecto de investigación Phenomenal Machines (Máquinas Espectaculares), en una “ecología sintética” donde pudieran afectar y ser afectados. “Los robots son reales y muchas de sus acciones son reales. Sin embargo, los robots como actores son difíciles”, bromea Koltick.

Tanto ellos como el paisaje han sido fabricados con técnicas como la impresión 3D, poseen una visión básica gracias a una pequeña cámara (el propio corto muestra cómo reconocen los colores pero no las formas), y están programados para “imitar los procesos y formas biológicas”.

Eso sí, al principio los robots de NESL se comportaban de forma muy “inestable”, lo que dificultó el rodaje. Al fin y al cabo, estos improvisados intérpretes no seguían al pie de la letra un guion. “Subyacente al trabajo hay un debate sobre la inclusión de lo bello, lo poético, lo emocional, lo estético, en ingeniería, tecnología e informática”, destaca la directora de ‘NESL’, entusiasmada por la victoria de su corto en el ROS Film Festival.

Maggie y NAO, protagonistas de los cortos españoles

“Vamos a la cama”. “He vendido la cama”. “¿Por qué?”. “Porque no nos hace falta”. “¿Dónde vamos a dormir?”. “No vamos a dormir”. “¿Y qué vamos a hacer cuando necesitemos descansar?”. “No necesitamos descansar”. “Es un día muy raro”. “Todos los días son raros”. 

Con sus voces sintéticas, dos robots NAO mantienen este diálogo de besugos en ‘Un agujero en la arena’, el cortometraje español que ha conseguido el segundo premio en la categoría Real Robots. “Uno de los robots es como más rebelde, el otro acepta más su programación y eso está muy bien caracterizado”, destaca Martí Sánchez, investigador en inteligencia artificial del grupo SPECS de la Universidad Pompeu Fabra y realizador de esta película que narra, a través de un plano fijo, la ficticia vida de estos dos autómatas.

Sánchez había organizado hace un tiempo Teatronika, una iniciativa celebrada en el Centro de Cultura Contemporánea de Barcelona (CCCB) que puso a prueba las capacidades actorales de los robots sobre un escenario. Sánchez decidió convertir una de las obras ganadoras de aquel concurso en un corto para el ROS Film Festival, aprovechando que “las frases cortas” de este guion que “roza lo surrealista, lo absurdo”  funcionaban bien.

No en vano, tenían que programar a los NAO para que caminaran, bailaran, gesticularan y hablaran sin aburrir al espectador con sus lentos movimientos y sus limitadas dotes interpretativas (como su rostro no es demasiado expresivo, encienden sus luces). “Los gestos están soportados por un sistema de ‘tracking’ que les dice dónde están en cada momento, y por eso señalan automáticamente al otro”, detalla el realizador.

El corto trata de lograr que el público empatice con los autómatas —“la gente tiene miedo de si van a sustituirnos, de si van a quitarnos el trabajo”— conociendo sus limitaciones actuales. Además, Sánchez trataba de plasmar una de sus preocupaciones como investigador: “Tengo la impresión de que la robótica es una herramienta muy potente para que entendamos mejor el cerebro y cómo está conectado con el cuerpo [...] Por eso, la robótica va a tener un papel fundamental en el desarrollo de la inteligencia artificial”.

Una inquietud diferente plantea ‘La conciencia dormida’un corto realizado por la Oficina de Información Científica de la Universidad Carlos III de Madrid galardonado con un accésit en el ROS Film Festival. Maggie, la adorable robot social desarrollada por esta universidad, es sometida en el cortometraje a una suerte de test de Turing. “Yo siempre he sido muy fan de las historias de ciencia ficción y de robots”, destaca Adrián Carrasco, ingeniero industrial, estudiante de ingeniería matemática y guionista del corto.

Por eso, decidió poner a prueba a Maggie planteándole una serie de situaciones que probaran su respeto a las tres leyes de la robótica (un robot no hará daño a un ser humano, deberá obedecer las órdenes de los humanos y protegerá su propia existencia, siempre que cada ley no entre en conflicto con las anteriores) formuladas por el escritor Isaac Asimov.

Para que fuera lo más real posible, Carrasco decidió que el diálogo entre el examinador y la máquina se asemejara a un “código de programación”: Maggie entra en modo “simulación” y responde siguiendo instrucciones. Lo más sorprendente es que el cortometraje, estrenado en YouTube casi un año antes del aterrizaje de ‘Westworld’, guarda un asombroso parecido con las escenas en las que los ingenieros del parque temático conversan con los robóticos anfitriones en la exitosa serie de HBO. Es más, uno de los grandes temas de ambas ficciones es precisamente la conciencia.

Carrasco, que siempre ha querido mantener un “alma renacentista” —además de ingeniero, lleva años realizando cortometrajes con sus amigos— intentó ser todo lo preciso “científicamente” que le permitía la ficción. Por eso, la pobre Maggie dice no saber por qué es bonita una puesta de sol, cuando ella solo ve “un conjunto de radiaciones que llevan viajando 8 minutos y 19 segundos desde que se produjeron” (el tiempo que tarda la luz solar en llegar a la Tierra).

Él mismo dirigió al robot por control remoto durante el rodaje de este proyecto, que la Universidad Carlos III de Madrid realizó para acercar sus avances al público general. Para Adrián, fue una “grata sorpresa” que el centro decidiera promover una iniciativa de este tipo. “Echo mucho en falta herramientas para potenciar la divulgación científica, transmitir el valor de la ciencia no solo a través de los logros sino a través de la ficción”, destaca.

¿Temor a los robots o a la realidad virtual?

En lugar de divulgar el valor los avances científicos , ‘Uncanny Valley’, que ha obtenido el segundo premio en la categoría Fictional Robots, parece advertirnos sobre sus peligros. Dirigido por el argentino Federico Heller, socio de 3dar (una compañía especializada en realidad virtual, animación y efectos visuales) el corto dio mucho que hablar cuando se estrenó.

Con una mezcla de estilo documental y de videojuego, Heller plantea un futuro distópico en el que la realidad virtual ha destruido la humanidad: los adictos pasan todo el día asesinando objetivos en sus videojuegos y ya no se relacionan con los de su especie. “Me inspiré sobre todo en la fuerte necesidad de los seres humanos de conectarnos a realidades que no son la nuestra y rechazar la percepción más simple de nuestro entorno”, destaca Heller.

Los impresionantes efectos especiales de este cortometraje contribuyen a que nos sumerjamos en ese violento universo, donde comienzan a disolverse las fronteras entre el juego y la ficción. “Si las acciones de una persona son digitalizadas, también pueden ser robadas, y yo puedo creer que estoy haciendo una cosa cuando en realidad estoy haciendo otra cosa”, sostiene el realizador de un corto que se asemeja a episodios de la popular serie ‘Black mirror’ como  ‘Men against fire’, en el que el ejército planea el exterminio de las "cucarachas", o 'San Junipero', en el que se entremezclan mundos reales y virtuales.

“Tradicionalmente, la ciencia ficción ha sido usada para explorar nuestros deseos y miedos del futuro”, destaca Henry Prince, uno de los ganadores del ROS Film Festival. “Ahora más que nunca, es una conversación en la que el mundo debe involucrarse a medida que nuestras preguntas tecnológicas cambian desde el ‘¿podemos?’ al ‘¿deberíamos?’, y el festival nos permite plantear estas preguntas”.

El séptimo sentido del cíborg catalán: un órgano para percibir (y alterar) el tiempo

$
0
0

Cuando nos preguntan por el aroma de una fragancia o por el sabor de un suculento plato, no necesitamos recurrir a ningún dispositivo electrónico para que nos diga a qué huele o haga las veces de papilas gustativas. Los humanos nacemos con órganos que perciben estos estímulos. Imagina que sucediera lo mismo en el caso del tiempo: que para saber la hora no tuvieras que consultar las manecillas de un reloj de pulsera, los números digitales de un ‘smartwhatch’ ni la pantalla de un teléfono móvil, sino que toda la información que necesitaras estuviera ya en tu cerebro.

Neil Harbisson quiere hacer realidad este sentido del tiempo, fabricándolo artificialmente e implantándoselo. “Va a ser un órgano orbital, situado dentro del cráneo”, ha explicado en el podcast de Hoja de Router este artista británico que se siente catalán, el único que puede presumir de ser un cíborg oficialmente. Las autoridades de Gran Bretaña le permitieron en 2004 posar con su ‘eyeborg’ para la fotografía del pasaporte.

El nuevo dispositivo todavía está en camino, pero hace tiempo que Harbisson lleva una antena y varios chips incorporados en su cabeza. Es el sistema que ha bautizado como ‘eyeborg’. “Me permite percibir no solos los colores visibles, sino también los invisibles, como los infrarrojos y los ultravioletas”, detalla. Harbisson nació con acromatopsia, una disfunción congénita que afecta a la vista y que le impide distinguir visualmente cualquier tono distinto del blanco y el negro.

El invento que forma parte de su cuerpo como un órgano más consta, esencialmente, de un sensor que capta las frecuencias de cada tonalidad y un microprocesador que las transforma en sonidos que recibe en el cerebro como vibraciones. Una de las principales desventajas, al menos de momento, es que el cíborg tiene que conectarse a una fuente externa para cargar su particular ojo biónico. Para remediarlo, hace tiempo que trabaja en el diseño de un sistema que utilice su flujo sanguíneo para convertir la energía del movimiento en eléctrica, como una turbina en miniatura.

El artista británico deja claro que nunca se propuso cambiar su manera de ver del mundo, en escala de grises, porque lo cierto es que “tiene sus ventajas”. Mejora su visión nocturna y también el alcance. “Puedo ver más lejos porque el color no interfiere”, asegura. Su única intención era “crear un sentido completamente nuevo para el color”.

Ahora, Harbisson quiere hacer lo mismo con el tiempo. En este caso, se trata de un dispositivo circular, como una especie de corona cibernética fabricada con materiales biocompatibles, que llevará bajo la piel del cráneo. La temperatura irá cambiando de un extremo a otro de esta circunferencia a lo largo del día. El calor hará de aguja en su reloj mental: “Un punto de calor tardará 24 horas en dar una vuelta completa, por tanto, sabré qué hora es notándolo en mi cabeza”, indica el cíborg.

Un proceso de adaptación escalonado

La intención del artista es probar el nuevo invento de manera externa, antes de implantárselo, para ver qué tal responde su organismo. “Creo que siempre es necesario tener cualquier sentido fuera durante un tiempo”, sostiene Harbisson, que distingue dos procesos: inicialmente, el cerebro se acostumbra al sentido, para después ser el cuerpo el que debe acostumbrarse al órgano ya adaptado.

Así lo hizo con el ‘eyeborg’; las primeras versiones se conectaban a un ordenador que Harbisson debía transportar en una mochila. Posteriormente, todo se redujo a un sensor y un microprocesador, aunque el sistema ha sufrido varias actualizaciones. Desde el 2013 incluye también un chip que le permite conectarse a internet a través de Bluetooth. Gracias a esta prestación cibernética, que su dueño describe como una “extensión sensorial”, recibe las imágenes que le envían sus amigos a través de un teléfono o un ordenador conectados a la Red. Es posible compartir con él experiencias desde la otra punta del planeta: “Si hay una puesta de sol muy bonita en Australia, pueden mandarme los colores”, cuenta Harbisson.

Y si le llega alguna de estas postales virtuales mientras duerme, las sensaciones pueden incluso interferir en sus sueños. Por ejemplo, si percibe muchos azules, puede aparecer un océano en su universo onírico. “Cuando hay un giro repentino o muchos colores, normalmente coincide con que alguien me ha mando colores durante la noche”, señala. Los tonos extraños inspiran también bizarras ensoñaciones en su mente. El cíborg tiene, además, la posibilidad de conectarse a los satélites para “percibir los colores del espacio”.

Una vez se haya adaptado a su nuevo sentido temporal, Harbisson también espera experimentar sensaciones impensables. “Cuando tenemos un órgano de la visión, podemos crear ilusiones ópticas”, dice. Una vez tenga uno que mida el trascurso del tiempo, “vamos a poder crear ilusiones con él”. La idea es cambiar su noción del tiempo cuando lo desee: “Voy a poder poner mi sentido en ‘flight mode’ para que mi percepción del tiempo viaje al mismo ritmo que un avión, quizá así tenga menos ‘jet lag’”, prevé el artista británico.

Si el punto de calor gira más deprisa, parecerá que avanza rápidamente hacia el futuro. Una estrategia que Harbisson podría utilizar, por ejemplo, para sobrellevar situaciones desagradables, aburridas o incómodas. En el caso de que quisiera alargar un momento, solo tendría que ralentizar su reloj mental. “Es llevar la teoría de la relatividad de Einstein a la práctica fabricando un órgano”, asegura el británico. Con uno como el que ha diseñado el artista, la duración de un suceso podría depender del observador.

Harbisson sugiere que esta capacidad de moldear la dimensión temporal podría ayudarle a modificar la percepción de la edad y el envejecimiento. “Si quieres vivir 120 años no tienes por qué cambiar tu cuerpo, basta con engañar a tu cerebro y hacerle pensar que has vivido ese tiempo”, explica el artista. “Podrías tener 80 años y pensar que tienes 120, y te sentirías muy joven”.

Algo distinto a un ser humano

En 2010, después de incorporar el ‘eyeborg’ a su cuerpo, el británico creó la Cyborg Foundation junto a Moon Ribas, una coreógrafa catalana que lleva implantado un dispositivo que le permite sentir las vibraciones de la Tierra –según cuenta, el próximo paso será percibir la actividad sísmica de la Luna–. Desde la organización internacional abogan por los derechos de los cíborgs, ayudan a las personas que quieran transformar su cuerpo cibernéticamente y promueven el "cíborgismo" como movimiento cultural y social.

Harbisson y su compañera han dejado de considerarse simplemente humanos, recurriendo al término "transespecie" para referirse a su nueva condición. Son seres cibernéticos: no utilizan elementos tecnológicos como los demás usamos el móvil, sino que forman parte de su organismo. “Ser cíborg puede entenderse como una identidad, cualquier persona que se sienta así, puede serlo”, defiende Ribas, al igual que un hombre o una mujer pueden saber que pertenecen al sexo contrario y cambiar su cuerpo para seguir esa noción. “Defendemos la libertad de sentirse cíborg”, señala la artista. Y animan a quien lo desee a dejar a un lado el miedo para transformar su vida.

Sin embargo, la sociedad todavía se muestra reticente a este uso de la tecnología para mejorar las capacidades que ya tenemos o explorar nuevas posibilidades sensoriales. “La gente lo ve bien si es por algo práctico o por motivos de salud, pero para experimentar, crear nuevas experiencias o en el arte aún no está bien visto”, lamenta Ribas.

Pero, según la coreógrafa, “la unión entre el hombre y la tecnología va siendo cada vez más natural”. Como consecuencia de ello, las generaciones venideras tendrán menos prejuicios a la hora de entender la legitimidad de quienes pertenecen a la transespecie. Un cambio de mentalidad que, de producirse, los expertos en bioética deberán tener en cuenta. “De la misma forma que en los años 50 las operaciones transgénero no eran aceptadas por muchos comités de bioética, ahora pasa lo mismo con las cirugías transespecie, no se aceptan”, sostiene Harbisson. Él mismo se enfrentó a este tipo de trabas antes de lograr que un cirujano le implantara el 'eyeborg'.

No obstante, el artista pronostica que en la década de los 2020 “veremos países donde se empiecen a aceptar este tipo de intervenciones para diseñar qué sentidos y órganos queremos tener”, sentencia el artista británico.

Ya existen algunas aproximaciones a esa regularización a la que se refieren los fundadores de la Cyborg Foundation. Un ejemplo es North Sense, un dispositivo que se implanta en el pecho bajo la piel y que vibra cuando su portador mira al norte, como una especie de brújula electrónica subcutánea. “Está inspirado en cómo algunos animales se orientan en el espacio”, detalla Ribas. El pequeño chip puede adquirirse en la página web de Cyborg Nest, un proyecto en el que participan ambos artistas catalanes junto con otros pioneros de la cultura cíborg.  

La tendencia, dice Harbisson, continuará en esta dirección: “En los próximos años veremos cómo se normaliza el hecho de que podamos comprar sentidos artificiales”, augura. Es cierto que todavía existen limitaciones, como la falta de conocimiento sobre ciertos procesos neurológicos y la capacidad de procesamiento de los microchips, pero hace un siglo hubiera sido difícil imaginar que alguien pudiera caminar sobre un par de piernas biónicas o escuchar gracias a un implante coclear.

--------------------------------------------------------------------------------------

Las imágenes de este artículo son propiedad, por orden de aparición, de Neil Harbisson, re:publica y Cyborg Nest.

Estos españoles tratan de montar el ‘dream team’ de las carreras de drones

$
0
0

Adrián López sabe cómo observar la tierra por encima de las nubes con su propia aeronave y hacer que el cielo deje de ser un límite dándole la vuelta. Cuando vuelve a casa, se monta sus circuitos en el salón, diseña y construye sus drones, vende las piezas e incluso te enseña a montarlos en YouTube.

Este joven salmantino fue uno de los primeros españoles en apuntarse a las novedosas carreras de drones hace un par de años. Informático en paro por entonces, ha pasado de competir contra su hermano Miguel en el campo charro por simple afición a convertir los cuadricópteros en su su sustento económico, gracias a su tienda ‘online’ Desde el Aire RC y a ser considerado como uno de los mejores pilotos de drones en España.

“Ahora estoy con el prototipo de uno específico para carreras, intentando mejorarlo y aportarlo al equipo”, cuenta Adrián a HojaDeRouter.com. Los López (Adrilh y Miguellh en el mundillo) son ahora dos de los cinco pilotos del Spain Drone Team, un nuevo equipo español que aspira a hacerse un hueco en un deporte (la Federación Internacional de Aeronáutica aprobó la normativa de esta categoría el año pasado) que aún está en su más tierna infancia.

Spain Drone Team, un equipo en la pista de despegue

Sorteando puentes y cogiendo las curvas con maestría en un circuito iluminado exclusivamente por luces de colores, un adolescente de tan solo quince años consiguió un premio de 250.000 dólares (232.000 euros) con unas gafas en la cabeza. El británico Luke Bannister dio un repaso al resto de pilotos de drones en el World Drone Prix celebrado en Dubái hace un año. Gracias a ello, el Tornado XBlades Racing Team, el equipo de pilotos europeos que lo arropaba, consiguió grabar su nombre en medios de comunicación de todo el mundo.

“Para mí el modelo a seguir es XBlade”, explica Juan Antonio Rioboó, ‘team manager’ del Spain Drone Team y CEO de DroneAeroFilm. Luke Bannister y otros pilotos de ese equipo se hicieron también con los primeros puestos de la FPV Racing Spain, la primera carrera oficial española. Celebrada en El Escorial, la competición reunió a un centenar de pilotos de multirrotores (un nombre más preciso que dron, ya que en realidad el control de vuelo no es automático).

Rioboó fue el director técnico de esa carrera, así que se le ocurrió echar el guante a algunos de los pilotos patrios que quedaron en mejor posición. “Lo que yo hice fue contactar con ellos y decir ‘oye, en vez de ir cada uno por libre, ¿qué os parece si nos juntamos?'”, explica. “Yo me encargo de buscar patrocinadores y vosotros simplemente os encargáis de pilotar”.

Adrián y Miguel, que ya habían pasado por el famoso programa de televisión ‘El Hormiguero’ dando a conocer su tienda mientras hacían increíbles acrobacias, se sumaron a la idea. También lo hizo Francisco Javier Torres (alias Tarsso), otro de los pilotos que habían destacado en El Escorial. “Creo que el Spain Drone Team ha sido una buena elección, un equipo que ha conseguido financiación pese a la situación económica en la que nos encontramos y pese a que todavía el deporte está por hacer”, comenta Torres.

Compositor y director del Curso del Pilotaje de Drones para el Audiovisual de la Universidad de Sevilla, donde además imparte otras materias, las carreras de drones sacian su deseo de competir. “Soy una persona tremendamente competitiva, me gusta hasta ganar a las chapas”, reconoce. “Es mi ‘hobby’ y quiero dedicarle tiempo, me apasiona, me hace sentir bien”.

Junto a otros dos pilotos, Vicente Liñana (que provenía del mundo del aeromodelismo) y Antonio Álvarez (que tuvo un flechazo con los drones gracias a los vídeos de Charpu, el piloto español que consiguió impresionar al mismísimo Mark Zuckerberg), los López y Torres viajaron hasta Ibiza con el nombre de DARC Team.

Allí se celebraba la ERSA Euro Cup, una competición europea promovida por Richard Vinuesa, director a su vez de la FPV Racing Spain. Los primeros patrocinadores del equipo aportaron su granito de arena, entre ellos el propio Adrián, que suministró los chasis diseñados por él mismo. Sin embargo, el gran evento no salió bien: un pequeño tornado arrasó con el circuito.

No contaban con suficientes recursos para ir a la siguiente competición, la World Drones Racing Championship celebrada en Hawái, pese a que algunos pilotos españoles estaban clasificados para ella.“Asumirlos nosotros era muy caro, salía por unos 3.000 euros, y por mucho que lo hagamos por ‘hobby’ y nos guste, ninguno nos lo podíamos permitir”, lamenta Adrián López.  

A diferencia de lo que sucedía entonces, el Spain Drone Team ha comenzado el 2017 con nuevo nombre y más patrocinadores, que aportarán material y algo de dinero para acudir a los próximos eventos. Entre las marcas que los apoyan figuran Euroflytec, una escuela que ofrece cursos de pilotaje de drones profesionales; BricodroneFPV, que organiza eventos deportivos de drones; Tattu World, que vende baterías; y, desde hace poco, el gigante asiático de los drones, DJI. “Soy optimista, y siempre hablo con los chavales de que el primer año nos tocó pagar todo, este año nos toca pagar menos para que el año que viene ya vayamos con todos los gastos”.

Para atraer a más patrocinadores, necesitan que el espectáculo conquiste también a los espectadores. Por el momento, Barcelona Televisió ha apostado decididamente por este deporte con Drone Riders, un programa dedicado exclusivamente a las carreras de drones. Por su parte, Spain Drone Team también se está intentando hacer un hueco en la pequeña pantalla: además de acudir en otras ocasiones al ’show’ de Pablo Motos, nos adelantan que participarán próximamente en un nuevo programa de entretenimiento de Globomedia. 

“En el momento que entren patrocinadores y televisión todo va a ser seguido [...] Cuando te digo tele te digo cosas serias, cosas muy potentes, una competición a nivel europeo rollo Moto GP”, opina Rioboó con optimismo. “Muchos patrocinadores valoran más que salgas en un programa que en una competición que es realmente a lo que nos dedicamos”, agrega López.

¿Pero quién es realmente el mejor en esos increíbles circuitos? Difícil determinarlo, pues no existe reglamentación oficial F3U —la categoría de las competiciones de drones— para carreras por equipos, aunque la Real Federación Aeronaútica Española (RFAE) nos asegura que “está avanzada”. De esta forma, el Spain Drone Team no puede hacer otra cosa que calificarse a sí mismo como equipo “profesional” por tener cierta estructura y patrocinio.

En lo que respecta a los pilotos de manera individual, Alejandro Zamora, un niño de solo 9 años, es el actual campeón de España según la clasificación nacional de RFAE, por encima de Francisco Javier Torres (el segundo) y Adrián López (el cuarto). Según la Federación Internacional de Aeronáutica (FAI), Tarsso cerró 2016 en el puesto 20, López en el 53 y el joven Luke Bannister en el 27 pese a que “es indiscutible que cuando te pones al lado de él, el chaval te da mil vueltas”, según el profesor de la Universidad de Sevilla.

“El problema es que somos todos gallos compitiendo en un gallinero pero aún no se ha creado un sistema donde al final se saque una puntuación y se diga 'este es el mejor'”, añade el piloto. Al fin y al cabo, ni siquiera tienen recursos para asistir a buena parte de las competiciones para situarse los primeros en ambos 'rankings', sin contar con que se están organizando competiciones alternativas a las oficiales con buena acogida entre unos pilotos que no pueden vivir de su afición.

El español que compite en un equipo puntero

Aunque falte mucho por hacer en este deporte, los miembros del Spain Drone Team también resaltan la parte positiva: la amistad que une a todos los pilotos. De hecho, en lugar de guardar bajo llave los misterios de sus drones cual escudería de Fórmula 1, los chasis de Adrián López ya han atraído a muchos otros pilotos internacionales. Hay uno que incluso se ha llegado a tatuar uno de los drones que le ha comprado. 

“Sí hay bastante gente que valora que yo sea piloto para luego ayudarles, asesorarles… Cuando muchas veces tienen problemas, yo los he tenido antes”, destaca. En su tienda vende incluso un chasis diseñado por Dani Pachón (Dani Pacha), otro de los mejores pilotos españoles, que no compite en el Spain Drone Team.

Tras diez años como aeromodelista (llegó a ser campeón de España de helicópteros de radiocontrol F3-N), a Pachón le entusiasmó hacer volar una aeronave disfrutando de la experiencia en primera persona, como si él mismo surcara los cielos. Primer español en el ‘ranking’ FAI (ocupa el puesto 11), él mismo considera que esa clasificación “no es equitativa”.

De un modo u otro, lo cierto es que el famoso Tornado XBlades Racing le fichó hace un tiempo y, gracias a ello, pudo competir en el World Drone Prix de Dubái y vivir el triunfo de su joven compañero de equipo, una experiencia “muy emocionante”. “Gestionan, organizan y planifican tanto los viajes como la estructura, cuando salimos fuera hacen que sea una maravilla. Te despreocupas totalmente y te centras realmente en lo importante, que es la carrera”, alaba Pachón de su equipo.

Respaldado por una bebida energética suiza, este combinado sí pudo asumir los gastos de sus pilotos para poder acudir a uno de los eventos de drones de carreras más impresionantes de los que se han celebrado hasta la fecha, según nos relata Pachón. Eso sí, en realidad los integrantes de este conjunto no entrenan juntos como en otros deportes: están repartidos por Europa, así que este extremeño sigue saliendo a volar con sus colegas.

“Sabemos que Dani está en un punto en el cual nosotros esperamos llegar con patrocinadores que nos puedan llevar”, señala Juan Antonio Rioboó. De momento, él ya ha logrado crear un equipo de pilotos españoles modesto (“sabemos que podemos ir patrocinados a equis competiciones, a más tendríamos que poner dinero de nuestros bolsillos”), pero con la mirada puesta en los próximos eventos relevantes, como la segunda FPV Racing Spain que se celebrará en Madrid el próximo mes de mayo. 

¿Hará la unión del Spain Drone Team la fuerza? ¿Contribuirá a que las carreras de drones, que aún no han conseguido llegar al gran público, despeguen? “Tengo la esperanza de que alguna organización, aunque sea privada, apueste por ello [...] Y que los que se lo ganen puedan disfrutar de poder ir a los sitios sin tener que poner dinero para gastos, viajes y demás”, sentencia.

--------------------

Todas las imágenes son propiedad del Spain Drone Team

Grandes pilotos, rumbo incierto: los drones de carreras se atascan en España

$
0
0

El pasado fin de semana, 140 personas volaron por los aires esquivando banderines y sorteando puentes a gran velocidad sin ni siquiera salir de un recinto ferial en la localidad leridana de Mollerussa. Lo hacían con unas gafas en la cabeza, un mando en las manos y muchas ganas de divertirse en una larga fiesta protagonizada por pequeños y ágiles drones de la que el público también pudo disfrutar.

La Mollerussa Drone Party unió durante 48 horas a pilotos que, más allá de competir, compartieron sus conocimientos sobre el montaje de los cuadricópteros que tanto les apasionan -hay pilotos que incluso se diseñan los suyos- y entrenaron juntos como colegas. “Hemos conseguido enviar el mensaje adecuado y organizar algo con calidad, de alto nivel, tanto a nivel de competición como espectáculo, para que los pilotos se lo pasen bien, para el público”, explica Joan Lesán, piloto y responsable de eventos de Drones de Carreras (DDC), la organizadora de esta multitudinaria fiesta.

Era la segunda vez que esta comunidad de apasionados de los multirrotores, que nació como una web para compartir información y ahora congrega a 10.000 fans en Facebook, montaba este evento privado y abierto a cualquier piloto. Eso sí, está edición ha tenido especial éxito.

Tan solo una hora después de abrir el registro, ya no quedaban plazas. Tanto es así que muchos pilotos viajaron a Lérida para, simplemente, disfrutar como espectadores de un nuevo deporte que cada vez tiene más adeptos, pero que aún está en pañales. ¿Qué hace falta para que este joven deporte llegue a ser la Fórmula 1 de los cielos?  

Eventos multitudinarios… sin una clasificación única

Uno de los que se desplazó hasta Mollerusa fue Javier Verdegay, más conocido en el mundillo como El Verde, uno de los pilotos más famosos del panorama nacional. Además de quedar cuarto en la competición, impartió una 'masterclass' sobre multirrotores (un término más preciso que drones, ya que en realidad no hay control automático).

Sus triunfos le preceden: en 2016 quedó octavo en el impresionante World Drone Prix celebrado en Dubái (al que pudo acudir gracias al patrocinio del que era su equipo, el DroneXLabs), primero en la Mollerussa Drone Party y decimotercero en la FPV Racing Spain celebrada en El Escorial.

“Vas trabajando, vas volando, vas progresando, vas subiendo vídeos, compartiendo en redes sociales y al final las marcas pues se fijan”, señala El Verde. Este arquitecto destaca que en el 2016 ha disfrutado en muchos eventos, aunque, por el momento, asegura que ni él ni ninguno de los pilotos españoles puede centrarse al 100 % en este deporte. Eso sí, le gustaría “en un futuro vivir de ello”.

Más pesimista se muestra Dani Pachón, conocido como Dani Pacha, otro de los pilotos más renombrados, que también pudo acudir al circuito de Dubái. “Mucha gente piensa que va a vivir de esto, que van a vivir cuatro en el mundo si acaso”, defiende Pachón. “La cosa se está poniendo muy fea por parte de organizadores, por pilotos, por envidias… por querer algo que realmente o no es el momento o todavía no toca”.

El pasado fin de semana, Pachón no asistió a la Mollerusa Drone Party, sino al I Congreso Internacional de Drones de Galicia, donde se celebraba una carrera de exhibición al mismo tiempo. A ella fue invitado también Richard Vinuesa, el vicepresidente de la European Rotors Sport Association (ERSA), una organización que el año pasado celebró 25 carreras en 21 países europeos.

Vinuesa fue también el director de la FPV Racing Spain, la primera carrera oficial (contaba con “el amparo” de la Real Federación Aeronáutica Española, RFAE), celebrada en El Escorial. 120 pilotos participaban en la competición, entre ellos los españoles Javier Verdegay o Daniel Pachón, o el famoso Luke Bannister, un adolescente aclamado internacionalmente tras vencer en el campeonato de Dubái. Pese a que la FPV Racing Spain consiguió una amplia repercusión en medios y los pilotos con los que ha charlado HojaDeRouter.com alaban el evento, la RFAE no quedó tan contenta.

“Dada la cantidad de irregularidades que se produjeron, este año no es una prueba en la que estemos involucrados de ninguna manera”, nos explican desde la RFAE. Rafael Flores, responsable de Técnicos de la Subcomisión de Multirrotores de dicha federación, nos explica que algunos pilotos volaron “sin licencia”. “Los pilotos no estaban concienciados de que tenían que estar en un club de aeromodelismo”, defiende por su parte Vinuesa.

Así que el próximo mes de mayo, la FPV Racing Spain se celebrará de nuevo en Madrid sin el aval de RFAE y sin la organización técnica de Drones de Carreras, que sí asumió esa responsabilidad el año pasado. De un modo u otro, lo cierto es que algunos pilotos se están mostrando muy críticos con la federación que supuestamente debería representarles. De hecho, frente a eventos como el de Mollerusa o el FPV Racing Spain, en la Open International celebrada en Sevilla y que sí contaba con el sello federativo, participaron solo 36 pilotos.

“Los pilotos somos los que estamos sacando esto adelante entre equipos, ‘sponsors’… ya te digo que las federaciones lo único que nos han dado es la espalda”, afirma Verdegay. Su disconformidad con las carreras oficiales hacen que El Verde se sitúe en el puesto 33 del ránking RFAE —una clasificación que tilda de “irrisoria”—, ya que no ha asistido a los últimos eventos que puntuaban.

Francisco Javier Torres, alias Tarsso, figura el segundo en esa clasificación, aunque tampoco tiene buenas palabras para la RFAE. “Las federación existe, pero no aportan absolutamente nada [...] Nos tiene como una herramienta que creen que de uno a dos años ellos van a sacar dinero”, critica este piloto, que sí acude a las competiciones oficiales porque ni es “youtuber” ni pretende ser “mediático”.

Además de cuestionar el 'ranking' nacional, pilotos como Dani Pachón destacan que la clasificación de la Federación Internacional de Aeronáutica (en la que él encabeza la lista de pilotos españoles) tampoco “es equitativa”. Al fin y al cabo, los pilotos no cuentan con ayuda económica por parte de la federación, y difícilmente la consiguen de forma privada, para desplazarse y asistir a otros eventos internacionales que impulsen su carrera.

El portavoz de la RFAE asegura que este año pretenden crear una “selección nacional” y que tienen “ideas de hacer eventos con otros países e intentar montar la copa del mundo”. Mientras tanto, los pilotos que participen en la previsiblemente multitudinaria FPV Racing Spain no obtendrán puntos para la clasificación nacional, sino solo para la final de ERSA. Drones de Carreras, por su parte, aspira a organizar “un campeonato nacional”.

Ahora bien, ¿valoran realmente los pilotos la puntuación y la oficialidad de las carreras? “A todas las competiciones vamos porque nos gusta y porque lo pasamos bien y porque luego estamos con los amigos… Si esto fuera por competir, no duraría mucho”, opina Adrián López (adrilh), otro de los pilotos patrios reconocidos.

Cómo conseguir que las competiciones se asienten, conquisten al público y generen suficiente negocio como para que esos pilotos puedan acudir a ellas son asignaturas pendientes para la profesionalización de las carreras de drones, un deporte que parece estar viviendo su infancia con diversas pataletas internas. Eso sí, ya hay quien tiene algunas ideas para hacerlo despegar, aunque no todas las voces estén unidas para conseguirlo.

Patrocinios y televisión: el ansiado salto

ERSA, International Drone Racing League (organizadora del World Drone Prix en Dubái o de la Drone World Cup), Drone Racing League… En el ámbito internacional, también hay varios promotores de eventos, pero hay uno que ha tenido especial éxito.

Con 12 millones de dólares (11 millones de euros) de financiación proveniente de firmas de capital riesgo como RSE Ventures (propiedad del dueño de los Miami Dolphins), la Drone Racing League ascendió con fuerza hace más de un año. Tras pasar por televisión (consiguió que la cadena estadounidense ESPN retransmitiera sus espectaculares carreras, en las que parece que nos adentrarnos en el laberinto de un videojuego), la ‘startup’ acaba de cerrar un acuerdo con Allianz para que el gigante de los seguros patrocine sus carreras, que esperan retransmitir en 75 países durante los próximos cinco años.

Sin embargo, en España todavía no ha habido un patrocinador de envergadura que apueste decididamente por este deporte. Por eso algunos pilotos (como Adrián López o Francisco Javier Torres) se han organizado en nuevos equipos como el Spain Drone Team, que ha conseguido el apoyo de patrocinadores de la talla de DJI, lo que les permite disponer de material y algo de dinero para acudir a ciertas competiciones.

El conjunto aún tiene trabajo por delante sí de veras quiere parecerse al que es su referente, el Tornado XBlades Racing Team, considerado como el mejor equipo europeo y que sí puede respaldar a sus integrantes (Dani Pachón entre ellos) para que asistan a eventos internacionales.

En el caso de Drones de Carreras, en lugar de patrocinar un equipo concreto (“creemos en el deporte, no en que una persona vaya a ser el mejor piloto”), buscan apoyos de empresas que les proporcionen parte del material para organizar eventos tan numerosos como el de Mollerusa.

El resto de gastos los han cubierto con el dinero de las inscripciones de los participantes y las entradas del público, por lo que, según Joan Lesán, aún “no se genera ningún beneficio”. De hecho, la veintena de entusiastas que organizaron la fiesta eran voluntarios. “No es un público masivo, ahora mismo es algo un poco friki, que está tirando mucho y que todo el mundo piensa que puede ser el deporte del futuro, pero se puede quedar por en medio”, comenta el responsable de eventos de Drones de Carreras.

Al menos ellos han logrado que las carreras de drones den un primer salto a la pequeña pantalla. Hace unos meses, la televisión local barcelonesa BTV emitió Drone Riders, un nuevo programa de televisión coproducido por Mediapro y Drones de Carreras para acercar estas competiciones a los espectadores con un formato que incluía entrevistas a pilotos y retransmisión de competiciones.

Esto va a llegar a televisión tarde o temprano y va a ser un poco la popularización”, señala Lesán. “La televisión lo que trae son patrocinadores, y los patrocinadores traen dinero. Todo lo que sea dinero o visibilidad para los patrocinadores va a ser positivo para los equipos. Yo creo que se mueve poco en ese sentido”, coincide Juan Antonio Rioboó, ‘team manager’ del Spain Drone Team. Algunos de los pilotos del equipo ya han pasado por ‘El Hormiguero' de Antena 3, pero las carreras aún no han llegado a una cadena nacional.

“Me gustaría [...] que las competiciones sea lo que más se valore y los patrocinadores apuesten porque se nos vea más en competición”, opina por su parte Adrián López. También reconoce que, actualmente, él se “aburriría” como espectador de una carrera y que aún hay “mucho que mejorar”.

Aunque Drones de Carreras intentó organizar la Mollerusa Drone Party “como si fuera un GP de Fórmula 1” para atraer a los asistentes (el público veía casi toda la pista, contemplaba las imágenes de las cámaras de los drones en una pantalla y un comentarista animaba cada breve carrera), aún no se ha logrado atraer en España a un buen número de fans que quieran ver este deporte, ya sea presencialmente o desde su pantalla.

“Si al final las marcas y el público no lo ven, se quedará en el tintero y no llegará a más gente”, lamenta El Verde. Pero, ¿qué fue antes? ¿El huevo o la gallina? ¿Es posible conseguir que, fuera de la cantera de pilotos, haya fans de este deporte si no hay patrocinadores que apuesten por crear espectáculos más vistosos y cadenas de televisión o plataformas en 'streaming' que aporten difusión? ¿Patrocinarán grandes empresas a ciertos pilotos si no hay un criterio claro y unitario sobre cuáles son los mejores? ¿Acabarán las carreras de drones siendo una modalidad más del aeromodelismo o lograrán convertirse en la Fórmula 1 del aire?

“Igual que al principio con los videojuegos se pensaba que era cosa de cuatro locos y ahora hay ligas que ya se empiezan a valorar como tal, pues esto es una cosa nueva con afinidad con los eSports, con afinidad con los deportes de riesgo, con afinidad con la electrónica”, resalta Lesán. “Hasta el momento vamos todos en el mismo barco y el barco va hacia el abismo, y está la gente bastante frustrada", lamenta por su parte Pachón. Como no cambie, yo le doy un año de vida”.

No todos son igual de optimistas en cuanto al futuro de un deporte que ya cuenta con una buena cantera de pilotos y con unos cuantos promotores que, por el momento, no reman hacia el mismo rumbo. Aún falta que el viento sople a favor para que las drones de carreras se profesionalicen. Al menos, los apasionados que vuelan a toda velocidad sobre una pista cuentan ya con un buen número de eventos en los que reunirse, pasar un buen rato y hacer amigos, como el de la semana pasada en Mollerussa o la próxima FPV Racing Spain. Se trata un buen comienzo. Falta por ver si lo siguiente es un despegue en toda regla de la Fórmula 1 de los cielos. 

 ---------

Las imágenes de este artículo son propiedad de Drones de Carreras (1,2,3,6), Spain Drone Team (5) y Javier Verdegay (4)

Shakey, el primer robot inteligente de la historia y el abuelo del coche autónomo

$
0
0

Con la forma de una lavadora, ruedas como piernas y una cámara a modo de ojo, Shakey discurre lentamente por una sala planeando su propia ruta, navegando autónomamente y evitando los obstáculos que encuentra por el camino. Aunque en la era de los coches sin conductor la escena puede no sorprendernos demasiado, que hace casi medio siglo una máquina fuera capaz de percibir el entorno, razonar sobre sus acciones y actuar en consecuencia era toda una hazaña.

De hecho, por aquel entonces, los autómatas pensantes, como el servicial Robby el Robot, capaz de destilar whisky, cocinar o limpiar en un planeta lejano, solo habían aparecido en la gran pantalla. “Había varias áreas individuales y separadas de la inteligencia artificial y, en ese momento, nadie había integrado todas esas áreas diferentes en un sistema físico" explica Peter Hart, uno de los padres del robot, a HojaDeRouter.com. "Así que Shakey fue el primer intento de construir un sistema integrado de inteligencia artificial”.

Las sorprendentes capacidades de esta máquina han hecho que el prestigioso Instituto de Ingeniería Eléctrica y Electrónica (IEEE por sus siglas en inglés) lo acabe de nombrar “el primer robot inteligente móvil del mundo”. Es más, la institución ha reconocido que algunos de sus avances han sido “cruciales” en el diseño de servidores, automóviles o videojuegos. Shakey fue un auténtico pionero que, sin embargo, sus creadores no querían llamar robot.

Un robot que pensaba sus acciones 

“Un autómata móvil para reconocimiento”. Cuando el Stanford Research Institute (SRI) presentó una propuesta al Departamento de Defensa de Estados Unidos para desarrollar a Shakey, ni siquiera mencionó el término robot.

Un robot era ciencia ficción, así que no parecía una buena idea ir y pedir dinero para hacer ciencia ficción”, rememora Hart entre risas. Frente a ese término, utilizado por primera vez en una obra de teatro checa en 1921, el término autómata sonaba “muy científico”. 

De un modo u otro, algunos investigadores acogieron con escepticismo la propuesta de Charles Rosen, que impulsó la creación de ese autómata móvil inteligente. Al fin y al cabo, corría el año 1966, ni siquiera habían aparecido los primeros ordenadores personales y el campo de la inteligencia artificial había nacido oficialmente una década antes.

Solo en algunos prestigiosos centros (Stanford Research Institute, el MIT o la Universidad Carnegie Mellon) se habían realizado algunas investigaciones en ciertos ámbitos de la inteligencia artificial por entonces, según describe Nils Nilsson, otro de los padres de Shakey. De hecho, aunque existían varios robots capaces de manipular objetos en las líneas de montaje, “no eran inteligentes”. “Shakey fue el primero que incluyó inteligencia artificial”, destaca Nilsson.

De unos dos metros de altura, provisto de una cabeza formada por una cámara de televisión y otra telemétrica para percibir el entorno, además de una antena de radio, Shakey en poco se parecía a los robots humanoides que conocemos hoy en día.

De hecho, no llevaba el ‘cerebro’ puesto. La electrónica de su cuerpo servía para el control de motores y sensores (disponía de detectores de choque) y para comunicarse con un ordenador de grandes proporciones que se encargaba de procesar la información. En concreto, se trataba de un PDP-10 de la compañía DEC del tamaño de un armario. Para que fuera lo más simple posible, el grupo que dio vida al autómata decidió que no tuviera brazos.

“Trabajamos un mes intentando encontrar un buen nombre para él, desde los nombres griegos a cualquier cosa, y después uno de nosotros dijo, ‘Ey, se agita [‘it shakes’] como el infierno y se desplaza, vamos a llamarlo Shakey’”, recordaba el fallecido Rosen hace unos años.

El ‘hardware’ de Shakey no era lo más resultón: la belleza de este robot estaba en el interior. Shakey combinaba en un mismo cuerpo incipientes campos de investigación como visión artificial, comprensión del lenguaje natural ('hablaba' en inglés gracias a una máquina de escribir), resolución de problemas o búsqueda de rutas.

“Shakey podía navegar autónomamente desde un sitio a otro, podía crear un mapa de su entorno y diseñar el camino más rápido desde donde estábamos hasta donde tenía llegar”, rememora Peter Hart, que fue líder del proyecto. Para lograrlo, desarrollaron un sofisticado algoritmo de búsqueda llamado A* para calcular el camino más corto a una dirección concreta usando los mínimos recursos posibles, desplazándose así por el recorrido óptimo.

La técnica sentó un precedente: un algoritmo heredero de A* ha sido utilizado ni más ni menos que por el ‘rover’ Curiosity que se ha desplazado por Marte. “En los videojuegos, el mismo algoritmo es usado para calcular los caminos de los personajes”, destaca Peter Hart.

Además, Shakey estaba dotado de un sistema para planear sus acciones y resolver los problemas que se encontrara en su camino: si algo no marchaba según lo planeado, replanteaba su ruta e incluso aprendía la lección para el futuro. 

Nils, Hart y el equipo del Stanford Research Institute mejoraron poco a poco ese robot cuyas capacidades no siempre fueron comprendidas en la época. “Conoce a Shakey, la Primera Persona Electrónica: la aterradora fascinante realidad de una máquina con una mente propia”, titulaba la revista Life.

Los propios investigadores tuvieron que enfrentarse a algunas divertidas situaciones. Un auditor de los contratos gubernamentales comenzó a interrogar a Hart sobre el proyecto pese a que carecía de conocimientos de informática. Entre otras cuestiones, le preguntó si “había recibido 8.000 millones de paquetes de bits” y si había “manchas o corrosión” en alguno de ellos. “Este robot es vuestro ‘hobby’, ¿no?”, les espetó un profesor de colegio durante una visita escolar.

Algunas figuras ilustres también visitaron a Shakey, entre ellos Arthur C. Clarke, que acababa de estrenar ‘2001: una odisea del espacio’. Un jovencísimo Bill Gates, que estudiaba en el instituto por aquel entonces, también viajó de Seattle a Menlo Park con tal de conocer a Shakey, al que calificó de “estupendo”.

Sin embargo, cuando el autómata tenía seis años de vida, DARPA dejó de proporcionar fondos para que el centro californiano continuara desarrollándolo. “Mientras pudimos obtener financiación para investigar, hicimos todo lo que deseamos” recuerda Nilson. “Yo era muy entusiasta con el proyecto Shakey. Fueron algunos de mis mejores años de investigación en inteligencia artificial”.

El antepasado de los coches autónomos

Aquel robot con pinta de lavadora no acabó en la chatarra. El pionero Shakey aún puede contemplarse en el Computer History Museum de California, aunque no sale de su urna de cristal. Hace unos días, se celebró un evento en su honor con motivo de su reconocimiento como IEEE Milestone, una distinción que se ha otorgado por primera vez a un robot.

A la cita acudió Relay, un autómata de hostelería desarrollado por Savioke. Esta ‘startup’ ha sido fundada precisamente por Steve Cousins, el que fuera CEO de Willow Garage (uno de los principales laboratorios de investigación en robótica de los últimos tiempos). No en vano, Relay también se desplaza gracias al algoritmo A*, por lo que puede considerarse un nieto de Shakey. No es el único.

El mismísimo Sebastian Thrun, antiguo líder del proyecto de coche autónomo de Google, ha reconocido que la arquitectura del ‘software’ de Stanley, su primer vehículo sin conductor, también es heredera de Shakey. “Creo que fue la primera vez que me di cuenta de hacia dónde habían ido las cosas”, destaca Hart.

Ahora bien, ¿podía imaginar este par de investigadores, y amigos desde hace medio siglo, los sorprendentes avances de la inteligencia artificial? “Ninguno de nosotros predijimos dónde iría esta tecnología o cuánto tardaría en encontrarse con la teoría”, señala Peter Hart. “Pensé que Shakey ‘evolucionaría’, pero no anticipé ni coches autónomos ni drones”, añade por su parte Nilsson.

Estos dos pioneros han asistido en primera fila a esa evolución, ya que sus carreras profesionales continuaron ligadas a la inteligencia artificial. Aunque ahora están jubilados, también tienen algunas ideas para el futuro.

“Creo que en los próximos 20 años la aplicación más importante [de los robots] será cuidar de ancianos”, señala Hart. La inteligencia artificial “seguirá mejorando, pero no sé cuándo realmente duplicará las capacidades de “nivel humano”, concluye Nilsson. ¿Serán capaces otros visionarios de desarrollar, como ellos, un robot que para los demás parezca cosa de la ciencia ficción? 

----

Las imágenes son propiedad de  SRI International (2), Brian Berg (3), Claude Fennema and Richard Duda (4) y Ken Pyle of Viodi (5). Han sido cedidas por Brian Berg, organizador del evento de nombramiento de Shakey como IEEE Milestone.

Los animales cíborg que ya 'disfrutan' la tecnología que nos dará superpoderes

$
0
0

Mientras los humanos que deciden implantarse tecnología para modificar sus capacidades e incluso para conseguir un nuevo sentido lo hacen bajo su libre albedrío, los animales cíborg no corren la misma suerte. Con distintos niveles de molestia, distintos proyectos ya modifican a los animales probando en ellos una tecnología que, en la mayor parte de los casos, los pone aún más al servicio de los humanos.

“Las investigaciones con animales cíborgs están teniendo lugar alrededor de todo el mundo”, explica a HojaDeRouter.com Sungho Jo, investigador del Instituto Surcoreano KAIST. “Y en el futuro, los animales cíborg trabajarán para los humanos en muchos campos, con aplicaciones médicas o militares”, concreta.

Jo es parte del equipo que ha desarrollado una una interfaz cerebro-ordenador que permite controlar el movimiento de una tortuga y que, en los próximos años, podría adaptarse a otros animales con el objetivo de que sean utilizados para el reconocimiento de áreas o incluso para el espionaje.

Por el momento, y en el caso del sistema concebido para las tortugas, los investigadores han aprovechado la atracción que estos animales sienten hacia la luz. De esta forma, y tras el desarrollo de la interfaz cerebro-ordenador que permite que un humano dirija los movimientos del animal, sobre la tortuga se implanta una instalación electrónica con wifi que traduce las ondas cerebrales de la persona que guía en comandos que dirigen el movimiento.

Pero, ¿cómo guiar el movimiento? Para conseguir que se mueva, además de esta instalación electrónica, al animal se le ajusta un cilindro semicircular con una abertura que se encuentra en la zona de la cabeza y que rota en función de las órdenes cerebrales. El giro del semicilindro hace que la rendija cambie de posición, lo que causa que la tortuga busque la luminosidad y, por lo tanto, modifique su trayectoria.

“Nuestro estudio se enfrenta al problema del control de dos formas fundamentales: en primer lugar nos permite dirigir a un animal sin entrenamiento, de una manera no invasiva y remota, y, además, nos permite hacerlo a través del control de un comportamiento voluntario”, explica a HojaDeRouter.com Dae-gun Kim, otro de los científicos que han tomado parte del estudio.

Dae-gun Kim considera que estas tecnologías se usarán en campos como el militar, pero también en el de la industria o el entretenimiento. Además, cree que existen posibilidades de que, con el tiempo, sean aplicadas a humanos.  

Una libélula dron

Los surcoreanos no son los únicos trabajando con animales cíborg. Fruto de una colaboración entre el Howard Hughes Medical Institute (HHMI) y la empresa Draper, el proyecto DragonflEye pretende transformar a las libélulas en drones. Para ello, los miembros del instituto han optado por un acercamiento optogenético, es decir, por la modificación de ciertas neuronas del animal para que se comporten de forma diferente. En este caso, y con el objetivo de controlar sus movimientos, las neuronas modificadas se activarían con estímulos de luz que les indicarían la necesidad de realizar determinados movimientos.

A esta modificación genética hay que sumarle la implantación de una pequeña mochila que mide la actividad de las células cerebrales de la libélula durante el vuelo y que incorpora una cámara para grabar el terreno. Además, es la encargada de lanzar los destellos. “Ahora, Draper está trabajando en la mochila para que lance la luz que haga que las neuronas que hemos modificado genéticamente se activen durante el vuelo, iniciando así ciertas maniobras de conducción”, explica Anthony Leonardo, uno de los científicos del proyecto todavía en desarrollo.

Respecto a los usos, este experto cree que, en unos años, los insectos cíborg podrán tener un gran número de aplicaciones reales. “Un insecto controlado de forma remota se puede utilizar para muchas cosas, básicamente para cualquier actividad para la que usarías una cámara”, concreta. Sin embargo, para el Howard Hughes Medical Institute, el interés del proyecto no radica en sus aplicaciones, sino en las exploración de los principios de funcionamiento del cerebro. “La lógica computacional de cómo el movimiento se genera y de los modelos cerebrales es relevante para todos los sistemas nerviosos, incluido el nuestro”, incide.

Un movimiento por electroestimulación

La aproximación de Backyard Brains con su RoboRoach, el publicitado como el primer 'kit' para crear animales cíborg, también se centra en controlar el movimiento de un insecto, en este caso de las cucarachas. Sin embargo, su objetivo es diferente: lo que pretende el neurocientífico Tim Marzullo, cofundador del proyecto, es que sus robocucarachas sean utilizadas con fines educativos, para mostrarles a los estudiantes cómo funcionan la relación entre estímulos eléctricos externos y las neuronas.

El 'kit', que no incluye a las cucarachas, consiste, una vez más, en una suerte de mochila intregrada por un circuito, una pequeña pila y electrodos que habrá que conectar a las antenas de los artrópodos para transmitirles los impulsos eléctricos que guiarán sus movimientos. Sin embargo, Margullo concreta que esos impulsos solo funcionan durante unos minutos. “Roboroach funciona, pero no de una manera tan buena, solo durante dos o tres minutos, debido a que las neuronas dentro de la antena se adaptan muy rápidamente”, especifica. Tal y como explica, el invento solo es útil cuando se trata de atrapar la atención de los jóvenes y mostrarles un nuevo concepto de ciencia.

Respecto a su traslación a los humanos, en el caso de Roboroach la tecnología que emplean para mover a los artrópodos es la misma que ya se usa en medicina para tratar determinadas patologías. “Ya estamos usando esta tecnología de estímulo de neuronas y tejido cerebral para tratar enfermedades como el párkinson, la depresión o con personas que no pueden oír”, concreta. “Es el mismo tipo de tecnología que los médicos usan para enfermedades cerebrales, pero nosotros lo transformamos en tecnología para el movimiento”.

Proteínas inyectadas en el cerebro de ratones para que generen impulsos neuronales cuando se encuentran en campos magnéticos y el empleo de polillas que, convertidas en el centro de un sistema de conducción, guiarán a pequeños robots hasta determinadas áreas son otros de los proyectos en los que los animales se convierten en protagonistas.

Mezclando biología y tecnología, la futura generación de animales cíborg ya parece estar gestándose con la investigación cerebral y la realización de tareas de reconocimiento o espionaje entre los principales alicientes para su desarrollo. 

-------------------------------------------------------------

Las imágenes de este artículo son propiedad de Draper (1 y 3), KAIST (2) y Blackyard Brains

Cuando Curro hizo fotocopias a color: la tecnología que sorprendió en la Expo 92

$
0
0

Alberto Martín guarda en su casa una fotocopia a color de su DNI. No se trata de una copia cualquiera: se la hicieron en 1992, cuando eso de las fotocopias a color era bastante más extraño que ahora, en un pabellón de la empresa Rank Xerox, la entonces rama europea de la mayor compañía fabricante de fotocopiadoras del mundo.

Martín recibió ese regalo tras esperar una larga cola de personas que habían oído hablar de ese prodigio como de tantos otros que se encontraban en pabellones cercanos: fibra óptica, pantallas táctiles, 3D… Todos ellos, las tecnologías y las personas, estaban en la isla de la Cartuja, en Sevilla. Unas para demostrar su potencial; las otras, para maravillarse con lo que el futuro había llevado a la capital hispalense.

Se cumplen 25 años de la Expo 92, la exposición universal que cambió la cara de Sevilla y trajo a España lo mejor de la cultura de todo el planeta. También, durante los casi seis meses que duró, innovaciones tecnológicas de las que nunca se había oído hablar. No fueron solo las novedades que presentaba cada país o empresa, sino también los ingenios para hacer más soportable las visitas bajo el calor sevillano.

Martín fue uno de los varios millones de visitantes que se pasearon por la Cartuja en aquellos meses de 1992. 25 años después, es uno de los promotores de la Asociación Legado Expo Sevilla, que reivindica la memoria de aquella exposición universal. El sevillano la vivió ya desde las obras y luego pudo ir "casi todos los días", relata ahora a HojaDeRouter.com.

En aquellos pabellones, la empresa IBM montó los llamados puntos de información no asistida o PINAS. "Era básicamente el inicio de una internet a gran escala”, lo describe Martín, como un teletexto, un Minitel o un Prestel patrio que contaba además con una función para fotografiarse, un selfi rudimentario al que se podía añadir un mensaje de voz. La imagen se podía guardar y recuperarla en otro punto o hacerla pública para que la pudiera ver cualquiera, a lo perfil de Instagram.

Estos puntos proporcionaban información interactiva a los visitantes de la Expo, pero también los principales titulares del día ("de manera un poco rudimentaria, porque era un escaneado del periódico impreso"). Con sus pantallas táctiles se podía pintar e incluso reservar mesa en uno de los restaurantes del complejo. En un vídeo promocional, el narrador decía que estas pantallas llegarían a ser tan populares como las cabinas telefónicas:

Estas pantallas fueron una de las cosas que más impactó a Martín: "A mí personalmente me dejó un poquito diciendo: 'Bueno, pues aquí está el futuro'". "Hoy en día lo tenemos en nuestro móvil, pero tenerlo en el 92 era bastante fuerte", añade. Estos terminales llamaron la atención más que otras pantallas que también vaticinaban una de las tecnologías ahora tan presentes en nuestras vidas: las luces led. Se instalaron varias pantallas con este tipo de luces a color bastante grandes ("podían medir 2x3 metros o así"). "También era la primera vez que se usaban de forma masiva. Eran muy básicas, tenían una resolución bajísima" y daban información sobre horarios y espectáculos.

Y el primer 'revival' de la tecnología 3D en el cine no lo tuvimos hace unos años, sino ya en la Expo 92. Había gafas en el pabellón de Fujitsu, uno de los grandes éxitos de aquellos meses por las películas tridimensionales que ofrecía. No fue el único pabellón que ofreció películas en 3D: también lo hizo el pabellón del Medioambiente.

El IMAX también pegó fuerte. El Cine Omnimax fue otra de las principales atracciones del evento, como lo fue otra pantalla que había en el pabellón de España, semiesférica y sincronizada con las butacas para moverse de acuerdo a lo que que apareciera en la película. "El IMAX ya tenía varios años [la primera exhibición fue en la Expo de Osaka de 1970], pero así, en un evento masivo, en España, era la primera vez, y más en tantas versiones". Los pabellones de Canadá y Francia también tenían estas películas. En el caso del país galo, se trataba de una pantalla caleidoscópica: "Era un pozo de 30 metros de profundidad. Se proyectaba la película IMAX en la base, en el fondo, y luego tenía paredes de espejo que formaba un efecto caleidoscópico impresionante cuando te asomabas a ese pozo inmenso".

Todos esos edificios, el centro de control de datos y, en definitiva, la estructura operativa de la isla, estaban conectados por una red de fibra óptica que todavía se conserva en la isla de la Cartuja. "Una red superpotente, que en el 92 se usó para temas de seguridad y coordinación interna y que luego es la que siguen usando los operadores de telecomunicaciones de hoy en día para dar servicio a las empresas que hay en Cartuja", explica Martín.

Tecnología contra el calor sevillano

Si el calor de Écija tiene ya la categoría de mito, el de la cercana Sevilla (está a unos 85 kilómetros) lo tuvieron que sufrir hispalenses y visitantes. Para hacer frente a ello, la tecnología también se sacó de la manga algunos ases. El equipo de la exposición se sirvió de nuevos inventos y de técnicas tradicionales para crear un microclima que se inspiraba en los patios árabes y para el que se diseñaron paredes de agua que jamás se calentaba.

Además, "el aire se enfriaba mediante el sistema de enfriamiento evaporativo, que funcionaba mediante gotas de pequeño tamaño. Pulverizabas microgotas, que se evaporaban antes de llegar a las personas", ha explicado Servando Álvarez, uno de los ingenieros que estuvo detrás de los sistemas. Esa tecnología es la que ahora se puede ver en numerosas terrazas de bares. El edificio de Siemens también buscó la refrigeración con agua, que corría por una parte de su fachada.

La Encarta andaluza

Narciso Rodríguez Chaves también se acuerda de aquella época. Este sevillano de la localidad de Castilleja de la Cuesta atesora en su casa más de 10.000 objetos relacionados con la Expo, desde abrecartas que se entregaron el día de la inauguración hasta un plato diseñado por Rafael Alberti del que solo se hicieron 300 unidades, pasando por el 'merchandising' o los sellos que se editaron para la ocasión. Su vinculación a la Expo viene desde la construcción de los edificios, pues fue aparejador de uno de los restaurantes que se construyó para ella. 25 años después, se ha convertido en un asiduo de otras exposiciones universales: Lisboa, Milán, Zaragoza... En su colección guarda catálogos de las películas 3D del pabellón de Fujitsu, "incluso algún recorte del film", cuenta a HojaDeRouter.com.

Rodríguez, que utilizó ahí por vez primera las tarjetas de pago para el teléfono (Telefónica las popularizó en aquellos años), recuerda otro de los hitos de aquel 1992: la Enciclopedia Electrónica Andaluza. Según las crónicas, estos monitores situados a la entrada del pabellón de Andalucía y diseñados por la Universidad de Málaga aportaban información multimedia sobre los 767 municipios de la región: habitantes, infraestructura… También se podían conocer los paisajes naturales o el folclore. En total, 350.000 pantallas de saber en siete discos láser que recibieron la Medalla de Plata del Festival de Nueva York.

Lo que nunca llegó

Con el tiempo, la fibra óptica, las fotocopias a color y las pantallas táctiles se han popularizado. Sin embargo, también hay innovaciones que no se han hecho un hueco en nuestras vidas. En concreto, alguna relacionada con la alta definición. El pabellón de Retevisión acogió la primera grabación en lo que iba a ser el estándar de HD europeo, el TVAD, en el que participaban 32 empresas y organizaciones del Viejo Continente. "Había un estudio de televisión en alta definición, pero su formato no fue el que finalmente se adoptó", explica Martín. En cualquier caso, el TVAD permitió realizar filmaciones con una mayor nitidez, al usar más líneas de las 625 habituales hasta entonces, y con mejor sonido.

Para Martín, la Expo "cogió una época en la que sorprendió bastante". "Ya se veía que la innovación que se hizo a todos los niveles era el comienzo de, como casi siempre pasa en las exposiciones, una nueva era", resume Rodríguez. La Expo 92 se llamaba 'La era de los descubrimientos', para recordar el quinto centenario de la llegada de Cristóbal Colón a América. Pero, para millones de visitantes, fue también el descubrimiento de las tecnologías que hoy forman parte de nuestro día a día.

----------------------

Las imágenes son propiedad, por orden de aparición, de Expo 92 y Wikipedia


Estos visionarios quieren que la realidad virtual se controle con la mente

$
0
0

En la saga escrita por J.K. Rowling, a Harry Potter le valían un par de palabras para elevar y mover objetos a placer con un poco de contacto visual y una varita mágica comprada en el callejón Diagon. Si bien recrear la escena es imposible, la realidad virtual y un buen puñado de sensores adosados a la cabeza podrían ser suficientes para que no necesitemos un conjuro para controlar cualquier experiencia solo con pensarlo.

Al menos eso pretenden las ‘startups’ que trabajan ya en el control mental aplicado a la realidad virtual. Una de ellas es la norteamericana Neurable, que ha desarrollado un ‘software’ capaz de analizar las señales cerebrales recogidas por un dispositivo compuesto por sensores secos que se fijan sobre la cabeza del usuario para luego determinar qué acción debe tener lugar en la realidad virtual.

“En realidad, el usuario no tiene que hacer nada”, explica el CEO de la compañía, Ramses Alcaide. “Es una respuesta subsconciente”, resume. No obstante, lo cierto es que con el sistema desarrollado a día de hoy por Neurable, el usuario necesita entrenar unos cinco minutos antes de comenzar la experiencia virtual controlada al más puro estilo telequinesis.

La empresa ha creado un equipo de sensores propios y utilizan de forma experimental las gafas de realidad virtual HTC Vive. No obstante, su objetivo no es desarrollar un dispositivo con el que registrar las ondas cerebrales para comercializarlo, sino crear un ‘software’ con el que controlar mentalmente cualquier tipo de experiencia en el mundo de la realidad virtual (desde partidas de videojuegos hasta viajes en el tiempo o a cualquier parte del mundo). Así, el objetivo sería esperar a que los fabricantes de gafas incluyan pronto sus propios sensores para leer e interpretar las señales de nuestro cerebro basándose en la tecnología de Neurable.

No es un reto sencillo. “Debido a que la actividad eléctrica del cerebro es la suma de muchas células y circuitos, lo que registramos con la encefalografía es ruidoso”, explica a HojaDeRouter.com el profesor de Ciencia Cognitiva de la Universidad de California y experto en interfaces cerebro-ordenador Jaime Pineda. “Eso significa que hace falta extraer una señal relevante para poder hacer lo mismo una y otra vez y, mientras que la tecnología es cada vez mejor y más rápida, sigue siendo insuficiente para la mayoría de las cosas que uno quisiera hacer en el mundo de la realidad virtual”, sentencia.

A día de hoy, desde Neurable aseguran haber descubierto la forma de reducir ese ruido que produce el cerebro humano y, además, haber logrado extraer y descifrar las señales cerebrales de una forma más rápida. De hecho, con una versión anterior de su sistema aseguraban conseguir un 85 % de precisión a la hora de traducir la información cerebral en tiempo real y un 99 % al hacerlo con un retraso de un segundo.

La red social del futuro, con tus gestos

Más allá de crear una experiencia aún más inmersiva en realidad virtual, eliminando la necesidad de mandos y botones, este sistema de control con la mente ya es utilizado en el campo de la medicina, tal y como se ha probado con el ‘neurogaming’. “Tiene el potencial de reconectar los circuitos cerebrales y, por lo tanto, remediar algunos déficits como el de atención, sin los efectos secundarios que pueden tener los medicamentos”, explica Pineda.

Además, tal y como ejemplifica el director tecnológico de la española BitBrain y profesor de Biotecnología en la Universidad de Zaragoza Javier Mínguez, “podría ser útil para una persona que haya perdido la función motora y no pueda mover ningún miembro de su cuerpo”.

Por otra parte, la tecnología que se está desarrollando para controlar las experiencias con el pensamiento podría suponer un empujón para la realidad virtual social: si Second Life no logró gozar de éxito, la ‘startup’ suiza MindMaze trabaja ahora en llevar algo de realismo al mundo de los avatares.

La compañía ha desarrollado una interfaz cerebro-ordenador capaz de anticipar en unos milisegundos las reacciones faciales de los usuarios. Si, tal y como adelantó Zuckerberg el pasado mes de octubre, en un futuro no muy lejano las reuniones de amigos consistirán en ponerse unas gafas de realidad virtual y estar con los demás en forma de avatares, el sistema MASK creado por MindMaze permitiría añadir los guiños, sonrisas o muecas de los participantes, ordenados desde el cerebro como en cualquier conversación normal.

Anticipándose una breve fracción de tiempo, MASK logra mejores resultados que reproduciendo simplemente los movimientos o reacciones de los usuarios. Según la empresa, se tarda entre 10 y 20 milisegundos para que la señal cerebral que ordena sonreír viaje desde el cerebro hasta la boca, y ese es el tiempo justo que necesitaría MASK para interceptar la onda cerebral y proyectar una sonrisa simultánea en un avatar virtual.

Además, esta interfaz es menos invasiva que esos parches colocados sobre el cráneo con los que trabaja Neurable: MASK no es más que una esponjilla que se adapta a gafas como Oculus Rift o HTC Vive y que incluye ocho sensores que son los que detectan las señales cerebrales. ¿El resultado? Un rostro similar al de un dibujo animado que, a la hora de la verdad, mueve los labios cuando lo hace su dueño, fruñe el entrecejo a la vez y sonríe instantáneamente.

¿Cuánto cuesta?

El precio de los dispositivos necesarios para hacer realidad este escenario futurista sigue siendo un obstáculo. “Para que funcionen de forma correcta, ahora mismo estamos hablando de equipos que oscilan entre los 5.000 y los 10.000 euros”, explica Mínguez. El reto es abaratar los costes. “Ahora ya se sabe hacer, incluso con tecnología de electrodos secos que no requieren de ningún tipo de sustancia… Digamos que están muy preparados ya para ser usados de forma ergonómica, y ahora el trabajo que hacemos es buscar la forma de abaratarlo para dejarlo en unos cientos de euros”, señala el profesor.

A esto hay que añadir, según el propio Mínguez, la baja calidad de algunos sensores. “Hoy en día hay muchos ‘gadgets’ y ‘wearables’ que lo hacen, pero ninguno ha penetrado de forma efectiva en el mercado por la calidad de la señal, que es muy mala todavía”, explica.

No obstante, el futuro parece esperanzador, tanto en el mundo del entretenimiento como en el de la medicina. “Será posible, por ejemplo, extraer señales cerebrales asociadas con nuestras emociones, y podremos entrar en un mundo que será controlado no solo por lo que pensamos, sino por lo que sentimos”, sentencia Pineda. “Será único”.

---

Las imágenes de este artículo son propiedad, por orden de aparición, de Neurable, Facebook y MindMaze.

Así ha pasado Netflix de vender películas a domicilio a los cien millones de clientes

$
0
0

Este fin de semana, Reed Hastings, fundador y director ejecutivo de Netflixcelebraba los primeros cien millones de suscriptores de la plataforma comiéndose un bistec en soledad. Aunque el objetivo de alcanzar las nueve cifras estaba fijado para el primer trimestre del año y el gran momento se ha hecho esperar un poco más, el dato es una muestra del éxito de la plataforma y del impacto de su estrategia de expansión a nivel global.

Con las acciones de la empresa volando alto (en el momento de escribir este artículo su precio es de 143 dólares, 131 euros), Netflix ha hecho público su hito acompañado de un par de anuncios: planea recaudar otros 1.000 millones de dólares (918 millones de euros) de financiación a través de deuda, con el objetivo de seguir adquiriendo contenidos y apostando por la producción propia, y ha conseguido cerrar un principio de acuerdo con iQIYI, una plataforma de vídeo china, para que su contenido original llegue al gigante asiático.

Pero, ¿cómo ha conseguido una empresa que comenzó enviando DVD por correo convertirse en el gigante del ‘streaming’ que es hoy? Según Alfonso de León, CEO de Axon Partners Group y uno de los inversores que apostó por Wuaki TV cuando muchos no creían en este tipo de plataformas, dos de las claves del éxito de la empresa americana han sido su visión de futuro y su estrategia, que le ha permitido dejar de depender de las distribuidoras de contenidos.

Además de haber sabido detectar que los consumidores abrazarían el modelo de contenidos a la carta, en el que ellos mismos deciden cómo y cuándo quieren ver los episodios y películas, y de facilitar aún más los maratones de series (el término 'bing watching' se ha hecho popular gracias a Netflix), la estrategia del ahora gigante de internet se ha centrado en crear un modelo de negocio rentable

“El problema que tienen las plataformas de ‘streaming’, y por eso Netflix hace contenido propio, es que las grandes compañías, como Disney, han tenido un modelo de distribución de contenidos que se ha realizado a través de distribuidores locales”, explica De León a HojaDeRouter.com. "Sin embargo, muchas plataformas de 'streaming' necesitan derechos en el mundo entero y les gustaría negociarlos a nivel mundial".

Por ello, lo que está haciendo Netflix, una vez que ha conseguido un gran número de usuarios, es crear su propio contenido. “De esa forma se evitan problemas, no tienen que temer que les suban los pagos por derechos… Y lo único que tienen que hacer es publicitar sus propias producciones”. El experto señala, además, que esto cambia el equilibrio de poderes, con las distribuidoras de contenidos perdiendo fuerza negociadora, favoreciendo que la plataforma pueda conseguir títulos a un precio más bajo.

Otra de las claves del éxito de Netflix se encuentra en la figura de Reed Hastings. La posición de poder del fundador dentro de la compañía, de la que es CEO y presidente desde los orígenes, y la confianza de los inversores en su trabajo también han sido imprescindibles para el desarrollo de la plataforma. Siempre bajo el mando del mismo capitán, la compañía ha acometido en distintas fases, con una estrategia a medio plazo, un proceso de expansión mundial progresivo y razonado, en el que antes de cada desembarco se han elaborado minuciosos estudios de mercado.

Una API para llegar a todas partes

El éxito de la plataforma de 'video on demand' (VOD) por excelencia no se encuentra solo en sus contenidos o en la figura de su CEO, sino también en su código. Otro de los factores que han contribuido de forma decisiva a la popularización de Netflix frente a sus competidores es la calidad de su API (siglas en inglés de Application Programming Interface) y de otras herramientas para desarrolladores como su SDK (Software Development Kit), que permiten a los ingenieros de otras empresas crear aplicaciones específicas para todo tipo de dispositivos.

“Netflix cuenta con millones de usuarios en todo el mundo, lo que supone un gran volumen de dispositivos, desde móviles, tablets y ordenadores hasta 'smart TV', que funcionan con distintos sistemas operativos”, recuerdan desde la compañía a HojaDeRouter.com. Aunque la firma desarrolla sus propias 'apps' para algunos de estos soportes (Xbox One, Xbox 360, PS3, PS4, Android, iPhone y la versión web, entre otras), los fabricantes del resto de dispositivos pueden servirse del código que Netflix pone a su disposición para hacer lo propio.

“Algunas plataformas agregan funciones adicionales o personalizan la herramienta para su propia plataforma", detallan desde Netflix. "Otros toman el SDK tal cual y ofrecen una experiencia indiferenciada”.

Además, su API permite gestionar una enorme cantidad de información de forma sencilla, algo que facilita la vida, en su opinión, no solo a los ingenieros sino también a los espectadores. Diseñada para registrar los datos de uso de los usuarios, todas las estadísticas que la API proporciona a Netflix se utilizan para idear nuevas funciones, como el modo 'offline', y para saber, por ejemplo, que la gente adora las películas de Adam Sandler aunque no le guste confesarlo. Por ello, en 2014, la plataforma firmó un contrato para disponer de todas las producciones de este actor en exclusividad (‘The Ridiculous 6’, ‘The Do-Over’ y Sandy Wexler’ han sido fruto de esta colaboración) y lo renovaron hace unas semanas para cuatro nuevas películas.

No se acaba ahí el trabajo entre bambalinas. El papel de Adyen, la ‘startup’ que gestiona los pagos de la plataforma, es imprescindible para la expansión mundial del gigante del ‘streaming’. Capaz de aceptar hasta 250 formas de pago, la herramienta de estos cobradores digitales hace que a Netflix (igual que a otros gigantes que son clientes suyos, como Uber o Spotify) no se le escape un solo suscriptor por culpa de las peculiaridades en los pagos de cada país.

Y nada en el servicio de VOD más popular sería lo mismo sin el trabajo invisible y automatizado de sus famosos algoritmos, que emplean el 'machine learning’ para acertar al máximo en las recomendaciones. ¿Cómo? Basándose en las valoraciones de los usuarios para buscar a gente similar y ofrecerle los títulos que han agradado a las personas con las que comparten gustos.

Una amalgama de factores que contribuyen al ascenso meteórico de la compañía y a un crecimiento que algún día tendrá que tocar techo. “Lo que sucederá en un momento dado es que Netflix se convertirá en una ‘utility’, una compañía como las de teléfono o de luz que al final tienen una base de usuarios y que lo que tienen que hacer es gestionar los gastos y el perfil de riesgo o de negocio para conseguir un margen de un 15 % o un 20 %”, sentencia De León. “Ahora es distinto. Ahora crecen o invierten, pero al final terminará por cambiar”. 

----------------------------

Las imágenes de este artículo son propiedad, por orden de aparición, de Helge ThomasMarit & Toomas Hinnosaar y Avijeett Sachdev

Al habla las auténticas 'chicas del cable': así era el olvidado oficio de telefonista

$
0
0

“¿Qué población desea?” “Con Barcelona hay dos horas de demora, cuelgue y le llamaremos”. A sus 93 años, Celina Ribechini no solo recita de memoria las frases que repetía una y otra vez en su trabajo de telefonista hace más de siete décadas, cuando las manos femeninas conectaban cables de las centralitas para establecer las llamadas.

Esta bilbaína también recuerda con exactitud el examen que aprobó en 1942 para conseguir un puesto en la central de Pamplona de la joven Compañía Telefónica Nacional de España (CTNE), fundada en 1924. Además de cumplir los requisitos para presentarse a las oposiciones (ser soltera, tener entre 18 y 27 años, no utilizar gafas, ser capaz de separar los brazos 1,55 metros o mostrar un certificado de buena conducta), realizó una prueba con los auriculares, dos dictados (“uno deprisa y otro despacio”) y respondió a unas “cuantas cuestiones de geografía, un poco de historia y de cultura general”.

“En aquella época no pude estudiar y económicamente mi casa estaba muy mal, había que sacar dinero”, explica Celina a HojaDeRouter.com. Hoy doctora en Historia por la Universidad de Deusto (defendió su tesis después de jubilarse), aquellas pruebas a las que se presentó tras realizar el Servicio Social obligatorio marcarían su futuro y el de muchas otras jóvenes que pasaron a trabajar delante de un panel repleto de clavijas y luces. 

Tiempo atrás, en 1928, el año en que Alfonso XIII realizó la primera llamada transoceánica desde el Edificio Telefónica de la Gran Vía madrileña, comenzaban a trabajar en la capital las cuatro protagonistas de la primera serie de Netflix enteramente producida y rodada en España.

Las chicas del cable’, cuyos nueve primeros episodios verán la luz este viernes de forma simultánea, refleja el día a día de las mujeres que ponían en contacto a los abonados, manejando los cables con asombrosa rapidez. Un oficio exclusivamente femenino (si bien los primeros operadores eran hombres) que permitió a muchas mujeres incorporarse al mundo laboral, lo que no era lo habitual en la época.

Mujeres, solteras y jóvenes

Organizadas por turnos, las operadoras de la central telefónica de Pamplona permitían que los abonados se comunicaran las 24 horas del día en cualquier momento del año. La disciplina era casi militar: unos minutos antes de su hora de entrada, se cambiaban para ponerse su uniforme azul. Una sucesión de timbres les avisaba de que debían prepararse y, poco después, entrar en la sala. 

En correcta formación y con “la vigilanta al frente” (la encargada de controlar el tráfico), cada operadora se dirigía a su “posición” en el cuadro de conexiones, sustituyendo a la anterior, que también salía en rigurosa fila.

En un primer momento, Celina desempeñaba su labor en una “torrecilla”, una mesa apartada del cuadro de operaciones. Recibía las llamadas, recogía los datos del abonado y los anotaba en un tique para que otra compañera pusiera después la conferencia, un labor que ella también realizó posteriormente. “Cuando tenías que ir al servicio se lo tenías que decir a la vigilanta para que viniera otra. El cuadro no se podía dejar libre”, rememora Celina.

Aunque reconoce que el trabajo “era duro”, le satisfacía realizar un trabajo que le permitía ser independiente en lo económico. “Mi madre murió, mi padre se casó otra vez, sin eso no sé qué hubiera sido de mí. No me tuve que humillar ante nadie. Con lo que he tenido, he salido y he podido llegar a la situación en la que estoy hoy”, aprecia Celina.

Ser soltera le permitió conservar ese trabajo, pues las casadas, en aquellos años, eran obligadas a dejar su puesto de telefonistas (en el Fuero del Trabajo de 1938 ya se hablaba de “liberar a la mujer casada del taller y de la fábrica”). “Mi hermana, que desgraciadamente murió por aquel entonces, tenía novio, se iba a casar y sabía que iba a tener que dejar el trabajo. Podía pedir una excedencia en el caso de que se quedara viuda o el marido enfermara”, recuerda.

Que algunas mujeres se quedaran solas trabajando por la noche también era algo excepcional en la dictadura. Según nos cuenta Celina, muchas aprovechaban la tranquilidad nocturna, frente al ritmo frenético que llevaban durante el día, para llamar a sus novios o charlar con los redactores de periódicos que “terminaban a esas horas y se aburrían”.

También había hueco para el puritanismo en las centralitas. “‘Tilín! ¡Tilín! Campanitas de la Virgen”, anunciaba una operadora desde la central de Logroño a las cinco de la mañana. Tras contactar con todas las centrales de España, convocaba con esa llamada a las telefonistas para que rezaran el rosario poco antes de que los transportistas comenzaran a coger el teléfono al alba.

Las mujeres que desempeñaban el oficio también tenían que pasar los festivos delante de las luces y clavijas. Celina aún recuerda que, en Nochevieja, los mecánicos y ellas lo celebraban juntos “un poco”, minutos antes de la doce. Pasada esa hora, la sala se volvía “un incendio de llamadas”.

Una vida independiente en Madrid

Lola Blasco también tiene el recuerdo de comerse las uvas delante del cuadro de conexión. Esta operadora comenzó a trabajar en Telefónica años después que Celina, ya en los 60, aunque su trabajo era similar. Tras estudiar el bachillerato (un hecho que, según nos cuenta, extrañó al jefe de personal), consiguió un puesto en la central de Alicante con tan solo 18 años.

Tiempo después pidió el traslado para trabajar en Madrid, como ‘Las chicas del cable’ de Netflix. “Yo es que era un poco adelantada a mi tiempo. Me gustaba vivir y me fui a Madrid”, asegura. Más de doscientas telefonistas trabajaban en su misma unidad del Edificio Telefónica, destinada a atender las llamadas de la provincia de Madrid. “Un señor marcaba el 09, ‘póngame con Alcorcón’, y entonces dices: '¿qué número quiere usted de Alcorcón?’”, recuerda Lola.

Tras conectar un extremo del cable a la clavija de la luz que se encendía, la telefonista se comunicaba con el abonado y conectaba el otro extremo con el centro al que deseaba llamar. Mientras los interlocutores conversaban, ellas manejaban una llave que les permitía oír la conversación. “Había que observarlo porque antiguamente se cortaban mucho las comunicaciones”, justifica Lola.

No obstante, durante los seis meses del cursillo de formación que tuvo que pasar para ser operadora, la enseñaron que debía guardar secreto. Tampoco es que tuviera tiempo para fijarse en los detalles. A la telefonista le faltaban manos para atender varias llamadas a la vez, y cuando no daba abasto, las luces comenzaban a parpadear para alertarle de las que tenía pendientes.

A ello se sumaba la presión de las observadoras, un grupo de mujeres que paseaban detrás suya, sin que se percatase, para comprobar si trabajaba y se dirigía correctamente a los abonados. Pese al frenético ritmo de trabajo y al control férreo y constante, Lola no supo de ningún despido.

“En los años que he vivido en Telefónica, nunca, porque aunque no quisieras trabajar, del 'trabajazo' que había tan tremendo tenías que hacerlo [...] Y sin aire acondicionado, cariño. Aquí en Alicante yo he visto cómo se caía la gente en el mes de agosto mareadas”, rememora.

Lola cree que las jornadas duraban siete horas precisamente por la intensidad de la labor (“ocho no había cuerpo humano que lo hiciera, era a tope desde que entrabas sin parar”), aunque eso sí, disponía de dos emergencias para ir al servicio y un descanso de media hora en una sala donde las telefonistas se reunían para tomar un bocadillo o un café.

Pese a la disciplina casi militar, el ambiente de compañerismo ayudaba a que el trabajo en Telefónica se hiciera más llevadero. Las jefas de sala y unidad eran como “madres” para Lola, y las otras telefonistas se convirtieron en sus amigas. “Las compañeras éramos una piña”, recuerda.

Además, los sueldos permitían “vivir bien”, aunque la mano de obra femenina fuera más barata, y en Madrid gozaba de independencia, ya que vivía en un piso compartido con unas amigas. Como no le gustaban los domingos, cambiaba a sus compañeras esas jornadas para tener días libres entre semana y poder pasear más tranquila por las calles de la capital o visitar el Museo del Prado, ya que la pintura es una de sus pasiones. “La experiencia que he tenido en Madrid ha sido maravillosa”, considera.

La tristeza de la última telefonista

Magdalena Martín también ponía en contacto a los abonados, aunque a diferencia de Celina y Lola, no lo hacía en una gran capital, sino desde su propia casa en Polopos, un pueblo de la Alpujarra granadina que contaba con 260 habitantes y tan solo 46 abonados. “Llamaban desde sus casas y en mi casa se encendía una ‘lucecica’ y sonaba un timbre, y entonces yo iba corriendo, le metía la clavija a la luz y decía ‘dígame’, describe Magdalena, la última telefonista de España.

Los que no disponían de teléfono iban a su casa a solicitar la llamada. Si alguno de ellos era el destinatario, la propia Magdalena se desplazaba al lugar donde estuviera el vecino para decirle un “venga usted a las 4 que le va a llamar su hija”. Un trabajo que le permitía conocer de primera mano las buenas y malas nuevas del pueblo, desde los nacimientos a las muertes, aún sin escuchar las conversaciones: los propios abonados le informaban al charlar con ella. Tanta confianza llegaba a tener con los que visitaban su centralita que acabó sabiendo de memoria los números a los que solían llamar.

El primer centro local se abrió en Ajofrín (Toledo) en 1893, y desde ellos se podía acceder a un centro superior (en el caso de Polopos, Albuñoz) para conectar con cualquier punto del mundo. “Aquí hay muchos extranjeros, explica Magdalena. Entonces pedían conferencias a Dinamarca, a Estados Unidos, a Andorra...”

Ella heredó la centralita de su suegro y se volcó en un trabajo que, a diferencia del que realizaba las telefonistas en la capital, no tenía horarios: había que estar pendiente de las llamadas en todo momento. “Las 24 horas, aquí no se podía quitar nadie", recuerda. "Cuando fui a dar a luz tuve que enseñar a una chica para que se quedara con mi suegra, porque era mayor. Si yo iba a misa, mi marido se tenía que quedar en la centralita”.

Pese al crecimiento de las centrales locales (en 1924 había menos de 300; en 1969, más de 10.000), la progresiva automatización hizo que el trabajo de las telefonistas fuera desapareciendo. La última centralita manual fue precisamente la de Magdalena. Las autoridades decidieron celebrar una gran fiesta en Polopos el día de la clausura, el 19 de diciembre de 1988.

Mesas llenas de jamón y vino se llevaron a la plaza, amenizada con música, para los invitados de excepción: José Barrionuevo, el ministro de Transportes, Turismo y Comunicaciones, y Luis Solana, por entonces presidente de Telefónica, que llegaron en helicóptero a la localidad. Los dos se presentaron en casa de Magdalena, que realizó la última conexión para llamar al mismísimo Felipe González, presidente del Gobierno. “Yo estaba muy nerviosa porque mi voz sonó en la plaza”, rememora.  

Ella no tuvo ocasión de disfrutar el ambiente festivo de una jornada que se narró en las crónicas de aquel momento y que aún es recordada en Polopos gracias a una placa conmemorativa. “Siempre he atendido el teléfono para luego lo mal que se portaron”, protesta.

Magdalena se quedó en el paro. Al ser una empresa “familiar”, Telefónica se limitó a indemnizarles, pero, según su relato, no le ofrecieron ningún puesto de trabajo. Lo que sí hizo la compañía fue llevarse el cuadro y la silla en la que Magdalena había pasado tantos ratos, incluso el bloc de notas donde apuntaba las llamadas, con el fin de preservar esos objetos que hoy son parte de la historia de las telecomunicaciones.

Tras acabar la fiesta, las autoridades invitaron a comer a su marido, pero no a Lola (“podían haber dicho ‘véngase usted’”), que se quedó en casa sin tener ya abonados a los que poner en contacto. “Me llamaron desde Barcelona y una operadora me dio la enhorabuena porque era la última de España. No se me olvidará nunca”.

Para entonces, Celina y Magdalena llevaban años alejadas del oficio de telefonista. La primera pasó a ser supervisora del Servicio de Abonados, un puesto administrativo que le gustaba menos que el trabajo en el cuadro. “De todos los años que he estado en Telefónica, que han sido 40, los que más me han gustado han sido los que he estado de telefonista”, destaca Celina, una mujer incombustible que, ya nonagenaria, ha publicado el libro ‘Retazos y pinceladas. Historia en Euskalherria’.

Lola, que tiene ahora 68 años, se prejubiló hace una década, tras ser administrativa o asesora comercial, un puesto que la obligó a volver a Alicante. Al igual que la historiadora, recuerda con cariño su etapa como telefonista: “Fueron los mejores años de mi vida. Dentro del trabajo, los mejores. Éramos amigas y compañeras”.

Como amigas y compañeras son las 'chicas del cable' que protagonizan la serie de Netflix, cuatro mujeres que en los felices años 20 lograban incorporarse al mundo laboral desempeñando el extinto y tristemente olvidado oficio de telefonista.

--------------

Las fotografías han sido cedidas por Celina Ribechini (1 y 2), Lola Blasco (3), Francisco Page (4) y Magdalena Martín (5)

El avión supersónico que nunca despegó y otras ideas delirantes de la Guerra Fría

$
0
0

Se propusieron construir escudos antimisiles gigantes, aviones que viajaran al espacio y regresaran como si de un puente aéreo se tratase e incluso automóviles inteligentes. También intentaron poner en marcha proyectores cinematográficos que funcionaran con energía solar o aprovechar el supuesto potencial de los parapsicólogos. No tuvieron éxito, pero sentaron las bases de muchas de las invenciones tecnológicas actuales. DARPA, la agencia federal estadounidense para el desarrollo de la tecnología militar, lleva casi 60 años mostrando de lo que son capaces sus científicos e ingenieros.

Nacida en 1958 bajo el recelo por el desarrollo tecnológico soviético (apenas unos meses antes la URSS había sorprendido a todo el planeta con el lanzamiento del Sputnik), durante los años de la Guerra Fría DARPA trabajó para desplegar todo su potencial contra su archienemigo. La escritora y periodista Sharon Weinberger acaba de publicar 'The Imagineers of War', en el que repasa, entre otras cosas, los inventos que se idearon durante aquellos años para demostrar el poderío armamentístico estadounidense.

Uno de esos increíbles proyectos era un escudo antimisiles que cubriera todo el planeta. Weinberger explica a HojadeRouter.com que la idea ha planeado desde que existen misiles balísticos intercontinentales y armas nucleares. En 1958, nada más ser fundada, DARPA recibió el encargo de desarrollar este escudo por miedo a lo que pudieran estar creando en la Unión Soviética. No era un escudo cualquiera: protegería todo el orbe contra misilies balísticos intercontinentales quemándolos con un cinturón de electrones. El proyecto se desarrolló dentro de la llamada Operación Argus, que implicó la realización de explosiones nucleares en la atmósfera.

Al frente de ella estaba un científico griego, Nicholas Christofilos, cuya teoría era que una explosión nuclear a gran altitud podría crear un cinturón que eliminara cualquier posible ataque mediante los electrones que esta dejara sobre nuestras cabezas. Aunque el proyecto finalmente no salió adelante, "el experimento [las explosiones que se llevaron a cabo] fue un éxito", explica Weinberger, porque la teoría de Christofilos sirvió para comprobar la existencia de los cinturones de radiación de Van Allen, dos cinturones con concentración de partículas sobre la Tierra.

Dichos cinturones contienen electrones de alta energía que formarían el escudo antimisiles junto a los que se añadieran de las explosiones nucleares. En los años 80, en el contexto de la guerra de las galaxias, la idea de crear un escudo antimisiles volvió a surgir. Y con ella, el proyecto de una nave tripulada muy particular.

Un avión espacial con dos pilotos

Weinberger cree que los inventos que se describen en su libro no pueden considerarse como un fracaso, ya que los avances logrados en las investigaciones sirvieron para el futuro. Un ejemplo de ello fue el avión hipersónico espacial. "Fue una idea muy ambiciosa", describe. El avión despegaría, iría al espacio a cumplir su misión y regresaría a la Tierra. "Es un proyecto técnicamente muy complejo", pero que hubiese ayudado a mandar al espacio los satélites, armas u otras tecnologías necesarias para ese escudo, de forma, según esperaban sus promotores, barata y rápida, pues no pasaría en órbita tantos meses como un satélite.

Tony DuPont, un expiloto de Pan Am que luego trabajó como ingeniero aeroespacial, parecía la persona idónea para construirlo. La idea del avión espacial no era nueva pero, además de los costes y la complejidad, "no estaba claro que se necesitara una tecnología tan exótica", explica Weinberger. Sin embargo, la guerra de las galaxias impulsó esta idea. Fue así como comenzó del programa Copper Canyon para diseñar un avión que, según DuPont, podría viajar a una velocidad tres veces superior a la del sonido y que estaría comandado por dos pilotos (por si uno de ellos sufría una indigestión o un ataque al corazón).

Sin embargo, con el paso del tiempo, el proyecto se complicó. Cuando comenzó, el avión iba a pesar 22.000 kilos, que pronto se transformaron en más de 113.000. Los costes para construir dos prototipos serían de 17.000 millones de dólares de 1986 (37.995 millones de dólares actuales con la inflación ajustada, unos 34.978 millones de euros). Y para más inri, el diseño original no tuvo en cuenta la operación de aterrizaje: "Solo llevaba suficiente combustible para ponerse en órbita, lo que significaba que el avión espacial no sería capaz de maniobrar cuando reentrara en la atmósfera", escribe Weinberger. El proyecto terminó cancelado.

Coches inteligentes y drones en la Guerra Fría

'The Imagineers of War' también explora otros inventos que guardan una gran semejanza con las innovaciones tecnológicas actuales. Ahora que tanto se habla de coches inteligentes o autónomos, hay que recordar que los ingenieros de DARPA pusieron en marcha un prototipo de furgoneta inteligente que tenía problemas para distinguir sombras o rocas. Este vehículo "era parte de una amplia y ambiciosa iniciativa para crear inteligencias artificiales", cuenta la autora, "una iniciativa de mil millones de dólares financiada por DARPA".

La camioneta inteligente formaba parte de ese plan. Sin embargo, tuvieron los mismos problemas que se dan hoy en día: la mente de un humano distingue mientras camina o conduce los obstáculos; sin embargo, "¿cómo consigues que un ordenador vea del modo que un humano lo hace?". Weinberger puntualiza que "no fue un fracaso total, pero muestra lo difícil que fue. ¿Cómo sabe tu cerebro que algo es un árbol frente a la sombra de un árbol?". En cualquier caso, "esa tecnología y su investigación llevaron a los fundamentos de los coches autónomos a mitad de los años 2000". Diez años después, estos automóviles ya son una realidad. Otro de los proyectos que buscaba investigar en los orígenes de la inteligencia artificial fue The Pilot’s Associate, un programa de ordenador parlante que ayudaría a los pilotos de aviones y que también fracasó.

Algo más de éxito tuvieron con los drones. "El problema con los drones en el pasado ha sido siempre la fiabilidad, lograr llevarlos sin perderlos o romperlos", explica Weinberger. En los años 70, DARPA triunfó con una serie de aviones no tripulados que podían evadir la acción de los radares y ser lo suficientemente sigilosos. En aquel proyecto se encontraba la semilla de los frutos de hoy.

La Guerra Fría también trajo consigo un proyector de películas de propaganda alimentado por la luz solar. "Lo incluí porque creo que una de las partes menos conocidas hoy del trabajo de DARPA es su labor en la guerra de Vietnam". Según explica Weinberger, DARPA convenció al presidente Kennedy para actuar en la zona. Allí se desplegaron consejeros militares estadounidenses para ayudar a luchar contra el Viet Cong. Sin embargo, no llegaron cargados de alta tecnología, sino de aparatos poco sofisticados, como rifles y este proyector. La idea era mostrar películas de propaganda en los pueblos de la selva vietnamita. Sin embargo, no tuvo éxito: "Lo construyeron y luego descubrieron que la luz del sol acababa haciendo agujeros en la película".

Parapsicología y ondas cerebrales

Coches inteligentes, aviones y escudos espaciales, proyectores solares… y también Uri Geller. El ilusionista israelí, que se hizo famoso en los años 70 doblando cucharas en TVE, tuvo relación con la inteligencia estadounidense y con los científicos de DARPA, aunque con estos últimos no hubo demasiado 'feeling', precisamente.

Weinberger cuenta que en los años 70 la CIA financió a Geller y, de hecho, la agencia esperaba que DARPA también lo hiciera. Sin embargo, los científicos que observaron el trabajo de Geller terminaron algo enfadados, porque lo consideraron tan solo un mago. "Era la fascinación de aquella época con la parapsicología", describe la periodista, y los estadounidenses creían que los soviéticos habían invertido dinero en ella, suficiente justificación para hacer ellos lo mismo.

Por aquel entonces, DARPA estaba interesada en las ondas cerebrales y en cómo estas podían servir para comunicarse con los objetos. Se habían inspirado en un macabro experimento que supuestamente se había llevado a cabo en la Unión Soviética: los submarinos nucleares iban con una coneja cuyos gazapos se habían quedado en tierra. Si los funcionarios rusos mataban a una de estas crías, la madre sería capaz de percibirlo a distancia y cambiaría su estado de ánimo. Como si fuera el pájaro enjaulado de una mina, los miembros del submarino interpretarían esto como una señal para realizar alguna acción. Por ejemplo, lanzar sus misiles nucleares.

La idea de los conejos sonaba extremadamente insólita, pero en DARPA tenían mucho interés en las ondas mentales o en cambios que pudieran venir asociados con la presión sanguínea. Tenían un psicólogo contratado, George Lawrence, que se encargaba de dirigir estas investigaciones: querían saber si era posible capturar auras y llegaron a viajar por todo el país en busca de brujas. Lawrence fue uno de los que dudó de las capacidades de Geller para leer las mentes de los demás, pero su infructuoso encuentro sirvió para seguir investigando la posibilidad de manejar las ondas cerebrales para controlar un ordenador.

La idea de Lawrence, que entonces era un amante de los ordenadores, era que esa máquina fuera manejada tanto por un periférico como por la mente humana, usando en este caso unos sensores que monitorizaran la actividad cerebral. Y además se convenció (y convenció a DARPA) de que con ilusionistas no podría llevarse a cabo. Aquella audacia de los años 70 para la que se necesitaban todavía muchos progresos científicos y tecnológicos está ahora en expansión.

Ya lo confiesa Weinberger: "Muchos proyectos fracasaron en su momento porque la tecnología no estaba lo suficientemente avanzada, pero luego los revisaron diez o veinte años después". Sus ideas, demasiado adelantadas a su tiempo, sembraron la Guerra Fría de innovación y sentaron las bases de lo que manejamos hoy en día.

---
Las imágenes han sido cedidas por Sharon Weinberger

El primer gran éxito de Kickstarter en España ve la luz con un año de retraso

$
0
0

Un platillo volante lleno de sensores capaz de recrear diferentes instrumentos y escalas musicales gracias a una ‘app’. En junio de 2015, cuando se abrió el telón de Kickstarter en España, uno de los primeros proyectos que vieron (y escucharon) los internautas fue Oval, ese peculiar instrumento electrónico. Y decenas de ellos desearon tocar alguna melodía con sus propias manos.

En tan solo 2 días y 15 horas, sus creadores habían recaudado los 100.000 euros que se marcaron como meta, una cifra que llegaron a triplicar (finalmente recaudaron 348.000 euros). Así, se convirtió en la campaña que más financiación obtuvo en la versión española de la plataforma de ‘crowdfunding’ aquel año y en la segunda más exitosa de su corta historia (tan solo superada por Smach Z, una consola que recaudó casi medio millón de euros hace unos meses).

“Tardamos un año en desarrollar lo que presentamos en Kickstarter, y estaba hecho por fuera pero no por dentro. No estaba pensado para industrializar, no estaba pensado para producir más de diez unidades”, explica Alex Posada, cofundador y CEO de Oval.

Aunque las primeras entregas del instrumento estaban previstas para abril de 2016, ha sido un año después cuando algunos de los casi 700 mecenas que apoyaron el proyecto han comenzado a golpear sus Oval. “Hemos entregado más de 100, estamos acelerando para que podamos entregar entre 50 y 100 semanales en los próximos tres meses”, asegura Posada, destacando que el producto final supera las “funcionalidades técnicas” del prototipo.

Según un estudio elaborado por la Universidad de Pensilvania para Kickstarter en 2015, los creadores no cumplen con los plazos de entrega de las recompensas en el 9 % de los casos. Además, el 8 % del total de los fondos que aportan los mecenas van a parar a proyectos fallidos.

Oval no está entre los segundos, pero sí entre los primeros. Aunque los mecenas que apoyaron esta campaña sí van a recibir su instrumento, se ha experimentado un gran retraso en las entregas. ¿A qué se debe? ¿No vale con tener un éxito sin precedentes y triplicar el objetivo de financiación para que los Oval lleguen a manos de sus propietarios a tiempo? ¿A qué problemas se ha enfrentado esta empresa española?

Haciendo electrónico un exclusivo instrumento

Los padres del Hang, un instrumento de percusión nacido en el siglo XXI, solo fabricaron 7.000 unidades. Dos lutieres suizos lo concibieron en su taller y lograron cautivar con su música a cientos de compradores, que pagaron unos 2.000 euros y esperaron un año para tener el suyo. El músico israelí Ravid Goldschmidt se convirtió en uno de los que quedaron fascinados por aquel invento cuando lo escuchó en un festival. Tras trabajar en Suiza con sus inventores, se ha convertido en uno de los mayores expertos del mundo del Hang y de otros similares que nacieron tras él, los llamados ‘handpans, con los que ha dado conciertos por todo el mundo. 

Tenía nueve Hangs cuando visitó en Barcelona, hace unos años, al ingeniero Alex Posada, que por entonces era coordinador del laboratorio de interacción del centro para la investigación y producción artística Hangar. “Empecé a estudiar 'teleco' y electrónica porque quería hacer instrumentos musicales para poder hacer música en directo y desarrollar mi carrera artística”, recuerda Posada.

Cuando Ravid le preguntó si podría crear un nuevo instrumento que integrase varios de sus Hangs en uno solo, se puso manos a la obra. Ilusionado, diseñó un prototipo electrónico inspirado en el original, con la ventaja de que, al ser digital, permitía modificar las notas de cada uno de los ‘pads’ (la suerte de teclas). “Al ser escalas musicales que siempre están en el mismo tono y que siempre suenan bien, tampoco hay disonancias", detalla. "Enseguida puedes estar haciendo cosas bonitas casi sin darte cuenta”.

El apoyo de algunos músicos que conocían hizo que la idea se convirtiera en un negocio: así, en 2014, fundaron Oval Sound. “He acabado montando una empresa de tecnología musical, que es el sueño de toda mi vida”, destaca Posada. No era la primera vez que se atrevía a emprender. Creador digital, investigador y profesor, nunca le ha gustado trabajar para otros. Por eso creó hace unos años el estudio de diseño interactivo MID y cofundó Broomx Technologies, una compañía que diseña experiencias inmersivas en la que sigue involucrado.

Con buen ojo, decidieron aprovechar el lanzamiento de Kickstarter en España para presentar su original instrumento de forma circular y validar su producto. La jugada les salió bien y los internautas acogieron con entusiasmo su original creación, pero tenían mucho trabajo por delante para que aquel vídeo se hiciera realidad. “Con lo que salimos a Kickstarter era una cosa muy limitada, un juguete, pero fue lo suficiente como para crear expectación, porque realmente lo que vendíamos en Kickstarter era una serie de cosas que iban mucho más allá de ese producto y eso que nos ha hecho también sufrir durante todo este último año”.

Los problemas tras el éxito en Kickstarter

“Diseñado, creado y fabricado con cuidado en Barcelona”: así se describía en la campaña. Siguiendo las recomendaciones de asesores, consultores y de los propios responsables de la plataforma, el equipo de Oval optó por trabajar con proveedores locales “al máximo posible para controlar la producción” de este instrumento que se puede tocar dando golpes, moviendo los dedos sobre la superficie como si fuera una pantalla táctil o incluso haciendo gestos. “A China solo tiene sentido irse cuando estás fabricando del orden de 20.000 unidades al año o más. Si estás fabricando menos de eso, para los chinos no eres rentable", afirma, "y te la van a liar siempre que puedan”.

Pese a tomar esa decisión, les salió “el tiro por la culata”. Uno de los proveedores decidió subcontratar la fabricación de algunas piezas a China para “abaratar costes”. Lo hizo por su cuenta y, según Alex, fue “un desastre”, pues “son piezas caras que implican hacer unos moldes, una inyección de plástico y una fabricación que tú no controlas”.

Las piezas a medida no llegaron como ellos habían pedido y han tenido que solicitar hasta ocho versiones diferentes para que se ajustaran a sus necesidades. El tiempo de espera hasta que la fábrica china modificaba los moldes, fabricaba las nuevas piezas y las enviaba a España ha hecho imposible tener el Oval listo en la fecha que esperaban. “Al hacerlo tan lejos, con tanta distancia y con tantos problemas logísticos, hemos perdido seis meses con esa tontería”, detalla Posada. “Ya está todo solucionado. Son temas que pasan y de todo se aprende”.

Lógicamente, el retraso en la entrega del producto ha hecho que los mecenas hayan comenzado a impacientarse. Tras meses de espera, y pese a que todas las campañas llevan un aviso de "entrega aproximada" y Kickstarter avisa de que la “la fecha indicada en cada recompensa es una estimación del creador”, algunos han llegado a protestar públicamente. Ahora bien, ¿ha sido su apoyo financiero suficiente para fabricar este peculiar instrumento?

“Los costes de Kickstarter no están generando ningún margen para nada", protesta Posada. Al final es una inversión que nosotros estamos haciendo en los ‘backers’, no al revés. El producto ha subido [su precio] para que podamos empezar nosotros ya a tener un poquito de margen con las ventas”.

Efectivamente, las dificultades en la producción han hecho que Oval se haya encarecido: los 250 primeros mecenas consiguieron uno por 400 euros, y en la campaña se especificaba que el precio de venta del instrumento “sería de 599 euros o más”. Finalmente, puede reservarse en su web por 979 euros. “300.000 euros para 1.000 unidades [el número de instrumentos que van a producir en la primera tirada] no es nada, es la ruina, es para darte un empujón”.  

Pasar de idear un novedoso instrumento a ser el CEO de una empresa que ha desarrollado tanto un producto físico (lo que les ha hecho necesitar un laboratorio y un almacén) como una ‘app’ con la que se conecta por Bluetooth (Oval Synth, que ya está disponible en Android e iOS) no ha sido tarea fácil.

Diez personas contratadas y cinco ‘freelances’ integran ya el equipo de Oval Sound, así que recaudar 400.000 euros de capital semilla proveniente de inversores privados, una cantidad mayor que la que obtuvieron en Kickstarter, ha sido imprescindible para salir adelante.

“No nos podemos quedar en un producto de Kickstarter. Es solo el primero de una serie de productos que van a venir, que son los que realmente van a penetrar en el mercado y son los que van a hacer que se convierta en una empresa de referencia a nivel mundial”, asegura Posada.

El próximo reto: más financiación (y más proyectos)

Aunque ya se están enviando los primeros instrumentos, la compañía también está trabajando ahora en mejorar la aplicación que permite manejarlos, tal y como prometieron en Kickstarter. De momento solo dispone de un modo de reproducción, pero se añadirán funciones para que el Oval se convierta en un estudio de grabación portátil para crear canciones complejas y en una suerte de juego (los usuarios tocarán melodías simples siguiendo las indicaciones de las luces led y obtendrán una puntuación).

Optimizar la electrónica y aumentar el volumen de producción para generar economías de escala y abaratar los costes, disponer de existencias en lugar de fabricar bajo pedido y crear una red comercial internacional son otros de los retos de esta joven empresa. Para conseguirlo, planean abrir una ronda de financiación para captar inversores y también quieren conseguir financiación pública: “El proyecto necesita un año o dos de inversión para ser viable”.

Acudir a The Next Web Conference (un evento anual que reúne a inversores y ‘startups’ y se celebrará dentro de unos días en Ámsterdam) y al Startup Garden de Sónar en junio (un programa de actividades orientado a ‘startups’ dentro del festival de música electrónica) son los siguientes pasos de Oval Sound.

Un proyecto que se convirtió en el primer gran éxito de Kickstarter en España (un logro nada desdeñable si se tiene en cuenta que, de los más de 350.000 proyectos publicados en la plataforma, casi dos terceras partes ni siquiera alcanzan su objetivo de financiación), pero al que aún le falta madurar para convertirse en una empresa rentable. “La gente se cree que levantas 300.000 euros y ya tienes la vida solucionada. Y para nada, muy lejos de la realidad”, sentencia Posada.

-----------------

Todas las fotografías son propiedad de Oval Sound

De Microsoft a Google: las mentes españolas que moldean la realidad virtual

$
0
0

En las manos adecuadas, la realidad virtual es capaz de todo. Con talento y creatividad, se puede viajar al pasado o al futuro, crear cualquier mundo que seamos capaces de imaginar y engañar al cerebro para que se crea que nos hemos trasladado allí. Gigantes como Google o Facebook apuestan decididamente por esta tecnología que va a llegar a todas partes, desde la educación o el turismo hasta la arquitectura, el cine o la medicina.

Entre los visionarios que están procurando que así sea hay varios españoles que han llegado a lo más alto, ya sea investigando desde Microsoft, colaborando con la NASA o creando contenidos para Google. El primero es el caso de Mar González Franco, una joven ingeniera navarra que investiga en Microsoft Research para ampliar los límites de nuestra realidad con experiencias virtuales o mixtas como las que ofrece Hololens.

Mar González Franco, investigadora en Microsoft

“La verdad es que mi trabajo es bastante curioso y único, porque puedo hacer investigación bastante académica”, ha explicado en el podcast de Hoja de Router. “Microsoft Research tiene unos laboratorios con científicos muy prestigiosos, gente que ha ganado el premio Turing [considerado el Nobel de Informática]. Aquí hay en mi mismo pasillo grandes cerebros que han cambiado el mundo”.

El camino que la ha llevado hasta Redmond (en Seattle, Estados Unidos, donde se encuentra la sede central de Microsoft), al edificio donde están algunas de las mentes más brillantes del planeta, partió de la Universidad de Barcelona, donde el reputado profesor Mel Slater dirigió su tesis doctoral. “Cuando empiezas a trabajar en un campo con alguien que lo lidera, automáticamente te mete en esa liga”, reconoce. “Es como la analogía del fútbol. Si entras a jugar en el Barcelona, pasas a la Champions League”.

Su primera temporada en las grandes ligas la jugó en el Media Lab del MIT, el prestigioso Instituto de Tecnología de Massachusetts, donde realizó parte de su doctorado. Aquello le abrió las puertas de Microsoft. Entró con una beca de verano y, tiempo más tarde, cuando se encargaba de poner en marcha el laboratorio de realidad virtual de Airbus, le ofrecieron el puesto que ahora ocupa en el equipo de investigación de la tecnológica.

“Nosotros no nos dedicamos a la producción o a la fabricación”, aclara, “pero si hacemos prototipos, les enseñamos cómo mejora la experiencia de la persona que los usa, y entonces, si les gusta, ellos se lo llevan y con eso crean un producto que al final va a llegar a las casas de la gente”. A diferencia de otros departamentos futuristas, como Google X o el Building 8 de Facebook, su labor es “más de ciencia básica”, de asentar los cimientos sobre los que se levantarán los adelantos tecnológicos.

En esa línea de anticipar el futuro, González se encargó de elaborar los vaticinios para la realidad virtual que se incluyeron en las predicciones con las que Microsoft dio la bienvenida a 2017. “Una cosa que yo creo que estamos viendo es que la realidad virtual tiene esa capacidad para modificar un poco tu percepción”, explica. “Es esa sensación de presencia, esa sensación de que los eventos que están pasando son reales. Entonces, te lleva a comportarte de manera realista”.

Para ilustrarlo, recurre a un ejemplo: “Si tú estás hablando con un avatar en realidad virtual y ese avatar estornuda, es muy probable que le digas ‘salud’, a pesar de que es un avatar virtual y sabes que no es una persona real”. Por eso predijo que este año sería el de la aparición de los primeros cuerpos virtuales, necesarios para interactuar de forma plena en estos entornos. “De hecho ya lo estamos viendo”, puntualiza, “porque recientemente Facebook ha presentado sus avatares dentro de realidad virtual”.

Su segundo presagio, más a largo plazo, cuesta más entenderlo (o asumirlo). González habla de “recalibrar” nuestros sentidos, o incluso mejorarlos, gracias a la realidad virtual. Simplificando, se trataría de adquirir una especie de “superpoderes” como la asombrosa propiocepción que tiene una bailarina de ‘ballet’, capaz de saber dónde se encuentra cada parte de su cuerpo sin necesidad de mirarlo. ”Es lo que yo creo que se va a poder hacer con la realidad virtual”, asegura la investigadora de Microsoft.

Hay una serie de obstáculos que la tecnología aún tiene que salvar para que llegue ese prometedor futuro. Los dispositivos aún son caros y un tanto aparatosos, no hay estándares para crear contenido, las aplicaciones son escasas… Esquivarlos para que la realidad virtual se vuelva cotidiana será cuestión de tiempo; según Mar, incluso menos del que imaginamos. “Yo creo que va a ser relativamente rápida la adopción”, afirma. “Cuando tienes una serie de grandes empresas apostando por una tecnología como esta, esto hace que se abarate y que, además, como se abarata, llegue a más gente, con lo cual también se populariza mucho más rápido”.

De Zaragoza a la NASA sin salir de España

A pesar de ser muy joven, Mar González se ha hecho un hueco en la primera línea de la innovación en realidad virtual. Para ello, eso sí, ha tenido que cruzar el charco. Por desgracia es lo más habitual entre los investigadores españoles: muchos ingenieros y científicos con talento deciden emigrar porque es la única forma de impulsar sus carreras.

Son pocos los que consiguen quedarse en España, y menos aún los que toman la decisión de hacerlo aunque les lluevan las ofertas. Es el caso de Diego Gutiérrez, profesor e investigador de la Universidad de Zaragoza, que ha trabajado con algunos de los principales centros de investigación del mundo y con gigantes como Activision, Disney o la NASA. Todo ello no solo sin salir de su ciudad natal, sino atrayendo dinero y atención de todo el mundo.

“A mí me parece fantástico que la gente se vaya si es lo que quiere hacer”, aclara a Hoja de Router en el podcast. “La pena es cuando alguien te dice ‘me encantaría quedarme pero no puedo’ [...] pues España no tiene el tejido para absorber todo lo que hemos creado”. En su caso, la beca de 1,7 millones de euros que le concedió el Consejo Europeo garantiza los recursos para sacar adelante una investigación que tiene un objetivo de lo más ambicioso: crear, a largo plazo, imágenes virtuales indistinguibles de las reales.

“Si tu vas al cine, las películas cada vez tienen más y más escenas que han sido generadas en un ordenador y no te das cuenta”, recuerda. “Lo que pasa es que esas escenas cuestan horas de producir. Cada fotograma”. Eso en realidad virtual es inviable, pues “el entorno tiene que responder en tiempo real, sin ‘lag’, sin ningún retraso, a los movimientos y la interacción del usuario”.

Trasladar la calidad del cine a la realidad virtual es, precisamente, la misión de este investigador zaragozano, que pretende engañar al cerebro (sin mareos, sin generar confusión) para reducir el número de operaciones que los dispositivos deben realizar. “Buscamos entender qué partes necesitamos darle al cerebro para que lo entienda con una imagen realista, perfecta, sin necesidad de hacer toda esa cantidad de cálculos físicos que hacemos hoy por hoy”, detalla.

Diego ha recibido ofertas, pero se queda en Zaragoza

Todavía faltan “quince o veinte años” para que la industria llegue a ese punto, pero mientras tanto Gutiérrez y sus doctorandos van sumando éxitos. “A lo largo de las tesis, siempre surgen oportunidades de colaborar con estas grandes empresas”, explica el profesor. “Resolvemos problemas con ellos, estamos trabajando seis meses o dos años, depende del proyecto, casi siempre en el contexto de la tesis doctoral de algún chico, y normalmente acaban ofreciéndoles un puesto de trabajo. Unos aceptan y otros no”.

Aunque tenga que decir adiós a algunos de sus compañeros, Gutiérrez siempre se queda. “El motivo es doble. Primero personal, porque cada uno tiene que valorar un poco lo que le hace feliz en la vida”, considera. “A nivel profesional, tengo la suerte de que necesitamos únicamente ordenadores y, hoy por hoy, son relativamente baratos. Es cierto que si yo trabajara en un campo un poquito más exigente en cuanto a recursos físicos, quizá no habría tenido más remedio que hacer las maletas e irme a algún sitio en el extranjero donde me pudieran dar esos recursos”.

Dos hermanos españoles trabajando para Google

Según la radiografía del sector de la realidad virtual que ha elaborado The App Date, los proyectos desarrollado con esta tecnología movieron alrededor de 45 millones de euros en 2016, con 150 empresas dedicadas en nuestro país a impulsar este sector aún joven. Una de ellas es Raiz New Media, la aventura de dos hermanos asturianos que decidieron aprovechar su experiencia en lo audiovisual para emprender en el desconocido mundo de la realidad virtual cuando todavía estaba en pañales.

Lo hicieron con una serie de aplicaciones que publicaron en Google Play y que captaron la atención del gigante, que poco después llamó a su puerta. “La verdad es que fue una sorpresa bastante grande”, confiesa uno de ellos, Eduardo Acosta, en el podcast de Hoja de Router. “Habían visto un prototipo nuestro [...] una simulación por dentro del corazón humano”. Y se convirtió en su primer encargo para Google Expeditions, la plataforma educativa en realidad virtual del gigante.

“En ese momento no había nada, con respecto a realidad virtual había muy pocas aplicaciones”, describe. “Las que había no estaban mal, pero quizá sí que les faltaba un componente un poco más estético, llevarlas más allá, darles una vuelta de rosca en cuanto al concepto. Era todo muy cuadrado. Faltaba color”.

Eduardo admite que lo suyo “tampoco era algo excepcional”, pero sí “una vuelta de rosca” suficientemente atractiva como para convencer a Google. “Es gente que lleva muy muy a la realidad lo de la meritocracia: si haces algo bien, te lo mereces y te dejan la responsabilidad absoluta”. Además, según Acosta, “pagan como es debido”, algo poco habitual en un sector donde al cliente le cuesta entender la cantidad de horas de trabajo que requieren los proyectos.

En lo que respecta a contenidos, afirma que la realidad virtual se moverá en dos direcciones. Una, la que pretende emular la realidad (por ejemplo, “jugar al fútbol con un Messi o un Cristiano Ronaldo virtual”); la otra, la que nos dará “capacidades que no tienes en el mundo real, como volar o llegar a la Luna sin cohetes ni nada”.

Algo así como los superpoderes que predecía Mar González, que también nos recordaba que, pese a todo lo que estamos consiguiendo, “hay muchas cosas que aún nos quedan por explorar” y “vamos a encontrar nuevas aplicaciones en las cuales no habíamos pensado”. Visionarios y genios de la realidad virtual como estos españoles estarán en la primera línea de esa innovación, inventando esa máquina del tiempo que nos permitirá viajar al pasado o al futuro, hacia delante o hacia atrás, a cualquier lugar y a cualquier época, pero también crear mundos que no existen. La imaginación es nuestra única frontera.

-------

Las imágenes que aparecen en este artículo son propiedad de Nan PalmeroMicrosoft, Universidad de Zaragoza (y 2) y The App Date

El informático que descifra la correspondencia de Felipe III

$
0
0

Las intrigas palaciegas propias de las novelas de capa y espada no son exclusivas de la literatura. De hecho, aunque el cifrado parezca algo de lo más moderno, ligado a la seguridad informática, lo cierto es que la historia de la criptografía hunde sus raíces en la Antigua Grecia

El cifrado fue evolucionando desde entonces, pero jamás cayó en desuso. Entre otras cosas, se crearon complejos sistemas para sustituir los caracteres de las cartas por otros con los que ocultar mensajes confidenciales. Sin ir más lejos, los Reyes Católicos y sus sucesores, incluyendo al emperador Carlos V, recurrieron al cifrado de su correspondencia como método de protección de sus secretos.

A día de hoy, en la Real Biblioteca del Palacio Real de Madrid, el doctor en Filología e ingeniero informático José Luis Rodríguez trabaja en el criptoanálisis de una suculenta muestra de correspondencia del siglo XVII con el objetivo de descifrar, entre otras, las cartas de Felipe III, el Austria apodado como “el Piadoso", inmortalizado en una estatua ecuestre en la Plaza Mayor de la capital.

“Nuestro corpus lo constituye la correspondencia cifrada procedente de la biblioteca del conde de Gondomar”, explica el filólogo a HojaDeRouter.com. El citado aristócrata es Diego Sarmiento de Acuña, un cortesano cuya amistad con el Duque de Lerma, valido del monarca, le permitió acceder a la misión de representar al por entonces imperio en la corte inglesa durante casi una década, desde 1613 hasta 1622.

Además de 6.500 libros, la biblioteca del conde de Gondomar incluye las cartas del noble, entre las que se encuentran las que tuvo que intercambiar con el propio Felipe III como embajador de España en Inglaterra. No obstante, por la relevancia de muchas de las misivas que enviaba el monarca (que requerían una confidencialidad especial, habida cuenta de la enemistad entre ambas naciones), esa correspondencia está cifrada. Ahora, el reto es descubrir qué había escrito en ellas.

“En primer lugar, tratamos de familiarizarnos con el sistema criptográfico que se está utilizando en esta época. Para ello, nada mejor que descifrar cartas de las que conservamos la clave utilizada para su cifrado”, detalla Rodríguez. Un buen número de las que forman parte de la colección de la Real Biblioteca están acompañadas de su solución, obra del denominado “secretario de lenguas”, el encargado de traducir los textos cifrados para mostrar el mensaje original. “Esto nos ha facilitado la reconstrucción de alguna clave, también denominada nomenclátor”, resume.

Como no sucede lo mismo con todas las que componen la colección del conde de Gondomar, descifrarlas no resulta sencillo. “Se utilizaba una cifra de tipo homofónico, en la que cada signo del texto plano tiene más de una posibilidad de traducción al texto cifrado”, explica Rodríguez.

De esta forma, el secretario de lenguas encargado de cifrar el texto tenía cuatro opciones distintas para cambiar cada vocal, eligiendo de una forma totalmente aleatoria. Pero esa no era, ni mucho menos, la única trampa a la que debía enfrentarse aquel que deseara descifrar una misiva interceptada: “Existen también combinaciones de dos o tres caracteres, con o sin diacríticos, que corresponden a un solo carácter”, cuenta Rodríguez.

Para colmo, algunas palabras esperables en este tipo de correspondencia se cifraban de una forma previamente estipulada (“el término ‘embaxador’ podía estar representado por un número como ‘145’", ejemplifica el filólogo) y, además, se solían introducir otros símbolos sin significado alguno con el objetivo de ponerle las cosas más difíciles si cabe al enemigo.

Secretos de Estado

Estas y otras precauciones que tomaban el monarca y el propio conde respondían, sencillamente, a la importancia de las instrucciones que se estaban impartiendo a través de las cartas. Muestra de ello es una de las misivas de la colección que ya han sido descifradas. En esta, Felipe III daba órdenes claras al embajador sobre cuáles debían ser las líneas rojas de la negociación que debería haber concluido con el enlace entre la hija menor de Felipe III, la infanta María Ana de Austria, y Carlos de Inglaterra, Príncipe de Gales.

La boda serviría para unir a las dos potencias más importantes de la época y asegurar, con ello, la paz. Sin embargo, el enlace debía sortear el mismo obstáculo que venía distanciando a ambos países: la religión. “Amparándose en las deliberaciones de los teólogos, en las dificultades, aunque no imposibilidades, que encuentran en este casamiento, se insiste en la necesidad de que los hijos de ese futuro matrimonio sean bautizados y educados en la religión católica, y en que incluso los criados de la casa de la infanta profesen esa religión”, se dice en la correspondencia analizada por Rodríguez. Principalmente por aquella razón, finalmente, las negociaciones no llegaron a buen puerto.

El trabajo de José Luis Rodríguez difiere en algo de aquel que tenían que desempeñar los secretarios de lenguas para descifrar las cartas recibidas. Sin el nomenclátor en su poder, Rodríguez recurre a ‘software’ estadístico que permite extraer patrones y, finalmente, hallar la clave de las cartas recibidas por Gondomar.

“Hay una labor previa, ineludible y laboriosa, que es la edición textual, es decir, la transcripción de la carta cifrada”, explica el filólogo. Tras copiar en el ordenador las cartas redactadas con la compleja (y a veces incomprensible) caligrafía del siglo XVII, el trabajo prosigue con la ayuda la informática. “Usamos programas estadísticos que nos permiten aislar los caracteres y las combinaciones más frecuentes”, describe Rodríguez. Conociendo la frecuencia, explica el ingeniero, es posible comparar determinadas letras con las cifradas a través de alguna clave conocida. “Y así, poco a poco, llegamos a reconstruir el nomenclátor no conservado”.

"El sistema de sustitución homofónica tiene una gran fortaleza, pero no es infalible", señala Rodríguez. Muestra de ello son las cartas recibidas por Gondomar en torno a 1618 anunciando un cambio de clave, con los problemas que ello suponía: transportar el nuevo nomenclátor de forma segura, establecer a partir de qué momento se llevaría a cabo la sustitución, etc. "La clave tiene una vida bastante limitada", sentencia. Y a él le corresponde la difícil labor de romperla.

------------

Las imágenes son propiedad de Patrimonio Nacional


La española que creó coches autónomos antes que Google: “Hemos ido en cabeza”

$
0
0

Hace medio siglo, cuando Telesincro fabricaba el primer ordenador español y aún faltaban unos cuantos años para el nacimiento de Apple o Microsoft, Teresa de Pedro trabajaba ya con una máquina de IBM. “La gente no tenía ordenadores en sus mesas ni muchísimo menos, y yo empecé a hacer la tesina con él como usuaria”, rememora esta investigadora ya jubilada para HojaDeRouter.com.

A principios de los 60, los primeros computadores (IBM impuso el término ordenador más tarde) acababan de aterrizar en los centros universitarios españoles, entre ellos una veintena de IBM 1620 como el que usó Teresa para su proyecto fin de carrera, que presentó en 1967, tras licenciarse en Ciencias Físicas por la Universidad Complutense de Madrid.

Aquel primer acercamiento a la naciente informática con una máquina que utilizaba tarjetas perforadas supuso el inicio de su dilatada carrera investigadora, en la que desarrolló desde uno de los primeros programas de inteligencia artificial en España hasta los primeros vehículos sin conductor patrios.  

Una mujer en los albores de la informática en España

Ir a la universidad no era lo habitual para una mujer nacida en la época de Teresa. En 1940, solo el 13 % de los estudiantes matriculados en las universidades españolas eran mujeres, una cifra que se incrementó muy poco durante las siguientes décadas (hasta el 20 % de 1958). En su caso, la pasión por la física que le transmitió una profesora y el impulso de sus progenitores, que la animaron a estudiar y le dejaron “libertad absoluta” a la hora de elegir carrera, fueron decisivos para comenzar sus estudios universitarios en 1961.

La tónica de la época era casarse y se acabó. Mi padre decía ‘aunque os caséis y lo dejéis, que sea porque vosotras [su hermana y Teresa] hayáis querido dejarlo’. Y ese ha sido un empeño que les agradeceré a mis padres toda la vida”, destaca De Pedro. Una cuarta parte de sus compañeras eran mujeres, aunque la mayoría (entre ellas algunas monjas) se dedicaron al ámbito de la enseñanza en los institutos. Ella siguió un rumbo diferente.

Al poco tiempo de presentar su tesina, obtuvo una beca para trabajar en el Instituto de Electricidad y Automática del CSIC, creado por iniciativa de José García Santesmases, el padre de la informática en España. De hecho, fue profesora adjunta del pionero. “A lo mejor porque era una persona que ya sabía un poquito de informática y se daban los primeros cursos y las primeras clases de universidad”, según relata con humildad.

A mediados de los 60 ya se incluían clases de programación o 'hardware' en algunas titulaciones (la Complutense fue pionera a este respecto), aunque no fue hasta 1976 cuando se crearon las primeras facultades de informática en Madrid, Barcelona y San Sebastián. Para entonces, esta investigadora ya había dado sus primeros pasos en el sector.

Telesincro quiso contratarla tanto a ella como a su primer marido, Ricardo García Rosa, con el que compartió gran parte de su carrera. Sin embargo, ambos prefirieron continuar por el campo de la investigación: “De alguna manera hacíamos lo que creíamos que debíamos hacer”, recuerda De Pedro.

No obstante, acabó aportando su granito de arena a la empresa catalana, que plantaba cara con sus miniordenadores a las poderosas multinacionales extranjeras: Telesincro decidió contratar al Instituto de Automática Industrial en el que De Pedro trabajaba para mejorar el Factor-S, su primer ordenador de diseño 100 % nacional, lanzado en 1971.

Una máquina muy avanzada (cualquiera podía programarla y disponía de una versión primitiva de disco duro) para la que De Pedro desarrolló un ensamblador y un editor de textos. “Fue un trabajo muy complicado en aquel momento porque había que trabajar en código máquina", rememora. "Es un trabajo muy interesante y muy gratificante para un informático porque es hacer el ‘software’ básico”.

Tras desarrollar un programa para predecir la contaminación atmosférica en Madrid o un simulador semejante a un primitivo videojuego para la Escuela de Guerra Naval, De Pedro se orientó al campo de la inteligencia artificial. En 1976, presentó su tesis doctoral, para la que ideó el sistema DOCIL (siglas de Diseño por Ordenador de Circuitos Impresos “y la ‘l’ para que fuera dócil”).

Por entonces, diseñadores expertos se encargaban de trazar los caminos de las conexiones en un circuito impreso, esa placa generalmente de color verde que puedes descubrir en las tripas de cualquiera de tus aparatos electrónicos. La labor manual era ardua, ya que, a medida que se trazaban las conexiones, el laberinto era más complicado y quedaba menos espacio libre.

Imitando el modo de operar de los humanos, esta investigadora desarrolló un programa para que el ordenador trazara esos caminos automáticamente. “Fue uno de los primeros programas de inteligencia artificial no teóricos”, asegura De Pedro. “No conozco otro, porque se empezaban a hacer cosas de inteligencia artificial pero se quedaban en planos de juegos sencillos [...] Nosotros también empezamos a trabajar en eso, pero lo aplicamos a resolver un problema de la industria”.

Su sistema DOCIL tuvo mucho éxito en poco tiempo: el CSIC lo transfirió a empresas, centros de investigación, institutos de astrofísica y universidades españolas y extranjeras. “Mi primer viaje a Alemania fue para implantar tecnología española en un Instituto Max Planck”, recuerda Teresa con orgullo.

A raíz de la popularidad de su programa en la comunidad científica, algunas empresas se interesaron por sus avances en los años 80. Una de ellas fue Televés, una empresa gallega dedicada a la recepción y distribución de la señal televisiva para la que desarrollaron varias herramientas.

Una de ellas permitía el ajuste automático de equipos electrónicos. Hasta entonces, un técnico experto tenía que sentarse ante un osciloscopio y dedicar media hora a ajustar los parámetros para que cada amplificador recibiera la señal que deseaba el telespectador y rechazara las demás. Teresa y su equipo construyeron una suerte de manos robóticas que se movían en función de un programa de ordenador mucho más rápido que los humanos: “Hicimos un sistema de inteligencia artificial que lo resolvía en minuto y medio”, afirma con orgullo.

De los robots móviles a los coches autónomos

Con la firma del tratado de adhesión de España a la Comunidad Económica Europea en 1985, los investigadores del CSIC comenzaron a participar en los proyectos científicos continentales. Teresa trabajó e incluso dirigió los primeros relacionados con robótica.

Tras experimentar con brazos manipuladores, compraron un robot similar a un carrito (Shakey, el primer robot móvil con inteligencia artificial, también era parecido a una lavadora con ruedas) y dotado con sensores de ultrasonidos y un sistema de visión artificial. “Era bastante primitivo y carísimo, los robots aquellos costaban un ojo de la cara, muchísimo más que un Mercedes”, recuerda De Pedro entre risas.

Controlar un sistema formado por un robot móvil que se movía por un carril transportando un brazo articulado para inspeccionar tuberías era el objetivo de uno de esos proyectos, apodado MARIE (Robot Móvil Autónomo en un Entorno Industrial, por sus siglas en inglés). Para conseguirlo, De Pedro y su equipo tenían que desarrollar algoritmos de planificación de caminos y de tareas.

Sin embargo, su trabajo no se quedó ahí. “De una manera bastante natural” pasó de desarrollar técnicas de control para robots a trabajar en las de vehículos autónomos. “Primero porque pensamos que era una cosa parecida, que un coche no es tan diferente a un robot con ruedas; segundo, porque los robots eran carísimos y los coches eran más baratos; y, tercero, porque estábamos a las afueras de Madrid y teníamos espacio para hacer pistas de pruebas”, detalla esta investigadora.

En 1996, arrancaba en el actual Centro de Automática y Robótica, un organismo mixto de la Universidad Politécnica de Madrid y el CSIC, el Programa Autopía para desarrollar vehículos inteligentes y autónomos. Una iniciativa que ha contado con financiación nacional e internacional, además de con la colaboración de otras universidades.

Hace dos décadas no era habitual dedicarse al novedoso campo de los coches sin conductor, así que De Pedro fue una “de las primeras” investigadoras que lo hizo en España. “El director de nuestro Instituto nos llegó a decir que si estábamos locos”, recuerda Teresa, que llegó a ser directora del programa. “Yo creo que había [gente] en Estados Unidos, por supuesto, Dickmanns en Alemania, en Japón también… Pero muchos de estos proyectos dependían de fabricantes. Yo creo que se trabajaba como individualmente, no había mucho intercambio de información en aquel momento”.

Ernst Dickmanns, el padre europeo de los coches sin conductor, había conseguido ya en los 80 que una furgoneta Mercedes a la que apodó VaMoRs discurriese por la carretera sin invadir el arcén controlando el acelerador, los frenos y el volante con ayuda de una cámara, sensores y el sistema de visión dinámica que este investigador había desarrollado. A finales de los 80, la Universidad Carnegie Mellon también desarrollaba Navlab, un vehículo dotado de un radar que alcanzaba unas velocidades inferiores a las del sistema de Dickmanns.

Por su parte, los primeros experimentos de Autopía eran simulaciones, pero a finales de los 90 comenzaron a realizar pruebas con una furgoneta Citroën Berlingo eléctrica a la que apodaron Babieca, equipada en un principio con un sistema de control lateral. Poco a poco, instalaron una red inalámbrica que les permitió establecer la comunicación entre la estación base y los vehículos en las pistas y un sistema de navegación que utilizaba un GPS y una cámara de visión artificial. En 2002, también equiparon otra furgoneta, Rocinante, con un ordenador, y ese mismo año el grupo hizo su primera demostración internacional en Versalles.

“Yo creo que hemos ido no sé si adelantados, pero sí hemos ido bastante en cabeza. Estábamos a la altura de otros grupos, lo que pasa es que nosotros siempre hemos tenido menos recursos que los demás y estos proyectos son muy caros [...] Hemos sido un grupo reducido de personas y no es fácil competir con Dickmanns que trabajaba con Mercedes”, reflexiona De Pedro. ¿Podíamos haber sido pioneros en coches autónomos? “No sé si pioneros completamente, pero haber estado en cabeza eso seguro”, asevera.  

En 2005, el mismo año en que Stanley, el vehículo con LIDAR y navegación GPS de Sebastian Thrun, ganaba el DARPA Grand Challenge, la gran carrera de coches autónomos estadounidense, en Autopía equipaban a Clavileño. Instalaron en un flamante Citröen C3 Pluriel descapotable un nuevo sistema de control sobre el volante e incluso uno de visión con cámaras estereoscópicas para la detección de peatones.

Sin embargo, el gran protagonista del programa Autopía fue otro vehículo, que también llevaba el nombre de un équido de la ficción literaria. En 2009, cuando Google anunció su proyecto de coche sin conductor dirigido por Thrun, en la sede del CSIC equipaban a Platero con su tecnología. Tres años después, recorrió 100 kilómetros entre Arganda del Rey y San Lorenzo de El Escorial sin conductor al volante gracias a un sistema de navegación e inteligencia artificial que le permitía conocer su posición y desplazarse de forma autónoma.

Teresa comparaba entonces al vehículo con “un ciego que aprende de memoria el camino por el que tiene que ir”: hasta conocer la calzada, Platero debía seguir las indicaciones de Clavileño, que registraba la trayectoria de referencia y se la enviaba en tiempo real al coche sin conductor. Habían logrado controlar el vehículo, pero le faltaba percibir la totalidad del entorno, una capacidad que el coche sin conductor de Google lograba con su carísimo LIDAR (una tecnología que funciona gracias a un haz de luz láser para detectar distancias).

¿Qué faltó para que los vehículos autónomos patrios adelantaran a los de otros países? “Hubiéramos necesitado apoyo de las empresas o de quien fuese. Además, hemos estado bastante bien hasta que en los últimos años ha sido un desastre, porque no solo no hemos tenido apoyo, es que nos lo han quitado todo. Se han deshecho los equipos de investigación”, reflexiona De Pedro. “Pasa además que las empresas fabrican en España pero no son españolas, y no les gusta no lo dicen abiertamente pero se les nota a la legua que la investigación esté fuera de sus casas comerciales”, comentaba recientemente esta pionera.

Teresa de Pedro es miembro de honor del programa Autopía tras jubilarse en 2014, si bien la iniciativa sigue su rumbo con un equipo muy mermado. Tres personas trabajan en él. Uno de ellos, el investigador Jorge Godoy, explica que en la actualidad cuentan con un prototipo más moderno, un Citröen DS3 que incorpora un sistema de visión estereoscópica, un LIDAR y unidades similares a las empleadas por Tesla en sus vehículos para la percepción del entorno.

Tras casi dos décadas dedicada al desarrollo de los coches autónomos, De Pedro considera que tendremos muchas ayudas a la conducción que permitirán reducir accidentes, pero parece desconfiar de que “la conducción completamente automatizada” sea el futuro. “Yo no la veo sentido", considera. "Hay cosas que hay que emplear muchos recursos para no obtener un resultado”.

Ella ya no está diseñando ese mañana, pero hay que reconocer el mérito de esta investigadora, una de las primeras mujeres que trabajó en los albores de la informática, la inteligencia artificial y los coches autónomos en España. “Yo creo que hice lo que tenía que hacer. No me considero una cosa extraordinaria, pero yo creo que he cumplido”, sentencia con modestia.

---------------------------

Las fotografías son propiedad de Programa Autopía, Centro de Automática y Robótica CSIC-UPM (1 y 7), cortesía del Museo de Informática García Santesmases, Facultad de Informática, Universidad Complutense de Madrid (2 y 3) Teresa de Pedro (4), Jordi Vidal (5) y Cristina Sánchez (6). 

La revista que enseñó a programar a los primeros entusiastas de los ordenadores

$
0
0

A mediados de los años 80, la informática doméstica brillaba por su ausencia en España. Los ordenadores estaban prácticamente relegados al ámbito profesional y a los hogares de los entusiastas que decidían ahorrar durante meses para hacerse con alguna de las máquinas de la época: arcaicos aparatos como los ZX Spectrum, Commodore, Amstrad y primigenios Macintosh. El precio de los XT de IBM rondaba el millón de pesetas.

Estos dinosaurios de silicio escaseaban incluso en los lugares donde protagonizaban todas las conversaciones. “El único ordenador que vi era el que tenía el gerente, que se había comprado un Mac que me dejó alucinado”, cuenta Rafael Prades a HojaDeRouter.com. Así describe la redacción de MicroHobby, una de las primeras revistas españolas dedicadas a la informática (concretamente, al mundo del ZX Spectrum), donde trabajó como colaborador durante varios años –también era empleado de Standard Eléctrica, una empresa de telefonía filial del grupo ITT–.

La publicación era semanal. “Teníamos que diferenciarnos del resto, que eran mensuales”, justifica Prades. Llegó a los quioscos en noviembre de 1984 con un precio (95 pesetas) asequible para su público, compuesto sobre todo por adolescentes interesados en los videojuegos. Sus redactores fueron, además, pioneros en otro campo: la revista instruía a sus lectores en programación, con cursos aptos tanto para “quienes se hayan comprado un ordenador Spectrum para pasar el rato y matar marcianitos, como para aquellas personas que, teniendo cierta experiencia, deseen ampliar sus conocimientos”, rezaba la primera entrega.

Este miembro del equipo que concibió el magazín se encargaba de las lecciones sobre lenguaje de programación BASIC que MicroHobby incorporó –en las páginas centrales, como separatas encuadernables– desde su primer número. “Era un lenguaje sencillo que me atrapó, aunque mis estudios estaban enfocados al ‘hardware’”, explica Prades, especializado en electrónica.

Él mismo había hecho algunos cursos con anterioridad para aprender aquel idioma de sintaxis intuitiva desarrollado en los 60 por dos matemáticos de la Universidad de Darmouth, pero intentó que el suyo fuera diferente a lo que ya existía: “Quería que fuera muy ameno, que se participara desde el principio, que se empezaran a hacer programas”, rememora.

Estructuró los temas según su experiencia (había impartido cursos de otras materias) y sus conocimientos. El problema era que no sabía BASIC para Spectrum –“no era un lenguaje estándar, cada fabricante lo adaptaba un poco: el del Commodore y el del Spectrum no tenían nada que ver”–, así que tuvo que comprarse un ordenador y estudiar cada semana el conjunto de instrucciones que había decidido sacar en la revista. “Tenía que ver todas las posibilidades que un usuario podía encontrar si se confundía al poner el valor de un rango o cosas similares para explicar por qué salía un mensaje de error o qué hacer para evitarlo”, recuerda.

Además de unos párrafos de teoría, en las páginas abundaban los ejemplos “sencillitos”. Porque las lecciones estaban pensadas “para gente que no sabía nada de nada”: avanzaban poco y desde lo más elemental, incrementado la complejidad de los programas poco a poco.

“En el primer ejercicio les advertía que no iban a entender nada, pero que hicieran el ejercicio para que vieran cómo lo que tecleaban se transformaba en algo que hacía la máquina”, nos cuenta Prades. Comenzó con operaciones matemáticas sencillas y acabó proponiendo crear un videojuego muy básico.

También en la redacción y en la imprenta tuvieron que aprender: “Al principio había errores, ‘input’ lo escribían con eme antes de pe y para diferenciar los ceros de las oes mayúsculas tenían que ponerles una rayita a mano”, relata Prades. Pero el esfuerzo mereció la pena, porque “el curso fue un éxito”, asegura el excolaborador de MicroHobby. Prueba de ello es que sus enseñanzas fueron publicadas posteriormente en forma de libro.

El lenguaje del procesador

El de BASIC sirvió de base para el siguiente curso de la revista, uno dedicado al código máquina y el lenguaje ensamblador estrenado en el número 42. Su responsable era Jesús Alonso, actual jefe de sistemas en el Ministerio de Fomento, por entonces un aficionado a la informática que había contestado al anuncio de trabajo de MicroHobby sin saber muy bien lo que le esperaba.

“Les mandé una carta escrita en soporte magnético que se podía leer en el ordenador. Además, la escribí con 64 caracteres por línea [el Spectrum admitía 32] con un sistema mío”, relata Alonso. Así fue como entró a formar parte del núcleo que gestó la revista, dirigido por el periodista Domingo Gómez y completado por Primitivo de Francisco, especialista en ‘hardware’. “No se iba a llamar MicroHobby, sino S15. La ese era del Spectrum y el número porque iba a ser quincenal”, recuerda el informático, que escribió la última entrega del manual de BASIC tras la marcha de Prades por motivos profesionales.

A diferencia de sus predecesoras, las nuevas lecciones de código máquina y ensamblador eran complejas y “estaban pensadas para gente que ya tuvieran un poco de conocimiento”, afirma Alonso. De hecho, después de varios capítulos, tuvo que elaborar uno explicativo para intentar rescatar a los alumnos que se hubieran perdido porque en la editorial les sonaba todo a chino –sirvió luego de prólogo para el libro que recoge el curso completo–.

Después de explicar los conocimientos básicos, el curso comenzó a incluir las diferentes instrucciones del lenguaje, su utilidad y ejercicios. “Cuidábamos mucho la motivación. Por eso metíamos muchos ejemplos prácticos que el lector pudiera teclear y ejecutar para ver que el ordenador hacía cosas que no estaba acostumbrado a ver porque en BASIC no se podía”, señala Alonso.

Haber sido autodidacta le ayudó a “saber qué podía necesitar el lector y en qué orden lo tenía que aprender”. Nada podía darse por sentado porque se trataba de “chavales”, no técnicos. “Hay una parte donde se explican los sistemas de numeración. No podías asumir que sabían lo que era numerar en binario”, advierte el informático.

Comunicarse con el equipo a través de código máquina y lenguaje ensamblador –ambos sirven para dar órdenes directamente al microprocesador, sin utilizar lenguajes de programación de alto nivel como el BASIC– constituía la única opción para quienes querían tener más control sobre el equipo y conseguir los gráficos o los movimientos de los videojuegos profesionales. Aunque pueda resultar más trabajoso, “un programa escrito directamente en ensamblador es siempre más eficiente y se va a ejecutar en menos tiempo”, ya que el ordenador lo entiende sin necesidad de traducírselo.

Pese a que algunos usuarios usaban estas máquinas como meras consolas, la mayoría terminaban por ir un poco más allá porque, según Alonso, los equipos de la época “estimulaban la curiosidad y las ganas de hacer cosas”. Prades está de acuerdo: “Ahora, con los sistemas operativos tipo Windows o Mac no necesitas saber programar, pero antes para casi cualquier cosa tenías que escribir pequeñas rutinas o instrucciones”.

Los juegos suponían el mayor de los incentivos para aprender código, una habilidad que muchos llevaron al terreno profesional. “Era muy raro encontrarte a un programador de videojuegos que fuera titulado en informática [estos trabajaban sobre todo en empresas tecnológicas], solían ser autodidactas”, recuerda Alonso.

Nuevos y antiguos alumnos

Aparte de los cursos, la revista tenía una sección de consultorio donde los lectores podían preguntar cualquier duda tecnológica. Solía responder Alonso, aunque todo el equipo colaboraba para resolver las cuestiones. Las preguntas y apreciaciones sobre los manuales servían a sus responsables de ‘feedback’ para conocer la acogida que tenían, si los temas se estaban entendiendo o incluso las historias de aquellos que acudían cada semana al quiosco. “Recibimos una carta de una persona que estaba en la cárcel y que gracias al curso estaba estudiando”, rememora Prades algo emocionado. 

Han sido muchos los que, después de treinta años, han contactado con ellos para recordar aquellas lecciones, la mayoría dedicados profesionalmente a la programación y amantes de la retroinformática. “Me he encontrado a gente en mi vida profesional que me ha dicho que aprendió a programar gracias a mí”, cuenta Alonso, quien admite que le ha sorprendido descubrir tanto tiempo después el impacto que tuvo su labor “porque en aquel momento yo no era consciente”. A Prades, actualmente centrado en la gastronomía y el diseño audiovisual, también le ha parecido “muy fuerte” encontrar antiguos lectores en casi cualquier ámbito.

“Mi pasión por el ZX Spectrum hizo que MicroHobby fuera mi revista de referencia”, nos cuenta Ignacio Prini, uno de aquellos acérrimos fans de la publicación, más conocido en el mundo de la retroinformática y los videojuegos ‘vintage’ como Neil Parsons. “La compraba religiosamente cada semana, aun cuando no tenía todavía un Spectrum en casa”.

Prini admite que, por entonces, era todavía un aprendiz en “esto de la informática”. A pesar de que había asistido a un curso completo de BASIC, “con la llegada de la revista y sus cursos de BASIC y código máquina, profundicé más en el conocimiento de estos lenguajes”, asegura.

La revista y sus apreciados contenidos educativos desaparecieron en 1992. Prades recuerda aquella época como la mejor de su vida profesional, por el buen ambiente que se respiraba en la joven redacción. Además de “una escuela y una fuente de ingresos”, su etapa en MicroHobby representa para Alonso “la ilusión de que lo que escribíamos sirviera para despertar vocaciones” entre aquellos adolescentes entusiastas que aprendían a programar antes incluso de poder pagarse un ordenador.  

-------------------------------------------------

Las imágen principal de este artículo es propiedad de Tomislav Medak. El resto aparecían en diferentes números de la revista MicroHobby/HobbyPress.

Programador de ordenadores cuánticos: el oficio futurista que nadie quiere aprender

$
0
0

Rodeados de promesas, los ordenadores del futuro avanzan hacia la supremacía cuántica. Cuando lo consigan (algo que Google tiene previsto para antes de que acabe el año), querrá decir que esta tecnología es capaz de realizar un cálculo fuera del alcance de cualquier ordenador actual. Sin embargo, programar los ordenadores que comercializa D-Wave o los chips cuánticos con los que trabaja la firma del todopoderoso buscador es mucho más complicado que darle órdenes a un ordenador convencional.

A la hora de hablar sobre programación cuántica, es necesario distinguir entre los tres tipos de tecnologías que se han desarrollado hasta el momento. Por un lado están los ordenadores cuánticos analógicossobre los que trabajan distintos grupos de investigación. Por otro, los llamados "ordenadores universales", el tipo de modelos en los que trabajan empresas como Google o IBM gracias a procesadores cuánticos y simulaciones digitales, pero que aún no existen como tal en realidad. Finalmente, hay que distinguir los modelos de ordenadores cuánticos que comercializa la empresa D-Wave, en ocasiones cuestionados: se trata de computadoras analógicas que emplean el templado cuántico sobre materiales superconductores y que tampoco han conseguido alcanzar la supremacía.

Esta disparidad de tecnologías hace que, por el momento, la palabra programar pueda tener distintos significados en este campo: “Programar en el caso de un ordenador universal puede querer decir encontrar un conjunto de puertas físicas que se puedan utilizar para realizar la operación deseada”, explica a HojaDeRouter.com Roger Melko, investigador de la Universidad de Waterloo y director de un grupo multidisciplinar sobre computación cuántica. “En el caso de un ordenador de templado cuántico, programar puede querer decir definir el problema de optimización que debe ser resuelto [el único tipo de problema con el que pueden trabajar estos ordenadores]”, añade.

A pesar de esto, y conscientes de la necesidad de que cada vez más investigadores y programadores se acerquen a esta tecnología, las empresas están comenzando a ofrecer herramientas para que las personas ajenas a sus proyectos comiencen a familiarizarse con sus lenguajes y sus posibilidades. D-Wave, por ejemplo, hacía pública su herramienta Qbsolv a principios de año con el objetivo de que los desarrolladores aprendieran a interactuar con sus ordenadores sin necesidad de provenir del campo de la física cuántica.

IBM también ha tratado de acercar la programación en este ámbito a otros desarrolladores con IBM Quantum Experience, una plataforma de computación en la nube que, según la descripción de la compañía, permite a los usuarios ejecutar algoritmos y experimentos en el procesador, trabajar con los cúbits individuales (que pueden tomar el valor cero, uno o la superposición de ambos) y explorar tutoriales y simulaciones sobre lo que será posible realizar gracias a esta tecnología. 

Sin embargo, programar un ordenador cuántico para que realice labores útiles no es una tarea sencilla. "Es complicado escribir programas que puedan aprovechar el poder de los ordenadores cuánticos de una forma en la que se obtengan resultados útiles y fiables”, explica Frederic Chong, investigador de la Universidad de Chicago especializado en el campo de las tecnologías cuánticas“Es difícil porque un ordenador cuántico puede manejar simultáneamente varias soluciones para un mismo problema, a través de una propiedad denominada ‘superposición’, pero cuando tratas de medir el resultado solo obtienes una respuesta un tanto aleatoria”, concreta. 

Aún así, hay quienes ven en este tipo de programación una clara oportunidad de negocio de la que podrían surgir nuevas compañías. De hecho, ya hay una incubadora de 'startups' canadiense (Creative Destruction Lab) que está llevando a cabo una competición para encontrar empresas que construyan un proyecto en torno a la programación de ordenadores D-Wave. 

Un llamamiento a los programadores

Estos canadienses no son los únicos que ven en la programación cuántica una oportunidad. Recientemente, varios investigadores del Laboratorio Cuántico de Inteligencia Artificial de Google publicaron un artículo en la revista Nature en el que mencionaban la escasez de expertos con la habilidad de escribir algoritmos cuánticos. En el texto también afirmaban que aquella empresa que consiguiera ponerse, aunque fuera ligeramente, a la cabeza pondría a las demás en problemas para alcanzarla debido a esta falta de especialistas y al tiempo necesario para desarrollar los algoritmos. 

En contraste, Chong no se muestra preocupado por una posible falta de talento: “Ahora mismo hay muchos estudiantes brillantes e investigadores interesados en hacer avanzar al campo”, explica. “También se está llevando a cabo mucho trabajo para desarrollar ‘software’ que haga más fácil a los programadores escribir programas para ordenadores cuánticos”, defiende este experto.

Roger Melko, sin embargo, cree que más allá de los expertos enormemente especializados que trabajan ahora mismo en las distintas tecnologías cuánticas, una generación de programadores más generalista está todavía lejos de existir. “Será en un futuro lejano”, puntualiza. Según el científico, aún no sabemos exactamente cómo será el ‘hardware’ de un ordenador cuántico, por lo que tampoco se puede saber cómo se traducirá el lenguaje humano a código máquina.  

“Ahora mismo los ordenadores cuánticos solo están comenzando la transición entre la academia y el dominio público, y el interés crece en consecuencia”, explica el investigador. “Pero pasarán muchos años antes de que sean útiles para el público general”, añade. Melko considera que muchos otros avances en computación convencional, ‘machine learning’ o inteligencia artificial "irán y vendrán" antes de que los ordenadores cuánticos comiencen a tener un impacto real en nuestras vidas, y defiende que la clave se encuentra todavía en el 'hardware'.

Construir el ‘hardware’ es el mayor reto. La gente aún no está de acuerdo exactamente en cuál será el aspecto de un cúbit. ¿Será un anillo superconductor, un ion frío atrapado en un rayo láser, un espín nuclear o algo diferente? Los científicos todavía trabajan en esta cuestión básica todos los días”.

Esta incertidumbre, así como la disparidad entre las tecnologías cuánticas existentes, hace que solo aquellos científicos más especializados trabajen en el desarrollo de algoritmos. La de programador de ordenadores cuánticos es por el momento una profesión del futuro (no muy cercano) que expertos de fuera del sector no parecen demasiado interesados en aprender, algo que algunas compañías temen que pueda frenar el avance de esta tecnología. 

-----------------------

Las imágenes son propiedad de D-Wave e IBM Research (2 y 3)

El quién es quién de las fábricas ocultas detrás de los gigantes tecnológicos

$
0
0

El delta del río de las Perlas es el área urbana más grande del planeta. La megalópolis china, que engloba nueve ciudades diferentes, supera a Tokio tanto en población como en tamaño, según revelaba recientemente un informe del Banco Mundial. El trabajo daba otro sorprendente dato: la zona, de unos 7.000 kilómetros cuadrados –más pequeña que la Comunidad de Madrid–, concentra un mayor número de habitantes que países del tamaño de Argentina, Australia y Canadá.  

Este territorio del sur del gigante asiático se ha convertido, además, en uno de los eslabones más importantes en las cadenas de producción globales de diferentes industrias, como la textil o la juguetera. Entre ellas, una de las más destacadas, por el auge que ha experimentado en los últimos años, es la electrónica. Allí se encuentra la mayor infraestructura dedicada a la fabricación y ensamblaje de componentes de teléfonos móviles del mundo: el parque industrial de la multinacional taiwanesa Foxconn (ahora Hon Hai/Foxconn).     

Incluso si el nombre no te suena, es muy probable que alguna parte del ‘smartphone’ que llevas en el bolsillo (sino todo) haya salido de sus instalaciones. Foxconn trabaja como fabricante subcontratista para firmas como Apple o Samsung, aunque no todos sus clientes lo saben. “Es la política del modelo de externalización de la producción de las marcas: los fabricantes permanecen en la sombra”, indica a HojaDeRouter.com el investigador alemán Boy Lüthje, un experto en el esquema de producción de la industria tecnológica que actualmente trabaja en la Universidad Sun Yat-sen (China). 

Mientras que compañías como Siemens o IBM seguían un modelo de fabricación integrado en décadas anteriores, los 90 trajeron consigo la globalización de la industria tecnológica. Grandes nombres como Apple o Microsoft comenzaron a externalizar muchas de las etapas de la cadena de producción, subcontratando los servicios de otras corporaciones que, como Foxconn, se convirtieron en piezas fundamental de la cadena. “El proceso productivo cada vez se divide en más etapas porque los costes de transporte y de coordinación entre plantas y países ha bajado mucho, se lleva cada parte al lugar donde salga más barata”, explica Francisco Alcalá, investigador de la Universidad de Murcia especializado en comercio internacional y organización industrial.

En este esquema, a las marcas se las conoce como fabricantes de equipos originales (OEM son sus siglas en inglés) y las empresas del segundo escalón de la pirámide productiva reciben el nombre de fabricantes subcontratistas (CM). Bajo este término se engloban, no obstante, tanto las empresas que proporcionan servicios de fabricación de sistemas electrónicos o EMS (diseño, prueba de productos, logística…), como los denominados fabricantes de diseños originales u ODM (se dedican al ensamblaje y determinadas fases del diseño, especialmente de monitores y portátiles). El último escalón corresponde a los subcontratistas tradicionales, principalmente dedicados a la fabricación de placas base, circuitos electrónicos y tarjetas gráficas.

Sin este nivel de fraccionamiento, no podríamos comprar sofisticados móviles ni portátiles por unos pocos cientos de euros. Pero, ¿quién fabrica realmente los aparatos?

De Estados Unidos a China

A pesar de que el proceso comenzó en los 90, la expansión de la industria tecnológica a otros países se consolidó entre 2001 y 2007, cuando gran parte de la inversión de los gigantes del sector se concentró en China. En su territorio se ha gestado, así, un ecosistema de especialización en electrónica de consumo sustentado por puestos de trabajo precarios: “Si una etapa requiere mano de obra intensiva y poco cualificada, como puede ser el ensamblaje, no es rentable hacerla en un país con salarios altos”, señala Alcalá.

En el gigante asiático es lamentablemente fácil encontrar miles de empleados dispuestos a sentarse durante horas en una cadena de montaje. Por eso, las principales empresas subcontratistas del sector tienen enormes instalaciones en China. Es el caso de la estadounidense Flextronics (desde 2015 solo Flex) y las taiwanesas Compal, Pegatron y Quanta, además de la ya mencionada Foxconn. Aunque la industria estuvo concentrada hasta 2008 en el valle del río de las Perlas, a partir de entonces se produjo la expansión a otras provincias del país.

Foxconn tiene una decena de complejos en las inmediaciones del delta, de donde salen, principalmente, los componentes de los teléfonos de la manzana mordida, Samsung y, en el pasado, de BQ (también cliente de la china Oukitel), los iPads de Apple y de los ordenadores de Acer. La empresa es responsable también de la producción de las consolas Xbox de Microsoft y el Kindle de Amazon. Mantiene, además, varias plantas en la región dedicadas a la fabricación de otro tipo de dispositivos, como las tres fábricas en la ciudad de Foshan donde produce cámaras digitales, monitores y luces LED. Las instalaciones que posee en la ciudad de Zhongshan se centran en amplificadores y routers wifi.

Por su parte, Flextronics, que comenzó en 1969 fabricando circuitos en Silicon Valley, proporciona servicios de diseño, fabricación y distribución a empresas como Apple y fabrica, entre otros, los portátiles y las impresoras de HP. También trabaja para Casio, Dell, Motorola o Microsoft. Dispone para ello de siete emplazamientos en la desembocadura del río de las Perlas, de los cuales el mayor es el parque industrial situado en el distrito Doumen de la provincia de Zhuhai, donde emplea a unos 60.000 trabajadores. Opera, además, otras infraestructuras más pequeñas dedicadas al montaje de placas de circuitos electrónicos y piezas plásticas.

Los MacBook Pro son los únicos dispositivos que Apple fabrica en su planta de Austin (Estados Unidos). Un poco más al sur, en Guadalajara (México), se encuentra otra de sus sedes industriales. Debido a su cercanía a Estados Unidos, el país azteca constituye otro de los puntos clave de la cadena global de valor de la industria electrónica, principalmente en las regiones cercanas a la frontera, donde se concentran las denominadas maquiladoras. Este tipo de empresas, dedicadas a la fabricación, montaje o procesamiento de equipos electrónicos y productos de otros sectores, están involucradas en actividades de importación y exportación con su vecino norteño sujetas a importantes ventajas fiscales.

A diferencia de la firma de Tim Cook, otras marcas como Samsung –antiguamente una empresa subcontratista en la fabricación de televisores– se encargan de algunas etapas de la producción de sus dispositivos. Los coreanos fabrican gran parte de los componentes de sus teléfonos (como los procesadores), algunos modelos de Google, como el Nexus 10, e incluso de la manzana mordida. De hecho, dominan la cadena de producción de los circuitos del último modelo de iPhone a través de su división tecnológica, Samsung System LSI.

Las taiwanesas Quanta, Compal y Pegatron lideran el grupo de los ODM. Entre la cartera de clientes de la primera –el mayor fabricante de portátiles a nivel mundial– se incluyen Apple, HP, Dell, Lenovo, Sony y Toshiba, a quienes presta servicios principalmente desde sus instalaciones de Shanghái y Changshu, en China. La segunda también está especializada en la producción de ordenadores (como los de Lenovo, Acer y HP), a los que suma la fabricación de monitores y televisores para marcas como Toshiba. Opera fábricas tanto en el gigante asiático como en Vietnam, Polonia, Brasil y Estados Unidos.

Pegatron, fundada en el 2007, es otra de los implicadas en la cadena de fabricación de los iPhone, que se ensamblan en la planta que regenta a las afueras de Shanghái, aunque posee otras dos instalaciones en el delta del río de las Perlas. Sus trabajadores también se encargan de producir tabletas (como los iPad mini), consolas, pantallas de televisores, portátiles y placas base para otros clientes, entre los que figuran gigantes como Google y Asus.

Un sector poco favorecido

Pese a que algunas de estas empresas subcontratistas han alcanzado grandes dimensiones, el sector está dominado por una agresiva competencia y beneficios bajos, sobre todo si los comparamos con los obtenidos por las marcas. “Los fabricantes subcontratados han sobrevivido creciendo muy rápidamente y expandiendo su volumen de producción para compensar los bajos márgenes de beneficios”, señala Lüthje.

Foxconn, por ejemplo, tiene una larga trayectoria como fabricante de cables, una tarea a la que sigue dedicando parte de su mano de obra para incrementar sus ingresos. Compañías como la taiwanesa basan su sustento económico en negocios como este, en los que pueden controlar el proceso ya “que no son tan transparentes como las cadenas de montaje, donde los costes son bien conocidos y la maquinaria está estandarizada”, detalla el investigador.

Aun así, muchas empresas se quedan por el camino y la pugna de las remanentes por controlar el mercado y hacerse con el mayor número de clientes se endurecerá en los próximos años debido al estancamiento del sector móvil, según el alemán. Actualmente, algunas de las fábricas chinas ya funcionan a bajo rendimiento: es la consecuencia de un exceso de capacidad productiva en la región. En otras palabras, sobran fábricas.

Ante este escenario, las posibilidades de medrar en la cadena de valor son escasas. Una de ellas consiste en que los fabricantes y proveedores de servicios subcontratistas se conviertan en marcas, comercializando sus propios productos. Aunque las compañías taiwanesas ASUS, ACER y HTC han optado por este camino, se trata de una ruta difícil y descartada por la mayoría de empresas, ya que tendrían que hacerse un hueco en el mercado y competir con sus actuales clientes.

Pese a las desigualdades que entraña este modelo basado en maximizar la externalización, ni Lüthje ni Alcalá divisan cambios en el horizonte. Incluso las firmas de más reciente creación, como la china Xiaomi, han adoptado el esquema. El alemán asegura que “no hay esfuerzos por parte del Gobierno chino ni de otras naciones para cambiar la estructura de la industria ni las cadenas de valor del sector”. La única opción (poco probable) sería la vuelta al proteccionismo, a la fabricación de los dispositivos en el país de origen de las marcas por imperativo legal, una medida con la que Donald Trump amenazaba a Apple a principios de año.

Aunque no siempre seamos conscientes, “consumimos un montón de productos extraordinarios a unos precios muy asequibles”, dice Alcalá. Y esto “no se da por arte de magia”, sino como consecuencia de un tejido industrial que da la vuelta al mundo. 

-------------------------------------------------------------

Las imágenes de este reportaje son propiedad, por orden de aparición, de Marco VerchVmenkov y Josh Hallet

La próxima frontera del código abierto: construir chips libres de forma artesanal

$
0
0

El hombre llegó a la Luna gracias, en parte, al novedoso ‘software’ desarrollado por un equipo de programadores del Instituto Tecnológico de Massachusetts, dirigidos por una de las primeras mujeres que trabajó en ese campo, Margaret Hamilton. Los listados del código del módulo lunar y del módulo de mando ocupaban una montaña de papeles de la altura de la propia ingeniera.

Hace unos meses, un extrabajador de la NASA decidió revivir el ordenador de navegación del Apolo publicando en GitHub aquel código fuente de los años 60. Aunque ya era público, tenerlo disponible en esa plataforma colaborativa permitía a los programadores diseccionar con detenimiento las líneas que contribuyeron a que la humanidad diera un gran paso.

El ingeniero Juan Carlos González (más conocido en la Red como Obijuan) fue uno de los que se interesaron por conocer los detalles de la CPU del famoso Apolo 11. “Vi que había bastante información y dije ‘esto es carne de cañón para meterlo dentro de una FPGA’ [un dispositivo programable]”, ha explicado el ingeniero en el podcast de Hoja de Router. “Puede ser muy mítico hacerte un robot o hacerte una aplicación controlada por la CPU o por el microprocesador original del Apolo 11”.

Doctor en robótica, pionero de la impresión 3D en España, evangelista del movimiento ‘maker’, y defensor del ‘hardware’, el ‘software’ y la cultura libre, Obijuan acaba de convertirse en el primer español que gana un premio en los prestigiosos O’Reilly Open Source Awards. Un galardón que ha recibido con una nueva misión entre manos. “Ahora mi obsesión es conseguir que gente, inicialmente gente con perfil técnico, sea capaz de crear sus propios chips”, asegura.

El reto de crear nuestros propios chips

Escondidos en teléfonos, ordenadores, tabletas o relojes inteligentes, los chips nos rodean, aunque la mayoría desconoce los detalles de su funcionamiento interno. Obijuan los define como "cajas negras". Por eso, aunque podamos servirnos de una plataforma de ‘hardware’ libre como Arduino para hacer nuestros propios proyectos de electrónica, no podemos fabricar el cerebro de la placa. Obijuan se ha fijado como meta rebasar esa última frontera: que todos podamos crear nuestros circuitos integrados gracias a una tecnología nacida en los 80, las FPGA.

Se trata de chips que contienen los elementos básicos de un circuito sin conectar, como si estuvieran en blanco. Pese a su potencial, hasta hace poco no se habían popularizado entre los ‘makers’ porque los pocos fabricantes que vendían FPGA solo ofrecían ‘software’ propietario para manejarlas. “Era como un secreto industrial que nadie conocía, solo te dejaban usarlas con las herramientas de los fabricantes”, explica Obijuan. Él las utilizaba en sus clases cuando era profesor de la Universidad Autónoma de Madrid, pero que la tecnología fuera cerrada hacía que la experiencia resultara frustrante.

Hace unos años, el austriaco Clifford Wolf cambió por completo el panorama. Mediante ingeniería inversa de un modelo concreto de FPGA, logró conocer sus entresijos y liberó las primeras herramientas libres para sintetizar circuitos en estos chips en blanco. “Siempre que se democratiza el conocimiento de las cosas, me he dado cuenta de que se producen revoluciones”, señala Obijuan. Ahora, él pretende promover la revolución de las FPGA libres. Junto a otros ingenieros, ha creado FPGA Wars, un proyecto que ofrece diseños, tutoriales y talleres con el objetivo de formar una comunidad de usuarios que compartan sus creaciones.

Por el momento, están distribuyendo la segunda tirada de Icezum Alhambra, una placa concebida para comenzar a explorar el mundo de las FPGA libres. “Una vez que liberas el conocimiento [...] cada uno lo utiliza para una cosa y pueden salir cosas sorprendentes, y el primer paso es darle acceso a la gente para que lo pueda modificar”, detalla.

Sin duda alguna, crear una versión de la CPU del Apolo 11, un “proyecto épico” en palabras del propio Obijuan, es uno de esos proyectos sorprendentes. “Los estudiantes pueden ver cómo se hacían antes los chips por dentro y pueden compararlo con cómo se hacen ahora”, ejemplifica.

Un referente de la impresión 3D

González compara las FPGA con las impresoras 3D, que también existen desde hace décadas pero no empezaron a popularizar entre los 'makers' hasta hace unos años. Fue a finales de la pasada década cuando nacieron las primeras impresoras 3D de código abierto capaces de autorreplicarse. Otra revolución en la que este reputado ‘maker’ ha desempeñado un rol fundamental.

En 2009, cuando ya había presentado su tesis sobre robots modulares (formados por piezas nada sencillas de fabricar en aquel momento) quedó impresionado con una charla de Adrian Bowyer, un profesor de la Universidad de Bath (Reino Unido) creador de RepRap, un proyecto surgido con el objetivo de crear una impresora 3D autorreplicable de código abierto. Al poco tiempo, Obijuan compraba junto a unos amigos una de las primeras impresoras Makerbot del mundo (una variante de la RepRap original) y comenzaba a fabricar robots con ella.

Ese fue el germen del proyecto Clone Wars en la Universidad Carlos III de Madriddonde era profesor. A través de una wiki, documentarían en español y de forma sencilla los detalles para crear una impresora 3D a partir de piezas fabricadas con otra. Gracias al conocimiento compartido y a la generosidad de la comunidad (las máquinas serían financiadas por 'jedis' y montadas por 'padawans'), se crearon muchas impresoras clones. “Los que construíamos las primeras impresoras empezamos a imprimir las piezas para donárselas a los siguientes y que puedan construir las suyas”, rememora González.  

Hoy, unas 5.000 personas forman parte de la comunidad Clone Wars. “Esto es tan horizontal que en realidad vale para todos, depende de la afición que tenga cada uno”, explica Obijuan, y menciona como ejemplo a su propia hija, apasionada por imprimir pendientes y pulseras a medida. “Simplemente echa un vistazo alrededor y mira a ver cuántas piezas de plástico encuentras”, propone.

Años después de comenzar su andadura en el código abierto, este ‘maker’ sigue haciendo que otros muchos entusiastas de la electrónica se interesen por el ‘hardware’ y el ‘software’ libres. En su canal de YouTube, con más de 13.000 suscriptores en el momento de escribir estas líneas, enseña a utilizar programas de diseño 3D como FreeCad o a montar impresoras, y comparte todos sus proyectos en su repositorio de GitHub para que cualquiera pueda aprovechar el código o modificarlo. En el ámbito profesional, tras dirigir el departamento de i+D+i en la tecnológica BQ, trabaja en proyectos de formación y creación digital en La Rueca, una entidad sin ánimo de lucro que favorece la inclusión social de personas en situación de vulnerabilidad.

Una trayectoria dedicada a promover el Patrimonio Tecnológico de la Humanidad (un concepto que él mismo ha ideado) que hizo que decenas de personas iniciaran una campaña en Twitter para pedir su nominación a los O’Reilly Open Source Awards, los mayores premios del código abierto. De hecho, la encargada de entregarle el galardón destacaba durante el evento en Texas que la cantidad de votos que había recibido era “de locos”.

“Estoy contentísimo y esto ha sido una cosa totalmente inesperada”, destaca con humildad Obijuan. “Yo creo que el premio no me lo han dado a mí personalmente, sino al trabajo que está haciendo la comunidad [...] y creo que en realidad es un impulso que nos tienen que dar a todos para decir ‘compartir merece la pena’”. Él es un claro ejemplo de que los grandes proyectos pueden nacer de dar y recibir. Trabajar con altruismo puede hacer, incluso, que lleguemos a tener en nuestras manos la CPU que llevó al hombre a la Luna. 

Viewing all 326 articles
Browse latest View live