Entradas de la categoría ‘Tecnologías varias’
Robando datos de ordenadores usando calor

Sistema ¿seguro?
Los sistemas informáticos aislados del exterior por técnicas de air gap no están conectados a otros sistemas ni a Internet, están aislados físicamente porque, por lo común, son equipos que demandan medidas de muy alta seguridad debido a la sensibilidad de sus datos. Se utilizan en redes militares clasificadas, redes de transacciones de crédito o en sistemas de control industrial que operan con infraestructuras críticas. Para extraer datos de estos sistemas, normalmente suele ser necesario acceder físicamente al equipo con algún medio de almacenamiento externo (o no).
Sin embargo, investigadores de seguridad en la Universidad Ben Gurion (Israel) encontraron una manera de recuperar los datos de un equipo air gap utilizando sólo las emisiones de calor de éste y una serie de sensores térmicos incorporados. El método podría permitir a los atacantes obtener subrepticiamente contraseñas o claves de seguridad de un sistema protegido y transmitirlos a otro sistema cercano conectado a Internet. Así mismo, también podrían utilizar el equipo conectado a Internet para enviar comandos maliciosos al sistema air gap con la misma técnica de calor y los sensores.
A continuación podemos ver una demostración en vídeo en la que se enseña cómo fueron capaces de enviar un comando de un ordenador a una máquina air gap adyacente para mover un juguete de lanzamiento de misiles.
El ataque de prueba de concepto requiere que ambos sistemas, antes que nada, sean comprometidos con malware. Además, en la actualidad, el ataque permite sólo ocho bits de datos que transmitir de forma fiable, y no grandes cantidades. También funciona sólo si el sistema air gap se encuentra a 40 centímetros del otro equipo de control de los atacantes. Todo ello por ahora, en un futuro dicen que las posibilidades pueden ser infinitas.
¿Y cómo funciona todo esto? Los ordenadores producen diferentes niveles de calor en función de la cantidad de procesos que estén ejecutando. Además de la CPU, el chip gráfico y otros componentes de la placa producen un calor significativo. Para controlar la temperatura, las computadoras tienen una serie de sensores térmicos incorporados que detectan fluctuaciones de calor y provocan que entre en funcionamiento un ventilador interno para enfriar el sistema cuando sea necesario o, incluso, apagarlo para evitar daños.
Este nuevo ataque, al que estos investigadores han llamado BitWhisper (algo así como el susurrador de bits), utiliza estos sensores para enviar comandos a un sistema air gap. La técnica funciona un poco como el código Morse, con el sistema de transmisión provocando aumentos controlados de calor para comunicarse con el sistema de recepción, que utiliza sus sensores térmicos integrados para detectar los cambios de temperatura y traducirlos en dígitos binarios, esto es en ceros y unos.
Precisamente en comunicar un 1
binario consiste esta demostración del vídeo de ejemplo. Los investigadores aumentaron las emisiones de calor del equipo de transmisión sólo 1 grado sobre un marco de tiempo predefinido. Después transmitieron un 0
para restaurar el sistema a la temperatura base durante otro periodo de tiempo predefinido. El equipo que recibe los bits traduce este código binario en un comando que causa la reubicación del lanzador de misiles de juguete (ello gracias al malware que hay por detrás, claro).
Los investigadores diseñaron su malware para tomar en consideración las fluctuaciones de temperatura normales de un ordenador y distinguirlas de las fluctuaciones que señalan que un sistema está tratando de comunicar. Y, aunque este malware aumenta la temperatura un único grado en señal de comunicación, un atacante podría aumentar la temperatura en cualquier cantidad, siempre y cuando sea dentro de lo razonable para evitar la creación de la sospecha que puede levantar un ventilador hiperactivo si el ordenador se sobrecalienta en exceso.
Unas gafas de realidad aumentada de hace quince años

Dyson Halo
Probablemente conozcas la empresa Dyson por sus máquinas aspiradoras y sus ventiladores de aspecto futurista, pero en los veintiún años de vida que tiene esta compañía británica, Sir James Dyson ha estado inventado muchos más artículos de alta tecnología para el hogar. Sin embargo, su objeto más emblemático fue, sin duda, el casco de realidad aumentada que se parece, asombrosamente, a las Google Glass. ¡Ah, y es de hace quince años!
En el año 2001, Dyson comenzó a trabajar en un casco-auricular de realidad aumentada al que denominó Dyson Halo (formalmente “Proyecto NO66“). El Halo estaba destinado a ser un ordenador portátil, montado en la cabeza del usuario, que parecía un par de gafas y respondía a mensajes de audio. ¿Te suena familiar?
El prototipo de Halo es una mezcla entre las Google Glass y un walkman noventero. De hecho, con su banda de metal delgada y maraña de cables, el dispositivo es claramente un producto de los años cercanos al 2000. Y es que cuando Dyson estaba construyendo Halo, carecía de la miniaturización de la tecnología y el brillo estético que, más de una década de investigación y desarrollo añadido, proporcionaron los ingenieros a las Google Glass, pero su meta como un ordenador personal portátil fue sorprendentemente similar.

Dyson Halo
En la versión de Dyson, un auricular con patillas de gafas se conecta a un ordenador rectangular lo suficientemente pequeño para llevarlo en el bolsillo. Piénsese en ello como un computador portátil, del tamaño de una tarjeta, con una pantalla translúcida proyectada sobre un prisma que se coloca a escasos milímetros de los ojos.
El equipo fue construido para utilizar aplicaciones similares a las que vemos ahora en los teléfonos inteligentes y podía ser controlado de un par de maneras: un dispositivo de pulsera (¡hola, smartwatch!) hacía las veces de ratón, lo que permitía al usuario controlar el cursor virtual en la pantalla; además, también se podía manejar a base de órdenes habladas, mientras que un asistente personal virtual (¿Siri, Cortana, Google Now, estáis ahí?) servía para leer los correos electrónicos y realizar tareas básicas.

Esquema de Halo
¿Una dosis de tecnología con déjà vu, o tal vez sólo un ejemplo de una buena idea antes de tiempo? Los ingenieros de Dyson pasaron tres años trabajando en Halo, pero al final lo dejaron de lado para centrarse en conseguir otros productos para el mercado doméstico.
Dyson disponía de otros inventos que nunca llegaron al mercado, aunque estos eran más prácticos y menos intrigantes que Halo, como filtros para motores diésel o motores de hidrógeno y oxígeno. Al igual que Halo, ninguna de estas ideas llegó a buen término. Pero Dyson no los cuenta como fracasos, más bien son sólo algunas de las muchas exploraciones tecnológicas que podrían llegar a ser, algún día, una gran ayuda para un nuevo producto.
¿Por qué una tecnología de hace 40 años sigue controlando el tráfico aéreo estadounidense?

FAA
El 26 de septiembre del año 2014, un contratista del mundo de las telecomunicaciones llamado Brian Howard despertó temprano y se dirigió al Chicago Center, un centro de control de tráfico aéreo en Aurora (Illinois) donde había trabajado durante ocho años. Había decidido suicidarse y, como gesto de su última voluntad, planeó llevarse un pedazo del sistema del control de tráfico aéreo de Estados Unidos con él.
Las grabaciones confirmaron que Brian Howard entró en el Chicago Center a las 5:06 de la mañana y bajó al sótano, donde provocó un incendio en el compartimento de electrónica. Seguidamente se cortó el cuello. Los servicios médicos salvaron la vida de Howard, pero los sistemas del Chicago Center, que en ese momento controlaba el tráfico aéreo por encima de 10.000 pies y en un área de 91.000 kilómetros cuadrados, se apagaron.

El día del incendio
Las aerolíneas cancelaron 6.600 vuelos; el tráfico aéreo se interrumpió durante 17 días. Howard había querido causar problemas, pero no había previsto una catástrofe de tal magnitud. Había publicado un mensaje en su cuenta de Facebook diciendo que el sabotaje “no tendría un alto costo para el sistema de control del espacio aéreo, pues todas las comunicaciones deberían cambiar a la ubicación alternativa“. Se equivocaba. Nadie sabe de qué lugar alternativo estaba Howard hablando, porque no existe tal cosa. Howard había trabajado en el centro durante casi una década, e incluso él no conocía eso.
En cualquier momento dado, alrededor de 7.000 aviones sobrevuelan los Estados Unidos. Durante los últimos 40 años, el mismo sistema informático ha controlado todo este tráfico de gran altitud, es una reliquia de la década de 1970 conocida como Host. El núcleo del sistema es anterior a la llegada del GPS, por lo que Host utiliza radares terrestres punto a punto. Cada día, miles de viajeros aéreos ponen sus teléfonos inteligentes con GPS en “modo avión”, mientras que sus vuelos son guiados por una tecnología que es anterior al ‘Speak & Spell‘ de Texas Instruments.
Si ahora mismo estás leyendo esto a 30.000 pies de altura, relájate, Host es todavía seguro en términos de conducir aviones de un punto A
a un punto B
, pero es increíblemente ineficiente. Puede manejar una cantidad limitada de tráfico, y los controladores no pueden ver nada fuera de su propio espacio aéreo; cuando un avión se traslada a un espacio aéreo contiguo, se desvanece en su radar.
La FAA (Federal Aviation Administration) estadounidense sabe todo esto perfectamente. Durante once años, la agencia ha ido migrando hacia un conjunto de actualizaciones conocidas como NextGen. En su núcleo porta un nuevo sistema informático que reemplazará a Host y permitirá que cualquier controlador, en cualquier lugar, pueda ver cualquier avión en el espacio aéreo estadounidense. En teoría, esto permitiría a un centro de control aéreo asumir el mando de otro con sólo tocar una tecla, como Howard parecía creer que ya era posible.
Esta tecnología es problemática y costosa, pero esa no es la mayor de las complicaciones. El problema principal es que NextGen es un proyecto de la FAA. La agencia es, principalmente, un órgano regulador, es la responsable de mantener la seguridad del espacio aéreo nacional y, además, también se encarga de operar el control del tráfico aéreo, un conflicto inherente que causa grandes problemas a la hora de completar las actualizaciones. Modernización, una lucha de cualquier agencia federal, es prácticamente la antítesis de la cultura operativa de la FAA, que es adversa al riesgo metódico y burocrático. A esto se suma que la FAA es la única consumidora del producto, por lo que no existen presiones por parte de los mercados.
La primera fase de NextGen es reemplazar Host con el nuevo sistema informático, la base para todas las futuras actualizaciones. La FAA pretendía terminar el trabajo para la pasada primavera, cinco años más tarde de lo previsto y, por lo menos, 500 millones de dólares por encima del presupuesto original.
La compañía Lockheed Martin comenzó a desarrollar el software en el año 2002, y la FAA proyectó que la transición desde Host estaría completa a finales de 2010. En 2007, el sistema actualizado se utilizaba sólo a través de pruebas internas, pero una vez instalado, era espantosamente inestable y contenía cientos de bugs. Por ejemplo, a veces vinculaba aviones a los datos de vuelo de una aeronave equivocada; otras veces los aviones desaparecían por completo de las pantallas de los controladores.
Recientemente, en abril de 2014, el sistema se vino abajo en Los Angeles Center cuando un jet militar U-2 entró en su espacio aéreo. El avión espía cruzó a 60.000 pies, el doble de la altitud de los aviones comerciales, y su plan de vuelo provocó un fallo de software que sobrecargó la sistema y lo tumbó.
En el sector privado, las empresas de tecnología se mueven rápido y actualizan sistemas sin poner en riesgo nuestra seguridad. Pero cuando el gobierno actualiza sus tecnologías, las regulaciones y la burocracia interceden antes de escribir una sola línea de código. El proceso de contratación pública está atada a mil reglas y normas, y la nueva tecnología en cuestión tiene que ajustarse a esas normas, si son o no son eficientes ni siquiera es relevante.
Y en esas estamos.
Cómo una tipografía puede arruinarte una campaña electoral (o no)

Jeb! 2016
O eso es lo que creen los expertos en estas lides, que se están quedan más a gusto que un arbusto despotricando contra el logotipo de la campaña a la candidatura presidencial del señor Jeb Bush, el que fue gobernador de Florida y el que es hijo del expresidente George H. W. Bush y hermano del también expresidente George W. Bush.
Steven Heller, experto mundial que ha escrito docenas de libros de todo aquello relacionado con el diseño de marcas y la tipografía para infografía y carteles, se desquita tranquilamente así: “Es un pedazo de mierda, y usted puede citarme así”. Y no es el único en ser tan crítico, el famoso tipógrafo Chester Jenkins también opina parecido, aunque es un poco más suave al respecto en sus formas: “El logotipo no es malo como gráfico, pero como pieza tipográfica tiene demasiados problemas“.

Logo Jeb! 2016
Bush, el tercer miembro de la dinastía política republicana que aspira a la Casa Blanca, reveló su logo (escrito en fuente Baskerville) en Twitter este pasado domingo. Desde ese momento han corrido ríos de tinta-e acerca de la fuente y los colores, y todo lo que ello conlleva y significa, y parece que no dice absolutamente nada del hombre que podría ser presidente. La conclusión final de expertos diseñadores gráficos y críticos es que el logotipo tiene unos pocos problemillas.
El primero de todos ellos parecen ser las letras, que son muy grandes si se considera que representan esencialmente el conjunto de logotipo. Además, no existen los típicos estereotipos iconográficos de la cultura norteamericana, como barras y estrella o un águila, algo que ayude a guiar el ojo lejos de los cuatro caracteres de color rojo brillante en una fuente o tipo de letra que Jenkins describe como “un peso no muy agradable” para unos tipos del siglo XX.
Para él, pues, es muy ordinario. La persona que diseñó “Jeb!” utiliza una fuente fuera de cualquier convenio o estándar gráfico razonable, y el resultado es un logotipo que podría haber sido creado por cualquier niño con un Mac.
Más allá de todo eso, no es en absoluto original. Bush ha estado utilizando alguna variación de este “Jeb!” desde 1994, cuando intentó llegar (sin éxito) a gobernador de Florida. Encontramos por ahí una cápsula del tiempo perfecta, y no es otra cosa que la siguiente fotografía que muestra a Jeb junto a su radiante padre, George H. W. Bush, luciendo una gorra de béisbol blanca estampada con “Jeb” en Benguiat, una fuente diseñada en 1978; el mismo tipo de letra utilizada en los títulos de apertura de ‘Star Trek: Generations’ (1994).

Jeb Bush y su padre en 1994
El equipo de Bush ha ganado algunos puntos por la actualización de la fuente, pero ha perdido muchos más por hacerlo tan mal. Jenkins, además, comenta que algo más de espacio entre la “J” y “e” habría creado mucho más equilibrio y, también, que el signo de exclamación está fuera de cualquier proporción con respecto al resto de las letras: “No está del todo claro si la admiración ha sido escalada una cantidad de tamaño específica, ya que sus dimensiones no casan con nada dentro del logotipo”. La parte baja de las curvas de la “J” y del signo “!” casi de alinean, pero no lo suficiente. Es lo que los expertos conocen como rebasamiento (overshoot, en inglés), que es el efecto de hacer sobresalir una letra por debajo de la línea de base, o por encima de la altura de las minúsculas, con el fin de compensar la sensación de empequeñecimiento óptico. En este caso confunde al ojo.
Y claro, ¿ese 2016 debajo? Si bien no es la parte más ofensiva del logo, podría haberse situado un poco más arriba y la derecha. Además, dice el tipógrafo Tobias Frere-Jones que el año “se encuentra en un tipo sans [paloseco] que es demasiado mecánico para armonizar con la forma de las letras principales y demasiado débil para crear un contraste deliberado“.
A fin de cuentas, el logotipo es más adecuado para el alfiler de una corbata presidencial perfectamente anudada. Como diseñador gráfico, David Carson dice: “Es lo que me habría esperado del personaje Jed Clampett, de la serie de los sesenta ‘Los nuevos ricos’, si hubiera optado por la alcaldía al ayuntamiento de Beverly Hills. Este logotipo no indica nada nuevo, emocionante o progresiva; no es ni serio, ni demasiado educado“.
El reconocido tipógrafo Jonathan Hoefler está igualmente impresionado: “No tiene ninguno de los toques profesional del logo de Hillary, aunque no puedo evitar preguntarme si es un intento deliberado de hacer que ella parezca menos accesible”. Todo ello envuelto en el alboroto que también rodea a la enseña de Hillary Clinton para las presidenciales de 2016. Asimismo, Mike Murphy, estratega político que ha trabajado con la familia Bush en el pasado, ha llegado en defensa del logotipo: “funciona bien, es limpio, fácil de ver desde lejos, optimista y, más que nada, coherente”.
Y, así las cosas, embebidos en estas batallas campales por la identidad gráfica de un candidato, los estadounidenses se preguntan si realmente es esto tan importante. ¿Una tipografía puede arruinarte una campaña electoral? No lo sé.
Sinclair ZX Microdrive: auge y caída de una tecnología de almacenamiento “revolucionaria”

Sinclair ZX Microdrive
Clive Sinclair afirmó el 23 de abril de 1982 que tenía intención de revolucionar el mundo del almacenamiento del ordenador personal. Un sistema significativamente más barato que el establecido en el momento por las 5,25 pulgadas y, también, que los formatos emergentes de unidades de disquete de 3,5 pulgadas, el juguete nuevo del tío Clive iba a “cambiar el panorama de la computación personal”. Quizás exageró un poco; este notable avance tardó más de dieciocho meses en llegar al mercado y se convirtió en un sinónimo de retrasos y decepción. Esta es su historia.
En el lanzamiento del ZX Spectrum, que tuvo lugar el primer día de la Earl’s Court Computer Fair de 1982, Sinclair presentó el prototipo de ZX Microdrive a los periodistas reunidos allí y proporcionó una breve descripción de las capacidades prometidas del dispositivo. Muchos quedaron impresionados. El semanal ‘Popular Computing’ llegó a decir que “tal vez es el mejor conejo que Clive ha sacado de su chistera de mago. Se trata de una unidad de disco muy pequeña que utiliza dos disquetes de un cuarto de pulgada, con una capacidad por cada disquete de 100 KB y una tasa de transferencia de 16 KB por segundo. Además, seremos capaces de conectar hasta ocho de estas unidades a un ZX Spectrum. Y todo ello a un precio de 50 £“.
Y es que el precio era realmente extraordinario e innovador, teniendo en cuenta, por ejemplo, que un disco duro de 5,25 pulgadas de Commodore para el ordenador VIC-20 (lanzado en la misma época) costaba un poco menos de 400 £, esto es, ocho veces el precio de la oferta de Sinclair (aunque con un poco más de capacidad). Incluso los agresivos precios que llevó Sony al Reino Unido en noviembre de 1982 para su unidad de disquete de 3,5 pulgadas eran todavía bastante superiores a los de Microdrive, 235 £ (también de mayor capacidad).
En aquel lanzamiento de ZX Spectrum, Sinclair admitió que el Microdrive no podría llegar a las estanterías hasta finales de año. 1982 llegó a su fin, y, mágicamente, la estrategia publicitaria con la que se describía al ZX Microdrive comenzó a cambiar. Los anuncios de 1982 habían descrito el producto como “un único microdisco intercambiable“. Pero hacia finales de año, ese texto se cambió para que dijera “un único medio de almacenamiento intercambiable“. La ventana de lanzamiento del dispositivo que se barajaba en la publicidad era de “finales de este año [1982]” a “principios de 1983”. ¿Qué estaba sucediendo?
En la primavera de 1983 todavía no había indicios del producto prometido. Nigel Searle, a la sazón jefe de la división de computadoras de Sinclair, tuvo que dar la cara: “El diseño ha sido finalizado y ahora estamos a la espera de que nos lleguen unos chips semiconductores fabricados a medida”, dijo a la prensa. Y agregó: “El retraso en el Microdrive ha sido el resultado de dificultades mecánicas que no habíamos previsto. Pero ya han sido resueltas y, además, se ha mejorado el rendimiento de las unidades; ahora son mucho más fiables de lo que esperábamos lograr”.
Por aquel momento ya se rumoreaba que el Microdrive no estaba basado en tecnología de disco rotatorio, tomando como referencia el cambio en el eslogan publicitario antes comentado. Parecía que, en lugar de ello, se utilizaría un rollo de cinta de alta velocidad, como apuntaba la revista británica ‘Your Computer’. De hecho, la publicación añade que, probablemente, las unidades de Microdrive ya estaban pensadas así desde hace mucho antes.

Sinclair ZX Microdrive
Entre tanto fue pasando el tiempo, y el trabajo de desarrollo de Sinclair Research estaba hecho. En julio de 1983, la compañía anunció que comenzaría el envío de unidades ZX Microdrive, junto con la ZX Interface 1 (complemento necesario para conectarlas al Spectrum), en el siguiente mes de septiembre. Las primeras 1.000 unidades se ofrecían específicamente para la gente que había comprado ya ordenadores ZX Spectrum, como compensación por haber tenido que esperar tanto tiempo.

Cartucho Microdrive
En aquel momento, y para sorpresa de muchos y afirmación de otros, se confirmó que cada cartucho Microdrive (de 43 × 30 × 5 mm) no contenía un disco dentro, sino un bucle o rollo de cinta magnética de 2 mm de ancho y fabricada (y en esto Sinclair fue tajante e insistente) con los mismos materiales que la cinta de vídeo de alta calidad, y no con lo que te encontrarías dentro de un casete de audio normal y corriente. Aún así, bastantes fueron aquellos que acusaron a Sinclair de mentir en un primer momento y de vender humo, pues su Spectrum parecía estar condenado a utilizar unidades de cinta de por vida; llámalo casete, llámalo Microdrive.
David Southward, que supervisaba el trabajo de Sinclair Research en los dispositivos periféricos, tomó el control general del proyecto Microdrive en 1982 y puso al frente del trabajo de electrónica analógica del producto a Ben Cheese, un ingeniero electrónico.
El diseñador industrial de Sinclair Rick Dickinson fue el encargado de darle forma a aquel aparato. Dickinson, que dejó la empresa en 1986 para establecer su propia agencia de diseño, comentaba que el aspecto del Microdrive surgió directamente desde el propio Spectrum en sí, replicando la carcasa de plástico de la computadora con su sección trasera levantada como distintivo, e incluso con una placa frontal superior de aluminio pintada de negro, de acuerdo al característico diseño del ZX Spectrum.

Interior del cartucho Microdrive
La interfaz ZX Interface 1, que conectaba el Microdrive al ZX Spectrum, fue diseñada por Martin Brennan, que posteriormente trabajaría en la consola de videojuegos Jaguar de Atari. Brennan diseñó la electrónica de la interfaz y produjo el chip ROM de la unidad, escribiendo el código por sí mismo. El diseño mecánico fue dirigido por John Williams.
Ian Logan, un programador independiente de Lincolnshire, también escritor y médico, fue el encargado de escribir los comandos adicionales para el BASIC del Spectrum con el fin de que los usuarios del microordenador pudieran interactuar con Microdrive. Dichos comandos fueron alojados en el chip ROM de 8 KB de la ZX Interface 1, por lo que parcheaban el repertorio original de comandos del ordenador cuando la interfaz se conectaba.
La participación de Logan se detalla en un libro que, en aquella época, tuvo un gran éxito, ‘The Complete Spectrum Rom Disassembly‘, escrito junto con Frank O’Hara. Logan repasa el firmware del equipo, detallando las rutinas, las ubicaciones de las tablas de salto y demás. El resultado fue un manual de referencia muy completo, no sólo para la gran demanda de aspirantes a escritores de código máquina del momento, sino también para los propios empleados de Sinclair Research, pues la compañía no ofreció un compendio de referencia tan detallado como este.
Los primeros Microdrives salieron al mercado con chips EPROM con el objeto de que pudieran ser actualizados con nuevo código posteriormente. Y es que Sinclair quería rediseñar la placa de circuitos en algún momento, y la grabación de un chip ROM definitivo tendría lugar sólo cuando se hubieran dado por depurados algunos errores en el código vigente con el que en ese momento salió a la venta el dispositivo. Rápidamente se supo que había otros problemas añadidos también. La velocidad era la cuestión principal, y también el uso regular de las unidades que revelaría los puntos débiles del diseño.
Como todos los medios basados en una cinta magnética muy estrecha y delgada, los Microdrives acumulaban partículas del material de óxido magnético, un problema exacerbado por la necesidad de tirar de la cinta de 2 mm de ancho y la fricción adicional que ello inducía. La cinta se movía envuelta en una rueda de goma en el interior del pequeño cartucho, manteniéndola entre ella y una pequeña rueda de plástico. Al encender la unidad, la velocidad de la cinta sobre la cabeza lectora pasaba de 0 a 750 milímetros por segundo, lo cual se traducía en un gran tirón que llevaba a un estiramiento tal de la cinta en el punto que, comúnmente, se descentraba de su paso entre las ruedas del mecanismo. Las versiones posteriores de la unidad incorporaban un condensador de 22µF para permitir al motor llegar a la velocidad de funcionamiento completo más paulatinamente y sin tantos problemas.
Incluso Sinclair, en el propio manual del dispositivo, tuvo que admitir que “los cartuchos de Microdrive no durarán para siempre y, con el tiempo, tendrán que ser reemplazados. El síntoma de envejecimiento de un cartucho es que el equipo invierte más tiempo y más tiempo para encontrar un programa o archivo antes de cargarlo. Así que resulta una buena idea mantener copias de seguridad de los programas y archivos importantes en otro cartucho o en una cinta”. Empezábamos bien si esto venía ya en el manual.
Más pegas. Mientras que las unidades de Microdrive costaban 49,95 £, lo cual era considerado como muy barato, con los cartuchos de repuesto ocurría todo lo contrario, pues salían por 4,95 £ cada uno, y eso es alrededor de tres veces el precio de un disquete de 5,25 pulgadas del momento. Además, la capacidad de almacenamiento, que se dijo inicialmente que iba a ser de 100 KB, se había convertido durante la publicidad de lanzamiento en “no menos de 85 KB“, para permitir las pérdidas por pequeñas diferencias en la longitud de la cinta de diferentes cartuchos, por motores funcionando a velocidades ligeramente diferentes en diferentes unidades y, en menor medida, por los sectores defectuosos en la cinta.
Más problemas. Cada cartucho no podía contener más de 50 archivos, y la información tenía que ser leída directamente en la memoria del Spectrum por lo que, para modificar un fichero, el aparato borraba el original y escribía la nueva versión en la cinta. No había manera de modificar los archivos directamente, una consecuencia de la falta de un verdadero acceso aleatorio en la unidad.
Y seguimos. Las propias unidades físicas tenían defectos de diseño. Agregar unidades adicionales (hasta 8 en serie) parecía una tarea fácil: bastaba unir unas con otras con un cable plano que se conectaba en el lateral de cada dispositivo. Pero cada unidad, también, había de ser unida a la siguiente mediante un soporte especial de anclaje, porque en Sinclair estaban muy preocupados de que un Microdrive fuera golpeado inadvertidamente y rompiera o cortara su conexión, dando al traste con el sistema y pudiendo, potencialmente, perder todos los datos de un usuario.
Además, algo más tarde, se descubrió que el montaje del sistema que detectaba si la pestaña de protección contra escritura de un cartucho había sido retirada, fue colocado de manera tal que una inserción demasiado vigorosa de dicho cartucho en la unidad podría causar que se doblara, provocando un funcionamiento incorrecto del sistema.

Sistema de expansión a la venta
A principios de 1984, Sinclair dio a conocer que habían sido vendidas menos de 1.000 unidades Microdrive (incluyendo las nuevas del Sinclair QL) y, aunque aparecieron un par de aplicaciones que habían sido adaptadas para hacer uso de este sistema en almacenamiento de datos, para la mayoría de los desarrolladores de juegos la tecnología era demasiado cara: los jóvenes jugadores, que eran sus clientes, no tenían dinero suficiente en sus bolsillos. Por supuesto, esto ayudó a limitar el número de juegos disponibles en Microdrive. A principios de 1985, Sinclair baja estrepitosamente el precio de los cartuchos a 1,99 £ con el fin de ponerlos en línea con los precios de los disquetes.
Sinclair QL queda suspendido de producción en 1985 para ahorrar dinero (la compañía admitió una pérdida de 18,3 millones de libras). Cuando Amstrad adquirió la empresa en crisis en 1986 por 5.000.000 £, se le dió la puntilla formalmente a la computadora y a la plataforma Microdrive. Amstrad estaba interesada en el formato de disco de 3 pulgadas que había comprado en Asia para su nuevo equipo orientado a eliminar las máquinas de escribir de los escritorios, el PCW8256, y quiso extenderlo, además, a otras máquinas para lograr precios más bajos a través de mayores volúmenes de compra, haciendo crecer así la base de usuarios. Así pues, Amstrad se cargó el polémico Microdrive de un plumazo.

Juego en Microdrive
El hecho de que el Sinclair ZX Microdrive pueda haber sido, pues, una especie de callejón sin salida en la evolución del almacenamiento de datos, no resta valor a la novedad tecnológica, ni a los esfuerzos de las personas que trabajaron en aquello, ilusionadas, para convertirlo en un sistema de almacenamiento comercial viable para los microordenadores de 8 bits. El tiempo los almacenará en su justa estantería de honor, junto a su hermano mayor, ZX Spectrum.