Productos de ingeniería de precisión para las masas: discos duros

Existe una interesante contradicción asociada con los discos duros modernos (unidades de disco duro, HDD). Por un lado, este es el pináculo de la ingeniería, un producto digno de la industria de la ingeniería de precisión, producido en grandes cantidades. Por otro lado, representan una tecnología de almacenamiento de datos que es criticada por todos y cada uno. Tan pronto como no se les insulte, recordando, por ejemplo, que usan óxido de hierro, o simplemente - óxido . Pero en los discos duros, a pesar de esto, las placas magnéticas de suavidad de espejo giran silenciosamente durante toda su vida útil. Los cabezales de lectura / escritura se encuentran a solo unos nanómetros de ellos, de cuya posición es responsable un accionamiento eléctrico especial. Es capaz de colocar cabezales sobre pistas magnéticas microscópicas con gran precisión y alta velocidad.







A pesar de que con el tiempo, se colocan cada vez más pistas en cada milímetro cuadrado de platos y los cabezales de lectura / escritura se vuelven más complejos cada pocos años, la confiabilidad de los discos duros crece constantemente. Así, la empresa Backblaze, que se dedica al almacenamiento de datos, ha elaborado un informe para el segundo trimestre de 2020, dedicado a los discos duros que se utilizan en él. Al final resultó que, la tasa anual de fallas de disco se redujo significativamente en comparación con el año pasado.



¿Significa esto que los discos duros se vuelven más confiables con el tiempo? ¿Cómo las tecnologías prometedoras de grabación magnética como MAMR y HAMR podrían afectar la confiabilidad del disco duro en las próximas décadas?



El camino de "mega" a "tera"



El primer disco duro salió a la venta en la década de 1950. Era un IBM 350 con una capacidad de 3,75 MB. El dispositivo estaba encerrado en una caja de 152x172x74 cm, que constaba de 50 discos con un diámetro de 24 pulgadas (610 mm). Si retrocede a nuestro tiempo, resulta que el mejor disco duro moderno de 3,5 pulgadas (aproximadamente 14,7 × 10,2 × 2,6 cm) puede almacenar hasta 18 TB de datos utilizando tecnología de grabación convencional (no en mosaico).





Mecanismo interno del disco duro IBM 350



En el IBM 350, los platos giraban a 1200 rpm. Y en las últimas décadas, los discos duros se han ido desarrollando para reducir el diámetro de las placas y aumentar su velocidad de rotación (los valores típicos son 5400-15000 rpm). Otras mejoras incluyen colocar los cabezales de lectura / escritura más cerca de la superficie del plato.



El dispositivo de almacenamiento IBM 1301 DSU (Unidad de almacenamiento de discos) salió a la luz en 1961. Fue un diseño innovador en el que cada plato tenía su propio cabezal de lectura / escritura. Otra innovación de este modelo fue que las cabezas flotaban sobre la superficie del disco giratorio bajo la acción de fuerzas aerodinámicas. Esto hizo posible reducir el espacio entre las cabezas y la superficie del disco.



Después de 46 años de desarrollo, IBM vendió su negocio de HDD a Hitachi en 2003. En ese momento, la capacidad de los discos duros había aumentado 48.000 veces y su tamaño había disminuido 29.161 veces. El consumo de energía se redujo de más de 2,3 kW a unos 10 vatios (para los modelos de escritorio) y el precio por megabyte se redujo de 68.000 dólares a 0,002 dólares. Al mismo tiempo, el número de platos disminuyó de decenas a, como máximo, dos.



Aumento de la densidad de almacenamiento



Los dispositivos mecánicos y electrónicos, así como las computadoras, siempre han evolucionado hacia la miniaturización. Las enormes computadoras de tubo o relé de los años 40 y 50 evolucionaron hasta convertirse en sistemas de transistores menos voluminosos y luego en modernas maravillas de tecnología en miniatura basadas en circuitos integrados especializados. Los discos duros han recorrido un camino similar.





Componentes internos del disco duro Seagate MicroDrive de 1 pulgada



La electrónica de control de los discos duros ha experimentado todas las maravillas del desarrollo de VLSI, utilizaban servoaccionamientos cada vez más precisos y económicos. Los avances en la ciencia de los materiales han dado como resultado placas más ligeras y lisas (vidrio o aluminio) con un recubrimiento magnético mejorado. La densidad de grabación creció. Los creadores de discos duros estaban mejorando en la comprensión de las peculiaridades de sus elementos individuales (microcircuitos, soldaduras, unidades, cabezales de lectura / escritura) y las mejoras revolucionarias en sus características no ocurrieron de inmediato, sino gradualmente, a través de pequeñas mejoras.





Seis discos duros abiertos - de 8 "a 1" ( fuente )



Aunque ha habido al menos dos intentos de miniaturización seria de discos duros, tomando la forma del HP Kittyhawk de 1.3 "en 1992 y el Microdrive de 1"en 1999, el mercado Como resultado, tomó su decisión, centrándose en los modelos de factores de forma de 3,5 y 2,5 pulgadas. Las unidades en el factor de forma Microdrive se promocionaron como una alternativa a las tarjetas CompactFlash basadas en NAND, citando sus fortalezas como mayores capacidades de almacenamiento y ciclos de escritura prácticamente ilimitados, lo que las hacía adecuadas para su uso en sistemas integrados.



Como en otros casos similares, las limitaciones físicas en la velocidad de escritura y en el momento del acceso aleatorio a los datos finalmente hicieron de los HDD los invitados más deseables donde lo más importante es la capacidad de almacenar grandes cantidades de información de manera económica y confiable. Esto permitió que el mercado de HDD se adaptara a los sistemas de escritorio y servidor, así como a las necesidades de videovigilancia y respaldo de datos (aquí compiten con las unidades de cinta).



Razones de las fallas del disco duro



Aunque las partes mecánicas de los discos duros a menudo se consideran el punto más débil, las fallas de los discos duros pueden ser causadas por algo más que esas partes. Entre esas razones se encuentran las siguientes:



  • Factor humano.
  • Fallos de hardware (mecánicos, electrónicos).
  • Daño al firmware.
  • Factores ambientales (temperatura, humedad).
  • Fuente de alimentación.


Los discos duros se prueban para determinar la resistencia a los golpes cuando la alimentación está apagada o durante el funcionamiento (los platos giran, los cabezales de lectura / escritura no están estacionados). Si el disco se somete a una tensión más intensa de la que fue diseñada, la unidad responsable del movimiento de las cabezas puede dañarse, las cabezas pueden chocar con la superficie de los platos del disco. Si el disco no está sujeto a tales influencias, lo más probable es que la razón principal de sus fallas sea su desgaste natural. Los fabricantes de discos duros les dan un tiempo medio para fallar (MTBF, tiempo medio antes de fallar), lo que da una idea de cuánto tiempo puede funcionar un disco duro en condiciones normales.



El MTBF se obtiene extrapolando el desgaste del dispositivo durante un período de tiempo. Existen estándares según los cuales se calcula este indicador. El MTBF de los discos duros suele oscilar entre 100.000 y 1 millón de horas. Por lo tanto, para probar realmente el disco, se necesitarían de 10 a 100 años para observarlo. Al mismo tiempo, los fabricantes, al indicar MTBF para discos, parten del supuesto de que el disco funcionará en las condiciones recomendadas. Aquí es donde funcionan las unidades en empresas de almacenamiento como Backblaze.



Obviamente, si expone el disco duro a un impacto muy fuerte (lo deja caer sobre un piso de piedra, por ejemplo), o si ocurre una falla grave en la fuente de alimentación del disco (por ejemplo, una subida de tensión), la vida útil del HDD se reducirá. Menos obvio es que la confiabilidad de los discos duros puede verse afectada por defectos de fabricación que no son exclusivos de los discos duros. Son la razón por la que una métrica como la "tasa de falla aceptable" se aplica a la mayoría de los productos.



No se trata del usuario. Se trata de la línea de producción.



Los discos duros muestran valores altos de MTBF. Es comprensible que Backblaze se esfuerce por garantizar que casi 130.000 de sus discos duros “vivan” felizmente hasta una edad avanzada y se retiren tranquilamente a un mundo mejor (normalmente a una planta de trituración de chatarra). Pero incluso una empresa como Backblaze informa, a partir del primer trimestre de 2020, una tasa anual de fallas (AFR) del 1.07%. Afortunadamente para ellos, esta es la tasa más baja desde que comenzaron a publicar este tipo de informes en 2013. En el primer trimestre de 2019, por ejemplo, su AFR fue del 1,56%.



En uno de mis materialesSe dijo que en la fabricación de dispositivos que incluyen circuitos integrados pueden aparecer defectos en los mismos, que no se manifiestan de inmediato, sino al cabo de un tiempo, durante el funcionamiento de los dispositivos. Con el tiempo, factores como la electromigración, el estrés térmico y el estrés mecánico pueden provocar fallas en los microcircuitos. Por lo tanto, las conexiones de cables en los casos de microcircuitos pueden romperse, la electromigración puede dañar las conexiones soldadas y los propios microcircuitos (especialmente después de la exposición a un dispositivo de descarga electrostática).



Las partes mecánicas de los discos duros dependen de la precisión del cumplimiento de las tolerancias tecnológicas y de la calidad de la lubricación de las partes móviles. Anteriormente, existía un problema como el pegado del bloque de cabezales magnéticos en la superficie del disco duro (stiction ). Pero con el tiempo, las características de los lubricantes han mejorado y el cabezal ya no puede salir del área de estacionamiento. Como resultado, este problema se ha resuelto más o menos hoy.



Sin embargo, en cada paso del proceso de producción existe la posibilidad de estropear algo. Esto finalmente se manifiesta como algo que degrada los bonitos números de MTBF. El disco duro que falla cae en el lado oscuro de la curva de tasa de falla. Esta curva se caracteriza por un pico alto al principio, lo que indica fallas debido a defectos de fabricación graves. Luego, el número de defectos disminuye y parece lo suficientemente tranquilo hasta que el dispositivo expira, después de lo cual vuelve a subir.



¿Que sigue?





Ha llegado el momento de que los



discos duros HAMR , tal como los conocemos, son un ejemplo del resultado final de un proceso de fabricación perfectamente ajustado. Muchos de los problemas que han afectado a estos dispositivos durante los últimos cinco años se han solucionado o mitigado. Los cambios comparativamente notables en la producción de HDD, como el cambio a la producción de unidades llenas de helio ,aún no han tenido un impacto serio en su tasa de fallas. Otros cambios, como la transición de la grabación magnética perpendicular ( PMR ) a la grabación magnética asistida por calor ( HAMR)) no debería afectar significativamente la vida útil de los discos duros. Y esto siempre que las nuevas tecnologías no traigan consigo nuevos problemas.



En general, el futuro tecnológico de HDD parece, en todos los sentidos, bastante aburrido. Serán instalaciones de almacenamiento de bajo costo y gran capacidad que pueden funcionar normalmente durante al menos diez años. El principio básico de la creación de discos duros, en particular la magnetización de pequeñas secciones de las placas, puede desarrollarse hasta tal punto que el papel de estas "secciones" será desempeñado por moléculas individuales. Y si agrega algo como HAMR aquí, resulta que puede esperar un aumento significativo en la vida útil de almacenamiento de la información en el disco duro.



Los discos duros tienen una ventaja significativa sobre NAND, que utiliza pequeños condensadores para almacenar cargas y utiliza un método para escribir datos que dañan físicamente esos condensadores. Las limitaciones físicas de dicha memoria son mucho más severas que las aplicables a los discos duros. Esto conduce a la complicación del diseño de la memoria, por ejemplo, a la creación de unidades basadas en celdas de memoria capaces de almacenar cuatro bits (Quad-Level Cell, QLC). Cuando se trabaja con tales celdas, se deben distinguir 16 niveles de voltaje. Debido a esta complejidad de la memoria QLC, resulta que los SSD correspondientes en muchos escenarios son solo un poco más rápidos que los discos duros de 5400 rpm. Esto es especialmente cierto para los retrasos en el acceso a los datos.



Salir



Mi primer disco duro fue un Seagate de 20 o 30 megabytes en un IBM PS / 2 (386SX). Esta computadora me la trajo mi padre del trabajo. Cambiaron a nuevas PC y, probablemente, querían liberar los almacenes de la tecnología antigua. En los días de MS DOS, 20-30 MB era suficiente para el sistema operativo, y para un montón de juegos, y para WordPerfect 5.1, y mucho más. Por supuesto, esta cantidad de memoria a finales de los 90 parecía ridícula. Luego, hablando de discos duros, no operaban con megabytes, sino con gigabytes.



A pesar de que he tenido muchas computadoras de escritorio y portátiles desde entonces, irónicamente, la única unidad que, por así decirlo, murió en mis manos fue una SSD. Esto, así como las publicaciones sobre discos duros, como los informes de Backblaze, me dan una gran confianza en que los días en que los últimos discos de disco duro dejarán de girar están muy lejos. Quizás este pronóstico cambie solo cuando algo como la tecnología 3D XPoint permita la creación de unidades suficientemente grandes y asequibles. Mientras tanto, deje que todo siga como de costumbre.



¿Ha encontrado fallas en el disco duro?










All Articles