sábado, 14 de febrero de 2026

Los digitos perdidos en el y2k

En el efecto Y2K, los dígitos que se "perderían" o se omitirían eran los dos primeros dígitos del año (el "19" de 1900).
¿Por qué se omitían estos dígitos?
Durante las décadas de los 60 y 70, la memoria de las computadoras era sumamente costosa y limitada. Para ahorrar espacio de almacenamiento y procesamiento, los programadores adoptaron el estándar de registrar los años con solo dos dígitos (formato YY) en lugar de cuatro (YYYY).
  • Ejemplo: El año 1998 se almacenaba simplemente como "98". El sistema "asumía" que los dígitos omitidos siempre eran 19.
El problema de los dígitos en el año 2000
Al llegar el 1 de enero de 2000, los sistemas que solo usaban dos dígitos pasarían del "99" al "00". Esto generaba dos problemas principales de interpretación:
  1. Regreso al pasado: Muchas computadoras interpretarían el "00" como el año 1900 en lugar del 2000.
  2. Cálculos erróneos: Para un banco, un préstamo iniciado en 1995 ("95") y terminado en 2000 ("00") daría como resultado un periodo de -95 años en lugar de 5 años, provocando el colapso de los cálculos de intereses y fechas de vencimiento.
Este error se considera una de las primeras grandes crisis de ciberseguridad a nivel global, resuelta gracias a una actualización masiva de sistemas para que reconocieran los 4 dígitos completos del año.

No hay comentarios:

Publicar un comentario

Los digitos perdidos en el y2k

En el efecto Y2K, los dígitos que se "perderían" o se omitirían eran los  dos primeros dígitos del año  (el "19" de 1900...