Una breve historia de la tecnología de compresión de datos
En pocas palabras, sin tecnología de compresión de datos, no podemos utilizar WinRAR para reducir los archivos adjuntos en los correos electrónicos; sin tecnología de compresión de datos, las grabadoras de voz digitales del mercado sólo pueden grabar menos de 20 minutos de voz; Sin tecnología de compresión de datos, podría llevar medio año descargar una película de Internet... ¿Pero cómo sucede esto? ¿Cómo se desarrolló la tecnología de compresión de datos desde cero? Hace más de mil años, los eruditos chinos sabían utilizar abreviaturas como "Banma" para referirse a Ban Gu y Sima Qian. Esta costumbre de defender la simplicidad ha continuado en la era actual de Internet: cuando usamos "7456" para representar "Estoy enojado contigo" o "B4" para representar "antes" en BBS, al menos deberíamos saber que en realidad se trata de The compresión de datos más simple.
Estrictamente hablando, la compresión de datos se origina en la comprensión que las personas tienen de la probabilidad. Cuando codificamos información de texto, si damos códigos más cortos a las letras con mayor probabilidad de aparición y códigos más largos a las letras con menor probabilidad de aparición, la longitud total de codificación se puede acortar mucho. Mucho antes de la llegada de las computadoras, este principio se implementó con éxito en el famoso código Morse. En la tabla de código Morse, cada letra corresponde a una combinación única de puntos y rayas. La letra E con mayor probabilidad de ocurrencia se codifica como un punto ".", mientras que la letra Z con menor probabilidad de ocurrencia se codifica como "-..". Obviamente, esto puede acortar efectivamente la longitud del código final.
C. E. Shannon, el padre de la teoría de la información, utilizó por primera vez el lenguaje matemático para explicar la relación entre probabilidad y redundancia de información. En su artículo de 1948 "La teoría matemática de la comunicación", Shannon señaló que existe redundancia en cualquier información y que la redundancia está relacionada con la probabilidad o incertidumbre de cada símbolo (número, letra o palabra) en la información. Shannon se basó en el concepto de termodinámica, llamó a la cantidad promedio de información excluida la redundancia "entropía de la información" y dio una expresión matemática para calcular la entropía de la información. Este gran artículo fue posteriormente aclamado como el trabajo pionero de la teoría de la información, y la entropía de la información también sentó las bases teóricas para todos los algoritmos de compresión de datos. En esencia, el propósito de la compresión de datos es eliminar la redundancia en la información. La entropía de la información y los teoremas relacionados describen con precisión el grado de redundancia de la información a través de medios matemáticos. Utilizando la fórmula de entropía de la información, las personas pueden calcular el límite de codificación de la información, es decir, bajo un determinado modelo de probabilidad, la longitud de codificación de la compresión sin pérdidas no puede ser menor que el resultado dado por la fórmula de entropía de la información.
Con la teoría completa, lo siguiente es encontrar una manera de implementar el algoritmo específico e intentar que la salida del algoritmo se acerque al límite de entropía de la información. Por supuesto, la mayoría de los ingenieros y técnicos saben que no es fácil desarrollar una teoría a partir de una fórmula matemática hasta convertirla en una tecnología práctica, como fabricar un arma nuclear con una sola fórmula E = MC^2. El proceso de diseño de un algoritmo de compresión específico suele ser más bien un juego matemático. Los desarrolladores primero deben encontrar un método que pueda contar o estimar la probabilidad de que aparezcan símbolos en la información con la mayor precisión posible y luego diseñar un conjunto de reglas de codificación para describir cada símbolo con el código más corto. El conocimiento estadístico sigue siendo bastante eficaz para trabajos anteriores. Hasta ahora, la gente ha implementado modelos estadísticos probabilísticos, como modelos estáticos, modelos semiestáticos, modelos adaptativos, modelos de Markov y modelos de predicción de coincidencia parcial. En términos relativos, el desarrollo de métodos de codificación es más tortuoso.
En 1948, Shannon propuso la teoría de la entropía de la información y un método de codificación simple: la codificación de Shannon. En 1952, R. M. Fano propuso además la codificación Fano. Estos primeros métodos de codificación revelaron las reglas básicas de la codificación de longitud variable y, de hecho, podían lograr un cierto efecto de compresión, pero aún estaban lejos de ser un algoritmo de compresión verdaderamente práctico.
El primer método práctico de codificación fue propuesto por D. A. Huffman en su artículo de 1952. Hasta el día de hoy, muchos libros de texto sobre estructura de datos todavía mencionan este método llamado codificación de Huffman cuando se habla de árboles binarios. La codificación de Huffman es tan famosa en el campo de la informática que incluso la invención de la codificación en sí se ha convertido en un tema candente. Se dice que en 1952, el joven Hoffman todavía era estudiante en el MIT. Diseñó este método de codificación aparentemente simple pero de gran alcance para demostrarle a su maestro que no podía realizar el examen final de un determinado curso.
La codificación Huffman tiene alta eficiencia, rápida velocidad de operación e implementación flexible. Ha sido ampliamente utilizado en el campo de la compresión de datos desde la década de 1960. Por ejemplo, el programa de compresión COMPACT en los primeros sistemas UNIX, que no es muy conocido por la gente moderna, es en realidad una implementación específica de la codificación adaptativa de orden 0 de Huffman. A principios de la década de 1980, la codificación Huffman apareció en los sistemas CP/M y DOS, y su programa representativo se llamó SQ. Hoy en día, la codificación Huffman aparece en muchas herramientas y algoritmos de compresión conocidos (como WinRAR, gzip y JPEG). La longitud de codificación obtenida mediante la codificación de Huffman es solo una aproximación del resultado del cálculo de la entropía de la información y realmente no puede acercarse al límite de la entropía de la información. Debido a esto, las técnicas de compresión modernas generalmente solo usan Huffman como método de codificación final, en lugar de todo el algoritmo de compresión de datos.
Los científicos nunca han abandonado su ideal de desafiar los límites de la entropía de la información. Alrededor de 1968, P. Elias desarrolló los métodos de codificación de Shannon y Fano y construyó una codificación de Shannon-Fano-Elias más completa desde una perspectiva matemática. Siguiendo la idea de este método de codificación, en 1976 J. Rissanen propuso un método de codificación, la codificación aritmética, que puede acercarse con éxito al límite de la entropía de la información. En 1982, Rissanen y G. G. Langdon mejoraron la codificación aritmética. Luego, la codificación aritmética se combinó con el modelo predictivo de coincidencia parcial (PPM) propuesto por J. G. Cleary e I. H. Witten en 1984 para desarrollar un algoritmo con una compresión casi perfecta. Los algoritmos de compresión generales actuales llamados PPMC, PPMD o PPMZ, que se dice que tienen los mejores efectos de compresión del mundo, son en realidad la implementación concreta de esta idea.
Para una compresión sin pérdidas, la combinación del modelo PPM y la codificación aritmética puede acercarse al límite de la entropía de la información en la mayor medida posible. Parece que el desarrollo de la tecnología de compresión puede detenerse aquí. Desafortunadamente, las cosas a menudo no son tan simples como se imagina: aunque la codificación aritmética puede obtener la longitud de codificación más corta, su complejidad también hace que cualquier implementación específica de codificación aritmética sea tan lenta como un caracol. Incluso hoy en día, cuando prevalece la Ley de Moore y las velocidades de la CPU mejoran cada día que pasa, la velocidad de ejecución de los programas de codificación aritmética es difícil de satisfacer las necesidades de las aplicaciones diarias. De ninguna manera, si no fuera por los dos judíos mencionados más adelante, no sabemos cuándo podríamos utilizar una herramienta de compresión práctica y conveniente como WinZIP. El pensamiento inverso es siempre el arma mágica para un éxito inesperado en el campo de la ciencia y la tecnología. Justo cuando la mayoría de la gente se devanaba los sesos para mejorar Huffman o la codificación aritmética para obtener un código con una velocidad de ejecución y un efecto de compresión "perfectos", dos judíos inteligentes, J. Ziff y A. Rempel, rompieron con las ideas de diseño de Huffman y la aritmética. Al codificar, se crean una serie de algoritmos de compresión que son más efectivos que la codificación de Huffman y más rápidos que la codificación aritmética. Normalmente utilizamos las abreviaturas de estos dos apellidos judíos para referirnos colectivamente a estos algoritmos como algoritmos de la serie LZ.
En orden cronológico, el desarrollo de los algoritmos de la serie LZ es aproximadamente el siguiente: Ziff y Lemper publicaron un artículo titulado "Algoritmo general para la compresión de datos secuenciales" en 1977, que describe El algoritmo se llama algoritmo LZ77. por generaciones posteriores. En 1978, publicaron una secuela de este artículo "Compresión de una secuencia única mediante codificación de velocidad variable" y describieron un algoritmo de compresión llamado LZ78. En 1984, T. A. Welch publicó un artículo titulado "Tecnología de compresión de datos de alto rendimiento" que describe los resultados de su investigación en el Sperry Research Center (más tarde fusionado con Unisys). Esta es una variante del algoritmo LZ78, que más tarde se conoció como algoritmo LZW.
Después de 1990, T. C. Bell et al. propusieron muchas variantes o versiones mejoradas de los algoritmos de la serie LZ.
Para ser honesto, la idea del algoritmo de la serie LZ no es novedosa y no tiene una base teórica profunda ni fórmulas matemáticas complejas. Simplemente continuaron con la admiración y el amor de la gente por los diccionarios durante miles de años y aplicaron la tecnología de los diccionarios al campo de la compresión general de datos de una manera extremadamente inteligente. En términos generales, cuando reemplaza cada palabra del artículo con el número de página y el número de línea en el diccionario, realmente comprende el verdadero significado del algoritmo de la serie LZ. Aunque esta idea basada en el modelo de diccionario es muy diferente del método estadístico iniciado por Shannon y Hoffman en la superficie, en realidad puede acercarse al límite de la entropía de la información. Además, se puede demostrar teóricamente que los algoritmos de la serie LZ siguen cumpliendo esencialmente la ley básica de la entropía de la información.
Las ventajas de los algoritmos de la serie LZ se reflejaron rápidamente en el campo de la compresión de datos, y la cantidad de herramientas y software que utilizan los algoritmos de la serie LZ ha crecido explosivamente. Los programas de compresión que utilizan el algoritmo LZW aparecieron por primera vez en los sistemas UNIX y pronto se convirtieron en el estándar de compresión en el mundo UNIX. Seguido del programa ARC en entorno MS-DOS, e imitaciones como PKWare y PKARC. En la década de 1980, las famosas herramientas de compresión LHarc y ARJ fueron destacados representantes del algoritmo LZ77.
Hoy en día, los algoritmos LZ77, LZ78, LZW y sus variantes casi monopolizan todo el campo general de compresión de datos. Las herramientas de compresión con las que estamos familiarizados incluyen PKZIP, WinZIP, WinRAR, gzip, etc., y los formatos de archivo incluyen ZIP, GIF, PNG, etc. , todos estos se benefician de los algoritmos de la serie LZ. Incluso los formatos de archivos cifrados como PGP han elegido los algoritmos de la serie LZ como estándares de compresión de datos.
Nadie puede negar la contribución de dos judíos a la tecnología de compresión de datos. Sólo quiero enfatizar que en el campo de la tecnología de ingeniería, la búsqueda unilateral de la perfección teórica a menudo resulta en la mitad del resultado con la mitad del esfuerzo. Si siempre pudiéramos pensar de otra manera, como Ziff y Rempel, tal vez tú y yo podríamos inventar un nuevo algoritmo y dejar nuestros nombres en la historia de las exposiciones de tecnología. Los algoritmos de la serie LZ básicamente resuelven el problema de equilibrar la velocidad y el efecto de compresión en la compresión de datos en general. Sin embargo, en el campo de la compresión de datos, hay otro mundo más amplio esperando que exploremos. La teoría de la información de Shannon nos dice que cuanto mayor sea el conocimiento previo de la información, menos podremos comprimirla. En otras palabras, si el objetivo de diseño del algoritmo de compresión no son fuentes de datos arbitrarias, sino datos especiales cuyas propiedades básicas se conocen, el efecto de compresión mejorará aún más. Esto nos recuerda que además de desarrollar algoritmos de compresión generales, también debemos estudiar cuidadosamente algoritmos de compresión especiales para varios datos especiales. Por ejemplo, en la vida digital actual, las imágenes, la información de audio y vídeo distribuida en diversos dispositivos digitales, como cámaras digitales, grabadoras digitales, walkmans digitales y videocámaras digitales, deben comprimirse eficazmente antes de poder almacenarse en un disco duro o transmitirse a través de un USB. cable. De hecho, la compresión de información multimedia siempre ha sido un tema importante en el campo de la compresión de datos. Cada una de sus ramas puede liderar una determinada tendencia tecnológica en el futuro, brindando oportunidades comerciales ilimitadas a los desarrolladores de productos digitales, equipos de comunicación y software de aplicaciones. .
Hablemos primero de la compresión de datos de imágenes. En términos generales, las imágenes se pueden dividir en diferentes tipos, como imágenes binarias, imágenes en escala de grises e imágenes en color. Los métodos de compresión también son diferentes para cada tipo de imagen.
La invención y el uso generalizado de la tecnología del fax promovieron el rápido desarrollo de algoritmos de compresión de imágenes binarias. El CCITT (Comité Consultivo sobre Telégrafos y Teléfonos Internacionales, afiliado a la UIT) ha establecido una serie de estándares de compresión de imágenes para aplicaciones de fax, específicamente para comprimir y transmitir imágenes binarias. Estas normas generalmente incluyen el Grupo 1 y el Grupo 2 del CCITT a finales de la década de 1970, el Grupo 3 del CCITT en 1980 y el Grupo 4 del CCITT en 1984. Para adaptarse a diferentes tipos de imágenes de fax, los métodos de codificación utilizados en estos estándares incluyen codificación MH unidimensional y codificación MR bidimensional, en los que se utilizan codificación de longitud de ejecución (RLE) y codificación Huffman.
Hoy en día, cuando enviamos y recibimos faxes en la oficina o en casa, utilizamos mayoritariamente el estándar de compresión CCITT Grupo 3, mientras que algunos equipos de fax basados en redes digitales y archivos TIFF que almacenan imágenes binarias utilizan el estándar de compresión CCITT Grupo 4. En 1993, el Grupo Conjunto de Expertos en Imágenes Binarias (JBIG), establecido por el CCITT y la ISO (Organización Internacional de Normalización), desarrolló aún más la compresión de imágenes binarias hasta convertirla en el estándar JBIG más general.
De hecho, para imágenes binarias e imágenes en color y escala de grises discontinuas, muchos algoritmos de compresión comunes, incluidos los algoritmos de la serie LZ, pueden lograr buenos efectos de compresión. Por ejemplo, el formato de archivo de imagen GIF nacido en 1987 utiliza el algoritmo de compresión LZW. El formato PNG que apareció en 1995 es más completo que el formato GIF. Elige zlib, una variante del algoritmo LZ77, para comprimir datos de imagen. Además, la gente ha construido muchos algoritmos eficaces de compresión de imágenes utilizando la codificación Huffman, la codificación aritmética y los modelos PPM mencionados anteriormente.
Para imágenes en escala de grises o en color más comunes (como fotografías digitales), los valores de píxeles cambian continuamente en el espacio y las ventajas de los algoritmos de compresión generales no son tan obvias. Afortunadamente, los científicos han descubierto que si comprime este tipo de datos de imagen, puede cambiar algunos valores de píxeles sin importancia o permitir cierta pérdida de precisión (al comprimir datos generales, nunca toleraremos ninguna pérdida de precisión, pero al comprimir y Al mostrar una fotografía digital, si algunas de las hojas de un bosque son ligeramente más oscuras, lo que normalmente no es perceptible para la persona que mira la foto), es posible que podamos lograr un gran avance en la compresión. Esta idea es revolucionaria en el campo de la compresión de datos: al perder algo de precisión dentro de la tolerancia del usuario, podemos comprimir imágenes (incluidos audio y video) a una décima parte, una centésima o incluso mil de su tamaño original. , que supera con creces el límite de capacidad de los algoritmos de compresión generales. Quizás esto sea similar al principio que se suele decir en la vida: "da un paso atrás y el cielo será más brillante".
Este tipo de compresión que permite la pérdida de precisión también se denomina compresión con pérdida. En el campo de la compresión de imágenes, el famoso estándar JPEG es un clásico entre los algoritmos de compresión con pérdida. El estándar JPEG fue formulado por el Joint Photographic Experts Group (JPEG) en 1986 y se convirtió en un estándar internacional después de 1994. JPEG utiliza la transformación de coseno discreta como algoritmo principal y controla la precisión y el tamaño de la imagen ajustando el coeficiente de calidad. Para imágenes en escala de grises o en color que cambian continuamente, como fotografías, JPEG generalmente puede comprimir la imagen entre una décima y una vigésima parte de su tamaño original manteniendo la calidad de la imagen. Si no se tiene en cuenta la calidad de la imagen, JPEG puede incluso comprimir la imagen a "infinitamente pequeña".
El último desarrollo del estándar JPEG es JPEG 2000, que se formuló en 1996 y se convirtió oficialmente en un estándar internacional en 2001. En comparación con JPEG, JPEG 2000 ha realizado grandes mejoras, la más importante de las cuales es la sustitución de la transformada de coseno discreta en el estándar JPEG por la transformada wavelet discreta (DWT). Con el mismo tamaño de archivo, las imágenes comprimidas JPEG 2000 tienen mayor calidad y menos pérdida de precisión que JPEG. Como nuevo estándar, JPEG 2000 aún no se ha utilizado ampliamente, pero muchas empresas, incluidos los fabricantes de cámaras digitales, son optimistas sobre sus perspectivas de aplicación. El día en que JPEG 2000 pueda desempeñar plenamente su papel en el campo de la compresión de imágenes no debería ser especialmente esperado. lejos. .
El concepto de diseño de perder precisión por el efecto de compresión en el estándar JPEG afecta directamente a la tecnología de compresión de datos de vídeo. El CCITT desarrolló el proyecto de recomendación H.261 para videotelefonía y videoconferencia en 1988. La idea básica de H.261 es utilizar un algoritmo similar al estándar JPEG para comprimir cada cuadro de imagen en la transmisión de video, mientras se usa predicción entre cuadros con compensación de movimiento para eliminar información redundante en la dimensión temporal del video. arroyo. Sobre esta base, en 1993, ISO adoptó el estándar MPEG-1 propuesto por el Grupo de Expertos en Imágenes en Movimiento (MPEG). MPEG-1 puede codificar eficientemente datos de vídeo de calidad normal. La mayoría de los discos VCD que vemos ahora utilizan el estándar MPEG-1 para comprimir datos de vídeo.
Para admitir imágenes de vídeo más claras, especialmente aplicaciones de alta gama como la televisión digital, ISO propuso un nuevo estándar MPEG-2 en 1994 (equivalente al estándar H.262 del CCITT). MPEG-2 clasifica la calidad de la imagen y puede adaptarse a aplicaciones de vídeo de diferentes calidades, como programas de televisión normales, televisión de conferencias y televisión digital de alta definición. En nuestras vidas, es el estándar MPEG-2 el que puede proporcionar imágenes de alta definición para DVD.
El desarrollo de Internet ha planteado mayores requisitos para la compresión de vídeo. Impulsada por las nuevas demandas de interacción de contenidos, edición de objetos y acceso aleatorio, ISO adoptó el estándar MPEG-4 (equivalente a los estándares H.263 y H.263 del CCITT) en 1999. El estándar MPEG-4 tiene una relación de compresión más alta y admite funciones avanzadas como codificación de flujos de datos simultáneos, operaciones interactivas basadas en contenido, acceso aleatorio mejorado en el dominio del tiempo, tolerancia a fallas y variabilidad de escala basada en contenido. Los formatos de archivo DivX y XviD que aparecen en Internet utilizan el estándar MPEG-4 para comprimir datos de vídeo. Pueden proporcionar vídeo de alta definición comparable al DVD con menos espacio de almacenamiento o ancho de banda de comunicación, permitiéndonos hacer realidad nuestro sueño de publicar o descargar películas digitales en Internet.
Así como la compresión de vídeo es inseparable del desarrollo de la industria de la televisión, la tecnología de compresión de datos de audio fue desarrollada por primera vez por técnicos en los campos de la radiodifusión y las comunicaciones de voz. Entre ellos, la investigación sobre tecnología de codificación y compresión de voz es la más activa. Desde que H. Dudley inventó el vocoder en 1939, la gente ha inventado sucesivamente la modulación por código de pulso (PCM), la predicción lineal (LPC), la cuantificación vectorial (VQ), la codificación por transformación adaptativa (ATC) y la codificación de subbanda (SBC) y otros tipos de voz. tecnologías de análisis y procesamiento. Estas tecnologías del habla no sólo pueden recopilar características del habla y obtener señales digitales, sino que también suelen reducir la redundancia de información. Al igual que JPEG en el campo de la compresión de imágenes, para obtener una mayor eficiencia de codificación, la mayoría de las tecnologías de codificación de voz permiten un cierto grado de pérdida de precisión. Además, para almacenar o transmitir mejor señales de voz de datos binarios, estas tecnologías de codificación de voz siempre utilizan algoritmos de compresión generales, como la codificación de Huffman y la codificación aritmética, para reducir aún más la distorsión en el flujo de datos después de convertir la señal de voz en información digital. .
Para la información de audio normal almacenada en ordenadores y aparatos digitales (como grabadoras y reproductores digitales), el estándar de compresión de audio de la serie MPEG es el método de compresión más utilizado. Por ejemplo, el estándar MPEG-1 proporciona tres estándares de compresión de audio opcionales, a saber, Capa 1, Capa 2 y Capa 3***, y MPEG-2 introduce además el estándar de compresión de audio AAC (Advanced Audio Coding). La parte de audio del estándar MPEG-4 admite diferentes tipos de aplicaciones, como codificación de audio sintético y codificación de audio natural. Entre los muchos estándares de compresión de audio, MPEG-1 Layer III es probablemente el más famoso, que es lo que a menudo llamamos estándar de compresión de audio MP3. Desde reproductores MP3 hasta teléfonos móviles MP3, desde montañas de archivos MP3 en el disco duro hasta la descarga constante de MP3 con disputas de derechos de autor en Internet, el MP3 ha trascendido durante mucho tiempo el alcance de la tecnología de compresión de datos y se ha convertido en un símbolo de la cultura de la moda.
Obviamente, en la era digital donde la información multimedia se está convirtiendo en la forma principal de información, la tecnología de compresión de datos todavía tiene un considerable margen de desarrollo, especialmente para imágenes, audio y vídeo. Después de todo, la búsqueda de cantidad y calidad de información por parte de las personas es interminable. Desde la entropía de la información hasta la codificación aritmética, desde Jew hasta WinRAR, desde JPEG hasta MP3, la historia del desarrollo de la tecnología de compresión de datos es como un pergamino lleno de innovaciones, desafíos, avances y cambios. Quizás estemos aquí para tomarnos la molestia de enumerar los años, números, estándares y documentos solo para decirles que los logros de los predecesores son solo metas que las generaciones futuras pueden esperar superar. ¿Quién sabe cuántos Shannon y Hoffman más aparecerán en los próximos años?
Hablando del futuro, también podemos agregar algunos temas relacionados con las tendencias de desarrollo de la tecnología de compresión de datos.
En 1994, M. Burrows y D. J. Wheeler *** propusieron un nuevo algoritmo de compresión de datos de propósito general.
La idea central de este algoritmo es ordenar y transformar la matriz de caracteres obtenida después de rotar la cadena. Un algoritmo de transformación similar se llama transformada de Burrows-Wheeler, o transformada BWT para abreviar. El algoritmo BWT diseñado por Burrows y Wheeler era completamente diferente de todos los algoritmos de compresión de propósito general anteriores, tal como Ziff y Lempel habían encontrado otra manera. Hoy en día, el algoritmo BWT ha logrado un gran éxito en la herramienta de compresión de código abierto bzip. El efecto de compresión de bzip en archivos de texto es mucho mejor que el del software de herramienta que utiliza el algoritmo de la serie LZ. Esto al menos muestra que incluso en el campo cada vez más maduro de la compresión general de datos, mientras sigamos innovando en conceptos y tecnología, todavía podemos encontrar nuevos avances.
La tecnología de compresión fractal es un tema candente en el campo de la compresión de imágenes en los últimos años. Esta tecnología se originó a partir de la geometría fractal fundada por B. Mandelbrot en 1977. M. Barnsley sentó las bases teóricas de la compresión fractal a finales de los años 1980. Desde la década de 1990, A. Jacquin et al. han propuesto muchos algoritmos experimentales de compresión fractal. Hoy en día, mucha gente cree que la compresión fractal es el sistema técnico más prometedor en el campo de la compresión de imágenes, pero muchos otros lo descartan. Independientemente de sus perspectivas, la investigación y el desarrollo de la tecnología de compresión fractal nos recuerda que después de décadas de rápido desarrollo, tal vez necesitemos una nueva teoría o varios modelos matemáticos más efectivos para respaldar y promover el salto en la tecnología de compresión de datos.
La inteligencia artificial es otra palabra clave que puede tener un impacto significativo en el futuro de la compresión de datos. Dado que Shannon cree que si la información se puede comprimir y en qué medida se puede comprimir está directamente relacionado con la incertidumbre de la información, suponiendo que algún día la tecnología de inteligencia artificial madure, las computadoras pueden, como los humanos, inferir información posterior basándose en una pequeña cantidad. cantidad de contexto conocido, entonces ya no es una fantasía comprimir la información a una diezmilésima o incluso a una cienmilésima de su tamaño original.
Después de mirar hacia atrás en la historia, a la gente siempre le gusta pensar en el futuro. Pero, después de todo, el futuro es el futuro. Si usted y yo pudiéramos clasificar las tendencias futuras del desarrollo tecnológico en unas pocas palabras, ¿no sería aburrido el trabajo de la innovación tecnológica? El futuro no me importa. Lo importante es descargar algunos éxitos de taquilla en línea y luego recostarse en el sofá y disfrutar de la felicidad ilimitada que brinda la compresión de datos.