¿Por qué el archivo comprimido y luego cifrado es más pequeño?

Los algoritmos de compresión de archivos y los algoritmos de cifrado tienen un objetivo similar. Su propósito es eliminar la redundancia y los patrones de un archivo.

La compresión hace esto buscando patrones y reemplazándolos con marcadores de posición, para que esos marcadores de posición puedan reemplazarse con los patrones originales. El objetivo, por supuesto, es encontrar patrones que ocupen más espacio que los marcadores de posición. (Esto es una simplificación excesiva, pero espero que esté claro).

El cifrado hace el trabajo al codificar las letras para que parezca que no hay patrones presentes.

Ahora, considere esto: la compresión reduce el tamaño de un archivo al eliminar la redundancia. El cifrado borra la redundancia al mezclar letras. Después de cifrar un archivo, no hay redundancia para un algoritmo de compresión para eliminar.

En la teoría de la información, esto se discute en términos de entropía. Un archivo con baja entropía (tiene estructura y patrones), por definición, es fácil de describir con muy poca información. Un archivo con alta entropía (tiene pocos patrones y ninguna estructura discernible) requiere mucha más información para describir. Debido a que más entropía significa necesariamente que requiere más información para describir, la compresión tendrá malos resultados. Pero debido a que menos entropía requiere menos información para describir, hay menos para almacenar un algoritmo de compresión.

Entonces, a medida que un algoritmo de cifrado aumenta la entropía, se requiere cada vez más información para describir el archivo y, como resultado, la compresión es deficiente.