Enviado em 14/07/2009 - 14:32h
Hoje testei algo interessante. O que acontece se eu compactar um arquivo, fazê-lo novamente com outro algoritmo, novamente com outro, e outra vez? E depois começar tudo novamente, compactando 500 vezes com 4 algoritmos totalizando 2000 compactações? Claro que eu não esperava uma redução do tamanho do arquivo, porque eu não aumentava a "força" dos algoritmos (nenhum utilizava arredondamento, sem perdas), mas eu queria esquentar a sala e queimar energia no processador é um jeito de fazer isto. Além do mais, eu tinha curiosidade de ver o resultado final e brincar com gthreads (glib é mara!)Comparação entre os escalonadores BFQ e MQ-Deadline (acesso a disco) no Arch e Debian
Conciliando o uso da ZRAM e SWAP em disco na sua máquina
Servidor de Backup com Ubuntu Server 24.04 LTS, RAID e Duplicati (Dell PowerEdge T420)
Visualizar câmeras IP ONVIF no Linux sem necessidade de instalar aplicativos
Overclocking Permanente para Drastic no Miyoo Mini Plus
Problemas de chaves (/usr/share/keyrings) no Debian
Converter os repositórios Debian para o novo formato com as chaves
Primeiras impressões do Debian 13 (8)
como resolver o problema de som do linux mint mate (4)
Rede wifi com mesmo ip da rede eth (13)