Enviado em 14/07/2009 - 14:32h
Hoje testei algo interessante. O que acontece se eu compactar um arquivo, fazê-lo novamente com outro algoritmo, novamente com outro, e outra vez? E depois começar tudo novamente, compactando 500 vezes com 4 algoritmos totalizando 2000 compactações? Claro que eu não esperava uma redução do tamanho do arquivo, porque eu não aumentava a "força" dos algoritmos (nenhum utilizava arredondamento, sem perdas), mas eu queria esquentar a sala e queimar energia no processador é um jeito de fazer isto. Além do mais, eu tinha curiosidade de ver o resultado final e brincar com gthreads (glib é mara!)Customizar a Instalação do Linux Debian com Preseed
Atualizando o Passado: Linux no Lenovo G460 em 2025
aaPanel - Um Painel de Hospedagem Gratuito e Poderoso
Um modo leve de ouvir/ver áudio/vídeo da internet em máquinas pererecas
Resolver algumas mensagens de erro do SSH
Instalar módulo de segurança do Banco do Brasil Warsaw do tipo .run
Webinar Zabbix "Arquite... Resiliente: HA + Proxy para Monitorame... (0)
Instalação de Certificados .Cer no Ubuntu 24.04 (2)