O kernel Linux está inchado... Mas, calma, não é bem assim!

De 2005 pra cá o número de linhas do kernel duplicou, chegando hoje a mais de 11 milhões e meio, 66 vezes mais que a contagem da primeira versão de 15 anos atrás. Desde o seu lançamento o Linux perdeu 12% de sua performance, porém, lembrando do quanto ele cresceu, o tipo e número de dispositivos atendidos que existiam na época em relação a hoje, colocando isso diante do Windows não há o que dizer.

[ Hits: 18.350 ]

Por: Perfil removido em 14/03/2010


Fatos e conceitos



Voltando ao assunto, de fato, Linus também comentou na ocasião que esse inchaço é "um problema" e que ainda "não há plano" pra mudar a situação - mas não significa que é algo crônico, nem que uma solução não esteja a caminho, muito menos (e muito menos mesmo) que o kernel Linux esteja se inclinando à entropia (conceito universal que descreve a tendência dos sistemas ao desgaste ou desintegração, com consequente relaxamento de padrões e aumento da aleatoriedade, mas, tendência não é sentença).

Não, o Linux não está doente e essa declaração de Linus não significa que ele pode ficar tão inchado e doente quanto o Windows. São duas situações diferentes. O inchaço do Linux deve sim ser tratado com atenção, mas tem muito mais a ver com crescimento e demanda, enquanto no inchaço do Windows além do crescimento pra atender (monopolizar) o mercado, muitas e muitas linhas novas precisam ser escritas nele pra resolver, tentar corrigir e fazer "remendos" em "buracos" na estrutura e na segurança do sistema.

Só mesmo uma fatalidade faria o GNU/Linux ficar como o Windows. E mesmo assim, contornar a situação é bem mais fácil e bem mais possível no projeto GNU/Linux antes que possamos imaginar que o caos um dia possa acontecer.

Outro ponto é que estamos falando "DO" kernel do Linux. Agora, o estado de inchaço do kernel "ATUAL" do Windows sim está crônico, analistas já alertaram que o caminho que a Microsoft está trilhando ruma para o colapso a médio prazo, e o principal problema é a falta de modularidade (trataremos disso num parágrafo mais abaixo).

Eu disse kernel "ATUAL" do Windows pois este já é o "segundo" kernel da Microsoft - o "primeiro" kernel foi a base da implementação lá do antigo MS-DOS e seus derivados Windows 95 e 98, e morto com o Windows ME, e o utilizado atualmente vem do Windows 4.0 NT, projeto paralelo com foco em redes lançado pouco antes do Windows 95, vindo mais à tona com o Windows 2000 e estabelecido de vez no Windows XP, também usado no Windows 2003 Server, e que também é base para o Vista, 2008 Server e Windows 7.

E quando falo "DO" kernel Linux é porque ele é só um desde o início, crescendo sobre uma base sólida, e é aí que está uma das grandes diferenças, pois, enquanto que em pouco mais de 20 anos um kernel do Windows já morreu e o outro está indo "mal das pernas", o kernel Linux em 15 anos pode até estar ficando "acima do peso" temporariamente, mas ainda está saudável e se desenvolvendo - não é à toa que ele foi avaliado recentemente em cerca de 1 bilhão de Euros. Outra grande diferença, é que, apesar do alerta sobre o kernel Linux, o aviso foi dado muito antes e sobre um problema que "PODE" vir a acontecer, aviso dado por quem mais entende do assunto, e este aviso ainda só aponta "CAUSAS" que ainda "NÃO" tiveram consequencias amplas, causas que podem ser contornadas, é só um alerta, não uma notificação de problema estabelecido.

Por outro lado, quando se fala do Windows muitos se fazem de desentendidos, não assumem a situação, fazem de conta que está tudo bem, enquanto têm nas mãos algo que já "É" um "PROBLEMA" estabelecido, com consequências e "EFEITOS" graves e visíveis, considerado por analistas como uma situação insustentável - bem, esse comportamento do pessoal do Windows parece que faz parte da cultura da maioria dos "monopolitanos" fornecedores de software.

Pelo menos na teoria, o kernel Linux e o primeiro kernel do Windows seguem o mesmo modelo, o chamado kernel monolítico, com um núcleo principal que integra e trabalha com módulos responsáveis por operações específicas, ou seja, uma estrutura modular, mas na qual software e hardware se relacionam mais diretamente com o kernel.

O segundo modelo e atual kernel do Windows, chamado de híbrido é caracterizado por uma modularidade mais "evoluída" que o primeiro aliada a conceitos vindos da estrutura dos microkernel, que em tese dividem as operações em vários núcleos, onde o kernel traz junto com ele servidores para gerenciar operações de forma mais externa, dividindo o trabalho pra não sobrecarregar o núcleo principal, e software e hardware se relacionam principalmente com esses servidores, além de uma possível relação direta com o kernel, quando preciso, mais controlada, modelo este que visa proporcionar ao sistema uma melhor performance - o Mac OS X (que é um Unix-like como o Linux, só que derivado do BSD) também usa este modelo. Mesmo assim, com o Windows hoje implementado sobre um tipo de kernel que parece mais moderno, ele não consegue ter a mesma eficiência e estabilidade do Mac (que usa a mesma idéia de kernel), e, pior que isso, não consegue ser melhor que o Linux que tem um modelo de kernel aparentemente mais "antigo".

Pode-se até dizer que o Windows por ser "mais popular" e suportar "quase todo tipo de periféricos" justifica o fato de ele ser maior e mais inchado, e que o GNU/Linux é "menor" porque "não possui os mesmos recursos", mas isso é um mito. Como dito acima, o GNU/Linux roda sobre praticamente todo tipo de dispositivo em variadas plataformas, enquanto o Windows praticamente só serve para PCs, quase um único "dispositivo" e plataforma - rodar de relógios a mainframes não é a mesma coisa que simplesmente ter driver pra baixar fotos dos milhares de tipos de câmeras digitais existentes. Isso é uma comparação intermediária.

Nesse aspecto, voltando-se mais para uma das principais funções do kernel, o gerenciamento do hardware, no Linux isso é muito mais eficiente que no Windows, só a memória é um exemplo: enquanto 2 GB quase que não são suficiente para satisfazer o Windows Vista e até o ovacionado Seven, o Ubuntu Linux gasta quase 4 vezes menos memória, e quando algum programa ou operação "pisa na bola" o kernel não deixa que ele passe dos limites (pelo menos não é pra deixar), como acontece no Windows em que eu programa mal elaborado pode comprometer todo o sistema.

E vindo a algo mais superficial, enquanto o Aero do Windows Vista e do Windows 7 exige que você tenha um poderoso aparato de processamento de vídeo, 3D, etc, só pra habilitar o "vidro transparente", o ambiente gráfico Gnome, padrão do Ubuntu, já proporcionava efeitos visuais e animações muito mais legais (menos extravagantes) antes que o Vista fosse lançado, consumindo bem menos recursos (isso porque eu nem falei do KDE, que inspirou muitas idéias no visual do Windows Vista e do Seven). Bem, existem mais e mais comparações, mas vamos nos ater ao nosso foco.

Quando eu falei sobre os "remendos" do Windows, isso também é outra diferença expressiva. Quase toda semana descobre-se falhas no Windows, e geralmente elas só são descobertas e vêm à publico depois que o estrago já está feito. Não necessariamente estas falhas têm relação direta com o kernel, mas por ele ser a "raiz" do sistema sua estrutura acaba sendo refletida nos efeitos sofridos por toda a "árvore".

No Linux as falhas são bem menos frequentes e menos graves, e praticamente sempre são corrigidas antes que elas se tornem públicas aos usuários finais. Nesse aspecto também temos o quesito segurança. Uma outra função do kernel é o controle do sistema de arquivos, e isso é intimamente relacionado à "segurança final" e à eficiência do sistema.

No Linux o sistema de arquivos possui uma estrutura e organização sólida e bem definida desde o início, algo que ele herdou (e aperfeiçoou) do Unix. Além disso, ele dá suporte a vários tipos de sistemas de arquivos (inclusive aos FAT e NTFS do Windows), como o Ext3 e agora o Ext4, muito mais robustos, que garantem a maior integridade dos dados armazenados, além de terem capacidade de volume de armazenamento maior.

No Linux o controle de acesso a partes vitais do sistema operacional através do sistema de arquivos é muito bem elaborado, evitando que operações prejudiciais possam ser executadas sem prévio e claro consentimento. No Windows, a Microsoft às vezes não consegue manter nem a estrutura de pastas de uma versão pra outra, os sistemas de arquivos são frágeis e têm capacidade de armazenamento menor, e um simples arquivo mal-intencionado armazenado pode ser executado deliberadamente, prejudicando não só o software quanto em muitos casos o próprio hardware.

Inevitavelmente a gente cai nessas comparações, e escreveríamos parágrafos e mais parágrafos para argumentar e exemplificar, falar de rede, estabilidade, etc, mas o objetivo não é "queimar" um sistema em detrimento do outro, e sim fazer comparações técnicas (nesse artigo elas estão mais pra conceituais, eu sei) que podem servir de exemplo principalmente pra quem trabalha com desenvolvimento de software.

Porém, em 2009 na ocasião do lançamento do Windows 7 a Microsoft iniciou uma campanha ainda mais deliberada contra o GNU/Linux, e esses argumentos diante dessa situação são importantes para que possamos perceber e agir diante de uma situação típica de alguém que está falando do cisco no olho do outro desconsiderando a trave que está no seu próprio olho.

E no caso do GNU/Linux, isso não é motivo para desespero. Quem é do ramo sabe que uma das principais vacinas contra o que realmente acaba se tornando inchaço em um sistema é modularidade, e por mais que o alguns digam que o Linux não possui o modelo de modularidade ideal, ele é trabalhado de uma das maneiras mais eficientes possíveis, ao contrário do Windows, em que isso é um dos problemas que o levarão ao colapso segundo analistas, mas no Linux, se esse aspecto não fosse de fato eficiente não teríamos tantas opções de versões ótimas de GNU/Linux pra escolher, como Debian, Ubuntu, SUSE, RedHat, Mandriva, Slackware etc, com diversos tipos de ambientes gráficos ótimos como Gnome, KDE, etc, tantas formas de aplicá-lo nos mais diversos aparelhos e ramos, tudo isso sobre o mesmo kernel - e que por falar em distribuições, como exemplo dessa modularidade eficiente, não podemos deixar de citar que os desenvolvedores de uma determinada distribuição podem inclusive otimizar o kernel e até "enxugá-lo" para finalidades específicas, até mesmo o usuário final pode mexer no kernel, desde que saiba (flexibilidade nada mal pra um kernel "gordinho").

Sem contar pra nós desenvolvedores de software pra "usuário final", que no GNU/Linux temos possibilidade de desenvolver aplicações portáveis e até multiplataforma, que rodam e utilizam recursos do sistema de maneira leve sem precisar estar necessariamente "agarradas" nele, ao contrário da maioria das aplicações para o Windows, que quase sempre pra mostrar um simples "Hello Word!" precisam estar amarradas vitalmente às APIs do Windows. Só com isso eu já posso considerar a modularidade do Linux, do kernel ao ambiente gráfico, imensamente melhor que a do Windows.

E não é só uma questão técnica. Entra aí algo meio filosófico também, relacionado ao modelo de desenvolvimento de ambos. Não é só a parte técnica do Windows que está comprometida, mas o modo de pensar de quem desenvolve, de quem usa e de quem segue seus padrões. Mesmo que o Linux venha e ter de fato um problema como este sinalizado pela frase do polêmico Linus Torvalds, eu acredito que será algo temporário e de proporções não tão graves, algo que será contornado antes que realmente aconteça, e que no fim das contas contribuirá pra que o sistema fique melhor, pois no modelo de desenvolvimento do GNU/Linux as pessoas trocam informações, se ocupam em fazer o melhor, colaboram e aprendem uns com os outros, têm a mente aberta pra buscar novas e melhores alternativas (afinal é por isso que o GNU/Linux é o GNU/Linux).

Na comunidade GNU/Linux, do kernel às aplicações finais mais simples, os desenvolvedores, "analistas", "agentes de suporte", usuários, não precisam ser experts, mas talvez uma das principais qualidades que eles têm que ter é a humildade, e saber que não são donos da razão, estão desenvolvendo em equipe, precisam saber trabalhar em equipe, uma equipe global de tamanho e potencial sem precedentes na história, por isso o que um faz hoje pode ser melhorado por outro amanhã, e nessas horas, se eu fiz algo e o outro melhorou, ou se eu fiz algo errado e o outro corrigiu, o que é melhor e mais sensato, defender o meu ego ou me aliar à evolução para o meu bem para o bem de todos?

Página anterior     Próxima página

Páginas do artigo
   1. A notícia e os números
   2. Fatos e conceitos
   3. Conclusão
Outros artigos deste autor

Fontes com filtros LCD no Arch Linux

Configurando a impressora Epson C45 no Kurumin

Bootsplash no Slackware - HowTo

Instalação de um servidor de mensagens instantâneas Openfire na sua rede com clientes Microsoft Windows e cliente Jabber Exodus

Um tour pelos players de vídeo para Linux

Leitura recomendada

Compilação do kernel passo-a-passo

Slackware 13 - Compilando o kernel 2.6.32rc6

Compilar o kernel no Debian

Compilando kernel com suporte a POM (path-omatic) e Layer7 no Debian e Slackware

cpulimit - Limitando o uso da CPU por processo

  
Comentários
[1] Comentário enviado por removido em 14/03/2010 - 20:15h

Muito legal seu artigo, belas verdades que, as pessoas não ligam nem dão o mínimo de valor. O maior concorrente do Windows é ele mesmo, em sua versão pirata como você mesmo disse, enquanto o Windows existir irão existir empresas como:McAffe, Symantec, Kaspersky, BitDefender, etc. Pois elas tentam cobrir os buracos deixados por esse sistema operacional cuja api (Win32) possui chamadas de sistemas desde o Windows 3.11 (apesar deles terem dado uma "enxugada nisso na versão 7).

Pois isso prefiro o Linux, sem problemas com virus, segurança e é livre!!!

[2] Comentário enviado por kabalido em 15/03/2010 - 09:05h

Bacana seu artigo cara! Gostei.

Linux sempre será o que é. O melhor dos SO's.
Linux user forever :-)

VivaoLinux, VivaoLinux,VivaoLinux...ops! chega!

Abraços.

[3] Comentário enviado por jairus em 15/03/2010 - 09:38h

Parabéns pelo artigo !!!


Jairus Lopes

[4] Comentário enviado por JoseRenan em 15/03/2010 - 15:58h

muito bom :D

[5] Comentário enviado por albfneto em 15/03/2010 - 16:09h

parabéns pelo artigo... Não sei dizer se houve perda de performance, as máquinas eram menores, elas não tinham "boa pertformance"..
aumentando o hardware, claro que vai aumentar o kernel. de que adiantaria manter o kernel pequeno, e sem wireless, sem bleutooth etc...
depois, sempre se pode recompilar tirando o suporte do hardware que não se tem no micro...
o kernel geral aumenta, lógico... pq o linux precisa fazer o micro funcionar,e não é só pros linusers que vão recompilar o kernel...., pq muitos vão só usar linux, não vão fuçar nele...
tudo aumenta, em linux ou em windows, cada versão nova é mais pesada, é normal!
o novo kernel linux deverá trazer suporte aos monitores touch screen, como o windows seven, se já não estiver com esse suporte pronto....

[6] Comentário enviado por jgadi em 15/03/2010 - 16:11h

Parabéns pelo artigo.

É fato que o kernel Linux pode ser recompilado (o do Windows não) e ajustados as necessidades.

[7] Comentário enviado por mondra em 16/03/2010 - 09:04h

Parabéns Pedro,

Excelente matéria e a verdade está aí para quem quiser.
Adorei principalmente o seu final onde diz que "mesmo que isso custe deixar pra trás tudo que sabemos pra aprender do novo do zero."

Devíamos deixar sempre nosso orgulho de lado e sabermos que evolução pode significar "recomeçar" e não apenas "continuar".

Abraços e paz a todos

[8] Comentário enviado por removido em 16/03/2010 - 09:12h

Obrigado por todos os comentários, e em relação ao último do Edson, taí mais uma boa frase que eu vou postar no Twitter: "Evolução pode significar 'recomeçar' e não apenas 'continuar'".

[9] Comentário enviado por joaomc em 16/03/2010 - 14:51h

Permita-me discordar de uma parte do texto: não acho que o kernel do Windows esteja mal das pernas. Na verdade, ele está bastante sólido.

[10] Comentário enviado por removido em 16/03/2010 - 15:12h

Bem, em relação ao afirmar que o kernel Windows está bastante sólido, como dito acima pelo João Marcus, depende do que pode ser considerado 'sólido'. Eu não citei minhas fontes de maneira direta, porém elas podem ser acessadas no artigo original que escrevi no meu blog.

Mas a afirmação que fiz de que o kernel Windows anda mal das pernas pode ser verificada numa matéria da Computerworld/EUA, publicada aqui no Brasil pelo "IDG Now!" em 11 de abril de 2008 sob o título "Windows está entrando em colapso, alertam analistas do Gartner".

O link para vê-la:

http://idgnow.uol.com.br/computacao_pessoal/2008/04/11/windows-esta-entrando-em-colapso-alertam-anal...

[11] Comentário enviado por removido em 17/03/2010 - 10:44h

Bem bacana esse artigo
Parabens

Viva o Linux :D

[12] Comentário enviado por stremer em 20/03/2010 - 03:25h

o kernel do linux esta inchado em tamanho... mas por ele ser modular, para uso definitivamente não esta.
O kernel do windows esta condenado por não ser modular e ter diversas limitaçoes, não entrando nestes detalhes agora, porém ele hoje é bem estavel e atende bem no seu mercado desktop e pequenos servidores... ja o linux mesmo tendo 20% de codigo de maquina, há muitas arquiteturas disponiveis...
Outra vantagem que o inchasso é sinal de muito suporte a hardware ou seja, um sistema bastante usavel e ainda por cima modular.

[13] Comentário enviado por removido em 29/03/2010 - 01:50h

Tudo isso é muito interessante!
Esclareçam uma dúvida então, quer dizer que distros mais modernas ou quanto mais modernas ou atualizadas ficam contribuem em números a mais de linhas no Kernel, não é mesmo?

OK! Atender cada vez mais a um mercado exigente. Desenvolvedores do software livre cada vez mais pressionados em equilibrar a equação eficiênciaXperiféricos=kernel enxuto. Lógico, do software proprietário também. Realmente, não é fácil!

Agora entendo os cabelos brancos do tio Bill! A "tela preta", os travamentos....

Se não fosse por profissionais como vocês, jamais conheceríamos (nós, usuários finais) a alma de um S.O.

Parabéns pelo artigo!

[14] Comentário enviado por removido em 29/03/2010 - 08:34h

em, as distros em si e sua evolução não são responsáveis pelo aumento do kernel, pois elas são implementadas sobre ele, não dentro dele. É como se fosse por exemplo o chassi e o motor de um carro: o Audi A3 e o VW Golf são feitos sobre praticamente o mesmo chassi e o motor tem algumas diferenças de capacidade e potência, mas a base é a mesma e sobre ela são implementados dois modelos diferentes.

O kernel é o chassi e o motor, as distros fazem a parte mais visível. O kernel cuida da parte 'técnica' da coisa, principalmente se relacionando com o hardware e mantendo a estrutura básica do sistema, enquanto as distros se relacionam com o usuário final, oferecendo-lhes um ambiente gráfico, um conjunto de programas, etc.

Mas as distros podem sim influênciar no kernel, como tudo na comunidade open source, as informações se propagam pro benefício de todos. Um exemplo mais direto é agora a febre do momento, o toch screen. As distros querem oferecer este recurso, mas isso depende de uma implementação no kernel pra dar suporte aos dispositivos, assim a alteração será adicionada a uma nova versão do kernel e repassada as distros quando elas a adotarem.

[15] Comentário enviado por removido em 29/03/2010 - 13:31h

Compreendo!

O win7 já dá suporte às telas touch screens, então isso pode até acelerar o colapso desse sistema? Estou certo?
Já o Linux não, como está baseado na modularidade que você supracitou, mais uma vez dará um show de performance quando implementar em seu kernel o suporte ao touch screen. Corrija-me se houve equívoco.

A um detalhe, periféricos modernos também têm um software instalado, lógico, software esse para o controle dos mesmos. Pergunto: não poderia haver nesses programas instalados um apoio, algo que contribuísse para facilitar a performance do kernel? Se isso é factível, não aumentaria ainda mais a performance do Linux? Veja, afinal todo kernel tem que se adaptar aos novos periféricos, logo os mesmos não deveriam também ser adaptados ao kernel? Desculpe-me Pedro, se estiver dizendo besteiras porque sei que estou, mas olha, acaba de chegar a São Paulo, a internet via rede elétrica, o kernel do Linux e suas distros estão preparados para isso?

Novas tecnologias, novos periféricos. Tudo isso contribui para a expansão do kernel. O que o kernel tem que reconhecer não é o software que controla o periférico?

A todos os participantes do artigo peço desculpas se desviei do tema.

Agradeço Pedro!





[16] Comentário enviado por removido em 29/03/2010 - 14:45h

Bem, meu conhecimente também não é tão avançado, é mesmo bem superficial e mais conceitual, eu mesmo nunca me aventurei a dissecar o kernel Linux, no muito foram algumas configurações e recompliações usando assistentes que minha distro oferece.

A adição de novos recursos pura e simplesmente não é um problema, afinal, isso faz parte da evolução. A diferença é como estas melhorias são implementadas, e isso, como no desenvolvimento de qualquer software (e até hardware), depende principalmente dos fatores tempo e planejamento.

Quando falo de inchar (ou numa visão otimista, crescer) não signifca que pra cada modelo ou marca de dispositivo o kernel precise ser alterado, pois o que o kernel faz é administrar o suporte a grupos de dispositivos separados por tipo, ele oferece um canal padrão de comunicação com eles, ou seja, um módulo é responsável por dispositivos de armazenamento removíveis (pen-drive, câmeras digitais, cartão de memória), e estes dispositivos também tem que trabalhar com esse padrão de comunicação. Eu não tenho gabarito técnico pra fazer uma afirmação sobre o baixo nível da coisa (linguagem de mãquina), mas citando um exemplo simples meu, quando eu plugo meu pen-drive, MP3 player ou celular no meu computador pra ele é como se fosse a mesma coisa pois ele reconhece o padrão de comunicação, os sinais que eles enviam, e assim posso fazer as minhas trocas de arquivos, etc.

Em relação a softwares pra 'aliviar' o trabalho do kernel não seria o caso, fugiria dos padrões. Tipo, o Linux usa um modelo de kernel monolítico (numa analogia podemos chamar de monobloco), no qual o próprio kernel conversa com o hardware - isso porque quando ele começou a ser escrito era a maneira que tinha de fazer, não é o ideal, mas não é um erro, pois o trabalho é dividido em múdulos. No Windows NT e Mac OSX (bem como outros sistemas da família BSD), o kernel é o híbrido, em que esse suporte a hardware é melhor distribuído e fica a cargo de servidores ligados ao kernel, assim as funções não ficam todas embutidas no mesmo lugar.

A questão é que no caso do Windows nem um conceito mais moderno deu jeito na coisa. Por ser fechado, os fabricantes muitas vezes não têm acesso aos recursos que o kernel Windows já tem, e muitas vezes são abrigados a fazer tudo do zero, bit a bit (quando existe um acordo deles com a MS o trabalho fica mais fácil, muita coisa já vem junto com o próprio sistema), assim, via de regra, é por isso que temos computadores com Windows cheios de arquivos e drivers distintos pesando no PC, muitas vezes precismos de drivers diferentes pra dispositivos que fazem a mesma coisa - seria muito melhor se eles adotassem um padrão. O Windows prega diversidade, mas que vantagem a nisso se ela custa recursos que poderiam ser aproveitados com coisas mais importantes se houvesse um padrão.

Eu hoje adotei uma postura, se não funciona com Linux, não compro - apesar de que hoje é difícil alguma coisa não funcionar, veja este exemplo no meu site [http://bit.ly/9qC1JL]. Talvez eu também esteja falando besteira, mas eu acho que é mais ou menos isso.

Em relação a internet via rede elétrica, a preocupação não se aplica, pois quem faz o 'trabalho sujo' é o modem, que entrega o sinal de rede pro computador no padrão do protocolo TCP. Talvez alguma adaptação seja necessária, mas seria superficial, não a nivel de kernel, seria a mesma coisa que a comparação entre banda-larga fica, dial-up, 3G ou bluetooth.

[17] Comentário enviado por removido em 29/03/2010 - 16:34h

Às vezes penso em desinstalar o Vista do meu HD (veio instalado). E às vezes penso ser isso um exagerado radicalismo. Nem o utilizo mais, como tenho muito espaço no HD, não me preocupo. Como meu equipamento ainda está na garantia, vou deixá-lo instalado, vai que acontece alguma coisa e o fabricante inventa histórias de que perdi a mesma, já viu né?!

Esclareceu e muito minhas dúvidas e ampliou a compreensão do artigo.

Estou vendo seu Blog, muito interessante. Tem muita informação.

Vi alguns vídeos do VOL Day. Num deles o Fábio diz que quem ensina também está aprendendo. É a mais pura verdade.


Meu caro, só tenho a lhe agradecer!!!




[18] Comentário enviado por removido em 29/03/2010 - 16:54h

Eu fico feliz pela repercussão. A gente não ganha nada financeiramente, mas o prazer de compartilhar as informçaões é meior do que o custo de cerca de R$ 150,00 por ano que a maioria dos blogueiros da comunidade tem pra manter o domínio e a hospedagem. E mesmo o Viva o Linux sendo um mega portal sei que tudo aqui é feito pelo prazer de contribuir uns com os outros, isso é quase um vício, so que é um vício bom.

Quanto a ser radical, tem dias que eu o sou e tem dias que sou mais moderado (na verdade como programador que sofre no dia-a-dia a gente acaba tendo nossos motivos pra ser radical quando descobrimos o mundo Linux). O meu notebook veio com Windows Vista Starter, depois eu troquei ele por uma versão do Vista Business (original) fornecido pela empresa em que eu trabalhava (que por sua vez participava dos programas de partner da MS).

Eu também fiquei um tempo com dual boot com Ubuntu e Vista (testei até o Seven RC), mas depois vi que o Windows não me fazia falta, até mesmo meu Age of Empires III (uma das poucas coisas da MS que eu gosto e até compro) que eu gostava de jogar eu pude roder no Linux com Wine [veja como consegui em http://bit.ly/cvpXUj]. Daí, como meu HD é modesto (120 GB), eu formtei geral e fiquei so com Linux (que mesmo com tudo o que eu preciso, e não é pouca coisa, minhas músicas e meus episódios do LOST, ainda tem 86 GB livres).


Contribuir com comentário