Detonando robots!

A muito tempo tempo se fala dos "Google hacks", mas o que não é divulgado é como evitar que o Google e outros sistemas de busca disponibilizem informações e/ou arquivos que não sejam interessantes para seu site.

[ Hits: 25.081 ]

Por: Perfil removido em 28/03/2005


Considerações finais



Cada dia surge um Robot novo, então agora além de se preocupar com vírus/spywares/DoS/Porn entre outros, temos que nos previnir desses fogo-amigo dos Search Engine.

É isso pessoal, espero que gostem e que cometem!

Gabriel Abner Coppini
gcoppini@katatudo.com.br
ICQ: 74343533
MSN: gabriel@2up.com.br

Página anterior    

Páginas do artigo
   1. O que é?
   2. Bloqueando robots
   3. Considerações finais
Outros artigos deste autor

Instalando e usando o GNUstep no Linux

Captive Portal Customizado

O "HACKER" da família

Kit de scripts para backup (Full + Diferencial + Samba + Rede)

Banco de dados e Cloud Computing, melhor opção?

Leitura recomendada

Instalando plugin do Java no Firefox 0.8

Proteja seu website ou página html com encriptaçâo

IBM apresenta Maqetta, uma contribuição open source para HTML5

Máquina Enigma e encriptação em XOR

Como traduzir Software Livre - Um método fácil

  
Comentários
[1] Comentário enviado por null_terminated em 29/03/2005 - 07:48h

Muito Bom!

Muito legal seu artigo, trouxe a luz uma fissura na segurança pessoal desconhecida por muitos!

[]'s

[2] Comentário enviado por ygorth em 29/03/2005 - 09:26h

Excelente artigo.. este mês eu iria atras dele. Acho ate legal o VOL usar na parte sobre nos. O nosso perfil!

[3] Comentário enviado por mrspy em 29/03/2005 - 09:42h

Isso mostra como somos vuneraveis até em páginas de internet.

Esse artigo é bom porque no meu caso eu vou poder proteger a página da minha empresa na internet e que em algum lugares há documentos sigilosos.

[4] Comentário enviado por Grobsch em 29/03/2005 - 12:02h

Estava ontem mesmo pesquisando sobre isto... Caiu do céu...
Parabéns pelo artigo...

[5] Comentário enviado por neriberto em 29/03/2005 - 13:13h

Ótimo, excelente :)

[6] Comentário enviado por leysen em 29/03/2005 - 16:58h


Foi um dos melhores artigos que já li sobre o assunto e pode ser usado como guia de consulta rápido.

[7] Comentário enviado por agk em 29/03/2005 - 16:58h

Ótimo artigo, parabéns.

[8] Comentário enviado por fabrizmat em 30/03/2005 - 16:16h

Muito bom! parabéns!!!

[9] Comentário enviado por paulobarra em 30/03/2005 - 22:29h

seu artigo é muito bom.

Como podemos criar um spider ?
Vc conhece algum spider free?

Obrigado

Valeu

[10] Comentário enviado por Hernando em 03/05/2005 - 12:10h

Parabens geralmente eu uso o google para testar falhas pois se o cara souber usar a busca avançada do google ele tem acesso total a conteudos restritos...

[11] Comentário enviado por _m4n14c_ em 01/06/2007 - 18:50h

Camaradas, em tempo de lembra-los: o arquivo robots.txt e as metatags sao lidos e utilizados pelo robot e nao pelo servidor, bem como a informacao do user-agent tb eh fornecida pelo robot.

As configuracoes citadas no artigo funcionam bem para crawlers "bonzinhos", mas nao oferece seguranca alguma contra programas que enviam user-agent's falsos ou ignoram as instrucoes do robots.txt. A melhor politica de seguranca eh nao tornar documentos sigilosos publicamente acessiveis, exceto se forem devidamente protegidos por senha e preferencialmente servidos sobre https.


[12] Comentário enviado por Teixeira em 20/10/2007 - 20:20h

Muito embora no momento eu pretenda exatamente o contrário, isto é, dar maior visibilidade às minhas páginas atuais, a dica é muito valiosa para proteger dados. Vou guardá-la para alguma necessidade futura.
Parabéns!

[13] Comentário enviado por 123123 em 12/04/2012 - 11:33h

Parabéns


Contribuir com comentário




Patrocínio

Site hospedado pelo provedor RedeHost.
Linux banner

Destaques

Artigos

Dicas

Tópicos

Top 10 do mês

Scripts