Web crawler simples em Perl
Publicado por Perfil removido (última atualização em 29/07/2013)
[ Hits: 5.874 ]
Este script procura links e paths presentes em um determinado site.
:)
#!/usr/bin/perl -w
use WWW::Mechanize;
use Term::ANSIColor;
# This crawler find only link #
# By KoubackTr
# Follow-me http://www.twitter.com/kouback_tr_
# Thanks :)
print"\n";
print color('yellow');
print <<WcraW;
W.CraW Web crawler v1.0
__ __ ___ __ __
/ / /\\ \\ \\ / __\\ __ __ _/ / /\\ \\ \\
\\ \\/ \\/ // / | '__/ _` \\ \\/ \\/ /
\\ /\\ // /__| | | (_| |\\ /\\ /
\\/ \\(_)____/_| \\__,_| \\/ \\/
By KoubackTr - http://twitter.com/kouback_tr_
WcraW
#####################//#####################
print"\n";
print color('reset');
print color('green');
print"";
print"[!]Use EXEMPLE http://www.google.com/ \n";
print"[+]Target>> ";
print color('reset');
my $target = <STDIN>;
my $craw = WWW::Mechanize->new();
$craw->get($target);
my @links = $craw->links();
print"RESULTS:\n";
print"====================================================\n";
print $_->url."\n" foreach @links;
print"====================================================\n";
# END #
Synner Novo Sys(TCP) Flooder em Perl
Postando mensagem no Facebook com Perl
Iniciando desenvolvimento web ágil com Perl (Mojolicious)
Nenhum comentário foi encontrado.
Gentoo binário em 2026: UEFI, LUKS, Btrfs e Systemd
Trabalhando Nativamente com Logs no Linux
Jogando Daikatana (Steam) com Patch 1.3 via Luxtorpeda no Linux
LazyDocker – Interface de Usuário em Tempo Real para o Docker
Servidor vs Computador Convencional
Como administrar uma rede Linux através da ferramenta Webmin
Como escanear portas de um servidor através da ferramenta Nmap e como alterar a porta do SSH.
Marcando e desmarcando pacotes para atualização, instalação e remoção no Debian e agregados









