Tutorial Kettle

O Kettle é uma ferramenta para integração de dados, responsável pelo processo de Extração, Transformação e Carga (ETL). Ferramentas ETL são utilizadas mais frequentemente em projetos de data warehouse, mas também podem ser utilizadas para outros propósitos, tais como migração de dados entre aplicações, exportação de banco para arquivos, limpeza de dados e na integração de aplicações.

[ Hits: 68.909 ]

Por: Giovanni Won Dias B. Victorette em 08/01/2010


Download e instalação



Sabendo-se então que o Kettle é uma ferramenta ETL, ou seja, ferramenta para fazer extração, tratamento e carga dos fatos e dimensões do DW. Podemos realizar o download da mesma no endereço:
Dependendo da plataforma de trabalho, deve-se selecionar o pacote adequado e descompactar o mesmo. Neste tutorial iremos tratar apenas para os sistemas operacionais Windows e Linux. Caso o OS seja Linux basta abrir o local onde foi descompactado o kettle e executar spoon.sh e no caso do Windows spoon.bat Isso tudo tomando os devidos cuidados com permissões de execução e escrita.

Configurando um repositório

A figura 1 mostra a primeira tela apresentada na execução do Kettle. Nela existem duas opções: ou se configura um repositório onde ficarão armazenadas as Transformações e Jobs ou utiliza a ferramenta (No Repository) tendo que armazenar as Transformações e Jobs na máquina local.
Linux: Tutorial Kettle
Figura 1 - Tela inicial
Para criar um novo repositório basta clicar em "Novo" e configurar uma conexão com a base de dados (figura 2).

Figura 2 - Conexão com banco

Configurando conexão com banco

Na tela inicial do Kettle pode-se clicar em New > Database Connection (figura 3). Assim o sistema irá apresentar a tela da figura 2 onde se devem preencher os dados de acordo com o que for solicitado.

Figura 3 - Nova conexão
Página anterior     Próxima página

Páginas do artigo
   1. Introdução
   2. Download e instalação
   3. Montando uma transformação
   4. Utilizando variáveis e tratando strings
   5. Utilizando Java Script e Database Lookup
   6. Extração a partir de XML e XLS, montando um Job e utilizando serviços de FTP/e-mail
Outros artigos deste autor

Montando um roteador com o floppyFW

Usando o Guitar Pro no Linux

Leitura recomendada

Web Mining

Instalando o Caché (banco de dados pós-relacional)

O eeePC e o OS/2 Warp

MySQL + Amarok: dupla poderosa

Automatizando a criação de uma base de conhecimento em Prolog para gerenciar os acessos a um site

  
Comentários
[1] Comentário enviado por f_Candido em 08/01/2010 - 22:10h

Olá,

Gostaria de parabenizá-lo pelo artigo. Parece ser uma ferramenta interessante, dado que para BI, conheço somente ferramentas pagas, não caras, mas pagas. Mas, como comentário, ficou faltando somente esclarecer um pouco mais, dado que é uma ferramenta de ETL, sobre as suas bases : Granularidade, Dimensões, Fatos... Bom, mas ficou muito bom.

Parabéns

Abraços

[2] Comentário enviado por gigiow em 09/01/2010 - 09:48h

Obrigado pelo comentário,
Sobre data warehouse apenas comentei no texto, se tiver que escrever algo vai render outro artigo, mas já existe muito material publicado sobre o tema na internet. O foco aqui é mesmo a ferramenta e os primeiros passos com a mesma.

Abraços

[3] Comentário enviado por AdemarGomes em 21/01/2010 - 18:46h

Olá Giovanni,

Parabéns pelo trabalho apesar de não ter lido todo o artigo vejo que vc se esforçou para fazer um bom e apresentável artigo.
Segue meu site, www.ademargomes.com, onde você pode encontrar bastante material sobre Kettle e outras coisas.
Me senti a vontade de colocar aqui meu site pois escrevi um artigo de Kettle muito próximo do seu, mas esse foi pro site no ano passado, por tanto não tem plagio :)

Sorte e Sucesso,

AdeamrGomes

P.S. Link do artigo: http://www.ademargomes.com/index.php/artigos/56-turialkettle.html

[4] Comentário enviado por henriquemeira em 26/02/2010 - 00:35h

Estou tentando criar alguns "mapas" com o Kettle e me deparei com uma barreira: como utilizar os dados de um Input "pai" para retornar valores de um Input "filho" ?

Explico: digamos que tenho que montar um arquivo de Pedidos no seguinte formato:

CAPA: NRO_PEDIDO | DATA_PEDIDO | VALOR
ITENS:NRO_PEDIDO | NRO_PRODUTO|QTD|PRECO

Exemplo:

101|2010-02-26|100,00
101|123|1,00|40,00
101|321|2,00|30,00
102|2010-02-26|20,00
102|456|2,00|10,00


Penso que para construir algo parecido eu utilizaria um Input com uma query buscando as capas de pedidos, e o fluxo (ou hop) seguiria para outro Input, desta vez buscando os itens. Este é o ponto: como fazer o segundo Input receber um valor do primeiro input?

Em resumo:

Input_nro_1: select nro_pedido, data_pedido, valor from PEDIDO;

Input_nro_2: select nro_produto, qtd, preco from ITEM_PEDIDO where nro_pedido = Input_nro_1.Nro_pedido

Deu pra entender?

valeu!

[5] Comentário enviado por gigiow em 26/02/2010 - 08:10h

Henrique,

Vamos ver se entendi, existem formas de se fazer o que precisa:

1) As tabelas estão na mesma base? se estão pode montar a consulta em um único "input"
ficaria:
SELECT c.nro_pedido, c.data_pedido, c.valor
FROM CAPA c
INNER JOIN ITENS i
ON c.nro_pedido = i.nro_pedido

2) Se estão em bases distintas, utiliza-se o passo de JOIN que existe no kettle para realizar esta junção entre os dois inputs;

Valeu!


[6] Comentário enviado por henriquemeira em 19/03/2010 - 00:37h

Opa, não tinha visto que tinha retornado ao meu comentário...

Bem, vamos lá... vc quase entendeu.

É o caso 1, estão na mesma base. Mas eu gostaria de tratar em inputs distintos, ou seja, capa em um input e item em outro input. Entretanto, o input2, ou seja, dos itens, iria ser aberto para cada capa.

Pq isto? Pq eu quero gravar a capa do pedido no destino e depois o item, mas eu preciso garantir a integridade dos dados, ou seja, eu tenho que gravar a capa antes de gravar o item, e para isto acredito que tenho que abrir o Input do item apenas após realizar o output da capa.

Um diagrama de exemplo seria assim:


|CAPA|--->---|OUTPUT|--->---|ITEM|--->---|OUTPUT|


Deu para entender?

Ou o correto neste caso seria um Transformation para Capa e outro Transformation para Item?

valeu!!

[7] Comentário enviado por ttonyys em 24/05/2011 - 22:29h

Giovanni, parabéns pela iniciativa. Estou dando meus primeiros passos rumo a BI. Participei de um treinamento em Brasília/DF com Caio Moreno (o professor coruja - http://blog.professorcoruja.com) e estou finalizando "Inteligência Competitiva" pela FGV.

Passou por um problemão por mais de 30 dias: conectar ao DB Progress via JDBC. Consegui, Ufa! Criei http://inpentaho.blogspot.com para deixar a solução registrada.

Não pare de postar sobre o KETTLE.

Jesus bless.


Contribuir com comentário




Patrocínio

Site hospedado pelo provedor RedeHost.
Linux banner

Destaques

Artigos

Dicas

Tópicos

Top 10 do mês

Scripts