Toda IA que lê prompt funciona assim...

1. Toda IA que lê prompt funciona assim...

Samuel Leonardo
SamL

(usa XUbuntu)

Enviado em 23/02/2026 - 07:44h

Olá pessoas deste brazil zil zil zil

Estava lendo sobre NLP (natural language processing) nos últimos dias e pude observar o seguinte: que coisa mais ridiculamente simples!

Sabe quando vc digita algo pro chatgpt e ele "sabe" o que deve responder? É basicamente isso ai, só que na realidade ele não sabe de verdade.

Vou tentar explicar como é o esquema geral do NLP. Vamos supor o seguinte, vc tenha uma base gigantesca de frases em português brasileiro e tudo (roubado) pego dos seus usuário assim como faz google e facebook. Então, vc separa cada palavra em tokens e define um número para ele, dai cada token vc verifica qual é o atual e quais são os próximo e treina uma IA boboca que apenas diz a porcentagem que o próximo token pode ser e ai vc escolhe o token com maior porcentagem até que o de maior porcentagem seja o token fim de frase.

Exemplo prático:
1--pego uma base de dados de frases
2--separo cada palavra da frase e atribuo um valor qualquer para cada palavra, tipo vetor de token onde cada elemento é um {token:string, id:number}
3--então, usando um algoritmo de treinamento chamaod Seq2Seq, separo cada frase em palavras tokens que são token atual e seu próximo token.
4--depois de treinada a IA, ela vai receber a frase do prompt e retornar palavra por palavra a frase mais provável para cada token.
5--ou seja, se vc digitar uma frase como "como vai?" ela vai ler a palavra "como" e calcular qual é a próxima palavra mais provável, dai ela lê "vai?" e ai ela escolhe a vai também porque era uma das palavras provaveis, e então, a partir da pilha de escolhas, ela calcula novamente qual a próxima palavra, que nesse caso como é uma frase bem comum, pode ser qualquer coisa como "estou" depois com "estou" ela calcula que o próximo é "bem" e com "bem" ela calcula que o próximo é [fim de frase].

Não sei se alguém entendeu, mas basicamente é só isso ai, o próximo token sempre é calculado baseado no token atual! Pra quem não conhece, antes do Seq2Seq existir, as IA eram todas de saída de tamanho fixo e ninguém sabia o que fazer para ter algo nesse sentido de saída de tamanho variável, até que um sujeito em 2010 teve a ideia de criar o Seq2Seq e ser uma das coisas que causou a explosão das IA nos últimos 10 anos.

Seq2Seq é usado no Transformer que é a base de toda LLM desenvolvidas até hoje.

E pensar que algo tão simples assim seria tão bem utilizado, fico admirado como levaram décadas pra desenvolver tal algoritmo tão simplório mas genial.


______________________________
https://nerdki.blogspot.com.br/ acessa ai, é grátis!


  


2. Re: Toda IA que lê prompt funciona assim...

Sidnei Serra
Zoiudo

(usa Debian)

Enviado em 23/02/2026 - 09:29h

@SamL, isso até é simples de responder: faltava base de dados e poder de processamento. Talvez o núcleo da coisa já até existisse mas faltava o binômio citado para fazer funcionar.

"E pensar que algo tão simples assim seria tão bem utilizado, fico admirado como levaram décadas pra desenvolver tal algoritmo tão simplório mas genial."




3. Re: Toda IA que lê prompt funciona assim...

Fábio Berbert de Paula
fabio

(usa Debian)

Enviado em 23/02/2026 - 17:39h

No final das contas, quem é mais inteligente? O humano que toma a maioria de suas decisões na base do achismo ou a IA que toma por estatísticas? rsrs



4. Re: Toda IA que lê prompt funciona assim...

Samuel Leonardo
SamL

(usa XUbuntu)

Enviado em 23/02/2026 - 20:16h

fabio escreveu:

No final das contas, quem é mais inteligente? O humano que toma a maioria de suas decisões na base do achismo ou a IA que toma por estatísticas? rsrs

Hahaha com certeza pra problemas passados a IA supera qualquer humano, Fábio, mas ainda existe algo que nenhuma IA atual consegue superar num humano que é a intuição.

Vou explicar pra ti, atualmente a IA enfrenta o seguinte problema: o que fazer quando existe dois ou mais tokens com mesma probabilidade de ser o próximo? Qual deles seria o melhor?
Neste caso, a IA no anoa atual, não sabe resolver porque isso se chama ambiguidade! Então, pode ficar tranquilo que pra ser Jhon Connor até uma criança consegue derrotar uma IA atual por criança ser muito ambígua.

Vou te falar um caso que aconteceu comigo: em 2010 eu tava dormindo e o celular chamou para eu acordar e me arrumar pra ir pra faculdade, 120km pra passar o dia lá na outra cidade, 2h de viagem só de ida. Daí eu levanto, corro pra me arrumar na certeza (observe isso) que tinha aula. Uma IA com dados do passado, diria pra mim que eu deveria ir pra aula porque se em 90% das vezes em que acordei nesse horário e nesse dia teve aula, então, era provável que houvesse aula, essa certeza de 90% é toda baseada no passado. E eu levantei e fui me arrumar.

Agora, sabe o que aconteceu em seguinda? Minha intuição começou dizer NÃO VÁ! A intuição fala assim: por via de sentimentos positivos ou negativos e muito intensos. Comecei sentir forte ansiedade enquanto me arrumava pra ir e ai passei ter dúvidas se deveria ir e por fim a ansiedade foi tanta que me deu embrulhação no estômago e decidi ficar em casa.

E o que aconteceu exatamente 1h depois, o professor avisou por email pra todos que não ia ter aula! Se eu tivesse ido e não confiado na intuição, teria perdido meu tempo a toa. Esse foi só um dos muitos casos que me aconteceram. Mas acredito que as IA vão passar um dia a tr intuição, porém, quando isso acontecer elas já serão consideradas como seres vivos, porque na minha opinião somente um ser com consciência tem intuições. E quando chegar esse tempo, ai sim a IA vai estar pau a pau com qualquer humano em todos os sentidos, incluindo também criativamente.


______________________________
https://nerdki.blogspot.com.br/ acessa ai, é grátis!


5. Re: Toda IA que lê prompt funciona assim...

Samuel Leonardo
SamL

(usa XUbuntu)

Enviado em 23/02/2026 - 20:21h


Zoiudo escreveu:

@SamL, isso até é simples de responder: faltava base de dados e poder de processamento. Talvez o núcleo da coisa já até existisse mas faltava o binômio citado para fazer funcionar.

Concordo contigo Sidnei, só acho que no caso não seria um binômio, mas um monômio! O poder de processamento era o que estava atrasando ainda mais o desenvolvimento das IA, os dados já existiam, digo, por exemplos textos de livros, emails e sites nos anos 90. Mas o gargalo era o processamento que era bem baixo, além é claro do hardware ser bem limitado e caro também.

Treinar um Transformer com 50 mil tokens como era o chatgpt na versão 2 demorava muito tempo (na casa de dias) e requeria um poder de processamento absurdo, ainda mais porque provavelmente ele é feito em Python, daí já viu, a parada é 10x mais lenta que C++, mas 100x mais simples de escrever código, por isso a escolha por Python.


______________________________
https://nerdki.blogspot.com.br/ acessa ai, é grátis!






Patrocínio

Site hospedado pelo provedor RedeHost.
Linux banner

Destaques

Artigos

Dicas

Tópicos

Top 10 do mês

Scripts