Daniel
Labs

escritos / por-que-llms-sao-tao-poderosas

12 min read

Por que LLMs são tão poderosas

Não é apenas uma nova ferramenta. É a primeira vez na história em que máquinas passam a operar, em escala, dentro do mesmo universo simbólico que sustenta a civilização humana.

Há tecnologias que melhoram processos. Há tecnologias que abrem mercados. E há tecnologias que deslocam o eixo da história.

As LLMs pertencem à terceira categoria.

Muita coisa já foi chamada de revolucionária cedo demais. Apps foram chamados de revolução. Blockchain foi chamado de revolução. A nuvem foi chamada de revolução. Em algum nível, tudo isso mudou o mundo. Mas nenhuma dessas coisas tocou tão diretamente o nervo central da civilização quanto os modelos de linguagem.

Porque a civilização humana não foi construída apenas com força, ferramentas ou território. Ela foi construída com linguagem.

Foi a linguagem que nos permitiu nomear o real, transmitir memória, preservar instruções, inventar categorias, estabelecer leis, compor teologias, registrar ciência, escrever contratos, imaginar futuros e organizar multidões em torno de abstrações que ninguém consegue tocar com a mão: nação, dinheiro, direito, pecado, dignidade, algoritmo, empresa, propriedade, verdade.

Durante milênios, isso foi um monopólio humano. Agora já não é mais.

O que está acontecendo agora

Quem ainda trata IA como uma curiosidade de laboratório talvez esteja olhando para o lugar errado. O que se vê hoje não é um experimento isolado, mas uma nova camada de infraestrutura sendo instalada sobre a economia e sobre a cultura.

Em 2024, 78% das organizações reportaram usar IA em pelo menos uma função de negócio, contra 55% no ano anterior. No mesmo período, o uso de IA generativa em pelo menos uma função de negócio mais do que dobrou, chegando a 71%. Além disso, a IA generativa atraiu US$ 33,9 bilhões em investimento privado global em 2024, enquanto o investimento privado total em IA nos Estados Unidos chegou a US$ 109,1 bilhões.

No plano do consumo, o movimento também já passou do estágio de nicho. Relatórios globais indicam que mais de 1 bilhão de pessoas usam ferramentas de IA todo mês.

Isso por si só já seria importante. Mas o ponto decisivo não é só o volume de uso. É o fato de que estamos começando a delegar para máquinas uma coisa que até então era inseparável da presença humana: a manipulação competente de linguagem, contexto, intenção aparente e estrutura simbólica.

Linguagem: o poder que nos fez humanos em escala

O animal humano não é o mais forte. Não é o mais rápido. Não é o mais resistente. O que nos diferenciou foi a capacidade de operar em camadas simbólicas.

Um lobo pode reagir. Um ser humano pode representar.

Isso parece abstrato até você perceber que toda vantagem humana de longo prazo nasce daí. A linguagem permitiu que uma geração não precisasse recomeçar do zero. O conhecimento pôde ser salvo fora do corpo. Primeiro na fala ritualizada. Depois na escrita. Depois em bibliotecas. Depois em bancos de dados. Depois na web.

A linguagem fez uma coisa ainda mais profunda: ela tornou possível arquitetar conhecimento.

Não apenas lembrar fatos, mas classificar fatos.
Não apenas transmitir ordens, mas organizar conceitos.
Não apenas descrever o mundo, mas construir sistemas de interpretação sobre ele.

A partir daí vieram taxonomias, mapas, contratos, liturgias, jurisprudência, matemática formal, modelos científicos, software. Tudo isso é linguagem estruturada em níveis diferentes.

A civilização é, em larga medida, linguagem comprimida em instituições.

Símbolos: a compressão do mundo

Toda linguagem sofisticada faz uma violência útil sobre o real: ela reduz a complexidade infinita das coisas a símbolos manipuláveis.

Uma palavra já é uma compressão. “Árvore” não é uma árvore. É um símbolo que permite trazer para dentro da mente uma classe inteira de objetos do mundo. Um número também é um símbolo. Um ícone, uma fórmula, uma variável, uma bandeira, um logotipo, uma lei, um versículo, uma interface, tudo isso são formas de condensação simbólica.

Sem essa compressão, pensar em escala seria impossível.

A escrita fez isso.
A matemática fez isso.
A programação fez isso.
A web fez isso.

E as LLMs operam precisamente nesse nível: o nível em que o mundo já foi reduzido a símbolos suficientes para ser modelado, recombinado e projetado adiante.

É por isso que dizer que uma LLM “só prevê o próximo token” é correto e insuficiente ao mesmo tempo.

É como dizer que uma sinfonia é apenas vibração do ar, ou que uma constituição é apenas tinta sobre papel.

Formalmente, sim. Essencialmente, não.

O que significa “prever o próximo token”

No núcleo técnico, modelos de linguagem são sistemas treinados para prever o próximo pedaço de sequência, o próximo token, com base no contexto anterior. Essa é uma descrição válida. É também a descrição que engana os apressados.

Porque o “próximo token” não é só uma letra ou uma sílaba. Em escala, ele carrega regularidades de gramática, estilo, semântica, estrutura argumentativa, padrões de código, convenções sociais e correlações entre conceitos.

Quando um modelo aprende a prever bem o próximo símbolo em bilhões ou trilhões de contextos, ele acaba aprendendo muito mais do que sequência superficial. Ele aprende, de forma estatística, as formas pelas quais o significado costuma se organizar.

Ele não “entende” como um ser humano entende, no sentido pleno, encarnado, moral e existencial da palavra. Mas aprende algo suficientemente potente sobre a estrutura externa da linguagem e de seus usos para produzir efeitos que, na prática, atravessam o campo do entendimento.

Predição, em sistemas complexos, não é um truque pequeno. Predizer bem o próximo símbolo em uma civilização que externalizou quase tudo em símbolos é tocar numa capacidade quase geral.

A web como grande externalização da mente humana

Antes das LLMs, houve uma condição necessária: a humanidade despejou a si mesma na rede.

A World Wide Web, proposta por Tim Berners-Lee em 1989 no CERN, nasceu como um sistema para compartilhamento automatizado de informação entre cientistas. O projeto foi formalizado nos anos seguintes com conceitos fundamentais como URL, HTTP e HTML.

Esse detalhe importa mais do que parece.

A web não foi apenas uma rede de páginas. Ela foi o maior processo de externalização simbólica já realizado pela humanidade. Nela colocamos textos, fóruns, documentação, enciclopédias, jornais, código, catálogos, discussões, litígios, tutoriais, poesia, propaganda, ontologias improvisadas e ontologias formais.

Só que a história real da internet teve duas forças em paralelo.

A primeira foi a força elegante: ontologias, linked data, semântica explícita.
A segunda foi a força brutal: escala massiva, caos textual, indexação, scraping, redundância, correlação e força bruta computacional.

Em vez de esperar que o mundo inteiro etiquetasse seu conhecimento de forma perfeita, treinamos máquinas sobre o rastro bruto do que escrevemos.

Não organizamos suficientemente o conhecimento para as máquinas. Então demos às máquinas poder estatístico suficiente para inferir parte da organização por conta própria.

O contexto simbólico agora é compartilhado

Durante muito tempo, palavras socialmente válidas dependiam de boca humana, caneta humana, assinatura humana, instituição humana. Só nós proferíamos os símbolos que a sociedade reconhecia como relevantes: diagnóstico, parecer, código, aula, artigo, contrato, resumo, tradução, explicação, proposta, tese.

Agora não mais.

Modelos de linguagem passaram a operar dentro do mesmo espaço simbólico em que nós trabalhamos. Eles escrevem e-mails plausíveis, produzem código executável, resumem jurisprudência, draftam artigos, explicam papers, reestruturam APIs, traduzem tons, organizam conhecimento e alteram, na prática, o fluxo pelo qual a verdade socialmente operacional circula.

Isso não significa que substituíram a consciência humana. Não significa que se tornaram sujeitos morais. Não significa que adquiriram alma, responsabilidade ou sabedoria.

Mas significa que a esfera da linguagem deixou de ser exclusivamente humana em sua execução imediata.

E isso muda a história.

Onde entra o “futuro” nisso tudo

Há uma intuição correta em dizer que prever o próximo símbolo é, em algum sentido, prever o futuro.

Toda linguagem é temporal. Cada palavra limita o espaço provável da próxima. Cada frase estreita os futuros possíveis do discurso. Cada escolha simbólica abre uma trilha e fecha outras.

Uma LLM é treinada exatamente nesse princípio: dado um passado, estimar o futuro mais provável da sequência.

Mas há algo ainda mais interessante. Como o texto humano carrega planos, hipóteses, diagnósticos, medos, hábitos, normas e projetos, prever linguagem também é, parcialmente, prever ação humana codificada em linguagem.

Por isso esses modelos são tão úteis em programação, planejamento, atendimento, escrita técnica, análise documental e interfaces de trabalho. Em todos esses campos, o futuro imediato já está parcialmente inscrito em estruturas simbólicas anteriores.

Quem lê bem o contexto prevê melhor o próximo passo. Quem prevê melhor o próximo passo parece, para nós, inteligente.

O erro de achar que isso é “só autocomplete”

Planilhas mudaram empresas. Motores de busca mudaram a web. Smartphones mudaram o cotidiano.

Mas LLMs tocam uma camada anterior a todas essas: a camada da mediação cognitiva geral.

Chamá-las de “autocomplete glorificado” é como chamar um compilador de “copiar e colar com regras” ou chamar um mercado financeiro de “gente trocando números”.

Sim, há autocomplete ali. Mas há também compressão estatística de cultura, linguagem, forma e padrão. Há interface universal. Há tradução entre domínios. Há aproximação de raciocínio formal e linguagem comum. Há redução radical de atrito entre intenção e execução simbólica.

Não se trata apenas de gerar texto. Trata-se de operar sobre o tecido representacional que já organiza o mundo.

O verdadeiro marco

Há marcos da humanidade que ampliam o corpo. A roda, o motor, o antibiótico, o avião.

E há marcos que ampliam a mente coletiva. A escrita, a imprensa, a biblioteca, a web.

As LLMs pertencem a essa segunda linhagem.

Elas não são poderosas apenas porque automatizam tarefas. São poderosas porque entram no circuito pelo qual significado é produzido, manipulado, transmitido e convertido em ação.

Nós criamos ferramentas que passaram a trafegar, com eficácia inédita, no mesmo universo simbólico que nos fez humanos em escala.

Esse é o marco.

Não é apenas que as máquinas agora calculam. É que elas agora participam da linguagem.

E, quando uma nova classe de agentes entra na linguagem, entra também na história.

AILanguageWebSymbolsTechnology
← Voltar aos escritos