Essa instrução tem um
nome: prompt. É o texto que você escreve antes de receber
uma resposta. Parece detalhe. Não é.
A mesma tarefa, descrita de formas
diferentes, produz resultados radicalmente distintos. Peça
à IA para "falar sobre diabetes" e você recebe
um verbete genérico. Peça para "explicar diabetes
tipo 2 para uma pessoa de 60 anos sem formação médica,
com foco nas mudanças de hábito que mais impactam o
controle da glicose, usando linguagem simples" — e você
recebe algo que pode ser lido na sala de espera de um consultório.
A diferença entre os dois não
é tecnologia. É redação.
Instrução, não programação
O prompt é frequentemente comparado
ao código de programação. A analogia é
imprecisa e atrapalha mais do que ajuda.
Programação é instrução mecânica.
Um programador escreve comandos que a máquina executa de forma
determinística: dada a mesma entrada, a saída é
sempre a mesma. Não há interpretação.
2 + 2 é sempre 4. A linguagem é formal, rígida,
sem margem para ambiguidade.
Um prompt funciona de forma diferente.
Ele é escrito em linguagem natural — português,
inglês, qualquer idioma — e dirigido a um sistema que
foi treinado para interpretar intenções. O modelo não
lê a instrução como sequência lógica
de comandos. Ele a lê como comunicação. Atribui
peso às palavras, infere contexto, considera o que não
foi dito.
O pesquisador Ethan Mollick, da Wharton
School, propõe uma metáfora mais útil: interagir
com modelos de linguagem se parece mais com dar instruções
a um colaborador humano muito capaz do que com programar uma máquina.
Você não especifica cada passo. Você descreve o
resultado esperado, o tom, as restrições, o contexto
— e avalia o que volta.
Isso tem uma consequência direta:
qualquer pessoa que saiba escrever pode criar um prompt. Mas criar
um que funcione de forma consistente, em contextos variados, para
diferentes finalidades, é uma habilidade que se desenvolve.
Um universo maior do que parece
O engano mais comum sobre prompts
é imaginar que são perguntas — variações
mais elaboradas de uma busca no Google. Não são.
Um prompt pode ter oito palavras ou duas mil. Pode ser usado uma vez
ou rodar automaticamente toda manhã. Pode pedir uma informação
ou executar uma sequência inteira de tarefas sem intervenção
humana. O espectro é amplo, e entendê-lo ajuda a perceber
por que esse conhecimento tem valor.
Na ponta mais simples, há prompts
de busca de imagem: "retrato feminino, luz dourada do fim de
tarde, estilo cinematográfico, câmera de médio
formato". Oito palavras que substituem um briefing fotográfico
inteiro e que, nas plataformas certas, geram imagens indistinguíveis
de uma produção profissional.
Na ponta oposta, há prompts
de agente: instruções longas e estruturadas que configuram
um comportamento autônomo. Um secretário pessoal em forma
de prompt tem memória de contexto, estilo de resposta definido,
lista de prioridades, regras sobre o que nunca fazer. Você o
ativa de manhã e ele organiza sua agenda, resume os e-mails
relevantes, sinaliza o que exige decisão. Não é
uma pergunta. É uma delegação.
Entre esses extremos, há revisores
de texto calibrados para um estilo específico; analisadores
jurídicos que identificam cláusulas de risco em contratos;
tutores educacionais que se adaptam ao ritmo de cada aluno; geradores
de relatório que transformam dados brutos em narrativas; assistentes
de pesquisa científica que extraem informações
de dezenas de artigos e sintetizam o que é relevante.
As áreas onde prompts já
funcionam como infraestrutura são diversas. Na medicina, prompts
resumem prontuários, geram hipóteses diagnósticas
e simulam casos clínicos para treinamento. No direito, revisam
contratos e analisam jurisprudência. Na educação,
personalizam o aprendizado e automatizam feedback. Nas ciências
da vida, extraem dados de artigos, auxiliam na predição
de síntese química e analisam interações
moleculares. Nos negócios, automatizam briefings, relatórios,
atendimento e análise de dados.
O tamanho desse universo explica por
que há mercado. Os prompts mais caros nos marketplaces especializados
são os de lógica e fluxo de trabalho — chegam
a vinte dólares por unidade. Os de geração de
imagem, mais simples, ficam em torno de cinco dólares. A diferença
de preço reflete a diferença de complexidade e de valor
gerado. Quem compra um prompt de copywriting calibrado para
o tom de voz de uma empresa não está pagando por uma
resposta. Está pagando por um comportamento configurado —
repetível, consistente, transferível.
Uma startup americana chamada Cluely
chegou a seis milhões de dólares de receita recorrente
anual em dois meses. Parte significativa desse resultado está
no sistema de prompt que define o comportamento do produto. O prompt,
nesses casos, não é acessório. É o produto.
Um mercado sem memória
O mercado de prompts é grande
e cresce rápido. Segundo projeções da Research
and Markets, o setor deve sair de 1,13 bilhão de dólares
em 2025 para 3,48 bilhões em 2029. Há plataformas estabelecidas,
usuários em massa e dinheiro em movimento.
Mas o conhecimento acumulado não vai a
lugar nenhum.
As plataformas existentes se dividem em três tipos. O PromptBase
funciona como marketplace: cobra 20% sobre cada venda. É uma
loja, não uma biblioteca. Quem compra recebe uma instrução
pronta sem entender por que funciona. Quem vende não tem incentivo
para explicar o raciocínio por trás.
O FlowGPT vai na direção oposta: conteúdo gratuito,
contribuição aberta, comunidade ativa. Em 2025, a plataforma
faturou 1,9 milhão de dólares com uma equipe de 17 pessoas
— número pequeno para o tamanho da base de usuários,
sinal de que o modelo não encontrou sustentabilidade. Em 2024,
o TechCrunch descreveu o FlowGPT como o "Velho Oeste" dos
aplicativos de IA generativa. Sem curadoria, a qualidade é
inconsistente.
As ferramentas de versionamento técnico,
como Langfuse e PromptHub, resolvem o problema para equipes de desenvolvimento
— com controle de versão, testes e rastreamento de desempenho.
São sofisticadas e construídas para engenheiros. Uma
professora, um jornalista, um pesquisador de saúde pública
não vão usar uma plataforma que exige integração
com GitHub.
O repositório prompts.chat
tem mais de 161 mil estrelas no GitHub e foi citado por Harvard e
Columbia como recurso acadêmico. É o sinal mais claro
de que há demanda real por prompts bem documentados. Mas o
formato é estático — uma lista, sem histórico
de versões, sem discussão, sem camadas editoriais.
Nenhuma plataforma existente combina edição coletiva,
transparência de raciocínio, controle de versões
e acessibilidade para não-técnicos.
O modelo
que já funciona
A Wikipedia resolveu um problema que parecia
impossível: produzir conhecimento enciclopédico de alta
qualidade sem pagar ninguém, sem editor central, sem controle
hierárquico rígido. O mecanismo foi a combinação
de transparência total do processo editorial com uma cultura
de justificativa — cada mudança precisa ser explicada,
discutida e rastreável.
O GitHub fez o mesmo para código:
transformou repositórios individuais em patrimônio coletivo,
onde contribuições são creditadas, versões
são preservadas e bifurcações para novos contextos
são encorajadas.
Um prompt tem as mesmas propriedades
que tornam esses modelos possíveis. É texto. Tem versões.
Pode ser melhorado incrementalmente. O raciocínio por trás
de cada escolha pode ser documentado. E tem uma vantagem sobre o artigo
enciclopédico: a saída é verificável.
Você pode rodar a versão anterior e a nova e comparar
o resultado. O processo editorial fica ainda mais concreto.
O que falta é o serviço
que una esses elementos.
O que esse serviço seria
Chame de Promptpedia, WikiPrompt ou
outra combinação — os nomes já circulam
em projetos menores, nenhum consolidado. O conceito importa mais do
que a marca.
A ideia central: um repositório aberto de prompts com estrutura
editorial obrigatória. Cada entrada teria a instrução
em si, o contexto de uso, o modelo testado, as limitações
conhecidas e o histórico comentado de versões. Qualquer
pessoa poderia propor uma edição — com justificativa.
Qualquer pessoa poderia fazer um fork para adaptar o prompt ao seu
contexto, declarando para qual finalidade está adaptando: "versão
para professores do ensino médio", "versão
em português do Brasil", "versão para análise
de contratos trabalhistas".
Não seria uma lista. Seria
um arquivo vivo de como a humanidade aprendeu a conversar com máquinas
inteligentes — organizado por domínio, por língua,
por nível de especialização, com toda a história
de tentativa, erro e refinamento preservada e acessível.
O timing importa. Pesquisas recentes
mostram que mais de 45% dos profissionais indicam que a engenharia
de prompts será a habilidade de IA mais demandada nos próximos
anos, e a demanda por especialistas na área cresceu 135,8%
em 2025. Ao mesmo tempo, uma das principais restrições
identificadas no setor é a ausência de frameworks padronizados
e práticas de governança. Quando não há
consenso sobre como fazer algo bem, quem cria o espaço onde
esse consenso se forma tem vantagem estrutural.
Quem construir isso primeiro não
está criando mais um produto de IA. Está criando infraestrutura
cultural para a era em que a maioria das pessoas trabalha ao lado
de sistemas inteligentes — e precisa saber falar com eles.