Do Piloto à Produção: A Arquitetura que Destrava a IA com Custo Controlado
- carolinesiffert
- 24 de fev.
- 7 min de leitura
Por João Gabriel Alves, CEO e Fundador da Horizonte3
Tese: IA gera valor, mas só sai do piloto quando existe uma arquitetura que integra dados, modelos e interface, com custo controlado e uso no fluxo de trabalho.
Onde o travamento aparece: (1) dados existem, mas ficam subutilizados por falta de integração e governança, (2) custo do stack de dados cresce por redundância de ingestões, integrações paralelas e licenças “para mover dado”, (3) BI e IA viram camadas adicionais sem fio com a operação, (4) decisor não acessa números críticos no momento e no canal certos.
Implicação prática: reduzir redundância, centralizar consumo em uma fonte confiável, definir métricas canônicas e acoplar modelos ao processo decisório, entregando a informação no canal da operação.
Horizonte3: uma plataforma de dados & IA construída com os componentes que realmente importam para sair do piloto: integração e dados com governança, camada de modelos e métricas para decisões repetíveis, e uma interface de baixo atrito no WhatsApp para colocar o número certo, na hora certa, na mão de quem decide.
1. Introdução
Disrupções tecnológicas podem ser gatilhos que destravam valor.
O calor do sol sempre esteve disponível em boa parte dos países do globo. Porém, para destravar seu valor como energia elétrica, foi necessário um gatilho: reduzir custo, padronizar a tecnologia e viabilizar a implantação em escala.
Com dados acontece algo parecido. Eles já estão disponíveis para a maior parte das empresas. No Brasil, três em cada quatro pequenos negócios já usam ferramentas digitais no dia a dia, o que, na prática, significa que algum nível de sistema e registro de operação já existe.
O problema é que a maioria ainda não encontrou o gatilho que destrava o valor desses dados. Estão sentadas sobre valor, mas presas em conciliações manuais, métricas genéricas e baixa utilização do que já coletam. E isso piora quando os sistemas não conversam bem entre si, ou quando o ERP vira um arquipélago de customizações e integrações difíceis de manter.
Enquanto isso, essas empresas são diariamente assediadas por fornecedores oferecendo Inteligência Artificial. Então, elas terão a lâmpada, mas não terão os fios. Guardadas as devidas proporções, algo parecido com o que aconteceu quando surgiram os BIs: algumas empresas evoluíram por terem investido em fundamento; outras pagam licenças caras para manter painéis conectados a planilhas, sem governança.
Fundamento, aqui, é engenharia, pipelines robustos e uma arquitetura com componentes que resolvam o problema real.
Há um segundo ponto: IA não resolve todos os problemas. Em alguns casos, piora. Em muitos outros, precisa ser combinada com integração, modelagem e automação para produzir decisão repetível. Isso não se resolve liberando o ChatGPT para as equipes de negócio.
Neste artigo, apresentamos os componentes que ofertamos para destravar esse valor e, ao final, um caso de uso.

2. Camada de integração e dados
Em um voo, nada começa pela rota. Começa por enxergar o estado do avião com precisão. Sensores e instrumentos existem para medir e registrar essas leituras de forma consistente, para que decisões não dependam de sensação. É o mesmo papel que essa camada cumpre aqui.
A camada de integração e dados começa no banco transacional e nos sistemas operacionais (por exemplo, ERP). A integração é feita por um serviço de integração de dados que acessa a origem por conexões controladas (allowlist e políticas de acesso), executa consultas otimizadas e extrai incrementalmente os conjuntos de dados necessários para os casos de uso.
Esses dados passam por conversão e replicação das tabelas relevantes para um repositório central de dados. A replicação privilegia consistência e rastreabilidade: preservação de schema, granularidade transacional, timestamps e histórico quando aplicável. O desenho evita “cópias paralelas” por área, concentrando o consumo em uma camada única, com particionamento, segregação de ambientes e políticas de acesso.
Para empresas que já têm infraestrutura de dados, essa camada reduz duplicação de ingestões, integrações paralelas e licenças usadas apenas para movimentar e padronizar dados. Como os serviços de extração, replicação, validação e segregação são autorais e ajustados ao contexto do cliente, o stack tende a ficar mais simples e o custo recorrente, menor e mais previsível.
3. Camada de modelos e métricas
Com a instrumentação funcionando, o voo ainda não está resolvido. Leituras não conduzem nada sozinhas. Elas precisam virar critério de decisão: rota, ajustes e prioridades que mudam conforme o cenário muda. É disso que trata a camada de modelos e métricas.
A camada de modelos e métricas roda como serviço separado, com execução em lote e sob demanda. Ela consome dados do repositório central de dados e entrega saídas padronizadas para uso operacional: métricas, sinais, scores, previsões e listas priorizadas, prontas para serem consumidas por outras camadas.
Os modelos quantitativos variam por caso: previsão, classificação, segmentação e ranking. O pipeline inclui validação temporal, backtesting, tratamento de sazonalidade, monitoramento de drift e critérios mínimos de explicabilidade e auditoria. Quando necessário, combina estatística com regras determinísticas para respeitar restrições de negócio.
Técnicas analíticas tradicionais seguem centrais para impacto porque produzem decisões repetíveis sob restrições reais. Quando modelos estatísticos entram no processo, decisões críticas deixam de ser arbitrárias e passam a seguir critérios mensuráveis, com efeito direto em receita, custo e produtividade.
4. Inteligência Artificial Generativa
Mesmo com dados e critério, falta o que costuma decidir se algo “pega” na operação: comunicação e acesso no fluxo de trabalho. Em um voo, quando algo muda, o que importa é receber orientação clara, no momento certo, sem atrito. Aqui a IA generativa entra com esse papel.
Usamos IA generativa tanto como parte do fluxo de automações que exigem contexto quanto como camada de interface com o usuário. O ponto central é o acoplamento ao serviço central: o usuário interage com um serviço que consulta o repositório central de dados, aplica regras do modelo semântico e aciona a camada de modelos e métricas quando necessário. Isso mantém a resposta ancorada em dados e em definições canônicas de KPIs.
As interações chegam pelo canal do usuário (ex.: WhatsApp) e aceitam inputs tanto por texto e áudio como planilhas e PDFs. As perguntas dos usuários são traduzidas em intenções, parâmetros e filtros, resolvidas por consultas estruturadas sobre os dados replicados, e complementadas por chamadas à camada de modelos e métricas quando há necessidade de modelos, bem como APIs dos sistemas do cliente.
A arquitetura é agnóstica de modelo. Não desenvolvemos LLMs próprios: conectamos a um provedor padrão e trocamos quando há restrições de privacidade, custo ou latência. A comunicação entre o serviço central e a camada de modelos e métricas ocorre em rede privada, e as respostas seguem degradação controlada quando não há evidência suficiente para sustentar uma conclusão.
5. Tecnologia e Negócios juntos
A metáfora de aviação ajuda a entender o desenho, mas vamos “aterrissar” em um processo de negócio. Em Finanças, há cinco grandes grupos de processos: Contabilidade, Tesouraria, Tributos, FP&A e Controladoria. Como área de suporte, Finanças precisa entregar eficiência e compliance (por exemplo, adequar lançamentos às normas contábeis), expertise e análise (por exemplo, reportar indicadores para investidores) e impacto no negócio (por exemplo, recomendar desinvestimentos).
Para isso, Finanças se apoia em sistemas transacionais, como o ERP. Ele organiza processos e registra a operação, gerando uma quantidade grande de dados. Esses dados importam porque descrevem o negócio pela lente financeira, isto é, mensuram como a empresa gera valor. Apesar disso, mesmo em empresas grandes, o fluxo típico ainda é extrair dados do ERP e analisar no Excel, com fórmulas e conciliações manuais.
Vamos a um exemplo simples de um projeto nosso.
CEO e diretores se queixavam que, mesmo com ERP e equipe de Finanças, não conseguiam ver os números de performance (Receita) que importavam, no momento certo e no canal certo. E é comum: alta liderança não tem tempo para rodar relatório dentro do ERP.
Começando por ativar os sensores, conectamos o banco transacional do ERP a um serviço de integração de dados, com conexões controladas e extração incremental. Em vez de espalhar cópias por área, replicamos os dados necessários para um repositório central, preservando chaves, granularidade transacional, timestamps e histórico quando aplicável. A atualização era diária como padrão. Para subconjuntos que exigiam cadência maior, criamos rotinas específicas de atualização incremental e consultas otimizadas, para não onerar o ERP nem criar integrações paralelas difíceis de manter. Também incorporamos insumos que já circulavam fora do sistema, como planilhas de apoio e PDFs operacionais, normalizando e vinculando ao mesmo conjunto de entidades.
Com os dados organizados, passamos ao plano de voo. Em vez de depender de relatórios genéricos, definimos um modelo semântico com as métricas que a liderança realmente usa para conduzir a operação e, a partir dele, estruturamos uma camada de modelos e métricas. Rodamos modelos em lote e sob demanda conforme a criticidade e construímos previsões de performance para responder à pergunta que travava decisão: “se nada mudar, qual será o resultado nas próximas semanas?” O pipeline incluiu validação temporal e backtesting para garantir estabilidade suficiente para orientar ação.
Por fim, como na comunicação durante o voo entre torre e piloto, levamos a informação para onde a liderança já está: WhatsApp. O usuário pergunta por texto ou áudio e recebe respostas em português claro, com contexto e baseadas nas métricas oficiais. Por trás, o sistema consulta os dados e aciona modelos quando necessário, mantendo flexibilidade para trocar o provedor de IA conforme privacidade, custo e latência. E, quando não há evidência suficiente, ele sinaliza isso e evita conclusões forçadas.
Na prática, isso virou uso cotidiano: o CEO acessa os dados financeiros via WhatsApp em mais de 97% dos dias desde a implantação. Entre 2024 e 2025, a empresa cresceu mais de 20% em receita e passou a tomar decisões de investimento e gestão com mais clareza sobre os números. O projeto foi executado em 2024 e foi o primeiro contato da empresa com IA. A partir daí, o dado entrou no fluxo de decisão, em vez de ficar preso em relatórios e planilhas.
Não foi “IA fazendo mágica”. Foi a informação certa chegando no momento e no formato certos.
A intuição que guiou o desenho desde o início foi simples: simplicidade é eficiência. Usar GenAI para aproximar o usuário dos dados, e não para criar mais uma camada de complexidade que atrasa a ação.




.png)
