Os modelos de linguagem de grande escala, junto com o ecossistema de técnicas desenvolvidas ao seu redor — desde novas formas de raciocínio estruturado até arquiteturas multiagente cada vez mais sofisticadas — vêm demonstrando capacidades inéditas que nos permitem automatizar tarefas complexas que, até muito recentemente, exigiam o raciocínio humano.
Na última década, as expectativas em torno da ciência de dados frequentemente resultaram em frustração. O investimento em talentos, infraestrutura e governança nem sempre foi suficiente para transformar capacidades analíticas em decisões eficazes. Entre os desafios recorrentes estão a escassez de perfis especializados, a dificuldade de operacionalizar modelos, a tradução de resultados técnicos para o contexto do negócio, a adoção limitada por parte das áreas e a dificuldade de integração entre equipes multidisciplinares. Em muitas organizações, a transformação tem ocorrido de forma lenta ou ainda está em andamento, com resultados parciais e distantes do objetivo de se tornarem verdadeiramente data-driven.
Rumo a um novo paradigma
No entanto, nos últimos anos surgiram avanços que apontam para um novo paradigma — a automação agêntica de grande parte do trabalho analítico. Entre os marcos mais recentes, destacam-se:
- Publicações que mostram que o GPT‑5 é capaz de participar de processos de descoberta científica em áreas como matemática, física, biologia e astronomia. O modelo já não se limita à execução de instruções — agora explora alternativas, interpreta evidências e orienta linhas de investigação de forma semelhante ao trabalho de uma equipe humana especializada.
- Soluções como o Aristotle, desenvolvido pela Harmonic, mostram que modelos de linguagem já são capazes de produzir análises sofisticadas e validar seus próprios resultados com precisão. Para isso, utilizam linguagens formais como o Lean 4, que conseguem identificar falhas lógicas frequentemente presentes nesses sistemas. Na IMO 2025, o Aristotle atingiu um desempenho equivalente ao de uma medalha de ouro, com soluções validadas e um nível de confiabilidade comparável ao de modelos avançados da OpenAI e da DeepMind.
- A nova geração de modelos evolui para arquiteturas multiagente com especialistas orquestrados por domínio, oferecendo mais capacidade de raciocínio, maior transparência e capacidade de explicabilidade. A OpenAI, por exemplo, está desenvolvendo para o futuro GPT‑6 agentes especializados em áreas como programação avançada, matemática, ciências naturais, consultoria empresarial e saúde.
Multiagentes aplicados à ciência de dados
Esse conceito já está sendo aplicado em iniciativas corporativas. Como descrito no artigo Kosmos: An AI Scientist for Autonomous Discovery, que vem chamando a atenção da comunidade científica por sua capacidade de formular hipóteses, projetar experimentos, analisar resultados, refinar modelos de forma iterativa, sem depender de supervisão humana constante, e chegar a conclusões relevantes.
Em um ambiente empresarial, um sistema multiagente pode operar da seguinte forma:
- Um agente é responsável por planejar estratégias analíticas e formular hipóteses, utilizando uma base de referência com abordagens de ciência de dados alinhadas ao setor e ao domínio do negócio.
- Outro seleciona os métodos quantitativos mais adequados, codifica transformações, analisa os dados, treina os modelos e constrói pipelines analíticos completos.
- Um terceiro executa o código gerado, gerencia possíveis erros que possam surgir durante o processo e otimiza a alocação de recursos computacionais. Ferramentas como o Advanced Data Analysis do ChatGPT já antecipam esse tipo de integração entre raciocínio e execução técnica.
- Outro agente analisa os resultados obtidos, compara diferentes abordagens e identifica padrões relevantes. No futuro, ferramentas de verificação formal, como o Lean, poderão ser incorporadas para validar a lógica e a coerência dos raciocínios produzidos.
- Um quinto agente é responsável por sintetizar os aprendizados, propor melhorias e iterar continuamente com base nas soluções mais promissoras.
- E, por fim — etapa essencial para gerar impacto concreto no negócio — um agente especializado atua como ponte entre as áreas técnicas e estratégicas, traduzindo os problemas empresariais em perguntas analíticas e avaliando o valor gerado pelos resultados. Sem essa camada, a automação corre o risco de perder o direcionamento estratégico.
Para que um sistema agêntico de ciência de dados funcione com eficiência, é essencial contar com uma estrutura robusta de governança. Isso inclui garantir que os agentes possam identificar, localizar e acessar com confiabilidade tanto os dados quanto o conhecimento necessário para realizar as análises. Sem qualidade, rastreabilidade, acessibilidade e contexto, até mesmo os agentes mais avançados terão sua capacidade de gerar resultados relevantes comprometida.
Esse modelo não é apenas conceitual. Na NTT DATA, já o aplicamos de forma experimental com clientes reais, em iniciativas alinhadas a objetivos concretos de negócio — e com resultados tangíveis.
A nova atuação do cientista de dados
Nesse novo cenário, o papel do cientista de dados passa por uma redefinição estratégica. Com a automação cobrindo uma parte significativa das tarefas técnicas, o valor diferencial passa a residir na capacidade humana de interpretar resultados, entender quais descobertas realmente importam e o que elas representam para o negócio. O julgamento analítico será essencial para questionar premissas, antecipar riscos e traduzir conclusões em decisões sólidas.
Organizações que reposicionarem seus especialistas como líderes de interpretação e supervisão analítica estarão mais preparadas para extrair valor da era agêntica. A proposta da Agentic AI não é substituir o julgamento humano, e sim potencializá-lo.
Essa evolução já está em curso — e na NTT DATA, estamos prontos para seguir com você nessa jornada. Continue explorando nossa visão sobre o futuro da análise de dados e da inteligência artificial.