
Inteligência artificial está passando da experimentação para a implantação operacional. A emoção ao redor grandes modelos de linguagem (LLMs) apresentou a muitas organizações o que a IA poderia fazer, desencadeando uma onda de pilotos e agentes protótipos.
Mas à medida que as empresas colocam estes sistemas em produção, deparam-se com uma restrição fundamental: os modelos de uso geral carecem do contexto operacional em tempo real que as decisões empresariais exigem.
Analista Principal de Soluções da Cisco ThousandEyes.
Os LLMs são notáveis, mas foram construídos para serem abrangentes, não para profundidade. Eles são excelentes em conversação e resumo, mas não possuem o contexto específico do domínio em tempo real do qual dependem as decisões empresariais.
UM chatbot pode discutir regulamentações financeiras, mas não pode determinar se um comércio específico viola a política interna. Ele pode descrever conceitos de rede, mas não consegue diagnosticar por que seu aplicativo está lento no momento sem telemetria ao vivo. Simplificando: a IA é tão inteligente quanto os dados e ferramentas que pode alcançar.
Essa lacuna está impulsionando mudanças arquitetônicas nas implantações empresariais de IA. Para as empresas, a inteligência não se trata de respostas amplas, mas sim de orquestrar ações precisas e confiáveis.
A ascensão de modelos especializados para execução empresarial
Para resolver esta restrição, as organizações estão cada vez mais a implementar modelos de linguagem pequena (SLMs), treinados em dados específicos de domínio para tarefas específicas. Os SLMs oferecem custos de inferência mais baixos em comparação com modelos grandes, tempos de resposta mais rápidos e a capacidade de execução local para dados requisitos de soberania.
A análise dos padrões atuais de carga de trabalho sugere que muitas tarefas de IA de agência poderiam ser realizadas por SLMs especializados, com modelos maiores reservados para tarefas de raciocínio complexas.
Na verdade, pesquisas de NVIDIA e outros indicam que muitas implantações empresariais combinam uma combinação de SLMs e LLMs. Mas escolher o modelo certo é apenas parte do desafio da IA empresarial. Para que os agentes atuem de forma confiável, eles também precisam de uma forma consistente de acessar os sistemas corporativos.
Isso aumenta a importância da camada de infraestrutura que conecta o raciocínio à realidade operacional.
O protocolo MCP: a espinha dorsal dos sistemas de agente de nível empresarial
Uma parte crítica disso infraestrutura camada é o Model Context Protocol (MCP), um padrão aberto emergente que permite que modelos de IA se conectem a fontes e ferramentas de dados corporativos por meio de uma interface uniforme e segura.
Lançado pela Anthropic no final de 2024 e posteriormente doado à Agentic AI Foundation (AAIF) da Linux Foundation, o MCP atua como um tradutor universal: expondo dados, telemetria, fluxos de trabalho e ações de forma consistente e estruturada.
Isso é importante por três razões:
- A padronização torna viáveis ecossistemas de agentes em grande escala. As APIs variam entre plataformas e nuvens; O MCP abstrai essa complexidade para que os agentes possam acessar os sistemas sem engenharia personalizada.
- A contextualização dá aos agentes visibilidade em tempo real da topologia, das condições e do estado do sistema de uma organização; permitindo que os agentes consultem as condições atuais em vez de operar com dados de treinamento obsoletos ou aproximações.
- A governança garante segurança. A arquitetura do MCP permite proteções que definem quais sistemas os agentes podem acessar e quais ações eles podem executar. Como cada ação é auditável, a pergunta não é “O agente respondeu?” mas “Ele completou a tarefa de forma segura e correta?”
O surgimento da IA empresarial
Esta evolução marca um ponto de viragem. Olhando para trás, a fase da novidade está a dar lugar à fase de maturação em que estamos a entrar agora: sistemas que são explicáveis, seguros, governados e alinhados com negócios resultados.
As empresas precisam de agentes que entendam seu ambiente, acessem os dados certos, selecionem as ferramentas certas e operem dentro dos controles certos.
A combinação de modelos especializados e protocolos de infraestrutura padronizados representa um amadurecimento na arquitetura empresarial de IA.
Em vez de implantar modelos de uso geral para todas as tarefas, as organizações estão construindo sistemas heterogêneos: os SLMs lidam com cargas de trabalho específicas de domínios, modelos maiores abordam raciocínios complexos e o MCP fornece acesso contextual padronizado. Juntos, eles tornam a IA capaz e confiável.
Eliminando o desperdício de IA por meio de contexto e controle
Considere o serviço de TI automação: um agente que lida com um ticket de desempenho de rede poderia usar o MCP para acessar telemetria em tempo real de sistemas de monitoramento de rede, consultar bancos de dados históricos de incidentes e executar fluxos de trabalho de remediação pré-aprovados – tudo por meio de interfaces padronizadas em vez de integrações personalizadas para cada ferramenta.
O acesso estruturado do MCP a ferramentas e dados empresariais permite uma mudança da recuperação de informações para a conclusão confiável de tarefas. Quando um agente encontra um problema, por exemplo, uma falha de DNS, ele pode usar o protocolo para entender o contexto, consultar dados adicionais e decidir as próximas etapas, em vez de simplesmente falhar.
Assim, quando uma grande plataforma de comércio eletrônico sofre degradação de serviço, um agente devidamente conectado pode correlacionar o desempenho ao vivo com padrões históricos e executar soluções pré-aprovadas. O que antes exigia horas agora acontece em minutos, com total transparência.
Sem uma infraestrutura sensível ao contexto, os agentes também podem cair em loops caros, com vários modelos consultando uns aos outros e consumindo recursos sem progresso. O MCP evita isso enquadrando as tarefas em torno da conclusão, não da atividade.
O que está reservado para 2026?
À medida que as empresas avançam em direção à IA operacional em 2026, o desafio não é mais a experimentação de modelos, mas sim conectar a inteligência à ação.
Os requisitos técnicos são claros: os modelos devem ter acesso ao contexto operacional, as ações devem operar dentro dos limites de governação definidos e os sistemas devem ser dimensionados economicamente através de cargas de trabalho de elevado volume.
As organizações que constroem sistemas de IA fiáveis estão a investir tanto em modelos especializados como na camada de infraestrutura que os liga à realidade empresarial. O MCP fornece uma abordagem para padronizar essas conexões.
O futuro da IA empresarial não será conquistado pelo tamanho do modelo. Será conquistado pelo contexto, conectividade e controle.
Apresentamos o melhor construtor de sites de IA.
Este artigo foi produzido como parte do canal Expert Insights da TechRadarPro, onde apresentamos as melhores e mais brilhantes mentes do setor de tecnologia atualmente. As opiniões expressas aqui são de responsabilidade do autor e não são necessariamente da TechRadarPro ou Future plc. Se você estiver interessado em contribuir saiba mais aqui: https://www.techradar.com/news/submit-your-story-to-techradar-pro
