5 fatores para autonomia previsível com IA agêntica

5 fatores para autonomia previsível com IA agêntica

Anteriormente, exploramos por que as iniciativas de IA falham e descreveram uma cadeia de automóveis fictícia com presença nacional que está prestes a embarcar em seu primeiro projeto Agentic AI. Nossa cadeia fictícia quer ingressar nos 5% das empresas que já veem o ROI em seus esforços de IA e, portanto, decidiu criar um agente que automatize uma tarefa que os gerentes de loja gastam quatro horas toda semana. Em seguida, procuraremos os cinco fatores de agentes de IA que operam com autonomia previsível.

Usando o exemplo da cadeia de fotos de automóveis, exploraremos uma solução que recuperará mais de 200 horas de tempo de gerenciamento por loja, por ano e poderá ser lançada em 12 semanas ou menos. Plantaremos nossa bandeira de ROI firmemente com uma liberação pontual, no orçamento e na qualidade de uma solução que possui:

  1. Contexto estreito
  2. Ferramentas simples
  3. Prompts detalhados
  4. O modelo certo para o caso de uso
  5. Gerenciamento centralizado de ativos, conexões e políticas de IA

Contexto estreito

Para a IA Agentic, o contexto é tudo. Ele define tudo adaptado a nós que um modelo deve saber para responder a uma pergunta. Por exemplo, algumas empresas internacionais podem optar por operar pelo mais alto padrão legal de todos os países que servem para evitar complicações em geral. Perguntar o que deve ser feito por um agente da empresa em um determinado país não deve confiar apenas no conhecimento geralmente aceito da geografia; Deve contar com uma combinação de política pública e interna para uma determinada jurisdição.

No cenário de nossa cadeia de automóveis, o contexto não poderia ficar mais estreito. Estamos interessados ​​em nossos ingressos de serviço. Eles registram cada entrega, cada coleta, todos os serviços executados e a resposta da pesquisa coletada. Há uma riqueza de informações adicionais, como números de peça e códigos de serviço, muito inútil, dada a nossa tarefa atual de transformar dados de pesquisa presos nos tickets de serviço em um feed de dados relatável.

Por esse motivo, queremos descrever o menor número possível de campos para o nosso agente de IA, porque queremos descrever cada um deles com precisão; Nesse caso, não estamos contratando nossos agentes de IA por sua criatividade.

Ferramentas simples

Definiremos uma consulta em nosso sistema de ingressos de serviço que obtém a data de entrega, a data de coleta, os serviços específicos executados e a resposta da pesquisa. Permitiremos que nosso agente de IA acesse essa consulta através de uma visão ou um procedimento armazenado, e o exporemos através de uma construção de programação de IA chamada A ferramenta.

Não vamos simplesmente liberar o modelo em nosso banco de dados e deixar “descobrir o que precisamos”. Nós vamos dar exatamente a forma dos dados necessários para resolver nosso problema, e vamos dar uma maneira simples de executar: ou faça tudo que mudou para “fechado” entre duas datas específicas ou me faça tudo o que mudou para “fechado” na semana atual.

Vamos usar o Spring AI e o Model Context Protocol (MCP) para conectar rapidamente nosso agente ao nosso contexto. A Spring AI garantirá que nosso código permita flexibilidade nas interações modelo e o MCP garantirá que nossas ferramentas sejam chamadas quando necessário e que nosso contexto flua para o modelo, pois considera o prompt de nosso usuário. O que é notável na IA da primavera é que a maioria do que descrevi acima é implementada usando a linguagem humana, não o código.

As ferramentas são blocos de código que os desenvolvedores fornecem e a IA utiliza. Os desenvolvedores descrevem comportamentos usando inglês simples, que o LLM usa para entender como a ferramenta é usada. É realmente uma mudança notável de paradigma, onde o desenvolvedor tem 90% de sua codificação substituída pela documentação que ajuda o LLM a consumir o código corretamente, deixando apenas 10% do código restante para realmente escrever.

A IA da primavera combina interfaces de linguagem e programação naturais, mudando o paradigma do desenvolvimento moderno de software

Não posso enfatizar o suficiente o quão revolucionário os conceitos demonstrados pelo snippet acima são para o desenvolvimento de software. A descrição da ferramenta descreve ao consumidor (a IA) como usá -lo e como entender sua resposta. Em 2023, teríamos que escrever dezenas, se não centenas, de linhas de código, para mediar as interações entre dois sistemas não relacionados.

Aqui estamos, menos de dois anos depois, usando a linguagem natural para instruir a IA sobre como mediar essas interações para nós. Tudo o que precisamos fazer é fornecer as funções a serem chamadas sob o capô quando uma ferramenta é invocada. Mas algo tem que costurar todas essas funções chama um resultado significativo, e é aí que o agente e seu sistema de sistema se tornam a cola.

Prompts detalhados

Quando um agente é instanciado (quando o serviço que hospeda o agente inicia), a primeira coisa que um modelo vai querer saber é o que o prompt do sistema é para esse agente. Em outras palavras, qual é a missão e o propósito desse agente?

No prompt do sistema, dizemos ao agente exatamente qual é o seu trabalho. Podemos dizer ao nosso agente exatamente quais tarefas ele pode executar e até em que circunstâncias. Talvez uma tarefa iniciada durante o horário comercial deva ser agendada para uma janela fora do horário comercial para processamento.

Esse tipo de coisa pode ser assado em instruções incrivelmente rapidamente e por meros mortais. Nenhuma codificação necessária. O prompt do sistema está em inglês antigo, assim como a descrição da ferramenta que revisamos. O snippet a seguir vem do arquivo de propriedades usado para configurar nosso aplicativo de primavera:

O sistema leva a impulsionar o comportamento de nosso agente de analista de dados de satisfação do cliente restrito

Pense nas centenas de linhas de código eliminadas aqui na determinação, com base na hora do dia e no dia da semana, se deve agendar um processo ou executá -lo imediatamente. Não é apenas a implementação dessa lógica, é o encapsulamento e a integração para que possa interagir com outros serviços. Esse recurso pode ser completamente inventado ao ser descrito no prompt do agente, desde que exista uma ferramenta para determinar a data atual e outra ferramenta existe para agendar uma tarefa.

Ao ser extremamente explícito com nosso agente sobre o que deve fazer e, quando com as ferramentas que ele tem à sua disposição, podemos começar a colher as recompensas da autonomia previsível que esperamos da IA. Nesse caso, as recompensas vêm na forma de mais de 200 horas de gerente por ano por loja. Não é muito ruim para o nosso primeiro tiro sobre o arco.

O modelo certo para o caso de uso

Uma árvore de decisão simplificada para seleção de modelo (apenas para fins ilustrativos)

É certo que o exemplo da loja de automóveis não prevê muito em termos de contar histórias em torno da seleção de modelos. A primeira e mais importante pergunta para todas as empresas deve ser: estamos dispostos a usar modelos públicos? Considere que devemos enviar nosso contexto estreito para esses modelos; Toda vez que fazemos uma pergunta sobre um agrupamento de ingressos de serviço, precisamos enviar esses dados para o modelo pelo fio para avaliar. Talvez nossa cadeia automática não esteja muito preocupada com o conteúdo do conjunto de dados atual, mas com o tempo, a importância da IA ​​privada pode aumentar.

É por isso que embrulhamos nossas interações modelo em uma estrutura como a Spring AI – uma decisão comercial de alterar os provedores de modelos não deve exigir uma mudança maciça na solução. No entanto, ele, sem uma camada como a Spring AI entre o dev e o modelo.

Se houvessemos a programação em vez de pesquisar dados, a seleção do modelo teria narrativa mais interessante. A programação requer raciocínio e, portanto, um modelo de raciocínio será muito mais eficaz que um LLM genérico. No entanto, quando se trata de pedir a um LLM para preparar um arquivo em lote em um determinado formato usando campos de maneira limpa e prontamente disponível em uma visão criada para a tarefa, não há muito conhecimento necessário para tomar a decisão certa. O caso de uso é facilmente tratado por qualquer um dos principais players, público ou privado, desde que o MCP esteja em seu saco de truques.

Dia 2 é o dia mais longo

Anteriormente, mencionei a IA da primavera para isolar o desenvolvedor das complexidades de interagir com um ou mais modelos. Interagindo com o modelo é apenas a ponta do iceberg em termos de necessidades, devemos servir para operacionalizar esse esforço agêntico inaugural. Como o relatório nativo da IA ​​de Tanzu revela em detalhes (disponível aqui), não há escassez de empregos a serem feitos para operacionalizar com sucesso a IA. Precisamos ser capazes de aplicar políticas em uma série de preocupações: quais modelos são permitidos e a quais equipes? Como os tokens são emitidos? Como as cotas e estornos são tratados? Como as credenciais são giradas para ferramentas e servidores MCP? Como restringimos o acesso a serviços MCP a subconjuntos de consumidores? Como gerenciamos implantações e certificamos quais versões de quais modelos são seguros para uso?

Precisamos fazer tudo isso e muito mais, e precisamos fazê -lo de maneira repetível, para vários ambientes, antes de vermos a luz da produção.

Ser capaz de gerenciar o exposto acima é importante devido à aparência de nossos sistemas à medida que as coisas evoluem. Os agentes da IA ​​terão muita simetria com microsserviços em termos de tecnologias subjacentes e arquiteturas de implantação, mas com mais granularidade. Os serviços serão menores e suas tarefas mais discretas; Os microsserviços serão substituídos por nanosserviços. Nosso agente de análise de satisfação do cliente é um exemplo de nanoservice. Vamos manter esse serviço pequeno e focado em uma coisa, para que se comporte previsivelmente.

Haverá centenas, senão milhares, de nanosserviços como esse no futuro da nossa loja de automóveis fictícios, cada um com um conjunto estreito de responsabilidades e ferramentas. A troca pela granularidade de nossos serviços será o aumento de seus números. A velocidade com que as soluções nativas da IA ​​passarão da idéia para a produção será chocante e avassaladora. Precisaremos de corrimãos se quisermos fazer isso de forma sustentável em escala, e é isso que uma plataforma Ainativa oferece.

Sem uma plataforma para gerenciar tudo, o segundo dia se torna o segundo o segundo ano antes de você ter a chance de colocar as pernas embaixo de você. O artigo do MIT, crítico dos lançamentos corporativos da IA, quantifica isso. Para os esforços de IA que realmente chegaram à produção, 67% deles o fizeram usando soluções fornecidas por fornecedores para gerenciamento de ativos de IA. Apenas 22% dos sistemas de sucesso que criaram para gerenciar as preocupações de suas integrações de IA. De forma similar, Pesquisa independente Encontrou a maioria dos entrevistados, 82%, acredita que as plataformas de IA são importantes ou essenciais para escalar a IA.

Configurando -se para enviar aplicativos de IA em escala com sucesso

A IA Agentic é uma coisa poderosa, mas as armadilhas são muitas. Para se mover de maneira rápida e segura e, ao mesmo tempo, entregar valor, é fundamental reduzir o espaço do problema que estamos pedindo à IA para resolver por nós. Fornecendo informações suficientes necessárias para encontrar uma solução e fornecendo apenas o suficiente Capacidade para o nosso agente por meio de ferramentas simples, minimizamos as chances de envenenar nossas respostas.

Da mesma forma, ao criar uma descrição do trabalho para cada agente por meio de seu prompt, podemos restringir os comportamentos de nossos agentes, limitar as ferramentas que eles podem acessar e fornecer expectativas específicas de seu desempenho no trabalho.

Também aprendemos que nem todos os modelos são criados igualmente e que o caso de uso deve determinar o modelo que escolhemos. Talvez o mais crucial, porém, aprendemos que dobramos nossas chances de implantação bem -sucedida quando usamos uma plataforma nativa da IA ​​para rebantar os gatos, em vez de tentar rolar nossas próprias plataformas de integração de IA.