Ícone do site Café Codificado

Apresentando SWE-1.5: Nosso modelo de agente rápido

Bicycle has a red upside down Y shaped frame, pelican is a bit dumpy, it does at least have a long sharp beak.

Apresentando SWE-1.5: Nosso modelo de agente rápido (através de) Aqui está o segundo modelo de codificação rápida lançado por um agente de codificação IDE no mesmo dia – o primeiro foi o Composer-1 da Cursor. Desta vez é o Windsurf lançando o SWE-1.5:

Hoje estamos lançando o SWE-1.5, o mais recente da nossa família de modelos otimizados para engenharia de software. É um modelo de tamanho limite com centenas de bilhões de parâmetros que atinge um desempenho de codificação próximo ao SOTA. Ele também estabelece um novo padrão de velocidade: fizemos uma parceria com a Cerebras para atendê-lo em até 950 tok/s – 6x mais rápido que o Haiku 4.5 e 13x mais rápido que o Sonnet 4.5.

Assim como o Composer-1, ele só está disponível por meio de seu editor, ainda sem uma API separada. Também como o Composer-1, eles não parecem dispostos a compartilhar detalhes do “modelo básico líder de código aberto” no qual basearam seu novo modelo.

Pedi para gerar um SVG de um pelicano andando de bicicleta e consegui isso:

Este sentiu muito rápido. A parceria com a Cerebras para inferência é uma jogada muito inteligente.

Eles compartilham muitos detalhes sobre seu processo de treinamento na postagem:

SWE-1.5 é treinado em nosso cluster de última geração com milhares de chips GB200 NVL72. Acreditamos que o SWE-1.5 pode ser o primeiro modelo de produção pública treinado na nova geração GB200. (…)

Nossas implementações de RL exigem ambientes de alta fidelidade com execução de código e até navegação na web. Para conseguir isso, aproveitamos nosso hipervisor VM otterlink que nos permite escalar Devin para dezenas de milhares de máquinas simultâneas (saiba mais sobre diferença de bloco). Isso nos permitiu oferecer suporte a uma simultaneidade muito alta e garantir que o ambiente de treinamento estivesse alinhado com nossos ambientes de produção Devin.

Isso é outro semelhança com o Composer-1 do Cursor! Cursor falou sobre como eles executaram “centenas de milhares de ambientes de codificação em sandbox simultâneos na nuvem” em sua descrição de seu treinamento RL também.

Esta é uma tendência notável: se você deseja construir uma ferramenta de codificação de agente realmente excelente, há claramente muito a ser dito sobre o uso do aprendizado por reforço para ajustar um modelo em relação ao seu próprio conjunto personalizado de ferramentas, usando um grande número de ambientes de codificação simulados em sandbox como parte desse processo.

Sair da versão mobile