IAutomatize

Multiverse: $215M para IA Compacta e Acessível com CompactifAI

A startup espanhola Multiverse Computing assegurou um impressionante aporte de €189 milhões (~$215 milhões) em sua rodada Série B, como noticiou o TechCrunch. Este capital impulsiona sua tecnologia CompactifAI, que visa solucionar um grande desafio da IA: o alto custo e tamanho dos Modelos de Linguagem Grandes (LLMs).

Como Funciona o CompactifAI?

Inspirado na computação quântica e usando redes tensoriais (especialidade do CTO Román Orús), o CompactifAI promete comprimir LLMs em até 95% sem perda de performance. Isso significa que modelos open source como Llama e Mistral podem se tornar muito menores, mas igualmente capazes. A Multiverse já oferece versões "slim" e planeja incluir outros, como o DeepSeek R1.

IA Compacta e Acessível com CompactifAI

Benefícios Diretos e Impacto Econômico

Os benefícios são diretos: modelos 4 a 12 vezes mais rápidos e custos de inferência 50% a 80% menores. O Llama 4 Scout Slim da Multiverse, por exemplo, custaria 10 centavos por milhão de tokens na AWS, contra 14 da versão padrão. Essa otimização não só barateia a IA, mas democratiza seu acesso, abrindo portas para novas aplicações.

A Revolução da IA de Borda e o Futuro

O mais revolucionário é poder rodar LLMs potentes em PCs, celulares, carros e até Raspberry Pi. Isso fortalece a IA de borda (edge AI), viabilizando aplicações mais ágeis, privadas e com menor consumo energético. Liderada pelo CEO Enrique Lizaso Olmos, com apoio de investidores como Bullhound Capital, e com 160 patentes e clientes como Bosch, a Multiverse está moldando uma IA mais acessível e sustentável, com potencial para transformar indústrias.

Fonte: TechCrunch

Interessado em otimizar seus processos com IA?

Conheça nossas soluções