Multiverse: $215M para IA Compacta e Acessível com CompactifAI
Publicado em 16 de junho de 2025
A startup espanhola Multiverse Computing assegurou um impressionante aporte de €189 milhões (~$215 milhões) em sua rodada Série B, como noticiou o TechCrunch. Este capital impulsiona sua tecnologia CompactifAI, que visa solucionar um grande desafio da IA: o alto custo e tamanho dos Modelos de Linguagem Grandes (LLMs).
Como Funciona o CompactifAI?
Inspirado na computação quântica e usando redes tensoriais (especialidade do CTO Román Orús), o CompactifAI promete comprimir LLMs em até 95% sem perda de performance. Isso significa que modelos open source como Llama e Mistral podem se tornar muito menores, mas igualmente capazes. A Multiverse já oferece versões "slim" e planeja incluir outros, como o DeepSeek R1.

Benefícios Diretos e Impacto Econômico
Os benefícios são diretos: modelos 4 a 12 vezes mais rápidos e custos de inferência 50% a 80% menores. O Llama 4 Scout Slim da Multiverse, por exemplo, custaria 10 centavos por milhão de tokens na AWS, contra 14 da versão padrão. Essa otimização não só barateia a IA, mas democratiza seu acesso, abrindo portas para novas aplicações.
A Revolução da IA de Borda e o Futuro
O mais revolucionário é poder rodar LLMs potentes em PCs, celulares, carros e até Raspberry Pi. Isso fortalece a IA de borda (edge AI), viabilizando aplicações mais ágeis, privadas e com menor consumo energético. Liderada pelo CEO Enrique Lizaso Olmos, com apoio de investidores como Bullhound Capital, e com 160 patentes e clientes como Bosch, a Multiverse está moldando uma IA mais acessível e sustentável, com potencial para transformar indústrias.
Fonte: TechCrunch