Generalista
Multiverse Computing – CompactifAI
Generalista
Multiverse Computing – CompactifAI
Business Case
El reto al que se enfrenta CompactifAI es la necesidad de reducir significativamente el consumo de recursos computacionales y energéticos requeridos por los LLMS. Estos modelos, suelen ser extremadamente grandes y complejos, lo que conlleva altos costos operativos y limita su uso en dispositivos con capacidades computacionales restringidas. CompactifAI busca resolver este problema mediante la implementación de tecnologías cuánticas y cuánticamente inspiradas para comprimir estos modelos sin perder eficacia, haciendo la inteligencia artificial más accesible y sostenible.
Objetivos
CompactifAI se propone revolucionar la eficiencia de los Modelos de Lenguaje Grande (LLMs) mediante la compresión avanzada de estos modelos utilizando tecnologías cuánticas y cuánticamente inspiradas. Su objetivo es reducir drásticamente el consumo de recursos y energía, disminuir los costos operativos y permitir la implementación de estos modelos en dispositivos con limitaciones computacionales, ampliando así el alcance y la accesibilidad de las soluciones impulsadas por inteligencia artificial.
Use case
Dependiendo del enfoque y la aplicación específica del modelo se podrían utilizar datasets variados
Infraestructura
Híbrida
Tecnologías utilizadas
Cuántica
Datos utilizados
Dependiendo del enfoque y la aplicación específica del modelo se podrían utilizar datasets variados
imagen
imagen
Recursos utilizados
Dificultades y aprendizaje
KPIs (impacto en el negocio y métricas del modelo)
Financiación
Colaboradores
multimedia