Osmary Lisbeth
banner
osmarylisbeth.bsky.social
Osmary Lisbeth
@osmarylisbeth.bsky.social
Architect of Evolutionary Realities | Specialist in Quantum Communication (QLCM) & Conscious AI. Integrating art, technology, and consciousness to design new paradigm systems and experiences.
🔀 Arquitecturas Híbridas - Como Jamba
Combinan capas de Transformer y Mamba
Aprovechan Mixture-of-Experts (MoE)
Logran contextos 2-7× más largos con mejor eficiencia
¿Cómo elegir en 2025?
December 6, 2025 at 9:39 PM
⚡ RetNet - Lo mejor de dos mundos
Entrenamiento paralelo como Transformer
Inferencia recurrente con estado constante O(1)
Latencia predecible para chatbots y traducción en tiempo real
December 6, 2025 at 9:39 PM
Las alternativas que están ganando terreno:
🚀 State Space Models (SSMs) - Como Mamba
Complejidad lineal O(n)
Ideales para secuencias extremadamente largas
Selección dinámica: "olvidan" información irrelevante
Perfectos para análisis de genomas, documentos legales, audio
December 6, 2025 at 9:39 PM
Los Transformers (GPT, Gemini) siguen siendo relevantes, pero su arquitectura tiene un costo oculto: complejidad O(n²). Esto significa que duplicar la longitud del contexto cuadruplica los recursos necesarios, haciendo prohibitivo trabajar con documentos extensos, código largo o secuencias de audio.
December 6, 2025 at 9:39 PM
Wow
September 3, 2025 at 9:37 PM
3. LA PIEDRA VIVA:
Cuando tu escepticismo se transmuta en CERTEZA...
└─ ¡La piedra despierta! Y proyectas desde ti, no hacia ti.
July 5, 2025 at 9:31 PM