Nefhis 🇪🇺🇪🇸
banner
nefhis.bsky.social
Nefhis 🇪🇺🇪🇸
@nefhis.bsky.social
140 followers 1.2K following 230 posts
Mistral AI Ambassador - Advocating for ethical and transparent AI. Sharing information and insights on artificial intelligence. English/Español.
Posts Media Videos Starter Packs
Let’s Talk: MISTRAL AI Community Questions & Feedback

As part of the Mistral Ambassadors program, I’m opening this thread to gather community feedback, questions and suggestions directly from all of you.

Questions and suggestions here:

www.reddit.com/r/MistralAI/...
Mistral has just released its new public documentation site, with a fresh layout, clean structure and more detailed info about models, endpoints, agents, and platform features.

The docs are finally reaching the level of polish that the platform deserves.

You can check it out here: docs.mistral.ai
Mistral AI Documentation
Learn how to deploy and use Mistral AI's Large Language Models with our comprehensive documentation, guides, and tutorials.
docs.mistral.ai
Al final dependerá mucho de tu equipo y el caso de uso. Ciertamente Gemma ofrece un contexto mucho más largo, pero a coste de uso de recursos menos eficiente. No obstante, merece la pena probar ambos para comparar.
Conforme el contexto acumulado crece (limitado a 30k en ambos) Mistral mantiene su velocidad, pero Gemma se hace notablemente más lento y el consumo de recursos en el ordenador crece notablemente más (un 40% más que Mistral aprox.) 🧵
Y ahora vienen otras consideraciones que no puedo medir. Mistral es más serio y conciso. Gemma más hablador y “gracioso”.
En el RAG que tengo montado, Mistral es bastante más rápido que Gemma y más preciso. Y, esto a continuación es importante 🧵
Multilingual. Solo lo he probado en español aparte de inglés. Mistral no comete fallos notables. Gemma 3 tiene algunos problemas con el español, pero muchos menos que, por ejemplo, llama 3.3. 🧵
Velocidad de inferencia. Ambos en local mediante Ollam y en el mismo ordenador(el anterior) y mismo prompt.
Mistral: 20 tokens por segundo.
Gemma 3: 24 tokens por segundo. 🧵
Mistral tiene 32k de contexto y Gemma 128k. Personalmente prefiero 128k, pero para uso local un contexto tan grande satura la memoria a no ser que tengas un pepino de ordenador (en mi caso un MacBook Pro M4 Max con 128 de memoria unificada y aún sufre cuando pasa de 50k tokens) Para gustos. 🧵
He tenido la oportunidad de probar Gemma 3 de Google en su versión 27b. Voy a compararlo, desde un punto de vista de usuario, con Mistral Small 3 24b por ser de tamaño aproximado. 🧵
💡 AI just hit luxury status. OpenAI’s latest drop isn’t just smart—it’s exclusive. Is this the future of work or just a VIP club for tech giants?

Get the scoop: https://resalelikenew.com/openais-20k-ai-agents-the-future-of-work-or-just-an-elite-tech-club/ 🔥 #AI #NextLevelTech