Retrospectiva
Probé LLM locales en una Mac Studio: para personas y equipos pequeños brillan más como workers lentos pero potentes
Al pasar de dos 3090 Ti a una M3 Ultra, resumo cómo personas y equipos pequeños pueden aprovechar LLM locales lentos como workers potentes en flujos basados en colas.
4 feb 202610 min de lectura