Ollama tester MLX på Apple Silicon: Hurtigere lokal AI – uden at tænde blæseren
Ollama har lanceret en preview, hvor lokal LLM-kørsel på Apple Silicon kan bruge Apples MLX-framework. Det kan give mere effektiv udnyttelse af Mac’ens unified memory og bedre performance/strømforbrug—men som preview kan kompatibilitet og fart variere.