Speicher & Netzwerke
Speicher & Netzwerke: wichtigste Entwicklungen in dem Monat 2026-04
Ollama hat seine Software für Macs mit Apple-Chips aktualisiert und nutzt dabei das Machine-Learning-Framework MLX, um die Geschwindigkeit von KI-Workflows unter macOS zu verbessern.
Wichtigste Punkte
- Ollama hat seine Software für Macs mit Apple-Chips aktualisiert und nutzt dabei das Machine-Learning-Framework MLX, um die Geschwindigkeit von KI-Workflows unter macOS zu verbessern.
Chronologie / Entwicklungen
- 2026-04-01 · Ollama hat seine Software für Macs mit Apple-Chips aktualisiert und nutzt dabei das Machine-Learning-Framework MLX, um die Geschwindigkeit von KI-Workflows unter macOS zu
Originallinks
Alle Artikel, die in diese Summary eingeflossen sind. So können Leser jederzeit die Originalquelle öffnen.
Ollama: Schnellere KI auf Apple-Chips dank MLX im Vorschaustatus
Ollama hat seine Software für Macs mit Apple-Chips aktualisiert und nutzt dabei das Machine-Learning-Framework MLX, um die Geschwindigkeit von KI-Workflows unter macOS zu verbessern. Die Vorschauversion zielt darauf ab, lokale Assistenten und Coding-Agents wie Claude Code und OpenClaw zu beschleunigen. Durch die optimierte Nutzung der einheitlichen Speicherarchitektur der M-Chips, insbesondere der neuen GPU Neural Accelerators, werden schnellere Ergebnisse bei der Token-Verarbeitung erzielt. Interne Tests der Version 0.19 zeigen signifikante Leistungssteigerungen, insbesondere bei der Verarbeitung von Qwen3.5-35B-A3B-Modellen. Zudem ermöglicht die Unterstützung von NVIDIAs NVFP4-Format eine hohe Genauigkeit bei reduzierten Speicheranforderungen, was Ollama für Nutzer von NVIDIA-optimierten Modellen besonders attraktiv macht. Die Vorschau konzentriert sich vorerst auf Coding-Aufgaben und erfordert einen Mac mit mehr als 32 GB gemeinsamem Speicher für optimale Leistung.