Ollama unterstützt jetzt Hardwarebeschleunigung auf Apple M5-Chips, wenn 32 GB RAM installiert sind
Ollama – die App zum lokalen Ausführen von KI-Modellen ist jetzt auf M5‑Chips schneller
So sieht es aus
Neue Version: Ollama 0.19
Unterstützte Betriebssysteme: Windows, macOS, Linux
Hardwarebeschleunigung: Nur für Apple‑M5-Chips (M5 Pro, M5 Max)
Speicheranforderungen: Mindestens 32 GB Unified RAM
Was sich geändert hat
Ollama ermöglicht es Benutzern, KI-Modelle direkt auf ihrem Computer zu laden und auszuführen. Im Gegensatz zu Cloud-Diensten wie ChatGPT ist keine ständige Internetverbindung erforderlich.
Ab Version 0.19 haben die Entwickler Unterstützung für Apple MLX – das maschinelle Lernframework – sowie für Unified Memory Architecture hinzugefügt. Dadurch wird die Modellleistung auf den neuen Apple‑M5-Chips beschleunigt, die Zeit bis zum ersten Token verkürzt und die Gesamtgenerierungsgeschwindigkeit erhöht.
Wie es funktioniert
* Neuronale Beschleuniger: Ollama greift auf spezialisierte neuronale Netzblöcke innerhalb der M5-Chips zu, wodurch Tokens schneller ausgegeben werden.
* Modelle: Schnellere Ausführung sowohl für persönliche KI‑Agenten (z. B. OpenClaw) als auch für größere Systeme – OpenCode, Anthropic Claude Code, OpenAI Codex und mehr.
Beschränkungen
1. Beschleunigung ist nur auf Apple‑M5-Chips (M5 Pro/Max) verfügbar.
2. Der Computer muss mindestens 32 GB Unified RAM haben; sonst funktioniert die Beschleunigung nicht.
Daher können Sie mit einem Mac, der einen M5-Chip und ausreichenden RAM besitzt, die Leistung Ihrer lokalen KI-Anwendung Ollama deutlich steigern.
Kommentare (0)
Teile deine Meinung — bitte bleib höflich und beim Thema.
Zum Kommentieren anmelden