Ollama unterstützt jetzt Hardwarebeschleunigung auf Apple M5-Chips, wenn 32 GB RAM installiert sind

Ollama unterstützt jetzt Hardwarebeschleunigung auf Apple M5-Chips, wenn 32 GB RAM installiert sind

23 software

Ollama – die App zum lokalen Ausführen von KI-Modellen ist jetzt auf M5‑Chips schneller

So sieht es aus
Neue Version: Ollama 0.19
Unterstützte Betriebssysteme: Windows, macOS, Linux
Hardwarebeschleunigung: Nur für Apple‑M5-Chips (M5 Pro, M5 Max)
Speicheranforderungen: Mindestens 32 GB Unified RAM

Was sich geändert hat
Ollama ermöglicht es Benutzern, KI-Modelle direkt auf ihrem Computer zu laden und auszuführen. Im Gegensatz zu Cloud-Diensten wie ChatGPT ist keine ständige Internetverbindung erforderlich.

Ab Version 0.19 haben die Entwickler Unterstützung für Apple MLX – das maschinelle Lernframework – sowie für Unified Memory Architecture hinzugefügt. Dadurch wird die Modellleistung auf den neuen Apple‑M5-Chips beschleunigt, die Zeit bis zum ersten Token verkürzt und die Gesamtgenerierungsgeschwindigkeit erhöht.

Wie es funktioniert
* Neuronale Beschleuniger: Ollama greift auf spezialisierte neuronale Netzblöcke innerhalb der M5-Chips zu, wodurch Tokens schneller ausgegeben werden.

* Modelle: Schnellere Ausführung sowohl für persönliche KI‑Agenten (z. B. OpenClaw) als auch für größere Systeme – OpenCode, Anthropic Claude Code, OpenAI Codex und mehr.

Beschränkungen
1. Beschleunigung ist nur auf Apple‑M5-Chips (M5 Pro/Max) verfügbar.

2. Der Computer muss mindestens 32 GB Unified RAM haben; sonst funktioniert die Beschleunigung nicht.

Daher können Sie mit einem Mac, der einen M5-Chip und ausreichenden RAM besitzt, die Leistung Ihrer lokalen KI-Anwendung Ollama deutlich steigern.

Kommentare (0)

Teile deine Meinung — bitte bleib höflich und beim Thema.

Noch keine Kommentare. Hinterlasse einen Kommentar und teile deine Meinung!

Um einen Kommentar zu hinterlassen, melde dich bitte an.

Zum Kommentieren anmelden