Ollama 0.18.0 bringt Nemotron-3-Super und schnellere KI
Ollama 0.18.0 bringt Nemotron-3-Super und schnellere Cloud-Modelle
Mit Ollama 0.18.0 erhält die beliebte Plattform für lokale und cloudbasierte Large Language Models ein umfangreiches Update. Der Fokus liegt vor allem auf Performance-Verbesserungen, besserer Integration mit OpenClaw sowie neuen Möglichkeiten für automatisierte Workflows.
Besonders interessant ist die Unterstützung für das neue Nemotron-3-Super Modell von NVIDIA, das speziell für komplexe reasoning- und agent-basierte Aufgaben entwickelt wurde.
Damit stärkt Ollama 0.18.0 seine Rolle als zentrale Plattform für Entwickler, die moderne KI-Modelle lokal oder über Cloud-Infrastruktur einsetzen möchten.
Was ist Ollama?
Ollama ist eine Plattform zum Ausführen, Verwalten und Bereitstellen von Large Language Models (LLMs) auf lokalen Systemen oder über Cloud-Backends.
Die Software ermöglicht es Entwicklern und KI-Enthusiasten:
-
LLMs lokal auf GPU-Hardware zu betreiben
-
Modelle über eine einfache CLI zu starten
-
KI-Assistenten und Agent-Workflows zu integrieren
-
Modelle in automatisierte Entwicklungs- und DevOps-Pipelines einzubinden
Mit Ollama 0.18.0 erweitert das Projekt seine Fähigkeiten vor allem im Bereich Agent-Workflows und High-Performance-Modelle.
Neue Funktionen in Ollama 0.18.0
Nemotron-3-Super: Neues 122B-Parameter Modell
Ein Highlight von Ollama 0.18.0 ist die Unterstützung für Nemotron-3-Super, ein leistungsstarkes Sprachmodell von NVIDIA.
Das Modell verfügt über:
-
122 Milliarden Parameter
-
hohe Leistung bei Agent-basierten Aufgaben
-
starke Tool-Calling-Fähigkeiten
-
sehr gute Benchmark-Ergebnisse auf PinchBench
PinchBench misst, wie erfolgreich Modelle Aufgaben in komplexen Agent-Systemen ausführen können. Hier erreicht Nemotron-3-Super aktuell Spitzenwerte unter offenen Modellen.
Das Modell kann sowohl lokal als auch über die Cloud gestartet werden:
Ein lokaler Betrieb ist ebenfalls möglich, benötigt jedoch mindestens 96 GB VRAM.
Verbesserte OpenClaw-Integration
Ollama 0.18.0 verbessert die Zusammenarbeit mit OpenClaw, einer Plattform für agentische KI-Workflows.
Ollama kann nun direkt als:
-
Authentifizierungsanbieter
-
Modellprovider
verwendet werden.
Beispiel für die Integration:
Damit lassen sich Modelle aus Ollama unmittelbar in OpenClaw-Workflows integrieren.
Verbesserte Performance für OpenClaw-Modelle
Ein weiteres Ziel von Ollama 0.18.0 ist die Optimierung von Cloud-Modellen.
Mit dem Modell Kimi-K2.5 wurden deutliche Performance-Verbesserungen erzielt:
-
bis zu doppelt so schnelle Ausführung
-
höhere Tool-Calling-Genauigkeit
-
stabilere Modellantworten
Startbeispiel:
Gerade bei agentischen Workflows mit vielen Tool-Calls sorgt das für deutlich effizientere Abläufe.
Schnellere Cloud-Modelle mit geringerer Latenz
Ollama verbessert auch die Performance mehrerer Cloud-Modelle:
MiniMax-M2.5
-
bis zu 10× schneller
Qwen3.5
-
bis zu 2× schnellere Antworten
Besonders wichtig ist die reduzierte Time To First Token (TTFT).
Viele Antworten erscheinen nun unter einer Sekunde.
Das ist ideal für:
-
Coding-Assistenten
-
schnelle Chat-Interaktionen
-
automatisierte Agent-Tasks
Automatisierung durch nicht-interaktive Aufgaben
Ein neues Feature in Ollama 0.18.0 ist der –yes Parameter für ollama launch.
Damit können KI-Tools ohne Benutzerinteraktion gestartet werden.
Beispiel:
–model glm-5:cloud \
–yes \
— „Review this pull request and summarize the feedback.“
Diese Funktion ermöglicht den Einsatz in:
-
CI/CD Pipelines
-
GitHub Actions
-
Automatisierten Code Reviews
-
Server-Side Agent Workflows
Cloud-Modelle ohne vorherigen Download
Eine weitere Verbesserung betrifft das Handling von Cloud-Modellen.
Bisher mussten Modelle zunächst mit ollama pull heruntergeladen werden.
Ab Ollama 0.18.0 reicht es, den Tag :cloud zu verwenden.
Beispiel:
Das Modell wird automatisch über die Cloud bereitgestellt.
Das vereinfacht den Einstieg erheblich und spart lokalen Speicher.
Weitere Verbesserungen und Bugfixes
Neben den neuen Features enthält Ollama 0.18.0 mehrere wichtige Verbesserungen:
-
Cloud-Modelle funktionieren jetzt ohne vorherigen Download
-
Der neue –yes Parameter ermöglicht automatisierte Workflows
-
Ein Fehler wurde behoben, bei dem Reset to Defaults automatische Updates deaktivierte
-
Verbesserte Context-Compaction beim Einsatz von
ollama launch claude
Diese Änderungen erhöhen sowohl Stabilität als auch Nutzerfreundlichkeit.
Fazit
Mit Ollama 0.18.0 entwickelt sich die Plattform weiter zu einer leistungsfähigen Umgebung für moderne KI-Workflows.
Die Kombination aus:
-
neuen High-Performance-Modellen
-
verbesserter OpenClaw-Integration
-
schnelleren Cloud-Antwortzeiten
-
und automatisierbaren Workflows
macht das Release besonders interessant für Entwickler, die LLM-basierte Tools und Agent-Systeme produktiv einsetzen möchten.
Vor allem Nemotron-3-Super und die Optimierungen bei Cloud-Modellen zeigen, dass Ollama zunehmend auf skalierbare KI-Infrastrukturen ausgerichtet ist.
Download von der Freeware-base.de:
https://www.freeware-base.de/freeware-zeige-details-32708-Ollama.html
