Ollama 0.18.0 bringt Nemotron-3-Super und schnellere KI

Ollama 0.18.0

Ollama 0.18.0 bringt Nemotron-3-Super und schnellere Cloud-Modelle

Mit Ollama 0.18.0 erhält die beliebte Plattform für lokale und cloudbasierte Large Language Models ein umfangreiches Update. Der Fokus liegt vor allem auf Performance-Verbesserungen, besserer Integration mit OpenClaw sowie neuen Möglichkeiten für automatisierte Workflows.

Besonders interessant ist die Unterstützung für das neue Nemotron-3-Super Modell von NVIDIA, das speziell für komplexe reasoning- und agent-basierte Aufgaben entwickelt wurde.

Damit stärkt Ollama 0.18.0 seine Rolle als zentrale Plattform für Entwickler, die moderne KI-Modelle lokal oder über Cloud-Infrastruktur einsetzen möchten.


Was ist Ollama?

Ollama ist eine Plattform zum Ausführen, Verwalten und Bereitstellen von Large Language Models (LLMs) auf lokalen Systemen oder über Cloud-Backends.

Die Software ermöglicht es Entwicklern und KI-Enthusiasten:

  • LLMs lokal auf GPU-Hardware zu betreiben

  • Modelle über eine einfache CLI zu starten

  • KI-Assistenten und Agent-Workflows zu integrieren

  • Modelle in automatisierte Entwicklungs- und DevOps-Pipelines einzubinden

Mit Ollama 0.18.0 erweitert das Projekt seine Fähigkeiten vor allem im Bereich Agent-Workflows und High-Performance-Modelle.


Neue Funktionen in Ollama 0.18.0

Nemotron-3-Super: Neues 122B-Parameter Modell

Ein Highlight von Ollama 0.18.0 ist die Unterstützung für Nemotron-3-Super, ein leistungsstarkes Sprachmodell von NVIDIA.

Das Modell verfügt über:

  • 122 Milliarden Parameter

  • hohe Leistung bei Agent-basierten Aufgaben

  • starke Tool-Calling-Fähigkeiten

  • sehr gute Benchmark-Ergebnisse auf PinchBench

PinchBench misst, wie erfolgreich Modelle Aufgaben in komplexen Agent-Systemen ausführen können. Hier erreicht Nemotron-3-Super aktuell Spitzenwerte unter offenen Modellen.

Das Modell kann sowohl lokal als auch über die Cloud gestartet werden:

 
ollama run nemotron-3-super:cloud
 

Ein lokaler Betrieb ist ebenfalls möglich, benötigt jedoch mindestens 96 GB VRAM.


Verbesserte OpenClaw-Integration

Ollama 0.18.0 verbessert die Zusammenarbeit mit OpenClaw, einer Plattform für agentische KI-Workflows.

Ollama kann nun direkt als:

  • Authentifizierungsanbieter

  • Modellprovider

verwendet werden.

Beispiel für die Integration:

 
openclaw onboard –auth-choice ollama
 

Damit lassen sich Modelle aus Ollama unmittelbar in OpenClaw-Workflows integrieren.


Verbesserte Performance für OpenClaw-Modelle

Ein weiteres Ziel von Ollama 0.18.0 ist die Optimierung von Cloud-Modellen.

Mit dem Modell Kimi-K2.5 wurden deutliche Performance-Verbesserungen erzielt:

  • bis zu doppelt so schnelle Ausführung

  • höhere Tool-Calling-Genauigkeit

  • stabilere Modellantworten

Startbeispiel:

 
ollama launch openclaw –model kimi-k2.5
 

Gerade bei agentischen Workflows mit vielen Tool-Calls sorgt das für deutlich effizientere Abläufe.


Schnellere Cloud-Modelle mit geringerer Latenz

Ollama verbessert auch die Performance mehrerer Cloud-Modelle:

MiniMax-M2.5

  • bis zu 10× schneller

Qwen3.5

  • bis zu 2× schnellere Antworten

Besonders wichtig ist die reduzierte Time To First Token (TTFT).
Viele Antworten erscheinen nun unter einer Sekunde.

Das ist ideal für:

  • Coding-Assistenten

  • schnelle Chat-Interaktionen

  • automatisierte Agent-Tasks


Automatisierung durch nicht-interaktive Aufgaben

Ein neues Feature in Ollama 0.18.0 ist der –yes Parameter für ollama launch.

Damit können KI-Tools ohne Benutzerinteraktion gestartet werden.

Beispiel:

 
ollama launch claude \
–model glm-5:cloud \
–yes \
„Review this pull request and summarize the feedback.“
 

Diese Funktion ermöglicht den Einsatz in:

  • CI/CD Pipelines

  • GitHub Actions

  • Automatisierten Code Reviews

  • Server-Side Agent Workflows


Cloud-Modelle ohne vorherigen Download

Eine weitere Verbesserung betrifft das Handling von Cloud-Modellen.

Bisher mussten Modelle zunächst mit ollama pull heruntergeladen werden.
Ab Ollama 0.18.0 reicht es, den Tag :cloud zu verwenden.

Beispiel:

 
ollama run nemotron-3-super:cloud
 

Das Modell wird automatisch über die Cloud bereitgestellt.

Das vereinfacht den Einstieg erheblich und spart lokalen Speicher.


Weitere Verbesserungen und Bugfixes

Neben den neuen Features enthält Ollama 0.18.0 mehrere wichtige Verbesserungen:

  • Cloud-Modelle funktionieren jetzt ohne vorherigen Download

  • Der neue –yes Parameter ermöglicht automatisierte Workflows

  • Ein Fehler wurde behoben, bei dem Reset to Defaults automatische Updates deaktivierte

  • Verbesserte Context-Compaction beim Einsatz von ollama launch claude

Diese Änderungen erhöhen sowohl Stabilität als auch Nutzerfreundlichkeit.


Fazit

Mit Ollama 0.18.0 entwickelt sich die Plattform weiter zu einer leistungsfähigen Umgebung für moderne KI-Workflows.

Die Kombination aus:

  • neuen High-Performance-Modellen

  • verbesserter OpenClaw-Integration

  • schnelleren Cloud-Antwortzeiten

  • und automatisierbaren Workflows

macht das Release besonders interessant für Entwickler, die LLM-basierte Tools und Agent-Systeme produktiv einsetzen möchten.

Vor allem Nemotron-3-Super und die Optimierungen bei Cloud-Modellen zeigen, dass Ollama zunehmend auf skalierbare KI-Infrastrukturen ausgerichtet ist.

Download von der Freeware-base.de:
https://www.freeware-base.de/freeware-zeige-details-32708-Ollama.html

Für dich vielleicht ebenfalls interessant …

Schreibe einen Kommentar