Quickstart
Die Inbetriebnahme von Ollama ist sehr einfach. Auf Mac OSX geht das so.
brew install ollama
ollama serve
ollama run llama3.1
Und schon ist das LLM Llama 3.1 gestartet.
Auf anderen Betriebssystemen ist es auch nicht komplizierter: https://ollama.com/download
Open WebUI: KI-Modelle mit Benutzeroberfläche verbinden
Ein weiterer Vorteil von Ollama ist die Möglichkeit, Modelle nahtlos mit Open WebUI zu verknüpfen. Dadurch kannst du deine KI-Modelle nicht nur lokal ausführen, sondern auch über eine intuitive Benutzeroberfläche steuern und testen. Open WebUI bietet eine benutzerfreundliche Plattform, die es Entwicklern und Nutzern erleichtert, Modelle zu konfigurieren, Eingaben zu testen und Ergebnisse in Echtzeit zu visualisieren – alles ohne komplizierten Code. Diese Kombination aus Ollama und Open WebUI macht den Einsatz von KI-Modellen noch zugänglicher und flexibler, sowohl für Profis als auch für Einsteiger.
Mit folgendem Befehl wird Open WebUI gestartet und ist auf Port 3000 verfügbar:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -e WEBUI_AUTH=false -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Einfache Integration mit Spring AI
Ollama ist mit der OpenAI API kompatibel und kann mühelos in Anwendungen integriert werden, die Spring AI nutzen. Mit dem Spring AI OpenAI Client kannst du direkt mit Ollama interagieren und dessen Tools verwenden. Dafür musst du lediglich die Basis-URL auf Ollama konfigurieren:
spring.ai.openai.chat.base-url=http://localhost:11434
Zusätzlich kannst du eines der von Ollama bereitgestellten Modelle auswählen, z. B.:
spring.ai.openai.chat.options.model=mistral
So kannst du die Leistung von Ollama optimal in deine Spring-Anwendungen einbinden und hast gleichzeitig die volle Kontrolle über die genutzten Modelle und deren Funktionen.
Immer noch zu kompliziert?
Mit den Infos und Links hier kannst du nicht wirklich was anfangen? Dann schaust du dir mal am besten Bubble Chat an.