Anleitung zur Nutzung lokaler LLM mit Ollama ergänzen
Als Entwicklerin will ich die Doku um eine Anleitung zur Nutzung lokaler LLM mittels Ollama erweitern, damit Nachnutzende einen besseren Einstieg haben, um unsere Microservices mit kleinen Modellen zu testen.
Hinweise:
- Hierbei soll weder ein Repo noch ein Containerimage erzeugt werden, sondern lediglich eine Anleitung zur Verfügung gestellt werden.
- Da die Qualität der Antworten bei kleinen lokalen Modellen häufig schlecht ist, soll hierzu ein Disclaimer in der Anleitung enthalten sein.
DoD
-
Dokumentation enthält nun eine Anleitung, die erklärt welche Schritte nötig sind um unsere Microservices mit einem lokalen Sprachmodell zu testen. -
Review einer zweiten Person durchgeführt