LLM-Endpoint überarbeiten
Als Dev möchte ich dem LLM-Endpoint einen zusätzlichen Parameter übergeben, ob auf die gecachte Liste an verfügbaren LLMs zurückgegriffen werden soll (aktuelle Implementierung) oder ob die Funktion _check_available_llms direkt ausgeführt und zurückgegeben werden soll.
Hintergrund: In der CI fährt der Chat schneller hoch als das Ollama-Mock. Bei Start des Chats sind deswegen keine Modelle verfügbar und der entsprechende Test schlägt fehl.
Im Zuge der Umstrukturierung sollen die beiden Tests test_llms_connectivity und test_llmszusammengelegt werden.
Akzeptanzkriterien
-
Endpoint angepasst -
Test angepasst -
Review einer zweiten Person durchgeführt
Edited by Johannes Matzenmiller