LLM-Endpoint überarbeiten

Als Dev möchte ich dem LLM-Endpoint einen zusätzlichen Parameter übergeben, ob auf die gecachte Liste an verfügbaren LLMs zurückgegriffen werden soll (aktuelle Implementierung) oder ob die Funktion _check_available_llms direkt ausgeführt und zurückgegeben werden soll.

Hintergrund: In der CI fährt der Chat schneller hoch als das Ollama-Mock. Bei Start des Chats sind deswegen keine Modelle verfügbar und der entsprechende Test schlägt fehl.

Im Zuge der Umstrukturierung sollen die beiden Tests test_llms_connectivity und test_llmszusammengelegt werden.

Akzeptanzkriterien

  • Endpoint angepasst
  • Test angepasst
  • Review einer zweiten Person durchgeführt
Edited by Johannes Matzenmiller
To upload designs, you'll need to enable LFS and have an admin enable hashed storage. More information