| .. |
|
__init__.py
|
5fa2161b05
feat: server multi models support (#799)
|
hace 2 años |
|
azure_chat_open_ai.py
|
5fa2161b05
feat: server multi models support (#799)
|
hace 2 años |
|
azure_open_ai.py
|
5fa2161b05
feat: server multi models support (#799)
|
hace 2 años |
|
chat_open_ai.py
|
5fa2161b05
feat: server multi models support (#799)
|
hace 2 años |
|
fake.py
|
5fa2161b05
feat: server multi models support (#799)
|
hace 2 años |
|
huggingface_endpoint_llm.py
|
a76fde3d23
feat: optimize hf inference endpoint (#975)
|
hace 2 años |
|
open_ai.py
|
5fa2161b05
feat: server multi models support (#799)
|
hace 2 años |
|
openllm.py
|
866ee5da91
fix: openllm generate cutoff (#945)
|
hace 2 años |
|
replicate_llm.py
|
5fa2161b05
feat: server multi models support (#799)
|
hace 2 años |
|
spark.py
|
f42e7d1a61
feat: add spark v2 support (#885)
|
hace 2 años |
|
tongyi_llm.py
|
5fa2161b05
feat: server multi models support (#799)
|
hace 2 años |
|
wenxin.py
|
c4d759dfba
fix: wenxin error not raise when stream mode (#884)
|
hace 2 años |
|
xinference_llm.py
|
bd3a9b2f8d
fix: xinference-chat-stream-response (#991)
|
hace 2 años |