.. |
__init__.py
|
5fa2161b05
feat: server multi models support (#799)
|
hace 2 años |
anthropic_model.py
|
2eba98a465
feat: optimize anthropic connection pool (#1066)
|
hace 2 años |
azure_openai_model.py
|
cbf095465c
feat: remove llm client use (#1316)
|
hace 2 años |
baichuan_model.py
|
8480b0197b
fix: prompt for baichuan text generation models (#1299)
|
hace 2 años |
base.py
|
42a5b3ec17
feat: advanced prompt backend (#1301)
|
hace 2 años |
chatglm_model.py
|
0796791de5
feat: hf inference endpoint stream support (#1028)
|
hace 2 años |
huggingface_hub_model.py
|
c4d8bdc3db
fix: hf hosted inference check (#1128)
|
hace 2 años |
localai_model.py
|
417c19577a
feat: add LocalAI local embedding model support (#1021)
|
hace 2 años |
minimax_model.py
|
2851a9f04e
feat: optimize minimax llm call (#1312)
|
hace 2 años |
openai_model.py
|
9822f687f7
fix: max tokens of OpenAI gpt-3.5-turbo-instruct to 4097 (#1338)
|
hace 2 años |
openllm_model.py
|
0796791de5
feat: hf inference endpoint stream support (#1028)
|
hace 2 años |
replicate_model.py
|
0796791de5
feat: hf inference endpoint stream support (#1028)
|
hace 2 años |
spark_model.py
|
0796791de5
feat: hf inference endpoint stream support (#1028)
|
hace 2 años |
tongyi_model.py
|
c536f85b2e
fix: compatibility issues with the tongyi model. (#1310)
|
hace 2 años |
wenxin_model.py
|
7c9b585a47
feat: support weixin ernie-bot-4 and chat mode (#1375)
|
hace 2 años |
xinference_model.py
|
0796791de5
feat: hf inference endpoint stream support (#1028)
|
hace 2 años |
zhipuai_model.py
|
52ebffa857
fix: app config zhipu chatglm_std model, but it still use chatglm_lit… (#1377)
|
hace 2 años |