This website requires JavaScript.
Explore
Help
Register
Sign In
kexsh
/
dify
Watch
1
Star
0
Fork
0
You've already forked dify
Code
Issues
Pull Requests
Actions
1
Packages
Projects
Releases
Wiki
Activity
Files
55c327ffcbb83fbe593dcd672d26113d524ebefe
dify
/
api
/
core
/
model_runtime
/
model_providers
History
jiangbo721
c98d91e44d
fix: o1 model error, use max_completion_tokens instead of max_tokens. (
#12037
)
...
Co-authored-by: 刘江波 <
jiangbo721@163.com
>
2024-12-25 13:29:43 +08:00
..
__base
…
anthropic
…
azure_ai_studio
…
azure_openai
…
baichuan
…
bedrock
…
chatglm
…
cohere
…
deepseek
…
fireworks
…
fishaudio
…
gitee_ai
…
google
…
gpustack
…
groq
…
huggingface_hub
…
huggingface_tei
…
hunyuan
…
jina
…
leptonai
…
localai
…
minimax
…
mistralai
…
mixedbread
…
moonshot
…
nomic
…
novita
…
nvidia
…
nvidia_nim
…
oci
…
ollama
…
openai
…
openai_api_compatible
…
openllm
…
openrouter
…
perfxcloud
…
replicate
…
sagemaker
…
siliconflow
…
spark
…
stepfun
…
tencent
…
togetherai
…
tongyi
…
triton_inference_server
…
upstage
…
vertex_ai
…
vessl_ai
…
volcengine_maas
…
voyage
…
wenxin
…
x
…
xinference
…
yi
…
zhinao
…
zhipuai
…
__init__.py
…
_position.yaml
…
model_provider_factory.py
…