Updated LLM配置 (markdown)

LXW
2023-09-22 22:34:01 +08:00
parent 892ac3c54d
commit cc9ddbe201

@@ -19,4 +19,4 @@
- GPT3.5、GPT3.5-16k 均能基本满足要求但会有输出结果不稳定的情况GPT3.5的token长度限制为4k在现有CoT策略下容易出现超过长度限制的情况。 - GPT3.5、GPT3.5-16k 均能基本满足要求但会有输出结果不稳定的情况GPT3.5的token长度限制为4k在现有CoT策略下容易出现超过长度限制的情况。
- GPT4的输出更稳定但费用成本远超GPT3.5,可以根据实际使用场景进行选择。 - GPT4的输出更稳定但费用成本远超GPT3.5,可以根据实际使用场景进行选择。
3. Embedding模型用其他的可以吗 3. Embedding模型用其他的可以吗
- 可以。可以以该项目[text2vec]([URL](https://github.com/shibing624/text2vec))的榜单作为参考然后在HuggingFace找到对应模型的model card修改HF_TEXT2VEC_MODEL_NAME变量的取值。 - 可以。可以以该项目[text2vec](https://github.com/shibing624/text2vec)的榜单作为参考然后在HuggingFace找到对应模型的model card修改HF_TEXT2VEC_MODEL_NAME变量的取值。