From bfa40aaafe425157d113b139c0d4e14046ab074f Mon Sep 17 00:00:00 2001 From: codescracker Date: Sun, 8 Oct 2023 19:23:07 +0800 Subject: [PATCH] =?UTF-8?q?Updated=20LLM=E9=85=8D=E7=BD=AE=20(markdown)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- LLM与text2sql配置.md | 51 ++++++++++++++++++++++++++++++++++++++++++++ LLM配置.md | 22 ------------------- 2 files changed, 51 insertions(+), 22 deletions(-) create mode 100644 LLM与text2sql配置.md delete mode 100644 LLM配置.md diff --git a/LLM与text2sql配置.md b/LLM与text2sql配置.md new file mode 100644 index 0000000..851b6e9 --- /dev/null +++ b/LLM与text2sql配置.md @@ -0,0 +1,51 @@ +### **LLM作用简介** +语言模型的使用是超音数的重要一环。能显著增强对用户的问题的理解能力,是通过对话形式与用户交互的基石之一。在本项目中对语言模型能力的应用主要在 LLM 和 Embedding 两方面;默认使用的模型中,LLM选用闭源模型 gpt-3.5-turbo-16k,Embedding模型选用开源模型 GanymedeNil/text2vec-large-chinese。用户可以根据自己实际需求进行配置更改。 + +**配置方式** +
+ +

图1-1 配置文件

+
+ +#### LLM模型的配置 +1. LLM模型相关的配置,在 supersonic/chat/core/src/main/python/config/run_config.ini 进行配置。 +2. LLM默认采用OpenAI的闭源模型 gpt-3.5-turbo-16k,用户可以根据自己的实际需要选择LLM模型的提供方,例如Azure、文心一言等。通过[LLMProvider]下的LLM_PROVIDER_NAME 变量进行配置。需要注意的是,现阶段支持配置的模型提供方必须能够被langchain所支持,提供方的名字可以在langchain文档中查询。 +3. LLM的相关变量在[LLMModel]下进行配置,例如openAI的模型,需要提供 MODEL_NAME、OPENAI_API_KEY、TEMPERATURE 等参数配置。不同的LLM提供方需要的配置各不相同,用户可以根据实际情况配置相关变量。 + +#### Embedding模型配置 +1. Embedding模型默认采用开源模型 GanymedeNil/text2vec-large-chinese。用户可以根据实际需要配置适合的Embedding模型;通过[Text2Vec]下 HF_TEXT2VEC_MODEL_NAME 变量进行配置,为了使用方便采用托管在HuggingFace的源,初次启动时自动下载模型文件。 + +#### LLM与embedding配置 FAQ +1. 可以用开源的LLM模型替代OpenAI的GPT模型吗? + - 暂时不能。我们测试过大部分主流的开源LLM,在实际使用中,在本项目需要LLM提供的逻辑推理和代码生成场景上,开源模型还不能满足需求。 + - 我们会持续跟进开源LLM的最新进展,在有满足要求的开源LLM后,在项目中集成私有化部署开源LLM的能力。 +2. 可以用国产的闭源模型替代OpenAI的GPT模型吗? + - 据部分用户反馈,在他们的场景下文心一言、混元等国产闭源模型的效果与GPT3.5差距不大;整体而言GPT3.5及GPT4适用的场景会更广泛一些。用户可以在自己的场景下修改LLM的相应配置,试一试实际效果。 +3. GPT4、GPT3.5、GPT3.5-16k 这几个模型用哪个比较好? + - GPT3.5、GPT3.5-16k 均能基本满足要求,但会有输出结果不稳定的情况;GPT3.5的token长度限制为4k,在现有CoT策略下,容易出现超过长度限制的情况。 + - GPT4的输出更稳定,但费用成本远超GPT3.5,可以根据实际使用场景进行选择。 +4. Embedding模型用其他的可以吗? + - 可以。可以以该项目[text2vec](https://github.com/shibing624/text2vec)的榜单作为参考,然后在HuggingFace找到对应模型的model card,修改HF_TEXT2VEC_MODEL_NAME变量的取值。 + +### **LLM在text2sql中的应用** +text2sql的功能实现,高度依赖对LLM的应用。通过LLM生成SQL的过程中,利用小样本(few-shots-examples)通过思维链(chain-of-thoughts)的方式对LLM in-context-learning的能力进行引导,对于生成较为稳定且符合下游语法解析规则的SQL非常重要。用户可以根据自身需要,对样本池及样本的数量进行配置,使其更加符合自身业务特点。 + +#### text2sql配置方式 +1. 样本池的配置。 + - supersonic/chat/core/src/main/python/few_shot_example/sql_exampler.py 为样本池配置文件。用户可以以已有的样本作为参考,配置更贴近自身业务需求的样本,用于更好的引导LLM生成SQL。 +2. 样本数量的配置。 + - 在 supersonic/chat/core/src/main/python/config/run_config.ini 中通过 TEXT2DSL_FEW_SHOTS_EXAMPLE_NUM 变量进行配置。 + - 默认值为15,为项目在内部实践后较优的经验值。样本少太少,对导致LLM在生成SQL的过程中缺少引导和示范,生成的SQL会更不稳定;样本太多,会增加生成SQL需要的时间和LLM的token消耗(或超过LLM的token上限)。 +3. SQL生成方式的配置 + - 在 supersonic/chat/core/src/main/python/config/run_config.ini 中通过 TEXT2DSL_IS_SHORTCUT 变量进行配置。 + - 默认值为False;当为False时,会调用2次LLM生成SQL;当为True时,会只调用1次LLM生成SQL。相较于2次LLM调用生成的SQL,耗时会减少30-40%,token的消耗量会减少30%左右,但生成的SQL正确率会有所下降。 + +#### text2sql运行中更新配置的脚本 +1. 如果在启动项目后,用户需要对text2sql功能的相关配置进行调试,可以在修改相关配置文件后,通过以下2种方式让配置在项目运行中让配置生效。 + - 执行 supersonic-daemon.sh reload llmparser + - 执行 python examples_reload_run.py + +#### text2sql FAQ +1. 生成一个SQL需要消耗的的LLM token数量太多了,按照openAI对token的收费标准,生成一个SQL太贵了,可以少用一些token吗? + - 可以。 用户可以根据自身需求,如配置方式1.中所示,修改样本池中的样本,选用一些更加简短的样本。如配置方式2.中所示,减少使用的样本数量。配置方式3.中所示,只调用1次LLM生成SQL。 + - 需要注意,样本和样本数量的选择对生成SQL的质量有很大的影响。过于激进的降低输入的token数量可能会降低生成SQL的质量。需要用户根据自身业务特点实测后进行平衡。 diff --git a/LLM配置.md b/LLM配置.md deleted file mode 100644 index c986b7c..0000000 --- a/LLM配置.md +++ /dev/null @@ -1,22 +0,0 @@ -语言模型的使用是超音数的重要一环。能显著增强对用户的问题的理解能力,是通过对话形式与用户交互的基石之一。在本项目中对语言模型能力的应用主要在 LLM 和 Embedding 两方面;默认使用的模型中,LLM选用闭源模型 gpt-3.5-turbo-16k,Embedding模型选用开源模型 GanymedeNil/text2vec-large-chinese。用户可以根据自己实际需求进行配置更改。 - - -**配置方式** -
- -

图1-1 NPL配置文件

-
- -1. LLM模型相关的配置,在 supersonic/chat/core/src/main/python/llm/run_config.py 进行配置。 -2. LLM采用OpenAI的闭源模型 gpt-3.5-turbo-16k,在使用时需要提供OpenAI的API-Key才能调用LLM模型,通过 OPENAI_API_KEY 变量进行配置。 -3. Embedding模型采用开源模型 GanymedeNil/text2vec-large-chinese,通过 HF_TEXT2VEC_MODEL_NAME 变量进行位置,为了使用方便采用托管在HuggingFace的源,初次启动时自动下载模型文件。 - -**FAQ** -1. 可以用开源的LLM模型替代OpenAI的GPT模型吗? - - 暂时不能。我们测试过大部分主流的开源LLM,在实际使用中,在本项目需要LLM提供的逻辑推理和代码生成场景上,开源模型还不能满足需求。 - - 我们会持续跟进开源LLM的最新进展,在有满足要求的开源LLM后,在项目中集成私有化部署开源LLM的能力。 -2. GPT4、GPT3.5、GPT3.5-16k 这几个模型用哪个比较好? - - GPT3.5、GPT3.5-16k 均能基本满足要求,但会有输出结果不稳定的情况;GPT3.5的token长度限制为4k,在现有CoT策略下,容易出现超过长度限制的情况。 - - GPT4的输出更稳定,但费用成本远超GPT3.5,可以根据实际使用场景进行选择。 -3. Embedding模型用其他的可以吗? - - 可以。可以以该项目[text2vec](https://github.com/shibing624/text2vec)的榜单作为参考,然后在HuggingFace找到对应模型的model card,修改HF_TEXT2VEC_MODEL_NAME变量的取值。 \ No newline at end of file