AI 助手
模型供应商中介绍了 AI 助手支持的模型供应商,本文档主要介绍 AI 助手系统级配置项。
模型通用配置
下列配置项为 AI 助手系统级配置,不区分模型供应商。
LLM_ANALYZE_RAW_DATA
在页面配置中是 允许模型分析原始数据
。作用是设置 AI 助手是否分析原始输入数据。若您的数据比较敏感,可以关掉此配置。
LLM_ANALYZE_RAW_DATA_LIMIT
在页面配置中是 允许分析的原始数据数量(行)
。作用是设置分析原始数据的数量限制。依据模型供应商的处理能力、tokens 限制量、具体需求来设置。
LLM_ENABLE_SEED
在页面配置中是 使用 seed 参数
。作用是控制是否在生成回复时启用随机种子,以带来结果的多样性。
LLM_API_SEED
在页面配置中是 seed 参数
。作用是在生成回复时使用的随机种子数字。配合LLM_ENABLE_SEED
使用,可由用户随机指定或保持默认。
LLM_SUGGEST_QUESTION_LOCALLY
在页面配置中是 不使用模型生成推荐问题
。作用是指定是否在生成推荐问题时使用大模型。
- true 本地规则生成
- false 大模型生成
LLM_SELECT_ALL_FIELDS_THRESHOLD
在页面配置中是 允许模型分析元信息 (阈值)
。作用是此参数设置选择所有字段的阈值。LLM_SELECT_FIELDS_SHORTCUT
为 true 此参数才有作用,酌情设定。
LLM_SELECT_FIELDS_SHORTCUT
此参数设置是否在字段比较少的时候不挑选字段,直接选择所有字段参与生成 HQL。配合LLM_SELECT_ALL_FIELDS_THRESHOLD
使用,依据具体操作场景确定此配置。一般不需要设置为 true。对速度特别敏感或者想省掉字段选择步骤时可以关掉此配置。但是不选择字段会影响最终数据查询的正确性。
LLM_API_SLEEP_INTERVAL
在页面配置中是 API 调用间隔 (秒)
。作用是设定 API 请求之间的休眠间隔,以秒为单位。根据请求频率需求设定。对于需要限制频率的大模型 API 可以考虑设置。
HISTORY_LIMIT
在页面配置中是 连续对话上下文条数
。作用是与大模型交互时携带的历史对话条目数量。
LLM_ENABLE_DRIVER
在页面配置中是 使用模型推理意图
。作用是是否开启 AI 判断禁用问题,并根据上下文优化问题功能。上下文范围由HISTORY_LIMIT
确定。一般需要上下文引用和有禁用问题需求才需要开启。
MAX_ITERATIONS
在页面配置中是 模型推理迭代上限
。作用是最大迭代次数,用于控制处理大模型失败循环的次数。
LLM_API_REQUIRE_JSON_RESP
确定 API 响应格式是否必须为 JSON,该配置项只有 OpenAI 支持,一般情况不需要改这个配置。
LLM_HQL_USE_MULTI_STEPS
是否通过多个步骤来优化趋势,同环比类型的问题的指令遵循程度,酌情设定,多个步骤会相对慢一些。
VECTOR_SEARCH_FIELD_VALUE_NUM_LIMIT
分词搜索数据集字段 distinct value 个数的上限,distinct value 匹配过多的部分将不会提取,酌情设定。
CHAT_BEGIN_WITH_SUGGEST_QUESTION
在去分析跳转后,是否会给用户提供几个推荐问题。根据需要开启。
CHAT_END_WITH_SUGGEST_QUESTION
每个问题回合回答后,是否会给用户提供几个推荐问题。根据需要开启。关闭可以节省一部分时间。
向量库配置
ENABLE_VECTOR
启用向量搜索功能。AI助手通过大模型 API 来挑选跟问题最相关的例子。开启向量搜索后,AI助手会综合大模型 API 和向量搜索的结果。
VECTOR_MODEL
向量化模型,基于是否需要向量搜索能力来设置。需要跟VECTOR_ENDPOINT
配合使用。系统自带的向量服务上已经包含的模型是intfloat/multilingual-e5-base
。这个模型不需要下载。如果需要其他模型,目前支持选择在huggingface上面的向量模型。需要注意的是,向量服务必须能够保证可以连通huggingface官网,不然模型下载会失败。
VECTOR_ENDPOINT
向量化 API 地址,基于是否需要向量搜索能力来设置。安装好向量数据库相关服务后,默认指向自带的向量服务。
VECTOR_SEARCH_RELATIVE_FUNCTIONS
是否搜索问题相关的函数说明。开启后会搜索问题相关的函数说明,相应的,提示词会变大。这个开关只有在ENABLE_VECTOR
开启的情况下才生效。
向量库详细配置见: AI 配置
控制台
在控制台中,我们公开展示了衡石 ChatBI 的工作流,每个节点都是可编辑的提示词。同时,还可以直接在此页面与 AI 助手进行对话,方便进行故障排查。
提升
编辑提示词需要你对大模型有一定的了解,建议由系统管理员进行操作。
UserSystem Prompt 用户系统提示词
大模型具备绝大多数的通识知识,但对于特定业务、行业黑话、私域知识等,需要通过提示词来提升大模型的理解能力。
举例来说,在电商领域,“大促”、“爆款”等词汇,对大模型来说,可能不具备明确的含义,通过提示词,可以提升大模型对这些词汇的理解能力。
大模型通常认为“大促”通常指的是在某个特定时间段内,商家或平台进行的规模较大的促销活动。这类活动通常集中在购物节、节假日或特定主题日,例如“双十一”、“618”等。
若你希望大模型能够准确理解“大促”的含义,可以在提示词中明确说明大促是指双十一等。
Conclusion Prompt 回答总结提示词
在 AI 助手根据用户问题查询到数据后,会让大模型依据此提示词,对查询结果进行总结来回答问题。
系统默认的总结提示词是较为基础的,你可以根据业务需求,修改为更贴合实际场景的总结提示词,具体与你公司业务密切相关。
SuggestQuestions Prompt 推荐问题提示词
系统默认的推荐问题提示词是较为基础的,你可以根据业务需求,修改为更贴合实际场景的问题推荐逻辑提示词,具体与你公司业务密切相关。