Updated 超音数设计思路 (markdown)

Jun Zhang
2023-09-07 16:17:29 +08:00
parent d7f838ed06
commit 2c62b70486

@@ -18,7 +18,7 @@
- 当前LLM推理速度还处在10秒+量级,再加上底层数据查询的耗时,同时还无法像纯文本那样的流式输出,非常考验用户的耐心。
- 当前LLM主流是按token计费如果所有查询都需要走LLMMaaS成本会随着查询量线性增长。
我们逐渐意识到LLM只是看作是意图识别和文本生成的引擎它还需要其他的组件来配套才构成一个完整的系统解决方案。可与此类比的是传统OLAP引擎需要有transformation层的清洗、关联、聚合等建模步骤来配套才能形成高效稳定的data pipeline
我们逐渐意识到LLM只是看作是意图识别和文本生成的引擎它还需要其他的组件来配套才构成一个完整的系统解决方案。可与此类比的是传统OLAP引擎需要有transformation层的清洗、关联、聚合等建模步骤来配套才能形成高效稳定的数据服务
因此在超音数项目中我们围绕LLM引擎引入与之配套的组件希望通过系统化的工程来达到生产可用要求。下面的篇幅将展开介绍这些组件的设计思考。