月之暗面Kimi开放平台将启动Context Caching内测
提供预设内容QA Bot、固定文档集合查询
2024-06-20
来源:IT之家
6 月 19 日消息,月之暗面官宣 Kimi 开放平台 Context Caching 功能将启动内测,届时将支持长文本大模型,可实现上下文缓存功能。
据介绍,Context Caching(上下文缓存)是由 Kimi 开放平台提供的一项高级功能,可通过缓存重复的 Tokens 内容,降低用户在请求相同内容时的成本,原理如下:
官方表示,Context Caching 可提升 API 的接口响应速度(或首字返回速度)。在规模化、重复度高的 prompt 场景,Context Caching 功能带来的收益越大。
Context Caching 适合于用频繁请求,重复引用大量初始上下文的情况,通过重用已缓存的内容,可提高效率降低费用,适用业务场景如下:
提供大量预设内容的 QA Bot,例如 Kimi API 小助手。
针对固定的文档集合的频繁查询,例如上市公司信息披露问答工具。
对静态代码库或知识库的周期性分析,例如各类 Copilot Agent。
瞬时流量巨大的爆款 AI 应用,例如哄哄模拟器,LLM Riddles。
交互规则复杂的 Agent 类应用,例如什么值得买 Kimi+ 等。
官方后续将发布 Context Caching 功能的场景最佳实践 / 计费方案 / 技术文档。
本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。