Kimi 开放平台上下文缓存功能公测:降低最高 90% 的使用成本

时间:2024-07-02 11:57:45

作者:admin

来源:系统助手

  嘿,你知道吗?这个月的 2 号,有个叫做 Kimi 的系统助手开放了上下文缓存的功能,现在正在公测呢!这个功能特别适合那些经常需要请求、引用大量初始上下文的场景,可以帮你省下不少长文本模型的费用,还能加快模型的响应速度哦!据说,费用最多能降个 90%,首 Token 的延迟也能减少 83% 呢!这可是个大大的好消息啊!

  系统助手附 Kimi 开放平台上下文缓存功能公测详情如下:

      技术简介

  据介绍,上下文缓存是一种数据管理技术,允许系统预先存储会被频繁请求的大量数据或信息。当用户请求相同信息时,系统可以直接从缓存中提供,无需重新计算或从原始数据源中检索。

     适用场景

  适用业务场景如下:

  提供大量预设内容的 QA Bot,例如 Kimi API 小助手

  针对固定的文档集合的频繁查询,例如上市公司信息披露问答工具

  对静态代码库或知识库的周期性分析,例如各类 Copilot Agent

  瞬时流量巨大的爆款 AI 应用,例如哄哄模拟器,LLM Riddles

  交互规则复杂的 Agent 类应用等

  计费说明

  上下文缓存收费模式主要分为以下三个部分:

  Cache 创建费用

  调用 Cache 创建接口,成功创建 Cache 后,按照 Cache 中 Tokens 按实际量计费。24 元 / M token

  Cache 存储费用

  Cache 存活时间内,按分钟收取 Cache 存储费用。10 元 / M token / 分钟

  Cache 调用费用

  Cache 调用增量 token 的收费:按模型原价收费

  Cache 调用次数收费:Cache 存活时间内,用户通过 chat 接口请求已创建成功的 Cache,若 chat message 内容与存活中的 Cache 匹配成功,将按调用次数收取 Cache 调用费用。0.02 元 / 次

     公测时间和资格说明

  公测时间:功能上线后,公测 3 个月,公测期价格可能随时调整。

  公测资格:公测期间 Context Caching 功能优先开放给 Tier5 等级用户,其他用户范围放开时间待定。

  以上是系统助手提供的最新资讯,感谢您的阅读,更多精彩内容请关注系统助手官网

系统下载排行榜71011xp

提取码
XGZS
关闭 前往下载