xingqing 发表于 2024-6-22 12:00:07

【AI新闻速递】Kimi 开放平台将启动 Contex

【AI新闻速递】Kimi 开放平台将启动 Context Caching上下文缓存内测月之暗面官宣 Kimi 开放平台 Context Caching 功能将启动内测,届时将支持长文本大模型,可实现上下文缓存功能。据介绍,Context Caching(上下文缓存)是由 Kimi 开放平台提供的一项高级功能,可通过缓存重复的 Tokens 内容,
非会员试读20%,加入社区后可阅读全文
页: [1]
查看完整版本: 【AI新闻速递】Kimi 开放平台将启动 Contex