🚀 Xinference v2.2.0 更新日志
✅ 本次亮点
- 🧠 新一代大模型支持
- GLM-5
- Kimi-K2.5
- MiniMax-M2.5
- Qwen3.5
🌐 社区版更新
📦 安装方式
- pip 安装:
pip install 'xinference==2.2.0'
- Docker:拉取最新版镜像,或在容器中使用 pip 更新
🆕 新模型支持
- GLM-5
- Kimi-K2.5
- MiniMax-M2.5
- Qwen3.5
✨ 新特性
- 支持 GLM-5 与 Kimi-K2.5 在 vLLM 引擎下运行
- 更新相关模型配置
🐞 Bug 修复
- 修复
create_image_edits 多文件处理问题
- 替换 55 处裸
except,提升异常处理规范性
📚 文档更新
- 更新 v2.1.0 文档
- README 新增 Docker 拉取说明
🏢 企业版更新
- 🔧 PPU 支持增强
优化在 PPU 环境下的运行与调度能力,提升企业级部署稳定性与性能表现。
🤖 XAgent v0.1.2
- 新增 PPT 生成能力,并优化前端体验与整体稳定性。