范式亮相KCD Beijing 2026:持续引领DRA技术演进 推动GPU调度从“可用”走向“好用”
2026年3月21日,由CNCF云原生计算基金会发起的Kubernetes Community Days(KCD)北京站与vLLM社区年度盛会vLLM2026在北京圆满落幕。本次大会由KCD Beijing社区与vLLM社区联合主办,是云原生与AI基础设施领域的深度共创盛宴。
来自AWS、阿里巴巴、华为、Red Hat、字节跳动、蚂蚁集团、月之暗面、Kong、DaoCloud等顶尖科技企业的技术专家齐聚一堂,围绕AI、vLLM与Cloud Native三大主题展开前沿分享。范式与蜜瓜智能联合带来的技术演讲《从Device Plugin到 DRA:GPU调度范式升级与HAMi DRA实践》成为Cloud Native分会场的焦点议题,系统展示了范式在Kubernetes动态资源分配(DRA)方向上的持续深耕与最新进展。
知识点预置 什么是Kubernetes? Kubernetes(简称 K8s)是当今云原生时代的事实标准,可理解为数据中心的"调度总管"。它负责将成千上万的计算任务分配到海量服务器上运行,确保资源高效利用、任务稳定执行。无论是网页服务、数据库,还是 AI 模型训练,都依赖 K8s 进行编排管理。 什么是DRA? 传统K8s调度像"固定套餐",申请GPU时只能整块分配,要么独占浪费,要么排队等待。DRA它像一位"灵活发牌手":允许将一块PU按需切分,动态分配给多个任务,实现算力与显存的精细化调度。 早在Kubernetes v1.35正式发布前,范式就已率先完成HAMi-Core与DRA的深度适配,推出GPU动态资源驱动(DRA Driver),成为国内最早将DRA推向生产实践的技术团队之一。这一成果解决了GPU虚拟化与DRA架构融合的关键难题,包括 libvgpu.so动态注入、环境变量配置、临时目录管理等,让“GPU像CPU一样灵活共享与调度”从概念走向现实。 近半年来,范式和蜜瓜智能持续迭代该技术路线。此次KCD Beijing首次公开HAMi DRA Webhook自动化机制:用户只需沿用熟悉的nvidia.com/gpu、nvidia.com/gpumem等传统资源声明,系统即可自动转换为复杂的DRA ResourceClaim配置,将“写50行YAML”简化为“写3行配置”,实现从“专家可用”到“全员易用”的跨越。 未来,范式将持续完善HAMi DRA能力:近期对齐HAMi Device Plugin的 ConfigMap配置能力;中期增强 NUMA、NVLink 等节点内拓扑感知;长期推动跨厂商异构设备属性标准化,巩固在该领域的主导地位。


