在 Kubernetes 中管理 GPU 资源,长期以来存在一个"盲区"。你知道 GPU 在被使用,但要回答"哪个节点还有空闲?"、"这个工作负载是否真的在用分配到的 GPU?"、"集群整体 GPU 利用率趋势如何?"这些问题,往往需要在 kubectl get、Prometheus PromQL 和日志输出之间反复切换。
今天,HAMi 社区正式推出 HAMi WebUI —— 一款将整个 GPU 集群呈现在单一可视化界面中的开源 GPU 监控仪表盘。
HAMi WebUI v1.1.0 现已作为首个正式主要版本发布,邀请你试用。
与 HAMi 核心调度器配合,WebUI 实现了完整的闭环:从 GPU 调度到可视化可观测性。
刚刚结束的 KubeCon + CloudNativeCon Europe 2026,释放出一个越来越明确的行业信号:
云原生正在快速从“应用运行平台”演进为 AI 基础设施的运行底座。
在阿姆斯特丹,围绕 Kubernetes、GPU、推理服务、Agentic AI 和异构算力调度的讨论,已经不再停留在概念层面,而是进入到更具体的工程实践、社区协作与基础设施范式演进阶段。
刚刚过去的 KCD Beijing 2026,是近年来规模最大的一次 Kubernetes 社区大会之一。
超过 1000 人报名参与,刷新历届 KCD 北京记录。
HAMi 社区不仅受邀进行了技术分享,也在现场设立了展台,与来自云原生与 AI 基础设施领域的开发者、企业用户进行了深入交流。
本次分享主题为:
从 Device Plugin 到 DRA:GPU 调度范式升级与 HAMi-DRA 实践
本文结合现场分享内容与 PPT,做一次更完整的技术回顾。附幻灯片下载:GitHub - HAMi-DRA KCD Beijing 2026。
下周,HAMi 将在 KubeCon + CloudNativeCon Europe 2026 的多项活动中亮相,包括 Project Pavilion 展台、技术分享、主舞台 Demo,以及会后 AI 相关活动。
作为 CNCF Sandbox 项目,HAMi 关注的 GPU 虚拟化、共享与调度问题,正在与 Kubernetes 生态中的 AI 基础设施议题发生越来越直接的交汇。KubeCon + CloudNativeCon Europe 2026 将于 3 月 23 日至 26 日在阿姆斯特丹举行,其中 3 月 23 日为 pre-event programming,3 月 24 日至 26 日为主会期。