
在Kubernetes中,平台容器申请资源有request和limit概念来描述资源请求的资源最小值和最大值。
requests值在容器调度时会结合节点的运营资源容量(capacity)进行匹配选择节点 。limits表示容器在节点运行时可以使用的实践资源上限 ,当尝试超用资源时,容器CPU会被约束(throttled) ,平台内存会终止(oom-kill) 。资源总体而言,运营在调度的实践时候requests比较重要,在运行时limits比较重要。容器在实际使用时,平台容器资源规格 request 和 limit 的模板下载资源设置规格也一直都让Kubernetes的用户饱受困扰 :
对业务运维人员:希望预留相当数量的资源冗余来应对上下游链路的负载波动 ,保障线上应用的运营稳定性 。对平台人员:集群的实践资源装箱率高,节点利用率低 ,存在大量的空闲资源无法调度,造成算力浪费。vivo容器平台基于Kubernetes技术对内部业务提供容器服务 。内部业务统一在CICD平台部署和管理容器资源,容器平台自研的源码库caas-openapi组件提供restful接口与CICD交互 。
平台通过标签,从资源维度逻辑上可以分为测试池、共享池 、专有池、混部池。
测试池:为业务部署容器测试 ,一般非现网业务,为业务测试提供便利 。共享池 :为业务不感知物理机,类似公有云全托管容器服务 。专有池:为业务独享物理机 ,类似公有云半托管容器服务,业务方独占资源 ,容器平台维护 。混部池:为业务独享物理机,高防服务器在专有池基础上 ,混部离线业务,缓解离线资源缺口,提升整机利用率 。
vivo容器平台的所有在线业务部署均要求设置request和limit,且request <= limit ,默认情况request等于limit。在共享池中,常见业务request设置会出现如下情况:
(1) 较少情况,业务设置较低的 request 值,而实际使用资源远大于它的 request 值,若大量pod调度一个节点,加剧节点热点问题影响同节点其他业务 。源码下载
(2)大多情况,业务按最大资源需求设置较高的 request 值 ,而实际使用资源长期远小于它的 request 值 。业务侧账单成本高(按request计费),且容器异常退出时 ,重调度时可能因为平台空闲资源碎片,导致大规格容器无法调度 。这会导致,平台侧可调度资源少 ,但平台整体节点资源利用率偏低。
对平台和用户方 ,request值设置合理很重要 ,但平台无法直接判断用户设置request值合理性 ,所以无法首次部署时硬限制。免费模板
图片
2.3.1 request怎么样才是合理设置
request值接近业务实际使用量 ,例如用户申请request为2核 ,limit为4核 ,实际真实使用量最多1核 ,那么合理request值设置为1核附近。但是业务真实使用量只有运行一段时间后才能评估,属于后验知识。
2.3.2 保障资源最大使用量
不修改limit值就能保障业务最大使用量符合业务预期 。

思路:
静态超卖方案是将CICD用户申请规格的request按一定比例降低,根据平台运营经验设置不同集群不同机房不同环境的静态系数,亿华云由caas-openapi组件自动修改 。如下图 :

优点 :
首次部署时可以应用,实现简单。
缺点 :
生产环境系数设置保守,导致request依然偏大,且由于内存是不可压缩资源,实际实施时为避免业务实例内存oom-kill ,静态超卖只开启了cpu维度,未开启内存静态超卖。
3.2 动态超卖方案3.2.1 方案思路
开发caas-recommender组件,基于业务监控数据的真实资源用量来修正业务request值。
从监控组件拉取各个容器资源的真实使用量 。通过算法模型得到业务申请量的推荐值 。业务重新部署时,使用推荐值修改业务request值。3.2.2 半衰期滑动窗口模型
结合容器业务的特点 ,对推荐算法有如下要求 :
当workload负载上升时 ,结果需要快速响应变化 ,即越新的数据对算法模型的影响越大;当workload负载下降时,结果需要推迟体现,即越旧的数据对算法结果的影响越小。半衰期滑动窗口模型可以根据数据的时效性对其权重进行衰减,可以满足上述要求。
详细描述参考 :google Borg Autopilot的moving window模型,参看原论文>>
公式如下:
图片
其中 τ 为数据样本的时间点,t1/2 为半衰期,表示每经过 t1/2 时间间隔,前一个 t1/2 时间窗口内数据样本的权重就降低一半。
核心理念 :在参考时间点之前的数据点 ,离的越远权重越低 。在参考时间点之后的数据点权重越高 。
半衰期halfLife :经过时间halfLife后,权重值降低到一半 。默认的halfLife为24小时 。
数据点的时间timestamp:监控数据的时间戳。
参考时间referenceTimestamp:监控数据上的某个时间(一般是监控时间最近的零点00:00) 。
衰减系数decayFactor:2^((timestamp-referenceTimestamp)/halfLife)
cpu资源的固定权重 :CPU 使用量数据对应的固定权重是基于容器 CPU request 值确定的 。当 CPU request 增加时,对应的固定权重也随之增加,旧的样本数据固定权重将相对减少。
memory资源的固定权重:由于内存为不可压缩资源 ,而内存使用量样本对应的固定权重系数为1.0。
数据点权重 = 固定权重*衰减系数
例如现在的数据点的权重为1,那么24小时之前的监控数据点的权重为0.5,48小时前的数据点的权重为0.25 ,48小时后的数据权重为4。
3.2.3 指数直方图计算推荐值
caas-recommender每个扫描周期(默认1min)从 metrics server 或 prometheus 中获取带时间戳的样本数据 ,如 container 维度的 CPU、Memory 资源使用等。样本数据结合权重值,为每个workload构建指数直方图 ,指数直方图中每个桶的大小以指数速率逐步提升 。指数直方图的样本存储方式也便于定期checkpoint保存 ,可以显著提升程序recover性能 。如下图:
