Kernel Exploring
  • 前言
  • 支持
  • 老司机带你探索内核编译系统
    • 编译出你的第一个内核
    • 内核编译中的小目标
    • 可能是kbuild中最直接的小目标 – help
    • 使用了一个kbuild函数的目标 – cscope
    • 内核中单个.o文件的编译过程
    • 根目录vmlinux的编译过程
    • 启动镜像bzImage的前世今生
    • setup.bin的诞生记
    • 真假vmlinux–由vmlinux.bin揭开的秘密
    • bzImage的全貌
    • kbuild系统浅析
  • 启动时的小秘密
    • INIT_CALLS的秘密
    • 内核参数
  • 内核加载全流程
    • bootloader如何加载bzImage
    • 内核压缩与解压
    • 内核加载的几个阶段
    • 保护模式内核代码赏析
  • 内存管理
    • 内核页表成长记
      • 未解压时的内核页表
      • 内核早期的页表
      • cleanup_highmap之后的页表
      • 映射完整物理地址
      • 启用init_level4_pgt
    • 自底而上话内存
      • e820从硬件获取内存分布
      • 原始内存分配器--memblock
      • 页分配器
        • 寻找页结构体的位置
        • 眼花的页结构体
        • Node-Zone-Page
        • 传说的伙伴系统
        • Compound Page
        • GFP的功效
        • 页分配器的用户们
      • slub分配器
        • slub的理念
        • 图解slub
      • 内存管理的不同粒度
      • 挑战和进化
        • 扩展性的设计和实现
        • 减少竞争 per_cpu_pageset
        • 海量内存
        • 延迟初始化
        • 内存热插拔
        • 连续内存分配器
    • 虚拟内存空间
      • 页表和缺页中断
      • 虚拟地址空间的管家--vma
      • 匿名反向映射的前世今生
      • 图解匿名反向映射
      • THP和mapcount之间的恩恩怨怨
      • 透明大页的玄机
      • NUMA策略
      • numa balance
      • 老版vma
    • 内存的回收再利用
      • 水线
      • Big Picture
      • 手动触发回收
      • Page Fram Reclaim Algorithm
      • swapfile原理使用和演进
    • 内存隔离
      • memcg初始化
      • 限制memcg大小
      • 对memcg记账
    • 通用
      • 常用全局变量
      • 常用转换
    • 测试
      • 功能测试
      • 性能测试
  • 中断和异常
    • 从IDT开始
    • 中断?异常?有什么区别
    • 系统调用的实现
    • 异常向量表的设置
    • 中断向量和中断函数
    • APIC
    • 时钟中断
    • 软中断
    • 中断、软中断、抢占和多处理器
  • 设备模型
    • 总线
    • 驱动
    • 设备
    • 绑定
  • nvdimm初探
    • 使用手册
    • 上帝视角
    • nvdimm_bus
    • nvdimm
    • nd_region
    • nd_namespace_X
    • nd_dax
      • dev_dax
  • KVM
    • 内存虚拟化
      • Qemu内存模型
      • KVM内存管理
  • cgroup
    • 使用cgroup控制进程cpu和内存
    • cgroup文件系统
    • cgroup层次结构
    • cgroup和进程的关联
    • cgroup数据统计
  • 同步机制
    • 内存屏障
    • RCU
  • Trace/Profie/Debug
    • ftrace的使用
    • 探秘ftrace
    • 内核热补丁的黑科技
    • eBPF初探
    • TraceEvent
    • Drgn
  • 内核中的数据结构
    • 双链表
    • 优先级队列
    • 哈希表
    • xarray
    • B树
    • Maple Tree
    • Interval Tree
  • Tools
  • Good To Read
    • 内核自带文档
    • 内存相关
    • 下载社区邮件
Powered by GitBook
On this page
  • 使用cgroup限制进程能运行的cpu
  • 新建限制cpu的cgroup
  • 将指定进程加入cgoup
  • 完整例子
  • 使用cgroup限制内存使用
  • 创建限制内存使用的cgroup
  • 将指定进程加入cgoup
  • 完整例子
  1. cgroup

使用cgroup控制进程cpu和内存

刚开始接触cgroup时,第一个任务就是用cgroup限制cpu/mem的使用。可能这也是大多数人接触到cgroup时,需要做的任务。

使用cgroup限制进程能运行的cpu

在这个例子中,我们探寻一下如何用cgroup限制进程能够在哪些cpu上调度。在云计算场景中,我们通常会用这个功能来隔离不同的用户/业务,保证对应资源的使用情况。

这个过程分为两步:

  • 创建一个限制了cpu调度的cgroup

  • 将指定进程加入到该cgroup中

新建限制cpu的cgroup

mkdir /sys/fs/cgroup/cpuset/test
echo "0-1" > /sys/fs/cgroup/cpuset/test/cpuset.cpus

这样就创建了一个cgroup,并且限制了该cgroup中的进程只能运行在0-1号cpu上。

将指定进程加入cgoup

echo $pid > /sys/fs/cgroup/cpuset/test/cgroup.procs

这么看坑你还是有点空,我们来看一个实际的例子

完整例子

mkdir /sys/fs/cgroup/cpuset/test

echo "0-1" > /sys/fs/cgroup/cpuset/test/cpuset.cpus
echo 0 > /sys/fs/cgroup/cpuset/test/cpuset.mems

# echo current shell process number to cgroup.procs
# so all child will inherit this attribute
echo $$ > /sys/fs/cgroup/cpuset/test/cgroup.procs

# stress on 4 cpus
$ stress -c 4

# while only 2 cpu is working
$ top

正常情况下,stress -c 4会使用4块cpu。但是因为将测试进程放进了cgroup,所以只有两个cpu在实际使用。

使用cgroup限制内存使用

在这个例子中,我们探寻一下如何用cgroup限制进程能够使用的内存。在云计算场景中,我们通常会用这个功能来限制用户/业务的内存,保证对应资源的使用情况,避免有恶意用户/业务抢占资源。

这个过程分为两步:

  • 创建一个限制内存使用的cgroup

  • 将指定进程加入到该cgroup中

创建限制内存使用的cgroup

mkdir /sys/fs/cgroup/memory/test

# limit 4M
echo 4M > /sys/fs/cgroup/memory/test/memory.limit_in_bytes

将指定进程加入cgoup

echo $pid > /sys/fs/cgroup/cpuset/test/cgroup.procs

这一步完全一样。。。

完整例子

以例服人

# create a cgroup with memory limitation
mkdir /sys/fs/cgroup/memory/test
# limit 4M
echo 4M > /sys/fs/cgroup/memory/test/memory.limit_in_bytes
# disable swap, otherwise it will use swap to get more "memory"
echo 0 > /sys/fs/cgroup/cpuset/rabbit/memory.swappiness

# put ourself into this cgroup
echo $$ > /sys/fs/cgroup/cpuset/rabbit/cgroup.procs

# prepare a program eats memory
cat eat_mem.c
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <unistd.h>

#define MB (1024 * 1024)

int main(int argc, char *argv[])
{
    char *p;
    int i = 0;
    while(1) {
        p = (char *)malloc(MB);
        memset(p, 0, MB);
        printf("%dM memory allocated\n", ++i);
        sleep(1);
    }

    return 0;
}

# run to trigger oom
./eat_mem

上面的例子中,有一点值得注意的是这个cgroup的swap被关掉了。否则的话,当进程内存不够,内核会将进程的内存交换到磁盘上。虽然进程的内存实际上是被限制了,但是无法触发oom观察到实验结果。

好了,希望上面两个例子能够让你亲眼看到cgroup的操作和效果。接下来我们就开始探索其中的奥秘了~

PreviouscgroupNextcgroup文件系统

Last updated 1 year ago