百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分析 > 正文

Linux内核之内存管理完全剖析

liebian365 2024-11-27 17:08 2 浏览 0 评论

linux虚拟内存管理功能

? 大地址空间;
? 进程保护;
? 内存映射;
? 公平的物理内存分配;
? 共享虚拟内存。
实现结构剖析


(1)内存映射模块(mmap):负责把磁盘文件的逻辑地址映射到虚拟地址,以及把虚拟地址映射到物理地址

(2)交换模块(swap)负责控制内存内容的换入与换出,淘汰最近没访问的页,保留最近访问的页.

(3)core(核心内存管理模块):负责内存管理功能.

(4)结构特定模块:实现虚拟内存的物理基础

视频推荐:

【Linux内核内存管理专题训练营】火热开营!!

最新Linux内核技术详解丨独家Linux内核内存管理干货分享

Linux内核内存管理专题训练营-学习视频教程-腾讯课堂

两天持续技术输出:

--------------------

第一天:

1.物理内存映射及空间划分

2.ARM32/64页表的映射过程

3.分配物理页面及Slab分配器

4.实战:VMA查找/插入/合并

--------------------

第二天:

5.实战:mallocap系统调用实现

6.缺页中断处理/反向映射

7.回收页面/匿名页面生命周期

8.KSM实现/Dirty COW内存漏洞


内核空间和用户空间

Linux简化了分段机制,使得虚拟地址跟线性地址一样.Linux将虚拟地址空间(4G)分为最高1G部分内核使用(所有进程共享).最低3G给进程使用

内核占据了虚拟空间的最高1G直接,但映射到地址为0开始,是很简单的线性映射.PAGE_OFFSET为0xc0000000(物理地址与线性地址之间的位移量)

include/asm/i386/page.h 中对内核空间中地址映射的说明及定义

/*
* This handles the memory map.. We could make this a config
* option, but too many people screw it up, and too few need
* it.
*
* A __PAGE_OFFSET of 0xC0000000 means that the kernel has
* a virtual address space of one gigabyte, which limits the
* amount of physical memory you can use to about 950MB.
*
* If you want more physical memory than this then see the CONFIG_HIGHMEM4G
* and CONFIG_HIGHMEM64G options in the kernel configuration.
*/
#define __PAGE_OFFSET (0xC0000000)
……
#define PAGE_OFFSET ((unsigned long)__PAGE_OFFSET)
#define __pa(x) ((unsigned long)(x)-PAGE_OFFSET)
#define __va(x) ((void *)((unsigned long)(x)+PAGE_OFFSET))

代码注释说明:如果你的物理内存大于950MB,那么在编译内核时就需要加

CONFIG_HIGHMEM4G 和 CONFIG_HIGHMEM64G 选项,这种情况我们暂不考虑。如果物理内存小于
950MB,则对于内核空间而言,给定一个虚地址 x,其物理地址为“x- PAGE_OFFSET”,给定
一个物理地址 x,其虚地址为“x+ PAGE_OFFSET”。
这里再次说明,宏__pa()仅仅把一个内核空间的虚地址映射到物理地址,而决不适用于
用户空间,用户空间的地址映射要复杂得多。
2.内核映像

内核的代码和数据就叫内核映像.系统启动时,Linux内核被加载到物理地址为0x001000000开始的地方.1M开始区间.然而

正常运行时,整个内核映像应该在虚拟空间,因此,所有的符号地址都该加一个PAGE_OFFSET.这样内核映像为0xc01000000处

程的页目录 PGD(属于内核数据结构)就处于内核空间中。在进程切换时,要
将寄存器 CR3 设置成指向新进程的页目录 PGD,而该目录的起始地址在内核空间中是虚地址,
但 CR3 所需要的是物理地址,这时候就要用__pa()进行地址转换。在 mm_context.h 中就有这么一行语句:
asm volatile(“movl %0,%%cr3”: :”r” (__pa(next->pgd));
这是一行嵌入式汇编代码,其含义是将下一个进程的页目录起始地址 next_pgd,通过
__pa()转换成物理地址,存放在某个寄存器中,然后用 mov 指令将其写入 CR3 寄存器中。经
过这行语句的处理,CR3 就指向新进程 next 的页目录表 PGD 了。

虚拟内存地址实现机制的关系

? 内存分配和回收机制;
? 地址映射机制;
? 缓存和刷新机制;
? 请页机制;
? 交换机制;
? 内存共享机制

内存管理程序通过映射把用户的逻辑地址映射到物理地址,用户程序运行时发现虚地址没对应物理地址就发出(1)请求,如果有空闲的内存

可供分配,就请求分配内存(2),并且把正在使用的物理页记录在页缓存中(3).如果没有足够的内存分配,那就调用交换机制,腾出一部分内存(4)(5)

另外在地址映射时要通过TLB来选物理页(8);交换机制也要用到交换缓存(6).并且把物理页内容交换到交换文件后也要修改页表来映射文件地址(7)

--------------Linux内存管理初始化-------------------

Linux启动时,运行在实模式.随后要转到保护模式下运行.

,

1.页表的初步初始化
/*
 * The page tables are initialized to only 8MB here - the final page
 * tables are set up later depending on memory size.
 */
.org 0x2000
ENTRY(pg0)//存放的是虚拟地址
.org 0x3000
ENTRY(pg1)
/*
 * empty_zero_page must immediately follow the page tables ! ( The
 * initialization loop counts until empty_zero_page)
 */
.org 0x4000
ENTRY(empty_zero_page)
/*
 * Initialize page tables
 */
 movl $pg0-__PAGE_OFFSET,%edi /* initialize page tables 将物理地址存放在edi中,位置为0x1002000处*/
 movl $007,%eax /* "007" doesn't mean with right to kill, but
 PRESENT+RW+USER */
 2: stosl
 add $0x1000,%eax
 cmp $empty_zero_page-__PAGE_OFFSET,%edi
 jne 2b

内核执行此代码时,页机制还未启动,指令还是纯物理地址.因为pg0存放的是虚拟地址,因此$pg0-__PAGE_OFFSET获得其物理地址

pg0存放在相对于内核代码起点为 0x2000 的地方,即物理地址为 0x00102000,而 pg1 的物理地址
则为 0x00103000。Pg0 和 pg1 这个两个页表中的表项则依次被设置为 0x007、0x1007、0x2007
等。其中最低的 3 位均为 1,表示这两个页为用户页,可写,且页的内容在内存中(参见图
2.24)。所映射的物理页的基地址则为 0x0、0x1000、0x2000 等,也就是物理内存中的页面 0、
1、2、3 等等,共映射 2K 个页面,即 8MB 的存储空间。由此可以看出,Linux 内核对物理内
存的最低要求为 8MB。紧接着存放的是 empty_zero_page 页(即零页),零页存放的是系统启
动参数和命令行参数,

启动分页机制--------------------

代码功能:将页目录swapper_pg_dir的物理地址加入cr3.并且把cr0最高位置为1

/*
 * This is initialized to create an identity-mapping at 0-8M ( for bootup
 * purposes) and another mapping of the 0-8M area at virtual address
 * PAGE_OFFSET.
 */
.org 0x1000
ENTRY(swapper_pg_dir)
 .long 0x00102007 //
两个页表是用户页表、可写且页表的内容在内存。 .long 0x00103007
 .fill BOOT_USER_PGD_PTRS-2,4,0
 /* default: 766 entries */
 .long 0x00102007
 .long 0x00103007
 /* default: 254 entries */
 .fill BOOT_KERNEL_PGD_PTRS-2,4,0
/*
 * Enable paging
 */
3:
 movl $swapper_pg_dir-__PAGE_OFFSET,%eax
 movl %eax,%cr3 /* set the page table pointer.. */
 movl %cr0,%eax
 orl $0x80000000,%eax
 movl %eax,%cr0 /* ..and set paging (PG) bit */
 jmp 1f /* flush the prefetch-queue */
1:
 movl $1f,%eax
 jmp *%eax  /* make sure eip is relocated */


物理内存的描述

Linux把物理内存划分3个层次管理;存储节点,管理区,和页表,并且用3个相应的数据结构来描述

页面数据结构

对一个物理页面的描述

struct page{
struct list_head list;   //通过使用它进入下面的数据结构free_area_struct结构中的双向链队列
struct address_space * mapping;   //用于内存交换的数据结构
unsigned long index;//当页面进入交换文件后,指向其去向
struct page *next_hash; //自身的指针,这样就可以链接成一个链表
atomic t count; //用于页面交换的计数,若页面为空闲则为0,分配就赋值1,没建立或恢复一次映射就加1,断开映射就减一
unsigned long flags;//反应页面各种状态,例如活跃,不活跃脏,不活跃干净,空闲
struct list_head lru;
unsigned long age; //表示页面寿命
wait_queue_head_t wait;
struct page ** pprev_hash;
struct buffer_head * buffers;
void * virtual
struct zone_struct * zone; //指向所属的管理区
}

系统每个物理页面都有一个Page结构,系统初始化内存的大小建立一个Page的数组mem_map


为了对物理页面进行有效管理,Linux把物理页面分为3个区:

? 专供 DMA 使用的 ZONE_DMA 区(小于 16MB);
? 常规的 ZONE_NORMAL 区(大于 16MB 小于 896MB);
? 内核不能直接映射的区 ZONE_HIGME 区(大于 896MB)。
DMA 控制器不能依靠 CPU 内部的 MMU 将连续的虚存页面映射到物理上也连续的页面上,因此用于DMA的物理页面必须加以单独管理。

存储节点的数据结构

typedef struct pglist_data {
 zone_t node_zones[MAX_NR_ZONES];//节点的最多3个页面管理区
 zonelist_t node_zonelists[GFP_ZONEMASK+1];//一个管理区指针数组,指向上面的管理区
 int nr_zones;
 struct page *node_mem_map;//指向具体节点的page结构数组
 unsigned long *valid_addr_bitmap;
 struct bootmem_data *bdata;
 unsigned long node_start_paddr;
 unsigned long node_start_mapnr;
 unsigned long node_size;
 int node_id;
 struct pglist_data *node_next;//形成一个单链表节点队列
 } pg_data_t;
typedef struct zonelist_struct {
 zone_t *zone[MAX_NR_ZONE+1]; //NULL delimited 管理区
 Int gfp_mast;
 } zonelist_t

zone[]是个指针数组,各个元素按特定的次序指向具体的页面管理区,表示分配
页面时先试 zone[0]所指向的管理区, 如果不能满足要求就试 zone[1]所指向的管理区,

内存管理区

typedef struct zone_struct {
 /*
 * Commonly accessed fields:
 */
 spinlock_t lock;  用于暴走对该结构中其他域的串行访问
 unsigned long free_pages;//这个区中现有空闲页的个数
 unsigned long pages_min, pages_low, pages_high;//对这个区最少,次少及最多页面个数的描述
 int need_balance;//与kswapd合在一起
 /*
 * free areas of different sizes
 */
 free_area_t free_area[MAX_ORDER];/在伙伴分配系统中的位图数组和页面链表
 /*
 * Discontig memory support fields.
 */
 struct pglist_data *zone_pgdat;//本管理区所在的存储节点
 struct page *zone_mem_map;//本管理区的内存映射表
 unsigned long zone_start_paddr;//本管理区的物理地址
 unsigned long zone_start_mapnr;//mem_map索引
 /*
 * rarely used fields:
 */
 char *name;
 unsigned long size;
 } zone_t;

free_area[MAX_ORDER]是一组队列的链表每一个队列保持1 2 4 ...各一个用来分配物理大小快

type struct free_area_struct {
 struct list_head free_list
 unsigned int *map
 } free_area_t

物理页面的分配和释放
Linux 把不连续的存储
空间也归类为非一致存储结构(NUMA)。这是因为,不连续的存储空间本质上是一种广义的
NUMA,因为那说明在最低物理地址和最高物理地址之间存在着空洞,而有空洞的空间当然是
“不一致”的。所以,在地址不连续的物理空间也要像结构不一样的物理空间那样划分出若干
连续且均匀的“节点”。因此,在存储结构不连续的系统中,每个模块都有若干个节点,因而
都有个 pg_data_t 数据结构队列。我们先来看 mm/numa.c 中的 alloc_page()函数:

                                  //表示哪种分配策略,order表示所需物理块的大小,1,2,4.....
struct page * _alloc_pages(unsigned int gfp_mask, unsigned int order)
{
 struct page *ret = 0;
 pg_data_t *start, *temp;
#ifndef CONFIG_NUMA
 unsigned long flags;
 static pg_data_t *next = 0;
#endif
 if (order >= MAX_ORDER)
 return NULL;
#ifdef CONFIG_NUMA
 temp = NODE_DATA(numa_node_id());//通过NUMA_DATA()找到cpu所在节点的数据结构队列,存放在temp中
#else
 spin_lock_irqsave(&node_lock, flags);
 if (!next) next = pgdat_list;
 temp = next;
 next = next->node_next;
 spin_unlock_irqrestore(&node_lock, flags);
#endif
 start = temp;
 while (temp) {
 if ((ret = alloc_pages_pgdat(temp, gfp_mask, order)))//从当前节点扫到最后节点,能否满足分配内存
 return(ret);
 temp = temp->node_next;
 }
 temp = pgdat_list;
 while (temp != start) {//从头节点扫到当前节点,视图分配内存
 if ((ret = alloc_pages_pgdat(temp, gfp_mask, order)))
 return(ret);
 temp = temp->node_next;
 }
 return(0);
 }

一致存储结构(UMA)中页面的分配
连续空间 UMA 结构的 alloc_page()是在 include/linux/mm.h 中定义的:

#ifndef CONFIG_DISCONTIGMEM
 static inline struct page * alloc_pages(unsigned int gfp_mask, unsigned int order)
{
 /*
 * Gets optimized away by the compiler.
 */
 if (order >= MAX_ORDER)
 return NULL;
 return __alloc_pages(gfp_mask, order,
 contig_page_data.node_zonelists+(gfp_mask & GFP_ZONEMASK));
 }
 #endi

_alloc_pages()在管理区链表 zonelist 中依次查找每个区,从中找到满足要求的区,
然后用伙伴算法从这个区中分配给定大小(2 order 个)的页面块。如果所有的区都没有足够的
空闲页面,则调用 swapper 或 bdflush 内核线程,把脏页写到磁盘以释放一些页面.而且被映射的页面可能只是做了标记

只有在正在需要分配时才分配

struct page * __alloc_pages(unsigned int gfp_mask, unsigned int order, zonelist_t *zonelist)
{
 unsigned long min;
 zone_t **zone, * classzone;
 struct page * page;
int freed;
 zone = zonelist->zones;
 classzone = *zone;
 min = 1UL << order;
 for (;;) {//遍历各种区空闲页面的总量
 zone_t *z = *(zone++);
 if (!z)
 break;
 min += z->pages_low;
 if (z->free_pages > min) {//如果总理安大于最低水平线与所请求页面数之和,就调用rmqueue()试图分配
 page = rmqueue(z, order);
 if (page)
 return page;//分配成功,返回第一page指针
 }


 }

如果发现管理区中的空闲页面总量已经降到最低点,则把 zone_t 结构中需要重新平衡

的标志(need_balance)置 1,而且如果内核线程 kswapd 在一个等待队列中睡眠,就唤醒它,
让它收回一些页面以备使用(可以看出, need_balance 是和 kswapd 配合使用的)。

classzone->need_balance = 1;
 mb();
 if (waitqueue_active(&kswapd_wait))
 wake_up_interruptible(&kswapd_wait);

如果给定分配策略中所有页面管理区都分配失败,那就把原来的最低水位除以4下调.看能否满足要求,可以满足调用rmqueue分配并返回

zone = zonelist->zones;
 min = 1UL << order;
 for (;;) {
 unsigned long local_min;
 zone_t *z = *(zone++);
 if (!z)
 break;
 local_min = z->pages_min;
 if (!(gfp_mask & __GFP_WAIT))
 local_min >>= 2;
 min += local_min;
 if (z->free_pages > min) {
 page = rmqueue(z, order);
 if (page)
 return page;
 }
 }

分配还不成功,那就需要看那类进程在请求分配内存页面,PF_MEMALLOC表示正在分配页面的进程.

PF_MEMDIE为1表示使用内存溢出而被杀死的进程,这2种必须给进程分配页面

if (current->flags & (PF_MEMALLOC | PF_MEMDIE)) {
 zone = zonelist->zones;
 for (;;) {
 zone_t *z = *(zone++);
 if (!z)
 break;
 page = rmqueue(z, order);
 if (page)
 return page;
 }
 return NULL;
 }

分配页面不可以等待,也不能调度,直接返回,没有分配到页面

/* Atomic allocations - we can't balance anything */
 if (!(gfp_mask & __GFP_WAIT))
 return NULL;

如果必须要得到页面的进程还还是没分配到页面,就要调用

balance_classzone()函数把当前进程所占有的局部页面释放出来。如果释放成功,则返回
一个 page 结构指针,指向页面块中第一个页面的起始地址。

page = balance_classzone(classzone, gfp_mask, order, &freed);
 if (page)
 return page;

从而继续分配页面

以上反复调用了requeue()函数,
该函数试图从一个页面管理区分配若干连续的内存页面。这是最基本的分配操作,其具体代码如下:

                               //指向要分配页面的管理区,order表示分配页面数为2的order次方
static struct page * rmqueue(zone_t *zone, unsigned int order)
{
//area指向free_area的第order个元素
 free_area_t * area = zone->free_area + order;
 unsigned int curr_order = order;
 struct list_head *head, *curr;
 unsigned long flags;
 struct page *page;
 spin_lock_irqsave(&zone->lock, flags);
 do {
 head = &area->free_list;
 curr = memlist_next(head);
 if (curr != head) {
 unsigned int index;
 //获得空闲块的第 1 个页面的地址,如果这个地址是个无效的地址,就陷入 BUG()
page = memlist_entry(curr, struct page, list);
 if (BAD_RANGE(zone,page))
 BUG();
//从队列中摘除分配出去的页面块。
 memlist_del(curr);
 index = page - zone->zone_mem_map;
 if (curr_order != MAX_ORDER-1)
 //如果某个页面块被分配出去,就要在 frea_area 的位图中进行标记,这是通过调用 MARK_USED()宏来完成的。
 MARK_USED(index, curr_order, area);
 zone->free_pages -= 1UL << order;
 //如果分配出去后还有剩余块,就通过 expand()获得所分配的页块,而把剩余块链入适当的空闲队列中。
 page = expand(zone, page, index, order, curr_order, area);
 spin_unlock_irqrestore(&zone->lock, flags);
 set_page_count(page, 1);
 if (BAD_RANGE(zone,page))
 BUG();
 if (PageLRU(page))
 BUG();
 if (PageActive(page))
 BUG();
 return page;
 }
 curr_order++;
 area++;
 } while (curr_order < MAX_ORDER);//如果当前空闲队列没有空闲块,就从更大的空闲块队列中找。
 spin_unlock_irqrestore(&zone->lock, flags);
 return NULL;
 }

expand体现了伙伴算法

/*
zone指向已分配页块所在的管理区
page指向一分配的页块
index为一分配的页块在mem_map中的下标;
low表示所需页面块的大小为2的low次方
high表示从实际空闲队列中实际分配的页面块大小为2的high次方
area指向要实际分配的页块

 */
static inline struct page * expand (zone_t *zone, struct page *page,
 unsigned long index, int low, int high, free_area_t * area)
 {
 unsigned long size = 1 << high;//初始化为分配块的页面数
 while (high > low) {
 if (BAD_RANGE(zone,page))
 BUG();
 area--;
 high--;
 size >>= 1;
 memlist_add_head(&(page)->list, &(area)->free_list);
 /*然后调用 memlist_add_head()把刚分配出去的页面块又加入到低一档(物理块减半)的空闲队列中准备从剩下的一半空闲块中重新进
行分配*/
 //MARK_USED()设置位图
 MARK_USED(index, high, area);
 index += size;
 page += size;
 }
 if (BAD_RANGE(zone,page))
 BUG();
 return page;
 }


Slab的数据结构

对于预期频繁使用的内存区,可以创建一组
特定大小的专用缓冲区进行处理,以避免内碎片的产生。对于较少使用的内存区,可以创建
一组通用缓冲区(如 Linux 2.0 中所使用的 2 的幂次方)来处理,即使这种处理模式产生碎
片,也对整个系统的性能影响不大。

slab有2种数据结构:描述缓冲区的结构keme_cache_t,描述Slab的结构kmem_slab_t

slab是slab管理最基本的结构

typedef struct slab_s {
 struct list_head list;
 unsigned long colouroff;//slab上着色区的大小
 void *s_mem; /*指向对象区的起点 */
 unsigned int inuse; /* 分配对象的个数 */
 kmem_bufctl_t free;//空闲对象链的第一个对象
 } slab_t;

每个缓冲区管理一个Slab链表.Slab按序分3组,第一组全满的Slab(没空闲的对象).

第二组只有部分对象被分配,部分对象还空闲,最后一组slab的对象则完全空闲.

为了对slab有效管理,每个缓冲区都有一个轮转锁,在对链表进行修改时用这锁进行同步

struct kmem_cache_s {
/* 1) each alloc & free */
 /* full, partial first, then free */
 struct list_head slabs_full;
 struct list_head slabs_partial;
 struct list_head slabs_free;
 unsigned int objsize;
原始的数据结构的大小.初始化为kemem_cache_t的大小 unsigned int flags; /* constant flags */
 unsigned int num; //
每个slab obj的个数 spinlock_t spinlock;
#ifdef CONFIG_SMP
 unsigned int batchcount;
#endif
/* 2) slab additions /removals */
 /* order of pgs per slab (2^n) */
 unsigned int gfporder;//
gfporder 则表示每个 Slab 大小的对数,即每个 Slab 由 2 gfporder 个页面构成。 /* force GFP flags, e.g. GFP_DMA */
 unsigned int gfpflags;
 size_t colour; /* 颜色数目 */
 unsigned int colour_off; /*颜色的偏移量 */
 unsigned int colour_next; /* 下一个slab将要使用的颜色 */
 kmem_cache_t *slabp_cache;
 unsigned int growing;
 unsigned int dflags; /* dynamic flags */
 /* constructor func */
 void (*ctor)(void *, kmem_cache_t *, unsigned long);
 /* de-constructor func */
 void (*dtor)(void *, kmem_cache_t *, unsigned long);
 unsigned long failures;
/* 3) cache creation/removal */
 char name[CACHE_NAMELEN];
 struct list_head next;
#ifdef CONFIG_SMP
/* 4) per-cpu data */
 cpucache_t *cpudata[NR_CPUS];
#endif
…..
};

定义了 kmem_cache_t并给部分域赋予了初值,该结构有3个队列分别指向满slab,半满slab,空闲slab.另外一next把所有的专用缓冲区连成一个链表

kmem_cache_t 相当于 Slab 的总控结构,

static kmem_cache_t cache_cache = {
 slabs_full: LIST_HEAD_INIT(cache_cache.slabs_full) ,
 slabs_partial: LIST_HEAD_INIT(cache_cache.slabs_partial),
 slabs_free: LIST_HEAD_INIT(cache_cache.slabs_free) ,
objsize: sizeof(kmem_cache_t),//原始的数据结构的大小.初始化为kemem_cache_t的大小
 flags: SLAB_NO_REAP,
 spinlock: SPIN_LOCK_UNLOCKED,
 colour_off: L1_CACHE_BYTES,
 name: "kmem_cache",
};

专用缓冲区的建立与撤销

                                //缓冲区名         对象大小   所请求的着色偏移量
kmem_cache_t *kmem_cache_create(const char *name, size_t size, size_t offset,
unsigned long c_flags,//对缓冲区的设置标志,SLAB_HWCACHE_ALIGN:表示与第一个高速缓冲中的行边界对齐
               //指向对象指针   ,指向缓冲区
void (*ctor) (void *objp, kmem_cache_t *cachep, unsigned long flags),//构造函数,一般为NULL


void (*dtor) (void *objp, kmem_cache_t *cachep, unsigned long flags))//析构函数一般为NULL

kmem_cache_create()函数要进行一系列的计算,以确定最佳的 Slab 构成。包括:每
个 Slab 由几个页面组成,划分为多少个对象;Slab 的描述结构 slab_t 应该放在 Slab 的外
面还是放在 Slab 的尾部;还有“颜色”的数量等等。并根据调用参数和计算结果设置
kmem_cache_t 结构中的各个域,包括两个函数指针 ctor 和 dtor。最后,将 kmem_cache_t
结构插入到 cache_cache 的 next 队列中。
kmem_cache_create()所创建的缓冲区中还没有包含任何 Slab,因此,
也没有空闲的对象。只有以下两个条件都为真时,才给缓冲区分配 Slab:
(1)已发出一个分配新对象的请求;
(2)缓冲区不包含任何空闲对象。
当这两个条件都成立时,Slab 分配模式就调用 kmem_cache_grow()函数给缓冲区分配
一个新的 Slab。其中,该函数调用 kmem_gatepages()从伙伴系统获得一组页面;然后又调用
kmem_cache_slabgmt()获得一个新的 Slab 结构; 还要调用 kmem_cache_init_objs()为新 Slab
中的所有对象申请构造方法(如果定义的话); 最后, 调用 kmem_slab_link_end()把这个 Slab
结构插入到缓冲区中 Slab 链表的末尾。

通用缓冲区
在内核中初始化开销不大的数据结构可以合用一个通用的缓冲区。通用缓冲区非常类似
于物理页面分配中的大小分区,最小的为 32,然后依次为 64、128、……直至 128KB(即 32
个页面),但是,对通用缓冲区的管理又采用的是 Slab 方式。从通用缓冲区中分配和释放缓
冲区的函数为:

void *kmalloc(size_t size, int flags);
Void kree(const void *objp);

因此,当一个数据结构的使用根本不频繁时,或其大小不足一个页面时,就没有必要给
其分配专用缓冲区,而应该调用 kmallo()进行分配。如果数据结构的大小接近一个页面,则
干脆通过 alloc_page()为之分配一个页面。
事实上,在内核中,尤其是驱动程序中,有大量的数据结构仅仅是一次性使用,而且所
占内存只有几十个字节, 因此, 一般情况下调用 kmallo()给内核数据结构分配内存就足够了。
另外,因为,在 Linux 2.0 以前的版本一般都调用 kmallo()给内核数据结构分配内存,因此,
调用该函数的一个优点是(让你开发的驱动程序)能保持向后兼容。

内核空间非连续内存区的管理

非连续内存处于3G到4G(虚拟地址)

PAGE_OFFSET为3G.high_memory表示保存物理地址的最高值的变量.VMALLOC_START为非连续区的起始地址

在物理地址的末尾与第一个内存区之间插入了一个 8MB(VMALLOC_OFFSET)的区间这
是一个安全区,目的是为了“捕获”对非连续区的非法访问。出于同样的理由,在其他非连
续的内存区之间也插入了 4KB 大小的安全区。每个非连续内存区的大小都是 4096 的倍数。
描述非连续区的数据结构

struct vm_struct {
 unsigned long flags;
 void * addr;//内存区的起始地址
 unsigned long size;//内存区大小+4096(安全区的大小)
 struct vm_struct * next;
};
 struct vm_struct * vmlist;//非连续区组成一个单链表

相关推荐

快递查询教程,批量查询物流,一键管理快递

作为商家,每天需要查询许许多多的快递单号,面对不同的快递公司,有没有简单一点的物流查询方法呢?小编的回答当然是有的,下面随小编一起来试试这个新技巧。需要哪些工具?安装一个快递批量查询高手快递单号怎么快...

一键自动查询所有快递的物流信息 支持圆通、韵达等多家快递

对于各位商家来说拥有一个好的快递软件,能够有效的提高自己的工作效率,在管理快递单号的时候都需要对单号进行表格整理,那怎么样能够快速的查询所有单号信息,并自动生成表格呢?1、其实方法很简单,我们不需要一...

快递查询单号查询,怎么查物流到哪了

输入单号怎么查快递到哪里去了呢?今天小编给大家分享一个新的技巧,它支持多家快递,一次能查询多个单号物流,还可对查询到的物流进行分析、筛选以及导出,下面一起来试试。需要哪些工具?安装一个快递批量查询高手...

3分钟查询物流,教你一键批量查询全部物流信息

很多朋友在问,如何在短时间内把单号的物流信息查询出来,查询完成后筛选已签收件、筛选未签收件,今天小编就分享一款物流查询神器,感兴趣的朋友接着往下看。第一步,运行【快递批量查询高手】在主界面中点击【添...

快递单号查询,一次性查询全部物流信息

现在各种快递的查询方式,各有各的好,各有各的劣,总的来说,还是有比较方便的。今天小编就给大家分享一个新的技巧,支持多家快递,一次能查询多个单号的物流,还能对查询到的物流进行分析、筛选以及导出,下面一起...

快递查询工具,批量查询多个快递快递单号的物流状态、签收时间

最近有朋友在问,怎么快速查询单号的物流信息呢?除了官网,还有没有更简单的方法呢?小编的回答当然是有的,下面一起来看看。需要哪些工具?安装一个快递批量查询高手多个京东的快递单号怎么快速查询?进入快递批量...

快递查询软件,自动识别查询快递单号查询方法

当你拥有多个快递单号的时候,该如何快速查询物流信息?比如单号没有快递公司时,又该如何自动识别再去查询呢?不知道如何操作的宝贝们,下面随小编一起来试试。需要哪些工具?安装一个快递批量查询高手快递单号若干...

教你怎样查询快递查询单号并保存物流信息

商家发货,快递揽收后,一般会直接手动复制到官网上一个个查询物流,那么久而久之,就会觉得查询变得特别繁琐,今天小编给大家分享一个新的技巧,下面一起来试试。教程之前,我们来预览一下用快递批量查询高手...

简单几步骤查询所有快递物流信息

在高峰期订单量大的时候,可能需要一双手当十双手去查询快递物流,但是由于逐一去查询,效率极低,追踪困难。那么今天小编给大家分享一个新的技巧,一次能查询多个快递单号的物流,下面一起来学习一下,希望能给大家...

物流单号查询,如何查询快递信息,按最后更新时间搜索需要的单号

最近有很多朋友在问,如何通过快递单号查询物流信息,并按最后更新时间搜索出需要的单号呢?下面随小编一起来试试吧。需要哪些工具?安装一个快递批量查询高手快递单号若干怎么快速查询?运行【快递批量查询高手】...

连续保存新单号功能解析,导入单号查询并自动识别批量查快递信息

快递查询已经成为我们日常生活中不可或缺的一部分。然而,面对海量的快递单号,如何高效、准确地查询每一个快递的物流信息,成为了许多人头疼的问题。幸运的是,随着科技的进步,一款名为“快递批量查询高手”的软件...

快递查询教程,快递单号查询,筛选更新量为1的单号

最近有很多朋友在问,怎么快速查询快递单号的物流,并筛选出更新量为1的单号呢?今天小编给大家分享一个新方法,一起来试试吧。需要哪些工具?安装一个快递批量查询高手多个快递单号怎么快速查询?运行【快递批量查...

掌握批量查询快递动态的技巧,一键查找无信息记录的两种方法解析

在快节奏的商业环境中,高效的物流查询是确保业务顺畅运行的关键。作为快递查询达人,我深知时间的宝贵,因此,今天我将向大家介绍一款强大的工具——快递批量查询高手软件。这款软件能够帮助你批量查询快递动态,一...

从复杂到简单的单号查询,一键清除单号中的符号并批量查快递信息

在繁忙的商务与日常生活中,快递查询已成为不可或缺的一环。然而,面对海量的单号,逐一查询不仅耗时费力,还容易出错。现在,有了快递批量查询高手软件,一切变得简单明了。只需一键,即可搞定单号查询,一键处理单...

物流单号查询,在哪里查询快递

如果在快递单号多的情况,你还在一个个复制粘贴到官网上手动查询,是一件非常麻烦的事情。于是乎今天小编给大家分享一个新的技巧,下面一起来试试。需要哪些工具?安装一个快递批量查询高手快递单号怎么快速查询?...

取消回复欢迎 发表评论: