初始化 nvme-core模块
创建工作队列
分配设备号
创建class类型的对象
解释
工作队列
workqueue是对内核线程封装的用于处理各种工作项的一种处理方法, 由于处理对象是用链表拼接一个个工作项, 依次取出来处理, 然后从链表删除,就像一个队列排好队依次处理一样, 所以也称工作队列
所谓封装可以简单理解一个中转站, 一边指向“合适”的内核线程, 一边接受你丢过来的工作项, 用结构体 workqueue_srtuct表示, 而所谓工作项也是个结构体 – work_struct, 里面有个成员指针, 指向你最终要实现的函数
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 struct workqueue_struct *workqueue_test ;struct work_struct work_test ;void work_test_func (struct work_struct *work) { printk("%s()\n" , __func__); }static int test_init (void ) { printk("Hello,world!\n" ); workqueue_test = alloc_workqueue("workqueue_test" , 0 , 0 ); INIT_WORK(&work_test, work_test_func); queue_work(workqueue_test, &work_test); return 0 ; }
C
自动创建设备节点
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 dev_num = MKDEV(MAJOR_NUM, 0 ); ret = register_chrdev_region(dev_num,ndevices,"dev_fifo" );if (ret < 0 ){ ret =alloc_chrdev_region(&dev_num,0 ,ndevices,"dev_fifo" ); if (ret < 0 ){ printk("Fail to register_chrdev_region\n" ); goto err_register_chrdev_region; } } cls = class_create(THIS_MODULE, "dev_fifo" );if (IS_ERR(cls)){ ret = PTR_ERR(cls); goto err_class_create; } printk("ndevices : %d\n" ,ndevices);for (n = 0 ;n < ndevices;n ++) { cdev_init(&gcd[n].cdev,&fifo_operations); ret = cdev_add(&gcd[n].cdev,dev_num + n,1 ); if (ret < 0 ) { goto err_cdev_add; } device = device_create(cls,NULL ,dev_num +n,NULL ,"dev_fifo%d" ,n); if (IS_ERR(device)){ ret = PTR_ERR(device); printk("Fail to device_create\n" ); goto err_device_create; } } printk("Register dev_fito to system,ok!\n" );return 0 ;
C
nvme模块
注册pci_driver结构体,如果id_table与设备匹配,则执行nvme_probe函数
为struct nvme_dev结构体申请空间
将I/O 端口的物理地址通过页表映射到核心虚地址空间内
创建DMA池
创建内存池
填充struct nvme_ctrl结构体
创建字符设备
将控制器状态改成NVME_CTRL_RESETTING
使能设备上的BAR
MSI中断号分配
映射CMB(controller memory buffer)
重新映射设备BAR
通过NVME_REG_CC寄存器disable设备
为CQ申请DMA缓冲区并映射
如果CMB不支持SQ,申请DMA缓冲区
填充struct nvme_queue结构体
通过NVME_REG_CC寄存器enable设备
初始化admin queue
设置中断处理函数(nvme_irq_check或者nvme_irq)
填充dev->admin_tagset并创建队列,并进行初始化
将控制器状态改成NVME_CTRL_CONNECTING
发送identify命令给nvme设备
初始化子系统
通过set feature命令配置自主电源状态转换功能APST ,时间戳
发送directive send, directive Receive命令给nvme设备
通过set feature命令设置io queue的数量
再次申请中断号,注册中断函数???
申请队列空间
发送命令,创建IO队列(create io completion queue命令与create io submission queue命令)
填充dev->tagset
发送identify命令给nvme设备 cns = NVME_ID_CNS_CTRL
发送identify命令给nvme设备 cns = NVME_ID_CNS_NS_ACTIVE_LIST
填充struct nvme_ns *ns
发送identify命令给nvme设备 cns = NVME_ID_CNS_NS
创建块设备
解释
内存节点node
Node是内存管理最顶层的结构,在NUMA架构下,CPU平均划分为多个Node,每个Node有自己的内存控制器及内存插槽。CPU访问自己Node上的内存时速度快,而访问其他CPU所关联Node的内存的速度比较慢。而UMA则被当做只有一个Node的NUMA系统。
1 dev_to_node(struct device dev)
C
内存管理之内存节点Node、Zone、Page
IO映射
几乎每一种外设都是通过读写设备上的寄存器来进行的,通常包括控制寄存器、状态寄存器和数据寄存器三大类,外设的寄存器通常被连续地编址。根据CPU体系结构的不同,CPU对IO端口的编址方式有两种:
(1)I/O映射方式(I/O-mapped)
典型地,如X86处理器为外设专门实现了一个单独的地址空间,称为”I/O地址空间”或者”I/O端口空间”,CPU通过专门的I/O指令(如X86的IN和OUT指令)来访问这一空间中的地址单元。
(2)内存映射方式(Memory-mapped)
RISC指令系统的CPU(如MIPS ARM PowerPC等)通常只实现一个物理地址空间,像这种情况,外设的I/O端口的物理地址就被映射到内存地址空间中,外设I/O端口成为内存的一部分。此时,CPU可以象访问一个内存单元那样访问外设I/O端口,而不需要设立专门的外设I/O指令。
但是,这两者在硬件实现上的差异对于软件来说是完全透明的,驱动程序开发人员可以将内存映射方式的I/O端口和外设内存统一看作是”I/O内存”资源。
一般来说,在系统运行时,外设的I/O内存资源的物理地址是已知的,由硬件的设计决定。但是CPU通常并没有为这些已知的外设I/O内存资源的物理地址预定义虚拟地址范围,驱动程序并不能直接通过物理地址访问I/O内存资源,而必须将它们映射到核心虚地址空间内(通过页表),然后才能根据映射所得到的核心虚地址范围,通过访内指令访问这些I/O内存资源。Linux在io.h头文件中声明了函数ioremap(),用来将I/O内存资源的物理地址映射到核心虚地址空间。
但要使用I/O内存首先要申请,然后才能映射,使用I/O端口首先要申请,或者叫请求,对于I/O端口的请求意思是让内核知道你要访问这个端口,这样内核知道了以后它就不会再让别人也访问这个端口了.毕竟这个世界僧多粥少啊.申请I/O端口的函数是request_region, 申请I/O内存的函数是request_mem_region, 来自include/linux/ioport.h
其实说白了,request_mem_region函数并没有做实际性的映射工作,只是告诉内核要使用一块内存地址,声明占有,也方便内核管理这些资源。
重要的还是ioremap函数,ioremap主要是检查传入地址的合法性,建立页表(包括访问权限),完成物理地址到虚拟地址的转换。
内核request_mem_region 和 ioremap的理解
DMA池
许多驱动程序需要又多又小的一致映射内存区域给DMA描述子或I/O缓存buffer,这使用DMA池比用dma_alloc_coherent分配的一页或多页内存区域好,DMA池用函数dma_pool_create创建,用函数dma_pool_alloc从DMA池中分配一块一致内存,用函数dmp_pool_free放内存回到DMA池中,使用函数dma_pool_destory释放DMA池的资源
1 2 3 4 5 6 7 8 9 10 11 12 13 14 struct dma_pool { struct list_head page_list ; spinlock_t lock; size_t blocks_per_page; size_t size; struct device *dev ; size_t allocation; char name [32 ]; wait_queue_head_t waitq; struct list_head pools ; };struct dma_pool *dma_pool_create (const char *name, struct device *dev, size_t size, size_t align, size_t allocation)
C
函数dma_pool_create 给DMA创建一个一致内存块池,其参数name是DMA池的名字,用于诊断用,参数dev是将做DMA的设备,参数size是DMA池里的块的大小,参数align是块的对齐要求,是2的幂,参数allocation返回没有跨越边界的块数(或0)
Linux 下的DMA浅析
内存池
内存池(Memery Pool)技术是在真正使用内存之前,先申请分配一定数量的、大小相等(一般情况下)的内存块留作备用。当有新的内存需求时,就从内存池中分出一部分内存块,若内存块不够再继续申请新的内存。这样做的一个显著优点是尽量避免了内存碎片,使得内存分配效率得到提升。 不仅在用户态应用程序中被广泛使用,同时在Linux内核也被广泛使用,在内核中有不少地方内存分配不允许失败。作为一个在这些情况下确保分配的方式,内核开发者创建了一个已知为内存池(或者是 “mempool” )的抽象,内核中内存池真实地只是相当于后备缓存,它尽力一直保持一个空闲内存列表给紧急时使用,而在通常情况下有内存需求时还是从公共的内存中直接分配,这样的做法虽然有点霸占内存的嫌疑,但是可以从根本上保证关键应用在内存紧张时申请内存仍然能够成功。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 typedef struct mempool_s { spinlock_t lock; int min_nr; int curr_nr; void **elements; void *pool_data; mempool_alloc_t *alloc; mempool_free_t *free ; wait_queue_head_t wait; } mempool_t ;mempool_t *mempool_create (int min_nr, mempool_alloc_t *alloc_fn, mempool_free_t *free_fn, void *pool_data) { return mempool_create_node(min_nr,alloc_fn,free_fn, pool_data, GFP_KERNEL, NUMA_NO_NODE); } EXPORT_SYMBOL(mempool_create);mempool_t *mempool_create_node (int min_nr, mempool_alloc_t *alloc_fn, mempool_free_t *free_fn, void *pool_data, gfp_t gfp_mask, int node_id) { mempool_t *pool; pool = kzalloc_node(sizeof (*pool), gfp_mask, node_id); if (!pool) return NULL ; if (mempool_init_node(pool, min_nr, alloc_fn, free_fn, pool_data, gfp_mask, node_id)) { kfree(pool); return NULL ; } return pool; } EXPORT_SYMBOL(mempool_create_node);
C
linux内存管理(十五)-内存池
cdev_device_add函数
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 * cdev_device_add() - add a char device and it' s corresponding * struct device , linkink * @dev : the device structure * @cdev: the cdev structure * * cdev_device_add () adds the char device represented by @cdev to the system, * just as cdev_add does. It then adds @dev to the system using device_add * The dev_t for the char device will be taken from the struct device which * needs to be initialized first. This helper function correctly takes a * reference to the parent device so the parent will not get released until * all references to the cdev are released. * * This helper uses dev->devt for the device number. If it is not set * it will not add the cdev and it will be equivalent to device_add. * * This function should be used whenever the struct cdev and the * struct device are members of the same structure whose lifetime is * managed by the struct device. * * NOTE: Callers must assume that userspace was able to open the cdev and * can call cdev fops callbacks at any time, even if this function fails. */int cdev_device_add (struct cdev *cdev, struct device *dev) { int rc = 0 ; if (dev->devt) { cdev_set_parent(cdev, &dev->kobj); rc = cdev_add(cdev, dev->devt, 1 ); if (rc) return rc; } rc = device_add(dev); if (rc) cdev_del(cdev); return rc; }struct device *device_create (struct class *class, struct device *parent, dev_t devt, void *drvdata, const char *fmt, ...) { ...... dev = device_create_vargs(class, parent, devt, drvdata, fmt, vargs); ...... return dev; }struct device *device_create_vargs (struct class *class, struct device *parent, dev_t devt, void *drvdata, const char *fmt, va_list args) { ...... dev->devt = devt; dev->class = class ; dev->parent = parent; dev->release = device_create_release; dev_set_drvdata(dev, drvdata); ...... retval = device_register(dev); ...... }int device_register (struct device *dev) { device_initialize(dev); return device_add(dev); }
C
device_create()、device_register()、deivce_add()区别
CMB
但是如果CPU将整条指令而不是指针直接写到SSD端的DRAM的话,并不耗费太多资源,此时能够节省一次PCIE往返及一次SSD控制器内部的中断处理。于是,人们就想将SSD控制器上的一小段DRAM空间映射到host物理地址空间从而可以让驱动直接写指令进去,甚至写一些数据进去也是可以的。这块被映射到host物理地址空间的DRAM空间便被称为CMB了。CMB的主要作用是把SQ/CQ存储的位置从host memory搬到device memory来提升性能,改善延时
通用DMA层与一致性DMA映射
1 void * dma_alloc_coherent (struct device *dev, size_t size, dma_addr_t *dma_handle, gfp_t gfp)
C
dma_alloc_coherent() – 获取物理页,并将该物理页的总线地址保存于dma_handle,返回该物理页的虚拟地址
DMA映射建立了一个新的结构类型———dma_addr_t来表示总线地址。dma_addr_t类型的变量对驱动程序是不透明的;唯一允许的操作是将它们传递给DMA支持例程以及设备本身。作为一个总线地址,如果CPU直接使用了dma_addr_t,将会导致发生不可预期的后果!
一致性DMA映射存在与驱动程序的生命周期中,它的缓冲区必须可同时被CPU和外围设备访问!因此一致性映射必须保存在一致性缓存中。建立和使用一致性映射的开销是很大的!
DMA内存申请–dma_alloc_coherent 及 寄存器与内存
见《LINUX设备驱动程序(第3版)》第十五章
struct blk_mq_tag_set结构体
描述一个块设备硬件相关的数据结构,包含硬件队列的数量,队列深度,分配给每个硬件队列的rq管理集合,还包含了软件队列与硬件队列的映射表。blk_mq_tag_set可以被多个request_queue共享,其中也包含了共享tag_set的request_queue链表
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 struct blk_mq_tag_set { struct blk_mq_queue_map map [HCTX_MAX_TYPES ]; unsigned int nr_maps; const struct blk_mq_ops *ops ; unsigned int nr_hw_queues; unsigned int queue_depth; ... struct blk_mq_tags **tags ; struct mutex tag_list_lock ; struct list_head tag_list ; };
C
A block device driver can accept a request before the previous one is completed. As a consequence, the upper layers need a way to know when a request is completed. For this, a “tag” is added to each request upon submission and sent back using a completion notification after the request is completed.
The tags are part of a tag set (struct blk_mq_tag_set
), which is unique to a device. The tag set structure is allocated and initialized before the request queues and also stores some of the queues properties.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 #include <linux/fs.h> #include <linux/genhd.h> #include <linux/blkdev.h> static struct my_block_dev { struct blk_mq_tag_set tag_set ; struct request_queue *queue ; } dev;static blk_status_t my_block_request (struct blk_mq_hw_ctx *hctx, const struct blk_mq_queue_data *bd) static struct blk_mq_ops my_queue_ops = { .queue_rq = my_block_request, };static int create_block_device (struct my_block_dev *dev) { dev->tag_set.ops = &my_queue_ops; dev->tag_set.nr_hw_queues = 1 ; dev->tag_set.queue_depth = 128 ; dev->tag_set.numa_node = NUMA_NO_NODE; dev->tag_set.cmd_size = 0 ; dev->tag_set.flags = BLK_MQ_F_SHOULD_MERGE; err = blk_mq_alloc_tag_set(&dev->tag_set); if (err) { goto out_err; } dev->queue = blk_mq_init_queue(&dev->tag_set); if (IS_ERR(dev->queue )) { goto out_blk_init; } blk_queue_logical_block_size(dev->queue , KERNEL_SECTOR_SIZE); dev->queue ->queuedata = dev; out_blk_init: blk_mq_free_tag_set(&dev->tag_set); out_err: return -ENOMEM; }
C