摘要
最近要把AI 整体自底向上的梳理一遍,同时把自己的知识面好好扩充一下,因此需要整体的看看,主要有哪些东西,并且这些东西,应该从哪些地方去补充知识;
坦白说,这部分跟我自己以往的工作经历差别有点大,从通用服务器芯片的全栈,要转移到AI专用芯片的全栈,这个里面涵盖的知识面可能相对通用服务器要求的更高,所以这里可能近一年需要花比较多的功夫;
雄关漫道真如铁,而今迈步从头越
最近要把AI 整体自底向上的梳理一遍,同时把自己的知识面好好扩充一下,因此需要整体的看看,主要有哪些东西,并且这些东西,应该从哪些地方去补充知识;
坦白说,这部分跟我自己以往的工作经历差别有点大,从通用服务器芯片的全栈,要转移到AI专用芯片的全栈,这个里面涵盖的知识面可能相对通用服务器要求的更高,所以这里可能近一年需要花比较多的功夫;
雄关漫道真如铁,而今迈步从头越
最近在看卷积神经网络,其中卷积这个词听过很多次,那究竟什么是卷积呢?
卷积的公式:
$$(f * g)g(x) = \int_{-\infty }^{\infty } f(t)g(x-t)dt $$
这里 $(f * g)g(x)$ 是什么意思? $\int_{-\infty }^{\infty } f(t)g(x-t)$ 又是什么意思?dt 指带什么呢?
上周似乎平平无奇,但是,但是,整体计划的完成率不到30%~~~
在驱动的开发过程中,一般来说会涉及两部分的内存:
在一般芯片架构设计以及软件设计上,对两者经常会有些特别不一样的处理,比如对于描述符的内存,是否需要IO去识别,并且主动推送到CPU cache中? 又或者,对于数据内存,是否需要IO标记不冲刷系统SLC?等等,这里根据业务场景,行为模式的不同,会有一些区分;
同时,对于两块内存的申请,内核也会有特别的内存接口申请方式,一般来说,在内核驱动中,针对描述符内存,一般使用dma_alloc_coherent/dma_alloc_noncoherent接口,并且实际上,目前linux内核驱动,默认使用coherent接口,没有对描述符内存允许软件可配使用noncoherent接口;在处理数据内存的时候,一般使用dma_map_single/dma_pool的方式申请,并且可以选择由硬件维护一致性或者软件维护一致性;
总体来说,上周发生了比较多的事情,感觉到心累!!可是,日子还要过下去;
很多时候,工作事情容易处理,生活的事情却难以抉择,无论是面对即将汰换的老员工,还是斩断三千烦恼丝,都是一件让人前后纠结的事情;
清官难断家务事,或许便是如此;
上周解决了一个裁员的大难题,团队整体看,没有我想象的那么悲观,真的在沟通的那一刻,又好像水到渠成,一切似乎都那么平静,这个倒是了却了我的一大心结;
最近这一个月,工作以及生活上有些懈怠~~~
不想工作~
不想学习~
不想理财~
也不想游戏~
就是看看小说,刷刷抖音,似乎也过去了,还有偷偷打个麻将~
最近团队内给了一个高级别,并且是业务团队的小主管打了一个M-的绩效,按照公司要求,打了M- 的同学会被公司辞退;那么怎么样跟这个同学沟通,能够尽可能减小的对整个部门的影响,这是我这两周以来一直在思考的问题~
谈减肥谈了很多次了,包括在朋友圈晒目标,跟朋友下决心,等等,经历过很多次,但是最终都失败了,似乎一直处于”下决心,开始控制饮食+运动,然后中途放弃,最后又开始下决心“的怪圈,始终无法彻底走出来;
所以,我们需要仔细分析一下,这个项目应该要怎么做?