AI 学习架构梳理

摘要

最近要把AI 整体自底向上的梳理一遍,同时把自己的知识面好好扩充一下,因此需要整体的看看,主要有哪些东西,并且这些东西,应该从哪些地方去补充知识;

坦白说,这部分跟我自己以往的工作经历差别有点大,从通用服务器芯片的全栈,要转移到AI专用芯片的全栈,这个里面涵盖的知识面可能相对通用服务器要求的更高,所以这里可能近一年需要花比较多的功夫;


雄关漫道真如铁,而今迈步从头越


阅读更多

什么是卷积

背景

最近在看卷积神经网络,其中卷积这个词听过很多次,那究竟什么是卷积呢?

卷积的公式:
$$(f * g)g(x) = \int_{-\infty }^{\infty } f(t)g(x-t)dt $$

这里 $(f * g)g(x)$ 是什么意思? $\int_{-\infty }^{\infty } f(t)g(x-t)$ 又是什么意思?dt 指带什么呢?

阅读更多

周总结及计划(20240826)

Summary and Plan

上周似乎平平无奇,但是,但是,整体计划的完成率不到30%~~~

  • backtrader的存储机制没有写完
  • 乌合之众,没有看完,不过这么书准备放弃了,完全硬翻译过来的,看起来太痛苦了,换到《大钱细思》, 把这本书看完吧
  • 跟老板汇报了一次,但是这次汇报,感觉到了压力,未来的路要想一想;
  • 健身去了2次, 没有达标;
阅读更多

linux dma一致性分析

背景

在驱动的开发过程中,一般来说会涉及两部分的内存:

  • 描述符内存,数据量小,但是会比较频繁的跟CPU进行交互
  • 数据内存,数据量大,跟CPU交互的一次较少;

在一般芯片架构设计以及软件设计上,对两者经常会有些特别不一样的处理,比如对于描述符的内存,是否需要IO去识别,并且主动推送到CPU cache中? 又或者,对于数据内存,是否需要IO标记不冲刷系统SLC?等等,这里根据业务场景,行为模式的不同,会有一些区分;

同时,对于两块内存的申请,内核也会有特别的内存接口申请方式,一般来说,在内核驱动中,针对描述符内存,一般使用dma_alloc_coherent/dma_alloc_noncoherent接口,并且实际上,目前linux内核驱动,默认使用coherent接口,没有对描述符内存允许软件可配使用noncoherent接口;在处理数据内存的时候,一般使用dma_map_single/dma_pool的方式申请,并且可以选择由硬件维护一致性或者软件维护一致性;

阅读更多

周总结及计划(20240819-20240825)

Summary and Plan

总体来说,上周发生了比较多的事情,感觉到心累!!可是,日子还要过下去;
很多时候,工作事情容易处理,生活的事情却难以抉择,无论是面对即将汰换的老员工,还是斩断三千烦恼丝,都是一件让人前后纠结的事情;
清官难断家务事,或许便是如此;

上周解决了一个裁员的大难题,团队整体看,没有我想象的那么悲观,真的在沟通的那一刻,又好像水到渠成,一切似乎都那么平静,这个倒是了却了我的一大心结;

阅读更多

高级别同学的汰换沟通策略梳理

最近团队内给了一个高级别,并且是业务团队的小主管打了一个M-的绩效,按照公司要求,打了M- 的同学会被公司辞退;那么怎么样跟这个同学沟通,能够尽可能减小的对整个部门的影响,这是我这两周以来一直在思考的问题~

阅读更多

目标140斤以内,是不是3个月内可实现的?

谈减肥谈了很多次了,包括在朋友圈晒目标,跟朋友下决心,等等,经历过很多次,但是最终都失败了,似乎一直处于”下决心,开始控制饮食+运动,然后中途放弃,最后又开始下决心“的怪圈,始终无法彻底走出来;

所以,我们需要仔细分析一下,这个项目应该要怎么做?

阅读更多