AI之所以用GPU,是因为GPU做图像处理正好也需要大规模的矩阵运算。但GPU毕竟是只为图像显示用的,它并没有考虑到决定AI运算速度与功耗的比如巨量的快速存储与读写,以及反复的线性回归等,并且GPU还有与支持图像显示等AI不需要的很多功能。所以一款专门对AI来优化及加速的芯片性能比GPU处理AI更优异并不奇怪。
↓↓↓ 共 2 条评论 ↓↓↓
LPU不能用来训练AI模型,只能给训练好的AI模型用来推理。
呵呵。。。你这个自称业内人士的应该很清楚LPU主要要优化的是低延迟计算,而不是高吞吐量计算。它通常无法处理大规模的AI训练任务,尤其是涉及大批量数据的任务,如深度学习模型的训练。根本和GPU就不是一回事。其实美帝本身也大把LPU芯片公司。🤣