-+ 0.00%
-+ 0.00%
-+ 0.00%

英国爱丁堡大学与英伟达的联合团队开发出一种新方法,能够压缩人工智能模型运行时所依赖的内存,从而在保持响应速度不变的情况下,提升模型处理复杂任务的准确性,或显著降低其能耗。这也意味着,更小的内存将带来“更强的AI”,有望打破大语言模型性能瓶颈。

智通财经·12/31/2025 23:17:02
语音播报
英国爱丁堡大学与英伟达的联合团队开发出一种新方法,能够压缩人工智能模型运行时所依赖的内存,从而在保持响应速度不变的情况下,提升模型处理复杂任务的准确性,或显著降低其能耗。这也意味着,更小的内存将带来“更强的AI”,有望打破大语言模型性能瓶颈。