### [Exa Laboratories](https://dkwy.com/) **Published:** 2026-05-06T07:54:47 **Author:** 蛋壳 **Excerpt:** Exa Laboratories 率先推出全新多态计算架构,核心为 Learnable Function Unit (LFU) 可重构硬件组件,能够高精度逼近任意一元函数。该架构可根据多样化AI模型(如MLP、Kolmogorov-Arnold网络、transformer及注意力机制)的具体需求动态调整。Exa芯片通过最小化内存访问并利用异步并行计算,实现高达主流GPU(如NVIDIA H100)27.6倍的能效提升。其技术旨在推动AI算力下沉至数据中心及边缘,助力高性能、可持续的AI计算,积极应对AI能耗增长难题。 ## 产品概述 Exa Laboratories 率先推出全新多态计算架构,核心为 Learnable Function Unit (LFU) 可重构硬件组件,能够高精度逼近任意一元函数。该架构可根据多样化AI模型(如MLP、Kolmogorov-Arnold网络、transformer及注意力机制)的具体需求动态调整。Exa芯片通过最小化内存访问并利用异步并行计算,实现高达主流GPU(如NVIDIA H100)27.6倍的能效提升。其技术旨在推动AI算力下沉至数据中心及边缘,助力高性能、可持续的AI计算,积极应对AI能耗增长难题。 ## 主要功能 | | | | --- | --- | | **多态计算架构** | 面向模型的动态可重构硬件,可根据不同AI架构自适应调整,实现性能与灵活性的最优结合。 | | **Learnable Function Unit (LFU)** | 核心硬件单元能够异步逼近任意一元函数,大幅降低延迟和功耗。 | | **高能效比** | 在400W功耗下可达2.3 TFLOPS/W,能效比领先主流GPU高达27.6倍。 | | **减少内存瓶颈** | 单次加载、单次读取数据流,极大减少内存访问操作,提高吞吐量并降低能耗。 | | **支持复杂AI模型** | 通过LFU配置高效实现MLP、Kolmogorov-Arnold网络、transformer及注意力机制等模型。 | ## 使用场景 - **数据中心AI加速:**大规模AI模型部署,显著降低能耗并提升计算效率。 - **边缘AI部署:**支持边缘设备上的高能效AI推理,推动AI应用去中心化。 - **可持续AI基础设施:**通过大幅降低功耗的硬件方案,积极应对AI带来的环境影响。 - **前沿AI研究:**为科研人员提供灵活可重构硬件,助力新型AI架构与模型的探索。 ---