内容持续更新中
在人工智能绘画领域,扩散模型(Diffusion Model)正经历从基于Unet架构向基于Transformer架构(DiT)的转变。然而,DiT生态系统在插件支持、效率以及多条件控制等方面仍面临挑…
人工智能芯片巨头英伟达的研究人员近日发布了一项名为“FFN融合”(FFN Fusion)的创新架构优化技术。该技术旨在通过解决Transformer架构中固有的串行计算瓶颈,显著提升大型语言模型(LL…
还在为大模型处理长文本“龟速”而抓狂?别急!清华大学祭出“王炸”技术——APB 序列并行推理框架,直接给大模型装上“涡轮增压”引擎!实测显示,这项黑科技在处理超长文本时,速度竟比肩 Flash Att…
在人工智能的世界里,开源与闭源的较量从未停歇。而今,Meta AI的Llama3.1模型的发布,似乎为这场较量画上了分水岭。这不仅仅是一个模型的发布,更是开源AI走向成熟的标志,预示着一个全新的时代即…
Google DeepMind提出的百万专家Mixture模型,一个在Transformer架构上迈出了革命性步伐的研究。 想象一下,一个能够从一百万个微型专家中进行稀疏检索的模型,这听起来是不是有点…