Meta AI发布Segment Anything系列最新模型SAM3D,提供SAM3D Objects与SAM3D Body两套权重:前者面向通用物体/场景,后者专注人像重建,均只需单张2D照片即可输出带纹理、材质与几何一致性的3D资产,并在真实世界图像上显著优于现有NeRF与Gaussian Splatting方案。

Meta开源SAM 3D:单图秒生可交互3D模型,空间理解刷新SOTA

SAM3D核心采用“空间位置-语义”联合编码,为每个像素预测3D坐标与表面法向,使模型具备物理正确性,可直接用于AR/VR、机器人及影视后期。Meta同步开源权重、推理代码及评测基准,并在Facebook Marketplace上线“View in Room”功能,用户可把商品3D模型投射至自家房间预览。

官方测试显示,SAM3D Objects在公开数据集上Chamfer Distance降低28%,法向一致性提升19%;SAM3D Body在AGORA-3D基准的MPJPE指标优于现有最佳单图方法14%,并支持一键绑定Mixamo骨架驱动。

Meta透露,模型已集成至Quest3与Horizon Worlds创作工具,开发者可通过Edits与Vibes应用调用API,按量计费0.02美元/模型,2026年Q1将发布实时手机端推理SDK。

项目地址:https://ai.meta.com/blog/sam-3d/