在3D 内容创作领域,苹果公司近日投下了一枚“深水炸弹”。据科技媒体9to5Mac 披露,苹果正式开源了一款名为SHARP的新型 AI 模型。这项技术最令人惊叹之处在于,它打破了传统3D 重建动辄数小时的耗时瓶颈,仅需不到一秒钟,就能将一张普通的2D 照片转化为具有真实物理比例的3D 场景。

根据苹果发布的最新论文《一秒内实现清晰的单目视图合成》,SHARP的核心秘密在于采用了先进的“3D 高斯泼溅”技术(3D Gaussian Splatting)。不同于以往需要从成百上千个角度拍摄照片才能建模的复杂流程,SHARP 凭借海量数据的深度训练,已经掌握了通用的空间几何规律。这意味着,它只需通过神经网络的一次快速“扫描”,就能直接预测出数百万个带有光影信息的“高斯球”位置,瞬间完成建模。
在成像质量上,SHARP同样刷新了行业标杆。测试数据显示,其生成的3D 视图在纹理细节和结构还原度上大幅领先于此前业内最强的模型,能够支持极其真实的相机移动模拟。

目前,苹果已将SHARP的完整代码及资源发布在 GitHub 平台供全球开发者下载。尽管该模型目前主要侧重于原图视角附近的重建,无法完全“脑补”背后的盲区,但其带来的近乎实时的转换体验,无疑将为移动端3D 创作和空间计算应用开启全新的可能。
划重点:
⚡ 速度实现量级突破:SHARP模型将2D 转3D 的处理速度提升了三个数量级,实现了不到一秒的近乎实时转换体验。
🌐 领先的3D 生成技术:基于3D 高斯泼溅技术,模型通过单次神经网络前馈即可预测数百万个3D 点位,精准还原真实物理比例。
🔓 全面开源生态:苹果已在 GitHub 开源SHARP的代码与资源,旨在加速全球开发者在空间计算和3D 内容领域的创新。
.png)
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则