基于模型驱动深度学习的多普勒弹性互补序列集设计

【字体: 时间:2025年09月06日 来源:Differentiation 2.6

编辑推荐:

  本文提出了一种创新的遮挡光场(OLF)稀疏贝叶斯学习网络(OLiFi-Net),通过分解场景参数化与插值重建两阶段任务,实现了复杂遮挡场景下的新视角合成(NVS)。其核心贡献在于:1)无需深度先验的OLF数学表达;2)基于稀疏贝叶斯学习(SBL)的优化框架;3)环形卷积网络对遮挡/非遮挡区域的联合建模,为虚拟现实(VR)和自由视点电视(FTV)提供新解决方案。

  

Highlight

• 提出新型光场重建网络,可在输入边界内任意位置渲染新视角,且无需依赖场景深度参数化

• 基于优化的信号平滑模型,对部分遮挡和深度不连续场景具有更强鲁棒性

• 通过EPI分析(无需先验假设)推导出遮挡光场(OLF)的数学表达式

Method Overview

我们采用原始7D全光函数(POF)表示3D场景,建立遮挡光场模型(OLFM):

y(t,v)=yo(t,v)+yno(t,v)+εn

其中yo和yno分别代表遮挡/非遮挡区域光辐射度,εn为采集噪声。

Experimental Analysis

在稀疏/稠密输入数据集上的实验表明:

1)视角合成任务中PSNR提升23.6%

2)OLF任务对遮挡边界识别准确率达91.4%

Conclusions

本研究通过IBR(基于图像的渲染)表示与卷积插值的双阶段框架,为线性约束采集的稀疏视角提供创新解决方案。未来将探索动态场景的实时渲染优化。

(注:根据要求已去除文献标识[51][52]及图示引用,数学符号采用标签规范)

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号