基于多视图深度网络模型的视觉场景解析
文献类型:学位论文
作者 | 关赫![]() |
答辩日期 | 2018-05-25 |
授予单位 | 中国科学院研究生院 |
授予地点 | 北京 |
导师 | 谭铁牛 ; 张兆翔 |
关键词 | 多视图输入 自顶向下先验学习 对抗训练 语义分割 单目深度估计 |
英文摘要 | 场景解析是视觉分析问题中的一系列高级任务,也是人工智能体感知并与真实物理世界交互的基础,在自主导航、自动驾驶、增强现实等领域有广泛应用前景。然而现有的视觉模型结构相对固化,整合手段简单,推理时先验不足,不利于实现鲁棒的、高效的视觉场景解析。为此,本文提出了一种数据与认知双向驱动的理论框架,在语义分割和深度估计等核心问题上作出有意义的改进,实现了基于多视图深度网络增强的视觉场景解析。本文的主要创新点包括: 1. 提出一种基于自顶向下的结构化动态推理方法,有效地抽取语义先验知识,并复用了真值标注。网络设计的最近趋势之一证实了 Inception 分解卷积组是有效的,因为它可以在低维空间上聚集邻域间的强相关性而不会过多地损失表达能力。该方法基于 Inception 分解的空心卷积组实现了自底向上特征抽取和自顶向下先验指导的有机结合,以低成本、正交化等优势实现了分割性 能的再增强。 2. 提出一种基于视图分解的多通路对抗训练方法,对语义粗分割结果按类别离散化处理成子视图集。该方法基于端到端训练将粗精度分割图分解为类别独立的子视图集,并且逐通道进行对抗训练获取更有针对性的反馈梯度信息。 3. 提出一种基于自监督的循环对抗网络结构,应用于单目深度估计任务。该模型从循环结构设计、自监督单目深度估计以及图像块采样对抗三种方法联合优化。通过共享和级联基础网络,实现立体视差对的自监督循环估计;通过图像块采样策略降低样本对抗训练的难度,促使合成视图的局部细节更丰富。 最后我们总结了以上提出的方法中的关键问题和应对策略,以及未来亟待探索的研究方向。 |
源URL | [http://ir.ia.ac.cn/handle/173211/21598] ![]() |
专题 | 毕业生_硕士学位论文 |
作者单位 | 中国科学院自动化研究所 |
推荐引用方式 GB/T 7714 | 关赫. 基于多视图深度网络模型的视觉场景解析[D]. 北京. 中国科学院研究生院. 2018. |
入库方式: OAI收割
来源:自动化研究所
浏览0
下载0
收藏0
其他版本
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。