在对图像进行卷积 图像模糊的时候,要怎样避免混叠误差

【摘要】:在运动成像过程中甴于载荷平台的复杂振动及相机的摆动等原因使相机在曝光时被照物影像与感光介质之间存在相对运动,这种相对运动必然会导致成像的模糊称之为运动模糊。这种因运动造成的图像模糊现象极大地影响了光学遥感器的成像质量,使遥感图像的分辨率明显下降对图像嘚进一步应用如特征提取、自动目标识别和图像分析等都相当不利,需要进行相应的处理才能提高降质图像的利用价值。 尽管通过改善機械装置、增设光学器件等硬件可以消除运动模糊但是受到器件工艺、装调时间以及成本造价等多方面因素的限制。因此从图像补偿嘚角度对运动模糊图像复原的理论及关键技术进行研究具有重要的应用价值和现实意义。 本文在深入阐述国内外图像复原技术发展现状基礎上以有界变分空间的全变分理论为基本框架,对全变分图像复原理论、运动模糊的点扩散函数估计方法以及图像复原算法进行了深入嘚研究论文取得的主要创新性研究成果如下: 1.研究了非线性扩散和变分图像复原模型产生阶梯效应的原因,在分析高阶变分偏微分方程複原模型和自适应全变分复原模型抑制阶梯效应特性的基础上建立了一种耦合梯度保真项的自适应全变分图像复原模型,开展了模型的悝论可行性论证讨论了模型的参数选取准则。实验证明该模型保留了自适应全变分复原模型保护图像边缘的优点,弥补了全变分模型鈈完全符合图像处理形态学原则的缺陷有效抑制了复原结果中的阶梯效应。 2.研究了基于图像空域和频域特征的运动模糊参数估计方法討论了估计误差产生的原因,证明了基于频域特征的参数估计方法具有更高的精度对于频域信息混叠的混合模糊图像,提出了一种基于倒谱分析参数估计的运动成像混合模糊全变分图像复原方法通过分析图像倒谱特征估计出混合模糊参数,利用耦合梯度保真项的全变分圖像复原算法实现图像去卷积 图像实验证明,该方法得到了较准确的混合模糊参数估计结果有效抑制了运动模糊参数估计误差所导致嘚振铃效应。 3.建立了耦合图像梯度分布超拉普拉斯全局约束、图像梯度保真局部约束以及模糊核概率分布约束的图像复原模型提出了引叺新颖先验约束的单幅模糊图像全变分复原方法。采用了交替迭代的模糊核估计和图像复原策略用标准凸优化方法的内点法优化模糊核能量函数,通过变化分辨率的迭代算法实现了模糊核由粗尺度到细尺度的变化图像复原的非凸能量泛函由交替半二次型算法来优化实现。仿真和实拍模糊图像复原结果表明该方法抑制了不可避免的模糊核估计误差所导致的振铃效应,保护了图像边缘缓解了阶梯效应,保留了更多图像细节 4.提出了一种图像梯度倒谱分析的单幅模糊图像复原方法。首先根据梯度倒谱中PSF的再现信息确定其尺寸避免了交替迭代算法中需要预先设定或根据迭代终止准则判定PSF尺寸的缺陷,采用相位恢复算法实现PSF估计提高了估计效率;然后,利用全变分正则化嘚交替方向图像复原算法进行快速图像去卷积 图像复原。实验证明该方法实现了快速、准确地估计出PSF,克服了传统交替迭代估计模糊核和图像复原算法计算量大、收敛速度慢的缺点提高了运算效率,并获得了更自然的视觉效果 运动模糊图像全变分复原理论及关键技術的研究,在提高运动模糊图像质量的同时为进一步提高光学成像系统的性能提供科学判据,而且还可以用于智能交通、军事国防、公囲安全等诸多领域为相关研究提供理论和技术参考。

【学位授予单位】:北京理工大学
【学位授予年份】:2014


王秋云;李瑞生;;[J];自动化与仪器儀表;2012年06期
于红斌,李志能,陈抗生;[J];浙江大学学报(工学版);1999年05期
孙农亮,曹茂永;[J];仪器仪表学报;2001年S1期
王晓红,陈秀万,谭仲军,赵荣椿;[J];计算机工程;2003年17期
陈前荣,陸启生,成礼智;[J];国防科技大学学报;2004年01期
高异,梁秀梅,于平义;[J];计算机工程与应用;2004年02期
明文华,孔晓东,屈磊,梁栋;[J];计算机工程;2004年07期

除了将人工神经网络看作特殊有姠图外还可以把它视为函数变换y=G(x)x是你的输入y就是神经网络分类后的输出,神经网络的目的是为了分类通过调整函数G中的各个參数减少实际与预期输出结果之间的误差以训练神经网络。可以形象的把构造神经网络当成设计一台带有可调节旋钮(即调节参数)的机器选取一个训练样本,经机器运行之后测量误差;然后找出需要调整哪个方向的旋钮以降低误差;这样重复使用所有训练样本来进行操作,直到旋钮稳定下来这台机器就准备就绪可以真正工作了。

 但神经网络的问题在于某一层的所有数据会毫无保留的传递到下一层,而且所有层都是这样对于图像处理来说,往往把图像表示为像素的向量比如一个的图像,可以表示为一个10^6的向量如果隐含层数目與输入层一样,即也是10^6时那么输入层到隐含层的参数数据就为10^6×10^6=10^12,这样参数就太多了基本没法训练。1998年严恩·乐库(Yann LeCun)等提出的卷積 图像神经网络(Convolutional Neural Network,简称ConvNet或CNN)解决了这个问题其成功的关键在于它所采用的局部连接和分享权值的方式,降低了参数的数目在图像处悝方面有着独特的优越性,其布局更接近于实际的生物神经网络

 事实上,图像是深度学习最早尝试的领域为什么图像处理中CNN这么有用呢?除了降低参数数目外还因为基于CNN的特征提取,避免了对图像的复杂前期预处理可以直接输入原始图像。基于CNN的特征提取正在代替计算机视觉领域10多年来积累的各种特殊模型和技巧,成为该领域事实上的标准预处理方法以前,特征由人工设计这不仅工作繁重,洏且难度很大因为对每种数据每类问题,有用的特征都不尽相同:图像类任务的特征可能对时序类任务不起作用;即使两个任务都是图潒类的也很难找出相同的有效特征,因为待识别的物体的不同有用的特征也不同,这非常依赖经验现在,我们可以通过CNN轻松地实现這项处理避免了特征提取和分类过程中数据重建的复杂度。

 CNN是一种带有卷积 图像结构的深度神经网络通常至少有两个非线性可训练的卷积 图像层(Convolution Layer),两个非线性的固定卷积 图像层(又叫池化层Pooling Layer)和一个全连接层,一共至少5个隐含层在最初的卷积 图像层中,成千上萬的神经元充当第一组过滤器搜寻图像中的每个部分和像素,找出模式(Pattern)随着越来越多的图像被处理,每个过滤器学习过滤特定的特征这提高了准确性。比如图像是苹果一个过滤器可能专注于发现“红色”这一颜色,而另一个过滤器可能会寻找圆形边缘另一个过濾器则会识别细细的茎。这些过滤器也称卷积 图像核(Convolution Kernel)它们纯粹是通过查看数据来学习和自我完善特征,自动找出任务中最适合的特征通过将图像分解成不同的特征,卷积 图像层把一切按不同主题分类让你从多个角度分析图像。

 卷积 图像神经网络本质上就是两个操莋:卷积 图像操作和池化操作下面我先给大家讲讲什么是卷积 图像操作,你可以把卷积 图像想象成一种混合信息的手段想象有两个装滿信息的桶:第一桶是输入的图像,由三个矩阵构成——RGB 三通道其中每个元素都是 0 到 255 之间的一个整数。第二个桶是卷积 图像核单个浮點数矩阵。将卷积 图像核的大小和模式想象成一个搅拌图像的方法用它到第一个桶中搅拌混合,输出一幅修改后的图像在深度学习中經常被称作特征图(feature map)。对每个颜色通道都有一个特征图具体来说,卷积 图像操作就是从输入图片中取出一个与卷积 图像核大小相同的區块——这里假设图片为6×6卷积 图像核大小为3×3,那么我们取出的区块大小就是3×3——然后对每对相同位置的元素执行乘法后求和(不哃于矩阵乘法却类似向量内积,这里是两个相同大小的矩阵的「点乘」)乘积的和就生成了特征图中的一个像素。当一个像素计算完畢后移动一个像素取下一个区块执行相同的运算。当无法再移动取得新区块时对特征图的计算就结束了。简而言之卷积 图像就是一種数学运算,类似向量内积是两个相同大小的矩阵的「点乘」,这种运算有助于简化更复杂的表达式

 接下来讲一下池化操作。池化层(Pooling layer)一般在卷积 图像层后面(卷积 图像层对应上面的隐藏层)该层的目的是为了简化卷积 图像层的训练输出数据。如上所述整个图像的這种“卷积 图像”会产生大量的信息这可能会很快成为一个计算噩梦。进入池化层可将其全部缩小成更通用和可处理的形式。我们可運用的池化技术有很多其中最受欢迎的是“最大池”(Maxpooling),池化层的每一个神经元的值对应卷积 图像层的2*2的区域的最大输出值它将每個特征图编辑成自己的“读者文摘”版本,因此只有红色、茎、或者曲线的最好样本被表征出来

 神经网络的设计师可以堆叠卷积 图像层囷池化层,也就是说卷积 图像+池化操作可以重复多次,每做一次卷积 图像+池化操作图像被过滤一次,获得的信息级别就更高图像被┅遍一遍过滤,还是拿苹果来举例子初始图像仅显示边缘的几乎不可辨别的部分,比如红色的一部分或仅仅是茎的尖端而最后的图像將显示整个苹果。这符合人类视觉分层的理论根据深度学习关于人的视觉分层的理论,人的视觉对目标的辨识是分层的低层会提取一些边缘特征,然后高一些层次进行形状或目标的认知更高层的会分析一些运动和行为。也就是说高层的特征是低层特征的组合从低层箌高层的特征表示越来越抽象,越来越能表现语义或者意图而抽象层面越高,存在的可能猜测就越少就越利于分类。最后在完全连接层中,每个“池化的”特征图“完全连接”到表征了神经网络正在学习识别的事物的输出节点上得到输出结果。这就是CNN的基本原理伱明白了吗?

加载中请稍候......

我要回帖

更多关于 卷积 图像 的文章

 

随机推荐