一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

晋级网络自强化的图像语音深度学习模型的制作方法

2022-07-02 05:53:18 来源:中国专利 TAG:


1.本技术涉及一种自强化图像语音深度学习模型,特别涉及一种晋级网络自强化的图像语音深度学习模型,属于图像语音深度学习技术领域。


背景技术:

2.机器学习是人工智能的一个重要研究领域,最基本的做法是运用各种算法让计算机从数据中学习获取所需的知识,并能够加以推广解决与之相关的问题,机器学习从模型的层次结构上看经历了两个阶段:浅层学习和深度学习。在应用机器学习算法建立复杂模型解决问题的时候,影响其性能的一个重要因素是数据表达形式。现有技术通过人工设计特征的方法寻找合适的数据特征来提高模型准确度以及从原始数据中获取信息的方法,不仅对设计特征的经验和技术要求极高,也需要大量的时间成本,研发方向是设计一种能自主从海量数据中学习有用信息的方法,能自主学习数据特征而不是简单的学习特征到结果的映射,作为机器学习的一个新领域,深度学习的出现就是为了让机器学习更加智能。
3.传统的浅层机器学习模型在结构上不含或含较少的隐层节点,浅层网络中通过图像和滤波器的卷积操作只能得到样本的一些边缘和简单纹理特征。而由多层非线性运算单元组合的深度神经网络,通过将浅层网络的底层特征加以组合可以得到更为复杂的图像特征,这与人类视觉所能感知的物体特征更为接近。总的来说,(1)深度学习模型具有更深的层次结构,包含五层以上的隐层节点;(2)深度学习强调模型的自主学习能力,不仅学习输入输出之间的映射关系,还学习原始数据的特征表达,顺着网络结构不断深入,在各层之间进行特征的变换。相比于浅层学习,深度学习具有明显的优越性,具体表现为:一是浅层神经网络结构中局部估计器泛化能力很差,难以实现对复杂目标函数的表征;二是如果目标函数能用一个k 1层网络紧凑表示出来,当网络深度为k时,表达该函数所需的计算单元将成指数倍增长,计算复杂度大大增加;由于网络计算单元参数调整依靠训练样本,在样本量一定的情况下,计算单元的增加使网络泛化能力下降;三是深度学习模型利用分级处理思想,在不同空间上获取对输入数据不同层次的特征表达,在分类和估计推理任务上有更好效果。
4.现阶段,深度学习已广泛深入到语音识别、图像理解和自然语言处理等领域并颇有成效,目前主要集中在对网络结构和网络优化算法两方面。神经网络不仅功能强大且设计灵活,在图像、语音和自然语言理解等许多具有挑战性的学习任务中得到了应用。但神经网络的设计依然是个难题。典型的cnn架构通过组合卷积层、池化层和全连接层得到,卷积和池化交替出现,然后加入全连接层最后得到输出。在构建cnn的同时,网络设计者必须做出许多设计选择:每种类型的层数及顺序,归一化操作中的指数以及每种类型的层的超参数包括感受野大小、步长和卷积核数量等。这使得cnn架构的设计空间非常大,很多模型实例无法实现,因此完全的手动搜索是不可行的。
5.基于卷积神经网络的深度学习,包括网络结构、基本运算和训练技巧等。尽管网络变得越来越高效,但架构设计却更加复杂,需要具有很丰富的专业知识和经验,并耗费大量
时间成本,当前神经网络的设计依然是一个大难题。目前cnn架构主要通过实验手工制作或从少数现有的网络中修改,这对专业技术知识有很高的要求且工作量巨大。所以神经网络的自动化及计算机辅助设计极具研发和应用价值。
6.现有技术的深度神经网络结构:正向和反馈的网络结构使其具有很强的学习能力,通过不断的迭代和调整网络神经元之间的权值得到一个非线性的回归函数使其能够在分类问题上发挥巨大作用。为了学习可以表示高级抽象(例如在视觉,语言和其它ai级任务)的复杂函数的类型,需要深层架构,目前三种神经网络架构是深度置信网络、层叠自动编码机、和卷积神经网络。深度卷积神经网络在诸如语音图像识别和机器翻译等人工智能任务中取得了巨大的成功。随之而来的是从特征设计到架构设计的一个模式转变,尽管在自动化和计算机辅助神经网络设计方面已有一些卓有成效的工作,但新的cnn架构和网络设计元素仍主要由研发人员使用从实验中获得的新的理论见解或凭直觉,对于自动学习网络结构的研究问题亟待解决。
7.现有技术的深度神经网络训练:对深度神经网络尤其是卷积神经网络训练算法以及实现技巧细分为预处理方法、初始化方法、激活函数的选择、正则化方法四个方面。
8.综上所述,现有技术的图像语音机器学习仍然存在问题,本技术的难点和待解决的问题主要集中在以下方面:
9.第一,现有技术通过人工设计特征的方法寻找合适的数据特征来提高模型准确度以及从原始数据中获取信息的方法,不仅对设计特征的经验和技术要求极高,也需要大量的时间成本,缺少一种能自主从海量图像语音数据中学习有用信息的方法,能自主学习数据特征而不是简单的学习特征到结果的映射,浅层网络中通过图像和滤波器的卷积操作只能得到样本的一些边缘和简单纹理特征,层次结构少,模型没有自主学习能力,不仅无法学习输入输出之间的映射关系,也无法学习原始数据的特征表达,无法在各层之间进行特征的变换,局部估计器泛化能力很差,难以实现对复杂目标函数的表征,计算复杂度大,特别是在分类和估计推理任务上还不够成熟,计算速度慢,抗噪能力差,准确度还无法满足要求;
10.第二,现有技术在构建cnn的同时,网络设计者必须做出许多设计选择:每种类型的层数及顺序,归一化操作中的指数以及每种类型的层的超参数包括感受野大小、步长和卷积核数量等,使得cnn架构的设计空间非常大,很多模型实例无法实现,完全的手动搜索是不可行的;基于卷积神经网络的深度学习架构设计更加复杂,需要具有很丰富的专业知识和经验,并耗费大量时间成本,当前神经网络的设计依然是一个大难题,目前cnn架构主要通过实验手工制作或从少数现有的网络中修改,这对专业技术知识有很高的要求且工作量巨大,无法实现神经网络的自动化及计算机辅助设计,无法满足语音识别、图像理解和自然语言处理等等大部分应用场景的需求;
11.第三,现有技术无法实现自动化cnn架构的选择过程,缺少将晋级方案与神经网络结构融合的可实现网络参数和模块自主学习,兼容线性与非线性的深度学习架构;缺少非线性形态晋级自强化网络包括的最大形态晋级和中值形态晋级两种方案,无法通过松散型和紧凑型两种方式分别将线性和非线性晋级方案与神经网络分类模型相结合构造深度学习分类模型;网络结构方面缺少自强化网络晋级方案生成神经网络层架构,无法对卷积和池化层自主联合,无法用自适应卷积核代替估计推理算子和改造算子实现全晋级网络;网
络运算方面,无法用晋级操作实现卷积运算和池化运算,实现线性与非线性的统一;在神经网络的训练过程中,缺少加速网络训练,不仅网络保留卷积不具有可学习性,池化层也不可学习;图像语音学习实际应用价值大打折扣;
12.第四,现有技术针对cnn层结构包括层顺序和层类型的灵活选择问题没有可靠的解决方法,无法构建不同的晋级框架来实现对神经网络不同模块的拟合,缺少分别实现cnn线性卷积和非线性池化构建融合型网络;现有技术无法解决图像分类网络的训练过程中内部变量漂移现象,未考虑到感受野大小对网络性能的影响,估计推理和改造算子涉及不够合理,缺少分层低熵方法,模型学习效率低,速度慢,图像语音分类精度较低。


技术实现要素:

13.本技术通过基于自强化网络晋级方案的元模型来自动化cnn架构的构建过程,将晋级方案与神经网络结构融合设计出一种可实现网络参数和模块自主学习,兼容线性与非线性的深度学习架构,系统稳定性提高;通过松散和紧凑分别将线性和非线性晋级方案与神经网络分类模型相结合构造深度学习分类模型,泛化能力强;网络结构方面提出自强化网络晋级方案生成神经网络层架构的方法,对卷积和池化层进行自主联合,实现全晋级网络,分级处理在分类和估计推理任务上有更好效果;网络运算方面用晋级操作来实现卷积运算和池化运算,实现线性与非线性的统一,计算复杂度低;神经网络的训练过程采用分层低熵来加速网络训练,不仅使网络保留卷积的可学习性,还使得池化层变得可学习,模型学习能力强,误差比现有技术方法的都小,图像语音识别分类的准确性和鲁棒性更好。
14.为实现以上技术优势,本技术所采用的技术方案如下:
15.晋级网络自强化的图像语音深度学习模型,通过基于自强化网络晋级方案的元模型来自动化cnn架构的选择过程,将晋级方案与神经网络结构融合设计出一种可实现网络参数和模块自主学习,兼容线性与非线性的深度学习架构;采用非线性形态晋级自强化网络,包括最大形态晋级和中值形态晋级两种方案,然后通过两种松散型和紧凑型两种方式,分别将线性和非线性晋级方案与神经网络分类模型相结合构造深度学习分类模型;在网络结构方面,提出自强化网络晋级方案生成神经网络层架构的方法,对卷积和池化层进行自主联合,用自适应卷积核代替估计推理算子和改造算子,分别替换卷积和池化,进而实现全晋级网络;在网络运算方面,用晋级操作来实现卷积运算和池化运算,实现线性与非线性的统一;在神经网络的训练过程中,采用分层低熵来加速网络训练,将改进的晋级架构与神经网络的紧凑型结合,不仅使网络保留卷积的可学习性,还使得池化层变得可学习;
16.第一,针对cnn层结构包括层顺序和层类型的灵活选择问题,提出一种改进的自强化网络晋级方案作为元模型来对网络中的线性和非线性模块进行自主联合实现,基础网络是将lenet-5与晋级自强化网络相结合,构造的一个具有五层结构的松散型神经网络,通过构建不同的晋级框架来实现对神经网络不同模块的拟合,采用改进的晋级框架分别实现cnn线性卷积和非线性池化构建融合型网络;
17.第二,针对图像分类网络的训练过程中容易产生内部变量漂移现象,采用调整改进的神经网络优化算法,考虑到感受野大小对网络性能的影响,对改进的晋级方案中的估计推理和改造算子进行修改优化,网络中的晋级和改造滤波的窗口大小为3
×
3,使用分层低熵方法后,分类精度大幅提高。
18.优选地,晋级网络自强化的深度学习框架:基于晋级框架的深度学习模型,基于自强化网络晋级方案自身的设计灵活性和自适应特征,将晋级方案与神经网络结构融合设计出一种可实现网络参数和模块自主学习,兼容线性与非线性的深度学习架构,上部分是卷积神经网络架构,下部分是拟实现的全晋级网络模型,整个框架实现分为三个步骤:(1)晋级实现线卷积;(2)晋级实现池化;(3)晋级实现其它非线性模块;
19.通过一个参数化、可学习的架构实现卷积神经网络的包括卷积、池化、softmax在内的多个基元,并将这些模块都参数化,最终将bp算法传递的可学性从卷积系数扩充到架构类型和模块选择,实现自主学习的全晋级网络。
20.优选地,晋级方案驱动的线性自强化网络:采用二维离散强化网络、图像强化网络和语音强化网络构造晋级自强化网络;
21.(1)二维离散强化网络的滤波器组的z变换为:
[0022][0023]
p(z)为互补滤波器组(h,g)的多相矩阵,对偶滤波器组(h
*
,g
*
)的多相矩阵为p
*
(z),x={x[n]|n∈z}表示输入序列,c={c[n]|n∈z}和d={d[n]|n∈z}分别表示x[n]经过滤波器组(h,g)并下采样后得到的序列,则应用欧氏范数算法,其多相矩阵可表示为:
[0024][0025]
则分析多相矩阵为;
[0026][0027]
得二维离散强化网络的晋级自强化正变换为:
[0028][0029]
逆变换只需改变对应的符号,如下:
[0030][0031]
通过上述方法对二维离散强化网络进行晋级构造就得到二维离散晋级自强化网络;
[0032]
(2)对于图像强化网络,其分析多相矩阵表示为:
[0033][0034]
则相应的晋级过程如下:
[0035]
图像分割:
[0036]
d[n]
(0)
=x[2n 1],c[n]
(0)
=x[2n]
ꢀꢀꢀ
式7
[0037]
估计推理1:
[0038]
d[n]
(1)
=d[n]
(0)
α(c[n]
(0)
c[n 1]
(0)
)
ꢀꢀꢀ
式8
[0039]
图像改造1:
[0040]
c[n]
(1)
=c[n]
(0)
β(d[n]
(1)
d[n-1]
(1)
)
ꢀꢀꢀ
式8
[0041]
估计推理2:
[0042]
d[n]
(2)
=d[n]
(1)
γ(c[n]
(1)
c[n 1]
(1)
)
ꢀꢀꢀ
式9[0043]
图像改造2:
[0044]
c[n]
(2)
=c[n]
(1)
δ(d[n]
(2)
d[n l]
(2)
)
ꢀꢀꢀ
式10
[0045]
收缩因子:
[0046][0047]
其中,α,β,δ,γ,k均为无理数,近似值为:
[0048][0049]
由上述晋级过程得到图像强化网络晋级方案,增加一组估计推理和图像改造步骤,并基于原位计算,计算所需内存较少,不增加运算成本,对运算速度也无影响;
[0050]
(3)语音强化网络变换的算法表示如下:
[0051]
语音分割:采用惰性自强化网络变换实现;
[0052]
估计推理:
[0053][0054]
语音改造:
[0055][0056]
得到语音强化网络变换晋级方案。
[0057]
优选地,形态晋级自强化网络:
[0058]
(1)最大晋级格形态自强化网络
[0059]
采用最大值算子作为估计推理算子和改造算子来构造形态晋级自强化网络,假设原始信号分解采用自强化网络分解,即:
relu-[fullconnect]
×
m-softmax形式,将该网络记为lsq-1,在该网络模型中,li代表晋级层,ci表示卷积层,fci表示全连接层;
[0086]
晋级模块的具体实现过程为:对输入图像语音的每行和每列分别进行晋级,针对不同的自强化网络,其晋级方案不同,采用二维离散强化网络、图像强化网络和语音强化网络,利用估计推理误差改造得到的平滑分量输入到下层卷积神经网络,提取的晋级自强化网络特征图大小是输入的四分之一。
[0087]
优选地,晋级网络自强化的神经网络模型:利用自强化网络变换的空间域,提出估计推理误差解释,提供用于设计定制变换的框架,使用任何线性、非线性或空间变化的估计推理器和改造器以匹配给定信号的特性;
[0088]
本技术基于晋级网络提出一种自适应自强化网络变换晋级框架,通过估计推理器和改造器的自适应来对信号进行分析处理,通过优化基于数据的估计推理误差准则来自适应的将这种晋级结构的处理调谐到期望的信号;
[0089]
新变换利用更好的估计推理变量获得更有效的信号表示,即获取更好的特征表达,改进的晋级方案将原晋级方案的估计推理和改造算子用卷积核来代替。
[0090]
优选地,(一)从晋级到卷积:
[0091]
在lsq-1模型中,晋级模块的l1层并没有参数化,在训练过程中不可学,这相当于对输入图像语音的前置处理操作,为将晋级自强化网络与神经网络紧密结合,对晋级方案做进一步改进,通过对神经网络的训练,让该晋级层的估计推理算子和改造算子实现自主学习,从而自适应的调整来匹配输入信号,并且更好的进行特征提取,晋级方案与网络的采用交融结合方式。
[0092]
改进后的模型记为lsq-2,它是将lsq-1中的晋级层换成改进后的晋级结构并加入到神经网络结构内部,采用的形式是:(conv relu pool)
×
n-lifting
×
z-(conv relu)
×
m-full connect-softmax;
[0093]
具体实现:

将原晋级方案的估计推理改造算子设计成卷积核,训练实现自适应性以克服其固定结构对特征提取结果的影响;(2)对输入进行惰性自强化网络变换,得到的奇偶部分按照估计推理和改造进行处理,p、u采取与卷积基元相同的局部连接与权值共享结构,改造所得的特征值组合成一张晋级特征图,输入到下层卷积神经网络中。
[0094]
优选地,(二)晋级网络:
[0095]
将模型lsq-2中的卷积层全部用晋级结构来实现得到的网络记为lsq-3,采用的形式是:lifting
×
m-full connect
×
n-softmax;
[0096]
在该模型结构中,晋级层后接的池化层和激活层都没有作为单独的网络层画出来,填充的边缘也没有在图上体现。晋级层的处理过程与lsq-2相同,大小为32
×
32的输入数据进入网络后,每过一个晋级层大小都变为该层输入的四分之一,这样经过第三个晋级层的处理之后,就进入全连接层,最后通过softmax层输出进行判别分类。
[0097]
优选地,(三)晋级实现池化:
[0098]
形态晋级自强化网络不仅保留多分辨率分析的特征还具有良好的细节保留和抑制图像语音噪声的能力,并且集成晋级方案的灵活性,其局部极值保持的特征,对信号特征提取极为重要,将模型lsq-1中的池化层分别用晋级结构实现,将原始晋级框架中的线性估计推理算子和改造算子替换成非线性形态滤波器;
[0099]
(1)晋级实现max pooling。
[0100]
按照最大晋级格形态自强化网络,将估计推理算子p和改造算子u分别设置成最大值算子来构造形态晋级方案,并将该晋级模块嵌进神经网络替换max pooling层,将lsq-1网络中第一层卷积后面的max pooling层替换掉,第三层和第四层卷积后面的average pooling层保留。
[0101]
(2)晋级实现average pooling
[0102]
将估计推理算子p和改造算子u分别设置成常数1和中值算子,即构造一个中值形态晋级框架,然后用该晋级模块替换掉lsq-1网络中第三层和第四层卷积后面的average pooling层,第一层卷积后面的max pooling层保留;
[0103]
(3)晋级实现池化
[0104]
将lsq-1网络中第一层卷积后面的max pooling层用最大晋级格形态自强化网络替换,第三层和第四层卷积后面的average pooling层用中值形态晋级框架来实现,得到的新模型记作lsq-4。
[0105]
与现有技术相比,上述技术方案具有以下创新点和优势:
[0106]
第一,本技术由多层非线性运算单元组合的深度神经网络,将浅层网络的底层特征加以组合得到更为复杂的图像特征,与人类视觉所能感知的物体特征更为接近,模型具有更深的层次结构,包含五层以上的隐层节点,自主学习能力增强,不仅学习输入输出之间的映射关系,还学习原始数据的特征表达,网络结构深入各层之间进行特征变换,泛化能力强,实现对复杂目标函数的表征,计算单元控制在合理范围,计算复杂度合理;利用分级处理思想,在不同空间上获取对输入数据不同层次的特征表达,在分类和估计推理任务上有更好效果;每种类型的层数及顺序,归一化操作中的指数以及每种类型的层的超参数包括感受野大小、步长和卷积核数量等自适应设计,通过神经网络的自动化及计算机辅助设计,在语音识别、图像理解和自然语言处理等领域具有重大作用和巨大实用价值;
[0107]
第二,本技术通过基于自强化网络晋级方案的元模型来自动化cnn架构的选择过程,将晋级方案与神经网络结构融合设计出一种可实现网络参数和模块自主学习,兼容线性与非线性的深度学习架构,系统稳定性提高;采用非线性形态晋级包括最大形态晋级和中值形态晋级两种方案,通过松散和紧凑分别将线性和非线性晋级方案与神经网络分类模型相结合构造深度学习分类模型,泛化能力强;网络结构方面提出自强化网络晋级方案生成神经网络层架构的方法,对卷积和池化层进行自主联合,实现全晋级网络,分级处理在分类和估计推理任务上有更好效果;网络运算方面用晋级操作来实现卷积运算和池化运算,实现线性与非线性的统一,计算复杂度低;神经网络的训练过程采用分层低熵来加速网络训练,不仅使网络保留卷积的可学习性,还使得池化层变得可学习,模型学习能力强,误差比现有技术方法的都小,图像语音识别分类的准确性和鲁棒性更好;
[0108]
第三,针对cnn层结构包括层顺序和层类型的灵活选择问题,本技术提出一种改进的自强化网络晋级方案作为元模型来对网络中的线性和非线性模块进行自主联合实现,基础网络是将lenet-5与晋级自强化网络相结合,构造的一个具有五层结构的松散型神经网络,通过构建不同的晋级框架来实现对神经网络不同模块的拟合,采用改进的晋级框架分别实现cnn线性卷积和非线性池化构建融合型网络;晋级方案多一组估计推理和改造步骤,有效避免图像语音重建误差扩大,提高了整个系统的稳定性,晋级模块可学习的融合型网
络模型lsq-2和lsq-3的分类精度分别比松散型网络模型lsq-1高出了3.9%和6.5%,晋级模块在特征提取上实用高效,对卷积层的替换有很好的效果,方案实现池化的效果好;
[0109]
第四,针对图像分类网络的训练过程中容易产生内部变量漂移现象,本技术采用调整改进的神经网络优化算法,考虑到感受野大小对网络性能的影响,对改进的晋级方案中的估计推理和改造算子进行修改优化,网络中的晋级和改造滤波的窗口大小为3
×
3,使用分层低熵方法后,加快收敛,防止过拟合,分类精度大幅提高,估计推理和改造结构的感受野好,在不同信噪比下,图像语音深度学习估算都比较准确,在图像语音分类识别和智能应用中竞争力强。
附图说明
[0110]
图1是晋级网络自强化的深度学习框架图。
[0111]
图2是二维离散自强化网络晋级结构图。
[0112]
图3是图像自强化网络晋级结构图。
[0113]
图4是图像语音深度学习模型改进前后的晋级方案对比图。
[0114]
图5是从晋级到卷积处理时晋级层分类示意图。
[0115]
图6是模型lsq-1的结构参数示意图。
[0116]
图7是模型lsq-3的结构参数示意图。
[0117]
图8是三种前置处理晋级网络学习结果对比图。
[0118]
图9是替换池化层的各对比试验的平均分类精度示意图。
[0119]
图10是改进模型实验在cifar-10数据集上的分类结果图。
[0120]
图11是改进模型实验在mnist数据集上的分类结果图。
[0121]
图12是本技术不同感受野大小的分类结果示意图。
[0122]
具体实施方法
[0123]
为了使本技术的目的、特征优势和创新点能够更为明显易懂和便于实施,下面结合附图对具体实施方式做详细的说明。本领域技术人员可以在不违背本技术内涵时做类似推广,因此本技术不受下面公开的具体实施方式的限制。
[0124]
基于卷积神经网络的深度学习,包括网络结构、基本运算和训练技巧等。尽管网络变得越来越高效,但架构设计却更加复杂,需要具有很丰富的专业知识和经验,并耗费大量时间成本,当前神经网络的设计依然是一个大难题。
[0125]
目前cnn架构主要通过实验手工制作或从少数现有的网络中修改,这对专业技术知识有很高的要求且工作量巨大。所以神经网络的自动化及计算机辅助设计极具研发和应用价值。
[0126]
本技术通过基于自强化网络晋级方案的元模型来自动化cnn架构的选择过程,将晋级方案与神经网络结构融合设计出一种可实现网络参数和模块自主学习,兼容线性与非线性的深度学习架构。
[0127]
(1)针对cnn层结构包括层顺序和层类型的灵活选择问题,提出一种改进的自强化网络晋级方案作为元模型来对网络中的线性和非线性模块进行自主联合实现,基础网络是将lenet-5与晋级自强化网络相结合,构造的一个具有五层结构的松散型神经网络,然后在cifar-10数据库和mnist数据库的分类任务中,采用改进的晋级框架分别实现cnn线性卷积
和非线性池化构建融合型网络,来验证本技术方法的有效性。
[0128]
(2)针对图像分类网络的训练过程中容易产生内部变量漂移现象,采用调整改进的神经网络优化算法,来进行对比试验,另外考虑到感受野大小对网络性能的影响,对改进的晋级方案中的估计推理和改造算子进行修改优化,并在两个数据库上进行分类对比试验。结果表明,网络中的晋级和改造滤波的窗口大小为3
×
3,使用分层低熵方法后,分类精度大幅提高。
[0129]
本技术在卷积神经网络lenet-5模型的基础上,利用自强化网络的晋级方案设计新的网络架构,并在cifar-10数据集和mnist数据集上验证其有效性,先将自强化网络引入神经网络,对输入图像语音提取不同晋级自强化网络特征输入神经网络训练,晋级操作相当于对网络输入的前置处理。提出自强化网络晋级方案生成神经网络层架构的方法,对卷积和池化层进行自主联合,用自适应卷积核代替估计推理算子和改造算子,分别替换卷积和池化,进而实现全晋级网络,并采用分层低熵来加速网络训练,将改进的晋级架构嵌进神经网络,作为其可学习的部分。
[0130]
一、晋级网络自强化的深度学习框架
[0131]
卷积神经网络目前参数可学习的部分只存在于线性运算,也即卷积核的学习,包括池化层和激活函数在内的非线性模块参数都是靠人为设置,并且对于网络层数、网络层类别都需要人工判定,这使得卷积神经网络架构的设计空间非常大,很多模型实例无法涉及,因此对于完全的手动搜索是不可行的。本技术基于晋级框架的深度学习模型,基于自强化网络晋级方案自身的设计灵活性和自适应特征,将晋级方案与神经网络结构融合设计出一种可实现网络参数和模块自主学习,兼容线性与非线性的深度学习架构。
[0132]
在图1中,下部分是卷积神经网络架构,上部分是拟实现的全晋级网络模型,整个框架实现分为三个步骤:(1)晋级实现线卷积;(2)晋级实现池化;(3)晋级实现其它非线性模块。
[0133]
现有技术不管是架构设计还是模块选择都需要人为设置。但本技术通过一个参数化、可学习的架构来实现卷积神经网络的包括卷积、池化、softmax在内的多个基元,并将这些模块都参数化,最终达到将bp算法传递的可学性从卷积系数扩充到架构类型和模块选择,实现自主学习的全晋级网络。
[0134]
二、晋级网络自强化的线性和非线性自强化网络
[0135]
基于晋级自强化网络在信号处理方面的优势,尤其是在图像语音压缩和编码应用中的优越性能,本技术将晋级网络与深度学习方法相结合,对神经网络的结构进行优化,构建图像语音分类模型。
[0136]
(一)晋级方案驱动的线性自强化网络
[0137]
采用二维离散强化网络、图像强化网络和语音强化网络构造晋级自强化网络。
[0138]
(1)二维离散强化网络的滤波器组的z变换为:
[0139][0140]
p(z)为互补滤波器组(h,g)的多相矩阵,对偶滤波器组(h
*
,g
*
)的多相矩阵为p
*
(z),x={x[n]|n∈z}表示输入序列,c={c[n]|n∈z}和d={d[n]|n∈z}分别表示x[n]经过
滤波器组(h,g)并下采样后得到的序列,则应用欧氏范数算法,其多相矩阵可表示为:
[0141][0142]
则分析多相矩阵为;
[0143][0144]
得二维离散强化网络的晋级自强化正变换为:
[0145][0146]
逆变换只需改变对应的符号,如下:
[0147][0148]
通过上述方法对传统二维离散强化网络进行晋级构造就得到二维离散晋级自强化网络,其晋级结构图表示如图2。
[0149]
(2)对于图像强化网络,其分析多相矩阵表示为:
[0150][0151]
则相应的晋级过程如下:
[0152]
图像分割:
[0153]
d[n]
(0)
=x[2n 1],c[n]
(0)
=x[2n]
ꢀꢀꢀ
式7
[0154]
估计推理1:
[0155]
d[n]
(1)
=d[n]
(0)
α(c[n]
(0)
c[n l]
(0)
)
ꢀꢀꢀ
式8
[0156]
图像改造1:
[0157]
c[n]
(1)
=c[n]
(0)
β(d[n]
(1)
d[n-1]
(1)
)
ꢀꢀꢀ
式8
[0158]
估计推理2:
[0159]
d[n]
(2)
=d[n]
(1)
γ(c[n]
(1)
c[n 1]
(1)
)
ꢀꢀꢀ
式9
[0160]
图像改造2:
[0161]
c[n]
(2)
=c[n]
(1)
δ(d[n]
(2)
d[n-l]
(2)
)
ꢀꢀꢀ
式10
[0162]
收缩因子:
[0163][0164]
其中,α,β,δ,γ,k均为无理数,近似值为:
[0165][0166]
由上述晋级过程得到图像强化网络晋级方案,如图3所示.
[0167]
从图3看出图像强化网络晋级方案增加一组估计推理和图像改造步骤,并基于原位计算,计算所需内存较少,不会增加运算成本,对运算速度也不会有影响。
[0168]
(3)语音强化网络变换的算法表示如下:
[0169]
语音分割:采用惰性自强化网络变换实现;
[0170]
估计推理:
[0171][0172]
语音改造:
[0173][0174]
得到语音强化网络变换晋级方案。
[0175]
(二)形态晋级自强化网络
[0176]
(1)最大晋级格形态自强化网络
[0177]
采用最大值算子作为估计推理算子和改造算子来构造形态晋级自强化网络,假设原始信号分解采用自强化网络分解,即:
[0178][0179]
估计推理算子p和改造算子u分别采用:
[0180]
p(xe[n])=xe[n]∨xe[n 1]
[0181]
u(d[n])=-(0∨d[n-l]∨d[n])
ꢀꢀꢀ
式16
[0182]
其中,∨为表示上确界的符号,xe[n]∨xe[n 1]表示集合{xe[n],xe[n 1]}的上确界;
[0183]
晋级过程表示为:
[0184]
估计推理:
[0185]
d[n]=xo[n]-(xe[n]∨xe[n 1])=x[2n 1]-(x[2n]∨x[2n 2])
ꢀꢀꢀ
式17
[0186]
改造融合:
[0187]
c[n]=xe[n] (0∨d[n-1]∨d[n])=
[0188]
x[2n] (0∨(x[2n-2]-(x[2n-2]∨x[2n]))∨(x[2n 1]-(x[2n]∨x[2n 2])))式18
[0189]
最大晋级方法选择偶部分信号xe[n]的两个邻域值xe(n)与xe(n 1)的最大值作为xo(n)的估计推理,改造晋级中同样将xe[n]的局部最大值映射为尺度信号xe[n],如果x(n)
≥x(n
±
1),则信号x在点n具有局部最大值x(n)。
[0190]
(2)中值晋级自强化网络
[0191]
原始信号分解采用惰性自强化网络分解,利用中值算子作为改造算子来构造形态晋级自强化网络,估计推理和改造算子分别为:
[0192]
p(xe[n])=xe[n]
[0193]
u(d[n])=-median(0,d[n-1],d[n])
ꢀꢀꢀ
式19
[0194]
其中,median()函数返回给定数值的中值,按照上述方法得到一个非对偶自强化网络晋级方案,表示如下:
[0195]
图像分割:
[0196]
xe[n]=x[2n]
[0197]
xo[n]=x[2n 1]
ꢀꢀꢀ
式20
[0198]
估计推理:
[0199]
d[n]=xo[n]-p(xe[n])=x[2n 1]-x[2n]
ꢀꢀꢀ
式21
[0200]
改造融合:
[0201]
c[n]=xe[n] u(d[n])=x[2n]-median(0,d[n-1],d[n])
ꢀꢀꢀ
式22
[0202]
分析用的偶部信号通过对输入信号x[n]的局部估计推理误差进行改造融合,如果d[n-1]=x[2n-1]-x[2n-2]与d[n]=x[2n 1]-x[2n]的值异号,则x[2n]保持不变,当x[2n]是一个局部极值时,x[2n]的值保持不变,否则x[2n]按照x[2n-1]-x[2n-2]和x[2n 1]-x[2n]的最小差值完成自动调整。
[0203]
三、晋级网络自强化的自强化网络特征提取
[0204]
图像语音噪声的一种表现形式为孤立像素点的灰度突变,带有高频特性并且空间不相关,经晋级自强化网络处理后的图像语音被分解为包含图像语音细节和混入噪声的高频估计推理误差和体现图像语音轮廓的低频分量,利用晋级自强化网络进行图像语音特征提取,将改造融合得到的平滑分量作为卷积神经网络的输入,自强化网络与卷积神经网络采用松散融合方式,模型设计采用[conv relu pool]
×
n-conv-relu-[full connect]
×
m-softmax形式,将该网络记为lsq-1。
[0205]
在该网络模型中,li代表晋级层,ci表示卷积层,fci表示全连接层,池化层和激活层都没有作为单独的网络层列出,默认为包含于卷积层,填充的边缘也未体现,本技术中的网络模型都采用此种画法,不是所有的卷积层后面都接有池化层。
[0206]
晋级模块的具体实现过程为:对输入图像语音的每行和每列分别进行晋级,针对不同的自强化网络,其晋级方案不同,采用二维离散强化网络、图像强化网络和语音强化网络,利用估计推理误差改造得到的平滑分量输入到下层卷积神经网络,提取的晋级自强化网络特征图大小是输入的四分之一。
[0207]
四、晋级网络自强化的神经网络模型
[0208]
利用自强化网络变换的空间域,提出估计推理误差解释,提供用于设计定制变换的框架,这种设计具有非常大的灵活性,可以使用任何线性、非线性或空间变化的估计推理器和改造器以匹配给定信号的特性。
[0209]
本技术基于晋级网络提出一种自适应自强化网络变换晋级框架,通过估计推理器和改造器的自适应来对信号进行分析处理,通过优化基于数据的估计推理误差准则来自适
应的将这种晋级结构的处理调谐到期望的信号。
[0210]
新变换利用更好的估计推理变量获得更有效的信号表示,即获取更好的特征表达。
[0211]
改进前后的晋级方案对比图如图4所示。由图4可知,改进的晋级方案将原晋级方案的估计推理和改造算子用卷积核来代替。
[0212]
(一)从晋级到卷积
[0213]
在lsq-1模型中,晋级模块的l1层并没有参数化,在训练过程中不可学,这相当于对输入图像语音的前置处理操作,为将晋级自强化网络与神经网络紧密结合,对晋级方案做如图4(b)的进一步改进,通过对神经网络的训练,让该晋级层的估计推理算子和改造算子实现自主学习,从而自适应的调整来匹配输入信号,并且更好的进行特征提取,晋级方案与网络的采用交融结合方式。
[0214]
改进后的模型记为lsq-2,它是将lsq-1中的晋级层换成改进后的晋级结构并加入到神经网络结构内部,采用的形式是:(conv relu pool)
×
n-lifting
×
z-(conv relu)
×
m-full connect-softmax。
[0215]
具体实现:(

)将原晋级方案的估计推理改造算子设计成卷积核,训练实现自适应性以克服其固定结构对特征提取结果的影响;(2)对输入进行惰性自强化网络变换,得到的奇偶部分按照图5中的估计推理和改造进行处理,p、u采取与卷积基元相同的局部连接与权值共享结构,改造所得的特征值组合成一张晋级特征图,输入到下层卷积神经网络中。
[0216]
(二)晋级网络
[0217]
将模型lsq-2中的卷积层全部用晋级结构来实现得到的网络记为lsq-3,采用的形式是:lifting
×
m-full connect
×
n-softmax。
[0218]
在该模型结构中,晋级层后接的池化层和激活层都没有作为单独的网络层画出来,填充的边缘也没有在图上体现。晋级层的处理过程与lsq-2相同,大小为32
×
32的输入数据进入网络后,每过一个晋级层大小都变为该层输入的四分之一,这样经过第三个晋级层的处理之后,就进入全连接层,最后通过softmax层输出进行判别分类。
[0219]
(三)晋级实现池化
[0220]
相比如传统的线性强化网络,形态晋级自强化网络不仅保留了多分辨率分析的特征还具有良好的细节保留和抑制图像语音噪声的能力,并且集成了晋级方案的灵活性,其局部极值保持的特征,对信号特征提取极为重要,将模型lsq-1中的池化层分别用晋级结构实现,将原始晋级框架中的线性估计推理算子和改造算子替换成非线性形态滤波器。
[0221]
(1)晋级实现max pooling。
[0222]
按照最大晋级格形态自强化网络,将估计推理算子p和改造算子u分别设置成最大值算子来构造形态晋级方案,并将该晋级模块嵌进神经网络替换max pooling层,将lsq-1网络中第一层卷积后面的max pooling层替换掉,第三层和第四层卷积后面的average pooling层保留。
[0223]
(2)晋级实现average pooling。
[0224]
将估计推理算子p和改造算子u分别设置成常数1和中值算子,即构造一个中值形态晋级框架,然后用该晋级模块替换掉lsq-1网络中第三层和第四层卷积后面的average pooling层,第一层卷积后面的max pooling层保留。
[0225]
(3)晋级实现池化
[0226]
将lsq-1网络中第一层卷积后面的max pooling层用最大晋级格形态自强化网络替换,第三层和第四层卷积后面的average pooling层用中值形态晋级框架来实现,得到的新模型记作lsq-4。
[0227]
五、实验结果及分析
[0228]
一、实验设置
[0229]
(1)网络架构
[0230]
每个网络的输入图像大小固定为32
×
32,唯一的前置处理就是去均值操作(每个像素减去在训练集上计算的平均rgb值)。
[0231]
(2)实验参数设置
[0232]
各网络模型的训练采用具有动量的批量随机梯度下降的方法,批量大小设置为256,学习动量是0.9,权重衰减设置为0.0005,这个微小的权重衰减对于模型的学习至关重要,不仅作为一种正则化策略,还减少了模型的训练误差,权重系数w的改造公式为:
[0233][0234]wi 1
:=w
t
v
i 1
ꢀꢀꢀ
式23
[0235]
其中,i是迭代指数,v是动量变量,s是学习速率,是第i次的批量样本的目标函数对w的偏导数的平均值。
[0236]
对所有层使用相等的学习速率,然后在整个训练过程中手动调整,在测试错误率停止改善时将学习速率除以10,学习速率初始化为0.01,并在迭代完之前减小三次,设置的最大迭代次数是300。
[0237]
另外,在训练网络时,首先对图像进行pad=2的填充处理,使得网络输入固定为32
×
32的大小,如图6。
[0238]
a.晋级方案自强化网络的各个部分详细为:
[0239]
输入层input:模型网络的输入数据的尺寸是32
×
32,是输入图像像素值;
[0240]
晋级层l1:输入数据经过晋级层处理后,只留下大小为原图四分之一的平滑分量,即卷积神经网络的输入大小是16
×
16;
[0241]
卷积层c1:第一个卷积层用64个大小为5
×
5的卷积核对其输入进行处理,步长stride=1,填充pad=2,按照卷积层输出公式计算16-5 2
×
2 1=16,c1的输出为16
×
16,经过池化大小为3
×
3,得到8
×
8大小的输出,也即第二卷积层c2的输入。
[0242]
c2、c3、c4都经过相同的处理,只是卷积层后面跟的池化层有差异,第三、四卷积层后面都采用均值池化average pooling,池化区域都为3
×
3,得到c4层输出大小是2
×
2,全连接层fc6有64个神经元,最后的softmax层则是作为分类器对图像语音的特征表达做判别分类。
[0243]
b.从晋级到卷积
[0244]
第一层的处理与lsq-1相同,大小为32
×
32的输入数据在经过第一层的卷积和池化后得到16
×
16大小的输出,也即晋级层l2的输入,输入特征图经过晋级层的估计推理和改造滤波处理后,最终得到大小为8
×
8的低频输出,输入到感受野为3
×
3的池化层进行均
值池化得到4
×
4大小的晋级特征输出,即第三层卷积层c3的输入大小是4
×
4,第三层卷积又以64个大小为4
×
4的卷积核对其输入进行处理,得到的输出经过全连接层fc4处理后被送到softmax层进行分类评判。
[0245]
晋级层的具体实现过程为:将上一层的输出进行奇偶图像分割得到奇部分和偶部分,大小都是8
×
8,先对奇部分进行估计推理得到高频误差:将估计推理算子p设置为大小为5
×
5的卷积核,以步长stride=1和填充pad=2的方式对偶部分进行卷积处理,输出即为奇部分的预测值,将其与奇部分做减法,差值就是高频误差;晋级方案的第二步是通过更新奇部分得到平滑的输出分量:改造算子u设置成5x5大小的卷积核,以步长stride=1和填充pad=2的方式估计推理的高频误差进行卷积处理,输出再与前面的偶部分相加,其和作为偶部分的改造值,得到大小为8
×
8的晋级层特征图,然后输入到下层网络中。
[0246]
c.晋级网络
[0247]
图7为模型lsq-3的结构参数图。在网络模型lsq-3中,将lsq-1中的卷积层全部用晋级模块代替得到了一个晋级网络,具体信息如图7所示,考虑到每经过一个晋级处理输出就缩小为四分之一,但网络输入尺寸不是很大,所以在前两个晋级层后都做上采样处理,经过该晋级层后得到的是跟该层输入同等大小的特征图,在经过l1后得到大小为32
×
32的输出,经激活层之后进入max pooling层,输出16
×
16大小的池化特征,layer 2的输出尺寸为8
×
8,经过第二个average pooling之后得到的输出特征图大小为2
×
2,全连接层fc4有64
×2×
2=256个神经元。
[0248]
d.从晋级到池化
[0249]
网络模型lsq-4是用形态晋级模块分别实现max pooling和average pooling,其具体结构是将lsq-1的卷积网络前面的晋级层去掉,然后max pooling层和average pooling层分别用最大格形态晋级框架和中值形态晋级框架来替换。卷积核个数,感受野大小等参数同图6。
[0250]
(3)优化算法
[0251]
在训练过程中随着迭代次数的增加,分类网络在训练集上的错误率逐渐减小,而在测试集上的分类误差却在增加,这是因为网络过度拟合了训练数据,而对其它数据集不能起到很好的建模效果。为提高模型的泛化能力,防止过拟合现象,本技术采用分层低熵优化方法,也即在网络架构中插入分层低熵层来调节包括卷积核个数、尺寸,学习速率,正则化强度在内的网络参数。
[0252]
(4)对比试验设置
[0253]
为评估模型在目标检测中的性能,进行了两组对比试验。
[0254]
a基础模型选择
[0255]
在lsq-1模型的晋级模块中分别采用二维离散强化网络、图像强化网络和语音强化网络,分别在cifar-10数据集和mnist数据集上进行分类实验。根据实验结果选取效果最好的晋级模块加入到网络中构建本技术实验的基础模型。
[0256]
b晋级实现卷积。
[0257]
分别采用晋级模块 卷积神经网络的模型lsq-1,晋级 卷积的神经网络的模型lsq-2和全晋级网络模型lsq-3进行对比实验,形式上从松散到紧凑,参数上从人为设定到可学习,网络结构上从卷积神经网络到晋级网络,该晋级框架能够代替卷积,主要是因为,
在结构上它有两个滤波器结构,本身实现的就是卷积运算,在特征提取这一功能上跟神经网络中卷积层无异;另外,卷积神经网络中的卷积层的处理是一定尺寸的卷积核在整个输入特征图上进行处理,而本技术提出的框架是在最开始先对输入特征图做惰性自强化网络变换(即图像分割成奇偶部分),然后针对每一部分做完卷积处理后又基于整张图进行自适应调整,这是该框架的一个明显优势。
[0258]
c晋级实现pooling。
[0259]
目前实现了利用非线性的最大晋级格形态自强化网络和中值形态晋级自强化网络来分别代替maxpooling和averagepooling。在这部分实验中,我们编写程序实现sortinglayer完成对averagepooling和maxpooling层的替换来进行对比实验。
[0260]
二、实验结果分析
[0261]
(1)基础模型选择
[0262]
如图8,图像强化网络晋级方案多一组估计推理和改造步骤,有效避免图像语音重建误差扩大,提高了整个系统的稳定性,所以在基础模型lsq-1的晋级模块中采用图像强化晋级网络,以下基础模型lsq-1是指晋级模块采用图像强化晋级网络。
[0263]
(2)晋级结构实现卷积
[0264]
在cifar-10数据集上训练和测试模型,得到的分类结果,通过对实验结果的比较,在cifar-10上,晋级模块可学习的融合型网络模型lsq-2和lsq-3的分类精度分别比松散型网络模型lsq-1高出了3.9%和6.5%。在mnist上的分类实验,融合型网络也比松散型网络的性能要好,另外模型lsq-2与模型lsq-3的区别在于,前者只替换了一层卷积层,而后者的所有卷积层都是用晋级模块来实现的,正确率比前者高,说明晋级模块在特征提取上的有效性,以及对卷积层的替换有很好的效果。
[0265]
(3)代替池化层
[0266]
晋级方案分别实现max pooling、average pooling,编写sorting层替换max pooling、average pooling和基础网络模型lsq-1的对比实验,结果如图9所示。
[0267]
通过对比图9中的实验结果,用晋级方案实现pooling层的网络模型lsq-4分类精度比sortinglayer实现pooling层以及基础网络模型lsq-1的分类精度都要高,充分说明晋级方案实现池化的有效性。
[0268]
(4)策略选择的实验和分析
[0269]
1)分层低熵优化技巧的使用
[0270]
为进一步提高模型的分类准确率,对模型lsq-1、lsq-2、lsq-3和模型lsq-4分别使用分层低熵的优化策略进行训练,加快收敛,防止过拟合。在两个数据集上的实验结果如图10和图11。
[0271]
通过图10和图11的实验结果可以得出,加了分层低熵层后松散型网络模型lsq-1和融合型的网络模型lsq-2、lsq-3的正确率均有明显提高,晋级方案实现池化的模型lsq-4的分类精度也有很大改善,这说明分层低熵对抑制网络过拟合,晋级网络分类精度有很好的效果。
[0272]
2)感受野大小的选择
[0273]
为了确定感受野大小对晋级模块性能的影响,在lsq-3 bn模型的基础上调整设计几种不同的结构,保持模型的网络层次和其它因素不变,将三个晋级模块的改造和估计推
理结构的感受野大小调整为2
×
2、3
×
3、5
×
5、7
×
7,并在cifar-10数据库和mnist数据库上进行试验,结果如图12。
[0274]
通过上述实验对比可知,晋级实现卷积时,估计推理和改造结构的感受野越小越好。
[0275]
实验在深度卷积神经网络的基础上提出几种模型的变换,实现晋级模块对卷积网络的线性和非线性模块的统一,本技术在cifar-10数据集上对本技术提出的模型进行验证,首先通过一组对比实验证明本技术提出的晋级模块实现卷积结构的有效性;其次设置对比算法证明了晋级模块实现非线性池化层具有良好效果;改进模型与基础模型的对比证明了本技术提出的网络结构学习算法的有效性。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献