一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种结合无监督和监督学习的液体状态机在线学习方法

2022-04-25 03:17:20 来源:中国专利 TAG:


1.本发明涉及人工智能技术领域,尤其是一种结合无监督和监督学习的液体状态机在线学习方法。


背景技术:

2.传统的液体状态机模型包括一个随机固定的储备池作为通用的预处理核和一个可训练的输出层,输出层提取经非线性转换后保存在储备池中的高维活动状态,以映射到对应的输出。液体状态机的核心在于利用储备池的递归结构充当通用滤波器,将输入序列映射至高维的储备池状态。稀疏且随机互连的储备池表现出高度非线性动态特性,能够基于过去的上下文环境将输入转换成丰富的高维表示。此外,储备池的循环连接导致短期记忆效应的出现,液体状态机在接受与时间相关的输入序列后,会在储备池中留下相关的状态信息,当前时刻的状态不仅与当前的输入有关,还跟之前一段时间的输入有关。这在网络中提供了一种内存,将历史输入信息保存在储备池内部状态中,即网络输入的影响在消失之前会在储备池中保存一段时间,使网络能够维持自我持续激活,能够计算比简单地反应输入输出映射更为复杂的函数。对用于时间序列计算的网络来说,这是一个非常重要的特征。因为储备池具有这种短期记忆的能力,所以输出层不需要具有记忆能力,只需将不同的储备池状态映射到对应的输出。液体状态机除了具有记忆能力之外,另一个最大的特点就是它具有通用性,液体状态机允许不同的输出使用同一储备池,只需对每一组输出连接权值进行训练,就能使其执行不同的任务,即液体状态机中的储备池不是为某个特定的计算任务单独构建,而是将相同的基本网络架构用于不同计算任务。从某种角度上来说,这高度符合大脑的运行方式,因为人脑天生是一个多任务的处理系统,能够并行且快速地处理外部感知事件。
3.人类大脑可视为一个巨大的储备池,能够处理各种不同的任务,但大脑中神经元间的突触连接并不是固定的,而是有一个非常快速的适应过程。生物神经元之间的连接叫做突触,是神经系统传输信息的关键结构,也是生物网络中关键的组成部分。突触可塑性就是突触的形态和功能由于一些外部因素的影响产生了较为持久的变化,一般是增强或减弱突触连接强度,从而能够影响神经元的活动。在神经生物学中,突触可塑性被认为是生物神经网络中学习和记忆的基本机制。因此,考虑基于神经可塑性的自组织储备池比随机生成且保持固定不变的储备池更为自然。
4.综上,现有技术存在以下缺点:
5.1、lms-force学习是一种梯度下降force学习,虽然计算复杂度低且具备生物合理性,但却存在参数收敛缓慢、训练得到的网络稳定性低的问题。
6.2、随机生成的储备池往往不是最优的,储备池随机生成后保持不变,只对输出权值进行训练的学习方式会被遗忘所阻碍,学习会在受到干扰后丢失先前的动态目标,导致训练结束后立即偏离目标状态。


技术实现要素:

7.有鉴于此,本发明实施例提供一种结合无监督和监督学习的液体状态机在线学习方法。
8.本发明的第一方面提供了一种结合无监督和监督学习的液体状态机在线学习方法,包括:
9.构建带反馈回路的自发混沌液体状态机模型;
10.构建stdp学习规则,根据所述stdp学习规则对所述液体状态机模型的储备池突触权值进行自适应优化;
11.根据基于记忆回归量扩展技术的lms-force学习对所述液体状态机的输出权值进行训练,得到训练好的液体状态机。
12.可选地,所述自发混沌液体状态机模型包括多个脉冲神经元,所述脉冲神经元的个数由液体状态机的任务复杂度决定;
13.所述液体状态机模型的储备池部分是随机生成的稀疏递归脉冲神经网络;
14.所述储备池的初始化状态为混沌状态,所述储备池中所有神经元均与输出神经元相连接。
15.可选地,所述构建stdp学习规则,根据所述stdp学习规则对所述液体状态机模型的储备池突触权值进行自适应优化这一步骤中,
16.所述储备池中突触前神经元发放的脉冲到达突触之后,突触后神经元才产生响应并发放脉冲;
17.所述stdp学习规则满足预设条件,所述stdp学习规则用于诱导神经元之间的突触权值进行相应增加或减小;
18.当增加后的所述突触权值大于边界限制的最大值时,取该最大值作为所述突触权值的值;
19.当减小后的所述突触权值小于边界限制的最小值时,取该最小值作为所述突触权值的值。
20.可选地,所述突触权值的更新规则的表达式为:
[0021][0022]
wr=w
max (wr>w
max
)
[0023][0024]
wr=w
min (wr<w
min
)
[0025]
其中,wr代表突触权值;δt代表每对突触前后神经元脉冲发放时间之差;w
max
代表所述边界限制的最大值;w
min
代表所述边界限制的最小值。
[0026]
可选地,所述根据基于记忆回归量扩展技术的lms-force学习对所述液体状态机的输出权值进行训练,得到训练好的液体状态机,包括:
[0027]
lms-force学习使用最小均方方法作为突触权值修改规则,确定液体状态机网络的输出以及网络输出误差;
[0028]
根据所述网络输出误差,确定输出权值的更新规则和时变标量学习率的更新规
则;
[0029]
根据所述网络输出误差、所述输出权值的更新规则和所述时变标量学习率的更新规则,生成拓展回归方程;
[0030]
根据单线性滤波算子对所述拓展回归方程进行滤波操作,得到拓展的输出和储备池状态;
[0031]
根据所述拓展的输出和所述储备池状态,确定广义预测误差;
[0032]
根据原始预测误差和广义预测误差,对网络输出连接参数进行更新,确定输出权值的修正规则;
[0033]
根据所述修正规则对输出权值进行修正,并根据修正后的输出权值完成训练过程。
[0034]
可选地,所述网络输出误差的表达式为:
[0035]
e(t)=w
t
(t-1)r(t)-f(t)
[0036]
所述时变标量学习率的更新规则的表达式为:
[0037]
η(t)=η(t-1)-η(t-1)(|e(t)
γ
|-η(t-1))
[0038]
所述扩展回归方程的表达式为:
[0039]
e(t)r
t
(t)=w
t
(t-1)r(t)r
t
(t)-f(t)r
t
(t)
[0040]
其中,e(t)代表t时刻液体状态机的网络输出误差;w
t
(t-1)代表t-1时刻液体状态机的输出权值;f(t)代表t时刻液体状态机网络的期望输出;r(t)代表t时刻液体状态机的储备池状态;η(t)代表t时刻的时变标量学习率。
[0041]
本发明实施例的另一方面还提供了一种结合无监督和监督学习的液体状态机在线学习装置,包括:
[0042]
第一模块,用于构建带反馈回路的自发混沌液体状态机模型;
[0043]
第二模块,用于构建stdp学习规则,根据所述stdp学习规则对所述液体状态机模型的储备池突触权值进行自适应优化;
[0044]
第三模块,用于根据基于记忆回归量扩展技术的lms-force学习对所述液体状态机的输出权值进行训练,得到训练好的液体状态机。
[0045]
本发明实施例的另一方面还提供了一种电子设备,包括处理器以及存储器;
[0046]
所述存储器用于存储程序;
[0047]
所述处理器执行所述程序实现如前面所述的方法。
[0048]
本发明实施例的另一方面还提供了一种计算机可读存储介质,所述存储介质存储有程序,所述程序被处理器执行实现如前面所述的方法。
[0049]
本发明实施例的另一方面还提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如前面所述的方法。
[0050]
本发明的实施例构建带反馈回路的自发混沌液体状态机模型;构建stdp学习规则,根据所述stdp学习规则对所述液体状态机模型的储备池突触权值进行自适应优化;根据基于记忆回归量扩展技术的lms-force学习对所述液体状态机的输出权值进行训练,得到训练好的液体状态机。本发明能够提升训练速度和训练结果的稳定性。
附图说明
[0051]
为了更清楚地说明本技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0052]
图1为本发明实施例提供的自发混沌液体状态机模型的结构示意图;
[0053]
图2为本发明实施例提供的stdp曲线的示意图;
[0054]
图3为本发明的整体步骤流程图。
具体实施方式
[0055]
为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。
[0056]
下面首先对本发明涉及的相关技术名词进行解释说明:
[0057]
递归神经网络:是一种具有信号反馈功能的人工神经网络模型,其循环拓扑结构能够维持网络的自我持续激活,并将历史输入信息经非线性转换后保存在内部状态信号中,即具备动态短期记忆性。递归神经网络已被证明可以以任意精度逼近各种复杂动态系统。因此,递归神经网络非常适用于动态系统建模,在处理时间序列和结构化信息学习等方面极具前景和吸引力。此外,由于生物神经网络普遍具有类似循环连接的内部回路,递归神经网络相比前馈神经网络更具有生物合理性。虽然递归神经网络在理论上常被认为可以解决许多复杂的问题,但是在实际应用中,递归神经网络的训练往往存在计算量大、收敛速度慢、网络结构难以确定以及记忆消退等问题。在此基础上,储备池计算的概念应运而生。
[0058]
储备池计算:是一种递归神经网络设计和训练的新范式,基本原理是当一个随机生成的高维递归神经网络满足特定代数特性时,只需将输入信号经输入层映射到高维计算空间中,利用该递归神经网络的动态特性对信息进行处理和存储,最终将递归神经网络内部状态信号传送给输出层,并对输出连接参数进行学习训练,便能取得理想的学习效果。随机生成的递归神经网络称为储备池,基本思想是储备池随机生成且保持不变,学习过程仅需训练储备池到输出层的连接权值,且训练方法通常是简单的线性回归方法。其中,回声状态网络和液体状态机是两种经典的储备池计算模型。两者的区别在于,回声状态网络的储备池是由模拟神经元构成的传统递归神经网络,而液体状态机的储备池则是由脉冲神经元构成的递归脉冲神经网络。
[0059]
脉冲神经网络:被誉为第三代人工神经网络,相比传统神经网络,脉冲神经网络采用更符合生物合理性脉冲神经元模型以及更复杂的突触模型来进行信息的传递,具有丰富的时空动力学特性。此外,脉冲神经元模型考虑了更多的生物细节,学习方法借鉴了人类大脑多类型的可塑性认知机制,所以液体状态机具有更明显的仿生特性,更加接近于采用同一个信息处理系统进行感知、分析、决策和控制的人脑。
[0060]
液体状态机:一类特殊的递归脉冲神经网络,是储备池计算的典型范例之一。网络模型结构主要包括三层结构,输入层:输入脉冲神经元接受输入信息并转化为脉冲时间序列传递给储备池;液体层:也叫做储备池,是一个递归脉冲神经网络,将接收到的输入信号
映射成高维的储备池内部状态;输出层:使用无记忆的输出函数将储备池内部状态映射到对应的输出。
[0061]
脉冲时间依赖可塑性(spike-timing dependent plasticity,stdp):是一种模拟生物神经网络自适应优化的学习方法,根据突触前后神经元发放脉冲的相对时间差对突触权值进行无监督方式的调整。从生物可解释性的角度出发,是目前公认有效的脉冲神经网络无监督学习方法。
[0062]
一阶缩减且受控误差(first-order reduced and controlled error,force)学习:一种基于回声状态网络提出的在线训练方法,主要用于训练将输出反馈作为唯一外部输入的自发混沌回声状态网络。force学习通过在训练初期快速更新输出权值,将输出误差控制得足够小,使得网络在不干扰学习的情况下进行真实的输出反馈,且不会产生明显的误差积累。force学习的实现方法有两种,一种是采用递归最小二乘(recursive least square,rls)进行实现的rls-force学习,该方法需单独作用于各个神经元,即需要利用每个神经元的所有输入信息进行该神经元的权值调整,因此在计算上有一定的复杂度。另一种是采用最小均方(least mean square,lms)实现的lms-force学习,该方法用一个时变标量学习率替代rls-force中的时变矩阵学习率。lms-force学习能有效简化具体的算法实现过程并降低计算复杂度,且更具生物合理性,但却带来了参数收敛缓慢的问题。
[0063]
针对现有技术的问题,本发明实施例提供了一种结合无监督和监督学习的液体状态机在线学习方法,如图3所示,本发明的方法包括以下步骤:
[0064]
构建带反馈回路的自发混沌液体状态机模型;
[0065]
构建stdp学习规则,根据所述stdp学习规则对所述液体状态机模型的储备池突触权值进行自适应优化;
[0066]
根据基于记忆回归量扩展技术的lms-force学习对所述液体状态机的输出权值进行训练,得到训练好的液体状态机。
[0067]
可选地,所述自发混沌液体状态机模型包括多个脉冲神经元,所述脉冲神经元的个数由液体状态机的任务复杂度决定;
[0068]
所述液体状态机模型的储备池部分是随机生成的稀疏递归脉冲神经网络;
[0069]
所述储备池的初始化状态为混沌状态,所述储备池中所有神经元均与输出神经元相连接。
[0070]
可选地,所述构建stdp学习规则,根据所述stdp学习规则对所述液体状态机模型的储备池突触权值进行自适应优化这一步骤中,
[0071]
所述储备池中突触前神经元发放的脉冲到达突触之后,突触后神经元才产生响应并发放脉冲;
[0072]
所述stdp学习规则满足预设条件,所述stdp学习规则用于诱导神经元之间的突触权值进行相应增加或减小;
[0073]
当增加后的所述突触权值大于边界限制的最大值时,取该最大值作为所述突触权值的值;
[0074]
当减小后的所述突触权值小于边界限制的最小值时,取该最小值作为所述突触权值的值。
[0075]
可选地,所述突触权值的更新规则的表达式为:
[0076][0077]
wr=w
max (wr>w
max
)
[0078][0079]
wr=w
min (wr<w
min
)
[0080]
其中,wr代表突触权值;δt代表每对突触前后神经元脉冲发放时间之差;w
max
代表所述边界限制的最大值;w
min
代表所述边界限制的最小值。
[0081]
可选地,所述根据基于记忆回归量扩展技术的lms-force学习对所述液体状态机的输出权值进行训练,得到训练好的液体状态机,包括:
[0082]
lms-force学习使用最小均方方法作为突触权值修改规则,确定液体状态机网络的输出以及网络输出误差;
[0083]
根据所述网络输出误差,确定输出权值的更新规则和时变标量学习率的更新规则;
[0084]
根据所述网络输出误差、所述输出权值的更新规则和所述时变标量学习率的更新规则,生成拓展回归方程;
[0085]
根据单线性滤波算子对所述拓展回归方程进行滤波操作,得到拓展的输出和储备池状态;
[0086]
根据所述拓展的输出和所述储备池状态,确定广义预测误差;
[0087]
根据原始预测误差和广义预测误差,对网络输出连接参数进行更新,确定输出权值的修正规则;
[0088]
根据所述修正规则对输出权值进行修正,并根据修正后的输出权值完成训练过程。
[0089]
可选地,所述网络输出误差的表达式为:
[0090]
e(t)=w
t
(t-1)r(t)-f(t)
[0091]
所述时变标量学习率的更新规则的表达式为:
[0092]
η(t)=η(t-1)-η(t-1)(|e(t)
γ
|-η(t-1))
[0093]
所述扩展回归方程的表达式为:
[0094]
e(t)r
t
(t)=w
t
(t-1)r(t)r
t
(t)-f(t)r
t
(t)
[0095]
其中,e(t)代表t时刻液体状态机的网络输出误差;w
t
(t-1)代表t-1时刻液体状态机的输出权值;f(t)代表t时刻液体状态机网络的期望输出;r(t)代表t时刻液体状态机的储备池状态;η(t)代表t时刻的时变标量学习率。
[0096]
本发明实施例的另一方面还提供了一种结合无监督和监督学习的液体状态机在线学习装置,包括:
[0097]
第一模块,用于构建带反馈回路的自发混沌液体状态机模型;
[0098]
第二模块,用于构建stdp学习规则,根据所述stdp学习规则对所述液体状态机模型的储备池突触权值进行自适应优化;
[0099]
第三模块,用于根据基于记忆回归量扩展技术的lms-force学习对所述液体状态机的输出权值进行训练,得到训练好的液体状态机。
[0100]
本发明实施例的另一方面还提供了一种电子设备,包括处理器以及存储器;
[0101]
所述存储器用于存储程序;
[0102]
所述处理器执行所述程序实现如前面所述的方法。
[0103]
本发明实施例的另一方面还提供了一种计算机可读存储介质,所述存储介质存储有程序,所述程序被处理器执行实现如前面所述的方法。
[0104]
本发明实施例的另一方面还提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如前面所述的方法。
[0105]
下面详细描述本发明的具体实现原理:
[0106]
本发明提出了一种综合使用stdp学习规则和lms-force学习训练自发混沌液体状态机的学习方法,该方法主要由三个步骤组成:
[0107]
s1,建立一个带反馈回路的自发混沌液体状态机模型,模型结构如图1所示;
[0108]
构建的液体状态机网络由n个lzhikevich脉冲神经元构成,依据完成任务复杂性的不同n可变。网络无输入层,输出反馈是唯一的外部输入。储备池部分是随机生成的稀疏递归脉冲神经网络,稀疏度p为10%,突触权值矩阵wr中大部分值为0,连接部分突触权值随机取自均值为0,方差为(np2)-1
的正态分布。初始化储备池状态为混沌状态,储备池中所有神经元均与输出神经元相连,输出权值矩阵w初始化为0,网络的输出为w
t
r。
[0109]
s2,构建合适的stdp学习规则,使用构建的stdp学习规则对储备池突触权值(网络结构图中绿色的连接部分)进行自适应优化,stdp学习规则能够使储备池产生自组织行为,得到更合适的网络拓扑结构。
[0110]
本实施例的方法中构建的stdp曲线如图2所示:
[0111]
储备池突触权值的更新取决于突触前后神经元脉冲发放时间差δt,学习机制表现为:如果在突触前神经元发放的脉冲到达突触之后,突触后神经元才产生响应并发放脉冲,那么类似于因果关系,stdp学习规则诱导神经元之间的突触权值进行相应地增加。设有一个最大值w
max
作为边界限制,若增加后的权值超过最大值,则取值为最大值。反之,如果突触后神经元发放脉冲之后,突触前神经元才传递脉冲,那么这个信息就被忽略,神经元之间的突触权值相应地降低。同样地设有一个最小值w
min
,若减小后的权值低于最小值,则取值最小值。权值更新取决于每对突触前后脉冲发放时间之差δt=t
post-t
pre
,储备池突触权值更新规则如下:
[0112][0113]
wr=w
max (wr>w
max
)
[0114][0115]
wr=w
min (wr<w
min
)
[0116]
其中,30是时间常数。
[0117]
s3,使用lms-force学习对液体状态机的输出权值w进行训练,并使用记忆回归量扩展技术提高参数收敛速度以及改善收敛轨迹的平滑性。
[0118]
force学习强调一种强大而快速的方法来调整网络的未知参数,抑制储备池中的混沌,使训练成为可能。lms-force学习使用最小均方方法作为突触权值修改规则,t时刻液
体状态机网络的期望输出为f(t),网络的输出误差为:
[0119]
e(t)=w
t
(t-1)r(t)-f(t)
[0120]
输出权值w的更新规则为:
[0121]
w(t)=w(t-1)-e(t)η(t)r(t)
[0122]
η(t)是时变标量学习率,与输出权值同时进行规则,更新规则为:
[0123]
η(t)=η(t-1)-η(t-1)(|e(t)
γ
|-η(t-1))
[0124]
在上述基础上,使用记忆回归量扩展技术生成新的扩展回归方程,即将输出误差方程预乘储备池状态,得到:
[0125]
e(t)r
t
(t)=w
t
(t-1)r(t)r
t
(t)-f(t)r
t
(t)
[0126]
然后,引入一个稳定的单滤波算子l{.},再利用具有记忆性的线性滤波算子l{.}对得到的扩展回归方程进行滤波操作,得到扩展的输出y和储备池状态ω:
[0127]
y=l{f(t)r
t
(t)}
[0128]
ω=l{r(t)r
t
(t)}
[0129]
即可得到一个新的广义预测误差:
[0130]
e=w
t
(t-1)ω-y
[0131]
基于复合学习的思想,同时采用原预测误差和新的广义预测误差对网络输出连接参数进行更新。此时,输出权重w的修正方法如下:
[0132]
w(t)=w(t-1)-n(t)(e(t)r(t) ke)
[0133]
这里的n(t)是标量学习率,k>0是一个常量权重因子。
[0134]
综上所述,本发明综合使用stdp学习规则和force学习两种方法训练液体状态机,即使用stdp学习规则对储备池进行自适应优化的同时使用force学习训练输出权值。另外,本发明使用记忆回归量技术提升lsm-force学习的参数收敛速度以及收敛稳定性。
[0135]
由于液体状态机网络具有通用性,从某种角度上来说,这高度符合大脑的运行方式,因为人脑天生是一个多任务的处理系统,能够并行且快速地处理外部感知事件。使用force学习对液体状态机的输出权值进行训练,可产生的动态输出范围广,包括周期性信号、混沌吸引子、单次生成的无重复信号以及其他复杂信号模式。force学习采用的是误差反馈,比起将目标输出作为反馈的学习方法更贴近真实生物神经网络。针对于lms-force学习收敛速度慢的问题,本发明使用的记忆回归量扩展技术,有效提高了参数收敛速度。
[0136]
传统的液体状态机一般采用随机生成且固定的储备池,然而这并不符合实际的生物神经网络的特性。随机生成且固定的储备池可能无法作为特定应用的优化滤波器,本方法使用具有生物合理性的无监督stdp学习规则对液体状态机的储备池进行自适应优化,以构建类脑的自组织网络,减少一些不必要的突触连接,具有更好的实时计算能力,并且能够增强液体状态机的记忆能力,解决使用lms-force学习时容易因为遗忘而阻碍学习的问题。
[0137]
在一些可选择的实施例中,在方框图中提到的功能/操作可以不按照操作示图提到的顺序发生。例如,取决于所涉及的功能/操作,连续示出的两个方框实际上可以被大体上同时地执行或所述方框有时能以相反顺序被执行。此外,在本发明的流程图中所呈现和描述的实施例以示例的方式被提供,目的在于提供对技术更全面的理解。所公开的方法不限于本文所呈现的操作和逻辑流程。可选择的实施例是可预期的,其中各种操作的顺序被改变以及其中被描述为较大操作的一部分的子操作被独立地执行。
[0138]
此外,虽然在功能性模块的背景下描述了本发明,但应当理解的是,除非另有相反说明,所述的功能和/或特征中的一个或多个可以被集成在单个物理装置和/或软件模块中,或者一个或多个功能和/或特征可以在单独的物理装置或软件模块中被实现。还可以理解的是,有关每个模块的实际实现的详细讨论对于理解本发明是不必要的。更确切地说,考虑到在本文中公开的装置中各种功能模块的属性、功能和内部关系的情况下,在工程师的常规技术内将会了解该模块的实际实现。因此,本领域技术人员运用普通技术就能够在无需过度试验的情况下实现在权利要求书中所阐明的本发明。还可以理解的是,所公开的特定概念仅仅是说明性的,并不意在限制本发明的范围,本发明的范围由所附权利要求书及其等同方案的全部范围来决定。
[0139]
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0140]
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
[0141]
计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(ram),只读存储器(rom),可擦除可编辑只读存储器(eprom或闪速存储器),光纤装置,以及便携式光盘只读存储器(cdrom)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
[0142]
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(pga),现场可编程门阵列(fpga)等。
[0143]
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何
的一个或多个实施例或示例中以合适的方式结合。
[0144]
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
[0145]
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做出种种的等同变形或替换,这些等同的变形或替换均包含在本技术权利要求所限定的范围内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献