一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

对神经元数据执行Winograd卷积正变换的装置的制作方法

2022-12-06 20:09:25 来源:中国专利 TAG:

对神经元数据执行winograd卷积正变换的装置
技术领域
1.本发明一般地涉及神经网络领域。更具体地,本发明涉及对神经元数据执行winograd卷积正变换的装置。


背景技术:

2.随着信息化时代的高速发展,人工智能与机器学习领域的研究炙手可热,相关产业蓬勃发展。卷积神经网络在计算机视觉、自动驾驶、机器翻译、语音识别、智能家居等各方面都有着广泛的作用。
3.卷积神经网络的参数量大,运算量大,使得卷积神经网络模型在便携移动终端有限面积和算力下被严重的限制其执行性能,同时非专用性设计的处理器在进行卷积运算时也会造成功耗的巨大开销。
4.winograd卷积是一种基于多项式插值算法的卷积加速实现方式。它通过对卷积操作的两个输入:神经元及权值进行一定规模切分后,分别做线性变换,也就是winograd正变换,再将变换后的神经元和权值进行对位乘法,把对位乘法结果再次进行线性变换,即winograd逆变换,最后得到与原卷积操作等价的卷积结果。
5.由于在winograd卷积操作的过程中,神经元和权值的正逆变换矩阵都由简单的固定数值构成,故而可以仅利用加法来实现winograd神经元和权值的正逆变换过程。而winograd算法中所需的乘法操作仅出现在对位乘过程中,此过程的乘法复杂度较原始卷积算法有相当程度缩减。由于硬件实现乘法运算的开销(时序、功耗、面积)比实现同位宽的加法要高很多,因此以winograd卷积替代原始卷积操作能够带来硬件能效比和运算时间上的明显收益。
6.然而,目前没有一种硬件针对winograd卷积加速算法来设计,使得现有人工智能芯片无法完全展现winograd卷积运算的优势。因此,一种能够高效运行winograd卷积算法的硬件设备是迫切需要的。


技术实现要素:

7.为了至少部分地解决背景技术中提到的技术问题,本发明的方案提供了一种对神经元数据执行winograd卷积正变换的装置与板卡。
8.在一个方面中,本发明揭露一种对神经元数据执行winograd卷积正变换的集成电路装置,包括正变换单元,用以正变换神经元数据,以产生正变换数据。正变换单元包括输入缓存、寄存器堆及加法器组。
9.输入缓存用以暂存神经元数据。寄存器堆根据译码后指令其中之一,用以自输入缓存取出暂存的神经元数据并存储至特定地址,以成为多个加法操作数。加法器组根据所述译码后指令其中之一,用以自特定地址逐一读取加法操作数进行加法运算。
10.其中加法器组根据加法元操作数的元素个数将加法元操作数拆解成多个加法元操作数,每个加法元操作数中只有一个元素与加法操作数中的对应位置的元素的数值相
同,其他元素均为0,加法器组对多个加法元操作数进行运算以得到多个winograd正变换中间结果,并加总多个winograd正变换中间结果,以获得正变换数据。
11.本发明提出的硬件结构能够匹配winograd卷积加速算法,具有保证网络精度、性能加速、面积缩减以及功耗降低的技术效果。
附图说明
12.通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,并且相同或对应的标号表示相同或对应的部分其中:
13.图1是示出f(2
×
2,3
×
3)的原始卷积转换成winograd卷积的示意图;
14.图2是示出本发明实施例的板卡的结构图;
15.图3是示出本发明实施例的集成电路装置的结构图;
16.图4是示出本发明实施例的计算装置的内部结构示意图;
17.图5是示出本发明实施例的正变换单元的示意图;
18.图6是示出本发明实施例将加法操作数拆解成多个加法元操作数的示意图;
19.图7是示出本发明实施例的正变换数据缓存的示意图;以及
20.图8是示出本发明实施例的对位乘累加运算器的示意图。
具体实施方式
21.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
22.应当理解,本发明的权利要求、说明书及附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。本发明的说明书和权利要求书中使用的术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
23.还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的,而并不意在限定本发明。如在本发明说明书和权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。还应当进一步理解,在本发明说明书和权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
24.如在本说明书和权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。
25.下面结合附图来详细描述本发明的具体实施方式。
26.winograd卷积加速算法(以下简称winograd算法或winograd卷积)是利用对卷积运算中的操作数进行线性变换,进而发现需要乘法数最小的变换方法,再通过增加部分加法操作代替所需要的乘法操作。从硬件层面来说,乘法器相比于加法器所需的结构更加复杂,面积功耗更大,综合处理性能更差,故以加法取代乘法的winograd算法在处理二维卷积
运算时具有极大优势。
27.对于二维卷积来说,卷积结果可以表示为f(m
×
n,r
×
s),即输出形状为m
×
n,权值形状为r
×
s。winograd算法的矩阵表示式为:
28.y=a
t
[(ggg
t
)

(b
t
db)]a
[0029]
其中,y表示卷积操作的输出矩阵,a
t
为逆变换左乘常量矩阵,g为权值变换左乘常量矩阵,g为原始卷积的权值,g
t
为权值变换右乘常量矩阵,

表示按位乘法,b
t
为神经元变换左乘常量矩阵,d为神经元数据,b为神经元变换右乘常量矩阵,a为逆变换右乘常量矩阵。各变换的左乘矩阵和右乘矩阵仅为转置关系。
[0030]
以f(2
×
2,3
×
3)为例,前述各常数矩阵如下所示:
[0031][0032][0033][0034]
图1示出f(2
×
2,3
×
3)的原始卷积转换成winograd卷积的示意图。如图所示,神经元数据101与卷积核102进行卷积运算。计算时,将神经元数据101根据滑动窗口103中的元素按一行排列,滑动窗口103滑动4次形成4
×
9矩阵104,再将卷积核102的元素按一列排列,形成9
×
1矩阵105,4
×
9矩阵104与9
×
1矩阵105进行卷积运算,得到4
×
1卷积结果106。
[0035]
再根据图中虚线进行切分,4
×
9矩阵104转变成2
×
3矩阵107,9
×
1矩阵105转变成3
×
1矩阵108,4
×
1卷积结果106转变成2
×
1卷积结果109。在线性变换后,2
×
1卷积结果109的第一个元素r0=m0 m1 m2,且r1=m
1-m
2-m3。而m0、m1、m2、m3可以用以下式子表示:
[0036]
m0=(k
0-k2)
·
w0[0037]
m3=(k
1-k3)
·
w2[0038]
通过前述的切分与线性变换,原本卷积运算需要执行36次乘法,而winograd算法仅需要执行16次乘法,降低了2.25倍的乘法计算复杂度。
[0039]
由上述二维卷积的winograd算法的转换可以看出,winograd算法主要分为以下几个步骤。首先,对权值进行权值常数矩阵的左乘和右乘,即ggg
t
,得到winograd线性变换之后的权值;同时对神经元数据进行神经元常数矩阵的左乘和右乘,即b
t
db,得到winograd线性变换之后的神经元。再者,将winograd变换后的神经元和权值矩阵进行对位相乘操作,即(ggg
t
)

(b
t
db),得到对位乘法结果。最后,将对位乘法结果进行winograd逆变换常数矩阵
的左乘和右乘操作,即a
t
[(ggg
t
)

(b
t
db)]a,最终得到与原始卷积等价的卷积结果。
[0040]
从硬件设计的角度来说,本发明针对上述三个过程之间的依赖性以及运算区别特征,将这三个大的变换步骤进行流水化设计,以实现更高效的加速性能。
[0041]
图2示出本发明实施例的一种板卡20的结构示意图。如图2所示,板卡20包括芯片201,其是一种系统级芯片(system on chip,soc),或称片上系统,集成有一个或多个组合处理装置,组合处理装置是一种人工智能运算单元,用以支持各类深度学习和机器学习算法,满足计算机视觉、语音、自然语言处理、数据挖掘等领域复杂场景下的智能处理需求。特别是深度学习技术大量应用在云端智能领域,云端智能应用的一个显著特点是输入数据量大,对平台的存储能力和计算能力有很高的要求,此实施例的板卡20适用在云端智能应用,具有庞大的片外存储、片上存储和大量的计算能力。
[0042]
芯片201通过对外接口装置202与外部设备203相连接。外部设备203例如是服务器、计算机、摄像头、显示器、鼠标、键盘、网卡或wifi接口等。待处理的数据可以由外部设备203通过对外接口装置202传递至芯片201。芯片201的计算结果可以经由对外接口装置202传送回外部设备203。根据不同的应用场景,对外接口装置202可以具有不同的接口形式,例如pcie接口等。
[0043]
板卡20还包括用于存储数据的存储器件204,其包括一个或多个存储单元205。存储器件204通过总线与控制器件206和芯片201进行连接和数据传输。板卡20中的控制器件206配置用于对芯片201的状态进行调控。为此,在一个应用场景中,控制器件206可以包括单片机(micro controller unit,mcu)。
[0044]
图3是示出此实施例的芯片201中的组合处理装置的结构图。如图3中所示,组合处理装置30包括计算装置301、接口装置302、处理装置303和dram 304。
[0045]
计算装置301配置成执行用户指定的操作,主要实现为单核智能处理器或者多核智能处理器,用以执行深度学习或机器学习的计算,特别是winograd卷积运算,其可以通过接口装置302与处理装置303进行交互,以共同完成用户指定的操作。
[0046]
接口装置302用于在计算装置301与处理装置303间传输数据和控制指令。例如,计算装置301可以经由接口装置302从处理装置303中获取输入数据,写入计算装置301片上的存储装置。进一步,计算装置301可以经由接口装置302从处理装置303中获取控制指令,写入计算装置301片上的控制缓存中。替代地或可选地,接口装置302也可以读取计算装置301的存储装置中的数据并传输给处理装置303。
[0047]
处理装置303作为通用的处理装置,执行包括但不限于数据搬运、对计算装置301的开启和/或停止等基本控制。根据实现方式的不同,处理装置303可以是中央处理器(central processing unit,cpu)、图形处理器(graphics processing unit,gpu)或其他通用和/或专用处理器中的一种或多种类型的处理器,这些处理器包括但不限于数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现场可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,并且其数目可以根据实际需要来确定。如前所述,仅就本发明的计算装置301而言,其可以视为具有单核结构或者同构多核结构。然而,当将计算装置301和处理装置303整合共同考虑时,二者视为形成异构多核结构。
[0048]
dram 304用以存储待处理的数据,为片外内存,大小通常为16g或更大,用于保存计算装置301和/或处理装置303的数据,尤其是存储欲进行winograd卷积运算的神经元数据及权值。在此实施例中,处理装置303已经事先将原始卷积的权值线性变换成winograd权值ggg
t
,存储在dram 304中。
[0049]
图4示出计算装置301的结构图。计算装置301包括总线401、直接存储器访问(dma)模块402、指令缓存(iram)407、译码单元(idu)408、神经元缓存(nram)409、正变换单元(ntu,neuron transformation unit)410、正变换数据缓存(wnram)411、权值缓存(wram)412、对位乘累加运算器(mac)413、对位乘数据缓存(wrram)414、逆变换单元(itu)415、结果缓存(rram)416及逻辑运算模块(alu,arithmetic logic unit)417。
[0050]
总线401是各装置之间传送信息的公共通信干线,由导线组成的传输线束,按照组合处理装置30所传输的信息种类,总线401为数据总线、地址总线和控制总线的统称,用来传输数据、数据地址和指令。总线401作为dram 304与计算装置301的通讯渠道,在此实施例中具体为pcie。
[0051]
dma模块402用以将数据从一个地址空间复制到另外一个地址空间,通常是将数据在外部内存(如dram 304)与计算装置301内部缓存间进行搬运。在实现dma传输时,处理装置201把总线控制权交给dma模块402,dma模块402控制总线401进行数据搬运,结束dma传输后,dma模块402把总线控制权交回给处理装置201。
[0052]
dma模块402包括神经元直接存储器访问(ndma)403、权值直接存储器访问(wdma)404、指令直接存储器访问(idma)405及结果直接存储器访问(rdma)406。ndma 403用以自dram 304输入神经元数据,wdma 404用以自dram 304输入winograd权值,idma 405用以自dram 304输入指令,rdma 406用以将计算结果输出至dram 304。在其他实施例中,ndma 403、wdma 404、idma 405及rdma 406可以由同一个直接存储器访问来实现。
[0053]
iram 407用以暂存idma 405输入的指令,idu 408自iram 407取出指令进行译码,并根据译码后的指令以控制其他单元运作。idu 408是整个计算装置301的译码调度单元,负责译码从dram 304获取的控制指令,转换为控制信号协调片上各个模块/单元的运作,同时还要负责指令的保序、解依赖,进行分支预测、异常处理、中断处理等诸多任务。图中细线箭头为控制流,粗线箭头为数据流。
[0054]
nram 409根据译码后的指令,用以暂存ndma 403发送的神经元数据,ntu 410根据译码后的指令,自nram 409读取神经元数据进行正变换,也就是进行b
t
db的运算,以产生正变换数据,所产生的正变换数据暂存在wnram 411中。
[0055]
图5示出ntu 410的示意图。ntu 410包括输入缓存501、寄存器堆502、加法器组503及输出缓存504。
[0056]
当ntu 410收到指令欲从nram 409载入神经元数据时,输入缓存501作为先入先出队列缓存,用以暂存神经元数据。载入神经元数据的阶段将会持续到所有数据接收完成,不同规模的卷积滤波器会配置固定且独立的缓存资源划分和输入计数,整体过程由idu 408发送指令控制。
[0057]
寄存器堆502根据译码后的指令,按照规划好的运算顺序,自输入缓存501取出暂存的神经元数据,存储至寄存器堆502的特定地址,这些存储在寄存器堆502的特定地址的神经元数据成为加法操作数。在此实施例中,由于输入、运算、输出三个阶段的流水时间长
度相等,故而会出现缓存硬件资源依赖的现象,为了解决资源依赖的问题,寄存器堆502切分为相同大小的乒存储单元505与乓存储单元506,第i个加法操作数及计算完所产生的正变换数据暂存在乒存储单元505中,第i 1个加法操作数及第i 1个正变换数据则暂存在乓存储单元506,第i 2个加法操作数及第i 2个正变换数据又暂存在乒存储单元505,覆盖第i个加法操作数及第i 2个正变换数据,寄存器堆502依此规则进行存储。
[0058]
加法器组503根据译码后指令,自寄存器堆502的特定地址依序读取加法操作数进行加法运算。在此实施例中,加法器组503的数量为2组以对应加法运算调度方向,每组包括16个加法器以对应向量化方向,每个加法器为fb32加法器,在神经元数据的通道方向按照特定顺序执行winograd卷积的正变换中的加法运算,此特定顺序为先计算winograd卷积的左乘矩阵b
t
的加法,再计算winograd卷积的右乘矩阵b的加法,最后产生正变换数据。运算顺序以及寄存器分配、运算时间均与卷积滤波器规模相关,由idu 408发送指令控制。此运算阶段与前述载入神经元数据的阶段产生数据依赖,以流水方式执行,由硬件通过计数实现。
[0059]
更详细来说,加法器组503将加法操作数拆解成多个加法元操作数,这些加法元操作数均为张量形式。多个加法元操作数的个数与加法操作数的元素个数相同,每个加法元操作数中只有一个元素与加法操作数中的对应位置的元素的数值相同,其他元素均为0。图6示出此实施例将加法操作数拆解成多个加法元操作数的示意图。图中以加法操作数601为2
×
2矩阵示例说明,其包括4个元素a
11
、a
12
、a
21
、a
22
,加法器组503将加法操作数601拆解为4个加法元操作数602、603、604、605,其中加法元操作数602仅在对应位置的元素中包括a
11
,其他元素均为0,加法元操作数603仅在对应位置的元素中包括a
12
,其他元素均为0,加法元操作数604仅在对应位置的元素中包括a
21
,其他元素均为0,加法元操作数605仅在对应位置的元素中包括a
22
,其他元素均为0。
[0060]
当加法器组503对加法操作数601执行winograd卷积的正变换中的运算时,取而代之对4个加法元操作数602、603、604、605进行运算,如此一来,仅需要针对4个加法元操作数602、603、604、605中的非0元素进行运算即可。对于每一个加法元操作数,将该加法元操作数左边乘以正变换左乘矩阵b
t
、右边乘以正变换右乘矩阵b,以得到该加法元操作数的winograd正变换中间结果。最后再将4个加法元操作数602、603、604、605的winograd正变换中间结果进行加总,即可得到加法操作数601的正变换数据。在实际的运算过程中,此等操作可以直接获取,不需要重复运算,从而缩短计算时间、节约计算资源。
[0061]
输出缓存504亦为先入先出队列缓存,用以暂存依序来自乒存储单元505及乓存储单元506的正变换数据。此输出阶段需要依赖于运算阶段的整体完成,才能进行相应缓存的输出。
[0062]
wnram 411包括多个缓存单元,图7示出一种示例性的wnram 411的示意图,如图所示,wnram 411包括4个缓存单元:第一缓存单元701、第二缓存单元702、第三缓存单元703、第四缓存单元704。来自ntu 410的正变换数据是通过路由分发方式发送至这些缓存单元的一个或多个。
[0063]
回到图4,wram 412根据译码后的指令,暂存wdma 404发送来的winograd权值,mac 413根据译码后的指令,自wram 412读取winograd权值,并自wnram 411读取正变换数据,对正变换数据与winograd权值进行对位乘累加运算,也就是进行[(ggg
t
)

(b
t
db)]的运算,以
产生对位乘数据,并将对位乘数据暂存至wrram 414。
[0064]
在此实施例中,mac 413包括64个mac运算器,均分为4组分别进行4个不同批量的运算,每组的16个mac运算器为独立分布。wnram 411的正变换数据需要同时发送给这64个mac运算器,使其与不同的winograd权值进行对位乘累加运算,因此wnram 411以广播或者分发路由的方式发送正变换数据。由于输出负载大,为保证驱动能力和时序,wnram 411的正变换数据通过n1、n2两级广播或者分发路由,首先发送给4个n1节点,每个n1节点广播或者分发路由给4个n2节点,每个n2节点再广播或者分发路由给4个mac运算器。
[0065]
图8示出一组mac运算器801的示意图。mac运算器801首先进行对位相乘,然后将得到的结果向量依次累加,逻辑功能相当于求向量内积或者进行矩阵乘法中元素值的运算。
[0066]
itu 415根据译码后的指令,自wrram 414读取对位乘数据,逆变换对位乘数据,也就是进行a
t
[(ggg
t
)

(b
t
db)]a的运算,以获得卷积结果,卷积结果暂存在rram 416中。
[0067]
itu 415的结构与ntu 410相近,同样包括输入缓存、寄存器堆、加法器组及输出缓存。
[0068]
当itu 415收到指令欲从wrram 414载入对位乘数据时,输入缓存作为先入先出队列缓存,用以暂存对位乘数据。载入对位乘数据的阶段将会持续到所有数据接收完成,不同规模的卷积滤波器会配置固定且独立的缓存资源划分和输入计数,整体过程由idu 408发送指令控制。
[0069]
寄存器堆根据译码后的指令,按照固定的运算顺序,自输入缓存取出暂存的对位乘数据,存储至寄存器堆的特定地址,这些存储在寄存器堆的特定地址的对位乘数据成为加法操作数。同样地,为了解决资源依赖的问题,寄存器堆具有相同大小的乒存储单元与乓存储单元,其存储方式不再赘述。
[0070]
加法器组根据译码后指令,自寄存器堆的特定地址依序读取加法操作数进行加法运算。与加法器组503相同,加法器组的数量为2组以对应加法运算调度方向,每组包括16个加法器以对应向量化方向,每个加法器为fb32加法器,在对位乘数据的通道方向按照特定顺序执行winograd卷积的逆变换中的加法运算,此特定顺序为先计算winograd卷积的左乘矩阵a
t
的加法,再计算winograd卷积的右乘矩阵a的加法,最后产生卷积结果,再将卷积结果存回寄存器堆中。运算顺序以及寄存器分配、运算时间均与卷积滤波器规模相关,由idu 408发送指令控制。此运算阶段与前述载入对位乘数据的阶段产生数据依赖,以流水方式执行,由硬件通过计数实现。
[0071]
输出缓存亦为先入先出队列缓存,用以暂存依序来自乒存储单元及乓存储单元的卷积结果。此输出阶段需要依赖于运算阶段的整体完成,才能进行相应缓存的输出。
[0072]
除了winograd卷积外,计算装置301还能够执行所有神经网络相关的运算,alu 417用以根据译码后的指令,执行两大任务:第一个任务是卷积融合操作的运算,即运算可以和卷积层在片上一次性完成不需要依赖更多数据的运算,这些运算包括激活、加偏置、方向部分和累加等运算过程;第二个任务是非卷积运算。alu 417产生的运算结果亦暂存于rram416中。alu 417的存在可以保证卷积神经网络中的各种运算在计算装置301中都可以完整实现,使得计算装置301具有神经网络的通用性和完整性。
[0073]
rdma 406根据译码后的指令,将卷积结果自rram 416中取出并输出至dram 304,至此完成整个卷积运算。同样地,rdma 406亦可根据译码后的指令,将alu 417生成的其他
运算结果自rram 416中取出并输出至dram 304。
[0074]
由于卷积运算的数据规模庞大,为了降低指令本身的启动开销,此实施例进一步利用指令控制使得相关模块/单元得以执行流水,提高硬件的使用率。
[0075]
从上述可知,神经元数据的输入时机与数据规模会影响winograd卷积指令的神经元正变换过程,权值数据输入时机与数据规模也会影响winograd卷积指令的对位乘累加运算过程,而winograd卷积逆变换的完成时机会影响卷积结果输出指令的执行。因此,从控制的角度来说,指令的先后顺序及执行的时间点是关键的,不仅如此,此实施例还需要在存在依赖关系的指令之间插入同步指令,以解决输入输出程序与winograd卷积程序的数据依赖问题。
[0076]
基于图4所示的计算装置301的结构,此实施例根据前述的流水来执行winograd卷积运算,能够充分的善用硬件优势,提升输入输出与运算效率。
[0077]
本发明基于winograd算法的特性进行硬件设计,以实现加速通用性,并提出加速winograd卷积运算速度的流水级操作方式,还在硬件实现过程中通过时分复用、广播路由等方法充分利用可复用资源。本发明提出的硬件结构能够匹配winograd卷积算法,具有保证网络精度、性能加速、面积缩减以及功耗降低的技术效果。
[0078]
根据不同的应用场景,本发明的电子设备或装置可以包括服务器、云端服务器、服务器集群、数据处理装置、机器人、电脑、打印机、扫描仪、平板电脑、智能终端、pc设备、物联网终端、移动终端、手机、行车记录仪、导航仪、传感器、摄像头、相机、摄像机、投影仪、手表、耳机、移动存储、可穿戴设备、视觉终端、自动驾驶终端、交通工具、家用电器、和/或医疗设备。所述交通工具包括飞机、轮船和/或车辆;所述家用电器包括电视、空调、微波炉、冰箱、电饭煲、加湿器、洗衣机、电灯、燃气灶、油烟机;所述医疗设备包括核磁共振仪、b超仪和/或心电图仪。本发明的电子设备或装置还可以被应用于互联网、物联网、数据中心、能源、交通、公共管理、制造、教育、电网、电信、金融、零售、工地、医疗等领域。进一步,本发明的电子设备或装置还可以用于云端、边缘端、终端等与人工智能、大数据和/或云计算相关的应用场景中。在一个或多个实施例中,根据本发明方案的算力高的电子设备或装置可以应用于云端设备(例如云端服务器),而功耗小的电子设备或装置可以应用于终端设备和/或边缘端设备(例如智能手机或摄像头)。在一个或多个实施例中,云端设备的硬件信息和终端设备和/或边缘端设备的硬件信息相互兼容,从而可以根据终端设备和/或边缘端设备的硬件信息,从云端设备的硬件资源中匹配出合适的硬件资源来模拟终端设备和/或边缘端设备的硬件资源,以便完成端云一体或云边端一体的统一管理、调度和协同工作。
[0079]
需要说明的是,为了简明的目的,本发明将一些方法及其实施例表述为一系列的动作及其组合,但是本领域技术人员可以理解本发明的方案并不受所描述的动作的顺序限制。因此,依据本发明的公开或教导,本领域技术人员可以理解其中的某些步骤可以采用其他顺序来执行或者同时执行。进一步,本领域技术人员可以理解本发明所描述的实施例可以视为可选实施例,即其中所涉及的动作或模块对于本发明某个或某些方案的实现并不一定是必需的。另外,根据方案的不同,本发明对一些实施例的描述也各有侧重。鉴于此,本领域技术人员可以理解本发明某个实施例中没有详述的部分,也可以参见其他实施例的相关描述。
[0080]
在具体实现方面,基于本发明的公开和教导,本领域技术人员可以理解本发明所
公开的若干实施例也可以通过本文未公开的其他方式来实现。例如,就前文所述的电子设备或装置实施例中的各个单元来说,本文在考虑了逻辑功能的基础上对其进行拆分,而实际实现时也可以有另外的拆分方式。又例如,可以将多个单元或组件结合或者集成到另一个系统,或者对单元或组件中的一些特征或功能进行选择性地禁用。就不同单元或组件之间的连接关系而言,前文结合附图所讨论的连接可以是单元或组件之间的直接或间接耦合。在一些场景中,前述的直接或间接耦合涉及利用接口的通信连接,其中通信接口可以支持电性、光学、声学、磁性或其它形式的信号传输。
[0081]
在本发明中,作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元示出的部件可以是或者也可以不是物理单元。前述部件或单元可以位于同一位置或者分布到多个网络单元上。另外,根据实际的需要,可以选择其中的部分或者全部单元来实现本发明实施例所述方案的目的。另外,在一些场景中,本发明实施例中的多个单元可以集成于一个单元中或者各个单元物理上单独存在。
[0082]
在另外一些实现场景中,上述集成的单元也可以采用硬件的形式实现,即为具体的硬件电路,其可以包括数字电路和/或模拟电路等。电路的硬件结构的物理实现可以包括但不限于物理器件,而物理器件可以包括但不限于晶体管或忆阻器等器件。鉴于此,本文所述的各类装置(例如计算装置或其他处理装置)可以通过适当的硬件处理器来实现,例如中央处理器、gpu、fpga、dsp和asic等。进一步,前述的所述存储单元或存储装置可以是任意适当的存储介质(包括磁存储介质或磁光存储介质等),其例如可以是可变电阻式存储器(resistive random access memory,rram)、动态随机存取存储器(dynamic random access memory,dram)、静态随机存取存储器(static random access memory,sram)、增强动态随机存取存储器(enhanced dynamic random access memory,edram)、高带宽存储器(high bandwidth memory,hbm)、混合存储器立方体(hybrid memory cube,hmc)、rom和ram等。
[0083]
以上对本发明实施例进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献