一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

在无线网络中解码分组以计算对数似然比的方法和装置与流程

2022-07-11 04:42:16 来源:中国专利 TAG:


1.本公开涉及无线网络,并且更具体地,涉及用于在无线网络中解码分组以计算基于图形处理单元(gpu)/非gpu的架构的对数似然比(llr)的方法和装置。


背景技术:

2.一般来说,llr计算是各种无线接收器不可或缺的一部分。llr值被用作无线接收器中解码模块的输入。然而,最优地计算llr有指数开销。因此,已经进行了多次尝试来简化llr计算的过程。现有的方法极其复杂,并且高的计算复杂度会降低效率。
3.因此,希望解决上述缺点或其他不足,或者至少提供一种有用的替代方案。


技术实现要素:

4.技术问题
5.本文实施例的主要目的是提供一种使用机器学习技术在无线网络中解码分组以计算基于计算单元的架构(例如,基于图形处理单元(gpu)的架构、基于非gpu的架构、基于中央处理单元(cpu)的架构、基于非cpu的架构等)的llr值的方法。
6.技术方案
7.因此,本文中的实施例公开了一种用于在无线网络中由装置解码用户数据的方法。该方法包括由装置接收与多个网络参数相关联的用户数据。该方法包括由装置使用多个接收到的网络参数来训练神经网络。此外,该方法包括由装置使用经训练的神经网络计算llr。此外,该方法包括由装置使用计算的llr解码接收到的用户数据。
8.在实施例中,多个网络参数包括最小均方误差(mmse)值、信道增益、调制方案、信道质量指示符(cqi)信息、范围内的用户装备(ue)的数量、ue的位置、ue与装置的距离、天气条件、资源块(rb)信息、操作频率、rb带宽、服务质量(qos)、qos类别标识符(qci)、带宽部分(bwp)、子载波间隔(scs)、相干带宽(bw)、相干时间、相干干扰、噪声、操作频率、ue的能力、多输入多输出(mimo)能力、传输模式、实时业务数据、远程无线电头(rrh)bs能力、ue的同相数据和正交数据(i和q)值、正交幅度调制(qam)调制细节、同相数据和正交数据(i和q)向量的大小以及分配给用户的资源块、与bs相关联的业务密度、与bs相关联的业务分布、bs的类别、当天的气候条件、当天与ue的区域相关联的特殊场合的信息、ue的基于事件的日历、与ue相关联的用户的假期细节、ue的类别以及ue的订阅细节。
9.在实施例中,由装置使用计算的llr解码接收到的用户数据包括执行以下之一:i)由装置使用e2接口将计算的llr传送到物理层,并且由装置使用计算的llr解码接收到的用户数据;ii)由装置顺序接收用户数据向量的大小、qam信息、mimo秩细节和指派给用户数据的rb的数量,并且由装置基于顺序地用户数据向量的大小、qam信息、指派给用户数据的rb的数量和mimo秩细节,使用计算的llr来串行解码每分组基础的接收到的用户数据;iii)由装置接收qam信息、每个用户数据的iq数据的大小和分配给每个用户数据的rb,并且由装置使用基于qam信息、每个用户数据的iq数据的大小和分配给每个用户数据的rb计算的llr来
并行解码每符号基础的接收到的用户数据;以及iv)由装置提供用户数据,直到所有iq数据被顺序或并行解码,由装置将输入向量的大小作为rb数量的函数指派给用户数据,由装置使用神经网络中的查找表加载权重,以及由装置使用计算的llr、输入向量的大小和加权函数顺序解码用户数据。为所有分组、串行每个比特、所有用户数据、一次一个比特以及同时一次一个比特和为所有用户数据中的至少一种计算llr。
10.在实施例中,由装置接收与多个网络参数相关联的用户数据包括:由装置在将iq数据流馈送到神经网络之前分离iq数据流,由装置确定与qam方案相关联的信道条件,以及由装置基于分离的iq数据流和确定的信道条件接收与多个网络参数相关联的用户数据。
11.在实施例中,通过创建多批次(batch)训练样本来训练神经网络,其中每个训练样本使用至少一种调制方案,训练qam方案,其中每个qam方案包括嵌入在用户数据中的唯一代码,从多批次中为每批次生成混洗训练样本,计算对应于每个混洗训练样本的llr,以及在训练的同时跨批次混洗计算的llr。
12.在实施例中,该装置是基站、开放式无线接入网络(oran)、集中式无线接入网络(cran)和虚拟无线接入网络(vran)中的至少一种。
13.在实施例中,nn在o-ran和vran的ric模块中实现。
14.在实施例中,由装置计算llr包括接收来自所有层或网络参数子集的rb的数量、操作频率、mcs、独立流的数量、mimo细节、网络和ue参数以及sinr中的至少一个,并且基于来自所有层或网络参数子集的rb的数量、操作频率、mcs、独立流的数量、mimo细节、网络和ue参数以及sinr中的至少一个顺序或并行计算llr。
15.因此,本文中的实施例公开了一种用于在无线网络中解码用户数据的装置。该装置包括与存储器耦合的处理器。处理器被配置成接收与多个网络参数相关联的用户数据,并且使用多个接收到的网络参数来训练神经网络。此外,处理器被配置成使用经训练的神经网络计算llr。此外,处理器被配置成使用计算的llr来解码接收到的用户数据。
16.当结合下面的描述和附图考虑时,将会更好地理解和明白本文中的实施例的这些和其他方面。然而,应该理解的是,尽管下面的描述指示了优选实施例和其中的许多具体细节,但是这些描述是以说明的方式给出的,而不是限制性的。在不脱离本文中的实施例的精神的情况下,可以在本文中的实施例的范围内进行许多改变和修改,并且本文中的实施例包括所有这样的修改。
17.有益效果
18.本公开的多种实施例可以提供一种使用机器学习技术来解码分组以计算无线网络中的基于计算单元的架构(例如,基于图形处理单元(gpu)的架构、基于非gpu的架构、基于中央处理单元(cpu)的架构、基于非cpu的架构等)的llr值的方法。这促使提高效率并降低高计算复杂度。
附图说明
19.该方法和装置在附图中示出,在所有附图中,相同的附图标记表示各个图中的对应部分。参考附图,从下面的描述中将更好地理解本文中的实施例,其中:
20.图1示出了根据本文公开的实施例的其中装置使用ml和ai技术解码用户数据的示例场景;
21.图2示出了根据本文公开的实施例的用于在无线网络中解码用户数据的装置的硬件组件图;
22.图3示出了根据本文公开的实施例的nn的训练;
23.图4示出了根据本文公开的实施例的其中基站解码无线网络中的用户数据示例场景;
24.图5示出了根据本文公开的实施例的其中ue解码无线网络中的用户数据示例场景;
25.图6示出了根据本文公开的实施例的其中vran解码无线网络中的用户数据示例场景;
26.图7示出了根据本文公开的实施例的用于解码用户数据的oran的架构图;以及
27.图8a、图8b和图8c是示出了根据本文公开的实施例的由装置解码无线网络中的用户数据的方法的流程图。
具体实施方式
28.参考在附图中示出并在以下描述中详述的非限制性实施例,更全面地解释了本文中的实施例及其多种特征和有利细节。省略了对公知组件和处理技术的描述,以免不必要地模糊本文中的实施例。此外,本文描述的多种实施例不一定是互斥的,因为一些实施例可以与一个或多个其他实施例组合以形成新的实施例。除非另有说明,本文使用的术语“或”是指非排他性的或。本文使用的示例仅仅是为了便于理解可以实践本文中的实施例的方式,并且进一步使得本领域技术人员能够实践本文中的实施例。因此,这些示例不应被解释为限制本文中的实施例的范围。
29.按照本领域的传统,可以根据执行所描述的一个或多个功能的块来描述和说明实施例。这些块在本文中可以被称为管理器、单元、模块、硬件组件等,其物理地由模拟和/或数字电路实现,诸如逻辑门、集成电路、微处理器、微控制器、存储电路、无源电子组件、有源电子组件、光学组件、硬连线电路等,并且可选地由固件和软件驱动。电路可以例如包含在一个或多个半导体芯片中,或者在诸如印刷电路板等的衬底支撑上。构成块的电路可以由专用硬件、或者由处理器(例如,一个或多个编程的微处理器和相关电路)、或者由执行块的一些功能的专用硬件和执行块的其他功能的处理器的组合来实现。在不脱离本公开的范围的情况下,实施例的每个块可以物理地被划分成两个或更多个相互作用且离散的块。同样,在不脱离本公开的范围的情况下,实施例的块可以被物理地组合成更复杂的块。
30.附图用于帮助容易地理解各种技术特征,并且应当理解,本文呈现的实施例不受附图的限制。因此,本公开应当被解释为延伸到除了附图中特别阐述的那些之外的任何变更、等同物和替代物。虽然术语第一、第二等可以在本文中用来描述多种元素,但是这些元素不应该被这些术语所限制。这些术语通常仅用于区分一个元素和另一个元素。
31.术语“nn”、“ml”和“ai”在专利公开中可互换使用。术语“bs”、“小区”、“enodeb”、“gnodeb”、“扇区”、“ru”、“收发器”和“rrh”在专利公开中可互换使用。
32.以下是专利说明书中使用的缩写:
33.对数似然比(llr)
34.神经网络(nn)
35.基站(bs)
36.远程无线电头(rrh)
37.用户装备(ue)
38.服务质量(qos)
39.qos类别标识符(qci)
40.神经网络(nn)
41.无线接入网络(ran)
42.ran智能控制器(ric)
43.开放式-ran(o-ran)
44.虚拟无线局域网(vran)
45.云ran(cran)
46.调制和编码方案(mcs)
47.人工智能(ai)
48.实时(ri)
49.下行链路(dl)
50.上行链路(ul)
51.人工智能(ai)
52.多输入多输出(mimo),
53.传输模式(tx模式),以及
54.正交幅度调制(qam)
55.因此,本文中的实施例提供了一种在无线网络中由装置解码用户数据的方法。该方法包括由装置接收与多个网络参数相关联的用户数据。该方法包括由装置使用多个接收到的网络参数来训练神经网络。此外,该方法包括由装置使用经训练的神经网络计算llr。此外,该方法包括由装置使用计算的llr解码接收到的用户数据。
56.所提出的方法可以用于减少ue/enodeb/vran/oran/cran的解码等待时间,提高ue/enodeb/vran/oran/cran的功率效率,减少虚拟ran/云ran系统的计算时间,以及通过在基于计算单元的架构(例如,基于图形处理单元(gpu)的架构、基于非gpu的架构、基于中央处理单元(cpu)的架构、基于非cpu的架构等)的符号或分组的基础上使用机器学习和人工智能来降低ue/bs硬件成本。ue/bs硬件成本的降低是通过以下事实来完成的:神经网络计算可以独立于硬件来完成,或者使用神经网络硬件来实现,并且使用ml和ai作为mcs、操作频率和块大小的函数来解码整个传输块,而不是逐个符号地解码。
57.装置的用户可以使用神经网络来基于mcs和分组大小计算llr。此外,所提出的方法针对不同的mcs、sinr、mimo能力、ue类型和多种通信层的其他网络和ue参数,基于不同的nn,为基于gpu和/或非gpu的架构提供了多种解决方案。此外,所提出的方法为每个架构提供了多种解决方案,如下所示:
58.1.为每个mcs划分稀疏nn(带有/带有授权信息)
59.a.逐个符号地解码(它可以是对用户数据的串行或/和并行处理),
60.b.一次解码整个分组(一次一个用户和/或所有用户)
61.此外,所提出的方法降低了vran/oran/cran的计算复杂度。计算llr需要更少的计
算周期,促使更短的等待时间。此外,所提出的方法独立于硬件并且易于实现。
62.所提出的方法将使用在o-ran系统的ric模块中的nn来计算llr值。该提议适用于基于gpu和非gpu的vran/o-ran/cran系统。使用e2接口将计算的llr值传输到物理层。mac调度器将qam细节连同分配给ue的授权一起共享给ric模块。在每ue的基础上维护nn。机器学习可以是qci/qos/bwp/scs/bw/相干bw/相干时间/干扰/噪声/操作频率/ue能力/mimo能力/ue能力/传输模式的函数。
63.此外,所提出的方法使用联邦学习算法为所有用户维护神经网络。学习可以是qci/qos的函数。nn学习可以是qci或qos的函数。nn参数的学习可以是带宽路径、频率操作、ue类别、气候条件、外部事件、实时业务数据、rrh/bs能力的函数。可以在每用户/所有用户的基础上使用单个或多个nn来完成实现。此外,可以基于20个参数完成学习。
64.此外,所提出的方法可以在包括ue侧的bs/oran/cran/vran处使用,并且基于ai的技术可以在bs/oran/cran/vran侧使用。
65.使用稀疏神经网络来计算所有qam方案(例如,16qam、64qam、256qam、1024qam和4096qam)的llr值。为基于gpu/非gpu的vran系统提出了多种架构。
66.此外,可以使用单个稀疏nn来完成解码,而不管qam方案。此外,对于不同的qam方案,可以使用不同的单个稀疏nn来完成解码。输入层只有两个节点,与qam方案无关(用户数据被馈送,直到所有iq数据被顺序解码;输入向量的大小是指派给用户的rb数量的函数)。每次,将使用位于oran系统的ric模块中的ml模块中的查找表加载稀疏nn权重。在这种情况下,用户被顺序解码。无论qam方案如何(16qam、64qam、256qam、1024qam和4096qam),单个隐藏层只有4、6或8个节点。
67.基于ue多个并行传输(对于mimo系统/传输秩/pmi),o-ran系统将在馈送到稀疏nn之前分离iq数据流。基于信道条件,不同的流可以具有不同的qam方案。所提出的方法基于分组延迟和分组误差容限(基于qci/qos要求)智能地使用适当的架构。此外,该方法基于应用类型(诸如emtc/nb-iot/lte/5g/可变云资源)使用适当的架构。此外,所提出的方法可以基于查找表在ue中使用。ue中的稀疏nn将基于多种参数加载查找表值。此外,所提出的训练技术以基于qci/qos的动态方式降低了计算复杂度。所有训练技术都可以通过在线或离线解决方案在硬件设备中实现。
68.所提出的方法可以用于使用在可以是基于gpu和/或非gpu的架构的vran/o-ran系统的ric模块中的稀疏nn来计算llr值。使用e2接口将计算的llr值传输到物理层。mac调度器将qam细节连同分配给ue的授权一起共享给ric模块。在其他架构中,可以使用类似的接口,并且存储器可以访问不同的模块。此外,所提出的方法在每ue的基础上保持稀疏nn。学习可以是qci/qos的函数,并且使用联邦学习技术为所有用户维护稀疏nn。该学习可以是qci/qos的函数。稀疏nn参数的学习可以是带宽路径、频率操作、ue类别、ue/bs天线数量、实时业务数据、传输模式、rrh/bs能力、气候条件、外部事件的函数。可以在每用户/所有用户的基础上使用单个或多个nn来完成实现,并且可以基于多种网络参数来完成学习。
69.所提出的方法可以在分布式单元或集中式单元或云智能单元或rrh或无线电单元中实现。此外,所提出的方法可以用在无线通信系统中。通信系统可以是例如但不限于4g系统、5g系统、6g系统、wi-fi系统和laa系统。所提出的方法可以在任何3gpp或非3gpp接收器中实现。所提出的方法可以被实现用于多连接相关的架构。在双/多连接的情况下,llr值将
由不同的bs计算,其可以传输到集中式bs或主bs。此外,人们可以智能地组合iq样本而不是llr级别。
70.此外,该装置还可以使用稀疏dnn、cnn、rnn、稀疏cnn、稀疏rnn和稀疏dnn混合技术或上述nn或ai或两者的组合。此外,该装置还可以使用多种激活函数、激活函数的近似和/或激活函数的线性近似。装置的性能将是激活函数的函数。可以近似激活的函数来降低计算复杂度。此外,如果链路的权重可以忽略,则该装置还智能地移除nn网络中的连接,并且该装置可以再次重新训练nn以达成预期的性能。如果性能不符合要求,则装置将提前返回nn。此外,系统可以使用ml/ai来提高这些技术的性能。本领域的普通技术人员可以容易地对所提出的解决方案进行轻微的修改。这些技术可以在ml模块中运行,也可以在硬件(hw)中运行。
71.所提出的方法可以用于以成本有效且快速的方式解码无线网络中的用户数据。由于llr计算得更快且更准确,ue体验将得到提高,并且由于简易性,基站可以处理更多的业务。因此,可以服务更多的ue。基于所提出的方法,可以降低用于cran/vran的云服务器的成本。所提出的方法可以用于以较小的功率解码无线网络中的用户数据。
72.现在参照附图,并且更具体地参照图1至图8,其中在所有附图中,相似的附图标记始终表示对应的特征,示出了优选实施例。
73.图1示出了根据本文公开的实施例的使用机器学习(ml)和人工智能(ai)解码用户数据的方法。图1以灰色示出了64qam和接收到的数据点,并且需要计算接收到的损坏点的llr。接收到的数据的实部是i且接收到的数据的虚部是q分量。在图2至图8中解释了用户数据的解码。
74.图2示出了根据本文公开的实施例的用于在无线网络(1000)中解码用户数据的装置(100)的硬件组件图。装置(100)可以是例如但不限于基站、ue、oran、cran和vran。ue可以是例如但不限于蜂窝电话、智能电话、个人数字助理(pda)、无线调制解调器、平板电脑、膝上型计算机、无线本地环路(wll)站、通用串行总线(usb)软件狗、物联网(iot)、虚拟现实设备和沉浸式系统。bs(100a)还可以包括或被本领域技术人员称为基站收发器、无线电基站、接入点、无线电收发器、enb、gnodeb(gnb)、5genb等。
75.装置(100)包括pre snr控制器(202)、时间和频率偏移控制器(204)、信道估计控制器(206)、rnn矩阵计算控制器(208)、mmse控制器(210)、idft控制器(212)、基于机器学习的llr控制器(214)、解扰器(216)、uci提取和软组合器(218)、神经网络(220)、存储器(222)和处理器(224)。处理器(224)与pre snr控制器(202)、时间和频率偏移控制器(204)、信道估计控制器(206)、rnn矩阵计算控制器(208)、mmse控制器(210)、idft控制器(212)、基于机器学习的llr控制器(214)、解扰器(216)、uci提取和软组合器(218)、神经网络(220)和存储器(222)耦合。为了专利说明书的简洁,省略了装置(100)中的传统组件(即,pre snr控制器(202)、时间和频率偏移控制器(204)、信道估计控制器(206)、rnn矩阵计算控制器(208)、mmse控制器(210)、idft控制器(212)、解扰器(216)以及uci提取和soft组合器(218))。神经网络(220)可以是例如但不限于基于4qam的神经网络、基于16qam的神经网络、基于64qam的神经网络和基于256qam的神经网络。
76.基于机器学习的llr控制器(214)由模拟或数字电路物理实现,诸如逻辑门、集成电路、微处理器、微控制器、存储电路、无源电子组件、有源电子部组件、光学组件、硬连线电
路等,并且可以可选地由固件驱动。基于机器学习的llr控制器(214)可以例如在一个或多个半导体芯片中体现,或者在诸如印刷电路板等衬底支撑上实现。构成块的电路可以由专用硬件、或者由处理器(例如,一个或多个编程的微处理器和相关电路)、或者由执行块的一些功能的专用硬件和执行块的其他功能的处理器的组合来实现。在不脱离本发明的范围的情况下,实施例的每个块可以被物理地划分成两个或更多个相互作用且离散的块。
77.基于机器学习的llr控制器(214)接收与多个网络参数相关联的用户数据。通过在馈送到神经网络(220)之前分离iq数据流,确定与qam方案相关联的信道条件,以及基于分离的iq数据流和确定的信道条件接收与多个网络参数相关联的用户数据,来接收与多个网络参数相关联的用户数据。多个网络参数可以是例如但不限于mmse值、信道增益、调制方案、cqi信息、范围内的ue的数量、ue的位置、ue与装置(100)的距离、天气条件、rb信息、操作频率、rb带宽、qos、qci、bwp、scs、相干bw、相干时间、相干干扰、噪声、操作频率、ue的能力、mimo能力、传输模式、实时业务数据、rrh bs能力、ue的i-q值、qam调制细节、i-q向量的大小、分配给用户的资源块、与bs相关联的业务密度、与bs相关联的业务分布、bs的类别、当天的气候条件、当天与ue的区域相关联的特殊场合的信息、ue的基于事件的日历、与ue相关联的用户的假期细节、ue的类别、所有层的网络和ue参数、以及ue的订阅细节。
78.此外,基于机器学习的llr控制器(214)使用多个接收到的网络参数来训练神经网络(220)。神经网络(220)在o-ran和vran中的至少一种的ric模块中实现。通过创建多批次训练样本来训练神经网络(220),其中每个训练样本使用至少一种调制方案,训练qam方案,其中每个qam方案包括嵌入在用户数据中的唯一代码,从多批次中为每批次生成混洗训练样本,计算对应于每个混洗训练样本的llr,以及在训练的同时跨批次混洗计算的llr。
79.nn的训练细节:
80.神经网络(220)创建多批次训练数据。每一种都使用特定的调制方案。此外,神经网络(220)可以针对4、16、64、256和1024qam方案进行训练。每一个都有一个唯一的代码嵌入在用户信息中。因此,一批次对应于一个固定的调制方案。神经网络(220)为每一批次生成混洗训练样本。在示例中,对于16qam,有16个可能的信号。装置(100)的用户将计算对应于每个的精确llr,从而创建一个批次。此外,用户在训练的同时会跨批次和在批次内混洗。这是为了增强训练。神经网络(220)将使用反向传播来更新和学习权重。除了sigmoid激活的第一层和使用线性激活的最后一层,内部的激活函数是relu激活的。使用adam技术执行权重更新。复数输入等同于2个实数输入。在训练之后,用户将测试神经网络(220)。如果正确完成了测试,则使用神经网络(220)来计算llr。此外,装置(100)基于mcs或/和mimo或/和sinr和/或无线网络和ue参数来确定是实现单个nn还是多个nn。
81.如上所述,装置(100)的用户可以为每个调制训练一个nn。每当基站需要权重时,模块可以使用查找表来加载nn权重。llr模块的输入具有有限范围的值。在训练阶段,装置(100)的用户将产生百万个点,并且使用随机点的最优llr值来训练nn(220)。这个训练仅完成一次。如果需要,该装置的用户可以周期性地完成。另一种方法是为所有mcs生成单个nn权重。用户也可以使用在线学习、离线学习或在线学习和离线学习的混合来提出混合方法。对于不属于训练集的输入,神经网络(220)将输出插值结果。这对于大多数应用来说已经足够好了,并且因此装置(100)的用户不必为所有的可能性而是为足够大的子集进行训练。由于llr公式是固定的,装置(100)的用户将只需要训练一次。无需后续训练。
82.一旦经过训练和测试,所提出的方法可以顺利部署。在硬件方面,存在定点/浮点问题。在实现硬件时需要考虑这些因素。然而,如前所述,最终实现由相对简单的硬件组成,这应该不难。所提出的方法独立于硬件。因为所提出的解决方案可以在基于云的系统中顺利实施。一旦装置(100)的用户已经训练了神经网络(220),计算复杂度将会降低。这是因为神经网络(220)的硬件由简单的地址和乘法器组成。所涉及的非线性激活函数是sigmoid和relu函数。relu函数就是max(x,0)函数。这是一个也可实现的比较器。
83.sigmoid函数如下:
[0084][0085]
它有一个可以用来降低复杂度的分段近似。因此,降低了神经网络实现的复杂度。在训练的同时,装置(100)的用户将使用如上所述的功能。但是在部署的同时,装置(100)的用户将在任何适用的地方使用分段线性近似。
[0086]
此外,网络参数通过标准接口和非标准接口进行交换。这些消息可以通过无线介质或有线介质或两者来交换。在云系统中,它将访问内存位置。所提出的方法适用于多种拆分选项和不同的架构以及所有技术。
[0087]
此外,基于机器学习的llr控制器(214)使用经训练的神经网络(220)计算llr。在实施例中,通过接收rb的数量、操作频率、mcs、独立流的数量和sinr,并基于rb的数量、操作频率、mcs、独立流的数量和sinr顺序或并行计算llr,来计算llr。在实施例中,为所有分组计算llr。在另一个实施例中,串行为每个比特计算llr。在另一个实施例中,为所有用户数据计算llr。在另一个实施例中,一次为一个比特计算llr。在另一个实施例中,同时一次为一个比特和为所有用户数据计算llr。
[0088]
此外,基于机器学习的llr控制器(214)使用计算的llr解码接收到的用户数据。在实施例中,通过使用e2接口将计算的llr传送到物理层,并使用计算的llr解码接收到的用户数据,来解码接收到的用户数据。在另一个实施例中,通过顺序接收用户数据向量的大小、qam信息和指派给用户数据的rb的数量,并使用基于顺序地用户数据向量的大小、qam信息、指派给用户数据的rb的数量计算的llr,串行解码每分组基础的接收到的用户数据,来解码接收到的用户数据。
[0089]
在另一个实施例中,通过接收qam信息、每个用户数据的iq数据的大小和分配给每个用户数据的rb,并使用基于qam信息、每个用户数据的iq数据的大小和分配给每个用户数据的rb计算的llr,并行解码每符号基础的接收到的用户数据,来解码接收到的用户数据。
[0090]
在另一个实施例中,通过提供用户数据直到所有iq数据被顺序解码,将输入向量的大小作为rb数量的函数指派给用户数据,使用神经网络中的查找表加载权重,以及使用计算的llr、输入向量的大小和加权函数顺序解码用户数据,来解码接收到的用户数据。
[0091]
解码只是o-ran架构的示例,其中后端物理层位于云中。所提出的方法等同地适用于所有架构以及所有3gpp和非3gpp拆分的选项。此外,所提出的方法也适用于云ran/集中式ran和其他基于云的架构。为了简洁起见,我们没有详细解释每个架构。在不同的架构中,llr计算模块和llr输出后续模块之间会有不同的接口。
[0092]
在示例中,基站(404)解码图4中描绘的无线网络(1000)中的用户数据。在图4a中,无线网络(1000)包括一个或多个ue(402a-402n)和基站(404)。基站(404)从一个或多个ue
(402a-402n)接收用户数据。基于接收到的用户数据,基站(404)基于所提出的方法解码用户数据。基站(404)的操作类似于装置(100),因此为了简洁起见,相同的操作被省略。在另一个示例中,ue(402)解码图5中描绘的无线网络(1000)中的用户数据。在图5中,无线网络(1000)包括ue(402)和基站(404)。ue(402)从基站(404)接收用户数据。基于接收到的用户数据,ue(402)基于所提出的方法解码用户数据。ue(402)的操作类似于装置(100),因此为了简洁起见,相同的操作被省略。在另一个示例中,vran解码无线网络(1000)中的用户数据(如图6所示)。在基站(404)或vran或ue(402)中,用户数据被顺序/并行解码,并且对于mcs有许多nn,用户数据被顺序/并行解码且对于mcs只有一个nn,并且用户数据被顺序/并行解码且对于所有mcs只有一个nn。
[0093]
处理器(224)被配置成运行存储在存储器(222)中的指令并执行多种过程。通信接口(未示出)被配置用于内部硬件组件之间的内部通信以及经由一个或多个网络与外部设备的通信。处理器(224)可以包括一个或多个处理单元(例如,在多核配置中)。
[0094]
存储器(222)存储将由处理器(224)运行的指令。存储器(222)可以包括非易失性存储元件。这种非易失性存储元件的示例可以包括磁硬盘、光盘、软盘、闪存、或电可编程存储器(eprom)或电可擦除可编程(eeprom)存储器的形式。此外,在一些示例中,存储器(222)可以被认为是非暂时性存储介质。术语“非暂时性”可以表示存储介质不被包含在载波或传播信号中。然而,术语“非暂时性”不应被解释为存储器(222)是不可移动的。在某些示例中,非暂时性存储介质可以存储可以随时间改变的数据(例如,在随机存取存储器(ram)或高速缓存中)。
[0095]
虽然图2示出了装置(100)的多种硬件组件,但是应当理解,其他实施例不限于此。在其他实施例中,装置(100)可以包括更少或更多数量的组件。此外,组件的标签或名称仅用于说明目的,并不限制本发明的范围。一个或多个组件可以组合在一起以执行相同或基本相似的功能,用于解码无线网络(1000)中的用户数据。
[0096]
图3示出了根据本文公开的实施例的nn(220)的训练。nn(220)由输入层(302)、8个节点的隐藏层(304a和304b)和输出层(306)组成。在示例中,对于m qam,输出层(306)的大小是log2(m)。装置(100)使用分段近似的swish激活函数f(x)(如在隐藏层(304a和304b)之后定义的)。
[0097][0098]
这有助于降低复杂度,而不会牺牲太多mse。对于所有调制方案,隐藏层(304a和304b)的大小保持不变。没有激活被用于输出层(306),因为它限制了预测输出的范围。该方法使用初始全连接模型的正常权重初始化来开始训练过程。由于神经网络(220)对实数进行操作,装置(100)将信道输出的虚部作为另一个输入传输给神经网络(220)。
[0099]
在另一个示例中,装置(100)的用户生成

i’和

q’的十万个随机样本,并且每个随机

i’和

q’的对应llr值是使用一般方法计算的样本。当装置(100)的用户馈送第n个样本时,稀疏nn将生成llr值。但是生成的llr值可能远离实际的llr值。最初,所有链接权重都被指派了任意权重。稀疏神经网络使用梯度下降技术来更新神经元之间链接的权重,使得均
方误差最小。通过十万次积分,稀疏神经网络的权重将变得稳定。这就完成了训练阶段。训练后,装置(100)的用户将馈送“i”和“q”值以获得正确的llr值。
[0100]
在示例中,在密集神经网络中,可以并行评估一列中的所有层(302-306)。因此,激活函数以及大型层的计算可以推给具有强大gpu辅助的vran来承载。
[0101]
图7示出了根据本文公开的实施例的用于解码用户数据的oran的架构图(700)。图7中示出了oran的传统架构图,因此为了专利说明书的简洁,省略了对oran中的传统组件(702-728和732-744)的传统功能的解释,并且本解释聚焦于使用在oran的ran智能控制器(ric)非实时(非rt)单元(718)内部的神经网络(220)的ml系统(730)的使用。ml系统(730)使用多个接收到的网络参数智能地训练神经网络(220)(例如,基于rl的nn)。类似于oran,所提出的方法可以在vran、云ran、集中式ran和任何基于云的ran上实现。集中式控制器和ml/人工智能模块包括在所有ran架构中,其中每个ran架构具有不同的接口。此外,ml/nn/ai模块的估计值将被传输到mac/phy/l3模块。
[0102]
nn(220)连同最优中央nn一起使用提高了整个无线网络(1000)的频谱效率,并且还减少了bs(404)和ue(402)之间的通信等待时间。
[0103]
在所提出的方法中,物理模块将经由e2接口请求ric模块计算用户的llr值。mac层将经由e2接口传输(多个)ue授权细节(即,(多个)ue的资源细节、(多个)ue的mcs信息)。ric模块将计算llr值,并且经由e2接口传输回phy-low。
[0104]
此外,e2接口已经被标准化用于o-ran架构中的数据收集,使得nn输入参数可以容易地在接口上被追踪。通过将日志放入e2接口中,装置(100)可以计算出mac层是否正在传输调度授权细节。可以使用日志来捕获这些信息。类似地,phy-high将经由e2接口传输所有用户的iq数据。这可以使用日志轻松检测到。该异常数据可以使用日志来捕获。在ric模块计算所有ue的llr值之后,ric模块将经由e2接口将其传输到phy-high。该异常数据可以使用日志来捕获。
[0105]
所提出的稀疏架构在计算上是高效的。可以基于qos/qci选择所提出的架构。此外,所提出的方法可以用于基于gpu和非gpu的架构。所提出的稀疏nn可以运行在云ran、开放式ran、虚拟ran和集中式ran中。这些可以在基于gpu和/或非gpu的架构中运行。可以基于qam、信道条件、延迟要求和分组误差约束以及较低的capex来选择稀疏nn。更多的rrh可以在云系统中运行。兼容5g/6g/小小区/wi-fi系统。所提出的方法是技术不可知的和传输模式不可知的。此外,更快的解码和低等待时间。更多数量的rrh/基站可以在vra/cran/oran中运行。促使更低的操作和维护成本以及更低的capex。
[0106]
考虑所提出的方法,促使vran/cran系统的每rrh更少数量的核。云系统可以支持更多数量的rrh单元。此外,所提出的方法促使vran/cran系统的每rrh更少数量的核。云系统可以支持更多数量的rrh单元,从而降低vran/cran/oran系统的llr模块的计算复杂度。所提出的方法需要较少的核用于计算llr,并因此在oran系统中的投资更少。
[0107]
在实施例中,不同的用户可以具有不同的授权。该授权具有mcs和资源块数量信息。不同的可以有不同的独立数据流(即,mimo传输秩》=1)。基于网络和ue参数,iq样本将在phy层中进行。基于架构,phy层可以位于cu或du或云或rrh或ru或bs中。这些iq样本将在发送其到llr或解调器模块之前被发送到各个模块。其可以在gpu或cpu或硬件或ml/ai智能层中实现。从llr/解调器模块输出的是llr值。llr值的数量是qam方案的函数。
[0108]
在我们的oran系统中,适当的iq数据被发送到基于机器学习的llr控制器(214)(即,iq被从物理层发送到智能层),然后解码的值将被返回到物理层(即,llr值可以被返回到物理层)。比如后续模块在智能层,不用返回物理层,它可以发送给其他机器学习模块。在示例中,基于机器学习的llr控制器(214)在云中操作。
[0109]
图8a、图8b和图8c是示出了根据本文公开的实施例的在无线网络(1000)中由装置(100)解码用户数据的方法的流程图(s800)。基于机器学习的llr控制器(214)执行操作(s802-s830)。
[0110]
在s802,该方法包括在馈送到神经网络(220)之前分离iq数据流。在s804,该方法包括确定与qam方案相关联的信道条件。在s806,该方法包括基于分离的iq数据流和确定的信道条件接收与多个网络参数相关联的用户数据。在s808,该方法包括使用多个接收到的网络参数训练神经网络(220)。在s810,该方法包括使用经训练的神经网络(220)计算llr。
[0111]
在实施例中,在s812,该方法包括使用e2接口将计算的llr传送到物理层。在s814,该方法包括使用计算的llr解码接收到的用户数据。
[0112]
在另一实施例中,在s816,该方法包括顺序接收用户数据向量的大小、qam信息和指派给用户数据的rb的数量。在s818,该方法包括使用基于顺序地用户数据向量的大小、qam信息、指派给用户数据的rb的数量计算的llr,串行解码每分组基础的接收到的用户数据。
[0113]
在另一实施例中,在s820,该方法包括接收qam信息、每个用户数据的iq数据的大小和分配给每个用户数据的rb。在s822,该方法包括使用基于qam信息、每个用户数据的iq数据的大小和分配给每个用户数据的rb计算的llr,并行解码每符号基础的接收到的用户数据。
[0114]
在另一实施例中,在s824,该方法包括提供用户数据,直到所有iq数据被顺序解码。在s826,该方法包括将输入向量的大小作为rb的数量的函数指派给用户数据。在s828,该方法包括使用神经网络(220)中的查找表加载权重。在s830,该方法包括使用计算的llr、输入向量的大小和加权函数顺序解码用户数据。
[0115]
本文公开的实施例可以使用至少一个硬件设备并执行网络管理功能来控制硬件设备来实现。
[0116]
特定实施例的前述描述将如此充分地揭示本文中的实施例的一般性质,以至于他人可以通过应用目前的知识,在不脱离一般构思的情况下,容易地修改和/或调整这种具体的实施例以用于多种应用,因此,这种调整和修改应该并且旨在被理解在所公开的实施例的等同物的含义和范围内。应当理解,本文使用的措辞或术语是为了描述的目的,而不是为了限制。因此,尽管已经根据优选实施例描述了本文中的实施例,但是本领域技术人员将认识到,可以用本文描述的实施例的精神和范围内的修改来实践本文中的实施例。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献