一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种分布式图推理计算方法、装置、终端及存储介质与流程

2022-11-30 10:58:28 来源:中国专利 TAG:


1.本发明涉及图推理计算技术领域,尤其涉及的是一种分布式图推理计算方法、装置、终端及存储介质。


背景技术:

2.图可以有效地表达对象和对象之间的关系,图神经网络的出现使得深度学习技术可以应用于图领域。
3.现有的图神经网络模型的获取周期长,需要经过数据清洗、模型训练、参数调优等步骤。对于实时性要求非常高的场景,长周期会带来很多潜在风险。此外,图数据的庞大导致单机往往无法承载过大的数据量和计算量,分布式图计算成为一种主流趋势。
4.因此,现有技术还有待改进。


技术实现要素:

5.本发明要解决的技术问题在于,针对现有技术缺陷,本发明提供一种分布式图推理计算方法、装置、终端及存储介质,以解决现有的图神经网络模型无法适应实时性要求高的场景的技术问题。
6.本发明解决技术问题所采用的技术方案如下:
7.第一方面,本发明提供一种分布式图推理计算方法,包括:
8.获取图数据,对所述图数据进行预处理,得到所述图数据所构造的全图,并更新所述全图上的基础信息;
9.对所述全图中所有点的hop值进行初始化处理,并根据初始化后的hop值分别获取预设点、一度邻居以及二度邻居所对应的特征,得到二度子图特征;
10.将所获取的二度子图特征输入至已训练的gnn编码器模型中,并通过所述已训练的gnn编码器模型输出得到对应的嵌入向量;
11.根据输出的嵌入向量生成对应边的邮件信息,并通过邮件传递机制将所述邮件信息发送至对应边的目的点;
12.通过已训练的gnn解码器模型对所述全图特征进行解码,根据各边目的点上的邮件信息输出所述全图特征的逻辑推理结果。
13.在一种实现方式中,所述基础信息包括边、点以及时间戳;
14.所述对图数据进行预处理,得到所述图数据所构造的全图,并更新所述全图上的基础信息,包括:
15.从所述图数据中获得新产生的图事件e;
16.将所述图事件e关联的点和边分别加入对应的分布式弹性数据集中;
17.采用预设分区策略对所述图事件e关联的边进行分区;
18.根据所述分布式弹性数据集构建得到所述全图;
19.确定所述全图中的重复边,对所述重复边进行合并,并更新合并后边所对应的端
点的时间戳。
20.在一种实现方式中,所述采用预设分区策略对所述图事件e关联的边进行分区,包括:
21.判断所述图事件e关联的边中两条边的起始点和目的点是否均相同;
22.若所述两条边的起始点和目的点均相同,则将所述两条边放入同一分区中。
23.在一种实现方式中,所述确定全图中的重复边,对所述重复边进行合并,并更新合并后边所对应的端点的时间戳,包括:
24.确定所述全图中重复边;其中,所述重复边为起始点与目的点均相同的边;
25.根据时间戳的大小对所述重复边进行合并,保留时间戳最大的边;
26.更新合并边涉及的两个端点的时间戳,以将所述两个端点的时间戳更新为时间戳最大边所对应的时间戳。
27.在一种实现方式中,所述对全图中所有点的hop值进行初始化处理,并根据初始化后的hop值分别获取预设点、一度邻居以及二度邻居所对应的特征,得到二度子图特征,包括:
28.将所述全图中所有点的hop值初始化为2;
29.分别将起始点和目的点的hop值减1后发送至对应的一度邻居,并更新对应一度邻居的hop值;其中,所述一度邻居更新后的hop值为1;
30.将各一度邻居的hop值减1后发送至对应的二度邻居,并更新对应二度邻居的hop值;其中,所述二度邻居更新后的hop值为0;
31.将二度邻居、一度邻居以及目标点对应的特征进行合并,发送至起始点;
32.通过所述起始点将所有收到的特征进行整合,作为图事件e的二度子图特征。
33.在一种实现方式中,所述将所获取的二度子图特征输入至已训练的gnn编码器模型中,并通过所述已训练的gnn编码器模型输出得到对应的嵌入向量,包括:
34.获取所述已训练的gnn编码器模型;
35.将所述已训练的gnn编码器模型的模型文件分布式存储在集群环境中;
36.在各起始点上调用对应的机器上的编码器模型,并将各起始点上存储的二度子图特征作为对应编码器模型的输入;
37.获得各起始点对应编码器模型输出的嵌入向量。
38.在一种实现方式中,所述获得各起始点对应编码器模型输出的嵌入向量,之后包括:
39.将所述嵌入向量以消息的形式发送给所述二度子图中的其余所有点;
40.根据所述消息中的特征数值更新所述二度子图中其余所有点的属性信息。
41.在一种实现方式中,所述根据输出的嵌入向量生成对应边的邮件信息,并通过邮件传递机制将所述邮件信息发送至对应边的目的点,包括:
42.沿着所述二度子图中的每一条边生成对应的邮件信息;
43.将所有生成的邮件信息沿着所属边发送至其目的点;
44.在收到邮件信息的点上,对所有的邮件信息进行求均值的操作;
45.将得到的均值加入至收到邮件信息的点的自身邮箱中。
46.在一种实现方式中,所述通过已训练的gnn解码器模型对所述全图特征进行解码,
根据各边目的点上的邮件信息输出所述全图特征的逻辑推理结果,包括:
47.获取已训练的gnn解码器模型;
48.将所述已训练的gnn解码器模型的模型文件分布式存储在集群环境中;
49.通过所述已训练的gnn解码器模型对所述全图特征进行解码,动态调用对应机器上的模型副本;
50.将所述全图特征作为所述训练的gnn解码器模型的输入;
51.根据输入的解码任务,执行对应的解码过程;
52.根据各边目的点上的邮件信息输出所述全图特征的逻辑推理结果。
53.在一种实现方式中,所述根据各边目的点上的邮件信息输出所述全图特征的逻辑推理结果,之后包括:
54.将所述逻辑推理结果与图数据已有的标签进行对比,得到多任务下推理计算的准确率结果。
55.第二方面,本发明提供一种分布式图推理计算装置,包括:
56.构造模块,用于获取图数据,对所述图数据进行预处理,得到所述图数据所构造的全图,并更新所述全图上的基础信息;
57.二度子图特征模块,用于对所述全图中所有点的hop值进行初始化处理,并根据初始化后的hop值分别获取预设点、一度邻居以及二度邻居所对应的特征,得到二度子图特征;
58.gnn编码器模块,用于将所获取的二度子图特征输入至已训练的gnn编码器模型中,并通过所述已训练的gnn编码器模型输出得到对应的嵌入向量;
59.邮箱模块,用于根据输出的嵌入向量生成对应边的邮件信息,并通过邮件传递机制将所述邮件信息发送至对应边的目的点;
60.gnn解码器模块,用于通过已训练的gnn解码器模型对所述全图特征进行解码,根据各边目的点上的邮件信息输出所述全图特征的逻辑推理结果。
61.第三方面,本发明提供一种终端,包括:处理器以及存储器,所述存储器存储有分布式图推理计算程序,所述分布式图推理计算程序被所述处理器执行时用于实现如第一方面所述的分布式图推理计算方法。
62.第四方面,本发明还提供一种存储介质,所述存储介质为计算机可读存储介质,所述存储介质存储有分布式图推理计算程序,所述分布式图推理计算程序被处理器执行时用于实现如第一方面所述的分布式图推理计算方法。
63.本发明采用上述技术方案具有以下效果:
64.本发明在新的事件从数据源产生时,将事件影响范围控制在其二度子图中;并通过邮件传递机制使得全图中的每个点将维护一个指定容量的邮箱,使得收到邮件的点会将邮件发送者的点边特征信息存入邮箱中,下次推理时不需要重新收集历史特征数据,直接将已存储的信息数据输入到模型进行推理即可;本发明通过沿边传递消息的方式来减少模型的频繁调用次数,以及在执行计算的过程中将拆解成许多小任务,分配到若干工作节点上进行并行计算,优化执行顺序以最大化利用算力,提高了图神经网络模型的适应性及实时性。
附图说明
65.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
66.图1是本发明的一种实现方式中分布式图推理计算方法的流程图。
67.图2是本发明的一种实现方式中分布式图推理计算框架的示意图。
68.图3是本发明的一种实现方式中终端的功能原理图。
69.本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
70.为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
71.示例性方法
72.目前,图神经网络模型的获取周期长,需要经过数据清洗、模型训练、参数调优等步骤。对于实时性要求非常高的场景,长周期会带来很多潜在风险。
73.针对上述技术问题,本实施例中提供了一种分布式图推理计算方法,该方法提出的面向图神经网络模型的分布式图推理框架使得图神经网络模型可以运用到分布式环境中进行实时推理。该方法提出的二度子图模块和邮件传递机制额外引入图事件的邻域信息,从而可以提供更丰富的图特征,使得推理计算任务达到更好的效果并依然维持可观的时效性。
74.如图1所示,本发明实施例提供一种分布式图推理计算方法,包括以下步骤:
75.步骤s100,获取图数据,对所述图数据进行预处理,得到所述图数据所构造的全图,并更新所述全图上的基础信息。
76.在本实施例中,所述分布式图推理计算方法通过分布式图推理框架实现,所述分布式图推理框架为面向图神经网络模型的分布式框架,且所述分布式图推理框架设置于终端上,所述终端包括但不限于:计算机以及移动终端等设备。
77.如图2所示,在本实施例中,所述分布式图推理框架主要包含五个模块,分别是增量构图模块、二度子图模块(2d-subgraph)、gnn编码器模块、邮箱(mailbox)模块、gnn解码器模块。这些模块功能的功能概述如下:
78.(1)增量构图模块,对应图2中(a)~(b)。在图推理计算的过程中,当数据源有新事件e产生时,与该事件e相关的点和边将被加入历史图事件的弹性分布式数据集(rdd)中。并对于这些弹性分布式数据集(rdd)采取特定策略进行分区后,再使用它们进行增量构图,从而得到全图。
79.(2)二度子图(2d-subgraph)模块,对应图2中的“full graph and2d-subgraph”。得到全图后,将根据e更新部分点、边的基本属性,并计算出它的二度子图。
80.(3)gnn编码器模块,对应图2中(c)~(e)。加载训练好的gnn编码器(gnn encoder)模型后,将二度子图模块收集的二度子图特征矩阵作为编码器模型的输入。
81.(4)邮箱(mailbox)模块,对应图2中(f)~(g)。结束gnn编码器模型的阶段后,该邮箱模块将沿二度子图中的每条边发送一封邮件,邮件的主要内容为点、边的当前特征和部分历史交互信息。收到邮件的点会将对其进行处理并加入到自身的邮箱中。
82.(5)gnn解码器模块,对应图2中(h)~(i)。该gnn解码器模块将对全图上的点、边特征进行解码,根据具体执行的任务(例如,lp/nc/ec任务)给出逻辑的推理结果并更新在全图上,最终可以计算出任务的准确率。
83.在本实施例中,在图神经网络模型的图推理计算的过程中,当新的事件从数据源产生时,其影响范围往往不止该边的起始点和目的点。本实施例中综合考虑推理性能和效果后,将事件影响范围控制在其二度子图中;通过对图数据进行预处理,得到图数据所构造的全图,并更新全图上的基础信息;其中,所述基础信息包括边、点以及时间戳。
84.具体地,在本实施例的一种实现方式中,步骤s100包括以下步骤:
85.步骤s101,从所述图数据中获得新产生的图事件e;
86.步骤s102,将所述图事件e关联的点和边分别加入对应的分布式弹性数据集中;
87.步骤s103,采用预设分区策略对所述图事件e关联的边进行分区。
88.在本实施例中,首先,通过获取图数据,可以从所述图数据中获得新产生的图事件e;其中,新产生的图事件e包括:图事件e的起始点src、目的点dst、时间戳timestamp以及特征feat。
89.然后,将所述图事件e关联的点和边分别加入对应的分布式弹性数据集中,以将所述图事件e转换成点和边的分布式弹性数据集(rdd);其中,对于所述图事件e关联的点,则加入分布式弹性数据集vrdd中;对于所述图事件e关联的边,则加入分布式弹性数据集erdd中。
90.之后,可以采用edgepartition2d策略(边分区策略)对边进行分区,得到不同分区的边。
91.进一步地,在本实施例的一种实现方式中,步骤s103包括以下步骤:
92.步骤s103a,判断所述图事件e关联的边中两条边的起始点和目的点是否均相同;
93.步骤s103b,若所述两条边的起始点和目的点均相同,则将所述两条边放入同一分区中。
94.在本实施例中,在分区的过程当中,在edgepartition2d策略下,会判断所述图事件e关联的边中两条边的起始点和目的点是否均相同;只有两条边的src和dst均相同时,这两条边才会被放入同一个分区,否则放入不同的分区。
95.在得到不同分区的边后,即可根据点、边的分布式弹性数据集构建得到所述全图。
96.具体地,在本实施例的一种实现方式中,步骤s100还包括以下步骤:
97.步骤s104,根据所述分布式弹性数据集构建得到所述全图;
98.步骤s105,确定所述全图中的重复边,对所述重复边进行合并,并更新合并后边所对应的端点的时间戳。
99.在本实施例中,可以使用分布式弹性数据集vrdd和分布式弹性数据集erdd构出全图,在构建全图的过程中,当全图中有重复的边时,对所重复边进行合并,并更新合并后边所对应的端点的时间戳,即可去掉全图中冗余的边。
100.进一步地,在本实施例的一种实现方式中,步骤s105包括以下步骤:
101.步骤s105a,确定所述全图中重复边;其中,所述重复边为起始点与目的点均相同的边;
102.步骤s105b,根据时间戳的大小对所述重复边进行合并,保留时间戳最大的边;
103.步骤s105c,更新合并边涉及的两个端点的时间戳,以将所述两个端点的时间戳更新为时间戳最大边所对应的时间戳。
104.在去重及更新的过程中,当全图中有重复的边时,即某些边的起始点src和目的点dst均相同,对这些边进行合并,合并时只保留时间戳最大的边;合并后,更新合并边涉及的两端点的时间戳,将这些点的最近更新时间更新为最大的边时间戳。
105.如图1所示,在本发明实施例的一种实现方式中,分布式图推理计算方法还包括以下步骤:
106.步骤s200,对所述全图中所有点的hop值进行初始化处理,并根据初始化后的hop值分别获取预设点、一度邻居以及二度邻居所对应的特征,得到二度子图特征。
107.在本实施例中,提出了基于单点推理、消息传递、分布计算的方法,即只在单点调用模型,通过沿边传递消息的方式来减少模型的频繁调用次数,该方法下的若干计算在执行过程中将拆解成许多小任务,分配到若干工作节点上进行并行计算,并且还会优化执行顺序以最大化利用算力。
108.具体地,在本实施例的一种实现方式中,步骤s200包括以下步骤:
109.步骤s201,将所述全图中所有点的hop值初始化为2;
110.步骤s202,分别将起始点和目的点的hop值减1后发送至对应的一度邻居,并更新对应一度邻居的hop值;其中,所述一度邻居更新后的hop值为1;
111.步骤s203,将各一度邻居的hop值减1后发送至对应的二度邻居,并更新对应二度邻居的hop值;其中,所述二度邻居更新后的hop值为0;
112.步骤s204,将二度邻居、一度邻居以及目标点对应的特征进行合并,发送至起始点;
113.步骤s205,通过所述起始点将所有收到的特征进行整合,作为图事件e的二度子图特征。
114.在本实施例中,将全图中所有点的hop值初始化为2后,图事件e的起始点src和目的点dst将自身的hop值减一发送给与它们直接相连的邻居,即一度邻居;一度邻居收到起始点src和目的点dst发送的hop消息后,使用其中的hop数值来更新自身的hop值。此时,一度邻居们的hop值均为1。
115.然后,一度邻居将自身的hop值减一发送给与它们直接相连的邻居(不包括起始点srd和目的点dst),即二度邻居;二度邻居收到一度邻居发送的hop消息后,使用其中的hop数值来更新自身的hop值。此时,二度邻居们的hop值均为0。
116.最后,hop值为0的点将自身的点特征发送给hop值为1的点,hop值为1的点收到hop值为0的点发送的特征后,与自己的特征一起合并发送给hop值为2的点;目的点dst收到hop值为1的点发送的特征后,与自己的特征一起合并发送给起始点src,起始点src将所有收到的特征进行整合作为事件e的二度子图特征。
117.如图1所示,在本发明实施例的一种实现方式中,分布式图推理计算方法还包括以下步骤:
118.步骤s300,将所获取的二度子图特征输入至已训练的gnn编码器模型中,并通过所述已训练的gnn编码器模型输出得到对应的嵌入向量。
119.在本实施例中,通过分布式的集群环境对二度子图特征进行编码,通过每台机器均保留模型的副本文件,输入点src上存储的二度子图特征,获得模型输出的嵌入向量embedding。
120.具体地,在本实施例的一种实现方式中,步骤s300包括以下步骤:
121.步骤s301,获取所述已训练的gnn编码器模型;
122.步骤s302,将所述已训练的gnn编码器模型的模型文件分布式存储在集群环境中;
123.步骤s303,在各起始点上调用对应的机器上的编码器模型,并将各起始点上存储的二度子图特征作为对应编码器模型的输入;
124.步骤s304,获得各起始点对应编码器模型输出的嵌入向量。
125.具体地,在本实施例的一种实现方式中,步骤s304之后还包括以下步骤:
126.步骤s305,将所述嵌入向量以消息的形式发送给所述二度子图中的其余所有点;
127.步骤s306,根据所述消息中的特征数值更新所述二度子图中其余所有点的属性信息。
128.在本实施例中,通过获得已经训练好的gnn编码器模型,将模型文件分布式存储在集群环境中,即每台机器均保留模型的副本文件;然后,在点src上调用src所在机器上的编码器模型,并将点src上存储的二度子图特征作为模型的输入,获得模型输出的嵌入向量embedding;最后,将嵌入向量embedding以消息的形式发送给二度子图中的所有点,收到嵌入向量embedding消息的点使用其中的特征数值完成自身点属性的更新。
129.如图1所示,在本发明实施例的一种实现方式中,分布式图推理计算方法还包括以下步骤:
130.步骤s400,根据输出的嵌入向量生成对应边的邮件信息,并通过邮件传递机制将所述邮件信息发送至对应边的目的点。
131.由于,数据源在不断产生新事件,框架中的构图过程也是增量的过程,因此,图结构变化的时序信息有重要价值。本实施例中通过采用邮件传递机制,使得全图中的每个点将维护一个指定容量的邮箱,每当新的事件边产生时,该事件边的起始点和目的点会向它们的邻居发送一封邮件。邮件的主要内容是点和边的特征信息等,收到邮件的点会将这些特征信息存入自身的邮箱中,待下次推理时不需要重新收集历史特征数据,直接将已存储的信息数据输入到模型,即可推理得到计算结果。
132.具体地,在本实施例的一种实现方式中,步骤s400包括以下步骤:
133.步骤s401,沿着所述二度子图中的每一条边生成对应的邮件信息;
134.步骤s402,将所有生成的邮件信息沿着所属边发送至其目的点;
135.步骤s403,在收到邮件信息的点上,对所有的邮件信息进行求均值的操作;
136.步骤s404,将得到的均值加入至收到邮件信息的点的自身邮箱中。
137.在本实施例中,通过邮件传递机制将历史事件带来的信息发送到点的邮箱中,以便后续推理计算时可以直接使用。
138.在发送邮件的过程,沿着二度子图中的每一条边生成一封邮件mail,其中邮件mail的计算公式如下,即起始点src、目的点dst和事件e的特征并拼接上时间嵌入和邮件
mail位置嵌入。
139.mail=(feat
src
feat
dst
feate).concat(time).concat(location)
140.在生成邮件后,将所有生成的邮件mail沿着所属边发送给边的目的点,收到邮件mail的目的点对所有的邮件mail进行求均值的操作;最后,目的点将邮件mail的均值加入自身的邮箱,如果邮箱中已有的邮件mail数量超过规定上限,则移除其中最老的邮件mail。
141.如图1所示,在本发明实施例的一种实现方式中,分布式图推理计算方法还包括以下步骤:
142.步骤s500,通过已训练的gnn解码器模型对所述全图特征进行解码,根据各边目的点上的邮件信息输出所述全图特征的逻辑推理结果。
143.在本实施例中,针对单机瓶颈问题,给出在分布式环境中可以有效进行图推理计算的解决方案。该方案可以给大型集群的工作模式提供参考,使得图推理计算可以更广泛地被应用到大型场景。
144.具体地,在本实施例的一种实现方式中,步骤s500包括以下步骤:
145.步骤s501,获取已训练的gnn解码器模型;
146.步骤s502,将所述已训练的gnn解码器模型的模型文件分布式存储在集群环境中;
147.步骤s503,通过所述已训练的gnn解码器模型对所述全图特征进行解码,动态调用对应机器上的模型副本;
148.步骤s504,将所述全图特征作为所述训练的gnn解码器模型的输入;
149.步骤s505,根据输入的解码任务,执行对应的解码过程;
150.步骤s506,根据各边目的点上的邮件信息输出所述全图特征的逻辑推理结果;
151.步骤s507,将所述逻辑推理结果与图数据已有的标签进行对比,得到多任务下推理计算的准确率结果。
152.在本实施例中,在进行全图特征的推理计算的过程中,通过获得已经训练好的gnn解码器模型,将模型文件分布式存储在集群环境中,即每台机器均保留模型的副本文件,需要对全图特征进行解码时,动态调用机器上存储的模型副本,将图特征作为模型的输入。
153.进一步地,根据具体要执行的任务,包括链接预测(lp)、点分类(ec)、边分类(lc),触发不同的解码过程,获得解码器模型输出后,将其作为逻辑推理结果,将逻辑推理结果与图数据已有的标签进行对比,可以得到多任务下推理计算的准确率结果。
154.本实施例通过上述技术方案达到以下技术效果:
155.本实施例在新的事件从数据源产生时,将事件影响范围控制在其二度子图中;并通过邮件传递机制使得全图中的每个点将维护一个指定容量的邮箱,使得收到邮件的点会将邮件发送者的点边特征信息存入邮箱中,下次推理时不需要重新收集历史特征数据,直接将已存储的信息数据输入到模型进行推理即可;本实施例通过沿边传递消息的方式来减少模型的频繁调用次数,以及在执行计算的过程中将拆解成许多小任务,分配到若干工作节点上进行并行计算,优化执行顺序以最大化利用算力,提高了图神经网络模型的适应性及实时性。
156.示例性设备
157.基于上述实施例,本发明还提供一种分布式图推理计算装置,包括:
158.构造模块,用于获取图数据,对所述图数据进行预处理,得到所述图数据所构造的
全图,并更新所述全图上的基础信息;
159.二度子图特征模块,用于对所述全图中所有点的hop值进行初始化处理,并根据初始化后的hop值分别获取预设点、一度邻居以及二度邻居所对应的特征,得到二度子图特征;
160.gnn编码器模块,用于将所获取的二度子图特征输入至已训练的gnn编码器模型中,并通过所述已训练的gnn编码器模型输出得到对应的嵌入向量;
161.邮箱模块,用于根据输出的嵌入向量生成对应边的邮件信息,并通过邮件传递机制将所述邮件信息发送至对应边的目的点;
162.gnn解码器模块,用于通过已训练的gnn解码器模型对所述全图特征进行解码,根据各边目的点上的邮件信息输出所述全图特征的逻辑推理结果。
163.基于上述实施例,本发明还提供一种终端,其原理框图可以如图3所示。
164.该终端包括:通过系统总线连接的处理器、存储器、接口、显示屏以及通讯模块;其中,该终端的处理器用于提供计算和控制能力;该终端的存储器包括存储介质以及内存储器;该存储介质存储有操作系统和计算机程序;该内存储器为存储介质中的操作系统和计算机程序的运行提供环境;该接口用于连接外部设备,例如,移动终端以及计算机等设备;该显示屏用于显示相应的分布式图推理计算信息;该通讯模块用于与云端服务器或移动终端进行通讯。
165.该计算机程序被处理器执行时用以实现一种分布式图推理计算方法。
166.本领域技术人员可以理解的是,图3中示出的原理框图,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的终端的限定,具体的终端可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
167.在一个实施例中,提供了一种终端,其中,包括:处理器和存储器,存储器存储有分布式图推理计算程序,分布式图推理计算程序被处理器执行时用于实现如上的分布式图推理计算方法。
168.在一个实施例中,提供了一种存储介质,其中,存储介质存储有分布式图推理计算程序,分布式图推理计算程序被处理器执行时用于实现如上的分布式图推理计算方法。
169.本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一非易失性存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。
170.综上,本发明提供了一种分布式图推理计算方法、装置、终端及存储介质,方法包括:对图数据进行预处理,得到图数据所构造的全图,并更新全图上的基础信息;对全图中所有点的hop值进行初始化处理,分别获取预设点、一度邻居以及二度邻居所对应的特征,得到二度子图特征;将所获取的二度子图特征输入至已训练的gnn编码器模型中,并输出得到对应的嵌入向量;根据输出的嵌入向量生成对应边的邮件信息,并通过邮件传递机制将邮件信息发送至对应边的目的点;通过已训练的gnn解码器模型对全图特征进行解码,根据各边目的点上的邮件信息输出全图特征的逻辑推理结果。本发明解决了现有的图神经网络模型无法适应实时性要求高的场景的技术问题。
171.应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献