一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

图像聚类方法、图像聚类模型的训练方法和装置与流程

2022-05-06 07:54:26 来源:中国专利 TAG:


1.本技术涉及数据处理技术领域,特别是涉及图像聚类方法、图像聚类模型的训练方法和装置。


背景技术:

2.人脸识别是一种基于面部特征进行身份认证的技术,一般的方案为人脸检测、关键点定位、特征提取,通过特定的度量(如欧式距离、余弦相似度等)计算特征间的相似度。传统的人脸识别采用有监督的方式实现,近来另一种无监督的方式逐渐流行,即人脸聚类。人脸聚类关注如何将大量的无标签数据中的同一人汇聚到一起,进而开展例如轨迹查询之类的后续应用。常用的方法如k-means聚类算法、密度聚类算法、层次聚类算法等。但是由于城市级数据规模庞大、场景复杂,采用单一算法实现人脸聚档普遍存在多档、漏档等情况。因此需要将多算法进行融合使用,即对于同一目标,融合多算法的结果获得更完整的聚类档案,可以一定程度上提高整体的效果。
3.目前,多算法融合的方案是基于不同算法在测试集上的准确率,获得不同算法特征的权重,之后通过加权相似度融合计算整体相似度,主要用于人脸识别场景。这种方案的缺点在于,基于原始特征进行相似度计算,多算法的耗时、内存等资源占用较高。
4.针对相关技术中基于原始特征进行相似度计算,多算法的耗时、内存等资源占用较高的问题,目前还没有提出有效的解决方案。


技术实现要素:

5.在本实施例中提供了一种图像聚类方法、图像聚类模型的训练方法和装置,以解决相关技术中基于原始特征进行相似度计算,多算法的耗时、内存等资源占用较高的问题。
6.第一个方面,在本实施例中提供了一种图像聚类方法,包括:
7.将待聚类的多个待处理图像输入训练后的图像聚类模型,利用所述图像聚类模型进行如下处理:
8.对各个所述待处理图像进行特征处理,得到各个所述待处理特征对应的编码特征;其中,所述编码特征是对对应的待处理图像的多个原始特征进行编码得到的,所述多个原始特征是利用各类聚类算法对所述对应的待处理图像进行特征提取得到的;
9.对所述各个待处理特征对应的编码特征进行聚类处理,得到所述多个待处理图像的聚类结果。
10.在其中的一些实施例中,所述聚类图像模型是通过如下方式进行训练得到的:
11.确定多个样本图像;
12.利用训练中的图像聚类模型对各个所述样本图像进行特征处理,得到各个所述样本图像对应的所述编码特征;
13.对各个所述样本图像对应的所述编码特征进行聚类处理;
14.对聚类处理的结果进行度量学习,以完成聚类图像模型的训练。
15.在其中的一些实施例中,所述样本图像至少包括两个种类的样本图像。
16.在其中的一些实施例中,所述编码特征是根据编码器和预设编码特征的维度,对对应的样本图像的多个原始特征进行无监督自编码得到。
17.在其中的一些实施例中,所述编码特征的维度为所述原始特征的维度除以聚类算法的种类。
18.在其中的一些实施例中,所述对聚类处理的结果进行度量学习,以完成聚类图像模型的训练,包括:
19.对聚类处理的结果进行度量学习,在满足预设损失函数时,以完成聚类图像模型的训练;所述损失函数为对比损失函数。
20.在其中的一些实施例中,所述的图像聚类方法,还包括:
21.利用训练后的所述聚类图像模型,对待处理图像进行类中心和相似度计算,得到聚档结果。
22.第二个方面,在本实施例中提供了一种图像聚类模型的训练方法,包括:
23.确定多个样本图像;
24.利用训练中的图像聚类模型对各个所述样本图像进行特征处理,得到各个所述样本图像对应的编码特征;
25.对各个所述样本图像对应的所述编码特征进行聚类处理;
26.对聚类处理的结果进行度量学习,以完成聚类图像模型的训练。
27.第三个方面,在本实施例中提供了一种图像聚类装置,包括:聚类应用模块;
28.所述聚类应用模块,用于将待聚类的多个待处理图像输入训练后的图像聚类模型,利用所述图像聚类模型进行如下处理:
29.对各个所述待处理图像进行特征处理,得到各个所述待处理特征对应的编码特征;其中,所述编码特征是对对应的待处理图像的多个原始特征进行编码得到的,所述多个原始特征是利用各类聚类算法对所述对应的待处理图像进行特征提取得到的;
30.对所述各个待处理特征对应的编码特征进行聚类处理,得到所述多个待处理图像的聚类结果。
31.第四个方面,在本实施例中提供了一种图像聚类模型的训练装置,包括:确定模块、特征处理模块、聚类处理模块以及度量学习模块;
32.所述确定模块,用于确定多个样本图像;
33.所述特征处理模块,用于利用训练中的图像聚类模型对各个所述样本图像进行特征处理,得到各个所述样本图像对应的编码特征;
34.所述聚类处理模块,用于对各个所述样本图像对应的所述编码特征进行聚类处理;
35.所述度量学习模块,用于对聚类处理的结果进行度量学习,以完成聚类图像模型的训练。
36.第五个方面,在本实施例中提供了一种电子装置,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一个方面所述的图像聚类方法或第二个方面所述的图像聚类模型的训练方法。
37.第六个方面,在本实施例中提供了一种存储介质,其上存储有计算机程序,该程序
被处理器执行时实现上述第一个方面所述的图像聚类方法或第二个方面所述的图像聚类模型的训练方法。
38.与相关技术相比,在本实施例中提供的图像聚类方法、图像聚类模型的训练方法和装置,通过将待聚类的多个待处理图像输入训练后的图像聚类模型,利用图像聚类模型进行如下处理:对各个待处理图像进行特征处理,得到各个待处理特征对应的编码特征;其中,编码特征是对对应的待处理图像的多个原始特征进行编码得到的,多个原始特征是利用各类聚类算法对对应的待处理图像进行特征提取得到的;对各个待处理特征对应的编码特征进行聚类处理,得到多个待处理图像的聚类结果;解决了相关技术中基于原始特征进行相似度计算,多算法的耗时、内存等资源占用较高的问题,搭建多算法聚类框架实现了聚类的应用,而且提高聚类计算效率,降低资源占用。
39.本技术的一个或多个实施例的细节在以下附图和描述中提出,以使本技术的其他特征、目的和优点更加简明易懂。
附图说明
40.此处所说明的附图用来提供对本技术的进一步理解,构成本技术的一部分,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:
41.图1是本技术一实施例提供的图像聚类方法的终端设备的硬件结构框图;
42.图2是本技术一实施例提供的图像聚类方法的流程图;
43.图3是本技术一实施例提供的聚类图像模型的训练过程的流程图;
44.图4是本技术一优选实施例提供的图像聚类模型的训练方法的流程示意图;
45.图5是本技术一实施例提供的图像聚类装置的结构框图;
46.图6是本技术一实施例提供的图像聚类模型的训练装置的结构框图。
47.图中:510、聚类应用模块;610、确定模块;620、特征处理模块;630、聚类处理模块;640、度量学习模块。
具体实施方式
48.为更清楚地理解本技术的目的、技术方案和优点,下面结合附图和实施例,对本技术进行了描述和说明。
49.除另作定义外,本技术所涉及的技术术语或者科学术语应具有本技术所属技术领域具备一般技能的人所理解的一般含义。在本技术中的“一”、“一个”、“一种”、“该”、“这些”等类似的词并不表示数量上的限制,它们可以是单数或者复数。在本技术中所涉及的术语“包括”、“包含”、“具有”及其任何变体,其目的是涵盖不排他的包含;例如,包含一系列步骤或模块(单元)的过程、方法和系统、产品或设备并未限定于列出的步骤或模块(单元),而可包括未列出的步骤或模块(单元),或者可包括这些过程、方法、产品或设备固有的其他步骤或模块(单元)。在本技术中所涉及的“连接”、“相连”、“耦接”等类似的词语并不限定于物理的或机械连接,而可以包括电气连接,无论是直接连接还是间接连接。在本技术中所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“a和/或b”可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。通常情况下,字符“/”表示前后关联的对象是一种“或”的关系。在本技术中所涉及的术语“第一”、“第
二”、“第三”等,只是对相似对象进行区分,并不代表针对对象的特定排序。
50.在本实施例中提供的方法实施例可以在终端、计算机或者类似的运算装置中执行。比如在终端上运行,图1是本实施例的图像聚类方法的终端的硬件结构框图。如图1所示,终端可以包括一个或多个(图1中仅示出一个)处理器102和用于存储数据的存储器104,其中,处理器102可以包括但不限于微处理器mcu或可编程逻辑器件fpga等的处理装置。上述终端还可以包括用于通信功能的传输设备106以及输入输出设备108。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述终端的结构造成限制。例如,终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示出的不同配置。
51.存储器104可用于存储计算机程序,例如,应用软件的软件程序以及模块,如在本实施例中的图像聚类方法对应的计算机程序,处理器102通过运行存储在存储器104内的计算机程序,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
52.传输设备106用于经由一个网络接收或者发送数据。上述的网络包括终端的通信供应商提供的无线网络。在一个实例中,传输设备106包括一个网络适配器(network interface controller,简称为nic),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输设备106可以为射频(radio frequency,简称为rf)模块,其用于通过无线方式与互联网进行通讯。
53.在其他实施例中,图像聚类模型的训练方法也可以应用于上述终端中。
54.在本实施例中提供了一种图像聚类方法,图2是本实施例的图像聚类方法的流程图,如图2所示,该流程包括如下步骤:
55.步骤s210,将待聚类的多个待处理图像输入训练后的图像聚类模型,利用图像聚类模型进行如下处理:
56.步骤s220,对各个待处理图像进行特征处理,得到各个待处理特征对应的编码特征;其中,编码特征是对对应的待处理图像的多个原始特征进行编码得到的,多个原始特征是利用各类聚类算法对对应的待处理图像进行特征提取得到的;
57.步骤s230,对各个待处理特征对应的编码特征进行聚类处理,得到多个待处理图像的聚类结果。
58.需要说明的是,待处理图像可以是多类的图像;比如:摄像装置获取的人脸图像、档案图像等。将待处理图像输入训练后的图像聚类模型,即可得到多个待处理图像的聚类结果。
59.其中,利用图像聚类模型进行如下处理:对各个待处理图像进行特征处理,得到各个待处理特征对应的编码特征;比如:单独对每个待处理图像进行特征处理;也可以是同时对每个待处理图像进行特征处理;或者先将待处理图像进行分类,再针对不同类别的待处理图像进行特征处理。具体的,特征处理包括利用各类聚类算法对对应的待处理图像进行特征提取,对特征提取得到的原始特征进行编码。
60.再对各个待处理特征对应的编码特征进行聚类处理,得到多个待处理图像的聚类
结果。其中,聚类处理可以认为是类中心和相似度计算。那么利用训练后的聚类图像模型进行聚类应用。比如:利用应用于档案聚类、违章聚类、人脸聚类等。
61.现有采用单一的聚类算法来实现聚档应用,比如采用k-means聚类算法、密度聚类算法、层次聚类算法等;这种方式普遍存在多档、漏档等情况。本实施例,通过训练聚类图像模型,再将训练后的聚类图像模型应用于聚类,从而搭建多算法聚类框架实现了聚类的应用。并且利用聚类图像模型能够提高聚类计算效率,降低资源占用;也克服传统采用单一算法实现人脸聚档普遍存在多档、漏档等情况。本技术也解决了现有基于不同算法在测试集上的准确率,获得不同算法特征的权重,之后通过加权相似度融合计算整体相似度的多算法融合的方案存在的无法直接适用于聚档;而且基于原始特征进行相似度计算,多算法的耗时、内存等资源占用较高的问题。
62.下面对聚类图像模型的训练过程进行详细说明。
63.在其中的一些实施例中,如图3所示,聚类图像模型的训练过程包括以下步骤:
64.步骤s310,确定多个样本图像;
65.步骤s320,利用训练中的图像聚类模型对各个样本图像进行特征处理,得到各个样本图像对应的编码特征;
66.步骤s330,对各个样本图像对应的编码特征进行聚类处理;
67.步骤s340,对聚类处理的结果进行度量学习,以完成聚类图像模型的训练。
68.其中,样本图像作为聚类图像模型的训练对象,可以包括至少两类大量的图像。比如:样本图像a和样本图像b;样本图像a可以为大量的各种档案图像;样本图像b可以为大量的网络个人资料;对样本图像在多种聚类算法下的各原始特征进行自编码,达到降维的目的的同时能够提高模型训练的效率。而且对多类样本图像训练可以提高在海量数据和复杂场景下的准确率。
69.其中,样本图像对应的编码特征是对对应的样本图像的多个原始特征进行编码得到的,样本图像的多个原始特征是利用各类聚类算法对对应的样本图像的进行特征提取得到的。
70.具体的,先将确定多个样本图像送入多种聚类算法,获得对应的原始特征f1

fk。聚类算法包括但不限于k-means聚类算法、密度聚类算法以及层次聚类算法。比如对于样本图像;通过k-means聚类算法得到的原始特征为f1;通过密度聚类算法得到的原始特征为f2;通过层次聚类算法得到的原始特征为fn。在本实施例中,样本图像的种类可以为多种;在样本图像的种类为两种时,样本图像a和样本图像b,那么对应的原始特征分别为原始特征fa1

fak;原始特征fb1

fbk。在其他实施例中,样本图像的种类可以为多类,在此并不进行限制。再基于预设编码特征的维度,对各原始特征进行自编码,得到对应的编码特征f。对于两类原始特征,自编码后分别为编码特征ea1

eak;和编码特征eb1

ebk。
71.其中,聚类处理是特征汇聚的过程,聚类处理方法可以通过汇聚算法或者神经网络实现。比如:对各编码特征进行特征汇聚,以使各编码特征拼接形成多算法汇聚特征f。对于同一张图像,通过在多种聚类算法中,有的算法存在获取原始特征失败的情况,那么直接将其编码结果置为0向量。那么对于两种类型的样本体系,多算法汇聚特征e可以表示为:fa=[fa1,fa2,

fak];fb=[fb1,fb2,

fbk]。由于在步骤s320中,编码特征的维度为原始特征的维度除以聚类算法的种类。那么多算法汇聚特征f的总特征维度等于单算法维度。这样
既融合了多算法的有效信息,又去除了冗余信息保持高效性。
[0072]
其中,度量学习的方法可以是监督的全局度量学习方法、监督的局部度量学习方法或者无监督的度量学习方法。监督的全局度量学习方法包括但不限于information-theoretic metric learning(itml);mahalanobis metric learning for clustering(mmc)。监督的局部度量学习方法包括但不限于neighbourhood components analysis(nca);large-margin nearest neighbors(lmnn)。无监督的度量学习方法主成分分析(pricipal components analysis,pca)、多维尺度变换(multi-dimensional scaling,mds)以及非负矩阵分解(non-negative matrix factorization,nmf)等。
[0073]
对多算法汇聚特征f进行度量学习,完成聚类图像模型的训练。通过对融合后的多算法汇聚特征f进行联合训练,可以充分发挥各个算法的特长,达到全局最优,提高模型训练的准确性。且聚类图像模型具有计算效率高,且占用资源低的特点。
[0074]
上述聚类图像模型的训练主要涉及类中心计算和相似度计算。比如:1),给定样本图像,样本图像的类簇个数k;2),选择k个特征作为初始类簇中心;3),根据预设的特征相似度计算函数,计算出每个特征最近的类中心,归入该类中;4),更新类中心特征;5),重复步骤3)、4),直到达到满足收敛条件。其中,多算法汇聚特征f主要用于类中心计算。汇聚特征既融合了多种算法的有效信息,又保持了与单算法同样的资源占用。度量学习主要用于特征间的相似度计算。度量学习通过对多算法汇聚特征的联合训练,算法之间存在交互协同,更能发挥各自的特长,使得最终的相似度计算更加可靠。训练后的聚类图像模型充分利用多算法之间的互补信息,提升系统在海量数据、复杂场景下的准确率,克服传统单算法聚类的缺陷。
[0075]
在其中的一些实施例中,步骤s320,中涉及的对对应的样本图像的多个原始特征进行编码,包括以下步骤:
[0076]
根据编码器和预设编码特征的维度,对多个原始特征进行无监督自编码,得到对应的编码特征。
[0077]
具体的,使用深度神经网络dnn作为编码器,分别将各原始特征自编码成更低维的特征,保障多算法情形下聚类的耗时、内存资源占用不会显著增加。在本实施例中,采用无监督自编码,将原始特征自编码成编码特征。不需要额外的标签,实现编码至解码后的信息损失最小,可以达到降维的目的。
[0078]
在其中的一些实施例中,步骤s340,包括以下步骤:
[0079]
对聚类处理的结果进行度量学习,在满足预设损失函数时,以完成聚类图像模型的训练;损失函数为对比损失函数。
[0080]
在本实施例中,损失函数采用的是对比损失函数(contrastive loss),如果满足预设损失函数,那么表明同一类之内的特征相似度足够高,不同类样本之间的相似度尽量低,从而完成聚类图像模型的训练。
[0081]
在本实施例中,训练后的聚类图像模型可以直接聚类应用,可以将聚类图像模型应用于聚档。在其中的一些实施例中,步骤s220,包括以下步骤:
[0082]
利用训练后的聚类图像模型,对待处理图像进行类中心和相似度计算,得到聚类结果中的聚档结果。
[0083]
具体的,聚类图像模型可以直接聚类应用于聚档。由于聚类图像模型充分利用多
算法之间的互补信息,提升系统在海量数据、复杂场景下的准确率,克服传统单算法聚档的缺陷;因此,其可以直接快速准确的对待处理图像进行类中心和相似度计算,得到聚档结果。
[0084]
本实施例提供了一种多算法融合框架结合聚类应用的多算法聚类框架,充分利用多算法之间的互补信息,提升在海量数据、复杂场景下的准确率,克服传统单算法聚类的缺陷;而且采用自编码器等方法对原始特征进行降维,保障多算法情形下聚类的耗时、内存资源占用不会显著增加;最后聚类图像模型的训练阶段,通过对融合后的汇聚特征进行联合训练,可以充分发挥各个算法的特长,达到全局最优。
[0085]
在本实施例中还提供了一种图像聚类模型的训练方法,该训练方法用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。该图像聚类模型的训练方法,包括以下步骤:
[0086]
确定多个样本图像;
[0087]
利用训练中的图像聚类模型对各个样本图像进行特征处理,得到各个样本图像对应的编码特征;
[0088]
对各个样本图像对应的编码特征进行聚类处理;
[0089]
对聚类处理的结果进行度量学习,以完成聚类图像模型的训练。
[0090]
上述训练方法,采用自编码器等方法对原始特征进行降维,保障多算法情形下聚类的耗时、内存资源占用不会显著增加,而且融合了多算法的有效信息,又去除了冗余信息保持高效性。
[0091]
下面通过优选实施例对本实施例的进行描述和说明。
[0092]
图4是本优选实施例的图像聚类模型的训练方法的流程示意图。
[0093]
先提取样本图像a在多种聚类算法下的各原始特征fa1

fak;基于预设编码特征的维度,对各原始特征fa1

fak进行自编码,得到对应的编码特征ea1

eak;对各编码特征ea1

eak进行特征汇聚,得到多算法汇聚特征fa=[fa1,fa2,

fak];
[0094]
其次,获取样本图像b在多种聚类算法下的各原始特征fb1

fbk;基于预设编码特征的维度,对各原始特征fb1

fbk进行自编码,得到对应的编码特征eb1

ebk;对各编码特征eb1

ebk进行特征汇聚,得到多算法汇聚特征fb=[fb1,fb2,

fbk];
[0095]
再次,对多算法汇聚特征fa=[fa1,fa2,

fak]和多算法汇聚特征fb=[fb1,fb2,

fbk]进行度量学习,在满足预设损失函数时,完成聚类图像模型的训练。其中,损失函数采用的是对比损失函数(contrastive loss)。具体的,对比损失函数l的为:
[0096][0097]
其中,n表示样本图像的对数,y表示标签,m表示设定的间隔参数margin(通过交叉验证获得),d表示样本对之间的距离。
[0098]
其中,d可以采用欧氏距离:
[0099]
d=‖e
a-eb‖2。
[0100]
需要说明的是,在上述流程中或者附图的流程图中示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
[0101]
在本实施例中还提供了一种图像聚类装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。以下所使用的术语“模块”、“单元”、“子单元”等可以实现预定功能的软件和/或硬件的组合。尽管在以下实施例中所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
[0102]
图5是本实施例的图像聚类装置的结构框图,如图5所示,该装置包括:聚类应用模块510;
[0103]
聚类应用模块510,用于将待聚类的多个待处理图像输入训练后的图像聚类模型,利用图像聚类模型进行如下处理:
[0104]
对各个待处理图像进行特征处理,得到各个待处理特征对应的编码特征;其中,编码特征是对对应的待处理图像的多个原始特征进行编码得到的,多个原始特征是利用各类聚类算法对对应的待处理图像进行特征提取得到的;
[0105]
对各个待处理特征对应的编码特征进行聚类处理,得到多个待处理图像的聚类结果。
[0106]
通过上述装置,解决了相关技术中基于原始特征进行相似度计算,多算法的耗时、内存等资源占用较高的问题,搭建多算法聚类框架实现了聚档的应用,而且提高聚档计算效率,降低资源占用。
[0107]
在其中的一些实施例中,聚类应用模块510还包括模型训练单元;
[0108]
模型训练单元,用于确定多个样本图像;
[0109]
利用训练中的图像聚类模型对各个样本图像进行特征处理,得到各个样本图像对应的编码特征;
[0110]
对各个样本图像对应的编码特征进行聚类处理;
[0111]
对聚类处理的结果进行度量学习,以完成聚类图像模型的训练。
[0112]
在其中的一些实施例中,样本图像至少包括两个种类的样本图像。
[0113]
在其中的一些实施例中,编码特征是根据编码器和预设编码特征的维度,对对应的样本图像的多个原始特征进行无监督自编码得到。
[0114]
在其中的一些实施例中,编码特征的维度为原始特征的维度除以聚类算法的种类。
[0115]
在其中的一些实施例中,损失函数为对比损失函数。
[0116]
在其中的一些实施例中,图像聚类装置还包括聚档模块;
[0117]
聚档模块,用于利用训练后的聚类图像模型,对待处理图像进行类中心和相似度计算,得到聚类结果中的聚档结果。
[0118]
在本实施例中还提供了一种图像聚类模型的训练装置,如图6所示,包括:确定模块610、特征处理模块620、聚类处理模块630以及度量学习模块640;
[0119]
确定模块610,用于确定多个样本图像;
[0120]
特征处理模块620,用于利用训练中的图像聚类模型对各个样本图像进行特征处理,得到各个样本图像对应的编码特征;
[0121]
聚类处理模块630,用于对各个样本图像对应的编码特征进行聚类处理;
[0122]
度量学习模块640,用于对聚类处理的结果进行度量学习,以完成聚类图像模型的训练。
[0123]
上述训练装置,采用自编码器等方法对原始特征进行降维,保障多算法情形下聚类的耗时、内存资源占用不会显著增加,而且融合了多算法的有效信息,又去除了冗余信息保持高效性。
[0124]
需要说明的是,上述各个模块可以是功能模块也可以是程序模块,既可以通过软件来实现,也可以通过硬件来实现。对于通过硬件来实现的模块而言,上述各个模块可以位于同一处理器中;或者上述各个模块还可以按照任意组合的形式分别位于不同的处理器中。
[0125]
在本实施例中还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
[0126]
可选地,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
[0127]
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
[0128]
s1,将待聚类的多个待处理图像输入训练后的图像聚类模型,利用图像聚类模型进行如下处理:
[0129]
对各个待处理图像进行特征处理,得到各个待处理特征对应的编码特征;其中,编码特征是对对应的待处理图像的多个原始特征进行编码得到的,多个原始特征是利用各类聚类算法对对应的待处理图像进行特征提取得到的;
[0130]
对各个待处理特征对应的编码特征进行聚类处理,得到多个待处理图像的聚类结果。
[0131]
或,s2,确定多个样本图像;
[0132]
利用训练中的图像聚类模型对各个样本图像进行特征处理,得到各个样本图像对应的编码特征;
[0133]
对各个样本图像对应的编码特征进行聚类处理;
[0134]
对聚类处理的结果进行度量学习,以完成聚类图像模型的训练。
[0135]
通过上述电子装置,解决了相关技术中基于原始特征进行相似度计算,多算法的耗时、内存等资源占用较高的问题,搭建多算法聚类框架实现了聚档的应用,而且提高聚档计算效率,降低资源占用。
[0136]
需要说明的是,在本实施例中的具体示例可以参考上述实施例及可选实施方式中所描述的示例,在本实施例中不再赘述。
[0137]
此外,结合上述实施例中提供的图像聚类方法,在本实施例中还可以提供一种存储介质来实现。该存储介质上存储有计算机程序;该计算机程序被处理器执行时实现上述实施例中的任意一种图像聚类方法或图像聚类模型的训练方法。
[0138]
应该明白的是,这里描述的具体实施例只是用来解释这个应用,而不是用来对它进行限定。根据本技术提供的实施例,本领域普通技术人员在不进行创造性劳动的情况下得到的所有其它实施例,均属本技术保护范围。
[0139]
显然,附图只是本技术的一些例子或实施例,对本领域的普通技术人员来说,也可以根据这些附图将本技术适用于其他类似情况,但无需付出创造性劳动。另外,可以理解的是,尽管在此开发过程中所做的工作可能是复杂和漫长的,但是,对于本领域的普通技术人员来说,根据本技术披露的技术内容进行的某些设计、制造或生产等更改仅是常规的技术
手段,不应被视为本技术公开的内容不足。
[0140]“实施例”一词在本技术中指的是结合实施例描述的具体特征、结构或特性可以包括在本技术的至少一个实施例中。该短语出现在说明书中的各个位置并不一定意味着相同的实施例,也不意味着与其它实施例相互排斥而具有独立性或可供选择。本领域的普通技术人员能够清楚或隐含地理解的是,本技术中描述的实施例在没有冲突的情况下,可以与其它实施例结合。
[0141]
以上所述实施例仅表达了本技术的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对专利保护范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本技术构思的前提下,还可以做出若干变形和改进,这些都属于本技术的保护范围。因此,本技术的保护范围应以所附权利要求为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献