一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于多源数据融合的车辆检测方法及检测装置与流程

2022-03-02 01:26:35 来源:中国专利 TAG:


1.本发明涉及自动驾驶技术领域的一种预警方法,尤其涉及一种基于多源数据融合的车辆检测方法,还涉及一种检测装置。


背景技术:

2.近些年来,无人车技术发展迅猛,其中传感器探测技术在无人车研究中具有关键作用,关系着车辆能否安全可靠地参与交通运行。能否准确探测并识别出前方障碍物是衡量传感器性能优劣的标准,现有的不同类型的几种传感器都具有比较明显的优劣势。比如本发明中所用的相机和激光雷达,相机传感器能够对检测视角内的物体进行分类识别,但是定位精度有限。激光雷达传感器相对于相机来说具有很高的定位精度,但是难以捕捉到障碍物的全部特征,不能很好的对物体进行识别检测。总的来说,单一传感器无法保证信息获取的充分性,系统的冗余度和容错性过低而无法保证决策的速度和准确性。


技术实现要素:

3.为解决现有的车辆定位精度和识别可靠性无法兼顾的技术问题,本发明提供一种基于多源数据融合的车辆检测方法及检测装置。
4.本发明采用以下技术方案实现:一种基于多源数据融合的车辆检测方法,其包括以下步骤:
5.s1:将车辆的相机坐标系和激光雷达坐标系转换到所述车辆的检测坐标系中;
6.s2:获取所述车辆的激光雷达的目标检测框;
7.s3:先以所述车辆的相机的自身检测视角确定横向检测范围,以图像消失线确定纵向检测范围,获得所述相机的检测区域,再对所述相机检测到的视觉图像进行实时检测以获得视觉检测目标;
8.s4:对所述激光雷达的检测目标与所述视觉检测目标进行初步融合,并计算所述激光雷达与所述相机对同一目标的矩形检测框的面积重合比;
9.s5:判断所述面积重合比是否在一个预设区间内;在所述面积重合比不在所述预设区间内时,对剩下的无法匹配的激光雷达和相机检测数据进行处理,将无法匹配的检测数据视为雷达在连续两个采样周期下获得的两帧数据,实现雷达和相机的信息融合,且目标匹配成功后,对所述激光雷达和所述相机检测到的目标位置进行加权处理;
10.s6:对车辆目标进行跟踪;当跟踪目标离开视野并导致跟踪车辆的矩形框短暂丢失时,预测矩形框中心坐标,继续对车辆目标进行跟踪;当跟踪的矩形框中心坐标与原中心坐标的坐标偏差大于一个预设坐标差时,重新预测矩形框中心坐标;若所述坐标偏差存在一个预设时间后未大于所述预设坐标差时,继续对车辆目标进行跟踪;若所述坐标偏差存在所述预设时间后仍大于所述预设坐标差时,重新确定跟踪目标。
11.本发明将多源数据融合,完成雷达与相机的信息融合,既能够提高检测障碍物的准确性,减少误检和漏检,又能够使激光雷达和相机都可识别同意目标车辆,且识别结果基
本匹配,提高了目标识别的可靠性,解决了现有的车辆定位精度和识别可靠性无法兼顾的技术问题。
12.作为上述方案的进一步改进,定义空间中一点在所述激光雷达坐标系下为p
l
(x
l
,y
l
,z
l
),在所述相机坐标系下为pc(xc,yc,zc),在所述检测坐标系下为p
p
(x
p
,y
p
,z
p
);所述激光雷达坐标系和所述相机坐标系到所述检测坐标系的转换关系分别为:
13.p
p
=p
l
·rl
b
l
14.p
p
=p
l
·
rc bc15.其中,b
l
和bc分别为所述激光雷达坐标系和所述相机坐标系到所述检测坐标系的平移矩阵。
16.作为上述方案的进一步改进,在步骤s2中,所述激光雷达的目标检测框的获取方法包括以下步骤:
17.s2-1:对所述车辆后方的点云数据进行剔除;
18.s2-2:对剔除后的点云数据进行空间扫描,筛选并保留高于地面的点云数据,得出障碍物在检测面上的形状,以获取激光雷达的检测目标;以及
19.s2-3:先将进行空间扫描时所有扫描面的最大横向距离作为激光雷达目标检测框的长度,所有扫描面的最大纵向距离作为激光雷达目标检测框的宽度,再将确定的检测框投影到图像上获得激光雷达目标检测框。
20.作为上述方案的进一步改进,在步骤s2-1中,剔除纵坐标小于0的数据,保留并处理纵坐标大于0的数据;在步骤s2-2中,所述扫描面为二维矩形检测面。
21.作为上述方案的进一步改进,所述面积重合比的计算公式为:
[0022][0023]
式中,为所述面积重合比;所述雷达和所述相机对目标的矩形检测框分别为r
lidar
、r
camera
,s
union
为r
lidar
和r
camera
所包围的总面积,s
intersection
为重合区域的面积。
[0024]
作为上述方案的进一步改进,通过全局最近邻数据关联对无法匹配的激光雷达和相机检测数据进行处理,定义雷达和相机剩余有效目标个数分别为m和n,雷达检测值为航迹i,相机检测值为量测j,航迹和量测的归一化距离设为航迹i和量测j的匹配需要满足以下约束条件:
[0025][0026]
式中,gi是航迹的门限值;
[0027]
代价函数定义为:
[0028][0029]
式中,c
ij
为代价值。
[0030]
作为上述方案的进一步改进,在步骤s5中,加权公式为:
[0031][0032]
式中,δ
cx
、δ
cy
、δ
rx
、δ
ry
分别表示所述相机和所述雷达检测的目标位置在x、y方向的平均误差。
[0033]
作为上述方案的进一步改进,所述预设区间为[0.6,1]。
[0034]
作为上述方案的进一步改进,在步骤s3中,利用yolov4算法对相机检测到的视觉图像进行实时检测;在步骤s6中,利用kcf-kf滤波器对车辆目标进行跟踪。
[0035]
本发明还提供一种检测装置,其应用上述任意所述的基于多源数据融合的车辆检测方法,其包括:
[0036]
转换模块,其用于将车辆的相机坐标系和激光雷达坐标系转换到所述车辆的检测坐标系中;
[0037]
检测框获取模块,其用于获取所述车辆的激光雷达的目标检测框;
[0038]
检测目标获取模块,其用于先以所述车辆的相机的自身检测视角确定横向检测范围,以图像消失线确定纵向检测范围,获得所述相机的检测区域,再对所述相机检测到的视觉图像进行实时检测以获得视觉检测目标;
[0039]
面积重合比计算模块,其用于对所述激光雷达的检测目标与所述视觉检测目标进行初步融合,并计算所述激光雷达与所述相机对同一目标的矩形检测框的面积重合比;
[0040]
数据处理模块,其用于判断所述面积重合比是否在一个预设区间内;在所述面积重合比不在所述预设区间内时,所述数据处理模块对剩下的无法匹配的激光雷达和相机检测数据进行处理,将无法匹配的检测数据视为雷达在连续两个采样周期下获得的两帧数据,实现雷达和相机的信息融合,且目标匹配成功后,对所述激光雷达和所述相机检测到的目标位置进行加权处理;以及
[0041]
跟踪模块,其用于对车辆目标进行跟踪;当跟踪目标离开视野并导致跟踪车辆的矩形框短暂丢失时,所述跟踪模块预测矩形框中心坐标,继续对车辆目标进行跟踪;当跟踪的矩形框中心坐标与原中心坐标的坐标偏差大于一个预设坐标差时,所述跟踪模块重新预测矩形框中心坐标;若所述坐标偏差存在一个预设时间后未大于所述预设坐标差时,所述跟踪模块继续对车辆目标进行跟踪;若所述坐标偏差存在所述预设时间后仍大于所述预设坐标差时,所述跟踪模块重新确定跟踪目标。
[0042]
本发明的基于多源数据融合的车辆检测方法及检测装置具有以下这些有益效果:
[0043]
1、本发明提出了在车辆检测技术中,利用空间扫描法对激光雷达点云数据进行进一步处理。在激光雷达检测视角内规划出一个垂直于地面、平行于车辆横平面的二维平面,平面底部与地面平齐,且此二维平面距离激光雷达的距离在车辆行驶中保持不变。在车辆向前行驶过程中,保留平面中检测到的高于地面的点云数据,剔除与地面平齐的数据,完成点云数据的进一步筛选,提高检测障碍物的准确性,减少误检和漏检。
[0044]
2、本发明提出了在车辆检测技术中,采用基于目标检测交并比的融合方法,经过测试与分析,在交并比时,激光雷达和相机都可识别同意目标车辆,且识别结
果基本匹配,提高了目标识别的可靠性。
[0045]
3、本发明提出了在车辆检测技术中,当交并比时,利用全局最近邻数据关联法对雷达和相机数据进行处理,将两则的检测数据视为雷达在连续两个采样周期下获得的两帧数据,即看做单一传感器的数据关联问题。利用代价函数完成雷达和相机数据的匹配,完成雷达与相机的信息融合。
[0046]
4、本发明提出了在车辆检测技术中,对激光雷达点数据进行初步筛选后,利用空间扫描法进一步处理点云数据,矩形检测面垂直于传感器坐标系xoy平面并平行于车辆横平面,在车辆行驶过程中,始终与激光雷达保持一定距离。进行空间扫描时,筛选并保留高于地面的点云数据,得出障碍物在此检测面上的形状。检测过程中i个二维矩形检测面得出的障碍物各个切面的二维形状组合得出障碍物的立体形状,提高了激光雷达的识别精度。
[0047]
5、本发明提出了在车辆检测技术中,利用kcf-kf滤波器对车辆目标进行跟踪,当跟踪目标离开视野导致kcf滤波器跟踪车辆的矩形框短暂丢失时,使用kf滤波器预测矩形框中心坐标,若目标车辆重新回到视野中,继续使用kcf滤波器;当跟踪矩形框中心坐标与原中心坐标相差太大时,同样使用kf滤波器预测矩形框中心坐标,若坐标偏差存在一段时间后恢复正常,则认为是物体运动引起的,继续使用kcf滤波器跟踪,如果矩形框丢失时间过长,则认为跟踪目标已不在检测区域,重新确定跟踪目标。
[0048]
本发明的检测装置的有益效果与上述基于多源数据融合的车辆检测方法的效果相同,在此不再做赘述。
附图说明
[0049]
图1为本发明实施例1中的基于多源数据融合的车辆检测方法的流程图。
[0050]
图2为本发明实施例1中的相机坐标系、激光雷达坐标系、检测坐标系示意图。
[0051]
图3为本发明实施例1中的空间扫描法示意图。
具体实施方式
[0052]
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
[0053]
实施例1
[0054]
请参阅图1、图2以及图3,本实施例提供了一种基于多源数据融合的车辆检测方法,该方法首先对各传感器的数据分别进行初步筛选;接着利用空间扫描法处理点云数据,提取出障碍物形状信息,投影到图像上,获取激光雷达检测目标框;然后利用yolov4算法对视觉图像上的车辆进行实时检测,获取视觉目标检测框;然后运用目标检测交并比和全局最近邻数据关联算法(gnn算法)实现激光雷达检测目标框和相机目标检测框的融合;最后,利用kcf-kf滤波器对目标进行实时跟踪,得出最终检测结果。在本实施例中,该基于多源数据融合的车辆检测方法主要从以下几个步骤实现,具体为步骤s1-s6。
[0055]
步骤s1:将车辆的相机坐标系和激光雷达坐标系转换到所述车辆的检测坐标系中。相机和激光雷达安装完成后,统一相机坐标系和激光雷达坐标系,完成传感器空间同步。在本实施例中,车辆的各传感器具有各自的坐标系,检测的数据也是根据传感器各自的
坐标系,相机和激光雷达安装完成后,需要将相机坐标系、激光雷达坐标系转换到检测坐标系中。定义空间中一点在所述激光雷达坐标系下为p
l
(x
l
,y
l
,z
l
),在所述相机坐标系下为pc(xc,yc,zc),在所述检测坐标系下为p
p
(x
p
,y
p
,z
p
)。激光雷达和相机安装角度分别为(θ
l

l

l
)、(θc,βc,φc)。而坐标系原点之间的位置关系可以通过车辆直接获得,也就是激光雷达坐标系和相机坐标系到检测坐标系的平移矩阵分别为b
l
和bc。所述激光雷达坐标系和所述相机坐标系到所述检测坐标系的转换关系分别为:
[0056]
p
p
=p
l
·rl
b
l
[0057]
p
p
=p
l
·
rc bc[0058]
步骤s2:获取所述车辆的激光雷达的目标检测框。本步骤初步筛选激光雷达点云数据,并利用空间扫描法处理激光点云,检测出前方障碍物,投影到图像上获得激光雷达目标检测框。在本实施例中,所述激光雷达的目标检测框的获取方法包括以下步骤(s2-1至s2-3)。
[0059]
s2-1:对所述车辆后方的点云数据进行剔除。激光雷达拥有360
°
的检测视角,庞大的数据量使数据处理器的压力过大,降低检测效率,对不必要的数据进行初步剔除。由于车辆在前进过程中,主要考虑车辆前方的障碍物对车辆行驶的阻碍,所以对车辆后方的点云数据进行剔除。在检测坐标系中,即剔除y《0的数据,保留并处理y》0的数据。
[0060]
s2-2:对剔除后的点云数据进行空间扫描,筛选并保留高于地面的点云数据,得出障碍物在检测面上的形状,以获取激光雷达的检测目标。本实施例利用空间扫描法对点云数据进行进一步筛选,获取激光雷达的检测目标。在激光雷达检测视角内确定长x=12m、宽y=6m的矩形检测面,所述矩形检测面垂直于传感器坐标系xoy平面并平行于车辆横平面,在车辆行驶过程中,始终与激光雷达保持一定距离。进行空间扫描时,筛选并保留高于地面的点云数据,得出障碍物在此检测面上的形状。检测过程中i个二维矩形检测面得出的障碍物各个切面的二维形状组合得出障碍物的立体形状,提高了激光雷达的识别精度。
[0061]
s2-3:先将进行空间扫描时所有扫描面的最大横向距离作为激光雷达目标检测框的长度,所有扫描面的最大纵向距离作为激光雷达目标检测框的宽度,再将确定的检测框投影到图像上获得激光雷达目标检测框。在本实施例中,取分别作为激光雷达目标检测框的长度和宽度,其中分别代表在进行空间扫描时第i个扫描面的最大距离和最大纵向距离;将确定的检测框投影到图像上获得激光雷达目标检测框。
[0062]
步骤s3:先以所述车辆的相机的自身检测视角确定横向检测范围,以图像消失线确定纵向检测范围,获得所述相机的检测区域,再对所述相机检测到的视觉图像进行实时检测以获得视觉检测目标。其中,本实施例利用yolov4算法对相机检测到的视觉图像进行实时检测,得到视觉检测目标。
[0063]
步骤s4:对所述激光雷达的检测目标与所述视觉检测目标进行初步融合,并计算所述激光雷达与所述相机对同一目标的矩形检测框的面积重合比。在本实施例中,可以基于检测框交并比算法,综合雷达、视觉的检测目标,初步完成相机和激光雷达的检测目标的融合。获得激光雷达和相机检测目标之后,首先将每个雷达目标的检测点作为中心,建立宽3米,高2.2米的矩形包围框,将所有包围框基于距离和相似原理投影到图像上。其中,所述
面积重合比的计算公式为:
[0064][0065]
式中,为所述面积重合比;所述雷达和所述相机对目标的矩形检测框分别为r
lidar
、r
camera
,s
union
为r
lidar
和r
camera
所包围的总面积,s
intersection
为重合区域的面积。
[0066]
步骤s5:判断所述面积重合比是否在一个预设区间内;在所述面积重合比不在所述预设区间内时,对剩下的无法匹配的激光雷达和相机检测数据进行处理,将无法匹配的检测数据视为雷达在连续两个采样周期下获得的两帧数据,实现雷达和相机的信息融合,而且目标匹配成功后,对所述激光雷达和所述相机检测到的目标位置进行加权处理。在本实施例中,所述预设区间为[0.6,1]。当时,无法判断识别的准确性,利用全局最近邻数据关联法对剩下的无法匹配的雷达和相机检测数据进行处理,将两者的检测数据视为雷达在连续两个采样周期下获得的两帧数据,即看做单一传感器的数据关联问题。定义雷达和相机剩余有效目标个数分别为m和n,雷达检测值为航迹i,相机检测值为量测j,航迹和量测的归一化距离设为航迹i和量测j的匹配需要满足以下约束条件:
[0067][0068]
式中,gi是航迹的门限值;
[0069]
全局最近邻数据融合算法中的代价函数定义为:
[0070][0071]
式中,c
ij
为代价值。
[0072]
得到代价函数后可完成剩余雷达和相机的匹配,从而实现雷达和相机的信息融合,目标匹配成功后,对雷达和相机检测到的目标位置进行加权处理,将加权后的目标位置和雷达检测的其他信息综合后输出,加权公式为:
[0073][0074]
式中,δ
cx
、δ
cy
、δ
rx
、δ
ry
分别表示所述相机和所述雷达检测的目标位置在x、y方向的平均误差。
[0075]
步骤s6:对车辆目标进行跟踪,确定输出目标。当跟踪目标离开视野并导致跟踪车辆的矩形框短暂丢失时,预测矩形框中心坐标,继续对车辆目标进行跟踪。当跟踪的矩形框中心坐标与原中心坐标的坐标偏差大于一个预设坐标差时,重新预测矩形框中心坐标。若所述坐标偏差存在一个预设时间后未大于所述预设坐标差时,继续对车辆目标进行跟踪。
若所述坐标偏差存在所述预设时间后仍大于所述预设坐标差时,重新确定跟踪目标。在本实施例中,利用kcf-kf滤波器对车辆目标进行跟踪。即:当跟踪目标离开视野导致kcf滤波器跟踪车辆的矩形框短暂丢失时,使用kf滤波器预测矩形框中心坐标,若目标车辆重新回到视野中,继续使用kcf滤波器;当跟踪矩形框中心坐标与原中心坐标相差太大时,同样使用kf滤波器预测矩形框中心坐标,若坐标偏差存在一段时间后恢复正常,则认为是物体运动引起的,继续使用kcf跟踪,如果矩形框丢失时间过长,则认为跟踪目标已不在检测区域,重新确定跟踪目标。
[0076]
综上,相较于现有的车辆碰撞预测技术,本实施例基于多源数据融合的车辆检测方法具有以下优点:
[0077]
1、本实施例提出了在车辆检测技术中,利用空间扫描法对激光雷达点云数据进行进一步处理。在激光雷达检测视角内规划出一个垂直于地面、平行于车辆横平面的二维平面,平面底部与地面平齐,且此二维平面距离激光雷达的距离在车辆行驶中保持不变。在车辆向前行驶过程中,保留平面中检测到的高于地面的点云数据,剔除与地面平齐的数据,完成点云数据的进一步筛选,提高检测障碍物的准确性,减少误检和漏检。
[0078]
2、本实施例提出了在车辆检测技术中,采用基于目标检测交并比的融合方法,经过测试与分析,在交并比时,激光雷达和相机都可识别同意目标车辆,且识别结果基本匹配,提高了目标识别的可靠性。
[0079]
3、本实施例提出了在车辆检测技术中,当交并比时,利用全局最近邻数据关联法对雷达和相机数据进行处理,将两则的检测数据视为雷达在连续两个采样周期下获得的两帧数据,即看做单一传感器的数据关联问题。利用代价函数完成雷达和相机数据的匹配,完成雷达与相机的信息融合。
[0080]
4、本实施例提出了在车辆检测技术中,对激光雷达点数据进行初步筛选后,利用空间扫描法进一步处理点云数据,矩形检测面垂直于传感器坐标系xoy平面并平行于车辆横平面,在车辆行驶过程中,始终与激光雷达保持一定距离。进行空间扫描时,筛选并保留高于地面的点云数据,得出障碍物在此检测面上的形状。检测过程中i个二维矩形检测面得出的障碍物各个切面的二维形状组合得出障碍物的立体形状,提高了激光雷达的识别精度。
[0081]
5、本实施例提出了在车辆检测技术中,利用kcf-kf滤波器对车辆目标进行跟踪,当跟踪目标离开视野导致kcf滤波器跟踪车辆的矩形框短暂丢失时,使用kf滤波器预测矩形框中心坐标,若目标车辆重新回到视野中,继续使用kcf滤波器;当跟踪矩形框中心坐标与原中心坐标相差太大时,同样使用kf滤波器预测矩形框中心坐标,若坐标偏差存在一段时间后恢复正常,则认为是物体运动引起的,继续使用kcf滤波器跟踪,如果矩形框丢失时间过长,则认为跟踪目标已不在检测区域,重新确定跟踪目标。
[0082]
实施例2
[0083]
本实施例提供了一种检测装置,该装置应用实施例1中的基于多源数据融合的车辆检测方法,具体包括转换模块、检测框获取模块、检测目标获取模块、面积重合比计算模块、数据处理模块以及跟踪模块。
[0084]
转换模块用于将车辆的相机坐标系和激光雷达坐标系转换到所述车辆的检测坐
标系中。检测框获取模块用于获取所述车辆的激光雷达的目标检测框。检测目标获取模块用于先以所述车辆的相机的自身检测视角确定横向检测范围,以图像消失线确定纵向检测范围,获得所述相机的检测区域,再对所述相机检测到的视觉图像进行实时检测以获得视觉检测目标。面积重合比计算模块用于对所述激光雷达的检测目标与所述视觉检测目标进行初步融合,并计算所述激光雷达与所述相机对同一目标的矩形检测框的面积重合比。
[0085]
数据处理模块用于判断所述面积重合比是否在一个预设区间内。在所述面积重合比不在所述预设区间内时,所述数据处理模块对剩下的无法匹配的激光雷达和相机检测数据进行处理,将无法匹配的检测数据视为雷达在连续两个采样周期下获得的两帧数据,实现雷达和相机的信息融合,且目标匹配成功后,对所述激光雷达和所述相机检测到的目标位置进行加权处理。
[0086]
跟踪模块用于对车辆目标进行跟踪。当跟踪目标离开视野并导致跟踪车辆的矩形框短暂丢失时,所述跟踪模块预测矩形框中心坐标,继续对车辆目标进行跟踪。当跟踪的矩形框中心坐标与原中心坐标的坐标偏差大于一个预设坐标差时,所述跟踪模块重新预测矩形框中心坐标。若所述坐标偏差存在一个预设时间后未大于所述预设坐标差时,所述跟踪模块继续对车辆目标进行跟踪。若所述坐标偏差存在所述预设时间后仍大于所述预设坐标差时,所述跟踪模块重新确定跟踪目标。
[0087]
实施例3
[0088]
本实施例提供了一种检测装置,该装置应用实施例1中的基于多源数据融合的车辆检测方法,具体包括数据处理模块、融合模块、跟踪模块。
[0089]
数据处理模块包括激光雷达数据处理单元和相机数据处理单元。激光雷达数据处理单元对激光雷达获取的点云数据进行初步筛选,即在检测坐标系中,保留y》0的数据,减小数据处理负担。再通过空间扫描法从激光雷达获取的原始数据中筛选出车辆检测目标。取分别作为激光雷达目标检测框的长度和宽度,其中分别代表在进行空间扫描时第i个扫描面的最大横向距离和最大纵向距离。将确定的检测框投影到图像上获得激光雷达目标检测框。相机数据处理单元利用yolov4算法对视觉图像上的车辆进行实时检测,获取相机检测目标框。
[0090]
融合模块是指基于检测框交并比和全局最近邻数据关联算法等综合雷达、视觉方法的检测结果,完成传感器的目标融合。跟踪模块是指利用kcf-kf滤波器跟踪融合后的车辆目标,确定输出目标。
[0091]
实施例4
[0092]
本实施例提供了一种计算机终端,其包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序。处理器执行程序时实现实施例1中基于多源数据融合的车辆检测方法的步骤。
[0093]
基于多源数据融合的车辆检测方法在应用时,可以软件的形式进行应用,如设计成独立运行的程序,安装在计算机终端上,计算机终端可以是电脑、智能手机、控制系统以及其他物联网设备等。该基于多源数据融合的车辆检测方法也可以设计成嵌入式运行的程序,安装在计算机终端上,如安装在单片机上。
[0094]
实施例5
[0095]
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序。程序被处理器执行时,实现实施例1中基于多源数据融合的车辆检测方法的步骤。基于多源数据融合的车辆检测方法在应用时,可以软件的形式进行应用,如设计成计算机可读存储介质可独立运行的程序,计算机可读存储介质可以是u盘,或者是设计成u盾这种形式而存在的存储介质,还可以是通过u盘设计成通过外在触发启动整个方法的程序。
[0096]
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献