一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种目标行为分类方法、存储介质及终端

2022-06-11 15:53:16 来源:中国专利 TAG:


1.本发明涉及图像处理技术领域,特别涉及一种目标行为分类方法、存储介质以及终端。


背景技术:

2.车道闯入行为预测问题的主要技术是动作识别,更准确地是高速远距场景下的动作识别。视频动作识别是指由一段连续的视频(即图像帧序列),识别出视频中目标(主要指人)的动作。视频中包含两类特征:时间特征和空间特征,同时提取时空特征需要计算一帧之内和不同帧之间的像素的关系。
3.现有对车道闯入行为分类需要借助高精度导航数据以及地图信息,对网络质量、车载设备硬件、车载设备软件更新等都有较高的要求。
4.因此,需要一种新的对运动目标动作进行识别和分类的方法。


技术实现要素:

5.本发明要解决的技术问题为:提出一种目标行为分类方法、存储介质以及终端,可以实现高速远距场景下运动目标的动作识别以及分类。
6.为解决上述问题,本发明实施例提供了一种目标行为分类方法,包括:获取多帧待识别图像,所述多帧待识别图像反映不同时刻的车道场景;根据所述多帧待识别图像,识别所述多帧待识别图像中的运动目标和车道线;获取所述运动目标的行为时间序列数据,所述行为时间序列数据包括按照所述多帧待识别图像对应的时刻顺序排列的多个相对位置关系;将所述行为时间序列数据输入预先训练好的目标行为分类模型,确定所述运动目标的行为预测结果,所述运动目标的行为预测结果包括从左侧闯入车道、从右侧闯入车道以及未闯入车道。
7.可选地,所述识别所述多帧待识别图像中的运动目标和车道线包括:将各帧待识别图像分别输入至训练好的运动目标检测模型和车道线检测模型,所述运动目标检测模型输出识别到的所述运动目标的像素坐标,所述车道线检测模型输出识别到的所述车道线的像素坐标。
8.可选地,所述运动目标以包络盒的像素坐标表示,所述车道线以其在待识别图像中像素的坐标表示。
9.可选地,所述获取所述运动目标的行为时间序列数据包括:将每帧待识别图像中识别得到的运动目标和当前车道线按照像素坐标映射在同一映射图像中,每帧待识别图像具有对应的映射图像;在每一映射图像中确定水平基准线,并确定所述运动目标在所述水平基准线上的第一像素坐标,以及所述车道线的两条线在所述水平基准线上的第二像素坐标和第三像素坐标;根据每一映射图像中第一像素坐标、第二像素坐标和第三像素坐标,获得所述待识别图像中所述运动目标的行为时间序列数据。
10.可选地,所述运动目标与路面的接触线作为所述水平基准线。
11.可选地,所述获得所述待识别图像中所述运动目标的行为时间序列数据包括:根据每一映射图像中所述第二像素坐标和所述第三像素坐标确定所述车道线的中心点在所述水平基准线上的第四像素坐标;计算每一映射图像中所述第一像素坐标与第四像素坐标的差值,以作为所述相对位置关系。
12.可选地,所述获得所述待识别图像中所述运动目标的行为时间序列数据包括:根据每一映射图像中所述第二像素坐标和所述第三像素坐标确定所述车道线的宽度,以及所述车道线的中心点在所述水平基准线上的第四像素坐标;计算每一映射图像中所述第一像素坐标与第四像素坐标的差值,并利用所述车道线的宽度进行归一化,以作为所述相对位置关系。
13.可选地,所述在每一映射图像中确定水平基准线,并确定所述运动目标在所述水平基准线上的第一像素坐标,以及所述车道线的两条线在所述水平基准线上的第二像素坐标和第三像素坐标之后包括:将各帧待识别图像对应的所述归一化后的所述相对位置关系及其所述运动目标的行为时间序列,进行卡尔曼滤波以获得空间平滑的行为时间序列。
14.可选地,所述目标行为分类模型为递归神经网络模型。
15.可选地,所述目标行为分类模型为两层的双向lstm预测模型,所述两层的双向lstm预测模型根据所述行为时间序列数据输出第一分类分数、第二分类分数以及第三分类分数,其中第一分类分数对应着被检测目标从左侧闯入车道的概率,第二分类分数对应着被检测目标从右侧闯入车道的概率,第三分类分数对应着被检测目标未闯入车道的概率;所述第一分类分数、第二分类分数以及第三分类分数中的最大值即为最终行为预测结果。
16.可选地,所述双向lstm预测模型包括:两层的双向lstm网络和一个全连接网络,所述两层的双向lstm网络作为所述双向lstm预测模型的输入端,用于输入行为时间序列前4阶的数据,所述两层的双向lstm网络的最后一个神经元输出的数据作为所述全连接网络的输入数据。
17.可选地,所述全连接网络作为所述双向lstm预测模型的输出端。
18.可选地,所述两层的双向lstm网络的隐层个数为16,其输入数据大小为(k
×
1),其输出数据大小为(32
×
k);所述全连接网路的输入数据大小为(32
×
1),输出数据为3个;其中k为20-40之间的自然数。
19.本发明实施例还提供一种存储介质,其上存储有计算机指令,所述计算机指令运行时执行上述方法的步骤。
20.本发明实施例还提供一种终端,包括存储器和处理器,所述存储器上存储有能够在所述处理器上运行的计算机指令,所述处理器运行所述计算机指令时执行上述方法的步骤。
21.与现有技术相比,本发明实施例的技术方案具有以下有益效果:
22.本发明技术方案通过获取映射图像中运动目标与车道线在水平基准线上的相对位置关系,采用已经训练好的预测模型对车道闯入行为进行快速准确的预测,无需使用任何导航数据和高精地图信息,对车载设备、无线网络质量的要求低。
23.进一步地,采用递归神经网络预测模型基于所述行为时间序列对运动目标的行为进行分类,结合采用单目相机进行拍摄,即使在远距的场景下也能够捕获小目标的位置特征,解决了远距场景下难以捕获小目标动作的问题,且本发明技术方案成本低,准确度高。
24.进一步地,利用所述车道线的宽度对所述相对位置关系进行归一化处理,准确描述了运动轨迹,解决了高速造成图像抖动的问题。
附图说明
25.图1是本发明实施例提供的一种目标行为分类方法的流程示意图;
26.图2是本发明实施例提供的一种获取所述运动目标的行为时间序列数据方法的流程示意图;
27.图3是本发明实施例一种具体应用场景的示意图;
28.图4是本发明实施例根据图3所示应用场景获得的车道线和运动目标的像素值曲线示意图;
29.图5是图2所示s303的一种具体实施方式的流程示意图;
30.图6是本发明实施例一种所述第一像素坐标第二像素坐标第二像素坐标随时间变化的相对位置关系示意图;
31.图7是本发明实施例归一化后所述第一像素坐标第二像素坐标第二像素坐标随时间变化的相对位置关系的具体示意图;以及
32.图8是本发明实施例一种双向lstm预测模型的框架结构示意图。
具体实施方式
33.对于视频动作识别,目前有两种主流的方法3d卷积神经网络和双流方法。3d时空卷积方法利用3d卷积核同时捕捉时间和空间特征。3d卷积核是相比二维卷积增加了一个维度,3d卷积核可以计算连续几帧的同一区域的像素关系,因此可以同时提取时间和空间特征,从而实现视频的动作识别。双流方法则包含了光流网络支路和图像网络支路,用光流图像表示时间特征。光流是空间运动物体在观察成像平面上的像素运动的瞬时速度。光流法是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。双流方法在光流网络支路中用2d卷积核提取时间特征,在图像网络支路中提取空间特征,然后将二者融合,实现时空特征的提取,进而对视频动作分类。
34.可是,3d卷积和双流方法不适用于高速远距场景。高速远距场景,即摄像头高速运动,且动作目标与摄像头距离大于预设距离,例如100米。在这种情况下,图像帧中运动目标的不规则视觉变化和图像的剧烈抖动均可能导致图像帧的变化不能真实反映目标的实际运动。无论是3d卷积方法还是光流方法,考虑到其提取的都是图像帧中对应像素的变化特征,因此仅根据图像中目标区域像素的绝对变化,显然是不能识别其整个行为的。此外,由于距离较远,动作目标仅占据视频图像帧平面中的小部分像素空间。3d卷积和双流方法都会提取整个图像的像素特征,包括背景,运动目标特征占比很小,因此这些方法难以捕捉如此小目标的动作特征,更难以准确预测其行为意图。
35.因此,本发明提出了一种适用于高速远距场景下的目标行为识别方法,并基于预测模型对所述目标行为进行分类。
36.本发明实施例中的运动目标一般是指执行机动车车道线闯入行为的行人或者动物,或骑行非机动车的人。
37.本发明实施例所称“车道线”可以是指机动车车道线,其通常是成对出现,车道线的两条线能够限定机动车行驶的范围,也即非机动车的禁止区域。
38.本发明实施例所称“高速远距场景”可以是指采集视频的摄像头的运动速度大于预设速度,如60km/h;该摄像头距离被拍摄的运动目标的距离大于预设距离,例如100米的场景。在一个非限制性的例子中,摄像头可以设置于车辆中,车辆行驶速度大于60km/h,车辆距离运动目标的距离大于100米。
39.本发明实施例所称“目标行为”可以是车道闯入行为,也即运动目标进入车道线的两条线所限定的范围的行为。
40.为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
41.图1是本发明实施例一种目标行为分类方法的流程示意图。
42.本发明实施例的目标行为分类方法可以用于终端设备侧,例如可以是车载设备,也即可以由车载设备执行图1所示方法的各个步骤。
43.具体而言,图1所示的目标行为分类方法可以包括:
44.s1:获取多帧待识别图像,所述多帧待识别图像反映不同时刻的车道场景;
45.s2:根据所述多帧待识别图像,识别所述多帧图像中的运动目标和车道线;
46.s3:获取所述运动目标的行为时间序列数据,所述行为时间序列数据包括按照多帧待识别图像对应的时刻顺序排列的多个相对位置关系;
47.s4:将所述行为时间序列数据输入预先训练好的目标行为分类模型,确定所述运动目标的行为预测结果,所述运动目标的行为预测结果包括从左侧闯入车道、从右侧闯入车道、以及未闯入车道。
48.需要指出的是,本实施例中各个步骤的序号并不代表对各个步骤的执行顺序的限定。
49.在s1的具体实施中,车载设备可以从车载摄像头获取多帧待识别图像,所述多帧待识别图像可以使摄像头拍摄的待识别视频或者连续拍摄的多帧照片,车载摄像头可以设置于车载设备内部或者可以外部耦接于所述车载设备。具体地,车载摄像头可以实时地采集照片或者视频,并传输至车载设备进行目标行为识别。在一具体实施例中,所述车载摄像头可以是单目相机。在其他实施例中,所述车载摄像头可以是广角或者长焦相机。
50.在s2的具体实施中,车载设备对各帧待识别图像分别进行目标检测,也就是说,对运动目标和车道线的识别是分别独立进行的。各帧待识别图像中的运动目标和车道线以其在该待识别图像中的像素坐标来表示。更具体而言,运动目标以包络盒的像素坐标表示,所述车道线以其在待识别图像中像素的坐标表示。
51.在一个非限制性的例子中,运动目标的包络盒定义为图像像素u-v坐标系中的坐标,包括其左上坐标(u
l,t
,v
l,t
)与右下坐标(u
r,b
,v
r,b
)。
52.在一个非限制性的例子中,在识别车道线时,可以是通过灰度图来确定的。像素的灰度值越小表示则该像素为车道线的概率越大,因而可在灰度图中获得车道线的左、右车道线在图像坐标系中的坐标。
53.在一个非限制性的实施例中,图1所示s12可以包括以下步骤:将各帧待识别图像分别输入至训练好的运动目标检测模型和车道线检测模型,所述运动目标检测模型输出识
别到的所述运动目标的像素坐标,所述车道线检测模型输出识别到的所述车道线的像素坐标。
54.本实施例中,运动目标检测模型和车道线检测模型可以是采用深度学习算法构建并预先训练完成的,能够分别用于运动目标的检测和车道线的检测。具体地,可以利用标注好的视频或者连续拍摄的多帧图像数据对运动目标检测模型进行训练,所述视频或者连续拍摄的多帧图像数据包括标注好的运动目标;可以利用标注好的视频或者连续拍摄的多帧图像数据对车道线检测模型进行训练,所述视频或者连续拍摄的多帧图像数据包括标注好的车道线
55.需要说明的是,关于使用深度学习方式构建并训练运动目标检测模型和车道线检测模型的具体方式可参照现有技术,本发明实施例在此不再赘述.
56.图2是本发明实施例提供的一种获取所述运动目标的行为时间序列数据方法的流程示意图。参考图2,在s3中,获取所述运动目标的行为时间序列数据包括:
57.s301:将每帧待识别图像中识别得到的运动目标和当前车道线按照像素坐标映射在同一映射图像中,每帧待识别图像具有对应的映射图像;
58.s302:在每一映射图像中确定水平基准线,并确定所述运动目标在所述水平基准线上的第一像素坐标,以及所述车道线的两条线在所述水平基准线上的第二像素坐标和第三像素坐标;
59.s303:根据每一映射图像中第一像素坐标、第二像素坐标和第三像素坐标,获得所述待识别图像中所述运动目标的行为时间序列数据。
60.在s301的具体实施中,由于运动目标和车道线是分别检测到的,因此需要将其映射在同一图像中。相较于原始的待识别图像,映射图像中运动目标和车道线的比例变大,为运动目标的行为预测奠定了基础。
61.在s302的具体实施中,可合理假定运动目标包络盒的下边线是运动目标与路面的接触线,作为当前帧图像的水平基准线。
62.具体请参照图3,沿着接触线做直线延伸,则该线就是经过运动目标t且与当前车道线v1、v2垂直的水平基准线l。在水平基准线l上构建一个一维坐标系,就可以清晰地表示运动目标t与车道线v1、v2的位置。该一维坐标系可取图像坐标系中的u坐标系。区间[u
l,t
,u
r,b
]表示运动目标所占的区域,点o表示运动目标的中心,其坐标值为(u
l,t
,u
r,b
)/2,其中u
l,t
表示运动目标t的包络盒在u坐标系上的左上坐标和右下坐标。至此可以确定在统一的一维坐标系下的运动目标和车道线的像素位置。
[0063]
进一步,参照图4,图4是本发明实施例根据图3所示应用场景获得的车道线和运动目标的像素值曲线示意图。图4中横坐标表示水平基准线上的像素坐标,纵坐标表示该像素为车道线的概率p。在一些实施例中,在确定车道线的两条线在所述水平基准线上的第二像素坐标和第三像素坐标时,每个尖峰表示一条车道线。也即图4中波峰l1、l2分别是左、右车道线的中心点。通常而言,车道线的两条线之间的距离,也即点l1和点l2之间的距离应是运动目标区域(也即包络盒在水平基准线上所占的宽度)的2-4倍。
[0064]
具体地,部分车道线的像素点可能因遮挡等没有被检测到,此时可用二次多项式拟合车道线的中心点l1、l2,以保证车道线是一条连续完整的曲线。
[0065]
在s303的具体实施中,可以计算第一像素坐标与第二像素坐标和第三像素坐标的
相对位置关系,以表征运动目标与车道线的相对位置关系。
[0066]
具体而言,第一像素坐标与第二像素坐标和第三像素坐标的相对位置关系可以采用第一像素坐标与车道线在水平基准线上的中点的像素坐标之差来表示,车道线在水平基准线上的中点位置为第二像素坐标和第三像素坐标之和除以2。
[0067]
进一步地,根据每一帧待识别图像能够确定一个相对位置关系,因此最终获得一个行为时间序列数据,行为时间序列数据包括按照多帧待识别图像的时间顺序排列的多个相对位置关系。
[0068]
在一个非限制性的实施例中,图2所示s303可以包括:根据每一映射图像中所述第二像素坐标和所述第三像素坐标确定所述车道线的中心点在所述水平基准线上的第四像素坐标;计算每一映射图像中所述第一像素坐标与第四像素坐标的差值,以作为所述相对位置关系。
[0069]
本实施例中,首先计算车道线的中心点在所述水平基准线上的第四像素坐标lc=(l1 l2)/2。再计算第一像素坐标与第四像素坐标的差值pr=(o-lc),其中,lc表示当前车道的中心点的第四像素坐标,l1和l2分别表示当前车道的左右两条车道线的像素坐标,o为运动目标,如行人或骑车人的像素坐标,pr表示运动目标相对于中心点的位置关系。
[0070]
在另一个非限制性的实施例中,请参照图5,图5是图2所示s303的一种具体实施方式的流程示意图。图2所示s303可以包括:
[0071]
s3031:根据每一映射图像中所述第二像素坐标和所述第三像素坐标确定所述车道线的宽度,以及所述车道线的中心点在所述水平基准线上的第四像素坐标;
[0072]
s3032:计算每一映射图像中所述第一像素坐标与第四像素坐标的差值,并利用所述车道线的宽度进行归一化,以作为所述相对位置关系。
[0073]
与前述实施例不同的是,本发明实施例对第一像素坐标与第四像素坐标的差值进行了归一化处理。
[0074]
在高速远距场景中,摄像头随着车辆的高速运动,会出现较明显的运动目标尺度变化和图像抖动等问题。此时运动目标和车道线的位置只能表示当前帧中的位置关系,以此为基础的运动目标的位置时间序列不能准确反映目标的运动行为。为了准确地描述目标的运动,本实施例采用归一化的相对定位方式解决尺度变化和图像抖动问题。
[0075]
其中,w=|l
1-l2|,lc=(l1 l2)/2,pr=(o-lc)/w,w表示当前车道的像素宽度,lc表示当前车道的中心点的第四像素坐标,l1和l2分别表示当前车道的左右两条车道线的像素坐标,o为运动目标,如行人或骑车人的像素坐标,pr表示运动目标相对于中心点的位置关系。
[0076]
具体请参照图6和图7,其横坐标表示时间,图6中线条l1和l2是根据行为时间序列数据中第二像素坐标和第三像素坐标拟合得到的,分别表示车道线的两条线,线条o是根据行为时间序列数据中第一像素坐标拟合得到的,表示运动目标。从图6中可以看出,由于高速场景下摄像头抖动和尺度变化的原因,因此车道线的宽度也在变化,这会导致对运动目标的闯入行为判断不准确。
[0077]
图7则示出了归一化处理后,图6中线条o和线条l1和l2的相对关系。其中,横坐标表示时间,纵坐标表示第一像素坐标与第四像素坐标的差值归一化后的数值。负值表示运动目标在车道线中心点左侧,正值表示运动目标在车道线中心点右侧。结合图6和图7可以看
出,经过归一化处理,车道的宽度稳定,解决了高速场景下摄像头所拍摄图像尺度变化和图像抖动问题。
[0078]
在一个非限制性的实施例中,图2所示s302可以包括:将各帧待识别图像对应的所述第一像素坐标、所述第二像素坐标和第三像素坐标进行卡尔曼滤波。
[0079]
利用传统或基于深度学习的视觉目标检测方法对运动目标与车道线进行实时的跟踪检测时,不可避免会出现误检和漏检。为了降低误检和漏检所带来的不利影响,本实施例对计算得到的运动目标和车道线进行了滤波处理。对于高速应用场景,运动目标数较少,例如在5个以内。此时相邻两帧的图像差异很小,故而可将相邻两帧的观测值进行双向比较,以使其平均绝对误差最小,从而达到目标对齐的目的。对齐之后,统计每个运动目标出现的帧数n与图像总帧数n之间的比值r=n/n。若r《t(t为预设阈值),则认为该目标是误检并舍弃该目标。预设阈值t可参考目标检测模型的精确率和召回率来决定其大小。在得到对齐后的运动目标序列后,将目标检测模型产生的误检和漏检视为野值和随机噪声,使用kalman滤波器剔除野值并平滑噪声。之后就可以得到一维坐标系下运动目标和车道线的精确连续时间序列数据。
[0080]
参考图1,在s4的具体实施中,将前述步骤得到的行为时间序列数据输入预先训练好的目标行为分类模型,所述目标行为分类模型对所述运动目标的行为进行分类。可选地,所述目标行为分类模型为递归神经网络模型。在一个非限制的实施例中,所述目标行为分类模型为预先训练好的双向lstm预测模型,所述双向lstm预测模型根据所述行为时间序列数据中的所述相对位置关系对所述运动目标的闯入行为进行分类,输出第一分类分数、第二分类分数以及第三分类分数,其中第一分类分数对应着被检测目标从左侧闯入车道的概率,第二分类分数对应着被检测目标从右侧闯入车道的概率,第三分类分数对应着被检测目标未闯入车道的概率;所述第一分类分数、第二分类分数以及第三分类分数中的最大值即为最终行为预测结果。
[0081]
参考图8,图8是本发明实施例一种双向lstm预测模型的框架结构示意图。所述双向lstm预测模型包括:两层的双向lstm网络10和一个全连接网络20,其中两层的双向lstm网络10作为整个预测模型的输入端,输入所述相对位置关系,即p
ri
(i=1.....k),本发明实施例以同时输入k个数据为例,其中k为20-40之间的自然数;全连接网络20作为整个预测模型的输出端,输出第一分类分数r1、第二分类分数r2以及第三分类分数r3。
[0082]
继续参考图8,所述两层的双向lstm网络10包括若干个神经元101(图8中示出了k个神经元101),且每个神经元101均包括:输入单元si(i=1.....k),输出单元fi(i=1.....k),正向隐层单元f
1i
(i=1.....k)以及f
2i
(i=1.....k),以及反向隐层单元b
1i
(i=1.....k)以及b
2i
(i=1.....k)。所述输入单元si(i=1.....k)用于输入所述行为时间序列p
ri
(i=1.....k)前4阶的数据,输入的行为时间序列数据分别进入对应的正向隐层单元f
1i
(i=1.....k)、f
2i
(i=1.....k),以及反向隐层单元b
1i
(i=1.....k)、b
2i
(i=1.....k),所述各隐层单元承担着主要的数据交互以及运算工作,最后经各自对应的输出单元fi(i=1.....k)输出中间计算结果。
[0083]
在一个非限制性的实施例中,所述两层的双向lstm网络10的隐层个数为16,若其输入数据大小为(k
×
1),则其输出数据大小为(32
×
k)。其中,所述两层的双向lstm网络的最后一个神经元输出的数据作为所述全连接网络20的输入数据,其大小为(32
×
1)。所述全
连接网络20根据所述两层的双向lstm网络的最后一个神经元输出的数据,对所述运动目标的闯入行为进行分类,输出第一分类分数r1、第二分类分数r2以及第三分类分数r3。所述第一分类分数r1、第二分类分数r2以及第三分类分数r3中的最大值即为所述运动目标的行为预测结果,也就是说,如果r1大于r2和r3,则判定所述运动目标从左侧闯入车道;如果r2大于r1和r3,则判定所述运动目标从右侧闯入车道;如果r3大于r1和r2,则判定所述运动目标未闯入车道。
[0084]
由于所述双向lstm预测模型已经预先训练好,其根据所述行为时间序列数据中的所述相对位置关系对所述运动目标的行为进行分类,响应速度快且分类结果准确率高;且无需使用任何导航数据和高精地图信息,降低了车道闯入行为分类的难度。
[0085]
在一个非限制性的实施例中,所述目标行为分类方法可应用于汽车智能驾驶方案中,所述车载设备可根据上述目标行为分类结果给出提示或者警报,用以提醒驾驶员或者触发汽车本身的自动驾驶系统提早做出响应,提高汽车安全驾驶的系数。
[0086]
本发明实施例还公开了一种存储介质,所述存储介质为计算机可读存储介质,其上存储有计算机程序,所述计算机程序运行时可以执行上述方法中所示的目标行为分类方法的步骤。所述存储介质可以包括rom、ram、磁盘或光盘等。所述存储介质还可以包括非挥发性存储器(non-volatile)或者非瞬态(non-transitory)存储器等。
[0087]
本发明实施例还公开了一种终端,所述终端可以包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机程序。所述处理器运行所述计算机程序时可以执行上述方法中所示的目标行为分类方法的步骤。
[0088]
本发明技术方案通过获取映射图像中运动目标与车道线在水平基准线上的相对位置关系,采用已经训练好的预测模型对车道闯入行为进行快速准确的预测,无需使用任何导航数据和高精地图信息,对车载设备、无线网络质量的要求低。
[0089]
进一步地,采用递归神经网络预测模型基于所述行为时间序列对运动目标的行为进行分类,结合采用单目相机进行拍摄,即使在远距的场景下也能够捕获小目标的位置特征,解决了远距场景下难以捕获小目标动作的问题,且本发明技术方案成本低,准确度高。
[0090]
进一步地,利用所述车道线的宽度对所述相对位置关系进行归一化处理,准确描述了运动轨迹,解决了高速造成图像抖动的问题。
[0091]
虽然本发明披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,均可作各种更动与修改,因此本发明的保护范围应当以权利要求所限定的范围为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献