一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种用于智能汽车的车载芯片的制作方法

2022-06-01 15:32:53 来源:中国专利 TAG:


1.本发明涉及车辆芯片领域,特别涉及一种用于智能汽车的车载芯片。


背景技术:

2.无人驾驶在汽车领域越来月火热,如,无人车、自动驾驶汽车;技术已经较为成熟,可根据需要自主行驶并执行任务。
3.在现有技术中,例如,在配送领域中,无人驾驶设备已经实现了自行根据订单规划路径行驶,完成从取货到送货的整个过程。
4.但是,在出现意外情况时,无人驾驶设备通常难以自行解决问题。例如,在仓储物流领域中,无人驾驶设备的驱动系统故障或损坏,导致无法继续行驶。或者,无人驾驶设备的电源管理系统出现问题,导致电量无法支持完成任务,等等。
5.在现有技术中,当无人驾驶设备需要依靠不同的传感设备和拍摄设备进行场景采集,现在主流技术就是激光雷达和摄像技术。
6.但是现有技术中,激光雷达技术虽然探测的清楚,但是对于周便场景建模的时候,无法提高真实性,其次,天气对于激光雷达存在影响,会让其效果产生衰减。而拍摄设备也存在无法达到激光雷达的技术效果。所以无人驾驶,差强人意。


技术实现要素:

7.本发明提供一种用于智能汽车的车载芯片,用以解决现有技术中,激光雷达技术虽然探测的清楚,但是对于周便场景建模的时候,无法提高真实性。而拍摄设备也存在无法达到激光雷达的技术效果。所以无人驾驶技术的效果并不好的情况。
8.一种用于智能汽车的车载芯片,用于在车辆行驶中进行场景检测,包括:
9.第一场景测量处理器:用于接收智能汽车上激光雷达的返回信号,并生成全局三维环境场景;
10.第二场景测量处理器:用于接收智能汽车上摄像装置的视频数据,确定智能汽车周边的局部三维场景,并在所述全局三维环境场景中进行局部场景标注;
11.主控制器,用于根据局部场景标注后的全局三维环境场景,绘制行驶地图,并基于所述行驶地图控制智能汽车行驶。
12.优选地、所述第一场景测量处理器包括:
13.照明源控制单元:用于在与外部电源连接时,照明源发射测量脉冲,驱动不同的激光雷达测量通道接收从三维环境中反射光;
14.区域划分单元:用于通过所述反射光,划分不同元素的反射光的分布区域,分局所述分布区域,确定每个区域的场景元素;其中,
15.所述场景元素至少包括:车辆、交通标志、行人、路侧建筑物、路中绿化带;
16.元素标记单元,用户在所述场景元素生成后,对每一个场景元素进行一一标记,确定全局场景信息;
17.三维环境场景生成单元:用于根据所述全局场景信息,对反射光的位置进行三维坐标系校准,并在校准之后建立全局三维环境场景;其中,
18.所述全局三维环境场景中包括每个场景元素的标记位置框和用户自身智能汽车的姿态位置框;
19.所述标记位置框和姿态位置框实时更新相邻距离长度。
20.优选地、所述第一场景测量处理器还包括如下场景测量步骤:
21.步骤1:将所述反射光和每个场景元素相对应,构建目标场景的第一模型;
22.其中,所述第一模型包括三维地形、地物和场景环境;
23.步骤2:根据预设的设置激光雷达成像仿真参数,确定每个场景元素的元素信息;其中,
24.所述元素信息包括位置、探测距离、视场和分辨率;
25.步骤3:基于过程纹理技术,通过过程纹理算法生成具有纹理分辨率、透明度和颜色的点云纹理;
26.步骤4:根据所述点云纹理,生成每个场景模型的第一纹理模型;
27.步骤5:根据所述第一纹理模型,进行点云配色,根据所述点云配色,生成场景元素的点云图像;其中,
28.所述点云图像为每个场景元素对应的部分场景图像。
29.优选地、所述生成点云图像还包括:
30.步骤51:根据所述点云图像,确定每个场景元素的拼接区域;
31.步骤52:根据所述点云图像,进行点云信息提取,确定每一个点云数据;其中,
32.所述点云数据包括每一个点的gps信息和距离地面的高度值;
33.步骤53:根据所述待拼接区域,确定点云数据的边界点;其中,
34.所述边界点为距离地面的高度值等于预设高度值的点数据;
35.步骤54:从所述拼接区域中确定待拼接点的拼接坐标;
36.步骤55:根据所述拼接坐标,通过所述拼接区域的点云数据构成的三维点云图像;其中,
37.每个点云数据包括位置坐标信息;
38.步骤56:根据所述待拼接点的位置坐标信息,将待拼接区域两侧边界点进行匹配认定;
39.步骤57:根据所述匹配认定将相邻场景元素的点云图像进行拼接。
40.优选地、所述第二场景测量处理器包括:
41.视频接收单元:用于对所述视频数据进行场景元素识别,将场景元素和关键图像帧对应的场景元素进标定,通过场景标定视频,获取所述关键图像帧中的至少一个关键主体位置和目标区域位置;其中,
42.所述关键主体位置为关键图像帧中场景元素的实时位置;
43.所述目标区域位置为关键图像帧中相邻场景元素实时区域的实时面积和实时位置;
44.局部场景确定单元:根据所述场景标定视频,确定与所述全局三维环境场景具有场景元素融合的局部三维场景;
45.场景标注单元:根据所述局部三维场景,在所述全局三维环境场景中进行临近场景元素标定;其中,
46.所述临近场景元素标定通过标定框进行场景元素标定;
47.标定转换单元:用于根据视频数据的转变,对每一时刻通过标定框进行场景标定的场景元素进行转换,确定用户车辆的临近元素;
48.对比单元:用于根据所述临近元素,在所述全局三维环境场景中实时确定临近场景元素的距离。
49.优选地、所述第二场景测量处理器还包括:
50.权重预设单元:用于预先设置不同场景元素的三维权重;
51.权重识别单元:用于获取视频数据对应的场景元素的三维特征,基于所述三维特征确定三维权重;
52.预处理单元:用于对所述三维特征和所述三维权重分别进行预处理,得到特征值矩阵及权重值矩阵;其中,
53.所述预处理包括:通过所述三维特征和三维权重,在所述全局三维环境场景中进行每个场景元素映射,通过元素映射的映射值构建特征值矩阵及权重值矩阵
54.场景元素判定单元:用于将所述特征值矩阵和所述权重值矩阵输入多个三维脉动阵列并行计算,确定不同场景元素的重要度;其中,
55.不同重要度的场景元素通过不同的标定框进行标定。
56.优选地、所述第二场景测量处理器还包括:
57.信息输出单元:用于根据所述视频数据,识别所述视频数据中包含的预设目标信息,并将所述目标信息通过用户车辆的显示屏进行显示;其中,
58.所述目标信息包括:车辆位置信息、车辆数量信息、车辆种类信息和车辆距离信息;
59.渲染单元:基于所述识别结果,对临近的车辆进行渲染,提高不同类型车辆的识别色;其中,
60.所述识别色为
61.视频输出单元:用于根据所述识别色,对所述视频数据进行渲染,并将渲染后的视频数据通过用户车辆进行输出。
62.优选地、所述主控制器包括:
63.地图绘制模块:用于根据所述全局三维环境场景,确定用户车辆的第一行驶信息和临近车辆的第二行驶信息,根据所述第一行驶信息和第二行驶信息,建立用户车辆的实时行驶地图;
64.行驶控制单元:用于根据所述实时行驶地图,确定用户车辆的前后车辆行驶车速和行驶方向,根据所述前后车辆行驶车速和行驶方向,控制所述用户车辆进行自动行驶。
65.优选地、所述主控制器还包括:
66.位置判断单元:根据所述行驶地图,确定自动驾驶的车辆的实时车辆位置;
67.区域检测单元:用于根据所述实时车辆位置,检测自动驾驶车辆是否行驶到检测区域;
68.所述检测区域包括:车辆行驶通道、减速区域、红绿灯区域、人行横道区域、道闸区
域、限制停止区域、检测转向区域;其中,
69.若检测到所述无人驾驶车辆行驶到检测区域,则判断所述自动驾驶车辆在所述检测区域是否驾驶失误;
70.若所述无人驾驶车辆在所述检测区域驾驶失误,记录所述自动驾驶车辆驾驶失误的失误信息。
71.优选地、所述主控制器还包括:
72.判定单元:根据所述全局三维环境场景,判断激光雷达检测区域的车辆单元;
73.交通状况提醒单元:用于根据所述车辆单元的数量,确定临近车辆密度,根据所述临近车辆密度,确定交通拥挤状态。
74.本发明有益效果在于:本发明不仅解决了激光雷达和摄像两方面无人驾驶得缺陷,而且推出了一种新型的无人驾驶方式,也就是三维全局场景加上局部场景标注,首先使得无人驾驶的时候,画面显示更加清楚,其次,生成了一个动态地图,相对于现有技术来说,自动导航技术和无人驾驶技术实现了结合。
75.本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书以及附图中所特别指出的结构来实现和获得。
76.下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
77.附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
78.在附图中:
79.图1为本发明实施例中一种用于智能汽车的车载芯片的芯片组成图;
80.图2为本发明实施例中第一场景测量处理器的组成图;
81.图3为本发明实施例中第二场景测量处理器的组成图;
82.图4为本发明实施例中主控制器的组成图。
具体实施方式
83.以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
84.实施例1:
85.如附图1所示,本发明为一种用于智能汽车的车载芯片,用于在车辆行驶中进行场景检测,包括:
86.第一场景测量处理器:用于接收智能汽车上激光雷达的返回信号,并生成全局三维环境场景;
87.现有技术中对于激光雷达的利用,大多数车辆在进行实施的时候事基于反射光实现的,通过反射光,实现快速的对周围场景建模,但是其建模的是会受到天气影响的,天气不好的雨雪或者大雾情况下,激光雷达的光是会存在衰减,所以激光雷达的效果在现有技术中的利用,是存在一定的缺陷的。现有技术中车辆也会安装摄像头去辅助激光雷达进行
无人驾驶;另一方面激光雷达在数据量过大的时候,容易出现宕机或者下达指令速度有所延迟。而且现有技术中,采用的方案是激光雷达的多目标跟踪(多目标跟踪表示一次性要对多个目标进行数据处理),所以现有技术中采用的技术方案主要是通过软件层面的数据处理,将摄像技术和激光雷达的目标跟踪技术结合,两者属于数据融合,在激光雷达进行目标跟踪之后,再通过车辆自身的摄像识别,去识别是不是存在车辆,进而实现自动驾驶,可以说两者的结合上,摄像识别的目的,主要是识别是不是存在车辆,但是具体的多目标跟踪,如何进行无人驾驶还是需要激光雷达的数据进行判定。这就导致了,激光雷达的固有问题还是容易出现。本发明的不同之处在于通过芯片,专业用于激光雷达和摄像识别相结合的芯片,从这个层面去处理不同技术在软件层面结合的缺陷。本发明的第一场景测量处理器,不采用多目标跟踪技术,而是基于激光雷达去进行环境建模,生成三维的环境场景。只是生成三维环境的场景,不需要进行多目标跟踪的情况下,可以实现更小的数据量处理,不会出现宕机或者下达指令速度有所延迟的问题。
88.第二场景测量处理器:用于接收智能汽车上摄像装置的视频数据,确定智能汽车周边的局部三维场景,并在所述全局三维环境场景中进行局部场景标注;
89.在第二场景测量处理器主要是处理汽车上的摄像装置采集的视频数据,在视频数据上只去确定只能汽车周边的局部三维场景,也就是汽车临近的车辆、人和其它影响车辆无人驾驶的因素。在无人驾驶的过程中,车辆主要的目的就是能够对周边的车辆进行自动的规避,自动的确定一条路线,自动的遵守各种交通规则。对于视频识别在无人驾驶技术中,其具有更好识别交通标志、能够在无人驾驶的过程中临近距离的车辆或者其它场景元素识别的更加准确,更加真实。但是其,在无人驾驶的技术中,如果需要进行数据融合,现在主要采用的是点云技术,但是采用点云技术的时候,对于复杂目标检测的准确率不够,而且视频识别还要通过基于神经网络的识别训练,而训练需要大量准确的数据支持,也是从软件算法的从面结合激光雷达和视觉识别技术。因此,本发明的第二场景测量处理器只处理局部的视觉数据,因此,所以本发明采用了在获取局部视频数据之后,通过局部场景标注的方式,这样,我们会将和车辆相邻很远的,不会影响车辆行驶的汽车或者其它元素和车辆相邻很近,影响车辆行驶的其它场景元素通过标注的方式进行区分,这个区分的目的是因为本发明最后生成的是一个行驶地图,本发明通过再三维环境场景中进行局部场景标注之后,更加容易判断那些车辆对无人驾驶有影响,那些车辆对于无人驾驶没有影响,而且能更加快速的进行反应,判断出如何控制行驶方向,行驶路径是什么。
90.主控制器,用于根据局部场景标注后的全局三维环境场景,绘制行驶地图,并基于所述行驶地图控制智能汽车行驶。
91.行驶地图类似于我们的导航地图,不过因为是更倾向于无人驾驶的方面,所以本发明的行驶地图其实更倾向于对距离的把控以及对于路径的快速规划,所以这是一个基于距离标注和实时动态变化的场景地图。相对于现有技术本发明,无人驾驶的时候,深度的视觉神经容易遭受到对抗样本的攻击,比如在无人驾驶领域,将交通信号指示牌一旦被损害或者是被做一些手脚,那么激光雷达对信号的诊断就会完全错误。但是本发明不会,本发明因为结合了两种技术,而且是从芯片处理领域的结合,相当于进行个性化定制将两种技术从数据采集的层面就进行结合,而不是数据处理的层面进行融合,使得本发明不容易深度视觉神经,出现事故。
92.上述技术方案的原理在于:本发明是三种技术的结合,激光雷达技术得到一个全局的三维场景,然后汽车上的摄像装置,获取近距离的场景和元素,通过三维场景和近距离场景的局部标注,分析出相邻车辆,或者其它相邻元素之间的距离,然后主控制器控制车辆进行行驶,自动绘制行驶地图,这是一个动态地图。
93.上述技术方案的有益效果在于:本发明不仅解决了激光雷达和摄像两方面无人驾驶得缺陷,而且推出了一种新型的无人驾驶方式,也就是三维全局场景加上局部场景标注,首先使得无人驾驶的时候,画面显示更加清楚,其次,生成了一个动态地图,相对于现有技术来说,自动导航技术和无人驾驶技术实现了结合。
94.实施例2:
95.优选地、如附图2所示,所述第一场景测量处理器包括:
96.照明源控制单元:用于在与外部电源连接时,照明源发射测量脉冲,驱动不同的激光雷达测量通道接收从三维环境中反射光;
97.照明源就是激光雷达的激光发射源,因为本发明是需要激光雷达技术的,所以本发明对照明源进行专项控制,本发明提出:“驱动不同的激光雷达测量通道接收从三维环境中反射光”这是因为本发明不会只设置一个激光反射光的接收通道,这是为了能够最大限度的获取场景信息。
98.区域划分单元:用于通过所述反射光,划分不同元素的反射光的分布区域,根据所述分布区域,确定每个区域的场景元素;其中,
99.所述场景元素至少包括:车辆、交通标志、行人、路侧建筑物、路中绿化带;
100.激光雷达是通过反射光来判断场景元素的,所以通过不同的反射光,确定不同的区域,通过不同的区域确定不同的场景元素,例如,绿化带区域的树木和花,街道区域的车辆和行人、以及路侧的交通标志等等。
101.元素标记单元,用户在所述场景元素生成后,对每一个场景元素进行一一标记,确定全局场景信息;本发明场景元素的标记是一个对不同类型的场景元素进行区分的标记,可以是颜色划分类型,也可以直接对不同的场景元素进行文字标记,进而对可检测的区域。
102.三维环境场景生成单元:用于根据所述全局场景信息,对反射光的位置进行三维坐标系校准,并在校准之后建立全局三维环境场景;其中,
103.在本发明中三维坐标系校准就是通过三维坐标系对每个场景元素进行位置标定。
104.所述全局三维环境场景中包括每个场景元素的标记位置框和用户自身智能汽车的姿态位置框;位置标定的时候,本发明采用了标定框的方式,就是通过一个框,根据场景元素的长、宽和高,以此达到判断不同标记位置框之间的相邻距离。
105.所述标记位置框和姿态位置框实时更新相邻距离长度。
106.上述技术方案的原理在于:本发明的机关雷达是通过在三维环境中通过反射光来划分场景元素,包括车辆、交通标志、行人、路测建筑物、路中绿化带;,然后通过这些元素基于三维坐标系构建三维全景场景,通过标记框实现不同元素,也就是不同汽车和环境中不同元素的标注。
107.上述技术方案的有益效果在于:本发明能够建立三维全景的场景画面,相对于现有技术,更加的符合实际场景。
108.实施例3:
109.优选地、所述第一场景测量处理器还包括:
110.步骤1,将所述反射光和每个场景元素相对应,构建目标场景的第一模型;
111.第一模型是一个数据库模型,他的作用是将场景元素和反射光进行排布出来,每个元素其对应的区域的反射光先相对应。
112.其中,所述第一模型包括三维地形、地物和场景环境;
113.步骤2,根据预设的设置激光雷达成像仿真参数,确定每个场景元素的元素信息;其中,
114.所述元素信息包括位置、探测距离、视场和分辨率;
115.仿真参数是用来进行识别的,所以不分明在于,生成的场景元素都是设定有不同的仿真参数吗,每个数据都有特定的信息,从而便于进行元素信息的提取。
116.步骤3,基于过程纹理技术,通过过程纹理算法生成具有纹理分辨率、透明度和颜色的点云纹理;过程纹理技术是点云技术中的一种方法,但是本发明与现有技术中的点云处理不同,因为本发明是获取纹理分辨率、透明度和颜色,不是整体的场景图像的分辨率、透明度和颜色,因为本发明第一模型是基于激光雷达的模型,所以无法获取真实的图像,获取的是基于光反射的纹理,相对于现有技术来说,点云纹理是更加符合激光雷达进行三维建模。
117.步骤4,根据所述点云纹理,生成每个场景模型的第一纹理模型;
118.步骤5,根据所述第一纹理模型,进行点云配色,根据所述点云配色,生成场景元素的点云图像。基于点云纹理获取得到的颜色与实际场景中的颜色是不同的,因为无法进行直接获取,所以本发明会进行点云配色,得到更加真实的点云图像,生成点云图像的目的是为了防止在进行三维建模的时候,存在场景元素没有纳入行驶地图之内。
119.上述技术方案的原理在于:本发明通过场景元素的反射光构建了三维地形、地物和场景环境,然后通过设置激光雷达成像仿真参数,确定尝尽元素是什么,最后通过过程纹理技术和电源纹理实现场景元素配色,以更加真实的画面显示场景元素。
120.实施例4:
121.优选地、所述生成点云图像还包括:
122.步骤51:根据所述点云图像,确定每个场景元素的拼接区域;
123.因为激光雷达的反射光,具有多个反射光的通道,所以是通过反射光来获取的点云图像是一个区域,然后再一个区域的获取,每个区域的反射光大部分是不同的不同,每个区域有一定的场景元素,所以本发明可以通过拼接区域进行整体场景的拼接。
124.步骤52:根据所述点云图像,进行点云信息提取,确定每一个点云数据;其中,
125.所述点云数据包括每一个点的gps信息和距离地面的高度值;
126.所述待拼接区域由边界点围成,所述边界点为距离地面的高度值等于预设高度值的点数据;边界点就是激光雷达的每一个反射光通道获取的反射光所组成的区域的边界。
127.步骤53:根据所述待拼接区域,确定点云数据的边界点;其中,
128.所述边界点为距离地面的高度值等于预设高度值的点数据;
129.步骤54:从所述拼接区域中确定待拼接点的拼接坐标;
130.拼接坐标就是拼接区域的边界点的坐标。
131.步骤55:根据所述拼接坐标,通过所述拼接区域的点云数据构成的三维点云图像;
其中,
132.每个点云数据包括位置坐标信息;
133.步骤56:根据所述待拼接点的位置坐标信息,将待拼接区域两侧边界点进行匹配认定;因为在拼接的时候,相邻区域的边界点的坐标是相同的,所以这个匹配认定是一个基于位置坐标的匹配认定。
134.步骤57:根据所述匹配认定将相邻场景元素的点云图像进行拼接。
135.上述技术方案的原理在于:本发明因为生成的点云图像可能是多个场景,每个场景元素的位置和高度都不同,所以需要进行场景的拼接,从而显示更大的场景区域,确定全局场景。拼接的作用是删除干扰信息。删除干扰信息是因为,在拼接的过程中,激光雷达的反射光是存在重复的,对于重复的反射光,就是属于干扰信息,另外还有一些非附近的场景元素的反射光;所以本发明通过拼接的方式和坐标的方式,让每一个场景元素只是在一个位置区域,有固定的位置坐标,因此在拼接的时候,就重复的坐标只取一个,也就删除了干扰信息。
136.实施例5:
137.优选地、如附图3所示,所述第二场景测量处理器包括:
138.视频接收单元:用于对所述视频数据进行场景元素识别,将场景元素和关键图像帧对应的场景元素进标定,通过场景标定视频,获取所述关键图像帧中的至少一个关键主体位置和目标区域位置;其中,
139.所述关键主体位置为关键图像帧中场景元素的实时位置;
140.所述目标区域位置为关键图像帧中相邻场景元素实时区域的实时面积和实时位置;
141.关键主体位置和目标区域位置,就是无人驾驶的时候汽车临近的汽车的临近位置,在上下左右那个位置,坐标是什么。然后目标区域位置,就是邻近的车辆所在的位置,这个目标区域位置是通过标定框需要进行标定的位置。
142.局部场景确定单元:根据所述场景标定视频,确定与所述全局三维环境场景具有场景元素融合的局部三维场景;
143.场景元素融合,就是存在相同的车辆,相同的道路、相同的交通标志、相同的行人这种场景和场景中的元素都相同的场景,就是局部三维场景,场景元素融合,也就是场景元素相同。
144.场景标注单元:根据所述局部三维场景,在所述全局三维环境场景中进行临近场景元素标定;其中,
145.所述临近场景元素标定通过标定框进行场景元素标定;
146.临近场景元素标定,就是对临近的车辆、行人或者绿化等对于无人驾驶存在障碍的场景元素进行标定。
147.标定转换单元:用于根据视频数据的转变,对每一时刻通过标定框进行场景标定的场景元素进行转换,确定用户车辆的临近元素;
148.对比单元:用于根据所述临近元素,在所述全局三维环境场景中实时确定临近场景元素的距离。临近场景元素的距离也就是与无人驾驶的汽车相邻的其它汽车、行人或者其它行驶障碍物的距离。
149.上述技术方案的原理在于:本发明第二场景测量处理器主要处理的是视频数据所以进行场景的转换和局部场景的标注,主要确定的是临近的元素,例如临近的车辆。
150.实施例6:
151.优选地、所述第二场景测量处理器还包括:
152.权重预设单元:用于预先设置不同场景元素的三维权重;
153.三维权重就是在三维场景里面,其重要程度,这个重要程度依靠、临近距离、场景元素的类型,到底是人、车辆还是其它元素等等诸多元素确定。因为无人驾驶的目标就是避障,而且行驶不违反交通规则,所以场景元素的三维权重,就看无人驾驶时对场景元素进行规避的操作难度。
154.预处理单元:用于对所述三维特征和所述三维权重分别进行预处理,得到特征值矩阵及权重值矩阵;其中,
155.所述预处理包括:通过所述三维特征和三维权重,在所述全局三维环境场景中进行每个场景元素映射,通过元素映射的映射值构建特征值矩阵及权重值矩阵;
156.场景元素判定单元:用于将所述特征值矩阵和所述权重值矩阵输入多个三维脉动阵列并行计算,确定不同场景元素的重要度;其中,
157.不同重要度的场景元素通过不同的标定框进行标定。
158.通过三维脉动阵列并行计算,就是通过对特征值矩阵和权重值矩阵,通过这两矩阵的并行堆成计算,确定不同场景元素的重要程度,也就是在三维场景中其重要程度,也就是通过特征矩阵值能够确定三维场景中场景元素的在整个场景中所占比重,在实际实施的时候,特征计算只会计算车辆、行人等需要规避的障碍物的特征值矩阵。而权重值矩阵,就是用来确定特征值矩阵中每个场景元素的重要程度。所以是基于三维脉动阵列的并行计算,得到最终重要程度,进行标定。
159.在一个具体的实施例中,三维权重通过以下方式获取:
160.步骤1:首先基于可能遇到的场景元素,构成场景元素集合c=(c1,c2,c3……ci
),在本发明场景元素存在n个,i∈n;这n个场景元素是包括汽车、交通标志、行人以及其它所有在无人驾驶的环境中可能出现的障碍物。
161.步骤2:这些场景元素有些在权重计算中所占的比重是非常重的有些事非常轻的,所以,对于每个场景元素我们会设置不同场景元素在无人驾驶时,相对于每个场景元素的评价权重:
[0162][0163]
其中,q(ci)表示第i个场景元素的评价权重;ci表示第i个场景元素的元素特征;pi表示第i个场景元素的元素基础权重;
[0164]
步骤2主要是为了确定每一个场景元素其自身的评价权重,也就是在无人驾驶中每一个场景元素自身在所有的场景元素中,其权重占比是多少;在这个权重的计算过程中,首先本发明要设定每个场景元素的基础权重,也就是pi;这个权重,是单一元素,在无人驾驶领域与无人驾驶车辆的相关度,也是一个人为规定的权重;而步骤2计算的,也就是在所有的场景元素中,每一个场景元素在所有的场景元素中应该有的权重;
[0165]
步骤3:在步骤3中,我们需要将实时的三维场景中对,每一个场景元素相对于无人
驾驶车辆的距离、方向、状态(移动、固定、爆炸(这个状态时包含危险程度)),存在多种状态,以及对于车辆的影响程度,在这个计算过程中,也少不了自身状态的计算,通过下式体现:
[0166][0167]
其中,s(ci)表示第i个场景元素的三维权重;zj表示无人驾驶车辆自身第i个状态参数;j=1,2,3
……
k,k表示无人驾驶车辆自身状态参数的总种类;h表示基准状态参数;di表示第i个场景元素距离无人驾驶车辆的实时距离;d表示在无人驾驶时,场景元素与无人驾驶车辆的基准距离;fi表示第i个场景元素距离无人驾驶车辆的实时方向偏差(这个方向参数时以角度的形式体现,在实际实时的时候f的角度为基准角度,);f示在无人驾驶时,无人驾驶车辆的基准方向;yi表示第i个场景元素的状态。
[0168]
在步骤三中计算得到的s(ci),这个值越大,表示三位权重的值越大。这个步骤中,本发明以无人驾驶车辆自身的状态:去乘以场景元素在三维场景中的各种参数,从而确定具体的三维权重。表示的时距离权重,也就是实时距离对无人驾驶的影响程度;表示的时实时方向对无人驾驶的影响程度;yi表示场景元素的实时状态对无人驾驶的影响程度,通过这三个值,判定每个场景元素的三维权重。
[0169]
实施例7:
[0170]
优选地、所述第二场景测量处理器还包括:
[0171]
信息输出单元:用于根据所述视频数据,识别所述视频数据中包含的预设目标信息,并将所述目标信息通过用户车辆的显示屏进行显示;其中,
[0172]
所述预设目标信息包括:车辆位置信息、车辆数量信息、车辆种类信息和车辆距离信息;
[0173]
在进行无人驾驶的时候,虽然不需要驾驶员,但是车内的人员还是需要有驾驶技能,进行驾驶的,这就需要显示车辆周围的信息,也就是预设目标信息。
[0174]
渲染单元:基于所述识别结果,对临近的车辆进行渲染,提高不同类型车辆的识别色;其中,
[0175]
所述识别色中相同的场景元素颜色相同。
[0176]
渲染的目的是为了让无人驾驶的车辆进行驾驶的时候,能够区分出不同的车辆,进而在驾驶的时候能够对路上的交通状态进行一个准确的判断,或者对与影响车辆驾驶的障碍物进行判断,相对于现有技术的交通状态检测,本发明的方法更加简单,但是也达到了对交通状态进行判断的能力。
[0177]
视频输出单元:用于根据所述识别色,对所述视频数据进行渲染,并将渲染后的视频数据通过用户车辆进行输出。
[0178]
实施例8:
[0179]
优选地、如附图3所示,所述主控制器包括:
[0180]
地图绘制模块:用于根据所述全局三维环境场景,确定用户车辆的第一行驶信息和临近车辆的第二行驶信息,根据所述第一行驶信息和第二行驶信息,建立用户车辆的实时行驶地图;
[0181]
行驶控制单元:用于根据所述实时行驶地图,确定用户车辆的前后车辆行驶车速和行驶方向,根据所述前后车辆行驶车速和行驶方向,控制所述用户车辆进行自动行驶。
[0182]
上述技术方案的原理和有益效果在于:本发明在进行实时行驶地图构建的时候,将车辆的行驶信息分为了两部分,一部分是车辆自行的行驶信息,第二部分是临近车辆的行驶信息,通过这两个行驶信息,就能够判断在道路上通过什么行驶路径进行行驶。而在进行行驶控制的时候,第一行驶信息和第二行驶信息能够明确车辆自身和临近的车辆所有的行驶数据,从而能够判断自身的车辆行驶方向,以及适合的行驶速度,也能够判断临近的车辆的行驶速度和行驶方向通过这两方面去判断自身的车辆,也就是无人驾驶的车辆如何调节现在的行驶速度和现在的行驶方向。
[0183]
实施例9:
[0184]
优选地、如附图3所示,所述主控制器还包括:
[0185]
位置判断单元:根据所述行驶地图,获取所述无人驾驶车辆的位置;行驶地图在实际实施的时候存在两种行驶地图,一个是在激光雷达和视频数据感应区域整个范围内的行驶地图,而另外一个就是和导航的地图进行融合,从而能够确定车辆的实时位置。
[0186]
区域检测单元:用于根据所述无人驾驶车辆的位置,检测所述无人驾驶车辆是否行驶到检测区域;
[0187]
所述检测区域包括车辆行驶通道、减速区域、红绿灯区域、人行横道区域、道闸区域、限制停止区域、检测转向区域;其中,
[0188]
若检测到所述无人驾驶车辆行驶到检测区域,则判断所述无人驾驶车辆在所述检测区域是否驾驶失误;
[0189]
因为还需要去遵守交通规则,所以本发明在这些检测区域,会通过这些检测区域的交通规则,判断车辆如何进行操作,以及检测车辆在操作的时候是否出现操作失误,如果出现操作失误,那就说明无人驾驶的控制系统存在一定的缺陷,需要对这个缺陷进行修复。
[0190]
若所述无人驾驶车辆在所述检测区域驾驶失误,记录所述无人驾驶车辆驾驶失误的失误信息。
[0191]
上述技术方案的原理在于:本发明的主控制器,通过行驶地图,去判断行驶监测的区域,例如:车辆行驶通道、减速区域、红绿灯区域、人行横道区域、道闸区域、限制停止区域、检测转向区域。从而能够更好的判断无人驾驶是否存在失误。
[0192]
实施例10:
[0193]
优选地、所述主控制器还包括:
[0194]
判定单元:根据所述全局三维环境场景,判断激光雷达检测区域的车辆;
[0195]
交通状况提醒单元:用于根据所述车辆的数量,确定临近车辆密度,根据所述临近车辆密度,确定交通拥挤状态。
[0196]
上述技术方案的原理在于:本发明能够根据三维环境场景,确定临近的车辆密度,从而判断出实时的交通状态。
[0197]
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精
神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献