CN114670840A - 死角推测装置、车辆行驶系统、死角推测方法 - Google Patents
死角推测装置、车辆行驶系统、死角推测方法 Download PDFInfo
- Publication number
- CN114670840A CN114670840A CN202111508335.0A CN202111508335A CN114670840A CN 114670840 A CN114670840 A CN 114670840A CN 202111508335 A CN202111508335 A CN 202111508335A CN 114670840 A CN114670840 A CN 114670840A
- Authority
- CN
- China
- Prior art keywords
- region
- dead
- dead angle
- angle
- autonomous vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 13
- 238000001514 detection method Methods 0.000 claims abstract description 30
- 230000004927 fusion Effects 0.000 description 55
- 102100030800 Ras suppressor protein 1 Human genes 0.000 description 42
- 101000636109 Homo sapiens Ras suppressor protein 1 Proteins 0.000 description 36
- 238000010586 diagram Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 11
- 238000005259 measurement Methods 0.000 description 11
- 101710102668 Ras suppressor protein 1 Proteins 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000007499 fusion processing Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000010354 integration Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000012806 monitoring device Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3461—Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/3867—Geometry of map features, e.g. shape points, polygons or for simplified maps
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3885—Transmission of map data to client devices; Reception of map data by client devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3885—Transmission of map data to client devices; Reception of map data by client devices
- G01C21/3893—Transmission of map data from distributed sources, e.g. from roadside stations
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
- G05D1/0297—Fleet control by controlling means in a control room
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0141—Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/164—Centralised systems, e.g. external to vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Abstract
本发明的目的是提供一种例如能够推测自动驾驶中可用的死角区域以优化自动驾驶的技术。死角推测装置包括获取部和推测部。获取部基于物体信息获取物体区域。物体信息是由检测部检测到的预定区域内的物体的信息。物体区域是物体的区域。推测部基于物体区域推测死角区域。死角区域是由物体引起的检测部的死角的区域。
Description
技术领域
本公开涉及死角推测装置、车辆行驶系统和死角推测方法。
背景技术
现有的车辆行驶系统是利用设置在路边的设备即路边监视设备(RSU:Road SideUnit:路边单元),掌握预先确定的区域内的物体的位置等作为物体信息,并向区域内的自动驾驶车辆提供物体信息(例如专利文献1)。更具体地,服务器处理由RSU获取的物体信息,并将其发送到区域内的自动驾驶车辆。自动驾驶车辆考虑物体信息并决定行驶路径,并基于该行驶路径行驶。根据这样的结构,即使不具有用于检测周围环境的传感器的自动驾驶车辆也能通过自动驾驶在区域内进行行驶。
现有技术文献
专利文献
专利文献1:日本专利特开2020-37400号公报
发明内容
发明所要解决的技术问题
然而,由于RSU大多设置为从高处监视地面,因此产生了被该地面上的物体遮挡而无法检测到的区域、即由于物体而导致成为RSU的死角的区域即死角区域。从而,当障碍物存在于RSU无法掌握情况的死角区域内时,在死角区域内通行的自动驾驶车辆就有可能与障碍物发生碰撞。因此,需要能够在自动驾驶等中使用的死角区域。
因此,本公开是鉴于上述问题点而完成的,其目的在于提供一种能够推测死角区域的技术。
用于解决技术问题的技术手段
本公开所涉及的死角推测装置包括:获取部,该获取部基于由检测部检测到的预定区域内的物体的信息即物体信息来获取所述物体的区域即物体区域;以及推测部,该推测部基于所述物体区域来推测由所述物体引起的所述检测部的死角的区域即死角区域。
发明效果
根据本公开,基于由检测部检测到的预定区域内的物体的信息即物体信息,获取物体的区域即物体区域,并且基于物体区域推测由该物体引起的检测部的死角的区域即死角区域。根据这样的结构,能推测死角区域。
附图说明
图1是表示实施方式1的车辆行驶系统的图。
图2是示出实施方式1所涉及的RSU结构的框图。
图3是用来说明由于物体导致死角的产生机制和死角区域的计算方法的图。
图4是用来说明由于物体导致死角的产生机制和死角区域的计算方法的图。
图5是用于说明实施方式1所涉及的死角区域的图。
图6是表示实施方式1所涉及的RSU动作的流程图。
图7是表示从实施方式1的RSU向融合服务器(FusionServer)发送的信息的图。
图8是示出实施方式1所涉及的融合服务器的结构的框图。
图9是示出实施方式1所涉及的融合服务器的动作的流程图。
图10是用于说明实施方式1所涉及的融合服务器的区域整合的图。
图11是表示从实施方式1的融合服务器向自动驾驶车辆发送的信息的图。
图12是表示实施方式1所涉及的车辆侧控制装置的结构的框图。
图13是表示实施方式1的车辆侧控制装置的动作的流程图。
图14是用于说明实施方式1所涉及的车辆侧控制装置的动作的图。
图15是用于说明实施方式1所涉及的车辆侧控制装置的动作的图。
图16是用于说明实施方式1所涉及的车辆侧控制装置的动作的图。
图17是用于说明实施方式1所涉及的车辆侧控制装置的动作的图。
图18是用于说明实施方式1所涉及的车辆侧控制装置的动作的图。
图19是表示实施方式2的车辆行驶系统的图。
图20是示出实施方式2所涉及的路径规划服务器的结构的框图。
图21是表示从实施方式2的路径规划服务器向自动驾驶车辆发送的信息的图。
图22是示出实施方式2所涉及的路径规划服务器的动作的流程图。
图23是表示实施方式2所涉及的车辆侧控制装置的结构的框图。
图24是表示其它变形例所涉及的死角推测装置的硬件结构的框图。
图25是表示其它变形例所涉及的死角推测装置的硬件结构的框图。
具体实施方式
<实施方式1>
图1是表示实施方式1的车辆行驶系统的图。图1中的车辆行驶系统包括路边监视设备(RSU)1、融合服务器2和自动驾驶车辆3。
RSU1是死角推测装置,如后所述,生成预定区域内的物体的区域即物体区域和由该物体引起的RSU1的检测部的死角的区域即死角区域。在本实施方式1中,预先确定的区域是由RSU1生成的作为物体区域以及死角区域的生成对象的区域,即生成对象区域,但并不限于此。另外,在本实施方式1中,多个RSU1分别朝向多个方向,但并不限于此,例如也可以只设置一个RSU1。
融合服务器2基于由多个RSU1生成的物体区域和死角区域生成整合的物体区域和死角区域。自动驾驶车辆3基于由融合服务器2生成的整合的物体区域和死角区域来决定自动驾驶车辆3应该进行自动驾驶的行驶路径。自动驾驶车辆3的自动驾驶可以是AD(Autonomous Driving:自主驾驶)控制的自动驾驶,也可以是ADAS(Advanced DriverAssistance System:高级驾驶辅助系统)控制的自动驾驶。
<RSU的结构>
图2是示出实施方式1所涉及的RSU1的结构的框图。图2中的RSU1包括检测部11、一次融合部12、定位部13和通信部14。
检测部11由能够检测生成对象区域内的物体的信息即物体信息的传感器和传感器的辅助电路构成。在本实施方式1中,该传感器包括摄像头111、电波雷达112以及激光雷达113,物体信息是与摄像头111、电波雷达112以及激光雷达113的检测结果对应的信息。物体可以是移动物,也可以是静止物。
一次融合部12处理由检测部11检测到的物体信息。一次融合部12包括作为获取部的物体融合部121和作为推测部的死角计算部122。物体融合部121基于由检测部11检测到的物体信息,通过计算等获取生成对象区域内的物体的区域即物体区域。死角计算部122基于计算出的物体区域,通过计算等来推测由该物体引起的检测部11的死角的区域即死角区域。
定位部13获取RSU1的位置和RSU1的方向(例如方位)。定位部13例如由GPS、“Michibiki”等准天顶卫星、北斗、伽利略、GLONASS、NAVIC等GNSS(全球定位卫星系统)的定位模块和陀螺仪等使用惯性原理的方位测量单元构成。
通信部14向融合服务器2发送一次融合部12的物体区域和死角区域的信息以及定位部13的RSU1的位置和方向的信息。通信部14例如由通用通信设备或专用通信网络的设备构成。
图3和图4是用于说明由物体产生死角的机制和死角区域的计算方法的图。图3是从地面的水平方向观察的图,图4是从地面的竖直方向观察的图(即俯视图)。图3和图4中示出了生成对象区域内的物体6和由物体6生成的RSU1的死角7。即,图3和图4中示出了RSU1能够检测到的物体6的区域即物体区域和相对于物体6存在于RSU1的相反侧且无法被RSU1检测到的死角7的区域即死角区域。
这里,在图3中,将RSU1的设置基准点设为O,将O距地面的高度设为H,将RSU1与物体6的截面远侧顶点VA之间的距离设为LA,将O到VA的线段与水平方向形成的角度设为θA。在这种情况下,死角7的最远点A和O的地面投影O′之间的距离ra、物体6的截面远侧和RSU1的设置位置之间的沿地面的距离ra′、以及死角区域的截面的沿地面的宽度w可以分别通过使用下式(1)、(2)和(3)来计算。
[数学式1]
[数学式2]
ra’=LAcosθA…(2)
[数学式3]
在图4中,若假设物体6是四边形,则以RSU1的设置基准点O为基准,产生被该四边形的边投影到地面的边等包围的死角区域。例如,在图4的情况下,在物体6的边C’B’处产生的死角区域是区域C’B’BC,在边A’B’处产生的死角区域是区域A’B’BA。死角区域C’B’BC和死角区域A’B’BA能分别近似为四边形。因此,在图4的情况下,物体6所产生的死角区域是死角区域C’B’BC和死角区域A’B’BA叠加而得到的六边形区域A’B’C’CBA。由此,死角区域可以用物体6的顶点A’B’C’的坐标和与它们对应的点A、B、C的坐标来表示。
接着,说明点A、B、C的坐标的计算。例如,如图4所示,假设具有RSU1的设置基准点O作为原点的与地面平行的平面坐标系。点A位于设置基准点O和点A′的延长线上。当直线OA′A与x轴形成的角度为φA时,A的坐标可以用下式(4)计算,A′的坐标可以用下式(5)计算。点B、C、B′、C′的坐标也可以与点A、A′的坐标同样地计算。
[数学式4]
[数学式5]
(ra’cosφA,ra’sinφA)=(LAcosθAcosφA,LAcosθAsinφA)…(5)
如上所述,死角计算部122通过将包括物体6的各个点的LA、θA和φA的物体区域和设置基准点O距地面的高度H应用于上式(1)至(5)来推测死角区域。高度H可以是在设置RSU1时设定的固定值,也可以是由检测部11适当检测的值。
如图5所示,根据物体6相对于RSU1的物体区域的方向(例如,方位),死角区域的形状例如改变为组合了两个四边形得到的形状、以及组合了三个四边形得到的形状等。例如,在物体区域61的方向的情况下,死角区域71的形状是组合了两个四边形而获得的六边形,在物体区域62的方向的情况下,死角区域72的形状是组合了三个四边形而获得的八边形。死角计算部122能够以与六边形死角区域71相同的方式推测八边形死角区域72。
<RSU的流程图>
图6是示出本实施方式1所涉及的RSU1的动作的流程图。RSU1每隔固定时间周期执行图6所示的动作。
首先,在步骤S1中,检测部11获取各个传感器的原始数据,并且基于各个传感器的原始数据生成物体信息。例如,检测部11根据作为摄像头111的原始数据的图像信号,识别某时刻的画面中的物体6,生成物体6的位置和方向作为物体信息。检测部11生成电波雷达112和激光雷达113的原始数据的点群作为物体信息。当各个传感器的输出周期不同时,检测部11对作为各个传感器的输出的数据进行同步。
在步骤S2中,物体融合部121进行融合处理以融合由检测部11生成的物体信息,并且计算物体区域。作为融合处理,例如,使用一种在不同传感器检测相同项目的值的情况下,考虑温度、亮度等环境条件下的各传感器的可靠性的同时,优先使用可靠性高的传感器的值的公知的技术。物体融合部121不仅可以计算物体区域,而且可以计算物体6的速度和加速度等。
在本实施方式1中,在步骤S2,物体融合部121推测物体6是移动物还是静止物。即,物体融合部121推测在下一步骤S3中推测出的死角区域是由移动物引起的死角的区域还是由静止物引起的死角的区域。例如,当物体6的停止时间为阈值以下时,物体融合部121推测物体6是移动物,当物体6的停止时间大于阈值时,物体融合部121推测物体6是静止物。另外,一次融合部12的其它构成要素(例如,死角计算部122)也可以推测是由移动物引起的死角的区域还是由静止物引起的死角的区域。
在步骤S3,死角计算部122基于由物体融合部121计算出的物体区域,通过使用在图3和图4中说明的上述计算方法来计算死角区域。
在步骤S4中,通信部14向融合服务器2发送物体区域和死角区域的信息、物体6是移动物还是静止物的推测结果、以及定位部13的RSU1的位置和方向的信息。然后,图6的动作结束。
另外,上述动作由分别朝向多个方向的多个RSU1中的每一个进行。因此,多个RSU1的一次融合部12基于多个方向上的物体信息计算多个物体区域,并且多个RSU1的死角计算部122基于多个物体区域计算多个死角区域。
<RSU发送信息的说明>
图7是示出了从RSU1向融合服务器2发送的信息的图。图7的表中的各行示出了物体区域和死角区域的四边形部分中的某一个。
图7的表的第一列是由RSU1检测到的每个物体的编号,并且表示在一个RSU1内为各个物体标注的物体编号。而在死角区域中标注了作为该死角的产生源的物体的物体编号。例如,在图5中,为物体区域62标注物体编号“1”的情况下,与其对应的3个四边形死角区域72也被标注物体编号“1”。在图5中,为物体区域61标注物体编号“2”的情况下,与其对应的2个四边形死角区域71也被标注物体编号“2”。
图7的第二列表示区域的种类代码。obj_move表示移动物的物体区域,obj_stand表示静止物的物体区域。bld_move表示由移动物引起的死角区域,bld_stand表示由静止物引起的死角区域。
图7的第三列表示各区域的四边形的顶点坐标。该坐标值是各个RSU1固有的坐标系中的值。
从各个RSU1发送到融合服务器2的信息不仅包括图7的信息,而且包括定位部13的RSU1的位置和方向的信息。
<融合服务器的结构>
图8是表示本实施方式1的融合服务器2的结构的框图。图8中的融合服务器2包括接收部21、二次融合部22和发送部23。
接收部21从多个RSU1接收图7的物体区域和死角区域等。另外,接收部21通过公知的技术使多个RSU1之间进行同步。
二次融合部22处理来自多个RSU1的发送信息。二次融合部22包括坐标变换部221、整合融合部222和死角重新计算部223。坐标变换部221基于多个RSU1的位置和方向的信息,将来自多个RSU1的物体区域和死角区域的坐标系变换为统一的全局坐标系。整合融合部222对由坐标变换部221变换了坐标的来自多个RSU1的物体区域进行整合。死角重新计算部223对由坐标变换部221变换了坐标的来自多个RSU1的死角区域进行整合。
发送部23向包括整合后的物体区域和死角区域的生成对象区域内的自动驾驶车辆3发送整合后的物体区域和死角区域。由此,RSU1的物体区域和死角区域实质上被发送到生成对象区域内的自动驾驶车辆3。
<融合服务器的流程图>
图9是示出本实施方式1所涉及的融合服务器2的动作的流程图。融合服务器2每隔固定时间的周期执行图9所示的动作。
首先,在步骤S11,接收部21从多个RSU1接收图7的物体区域和死角区域。
在步骤S12中,坐标变换部221基于多个RSU1的位置和方向的信息,将来自多个RSU1的物体区域和死角区域的坐标系变换为在多个RSU1之间统一的全局坐标系。
在步骤S13中,整合融合部222对各个物体6进行将来自多个RSU1的物体区域整合的融合处理。在该融合处理中,例如,对各个物体6进行用于将来自多个RSU1的物体区域叠加的OR处理。
在步骤S14中,死角重新计算部223对各个物体6进行将来自多个RSU1的死角区域整合的融合处理。在该融合处理中,例如,对各个物体6进行用于提取多个RSU1的死角区域的公共部分的AND处理。
例如,如图10所示,设为RSU1a对于物体6生成死角区域73a,并且RSU1b对于物体6生成死角区域73b。在这种情况下,死角重新计算部223提取同一物体6的死角区域73a和73b在图10中的公共部分作为融合后的死角区域73c。该死角区域73c是对RSU1a、RSU1b均成为死角的区域。
在图9的步骤S15中,发送部23向包括整合后的物体区域和死角区域的生成对象区域内的自动驾驶车辆3发送整合后的物体区域和死角区域。然后,图9的动作结束。
<融合服务器发送信息的结构>
图11是表示从融合服务器2向自动驾驶车辆3发送的信息的图。图11的表格中的各行表示整合后的物体区域和死角区域中的一个。
图11的表格第一列表示一项标注给各个物体区域和死角区域的物体编号,而与物体和死角之间的关系无关。图11的表格第二列表示与图7的发送信息相同的种类代码。该种类代码可以包括表示静止时间比静止物更长的固定体的物体区域obj_fix、以及表示由固定体引起的死角区域bld_fix。图11的表格第三列表示与图7的发送信息相同的各区域的顶点坐标。图11的坐标值是在多个RSU1之间统一的全局坐标系中的值。在与图11中的一行对应的区域是三角形的情况下,可以在v4中填入无效值,与图11中的一行对应的区域是五边形以上的情况下,可以用五个以上的坐标来表示。
<车辆侧控制装置的结构>
图12是示出设置在自动驾驶车辆3中的车辆侧控制装置的结构的框图。图12中的车辆侧控制装置包括通信部31、定位测量部32、控制部33和驾驶部34。以下,有时将设置有车辆侧控制装置的自动驾驶车辆3记为“本车辆”。
通信部31与融合服务器2通信。由此,通信部31接收由融合服务器2整合后的物体区域和死角区域。
定位测量部32以与图2中的RSU1的定位部13相同的方式测量本车辆的位置和方向(例如,方位)。由定位测量部32测量到的本车辆的位置和方向由全局坐标系表示。
控制部33基于通信部31接收到的物体区域和死角区域来控制本车辆的行驶。控制部33包括路径生成部331和目标值生成部332。路径生成部331基于由定位测量部32测量到的本车辆的位置、目的地、物体区域、死角区域和全局坐标系的地图,生成并决定本车辆应该行驶的行驶路径。目标值生成部332生成用于使本车辆沿着由路径生成部331生成的行驶路径行驶的车速、方向盘角度等的控制目标值。
驾驶部34包括传感器341、ECU(电子控制单元)342和体系架构343。ECU342基于由传感器341检测到的本车辆周围的信息和由控制部33生成的控制目标值来对体系架构343进行驱动。
<车辆侧控制系统的流程图>
图13是示出本实施方式1所涉及的自动驾驶车辆3的车辆侧控制装置的动作的流程图。车辆侧控制装置每隔固定时间的周期执行图13所示的动作。
首先,在步骤S21中,定位测量部32测量并获取本车辆的位置和方向。
在步骤S22中,通信部31接收由融合服务器2整合后的物体区域和死角区域。
在步骤S23,路径生成部331将由定位测量部32测量到的本车辆的位置和方向、目的地、物体区域、死角区域转录并映射到全局坐标系的地图上。通过预先将所有坐标值统一为全局坐标系的值,能容易地进行步骤S23中的映射。
在步骤S24中,路径生成部331基于映射的地图生成本车辆应该行驶的行驶路径。例如,首先,如图14所示,路径生成部331根据由定位测量部32测量到的本车辆51的位置和方向,生成能够在最短时间内到达目的地52的路径作为暂定路径53。在图14的示例中,目的地52是停车框内的地点,但不限于此。路径生成部331通过在暂定路径53上反映物体区域和死角区域来生成行驶路径。以下用图15~图18对此进行说明。
如图15所示,当移动物的物体区域54存在于暂定路径53上时,路径生成部331生成用于使本车辆暂停在移动物的物体区域54跟前,并且当该物体区域从本车辆51跟前消失后再开始行驶的行驶路径。如图16所示,在暂定路径53上存在静止物的物体区域55的情况下,路径生成部331生成用于使本车辆避开静止物的物体区域55的行驶路径56。
如图17所示,当移动物的死角区域57存在于暂定路径53上时,路径生成部331生成用于使本车辆暂停在移动物的死角区域57跟前,并且当该死角区域57从本车辆51跟前消失后再开始行驶的行驶路径。如图18所示,在暂定路径53上存在静止物的死角区域58的情况下,路径生成部331生成用于避开静止物的物体区域和死角区域58的行驶路径59。
当在到达目的地之间存在多个包括物体区域和死角区域的区域时,路径生成部331针对所有区域生成满足图15至图18的条件的行驶路径作为最终的行驶路径。另外,由于是在相对于移动物的物体区域和死角区域暂停了之后,周期性地执行图13的流程图中的动作,所以随着移动物的物体区域和死角区域的移动,本车辆重新开始行驶。
在图13的步骤S25中,目标值生成部332基于由路径生成部331生成的行驶路径生成控制目标值。然后,图13的动作结束。
<实施方式1的总结>
根据上述本实施方式1,RSU1获取物体的物体区域,推测物体的死角区域。根据这样的结构,例如,自动驾驶车辆3即使不具有传感器,也能掌握在自动驾驶车辆3周围存在的物体的物体区域和死角区域。因此,自动驾驶车辆3即使不具有传感器,也能基于物体区域和死角区域来规划出抑制了与物体的碰撞和与死角区域内的障碍物的碰撞的行驶路径。此外,由于推测出死角区域是由移动物引起的死角的区域还是由静止物引起的死角的区域,所以例如自动驾驶车辆3能根据物体的种类来规划适当的行驶路径。
<变形例>
在实施方式1中,图2的RSU1的检测部11包括摄像头111、电波雷达112以及激光雷达113这3种传感器,但是为了获取必要的物体区域以及死角区域,也可以包括其他传感器。
另外,在实施方式1中,图2的一次融合部12包含在RSU1中,但并不限于此。例如,一次融合部可以包括在融合服务器2中,或者可以设置在与RSU1和融合服务器2不同的构成要素中。在这种情况下,可以从RSU1的结构中省略一次融合部12,并且可以从图6中的RSU1的流程图中省略步骤S2的物体区域计算和步骤S3的死角区域计算。
另外,在实施方式1中,作为图2的定位部13,使用了各种GNSS,但并不限于此。例如,在固定式RSU1的情况下,定位部13可以是没有搭载GNSS但存储了RSU1的位置和方向的固定定位用的存储器。该固定定位用的存储器可以组装在通信部14、一次融合部12或检测部11中。此外,为了应对由强风引起的振动等,定位部13可以包括加速度传感器和陀螺仪传感器。
<实施方式2>
图19是表示实施方式2的车辆行驶系统的图。另外,在本实施方式2所涉及的结构要素中,对与上述结构要素相同或类似的结构要素标注相同或类似的参照标号,主要对不同的结构要素进行说明。
在实施方式1中,融合服务器2向自动驾驶车辆3发送物体区域和死角区域,自动驾驶车辆3基于物体区域和死角区域生成行驶路径和控制目标值。与此相对,在本实施方式2中,作为行驶模式生成装置的路径规划服务器8基于来自多个RSU1的物体区域和死角区域,决定生成对象区域内的自动驾驶车辆9的行驶模式,并将该行驶模式发送到自动驾驶车辆9。另外,行驶模式是用于沿着实施方式1中说明的行驶路径56行驶的行驶模式,实质上与行驶路径56相同。自动驾驶车辆9基于从路径规划服务器8接收到的行驶模式生成控制目标值,并基于控制目标值行驶。自动驾驶车辆9的自动驾驶可以是AD(Autonomous Driving:自主驾驶)控制的自动驾驶,也可以是ADAS(Advanced Driver Assistance System:高级驾驶辅助系统)控制的自动驾驶。
<RSU的结构>
本实施方式2的RSU1的结构与实施方式1的RSU1的结构相同。
<路径规划服务器的结构>
图20是示出实施方式2所涉及的路径规划服务器8的结构的框图。图20中的路径规划服务器8包括接收部81、二次融合部82、车辆位置获取部83、地图数据库84、行驶模式生成部85和发送部86。
接收部81与实施方式1的接收部21相同,从多个RSU1接收发送信息等。
二次融合部82包括与实施方式1的坐标变换部221、整合融合部222以及死角重新计算部223相同的坐标变换部821、整合融合部822以及死角重新计算部823。这样构成的二次融合部82与实施方式1的二次融合部22同样,进行来自多个RSU1的物体区域的整合和来自多个RSU1的死角区域的整合。
车辆位置获取部83例如通过与生成对象区域内的各自动驾驶车辆9进行通信,从而依次获取生成对象区域内的各自动驾驶车辆9的位置、方位和目的地。地图数据库84存储生成对象区域内的全局坐标系的地图。
行驶模式生成部85进行与实施方式1的自动驾驶车辆3所具备的路径生成部331相同的处理。具体地说,行驶模式生成部85基于由车辆位置获取部83获取到的自动驾驶车辆9的位置、方位和目的地、由二次融合部82整合后的物体区域和死角区域、以及地图数据库84的地图,生成并决定自动驾驶车辆9的行驶模式。发送部86向自动驾驶车辆9发送包括时刻和目标位置的列表的行驶模式。图21是示出从路径规划服务器8发送到自动驾驶车辆9的时刻和目标位置的列表的图。目标位置由全局坐标系中的XY坐标表示。
<路径规划服务器的流程图>
图22表示本实施方式2的路径规划服务器8的动作的流程图。路径规划服务器8每隔固定时间的周期执行图22所示的动作。
从步骤S31到步骤S34,路径规划服务器8进行与从图9的步骤S11的发送信息的接收到步骤S14的死角区域的整合为止的处理相同的处理。
从步骤S35到步骤S38,路径规划服务器8进行与从图13的步骤S21中的获取本车辆的位置和方向的方位到步骤S24中的生成行驶路径为止的处理相同的处理。即,在本实施方式2中,在步骤S38中,路径规划服务器8生成与步骤S24的行驶路径相同的用于使自动驾驶车辆9沿着该行驶路径行驶的行驶模式。由此,生成用于沿着图15至18中说明的行驶路径进行行驶的行驶模式。
例如,路径规划服务器8在推测出死角区域是由于静止物引起的死角的区域时,决定用于使自动驾驶车辆9避开该死角区域的行驶模式。例如,路径规划服务器8在推测出死角区域是由于移动物引起的死角的区域时,决定用于使自动驾驶车辆9停在死角区域跟前,并且当该死角区域从自动驾驶车辆9跟前消失后再开始行驶的行驶模式。
在步骤S39中,路径规划服务器8向自动驾驶车辆9发送行驶模式。然后,图22的动作结束。
<自动驾驶汽车的结构>
图23是示出设置在自动驾驶车辆9中的车辆侧控制装置的结构的框图。图23中的车辆侧控制装置包括通信部91、定位测量部92、控制值生成部93和驾驶部94。
通信部91与路径规划服务器8通信。由此,通信部91接收由路径规划服务器8生成的行驶模式。定位测量部92与实施方式1的定位测量部32同样地测量本车辆的位置和方向。
控制值生成部93基于由通信部91接收到的行驶模式和由定位测量部92测量到的本车辆的位置和方位,生成车速、方向盘角度等的控制目标值。
驾驶部94包括传感器941、ECU942和体系架构943。ECU942基于由传感器941检测到的本车辆周围的信息和由控制值生成部93生成的控制目标值来驱动体系架构943。
<实施方式2的总结>
根据以上的本实施方式2,路径规划服务器8能够掌握存在于各自动驾驶车辆9周围的物体的物体区域以及死角区域。因此,即使自动驾驶车辆9不包括传感器和路径生成部,路径规划服务器8也能基于物体区域和死角区域来规划出抑制了自动驾驶车辆9与物体等碰撞的行驶模式。此外,由于推测出死角区域是由移动物引起的死角的区域还是由静止物引起的死角的区域,所以例如自动驾驶车辆9能根据物体的种类来规划适当的行驶路径。
<其它变形例>
下文中,将在图2中分别作为物体融合部121和死角计算部122来说明的获取部和推测部记为“获取部等”。获取部等由图24所示的处理电路101实现。即,处理电路101包括:获取部,其基于由检测部检测到的预定区域内的物体的信息即物体信息来获取物体的区域即物体区域;以及推测部,其基于物体区域来推测由物体引起的检测部的死角的区域即死角区域。处理电路101可以适用专用的硬件,也可以适用执行存储器中所存储的程序的处理器。处理器例如可以是中央处理装置、处理装置、运算装置、微处理器、微机、DSP(DigitalSignal Processor:数字信号处理器)等。
在处理电路101为专用硬件的情况下,处理电路101例如可以是单一电路、复合电路、编程处理器、并联编程处理器、ASIC(Application Specific Integrated Circuit:专用集成电路)、FPGA(Field-Programmable Gate Array:现场可编程门阵列)或它们的组合。获取部等各部分的功能可以分别由使处理电路分散而得的电路来实现,也可以将各部的功能汇总而由一个处理电路来实现。
在处理电路101为处理器的情况下,获取部等的功能通过与软件等的组合来实现。另外,软件等例如可以是软件、固件、或软件和固件。软件等以程序的形式来表述,并存储在存储器中。如图25所示,适用于处理电路101的处理器102读取存储在存储器103中的程序并执行,由此来实现各部分的功能。即,死角推测装置包括存储器103,其用于存储结果是执行以下步骤的程序:当由处理电路101执行时,基于由检测部检测到的预定区域内的物体的信息即物体信息,获取物体的区域即物体区域的步骤;以及基于物体区域推测由物体引起的检测部的死角的区域即死角区域的步骤。换言之,该程序也可认为是使计算机执行获取部等的步骤、方法的程序。这里,存储器103例如可以是RAM(Random Access Memory:随机存取存储器)、ROM(Read Only Memory:只读存储器)、闪存、EPROM(Erasable ProgrammableRead Only Memory:可擦除可编程只读存储器)、EEPROM(Electrically ErasableProgrammable Read Only Memory:电可擦可编程只读存储器)等非易失性或易失性的半导体存储器、以及HDD(Hard Disk Drive:硬盘驱动器)、磁盘、软盘、光盘、压缩磁盘、小型磁盘、DVD(Digital Versatile Disc:数字通用盘)及其驱动装置等、或者今后使用的所有存储介质。
以上,说明了获取部等的各功能由硬件及软件等中的任意一方来实现的结构。然而并不限于此,也可以是利用专用的硬件来实现获取部等的一部分、并利用软件等来实现另外一部分的结构。例如,对于获取部,可利用作为专用的硬件的处理电路101、接口及接收器等来实现其功能,除此以外,可通过由作为处理器102的处理电路101读取存储于存储器103的程序并执行来实现其功能。
如上所述,处理电路101可以利用硬件、软件等或它们的组合来实现上述各种功能。
另外,能够自由地组合各实施方式及各变形例,适当地变形、省略各实施方式及各变形例。
标号说明
1 RSU,3、9自动驾驶车辆,6物体,7死角,8路径规划服务器,11检测部,56行驶路径,61、62物体区域,71、72死角区域,121物体融合部,122死角计算部。
Claims (14)
1.一种死角推测装置,其特征在于,包括:
获取部,该获取部基于由检测部检测到的预定区域内的物体的信息即物体信息来获取所述物体的区域即物体区域;以及
推测部,该推测部基于所述物体区域来推测由所述物体引起的所述检测部的死角的区域即死角区域。
2.如权利要求1所述的死角推测装置,其特征在于,
所述获取部基于多个方向上的所述物体信息来获取多个物体区域,
所述推测部基于多个所述物体区域来推测多个死角区域,
并提取多个所述死角区域的公共部分。
3.如权利要求1或2所述的死角推测装置,其特征在于,
所述物体包括移动物和静止物,
所述死角推测装置推测所述死角区域是由所述移动物引起的所述死角的区域还是由所述静止物引起的所述死角的区域。
4.如权利要求1或2所述的死角推测装置,其特征在于,
将所述物体区域和所述死角区域发送到所述预定区域内的自动驾驶车辆。
5.如权利要求3所述的死角推测装置,其特征在于,
将所述物体区域和所述死角区域发送到所述预定区域内的自动驾驶车辆。
6.一种车辆行驶系统,其特征在于,包括:
如权利要求4所述的死角推测装置;以及
所述自动驾驶车辆,
所述自动驾驶车辆基于所述物体区域和所述死角区域来决定所述自动驾驶车辆的行驶路径。
7.一种车辆行驶系统,其特征在于,包括:
如权利要求5所述的死角推测装置;以及
所述自动驾驶车辆,
所述自动驾驶车辆基于所述物体区域和所述死角区域来决定所述自动驾驶车辆的行驶路径。
8.如权利要求7所述的车辆行驶系统,其特征在于,
所述自动驾驶车辆在所述死角区域被推测为由所述静止物引起的所述死角的区域的情况下,决定用于避开所述死角区域的所述行驶路径。
9.如权利要求7所述的车辆行驶系统,其特征在于,
所述自动驾驶车辆在所述死角区域被推测为由所述移动物引起的所述死角的区域的情况下,决定用于使所述自动驾驶车辆停在所述行驶路径上的所述死角区域跟前,并且在该死角区域从所述自动驾驶车辆跟前消失后再开始行驶的所述行驶路径。
10.一种车辆行驶系统,其特征在于,包括:
如权利要求1或2所述的死角推测装置;
基于行驶模式行驶的自动驾驶车辆;以及
行驶模式生成装置,该行驶模式生成装置基于所述物体区域和所述死角区域来决定在所述预定区域内的所述自动驾驶车辆的所述行驶模式。
11.一种车辆行驶系统,其特征在于,包括:
如权利要求3所述的死角推测装置;
基于行驶模式行驶的自动驾驶车辆;以及
行驶模式生成装置,该行驶模式生成装置基于所述物体区域和所述死角区域来决定在所述预定区域内的所述自动驾驶车辆的所述行驶模式。
12.如权利要求11所述的车辆行驶系统,其特征在于,
所述行驶模式生成装置在所述死角区域被推测为由所述静止物引起的所述死角的区域的情况下,决定用于使所述自动驾驶车辆避开所述死角区域的所述行驶模式。
13.如权利要求11所述的车辆行驶系统,其特征在于,
所述行驶模式生成装置在所述死角区域被推测为由所述移动物引起的所述死角的区域的情况下,决定用于使所述自动驾驶车辆停在所述死角区域跟前,并且在该死角区域从所述自动驾驶车辆跟前消失后再开始行驶的所述行驶模式。
14.一种死角推测方法,其特征在于,
基于由检测部检测到的预定区域内的物体的信息即物体信息来获取所述物体的区域即物体区域,
基于所述物体区域来推测由所述物体引起的所述检测部的死角的区域即死角区域。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020214993A JP7166325B2 (ja) | 2020-12-24 | 2020-12-24 | 車両走行システム、死角推定方法 |
JP2020-214993 | 2020-12-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114670840A true CN114670840A (zh) | 2022-06-28 |
Family
ID=81972301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111508335.0A Pending CN114670840A (zh) | 2020-12-24 | 2021-12-10 | 死角推测装置、车辆行驶系统、死角推测方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220206502A1 (zh) |
JP (1) | JP7166325B2 (zh) |
CN (1) | CN114670840A (zh) |
DE (1) | DE102021211882A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024060575A1 (zh) * | 2022-09-19 | 2024-03-28 | 智道网联科技(北京)有限公司 | 路侧设备数据处理方法、装置及电子设备、存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116798272B (zh) * | 2023-08-23 | 2023-11-28 | 威海爱思特传感技术有限公司 | 基于车辆通信的道路十字路口盲区车辆预警系统及方法 |
CN117022260A (zh) * | 2023-08-29 | 2023-11-10 | 中国第一汽车股份有限公司 | 安全驾驶辅助方法、装置、电子设备和存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011248870A (ja) | 2010-04-27 | 2011-12-08 | Denso Corp | 死角領域検出装置、死角領域検出プログラム、および死角領域検出方法 |
US10993688B2 (en) * | 2015-12-15 | 2021-05-04 | Koninklijke Philips N.V. | Method of data processing for computed tomography |
CA3060925A1 (en) * | 2017-04-19 | 2019-10-18 | Nissan Motor Co., Ltd. | Traveling assistance method and traveling assistance device |
JP2018193535A (ja) | 2017-05-16 | 2018-12-06 | 株式会社ブリヂストン | タイヤ |
JP7128625B2 (ja) | 2017-05-18 | 2022-08-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 車両システム、車両情報処理方法、プログラム、交通システム、インフラシステムおよびインフラ情報処理方法 |
CN110874945A (zh) | 2018-08-31 | 2020-03-10 | 百度在线网络技术(北京)有限公司 | 基于车路协同的路侧感知系统及其车辆控制方法 |
-
2020
- 2020-12-24 JP JP2020214993A patent/JP7166325B2/ja active Active
-
2021
- 2021-10-20 US US17/505,884 patent/US20220206502A1/en active Pending
- 2021-10-21 DE DE102021211882.8A patent/DE102021211882A1/de active Pending
- 2021-12-10 CN CN202111508335.0A patent/CN114670840A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024060575A1 (zh) * | 2022-09-19 | 2024-03-28 | 智道网联科技(北京)有限公司 | 路侧设备数据处理方法、装置及电子设备、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20220206502A1 (en) | 2022-06-30 |
DE102021211882A1 (de) | 2022-06-30 |
JP7166325B2 (ja) | 2022-11-07 |
JP2022100793A (ja) | 2022-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106289275B (zh) | 用于改进定位精度的单元和方法 | |
JP4724043B2 (ja) | 対象物認識装置 | |
US8140266B2 (en) | Vehicle positioning information updating system | |
US8775063B2 (en) | System and method of lane path estimation using sensor fusion | |
JP4370869B2 (ja) | 地図データ更新方法および地図データ更新装置 | |
CN114670840A (zh) | 死角推测装置、车辆行驶系统、死角推测方法 | |
US20100121518A1 (en) | Map enhanced positioning sensor system | |
JP2018155732A (ja) | 自己位置推定装置 | |
US10369993B2 (en) | Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free | |
KR20220033477A (ko) | 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법 | |
WO2015129175A1 (ja) | 自動運転装置 | |
JP2007178182A (ja) | 自車位置判定装置 | |
WO2018168961A1 (ja) | 自己位置推定装置 | |
US20200265245A1 (en) | Method and system for automatic generation of lane centerline | |
JP6943127B2 (ja) | 位置補正方法、車両制御方法及び位置補正装置 | |
US11287281B2 (en) | Analysis of localization errors in a mobile object | |
CN114694111A (zh) | 车辆定位 | |
JP2018067034A (ja) | 移動体制御装置、移動体制御方法、および、移動体制御装置用プログラム | |
JP6790951B2 (ja) | 地図情報学習方法及び地図情報学習装置 | |
WO2021033312A1 (ja) | 情報出力装置、自動運転装置、及び、情報出力方法 | |
JP6996882B2 (ja) | 自動運転支援システム、自動運転支援方法、及び自動運転用のデータの地図データ構造 | |
Kim et al. | High accurate affordable car navigation using built-in sensory data and images acquired from a front view camera | |
JP7031748B2 (ja) | 自己位置推定方法及び自己位置推定装置 | |
US10818182B2 (en) | System and method for controlling utility vehicles | |
WO2020248209A1 (en) | 3d odometry in 6d space with roadmodel 2d manifold |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |