CN109416884A - 识别区域推定装置、识别区域推定方法及识别区域推定程序 - Google Patents
识别区域推定装置、识别区域推定方法及识别区域推定程序 Download PDFInfo
- Publication number
- CN109416884A CN109416884A CN201680087180.9A CN201680087180A CN109416884A CN 109416884 A CN109416884 A CN 109416884A CN 201680087180 A CN201680087180 A CN 201680087180A CN 109416884 A CN109416884 A CN 109416884A
- Authority
- CN
- China
- Prior art keywords
- identification region
- viewing area
- calculation part
- moving body
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 11
- 238000004364 calculation method Methods 0.000 claims abstract description 177
- 230000000007 visual effect Effects 0.000 claims abstract description 91
- 238000005259 measurement Methods 0.000 claims description 91
- 238000012544 monitoring process Methods 0.000 claims description 48
- 230000002093 peripheral effect Effects 0.000 claims description 43
- 230000004888 barrier function Effects 0.000 claims description 12
- 241000222712 Kinetoplastida Species 0.000 claims description 2
- 238000004088 simulation Methods 0.000 claims 1
- 210000003128 head Anatomy 0.000 description 47
- 238000012545 processing Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 18
- 230000000694 effects Effects 0.000 description 10
- 230000015654 memory Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 230000001711 saccadic effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 238000005096 rolling process Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000037237 body shape Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 208000002173 dizziness Diseases 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/02—Rear-view mirror arrangements
- B60R1/06—Rear-view mirror arrangements mounted on vehicle exterior
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/12—Mirror assemblies combined with other articles, e.g. clocks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/12—Mirror assemblies combined with other articles, e.g. clocks
- B60R2001/1253—Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/202—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/802—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8093—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明的识别区域推定装置(100)包括:基于驾驶员的视线方向计算以移动体为基准的移动体坐标系中移动体的驾驶员所观察的观察区域的观察区域计算部(101);以及基于观察区域计算部(101)计算出的观察区域来计算移动体坐标系中驾驶员所识别的识别区域的识别区域计算部(104)。
Description
技术领域
本发明涉及推定汽车等移动体中的驾驶员的周围识别状况的识别区域推定装置、识别区域推定方法及识别区域推定程序。
背景技术
在汽车等中,由于近年来驾驶辅助功能的普及,雷达及摄像头等对本车的周围进行监视的传感器类的普及正不断推进。此外,考虑到在不久的将来自动驾驶功能的高度化和普及的不断推进,可认为对本车的周围进行监视的传感器类今后将在质和量这两个方面不断地充实化。
另一方面,在完全的自动驾驶状态以外的情况下,可期待驾驶员与车辆协同地来进行驾驶行为。因此,在驾驶辅助功能及自动驾驶功能中,期望对驾驶员的周围识别状况进行推定,并协同地灵活运用该驾驶员的周围识别状况和车辆的周围识别状况。
例如,在车辆在交叉路口内暂时停止来等待横穿者的状况下,对本车的周围进行监视的传感器类在检测出横穿者接近本车时,一般逐一地由车辆向驾驶员警告这种状况,该操作非常繁琐,反而会阻碍驾驶员的集中。然而,假设在驾驶员没有注意到横穿者的接近的情况下,通过向驾驶员发出警告促使其注意,从而能够有助于安全驾驶。此外,作为其他示例,在半自动驾驶状态的车辆中,即使在车辆的控制为自动化的情况下,也要求处于驾驶员掌握周围的状况并能够立即进行应对的状态,因此,在判断为驾驶员怠于进行周围的识别的情况下,车辆需要停止自动驾驶。
作为用于推定移动体中的驾驶员的周围识别状况的现有技术,例如有专利文献1所记载的技术。专利文献1中,公开了通过将从驾驶员的视线方向推定得到的视野重叠在地图上来推定驾驶员的车辆周围的观察区域的方法。
现有技术文献
专利文献
专利文献1:日本专利特开2010-179713号公报
发明内容
发明所要解决的技术问题
专利文献1所涉及的视野推定装置中,使用GPS(Global Positioning System:全球定位系统)等信息,将从驾驶员的观察方向推定得到的视野投影到固定在地图空间上的坐标系(以下,称为地图坐标系)。GPS具有如下特性:例如在隧道或高楼之间等电波状况较差的情况下,本车位置测量的精度将下降或无法进行测量。驾驶员的周围识别状况的推定精度取决于基于GPS的本车位置测量的鲁棒性,因此,在无法获得地图坐标系中的准确的本车位置的状况下,难以进行驾驶员的周围识别状况的推定。
此外,专利文献1中,搭载于车辆的传感器类在以本车为中心的坐标系(以下,称为本车坐标系)中对周围进行监视。因此,在搭载于车辆的传感器类和专利文献1所涉及的视野推定装置协同地对驾驶员的周围识别状况进行推定时,需要根据地图坐标系内的本车的位置和姿态,将固定在地图空间上的地图坐标系上推定得到的驾驶员的周边识别状况变换成本车坐标系。因此,会产生用于进行坐标变换的计算成本。
由此,在用于对移动体中的驾驶员的周围识别状况进行推定的现有技术中,由于视野推定装置与搭载于移动体的传感器类的协同动作并不容易,因此,存在无法高效地进行驾驶员的周围识别状况的推定的问题。
本发明是为了解决上述问题而完成的,其目的在于使与搭载于移动体的传感器类之间的协同动作变得容易。
解决技术问题所采用的技术方案
本发明所涉及的识别区域推定装置包括:观察区域计算部,该观察区域计算部基于驾驶员的视线方向计算以移动体为基准的移动体坐标系中移动体的驾驶员所观察的观察区域;以及识别区域计算部,该识别区域计算部基于观察区域计算部计算出的观察区域来计算移动体坐标系中驾驶员所识别的识别区域。
发明效果
根据本发明,由于对以移动体为基准的移动体坐标系中的观察区域和识别区域进行计算,因此,与搭载于移动体的传感器类的协同动作变得容易。由此,能够高效地进行驾驶员的周围识别状况的推定。
附图说明
图1是表示本发明实施方式1所涉及的识别区域推定装置的结构例的功能框图。
图2是说明实施方式1所涉及的识别区域推定装置中的移动体坐标系的图。
图3是实施方式1所涉及的识别区域推定装置的硬件结构图。
图4是表示实施方式1所涉及的识别区域推定装置的动作的流程图。
图5是表示图4的步骤ST100中的观察区域计算部的动作的详细内容的流程图。
图6是表示图4的步骤ST200中的识别区域计算部的动作的详细内容的流程图。
图7是表示图4的步骤ST300中的驾驶状态判定部的动作的详细内容的流程图。
图8A、图8B、图8C和图8D是说明识别区域计算部计算出的识别区域的图。
图9是表示本发明实施方式5所涉及的识别区域推定装置的结构例的功能框图。
图10是表示实施方式5所涉及的识别区域推定装置的动作的流程图。
图11是表示图10的步骤ST500中的虚拟轨迹计算部的动作的详细内容的流程图。
图12是表示本发明的实施方式6所涉及的识别区域推定装置的结构例的功能框图。
具体实施方式
下面,为了更详细地说明本发明,根据附图对用于实施本发明的方式进行说明。
实施方式1.
图1是表示本发明的实施方式1所涉及的识别区域推定装置100的结构例的功能框图。识别区域推定装置100搭载于移动体,用于对移动体的驾驶员所识别的移动体周围的状况进行推定。在下述的说明中,列举车辆为例来作为移动体,但也可以是铁路、船舶或航空器等。
图1所示的识别区域推定装置100包括观察区域计算部101、镜类管理部102、遮蔽物管理部103、识别区域计算部104、识别区域记录部105、驾驶状态判定部106、驾驶辅助信息提示部107、视线方向测量部111、头部位置测量部112、移动量测量部113以及周围状况监视部121。另外,如下文详细阐述的那样,识别区域推定装置100中所必须的结构是观察区域计算部101和识别区域计算部104,识别区域推定装置100可以具备其它的结构,也可以不具备其它的结构。
图2是说明以移动体为基准的移动体坐标系的图。作为移动体坐标系内的坐标轴,将以铅直上方为正的轴称为Z轴,将与Z轴正交的平面内以移动体的前方为正的轴称为Y轴,将作为该平面内与Y轴正交的轴且以右方向为正的轴称为X轴。此外,将环绕X轴的旋转称为俯仰(Pitch)、环绕Y轴的旋转称为滚转(Roll)、环绕Z轴的旋转称为偏转(Yaw),任意的旋转均将相对于转轴的正方向的右螺纹旋转的方向作为正。此外,移动体坐标系的原点O设为相对于移动体相对固定的任意的点。
另外,在实施方式1中,为了简化说明,作为最小的结构,对仅使用了X轴、Y轴和偏转这三轴的实施方式进行了记载。可以明确的是,利用与该实施方式相同的结构,能够实现由其它的轴的组合构成的实施方式、以及使用了X轴、Y轴、Z轴、俯仰、滚转及偏转的最大六轴的实施方式。
图3是实施方式1所涉及的识别区域推定装置100的硬件结构图的一个示例。
识别区域推定装置100的视线方向测量部111、头部位置测量部112、移动量测量部113、以及周围状况监视部121是传感器类3。传感器类3是摄像头、加速度传感器、陀螺仪、或者雷达等。传感器类3可以由识别区域推定装置100所具备,也可以利用搭载于车辆的已有的设备。
识别区域推定装置100中的驾驶辅助信息提示部107是显示器4或扬声器5中的至少一方。显示器4及扬声器5可以由识别区域推定装置100所具备,也可以利用搭载于车辆的已有的设备。
识别区域推定装置100中的镜类管理部102、遮蔽物管理部103以及识别区域记录部105是存储器2。
识别区域推定装置100中的观察区域计算部101、识别区域计算部104以及驾驶状态判定部106的各功能通过软件、固件、或软件和固件的组合来实现。软件或固件以程序的形式来记述,并存储于存储器2。处理器1读取存储于存储器2的程序并执行,从而实现各部分的功能。即,识别区域推定装置100包括存储器2,该存储器2用于保存在由处理器1执行时最终执行后述的图4所示的各步骤的程序。此外,也可认为程序是使计算机执行观察区域计算部101、识别区域计算部104、以及驾驶状态判定部106的步骤或方法的程序。
处理器1可以是CPU(Central Processing Unit:中央处理单元)、处理装置、运算装置、微处理器、微型计算机、或者DSP(Digital Signal Processor:数字信号处理)等。
存储器2例如可以是RAM(Random Access Memory:随机存取存储器)、ROM(Read OnlyMemory:只读存储器)、EPROM(Erasable Programmable ROM:可擦写可编程只读存储器)、闪存、SSD(Solid State Drive:固态硬盘)等非易失性或易失性的半导体存储器,可以是硬盘、软盘等磁盘,还可以是CD(Compact Disc:高密度磁盘)、DVD(Digital Versatile Disc:数字多功能光盘)等光盘。
另外,关于观察区域计算部101、识别区域计算部104、以及驾驶状态判定部106的各功能,也可以利用专用的硬件来实现一部分,利用软件或固件来实现一部分。专用的硬件是指例如单一电路、复合电路、程序化处理器、并行程序化处理器、ASIC(Application-Specific Integrated Circuit:专用集成电路)、FPGA(Field-Programmable Gate Array:现场可编程门阵列)、或者组合它们而得的处理电路等。由此,识别区域推定装置100能够通过硬件、软件、固件、或它们的组合来实现观察区域计算部101、识别区域计算部104、以及驾驶状态判定部106的各功能。
接着,对识别区域推定装置100的详细内容进行说明。
视线方向测量部11从监视移动体即车辆的驾驶员的摄像头获取摄像头图像。接着,视线方向测量部111利用根据摄像头图像推定驾驶员的视线方向的已知的技术等,来测量移动体坐标系中驾驶员的视线方向。这里,视线方向设为以移动体坐标系中的Y轴的正方向作为原点,至少测量偏转方向的视线方向。此外,对于用于判别驾驶员眼皮的开闭状态等观察状态的信息也希望一并进行测量。视线方向测量部111将测量得到的视线方向的信息输出给观察区域计算部101。
头部位置测量部112从监视驾驶员的摄像头获取摄像头图像。接着,头部位置测量部112利用根据摄像头图像推定驾驶员的头部位置的已知的技术等,来测量移动体坐标系中驾驶员的头部位置。这里,头部位置设为测量移动体坐标系中的X、Y、Z各轴中的位置。另外,头部位置测量部112优选测量每时每刻的头部位置,但也可以简单地使用根据驾驶员的头枕的位置或事先设定的驾驶员属性等设想得到的静态值。例如,头部位置测量部112可以使用车辆设计时所设想的标准的头部位置、或者根据座面位置或靠背的角度等计算出的头部位置。并且,头部位置测量部112可以事先按每个驾驶员来记录身高等体型信息,并基于乘车中的驾驶员的体型信息来推定头部位置。头部位置测量部112将测量得到的头部位置的信息输出给观察区域计算部101。
移动量测量部113从加速度传感器或陀螺仪传感器等获取加速度或速度等惯性信息。移动量测量部113根据获取到的惯性信息来测量移动体坐标系中车辆的每单位时间的移动量。这里,移动量设为测量移动体坐标系中向X、Y、Z方向的移动量、以及环绕偏转、俯仰及滚转三轴的旋转量中的至少X、Y及偏转总计三轴得到的量。另外,移动量测量部113可以使用GPS等车外系统取代加速度传感器或陀螺仪传感器等,由此来测量移动体坐标系中车辆的每单位时间的移动量。观察区域和识别区域的推定所需的移动体的位置信息仅为车辆的每单位时间的相对移动量。因此,移动量测量部113用于移动量测量的位置信息无论是由GPS等测量得到的地图坐标系的位置信息,还是由加速度传感器等测量得到的移动体坐标系的位置信息,由于每单位时间的差分量即移动量是相同的值,因此,不需要坐标变换,不会产生计算成本。然而,与GPS相比,加速度传感器等的鲁棒性较好,是优选的。移动量测量部113将测量得到的移动量的信息输出给识别区域计算部104。
另外,图1中,采用由识别区域推定装置100的视线方向测量部111、头部位置测量部112及移动量测量部113测量视线方向、头部位置及移动量的结构,但并不限于该结构。例如,识别区域推定装置100也可以构成为不具备视线方向测量部111、头部位置测量部112及移动量测量部113,而获取由外部装置测量得到的视线方向、头部位置及移动量。
周围状况监视部121从雷达或摄像头等获取检测值。周围状况监视部121基于检测值来检测车辆周围的障碍物或危险物等,并作为表示车辆周围的状况的信息输出给观察区域计算部101和驾驶状态判定部106。并且,周围状况监视部121还可以一并测量亮度或天气等会给观察状态带来影响的信息,并将该信息也包含在表示车辆周围的状况的信息内来输出给观察区域计算部101和驾驶状态判定部106。
另外,图1中,采用识别区域推定装置100具备周围状况监视部121的结构,但并非一定要具备该功能部。
观察区域计算部101使用从视线方向测量部111接收的视线方向的信息,计算移动体坐标系中的观察区域。观察区域是推测为驾驶员正在进行观察的车辆周围的区域。观察区域计算部101在观察区域的计算中,根据需要使用从头部位置测量部112接收的头部位置的信息、镜类管理部102所管理的镜类的信息、遮蔽物管理部103管理的遮蔽物的信息、以及从周围状况监视部121接收的表示车辆周围的状况的信息。观察区域计算部101将观察区域的信息输出给识别区域计算部104。
镜类管理部102对搭载于车辆的镜类的信息进行管理。这里,镜类是侧视镜和后视镜等物理镜类、以及摄像头监控画面等电子镜类。镜类管理部102对移动体坐标系中的表示这些镜类的设置位置和形状等的信息、以及这些镜类所投影的投影区域的信息进行管理。投影区域优选设为移动体坐标系中镜类所投影的代表性的观察区域。例如,若为物理镜类,则将驾驶员注视在标准状态下设置的物理镜的中央部时所获得的观察区域设为投影区域。此外,若为电子镜类,则按电子镜的显示模式,将注视中央部时所获得的观察区域设为投影区域。电子镜的显示模式是指例如视场角较广的广角模式、以及视场角较窄的望远模式等,根据显示模式的不同,投影至电子镜的区域发生改变。镜类管理部102将镜类的信息输出给观察区域计算部101。
遮蔽物管理部103对搭载于车辆的遮蔽物的信息进行管理。这里,遮蔽物是支柱和引擎盖等遮挡驾驶员的视野的物体。遮蔽物管理部103对表示移动体坐标系中这些遮蔽物的设置位置和形状等的信息进行管理。遮蔽物管理部103将遮蔽物的信息输出给观察区域计算部101。
另外,图1中,采用识别区域推定装置100具备镜类管理部102和遮蔽物管理部103的结构,但并非一定要具备这些功能部。
识别区域计算部104使用从移动量测量部113接收的移动量的信息、从观察区域计算部101接收的观察区域的信息、以及识别区域记录部105所记录的过去的识别区域的信息,来计算移动体坐标系中的最新的识别区域。识别区域是推测为驾驶员正在进行识别的车辆周围的区域。识别区域计算部104将识别区域的信息输出给识别区域记录部105。
识别区域记录部105记录从识别区域计算部104接收的识别区域的信息。此外,识别区域记录部105将所记录的识别区域的信息输出给识别区域计算部104和驾驶状态判定部106。
驾驶状态判定部106使用识别区域记录部105所记录的识别区域的信息、以及从周围状况监视部121接收的表示车辆周围的状况的信息,来判定车辆的驾驶状态。驾驶状态判定部106将驾驶状态的信息输出给驾驶辅助信息提示部107。
驾驶辅助信息提示部107使用从驾驶状态判定部106接收的驾驶状态的信息,生成用于唤起驾驶员注意的信息、或者用于辅助驾驶员驾驶的信息,并对这些信息进行提示。信息的提示方法为在显示器4中进行显示或者从扬声器5输出声音等。
另外,图1中,采用识别区域推定装置100具备驾驶状态判定部106和驾驶辅助信息提示部107的结构,但并非一定要具备这些功能部。尤其在车辆等中,有时利用驾驶辅助装置或自动驾驶装置等已知的手段,就能够提供驾驶状态判定部106和驾驶辅助信息提示部107的功能。因此,识别区域推定装置100可以采用不具备驾驶状态判定部106和驾驶辅助信息提示部107,而利用外部装置即驾驶辅助装置等的结构。
接着,对识别区域推定装置100的动作进行说明。
图4是表示实施方式1所涉及的识别区域推定装置100的动作的流程图。
步骤ST100是计算观察区域的处理。在步骤ST100中,观察区域计算部101计算观察区域。图5是表示步骤ST100中的观察区域计算部101的动作的详细内容的流程图。
步骤ST200是计算识别区域的处理。在步骤ST200中,识别区域计算部104计算识别区域。图6是表示步骤ST200中的识别区域计算部104的动作的详细内容的流程图。
步骤ST300是判定驾驶状态的处理。在步骤ST300中,驾驶状态判定部106判定驾驶状态。图7是表示步骤ST300中的驾驶状态判定部106的动作的详细内容的流程图。
识别区域推定装置100可以将步骤ST100、ST200、ST300的各处理作为一系列处理来同步地加以执行,也可以根据传感器类3的测量周期或各处理的执行周期来非同步地加以执行。
接着,参照图5对图4所示的步骤ST100的观察区域计算处理的详细内容进行说明。
在步骤ST101中,观察区域计算部101根据从视线方向测量部111接收到的视线方向的信息,来检测出扫视运动。观察区域计算部101在检测出扫视运动的情况下判定为驾驶员不处于观察状态,在除此以外的情况下判定为驾驶员处于观察状态。这是鉴于在扫视运动中视野内的状态不被识别这样的已知知识而得到的判定。扫视运动是眼球高速地进行移动的现象,可以简单地将上一次执行步骤ST100时的视线方向与本次执行步骤ST100时的视线方向的差分超过了预先确定的阈值的情况判定为扫视运动。此外,在视线方向测量部111中,在获得有助于眼皮的开闭状态等观察状态的判定的附加信息的情况下,观察区域计算部101可以使用这些附加信息来进行观察状态的判定。
观察区域计算部101在判定为驾驶员处于观察状态的情况下(步骤ST101“是”),前进至步骤ST102,在判定为不处于观察状态的情况下(步骤ST101“否”),结束观察区域计算处理。
在步骤ST102中,观察区域计算部101使用镜类管理部102所管理的镜类的设置位置及形状的信息、以及从头部位置测量部112接收的头部位置的信息,将镜类的设置位置及形状向与视线方向相同的坐标系进行变换,以作为相对于头部位置的相对角度。观察区域计算部101在从视线方向测量部111接收到的视线方向包含在镜类的位置和形状中的情况下,将驾驶员的观察对象判定为是该镜类(步骤ST102“是”),并前进至步骤ST104,在除此以外的情况下判定为观察对象不是镜类(步骤ST102“否”),并前进至步骤ST103。
在步骤ST103中,观察区域计算部101根据从视线方向测量部111接收到的视线方向的信息、以及从头部位置测量部112接收到的头部位置的信息,计算移动体坐标系中的观察区域。观察区域计算部101将观察区域设为以头部位置为顶点、以视线方向为中心轴、在X轴方向上扩展的扇形的区域。观察区域计算部101也可以将观察区域设为以头部位置为顶点、以视线方向为中心轴、呈椭圆锥形扩展的三维区域。并且,观察区域计算部101优选为设定越是靠近观察区域的中心轴则识别程度越高、以及越是靠近头部位置即顶点则识别程度越高这样的加权。这是鉴于与人类的视野特性相关的已有知识来构成的。
在步骤ST104中,观察区域计算部101从镜类管理部102获取步骤ST102中判定为包含视线方向的镜类的投影区域的信息。接着,观察区域计算部101基于从镜类管理部102获得的投影区域,来计算移动体坐标系中的观察区域。观察区域计算部101优选为对基于投影区域的观察区域设定与步骤ST103同样的与人类的视野特性、或者电子镜类的显示分辨率等相对应的加权。
步骤ST105中,观察区域计算部101获取遮蔽物管理部103所管理的遮蔽物的位置及形状的信息。然后,观察区域计算部101从步骤ST103或步骤ST104中计算得到的观察区域中去除驾驶员的视线被遮蔽物遮挡从而成为死角的区域。此外,观察区域计算部101优选为从周围状况监视部121接收表示车辆周围的状况的信息,并从观察区域中去除因障碍物或危险物等而成为死角的区域。
接着,参照图6及图8A~图8D对图4所示的步骤ST200的识别区域计算处理的详细内容进行说明。
步骤ST201中,识别区域计算部104从识别区域记录部105获取上一次执行步骤ST200时计算出的识别区域的信息。另外,由于在第一次执行时识别区域记录部105中未记录有识别区域的信息,因此,识别区域计算部104将识别区域整个区域全部设为0来进行初始化,并将其视为上一次执行步骤ST200时计算出的识别区域的信息。
图8A是表示初始状态下的识别区域的图。初始状态下识别区域整个区域被初始化,因此没有识别区域。图8B是表示在步骤ST201中识别区域计算部104从识别区域记录部105获得的识别区域R的图。图8B所示的识别区域R是基于识别区域记录部105所记录的过去的识别区域的信息而得到的。另外,在图8A和图8B中,实线的四边框是识别区域计算部104设为计算对象的识别区域计算范围,虚线是本车位置。本车位置是为了便于说明而进行图示的,在实际的识别区域计算处理中是不需要的。
在步骤ST202中,识别区域计算部104使用从移动量测量部113接收到的车辆的移动量的信息来更新识别区域。识别区域计算部104基于与上一次执行步骤ST200时到本次执行步骤ST200为止的期间内的移动量相当的角度和距离,通过以原点为中心使车辆旋转和平行移动来更新识别区域。这里,原点优选为与移动量测量部113所测量的测量部位相一致。更简单地,可以使用车辆的中心部或重心等作为原点。
式(1)是步骤ST202中的识别区域计算步骤的具体例。根据式(1),关于在移动体坐标系内所定义的识别区域R,将上一次的n阶的识别区域R更新为本次的n+1阶的识别区域R1。
另外,由于电子申请的关系,将拉丁字符上标注的“~”记为“(波浪线)”。
R:识别区域
n:阶数(1)
x,y:移动体坐标系内的n+1阶的坐标
θ:从n阶到n+1阶的期间的移动量的旋转分量(偏转轴)
dx,dy:从n阶到n+1阶的期间的移动量的平行移动分量(X轴、Y轴)
另外,由于作为识别区域R而被记录的区域是有限的范围,因此,x(波浪线)、y(波浪线)未必一定包含在识别区域R内。该情况下,作为x(波浪线)、y(波浪线)的值,优选使用以x(波浪线)、y(波浪线)为起点以车辆中心或驾驶员为终点的线段与识别区域R的外边缘相交的交点的值。这是鉴于识别区域的值在全局上分布为以车辆或驾驶员为中心的辐射状这样的识别区域的特性而得到的。更简单地,可以将识别区域R中距离X轴最近的点的值作为x(波浪线)、将识别区域R中距离Y轴最近的点的值作为y(波浪线)来使用。这尤其在车辆等那样向前方的移动分量比向侧方的移动分量要大的情况下,或者每单位时间的移动量足够小的情况等每单位时间的旋转量接近于0的情况下,可提供良好的近似。并且,在识别区域R相对于驾驶员的视野足够广的情况下,可以使用0作为x(波浪线)、y(波浪线)的值。
此外,识别区域R由于在时间区域中离散地被记录,因此,x(波浪线)、y(波浪线)未必一定参照识别区域R内所定义的格子点上。该情况下,优选使用根据与包含x(波浪线)、y(波浪线)的格子面的各顶点的距离来赋予加权后的加权平均值。更简单地,可以使用识别区域R中最靠近x(波浪线)、y(波浪线)的格子点的值。
图8C是表示步骤ST202中更新后的识别区域R1的图。
步骤ST203中,识别区域计算部104对步骤ST202中更新后的识别区域乘以与从上一次执行步骤ST200时起到本次执行ST200为止的经过时间相对应的遗忘率,由此来更新识别区域。识别区域的识别程度的加权随着遗忘率而下降。
式(2)是步骤ST203中的识别区域计算步骤的具体例。根据式(2),针对移动体坐标系内所定义的识别区域R1,反映与从上一次的n阶(step)起到本次的n+1阶为止的期间相对应的识别区域的遗忘率,从而将识别区域R1更新为识别区域R2。
R2(x,y,n+1):=R1(x,y,n+1)×γ′
R:识别区域
n:阶数(2)
x,y:移动体坐标系内的n+1阶的坐标
t:从n阶到n+1阶的期间的经过时间
γ:每单位时间的遗忘率
步骤ST204中,识别区域计算部104判定步骤ST100中观察区域计算部101是否计算出观察区域。识别区域计算部104在判定为观察区域计算部101中计算出了观察区域的情况下(步骤ST204“是”),前进至步骤ST205,在判定为没有计算出观察区域的情况下(步骤ST204“否”),前进至步骤ST206。
在步骤ST205中,识别区域计算部104从观察区域计算部101接收观察区域的信息,通过将所接收到的观察区域与在步骤ST203中进行了更新的识别区域相加,来更新识别区域。
式(3)是步骤ST205中的识别区域计算步骤的具体例。根据式(3),针对移动体坐标系内所定义的识别区域R2,加上同样在移动体坐标系内定义的观察区域S的n+1阶的值,由此来将识别区域R2更新为识别区域R。
R(x,y,n+1):=R2(x,y,n+1)+S(x,y,n+1)
R:识别区域
S:观察区域(3)
n:阶数
x,y:移动体坐标系内的n+1阶的坐标
图8D是表示步骤ST205中更新后的识别区域R的图。识别区域R是包含识别区域R2和观察区域S的区域。
步骤ST206中,识别区域计算部104将步骤ST203中进行更新后的识别区域、或者步骤ST205中进行更新后的识别区域输出至识别区域记录部105进行记录。
接着,参照图7对图4所示的步骤ST300的驾驶状态判定处理的详细内容进行说明。
步骤ST301中,驾驶状态判定部106从识别区域记录部105获取步骤ST200中识别区域计算部104计算得到且记录于识别区域记录部105的识别区域的信息。此外,驾驶状态判定部106从周围状况监视部121接收表示车辆周围的状况的信息,通过将车辆周围的状况与从识别区域记录部105获得的识别区域进行比较来判定驾驶状态。
式(4)是步骤ST301中的驾驶状态判定步骤的具体例。根据式(4),通过将移动体坐标系中的识别程度PR与同样在移动体坐标系中的危险程度PH相乘,来计算移动体坐标系中识别的风险程度P。
这里,识别程度PR是用0到1之间的值对上述式(3)中的识别区域R进行标准化后得到的,将驾驶员完全没有识别的情况与0相对应关联,将完全识别的情况与1相对应关联,由此来从概率上呈现驾驶员对于车辆周围的识别程度。
此外,危险程度PH是在周围状况监视部121中被判定的值。周围状况监视部121针对行人或其它车辆这样的障碍物等在驾驶时应注意的对象,基于它们与本车辆之间的距离和相对速度等,主要计算出与本车辆的接触概率等。该接触概率等从概率上呈现出关于驾驶时应注意的对象的危险程度PH。或者,周围状况监视部121也可以计算从概率上呈现出因障碍物而产生的死角或视野较差的区域等潜在的危险程度PH而得到的值。
风险程度P是识别程度与危险程度的积。因此,在识别程度较低、且危险程度较高的情况下,风险程度P成为更大的值。因此,风险程度P是表示下述内容的指标,即:风险程度P成为越大的值,则该地点的危险因素发展为事故等的可能性越高。驾驶状态判定部106使用该风险程度P作为驾驶状态。
P(x,y,n):=(1-PR(x,y,n))×PH(x,y,n)
P:车辆周围的识别风险程度
PR:基于识别区域的车辆周围的识别程度(4)
PH:基于周围状况的车辆周围的危险程度
n:阶数
x,y:移动体坐标系内的n+1阶的坐标
在步骤ST302中,驾驶状态判定部106基于步骤ST301中计算出的驾驶状态,来判定驾驶状态是否为不安全的状态。驾驶状态判定部106在表示驾驶状态的风险程度P大于预先确定的阈值的情况下判定为是不安全状态(步骤ST302“是”),并前进至步骤ST303,在除此以外的情况下(步骤ST302“否”),结束驾驶状态判定处理。
在步骤ST303中,驾驶状态判定部106将表示车辆为不安全状态的信息输出给驾驶辅助信息提示部107。驾驶辅助信息提示部107针对处于不安全状态的车辆的驾驶员生成用于唤起注意的信息,并从显示器4或扬声器5输出。此外,驾驶辅助信息提示部107生成表示消除不安全状态的方法等的驾驶辅助信息,并从显示器4或扬声器5输出。例如,作为不安全状态,在检测到从驾驶员的识别程度较低的区域接近的移动体的情况下,驾驶辅助信息提示部107向驾驶员通知移动体的接近,并促使驾驶员对移动体进行观察。此外,驾驶辅助信息提示部107向接近的移动体警告驾驶员的注意力不集中的情况,并促使其避让。并且,驾驶辅助信息提示部107在不安全状态未消除的情况下,根据车辆的周围状况,促使驾驶员采取减速等避让行动。
此外,可以构成为在搭载于本车辆的识别区域推定装置100与搭载于其它车辆的识别区域推定装置100可通过移动体通信或车车间通信等进行无线通信的情况下,从本车辆的识别区域推定装置100向其它车辆的识别区域推定装置100发送信息。例如,本车辆的识别区域推定装置100构成为:在判定为本车辆为不安全状态的情况下,向作为不安全状态的原因的其它车辆、即本车辆的驾驶员未能识别的可能性较高的其它车辆的识别区域推定装置100发送用于唤起注意的信息。该其它车辆的识别区域推定装置100将所接收到的信息提示给驾驶员。在该结构的情况下,其它车辆的驾驶员能够避让本车辆,其结果是能够降低发展为事故等的可能性。
此外,可以构成为在车辆搭载有控制制动或转向等的外部装置的情况下,从驾驶状态判定部106向外部装置输出驾驶状态的信息,由外部装置来控制车辆的加减速或转向等,从而避免不安全状态。
如上所述,实施方式1所涉及的识别区域推定装置100包括:观察区域计算部101,该观察区域计算部101基于驾驶员的视线方向计算以车辆等移动体为基准的移动体坐标系中驾驶员所观察的观察区域;以及识别区域计算部104,该识别区域计算部104基于观察区域计算部101计算出的观察区域来计算移动体坐标系中驾驶员所识别的识别区域。由于计算出移动体坐标系中的观察区域和识别区域,因此,与移动体坐标系中被管理的其它的周围监视用的传感器类3、例如周围状况监视部121之间的协同动作变得容易。由此,例如驾驶状态判定部106能够高效地进行驾驶员的周围识别状况的推定。
此外,实施方式1所涉及的识别区域推定装置100是仅对移动体坐标系中的识别区域进行管理的结构,因此,完全不需要专利文献1所涉及的视野推定装置那样的经由地图坐标系的运算。因此,能够仅使用比GPS鲁棒性高的陀螺仪等传感器类3所测量得到的惯性信息,来确定本车位置,推定识别区域。
此外,实施方式1所涉及的识别区域推定装置100构成为具备镜类管理部102,该镜类管理部102记录设置于移动体的镜类在移动体坐标系中的设置位置以及投影于镜类的投影区域。并且,观察区域计算部101构成为:在镜类管理部102所管理的镜类的设置位置包含有驾驶员的视线方向的情况下,将镜类的投影区域设为驾驶员的观察区域。由此,能够更为准确地推定观察区域和识别区域。
此外,实施方式1所涉及的识别区域推定装置100构成为包括周围状况监视部121,该周围状况监视部121在移动体坐标系中对移动体的周围进行监视并检测障碍物。并且,观察区域计算部101构成为:计算因周围状况监视部121检测出的障碍物而成为死角的死角区域,并从驾驶员的观察区域中删除死角区域。由此,能够更为准确地推定观察区域和识别区域。
此外,实施方式1所涉及的识别区域推定装置100构成为包括移动量测量部113,该移动量测量部113对移动体坐标系中的移动体的每单位时间的移动量进行测量。并且,识别区域计算部104构成为:基于移动量测量部113测量得到的每单位时间的移动量,使1单位时间前计算出的识别区域移动,对移动后的识别区域加上观察区域计算部101计算出的观察区域,由此来更新识别区域。
之前所说明的专利文献1所涉及的视野推定装置为了使驾驶员的周围识别状况的推定高效化,通过差分运算每隔单位时间对视野范围进行更新。然而,由于车辆每时每刻都在移动,要推定驾驶员的周围识别状况的区域在地图坐标系内也每时每刻发生变化,且与要推定驾驶员的周围识别状况的区域相比,车辆在非常大的区域内移动。因此,视野推定装置为了执行上述的视野范围的更新,需要设置用于在各更新步骤中确定要推定周围识别状况的区域的单元、以及用于对该区域进行管理并反映到更新处理的单元,但关于这种单元既没有公开也没有启示。在不具备上述单元的情况下,在除停车场等空间上被限定的条件下以外的情况下,实际上需要无限大的存储区域,因此,执行视野范围的更新在现实中是非常困难的。
与此相对,实施方式1所涉及的识别区域推定装置100能够通过有限的存储区域内的每单位时间的差分运算来计算出移动体坐标系中的识别区域,由此可获得能够进行移动体坐标系中高效的识别区域的推定的效果。
此外,实施方式1所涉及的识别区域推定装置100构成为包括周围状况监视部121,该周围状况监视部121在移动体坐标系中对移动体的周围进行监视并判定移动体的危险程度;以及驾驶状态判定部106,该驾驶状态判定部106使用周围状况监视部121判定得到的危险程度和识别区域计算部104计算出的识别区域来判定移动体的驾驶状态。由于危险程度和识别区域在相同的移动体坐标系中被管理,因此,能够高效地判定驾驶状态。
实施方式2.
实施方式2中,说明使实施方式1的识别区域计算处理高精度化的结构。
以下,主要对实施方式1和实施方式2的区别进行叙述。没有特别提及的内容以实施方式1为准,引用图1~图8。
观察区域的计算中,存在想要根据车辆周围的环境条件来对识别程度赋予加权的要求。例如,即使在驾驶员注视前方的情况下,白天的观察区域与夜晚的观察区域也会不同。
因此,实施方式2的识别区域推定装置100构成为根据周围的环境条件来变更观察区域。
作为表示车辆周围的状况的信息,实施方式2的周围状况监视部121除了测量车辆周围的障碍物或危险物等之外,还一并测量亮度或天气等会给驾驶员的观察状态带来影响的信息。作为会给驾驶员的观察状态带来影响的信息,周围状况监视部121可以测量驾驶员的视野是否会因例如夜晚的相向车的前照灯或白天的日光等而眩晕。并且,周围状况监视部121将车辆周围的障碍物或危险物等的信息、以及亮度或天气等会给观察状态带来影响的信息作为表示车辆周围的状况的信息输出给观察区域计算部101。
实施方式2中,在图5的步骤ST101中,观察区域计算部101不仅基于从视线方向测量部111接收的视线方向的信息来判定驾驶员的观察状态,还基于从周围状况监视部121接收的会给驾驶员的观察状态带来影响的信息来判定驾驶员的观察状态。观察区域计算部101在从周围状况监视部121接收到表示驾驶员的视野因例如夜晚的相向车的前照灯或白天的日光等而眩晕的情况的信息时,优选为即使没有检测到扫视运动也判定为不是观察状态(步骤ST101“否”)。这是鉴于与人类的视野特性相关的已有知识来构成的。
此外,实施方式2中,在图5的步骤ST103中,观察区域计算部101从周围状况监视部121接收会给驾驶员的观察状态带来影响的信息,在视野较差的环境下缩短观察区域的距离和宽度。观察区域计算部101还优选为在视野较差的环境下设定使观察区域整体的识别程度变低的加权。这是鉴于与人类的视野特性相关的已有知识来构成的。
如上所述,实施方式2所涉及的识别区域推定装置100构成为包括周围状况监视部121,该周围状况监视部121对车辆等移动体的周围进行监视,并测量会给驾驶员的观察状态带来影响的信息。并且,观察区域计算部101构成为基于周围状况监视部121的测量结果来调整观察区域内的识别程度的加权。由此,可获得能够计算出更为适当地反映了人类的视野特性的观察区域的效果。
实施方式3.
由于观察区域原本具有三维分布,因此,优选如实施方式1、2那样计算出三维空间下的观察区域。另一方面,对于存储区域和计算量,计算出二维的观察区域更为高效。因此,实施方式3中,对减少存储区域和计算量的负荷,并计算出与三维的观察区域同等的二维的观察区域的结构进行说明。
以下,主要对实施方式1和实施方式3的区别进行叙述。没有特别提及的内容以实施方式1为准,引用图1~图8。此外,在下述内容中,对实施方式3与实施方式1相组合的示例进行说明,但实施方式3也可以与实施方式2相组合。
实施方式3中,在图5的步骤ST103中,观察区域计算部101在根据从视线方向测量部111接收到的视线方向的信息计算出观察区域时,将驾驶员的头部位置的高度等假设为驾驶员的目视程度的高度,将三维空间内计算得到的观察区域投影到该高度的二维XY平面上,由此来模拟二维的观察区域。另外,作为驾驶员的目视程度的高度,不限于驾驶员的头部位置的高度,也可以是方向盘的高度程度、或者车辆的高度的宽度程度等。
此外,实施方式3中,在图5的步骤ST103中,观察区域计算部101根据从视线方向测量部111接收到的视线方向的信息中的俯仰信息,来检测视线是否与路面交叉。观察区域计算部101优选为在检测到视线与路面交叉的情况下,将二维的观察区域限定为将驾驶员到路面的距离作为观察区域的边界距离的三角形状的区域。
并且,观察区域计算部101根据从视线方向测量部111接收到的视线方向的信息中的俯仰信息,来检测视线方向是否朝向与水平面成规定角度以上的上方。规定角度是用于判定观察区域是否位于驾驶员的目视程度的高度的值,由观察区域计算部101预先确定。观察区域计算部101优选为在检测出视线方向朝向与水平面成规定角度以上的上方时,将观察区域设为没有来进行处理。
如上所述,实施方式3所涉及的识别区域推定装置100的观察区域计算部101构成为对三维空间的观察区域投影到二维平面上的情况下的观察区域进行模拟。由此,能够对将原本分布于三维空间内的观察区域投影到位于驾驶员的目视程度的高度的二维平面上时的观察区域进行模拟。因此,即使在二维的实施方式中,也可获得能够在上述二维平面中近似地计算出与三维的实施方式同样的观察区域的效果。
实施方式4.
实施方式4中,说明使实施方式1中的识别区域计算处理高精度化的结构。
以下,主要对实施方式1和实施方式4的区别进行叙述。没有特别提及的内容以实施方式1为准,引用图1~图8。此外,在下述内容中,对实施方式4与实施方式1相组合的示例进行说明,但实施方式4也可以与实施方式2或实施方式3相组合。
在实施方式1的式(4)中,用0到1之间的值对观察区域R进行标准化,将驾驶员完全没有识别的情况与0相对应关联,将完全识别的情况与1相对应关联,由此设为概率来将其作为可解释的形态进行处理。在这种情况下,在基于式(3)所示那样的简单的加法运算的更新中,有可能无法保持概率特性。例如,在驾驶员注视某区域足够长时间的情况下,该区域的识别区域R2的识别程度的值应收敛为1,但与此同时,由于视线滞留于该区域,因此观察区域S的识别程度也成为接近于1的值。因此,在简单地将它们相加来进行更新的情况下,识别程度的值超过1,不满足作为概率的要件。
因此,实施方式4中,识别区域推定装置100采用下述结构。
实施方式4中,在图6的步骤ST205中,识别区域计算部104通过概率的加法运算来更新识别区域R。
式(5)是实施方式4的步骤ST205中的识别区域计算步骤的具体例。式(5)中,PS是通过将驾驶员完全没有识别的情况与0相对应关联、完全识别的情况与1相对应关联来从概率上呈现出观察区域计算部101计算出的观察区域S的值。通过这种结构,识别区域计算部104计算出的识别区域R能够始终保持作为概率的特性,因而作为上式(4)中的识别程度PR成为能够直接使用的值。
R(x,y,n+1):=R2(x,y,n+1)+(1-R2(x,y,n+1))×PS(x,y,n+1)
R:识别区域中的车辆周围的识别程度
Ps:观察区域中的车辆周围的识别程度(5)
n:阶数
x,y:移动体坐标系内的n+1阶的坐标
如上所述,在实施方式4所涉及的识别区域推定装置100中,识别区域计算部104构成为将表示识别区域内的识别程度的概率与表示观察区域内的识别程度的概率相加。通过将识别区域和观察区域的值设为概率来将其作为能够解释的形态进行处理,可获得能够高效地计算出识别区域的效果。
实施方式5.
实施方式5中,说明使实施方式1中的识别区域计算处理高精度化的结构。
以下,主要对实施方式1和实施方式5的区别进行叙述。没有特别提及的内容以实施方式1为准,引用图1~图8。此外,在下述内容中,对实施方式5与实施方式1相组合的示例进行说明,但实施方式5也可以与实施方式2、实施方式3或实施方式4相组合。
在视线方向测量部111、头部位置测量部112、或者移动量测量部113中的任一个的时间分辨率不够的情况下,在识别区域计算部104的识别区域计算处理中每单位时间的变化区域、即上一次计算出的识别区域与本次计算出的识别区域的差分变大。于是,存在识别区域在时间区域中不连续的情况。此外,在视线方向测量部111、头部位置测量部112、以及移动量测量部113的测量周期不同的情况下,例如,在使观察区域与识别区域重叠时会因时间的偏差而产生误差,或者识别区域的计算周期受到测量周期最长的测量部的限制。
此外,存在想要通过事先模拟车辆的移动来预测短时间后的识别区域的要求。例如,在交叉路口右转左转时,通过计算出在右转左转过程中和右转左转后所设想的识别区域,从而可期待事先推定出各阶段的危险物等并向驾驶员进行警告。
因此,实施方式5中,识别区域推定装置100采用下述结构。
图9是表示实施方式5所涉及的识别区域推定装置100的结构例的功能框图。实施方式5所涉及的识别区域推定装置100包括虚拟轨迹计算部151,该虚拟轨迹计算部151计算出用于观察区域的计算的视线方向等的虚拟轨迹。
图10是表示实施方式5所涉及的识别区域推定装置100的动作的流程图。
步骤ST500是计算虚拟轨迹的处理。在步骤ST500中,虚拟轨迹计算部151计算虚拟轨迹。图11是表示步骤ST500中的虚拟轨迹计算部151的动作的详细内容的流程图。
步骤ST100、ST200、ST300的各处理与实施方式1的图4~图7所示的各处理相同。但不同点在于,在实施方式5的识别区域推定装置100中,针对步骤ST500中计算出的比当前要晚的某一时刻的虚拟轨迹来执行步骤ST100、ST200、ST300的各处理。作为比当前要晚的某一时刻,包含本次步骤ST500与上一次步骤ST500之间的某一时刻。
接着,参照图11对图10所示的步骤ST500的虚拟轨迹计算处理的详细内容进行说明。
在步骤ST101中,观察区域计算部101进行与图5的步骤ST101相同的处理,判定车辆的驾驶员是否处于观察状态,并将判定结果输出给虚拟轨迹计算部151。虚拟轨迹计算部151在由观察区域计算部101判定为驾驶员为观察状态的情况下(步骤ST101“是”),前进至步骤ST501,在判定为不是观察状态的情况下(步骤ST101“否”),前进至步骤ST503。
在步骤ST501中,虚拟轨迹计算部151根据从视线方向测量部111接收到的视线方向的信息等,计算比当前要晚的某一时刻的视线方向的推定值。虚拟轨迹计算部151例如通过使用了上一次执行步骤ST500时的视线方向和本次执行步骤ST500时的视线方向的线性插补等,来推定某一时刻的视线方向。或者,虚拟轨迹计算部151也可以在短时间后的预测中,通过设为从当前开始到某一时刻为止的期间视线方向没有变化等的假设,来推定视线方向。由此,虚拟轨迹计算部151计算出视线方向的虚拟轨迹。
在步骤ST502中,虚拟轨迹计算部151根据从头部位置测量部112接收到的头部位置的信息等,计算比当前要晚的某一时刻的头部位置的推定值。虚拟轨迹计算部151例如通过使用了上一次执行步骤ST500时的头部位置和本次执行步骤ST500时的头部位置的线性插补等,来推定某一时刻的头部位置。或者,虚拟轨迹计算部151也可以在短时间后的预测中,通过设为从当前开始到某一时刻为止的期间头部位置没有变化等的假设,来推定头部位置。由此,虚拟轨迹计算部151计算出头部位置的虚拟轨迹。
在步骤ST503中,虚拟轨迹计算部151根据从移动量测量部113接收到的移动量的信息等,计算比当前要晚的某一时刻的移动量的推定值。虚拟轨迹计算部151例如通过使用了上一次执行步骤ST500时的移动量和本次执行步骤ST500时的移动量的线性插补等,来推定某一时刻的移动量。或者,虚拟轨迹计算部151也可以在短时间后的预测中,通过设为从当前开始到某一时刻为止的期间移动量没有变化等的假设,来推定移动量。更为精确地,虚拟轨迹计算部151优选为考虑移动体的轨迹的连续性,在使用过去执行步骤ST500和本次执行步骤ST500时的移动量来计算移动体坐标系中的车辆的轨迹时,使用样条函数等平滑的曲线来计算出插补值。并且,在短时间后的预测中,虚拟轨迹计算部151可以使用车辆行进方向的道路形状或导航系统的引导路径等的信息,来推定在短时间后预计本车通过的路径,并将该路径作为车辆的轨迹。由此,虚拟轨迹计算部151计算出移动量的虚拟轨迹。
如上所述,实施方式5所涉及的识别区域推定装置100构成为包括虚拟轨迹计算部151,该虚拟轨迹计算部151推定比当前要晚的时刻的视线方向。并且,观察区域计算部101构成为基于虚拟轨迹计算部151推定得到的视线方向,来计算比当前要晚的时刻的观察区域。由此,可获得如下效果:能够对视线方向测量部111的测量周期进行插补,并能够计算出平滑的识别区域的推定结果。并且,可获得如下效果:能够进行短时间后的识别区域的推定。
此外,可以构成为:虚拟轨迹计算部151推定比当前要晚的时刻的移动体的移动量,识别区域计算部104基于虚拟轨迹计算部151计算出的移动量来计算比当前要晚的时刻的识别区域。
此外,也可以构成为:虚拟轨迹计算部151推定比当前要晚的时刻的视线方向和移动量,察区域计算部101基于虚拟轨迹计算部151推定得到的视线方向来计算比当前要晚的时刻的观察区域,识别区域计算部104基于虚拟轨迹计算部151计算出的移动量来计算比当前要晚的时刻的识别区域。
并且,虚拟轨迹计算部151还可以构成为不仅推定视线方向或移动量,还推定头部位置的虚拟轨迹。
由此,识别区域推定装置100通过具备虚拟轨迹计算部151,可获得下述效果,即:即使视线方向测量部111、头部位置测量部112及移动量测量部113的测量周期不同,也能够进行识别区域的推定,而不依赖于测量周期。
实施方式6.
实施方式6中,说明使实施方式1中的驾驶状态判定处理高精度化的结构。
以下,主要对实施方式1和实施方式6的区别进行叙述。没有特别提及的内容以实施方式1为准,引用图1~图8。此外,在下述内容中,对实施方式6与实施方式1相组合的示例进行说明,但实施方式6也可以与实施方式2、实施方式3、实施方式4或实施方式5相组合。
图12是表示本发明的实施方式6所涉及的识别区域推定装置100的结构例的功能框图。
位置/姿态测量部161从GPS或方位计等传感器类3获取传感器检测值。位置/姿态测量部161根据传感器检测值来测量地图坐标系中车辆的位置和姿态。地图坐标系是指被固定在地图空间上的坐标系,例如纬度经度。位置/姿态测量部161将车辆的位置和姿态的信息输出给地图信息管理部162。
地图信息管理部162对道路或信号等在移动体的运行中所使用的地图信息进行管理。地图信息管理部162使用从位置/姿态测量部161接收的地图坐标系中的车辆的位置和姿态的信息,来将车辆的位置从地图坐标系变换为移动体坐标系。此外,地图信息管理部162提取出车辆周围的地图信息,判定因障碍物等而产生的死角或视线较差的区域等潜在的危险程度,并输出给驾驶状态判定部106。尤其在车辆等中,可利用车载导航系统等已知的单元,来一并提供位置/姿态测量部161和地图信息管理部162的功能。因此,识别区域推定装置100可以构成为不具备位置/姿态测量部161和地图信息管理部162,而利用作为外部装置的车载导航系统等。
即使在识别区域推定装置100不具备周围状况监视部121的情况下,在存在搭载于车辆的车载导航系统、或具有与车载导航系统相同功能的位置/姿态测量部161和地图信息管理部162的情况下,也可期待在驾驶状态判定部106中通过灵活运用地图信息来进行与道路状况相应的驾驶辅助。此外,即使在识别区域推定装置100具备周围状况监视部121的情况下,通过并用地图信息,也可期待进行更高精度的驾驶辅助。例如,在交叉路口右转左转时,需要进行有无后续车辆的牵连、或者在右转左转后的人行横道或与之相连的人行道上有无行人等标准性的确认操作。然而,由于这些区域中道路树木等障碍物较多、并且设想了在行人后方有其它行人边超过边走等检测困难的情况,因而周围状况监视部121未必一定能够适当地判定危险程度。在这种情况下,基于道路状况的危险程度的判定是有效的。
因此,实施方式6中,识别区域推定装置100采用下述结构。
实施方式6中,在图7的步骤ST301中,地图信息管理部162从位置/姿态测量部161获取地图坐标系中的车辆的位置和姿态的信息。接着,地图信息管理部162基于车辆的位置,提取车辆周围的地图信息,根据所提取到的地图信息和车辆的姿态,计算移动体坐标系下的危险程度H。危险程度H通过简单地将预先记录于地图信息管理部162的地图坐标系下的危险程度变换到移动体坐标系来计算得到。此外,基于由地图信息管理部162提取出的周围的道路形状,按照预先确定的规则来计算出与道路形状相对应的危险程度H。并且,地图信息管理部162优选为针对计算出的危险程度H进行与危险场所和车辆的相对速度、或者右转左转等驾驶行动等相对应的加权。地图信息管理部162将计算出的危险程度H输出给驾驶状态判定部106。
驾驶状态判定部106使用危险程度H来取代危险程度PH,或者使用利用危险程度H更新后的危险程度PH,来计算式(4)。作为利用危险程度H来更新危险程度PH的方法,例如,驾驶状态判定部106计算危险程度PH与危险程度H的加权平均值、或者计算危险程度PH与危险程度H的最大值。
如上所述,实施方式6所涉及的识别区域推定装置100构成为包括:地图信息管理部162,该地图信息管理部162使用地图信息,来判定移动体坐标系中的移动体的危险程度;以及驾驶状态判定部106,该驾驶状态判定部106使用地图信息管理部162判定得到的危险程度和识别区域计算部104计算出的识别区域来判定移动体的驾驶状态。由此,可获得能够灵活运用地图信息来进行与道路状况相应的驾驶辅助的效果。
另外,本发明可以在该发明的范围内对各实施方式进行自由组合,或对各实施方式的任意构成要素进行变形,或省略各实施方式的任意的构成要素。
工业上的实用性
本发明所涉及的识别区域推定装置构成为基于驾驶员的视线方向来推定周围识别状况,因此,适用于搭载有驾驶辅助功能或自动驾驶功能的车辆等。
标号说明
1处理器、2存储器、3传感器类、4显示器、5扬声器、100识别区域推定装置、101观察区域计算部、102镜类管理部、103遮蔽物管理部、104识别区域计算部、105识别区域记录部、106驾驶状态判定部、107驾驶辅助信息提示部、111视线方向测量部、112头部位置测量部、113移动量测量部、121周围状况监视部、151虚拟轨迹计算部、161位置/姿态测量部、162地图信息管理部。
Claims (13)
1.一种识别区域推定装置,其特征在于,包括:
观察区域计算部,该观察区域计算部基于驾驶员的视线方向计算以移动体为基准的移动体坐标系中所述移动体的所述驾驶员所观察的观察区域;以及
识别区域计算部,该识别区域计算部基于所述观察区域计算部计算出的观察区域来计算所述移动体坐标系中所述驾驶员所识别的识别区域。
2.如权利要求1所述的识别区域推定装置,其特征在于,
包括镜类管理部,该镜类管理部对设置于所述移动体的镜类在所述移动体坐标系中的设置位置以及投影到所述镜类的投影区域进行记录,
所述观察区域计算部在所述镜类管理部所记录的所述镜类的设置位置中包含有所述驾驶员的视线方向的情况下,将所述镜类的投影区域设为所述驾驶员的观察区域。
3.如权利要求1所述的识别区域推定装置,其特征在于,
包括周围状况监视部,该周围状况监视部对所述移动体的周围进行监视,测量会给驾驶员的观察状态带来影响的信息,
所述观察区域计算部基于所述周围状况监视部的测量结果,来调整观察区域内的识别程度的加权。
4.如权利要求1所述的识别区域推定装置,其特征在于,
包括周围状况监视部,该周围状况监视部在所述移动体坐标系下对所述移动体的周围进行监视,并检测障碍物,
所述观察区域计算部计算因所述周围状况监视部检测出的障碍物而成为死角的死角区域,并从所述驾驶员的观察区域中将所述死角区域排除。
5.如权利要求1所述的识别区域推定装置,其特征在于,
所述观察区域计算部对将三维空间中的观察区域投影到二维平面上时的观察区域进行模拟。
6.如权利要求1所述的识别区域推定装置,其特征在于,
包括移动量测量部,该移动量测量部对所述移动体坐标系中所述移动体的每单位时间的移动量进行测量,
所述识别区域计算部基于所述移动量测量部测量到的每单位时间的移动量,使1单位时间前计算出的识别区域移动,通过对移动后的所述识别区域加上所述观察区域计算部计算出的观察区域,来更新所述识别区域。
7.如权利要求6所述的识别区域推定装置,其特征在于,
所述识别区域计算部将表示识别区域内的识别程度的概率和表示观察区域内的识别程度的概率相加。
8.如权利要求1所述的识别区域推定装置,其特征在于,
包括虚拟轨迹计算部,该虚拟轨迹计算部推定比当前要晚的时刻的视线方向,
所述观察区域计算部基于所述虚拟轨迹计算部推定得到的视线方向,来计算比当前要晚的时刻的观察区域。
9.如权利要求1所述的识别区域推定装置,其特征在于,
包括虚拟轨迹计算部,该虚拟轨迹计算部推定比当前要晚的时刻的所述移动体的移动量,
所述识别区域计算部基于所述虚拟轨迹计算部推定得到的移动量,来计算比当前要晚的时刻的识别区域。
10.如权利要求1所述的识别区域推定装置,其特征在于,包括:
周围状况监视部,该周围状况监视部在所述移动体坐标系下对所述移动体的周围进行监视,并判定所述移动体的危险程度;以及
驾驶状态判定部,该驾驶状态判定部使用所述周围状况监视部判定得到的危险程度和所述识别区域计算部计算出的识别区域,来判定所述移动体的驾驶状态。
11.如权利要求1所述的识别区域推定装置,其特征在于,包括:
地图信息管理部,该地图信息管理部使用地图信息,来判定所述移动体坐标系下的所述移动体的危险程度;以及
驾驶状态判定部,该驾驶状态判定部使用所述地图信息管理部判定得到的危险程度和所述识别区域计算部计算出的识别区域,来判定所述移动体的驾驶状态。
12.一种识别区域推定方法,其特征在于,包括:
观察区域计算部基于驾驶员的视线方向计算以移动体为基准的移动体坐标系中所述移动体的所述驾驶员所观察的观察区域的步骤;以及
识别区域计算部基于所述观察区域计算部计算出的观察区域来计算所述移动体坐标系中所述驾驶员所识别的识别区域的步骤。
13.一种识别区域推定程序,其特征在于,
用于使计算机执行下述步骤,即:
基于驾驶员的视线方向计算以移动体为基准的移动体坐标系中所述移动体的所述驾驶员所观察的观察区域的观察区域计算步骤;以及
基于所述观察区域计算步骤中计算出的观察区域来计算所述移动体坐标系中所述驾驶员所识别的识别区域的识别区域推定步骤。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/069890 WO2018008085A1 (ja) | 2016-07-05 | 2016-07-05 | 認知領域推定装置、認知領域推定方法および認知領域推定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109416884A true CN109416884A (zh) | 2019-03-01 |
CN109416884B CN109416884B (zh) | 2021-02-19 |
Family
ID=60912590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680087180.9A Active CN109416884B (zh) | 2016-07-05 | 2016-07-05 | 识别区域推定装置、识别区域推定方法及识别区域推定程序 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10814788B2 (zh) |
JP (1) | JP6425857B2 (zh) |
CN (1) | CN109416884B (zh) |
DE (1) | DE112016006962B4 (zh) |
WO (1) | WO2018008085A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL260822B (en) * | 2018-07-26 | 2019-12-31 | Ophir Yoav | Method and system for a dynamic collision awareness envelope for a vehicle |
CN112889270A (zh) * | 2018-10-22 | 2021-06-01 | 松下电器(美国)知识产权公司 | 信息处理方法、信息处理装置、信息处理程序以及信息处理系统 |
DE102018008624A1 (de) * | 2018-10-31 | 2020-04-30 | Trw Automotive Gmbh | Steuerungssystem und Steuerungsverfahren zum samplingbasierten Planen möglicher Trajektorien für Kraftfahrzeuge |
CN110335306B (zh) * | 2019-04-23 | 2022-04-15 | 华中科技大学 | 注视点预测方法及装置 |
WO2022009303A1 (ja) * | 2020-07-07 | 2022-01-13 | 三菱電機株式会社 | 運転支援装置および運転支援方法 |
CN113391699B (zh) * | 2021-06-10 | 2022-06-21 | 昆明理工大学 | 一种基于动态眼动指标的眼势交互模型方法 |
JP2023034404A (ja) * | 2021-08-31 | 2023-03-13 | トヨタ自動車株式会社 | 歩行情報提供システム |
Citations (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08235495A (ja) * | 1995-02-24 | 1996-09-13 | Aqueous Res:Kk | 移動体用通信装置 |
JP2005284473A (ja) * | 2004-03-29 | 2005-10-13 | Fuji Photo Film Co Ltd | 運転支援システム、自動車、および運転支援方法 |
EP1486932A3 (de) * | 2003-06-05 | 2005-11-02 | DaimlerChrysler AG | Bildverarbeitungssystem für ein Fahrzeug |
US20060214625A1 (en) * | 2004-09-06 | 2006-09-28 | Toyota Jidosha Kabushiki Kaisha | Control device for alternating-current motor |
CN1943236A (zh) * | 2005-02-15 | 2007-04-04 | 松下电器产业株式会社 | 周边监视装置和周边监视方法 |
CN101425228A (zh) * | 2007-10-29 | 2009-05-06 | 三菱扶桑卡客车株式会社 | 与碰撞减损装置相关联的监视目标检测装置 |
CN101500874A (zh) * | 2006-09-14 | 2009-08-05 | 丰田自动车株式会社 | 视线终点估计装置和驾驶辅助装置 |
CN101512617A (zh) * | 2006-09-04 | 2009-08-19 | 松下电器产业株式会社 | 行驶信息提供装置 |
JP2009251761A (ja) * | 2008-04-02 | 2009-10-29 | Toyota Motor Corp | 運転支援システム |
US20100182277A1 (en) * | 2009-01-19 | 2010-07-22 | Fujitsu Component Limited | Touch panel and coordinates detecting method using touch panel |
JP2010179713A (ja) * | 2009-02-03 | 2010-08-19 | Fuji Heavy Ind Ltd | 視野推定装置、視野推定方法、コンピュータプログラム及び記録媒体 |
CN201622540U (zh) * | 2010-04-23 | 2010-11-03 | 深圳市迅祥达科技有限公司 | 集成键盘型的无线鼠标 |
WO2010131331A1 (ja) * | 2009-05-12 | 2010-11-18 | トヨタ自動車株式会社 | 視認領域推定装置および運転支援装置 |
CN102047304A (zh) * | 2008-08-05 | 2011-05-04 | 松下电器产业株式会社 | 驾驶注意力程度判定装置、方法以及程序 |
CN102111530A (zh) * | 2009-12-24 | 2011-06-29 | 财团法人工业技术研究院 | 移动物体检测装置与方法 |
JP2012014257A (ja) * | 2010-06-29 | 2012-01-19 | Toyota Motor Corp | 警報装置 |
CN102712317A (zh) * | 2010-01-14 | 2012-10-03 | 丰田自动车工程及制造北美公司 | 使驾驶员与环境感测结合的车辆安全性系统 |
WO2013055513A1 (en) * | 2011-10-14 | 2013-04-18 | Continental Automotive Systems, Inc. | Virtual display system for a vehicle |
CN103326658A (zh) * | 2013-06-18 | 2013-09-25 | 南京航空航天大学 | 一种内置式永磁同步电机无位置传感器控制方法 |
JP2013217664A (ja) * | 2012-04-04 | 2013-10-24 | Navitime Japan Co Ltd | 経路情報提供システム、サーバ装置、端末装置、経路情報提供方法、および、プログラム |
CN103373285A (zh) * | 2012-04-25 | 2013-10-30 | 索尼公司 | 图像生成设备和方法、摄像机及装备控制图像生成设备 |
CN103502773A (zh) * | 2011-05-17 | 2014-01-08 | 索尼公司 | 行进方位计算设备、行进方位计算方法、行进方位计算程序及导航设备 |
CN103863210A (zh) * | 2012-12-12 | 2014-06-18 | 华创车电技术中心股份有限公司 | 侧向视野影像显示系统 |
CN103885573A (zh) * | 2012-12-19 | 2014-06-25 | 财团法人车辆研究测试中心 | 车用显示系统的自动校正方法及其系统 |
CN104021676A (zh) * | 2014-06-25 | 2014-09-03 | 上海交通大学 | 基于车辆动态视频特征的车辆定位及车速测量方法 |
CN104121903A (zh) * | 2014-07-04 | 2014-10-29 | 沈阳航空航天大学 | 一种基于边界值问题的滚动航路规划方法 |
CN104794938A (zh) * | 2015-04-17 | 2015-07-22 | 吕栋雷 | 一种基于车车协作通信的豪车告警系统及方法 |
JP2015170249A (ja) * | 2014-03-10 | 2015-09-28 | 株式会社デンソーアイティーラボラトリ | 安全確認判定装置、及び運転支援装置 |
CN105083291A (zh) * | 2014-04-25 | 2015-11-25 | 歌乐株式会社 | 基于视线检测的驾驶员辅助系统 |
CN105277950A (zh) * | 2015-09-29 | 2016-01-27 | 西安知几天线技术有限公司 | 基于车体坐标系的激光雷达坐标转换方法 |
CN105378813A (zh) * | 2013-07-05 | 2016-03-02 | 三菱电机株式会社 | 信息显示装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3591192B2 (ja) * | 1996-10-25 | 2004-11-17 | トヨタ自動車株式会社 | 車両用情報提供装置 |
JP5387763B2 (ja) * | 2010-05-25 | 2014-01-15 | 富士通株式会社 | 映像処理装置、映像処理方法及び映像処理プログラム |
JP2012234409A (ja) * | 2011-05-02 | 2012-11-29 | Mazda Motor Corp | 車両用運転支援装置 |
US9123252B2 (en) * | 2011-08-10 | 2015-09-01 | Toyota Jidosha Kabushiki Kaisha | Drive assist apparatus |
JP2016170688A (ja) * | 2015-03-13 | 2016-09-23 | 株式会社東海理化電機製作所 | 運転支援装置及び運転支援システム |
-
2016
- 2016-07-05 WO PCT/JP2016/069890 patent/WO2018008085A1/ja active Application Filing
- 2016-07-05 CN CN201680087180.9A patent/CN109416884B/zh active Active
- 2016-07-05 US US16/304,904 patent/US10814788B2/en active Active
- 2016-07-05 JP JP2018525859A patent/JP6425857B2/ja active Active
- 2016-07-05 DE DE112016006962.6T patent/DE112016006962B4/de active Active
Patent Citations (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08235495A (ja) * | 1995-02-24 | 1996-09-13 | Aqueous Res:Kk | 移動体用通信装置 |
EP1486932A3 (de) * | 2003-06-05 | 2005-11-02 | DaimlerChrysler AG | Bildverarbeitungssystem für ein Fahrzeug |
JP2005284473A (ja) * | 2004-03-29 | 2005-10-13 | Fuji Photo Film Co Ltd | 運転支援システム、自動車、および運転支援方法 |
US20060214625A1 (en) * | 2004-09-06 | 2006-09-28 | Toyota Jidosha Kabushiki Kaisha | Control device for alternating-current motor |
CN1943236A (zh) * | 2005-02-15 | 2007-04-04 | 松下电器产业株式会社 | 周边监视装置和周边监视方法 |
CN101512617A (zh) * | 2006-09-04 | 2009-08-19 | 松下电器产业株式会社 | 行驶信息提供装置 |
CN101500874A (zh) * | 2006-09-14 | 2009-08-05 | 丰田自动车株式会社 | 视线终点估计装置和驾驶辅助装置 |
CN101425228A (zh) * | 2007-10-29 | 2009-05-06 | 三菱扶桑卡客车株式会社 | 与碰撞减损装置相关联的监视目标检测装置 |
JP2009251761A (ja) * | 2008-04-02 | 2009-10-29 | Toyota Motor Corp | 運転支援システム |
CN102047304A (zh) * | 2008-08-05 | 2011-05-04 | 松下电器产业株式会社 | 驾驶注意力程度判定装置、方法以及程序 |
US20100182277A1 (en) * | 2009-01-19 | 2010-07-22 | Fujitsu Component Limited | Touch panel and coordinates detecting method using touch panel |
JP2010179713A (ja) * | 2009-02-03 | 2010-08-19 | Fuji Heavy Ind Ltd | 視野推定装置、視野推定方法、コンピュータプログラム及び記録媒体 |
WO2010131331A1 (ja) * | 2009-05-12 | 2010-11-18 | トヨタ自動車株式会社 | 視認領域推定装置および運転支援装置 |
CN102111530A (zh) * | 2009-12-24 | 2011-06-29 | 财团法人工业技术研究院 | 移动物体检测装置与方法 |
CN102712317A (zh) * | 2010-01-14 | 2012-10-03 | 丰田自动车工程及制造北美公司 | 使驾驶员与环境感测结合的车辆安全性系统 |
CN201622540U (zh) * | 2010-04-23 | 2010-11-03 | 深圳市迅祥达科技有限公司 | 集成键盘型的无线鼠标 |
JP2012014257A (ja) * | 2010-06-29 | 2012-01-19 | Toyota Motor Corp | 警報装置 |
CN103502773A (zh) * | 2011-05-17 | 2014-01-08 | 索尼公司 | 行进方位计算设备、行进方位计算方法、行进方位计算程序及导航设备 |
WO2013055513A1 (en) * | 2011-10-14 | 2013-04-18 | Continental Automotive Systems, Inc. | Virtual display system for a vehicle |
JP2013217664A (ja) * | 2012-04-04 | 2013-10-24 | Navitime Japan Co Ltd | 経路情報提供システム、サーバ装置、端末装置、経路情報提供方法、および、プログラム |
CN103373285A (zh) * | 2012-04-25 | 2013-10-30 | 索尼公司 | 图像生成设备和方法、摄像机及装备控制图像生成设备 |
CN103863210A (zh) * | 2012-12-12 | 2014-06-18 | 华创车电技术中心股份有限公司 | 侧向视野影像显示系统 |
CN103885573A (zh) * | 2012-12-19 | 2014-06-25 | 财团法人车辆研究测试中心 | 车用显示系统的自动校正方法及其系统 |
CN103326658A (zh) * | 2013-06-18 | 2013-09-25 | 南京航空航天大学 | 一种内置式永磁同步电机无位置传感器控制方法 |
CN105378813A (zh) * | 2013-07-05 | 2016-03-02 | 三菱电机株式会社 | 信息显示装置 |
JP2015170249A (ja) * | 2014-03-10 | 2015-09-28 | 株式会社デンソーアイティーラボラトリ | 安全確認判定装置、及び運転支援装置 |
JP6259680B2 (ja) * | 2014-03-10 | 2018-01-10 | 株式会社デンソーアイティーラボラトリ | 安全確認判定装置、及び運転支援装置 |
CN105083291A (zh) * | 2014-04-25 | 2015-11-25 | 歌乐株式会社 | 基于视线检测的驾驶员辅助系统 |
CN104021676A (zh) * | 2014-06-25 | 2014-09-03 | 上海交通大学 | 基于车辆动态视频特征的车辆定位及车速测量方法 |
CN104121903A (zh) * | 2014-07-04 | 2014-10-29 | 沈阳航空航天大学 | 一种基于边界值问题的滚动航路规划方法 |
CN104794938A (zh) * | 2015-04-17 | 2015-07-22 | 吕栋雷 | 一种基于车车协作通信的豪车告警系统及方法 |
CN105277950A (zh) * | 2015-09-29 | 2016-01-27 | 西安知几天线技术有限公司 | 基于车体坐标系的激光雷达坐标转换方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2018008085A1 (ja) | 2018-09-27 |
DE112016006962B4 (de) | 2020-06-25 |
US10814788B2 (en) | 2020-10-27 |
DE112016006962T5 (de) | 2019-02-28 |
WO2018008085A1 (ja) | 2018-01-11 |
CN109416884B (zh) | 2021-02-19 |
US20190275946A1 (en) | 2019-09-12 |
JP6425857B2 (ja) | 2018-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109416884A (zh) | 识别区域推定装置、识别区域推定方法及识别区域推定程序 | |
JP6894471B2 (ja) | 自動運転車(adv)のサブシステムによるパトロールカーのパトロール | |
US11040726B2 (en) | Alarm system of autonomous driving vehicles (ADVs) | |
JP6700382B2 (ja) | 車線縁石補助による自律走行車の車線逸脱検出及び車線維持システム | |
CN105848981B (zh) | 用于车辆的驾驶员辅助方法和系统 | |
JP5499277B2 (ja) | 危険運転予防意識判定システムおよび危険運転予防意識判定方法 | |
US20120310516A1 (en) | System and method for sensor based environmental model construction | |
CN107533803B (zh) | 遮挡控制装置 | |
US11181737B2 (en) | Head-up display device for displaying display items having movement attribute or fixed attribute, display control method, and control program | |
JP2019091412A (ja) | 道路の曲率データ無しでの進行レーン識別 | |
JP6689966B2 (ja) | 減速縁石に基づく自律走行車の方向検出及び車線維持システム | |
CN106560347A (zh) | 停车障碍物定位器和高度估计器 | |
WO2018135509A1 (ja) | イベント予測システム、イベント予測方法、プログラムおよびそれを記録した記録媒体 | |
CN105844964A (zh) | 一种车辆安全驾驶预警方法及装置 | |
JP6500724B2 (ja) | 危険情報報知システム、サーバ及びコンピュータプログラム | |
JP7462396B2 (ja) | 車両を運転するための方法および装置 | |
JP6856085B2 (ja) | 車両用表示制御装置、方法及びプログラム | |
KR20140003250A (ko) | 차선변경 지원장치 | |
JP2022543936A (ja) | 道路環境情報の自動化クラウドソーシング | |
JP2018120291A (ja) | イベント予測システム、イベント予測方法、プログラム、及び移動体 | |
CN108725319B (zh) | 一种影像式倒车指导方法 | |
CN112389392B (zh) | 车辆主动制动方法、装置、设备及存储介质 | |
JP2022186841A (ja) | 車両用制御装置、方法、プログラムおよび車両用表示装置 | |
JP2018120290A (ja) | イベント予測システム、イベント予測方法、プログラム、及び移動体 | |
JP5691065B2 (ja) | 危険運転予防意識判定システムおよび危険運転予防意識判定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |