CN105083265A - 物体识别装置及车辆 - Google Patents

物体识别装置及车辆 Download PDF

Info

Publication number
CN105083265A
CN105083265A CN201510254523.3A CN201510254523A CN105083265A CN 105083265 A CN105083265 A CN 105083265A CN 201510254523 A CN201510254523 A CN 201510254523A CN 105083265 A CN105083265 A CN 105083265A
Authority
CN
China
Prior art keywords
target object
100tar
surrounding objects
car
subject area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510254523.3A
Other languages
English (en)
Other versions
CN105083265B (zh
Inventor
木嶋启贵
笹渕洋治
樫木拓哉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of CN105083265A publication Critical patent/CN105083265A/zh
Application granted granted Critical
Publication of CN105083265B publication Critical patent/CN105083265B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/34Protecting non-occupants of a vehicle, e.g. pedestrians
    • B60R21/38Protecting non-occupants of a vehicle, e.g. pedestrians using means for lifting bonnets
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/02Control of vehicle driving stability
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems

Abstract

本发明提供一种物体识别装置(12)及车辆(10)。在该物体识别装置(12)及车辆(10)中,将用于判定对象物体(100tar)是否为动作辅助对象的第1对象区域(116)设定为第1检测区域(106r)的一部分,将用于判定对象物体(100tar)是否为动作辅助对象的第2对象区域(118)设定为第2检测区域(106c)的一部分。当第1周围区域(雷达目标等)的位置位于第1对象区域(116)内,且第2周围物体(摄像头目标等)的位置位于第2对象区域(118)内时,将对象物体(100tar)作为动作辅助对象。

Description

物体识别装置及车辆
技术领域
本发明涉及一种用于识别位于移动物体周围的周围物体的物体识别装置及车辆。
背景技术
在美国专利申请公开公报2007/0168128号(下面称为“US2007/0168128A1”)中的车辆用行驶辅助装置中,对照由毫米波雷达21检测出的障碍物检测结果与由图像识别机构22检测出的障碍物检测结果,存在如下两种情况:毫米波雷达21与图像识别机构22均检测出障碍物;毫米波雷达21与图像识别机构22中仅有一个机构检测出障碍物。然后,根据上述两种情况变更行驶辅助控制的开始条件,从而进行对应于驾驶者的注意力的辅助控制(参照摘要、图5)。对于毫米波雷达与图像识别机构均检测出障碍物的情况,在US2007/0168128A1中,当毫米波雷达21与图像识别机构22均检测出障碍物时,由于正确检测出障碍物的可能性较高,因而通常情况下进行辅助控制([0083])。
如上所述,在US2007/0168128A1中,当毫米波雷达与图像识别机构均检测出障碍物时,由于正确检测出障碍物的可能性较高,因而在通常的时间点进行辅助控制([0083])。但是,即使在毫米波雷达及图像识别机构均检测出障碍物时,由于检测情况的不同,对象物体的选择精度或判定精度也可能发生变化。在US2007/0168128A1中并没有论述这一点,因而有改善的余地。
发明内容
鉴于上述问题,本发明的目的在于,提供一种物体识别装置及具有该物体识别装置的车辆,该物体识别装置能够提高对象物体的选择精度或判定精度,也能够适当地设定动作辅助的程度。
本发明所涉及的物体识别装置具有第1检测装置、第2检测装置、对象物体设定装置及动作辅助控制装置,其中,所述第1检测装置检测出第1位置信息,该第1位置信息表示设定于移动物体周围的第1检测区域内的第1周围物体的位置;所述第2检测装置检测出第2位置信息,该第2位置信息表示存在于与所述第1检测区域的一部分或全部重合的第2区域内的第2周围物体的位置;所述对象物体设定装置利用所述第1位置信息及所述第2位置信息,对所述第1周围物体及所述第2周围物体进行匹配,从而设定对象物体;所述动作辅助控制装置根据所述对象物体与所述移动物体之间的关系对所述移动物体的动作辅助进行控制,其中,所述动作辅助控制装置将第1对象区域设定为所述第1检测区域的一部分,该第1对象区域用于判定所述对象物体是否为所述动作辅助的对象,将第2对象区域设定为所述第2检测区域的一部分,该第2对象区域用于判定所述对象物体是否为所述动作辅助的对象,当所述第1周围物体的位置位于所述第1对象区域内,且所述第2周围物体的位置位于所述第2对象区域内时,所述动作辅助控制装置将所述对象物体作为所述动作辅助的对象,当所述第1周围物体的位置不在所述第1对象区域内,或者所述第2周围物体的位置不在所述第2对象区域内时,所述动作辅助控制装置从所述动作辅助的对象中除去所述对象物体,或者抑制针对所述对象物体进行的动作辅助。
采用本发明,当第1周围物体的位置位于第1对象区域内,且第2周围物体位于第2对象区域内时,动作辅助控制装置将对象物体作为动作辅助对象。另外,当第1周围物体的位置不在第1对象区域内,或第2周围物体的位置不在第2对象区域内时,从动作辅助对象中除去对象物体,或者抑制针对所述对象物体进行的动作辅助。第1对象区域被设定为第1检测装置的第1检测区域的一部分(换言之,第1对象区域比第1检测区域窄)。第2对象区域被设定为第2检测装置的第2检测区域的一部分(换言之,第2对象区域比第2检测区域窄)。
从而,通过利用与第1检测装置及第2检测装置分别对应的对象区域,能够判定对象物体是否为动作辅助对象,或者能够判定是否抑制动作辅助操作。因此,能够高精度地选择或判定作为动作辅助对象的对象物体,或者能够适当地设定动作辅助的程度。
例如,当所述第1检测装置为雷达,所述第2检测装置为摄像头时,所述动作辅助控制装置可以将所述第1对象区域设定为比所述第2对象区域窄的区域。
从而,基于雷达确定的第1对象区域被设定为比雷达的第1检测区域更窄的区域,基于摄像头确定的第2对象区域被设定为比摄像头的第2检测区域更窄的区域。通常情况下,雷达难以检测出物体的端部。另外,当移动物体为横向来车时,基于由于放射波被侧石等道路两侧的障碍物反射而生成的反射波,该障碍物可能会被错误识别为对象物体。采用本发明,将基于所述雷达确定的第1对象区域设定的较窄的同时,将基于摄像头确定的第2对象区域设定的较宽。从而,对于雷达难以检测的区域,可以利用摄像头的检测结果,从而能够更加高精度地选择或判定作为动作辅助对象的对象物体,或者能够更加确切地设定动作辅助的程度。
当所述第1周围物体的位置位于所述第1对象区域内,且所述第2周围物体的图像特征全部位于所述第2对象区域内时,所述动作辅助控制装置可以将所述对象物体作为所述动作辅助的对象。从而,通过将由摄像头拍摄的整个对象物体设定为动作辅助对象,能够更加高精度地选择或判定作为动作辅助对象的对象物体,或者能够更加确切地设定动作辅助的程度。
当所述对象物体为横向来车时,所述图像特征可以包括:构成所述横向来车左端的垂直边缘及构成左侧车轮的圆形边缘这两个边缘中的至少一个,以及构成所述横向来车右端的垂直边缘及构成右侧车轮的圆形边缘这两个边缘中的至少一个。从而,能够高精度地判定横向来车。
当所述第1周围物体的中心或重心位于所述横向来车的所述左端与所述右端之间,或者位于所述左侧车轮与所述右侧车轮之间时,所述动作辅助控制装置将所述对象物体作为所述动作辅助的对象,当所述第1周围物体的中心或重心不在所述横向来车的所述左端与所述右端之间,或者不在所述左侧车轮与所述右侧车轮之间时,所述动作辅助控制装置从所述动作辅助的对象中除去所述对象物体。
从而,当基于雷达的检测结果算出的第1周围物体的中心或重心位于与横向来车的中心或重心完全不同的位置上时,能够判定对象车辆不是横向来车。因此,能够更加精度地选择或判定作为动作辅助对象的对象物体,或者能够更加确切地设定动作辅助的程度。
所述对象物体设定装置将所述对象物体识别为存在于所述移动物体的行驶轨迹上的横向来车,所述动作辅助控制装置可以在所述行驶轨迹上设定所述第1对象区域及所述第2对象区域。从而,即使对象物体设定装置错误识别出在移动物体的行驶轨迹上存在作为对象物体的横向来车,也能够从动作辅助对象中除去对象物体,或者抑制针对对象物体进行的动作辅助。
本发明所涉及的车辆是具有所述物体识别装置的所述移动物体。
本发明所涉及的物体识别装置具有雷达、摄像头及对象物体设定装置,其中,所述雷达检测出第1位置信息,该第1位置信息表示设定于移动物体周围的第1检测区域内的第1周围物体的位置;所述摄像头检测出第2位置信息,该第2位置信息表示与所述第1检测区域的一部分或全部重合的第2检测区域内的第2周围物体的位置;所述对象物体设定装置利用所述第1位置信息及所述第2位置信息,对所述第1周围物体及所述第2周围物体进行匹配,从而设定作为横向来车的对象物体,其中,所述对象物体设定装置使用于提取所述横向来车的特征部分的特征部分对象区域以所述第1周围物体的位置为基准,并将所述特征部分对象区域设定为所述第2检测区域的一部分,当所述横向来车的特征部分位于所述特征部分对象区域内时,判定所述第1周围物体及所述第2周围物体为同一个所述对象物体、且所述对象物体为横向车辆。
采用本发明,使用于提取横向来车的特征部分的第2对象区域以所述雷达检测出的第1周围物体的位置为基准,并将该第2对象区域设定为第2检测区域的一部分。另外,当横向来车的特征部分位于所述第2对象区域内时,判定第1周围物体与第2周围物体为同一个对象物体、且该对象物体为横向车辆。从而,能够将用于提取横向来车的特征部分的第2对象区域(摄像头的检测区域的一部分)设定为以由雷达检测出的第1周围物体的位置为基准的比较狭窄的区域。因此,能够使选择或判定作为横向来车的对象物体的精度较高且运算量较少。
通过参照附图对下面的实施方式进行的说明,能够容易地理解上述目的、特征及优点。
附图说明
图1为表示本发明的一个实施方式所涉及的车辆结构的框图。
图2为表示所述实施方式中的驾驶辅助控制的流程图。
图3为用于说明所述实施方式的驾驶辅助控制的图。
图4为表示对象物体设定部错误地识别对象物体,判定存在横向来车的例子。
图5为计算横向来车的可信度的流程图(图2中步骤S5的详细情况)。
图6为说明所述实施方式中的所述横向来车的可信度的判定基准与使用方法(驾驶辅助的内容)的图。
图7为驾驶辅助处理的流程图(图2中步骤S6的详细情况)。
具体实施方式
A.一个实施方式
A1.结构
[A1-1.整体结构]
图1是表示本发明的一个实施方式所涉及的车辆10(下面也称为“自车辆10”)的结构的框图。车辆10具有物体识别装置12、车辆稳定性控制系统14(下面称为“VSA系统14”)、电动助力转向系统16(下面称为“EPS系统16”)、弹起式发动机罩(pop-uphood)系统18(下面称为“PUH系统18”)、车速传感器20及警报装置22。
物体识别装置12用于检测在自车辆10的周围出现的各种物体100(例如:其他车辆、步行者(人)及墙壁)。另外,物体识别装置12选择或者确定物体100(下面称为“检测物体100”)中与自车辆10的控制相关的物体,将该物体作为对象物体100tar。物体识别装置12算出由自车辆10到对象物体100tar的距离L,并判定对象物体100tar的属性Prtar。这里的属性Prtar包括例如对象物体100tar的种类Ca(例如:车辆、步行者或墙壁)等。
VSA系统14的电子控制装置30(下面称为“VSAECU30”)进行车辆稳定性控制,该电子控制装置30通过对未图示的制动系统等进行控制,当自车辆10在道路转弯处转弯时,或者其他车辆102(图3)接近自车辆10时等,使车辆10的动作稳定。
EPS系统16的电子控制装置32(下面称为“EPSECU32”)进行转向辅助控制,该电子控制装置32通过对电动助力转向装置的结构要素(电动机、扭矩传感器及转向角传感器(均未图示)等)进行控制,来辅助由驾驶者进行的转向操作。
PUH系统18的电子控制装置34(下面称为“PUHECU34”)在车辆10与步行者发生碰撞时,使车辆10的发动机罩(未图示)弹起,减轻步行者的头部与车辆相撞时的冲击。
车速传感器20用于检测车辆10的车速V[km/h],并将该车速V输出至物体识别装置12等。警报装置22基于由物体识别装置12等发出的指令,对驾驶者发出警报。警报装置22例如具有未图示的显示装置及扬声器。
[A1-2.物体识别装置12]
如图1所示,物体识别装置12具有雷达40、摄像头42与物体识别电子控制装置44(下面称为“物体识别ECU44”或“ECU44”)。
(A1-2-1.雷达40)
雷达40向车辆10的外部发出作为放射波Wt的电磁波(这里是毫米波),并且该雷达40接收由于放射波Wt被检测物体100(例如其他车辆102或步行者)反射而生成的反射波Wr。另外,将与反射波Wr相对应的检测信号(下面称为“反射波信号Swr”或“信号Swr”)输出至ECU44。下面,将由雷达40检测出的检测物体100称为“第1周围物体100r”或“雷达目标100r”。
雷达40配置于车辆10的前侧(例如前保险杆及/或前格栅)。除配置于车辆10的前侧以外,雷达40还可以配置于车辆10的后侧(例如后保险杆及/或后格栅)或侧面(例如前保险杆的侧面),或者,雷达40可以不配置于车辆10的前侧,而是配置于车辆10的后侧(例如后保险杆及/或后栅)或侧面(例如前保险杆的侧面)。
另外,如后所述,还可以使用激光雷达、超声波传感器等传感器代替发出毫米波的雷达40。
(A1-2-2.摄像头42)
摄像头42(拍摄机构)用于获得车辆10周围(包含对象物体100tar)的图像Imc(下面称为“周围图像Imc”或“拍摄图像Imc”)。并且,将与图像Imc相对应的信号(下面称为“图像信号Sic”或“信号Sic”)输出至ECU44。下面,将由摄像头42检测出的检测物体100称为“第2周围物体100c”或“摄像头目标100c”。
虽然在本实施方式中使用一个摄像头42,但是也可以使用两个摄像头42,通过使两个摄像头42左右对称配置,构成立体摄像头。摄像头42以每秒15帧以上(例如30帧)的速度获得图像Imc。摄像头42是主要利用波长处于可视光波长范围内的光的黑白摄像头,也可以是彩色摄像头或红外线摄像头。摄像头42例如配置于车辆10的车厢内的前方部分在车宽方向上的中心部(例如车内后视镜的周围)。或者,摄像头42还可以配置于车辆10的前保险杆部在车宽方向上的中心部。
(A1-2-3.物体识别ECU44)
物体识别ECU44用于控制整个物体识别装置12,如图1所示,物体识别ECU44具有输入输出部50、运算部52与存储部54。
来自雷达40的反射波信号Swr与来自摄像头42的图像信号Sic通过输入输出部50提供给物体识别ECU44。物体识别ECU44与VSAECU30、EPSECU32及PUHECU34之间的通信是通过输入输出部50与通信线56进行的。该输入输出部50具有未图示的模拟数字转换器,该模拟数字转换器能够将输入的模拟信号转换为数字信号。
运算部52基于来自雷达40与摄像头42的各信号Swr、Sic进行运算,基于运算结果,生成与VSAECU30、EPSECU32及PUHECU34相对应的信号。
如图1所示,运算部52具有雷达信息处理部60、摄像头信息处理部62、对象物体信息处理部64与驾驶辅助控制部66。通过执行存储于存储部54中的程序,来实现各处理部60、62、64及控制部66的功能。所述程序还可以通过未图示的无线通信装置(移动电话、智能手机等)由外部提供。所述程序的一部分可以由硬件(电路部件)构成。
雷达信息处理部60基于由雷达40检测出的反射波Wr(反射波信号Swr),算出检测物体100(第1周围物体100r)的信息(下面称为“雷达信息Ir”或“信息Ir”)。摄像头信息处理部62利用由摄像头42获得的周围图像Imc,算出检测物体100(第2周围物体100c)的信息(下面称为“摄像头信息Ic”或“信息Ic”)。
对象物体信息处理部64算出雷达信息Ir与摄像头信息Ic的组合信息(下面称为“对象物体信息It”或“信息It”),其中,雷达信息Ir由雷达信息处理部60算出;摄像头信息Ic由摄像头信息处理部62算出。换言之,对象物体信息处理部64进行所谓的融合处理。信息It是基于由雷达40检测出的检测物体100(雷达目标100r)以及由摄像头42检测出的检测物体100(摄像头目标100c)而确定的对象物体100tar的信息。
对象物体信息处理部64具有对象物体设定部70(下面称为“设定部70”)、TTC计算部72(下面称为“计算部72”)、可信度计算部74(下面称为“计算部74”)。
对象物体设定部70利用雷达信息Ir(第1位置信息)与摄像头信息Ic(第2位置信息),对第1周围物体100r与第2周围物体100c进行匹配,从而设定对象物体100tar。TTC计算部72算出TTC(TimetoCollision),该TTC表示车辆10接触(或者碰撞)到对象物体100tar所需要经过的时间。可信度计算部74算出横向来车的可信度Dc。可信度Dc是指:当判定摄像头目标100c的属性Prc(种类Ca)为横向来车时,对象物体100tar实际上是横向来车的可靠性。
存储部54由随机存储器(RandomAccessMemory)与只读存储器(ReadOnlyMemory)构成,其中,随机存储器用于存储转换为数字信号后的拍摄信号与提供给各种运算处理的临时数据等;只读存储器用于存储执行程序、图表或地图等。
A2.驾驶辅助控制
[A2-1.驾驶辅助控制的整体流程]
图2是本实施方式中的驾驶辅助控制的流程图。驾驶辅助控制是通过物体识别ECU44的运算部52(处理部60、62、64及控制部66)与其他的ECU30、32、34的运算部(未图示)实施的。另外,图2着重说明对象物体100tar为横向来车时的情况,当对象物体100tar不是横向来车时,可以设置附加步骤,该附加步骤与图2中的各步骤相组合,或者与图2中的各步骤独立。
在步骤S1中,物体识别ECU44(雷达信号处理部60)基于来自雷达40的反射波信号Swr,算出检测物体100(雷达目标100r)的雷达信息Ir。雷达信息Ir中包含有第1周围物体100r的位置Por、第1周围物体100r相对于车辆10的相对速度Vr与加速度ar等。另外,当雷达40的检测区域(图3中的扫描区域106r)内存在多个第1周围物体100r时,ECU44算出各第1周围物体100r的位置Por、速度Vr与加速度ar等。
在步骤S2中,ECU44(摄像头信息处理部62)基于摄像头42的图像信号Sic(拍摄图像Imc)与雷达目标100r的位置Por,算出检测物体100(摄像头目标100c)的摄像头信息Ic。即,ECU44提取出位于以位置Por为基准的规定距离内的摄像头目标100c(匹配处理),并算出该摄像头目标100c的摄像头信息Ic。这里所说的规定距离包含横向、纵向及前后方向上的规定距离。
摄像头信息Ic中包含摄像头目标100c的横向位置Poc、横向速度V1c、横向加速度a1c及属性Prc等。另外,属性Prc包含摄像头目标100c的种类Ca(步行者、车辆(横向来车)等)与大小等。当摄像头目标100c的种类Ca为横向来车时,属性Prc还包含有横向来车的特征部分Pcha。另外,当在拍摄图像Imc内存在多个摄像头目标100c时,ECU44算出各摄像头目标100c的横向位置Poc、横向速度Vlc、横向加速度alc与属性Prc等。
在步骤S3中,ECU44(对象物体设定部70)用于判定作为横向来车的对象物体100tar是否存在(换言之,匹配关系是否成立)。
当不存在作为横向来车的对象物体100tar时(步骤S3:否),结束此次运算周期的处理。然后,在经过规定的时间之后,再次从步骤S1开始处理。当存在作为横向来车的对象物体100tar时(步骤S3:是),在步骤S4中,ECU44算出TTC。如上所述,TTC表示自车辆10接触(或碰撞)到对象物体100tar所需要经过的时间。
接着,在步骤S5中,ECU44算出横向来车的可信度Dc。如上所述,可信度Dc是指:当判定摄像头目标100c的属性Prc(种类Ca)为横向来车时,对象物体100tar实际上是横向来车的可靠性。即,在本实施方式中,在步骤S3中,即使在判定存在作为横向来车的对象物体100tar的情况下,也会对该对象物体100tar也可能不是横向来车的情况进行考虑。下面,参照图5说明步骤S5的详细情况。
在步骤S6中,ECU44基于TTC(步骤S4)与可信度Dc(步骤S5)实施驾驶辅助处理。下面,参照图7说明步骤S6的详细情况。
[A2-2.雷达信息Ir及摄像头信息Ic的计算(图2中的步骤S1、S2)]
(A2-2-1.雷达信息Ir与摄像头信息Ic的计算概要)
图3是用于说明本实施方式的驾驶辅助控制的图,表示其他车辆102在自车辆10的行驶道路104上行驶的状态。在图3中示出了如下部分:雷达40的扫描区域106r(第1检测范围)、摄像头42的拍摄区域106c(第2检测范围)、表示雷达目标100r的位置Por的标识108、表示作为横向来车的其他车辆102的特征部分Pcha的标识110l、110r、112l、112r、114、雷达目标假设区域116与摄像头目标假设区域118。
在图2的步骤S1中,在获得雷达信号Ir时,ECU44基于反射波信号Swr算出雷达目标100r的位置Ror(标识108)。位置Por被确定为反射区域的中心或重心位置,该反射区域是由于放射波Wt被雷达目标100r反射而生成的反射波Wr的集合体所对应的反射位置。或者,位置Por也可以是反射波Wr的集合体中回波功率最高的反射波所对应的反射位置。在图3所示的例子中,表示位置Por的标识108表示其他车辆102的重心位置。
在图2的步骤S2中,在获得摄像头信息Ic时,ECU44提取出位于以雷达目标100r的位置Por为基准的规定距离内的摄像头目标100c。该提取过程实质上是雷达信息Ir与摄像头信息Ic的匹配过程。如上所述,所述规定距离包含横向、纵向及前后方向上的规定距离。
在提取摄像头目标100c时,在所述规定范围内,提取出作为横向来车的对象物体100tar的特征部分Pcha。具体来讲,如图3所示,将如下部分作为特征部分Pcha提取出来:其他车辆102的前端(左端)与后端(右端)的垂直边缘(标识101、102)、前轮(左侧的车轮)与后轮(右侧的车轮)的圆形边缘(标识112l、112r)、车体下部的水平边缘(标识114)。由于存在这些特征部分Pcha,因而ECU44判定存在作为横向来车的对象物体100tar。特征部分Pcha并不局限于上述五部分,还可以选择使用上述五部分中的任意几个。另外,还可以使用除上述五个部分以外的其他特征部分Pcha。
(A2-2-2.错误识别的例子)
图4表示对象物体设定部70错误地识别对象物体100tar,判定存在横向来车的例子。在图4的例子中,虽然在自车辆10的行驶道路104上不存在其他车辆102(实际的车辆),但是由于提取出了雷达目标100r的位置Por及横向来车的特征部分Pcha(匹配成功的部分),因而ECU44错误地识别为存在横向来车。
即,在行驶道路104的左侧,柱子130的底座132面向行驶道路104。由于放射波Wt被该底座132的一部分反射而生成的反射波Wr的回波功率比较高,因而雷达信息处理部60将底座132的一部分识别为雷达目标100r的位置Por(标识108)。
另外,由于柱子130沿垂直方向延伸,因而摄像头信息处理部62提取出柱子130的一部分作为横向来车的左端(前端或后端)的垂直边缘(标识110l)。另外,在行驶道路104的右侧设有挡车器134,该挡车器134包括箱体136及闸杆138,箱体136具有垂直的部分。因此,摄像头信息处理部62提取出挡车器箱体136的一部分作为横向来车的右端(前端或后端)的垂直边缘(标识110r)。
在行驶道路104的左侧配置有侧石140。由于柱子130的底座132与侧石140存在反差,因而摄像头信息处部62提取出侧石140的一部分作为横向来车的左侧车轮(前轮或后轮)的圆形边缘(标识112l)。在行驶道路104的右侧配置有侧石142。由于侧石142的角部的形状等,摄像头信息处理部62提取出侧石142的一部分作为横向来车的右侧车轮(前轮或后轮)的圆形边缘(标识112r)。
在自车辆10的行驶道路104上,投射有挡车器箱体136与闸杆138的影子144。当从自车辆10观察时,这里的影子144大致位于水平方向。因此,摄像头信息处理部62提取出影子144作为横向来车的车体下部的水平边缘(标识114)。
在进行上述提取操作之后,根据本实施方式中的步骤S1~S3(图2),虽然不存在作为横向来车的对象物体100tar,但是对象物体设定部70可能会错误地识别为存在作为横向来车的对象物体100tar。因此,在本实施方式中,通过利用横向来车的可信度Dc,能够防止出现上述错误识别的情况。
[A2-3.横向来车的可信度Dc的计算(图2中的步骤S5)]
(A2-3-1.可信度Dc的计算概要)
图5是计算横向来车的可信度Dc的流程图(图2中步骤S5的详细情况)。图5中的处理过程是由ECU44的可信度计算部74进行的。图6是用于说明本实施方式中的可信度Dc的判定基准与使用方法(驾驶辅助的内容)的图。图6中虚线的车辆150表示由对象物体设定部70识别出的“车辆”,还并未确定该“车辆”是否是实际上存在的车辆(其他车辆102)。换言之,在图6中,车辆150表示对象物体设定部70识别出或错误地识别出的对象物体100tar。如上所述,在算出可信度Dc时,判定存在作为横向来车的对象物体100tar(图2中的步骤S3:是)。
在图5的步骤S11中,ECU44判定雷达目标100r的位置Por是否位于雷达目标假设区域116(下面称为“假设区域116”或“区域116”)内。假设区域116为,假设对象物体100tar为横向来车时,雷达目标100r的位置Por存在的区域。后面会说明假设区域116的详细情况。
当雷达目标100r的位置Por不在假设区域116内时(步骤S11:否),在步骤S12中,ECU44将可信度Dc选为“低”(图6中的第3横格及第4横格)。当雷达目标100r的位置Por位于假设区域116内时(步骤S11:是),进入步骤S13。
在步骤S13中,ECU44判定横向来车的特征部分Pcha是否在摄像头目标假设区域118(下面也称为“假设区域118”或“区域118”)内。该假设区域118为,假设对象物体100tar为横向来车时,特征部分Pcha存在的区域。
在本实施方式中,ECU44判定整个特征部分Pcha是否存在于假设区域118内。作为替代,ECU44还可以判定确定横向来车所需的最基本的组合是否位于假设区域118内。该最基本的组合包括:例如,其他车辆102的左端的垂直边缘(标识110l)与左侧车轮的圆形边缘(标识112l)这两个边缘中的至少一个,右端的垂直边缘(标识110r)与右侧车轮的圆形边缘(标识112r)这两个边缘中的至少一个。后面会进一步说明区域118的详细内容。
当特征部分Pcha不在假设区域118内时(S13:否),在步骤S14中,ECU44将可信度Dc选为“中”(图6中的第2横格)。当特征部分Pcha位于假设区域118内时(S13:是),在步骤S15中,ECU44将可信度Dc选为“高”(图6中的第1横格)。
(A2-3-2.假设区域116、118)
(A2-3-2-1.概要)
如参照图4进行的说明所示,当使用摄像头信息Ic中的横向来车的特征部分Pcha时,存在错误识别的可能性。因此,在本实施方式中,即使当雷达目标100r的位置Por与摄像头目标100c的位置Poc之间的距离是规定数值时,也通过步骤S11、S13(图5),对可信度Dc进行判定。在步骤S11、S13中,使用假设区域116、118。
(A2-3-2-2.雷达目标假设区域116)
如图3所示,雷达目标假设区域116设定于自车辆10的行驶道路104上(特别是,该目标假设区域116以假想的中心线Lx为中心线呈轴对称)。假设区域116不仅在横向(车宽方向)上具有一定宽度,还在纵向(高度方向)及前后方向上具有一定高度及长度。
假设区域116的宽度Lr例如可以是稍大于自车辆10(或者一般的乘用车)的车宽的数值(例如1.8~2.5米),或者,是稍小于前轮与后轮之间的距离(轮间距)或车辆整体长度的数值(例如2.0~3.0米)。假设区域116的高度Hr例如可以是稍小于自车辆10(或一般的乘用车)的车高的数值(例如0.8~1.8米)。
在图3中,假设区域116设定为直线状,其实也可以设定为与行驶道路104的形状相对应的曲线状。为了使假设区域116呈曲线状,例如可以利用由未图示的偏航角速度传感器检测出的偏航角速度等算出假设区域116。另外,也可以利用未图示的导航装置或配置于行驶道路104周围的红外信标等装置(路边装置),来获得行驶道路104的形状的相关信息,并利用该信息算出假设区域116.
另外,可以根据对象物体100tar(横向来车)的特征部分Pcha的位置,改变假设区域116的宽度Lr。例如,当对象物体100tar的左端与右端的垂直边缘(标识110l、110r)之间的距离大于基准值时,可以延长宽度Lr,当对象物体100tar的左端与右端的垂直边缘(标识110l、110r)之间的距离小于基准值时,可以缩短宽度Lr。
(A2-3-2-3.摄像头目标假设区域118)
如图3所示,摄像头目标假设区域118设定于自车辆10的行驶道路104上(该假设区域118以假想中心线Lx为中心线呈轴对称)。与假设区域116相同,假设区域118不仅在横向(车宽方向)上具有一定宽度,还在纵向(高度方向)及前后方向上具有一定高度及长度。在图像中,基于雷达目标100r的位置Por确定假设区域118在前后方向上的座标(范围)之后,能够确定该假设区域118。因此,在判定特征部分Pcha是否位于假设区域118内时,可以仅在前后方向上限定假设区域118。
另外,假设区域118具有与假设区域116重合的范围。假设区域118的宽度Lc大于假设区域116的宽度Lr。宽度Lc可以是大致等于一般乘用车的整体长度的数值,或者是大于一般乘用车的整体长度的数值(例如3.5~7.0米)。
假设区域118的高度Hc例如可以是稍大于自车辆10(或者一般的乘用车)的车高的数值(例如1.2~2.5米)。但是,只要能够检测出特征部分Pcha,也可以进一步缩小高度Hc的范围。因此,假设区域118的高度Hc有时会小于假设区域116的高度Hr。与假设区域116相同,该假设区域118也可以设定为曲线状。
另外,例如当对象物体100tar(横向来车)的特征部分Pcha表示大型车辆时,可以根据特征部分Pcha的位置来改变假设区域118的宽度Lc。例如,当对象物体100tar的左端与右端的垂直边缘(标识110l、110r)之间的距离大于基准值时,可以延长宽度Lc,当对象物体100tar的左端与右端的垂直边缘(标识110l、110r)之间的距离小于基准值时,可以缩短宽度Lc。
在本实施方式中,通过如上述那样来设定假设区域116、118,使假设区域116位于其他车辆102的前端与后端(横向来车的左端与右端)之间。也可以使假设区域116位于其他车辆102的前轮及后轮(横向来车的左侧与右侧的车轮)之间。
[A2-4.驾驶辅助处理(图2中的步骤S6)]
图7是驾驶辅助处理的流程图(图2中S6的详细情况)。在步骤S21中,ECU44对可信度Dc是否为“高”进行判定。当可信度为“高”时(步骤S21:是),在步骤S22中,ECU44对TTC是否在阈值THttc1以下进行判定。阈值THttc1是用于在可信度Dc为“高”的前提下判定是否进行自动制动及发出警报的阈值。
当TTC在阈值THttc1以下时(步骤S22:是),在步骤S23中,ECU44进行自动制动及发出警报(图6中的第1横格)。具体来讲,ECU44对VSAECU30发出进行自动制动的指令,并且通过警报装置22发出警报。当TTC大于阈值THttc1时(步骤S22:否),结束此次运算周期,在经过规定的时间之后,再次从步骤S21开始进行处理。
在步骤S21中,当可信度Dc不为“高”时(步骤S21:否),在步骤S24中,ECU44对可信度Dc是否为“中”进行判定。当可信度Dc为“中”时(步骤S24:是),在步骤S25中,ECU44对TTC是否在阈值THttc2以下进行判定。阈值THttc2是用于在可信度Dc为“中”的前提下判定是否发出警报的阈值,该阈值THttc2可以小于阈值THttc1或大于阈值THttc1。
当TTC在阈值THttc2以下时(步骤S25:是),在步骤S26中,ECU44发出警报(图6中的第2横格)。具体来讲,ECU44通过警报装置22发出警报。另外,当阈值THttc2小于阈值THttc1时,在步骤S26中,也可以与步骤S23相同,进行自动制动及发出警报。在这种情况下,由于阈值THttc2小于阈值THttc1,启动自动制动的时刻延迟,因而可以采用与步骤S23不同的方法抑制车辆的前进。另外,还可以采用如下与步骤S23不同的方法(进一步抑制制动力的方法)进行自动制动,例如,使自动制动的制动力小于步骤S23中的制动力等。另外,还可以使步骤23与步骤S26中的警报发出方法不同(当在步骤S26中进行小幅度的自动制动时,在步骤S26中可以省略警报)。当TTC大于阈值THttc2时(步骤S25:否),结束此次的运算周期,在经过规定的时间之后,再次从步骤S21开始进行处理。
返回步骤S24,当可信度Dc不为“中”时(S24:否),可信度Dc为“低”。在这种情况下,ECU44结束此次运算周期(图6中的第3横格及第4横格)。
A3.本实施方式的效果
如上所述,根据本实施方式,当雷达目标100r(第1周围物体)的位置Por位于假设区域116(第1对象区域)内(图5中的步骤S11:是),且摄像头目标100c(第2周围物体)的特征部分Pcha(摄像头目标110c的位置Poc)位于假设区域118(第2对象区域)内时(步骤S13:是),将对象物体100tar作为自动制动(动作辅助)的对象(图5的步骤S15、图7的步骤S21:是、步骤S23)。另外,当雷达目标100r的位置Por不在假设区域116内(图5中的步骤S11:否),或者特征部分Pcha不在假设区域118内时(步骤S13:否),从自动制动对象中除去对象物体100tar或抑制针对对象物体100tar进行的自动制动操作(参照图7中的步骤S21、步骤S24~S26)。假设区域116被设定为雷达40(第1检测装置)的扫描区域106r(第1检测区域)的一部分(换言之,假设区域116比扫描区域106r窄)(图3)。假设区域118被设定为摄像头42(第2检测装置)的拍摄区域106c(第2检测区域)的一部分(换言之,假设区域118比拍摄区域106c窄)(图3)。
从而,通过利用与雷达40及摄像头42分别对应的假设区域116、118(第1对象区域及第2对象区域),能够判定对象物体100tar是否为自动制动(动作辅助)的对象,或者能够判定是否抑制自动制动操作。因此,能够高精度地选择或判定作为自动制动的对象的对象物体100tar,或者能够适当地设定自动制动的程度。
在本实施方式中,使用雷达40作为第1检测装置,使用摄像头42作为第2检测装置,驾驶辅助控制部66(动作辅助控制装置)将雷达目标假设区域116(第1对象区域)设定为比摄像头目标假设区域118(第2对象区域)窄(图3)。
如上所述,基于雷达40确定的假设区域116被设定为比雷达40的扫描区域106r(第1检测区域)窄的区域,基于摄像头42确定的假设区域118被设定为比摄像头42的拍摄区域106c(第2检测区域)窄的区域(图3)。通常情况下,雷达40难以检测出物体100的端部。另外,当雷达40配置于车辆10上时,基于放射波Wt被侧石140等的行驶道路104(道路)两边的障碍物反射而生成的反射波Wr,该障碍物可能会被错误识别为对象物体100tar(参照图4)。根据本实施方式,在使基于雷达40确定的假设区域116相对变窄的同时,使基于摄像头42确定的假设区域118相对变宽(图3)。从而,对于雷达40难以检测到的区域,可以利用摄像头42的检测结果,从而能够更加高精度地选择或判定作为驾驶辅助(动作辅助)对象的对象物体100tar,或者能够更加确切地设定自动制动的程度。
当雷达目标100r(第1周围物体)的位置Por位于假设区域116(第1对象区域)内(图5的步骤S11:是)、且摄像头目标100c(第2周围物体)的特征部分Pcha(图像特征)全部位于假设区域118(第2对象区域)内时(步骤S13:是),驾驶辅助控制部66(动作辅助控制装置)将对象物体100tar作为自动制动(动作辅助)的对象(图5中的步骤S15、图7中的步骤S21:是、步骤S23)。
从而,通过将由摄像头42拍摄的整个对象物体100tar作为自动制动的对象,能够更加高精度地选择或判定作为自动制动对象的对象物体100tar,或者能够适当地设定自动制动的程度。
在本实施方式中,对象物体100tar为横向来车(图2中的步骤S3:是),横向来车的特征部分Pcha(图像特征)包含有:构成横向来车的左端及右端(其他车辆102的前端及后端)的垂直边缘(标识110l、110r)、左右的车轮(其他车辆102的前轮及后轮)的圆形边缘(标识112l、112r)以及车体下部的水平边缘(标识114)(图3)。从而,能够高精度地判定横向来车。
在本实施方式中,对象物体设定部70(对象物体设定装置)将对象物体100tar识别为存在于行驶道路104(行驶轨迹)上的横向来车(图2的步骤S3、图3)。另外,驾驶辅助控制部66(动作辅助控制装置)在车辆10(移动物体)的行驶道路104(行驶轨迹)上设定雷达目标假设区域116(第1对象区域)及摄像头目标假设区域118(第2对象区域)(图3)。
从而,即使对象物体设定部70(对象物体设定装置)错误地识别为车辆10(移动物体)的行驶道路104上存在作为对象物体100tar的横向来车,也能够从自动制动(动作辅助)的对象中除去对象物体100tar,或者抑制针对对象物体100tar进行的自动制动。
B.变形例
另外,本发明并不局限于上述实施方式,基于本说明书的记载内容,本发明还能够采用多种结构。例如,可以采用下面的结构。
B1.适用对象
在上述实施方式中,物体识别装置12适用于车辆10,但是并不局限于此,物体识别装置12还可以适用于其他对象。例如,物体识别装置12可以适用于船舶或飞机等移动物体。或者,物体识别装置12还可以适用于机器人、安防监视系统或家用电器。另外,可以不将物体识别装置12安装在车辆10(移动物体)上,而是配置于车辆10的外部(例如红外信标等路边装置)。在这种情况下,可以在车辆10与物体识别装置12之间进行通信,将物体识别装置12的识别结果(TTC、可信度Dc或对象物体信息It)发送给车辆10。
B2.物体识别装置12的结构
在上述实施方式中,主要在物体识别装置12中利用物体识别装置12的判定结果(TTC、可信度Dc或对象物体信息It)(图2中的步骤S6、图7)。但是,也可以将该判定结果输出至VSAECU30、EPSECU32与PUHECU34,在VSAECU30、EPSECU32与PUHECU34中单独利用该判定结果。
在上述实施方式中,虽然使用以毫米波作为发射波Wt与反射波Wr的雷达40,但是并不局限于此。例如,从利用因作为发射波Wt的电磁波被反射而生成的反射波Wr来获得第1周围物体100r的信息Ir的观点来看的话,可以使用激光雷达、超声波传感器等传感器。
在上述实施方式中,组合使用雷达40及摄像头42(图1)。但是,从如下观点,即使用与用于检测物体100的多个或多种检测装置分别对应的假设区域(假设区域116、118等),来判定对象物体100tar是否为驾驶辅助(动作辅助)的对象的观点来看的话,并不局限于此。例如,还可以组合使用发出毫米波的雷达40及激光雷达。
B3.物体识别ECU44的控制
[B3-1.对象物体100tar的属性(图2的S3、图3)]
在上述实施方式中,着重说明对象物体100tar的属性Prtar为横向来车时的情况(图2中的步骤S3、图3等)。但是,从单独利用雷达目标假设区域116或组合使用假设区域116、118的观点来看,并不局限于此。例如,当对象物体100tar是与自车辆10在同一行驶道路104上行驶的前方车辆时,也可以单独利用假设区域116或组合使用假设区域116、118,来判定对象物体100tar的可信度Dc。
[B3-2.可信度Dc的计算(图2的S5、图5)]
在上述实施方式中,以自车辆10的行驶道路104为基准设定假设区域116、118(图3)。但是,例如着眼于雷达目标100r的位置Por与摄像头目标100c的特征部分Pcha的位置关系的话,并不局限于此。例如,可以以位置Por(或者特征部分Pcha的位置)为基准,设定假设区域116、118。
例如,当以位置Por为基准设定假设区域116、118时,使假设区域116、118由图3所示的设定位置(自车辆10的行驶道路104上)移动相同的距离。
如上所述,在以位置Por为基准设定假设区域116、118的情况(或者除此之外的情况)下,可以使假设区域116的宽度Lr小于上述实施方式中的宽度(图3)。例如,可以根据横向来车的左端与右端(标识110l、110r)之间的距离、或者构成左右车轮的圆形边缘(标识1121、112r)之间的距离来设定宽度Lr。或者,根据构成横向来车左端的垂直边缘(标识110l)与构成右侧车轮的圆形边缘(标识112r)之间的距离、或者构成横向来车右端的垂直边缘(标识110r)与构成左侧车轮的圆形边缘(标识112l)之间的距离来设定宽度Lr。
在上述实施方式中,由于可以算出横向来车的可信度Dc,因而能够判定雷达目标100r的位置Por是否在假设区域116内(图5中的步骤S11),以及横向来车的特征部分Pcha是否在假设区域118内(步骤S13)。但是,可信度Dc的计算方法并不局限于此。
例如,除利用图5中的步骤S11、S13算出可信度Dc以外,还可以通过判定雷达目标100r的中心或重心(标识108)是否位于横向来车的左端与右端(标识110l、110r)之间,来算出可信度Dc。
从而,当基于雷达40的检测结果算出的雷达目标100r(第1周围物体)的中心或重心(标识108)位于与横向来车的中心或重心完全不同的位置上时,可以判定对象物体100tar不是横向来车。因此,能够高精度地选择或判定作为自动制动对象的对象物体100tar,或者能够适当地设定自动制动的程度。
另外,还可以判定雷达目标100r的中心或重心(标识108)是否位于构成左右车轮的圆形边缘(标识1121、112r)之间,以此来代替雷达目标100r的中心或重心(标识108)是否位于横向来车的左端及右端(标识1101、110r)之间的判定。或者,还可以判定雷达目标100r的中心或重心(标识108)是否位于构成横向来车左端的垂直边缘(标识110l)与构成右侧车轮的圆形边缘(标识112r)之间,或者判定其是否位于构成横向来车右端的垂直边缘(标识110r)与构成左侧车轮的圆形边缘(标识1121)之间。
[B3-3.驾驶辅助处理(图2的S6、图7)]
在上述实施方式中,在驾驶辅助处理中,除使用可信度Dc以外,还使用TTC(图7中的步骤S22、S25)。但是,如果着重于可信度Dc的功能的话,可以不使用TTC。在这种情况下,从需要与TTC相同的时间限制这一观点来看,可以在假设区域116、118中设定或限制于前后方向(自车辆10的行驶方向)上的距离范围。
在上述实施方式中,作为驾驶辅助列举出了自动制动的例子(图6中的第1横格及图7中的步骤S23),但是还可以使用转向辅助等其他驾驶辅助。另外,当在除车辆10以外的移动物体中使用本发明时,还可以使用动作辅助代替驾驶辅助。
[B3-4.其他]
在上述实施方式中,在使雷达目标100r的位置Por与摄像头目标100c的特征部分Pcha的位置相关联之后(即,匹配两者的位置之后),将位置Por及特征部分Pcha的位置与假设区域116、118(图2、图5)进行了对比。但是,从利用假设区域116、118中的至少一个区域的观点来看,并不局限于此。
例如,在进行匹配时,可以组合使用假设区域116与假设区域118。具体来讲,可以以雷达目标100r的位置Por为基准,在仅存在各特征部分Pcha的范围(横向、纵向及前后方向)内提取出特征部分Pcha,对特征部分Pcha与位置Por进行匹配。这里的提取区域是相当于摄像头目标假设区域118的区域。
从而,能够以雷达40检测出的雷达目标100r(第1周围物体)为基准,将用于提取横向来车的特征部分Pcha的假设区域118(特征部分对象区域)(摄像头42的拍摄区域106c的一部分)设定为较窄的区域。因此,能够使选择或判定作为横向来车的对象物体100tar的精度较高且运算量较少。

Claims (8)

1.一种物体识别装置(12),具有第1检测装置、第2检测装置、对象物体设定装置(70)及动作辅助控制装置(66),其中,
所述第1检测装置检测出第1位置信息,该第1位置信息表示设定于移动物体周围的第1检测区域(106r)内的第1周围物体的位置;
所述第2检测装置检测出第2位置信息,该第2位置信息表示与所述第1检测区域(106r)的一部分或全部重合的第2检测区域(106c)内的第2周围物体的位置;
所述对象物体设定装置(70)利用所述第1位置信息及所述第2位置信息,对所述第1周围物体与所述第2周围物体进行匹配,从而设定对象物体(100tar);
所述动作辅助控制装置(66)根据所述对象物体(100tar)与所述移动物体之间的关系对所述移动物体的动作辅助进行控制,
其特征在于,
所述动作辅助控制装置(66)将第1对象区域(116)设定为所述第1检测区域(106r)的一部分,该第1对象区域(116)用于判定所述对象物体(100tar)是否为所述动作辅助的对象,
所述动作辅助控制装置(66)将第2对象区域(118)设定为所述第2检测区域(106c)的一部分,该第2对象区域(118)用于判定所述对象物体(100tar)是否为所述动作辅助的对象,
当所述第1周围物体的位置位于所述第1对象区域(116)内,且所述第2周围物体的位置位于所述第2对象区域(118)内时,所述动作辅助控制装置(66)将所述对象物体(100tar)作为所述动作辅助的对象,
当所述第1周围物体的位置不在所述第1对象区域(116)内,或者所述第2周围物体的位置不在所述第2对象区域(118)内时,所述动作辅助控制装置(66)从所述动作辅助的对象中除去所述对象物体(100tar),或者抑制针对所述对象物体(100tar)进行的所述动作辅助。
2.根据权利要求1所述的物体识别装置(12),其特征在于,
所述第1检测装置为雷达(40),
所述第2检测装置为摄像头(42),
所述动作辅助控制装置(66)将所述第1对象区域(116)设定为比所述第2对象区域(118)窄的区域。
3.根据权利要求2所述的物体识别装置(12),其特征在于,
当所述第1周围物体的位置位于所述第1对象区域(116)内,且所述第2周围物体的图像特征全部位于所述第2对象区域(118)内时,所述动作辅助控制装置(66)将所述对象物体(100tar)作为所述动作辅助的对象。
4.根据权利要求3所述的物体识别装置(12),其特征在于,
所述对象物体(100tar)为横向来车,
所述图像特征包括:构成所述横向来车左端的垂直边缘(110l)及构成左侧车轮的圆形边缘(112l)这两个边缘中的至少一个,以及构成所述横向来车右端的垂直边缘(110r)及构成右侧车轮的圆形边缘(112r)这两个边缘中的至少一个。
5.根据权利要求4所述的物体识别装置(12),其特征在于,
当所述第1周围物体的中心或重心位于所述横向来车的所述左端与所述右端之间,或者位于所述左侧车轮与所述右侧车轮之间时,所述动作辅助控制装置(66)将所述对象物体(100tar)作为所述动作辅助的对象,
当所述第1周围物体的中心或重心不在所述横向来车的所述左端与所述右端之间,或者不在所述左侧车轮与所述右侧车轮之间时,所述动作辅助控制装置(66)从所述动作辅助的对象中除去所述对象物体(100tar)。
6.根据权利要求1~5中任意一项所述的物体识别装置(12),其特征在于,
所述对象物体设定装置(70)将所述对象物体(100tar)识别为存在于所述移动物体的行驶轨迹上的横向来车,
所述动作辅助控制装置(66)在所述行驶轨道上设定所述第1对象区域(116)及所述第2对象区域(118)。
7.一种车辆(10),其特征在于,
其为所述移动物体,其具有权利要求1~5中任意一项所述的物体识别装置(12)。
8.一种物体识别装置(12),具有雷达(40)、摄像头(42)及对象物体设定装置(70),其中,
所述雷达(40)检测出第1位置信息,该第1位置信息表示设定于移动物体周围的第1检测区域(106r)内的第1周围物体的位置,
所述摄像头(42)检测出第2位置信息,该第2位置信息表示与所述第1检测区域(106r)的一部分或全部重合的第2检测区域(106c)内的第2周围物体的位置,
所述对象物体设定装置(70)利用所述第1位置信息及第2位置信息,对所述第1周围物体及所述第2周围物体进行匹配,从而设定作为横向来车的对象物体(100tar),
其特征在于,
所述对象物体设定装置(70)使用于提取所述横向来车的特征部分的特征部分对象区域以所述第1周围物体的位置为基准,并将所述特征部分对象区域设定为所述第2检测区域(106c)的一部分,
当所述横向来车的特征部分位于所述特征部分对象区域内时,所述对象物体设定装置(70)判定所述第1周围物体与所述第2周围物体是同一个所述对象物体(100tar)、且所述对象物体(100tar)为所述横向车辆。
CN201510254523.3A 2014-05-21 2015-05-18 物体识别装置及车辆 Active CN105083265B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-105037 2014-05-21
JP2014105037A JP6190758B2 (ja) 2014-05-21 2014-05-21 物体認識装置及び車両

Publications (2)

Publication Number Publication Date
CN105083265A true CN105083265A (zh) 2015-11-25
CN105083265B CN105083265B (zh) 2017-12-12

Family

ID=54432006

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510254523.3A Active CN105083265B (zh) 2014-05-21 2015-05-18 物体识别装置及车辆

Country Status (4)

Country Link
US (1) US9476976B2 (zh)
JP (1) JP6190758B2 (zh)
CN (1) CN105083265B (zh)
DE (1) DE102015209112A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107015226A (zh) * 2016-01-15 2017-08-04 松下电器产业株式会社 物体检测装置及物体检测方法
CN108001456A (zh) * 2016-11-02 2018-05-08 福特全球技术公司 基于车辆通信的对象分类调整
CN109987089A (zh) * 2018-11-29 2019-07-09 惠州华阳通用电子有限公司 一种静态障碍物判断方法及装置
CN110068348A (zh) * 2018-01-22 2019-07-30 大陆汽车有限责任公司 用于在物体的周围环境中探测界限的方法和装置
CN110345963A (zh) * 2016-06-27 2019-10-18 御眼视觉技术有限公司 基于检测到的停放车辆特性控制主车辆
CN110481485A (zh) * 2019-08-21 2019-11-22 宁波吉利汽车研究开发有限公司 防止发动机盖误弹起的方法、装置、设备及存储介质
CN110857088A (zh) * 2018-08-15 2020-03-03 比亚迪股份有限公司 目标识别方法、装置、计算机可读存储介质及车辆
CN112562412A (zh) * 2020-12-07 2021-03-26 广州小鹏自动驾驶科技有限公司 一种数据处理的方法和装置
CN113093176A (zh) * 2019-12-23 2021-07-09 北京三快在线科技有限公司 线状障碍物检测方法、装置、电子设备和存储介质

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013216994A1 (de) * 2013-08-27 2015-03-05 Robert Bosch Gmbh Geschwindigkeitsassistent für ein Kraftfahrzeug
JP6174516B2 (ja) * 2014-04-24 2017-08-02 本田技研工業株式会社 衝突回避支援装置、衝突回避支援方法、及びプログラム
JP2017019421A (ja) * 2015-07-13 2017-01-26 日立オートモティブシステムズ株式会社 周辺環境認識装置、及び周辺環境認識プログラム
EP3352134B1 (en) * 2015-09-15 2023-10-11 Ricoh Company, Ltd. Image processing device, object recognition device, device control system, image processing method, and program
EP3432291A4 (en) * 2016-03-15 2019-03-27 Ricoh Company, Ltd. Image Processing Device, Object Recognition Device, Device Control System, Image Processing Method and Program
JP6600271B2 (ja) * 2016-03-31 2019-10-30 株式会社デンソー 物体認識装置及び物体認識方法
US10852418B2 (en) * 2016-08-24 2020-12-01 Magna Electronics Inc. Vehicle sensor with integrated radar and image sensors
EP3600962A4 (en) * 2017-03-31 2020-12-16 A^3 By Airbus, LLC VEHICLE MONITORING SYSTEMS AND METHODS FOR DETECTING EXTERNAL OBJECTS
CN110753646B (zh) * 2017-06-26 2022-11-25 日立安斯泰莫株式会社 驻车辅助装置
CN109212532B (zh) * 2017-07-04 2021-08-20 百度在线网络技术(北京)有限公司 用于检测障碍物的方法和装置
JP7045155B2 (ja) * 2017-09-14 2022-03-31 株式会社デンソー 物標認識装置、物標認識方法及び車両制御システム
JP6805105B2 (ja) 2017-09-28 2020-12-23 株式会社デンソー 制御対象車両設定装置、制御対象車両設定システムおよび制御対象車両設定方法
EP3696788B1 (en) * 2017-10-10 2022-08-10 Nissan Motor Co., Ltd. Driving control method and driving control apparatus
LU100761B1 (en) * 2018-04-03 2019-10-07 Iee Sa Method for obstacle identification
JP7027279B2 (ja) * 2018-08-07 2022-03-01 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN110969055B (zh) * 2018-09-29 2023-12-19 阿波罗智能技术(北京)有限公司 用于车辆定位的方法、装置、设备和计算机可读存储介质
US20230056929A1 (en) * 2020-01-31 2023-02-23 Mitsubishi Electric Corporation Preceding vehicle determining device and preceding vehicle determining program
JP7211397B2 (ja) 2020-05-15 2023-01-24 トヨタ自動車株式会社 他車両表示システム
JP7474689B2 (ja) 2020-12-04 2024-04-25 日産自動車株式会社 物体検出方法及び物体検出装置
DE102022200151A1 (de) * 2022-01-10 2023-07-13 Robert Bosch Gesellschaft mit beschränkter Haftung Sensor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1779483A (zh) * 2004-11-26 2006-05-31 欧姆龙株式会社 车载用图像处理装置
US20070168128A1 (en) * 2004-01-28 2007-07-19 Setsuo Tokoro Running support system for vehicle
JP2010026619A (ja) * 2008-07-16 2010-02-04 Hitachi Automotive Systems Ltd 車両運転支援装置
CN102057414A (zh) * 2008-06-12 2011-05-11 本田技研工业株式会社 车辆周围监视装置
CN103460264A (zh) * 2011-04-20 2013-12-18 丰田自动车株式会社 车辆用周边警戒装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5379543B2 (ja) * 2009-04-09 2013-12-25 日立オートモティブシステムズ株式会社 自動車の外界認識装置
JP6022983B2 (ja) * 2013-03-29 2016-11-09 株式会社日本自動車部品総合研究所 運転支援装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070168128A1 (en) * 2004-01-28 2007-07-19 Setsuo Tokoro Running support system for vehicle
CN1779483A (zh) * 2004-11-26 2006-05-31 欧姆龙株式会社 车载用图像处理装置
CN102057414A (zh) * 2008-06-12 2011-05-11 本田技研工业株式会社 车辆周围监视装置
JP2010026619A (ja) * 2008-07-16 2010-02-04 Hitachi Automotive Systems Ltd 車両運転支援装置
CN103460264A (zh) * 2011-04-20 2013-12-18 丰田自动车株式会社 车辆用周边警戒装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107015226A (zh) * 2016-01-15 2017-08-04 松下电器产业株式会社 物体检测装置及物体检测方法
CN110345963A (zh) * 2016-06-27 2019-10-18 御眼视觉技术有限公司 基于检测到的停放车辆特性控制主车辆
CN108001456A (zh) * 2016-11-02 2018-05-08 福特全球技术公司 基于车辆通信的对象分类调整
CN110068348A (zh) * 2018-01-22 2019-07-30 大陆汽车有限责任公司 用于在物体的周围环境中探测界限的方法和装置
CN110068348B (zh) * 2018-01-22 2024-03-29 大陆智行德国有限公司 用于在物体的周围环境中探测界限的方法和装置
CN110857088A (zh) * 2018-08-15 2020-03-03 比亚迪股份有限公司 目标识别方法、装置、计算机可读存储介质及车辆
CN110857088B (zh) * 2018-08-15 2021-01-19 比亚迪股份有限公司 目标识别方法、装置、计算机可读存储介质及车辆
CN109987089A (zh) * 2018-11-29 2019-07-09 惠州华阳通用电子有限公司 一种静态障碍物判断方法及装置
CN110481485A (zh) * 2019-08-21 2019-11-22 宁波吉利汽车研究开发有限公司 防止发动机盖误弹起的方法、装置、设备及存储介质
CN110481485B (zh) * 2019-08-21 2020-11-03 宁波吉利汽车研究开发有限公司 防止发动机盖误弹起的方法、装置、设备及存储介质
CN113093176A (zh) * 2019-12-23 2021-07-09 北京三快在线科技有限公司 线状障碍物检测方法、装置、电子设备和存储介质
CN112562412A (zh) * 2020-12-07 2021-03-26 广州小鹏自动驾驶科技有限公司 一种数据处理的方法和装置

Also Published As

Publication number Publication date
CN105083265B (zh) 2017-12-12
US9476976B2 (en) 2016-10-25
JP6190758B2 (ja) 2017-08-30
US20150338516A1 (en) 2015-11-26
DE102015209112A1 (de) 2015-11-26
JP2015219858A (ja) 2015-12-07

Similar Documents

Publication Publication Date Title
CN105083265A (zh) 物体识别装置及车辆
US9797734B2 (en) Object recognition apparatus
EP3078515B1 (en) Collision avoidance based on front wheel off tracking during reverse operation
EP3172589B1 (en) Method for mitigating radar sensor limitations with video camera input for active braking for pedestrians
KR101628503B1 (ko) 운전자 보조장치 및 그 작동 방법
CN106030336B (zh) 车辆周围状况识别设备和车辆控制设备
CN107921923A (zh) 用于自动化车辆的行人意图检测
CN105128836A (zh) 自主紧急制动系统及其中识别行人的方法
CN110573905A (zh) 障碍物检知装置
US20150035983A1 (en) Method and vehicle assistance system for active warning and/or for navigation assistance to prevent a collosion of a vehicle body part and/or of a vehicle wheel with an object
CN104118382A (zh) 碰撞确定设备、碰撞减轻设备和碰撞确定方法
CN105372654A (zh) 障碍物分类可靠度量化的方法
CN104773177A (zh) 辅助驾驶方法和装置
US20160375932A1 (en) Method for detecting vehicle collision
CN113874914A (zh) 用于求取牵引机与牵引机的挂车之间的运行角度
CN110920618A (zh) 车辆的控制系统以及车辆的控制方法
EP3690802A1 (en) Vehicle exterior recognition device
EP3545465B1 (en) Information processing apparatus, imaging apparatus, apparatus control system, movable object, information processing method, and information processing program
CN113335311B (zh) 一种车辆碰撞检测方法、装置、车辆及存储介质
JP6193177B2 (ja) 動作支援システム及び物体認識装置
KR102228386B1 (ko) 선회 궤적 예측 기반의 충돌 회피 제동 제어 방법 및 장치
CN210363587U (zh) 一种辅助驾驶系统
JP4768499B2 (ja) 車載周辺他車検出装置
US11794809B1 (en) Vehicle and trailer wheel path collision detection and alert
CN110641460A (zh) 车辆控制系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant