CN105270287A - 车辆驾驶辅助装置及具有该车辆驾驶辅助装置的车辆 - Google Patents

车辆驾驶辅助装置及具有该车辆驾驶辅助装置的车辆 Download PDF

Info

Publication number
CN105270287A
CN105270287A CN201510284787.3A CN201510284787A CN105270287A CN 105270287 A CN105270287 A CN 105270287A CN 201510284787 A CN201510284787 A CN 201510284787A CN 105270287 A CN105270287 A CN 105270287A
Authority
CN
China
Prior art keywords
mentioned
vehicle
treater
calibration
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510284787.3A
Other languages
English (en)
Other versions
CN105270287B (zh
Inventor
吴尚杰
金益圭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN105270287A publication Critical patent/CN105270287A/zh
Application granted granted Critical
Publication of CN105270287B publication Critical patent/CN105270287B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60GVEHICLE SUSPENSION ARRANGEMENTS
    • B60G17/00Resilient suspensions having means for adjusting the spring or vibration-damper characteristics, for regulating the distance between a supporting surface and a sprung part of vehicle or for locking suspension during use to meet varying vehicular or surface conditions, e.g. due to speed or load
    • B60G17/015Resilient suspensions having means for adjusting the spring or vibration-damper characteristics, for regulating the distance between a supporting surface and a sprung part of vehicle or for locking suspension during use to meet varying vehicular or surface conditions, e.g. due to speed or load the regulating means comprising electric or electronic elements
    • B60G17/016Resilient suspensions having means for adjusting the spring or vibration-damper characteristics, for regulating the distance between a supporting surface and a sprung part of vehicle or for locking suspension during use to meet varying vehicular or surface conditions, e.g. due to speed or load the regulating means comprising electric or electronic elements characterised by their responsiveness, when the vehicle is travelling, to specific motion, a specific condition, or driver input
    • B60G17/0165Resilient suspensions having means for adjusting the spring or vibration-damper characteristics, for regulating the distance between a supporting surface and a sprung part of vehicle or for locking suspension during use to meet varying vehicular or surface conditions, e.g. due to speed or load the regulating means comprising electric or electronic elements characterised by their responsiveness, when the vehicle is travelling, to specific motion, a specific condition, or driver input to an external condition, e.g. rough road surface, side wind
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60GVEHICLE SUSPENSION ARRANGEMENTS
    • B60G17/00Resilient suspensions having means for adjusting the spring or vibration-damper characteristics, for regulating the distance between a supporting surface and a sprung part of vehicle or for locking suspension during use to meet varying vehicular or surface conditions, e.g. due to speed or load
    • B60G17/015Resilient suspensions having means for adjusting the spring or vibration-damper characteristics, for regulating the distance between a supporting surface and a sprung part of vehicle or for locking suspension during use to meet varying vehicular or surface conditions, e.g. due to speed or load the regulating means comprising electric or electronic elements
    • B60G17/018Resilient suspensions having means for adjusting the spring or vibration-damper characteristics, for regulating the distance between a supporting surface and a sprung part of vehicle or for locking suspension during use to meet varying vehicular or surface conditions, e.g. due to speed or load the regulating means comprising electric or electronic elements characterised by the use of a specific signal treatment or control method
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/22
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • B60T7/22Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger initiated by contact of vehicle, e.g. bumper, with an external object, e.g. another vehicle, or by means of contactless obstacle detectors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • B60W10/184Conjoint control of vehicle sub-units of different type or different function including control of braking systems with wheel brakes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/22Conjoint control of vehicle sub-units of different type or different function including control of suspension systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60GVEHICLE SUSPENSION ARRANGEMENTS
    • B60G2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • B60G2400/80Exterior conditions
    • B60G2400/82Ground surface
    • B60G2400/821Uneven, rough road sensing affecting vehicle body vibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60GVEHICLE SUSPENSION ARRANGEMENTS
    • B60G2401/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60G2401/14Photo or light sensitive means, e.g. Infrared
    • B60G2401/142Visual Display Camera, e.g. LCD
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/02Active or adaptive cruise control system; Distance control
    • B60T2201/022Collision avoidance systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2260/00Interaction of vehicle brake system with other systems
    • B60T2260/06Active Suspension System
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及车辆驾驶辅助装置及具有该车辆驾驶辅助装置的车辆。根据本发明的实施例的车辆驾驶辅助装置包括:立体摄像头;以及处理器,在校准模式下,处理器基于由立体摄像头取得的立体图像中的包括车辆结构物对象或车辆外部结构物对象的第一区域来执行校准,而在标准模式下,处理器基于由立体摄像头取得的立体图像中的未包括车辆结构物对象或车辆外部结构物对象的第二区域来对车辆前方的对象执行距离检测。

Description

车辆驾驶辅助装置及具有该车辆驾驶辅助装置的车辆
技术领域
本发明涉及车辆驾驶辅助装置及具有该车辆驾驶辅助装置的车辆,更详细地涉及基于由立体摄像头所拍摄的图像,能够执行正确的距离检测的车辆驾驶辅助装置及具有该车辆驾驶辅助装置的车辆。
背景技术
车辆为搭乘的使用人员向所需的方向进行移动的装置。代表性地,可例举汽车。
另一方面,为了利用车辆的使用人员的便利,正处于设置各种传感器和电子装置等的趋势。尤其,为了使用人员的驾驶的便利,正开发出多种装置。
发明内容
本发明的目的在于,提供基于由立体摄像头所拍摄的图像,能够执行正确的距离检测的车辆驾驶辅助装置及具有该车辆驾驶辅助装置的车辆。
为了实现上述目的的本发明的实施例的车辆驾驶辅助装置包括:立体摄像头;以及处理器,在校准模式下,处理器基于由立体摄像头取得的立体图像中的包括车辆结构物对象或车辆外部结构物对象的第一区域来执行校准,而在标准模式下,处理器基于由立体摄像头取得的立体图像中的未包括车辆结构物对象或车辆外部结构物对象的第二区域来对车辆前方的对象执行距离检测。
另一方面,为了实现上述目的的本发明的实施例的车辆包括:转向驱动部,用于驱动转向装置;制动器驱动部,用于驱动制动装置;动力源驱动部,用于驱动动力源;悬架驱动部,用于驱动悬架装置;立体摄像头;处理器,在校准模式下,处理器基于由立体摄像头取得的立体图像中的包括车辆结构物对象或车辆外部结构物对象的第一区域来执行校准,而在标准模式下,处理器基于由立体摄像头取得的立体图像中的未包括车辆结构物对象或车辆外部结构物对象的第二区域来对车辆前方的对象执行距离检测;以及控制部,基于检测出的车辆前方的对象的距离来生成用于控制车辆的转向驱动部、制动器驱动部、动力源驱动部、悬架驱动部中的至少一种的控制信号。
根据本发明的一实施例的车辆驾驶辅助装置及具有该装置的车辆,在校准模式下,基于由立体摄像头取得的立体图像中的包括车辆结构物对象或车辆外部结构物对象的第一区域来执行校准,而在标准模式下,基于由立体摄像头取得的立体图像中的第二区域来对车辆前方的对象执行距离检测,由此,可基于由立体摄像头所拍摄的图像,来执行正确的距离检测。
尤其,在因受到外部冲击而导致立体摄像头的配置错位的情况下,通过这种校准模式,可对由立体摄像头取得的图像执行校准,进而,基于经校准的立体图像,可正确执行距离检测,提高车辆驾驶辅助装置的正确性。
并且,基于这种距离检测,生成用于控制转向驱动部、制动器驱动部、动力源驱动部、悬架驱动部中的至少一种的控制信号,进而可执行对车辆的控制。
另一方面,在车辆起动时或者规定按钮运行时或者对车辆的外部冲击达到规定值以上时或者车辆在行驶过程中暂停时等情况下执行这种校准模式,因此,可进一步确保使用者方便使用。
另一方面,通过显示用于表示校准模式的指示器或输出声音,确保使用者能够即时意识到正在校准。
附图说明
图1为示出本发明一实施例的设有立体摄像头的车辆外观的图。
图2为示出附着于图1的车辆的立体摄像头的外观的图。
图3a至图3b例示本发明一实施例的车辆驾驶辅助装置的内部框图的多种例。
图4a至图4b例示图3a至图3b的处理器的内部框图的多种例。
图5a至图5b为图4a至图4b的处理器的工作说明所参照的图。
图6a至图6b为图3a至图3b的车辆驾驶辅助装置的工作说明所参照的图。
图7为图1的车辆的电子控制装置的内部框图的一例。
图8为示出本发明一实施例的车辆驾驶辅助装置的工作方法的顺序图。
图9至图12c为为了说明图8的工作方法的说明而参照的图。
图13a至图13b为用于说明车辆打滑时的车辆姿势控制的参照图。
图14至图15b为用于说明图13a或图13b的车辆姿势控制的参照图。
图16a至图16b为示出图2的立体摄像头的内部框图。
具体实施方式
以下,参照附图对本发明进行详细说明。
对于在以下说明中使用的结构要素的词尾“模块”及“部”仅是考虑本说明书的制作便利性而赋予的词,其并不赋予特别重要的意义或作用。因此,也能以相互混用的方式使用上述“模块”及“部”。
在本说明书中记述的车辆可为包括汽车、摩托车的概念。以下,以汽车作为主要的车辆进行记述。
另一方面,在本说明中记述的车辆可为包括具有引擎的车辆、具有引擎和电机的混合动力车辆、具有电机的电动车辆等的概念。以下,以具有引擎的车辆为主进行记述。
另一方面,在本说明中记述的车辆驾驶辅助装置可以被称为先进驾驶辅助系统(ADAS,AdvancedDriverAssistanceSystems)或先进驾驶辅助装置(ADAA,AdvancedDriverAssistanceApparatus)。以下,对本发明的多种实施例的车辆的车辆驾驶辅助装置及具有其的车辆进行记述。
图1为示出本发明一实施例的设有立体摄像头的车辆外观的图。
参照附图,车辆200可包括:轮胎103FR、103FL、103RL…,借助动力源来进行旋转;转向盘150,用于调整车辆200的前进方向;以及立体摄像头195,设置于车辆200的内部。
立体摄像头195可具有多个摄像头,而通过多个摄像头来取得的立体图像可在车辆驾驶辅助装置100(图3)内得到信号处理。
另一方面,附图例示出立体摄像头195具有两个摄像头。
图2为示出附着于图1的车辆的立体摄像头的外观的图。
参照附图,立体摄像头模块195可包括:第一摄像头195a,设有第一镜头193a;以及第二摄像头195b,设有第二镜头193b。
另一方面,立体摄像头模块195可包括分别用于遮蔽向第一镜头193a和第二镜头193b入射的光的第一光遮蔽部(lightshield)192a、第二光遮蔽部192b。
图中的立体摄像头模块195可以为能够在顶部或前表面玻璃进行装拆的结构。
具有这种立体摄像头模块195的车辆驾驶辅助装置(图3中的100)可由立体摄像头模块195取得车辆前方的立体图像,基于立体图像来执行视差(disparity)检测,并基于视差信息来对至少一个立体图像执行对象检测,在完成对象检测之后,继续跟踪对象的移动。
图3a至图3b例示本发明一实施例的车辆驾驶辅助装置的内部框图的多种例。
图3a至图3b的车辆驾驶辅助装置100能够基于计算机视觉(computervision)来对从立体摄像头195接收的立体图像进行信号处理,从而生成与车辆相关的信息。其中,与车辆相关的信息可包括用于直接控制车辆的车辆控制信息或用于引导车辆驾驶人员进行驾驶的车辆驾驶辅助信息。
首先,参照附图3a,图3a中的车辆驾驶辅助装置100可包括通信部120、接口部130、存储器140、处理器170、供电部190及立体摄像头195。
通信部120能够以无线(wireless)方式与移动终端600或服务器500进行数据交换。尤其,通信部120能够以无线方式与车辆驾驶人员的移动终端进行数据交换。作为无线数据通信方式,可进行蓝牙(Bluetoote)、WiFiDirect、WiFi、APIX等多种数据通信方式。
通信部120可从移动终端600或服务器500接收天气信息、道路交通情况信息,例如传输协议专家组(TPEG,TransportProtocolExpertGroup)信息。另一方面,可向移动终端600或服务器500传输基于立体图像来从车辆驾驶辅助装置100掌握的实时交通信息。
另一方面,在使用人员搭乘车辆的情况下,使用人员的移动终端600和车辆驾驶辅助装置100能够自动或借助使用人员的应用执行来执行相互配对(pairing)。
接口部130可接收与车辆相关的数据或向外部传输在处理器170中处理或生成的信号。为此,接口部130可借助有线通信或无线通信的方式来与车辆的电子控制单元(ECU)770、音频视频导航(AVN,AudioVideoNavigation)装置400、传感部760等执行数据通信。
接口部130科借助与音频视频导航装置400之间的数据通信来接收与车辆的行驶相关的图像(map)信息。
另一方面,接口部130可从电子控制单元770或传感部760接收传感器信息。
在此,传感器信息可包括车辆方向信息、车辆位置信息(GPS信息)、车辆角度信息、车辆速度信息、车辆加速度信息、车辆倾斜度信息、车辆前进/后退信息、电池信息、燃料信息、轮胎信息、车灯信息、车辆内部温度信息、车辆内部湿度信息中的至少一个。
这种传感器信息可从航向传感器(headingsensor)、偏航传感器(yawsensor)、陀螺传感器(gyrosensor)、定位模块(positionmodule)、车辆前进/后退传感器、车轮传感器(wheelsensor)、车辆速度传感器、自身倾斜检测传感器、电池传感器、燃料传感器、轮胎传感器、基于转向盘旋转的转向盘传感器、车辆内部温度传感器及车辆内部湿度传感器等取得。另一方面,定位模块可包括用于接收GPS信息的GPS模块。
另一方面,在传感器信息中,可将与车辆行驶相关的车辆方向信息、车辆位置信息、车辆角度信息、车辆速度信息、车辆倾斜度信息等命名为车辆行驶信息。
存储器140可存储用于处理或控制处理器170的程序等、用于车辆驾驶辅助装置100的整个动作的多种数据。
音频输出部(未图示)将从处理器170接收的电信号转换为音频信号并输出。为此,可设置扬声器等。音频输出部(未图示)可输出与输入部110,即,按钮的工作相对应的声音。
音频输入部(为图示)可接收使用人员的语音信息。为此,可设置麦克风。所接收的语音信息能够变换为电信号来向处理器170传递。
处理器170控制车辆驾驶辅助装置100的各单元的整个动作。
尤其,处理器170执行基于计算机视觉(computervision)的信号处理。由此,处理器170可由立体摄像头195取得车辆前方的立体图像,基于立体图像来执行对车辆前方的视差计算,并基于所计算的视差信息来执行对立体图像中的至少一个执行对象检测,在完成对象检测后,继续跟踪对象的移动。
尤其,当进行对象检测时,处理器170可执行车道检测(LD,LaneDetection)、周边车辆检测(VD,VehicleDetection)、行人检测(PD,PedestrianDetection)、灯光检测(BD,BrightspotDetection)、交通标志牌检测(TSR,TrafficSignRecognition)及路面检测等。
并且,处理器170可执行对所检测的周边车辆距离的计算、对所检测的周边车辆的速度的计算及对与所检测的周边车辆之间的速度差的计算等。
另一方面,处理器170可通过通信部120来接收天气信息、道路的交通情况信息,例如,传输协议专家组信息。
另一方面,处理器170可实时掌握基于立体图像来掌握的车辆驾驶辅助装置100中的车辆周边交通情况信息。
另一方面,处理器170可通过接口部130来从音频视频导航装置400接收图像信息。
另一方面,处理器170通过接口部130,可从电子控制单元770或传感部760接收传感器信息。其中,传感器信息可包括车辆方向信息、车辆位置信息(GPS信息)、车辆角度信息、车辆速度信息、车辆加速度信息、车辆倾斜度信息、车辆前进/后退信息、电池信息、燃料信息、轮胎信息、车灯信息、车辆内部温度信息、车辆内部湿度信息中的至少一个。
供电部190可通过处理器170的控制来提供各结构要素的工作所需的电源。尤其,供电部190可从车辆的电池等接收电源。
立体摄像头195可包括多个摄像头。以下,如图2等所述,具有两个摄像头。
立体摄像头195以可在车辆200的顶部或前表面玻璃进行装拆,并能包括设有第一镜头193a的第一摄像头195a、设有第二镜头193b的第二摄像头195b。
另一方面,立体摄像头195可包括用于遮蔽分别向第一镜头193a和第二镜头193b入射的光的第一遮蔽部192a、第二遮蔽部192b。
然后,参照附图3b,与图3a的车辆驾驶辅助装置100相比,图3b的车辆驾驶辅助装置100还可包括输入部110、显示器180及音频输出部185。以下,仅对输入部110、显示器180及音频输出部185进行记述。
输入部110可具有附着于车辆驾驶辅助装置100,尤其,附着于立体摄像头195的多个按钮或触摸屏。可通过多个按钮或触摸屏来使车辆驾驶辅助装置100的电源开启并工作。除此之外,也可执行多种输入工作。
音频输出部185基于在处理器170中处理的音频信号来向外部输出声音。为此,音频输出部185可包括至少一个扬声器。
显示器180可显示与车辆行驶辅助装置相关的图像。为了表示这种图像,显示器180可包括车辆的内部前表面的辅音群(cluster)或平视显示器(HUD,HeadUpDisplay)。另一方面,在显示器180为平视显示器的情况下,可在车辆200的前表面玻璃设有用于透视图像的透视模块。
图4a至图4b例示图3a至图3b的处理器的内部框图的多种例,图5a至图5b为图4a至图4b的处理器的工作说明所参照的图。
首先,参照附图4a,图4a作为处理器170的内部框图的一例,车辆驾驶辅助装置100的处理器170可包括影像预处理部410、视差计算部420、对象检测部434、对象跟踪部440及应用部450。
影像预处理部(imagepreprocessor)410从立体摄像头195接收立体图像,来执行预处理(preprocessor)。
具体地,影像预处理部410可执行对立体图像的降低噪音(noisereduction)、整流(rectification)、校准(calibration)、颜色增强(colorenhancement)、颜色空间转变(CSC,colorspaceconversion)、插补(interpolation)、摄像头增益控制(cameragaincontrol)等。与此同时,可取得比在立体摄像头195拍摄的立体图像更鲜明的立体图像。
视差计算部(disparitycalculator)420接收在影像预处理部410中进行信号处理的立体图像,执行对所接收的立体图像的立体匹配(stereomatching),并取得基于立体匹配的视差图(dispartiymap)。即,可取得对车辆前方的、对立体图像的视差信息。
此时,立体匹配能够以立体图像的像素单位或规定块单位执行。另一方面,视差图可意味着以数值方式呈现立体图像,即,左右图像的时差信息(binocularparallaxinformation)的图。
分割部(segmentationunit)432可基于视差计算部420的视差信息来对立体图像中至少一个执行分割(segment)及聚类(clustering)。
具体地,分割部432可基于视差信息来对立体图像中的至少一个进行背景(background)和前景(foreground)的分离。
例如,在视差图内,可由视差信息将规定值以下的区域作为背景来计算,并除去对应部分。由此,可使前景相对分离。
作为另一例,在视差图中,可由视差信息将规定值以上的区域作为前景来计算,并抽取相应部分。由此,可使前景分离。
像这样,基于立体图像抽取的视差信息为基础来分离前景和背景,由此在之后进行对象检测时,可缩短信号处理速度、信号处理量等。
然后,对象检测部(objectdetector)434可基于分割部432的图像分割来进行对象检测。
即,对象检测部434可基于视差信息来对立体图像中的至少一个进行对象检测。
具体地,对象检测部434可对立体图像中的至少一个进行对象检测。例如,可从通过图像分割来分离的前景进行对象检测。
然后,对象确认部(objectverificationunit)436对被分离的对象进行分类(classify)并确认(verify)。
为此,对象确认部436可使用利用神经式网络(neuralnetwork)的识别法、支持向量机(SVM,SupportVectorMachine)方法、利用Haar-like特征的通过AdaBoost来识别的方法或梯度方向直方图(HOG,HistogramsofOrientedGradients)方法等。
另一方面,对象确认部436可通过比较存储于存储器140的对象和所检测的对象来确认。
例如,对象确认部436可确认位于车辆周边的周边车辆、车道、路面、标志牌、危险地带及隧道等。
对象跟踪部(objecttrackingunit)440,执行对确认对象的跟踪。例如,可依次确认所取得的立体图像中的对象,计算所确认的对象的移动或移动向量,并基于所计算的移动或移动向量来跟踪对应对象的移动等。由此,可跟踪位于车辆周边的周边车辆、车道、路面、标志牌、危险地带及隧道等。
然后,应用部450可基于位于车辆周边的多种对象,例如其他车辆、车道、路面及标志牌等来计算车辆的危险度等。并且,可计算与前方车辆的碰撞可能性、车辆是否滑动等。
并且,应用部450能够能够基于所计算的危险度、碰撞可能性或是否滑动等来向使用人员输出用于告知这种信息的消息等作为车辆驾驶辅助信息。并且,能够生成用于控制车辆200的姿势或行驶的控制信号作为车辆控制信号。
图4b为处理器的内部框图的另一例。
参照附图,图4b的处理器170与图4a的处理器170相比,在内部结构单元相同,但信号处理顺序不同方面存在差异。以下,仅对差异进行记述。
对象检测部434可接收立体图像,并对立体图像中的至少一个进行对象检测。与图4a不同,可从立体图像直接检测对象,而不是对基于视差信息来分割的图像进行对象检测。
然后,对象确认部436基于分割部432的图像分割及在对象检测部434中检测的对象来对所检测及分离的对象进行分类并确认。
为此,对象确认部436可使用利用神经式网络的识别法、支持向量机方法、利用Haar-like特征的通过AdaBoost来识别的方法或梯度方向直方图方法等。
图5a和图5b为为了基于分别从第一帧区间及第二帧区间取得的立体图像来说明图4a的处理器170的工作方法而参照的图。
首先,参照附图5a,在第一帧区间段中,立体摄像头195取得立体图像。
处理器170中的视差计算部420接收在影像预处理部410中进行信号处理的立体图像FR1a、FR1bm,并对所接收的图像FR1a、RF1b执行立体匹配,来取得视差图520。
视差图520作为对立体图像FR1a、FR1b之间的时差进行等级化的图,视差等级越大,与车辆之间的距离越短,而视差等级越小,与车辆之间的距离越长。
另一方面,在显示这种视差图的情况下,视差等级越大,具有越高的亮度,而视差等级越小,具有越低的亮度。
附图例示出在视差图520中,第一车道528a、第二车道528b、第三车道528c、第四车道528d等分别具有对应的等级,施工区域522、第一前方车辆524、第二前方车辆526分别具有对应的视差等级。
分割部432、对象检测部434及对象确认部436基于视差图520来执行对立体图像FR1a、FR1b中的至少一个的分割、对象检测及对象确认。
附图例示出使用视差图520来执行对第二立体图像FR1b的对象检测及确认。
即,在图像530中,第一车道538a、第二车道538b、第三车道538c、第四车道538d、施工区域532、第一前方车辆534及第二前方车辆536可执行对象检测及确认。
然后,参照附图5b,在第二帧区间中,立体摄像头195取得立体图像。
处理器170中的视差计算部420接收在影像预处理部410中进行信号处理的立体图像FR2a、FR2b,执行对所接收的立体图像FR2a、FR2b的立体匹配,并取得视差图540。
附图例示出在视差图540中,第一车道548a、第二车道548b、第三车道548c、第四车道548d等分别具有对应的等级,施工区域542、第一前方车辆524、第二前方车辆546分别具有对应的视差等级。
分割部432、对象检测部434及对象确认部436基于视差图520来执行对立体图像FR2a、FR2b中的至少一个的分割、对象检测及对象确认。
附图例示出使用视差图540来执行对第二立体图像FR2b的对象检测及确认。
即,在图像550中,第一车道558a、第二车道558b、第三车道5358c、第四车道558d、施工区域552、第一前方车辆554级第二前方车辆556可执行对象检测及确认。
另一方面,将图5a和图5b作比较,对象跟踪部440可执行对所确认的对象的跟踪。
具体地,对象跟踪部440可基于在图5a和图5b中确认的各对象的移动或移动向量来跟踪对应对象的移动等。由此,可执行对位于车辆周边的车道、施工区域、第一前方车辆及第二前方车辆等的跟踪。
图6a至图6b为图3a至图3b的车辆驾驶辅助装置的工作说明所参照的图。
首先,图6a为例示出设于车辆的立体摄像头195所拍摄的车辆前方情况的图。尤其,以鸟瞰图(birdeyeview)表示车辆前方的情况。
参照附图可知,从左向右依次具有第一车道642a、第二车道644a、第三车道646a、第四车道648a,在第一车道642a和第二车道644a之间具有施工区域610a,而第一前方车辆620a位于第二车道644a和第三车道646a之间,第二前方车辆630a配置于第三车道646a和第四车道648a之间。
然后,图6b例示了与各种信息一同显示借助车辆驾驶辅助装置来掌握的车辆前方情况。尤其,如图6b的图像可显示于由车辆驾驶辅助装置提供的显示器180或音频视频导航400。
与图6a不同,图6b例示了基于立体摄像头195所拍摄的图像显示信息。
参照附图可知,从左向右依次具有第一车道642b、第二车道644b、第三车道646b、第四车道648b,在第一车道642b和第二车道644b之间具有施工区域610b,而第一前方车辆620b位于第二车道644b和第三车道646b之间,第二前方车辆630b配置于第三车道646b和第四车道648b之间。
车辆辅助装置100可基于立体摄像头195所拍摄的立体图像来进行信号处理,从而确认对施工区域610b、第一前方车辆620b及第二前方车辆630b的对象。并且,可确认第一车道642b、第二车道644b、第三车道646b及第四车道648b。
另一方面,附图例示出为了呈现对施工区域610b、第一前方车辆620b及第二前方车辆630b的对象确认而分别向边缘突出。
另一方面,车辆驾驶辅助装置100可基于立体摄像头195所拍摄的立体图像来计算对施工区域610b、第一前方车辆620b及第二前方车辆630b的距离信息。
附图例示了显示分别与施工区域610b、第一前方车辆620b及第二前方车辆630b对应的已计算的第一距离信息611b、第二距离信息621b及第三距离信息631b。
另一方面,车辆驾驶辅助装置100可从电子控制单元770或传感部760接收有关车辆的传感器信息。尤其,可接收用于表示车辆速度信息、齿轮信息及车辆的旋转角(凹角)发生变化的速度的偏航角速度(yawrate)信息、车辆的角度信息,且能够显示这种信息。
附图例示了在车辆前方图像的上部670显示车辆速度信息672、齿轮信息671及偏航角速度信息673,且例示了在车辆前方图像的下部680显示车辆角度信息682,但可具有多种例。除此之外,可与车辆的角度信息一同显示车辆的幅度信息683、道路的曲率信息681。
另一方面,车辆驾驶辅助装置100可通过通信部120或接口部130来接收车辆行驶中的道路的速度限制信息等。附图例示了显示速度限制信息640b。
车辆驾驶辅助装置100可通过显示器180来显示图6a所示的多种信息,但不同的是,可以在无需额外的显示的情况下,也能存储各种信息。并且,可利用这种信息来利用于多种应用。
图7为图1的车辆的电子空间装置的内部框图的一例。
参照附图,车辆200可具有用于控制车辆的电子控制装置700。电子控制装置700能够与上述车辆驾驶辅助装置100及音频视频装置400交换数据。
电子控制装置700可包括输入部710、通信部720、存储器740、灯驱动部751、转向驱动部752、制动器驱动部753、动力源驱动部754、天窗驱动部755、悬架驱动部760、电子控制单元770、显示部780、音频输出部785及供电部790。
输入部710可具有配置于车辆200的多个按钮或触摸屏。可通过多个按钮或触摸屏来执行多种输入动作。
通信部720能够以无线方式与移动终端600或服务器500进行数据交换。尤其,通信部720能够以无线方式与车辆驾驶人员的移动终端进行数据交换。作为无线数据通信方式,可进行蓝牙、WiFiDirect、WiFi、APIX等多种数据通信方式。
通信部720可从移动终端600或服务器500接收天气信息、道路的交通情况信息,例如,传输协议专家组信息。
另一方面,在使用人员搭乘车辆的情况下,使用人员的移动终端600和电子控制装置100能够自动或借助使用人员的应用执行来执行相互配对。
存储器740可存储用于进行电子控制单元770的处理或控制的程序等用于电子控制装置700整个动作的多种数据。
灯驱动部751可控制配置于车辆的内外部的灯的开启/关闭。并且,能够控制灯光的强度、方向等。例如,可执行对方向指示灯、制动灯等的控制。
转向驱动部752可对车辆200的转向装置(steeringapparatus)(未图示)执行电子式控制。以此,可变更车辆的前进方向。
制动器驱动部753可对车辆200的制动装置(未图示)执行电子式控制。例如,可通过控制配置于轮胎的制动的动作,来减小车辆200的速度。作为另一例,能够通过使分别配置于左侧轮胎和右侧轮胎的制动的工作不同,来将车辆200的前进方向调整为左侧或右侧。
动力源驱动部754可对车辆200的动力源执行电子式控制。
例如,在基于天然燃料的引擎(未图示)为动力源的情况下,动力源驱动部754可执行对引擎的电子式控制。由此,可控制引擎的输出扭矩等。
作为另一例,在基于电的电机(未图示)为动力源的情况下,动力源驱动部754可执行对电机的控制。由此,可控制电机的转速、扭矩等。
天窗驱动部755可对车辆200的天窗装置(sunroofapparatus)执行电子式控制。例如,可控制天窗的开放或封闭。
悬架驱动部756可对车辆200的悬架装置(suspensionapparatus)(未图示)执行电子式控制。例如,在路面存在弯曲的情况下,可通过控制悬架装置来以降低车辆200的振动的方式控制。
空调驱动部757可对车辆200的空调装置(aircinditioner)(未图示)执行电子式控制。例如,在车辆内部的温度高的情况下,能够以空调装置工作,并使冷气向车辆的内部供给的方式进行控制。
车窗驱动部758可对车辆200的悬架装置(windowapparatus)执行电子式控制。例如,可控制对车辆的侧面的左右窗的开放或封闭。
气囊驱动部759可对车辆200的悬架装置(airbagapparatus)执行电子式控制。例如,当遇到危险时,能够以使气囊弹出的方式进行控制。
传感部760感测与车辆100行驶等相关的信号。为此,传感部760可具有航向传感器、偏航传感器、陀螺传感器、定位模块、车辆前进/后退传感器、车轮传感器、车辆速度传感器、自身倾斜检测传感器、电池传感器、燃料传感器、轮胎传感器、基于转向盘旋转的转向盘传感器、车辆内部温度传感器及车辆内部湿度传感器等。
由此,传感部760可取得对车辆方向信息、车辆位置信息(GPS信息)、车辆角度信息、车辆速度信息、车辆加速度信息、车辆倾斜度信息、车辆前进/后退信息、电池信息、燃料信息、轮胎信息、车灯信息、车辆内部温度信息及车辆内部湿度信息的感测信号。
另一方面,除此之外,传感部760还可包括加速踏板传感器、压力传感器、引擎转速传感器(enginespeedsensor)、空气流量传感器(AFS)、吸气温度传感器(ATS)、水温传感器(WTS)、节气门位置传感器(TPS)、上止点(TDC)传感器及曲轴角度传感器(CAS)等。
电子控制单元770可控制电子控制装置700的各单元的整个动作。
可借助基于输入部710的输入来执行特定工作,或者接收传感器760所感测的信号来向车辆驾驶辅助装置100传输,可从音频视频导航装置400接收图像信息,并能控制各种驱动部751、752、753、754、756的动作。
并且,电子控制单元770可从通信部720接收天气信息、道路交通情况信息,例如,传输协议专家组信息。
显示部780可显示与车辆驾驶辅助装置的动作相关的图像。为了显示这种图像,显示部780可包括车辆的内部前表面的辅音群或平视显示器。另一方面,在显示部780为平时显示器的情况下,可包括向车辆200的前表面玻璃投射图像的投射模块。另一方面,显示部780可包括能够用于输入的触摸屏。
音频输出部785将从电子控制单元770接收的电信号变换为音频信号来输出。为此,可具有扬声器等。音频输出部785可输出与输入部710,即,按钮的工作相对应的声音。
供电部790可借助电子控制单元770的控制来提供各结构要素的工作所需的电源。尤其,供电部790可从车辆的电池等接收电源。
图8为示出本发明一实施例的车辆驾驶辅助装置的工作方法的顺序图,图9至图16为为了说明图8的工作方法的说明而参照的图。
参照附图,由车辆驾驶辅助装置100的处理器170判断是否为校准模式(calibratiionmode)(步骤S810),若是,则从立体摄像头接收立体图像(步骤S820)。并且,基于所接收的立体图像中的第一区域,来执行校准(步骤S830)。
在车辆起动时或者规定按钮运行时或者车辆在行驶过程中暂停时,处理器170进行控制,以进入校准模式。
并且,对车辆的外部冲击达到规定值以上时,处理器170可进行控制,以执行校准模式。
在执行校准模式时,处理器170可对立体图像中的第一区域执行视差计算,并对计算而得的视差和已存储的基准视差进行比较,来计算校准值。并且,在后续从立体图像生成视差图时,可利用所计算的校准值。
在这里,第一区域可以是包括车辆结构物对象或车辆外部结构物对象的区域。车辆结构物作为车辆的车身的一部分,可包括车辆的特征线、罩徽或罩边缘线中的至少一种。
或者,第一区域可以是包括车辆外部结构物对象的区域。车辆外部结构物可包括标志牌、信号灯、路灯中的至少一种。
另一方面,在执行校准模式时,车辆驾驶辅助装置100可进行控制,以通过显示器180或显示器780显示用于表示校准模式的指示器,或者通过音频输出部185或音频输出部785输出用于表示校准模式的声音,或者使两种方式组合。
或者,在执行校准模式时,车辆驾驶辅助装置100可进行控制,以通过显示器180或显示器780显示用于表示校准的范围或校准值的指示器、校准模式的进行时间信息、校准模式的剩余时间信息中的至少一种。
另一方面,在步骤S810中,若为标准模式,而非校准模式,则车辆驾驶辅助装置100的处理器170从立体摄像头接收立体图像(步骤S840)并且,基于所接收的立体图像中的第二区域,检测车辆前方对象的距离(步骤S850)。并且,基于距离检测,生成车辆控制信号(步骤S860)。
在这里,第二区域可以是不包括车辆结构物对象或车辆外部结构物对象的区域。或者,第二区域可以是不包括车辆外部结构物对象的区域。
例如,在完成校准模式后执行标准模式时,处理器170可利用在校准模式中所计算的校准值对立体图像中的第二区域执行校准,基于经校准的立体图像中的第二区域,对车辆前方的对象执行距离检测。
另一方面,处理器170可基于经校准的立体图像中的第二区域,来执行对象检测,在完成对象检测之后,继续跟踪对象的移动。并且,可执行对周边车辆的距离计算、所检测的周边车辆的速度计算、与所检测的周边车辆的速度差异计算等。
或者,处理器170可基于所计算的周边车辆的速度、与周边车辆的距离等,生成并输出用于控制车辆200的姿势或行驶的控制信号。例如,可生成用于控制车辆的转向驱动部752、制动器驱动部753、动力源驱动部754、悬架驱动部756中的至少一种的控制信号。
另一方面,若通过接口部130所接收的车辆的传感器信息和基于车辆的传感器信息检测出的对象的距离与基于立体图像检测出的检测对象的距离之间的误差为规定值以上,则车辆驾驶辅助装置100的处理器170可进行控制,以重新执行校准模式或调整标准模式下的校准值。
例如,在基于立体图像检测出的前方的对象的距离计算成第一距离的状态下,并且在基于从车辆速度传感器取得的车辆速度信息的相同的前方对象的距离计算成第二距离的情况下,处理器170可计算出第一距离和第二距离之间的误差。
并且,在第一距离与第二距离之间的误差为规定值以上的情况下,处理器170可进行控制,以自动重新执行校准模式或调整标准模式下的校准值。
在第一距离和第二距离之间的误差为规定值以上的情况下,处理器170可进行控制,以重新自动执行校准模式或调整标准模式下的校准值。
此时,优选地,校准模式的重新执行与车辆起动时或者规定按钮运行时或者对车辆的外部冲击达到规定值以上时或者车辆在行驶过程中暂停时无关,应在规定时间内立即执行,如上所述。
或者,若基于车辆的传感器信息检测出的与检测对象的距离和基于立体图像检测出的与检测对象的距离之间的误差为规定值以上,则处理器170进行控制,以使显示器180或显示器780或音频输出部185或音频输出部785中的至少一个输出通知消息或者解除对车辆的控制。
即,若基于车辆的传感器信息检测出的与检测对象的距离和基于立体图像检测出的与检测对象的距离之间的误差为规定值以上,则处理器170进行控制,以使输出通知消息,之后,在发生使用者输入按钮的动作的情况下,以手动方式重新执行校准模式。
图9示出了由立体摄像头195中的左眼摄像头195a和右眼摄像头195b拍摄前方的被摄物体910。
图9的(a)部分表示左眼摄像头195a的景深912和右眼摄像头195b的景深914,示出了左眼摄像头195a与右眼摄像头195b相隔Dca的距离。并且,示出了被摄物体910相隔Dis的距离。
图9的(b)部分示出了在图9的(a)部分的条件下拍摄的右眼摄像头195b的右眼图像920和左眼摄像头195a的左眼图像930。
由于,各图像920、930中的被摄物体922、932的位置有差异,处理器170计算各图像920、930中的被摄物体922、932的位置差异,即,计算视差(disparity),利用视差Disp和左眼摄像头195a与右眼摄像头195b的间距(Dca),来计算实际被摄物体的距离Dis。
另一方面,当车辆运行时,因受到车辆发生冲撞、穿过障碍物、车辆转向等各种外部因素的影响,设置于车辆的车辆驾驶辅助装置100,尤其,立体摄像头195的位置会发生变形。
尤其,左眼摄像头195a和右眼摄像头195b的水平间隔会大于或小于初始设置的Dca。并且,左眼摄像头195a和右眼摄像头195b的垂直间距也可不相同。
在这种情况下,由于左眼摄像头195a和右眼摄像头195b的水平间隔或垂直间隔变化,在基于所拍摄的立体图像测定距离等的情况下,会发生严重的距离误差。或者,在检测出图像中的相同对象后计算视差的情况下,由于图像中的对象位置发生变更,计算量增多,进而导致发生计算速度变慢的问题。
在本发明中,考虑到这种左眼摄像头195a和右眼摄像头195b的水平间隔或垂直间隔变化等,通过校准模式,来校准立体摄像头。
优选地,车辆驾驶辅助装置100,特别是立体摄像头195开始运行的车辆起动时执行校准模式。
或者,在车辆的输入部710或车辆驾驶辅助装置100的输入部110中,可借助规定按钮的动作来执行校准模式。
或者,在车辆行驶过程中,通过设在车辆的冲击传感器或振动传感器检测出的冲击量的大小或振动量的大小为规定值以上的情况下,处理器170可进行控制,以执行校准模式。
另一方面,优选地,以通过立体摄像头195所拍摄的图像中共同的被摄物体为基准,以在车辆起动时立即执行校准模式。
此时,共同的被摄物体作为车辆车身的一部分,可包括车辆的特征线、罩徽或罩边缘线中的至少一个。
或者,校准模式可在规定按钮运行时或车辆在行驶过程中暂停时也能够执行。
为了在规定按钮运行时或车辆在行驶过程中暂停时执行校准模式,能够以车辆外部结构物为基准。在这里,车辆外部结构物可包括标志牌、信号灯、路灯中的至少一个。
图10a至图10c示出了基于包括通过立体摄像头195来拍摄的车辆结构物的图像而执行校准模式的情况。
图10a示出了通过立体摄像头195所拍摄的左眼图像940a和右眼图像950a。尤其,左眼图像940a和右眼图像950a可包括作为车辆车身的一部分的罩边缘线947a、957a。
另一方面,在校准模式中,作为通过立体摄像头195所拍摄的左眼图像940a和右眼图像950a中的部分区域的第一区域。
在附图中,示出了利用左眼图像940a和右眼图像950a的下部区域945a、955a的情况。
例如,在左眼图像940a和右眼图像950a的垂直线的数量为960线的情况下,可利用作为其中的一部分的与720线相对应的第一区域。即,可利用241线至960线的区域。
由此,如图所示,在左眼图像940a和右眼图像950a的下部区域945a、955a中包括罩边缘线947a、957a,可将这种罩边缘线947a、957a用作共同的被摄物体,并计算出校准值。
例如,在存储器中存储有包括罩边缘线的基准左眼图像和基准右眼图像的情况下,当执行校准模式时,对所拍摄的左眼图像和右眼图像以及基准左眼图像和右眼图像进行相互比较,进而分析其差异。并且,可对该差异进行数值化,并作为校准值进行计算。
例如,如图10b所示,立体摄像头195中的左眼摄像头195a或右眼摄像头195b中的至少一个向水平方向移动时,处理器170在校准模式下可计算出水平校准值作为校准值。
或者,如图10c所示,立体摄像头195中的左眼摄像头195a或右眼摄像头195b中的至少一个向垂直方向移动时,处理器170在校准模式下可计算出垂直校准值作为校准值。
图10b表示在立体摄像头195中的左眼摄像头195a或右眼摄像头195b的各种水平移动。
参照附图,在第一状况case1中,左眼摄像头195a向左侧移动;在第二状况case2中,右眼摄像头195b向右侧移动,在第三状况case3中,左眼摄像头195a向右侧移动,在第四状况case4中,右眼摄像头195b向左侧移动。
在各状况case1~case4中,由左眼摄像头195a所拍摄的左眼图像940a和由右眼摄像头195b所拍摄的右眼图像950a中,表现出了罩边缘线947a、957a的移动。
在各状况case1~case4中,由左眼摄像头195a所拍摄的左眼图像940a和由右眼摄像头195b所拍摄的右眼图像950a中,处理器170通过基准左眼图像和基准右眼图像分析罩边缘线947a、957a的移动(case1~case4),可向与罩边缘线947a、957a的移动方向相反的方向设定校准值。
另一方面,在各状况case1~case4组合的情况下,处理器170也可以考虑上述组合的情况而设定校准值。
图10c表示在立体摄像头195中的左眼摄像头195a或右眼摄像头195b的各种垂直移动。
参照附图,在第五状况case5中,左眼摄像头195a向上侧移动,在第六状况case6中,左眼摄像头195a向下侧移动,在第七状况case7中,右眼摄像头195a向上侧移动,在第八状况case8中,右眼摄像头195b向下侧移动。
在各状况case5~case8中,由左眼摄像头195a所拍摄的左眼图像940a和由右眼摄像头195b所拍摄的右眼图像950a中,表现出了罩边缘线947a、957a的移动。
在各状况case5~case8中,由左眼摄像头195a所拍摄的左眼图像940a和由右眼摄像头195b所拍摄的右眼图像950a中,处理器170通过基准左眼图像和基准右眼图像分析罩边缘线947a、957a的移动(case5~case8),可向与罩边缘线947a、957a的移动方向相反的方向设定校准值。
另一方面,在各状况case5~case8组合的情况下,处理器170也可以考虑上述组合的情况而设定校准值。
图10d表示基于通过立体摄像头195所拍摄的图像来执行标准模式(normalmode)。
标准模式可利用作为通过立体摄像头195所拍摄的左眼图像940b和右眼图像950b中的部分区域的第二区域。此时,优选地,第二区域不包括车辆的车身的一部分。
在附图中,示出了利用左眼图像940a和右眼图像950a的中央区域(945b、955b)的情况。
例如,在左眼图像940b和右眼图像950b的垂直线的数量为960线的情况下,可利用作为其中的一部分的与720线相对应的第二区域。即,可利用121线至840线的区域。
由此,左眼图像940b和右眼图像950b的中央区域945b、955b中不包括罩边缘线947b、957b。
处理器170可基于针对车辆前方取得的立体图像,尤其针对第二区域的图像945b、955b,来执行对车辆前方对象进行距离检测。
尤其,在执行校准模式后,处理器170可向针对第二区域的图像945b、955b适用校准值来进行校准,并基于针对第二区域的图像,可执行对车辆前方对象进行距离检测。由此,可执行正确的距离检测。
图10e至图10g示出了基于通过立体摄像头195所拍摄的包括车辆外部结构物的图像,来执行校准模式的情况。
图10e示出了通过立体摄像头195所拍摄的左眼图像960a和右眼图像970a。尤其,左眼图像960a和右眼图像970a可包括作为车辆外部结构物之一的信号灯967a、977a。
另一方面,在校准模式中,可利用作为通过立体摄像头195所拍摄的左眼图像960a和右眼图像970a中的部分区域的第一区域。
在附图中,示出了利用左眼图像960a和右眼图像970a的上部区域965a、975a的情况。
例如,在左眼图像960a和右眼图像970a的垂直线的数量为960线的情况下,可利用作为其中的一部分的与720线相对应的第一区域。即,可利用1线至720线的区域。
由此,如图所示,在左眼图像960a和右眼图像970a的上部区域965a、975a中包括信号灯967a、977a,可将这种信号灯967a、977a用作共同的被摄物体,并计算出校准值。
例如,如图10f所示,立体摄像头195中的左眼摄像头195a或右眼摄像头195b中的至少一个向水平方向移动时,处理器170在校准模式下可计算出水平校准值作为校准值。
或者,如图10g所示,立体摄像头195中的左眼摄像头195a或右眼摄像头195b中的至少一个向垂直方向移动时,处理器170在校准模式下可计算出垂直校准值作为校准值。
图10f示出了立体摄像头195中的左眼摄像头195a或右眼摄像头195b的各种水平移动。
参照附图,在第一状况case1中,左眼摄像头195a向左侧移动;在第二状况case2中,右眼摄像头195b向右侧移动;在第三状况case3中,左眼摄像头195a向右侧移动;在第四状况case4中,右眼摄像头195b向左侧移动。
在各状况case1~case4中,由左眼摄像头195a所拍摄的左眼图像960a和由右眼摄像头195b所拍摄的右眼图像970a中,表现出了信号灯967a、977a的移动。
在各状况case1~case4中,由左眼摄像头195a所拍摄的左眼图像960a和由右眼摄像头195b所拍摄的右眼图像970a中,处理器170通过基准左眼图像和基准右眼图像分析信号灯967a、977a的移动(case1~case4),可向与信号灯967a、977a的移动方向相反的方向设定校准值。
另一方面,在各状况case1~case4组合的情况下,处理器170也可以考虑上述组合的情况而设定校准值。
图10g示出了立体摄像头195中的左眼摄像头195a或右眼摄像头195b的各种垂直移动。
参照附图,在第五状况case5中,左眼摄像头195a向上侧移动,在第六状况case6中,左眼摄像头195a向下侧移动,在第七状况case7中,右眼摄像头195a向上侧移动,在第八状况case8中,右眼摄像头195b向下侧移动。
在各状况case5~case8中,由左眼摄像头195a所拍摄的左眼图像960a和由右眼摄像头195b所拍摄的右眼图像970a中,表现出了信号灯967a、977a的移动。
在各状况case5~case8中,由左眼摄像头195a所拍摄的左眼图像960a和由右眼摄像头195b所拍摄的右眼图像970a中,处理器170通过基准左眼图像和基准右眼图像分析信号灯967a、977a的移动case5~case8,可向与信号灯967a、977a的移动方向相反的方向设定校准值。
另一方面,在各状况case5~case8组合的情况下,处理器170也可以考虑上述组合的情况而设定校准值。
图10h示出了基于通过立体摄像头195所拍摄的图像,来执行标准模式(normalmode)的情况。
标准模式可利用作为通过立体摄像头195所拍摄的左眼图像960b和右眼图像970b中的部分区域的第二区域。此时,优选地,第二区域不包括信号灯。
在附图中,示出了利用左眼图像960a和右眼图像970a的中央区域965b、975b的情况。
例如,在左眼图像960b和右眼图像970b的垂直线的数量为960线的情况下,可利用作为其中的一部分的与720线相对应的第二区域。即,可利用120线至840线的区域。
由此,左眼图像960b和右眼图像970b的中央区域965b、975b中不包括信号灯967b、977b。
处理器170可基于针对车辆前方取得的立体图像,尤其针对第二区域的图像965b、975b,来执行对车辆前方对象进行距离检测。
尤其,在执行校准模式后,处理器170可向针对第二区域的图像965b、975b适用校准值来进行校准,并基于针对第二区域的图像,可执行对车辆前方对象进行距离检测。由此,可执行正确的距离检测。
图11至图12c表示校准模式有关各种用户界面。
首先,图11表示通过抬头数字显示方式的显示器输出用于表示校准模式的指示器。
例如,用于表示车辆起动时的校准模式的指示器1410显示于输出区域800,或者用于表示输入按钮时的校准模式的指示器1420显示于输出区域800,或者用于表示车辆冲击下的校准模式的指示器1430显示于输出区域800。
另一方面,在各个校准模式结束的情况下,可将用于表示校准模式结束的指示器显示于输出区域800。
另一方面,不同于附图所示,当执行校准模式时,可在输出区域800中显示用于表示校准的范围或校准值的指示器、校准模式的进行时间信息、校准模式的剩余时间信息中的至少一种。
或者,在基于车辆的传感器信息检测出的检测对象的距离和基于立体图像检测出的检测对象的距离之间的误差为规定值以上的情况下,可向输出区域800输出通知消息。
接着,图12a至图12c表示在集群300上输出用于表示校准模式的指示器。
图12a示出了在集群300上显示用于表示摄像头校准模式的指示器1510,图12b示出了在集群300上显示用于表示摄像头校准结束模式的指示器1520,图12c示出了在集群300上显示用于表示摄像头校准的校准范围的指示器1530。
由此,使用者可以直观地识别校准进行中或者校准结束。
尤其,图12c表示从左眼摄像头取得的左眼图像向右侧移动,即,指示器1530表示将校准值设定为右侧移动值。此时,箭头的长度或大小可与校准值的大小呈正比。由此,使用者可以直观地识别校准范围。
另一方面,不同于图示,当执行校准模式时,可在集群300上显示用于表示校准的范围或校准值的指示器、校准模式的进行时间信息、校准模式的剩余时间信息中的至少一种。
或者,在基于车辆的传感器信息检测出的检测对象的距离和基于立体图像检测出的检测对象的距离之间的误差为规定值以上的情况下,可向集群300输出通知消息。
另一方面,不同于图11至图12c,可通过音频输出部(185或785)输出用于表示校准模式的声音、用于表示校准模式结束的声音等。
或者,当执行校准模式时,可通过音频输出部(185或785)输出用于表示校准的范围或校准值的指示器、校准模式的进行时间信息、校准模式的剩余时间信息中的至少一种。
或者,在基于车辆的传感器信息检测出的检测对象的距离和基于立体图像检测出的检测对象的距离之间的误差为规定值以上的情况下,可通过音频输出部185或音频输出部785输出通知消息。
如此,可借助处理器170的控制,来执行对各种用户界面的操作。
另一方面,在执行这种校准之后,在标准模式下,处理器170可基于对象检测、对象跟踪,来执行对车辆姿势的控制。
车辆驾驶辅助装置100的处理器170通过组合基于立体图像的前方车辆信息、车道检测信息、道路面检测信息、从电子控制单元770或传感部760取得的作为车辆行驶信息的车辆角度信息、车辆倾斜度信息以及从音视频导航装置400取得的地图信息,来计算出车辆姿势。
例如,当车辆驾驶辅助装置100的处理器170基于立体图像检测出前方车辆及车道向右侧倾斜时,在车辆的角度信息表示车辆不倾斜的情况下,可利用地图信息,来计算出实际车辆在向右侧弯曲的曲线车道上行驶。
由此,可基于立体图像及传感器信息等,来执行对车辆的姿势的控制。.
另一方面,作为对车辆的姿势的控制例,还有车辆打滑与否相关计算以及防止打滑相关控制。另一方面,关于车辆的打滑与否有关计算,将在下面参照图13a进行详细记述。
车辆驾驶辅助装置100的处理器170在车辆打滑时或预测车辆打滑时,可生成用于控制转向驱动部752、制动器驱动部753、动力源驱动部754、悬架驱动部756中的至少一种的防滑控制信号。
在计算出实际车辆向左侧打滑的情况下,车辆驾驶辅助装置100的处理器170可生成转向驱动控制信号或制动器驱动控制信号,使得车辆向右侧移动。
电子控制单元770可通过接口部130接收转向驱动控制信号或制动器驱动控制信号中的至少一种,转向驱动部752可控制转向装置,以执行右侧转向盘,制动器驱动部753可使左侧制动器运行。
由此,通过车辆驾驶辅助装置100可执行基于立体图像及传感器信息、地图信息、位置信息等的防滑控制。
图13a至图13b是用于说明车辆打滑时的对车辆姿势进行控制的图,图14至图15b是用于说明图13a或图13b的车辆姿势控制的参照图。
首先,参照图13a,车辆驾驶辅助装置100的处理器170基于从立体摄像头195接收的立体图像,来检测基于图像的车辆周边信息。在这里,基于图像的车辆周边信息可包括前方车辆信息、车道信息及道路面信息、标志牌信息等。
如上所述,基于所接收的立体图像,来执行视差计算,利用视差信息,可执行图像中的分割、对象检测以及对象确认。
由此,车辆驾驶辅助装置100的处理器170可执行车辆检测1010、距离检测1011、车道检测1012、道路面检测1014、视觉行驶距离测定(visualodometry)1016。
接着,车辆驾驶辅助装置100的处理器170基于从电子控制单元770或传感部760取得的传感器信息,来推测车辆动向。尤其,基于传感器信息中的车辆行驶信息,来推测车辆动向。
车辆驾驶辅助装置100的处理器170基于从电子控制单元770或传感部760取得的车辆行驶信息,来执行车辆位置预测(deadreckoning)1030。
并且,车辆驾驶辅助装置100的处理器170基于车辆位置预测(deadreckoning),来执行车辆动向(egomotion)跟踪1040。此时,除了车辆位置预测,还可基于视觉行驶距离测定(visualodometry),来执行车辆动向(egomotion)跟踪1040。
另一方面,车辆驾驶辅助装置100的处理器170可基于车辆动向(egomotion)跟踪1040,来执行行驶道路的曲率计算1050.
接着,车辆驾驶辅助装置100的处理器170基于所推测的车辆动向,来预测(prediction)车辆路径(path)。
车辆驾驶辅助装置100的处理器170基于曲率计算1050、车道检测1010、以及道路面检测1014,可执行车辆行驶方向跟踪1060。
并且,车辆驾驶辅助装置100的处理器170基于车辆行驶方向跟踪1060、车辆检测1010,距离检测1011、道路面检测1014,来执行冲撞危险性等危险性计算1065。
并且,车辆驾驶辅助装置100的处理器170基于危险性计算1065及车辆动向跟踪1040,来执行车辆路径预测(pathprediction)1070。即,车辆驾驶辅助装置100的处理器170基于所推测的车辆动向1040来预测车辆路径。
接着,基于所推测的车辆动向和所预测的车辆路径,来计算车辆打滑与否。
车辆驾驶辅助装置100的处理器170基于车辆路径预测1070、危险性计算1065以及车辆动向跟踪1040,来执行车辆打滑有关计算1080。若不是打滑,则执行正常行驶1085,若为打滑,则执行防滑控制信号生成1090。
所生成的防滑控制信号(步骤Sns)向电子控制单元770传输,电子控制单元770用于控制转向驱动部752、制动器驱动部753、动力源驱动部754、悬架驱动部756中的至少一个。
例如,相对于行驶道路,当车辆200向左侧打滑时,基于防滑控制信号(步骤Sns),转向驱动部752控制转向装置,以执行右侧转向盘,或者,制动器驱动部753使左侧制动器运行。
再例如,相对于行驶道路,当车辆200向右侧打滑时,基于防滑控制信号(步骤Sns),转向驱动部752控制转向装置,以执行左侧转向盘,或者,制动器驱动部753使右侧制动器运行。
由此,通过车辆驾驶辅助装置100,可执行基于立体图像及传感器信息等的防滑控制。
接着,参照图13b,图13b与图13a类似,不同点在于,进一步执行从音视频导航装置400接收地图信息并进行地图匹配的步骤和跟踪车辆行驶方向的步骤。下面,仅对上述不同点进行记述。
车辆驾驶辅助装置100的处理器170基于从电子控制单元770或传感部760取得的传感器信息中的车辆行驶信息和从音视频导航装置400取得的地图信息,来执行地图匹配。
车辆驾驶辅助装置100的处理器170可基于车辆行驶信息中作为车辆位置信息的全球定位系统信息和从音视频导航装置400取得的地图信息,使当前车辆与地图进行地图匹配1020。并且,基于车辆速度信息等车辆行驶信息等,可使地图上的当前车辆的位置发生变化。
车辆驾驶辅助装置100的处理器170可基于车辆动向跟踪1040及地图匹配1020,来执行行驶道路的曲率计算1050。
图14示出了通过组合基于图像的信息1120与地图信息1110,来计算车辆行驶的行驶道路的曲率。
尤其,利用在基于图像的信息1120中所检测的车道信息1130和地图信息1110中的车道信息1135,车辆驾驶辅助装置100的处理器170可计算出前方道路的曲率θ,如图所示。
接着,车辆驾驶辅助装置100的处理器170基于地图信息和基于图像的车辆周边信息,来跟踪车辆行驶方向。
车辆驾驶辅助装置100的处理器170基于曲率计算1050及车道检测1010,来执行车辆行驶方向跟踪1060。
车辆驾驶辅助装置100的处理器170基于曲率计算1050、车道检测1010及道路面检测1014,来执行车辆行驶方向跟踪1060。
接着,车辆驾驶辅助装置100的处理器170基于所推测的车辆动向及所跟踪的行驶方向,来预测车辆路径。
车辆驾驶辅助装置100的处理器170基于车辆行驶方向跟踪1060、车辆检测1010、距离检测1011、道路面检测1014,来执行冲撞危险性等危险性计算1065。
并且,车辆驾驶辅助装置100的处理器170基于危险性计算1065及车辆动向跟踪1040,来执行车辆路径预测(pathprediction)1070。即,车辆驾驶辅助装置100的处理器170基于所推测的车辆动向1040及所跟踪的行驶方向1060,来预测车辆路径。
接着,基于所推测的车辆动向和所预测的车辆路径,来计算车辆打滑与否。
由此,通过车辆驾驶辅助装置100,可执行基于立体图像及传感器信息、地图信息等的防滑控制。
图15a至图15b用于说明车辆打滑时的车辆姿势控制的参照图。
首先,图15a将行驶中的车辆200打滑的情况分为第一状况case1和第二状况case2示出。
如第一状况case1,在行驶中的车辆200的左侧前方有其他车辆1220a的状态下,行驶中的车辆200在曲线道路中向左侧打滑(步骤Slip)的情况下,打滑的车辆200P1存在与左侧前方车辆1220a冲撞的可能性。
另一方面,如第二状况case2,行驶中的车辆200在曲线道路中向右侧打滑(步骤Slip)的情况下,打滑的车辆200P2存在脱离道路的可能性。
在本发明中,为了防止如图15a所示的车辆200打滑,如上所述,基于立体图像,执行对车身姿势的控制,尤其,执行防滑控制。
图15b是用于说明针对第一状况case1和第二状况case2的防滑控制的参照图。
参照附图,在行驶中的车辆200的左侧前方有危险地区1210a,危险地区1210a中示出了有其他车辆1220a行驶的情况。
另一方面,图15b的图像1270表示由立体摄像头取得的图像。车辆驾驶辅助装置100的处理器170基于立体图像1270,来检测危险地区1210b、其他车辆1220b、各车道1242b、1244b、1246b、1248b。
车辆驾驶辅助装置100的处理器170基于立体图像及传感器信息、地图信息、位置信息等,预测和计算如第一状况case1和第二状况case2的打滑是否发生,并在发生打滑时,进行控制,以防止打滑。
例如,如第一状况case1所示,相对于行驶车道,当车辆200向左侧打滑时,车辆驾驶辅助装置100的处理器170生成防滑控制信号(步骤Sns),以避免与前方车辆1220a发生冲撞,保持车道,尤其,保持在曲线道路上的车道。由此,转向驱动部752可控制转向装置,以执行右侧转向盘,或者,制动器驱动部753使左侧制动器运行。
再例如,如第二状况case2所示,相对于行驶车道,当车辆200向右侧打滑时,车辆驾驶辅助装置100的处理器170生成防滑控制信号(步骤Sns),以保持车道,尤其,保持在曲线道路上的车道。由此,转向驱动部752可控制转向装置,以执行左侧转向盘,或者,制动器驱动部753使右侧制动器运行。
最终,通过车辆驾驶辅助装置100,可执行基于立体图像及传感器信息、地图信息、位置信息等的防滑控制。尤其,通过不仅仅是传感器信息的立体图像,考虑到前方的车辆信息、前方的危险地区信息等,可执行防滑控制或防滑预测控制,进而提高操作的正确性。
图16a至图16b表示图2的立体摄像头的内部框图。
首先,参照图16a,立体摄像头195可具有第一摄像头195a、第二摄像头195b及图像处理器830。
另一方面,车辆驾驶辅助装置100(图3)可具有独立于图16a的图像处理器830的如图所示的处理器170。
第一摄像头195a可具有第一镜头193a和第一图像传感器820,第二摄像头195b可具有第二镜头193b和第二图像传感器825。
第一镜头193a和第二镜头193b能够以200mm至400mm的间距分隔。
第一图像传感器820和第二图像传感器825可分别取得三原色图像。
图像处理器830可基于三原色图像从第一及第二图像传感器820、825生成并输出视差图。此外,图像处理器830可生成并输出三原色图像。
另一方面,车辆驾驶辅助装置100(图3)中的处理器170接收在立体摄像头195中的图像处理器830中生成的视差图以及三原色图像,并执行与此相应的信号处理。
例如,处理器170可基于视差图及三原色图像,来执行针对车辆前方的三原色图像的对象检测,在完成对象检测后,继续跟踪对象动向。并且,还可以执行针对周边车辆的距离计算、所检测的周边车辆的速度计算、与所检测的周边车辆的速度差异计算等。
或者,处理器170可基于所计算的周边车辆的速度、与周边车辆的距离等,生成并输出用于控制车辆200的姿势或行驶的控制信号。例如,可生成用于控制车辆的转向驱动部752、制动器驱动部753、动力源驱动部754、悬架驱动部756中的至少一个的控制信号。
另一方面,不同于上述说明,图像处理器830除了可生成视差图之外,还可以基于视差图及三原色图像,来执行针对车辆前方的三原色图像的对象检测,在完成对象检测后,继续跟踪对象动向。并且,还可以执行针对周边车辆的距离计算、所检测的周边车辆的速度计算、与所检测的周边车辆的速度差异计算等。
此时,处理器170从图像处理器830接收针对周边车辆的距离信息、所检测的周边车辆的速度信息、与所检测的周边车辆的速度差异信息,并基于上述信息,生成用于控制车辆的转向驱动部752、制动器驱动部753、动力源驱动部754、悬架驱动部756中的至少一个的控制信号。
另一方面,不同于上述说明,图像处理器830可执行视差图生成、对象检测、对象动向跟踪、针对周边车辆的距离计算、所检测的周边车辆的速度计算、与所检测的周边车辆的速度差异计算,并且,还可以生成用于控制车辆的转向驱动部752、制动器驱动部753、动力源驱动部754、悬架驱动部756中的至少一个的控制信号。
即,如图16b所示,立体摄像头195具有第一摄像头195a、第二摄像头195b及图像处理器830,此时,车辆驾驶辅助装置100(图3)可不另行具有如图16a所示的处理器170。即,立体摄像头195中的图像处理器830可执行上述的处理器170的所有功能。
此时的图16b的立体摄像头195的概念能够是与上述的车辆驾驶辅助装置100(图3)相同的概念。
本发明实施例的车辆驾驶辅助装置及具有其的车辆并不以限制性的方式适用如上所述的实施例的结构和方法,而是以能够实现多种变形的方式由各实施例的全部或一部分选择性组合而构成上述实施例。
另一方面,本发明的车辆驾驶辅助装置或车辆的工作方法能够在设置于车辆驾驶辅助装置或车辆的处理器能够读取的记录介质中,以处理器可读的代码体现。处理器可读取的记录介质包括存储有可被处理器读取的数据的所有种类的记录装置。作为处理器可读的记录介质的例,具有ROM、RAM、CD-ROM、磁带、软盘、光数据存储装置等,并且,也包括如通过网络传输等以载波形态体现的。并且,处理器可读取的记录介质分散于利用网络来连接的电脑系统,能够以分散方式存储处理器可读取的代码并执行。
并且,以上虽然对本发明的优选实施例进行了示出和说明,但本发明并不局限于上述的特定实施例,能够在不脱离发明要求保护范围的本发明要旨的情况下,可由本发明所属技术领域的普通技术人员进行多种变形,而这种变形实施不应从本发明的技术思想或前景中单独理解。

Claims (18)

1.一种车辆驾驶辅助装置,其特征在于,包括:
立体摄像头;以及
处理器,在校准模式下,上述处理器基于由上述立体摄像头取得的立体图像中的包括车辆结构物对象或车辆外部结构物对象的第一区域来执行校准,而在标准模式下,上述处理器基于由上述立体摄像头取得的立体图像中的未包括上述车辆结构物对象或车辆外部结构物对象的第二区域来对上述车辆前方的对象执行距离检测。
2.根据权利要求1所述的车辆驾驶辅助装置,其特征在于,上述处理器在校准模式下,上述处理器对上述立体图像中的上述第一区域执行视差计算,并对经计算而得的上述视差和已存储的基准视差进行比较,来计算校准值。
3.根据权利要求1所述的车辆驾驶辅助装置,其特征在于,
在上述校准模式之后,执行上述标准模式时,上述处理器利用在上述校准模式下计算而得的校准值,来对上述立体图像中的上述第二区域执行校准;
上述处理器基于经校准的上述立体图像中的第二区域来执行视差计算,并基于经上述视差计算而得的信息来对上述第二区域执行对象检测及确认,并对检测对象执行距离检测。
4.根据权利要求1所述的车辆驾驶辅助装置,其特征在于,上述处理器基于检测出的上述车辆前方的对象的距离,生成用于控制车辆的转向驱动部、制动器驱动部、动力源驱动部、悬架驱动部中的至少一种的控制信号。
5.根据权利要求1所述的车辆驾驶辅助装置,其特征在于,上述车辆结构物中,作为上述车辆的车身的一部分,包括上述车辆的特征线、罩徽或罩边缘线中的至少一种。
6.根据权利要求1所述的车辆驾驶辅助装置,其特征在于,上述车辆外部结构物包括标志牌、信号灯、路灯中的至少一种。
7.根据权利要求1所述的车辆驾驶辅助装置,其特征在于,在上述车辆起动时或者规定按钮运行时或者对上述车辆的外部冲击达到规定值以上时或者车辆在行驶过程中暂停时,上述处理器进行控制,以执行上述校准模式。
8.根据权利要求1所述的车辆驾驶辅助装置,其特征在于,
还包括显示器或音频输出部中的至少一种:
上述显示器用于在执行上述校准模式时显示表示上述校准模式的指示器;
上述音频输出部用于在执行上述校准模式时输出表示上述校准模式的声音。
9.根据权利要求1所述的车辆驾驶辅助装置,其特征在于,还包括显示器,上述显示器用于在执行上述校准模式时显示用于表示上述校准的范围或校准值的指示器、上述校准模式的进行时间信息、上述校准模式的剩余时间信息中的至少一种。
10.根据权利要求2所述的车辆驾驶辅助装置,其特征在于,
还包括用于接收车辆的传感器信息的接口部;
若基于上述车辆的传感器信息检测出的上述检测对象的距离和基于上述立体图像检测出的上述检测对象的距离之间的误差为规定值以上,则上述处理器进行控制,以重新执行上述校准模式或调整上述标准模式下的上述校准值。
11.根据权利要求10所述的车辆驾驶辅助装置,其特征在于,
还包括显示器或音频输出部中的至少一种,
若基于上述车辆的传感器信息检测出的上述检测对象的距离和基于上述立体图像检测出的上述检测对象的距离之间的误差为规定值以上,则上述处理器进行控制,以使上述显示器或上述音频输出部中的至少一个输出通知消息或者解除对上述车辆的控制。
12.一种车辆,其特征在于,包括:
转向驱动部,用于驱动转向装置;
制动器驱动部,用于驱动制动装置;
动力源驱动部,用于驱动动力源;
悬架驱动部,用于驱动悬架装置;
处理器,在校准模式下,上述处理器基于由上述立体摄像头取得的立体图像中的包括车辆结构物对象或车辆外部结构物对象的第一区域来执行校准,而在标准模式下,上述处理器基于由上述立体摄像头取得的立体图像中的未包括上述车辆结构物对象或车辆外部结构物对象的第二区域来对上述车辆前方的对象执行距离检测;以及
控制部,基于检测出的上述车辆前方的对象的距离来生成用于控制车辆的转向驱动部、制动器驱动部、动力源驱动部、悬架驱动部中的至少一种的控制信号。
13.根据权利要求12所述的车辆,其特征在于,在上述校准模式下,上述处理器对上述立体图像中的上述第一区域执行视差计算,并对计算而得的上述视差和已存储的基准视差进行比较,来计算校准值。
14.根据权利要求12所述的车辆,其特征在于,
在上述校准模式之后,执行上述标准模式时,上述处理器利用在上述校准模式下计算而得的校准值,来对上述立体图像中的上述第二区域执行校准;
上述处理器基于经校准的上述立体图像中的第二区域来执行视差计算,并基于经上述视差计算而得的信息来对上述第二区域执行对象检测及确认,并对检测对象执行距离检测。
15.根据权利要求12所述的车辆,其特征在于,在上述车辆起动时或者规定按钮运行时或者对上述车辆的外部冲击达到规定值以上时或者车辆在行驶过程中暂停时,上述处理器进行控制,以执行上述校准模式。
16.根据权利要求12所述的车辆,其特征在于,还包括显示器,上述显示器用于在执行上述校准模式时显示用于表示上述校准的范围或校准值的指示器、上述校准模式的进行时间信息、上述校准模式的剩余时间信息中的至少一种。
17.根据权利要求14所述的车辆,其特征在于,
还包括用于接收车辆的传感器信息的接口部;
若基于上述车辆的传感器信息检测出的上述检测对象的距离和基于上述立体图像检测出的上述检测对象的距离之间的误差为规定值以上,则上述处理器进行控制,以重新执行上述校准模式或调整上述标准模式下的上述校准值。
18.根据权利要求17所述的车辆,其特征在于,
还包括显示器或音频输出部中的至少一种,
若基于上述车辆的传感器信息检测出的上述检测对象的距离和基于上述立体图像检测出的上述检测对象的距离之间的误差为规定值以上,则上述处理器进行控制,以使上述显示器或上述音频输出部中的至少一种输出通知消息或者解除对上述车辆的控制。
CN201510284787.3A 2014-05-28 2015-05-28 车辆驾驶辅助装置及具有该车辆驾驶辅助装置的车辆 Active CN105270287B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0064156 2014-05-28
KR1020140064156A KR101551215B1 (ko) 2014-05-28 2014-05-28 차량 운전 보조 장치 및 이를 구비한 차량

Publications (2)

Publication Number Publication Date
CN105270287A true CN105270287A (zh) 2016-01-27
CN105270287B CN105270287B (zh) 2017-11-17

Family

ID=53404336

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510284787.3A Active CN105270287B (zh) 2014-05-28 2015-05-28 车辆驾驶辅助装置及具有该车辆驾驶辅助装置的车辆

Country Status (4)

Country Link
US (1) US9308917B2 (zh)
EP (1) EP2950237A1 (zh)
KR (1) KR101551215B1 (zh)
CN (1) CN105270287B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107094224A (zh) * 2016-09-14 2017-08-25 格科微电子(上海)有限公司 摄像头模组的制造方法以及终端处理设备
CN108146503A (zh) * 2016-12-05 2018-06-12 福特全球技术公司 车辆防撞
CN111292351A (zh) * 2018-12-07 2020-06-16 星克跃尔株式会社 车辆检测方法及执行其的电子设备
CN111873742A (zh) * 2020-06-16 2020-11-03 吉利汽车研究院(宁波)有限公司 一种车辆控制方法、装置及计算机存储介质
CN113383368A (zh) * 2019-01-29 2021-09-10 日产自动车株式会社 乘车许可判断装置以及乘车许可判断方法
CN115817422A (zh) * 2023-02-20 2023-03-21 苏州德机自动化科技有限公司 一种新能源汽车自动安全驾驶的车身制动控制系统

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6036371B2 (ja) * 2013-02-14 2016-11-30 株式会社デンソー 車両用運転支援システム及び運転支援方法
KR101565007B1 (ko) * 2014-05-30 2015-11-02 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
US9729865B1 (en) * 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
US10027883B1 (en) 2014-06-18 2018-07-17 Amazon Technologies, Inc. Primary user selection for head tracking
DE102014015075B4 (de) * 2014-10-11 2019-07-25 Audi Ag Verfahren zum Betrieb eines automatisiert geführten, fahrerlosen Kraftfahrzeugs und Überwachungssystem
EP3237953A1 (en) * 2014-12-26 2017-11-01 CY Vision Inc. Near-to-eye display device with variable resolution
JP6551790B2 (ja) * 2015-04-21 2019-07-31 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム
US10282623B1 (en) * 2015-09-25 2019-05-07 Apple Inc. Depth perception sensor data processing
US9889859B2 (en) * 2015-12-21 2018-02-13 Intel Corporation Dynamic sensor range in advanced driver assistance systems
KR101793223B1 (ko) * 2016-07-13 2017-11-03 모바일 어플라이언스 주식회사 차량 운전 보조장치
KR101748398B1 (ko) * 2016-07-19 2017-06-16 주식회사 와이즈오토모티브 차량에 장착된 카메라의 캘리브레이션 장치 및 방법
DE102016218232B4 (de) 2016-09-22 2024-02-15 Volkswagen Aktiengesellschaft Positionsbestimmungssystem für eine mobile Einheit, Fahrzeug und Verfahren zum Betreiben eines Positionsbestimmungssystems
US10569613B2 (en) * 2016-10-03 2020-02-25 Tenneco Automotive Operating Company Inc. Method of alerting driver to condition of suspension system
DE102017202483B4 (de) * 2017-02-16 2023-02-09 Audi Ag Verfahren zur Darstellung von Informationen für einen Nutzer eines Fahrzeugs und Projektionssystem zum Darstellen von Informationen in einem Fahrzeug
DE102017214546B4 (de) * 2017-08-21 2023-02-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Assistenzsystems für ein Fahrzeug und Assistenzsystem
JP6592852B2 (ja) * 2017-09-07 2019-10-23 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
KR102306790B1 (ko) * 2017-11-08 2021-09-30 삼성전자주식회사 컨텐츠 시각화 장치 및 방법
US10509410B2 (en) 2017-12-06 2019-12-17 Zoox, Inc. External control of an autonomous vehicle
US10633024B2 (en) * 2017-12-27 2020-04-28 Automotive Research & Testing Center Vehicle lateral control system having lane model with modulation weighting and control method thereof
KR102552490B1 (ko) * 2018-01-03 2023-07-06 현대자동차주식회사 차량용 영상 처리 장치 및 방법
KR102022388B1 (ko) * 2018-02-27 2019-09-18 (주)캠시스 실세계 물체 정보를 이용한 카메라 공차 보정 시스템 및 방법
DE112019000383T5 (de) * 2018-03-07 2020-11-12 Robert Bosch Gesellschaft mit beschränkter Haftung Odometriesystem und Verfahren zum Verfolgen von Ampelanlagen
US10754336B2 (en) * 2018-05-04 2020-08-25 Waymo Llc Using environmental information to estimate sensor functionality for autonomous vehicles
CN109032116A (zh) * 2018-08-30 2018-12-18 百度在线网络技术(北京)有限公司 车辆故障处理方法、装置、设备及存储介质
US11279361B2 (en) 2019-07-03 2022-03-22 Toyota Motor Engineering & Manufacturing North America, Inc. Efficiency improvement for machine learning of vehicle control using traffic state estimation
US11555466B1 (en) 2021-09-10 2023-01-17 Toyota Motor North America, Inc. Minimal route determination
CN114708567B (zh) * 2022-06-06 2022-09-06 济南融瓴科技发展有限公司 一种基于双目摄像头的路面坑洼检测和避让方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001211466A (ja) * 2000-01-27 2001-08-03 Toshiba Corp 自己診断機能を有する画像処理システム
EP1637836A1 (en) * 2003-05-29 2006-03-22 Olympus Corporation Device and method of supporting stereo camera, device and method of detecting calibration, and stereo camera system
JP2006323686A (ja) * 2005-05-19 2006-11-30 Toyota Motor Corp 運転支援装置
JP2013161241A (ja) * 2012-02-03 2013-08-19 Toyota Motor Corp 物体認識装置、物体認識方法
CN103270543A (zh) * 2010-12-24 2013-08-28 株式会社日立制作所 驾驶辅助装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7630806B2 (en) * 1994-05-23 2009-12-08 Automotive Technologies International, Inc. System and method for detecting and protecting pedestrians
JP3436074B2 (ja) 1997-06-10 2003-08-11 トヨタ自動車株式会社 車載ステレオカメラ
JP3925474B2 (ja) * 2003-07-18 2007-06-06 日産自動車株式会社 車線変更支援装置
DE102004019337A1 (de) * 2004-04-21 2005-11-17 Siemens Ag Assistenzsystem für Kraftfahrzeuge
JP4420011B2 (ja) * 2006-11-16 2010-02-24 株式会社日立製作所 物体検知装置
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
KR101243108B1 (ko) 2010-12-30 2013-03-12 주식회사 와이즈오토모티브 차량의 후방 영상 표시 장치 및 방법
JP5690688B2 (ja) * 2011-09-15 2015-03-25 クラリオン株式会社 外界認識方法,装置,および車両システム
JP5863105B2 (ja) * 2011-12-13 2016-02-16 アルパイン株式会社 車両移動量推定装置および障害物検出装置
JP2013129264A (ja) * 2011-12-20 2013-07-04 Honda Motor Co Ltd 車載カメラのキャリブレーション方法及び車載カメラのキャリブレーション装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001211466A (ja) * 2000-01-27 2001-08-03 Toshiba Corp 自己診断機能を有する画像処理システム
EP1637836A1 (en) * 2003-05-29 2006-03-22 Olympus Corporation Device and method of supporting stereo camera, device and method of detecting calibration, and stereo camera system
JP2006323686A (ja) * 2005-05-19 2006-11-30 Toyota Motor Corp 運転支援装置
CN103270543A (zh) * 2010-12-24 2013-08-28 株式会社日立制作所 驾驶辅助装置
JP2013161241A (ja) * 2012-02-03 2013-08-19 Toyota Motor Corp 物体認識装置、物体認識方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107094224A (zh) * 2016-09-14 2017-08-25 格科微电子(上海)有限公司 摄像头模组的制造方法以及终端处理设备
CN108146503A (zh) * 2016-12-05 2018-06-12 福特全球技术公司 车辆防撞
CN108146503B (zh) * 2016-12-05 2022-08-02 福特全球技术公司 车辆防撞
CN111292351A (zh) * 2018-12-07 2020-06-16 星克跃尔株式会社 车辆检测方法及执行其的电子设备
US11881030B2 (en) 2018-12-07 2024-01-23 Thinkware Corporation Method for detecting vehicle and device for executing the same
CN113383368A (zh) * 2019-01-29 2021-09-10 日产自动车株式会社 乘车许可判断装置以及乘车许可判断方法
CN111873742A (zh) * 2020-06-16 2020-11-03 吉利汽车研究院(宁波)有限公司 一种车辆控制方法、装置及计算机存储介质
CN115817422A (zh) * 2023-02-20 2023-03-21 苏州德机自动化科技有限公司 一种新能源汽车自动安全驾驶的车身制动控制系统

Also Published As

Publication number Publication date
EP2950237A1 (en) 2015-12-02
US9308917B2 (en) 2016-04-12
CN105270287B (zh) 2017-11-17
US20150344032A1 (en) 2015-12-03
KR101551215B1 (ko) 2015-09-18

Similar Documents

Publication Publication Date Title
CN105270287A (zh) 车辆驾驶辅助装置及具有该车辆驾驶辅助装置的车辆
KR101582572B1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
CN105270179A (zh) 车辆驾驶辅助装置及车辆
KR101618551B1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR102309316B1 (ko) 차량용 디스플레이 장치 및 이를 구비한 차량
KR102043060B1 (ko) 자율 주행 장치 및 이를 구비한 차량
KR101641490B1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR20170010645A (ko) 자율 주행 차량 및 이를 구비하는 자율 주행 차량 시스템
KR101698781B1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR20150139368A (ko) 차량 충전 보조장치 및 이를 구비한 차량
KR20170011882A (ko) 차량용 레이더, 및 이를 구비하는 차량
KR101632179B1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR101641491B1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR20150070832A (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR20150072942A (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR101872477B1 (ko) 차량
KR20170011881A (ko) 차량용 레이더, 및 이를 구비하는 차량
KR20150074753A (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR101647728B1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR20160018637A (ko) 차량 충전 보조장치 및 이를 구비한 차량
KR20160144645A (ko) 어라운드 뷰 제공장치 및 이를 구비한 차량
KR20150074751A (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR20160144644A (ko) 어라운드 뷰 제공장치 및 이를 구비한 차량

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant