JP2018087004A - 車両速度制御方法及び装置 - Google Patents

車両速度制御方法及び装置 Download PDF

Info

Publication number
JP2018087004A
JP2018087004A JP2017224793A JP2017224793A JP2018087004A JP 2018087004 A JP2018087004 A JP 2018087004A JP 2017224793 A JP2017224793 A JP 2017224793A JP 2017224793 A JP2017224793 A JP 2017224793A JP 2018087004 A JP2018087004 A JP 2018087004A
Authority
JP
Japan
Prior art keywords
vehicle
end point
distance
speed control
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017224793A
Other languages
English (en)
Inventor
宰 雨 李
Jaewoo Lee
宰 雨 李
東 ▲うく▼ 李
Dongwook Lee
東 ▲うく▼ 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2018087004A publication Critical patent/JP2018087004A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • B60W30/146Speed limiting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/76Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/04Vehicle stop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Geometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Navigation (AREA)
  • Control Of Vehicle Engines Or Engines For Specific Uses (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】車両速度を制御する方法及び装置を提供する。【解決手段】車両速度を制御する装置は、入力イメージから、道路領域の終点を抽出し、前記終点に対応する、終点位置と車両位置との間の可視距離を測定し、測定された可視距離に基づいて、車両の速度を制御する。【選択図】図1

Description

以下、車両速度を制御する技術が提供される。
自律走行(Automatic Driving)は、車両走行中に要求される各種の操作を自動で行うもので、例えば、自律走行するホスト車両は運転者がハンドルと加速ペダル、ブレーキなどを操作しなくても自ら道路で走ることができる。自律走行のための様々な技術は、車両で把握される周辺映像情報によって実行される。特に、自律走行のための車線は車両の前方映像から検出されるが、車両の周辺地形、悪天候(雪、雨、霧)、道路形態などによって車両により収集可能な情報は制限がある場合もある。
本発明の目的は、車両速度を制御する技術を提供することにある。
一実施形態によれば、車両速度制御方法は、入力イメージから道路領域の終点を抽出するステップと、前記終点に対応する終点位置と前記車両位置との間の可視距離を測定するステップと、前記測定された可視距離に基づいて前記車両の速度を制御するステップとを含む。
前記道路領域の終点を抽出するステップは、前記入力イメージから車路境界線を識別するステップと、前記車路境界線に基づいて前記道路領域から走行車路領域を分割するステップと、前記分割された走行車路領域の終点を前記道路領域の終点として抽出するステップとを含み得る。
前記道路領域の終点を抽出するステップは、前記入力イメージから前記道路領域を識別するステップと、前記道路領域に含まれたピクセルのうち、前記入力イメージ内で前記車両側から最も遠く位置するピクセルを前記終点として抽出するステップとを含み得る。
前記道路領域の終点を抽出するステップは、前記入力イメージから前記道路領域及び前記道路領域上の中央線を識別するステップと、前記中央線上に含まれたピクセルのうち、前記入力イメージ内で前記車両側から最も遠く位置するピクセルを前記終点として抽出するステップとを含み得る。
車両速度制御方法は、第1カメラを用いて前記入力イメージに含まれた第1イメージを取得するステップと、前記第1カメラから離隔した第2カメラを用いて前記入力イメージに含まれた第2イメージを取得するステップとをさらに含み、前記可視距離を測定するステップは、前記第1イメージ及び前記第2イメージのうち1つの終点に対応するピクセル変位を決定するステップと、前記ピクセル変位に基づいて前記可視距離を測定するステップとを含み得る。
前記ピクセル変位を決定するステップは、トレーニングイメージからトレーニング変位マップを出力するようにトレーニングされたピクセル変位モデルを用いて、前記第1イメージ及び前記第2イメージから前記ピクセル変位マップを抽出するステップと、前記ピクセル変位マップから前記第1イメージ及び前記第2イメージのうち1つの終点に対応するピクセル変位を選択するステップとを含み得る。
前記ピクセル変位に基づいて前記可視距離を測定するステップは、前記第1カメラと前記第2カメラとの間の離隔したベースライン距離、及び前記第1カメラ及び前記第2カメラの焦点長さにさらに基づいて前記可視距離を測定するステップを含み得る。
前記ピクセル変位を決定するステップは、前記第1イメージから終点を決定し、前記第2イメージから終点を決定するステップと、前記第1イメージの終点と前記第2イメージの終点との間の変位を算出するステップと、前記算出された変位に対する変位統計値を前記ピクセル変位として決定するステップとを含み得る。
前記道路領域の終点を抽出するステップは、前記第1イメージの道路領域から前記第1イメージの終点を決定するステップと、前記第2イメージから前記第1イメージの終点に対応するピクセルを推定するステップと、前記推定されたピクセルを前記第2イメージの終点として決定するステップとを含み得る。
前記可視距離を測定するステップは、ライダー(LiDAR)センサを用いて前記車両周辺に対する周辺距離マップを生成するステップと、前記周辺距離マップを前記入力イメージに較正するステップと、前記周辺距離マップから前記入力イメージの終点に対応する距離を前記可視距離として選択するステップとを含み得る。
前記車両の速度を制御するステップは、前記可視距離に基づいて前記車両に対する停止距離を決定するステップと、前記停止距離に基づいて前記車両の最大速度を算出するステップと、前記車両の速度を前記最大の速度以下に調整するステップとを含み得る。
前記車両の最大速度を算出するステップは、前記車両の長さをさらに考慮して前記最大速度を算出するステップを含み得る。
車両速度制御方法は、ユーザ入力の受信に応答して、前記可視距離に基づいて決定された停止距離及び前記最大速度のうち少なくとも1つを調整するステップをさらに含み得る。
前記車両の最大速度を算出するステップは、前記車両位置に基づいて前記位置に対応する最大速度情報を取得するステップと、前記最大速度情報をさらに考慮して前記車両の最大速度を算出するステップとを含み得る。
前記車両の速度を前記最大の速度以下に調整するステップは、前記道路領域上に他のオブジェクトが検出されない場合に応答して、前記車両の速度を前記最大速度に調整するステップを含み得る。
車両速度制御方法は、前記抽出された終点に応答して、終点のそれぞれに対応する終点位置と前記車両位置との間の距離の統計値を前記可視距離として決定するステップを含み得る。
前記車両の速度を制御するステップは、前記可視距離及び前記車両が走行する道路の道路線形に基づいて確保可能な停止距離を決定するステップと、前記停止距離に基づいて前記車両に対する最大速度を算出するステップとを含み得る。
前記車両の速度を制御するステップは、前記車両に対し空走距離を排除し、制動距離に基づいて前記車両に対する最大速度を決定するステップを含み得る。
一実施形態に係る車両速度制御装置は、入力イメージを取得するセンサと、前記入力イメージから道路領域の終点を抽出し、前記終点に対応する終点位置と車両位置との間の可視距離を決定し、前記決定された可視距離に基づいて前記車両の速度を制御する処理部とを含む。
一実施形態に係る車両速度制御方法は、入力イメージから道路領域を決定するステップと、前記道路領域に沿って可視距離を決定するステップと、前記測定された可視距離に基づいて前記車両の速度を制御するステップとを含む。
車両速度制御方法は、前記道路領域の走行車路領域を抽出するステップと、前記抽出された走行車路領域の終点を抽出するステップとをさらに含み、前記可視距離を決定するステップは、前記可視距離を前記車両位置と前記終点に対応する終点位置との間の距離として決定するステップを含み得る。
車両速度制御方法は、前記道路領域の中央線を決定するステップと、前記中央線上に含まれたピクセルのうち、前記入力イメージ内で前記車両側から最も遠く位置するピクセルを前記終点として抽出するステップとをさらに含み、前記可視距離を決定するステップは、前記可視距離を前記車両位置と前記終点に対応する終点位置との間の距離として決定するステップを含み得る。
前記車両の速度を制御するステップは、前記可視距離に基づいて前記車両に対する停止距離を決定するステップと、前記停止距離に基づいて前記車両の最大速度を算出するステップと、前記最大速度に基づいて前記車両の速度を制御するステップとを含み得る。
本発明の一実施形態に係る車両速度制御装置は、入力イメージを取得するカメラと、前記入力イメージから道路領域を決定し、前記入力イメージに基づいて前記道路領域に沿って可視距離を決定し、前記決定された可視距離に基づいて前記車両の速度を制御する処理部とを含む。
前記処理部は、前記道路領域上に他のオブジェクトが検出されない場合に応答して、前記決定された可視距離に基づいて前記車両の速度を制御し得る。
前記カメラは、前記入力イメージに含まれた第1イメージを取得する第1カメラと、前記第1カメラから離隔して前記入力イメージに含まれた第2イメージを取得する第2カメラとを含み、前記処理部は、前記第1イメージ及び前記第2イメージのうち1つの終点に対応するピクセル変位を決定し、前記ピクセル変位に基づいて前記可視距離を測定し得る。
車両速度制御装置は、前記車両周辺に対する周辺距離マップを生成するライダーセンサをさらに含み、前記処理部は、前記入力イメージから前記道路領域の終点を抽出し、前記周辺距離マップを前記入力イメージに較正し、前記周辺距離マップから前記車両位置と前記道路領域の終点に対応する位置との間の距離を前記可視距離として選択し得る。
本発明によると、車両速度を制御する技術を提供することができる。
一実施形態に係る車両速度制御方法を説明するフローチャートである。 一実施形態により入力イメージを複数の領域に分割することを説明する図である。 一実施形態により入力イメージを複数の領域に分割することを説明する図である。 一実施形態により入力イメージを複数の領域に分割することを説明する図である。 一実施形態により入力イメージを複数の領域に分割することを説明する図である。 一実施形態により可視距離を測定するためのピクセル変位マップの算出を説明する図である。 一実施形態に係るピクセル変位マップを用いた可視距離の測定を説明する図である。 一実施形態に係るライダーセンサを用いた距離測定を説明する図である。 一実施形態に係る停止距離算出の例示を説明する図である。 一実施形態に係る障害物が存在する曲線道路上における可視距離を説明する図である。 一実施形態に係る障害物が存在する曲線道路上における可視距離を説明する図である。 一実施形態に係る傾斜道路上における可視距離を説明する図である。 一実施形態に係る傾斜道路上における可視距離を説明する図である。 一実施形態に係る障害物が存在しない曲線道路上における可視距離を説明する図である。 一実施形態に係る気象状況によった可視距離を説明する図である。 一実施形態に係る気象状況によった可視距離を説明する図である。 他の一実施形態に係る傾斜道路上における可視距離を説明する図である。 一実施形態に係るトンネル進入時の可視距離を説明する図である。 一実施形態に係るトンネル進入時の可視距離を説明する図である。 一実施形態に係る車両速度制御装置の構成を示すブロック図である。 一実施形態に係る車両速度制御装置の構成を示すブロック図である。 一実施形態に係る車両速度制御装置の構成を示すブロック図である。
以下、実施形態を添付する図面を参照しながら詳細に説明する。しかし、特許出願の範囲がこのような実施形態によって制限されたり限定されることはない。各図面に提示された同一の参照符号は同一の部材を示す。
以下で説明する実施形態には様々な変更が加えられる。以下で説明する実施形態は実施形態に対して限定しようとするものではなく、これに対する全ての変更、均等物ないし代替物を含むものとして理解されなければならない。
本明細書で用いた用語は、単に特定の実施形態を説明するために用いられるものであって、本発明を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なる定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
また、添付図面を参照して説明することにおいて、図面符号に関係なく同一の構成要素は同一の参照符号を付与し、これに対する重複する説明は省略することにする。実施形態の説明において関連する公知技術に対する具体的な説明が実施形態の要旨を不要に曖昧にすると判断される場合、その詳細な説明は省略する。
以下の説明は、車両の速度を制御するための例示的な方法及び装置を提供する。以下の説明で、車両は、自動車、スポーツユーティリティ車両又はトラックのような自動車であり得る。また、車両はバイクであってもよい。他の例として、車両は無人機であってもよい。しかし、車両は前記例に制限されず、他のタイプの車両も可能である。
図1は、一実施形態に係る車両速度制御方法を説明するフローチャートである。
まず、ステップS110において、車両速度制御装置は、入力イメージから道路領域の終点を抽出する。一実施形態によれば、車両速度制御装置は、車両の外部に対する入力イメージを取得する。例えば、車両速度制御装置は、車両の前方に対する入力イメージを取得する。車両速度制御装置は、カメラなどを用いて入力イメージを直接撮影したり、外部カメラモジュールから入力イメージを受信する。
本明細書において、道路領域は、入力イメージ内で道路に対応する領域を示す。道路領域は、車両速度制御装置が搭載された車両が現在の走行中である走行車路に対応する走行車路領域を含む。
本明細書において、道路領域の終点は、入力イメージ内で車両側から最も遠い位置にある地点を示す。例えば、道路領域の終点は、車両速度制御装置によって識別可能な、車両から最も遠い道路上の位置に対応する。道路領域の終点を決定する過程は下記の図2ないし図5を参照して説明する。
そして、ステップS120において、車両速度制御装置は、終点に対応する終点位置と車両位置との間の可視距離を測定する。一実施形態によれば、入力イメージがステレオイメージである場合、車両速度制御装置は、入力イメージそのものから可視距離を推定する。入力イメージを用いた可視距離推定は、下記の図6及び図7を参照して説明する。他の一実施形態によれば、車両速度制御装置は、別途のセンサを用いて可視距離を推定する。例えば、車両速度制御装置は、ライダーセンサ(下記の図8参照)及びレーダセンサなどを用いて可視距離を検出する。
以下、可視距離は、車両速度制御装置によって道路上の認識可能な最大距離を示す。終点位置は、入力イメージから抽出された終点が示す実際の物理的な位置を示す。
次に、ステップS130において、車両速度制御装置は、測定された可視距離に基づいて車両の速度を制御する。一実施形態によれば、車両速度制御装置は、可視距離に基づいて停止距離を決定し、決定された停止距離に基づいて車両の最大速度を決定する。例えば、車両速度制御装置は、車両の速度を最大の速度以下の範囲に調整する。車両の速度は、車両の縦方向に対する速度を示す。
一実施形態に係る車両速度制御装置は、道路上で車両前方に障害物がない場合でも、車両が走行可能に保障される最大距離に基づいて車両の速度を制御する。車両速度制御装置は、可視距離直後の道路上に危険オブジェクトがあるという最悪な状況を仮定する。例えば、車両速度制御装置によって識別可能な道路上の最大距離地点に障害物が存在するものと仮定する。したがって、車両速度制御装置は、任意の視点では、視野の他に存在している障害物及びオブジェクト(例えば、他の車両、人、及び動物など)などが突然視野中に現れても、車両を安全に制動させることができる。
車両速度制御装置は、実際の運転環境のうちセンサを用いて測定できる道路上の距離が極めて制限的な状況(例えば、一側が山のような特定地形で囲まれている急カーブの道路、傾斜が激しい丘など)でも現在の自律走行車両が危険オブジェクトを検出できる可視距離を測定することにより、これをベースにして減速して潜在的な危険に対して十分な制動距離を確保することができる。
図2ないし図5は、一実施形態により入力イメージを複数の領域に分割することを説明する図である。
図2及び図3は、車両速度制御装置によって取得された入力イメージが直線道路である場合の例示を示す。図4及び図5は、車両速度制御装置によって取得された入力イメージが曲線道路である場合の例示を示す。
車両速度制御装置は、安全な走行のために常に停止距離が保障され得る速度を保持する。一実施形態によれば、車両速度制御装置が任意の視点で図2及び図4に示すような入力イメージ200、400を取得した場合、車両速度制御装置は、入力イメージが取得された視点で確保可能な距離を決定する。例えば、車両速度制御装置は、入力イメージ200、400によって識別可能な道路の終点211、311、411、511を抽出する。
車両速度制御装置は、道路の終点211、311、411、511を抽出するために入力イメージ200、400を複数の領域に分割する。入力イメージ200、400が分割された複数の領域を示すイメージを、分割された領域イメージ300、500に示すことができる。車両速度制御装置は、入力イメージを道路領域310、510、車両領域320、人の領域330、物体領域340、540、及び背景領域350、550などに分割する。道路領域310、510は車両が走行可能な道路を指示する領域を示し、車両領域320は道路上に位置する異なる車両を指示する領域を示し、人の領域330は入力イメージ上に示される人を指示する領域を示し、物体領域340、540は人を除いたオブジェクト(例えば、木及び建物など)を指示する領域を示し、背景領域350、550はオブジェクト以外(例えば、空など)を指示する領域を示す。ただし、入力イメージの領域分割を上述したものに限定されることなく、設計に応じて変更され得る。
一実施形態によれば、車両速度制御装置は、トレーニングイメージからトレーニング出力を出力するようにトレーニングされた、分流器モデル(classifier model)を用いて入力イメージを複数の領域に分割する。分流器モデルは、例えば、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)であってもよい。トレーニングイメージは、例えば、カラーイメージであってもよく、トレーニング出力は、トレーニング入力が分割された領域イメージを示す。例えば、トレーニング出力は、トレーニングイメージの各ピクセルに対応する属性(例えば、車両、人、オブジェクト、及び背景など)が手動で指定され、指定された属性に基づいて予め分割された領域イメージであり得る。
車両速度制御装置は、分割された領域イメージ300、500から道路領域310、510の終点311、511を抽出する。例えば、車両速度制御装置は、入力イメージ200、400から道路領域310、510を識別する。車両速度制御装置は、道路領域310、510に含まれたピクセルのうち入力イメージ200、400内で車両側から最も遠く位置するピクセルを終点311、511として抽出する。ただし、終点311、511の抽出を上述したものに限定されることはない。例えば、道路領域内で入力イメージの最も上側に位置する部分が終点311、511に対応する。
また、車両速度制御装置は、入力イメージから車路境界線を識別してもよい。車路境界線は、車路と車路との間を区分する境界線を示す。車両速度制御装置は、車路境界線に基づいて道路領域から走行車路領域を分割する。走行車路領域は走行車路に対応する領域を示し、走行車路は車両速度制御装置が装着された車両が現在の走行中である車路を示す。車両速度制御装置は、分割された走行車路領域の終点を抽出する。例えば、車両速度制御装置は、走行車路領域に含まれたピクセルのうち、入力イメージ内で車両側から最も遠く位置するピクセルを終点として抽出する。
図6は、一実施形態により可視距離を測定するためのピクセル変位マップの算出を説明する図である。
入力イメージがステレオイメージである場合、車両速度制御装置は、ピクセル変位を用いて車両から終点に対応する終点位置までの可視距離を推定する。車両速度制御装置は、ピクセル変位を用いる場合、車両から終点位置までの距離を実際に測定するための別途のセンサ(例えば、ライダーセンサ又はレーダセンサなど)なくとも可視距離を推定する。
本明細書において、ステレオイメージは同一の場面を示すイメージの対を示し、例えば、入力イメージは第1イメージ610及び第2イメージ620を含む。第1イメージ610は、左側イメージ及び右側イメージの1つであってもよく、第2イメージ620を残りの1つであってもよい。車両速度制御装置は、第1カメラを用いて入力イメージに含まれた第1イメージ610を取得し、第1カメラから離隔した第2カメラを用いて入力イメージに含まれた第2イメージ620を取得する。
本明細書で、ピクセル変位は、第1イメージ610上の任意のピクセル及び第2イメージ620上でそれに対応するピクセル間のピクセル距離を示す。第1イメージ610及び第2イメージ620上の任意のピクセルに対して算出されたピクセルの変位は、当該のピクセルに対応する位置までの距離を算出するために使用される。ピクセル変位の例示は下記の図7を参照して説明する。
車両速度制御装置は、第1イメージ610及び第2イメージ620のうち1つの終点に対応するピクセル変位を決定する。車両速度制御装置は、ピクセル変位を決定するためにピクセル変位マップ630を生成する。例えば、車両速度制御装置は、第1イメージ610及び第2イメージ620からピクセル変位マップ630を生成し、生成されたピクセル変位マップ630に基づいて終点に対応するピクセル変位を決定する。例えば、車両速度制御装置は、ピクセル変位モデルを用いて第1イメージ610及び第2イメージ620からピクセル変位マップ630を抽出する。ピクセル変位モデルは、トレーニングイメージからトレーニング変位マップを出力するようにトレーニングされたニューラルネットワーク640であり得る。トレーニング変位マップは、トレーニングイメージの各ピクセルに対して予め指定されたピクセル変位の集合を示す。車両速度制御装置は、ピクセル変位マップ630から第1イメージ610及び第2イメージ620のうち1つの終点に対応するピクセル変位を選択する。
他の一実施形態によれば、車両速度制御装置は、上述したピクセル変位マップ630を算出する代わりに、第1イメージ610の終点を抽出した後、第2イメージ620からそれに対応する終点を推定し、2つの終点間のピクセル変位を算出してもよい。車両速度制御装置は、第1イメージ610の道路領域から第1イメージ610の終点を決定し、第2イメージ620から第1イメージ610の終点に対応するピクセルを推定する。
例えば、車両速度制御装置は、映像特徴に基づいて第2イメージ620から第1イメージ610の終点に対応するピクセルを推定する。例えば、映像特徴は、SIFT(Scale Invariant Feature Transform)に基づいた特徴である。ここで、車両速度制御装置は、映像モデル(例えば、イメージからSIFT特徴を抽出するようにトレーニングされたニューラルネットワークなど)を用いて第1イメージ610及び第2イメージ620から映像特徴を抽出し、第1イメージ610から終点に対応するピクセルを含む部分と類似の映像特徴を有するの部分の中心ピクセルを第1イメージ610の終点に対応するピクセルとして推定する。車両速度制御装置は、推定されたピクセルを第2イメージ620の終点として決定する。
図7は、一実施形態に係るピクセル変位マップを用いた可視距離の測定を説明する図である。
車両速度制御装置は、図6を参照して説明したピクセル変位モデル(例えば、ニューラルネットワーク)640を用いてピクセル変位マップ730を生成する。車両速度制御装置は、ピクセル変位マップ730から終点に対応するピクセル変位731を決定し、終点に対応するピクセル変位731に基づいて終点位置までの可視距離を推定する。図7に示すように、ピクセル変位790は、第1イメージ710における任意のピクセル711とそれに対応する第2イメージ720におけるピクセル721との間のピクセル距離を示す。
ピクセル変位マップ730は、第1イメージ710及び第2イメージ720のそれぞれのピクセルに対応するピクセル変位に対応する強度を有するマップである。ピクセル変位マップ730で、基準となる車両位置から近い地点であるほどピクセル変位の値が増加し、車両位置から遠い地点であるほどピクセル変位の値が減少する。図7に示されたピクセル変位マップ730では、車両から近い地点はピクセル変位の値が大きいため明るく表現され、車両から遠い地点はピクセル変位の値が小さいため暗く表現されている。ただし、図7は、ピクセル変位マップ730の理解を助けるためのものであって、これに限定されることなくピクセル変位マップ730の各地点は車両から遠いほど明るく、近いほど暗く表現されてもよい。
例えば、車両速度制御装置は、終点に対応するピクセル変位731に基づいて可視距離を測定する。車両速度制御装置は、第1カメラと第2カメラとの間の離隔したベースライン距離、及び第1カメラ及び第2カメラの焦点長さにさらに基づいて可視距離を測定する。例えば、車両速度制御装置は、下記の数式(1)に基づいて、終点に対応するピクセル変位731から可視距離を測定する。
上述した数式(1)において、depthは車両速度制御装置が装着された車両から終点位置までの深さであって、可視距離を示す。Bは、第1カメラと第2カメラとの間の離隔したベースライン距離を示す。fは、第1カメラ及び第2カメラの焦点長さを示す。第1カメラ及び第2カメラは同一の特性を示す。disparityは、終点に対応するピクセル変位731を示す。depth及びBは実際の距離単位として、単位は、例えば、m、cm、及びmmの1つであり得る。f及びdisparityは、ピクセル単位で表現される。上述した数式(1)において、depth及びBの単位が互いに同一であり、f及びdisparityの単位が互いに同一であるものと仮定したが、単位が異なる場合には数式(1)に単位定数が追加されてもよい。
また、図1ないし図7では、入力イメージで1つの終点が抽出されるものを仮定したが、車両速度制御装置は複数の終点を抽出してもよい。例えば、入力イメージの道路領域内で車両側(例えば、入力イメージの最下段ピクセル)から最も遠く離れた地点が同一のピクセル距離を有する場合、車両速度制御装置は、複数の終点を決定する。さらに、入力イメージがステレオイメージである場合、車両速度制御装置は第1イメージから複数の終点を決定し、第2イメージから複数の終点を決定する。車両速度制御装置は、第1イメージの複数の終点のそれぞれ及び第2イメージの複数の終点のそれぞれの間の変位を算出する。車両速度制御装置は、算出された変位に対する変位統計値をピクセル変位として決定する。変位統計値は、複数の変位に対する統計値として、例えば、複数の変位の平均値及び中間値などであってもよい。
図8は、一実施形態に係るライダーセンサを用いた距離測定を説明する図である。
車両速度制御装置は、別途のセンサを用いて車両801から終点位置までの可視距離を測定してもよい。例えば、車両速度制御装置は、ライダー(Light Imaging、Detection、And Ranging:LiDAR)センサを用いて車両周辺に対する周辺距離マップを生成する。ライダーセンサは、複数のレーザビームを周辺(例えば、前方)に一定角度に放射し、反射されるレーザビームの飛行時間を分析して周辺距離マップをリアルタイムに取得するセンサを示す。周辺距離マップは、深さを指示する3次元イメージに表現される。図8に示すように、車両速度制御装置は、車両周辺に対してレーザビームを照射して周辺距離マップを取得し得る。
図8に示すように、周辺距離マップは、車両801から車両周辺に存在するオブジェクト820までの距離を示す。また、周辺距離マップは、再び810の各位置までの距離も示し得る。ただし、ライダーセンサに基づいた周辺距離マップは、オブジェクト820に向かって放射されたレーザビームの反射により取得され、車両801を中心にオブジェクト820の後方領域850に関する情報は含まなくてもよい。
一実施形態に係る車両速度制御装置は、周辺距離マップを入力イメージに較正する。例えば、車両速度制御装置は、周辺距離マップの少なくとも一部を分割し、分割された距離マップを入力イメージにマッチングさせ得る。車両速度制御装置は、分割された距離マップの各地点を入力イメージで対応するピクセルにマッピングする。
車両速度制御装置は、周辺距離マップから入力イメージの終点に対応する距離を可視距離として選択し得る。
図9は、一実施形態に係る停止距離算出の例示を説明する図である。
一実施形態に係る車両速度制御装置は、可視距離に基づいて車両に対する停止距離を決定する。例えば、車両速度制御装置は、可視距離そのものを車両に対する停止距離として決定する。他の例として、車両速度制御装置は、可視距離に比例して停止距離を設定してもよい。したがって、車両速度制御装置は、入力イメージによって識別可能な最大距離を停止距離として設定する。ただし、停止距離を決定する方法は、上述した例に限定されることはない。車両速度制御装置は、ユーザ入力の受信に応答して、可視距離に基づいて決定された停止距離を調整する。ここで、ユーザ入力は、ユーザから受信される入力として、停止距離を設定する操作を示す。例えば、車両速度制御装置は、ユーザ入力に応答して停止距離を可視距離に応じて短く設定することで、より安全に車両を走行させることができる。他の例として、車両速度制御装置は、ユーザ入力に応答して、停止距離を可視距離に応じて長く設定することで、よりはやく車両を走行させることができる。
車両速度制御装置は、停止距離に基づいて車両の最大速度を算出する。例えば、車両速度制御装置は、最大速度情報900に基づいて停止距離から最大速度を算出する。最大速度情報900は、任意の速度に対して提供のために求められる空走距離、制動距離、及び停止距離を定義する情報を示し、図9に示された最大速度情報900は韓国その他の国の機関で提供する情報であってもよい。
例えば、最大速度情報900は、ルックアップテーブルのデータ形態に実現されることができ、車両速度制御装置は、最大速度情報900から現在の停止距離に対応する最大速度を算出する。ただし、図9では、空走距離が共に示されているが、空走距離は、人が前方物体を確認して反応するまで所要する時間による距離を定量化したものであるため、車両速度制御装置は、停止距離として制動距離のみを用いることができる。したがって、車両速度制御装置は、車両に対して空走距離を排除し、制動距離に基づいて車両に対する最大速度を決定する。
また、車両速度制御装置は、車両の速度を最大の速度以下に調整してもよい。例えば、車両速度制御装置は、道路領域上に他のオブジェクトが検出されない場合に応答して、車両の速度を最大速度に調整する。したがって、車両速度制御装置は、前方に他の車両が存在しない状況でも、現在の視野によって確保可能な距離に基づいて車両の速度を調整することで、安全な走行を行うことができる。
他の一実施形態によれば、車両速度制御装置は、ユーザ入力に応答して危険度を設定する。車両速度制御装置は、設定された危険度に基づいて停止距離及び最大速度のうち少なくとも1つを調整する。例えば、危険度が高く設定されるほど、ユーザが危険を甘んじた走行を希望するものであり、車両速度制御装置は速い速度で車両を走行させることができる。他の例として、危険度が低く設定されるほど、ユーザが安全な走行を希望するものであり、車両速度制御装置は遅い速度で車両を走行させることができる。したがって、車両速度制御装置は、安全性の確保程度により停止距離ないし制動距離を定義し、定義された制動距離を保持できる最大速度を算出する。
更なる一実施形態によれば、車両速度制御装置は、車両位置に基づいて位置に対応する最大速度情報900を取得する。例えば、車両が位置する国、地域、及び州ごとに停止距離に対する規定が互いに異なり得る。車両速度制御装置は、車両の現在の位置に基づいて流動的に最大速度情報900を取得する。例えば、車両速度制御装置は、通信によって外部から最大速度情報900を受信したり、内部データベースで当該位置の最大速度情報900を検索する。車両速度制御装置は、現在の位置に対応する最大速度情報900を用いて上述した停止距離から車両の最大速度を算出する。
例えば、米国のカリフォルニア州では、最大速度情報として、制動距離、車両の長さ、及び速度に関する算出式が提供される。車両速度制御装置は、停止距離及び車両の長さに基づいて最大速度を算出する。制動距離は、車両の長さ及び速度の積に対応する。
図10及び図11は、一実施形態に係る障害物が存在する曲線道路上における可視距離を説明する図である。
車両速度制御装置は、曲線道路上でカーブの内側に障害物1130(例えば、壁、絶壁など)が存在して障害物1130の向かい側で危険オブジェクト1120(例えば、衝突危険のあるオブジェクト)があるか否かが不確実な場合、道路の終点位置に危険オブジェクト1120が存在するものと仮定する。
図1ないし図9を参照して上述したように、車両速度制御装置は、入力イメージ1000に基づいて道路の終点位置までの可視距離1011、1111を決定する。
ただし、道路の終点を上述した通りに限定されることなく、車両速度制御装置は道路のうち走行車路に基づいて終点を決定してもよい。
また、車両速度制御装置は、入力イメージ1000から道路領域及び道路領域上の中央線1119を識別する。車両速度制御装置は、中央線1119上に含まれたピクセルのうち入力イメージ1000内で車両1101側から最も遠く位置するピクセルを終点として抽出する。この場合、車両速度制御装置は、道路内で走行車路1110上の終点位置までの距離を可視距離1012、1112として決定する。
さらに、車両速度制御装置は、可視距離及び車両1101が走行する道路の道路線形に基づいて確保可能な停止距離を決定する。例えば、図10に示すように、曲線道路1002、1102の場合、当該道路の曲率により終点位置までの可視距離1111、1112よりも長い停止距離を決定する。車両速度制御装置は、停止距離に基づいて車両1101に対する最大速度を算出する。
図12及び図13は、一実施形態に係る傾斜道路上における可視距離を説明する図である。
車両速度制御装置は、傾斜道路上で上り坂の向かい側に障害物があるか否かが不確実な場合、道路1210、1310の終点位置に危険オブジェクト1320が存在するものと仮定する。
上り坂の場合、入力イメージ1200内の道路領域に対して高さが同一の複数のピクセルが存在し、車両速度制御装置は、当該の道路領域に対して複数の終点を決定する。車両速度制御装置は、抽出された終点が複数である場合に応答して、複数の終点のそれぞれに対応する終点位置と車両位置との間の距離の統計値を可視距離1211、1311として決定する。例えば、車両速度制御装置は、複数の終点位置のそれぞれと車両位置間の距離の平均値及び中間値などを可視距離1211、1311として決定する。したがって、車両速度制御装置は、上り坂で危険オブジェクトが存在しない場合にも車両1301を安全な速度で走行することができる。
図14は、一実施形態に係る障害物が存在しない曲線道路上における可視距離を説明する図である。
車両速度制御装置は、障害物が存在しない曲線道路1410上で道路の終点までを可視距離1411として決定する。したがって、車両速度制御装置は、障害物がある地形とは異なって、障害物のない平地地形1441で車両1401の速度を迅速に決定することができる。
図15及び図16は、一実施形態に係る気象状況による可視距離を説明する図である。
車両速度制御装置は、気象状況により車両を安全に走行することができる。気象状況が良くない場合、車両の視野が制限される。例えば、図15は、霧1550によって視野が制限される状況で取得された入力イメージ1500を示す。
車両速度制御装置は、入力イメージ1500から不可視領域1650を排除する。車両速度制御装置は、不可視領域1650が排除された入力イメージ1500から道路領域1610を識別する。例えば、車両速度制御装置は、入力イメージから不可視領域1650が排除された領域イメージ1600を生成する。車両速度制御装置は、不可視領域1650が排除された領域イメージ1600から識別された道路領域1610に基づいて終点1611を決定する。
したがって、車両速度制御装置は、気象状況に応じて視野が低下する状況で、視野の確保される最大距離を視野距離として決定することで、潜在的な衝突危険(例えば、霧のために見えない物体の突発出現など)を防止することができる。
図17は、他の一実施形態に係る傾斜道路上における可視距離を説明する図である。
車両速度制御装置は、車両1701が登り坂1710に進入する場合、登り坂1710に対して確保され得る視野範囲に基づいて可視距離1711を決定する。登り坂1710では傾斜によって車両速度制御装置の視野が制限されるため、可視距離1711が減少し、車両速度制御装置は減少した可視距離1711に基づいて車両の速度を減少させ得る。
図18及び図19は、一実施形態に係るトンネル進入時の可視距離を説明する図である。
車両速度制御装置は、車両が陰影地域(例えば、トンネルなど)に進入する場合、陰影地域に対して確保され得る視野範囲に基づいて可視距離を決定する。
例えば、車両速度制御装置は、トンネルに進入する前に入力イメージ1800を取得する。トンネルの場合、昼間にはトンネル内の照明が暗くて不可視領域1850が入力イメージ1800に示される。車両速度制御装置は、入力イメージ1800の各領域を分割した領域イメージ1900を生成する。車両速度制御装置は、領域イメージ1900で不可視領域1950を道路領域1910から除くことができる。車両速度制御装置は、不可視領域1950が除外された道路領域1910に基づいて可視距離1911を決定する。
したがって、車両速度制御装置は、陰影地域に進入する前に不可視領域1850、1950によって危険オブジェクトが潜在的に存在する状況でも、可視距離に基づいて車両の速度を決定することで衝突危険を防止できる。
図20ないし図22は、一実施形態に係る車両速度制御装置の構成を示すブロック図である。
車両速度制御装置2000は、センサ2010及び処理部2020を含む。
センサ2010は、入力イメージを取得する。例えば、センサ2010はイメージセンサとして、入力イメージを撮影する。他の例として、センサ2010は、ベースラインに沿って離隔した第1カメラ2111及び第2カメラ2111を含んでもよく、第1カメラ2111及び第2カメラ2111に基づいてステレオイメージを入力イメージとして取得する。
処理部2020は、入力イメージから道路領域の終点を抽出し、終点に対応する終点位置と車両位置との間の可視距離を決定し、測定された可視距離に基づいて車両の速度を制御する。ただし、処理部2020の動作をこれに限定することなく、図1ないし図19を参照して説明した動作も行うことができる。
また、車両速度制御装置2100のセンサ2010は、カメラ2111及び距離センサなどをさらに含む。
カメラ2111は、上述したように車両の外部に対するイメージを撮影する。カメラ2111は、車両の前方に向かって装着され、車両の前方に対するイメージを撮影する。例えば、カメラ2111はステレオイメージを撮影する。ただし、カメラ2111はこれに限定されることなく、カメラ2111は、赤外線及び可視光線に基づいてイメージを撮影する光学センサだけでなく、超音波などに基づいて超音波イメージを撮影する超音波センサなどを含み得る。カメラ2111は、任意の視野範囲を連続的に撮影できる様々な種類のセンサとして実現する。
距離センサは、車両周辺に対する距離を測定するセンサとして、車両周辺の再び及びオブジェクトなどに対する距離を測定する。例えば、距離センサは、ライダーセンサ2112及びレーダセンサ2113などを含む。ただし、距離センサの種類を上述したものに限定されることはない。
ライダーセンサ2112は、図8を参照して上述したように、複数のレーザビームを周辺(例えば、前方)に一定の角度で放射し、反射されるレーザビームの飛行時間を分析して周辺距離マップをリアルタイムに取得するセンサを示す。
レーダセンサ2113は、電波を周辺に一定の角度で放射し、反射される電波を分析して周辺距離マップをリアルタイムに取得するセンサを示す。
格納部2130は、図1ないし図19を参照して説明した動作を処理部2020に実行させるための命令語を含むプログラムを格納する。また、格納部2130は、入力イメージを分割するための分流器モデル、ピクセル変位を推定するためのピクセル変位モデル、及びステレオイメージで相互対応する地点を推定するための映像モデルなどを格納し得る。格納部2130は、それぞれのモデルをアップデートして格納する。また、格納部2130は、入力イメージ、ピクセル変位マップ、最大距離情報、及び周辺距離マップなどのように車両速度制御方法を行うために要求される様々な情報を臨時的又は半永久的に格納し得る。
また、車両速度制御装置2200は、道路領域認識部2210、可視距離測定部2220、停止距離決定部2230、及び速度制御部2240を含む装置で実現され得る。
道路領域認識部2210は、入力イメージから道路領域を認識するモジュールとして少なくとも1つのプロセッサを含む。例えば、道路領域認識部2210は、入力イメージをそれぞれの属性(例えば、道路、オブジェクト、及び背景など)に応じて複数の領域に分割し、分割された領域のうち道路領域を選択する。
可視距離測定部2220は、道路領域の終点に対応する終点位置までの可視距離を測定できるモジュールである。例えば、可視距離測定部2220は、終点位置までの可視距離を推定できる少なくとも1つのプロセッサを含む。他の例として、可視距離測定部2220は、終点位置までの可視距離を実際に測定するセンサを含んでもよい。
停止距離決定部2230は、可視距離に基づいて停止距離を決定するモジュールである。例えば、停止距離決定部2230は、可視距離を停止距離に設定する。また、ユーザの入力に応答して停止距離を調整し得る。
速度制御部2240は、車両の速度を制御するモジュールである。例えば、速度制御部2240は、最大速度情報などに基づいて車両の速度を決定する少なくとも1つのプロセッサを含む。また、の速度制御部2240は、決定された速度で車両を走行させ得る。
上述した道路領域認識部2210、可視距離測定部2220、停止距離決定部2230、及び速度制御部2240に含まれるプロセッサは1つのプロセッサで具現されても良く、複数のプロセッサで実現され得る。
以上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当該技術分野で通常の知識を有する者であれば、前記に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順序で実行されたり、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組合わせられたり、他の構成要素又は均等物によって置き換えたり置換されても適切な結果を達成することができる。
したがって、他の具現、他の実施形態、及び請求範囲と均等なものも後述する請求範囲の範囲に属する。
2000:車両速度制御装置
2010:センサ
2020:処理部

Claims (31)

  1. 車両速度制御方法において、
    入力イメージから道路領域の終点を抽出するステップと、
    前記終点に対応する終点位置と車両位置との間の可視距離を測定するステップと、
    前記測定された可視距離に基づいて前記車両の速度を制御するステップと、
    を含む車両速度制御方法。
  2. 前記道路領域の終点を抽出するステップは、
    前記入力イメージから車路境界線を識別するステップと、
    前記車路境界線に基づいて前記道路領域から走行車路領域を分割するステップと、
    前記分割された走行車路領域の終点を前記道路領域の終点として抽出するステップと、
    を含む、請求項1に記載の車両速度制御方法。
  3. 前記道路領域の終点を抽出するステップは、
    前記入力イメージから前記道路領域を識別するステップと、
    前記道路領域に含まれたピクセルのうち、前記入力イメージ内で前記車両側から最も遠く位置するピクセルを前記終点として抽出するステップと、
    を含む、請求項1に記載の車両速度制御方法。
  4. 前記道路領域の終点を抽出するステップは、
    前記入力イメージから前記道路領域及び前記道路領域上の中央線を識別するステップと、
    前記中央線上に含まれたピクセルのうち、前記入力イメージ内で前記車両側から最も遠く位置するピクセルを前記終点として抽出するステップと、
    を含む、請求項1に記載の車両速度制御方法。
  5. 第1カメラを用いて前記入力イメージに含まれた第1イメージを取得するステップと、
    前記第1カメラから離隔した第2カメラを用いて前記入力イメージに含まれた第2イメージを取得するステップと、
    をさらに含み、
    前記可視距離を測定するステップは、
    前記第1イメージ及び前記第2イメージのうち1つの終点に対応するピクセル変位を決定するステップと、
    前記ピクセル変位に基づいて前記可視距離を測定するステップと、
    を含む、請求項1ないし4のうち何れか一項に記載の車両速度制御方法。
  6. 前記ピクセル変位を決定するステップは、
    トレーニングイメージからトレーニング変位マップを出力するようにトレーニングされたピクセル変位モデルを用いて、前記第1イメージ及び前記第2イメージから前記ピクセル変位マップを抽出するステップと、
    前記ピクセル変位マップから前記第1イメージ及び前記第2イメージのうち1つの終点に対応するピクセル変位を選択するステップと、
    を含む、請求項5に記載の車両速度制御方法。
  7. 前記ピクセル変位に基づいて前記可視距離を測定するステップは、前記第1カメラと前記第2カメラとの間の離隔したベースライン距離、及び前記第1カメラ及び前記第2カメラの焦点長さにさらに基づいて前記可視距離を測定するステップを含む、請求項5に記載の車両速度制御方法。
  8. 前記ピクセル変位を決定するステップは、
    前記第1イメージから終点を決定し、前記第2イメージから終点を決定するステップと、
    前記第1イメージの終点と前記第2イメージの終点との間の変位を算出するステップと、
    前記算出された変位に対する変位統計値を前記ピクセル変位として決定するステップと、
    を含む、請求項5に記載の車両速度制御方法。
  9. 前記道路領域の終点を抽出するステップは、
    前記第1イメージの道路領域から前記第1イメージの終点を決定するステップと、
    前記第2イメージから前記第1イメージの終点に対応するピクセルを推定するステップと、
    前記推定されたピクセルを前記第2イメージの終点として決定するステップと、
    を含む、請求項5に記載の車両速度制御方法。
  10. 前記可視距離を測定するステップは、
    ライダー(LiDAR)センサを用いて前記車両周辺に対する周辺距離マップを生成するステップと、
    前記周辺距離マップを前記入力イメージに較正するステップと、
    前記周辺距離マップから前記入力イメージの終点に対応する距離を前記可視距離として選択するステップと、
    を含む、請求項1ないし9のうち何れか一項に記載の車両速度制御方法。
  11. 前記車両の速度を制御するステップは、
    前記可視距離に基づいて前記車両に対する停止距離を決定するステップと、
    前記停止距離に基づいて前記車両の最大速度を算出するステップと、
    前記車両の速度を前記最大の速度以下に調整するステップと、
    を含む、請求項1ないし10のうち何れか一項に記載の車両速度制御方法。
  12. 前記車両の最大速度を算出するステップは、前記車両の長さをさらに考慮して前記最大速度を算出するステップを含む、請求項11に記載の車両速度制御方法。
  13. ユーザ入力の受信に応答して、前記可視距離に基づいて決定された停止距離及び前記最大速度のうち少なくとも1つを調整するステップをさらに含む、請求項11に記載の車両速度制御方法。
  14. 前記車両の最大速度を算出するステップは、
    前記車両位置に基づいて前記位置に対応する最大速度情報を取得するステップと、
    前記最大速度情報をさらに考慮して前記車両の最大速度を算出するステップと、
    を含む、請求項11に記載の車両速度制御方法。
  15. 前記車両の速度を前記最大の速度以下に調整するステップは、前記道路領域上に他のオブジェクトが検出されない場合に応答して、前記車両の速度を前記最大速度に調整するステップを含む、請求項11に記載の車両速度制御方法。
  16. 前記抽出された終点に応答して、終点のそれぞれに対応する終点位置と前記車両位置との間の距離の統計値を前記可視距離として決定するステップを含む、請求項1ないし15のうち何れか一項に記載の車両速度制御方法。
  17. 前記車両の速度を制御するステップは、
    前記可視距離及び前記車両が走行する道路の道路線形に基づいて確保可能な停止距離を決定するステップと、
    前記停止距離に基づいて前記車両に対する最大速度を算出するステップと、
    を含む、請求項1ないし10のうち何れか一項に記載の車両速度制御方法。
  18. 前記車両の速度を制御するステップは、前記車両に対し空走距離を排除し、制動距離に基づいて前記車両に対する最大速度を決定するステップを含む、請求項1ないし10のうち何れか一項に記載の車両速度制御方法。
  19. 請求項1ないし請求項18のいずれか一項に記載の車両速度制御方法を制御装置のコンピュータに実行させる1つ以上の命令語を含むコンピュータプログラム。
  20. 車両速度制御装置において、
    入力イメージを取得するセンサと、
    前記入力イメージから道路領域の終点を抽出し、前記終点に対応する終点位置と車両位置との間の可視距離を決定し、前記決定された可視距離に基づいて前記車両の速度を制御する処理部と、
    を含む車両速度制御装置。
  21. 前記処理部は、前記道路領域から走行車路領域を分割し、前記分割された走行車路領域の終点を前記道路領域の終点として抽出する、請求項20に記載の車両速度制御装置。
  22. 前記処理部は、前記道路領域に含まれたピクセルのうち前記入力イメージ内で前記車両側から最も遠く位置するピクセルを前記終点として抽出する、請求項20に記載の車両速度制御装置。
  23. 前記センサは、
    前記入力イメージに含まれた第1イメージを取得する第1カメラと、
    前記第1カメラから離隔して前記入力イメージに含まれた第2イメージを取得する第2カメラと、
    を含み、
    前記処理部は、前記第1イメージ及び前記第2イメージのうち1つの終点に対応するピクセル変位を決定し、前記ピクセル変位に基づいて前記可視距離を測定する、請求項20ないし22のうち何れか一項に記載の車両速度制御装置。
  24. 車両速度制御方法において、
    入力イメージから道路領域を決定するステップと、
    前記道路領域に沿って可視距離を決定するステップと、
    前記決定された可視距離に基づいて前記車両の速度を制御するステップと、
    を含む車両速度制御方法。
  25. 前記道路領域の走行車路領域を抽出するステップと、
    前記抽出された走行車路領域の終点を抽出するステップと、
    をさらに含み、
    前記可視距離を決定するステップは、前記可視距離を前記車両位置と前記終点に対応する終点位置との間の距離として決定するステップを含む、請求項24に記載の車両速度制御方法。
  26. 前記道路領域の中央線を決定するステップと、
    前記中央線上に含まれたピクセルのうち、前記入力イメージ内で前記車両側から最も遠く位置するピクセルを終点として抽出するステップと、
    をさらに含み、
    前記可視距離を決定するステップは、前記可視距離を前記車両位置と前記終点に対応する終点位置との間の距離として決定するステップを含む、請求項24に記載の車両速度制御方法。
  27. 前記車両の速度を制御するステップは、
    前記可視距離に基づいて前記車両に対する停止距離を決定するステップと、
    前記停止距離に基づいて前記車両の最大速度を算出するステップと、
    前記最大速度に基づいて前記車両の速度を制御するステップと、
    を含む、請求項24ないし26のうち何れか一項に記載の車両速度制御方法。
  28. 車両速度制御装置において、
    入力イメージを取得するカメラと、
    前記入力イメージから道路領域を決定し、前記入力イメージに基づいて前記道路領域に沿って可視距離を決定し、前記決定された可視距離に基づいて前記車両の速度を制御する処理部と、
    を含む車両速度制御装置。
  29. 前記処理部は、前記道路領域上に他のオブジェクトが検出されない場合に応答して、前記決定された可視距離に基づいて前記車両の速度を制御する、請求項28に記載の車両速度制御装置。
  30. 前記カメラは、
    前記入力イメージに含まれた第1イメージを取得する第1カメラと、
    前記第1カメラから離隔して前記入力イメージに含まれた第2イメージを取得する第2カメラと、
    を含み、
    前記処理部は、前記第1イメージ及び前記第2イメージのうち1つの終点に対応するピクセル変位を決定し、前記ピクセル変位に基づいて前記可視距離を測定する、請求項28又は29に記載の車両速度制御装置。
  31. 前記車両周辺に対する周辺距離マップを生成するライダーセンサをさらに含み、
    前記処理部は、前記入力イメージから前記道路領域の終点を抽出し、前記周辺距離マップを前記入力イメージに較正し、前記周辺距離マップから前記車両位置と前記道路領域の終点に対応する位置との間の距離を前記可視距離として選択する、請求項28に記載の車両速度制御装置。
JP2017224793A 2016-11-29 2017-11-22 車両速度制御方法及び装置 Pending JP2018087004A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0160673 2016-11-29
KR1020160160673A KR102585219B1 (ko) 2016-11-29 2016-11-29 차량 속도 제어 방법 및 장치

Publications (1)

Publication Number Publication Date
JP2018087004A true JP2018087004A (ja) 2018-06-07

Family

ID=60021916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017224793A Pending JP2018087004A (ja) 2016-11-29 2017-11-22 車両速度制御方法及び装置

Country Status (5)

Country Link
US (1) US10668924B2 (ja)
EP (1) EP3327618B1 (ja)
JP (1) JP2018087004A (ja)
KR (1) KR102585219B1 (ja)
CN (1) CN108116410B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020004400A (ja) * 2018-06-28 2020-01-09 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH 車両の動的視野に基づく視認距離決定
JP2020069969A (ja) * 2018-11-01 2020-05-07 トヨタ自動車株式会社 車両制御システム
JP2022538113A (ja) * 2019-06-28 2022-08-31 ズークス インコーポレイテッド 目標車両速度を決定するためのシステム及び方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017202363A1 (de) * 2017-02-15 2018-08-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur Festlegung einer Maximalgeschwindigkeit für ein Fahrzeug und automatisiertes Fahrsystem
KR20180094725A (ko) 2017-02-16 2018-08-24 삼성전자주식회사 자율 주행을 위한 차량 제어 방법, 차량 제어 장치 및 자율 주행을 위한 학습 방법
US11479213B1 (en) * 2017-12-11 2022-10-25 Zoox, Inc. Sensor obstruction detection and mitigation
US10518786B2 (en) * 2018-02-22 2019-12-31 GM Global Technology Operations LLC Systems and methods for providing an operation data interface for autonomous operation of a vehicle
CN110780665B (zh) * 2018-07-26 2022-02-08 比亚迪股份有限公司 车辆无人驾驶控制方法及装置
CN109147368A (zh) * 2018-08-22 2019-01-04 北京市商汤科技开发有限公司 基于车道线的智能驾驶控制方法装置与电子设备
CN109383289B (zh) * 2018-10-19 2020-12-22 湖北亿咖通科技有限公司 汽车限速控制方法、装置、电子设备及可读存储介质
CN109657686B (zh) * 2018-10-31 2021-04-20 百度在线网络技术(北京)有限公司 车道线生成方法、装置、设备以及存储介质
CN109656245B (zh) * 2018-10-31 2020-10-27 百度在线网络技术(北京)有限公司 刹车位置的确定方法和装置
CN110667576B (zh) * 2019-10-18 2021-04-20 北京百度网讯科技有限公司 自动驾驶车辆的弯道通行控制方法、装置、设备和介质
CN111121714B (zh) * 2019-12-25 2021-10-26 中公高科养护科技股份有限公司 一种行车视距的测量方法及系统
CN111231946B (zh) * 2020-03-03 2021-08-20 安徽中科美络信息技术有限公司 一种低视距车辆安全行驶控制方法
DE102020106378A1 (de) * 2020-03-09 2021-09-09 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem für ein Kraftfahrzeug
US11505213B2 (en) * 2020-07-24 2022-11-22 Tusimple, Inc. Visibility condition determinations for autonomous driving operations
CN112265546B (zh) * 2020-10-26 2021-11-02 吉林大学 基于时空序列信息的网联汽车车速预测方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11148394A (ja) * 1997-11-14 1999-06-02 Nissan Motor Co Ltd 車両制御装置
EP1115010A1 (fr) * 2000-01-05 2001-07-11 Société Pour L' Auscultation Multifonctionnelle Des Reseaux D'Autoroutes Procédé pour déterminer les distances de visibilité d'une voie de circulation
JP2003170760A (ja) * 2001-12-07 2003-06-17 Hitachi Ltd 車両用走行制御装置及び地図情報データ記録媒体
JP2007304791A (ja) * 2006-05-10 2007-11-22 Denso Corp 速度情報提供装置及びプログラム
JP2009003795A (ja) * 2007-06-22 2009-01-08 Fuji Heavy Ind Ltd 分岐路進入判定装置
JP2010231561A (ja) * 2009-03-27 2010-10-14 Toyota Motor Corp 走行状態検出装置及び運転支援装置
JP2011043884A (ja) * 2009-08-19 2011-03-03 Ihi Aerospace Co Ltd 半自律型無人車両の遠隔操縦システム
US20110066312A1 (en) * 2009-09-15 2011-03-17 Electronics And Telecommunications Research Institute Navigation apparatus and driving route information providing method using the same and automatic driving system and method
WO2011101949A1 (ja) * 2010-02-16 2011-08-25 トヨタ自動車株式会社 車両制御装置
JP2012111414A (ja) * 2010-11-26 2012-06-14 Toyota Motor Corp 車両制御装置
WO2015167931A1 (en) * 2014-04-30 2015-11-05 Toyota Motor Engineering & Manufacturing North America, Inc. Detailed map format for autonomous driving
JP2016080539A (ja) * 2014-10-17 2016-05-16 トヨタ自動車株式会社 車載センサ
DE102015213190B3 (de) * 2015-07-14 2016-09-29 Bayerische Motoren Werke Aktiengesellschaft Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8041483B2 (en) 1994-05-23 2011-10-18 Automotive Technologies International, Inc. Exterior airbag deployment techniques
FR2847367B1 (fr) 2002-11-19 2005-01-14 Valeo Vision Procede et dispositif de determination de la distance de visibilite du conducteur d'un vehicule
KR100963849B1 (ko) 2008-07-15 2010-06-16 (주)미라클산업 도로 기상 종합 시스템 및 제공방법
KR101240181B1 (ko) 2008-11-10 2013-03-07 한국전자통신연구원 이동 로봇의 안전경로 생성 방법 및 장치
KR101303528B1 (ko) 2009-08-24 2013-09-03 한국전자통신연구원 충돌위험도에 기초한 충돌방지 시스템
KR20120062589A (ko) * 2010-12-06 2012-06-14 삼성전자주식회사 3d 디스플레이 장치 및 그 방법
KR20120138352A (ko) * 2011-06-15 2012-12-26 주식회사 만도 차간거리 제어시스템 및 그 제어방법
JP6011104B2 (ja) 2012-07-24 2016-10-19 株式会社デンソー 車両用視界支援装置
US9604609B2 (en) * 2014-05-12 2017-03-28 Ford Global Technologies, Llc Emergency in-lane steering assist with braking
KR102118066B1 (ko) 2014-08-20 2020-06-03 현대모비스 주식회사 주행 안전을 위한 차량 제어방법
JP5898746B1 (ja) * 2014-09-29 2016-04-06 富士重工業株式会社 車両の走行制御装置
KR102203410B1 (ko) * 2014-10-20 2021-01-18 삼성에스디에스 주식회사 관심 영역 설정 방법 및 장치
KR101628503B1 (ko) 2014-10-27 2016-06-08 현대자동차주식회사 운전자 보조장치 및 그 작동 방법
KR102326062B1 (ko) 2014-11-12 2021-11-12 현대모비스 주식회사 자율주행차량의 장애물 회피 시스템 및 방법
KR20160066854A (ko) 2014-12-03 2016-06-13 한국건설기술연구원 자율주행 차량의 기상관측 장치 및 방법
KR101692628B1 (ko) 2014-12-24 2017-01-04 한동대학교 산학협력단 관심영역을 이용하여 차량의 후방 좌우 옆 차선 영역을 감지하는 방법 및 이를 이용한 차량용 영상 모니터링 시스템
DE102015224553A1 (de) * 2015-12-08 2017-06-08 Robert Bosch Gmbh Verfahren, Computerprogramm, Speichermedium und Elektronische Steuereinheit zum Betreiben eines Fahrzeugs

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11148394A (ja) * 1997-11-14 1999-06-02 Nissan Motor Co Ltd 車両制御装置
EP1115010A1 (fr) * 2000-01-05 2001-07-11 Société Pour L' Auscultation Multifonctionnelle Des Reseaux D'Autoroutes Procédé pour déterminer les distances de visibilité d'une voie de circulation
JP2003170760A (ja) * 2001-12-07 2003-06-17 Hitachi Ltd 車両用走行制御装置及び地図情報データ記録媒体
JP2007304791A (ja) * 2006-05-10 2007-11-22 Denso Corp 速度情報提供装置及びプログラム
JP2009003795A (ja) * 2007-06-22 2009-01-08 Fuji Heavy Ind Ltd 分岐路進入判定装置
JP2010231561A (ja) * 2009-03-27 2010-10-14 Toyota Motor Corp 走行状態検出装置及び運転支援装置
JP2011043884A (ja) * 2009-08-19 2011-03-03 Ihi Aerospace Co Ltd 半自律型無人車両の遠隔操縦システム
US20110066312A1 (en) * 2009-09-15 2011-03-17 Electronics And Telecommunications Research Institute Navigation apparatus and driving route information providing method using the same and automatic driving system and method
WO2011101949A1 (ja) * 2010-02-16 2011-08-25 トヨタ自動車株式会社 車両制御装置
JP2012111414A (ja) * 2010-11-26 2012-06-14 Toyota Motor Corp 車両制御装置
WO2015167931A1 (en) * 2014-04-30 2015-11-05 Toyota Motor Engineering & Manufacturing North America, Inc. Detailed map format for autonomous driving
JP2016080539A (ja) * 2014-10-17 2016-05-16 トヨタ自動車株式会社 車載センサ
DE102015213190B3 (de) * 2015-07-14 2016-09-29 Bayerische Motoren Werke Aktiengesellschaft Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JURE ZBONTAR, YANN LECUN: "Stereo Matching by Training a Convolutional Neural Network to Compare Image Patches", JOURNAL OF MACHINE LEARNING RESEARCH, vol. Year 2016, Volume 17, JPN7021003651, pages 1 - 32, XP055428626, ISSN: 0004908972 *
MIHAI NEGRU, SERGIU NEDEVSCHI: "Assisting Navigation in Homogenous Fog", PROCEEDINGS OF THE 2014 INTERNATIONAL CONFERENCE ON COMPUTER VISION THEORY AND APPLICATIONS, vol. 2, JPN7021003653, US, pages 619 - 626, XP032792167, ISSN: 0004908971 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020004400A (ja) * 2018-06-28 2020-01-09 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH 車両の動的視野に基づく視認距離決定
JP7414410B2 (ja) 2018-06-28 2024-01-16 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング 車両の動的視野に基づく視認距離決定
JP2020069969A (ja) * 2018-11-01 2020-05-07 トヨタ自動車株式会社 車両制御システム
JP7081444B2 (ja) 2018-11-01 2022-06-07 トヨタ自動車株式会社 車両制御システム
JP2022538113A (ja) * 2019-06-28 2022-08-31 ズークス インコーポレイテッド 目標車両速度を決定するためのシステム及び方法

Also Published As

Publication number Publication date
EP3327618A3 (en) 2018-09-05
KR20180060782A (ko) 2018-06-07
CN108116410B (zh) 2022-09-20
US20180148053A1 (en) 2018-05-31
EP3327618A2 (en) 2018-05-30
US10668924B2 (en) 2020-06-02
CN108116410A (zh) 2018-06-05
EP3327618B1 (en) 2022-05-25
KR102585219B1 (ko) 2023-10-05

Similar Documents

Publication Publication Date Title
JP2018087004A (ja) 車両速度制御方法及び装置
JP6298128B2 (ja) 3dセンサにより検出されたオブジェクトの分類
JP7121497B2 (ja) 仮想車路生成装置及び方法
JP6905397B2 (ja) ステレオカメラに基づく自律走行方法、自律走行装置及びコンピュータプログラム
KR101891460B1 (ko) 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치
JP2023507671A (ja) 自律ナビゲーションの間の物体回避の方法
JP2023073257A (ja) 出力装置、制御方法、プログラム及び記憶媒体
CN108263279A (zh) 基于传感器整合的行人检测和行人碰撞避免装置及方法
US11200432B2 (en) Method and apparatus for determining driving information
KR102054926B1 (ko) Free Space 신호 기반 근거리 컷인 차량 검출 시스템 및 방법
US11676403B2 (en) Combining visible light camera and thermal camera information
US11760319B2 (en) Brake preload system for autonomous vehicles
KR20140056510A (ko) 자동 노출 제어 장치 및 자동 노출 제어 방법
KR20150096924A (ko) 전방 충돌 차량 선정 방법 및 시스템
JP5996421B2 (ja) 障害物検出装置及びそれを用いた車両
KR20220097682A (ko) 인공지능 기반의 차량과 객체 간의 충돌 위험도 검출 시스템 및 방법
JP7216695B2 (ja) 周囲車両監視装置及び周囲車両監視方法
JP7454685B2 (ja) 車両走行路内のデブリの検出
JP5688396B2 (ja) 物体認識装置
JP2005284799A (ja) 歩行者検出装置
RU2807793C1 (ru) Способ автоматического ограничения скорости движения транспортного средства
US11914679B2 (en) Multispectral object-detection with thermal imaging
KR20190051464A (ko) 자동 긴급 제동장치 및 그 제어방법
KR20170041385A (ko) 주차 공간 탐색 장치 및 방법
KR20230092079A (ko) 센서 융합형 타겟 감지 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230228

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230228

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230307

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230314

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230526