JP2020087476A - 車両の全方位の障害物回避方法 - Google Patents

車両の全方位の障害物回避方法 Download PDF

Info

Publication number
JP2020087476A
JP2020087476A JP2019215138A JP2019215138A JP2020087476A JP 2020087476 A JP2020087476 A JP 2020087476A JP 2019215138 A JP2019215138 A JP 2019215138A JP 2019215138 A JP2019215138 A JP 2019215138A JP 2020087476 A JP2020087476 A JP 2020087476A
Authority
JP
Japan
Prior art keywords
information
vehicle
obstacles
peripheral
omnidirectional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019215138A
Other languages
English (en)
Other versions
JP7061104B2 (ja
Inventor
ハン リー ツォン
Tsung-Han Lee
ハン リー ツォン
ウェイ ハン−ユアン
Hung-Yuan Wei
ウェイ ハン−ユアン
ジン−フェン,ジャン
Jinn-Feng Jiang
シュー シー−チュン
Shih-Chun Hsu
シュー シー−チュン
チャン ツ−クン
Tsu-Kun Chang
チャン ツ−クン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metal Industries Research and Development Centre
Original Assignee
Metal Industries Research and Development Centre
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metal Industries Research and Development Centre filed Critical Metal Industries Research and Development Centre
Publication of JP2020087476A publication Critical patent/JP2020087476A/ja
Application granted granted Critical
Publication of JP7061104B2 publication Critical patent/JP7061104B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • G06V10/85Markov-related models; Markov random fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】車両周辺の障害物回避方法に関し、特に、車両の全方位の障害物回避方法を提供する。【解決手段】方法は、車両の深度カメラ装置の周辺画像に基づき周辺深度情報を取得し、周辺画像を全方位の周辺画像に統合して車両の一つの面を検知領域に分割し、検知領域により周辺深度情報および全方位の周辺画像を操作して障害物の加速度ベクトル情報および距離情報を算定し、障害物の加速度ベクトル情報および距離情報に基づき障害物の移動経路を推定し、推定した障害物の移動経路に応じたアラーム情報を生成する。【選択図】図1

Description

本発明は一般に、障害物回避方法に関し、特に、車両の全方位の障害物回避方法に関する。
現在、車両上に記録装置、検出装置および処理装置を導入することにより、例えば画像の正確さを較正するための距離パラメータを用いた3D自動車パノラマ画像システムなどの画像記録装置を車両に取り付けることは、かなり成熟した技術である。記録装置は、自動車を取り囲む全方位の空中画像を記録し、送信するために使用される。検出装置は、複数の距離信号を生成し、送信することにより、自動車と周囲の物体との間の距離を検出するために、使用される。処理装置は、較正モジュールと、スティッチモジュールと、操作モジュールとを含む。処理モジュールは、記録装置によって送信された空中画像と、検出装置によって送信された距離信号とを受信する。較正モジュールは、距離信号により空中画像の座標系を較正する。次に、操作装置は、3D自動車パノラマ画像を与えるために、アルゴリズムならびに挿入およびパッチ技術を使用する。記録装置は、自動車を取り囲む複数の全方位の空中画像を記録し、送信するために使用される。検出装置は、自動車と自動車を取り囲む1つもしくは複数の物体との間の距離を検出し、複数の距離信号を生成し、送信するために使用される。それにもかかわらず、超音波センサは、距離が近く、検出精度が高い場合でなければ、完全な距離情報を得ることができないため、移動する自動車の障害物の検出に適用できない。
検出精度を改善するために、従来技術によれば、複数のカメラレンズによって形成されたカメラレンズセットがある。カメラレンズは複数の外部画像を撮影して出力するために、自動車の周囲の異なる位置に配置される。画像を受信するために使用される3次元画像処理モジュールは、パノラマ投影画像を用いて3次元画像を与え、運転者の視野角に対応する運転者の視野に応じた部分的な3次元パノラマ投影画像を記録し、部分的な3次元の外部画像を出力するために、合成する。残念ながら、移動中の他の角度の画像を同時に観察することはできない。また、車両周辺の障害物の距離情報をリアルタイムに取得することができない。
その後、監視のために車両周辺の障害物を検出する際に改善がなされるが、他の車両に加えて、車両の動きに影響を及ぼす可能性のある物体がさらに多く存在する。例えば、歩行者、動物、および移動物体は、車両の障害物とみなすことができる。それらは、移動中の車両に緊急状態を引き起こす可能性がある。この影響は、都市の混雑した道路で最も深刻である。
上記課題を解決するために、本発明は、車両用の全方位の障害物回避方法を提供する。全方位の画像および全方位の深度情報を取得することにより、車両周辺の障害物情報を与えられる。そして、より危険性の高い障害物を回避するように車両を制御し、全方位の障害物回避の目的を達成する。
本発明の目的は、全方位の障害物を検出し、回避するためのアラームするための深度情報と共に統合した全方位の画像を提供することにより、車両の全方位の障害物回避方法を提供することである。
本発明の別の目的は、全方位の障害物回避のためのアラームを提供し、更に障害物を回避するために車両を操作することにより、車両の全方位の障害物回避の方法を提供することである。
本発明は、車両の全方位の障害物回避方法であって、車両の複数の深度カメラ装置を用いて複数の周辺画像を記録し、周辺深度情報の複数の部分を、検出アルゴリズムにより、取得するステップであり、前記複数の周辺画像は、一つまたは複数の障害物を含んでおり、前記一つまたは複数の障害物は、前記車両の一つの面に位置する;前記複数の周辺画像を、統合アルゴリズムにより、複数の全方位の周囲画像に統合し、前記車両の前記面から複数の検出領域に分割するステップ;前記複数の部分の周辺深度情報および前記複数の全方位の周囲画像を、前記複数の検出領域により、加速度ベクトル情報および距離情報を与えるように、操作するステップ;前記一つまたは複数の障害物の移動経路を、前記一つまたは複数の障害物の前記加速度ベクトル情報および前記距離情報により、算出するステップ;アラーム情報を、前記一つまたは複数の障害物の前記移動経路により、生成するステップ;を含む、方法を開示している。これにより、本発明は、車両の全方位の周囲における障害物に対する回避のアラームを提供することができるため、車両の運転者は周辺の障害物に起因する危険を防止することができる。
本発明の一実施形態によれば、車両の複数の深度カメラ装置を用いて検出アルゴリズムにより複数の周辺の深度情報を取得するステップでは、複数の周辺の3次元の深度情報は、複数の深度カメラ装置の検出結果および検出アルゴリズムにより、与えられる。
本発明の一実施形態によれば、複数の周辺画像を複数の全方位の周囲画像に統合するステップでは、統合アルゴリズムにより複数の周辺画像の複数の重複領域を除去し、複数の全方位の周囲画像に統合する。
本発明の一実施形態によれば、統合アルゴリズムは、複数の重複領域を与え、除去するために、画像記録モジュールの複数の検出範囲により複数の周辺画像の縁をさらに検出する。
本発明の一実施形態によれば、加速度ベクトル情報および1つ以上の障害物の距離情報に基づいて1つまたは複数の障害物の移動経路を算出するステップでは、1つまたは複数の障害物の移動速度および移動距離をさらに算出する。
本発明の一実施形態によれば、1つまたは複数の障害物の加速度ベクトル情報および距離情報により、1つまたは複数の障害物の移動経路を算出するステップでは、画像差分法を用いて複数のオプティカルフローベクトルを与えるように計算し、複数のオプティカルフローベクトルにより、1つまたは複数の障害物の加速度ベクトル情報、距離情報、移動速度、および移動距離を算出する。
本発明の一実施形態によれば、1つまたは複数の障害物の移動経路に従ってアラーム情報を生成するステップにおいて、さらに1つまたは複数の障害物を回避するように車両を制御する。
本発明の一実施形態によれば、1つまたは複数の障害物の移動経路によりアラーム情報を生成するステップの前に、さらに1つまたは複数の障害物を分類し、1つまたは複数の障害物にラベル付けする。
本発明の一実施形態によれば、アラーム情報は、障害物のアラーム情報及び回避情報を含む。
本発明の一実施形態によるフローチャートを示す。 本発明の一実施形態による深度検出モジュールの概略図を示す。 本発明の一実施形態による深度情報を統合する概略図を示す。 本発明の一実施形態による重複領域の概略図を示す。 本発明の一実施形態による画像統合の概略図を示す。 本発明の一実施形態による障害物検出の概略図を示す。 本発明の別の実施形態による障害物検出の概略図を示す。
本発明の構造および特性ならびに有効性を、さらに理解および認識させるために、本発明の詳細な説明は、実施形態および添付の図面とともに以下に提供される。
本発明の一実施形態によるフローチャートを示す図1を参照されたい。図に示すように、本発明による全方位の障害物の回避方法は、以下のステップを含む。
ステップS10:車両の深度カメラ装置を用いて周辺画像を記録し、検出アルゴリズムにより周辺深度情報を取得するステップ。
ステップS20:統合アルゴリズムにより周辺画像を全方位の周囲画像に統合し、車両の一つの面を検出領域に分割するステップ。
ステップS30:検出領域により周辺深度情報および全方位の周囲画像を操作して、障害物の加速度ベクトル情報および距離情報を与えるステップ。
ステップS40:障害物の加速度ベクトル情報および距離情報により、障害物の移動経路を算出するステップ。
ステップS50:障害物の移動経路に応じたアラーム情報を生成するステップ。
ステップS10において、図2Aに示すように、車両10は深度検出モジュール20内の複数の深度カメラ装置22を用いて周辺画像を撮影する。自動車制御チップ12の演算処理部122を用いて、図2Bに示すように、複数の周辺深度情報、INFOを取得する。自動車制御チップ12の画像処理部124を用いて、図2Bに示すように、複数の周辺画像I1を取得する。本実施形態では、複数の深度カメラ装置22が車両10の周囲にそれぞれ配置され、車両10の周囲の複数の周辺画像を一度に撮像する。さらに、本実施形態によれば、深度検出モジュール20は、半径15メートル以内の深度画像を取得するための複数の高解像度深度カメラ装置22を含む。複数の深度カメラ装置22は、複数の周辺深度情報Infoを取得する。
自動車制御チップ12は、複数の深度カメラ装置に接続され、全方位の深度画像を取得する深度検出モジュール20を形成する。演算処理部122および画像処理部124の動作および処理の後、複数の周辺深度情報Info1および複数の周辺画像I1が与えられる。複数の深度カメラ装置22は、赤外線または超音波方法を使用してさらに検出することができる。また、図2Bに示すように、本実施形態によれば、複数の深度カメラ装置22の検出結果は、複数の周辺深度情報INFOを生成する検出アルゴリズムに従って演算処理部122によって演算され、演算処理部122によって統合された、複数の全方位の方向深度情報DINFOが形成される。
演算処理部122によって実行される検出アルゴリズムを、以下のように説明する。
〔ソーベルエッジ検出〕
画像内の各画素およびその近傍の画素は、3×3マトリックスにより表し、方程式1においてP1、P2、P3、P4、、、P9により表す:






画像は、ワールド座標に対応する2つの深度センサ間の角度αによって形成される。ワールド座標は、Ow−XwYwZwとして定義され、ここで、Xc=Xw、Yc=−Yw、Zc=L−Zw、およびAは画像A’である。そして:

これにより、ワールド座標によって方程式8が書き換えられる。前の平面方程式は、周辺の環境に対する検出結果を推定するためにワールド座標により表され、次式が与えられる:








ステップS20において、図2Dに示すように、複数の周辺画像I1を全方位の周囲画像I2に統合する。本実施形態によれば、統合アルゴリズムは、f(x,y)を採用し、f(x,y)は、方程式18の中に示す。xまたはyがある事実を満たす場合、特性関数は1となる。
観測値に対応する隠されたステータスは、コンテキスト(観測、ステータス)によって決定される。特性関数を使用することによって、環境特性(観測または状態の組み合わせ)を選択することができる。すなわち、隠れマルコフモデル(HMM)モデルにおけるナイーブベイズの独立観測の仮定によって課される制約を回避するために、観測の代わりに特性(観測組み合わせ)を用いる。
サイズTを用いたトレーニングデータ

によれば、経験的期待値は方程式(19)により表され、モデル期待値は方程式(20)により表される。最大エントロピーモデルの学習は、制約最適化と等価である。

経験的期待値がモデル期待値と同一であると仮定すると、以下の方程式21により表される、任意の特性関数Fiの条件付き確率分布に関連する制約を満たしている複数の集合Cが存在する:
最大エントロピー理論によって、不完全な情報(制限されたトレーニングデータなど)から妥当な確率分布のみを推定するためには、その情報により課される制約が満たされると、エントロピーは最大にすべきである。すなわち、最大エントロピーの分布は、限られた状態の確率集合が与えられると、最適化された分布である。これにより、最大エントロピーモデルは、凸関数に対する制約最適化問題となる。


ラグランジュ二重性は一般に、極値を解くために、方程式を制約のない方程式に変換するために採用される:

pについてLangrage関数の偏導関数を計算し、それを0に等しくする。方程式を解く。いくつかのステップを省略することによって、以下の方程式が導出される:

〔最大エントロピーマルコフモデル(MEMM)〕

HMMの2つの条件付き確率分布を置き換えるには、

分布を使用する。前の状態と現在の観測値によって、現在の状態の確率を計算することを意味する。このような分布関数

の各々は、最大エントロピーに準拠するインデックスモデルである。


の離散確率分布の点および最大情報エントロピーが発見され、発見される確率分布が

と発見された場合、最大エントロピー方程式は以下の通りである:

各点

における確率分布

の合計は、1でなければならない:

ラグランジュ乗数を用いることによって、最大エントロピーの角度を推定することができ、

は、

の離散確率分布のすべての

をカバーする:

以下を行うための

方程式の系が与えられ、ここで

である:

これらの

方程式を拡張することにより、次式が得られる:

λのみに依存するため、全ての

が等しいことを意味する。以下の制約を使用する:

は以下を与える:

これにより、均一な分布は最大エントロピーの分布となる。

方程式37を用いることによって、最大エントロピー分布を推定することができる。図2Cに示すように、画像統合のプロセス中に、画像重複領域Oが除去され、図2Dに示すように、全方位の周囲画像I2が生成される。すなわち、方程式37により与えられる最大エントロピー分布を用いて、全ての周辺画像I1を統合し、重複領域Oを除去し、全方位の周囲画像I2を生成する。
また、図2Aおよび図2Bに示すように、ステップS20において、複数の全方位の周囲画像I2および複数の全方位の深度情報DINFOによって、車両10の周辺領域を複数の検出領域Aに分割する。
ステップS30において、図2Aおよび図2Bを参照し、複数の検出領域AおよびLucas−Kanadeオプティカルフローアルゴリズムを用いて、障害物が算出される。始めに、画像差分法を用いて、画像制約方程式にテイラー方程式を適用し、次式を得る:
H.O.T.は、高次の項を表し、これは、移動が十分に小さい場合には無視することができる。この方程式によれば、次のように求めることができる:

あるいは

から、以下が与えられる:

、V、およびVは、それぞれx、y、およびz方向におけるI(x,y,z,t)のオプティカルフローベクトル成分である。

および

は、画像内の点(x,y,z,t)の対応する方向の差である。これにより、方程式42は次の方程式に変換することができる:

方程式42は、以下のようにさらに書き換えることができる:

方程式41には3つの未知数(Vx,Vy,Vz)があるため、後続のアルゴリズムを使用して未知数を推定する。
始めに、オプティカルフロー(V,V,V)が、mm(m>1)の小さなウィンドウにおいて、一定であると仮定する。次に、プリミティブ1からn、°n=m°3°に従って、以下の一セットの方程式が与えられる:
上記の複数の方程式はすべて、3つの未知数を含み、方程式の集合を形成する。方程式の集合は重複決定された方程式の集合であり、次のように表すことができる:

これは、方程式46として示される。
この重複決定された問題を解決するために、方程式46は、最小二乗法を用いて、導き出す:

または

から、以下が与えられる
方程式49の結果を方程式41に代入し、1つまたは複数の障害物の加速度ベクトル情報および距離情報を算出する。
ステップS40において、図2Eに示すように、前のステップS30により与えられた加速度ベクトル情報および距離情報を用いて、車両の周辺の1つまたは複数の障害物の移動方向を推定し、そして1つまたは複数の障害物OBの移動経路P1を算出することができる。また、本実施形態に係る車両10は、自動車制御チップ12の演算処理部122をさらに用いて、第1の障害物OB1の移動速度V1および移動距離D1をさらに算出することができる。本実施形態に係る第1の障害物OB1は、車両10の前方を通過し、そして車両10は、第1の障害物OB1の移動経路P1を横断する。
ステップS50において、車両10の自動車制御チップ12は、1つまたは複数の障害物の移動経路に応じたアラーム情報を生成する。本実施形態によれば、自動車制御チップ12は、車両10と第1の障害物OB1との間の第1のアラーム距離DA1が第1の閾値内に到達したと判断し、一般の障害物としてのアラーム情報を送信する。例えば、アラーム情報は、ヘッドアップディスプレイ(HUD)上に表示される。第1のアラーム距離DA1が第2の閾値に入ると、自動車制御チップ12は、単一のアラーム音を出力し、アラーム情報を表示するようにHUDを制御する。第1のアラーム距離DA1が第3の閾値に入ると、自動車制御チップ12は間欠的なアラーム音を出力し、HUD(図示せず)を制御してアラーム情報を表示する。第1のアラーム距離DA1が第4の閾値に入ると、自動車制御チップ12は連続アラーム音を出力し、HUD(図示せず)を制御してアラーム情報を表示する。第4の閾値は、障害物OBが車両10に非常に近いことを意味するため、自動車制御チップ12はアラームを表現するために緊急の方法を使用する。
図2Fに示すように、本発明の別の実施例が示されている。本発明に係る車両の全方位の障害物回避方法を用いることにより、第2の障害物OB2が検出され、第2の障害物OB2の移動経路P2が算出される。自動車制御チップ12は、車両が第2の障害物OB2の移動経路P2を横断しないと判断する。また、判定後、第2の障害物OB2の移動距離D2及び移動速度V2は変化しない。これにより、車両10と第2の障害物OB2との距離が第2のアラーム距離DA2であり、第2のアラーム距離DA1が第1、または第4の閾値以内にある場合のみ、自動車制御チップ12は、アラーム情報を表示するようにHUDを制御する。上述のHUDは、車両用の成熟した技術である。本発明は、HUDに重点を置いていないため、それは、表示方法を説明するために用いられる。本発明によれば、車両10のダッシュボード上のディスプレイ、例えば、カーオーディオ及びビデオディスプレイに、アラーム情報を更に表示することができる。
また、本発明によれば、ステップS50の前に、自動車制御チップ12は、障害物を分類してラベル付けすることができる。例えば、第1の障害物OB1を危険な障害物とし、第2の障害物OB2を危険ではない障害物とする。それらは、全方位の周囲画像I2においてラベル付けされ、HUD上に表示されるか、又はカーオーディオ及びビデオディスプレイ上に表示される。
要約すると、本発明は、車両が予防的な回避を達成するための、全方位の障害物回避方法を提供する。センサが提供する、障害物の距離、位置、速度、加速度に応じて、移動方向などの複数種類の情報を算出することができる。この情報により、運転リスクを評価し、運転者に参考として提供することができる。また、移動中に危険に遭遇した車両の障害物情報は、参照データとして提供され、予防・判断のための重要なデータとして影響を与える。これにより、事前に高リスク行動を回避し、効果的にリスクを低減し、以下の効果を奏することができる。
1.全方位の回避技術は、逆転レーダを用いて、車を逆進させるなど、様々な環境に適用することができる。また、より詳細な距離情報及びより広い識別範囲を取得することに加えて、事故を防止するために、車両の移動方向を予めアラームすることができる。これにより、より良好なアラーム効果を得ることができる。
2.サイドブラインドスポットリマインダは、運転手がドアを開き、車から降りる前において、歩行者に気を付けることを運転手に認識させるために、アラームを提供することができる。本発明は、旋回および車線変更に適用することができる。現在の方法と比較して、本発明は、運転者の判断に役立つより多くの運転情報を、提供することができる。現在、自動車事故は、主に運転者の注意散漫によって引き起こされる。本発明は、注意散漫な運転によって引き起こされる運転リスクを抑制することができる。
したがって、前述の説明は、本発明の実施形態に過ぎず、本発明の範囲および幅を限定するために用いられるものではない。本発明の特許請求の範囲に記載された形状、構造、特徴、または技術的思想に従ってなされた同等の変更または修正は、本発明の特許請求の範囲に含まれる。

Claims (8)

  1. 車両用の全方位の障害物回避方法であって、
    車両の複数の深度カメラ装置を用いて複数の周辺画像を記録し、周辺深度情報の複数の部分を、検出アルゴリズムにより、取得するステップであり、前記複数の周辺画像は、一つまたは複数の障害物を含んでおり、前記一つまたは複数の障害物は、前記車両の一つの面に位置する;
    前記複数の周辺画像を、統合アルゴリズムにより、複数の全方位の周囲画像に統合し、前記車両の前記面から複数の検出領域に分割するステップ;
    前記複数の部分の周辺深度情報および前記複数の全方位の周囲画像を、前記複数の検出領域により、加速度ベクトル情報および距離情報を与えるように、操作するステップ;
    前記一つまたは複数の障害物の移動経路を、前記一つまたは複数の障害物の前記加速度ベクトル情報および前記距離情報により、算出するステップ;
    アラーム情報を、前記一つまたは複数の障害物の前記移動経路により、生成するステップ;を含む、方法。
  2. 車両の複数の深度カメラ装置を用いて複数の周辺画像を記録し、周辺深度情報の複数の部分を、検出アルゴリズムにより、取得する前記ステップでは、前記周辺深度情報は、前記複数の深度カメラ装置および前記検出アルゴリズムの検出結果により、推定される、請求項1に記載の方法。
  3. 前記複数の周辺画像を、統合アルゴリズムにより、複数の全方位の周囲画像に統合し、前記車両の前記面から複数の検出領域に分割する前記ステップは、前記統合アルゴリズムにより、前記複数の周辺画像の重複領域を除去し、前記全方位の周囲画像に統合するステップを含む、請求項1に記載の方法。
  4. 前記複数の部分の周辺深度情報および前記複数の全方位の周囲画像を、前記複数の検出領域により、操作する前記ステップは、前記複数の部分の周辺深度情報および前記複数の全方位の周囲画像により計算する画像差分法を使用して、複数のオプティカルフローベクトルを与えるステップと、さらに、前記複数のオプティカルフローベクトルにより、前記加速度ベクトル情報および前記距離情報を与えるステップを含む、請求項1に記載の方法。
  5. 前記一つまたは複数の障害物の移動経路を、前記一つまたは複数の障害物の前記加速度ベクトル情報および前記距離情報により、算出する前記ステップは、前記一つまたは複数の障害物の移動速度および移動距離を算出するステップをさらに含む、請求項1に記載の方法。
  6. アラーム情報を、前記一つまたは複数の障害物の前記移動経路により、生成する前記ステップは、前記一つまたは複数の障害物を避けるように、前記車両を操作するステップをさらに含む、請求項1に記載の方法。
  7. アラーム情報を、前記一つまたは複数の障害物の前記移動経路により、生成する前記ステップの前に、前記一つまたは複数の障害物を分類し、ラベル付けするステップをさらに含む、請求項1に記載の方法。
  8. 前記アラーム情報は、障害物アラーム情報および回避情報を含む、請求項1に記載の方法。
JP2019215138A 2018-11-29 2019-11-28 車両の全方位の障害物回避方法 Active JP7061104B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW107142647 2018-11-29
TW107142647A TWI686747B (zh) 2018-11-29 2018-11-29 移動載具全周障礙迴避之方法

Publications (2)

Publication Number Publication Date
JP2020087476A true JP2020087476A (ja) 2020-06-04
JP7061104B2 JP7061104B2 (ja) 2022-04-27

Family

ID=70767137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019215138A Active JP7061104B2 (ja) 2018-11-29 2019-11-28 車両の全方位の障害物回避方法

Country Status (5)

Country Link
US (1) US11468686B2 (ja)
JP (1) JP7061104B2 (ja)
CN (1) CN111231830A (ja)
SG (1) SG10201910618VA (ja)
TW (1) TWI686747B (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007304841A (ja) * 2006-05-11 2007-11-22 Toyota Motor Corp 交通監視装置
JP2010228740A (ja) * 2009-03-05 2010-10-14 Nissan Motor Co Ltd 走行経路生成装置、走行経路生成方法、及び運転操作支援装置
JP2016142647A (ja) * 2015-02-03 2016-08-08 クラリオン株式会社 画像処理装置、および車両システム
JP2017083232A (ja) * 2015-10-26 2017-05-18 富士通テン株式会社 車両状態判定装置、表示処理装置および車両状態判定方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US6268803B1 (en) * 1998-08-06 2001-07-31 Altra Technologies Incorporated System and method of avoiding collisions
CN102439644B (zh) * 2009-06-04 2014-09-03 丰田自动车株式会社 车辆用周边监控装置及车辆用周边监控方法
CN102143302A (zh) * 2010-01-29 2011-08-03 财团法人工业技术研究院 全周鸟瞰影像无缝接合方法与系统
US20110190972A1 (en) * 2010-02-02 2011-08-04 Gm Global Technology Operations, Inc. Grid unlock
US8704887B2 (en) * 2010-12-02 2014-04-22 GM Global Technology Operations LLC Multi-object appearance-enhanced fusion of camera and range sensor data
CN103085716A (zh) * 2011-10-31 2013-05-08 鸿富锦精密工业(深圳)有限公司 交通意外防止系统及方法
US9187091B2 (en) * 2012-07-30 2015-11-17 Ford Global Technologies, Llc Collision detection system with a plausibiity module
US9083960B2 (en) * 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
CN110920609B (zh) * 2013-12-04 2023-08-22 移动眼视力科技有限公司 用于模仿前车的系统和方法
US9335178B2 (en) * 2014-01-28 2016-05-10 GM Global Technology Operations LLC Method for using street level images to enhance automated driving mode for vehicle
KR101603609B1 (ko) 2014-07-15 2016-03-28 현대모비스 주식회사 차량용 어라운드 뷰 모니터링 시스템 및 이의 방법
CN105711492A (zh) * 2014-12-02 2016-06-29 财团法人金属工业研究发展中心 障碍物警示系统及其运作方法
JP6485732B2 (ja) * 2014-12-10 2019-03-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム
CN106167008A (zh) * 2015-05-21 2016-11-30 财团法人车辆研究测试中心 自动刹车系统及自动刹车方法
TWI572846B (zh) * 2015-09-18 2017-03-01 國立交通大學 全景影像三維深度估測系統及全景影像三維深度估測方法
US10618467B2 (en) 2016-03-22 2020-04-14 Research & Business Foundation Sungkyunkwan University Stereo image generating method using mono cameras in vehicle and providing method for omnidirectional image including distance information in vehicle
TWI607911B (zh) 2016-04-28 2017-12-11 H P B Optoelectronic Co Ltd Vehicle safety protection system and method
CN107944390B (zh) 2017-11-24 2018-08-24 西安科技大学 机动车行驶前方物体视频测距及方向定位方法
CN108881717B (zh) * 2018-06-15 2020-11-03 深圳奥比中光科技有限公司 一种深度成像方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007304841A (ja) * 2006-05-11 2007-11-22 Toyota Motor Corp 交通監視装置
JP2010228740A (ja) * 2009-03-05 2010-10-14 Nissan Motor Co Ltd 走行経路生成装置、走行経路生成方法、及び運転操作支援装置
JP2016142647A (ja) * 2015-02-03 2016-08-08 クラリオン株式会社 画像処理装置、および車両システム
JP2017083232A (ja) * 2015-10-26 2017-05-18 富士通テン株式会社 車両状態判定装置、表示処理装置および車両状態判定方法

Also Published As

Publication number Publication date
CN111231830A (zh) 2020-06-05
TW202020733A (zh) 2020-06-01
TWI686747B (zh) 2020-03-01
SG10201910618VA (en) 2020-06-29
US11468686B2 (en) 2022-10-11
JP7061104B2 (ja) 2022-04-27
US20200175288A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
US11681299B2 (en) Vehicle sensor system and method of use
US11760263B2 (en) Rear-view mirror simulation
Gandhi et al. Pedestrian protection systems: Issues, survey, and challenges
KR102580476B1 (ko) 차량의 차량 주변환경 내 가림 영역 산출 방법 및 장치
US11361553B2 (en) Method and apparatus for tracking an at least partially occluded object, vehicle and computer-program product thereof
US10981507B1 (en) Interactive safety system for vehicles
US20150109444A1 (en) Vision-based object sensing and highlighting in vehicle image display systems
JP4271720B1 (ja) 車両周辺監視装置
EP3154835A1 (en) Top-down refinement in lane marking navigation
JP2004056763A (ja) 監視装置、監視方法および監視用プログラム
WO2009101660A1 (ja) 車両周辺監視装置、車両、車両周辺監視プログラム
JP4486997B2 (ja) 車両周辺監視装置
TWI531499B (zh) Anti-collision warning method and device for tracking moving object
KR102031635B1 (ko) 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법
KR20180047149A (ko) 충돌 위험 경고 장치 및 방법
JP7061104B2 (ja) 車両の全方位の障害物回避方法
JP2005309660A (ja) 車両用右左折支援装置
Song et al. Lateral driving assistance using optical flow and scene analysis
JP2014178836A (ja) 車両の外部環境認識装置
JP2007249324A (ja) 車両周辺監視システム、車両、車両周辺監視プログラム、および車両周辺システムの構成方法
TWI838988B (zh) 移動載具之靜止物示警之方法
KR20230034523A (ko) 터널 진출입시 충돌방지장치 및 방법
CN114913507A (zh) 一种基于公交车尾屏的行人检测方法、装置及公交车尾屏
JP2006286010A (ja) 障害物検知装置及びその方法
Petersson et al. Smart Cars: The Next Frontier

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220415

R150 Certificate of patent or registration of utility model

Ref document number: 7061104

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150