JP7411108B2 - 車両姿勢推定システムおよび車両姿勢推定方法 - Google Patents

車両姿勢推定システムおよび車両姿勢推定方法 Download PDF

Info

Publication number
JP7411108B2
JP7411108B2 JP2022550357A JP2022550357A JP7411108B2 JP 7411108 B2 JP7411108 B2 JP 7411108B2 JP 2022550357 A JP2022550357 A JP 2022550357A JP 2022550357 A JP2022550357 A JP 2022550357A JP 7411108 B2 JP7411108 B2 JP 7411108B2
Authority
JP
Japan
Prior art keywords
area
vehicle
region
distance
road surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022550357A
Other languages
English (en)
Other versions
JPWO2022059289A1 (ja
Inventor
子涵 于
貴清 安川
耕太 入江
竜彦 門司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2022059289A1 publication Critical patent/JPWO2022059289A1/ja
Application granted granted Critical
Publication of JP7411108B2 publication Critical patent/JP7411108B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/112Roll movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/40Sensor arrangements; Mounting thereof
    • B62J45/41Sensor arrangements; Mounting thereof characterised by the type of sensor
    • B62J45/415Inclination sensors
    • B62J45/4151Inclination sensors for sensing lateral inclination of the cycle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/40Sensor arrangements; Mounting thereof
    • B62J45/41Sensor arrangements; Mounting thereof characterised by the type of sensor
    • B62J45/415Inclination sensors
    • B62J45/4152Inclination sensors for sensing longitudinal inclination of the cycle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C9/00Measuring inclination, e.g. by clinometers, by levels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両の姿勢を推定する車両姿勢推定システムおよび車両姿勢推定方法に係り、特に、自動二輪車の傾斜角度の推定に適用して有効な技術に関する。
交通事故を未然に防止するため、二輪車向けの安全支援システムADAS(Advanced Driver Assistance Systems)の導入が進んでいる。例えば、車載カメラを利用して車両周辺の監視や車両認識を行い、注意喚起(アラート)・衝突回避などに活用している。
自動二輪車は自動四輪車と操舵メカニズムが異なり、特に進行方向を変える際に、車体を左右に傾斜させて旋回する。そのため、車載カメラで撮像された画像データも傾斜する。従来のカメラ映像処理では、傾斜した映像を前提としていないため、認識性能に大きく影響する。
安定した認識性能を得るために、市販の傾斜センサーによる傾斜情報をカメラに入力し、その傾斜情報を用いて、正確な被写体傾きを補正する手法がある。例えば、特許文献1に開示された技術では、撮像部の物理的な傾きを検知するセンサーで検知された撮像部の傾きに基づいて画像処理を行う。
また、特許文献2~4には、撮像手段により撮像された画像データに基づいて、車体傾斜角度を検出する技術が開示されている。
特許文献2では自動二輪車の前方を撮影するカメラ装置から順次出力された撮影画像に含まれる道路と空との境界線を抽出し、車両カメラの水平基準線との相対的な角度を算出している。
また、特許文献3に開示された技術では、画像データから複数の画素の輝度勾配方向の度数分布を示す輝度勾配方向ヒストグラムを生成し、輝度勾配方向ヒストグラムを用いて、重力方向である垂直方向のエッジに対応する輝度勾配方向、及び、重力方向に直交する方向である水平方向のエッジに対応する輝度勾配方向を特定し、特定した垂直方向のエッジの前記輝度勾配方向、又は水平方向のエッジの前記輝度勾配方向の少なくとも一方を用いて、傾斜角を推定している。
また、特許文献4に開示された技術では、画像データ中から複数の直線を検出する直線検出手段により、画像データの垂直軸に対する垂直方向の直線の平均勾配を算出する垂直方向平均勾配と、水平軸に対する水平方向の直線の平均勾配を算出する水平方向平均勾配に基づいて、車両の傾斜角を推定している。
特許第4950290号公報 特開2015-227082号公報 国際公開第2017/104712号 特開2015-58915号公報
上記特許文献1では、傾斜を検出する専用のセンサーで検出した撮像部の傾きに基づいて画像処理を行うため、専用のセンサーを車体に取り付ける必要がある。専用のセンサーがないと、正確な傾き補正は困難になる。
また、認識用の車両カメラを用いる場合、上記特許文献2~4に開示された技術では、所定の限られた条件下でなければ、車両の傾斜角を推定することができない。
特許文献2~4では、傾斜角度の算出に用いる水平線や道路脇の信号機およびビルと、道路上の横断歩道などの人工物を抽出することが必要である。しかし、カーブ走行中、自動二輪車の傾斜によって、撮影画像に対象とする人工物が映らない場合がある。そのような環境下では特許文献2~4の技術を適用することができない。
例えば、夜間には、近距離の路面や遠方の街灯などの発光体は取得できるが、建造物の輪郭線や水平線などの画像を取得するのが困難な状態になる。そのため、撮像画像から傾斜角を求めることができない問題が生じ得る。
そこで、本発明の目的は、車載カメラを利用して車両の姿勢を推定する車両姿勢推定システムおよび車両姿勢推定方法において、走行場所や環境に影響されることなく、車両の傾斜角度を正確に推定可能な車両姿勢推定システムおよび車両姿勢推定方法を提供することにある。
上記課題を解決するために、本発明は、車両に搭載された測距装置で取得した路面に対応する測定領域内に、第一の領域と、前記第一の領域と同一の水平ライン上の第二の領域と、を設定する領域設定部と、前記車両から前記第一の領域および前記第二の領域のそれぞれの路面までの距離を算出する距離算出部と、前記第一の領域および前記第二の領域のそれぞれの路面までの距離、並びに、前記第一の領域および前記第二の領域の位置関係に基づいて、前記車両の傾斜角を求める傾斜角算出部と、を有し、前記傾斜角算出部は、前記水平ライン上にない第三の領域として、前記第一の領域または前記第二の領域と同じ距離を持つ領域を探索することを特徴とする。
また、本発明は、車両姿勢推定システムを用いて車両の姿勢を推定する車両姿勢推定方法であって、領域設定部が、車両に搭載された測距装置で取得した路面に対応する測定領域内に、第一の領域と、前記第一の領域と同一の水平ライン上の第二の領域と、を設定し、距離算出部が、前記車両から前記第一の領域および前記第二の領域のそれぞれの路面までの距離を算出し、傾斜角算出部が、前記第一の領域および前記第二の領域のそれぞれの路面までの距離、並びに、前記第一の領域および前記第二の領域の位置関係に基づいて、前記車両の傾斜角を求め、前記傾斜角算出部は、前記水平ライン上にない第三の領域として、前記第一の領域または前記第二の領域と同じ距離を持つ領域を探索することを特徴とする。
本発明によれば、車載カメラを利用して車両の姿勢を推定する車両姿勢推定システムおよび車両姿勢推定方法において、走行場所や環境に影響されることなく、車両の傾斜角度を正確に推定可能な車両姿勢推定システムおよび車両姿勢推定方法を実現することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の実施例1に係る車両姿勢推定システムを示すブロック図である。 図1の画像処理部を示すブロック図である。 図2の視差演算部での視差演算処理を概念的に示す図である。 本発明の実施例1に係る自動二輪車の傾斜角度(ロール角)を示す図である。 図2の車両姿勢推定部での処理を示すフローチャートである。 本発明の実施例1に係る検知領域設定を示す図である。 本発明の実施例1に係る傾斜角度算出処理を示すフローチャートである。 本発明の実施例1に係る検知領域設定(右に傾いている状態)を示す図である。 図8における傾斜角度(ロール角)の推定処理を示す図である。 本発明の実施例2に係る自動二輪車の傾斜角度(ピッチ角)を示す図である。 本発明の実施例2に係る傾斜角度算出処理を示すフローチャートである。 本発明の実施例2に係る検知領域設定を示す図である。 本発明の実施例3に係る傾斜角度算出処理を示すフローチャートである。 本発明の実施例3に係る道路形状の推定処理を示す図である。
以下、図面を用いて本発明の実施例を説明する。なお、各図面において同一の構成については同一の符号を付し、重複する部分についてはその詳細な説明は省略する。
先ず、図1から図9を参照して、本発明の実施例1に係る車両姿勢推定システム及び車両姿勢推定方法について説明する。本実施例は、視差データに基づいて車体の傾斜角度(ロール角φ)を推定する場合の一例である。
図1は、本実施例の車両姿勢推定システムの構成を示すブロック図である。本実施例の車両姿勢推定システムでは、図1に示すように、車両100は、撮像部101と、画像処理部102と、物体認識部103と、車両制御部104と、警報通知部105と、走行系制御部106を備える。
撮像部101は、左カメラ11と右カメラ12の2つのカメラに接続され、車両100の外界の画像を撮像し、撮像した画像を画像処理部102に転送する。なお、図1では、カメラ11,12は車両100の前部に設置されており、車両100の前方の画像を撮像する例を示しているが、車両100の後部に設置して後方の画像を撮像してもよく、車両100の前部及び後部の両方に設置して前後の画像を撮像してもよい。
画像処理部102は、カメラ11,12及び撮像部101により撮像した画像を基に、認識処理で使用する画像を生成し、画像に関する情報を物体認識部103に転送する。
物体認識部103は、画像処理部102から転送された画像情報に関わる情報に基づいて、走行レーンやターゲット車両、道路標識、歩行者等を識別し、物体認識に関する情報を車両制御部104に転送する。
車両制御部104は、画像処理部102、物体認識部103、警報通知部105及び走行系制御部106より各種情報(車両100の走行速度やブレーキの作動状態など)を取得し、取得した情報と予め設定されている最大傾斜角度、最高車両速度等の情報と比較する。そして、画像処理部102、物体認識部103、警報通知部105及び走行系制御部106の各部に適切な動作情報(警報通知,表示,制御など)を提供する。
また、車両制御部104は、撮像画像及び車両走行に関わる情報に基づいて、警告情報を警報通知部105に転送するとともに、車両100の制動に関わる舵角や減速量等を走行系制御部106に転送する。
警報通知部105は、車両制御部104より車両100の走行状態に関わる警告を受信し、液晶パネル等による画像表示、もしくはスピーカ等による音声や警告音発振により、ドライバに注意喚起を促す。
走行系制御部106は、車両制御部104から転送された車両100の走行状態に関わる減速量の情報に基づきブレーキ制動等を行う。
なお、上記構成は本発明の一例を示すものであり、本発明の構成は上記の構成に限られるものではない。
図2は、図1の画像処理部102の構成を示すブロック図である。画像処理部102には、画像生成部201と視差演算部202と車両姿勢推定部203と傾斜角度管理部204が備えられている。
画像生成部201では、左カメラ11と右カメラ12及び撮像部101により撮像された画像のノイズ除去や歪み補正、回転処理等を行った後の画像を切り出し、認識処理で使用されるエッジ画像や濃淡画像が生成され、(図示しない)メモリの生成画像保持部に保存される。認識処理に必要な画像であれば、他の画像も特に制限されない。
視差演算部202では、左カメラ11と右カメラ12及び撮像部101により撮像された画像を画像生成部201でノイズ除去や歪み補正、回転処理等を行った後の画像データを基に、2つのカメラで撮像された画像の視差を求めて、その視差を距離に変換する。
車両姿勢推定部203では、視差画像が生成される。視差画像の距離データにより、走行中の路面の所定の距離で車両傾斜角度を推定する。
傾斜角度管理部204では、車両姿勢推定部203で求めた車両傾斜角とカメラ11,12により撮像された画像の対応付けを行い、傾斜のロール角を用いて撮像画像を回転し、傾斜のピッチ角を用いて撮像画像を切り出す処理を行う。そして、画像生成部201にて補正後の撮像画像を用いて物体認識部103に入力される画像を生成する。
図3は、図2の視差演算部202での視差演算処理を概念的に示したものである。左カメラ11と右カメラ12にて計測対象物10の画像を撮像する場合を考える。計測対象物10の左画像31を左カメラ11の2次元センサー21で撮像し、計測対象物10の右画像32を右カメラ12の2次元センサー22で撮像する。右カメラ12が撮影した右画像32を基準画像とし、例えば5画素×5画素のような基準ブロック画像42を定義する。
ブロック画像のサイズはこの例に限るものではない。
一方、左カメラ11が撮影した左画像31の中で、基準ブロック画像42と同じ縦位置(Y座標)と横位置(X座標)を基準として、探索幅(例えば128画素)の参照画像41を選択する。その後、基準ブロック画像42と参照画像41との差分を計算する。計算方法には種類がいくつかあるが、本実施例ではその代表例であるSAD(Sum of Absolute Difference)を使って次の式(1)の計算を行う。
Figure 0007411108000001
但し、Iは参照画像41の中の画像ブロック(例:5×5画素)、Tは基準ブロック画像42の画像データであり、i、jは画像ブロック内の座標である。1つの視差を算出するために、参照画像41の参照位置を1画素ずつずらしながら探索幅の分だけ演算を行い、最もSAD値が小さくなる位置を探索する。
左画像31では参照画像41の位置に撮影される。この結果、基準ブロック画像42の位置と参照画像41には視差Sが生じる。この視差Sは、計測対象物10となる前方の車両が左カメラ11と右カメラ12に近い場合は大きい値となり、遠いものは小さい値となる。このように求めた視差Sを、画像全体で求める。この視差Sを用いて、三角測量の原理で左カメラ11と右カメラ12までの距離を測定することが出来る。光軸が平行、基線距離がB(m)、焦点距離がf(画素)のカメラで、ある対象物を撮像したときに、視差Sから距離Dsは次の式(2)で求められる。
Figure 0007411108000002
図4は、車両100の傾斜角度(ロール角φ)を計算する原理を示した図である。車両100の水平状態(ロール角φ=0度)、車両全体の重心とタイヤ接地面の中心を結ぶ線と地面が直角を成す。車体を傾ける時に、ロール角φを生じる。重心が左右に移動するロール方向に車両100に搭載された左カメラ11、右カメラ12の視差データはロール方向の回転に伴う前方路面までの距離を検出し、検出した距離から車両ロール角(φ)を算出して出力する。
図5は、図2の車両姿勢推定部203での処理を示すフローチャートである。図5に示すように、先ず、ステップS501において視差画像を取得した後、ステップS502において検知領域を設定し、ステップS503においてステップS502で設定した領域から距離を算出し、ステップS504において各検知領域の距離を用いて傾斜角度を推定する処理を行う。以下、図6も参照して、各々の処理を具体的に説明する。図6は、視差画像600に設定した検知領域の一例を示している。
ステップS501では、画像処理部102の視差演算部202で計算した視差画像を取得する。計測対象物10までの距離情報を色の濃淡により可視化した画像が図6の視差画像600である。視差画像では距離が近いものが白く、遠いものが黒く表される。
続いて、ステップS502では、視差画像600に検知領域を設定する。なお、図6の例では、視差画像600の下部領域において路面に対応する領域内に、第一領域601と、同一の水平ライン上(同Y座標)に設けられる第二領域602を設置する。第一領域601と第二領域602は、それぞれの路面までの距離を測定する領域であるため、近距離の路面に設定することが望ましい。
また、第一領域601と第二領域602の縦横サイズが同じ大きさになるように設定することが必要である。第一領域601と第二領域602のサイズをあまり小さくすると(例えば、1画素)、距離を算出する際の精度が劣化する可能性がある。そこで、本実施例では縦9画素、横9画素のような検知領域を定義し、第一領域601の中心座標611を(x1,y1)、第二領域602の中心座標612を(x2,y1)とする。本発明の趣旨を逸脱しない範囲で検知領域のサイズは適宜変更しても良い。
続いて、ステップS503では、第一領域601、第二領域602のそれぞれに写った路面までの距離を算出する処理が行われる。路面までの距離は、各検知領域内の距離の平均値とする。本実施例では、視差データのノイズ影響を考慮するため、検知領域の視差データを距離が近い順に並べて、最も近い距離のデータと、最も遠い距離のデータを除いたデータから距離の平均値を算出し、その算出結果を検知領域の代表距離とする。
これにより、ノイズの影響を排除することができ、安定して検知距離を求めることができる。なお、検知距離の算出方法はこれに限定されるものではなく、標準偏差等に基づいて検知領域内の距離算出手法を採用しても良い。
続いて、ステップS504では、第一領域601及び第二領域602でのそれぞれの路面までの距離を用いて傾斜角度を算出(推定)する。図7を用いて、ステップS504での処理を詳しく説明する。
図7は、図5のステップS504傾斜角算出処理の詳細を示すフローチャートである。
先ず、ステップS701において、第一領域601と第二領域602から算出した距離を取得する。
次に、ステップS702において、取得した第一領域距離と第二領域距離を比較し、両者が同値かを判断する。両者が同値であれば(No)、車両100の進行方向に対して水平状態になるので、ステップS707へ移行し、傾斜角度のロール角0度をステップS504の出力とする。
一方、両者が相違すれば(Yes)、車両100の進行方向に対して左側または右側に傾いた状態になる。例えば、第一領域601から算出した距離が第二領域602から算出した距離より大きい場合、車両100は右側方向に傾いた状態になる。
逆に、第二領域602から算出した距離が第一領域601から算出した距離より大きい場合、車両100は左側方向に傾いた状態になる。車両100が傾斜している場合には、ステップS703へ移行し、検知領域の距離が大きい方を基準値(基準距離)として設定し、距離が小さい検知領域と同じ中心座標、同じサイズの第三領域を設定する。
図8は、視差画像800において、第一領域801の検知距離が第二領域802の検知距離より大きい場合を示した一例である。第一領域801の検知距離を基準値として設定し、第三領域803の縦横サイズを第二領域802と同じ大きさに設定し、第三領域803の中心座標813を第二領域802の中心座標812と同じ位置(x2,y1)に配置する。
続いて、ステップS704において、第三領域803の位置座標を第二領域802の真上方向に1画素ずらして再度第三領域803の距離を計算する。
次に、ステップS705へ移行し、基準の距離(第一領域801の検知距離)と第三領域803の距離を比較する。第三領域803の距離が基準値(第一領域801の検知距離)より小さい場合(Yes)、ステップS704へ戻り、ステップS704の処理を繰り返す。なお、本発明の趣旨を逸脱しない範囲で真上方向にずらすサイズは適宜変更しても良い。
一方、第三領域803の距離が基準値(第一領域801の検知距離)より大きいか等しい場合(No)、ステップS706へ移行し、図9に示すように、視差画像900において、第一領域901の中心座標911(x1,y1)、第二領域902の中心座標912(x2,y1)及び第三領域903の中心座標913(x2,y2)を用いて、下記の式(3)により各中心座標から車両100の傾斜角(ロール角度φ)を算出する。
Figure 0007411108000003
ここで、Δx=x2-x1,Δy=y2-y1である。
ステップS504で算出した傾斜角情報を各部に転送する。
傾斜角度管理部204では、車両姿勢推定部203で求めた車両傾斜角度(ロール角度φ)とカメラ11,12により撮影された画像の対応付けを行い、傾斜のロール角度を用いて撮像の画像回転処理を行う。
画像処理部102は、車両傾斜情報(ロール角度φ)を物体認識部103に転送し、認識用世界座標系やカメラ座標系、画像座標系、SfM(Structure from Motion)等の位置を補正し、より高精度な認識を行う。
また、車両100の傾斜角度と走行経路に対する最大傾斜角度、最高車両速度が予め設定されており、転送された車両傾斜情報(ロール角度φ)と合わせて車両制御部104で判定する。危険な傾斜角を運転者に知らせたり、車両100の速度をコントロールしたりする等の処理を行う。
以上で説明した本実施例の車両姿勢推定システムによれば、走行環境に限定せずに、車両の傾斜角度(ロール角度φ)を正確に推定できるため、適切な認識処理に基づいて補正を実現することができる。また、傾斜角を用いて画像生成部201で撮像画像を回転する処理を行うことができる。
なお、本実施例では、前方を撮像する撮像部101を用いて、路面までの距離を測定する例を説明したが、上述したように、車両100に設置したリアカメラを用いて、路面まで距離を測定し、車両傾斜角度情報を生成する構成としても良い。
本実施例の車両姿勢推定システムは、言い換えると、車両100に搭載された測距装置(カメラ11,12及び撮像部101)で取得した路面に対応する測定領域(視差画像600)内に、第一の領域601と、第一の領域601と同一の水平ライン上の第二の領域602と、を設定する領域設定部(車両姿勢推定部203のステップS502)と、車両100から第一の領域601および第二の領域602のそれぞれの路面までの距離を算出する距離算出部(車両姿勢推定部203のステップS503)と、第一の領域601および第二の領域602のそれぞれの路面までの距離、並びに、第一の領域601および第二の領域602の位置関係に基づいて、車両100の傾斜角度(ロール角度φ)を求める傾斜角算出部(車両姿勢推定部203のステップS504)を有している。
また、図9に示すように、傾斜角算出部(車両姿勢推定部203のステップS504)では、第一の領域901及び第二の領域902と同じ水平ライン上にない第三の領域903として、第一の領域901または第二の領域902と同じ距離を持つ領域を探索する。
また、距離算出部(車両姿勢推定部203のステップS503)は、撮像装置(カメラ11,12及び撮像部101)で得られた画像(視差画像900)から路面までの距離を求め、領域設定部(車両姿勢推定部203のステップS502)は、第一の領域901と第二の領域902と水平ライン上にない第三の領域903を画像(視差画像900)内に設定する。
また、第三の領域903は、第一の領域901及び第二の領域902とは異なる距離の領域である。
以上により、専用の傾斜センサーを設けずに、走行場所や環境に影響されることなく、車両の傾斜角度を正確に推定することができる。
次に、図10から図12を参照して、本発明の実施例2に係る車両姿勢推定システム及び車両姿勢推定方法について説明する。本実施例は、傾斜角度処理において、車両100のピッチ角を推定する例である。なお、実施例1との共通点については重複する説明を省略する。
図10は、車両ピッチ角を計算する原理を示す図である。図中の太い破線は、車両100の前後軸である。前後軸は、大まかには車両100の進行方向と一致するが、あくまでも車体100を基準に設定されているので、厳密には一致しない。例えば、車両100の前部が少し上った状態で走行しているような場合、車両100の進行方向と前後軸とは両者が一致することはない。
この前後軸の先端側(車両100の前部)が重力の方向に沿って上下に移動することでピッチ角(θ)が成される。そして、車両100の前部に搭載された左カメラ11及び右カメラ12の視差データはピッチ方向の回転に伴う前方路面までの距離を検出し、検出した距離から車両ピッチ角(θ)を算出して出力する。
本実施例における車両ピッチ角(θ)を算出するための傾斜角度算出処理のフローチャートを図11に示す。本処理では、図12に示すように、第三領域1203の位置を固定し、第二領域1202の上の路面に設定する。具体的な位置座標を限定していないが、あまり第二領域1202と近過ぎたり、離れた過ぎたりした場合、算出する際の精度が劣化する可能性がある。そのため、第三領域1203は第二領域1202より約1~2m離れた路面に設定することが望ましい。
例えば、本実施例では、図12に示すように、視差画像1200において、第一領域1201、第二領域1202、第三領域1203の各領域と中心座標(1211~1213)を設定し、第一領域1201と第二領域1202から算出した距離が同値であり、さらにピッチ角0度時に、第三領域1203の測定値を基準距離として、予め設定する。
図11のステップS1101において、各領域距離を取得する処理は、第一領域1201、第二領域1202、第三領域1203の各設定領域でそれぞれに写った路面までの距離を取得する処理が行われる。
次に、ステップS1102において、取得した第一領域1201の距離と第二領域1202の距離を比較し、両者が同値かを判断する。両者が相違すれば(No)、前回求めた結果から読み出し、ピッチ角とする。
一方、両者が同値であれば(Yes)、ステップS1103へ移行し、第三領域1203の検知距離と基準距離を比較する。
ステップS1103において、第三領域1203の検知距離と基準距離が同値であれば(No)、車両100は水平であるため、ステップS1105へ移行し、ピッチ角度θ=0度と算出する。
一方、両者が相違すれば(Yes)、ステップS1104へ移行し、傾斜角度(ピッチ角度θ)を計算する。
例えば、第三領域1203の測定値をm3とし、第三領域1203の距離から予め設定した基準距離をs3とする。第三領域1203から算出した距離m3が基準距離s3より大きい場合(m3>s3)、車両100は前部が少し上った状態で走行している。逆に、第三領域1203から算出した距離m3が基準距離s3より小さい場合(m3<s3)、車両は前部が下がった状態になる。第三領域1203の距離m3と基準距離s3が同じ場合(m3=s3)、平坦な道路で走行し、車両ピッチ角0度を出力する(ステップS1105)。
従って、第三領域1203の測定値m3と第三領域1203の距離から予め設定した基準距離s3を用いで、下記の式(4)により車両100の傾斜角(ピッチ角度θ)を算出することができる(ステップS1104)。
Figure 0007411108000004
以上のように図11に示すステップS504で算出した傾斜角情報を各部に転送する。
傾斜角度管理部204では、車両姿勢推定部203で求めた車両傾斜角(ピッチ角度θ)とカメラ11,12により撮影された画像の対応付けを行い、傾斜のピッチ角を用いて撮像画像を切り出す処理を行う。
車両傾斜情報(ピッチ角度θ)を物体認識部103に転送し、認識用世界座標系やカメラ座標系、画像座標系、SfM(Structure from Motion)等の位置を補正し、より高精度な認識を行う。
また、車両100の傾斜角度と走行経路に対する最大傾斜角度、最高車両速度が予め設定されており、転送された車両傾斜情報(ピッチ角度θ)と合わせて車両制御部104で判定する。危険な傾斜角を運転者に知らせたり、車両100の速度をコントロールしたりする等の処理を行う。
以上で説明した本実施例の車両姿勢推定システムによれば、走行環境に限定せずに、車両の傾斜角度(ピッチ角度θ)を正確に推定できるため、適切な認識処理に基づいて補正を実現することができる。また、傾斜角を用いて画像生成部201で撮像画像を回転する処理を行うことができる。
なお、本実施例においても、車両100に設置したリアカメラを用いて、路面まで距離を測定し、車両傾斜角度情報を生成する構成としても良い。
次に、図13及び図14を参照して、本発明の実施例3に係る車両姿勢推定システム及び車両姿勢推定方法について説明する。本実施例は、車両傾斜角度を決定する際に、道路の曲率半径を用いる点で実施例1及び実施例2と相違する。なお、実施例1及び実施例2との共通点については重複する説明を省略する。
図13は、本実施例における車両傾斜角の算出処理のフローチャートを示したものである。
最初に、ステップS1301において、視差演算部202で生成された視差データを取得する。
次に、ステップS1302において、道路の曲率半径を算出する。
続いて、ステップS1303において、ステップS1302で算出した道路の曲率半径と自車速度から、車両傾斜角を求める。
図14に示すように、走行経路1400は、実際に車両が走行した経路であるので、視差データに基づいて、カーブ曲率半径1401を求めることができる。また、カメラによって道路標識1402を検知し、道路標識1402に表示された情報から曲率半径を取得する手段もある。
そして、例えば、視差データから計算されたカーブ曲率半径(R)1401と、車速vと、重力加速度gとから、下記の式(5)により車両の傾斜角(ロール角度φ)を算出することができる。
Figure 0007411108000005
本実施例によれば、道路の曲率半径から、車両100の傾斜角の検知が可能となる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記の実施例は本発明に対する理解を助けるために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、本発明の侵害発見の難易性は、視差画像による観点から、平面画像を移し込んだ場合と実画像との差分で検証する方法等がある。
また、上記の各実施例では、車両100として主に自動二輪車の例を用いて説明したが、本発明は、車体が前後左右に大きく傾斜することを前提としているオフロード四輪車等にも有効である。
また、上述したように、本発明は、推定(算出)した傾斜角度に基づく警告情報を液晶パネル等による画像表示、もしくはスピーカ等による音声や警告音発振により、ドライバに注意喚起を促すADAS(Advanced Driver Assistance Systems)に適用することが可能であり、さらに、推定(算出)した傾斜角度に基づく警告情報を警報通知部105に転送するとともに、走行系制御部106に転送することで自動運転AD(Autonomous Driving)にも適用することが可能である。
10…計測対象物、11,12…カメラ、21,22…2次元センサー、31…左画像、32…右画像、41…参照画像、42…基準ブロック画像、100…車両、101…撮像部、102…画像処理部、103…物体認識部、104…車両制御部、105…警報通知部、106…走行系制御部、201…画像生成部、202…視差演算部、203…車両姿勢推定部、204…傾斜角度管理部、600,800,900,1200…視差画像、601,602,801,802,803,901,902,903,1201,1202,1203…検知領域、611,612,811,812,813,911,912,913,1211,1212,1213…(検知領域の)中心座標、1400…走行経路、1401…カーブ曲率半径、1402…道路標識

Claims (10)

  1. 車両に搭載された測距装置で取得した路面に対応する測定領域内に、第一の領域と、前記第一の領域と同一の水平ライン上の第二の領域と、を設定する領域設定部と、
    前記車両から前記第一の領域および前記第二の領域のそれぞれの路面までの距離を算出する距離算出部と、
    前記第一の領域および前記第二の領域のそれぞれの路面までの距離、並びに、前記第一の領域および前記第二の領域の位置関係に基づいて、前記車両の傾斜角を求める傾斜角算出部と、
    を有し、
    前記傾斜角算出部は、前記水平ライン上にない第三の領域として、前記第一の領域または前記第二の領域と同じ距離を持つ領域を探索する車両姿勢推定システム。
  2. 車両に搭載された測距装置で取得した路面に対応する測定領域内に、第一の領域と、前記第一の領域と同一の水平ライン上の第二の領域と、を設定する領域設定部と、
    前記車両から前記第一の領域および前記第二の領域のそれぞれの路面までの距離を算出する距離算出部と、
    前記第一の領域および前記第二の領域のそれぞれの路面までの距離、並びに、前記第一の領域および前記第二の領域の位置関係に基づいて、前記車両の傾斜角を求める傾斜角算出部と、
    を有し、
    前記距離算出部は、撮像装置で得られた画像から路面までの距離を求め、
    前記領域設定部は、前記第一の領域と前記第二の領域と前記水平ライン上にない第三の領域を前記画像内に設定する車両姿勢推定システム。
  3. 請求項に記載の車両姿勢推定システムにおいて、
    前記第三の領域は、前記第一の領域および前記第二の領域とは異なる距離の領域である車両姿勢推定システム。
  4. 車両に搭載された測距装置で取得した路面に対応する測定領域内に、第一の領域と、前記第一の領域と同一の水平ライン上の第二の領域と、を設定する領域設定部と、
    前記車両から前記第一の領域および前記第二の領域のそれぞれの路面までの距離を算出する距離算出部と、
    前記第一の領域および前記第二の領域のそれぞれの路面までの距離、並びに、前記第一の領域および前記第二の領域の位置関係に基づいて、前記車両の傾斜角を求める傾斜角算出部と、
    を有し、
    前記傾斜角算出部は、前記第一の領域および前記第二の領域の位置関係から道路の曲率半径を算出し、
    前記算出した道路の曲率半径と前記車両の車速と重力加速度に基づいて、前記車両の傾斜角を求める車両姿勢推定システム。
  5. 請求項1から4のいずれか1項に記載の車両姿勢推定システムにおいて、
    前記測距装置は、複数のカメラを有し、
    前記距離算出部は、前記複数のカメラで撮影した複数の画像から路面までの距離を算出し、
    前記傾斜角算出部は、前記複数のカメラで撮影した複数の画像の視差に基づいて、前記車両の傾斜角を求める車両姿勢推定システム。
  6. 車両姿勢推定システムを用いて車両の姿勢を推定する車両姿勢推定方法であって、
    領域設定部が、車両に搭載された測距装置で取得した路面に対応する測定領域内に、第一の領域と、前記第一の領域と同一の水平ライン上の第二の領域と、を設定し、
    距離算出部が、前記車両から前記第一の領域および前記第二の領域のそれぞれの路面までの距離を算出し、
    傾斜角算出部が、前記第一の領域および前記第二の領域のそれぞれの路面までの距離、並びに、前記第一の領域および前記第二の領域の位置関係に基づいて、前記車両の傾斜角を求め
    前記傾斜角算出部は、前記水平ライン上にない第三の領域として、前記第一の領域または前記第二の領域と同じ距離を持つ領域を探索する車両姿勢推定方法。
  7. 車両姿勢推定システムを用いて車両の姿勢を推定する車両姿勢推定方法であって、
    領域設定部が、車両に搭載された測距装置で取得した路面に対応する測定領域内に、第一の領域と、前記第一の領域と同一の水平ライン上の第二の領域と、を設定し、
    距離算出部が、前記車両から前記第一の領域および前記第二の領域のそれぞれの路面までの距離を算出し、
    傾斜角算出部が、前記第一の領域および前記第二の領域のそれぞれの路面までの距離、並びに、前記第一の領域および前記第二の領域の位置関係に基づいて、前記車両の傾斜角を求め、
    前記距離算出部は、撮像装置で得られた画像から路面までの距離を求め、
    前記領域設定部は、前記第一の領域と前記第二の領域と前記水平ライン上にない第三の領域を前記画像内に設定する車両姿勢推定方法。
  8. 請求項に記載の車両姿勢推定方法において、
    前記第三の領域は、前記第一の領域および前記第二の領域とは異なる距離の領域である車両姿勢推定方法。
  9. 車両姿勢推定システムを用いて車両の姿勢を推定する車両姿勢推定方法であって、
    領域設定部が、車両に搭載された測距装置で取得した路面に対応する測定領域内に、第一の領域と、前記第一の領域と同一の水平ライン上の第二の領域と、を設定し、
    距離算出部が、前記車両から前記第一の領域および前記第二の領域のそれぞれの路面までの距離を算出し、
    傾斜角算出部が、前記第一の領域および前記第二の領域のそれぞれの路面までの距離、並びに、前記第一の領域および前記第二の領域の位置関係に基づいて、前記車両の傾斜角を求め、
    前記傾斜角算出部は、前記第一の領域および前記第二の領域の位置関係から道路の曲率半径を算出し、
    前記算出した道路の曲率半径と前記車両の車速と重力加速度に基づいて、前記車両の傾
    斜角を求める車両姿勢推定方法。
  10. 請求項6から9のいずれか1項に記載の車両姿勢推定方法において、
    前記距離算出部は、複数のカメラで撮影した複数の画像から路面までの距離を算出し、
    前記傾斜角算出部は、前記複数のカメラで撮影した複数の画像の視差に基づいて、前記車両の傾斜角を求める車両姿勢推定方法。
JP2022550357A 2020-09-16 2021-06-29 車両姿勢推定システムおよび車両姿勢推定方法 Active JP7411108B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020155190 2020-09-16
JP2020155190 2020-09-16
PCT/JP2021/024521 WO2022059289A1 (ja) 2020-09-16 2021-06-29 車両姿勢推定システムおよび車両姿勢推定方法

Publications (2)

Publication Number Publication Date
JPWO2022059289A1 JPWO2022059289A1 (ja) 2022-03-24
JP7411108B2 true JP7411108B2 (ja) 2024-01-10

Family

ID=80776067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022550357A Active JP7411108B2 (ja) 2020-09-16 2021-06-29 車両姿勢推定システムおよび車両姿勢推定方法

Country Status (5)

Country Link
US (1) US20230347910A1 (ja)
JP (1) JP7411108B2 (ja)
CN (1) CN115943287A (ja)
DE (1) DE112021003735T5 (ja)
WO (1) WO2022059289A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102615479B1 (ko) * 2021-11-24 2023-12-19 현대모비스 주식회사 램프 및 그것의 동작 방법, 차량

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015143979A (ja) 2013-12-27 2015-08-06 株式会社リコー 画像処理装置、画像処理方法、プログラム、画像処理システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101690166B (zh) 2007-06-27 2012-07-11 松下电器产业株式会社 摄像装置、方法、系统集成电路
JP5947268B2 (ja) 2013-09-20 2016-07-06 本田技研工業株式会社 車両のロール角推定装置
JP2015227082A (ja) 2014-05-30 2015-12-17 日本電産エレシス株式会社 車体傾斜角度検出装置および車体傾斜角度検出方法
JP6498317B2 (ja) 2015-12-14 2019-04-10 ヤマハ発動機株式会社 車両用ロール角推定システム、車両、車両用ロール角推定方法及びプログラム
JP6950170B2 (ja) * 2016-11-30 2021-10-13 株式会社リコー 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
JP7236849B2 (ja) * 2018-11-29 2023-03-10 日立Astemo株式会社 外界認識装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015143979A (ja) 2013-12-27 2015-08-06 株式会社リコー 画像処理装置、画像処理方法、プログラム、画像処理システム

Also Published As

Publication number Publication date
JPWO2022059289A1 (ja) 2022-03-24
US20230347910A1 (en) 2023-11-02
CN115943287A (zh) 2023-04-07
WO2022059289A1 (ja) 2022-03-24
DE112021003735T5 (de) 2023-06-01

Similar Documents

Publication Publication Date Title
CN107798699B (zh) 用立体图像进行深度图估计
US9884623B2 (en) Method for image-based vehicle localization
JP5089545B2 (ja) 道路境界検出判断装置
EP2348279B1 (en) Road measurement device and method for measuring road
EP2933790B1 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
US9594966B2 (en) Obstacle detection device and obstacle detection method
JP2007300181A (ja) 周辺認識装置、周辺認識方法、プログラム
KR20210017525A (ko) 거리 추정 장치 및 이의 동작 방법
JP6941070B2 (ja) ステレオカメラ装置
JP2010287015A (ja) 障害物検出装置
Petrovai et al. A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices
JP2011175572A (ja) 車線認識装置
JP7411108B2 (ja) 車両姿勢推定システムおよび車両姿勢推定方法
JP6115429B2 (ja) 自車位置認識装置
JP6185327B2 (ja) 車両後側方警報装置、車両後側方警報方法および他車両距離検出装置
JP5832850B2 (ja) 車線監視システム及び車線監視方法
KR102003387B1 (ko) 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체
JP2010176592A (ja) 車両用運転支援装置
JP2018084987A (ja) 物体認識装置
EP4102464A1 (en) Method and apparatus with calibration
JP4026641B2 (ja) 物体検出装置、および物体検出方法
JP6232883B2 (ja) 自車位置認識装置
JP2006010328A (ja) 車両位置特定装置
JP7134780B2 (ja) ステレオカメラ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231222

R150 Certificate of patent or registration of utility model

Ref document number: 7411108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150