JP7350168B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP7350168B2
JP7350168B2 JP2022524877A JP2022524877A JP7350168B2 JP 7350168 B2 JP7350168 B2 JP 7350168B2 JP 2022524877 A JP2022524877 A JP 2022524877A JP 2022524877 A JP2022524877 A JP 2022524877A JP 7350168 B2 JP7350168 B2 JP 7350168B2
Authority
JP
Japan
Prior art keywords
search range
pitch angle
reliability
calculation unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022524877A
Other languages
English (en)
Other versions
JPWO2021235001A1 (ja
JPWO2021235001A5 (ja
Inventor
圭汰 仲澤
哲也 山田
宏治 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2021235001A1 publication Critical patent/JPWO2021235001A1/ja
Publication of JPWO2021235001A5 publication Critical patent/JPWO2021235001A5/ja
Application granted granted Critical
Publication of JP7350168B2 publication Critical patent/JP7350168B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、自動二輪車等の車両に設置され、カメラから外界状況を取得し、外界状況を認識し、制御信号を生成する車載制御装置のうち、特に画像処理装置に関する。
安全かつ快適な車社会の実現のため、運転支援システムの導入が進んでいる。例えば、ACC:Adaptive Cruise Control)は設定した車速内で、前方の車との車間距離を保ちながら、追従走行を行う。
自動二輪車は、制動時や駆動時、路面状況などにより生じる車体前後の沈み込み量が大きいことが、四輪車(いわゆる自動車)との相違点として挙げられる。特に画像認識用のカメラを用いてACCを実現する場合、自動二輪車では、車体前後の沈み込みが発生した際にカメラのトラッキング処理が追い付かず、トラッキングに失敗する可能性が高くなる。ACCに限らず、画像認識用のカメラを用いる場合には、車両に生じる車両挙動、特にピッチ角の傾きに対応する課題がある。
特許文献1には、画像処理部にて撮像画像から認識に使用する画像を生成する際に、車両挙動を考慮して切り取り範囲を変更するという技術が示されている。特許文献1には、四輪など他の車両向けに開発したカメラにおいて、画像処理部で撮像画像から認識部で使用する画像を切り出す際に、センサ情報から車両に生じたピッチ角を求め、ピッチ角に応じて画像処理部における撮像画像の切り取り範囲を設定することで、認識部に渡す画像を生成する段階でピッチ角の影響を除去させる、切り取り方式を利用することが記載されている。
特開2014-143547号公報
特許文献1の技術を、トラッキング処理にそのまま適用すると、ピッチ角による切り取り位置補正方向とトラッキング処理で予測される検知対象の移動方向が異なる場合に、検知対象が移動する方向の画像が画像処理段階で切り取られてしまうと、探索範囲内に検知対象を捉えることが出来なくなる可能性がある。また、従来技術は、センサ情報から自車両のピッチ角を推定して切り取り範囲を変更するものであるため、センサ情報が不正な値を出力した際に切り取り範囲を誤る可能性がある。したがって、従来技術である切り取り方式では、ピッチ角が発生した際のトラッキング処理の精度の課題は解決できない。
本発明は、トラッキング処理の精度向上を実現することができる画像処理装置を提供することを目的とする。
本発明の画像処理装置は、車載カメラで撮像された複数のフレーム画像毎に対象物体の探索範囲を設定し、前記対象物体を時系列で追跡するトラッキング処理部と、車両のピッチ角情報を用いて、前記探索範囲を変更する探索範囲計算部とを有することを特徴とする。
本発明によれば、トラッキング処理の精度向上を実現することができる画像処理装置を提供する。本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、上記した以外の、課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の実施例1における画像処理装置の概略ブロック図。 本発明が対応するトラッキング処理の例。 本発明の実施例1における従来技術との差異を示す例。 本発明の実施例1における信頼度によって探索範囲を設定する例。 本発明の実施例1における画像処理のフローチャート。 本発明の実施例1におけるロール角に対する適用例。 本発明の実施例2における画像処理装置の概略ブロック図。 本発明の実施例2における画像処理のフローチャート。 本発明の実施例3における画像処理装置の概略ブロック図。 本発明の実施例3における画像処理のフローチャート。
以下、本発明の実施形態を図面に基づいて説明する。
なお、以下の各実施例では、本発明の画像処理装置を自動二輪車に適用した場合を例に説明するが、本技術は自動二輪車に限定されない。例えば3輪バイクの様な自動三輪車やトラックのような自動四輪車等のピッチングが発生しうる車両全てに適用可能である。
従来から、カメラで撮像した画像の認識により、物体を検出し、検知対象を時系列で追跡するトラッキング処理がある。トラッキング処理の例について、図2を用いて説明する。まず、図2(a)に示す画像のように、過去フレーム(フレームn-1)から検知対象を検出し、検出対象に識別子を付加する。図2(a)に示す例では、自動二輪車に識別子Aを付加し、先行車に識別子Bを付加している。
続いて、過去フレームにおけるトラッキング処理結果からカルマンフィルタを用いて、検知対象A、Bの位置や移動方向を予測する。そして、予測結果から現在フレーム(フレームn)における検知対象A、Bの探索範囲を設定する。図2(b)に示す例では、自動二輪車Aが自車両に接近する方向、つまり、画像内を左下方に移動すると予測して、探索範囲が設定され、また、先行車Bが自車から離れる方向、つまり、画像内を上方に移動すると予測して、探索範囲が設定されている。
続いて、現在フレームに設定された探索範囲を探索する。そして、現在フレームにおける物体の検出結果と予測結果とを対応付けることによって、現在フレームにおいて検出された検知対象と過去フレームの検知対象A、Bとが同様の物体であるかを判断する。現在フレームの検知対象を過去フレームの検知対象A、Bと同様の物体と判断すれば同様の識別子を付加し、過去フレームと異なる物体と判断した場合は新たに識別子を付加する。
上記トラッキング処理は、過去フレームと現在のフレームとを対応付けて認識を行うが、その際、カメラ位置が一定である前提で処理される。しかし、自車両にピッチ角が発生するとカメラ自体も傾き、フレーム内の検知対象の位置が移動してしまう。ピッチ角によりフレーム内の検知対象の位置が変わってしまうと、過去フレームと現在フレームとの間における検知対象の対応付けが出来ず、トラッキングが失敗するという課題がある。したがって、トラッキング処理において、車両に生じる車両挙動、特にピッチ角の傾きに対応する必要がある。
オートバイなどの自動二輪車は、四輪の乗用車と比較して、制動時や駆動時、路面状況などにより生じる車体前後の沈み込み量が大きいという特性がある。したがって、例えば自動二輪車に、乗用車用の画像処理装置をそのまま搭載し、画像認識用のカメラで撮像した画像を用いて認識処理を行った場合に、探索範囲内に検知対象を捉えることが出来なくなる可能性があり、トラッキング処理において自動二輪車の車体に発生するピッチ角の影響によりトラッキングを失敗してしまうおそれがある。
各実施例では、従来のように画像処理部で車両挙動を考慮した画像の切り取りを行うのではなく、任意の車両のピッチ角の傾きに対して、その傾きの情報を認識カメラの認識部にて利用する処理を実行する。本発明では、課題(1)ピッチ角に変化が発生した場合にどのようにトラッキング処理の探索範囲を設定するか、課題(2)車両のピッチ角情報が正確に取得できない場合にどのようにトラッキング処理の探索範囲を設定するか、これらの課題(1)、(2)を解決することを目的とする。
各実施例では、上記課題(1)に対しては、トラッキング処理により前回フレームから予測される検知対象の移動方向から設定される探索範囲に対し、車両に生じるピッチ角情報を利用して、探索範囲の更新を行い、上記課題(2)に対しては、取得するピッチ角情報が正確であるかを判断する信頼度を設定し、ピッチ角情報と信頼度によりトラッキング処理の探索範囲を可変にすることにより、これらの課題を解決する。
上記課題(1)、(2)に対して、ピッチ角センサを用いる手段に関して実施例1を用いて説明し、ピッチ角センサの代わりに車両の制御部の出力を用いる手段に関して実施例2を用いて説明し、ピッチ角センサの代わりに画像処理装置内部で算出される制駆動力を用いる手段に関して実施例3を用いて説明する。
[実施例1]
実施例1では、時々刻々と変わる車両のピッチ角に対し、ピッチ角センサ2からピッチ角情報を取得し、ピッチ角が生じた際の認識画像上の検知対象の位置の変化をズレ情報51として出力し、またそのズレ情報51の出力が正確であるかを信頼度52として出力する。そして、ズレ情報51と、信頼度52と、トラッキング処理部10で算出された検知対象の予測結果とから、認識画像上における検知対象の探索範囲を設定する方法を提供する。
まず、図3を用いて、トラッキング処理に従来技術を適用した際の課題と、本提案による解決方法について説明する。
従来技術は、センサ情報から自車両に生じるピッチ角を推定し、そのピッチ角による撮像画像内の検知対象の位置の変化に対し、画像処理部における切り取り位置を変更する切り取り方式を採用することによって対応しようとしている(図3(a)参照)。
しかし、従来技術では、主に物体検出を行うマッチング処理を考慮して認識精度向上に焦点を当てており、トラッキング処理に関しては明記されていない。トラッキング処理は、検出された検知対象に対して、検知対象の位置や移動方向を予測して探索範囲を設定し、複数フレームにおいて対応付けを行うことによって検知対象を追跡するものである。トラッキング処理では、自車両に生じるピッチ角情報以外に検知対象の移動方向も考慮して探索範囲を設定する必要がある。
このようなトラッキング処理において、従来技術を適用した場合、例えば図3(b)に示すように、ピッチ角変化に対応するために、画像内の切り出し位置を上方に移動させることになる。したがって、通常のトラッキング処理では、識別子A、Bの検知対象の移動方向を考慮して探索範囲を設定するので、識別子Aの検知対象の移動方向が下方向であった場合、画像処理部において移動方向の画像が切り取られてしまい、識別子Aを識別するための探索範囲が十分に設定できなくなる。したがって、識別子Aの対応付けが失敗し、識別子Aの検知対象を識別できない可能性がある。
従来技術では、画像処理部にて認識画像を生成する際に切り取り位置を補正することによってピッチ角変化の課題に対応しようとするものである。これに対し、本実施例では、画像処理部で認識画像を生成する際にピッチ角情報を考慮した切り取りは実施しない。本実施例では、認識部6にてピッチ角情報を使用し、トラッキング処理における検知対象の探索範囲をピッチ角情報に応じて可変に設定しようとするものである(図3(c)参照)。
本実施例によれば、画像処理部でピッチ角情報を考慮した切り取りを実施しないので、トラッキング処理において検知対象の移動方向が切り取られてしまうという従来技術の課題は生じない。そして、ピッチ角情報によって探索範囲を設定するので、撮像画像の範囲内に検知対象が存在する限り、車両にピッチ角の変化が生じた際でも探索範囲内に検知対象を捉えることができる。したがって、ピッチ角の変化が発生しても、複数のフレーム間における検知対象の対応付けが可能となる。
図3を用いて従来技術と本実施例との差異を説明したが、次に、自車両にピッチ角の変化が生じた際に、トラッキング処理にてピッチ角情報を利用して探索範囲を設定する本実施例の原理について図1を用いて詳細説明する。
本実施例の構成図を図1に示す。車両に、カメラ1とピッチ角センサ2とを備え、それらはCANバス3を用いて接続されている。ピッチ角センサ2は、特に限定されないが、例えば、慣性計測装置IMU(Inertial Measurement Unit)を用いることができる。慣性計測装置IMUでは、ピッチ角を含む3次元の角度、角速度、加速度が求められる。これらデータは、CANやEthernetなどのデータとして送信される。
図1に、画像処理装置であるカメラ1の内部構成を示す。カメラ1は、撮像部4、画像処理部5、認識部6、制御生成部7、および通信インターフェース部8を備えている。撮像部4は、CMOSセンサなどの撮像素子で画像を撮像する。画像処理部5は、撮像部4で撮像された画像を用いて、認識処理で使用する画像を生成する。認識部6は、車両やレーンの検知や、検知対象の時系列の追跡(トラッキング)等を行う。制御生成部7は、認識部6の認識結果を元に、車両のブレーキやアクセルなどのアクチュエータへの制御信号を生成する。通信インターフェース部8は、CANなど外部ECUとカメラの通信を行う。
認識部6は、記憶部9と、トラッキング処理部10と、変化量計算部20とを備えている。記憶部9は、先行車などの他の車両や車線のレーンの検知、路面認識、トラッキング処理結果などの過去の認識結果を記憶する。トラッキング処理部10は、識別子を付加した検知対象に対し、カルマンフィルタを用いて検知対象の動きを予測する予測情報から探索範囲を設定し、検知対象の時系列追跡を行う。変化量計算部20は、ピッチ角情報からフレーム画像における対象物体の上下方向変化量をズレ情報51として出力する。変化量計算部20は、ピッチ角センサ2から取得したピッチ角情報50からピッチ角が生じた際の認識画像上の検知対象の位置の変化をズレ情報51として出力し、またそのズレ情報の出力が正確であるかを信頼度52として出力する。ピッチ角情報50は、自車両に発生するピッチ角や単位時間当たりのピッチ角変化量、ピッチ角変化方向を含む。
トラッキング処理部10の処理方法について、一例としてカルマンフィルタを用いた検知対象のトラッキング方法を記載したが、トラッキング処理の手法についてはこの例に限定されない。
トラッキング処理部10は、検知対象の予測情報によって設定された探索範囲に対し、変化量計算部20の出力と検知対象の予測情報とから、探索範囲を変更する探索範囲計算部11を有し、トラッキング処理部10は、探索範囲を、探索範囲計算部11にて変更された探索範囲に更新する。
トラッキング処理部10は、更新された探索範囲内に検知対象が存在するかどうか探索範囲内を全探索することにより判断する。探索した結果、過去にトラッキングを行って識別子を付加した検知対象が存在した場合、同じ識別子を付加して検知対象の追跡を行う。新たな検知対象が発見された場合は新たな識別子を付加する。ズレ情報51には、上下方向の変化量や左右方向の変化量を含み、認識画像上の検知対象の変化量を画素量として出力してもよい。
信頼度52は、単位時間あたりのピッチ角の変化量から算出され、単位時間当たりのピッチ角変化量が閾値よりも大きい場合に、低い信頼度として出力し、単位時間当たりのピッチ角変化量が閾値よりも小さい場合に、高い信頼度として出力する。本実施例では、信頼度52を数値として扱うことを想定しているが、信頼度としてレベルや電気信号などを使用してもよい。
信頼度52は、単位時間当たりのピッチ角変化量から算出するだけでなく、記憶部9に記憶している路面認識情報を基に、走行中の路面状況により信頼度を設定することも可能である。例えば、路面状況が凸凹している悪路や急勾配であると認識した場合に低い信頼度として出力し、逆に凹凸の少ない平坦な路面であると判断した場合は高い信頼度として出力する。なお、信頼度52は高い信頼度と低い信頼度の二つに限定されず、多段階に用いられても良い。
探索範囲計算部11は、図4のように、信頼度に応じて探索範囲を変更する。例えば、図4(a)に示すように、信頼度52が閾値よりも高い場合、トラッキング処理における探索範囲を信頼度52が閾値のときよりも縮小させる。これにより、無駄なCPU負荷を低減させることができる。一方、図4(b)に示すように、信頼度52が閾値よりも低い場合は、トラッキング処理における探索範囲を信頼度52が閾値のときよりも拡大させる。これにより、マージンを大きく取り、瞬間的なピッチ角の変化に対応可能とする。
上記の構成を踏まえ、ピッチ角センサ2から取得するピッチ角情報を用いてトラッキング処理における認識画像の探索範囲を設定するフローチャートを図5に示す。
まず、認識画像から検知対象を検出し、検知対象に識別子を付加する(S1)。そして、記憶部9から過去のトラッキング処理結果を取得する(S2)。過去のトラッキング情報から検知対象の移動方向を予測し、フレーム内における探索範囲を設定する(S3)。
ピッチ角センサ2のピッチ角情報50を通信インターフェース部8を通して取得する(S4)。次に、変化量計算部20にてピッチ角情報50からフレーム内における検知対象のズレ情報51とその信頼度52を計算する(S5)。続いて信頼度52が高いのか、低いのかを判断する(S6)。信頼度52が閾値よりも大きい場合には高いと判断し、閾値よりも小さい場合には低いと判断する。
ここで、信頼度が低いと判断された場合、フレーム内に設定されている探索範囲の上下方向を、予め設定された基準の探索範囲よりも拡大する(S7)。一方、信頼度が高いと判断された場合、探索範囲の上下方向を、予め設定された基準の探索範囲よりも縮小する(S8)。
その後、ズレ情報51に従って探索範囲の位置を更新する(S9)。トラッキング処理部10は、更新された探索範囲内を探索し、より詳しくは、更新された探索範囲に従って識別子を付加した検知対象が探索範囲内に存在するかどうか探索範囲内を全探索する。そして、更新された探索範囲内に検知対象が存在した場合、同じ識別子を付加し確定する(S10)。そして上記フローによってトラッキング処理を行った結果を記憶部に保存する(S11)。
本実施例のカメラ1は、カメラ1で撮像された複数のフレーム画像毎に対象物体の探索範囲を設定し、対象物体を時系列で追跡するトラッキング処理部10と、車両のピッチ角情報を用いて、トラッキング処理部10の探索範囲を変更する探索範囲計算部11とを有する。
より詳しくは、カメラ1は、画像を撮像する撮像部4と、画像を生成する画像処理部5と、ピッチ角センサ2から出力される複数のピッチ角と、画像処理部5にて生成された画像から画像認識を行う認識部6とを備える。そして、認識部6は、フレーム内の物体を時系列で追跡するトラッキング処理を行うトラッキング処理部10と、過去の認識結果を記憶する記憶部9と、ピッチ角からフレーム内の物体のズレ情報51を算出する変化量計算部20を有する。
トラッキング処理部10は、変化量計算部20からの入力と過去の認識結果とからトラッキング処理における探索範囲を設定する探索範囲計算部11を備える。そして、変化量計算部20は、ズレ情報51に加え、ズレ情報51が正確であるかを計算し、信頼度52として出力する。探索範囲計算部11は、ズレ情報51と、信頼度52と、過去のトラッキング処理結果と、を用いて、認識画像内の探索範囲を設定する。
本実施例のカメラ1によれば、トラッキング処理によって前回フレームから予測される検知対象の移動方向から探索範囲を設定し、その設定された探索範囲に対して、自動二輪車に生じるピッチ角を利用し、トラッキング処理の探索範囲の変更を行う。そして、取得するピッチ角の情報が正確であるかを判断する信頼度52を設定し、信頼度52によりトラッキング処理の探索範囲を可変にする。
探索範囲計算部11は、信頼度52により探索範囲を可変にする。例えば信頼度52が低いと判断された場合は探索範囲を拡大し、信頼度52が高いと判断された場合は探索範囲を縮小する。
変化量計算部20は、ピッチ角センサ2から取得したピッチ角情報50から認識画像内の物体のズレ情報(上下方向変化量)51を画素量として算出し、探索範囲計算部11の計算精度を向上させる。
したがって、自動二輪車のように自動車と比較してピッチ角が大きく変化する車両であっても、探索範囲内に検知対象を捉えることができる。したがって、ピッチ角が発生した際のトラッキング処理の精度向上を図ることができる。
実施例1では、車両の前後方向に発生する車両挙動であるピッチ角に焦点を当てて説明したが、図6(a)のように車両に左右方向にロール角が発生した場合においても、ズレ情報51と信頼度52による同様の方法で、図6(b)のように探索範囲を拡大、縮小させることが可能であり、ピッチ角とロール角が同時に発生した場合においても、本発明を適用可能である。
[実施例2]
実施例2では、ピッチ角センサ2からピッチ角情報50を取得する代わりに、車両の制動力や駆動力を制御する制御装置の出力からピッチ角情報50を取得する方式について説明する。車両の制駆動力を制御する制御装置の出力から車両に発生するピッチ角をリアルタイムで算出することが可能であり、ピッチ角センサを備えていない車両に対しても本提案を適用可能としている。その方式を実施例1に追加する。
本実施例の構成図を図7に示す。実施例1との差分は次の通りである。ピッチ角センサ2の代わりに、駆動力制御装置40と制動力制御装置41を用いている。そして、認識部6は、駆動力制御装置40と制動力制御装置41の制駆動力制御量53を通信インターフェース部8を経由して取得する。本実施例では、実施例1に対して、車両に発生するピッチ角情報50を計算するピッチ角情報計算部30が追加となっている。
制駆動力制御量53からピッチ角情報50を計算するフローチャートについて図8を用いて説明する。
認識画像から検知対象を検出し、検知対象に識別子を付加する(S1)。記憶部9から過去のトラッキング処理結果を取得する(S2)。そして、取得した過去のトラッキング情報から検知対象の移動方向を予測し、フレーム内における探索範囲を設定する(S3)。
駆動力制御装置40と制動力制御装置41から制駆動力制御量53を取得し、ピッチ角情報計算部30にてピッチ角情報50を算出する(S20)。ピッチ角情報50の計算方法は、公知の方法を用いて行われる。
次に、変化量計算部20にてピッチ角情報50からフレーム内における検知対象のズレ情報51とその信頼度52を計算する(S5)。続いて信頼度52が高いのか、または低いのかを判断し(S6)、信頼度52が低いと判断された場合、探索範囲の上下方向を拡大する(S7)。信頼度52が高いと判断された場合、探索範囲の上下方向を縮小する(S8)。その後、ズレ情報51に従って探索範囲の位置を更新する(S9)。
トラッキング処理部10は、更新された探索範囲内を探索し、識別子を付加した検知対象が探索範囲内に存在するかどうか探索範囲内を全探索する。そして、検知対象が存在した場合には、同じ識別子を付加し確定する(S10)。そして、上記フローによってトラッキング処理を行った結果を記憶部9に保存する(S11)。以上のように、実施例1のS4の処理に代わり、S20の処理が追加されている。
実施例2の画像処理装置は、車両の制御装置と通信を行う為の通信インターフェース部8を有し、認識部6は、駆動力制御装置40と制動力制御装置41からの制駆動力制御量53を用いて、自車両に発生するピッチ角情報50を算出するピッチ角情報計算部30を有する。そして、変化量計算部20にてピッチ角情報計算部30から出力されるピッチ角情報50を用いてフレーム内の検知対象のズレ情報51を算出する。
このように、実施例2では、制駆動力制御量53からピッチ角情報50を計算するピッチ角情報計算部30を、実施例1の構成に追加することで、ピッチ角センサ2を備えていない車両に対しても車両挙動を考慮した探索範囲の設定が可能となり、トラッキングの精度向上を可能とする。
[実施例3]
実施例3では、実施例1のピッチ角センサ2からピッチ角情報50を取得する代わりに、認識結果を元にブレーキやアクセルなどのアクチュエータへの制御信号を生成する制御生成部7から出力される目標制駆動力制御量54からピッチ角情報50を取得することを特徴とする。実施例3は、カメラ1内で完結する構成となっており、実施例1であるピッチ角センサや実施例2のような外部の制駆動力制御量53を必要としない。したがって、車種ごとの適合の作業を最小限に抑えることが期待できる。その方式を実施例1に追加する。
実施例3の構成図を図9に示す。実施例1との差分は次の通りである。
実施例1のピッチ角センサ2の代わりに、制御生成部7から出力される目標制駆動力制御量54を入力としてピッチ角情報50を算出するピッチ角情報計算部60が追加されている。
また、目標制駆動力制御量54は、カメラ内部で演算された制御量である為、ドライバーがブレーキやアクセルを操作した際のオーバーライドによる制御量変化は含まれていない。ドライバーによるオーバーライドが発生した場合に、目標制駆動力制御量54によって計算されたピッチ角情報50と車両に実際に発生するピッチ角とに差異が発生してしまう。
本実施例では、運転者操作を検知した際に探索範囲の設定方法を工夫する必要がある。具体的には、運転者がブレーキやアクセルを操作したかどうかの運転者操作情報55を通信インターフェース部8を経由して取得し、オーバーライド情報56を出力する運転者操作検知部70が追加されている。
目標制駆動力制御量54からピッチ角情報50を計算するフローチャートについて図10を用いて説明する。
まず、認識画像から検知対象を検出し、検知対象に識別子を付加する(S1)。記憶部9から過去のトラッキング処理結果を取得する(S2)。過去のトラッキング情報から検知対象の移動方向を予測しフレーム内における探索範囲を設定する(S3)。
カメラの認識結果からカメラ内の制御生成部7で演算される目標制駆動力制御量54からピッチ角情報計算部60にてピッチ角情報50を算出する(S30)。次に、変化量計算部20にてピッチ角情報50からフレーム内における検知対象のズレ情報51とその信頼度52を計算する(S5)。
通信インターフェース部8を経由して、運転者操作情報55を取得する(S31)。運転者操作情報55を入力として、運転者操作検知部70にてオーバーライドが検知されたかどうかを判断する(S32)。運転者操作検知部70にて運転者のオーバーライドが検知された場合、トラッキング処理における探索範囲を最大限に拡大する(S33)。
オーバーライドが検知されない場合は、信頼度52が高いのか、または低いのかを判断する(S6)。そして、信頼度が低いと判断された場合、探索範囲の上下方向を拡大する(S7)。信頼度が高いと判断された場合、探索範囲の上下方向を縮小する(S8)。その後、ズレ情報51に従って探索範囲の位置を更新する(S9)。
トラッキング処理部10は、更新された探索範囲内を探索し、識別子を付加した検知対象が探索範囲内に存在するかどうか探索範囲内を全探索する。そして、検知対象が存在した場合、同じ識別子を付加し確定する(S10)。そして上記フローによってトラッキング処理を行った結果を記憶部9に保存する(S11)。
上記のように、本実施例では、実施例1におけるS4の代わりに、S30の処理が追加され、さらにS31とS32、S33の処理が追加されている。
実施例3において、目標制駆動力制御量54からピッチ角情報50を算出する手法が異なっているが、検知対象のズレ情報51とその信頼度52を用いてトラッキング処理の探索範囲を設定する手法については実施例1と共通である。
しかし、運転者操作検知部70でオーバーライドを検知した場合、目標制駆動力制御量54から算出したピッチ角情報50には車両に発生するピッチ角との差異が生まれてしまう為、探索範囲は正確ではなくなってしまう。そこで、オーバーライドを検知した場合は、信頼度が最も低いと判断し、探索範囲を最大限に広げることを特徴とする。
実施例3によれば、カメラ1は、認識部6の認識結果から車両を制御するために内部で計算される制御量を算出する制御生成部7を有し、ピッチ角情報計算部60は、制御生成部7の出力からピッチ角情報50を算出し、変化量計算部20にてピッチ角情報計算部60から出力されるピッチ角情報50からフレーム内の物体のズレ情報51を算出する。
認識部6は、運転者の操作を検知する運転者操作検知部70を有し、オーバーライドを検知した場合、変化量計算部20から信頼度が低いと出力する。
全ての実施例で紹介した技術はステレオカメラ、単眼カメラ問わず適用することができる。また、本提案は点群情報として出力するLiDARにも適用可能である。また、全ての実施例で三つの方法でピッチ角情報を求めたが、リアルタイムにピッチ角情報を算出する手段であれば、特に限定されない。
実施例1~3のカメラ1によれば、四輪車両向けに開発した認識用カメラに対し、二輪車用のピッチ角に対応する装置を付加することで、認識カメラを搭載した車両にピッチ角が発生した場合においても、トラッキング処理時にピッチ角情報を用いて探索範囲を設定することで、撮像画像内に検知対象が存在する限り検知対象を時系列で追跡することが可能となる。
また、信頼度を新しく追加することにより、ピッチ角センサなどのセンサ情報が不正な値を出力した際に探索範囲を拡大し、マージンを大きくすることにより、検知対象が探索範囲から外れることによってトラッキングが失敗してしまう課題を解決することが可能である。また信頼度が高い場合は探索範囲を縮小し無駄な演算負荷を無くすことが出来る。従来は演算負荷が高い場合、探索範囲を間引くなどの処理を行っていたが、本発明では必要が無くなる為、認識精度向上に貢献する。また、ハードウェアの温度上昇を抑えるなどの効果が期待できる。
これにより、二輪車において、車両にピッチ角が発生した場合においても安定したトラッキング処理を行うことができる。
実施例2によれば、ピッチ角センサを備えていない車両に対しても車両挙動を考慮した探索範囲の設定が可能となり、実施例3によれば、本発明がカメラ内部で実現可能な為、車種ごとの適合の作業を最小限に抑えることが期待できる。
また、実施例1~3では車両に発生するピッチ角に着目して技術を述べたが、ピッチ角だけに限らずピッチ角とロール角が同時に発生する場合でも適用可能である。
以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
1・・・カメラ(画像処理装置)
2・・・ピッチ角センサ(IMU)
3・・・CANバス
4・・・撮像部
5・・・画像処理部
6・・・認識部
7・・・制御生成部
8・・・通信インターフェース部
9・・・記憶部
10・・・トラッキング処理部
11・・・探索範囲計算部
20・・・変化量計算部
30・・・ピッチ角情報計算部
40・・・駆動力制御装置
41・・・制動力制御装置
50・・・ピッチ角情報
51・・・ズレ情報
52・・・信頼度
53・・・制駆動力制御量
54・・・目標制駆動力制御量
55・・・運転者操作情報
56・・・オーバーライド情報
60・・・ピッチ角情報計算部
70・・・運転者操作検知部

Claims (2)

  1. 車載カメラで撮像された複数のフレーム画像毎に対象物体の探索範囲を設定し、前記対象物体を時系列で追跡するトラッキング処理部と、
    車両のピッチ角情報を用いて、前記探索範囲を変更する探索範囲計算部と、
    前記ピッチ角情報から前記フレーム画像における対象物体の上下方向変化量を出力する変化量計算部と、
    過去の認識結果を記憶する記憶部を有し、
    前記探索範囲計算部は、前記上下方向変化量に従って探索範囲を更新し、
    前記変化量計算部は、前記上下方向変化量の出力が正確であるかを示す信頼度を算出し、
    前記探索範囲計算部は、前記信頼度が閾値よりも高いと判断された場合に前記探索範囲を縮小し、前記信頼度が閾値よりも低いと判断された場合に前記探索範囲を拡大し、
    前記信頼度は、前記記憶部に保存されている路面認識情報に基づいて設定されることを特徴とする画像処理装置。
  2. 車載カメラで撮像された複数のフレーム画像毎に対象物体の探索範囲を設定し、前記対象物体を時系列で追跡するトラッキング処理部と、
    車両のピッチ角情報を用いて、前記探索範囲を変更する探索範囲計算部と、
    前記ピッチ角情報から前記フレーム画像における対象物体の上下方向変化量を出力する変化量計算部と、
    運転者によるアクセル操作やブレーキ操作を検知する運転者操作検知部を有し、
    前記探索範囲計算部は、前記上下方向変化量に従って探索範囲を更新し、
    前記変化量計算部は、前記上下方向変化量の出力が正確であるかを示す信頼度を算出し、
    前記探索範囲計算部は、前記信頼度が閾値よりも高いと判断された場合に前記探索範囲を縮小し、前記信頼度が閾値よりも低いと判断された場合に前記探索範囲を拡大し、
    前記変化量計算部は、前記運転者操作検知部で運転者の操作が検知された場合、前記信頼度が低いと判断することを特徴とする画像処理装置。
JP2022524877A 2020-05-22 2021-01-22 画像処理装置 Active JP7350168B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020090109 2020-05-22
JP2020090109 2020-05-22
PCT/JP2021/002142 WO2021235001A1 (ja) 2020-05-22 2021-01-22 画像処理装置

Publications (3)

Publication Number Publication Date
JPWO2021235001A1 JPWO2021235001A1 (ja) 2021-11-25
JPWO2021235001A5 JPWO2021235001A5 (ja) 2023-01-24
JP7350168B2 true JP7350168B2 (ja) 2023-09-25

Family

ID=78707916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022524877A Active JP7350168B2 (ja) 2020-05-22 2021-01-22 画像処理装置

Country Status (2)

Country Link
JP (1) JP7350168B2 (ja)
WO (1) WO2021235001A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002117392A (ja) 2000-10-06 2002-04-19 Nissan Motor Co Ltd 車間距離推定装置
WO2011040119A1 (ja) 2009-09-30 2011-04-07 日立オートモティブシステムズ株式会社 車両制御装置
JP2015210538A (ja) 2014-04-23 2015-11-24 本田技研工業株式会社 光源検出装置、前照灯制御システム、および光源検出方法
WO2015177985A1 (ja) 2014-05-22 2015-11-26 ヤマハ発動機株式会社 ピッチ角制御システム、ピッチ角制御方法および車両
WO2017138286A1 (ja) 2016-02-12 2017-08-17 日立オートモティブシステムズ株式会社 移動体の周囲環境認識装置
WO2020090320A1 (ja) 2018-10-31 2020-05-07 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002117392A (ja) 2000-10-06 2002-04-19 Nissan Motor Co Ltd 車間距離推定装置
WO2011040119A1 (ja) 2009-09-30 2011-04-07 日立オートモティブシステムズ株式会社 車両制御装置
JP2015210538A (ja) 2014-04-23 2015-11-24 本田技研工業株式会社 光源検出装置、前照灯制御システム、および光源検出方法
WO2015177985A1 (ja) 2014-05-22 2015-11-26 ヤマハ発動機株式会社 ピッチ角制御システム、ピッチ角制御方法および車両
WO2017138286A1 (ja) 2016-02-12 2017-08-17 日立オートモティブシステムズ株式会社 移動体の周囲環境認識装置
WO2020090320A1 (ja) 2018-10-31 2020-05-07 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
JPWO2021235001A1 (ja) 2021-11-25
WO2021235001A1 (ja) 2021-11-25

Similar Documents

Publication Publication Date Title
CN110232836B (zh) 物体识别装置以及车辆行驶控制系统
US10147003B2 (en) Lane detection device and method thereof, curve starting point detection device and method thereof, and steering assistance device and method thereof
US20180178796A1 (en) Control device for vehicle travelling
US10755421B2 (en) Tracking device
JP6372228B2 (ja) 衝突予想時間算出装置
JP6936098B2 (ja) 対象物推定装置
JP4622544B2 (ja) 車両の運転支援装置
JP2018024359A (ja) 走行制御装置
JP2017191382A (ja) 車両制御装置、及び車両制御方法
US20220135030A1 (en) Simulator for evaluating vehicular lane centering system
JP6481627B2 (ja) 車両用走行制御装置
JP6451565B2 (ja) 運転支援装置、及び運転支援方法
JP2006298254A (ja) 走行支援装置
JP7350168B2 (ja) 画像処理装置
JP2019067115A (ja) 路面検出装置
CN111989541B (zh) 立体摄像机装置
JP7063184B2 (ja) 物体認識装置
JP7236849B2 (ja) 外界認識装置
JP3757500B2 (ja) 先行車追従装置
JP6699568B2 (ja) 車両制御装置
JPH1011585A (ja) 物体検出装置
US7224445B2 (en) Vehicle external recognition system and related method
JP6082293B2 (ja) 車両用白線認識装置
JP7095201B2 (ja) 自動制動装置
US20240096143A1 (en) Information processing device, vehicle, and information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230912

R150 Certificate of patent or registration of utility model

Ref document number: 7350168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150