JP6833259B2 - 物体検知支援装置 - Google Patents

物体検知支援装置 Download PDF

Info

Publication number
JP6833259B2
JP6833259B2 JP2017061463A JP2017061463A JP6833259B2 JP 6833259 B2 JP6833259 B2 JP 6833259B2 JP 2017061463 A JP2017061463 A JP 2017061463A JP 2017061463 A JP2017061463 A JP 2017061463A JP 6833259 B2 JP6833259 B2 JP 6833259B2
Authority
JP
Japan
Prior art keywords
unit
object detection
periodic pattern
optical flow
support device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017061463A
Other languages
English (en)
Other versions
JP2018163592A (ja
Inventor
俊孝 安西
俊孝 安西
尊史 萩
尊史 萩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2017061463A priority Critical patent/JP6833259B2/ja
Publication of JP2018163592A publication Critical patent/JP2018163592A/ja
Application granted granted Critical
Publication of JP6833259B2 publication Critical patent/JP6833259B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体検知支援装置に関する。
従来、異なる時刻に得られた複数画像から移動ベクトル(オプティカルフロー)を抽出することにより移動物体を検知する移動物体検知方法が提案されている(例えば、特許文献1参照)。この移動物体検知方法は、第1所定時間内に得られた一組の画像から第1オプティカルフローを算出するステップと、第1所定時間とは異なる第2所定時間内に得られた一組の画像から第2オプティカルフローを算出するステップを有する。この移動物体検知方法では、第1所定時間及び第2所定時間でそれぞれ得られた第1オプティカルフロー及び第2オプティカルフローの長さを比較することにより、オプティカルフローが移動物体に起因するものか、周期的に出現する構造物に起因するものかの判定が行われる(例えば、特許文献1参照)。
特開平8-30792号公報
ところで、車両にカメラを搭載し、移動中のカメラで道路状況を監視してオプティカルフローを検知し、その検知結果を基にして、歩行者や車両等の物体を検知し、それらの物体との衝突の可能性をドライバに警報する場合を想定する。このような場合、カメラの画像中の背景に駐車場のフェンスや石畳路面のような周期性(規則性)のあるテクスチュア(明るさや色の空間的変化が一様な模様)を持つ静止物体が存在すると、本来得られるべきオプティカルフローとは異なるオプティカルフローが誤って検知されてしまうことがある。
このような誤った検知結果を基にした物体の検知は、ドライバへの誤警報を招いてしまう。このため、本来警報の必要のないシーンにおいても、ドライバに対して物体との衝突の可能性が警報されてしまうという問題がある。
本発明は、上記課題に鑑みてなされたもので、周期性のあるテクスチュアを備えた物体に起因する、オプティカルフローの誤検知を抑制することができる物体検知支援装置を提供することを目的とする。
本発明に係る物体検知支援装置は、周期性のあるテクスチュアを持つ周期パターンを除外して、オプティカルフローによる移動物体の検知を行うものである。
すなわち、本発明に係る物体検知支援装置は、移動体に搭載された撮像部によって撮像され、且つ、時系列的に得られる複数のフレームとして与えられる動画像上の移動情報であるオプティカルフローを用いて抽出される物体を前記フレームの領域から検知する移動物体検知部と、前記オプティカルフローによって抽出された部分における左右領域の類似度に応じて、前記抽出された部分を周期性のあるテクスチュアが存在する周期パターンと判定し、当該周期パターンを前記移動物体検知部による検知の対象から除外する周期パターン除外部と、を有することを特徴とする。
このように構成された本発明に係る物体検知支援装置によれば、周期性のあるテクスチュアを備えた物体に起因する、オプティカルフローの誤検知を抑制することができる。
本発明の実施例1に係る物体検知支援装置を搭載した物体検知支援システムの概略構成を示すブロック図である。 本発明の実施例1に係る移動物体検知部の概略構成を示すブロック図である。 本発明の実施例1に係る周期パターン除外部の概略構成を示すブロック図である。 実施例1に係る物体検知支援装置で行われる一連の処理の流れを示すフローチャートである。 (A)は、歩行者等の移動物体が全く存在しない石畳路面を車載カメラで撮像した画像の一例である。(B)は、グルーピング処理の結果として得られた検証エリアを含む画像の一例である。(C)は、検証エリアを複数のブロックに分割した結果を示す画像の一例である。 図4に示した、周期パターンの除外処理の詳細を示すフローチャートである。 図4に示した、ブロックの計数処理の詳細を示すフローチャートである。 テンプレート領域画像の一例を示す図である。 差分値の算出処理を説明する図である。 (A)は、車両の周辺を撮像したフレームの一例である。(B)は、差分値を算出した結果を示すグラフの一例である。 (A)は、車両の周辺を撮像したフレームの一例である。(B)は、差分値を算出した結果を示すグラフの一例である。 本発明の実施例2に係る物体検知支援装置で行われる周期パターンの除外処理の詳細を示すフローチャートである。 周期パターン判定部によるフラグの設定処理にポイント制を採用した結果を示すグラフの一例である。
以下、本発明に係る物体検知支援装置の具体的な実施形態について、図面を参照して説明する。
実施例1は、本発明の物体検知支援装置を、車載カメラで車両周辺を監視して、車両に接触する可能性のある物体の検知を支援する物体検知支援システムに適用した例である。
(物体検知支援システムの概略構成)
まず、物体検知支援システムの概略構成について、図1を用いて説明する。
物体検知支援システム10は、車両1(移動体)に搭載されている。その物体検知支援システム10は、車載カメラ100(撮像部)と、物体検知支援装置200と、車輪速センサ300と、操舵角センサ400と、警報出力装置500と、表示装置600と、を有する。
車載カメラ100は、車両1の、主として前方向を視野とするように、例えば前側右端部に固定されて、車両1と一体的に移動する。
物体検知支援装置200(例えばカメラ制御ECU等)は、車載カメラ100で撮像され、且つ、時系列的に得られる複数のフレームFとして与えられる動画像上の移動情報であるオプティカルフローOPを用いて、車両1に接触する可能性のある物体の検知を支援する。
車輪速センサ300は、左右の車輪の速度(車輪速)を計測する。
操舵角センサ400は、車両1のステアリング(不図示)の操舵角を計測する。
警報出力装置500は、スピーカ(不図示)のような音声出力手段を備え、車両1が物体に接触する可能性があるときに、音又は音声によって警報を出力する。
表示装置600は、物体検知支援装置200で信号処理が行われた画像を表示するモニタ(不図示)のような映像出力手段を備え、車両1が物体に接触する可能性があるときに、映像によって警報を出力する。
(物体検知支援装置の構成)
物体検知支援装置200は、画像取得部210と、入出力I/F(インターフェイス)部220と、車両移動算出部230と、移動物体検知部240と、周期パターン除外部250と、移動物体追跡部260と、統合判定部270と、警報制御部280と、を有する。
画像取得部210は、車載カメラ100で撮像され、且つ、時系列的に得られる複数のフレームFとして与えられる動画像を取得する。
入出力I/F部220は、車輪速センサ300で計測された車輪速の検知結果と、操舵角センサ400で計測された操舵角の検知結果とを受け取る。
車両移動算出部230は、車輪速センサ300で計測された車輪速と、操舵角センサ400で計測された操舵角とを用いて、車両1の移動量を算出する。
移動物体検知部240は、画像取得部210で取得された動画像と、車両移動算出部230で算出された移動量とに基づいて、車両1に接近する移動物体の検知を行う。移動物体検知部240は、図2に示すように、オプティカルフロー算出部241と、移動体フロー抽出画像生成部242と、グルーピング処理部243と、を有する。各部の詳細については後述する。
周期パターン除外部250は、オプティカルフローOPによって抽出された部分における左右領域の類似度に応じて、当該抽出された部分を周期性のあるテクスチュア(例えば駐車場のフェンス等)が存在する周期パターンと判定し、当該周期パターンを前記移動物体検知部240による検知の対象から除外する。ここで、周期パターンとは、画像上でテクスチュアが一様な領域であって、その左右領域の類似度に対称性のある特性を有する領域のことをいう。
周期パターン除外部250は、図3に示すように、検証エリア設定部251と、差分値算出部252と、ブロック計数部253と、周期パターン判定部254と、を有する。各部の詳細については後述する。
移動物体追跡部260は、車両移動算出部230で算出された移動量と、周期パターン除外部250の判定結果に基づいて、移動物体を追跡する。
統合判定部270は、移動物体検知部240の検知結果と、移動物体追跡部260の追跡結果との間の整合性を判定する。
警報制御部280は、統合判定部270の判定結果に基づいて、警報を出力するか否か判定する。その判定の結果、警報を出力する場合、警報制御部280は、警報出力装置500を制御して音又は音声を出力したり、表示装置600を制御して映像を出力したりする。
(物体検知支援装置で行われる一連の処理の流れ)
実施例1で行われる一連の処理は、時間軸上で隣接する異なる時刻に撮像された2枚のフレームFを比較して、オプティカルフローを検知して、車両1に接触する可能性のある物体の検知を支援するものである。
以下、図4に示すフローチャートを用いて、実施例1に係る物体検知支援装置で行われる一連の処理の流れを説明する。
まず、ステップS10では、車載カメラ100において、石畳路面を含む車両1の周辺が、所定の時間間隔で撮像される。その撮像により得られた2枚のフレームFは、画像取得部210に出力される。
ステップS20〜ステップS40では、移動物体検知部240において、オプティカルフローOPを用いて抽出される物体がフレームFの領域から検知される。
すなわち、ステップS20では、2枚のフレームFが画像取得部からオプティカルフロー算出部241に出力される。そのオプティカルフロー算出部241では、2枚のフレームFに基づいて、オプティカルフローOPが算出される。なお、このようなオプティカルフローOPの算出方法は種々の方法が紹介されており、そのいずれの方法を用いてもよいが、実施例1ではブロックマッチング法を用いることとする。
ブロックマッチング法については、例えば特開平7−244735号公報等で提案されている等、既に周知である。そのため、詳細な説明は省略するが、実施例1では、車両1が直進中に、異なる2つの時刻t−Δt、tに車載カメラ100の撮像で得られた2枚のフレームFのうち、時刻t−Δtに撮像したフレームF(以下、過去フレームFt−Δt(X,Y)という)から得られたテンプレート領域画像を、時刻tに撮像したフレームF(以下、現在フレームFt(X,Y)という)の中で様々な方向に移動させて、テンプレート領域画像との類似度の評価が行われる。
ここで、Xは、フレームFの横方向の座標を示し、Yは、フレームFの縦方向の座標を示す。その評価の結果、テンプレート領域画像との類似度が最も高くなる画像の中心位置M'を終点とし、テンプレート領域画像の中心位置Mを始点とするベクトルがオプティカルフローOPとして算出される。図5(A)は、現在フレームFt(X,Y)中に出現したオプティカルフローOPの一例を示す。
ステップS30では、移動体フロー抽出画像生成部242において、オプティカルフロー算出部241で算出されたオプティカルフローOPから移動体フロー抽出画像が生成される。なお、このような移動体フロー抽出画像の生成技術については、例えば特開2015−132879号公報等で提案されている等、既に周知であるため、詳細な説明は省略する。
ステップS40では、グルーピング処理部243において、移動体フロー抽出画像のグルーピング処理が行われる。グルーピング処理部243は、1段階目のグルーピング処理でオプティカルフローOPの集合である第1オプティカルフロー群OPG1を得る。その後、グルーピング処理部243は、2段階目のグルーピング処理で第1オプティカルフロー群OPG1よりも大きな第2オプティカルフロー群OPG2を得る。このように、実施例1では、2段階でグルーピング処理が行われる。
なお、このようなグルーピング処理の方法は、オプティカルフロー算出部241で算出されたオプティカルフローOPを予め設定した評価基準に基づいてグルーピングする方法が紹介されており、そのいずれの方法を用いてもよいが、実施例1では、移動体フロー抽出画像に対してラベリング処理を施すことによりグルーピング処理を行うこととする。なお、このようなラベリング処理の技術については、例えば特開2015−132879号公報で提案されている等、既に周知であるため、詳細な説明は省略する。
ステップS50では、周期パターン除外部250において、車載カメラ100で撮像された現在フレームFt(X,Y)のうち、石畳路面が存在する領域が周期パターンと判定される。その判定された周期パターンは、移動物体検知部240による検知の対象から除外される。なお、ステップS50で行われる周期パターンの除外処理の詳細は図6を用いて後述する。
ステップS60では、移動物体追跡部260において、移動物体の追跡が行われる。
ステップS70では、統合判定部270において、移動物体検知部240の検知結果と、移動物体追跡部260の追跡結果の間の整合性が判定される。なお、このような整合性の判定方法は、特開2015−14819号公報等で提案されている等、既に周知であるため、詳細な説明は省略する。
ステップS80では、警報制御部280において、警報を出力するか否かの判定が行われる。そして、実施例1に係る物体検知支援装置で行われる一連の処理が完了する。
(ステップS50で行われる処理の詳細)
次に、図6を用いて、ステップS50(図4)で行われる周期パターンの除外処理の詳細を説明する。
まず、ステップS201では、検証エリア設定部251において、グルーピング処理部243で1段階目にグルーピングされたオプティカルフローOPの集合であるオプティカルフロー群OP1に対応する検証エリアVR1〜VR3(図5(B),(C)参照)が設定される。
ステップS202では、差分値算出部252において、検証エリア設定部251で設定された検証エリアVR1〜VR3のそれぞれが複数のブロックBLKに分割される。例えば検証エリアVR1は、6つのブロックBLK1〜BLK6に分割される(図5(C)参照)。
ステップS203では、差分値算出部252において、ブロックBLK毎にパターンマッチングを行い、各ブロックBLKの左右領域における類似度(SAD)の差分値が算出される。SAD(Sum of Absolute Difference)は類似度を決定する指標となる。
ステップS204では、ブロック計数部253において、類似度の差分値が予め定められた閾値以下となるブロックBLKが左右領域の類似度に対称性があるブロックとして計数される。
ここで、ステップS203,S204に相当する処理は、検証エリアVR1〜VR3に含まれるブロックBLKの数に等しい回数分を反復して実行される。例えば、図5(C)の検証エリアVR1の場合、その領域に含まれるブロックBLK1〜BLK6の数に等しい6回分だけ、S203,S204に相当する反復処理が実行される。この反復処理が完了すると、引き続き、ステップS205が実行される。なお、S203,S204で行われる処理の詳細は図7を用いて後述する。
ステップS205では、周期パターン判定部254において、ブロック計数部253で計数されたブロックBLKの数が予め定められた所定数以上であるか否かの判定が行われる。ブロックBLKの数が所定数以上であると判定されたときは(ステップS205におけるYES)、そのブロックBLKを含む検証エリアVRはその左右領域の類似度に対称性があるので、周期パターン判定部254において、その検証エリアVRが周期パターンと判定され、ステップS206に進む。一方、ブロックBLKの数が所定数未満と判定されたときは(ステップS205におけるNO)、そのブロックBLKを含む検証エリアVRはその左右領域の類似度に対称性が無いので、周期パターン判定部254において、その検証エリアVRが周期パターンでないと判定され、図6の処理を終了して、図4のメインルーチンに戻る。
ステップS206では、周期パターン判定部254において、周期パターンと判定された検証エリアVRを、移動物体検知部240の検知の対象から除外するためのフラグが設定される。そのフラグ設定の後、図6の処理を終了して、図4のメインルーチンに戻る。
(ステップS203,S204で行われる処理の詳細)
次に、図7及び図8をそれぞれ用いて、ステップS203,S204(図6)で行われるブロックBLKの計数処理の詳細を説明する。
まず、ステップS301では、差分値算出部252において、テンプレート領域画像Tが取得される。このテンプレート領域画像Tは差分値算出部252に予め記憶される。図8には、このテンプレート領域画像Tの一例として、5画素×5画素の領域を有する蝶ネクタイ型の画像を示す。
ステップS302では、差分値算出部252において、縦25画素×横32画素のブロックBLK(図8参照)の中からサーチ領域画像Sが取得される。なお、図8中のXは、ブロックBLKの横方向の座標を示し、Yは、ブロックBLKの縦方向の座標を示すものとする。また、図8中に示す1〜67の番号は、各サーチ領域画像Sの中心画素に割り振られたID番号を示す。
ステップS303では、差分値算出部252において、テンプレート領域画像Tとサーチ領域画像Sとのパターンマッチングが行われ、各サーチ領域画像Sでの類似度が、以下の式(1)で示すSAD(Sum of Absolute Difference:輝度値の差の絶対値の合計)によって算出される。
ここで、ステップS302,S303に相当する処理は、各サーチ領域画像Sに割り振られたID番号の数に等しい回数分をID番号順に実行される。例えば、図8に示すブロックBLKの場合、その中に含まれる各サーチ領域画像SのID番号の最大値に等しい67回分、ID番号順にステップS302,S303に相当する処理が繰り返される。この繰り返し処理が完了すると、引き続き、ステップS304が実行される。
ステップS304では、差分値算出部252において、ブロックBLKの左右領域における類似度(SAD)の差分値が算出される。なお、ステップS304で行われる処理の詳細は図9を用いて後述する。
ステップS305では、ブロック計数部253において、類似度の差分値が予め定められた閾値以下であるか否かの判定が行われる。なお、ステップS305で行われる処理の詳細は図10及び図11を用いて後述する。類似度の差分値が閾値以下であると判定されたときは(ステップS305におけるYES)、ステップS306に進む。一方、類似度の差分値が閾値を超えると判定されたときは(ステップS305におけるNO)、ステップS307に進む。なお、ステップS305の判定処理で使用される閾値は検証により経験則で導き出された値である。
ステップS306では、ブロック計数部253において、ステップS305の判定条件を満たした回数が判定回数として計数され記憶される。
ステップS307では、ブロック計数部253において、判定回数が予め定められた閾値以上であるか否かの判定が行われる。判定回数が閾値以上であると判定されたときは(ステップS307におけるYES)、ステップS308に進む。一方、判定回数が閾値未満と判定されたときは(ステップS307におけるNO)、図7の処理を終了して、図6のメインルーチンに戻る。なお、ステップS307の判定処理で使用される閾値は検証により経験則で導き出された値である。
ステップS308では、ブロック計数部253において、ブロックBLKが計数され、図7の処理を終了して、図6のメインルーチンに戻る。
(ステップS304で行われる処理の詳細)
次に、図9を用いて、ステップS304(図7)で行われる差分値の算出処理の詳細を説明する。
ステップS304で行われる処理は、ブロックBLKにおける左右領域の類似度の対称性を判断することで行われる。具体的に、この処理は、左右領域の類似度の差分値を求めることで行われる。すなわち、差分値算出部252は、図9に示すように、ブロックBLKを左領域BLK_Lと、右領域BLK_Rとに分割する。差分値算出部252は、以下の式(2)によって類似度の差分値Subを算出する。
(ステップS305で行われる処理の詳細)
次に、図10及び図11を用いて、ステップS305(図7)で行われる判定処理の詳細を説明する。
図10(A)及び図11(A)は、路面を含む車両1の周辺を車載カメラ100で撮像した現在フレームFt(X,Y)の一例である。図10(A)の現在フレームFt(X,Y)には、路面を歩く歩行者が写り込んでいる。一方、図11(A)の現在フレームFt(X,Y)には、歩行者や車両等の物体は全く写り込んでいない。
図10(B)は、図10(A)中において歩行者の一部を太線の矩形枠で囲んだブロックBLKを左領域BLK_Lと右領域BLK_Rとに分割して、上記の式(2)によって類似度の差分値Subを算出した結果を示すグラフの一例である。このグラフが示すように、ブロックBLK内に差分値Subが閾値を超える箇所P(差分値Subが大きくなる箇所P)が存在することが判明した。これは、歩行者が写り込んだブロックBLKの左右領域の類似度に対称性が無いため、ブロックBLKの左右領域における類似度に差が生じやすいことに起因する。
図11(B)は、図11(A)中において石畳路面の一部を太線の矩形枠で囲んだブロックBLKを左領域BLK_Lと右領域BLK_Rとに分割して、上記の式(2)によって類似度の差分値Subを算出した結果を示すグラフの一例である。このグラフが示すように、ブロックBLK内のどの箇所においても差分値Subが閾値以下となること、つまり、差分値Subが小さくなることが判明した。これは、石畳路面が写り込んだブロックBLKの左右領域の類似度に対称性があるため、ブロックBLKの左右領域における類似度に差が生じやすいことに起因する。
以上説明したように、実施例1の物体検知支援装置200によれば、車載カメラ100にて撮像した画像からオプティカルフローOPを算出し、その算出結果を基に、歩行者や車両等の移動物体が検知される。その検知結果を基に、歩行者や車両等との衝突の可能性をドライバに警報する際、オプティカルフローOPをグルーピング処理した結果に対して検証エリアVR1〜VR3が設定される。
その検証エリアVR1〜VR3の各ブロックBLKにおいてパターンマッチングにより左右領域の類似度が算出される。その各ブロックBLKの左右領域の類似度が対称性を有するか否かによって、周期性のあるテクスチュアを備えた周期パターンが判定される。その判定された周期パターンは、移動物体検知部240によるオプティカルフローOPを用いた検知対象から除外される。つまり、移動物体検知部240においてオプティカルフローOPを用いた周期パターンの検知が無効化される。
このため、実施例1の物体検知支援装置200において、歩行者や車両等の移動物体を検知する場合に、例えば石畳路面のような周期性のある静止物体に対して、誤ったオプティカルフローOPが算出されてしまうことを抑制できる。従って、本来、衝突の可能性を警報する必要のないシーンにおいて、ドライバに対して誤った警報が出されてしまうことを抑制できる。
実施例2は、ポイント制を採用した、周期パターンの除外処理が複数のフレームに亘って時系列で行われる。
(物体検知支援装置で行われる一連の処理の流れ)
以下、図4及び図12に示すフローチャートと、図13とを用いて、実施例2に係る物体検知支援装置で行われる周期パターンの除外処理の流れを説明する。なお、実施例1と構成と作用が実質的に同一である場合は同一符号を付して説明を省略する。
この処理では、車載カメラ100において、石畳路面を含む車両1の周辺の画像が、所定の時間間隔でN回撮像される。その撮像された画像は、画像取得部210により取得される。その画像取得部210により取得されるフレームFの数をN個とする。
なお、実施例1に係る物体検知支援装置で行われる周期パターンの除外処理のステップS201〜ステップS206(図6参照)と、実施例2に係る物体検知支援装置で行われる周期パターンの除外処理のステップS211〜ステップS216とは、順に同様のものであるので、ここでは、ステップS210,S217,S218を中心に詳細な説明を行う。
まず、ステップS210では、周期パターン判定部254において、画像取得部210で第1番目に取得されるフレームF1を示すポインタ(フレーム番号)として、X=1とする。
続いて、ステップS211〜ステップS215が実行され、続くステップS216で周期パターン判定部254において、フレームF1で設定された検証エリアVRを、移動物体検知部240による検知対象領域から除外するフラグに相当するポイントが積算された後、処理はステップS217に移行する。
ステップS217では、周期パターン判定部254において、ポインタXがNに到達したか否かの判定が行われる。ポインタXがNに到達したと判定されたときは(ステップS217におけるYES)、図12の処理を終了して、図4のメインルーチンに戻る。一方、ポインタXがNに未到達と判定されたときは(ステップS217におけるNO)、処理はステップS218に進む。
ステップS218では、周期パターン判定部254において、ポインタXに1が加算される。その加算の後、周期パターン判定部254において、フレームF1に後続するフレームFX(X=2〜N)に対して、同様の処理(ステップS211〜ステップS217に相当する処理)が反復して実行される。
図13は、周期パターン判定部254によるフラグの設定処理にポイント制を採用した結果を示すグラフの一例である。そのグラフの横軸tは時刻[sec]を示し、縦軸は、フラグに相当するポイントの積算値を示す。そのグラフは、アスファルト路面又は石畳路面を含む車両1の周辺を撮像することで得られた21枚のフレームFX(X=1〜21)に対して、図12に示す周期パターンの除外処理(図12)を施した結果を示す。なお、この処理でのフレームレートFRは0.1[sec]とした。
図13中の警報抑制領域は、ポイントの積算値が閾値である10以上となる領域であって、警報出力装置500等による警報出力が抑制される領域を示す。図13中の非警報抑制領域は、ポイントの積算値が閾値である10未満となる領域であって、警報出力装置500等による警報出力が抑制されない領域を示す。図13に示すように、21枚のフレームFX(X=1〜21)に対して周期パターンを除外する処理を施した結果、8枚目のフレームF8に対する処理が完了した時刻0.8[sec]のとき、積算値が閾値である10に達した。その積算値は、9枚目のフレームF9に対する処理が完了した時刻0.9[sec]のとき、12まで上昇した。その積算値は、10枚目のフレームF10に対する処理が完了した時刻1.0[sec]のとき、再び、閾値である10まで降下した。その積算値は、11枚目のフレームF11に対する処理が完了した時刻1.1[sec]のとき、11まで上昇した。その後、積算値は、16枚目のフレームF16に対する処理が完了した時刻1.6[sec]において閾値である10に降下するまでの間、警報抑制領域内に保持された。
以上説明したように、実施例2の物体検知支援装置によれば、ポイント制を採用した、周期パターンの除外処理が複数のフレームFX(X=1〜21)に亘って時系列で行われる。
すなわち、フレームFX(X=1〜21)のそれぞれが、予想外のノイズ等の影響を受けて、ポイントの積算値が閾値未満となる領域まで落ち込んだとしても時系列的な判断がなされるので、その都度、警報出力装置500等による警報が出力されてしまうことが抑制される。このため、フレームFX(X=1〜21)の全体としては、ポイントの積算結果を安定して保持することができる。
従って、ドライバに対して誤った警報が出されてしまうことがより高精度に抑制される。
なお、実施例1及び実施例2では、オプティカルフローOPの算出方法にブロックマッチング法を用いる例を示した。しかし、これに限らない。例えば、オプティカルフローOPの算出方法に勾配法を用いても良い。
なお、実施例1及び実施例2では、差分値算出部252が、テンプレートマッチングに関する評価指標として、SAD(Sum of Absolute Difference)を用いて、各ブロックBLKの左右領域における類似度の差分値を算出する例を示した。しかし、これに限らない。例えば、差分値算出部252は、テンプレートマッチングに関する評価指標として、SSD(Sum of Squared Difference)、NCC(Normalized Cross-Correlation)等を用いて、各ブロックBLKの左右領域における類似度の差分値を算出しても良い。
なお、実施例1及び実施例2では、車載カメラ100の主な視野を車両1の前方向とする例を示した。しかし、これに限らない。例えば、車載カメラ100の主な視野を車両1の後方向としても良い。
なお、実施例1及び実施例2では、異なる時刻に撮像された時間軸上で隣接する2枚のフレームFを比較してオプティカルフローOPを算出する例を示した。しかし、これに限らない。例えば、時間軸上で隣接していない2枚のフレームFを比較したり、あるいは、3枚以上のフレームFを比較したりしてオプティカルフローOPを算出しても良い。
なお、実施例1及び実施例2では、本発明の物体検知支援装置を、車両に適用する例を示した。しかし、本発明の物体検知支援装置は、移動体(例えば、路面電車等)についても同様に適用できる。
以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。
1・・・車両(移動体)
10・・・物体検知支援システム
100・・・車載カメラ(撮像部)
200・・・物体検知支援装置
240・・・移動物体検知部
241・・・オプティカルフロー算出部
243・・・グルーピング処理部
250・・・周期パターン除外部
251・・・検証エリア設定部
252・・・差分値算出部
253・・・ブロック計数部
254・・・周期パターン判定部
BLK・・・ブロック
BLK_L・・・左領域
BLK_R・・・右領域
F、FX、Ft−Δt(X,Y)、Ft(X,Y)・・・フレーム
OP・・・オプティカルフロー
OPG1、OPG2・・・オプティカルフロー群
SAD・・・類似度
Sub・・・差分値
VR、VR1〜VR3・・・検証エリア

Claims (3)

  1. 移動体に搭載された撮像部によって撮像され、且つ、時系列的に得られる複数のフレームとして与えられる動画像上の移動情報であるオプティカルフローを用いて抽出される物体を前記フレームの領域から検知する移動物体検知部と、
    前記オプティカルフローによって抽出された部分における左右領域の類似度に応じて、前記抽出された部分を周期性のあるテクスチュアが存在する周期パターンと判定し、当該周期パターンを前記移動物体検知部による検知の対象から除外する周期パターン除外部と、
    を有することを特徴とする物体検知支援装置。
  2. 請求項1に記載の物体検知支援装置において、
    前記周期パターン除外部は、前記左右領域の類似度の対称性を算出し、その算出結果に応じて、前記抽出された部分を前記周期パターンと判定することを特徴とする物体検知支援装置。
  3. 請求項1又は請求項2に記載の物体検知支援装置において、
    前記移動物体検知部は、
    前記オプティカルフローを算出するオプティカルフロー算出部と、
    前記オプティカルフロー算出部で算出されたオプティカルフローを予め設定した評価基準に基づいてグルーピングするグルーピング処理部と、を有し、
    前記周期パターン除外部は、
    前記グルーピング処理部でグルーピングされたオプティカルフローの集合であるオプティカルフロー群に対応する検証エリアを設定する検証エリア設定部と、
    前記検証エリア設定部で設定された検証エリアを複数のブロックに分割し、前記ブロック毎にパターンマッチングを行い、各ブロック内における左右領域の類似度の差分値を算出する差分値算出部と、
    前記差分値算出部で算出された差分値が予め定められた閾値以下となるブロックを左右領域の類似度に対称性があるブロックとして計数するブロック計数部と、
    前記ブロック計数部で計数されたブロックの数が予め定められた所定数以上である場合、前記検証エリアを前記周期パターンと判定する周期パターン判定部と、
    を有することを特徴とする物体検知支援装置。
JP2017061463A 2017-03-27 2017-03-27 物体検知支援装置 Active JP6833259B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017061463A JP6833259B2 (ja) 2017-03-27 2017-03-27 物体検知支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017061463A JP6833259B2 (ja) 2017-03-27 2017-03-27 物体検知支援装置

Publications (2)

Publication Number Publication Date
JP2018163592A JP2018163592A (ja) 2018-10-18
JP6833259B2 true JP6833259B2 (ja) 2021-02-24

Family

ID=63861067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017061463A Active JP6833259B2 (ja) 2017-03-27 2017-03-27 物体検知支援装置

Country Status (1)

Country Link
JP (1) JP6833259B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6769500B2 (ja) * 2019-02-13 2020-10-14 株式会社Jvcケンウッド 車両用映像制御装置、車両用映像システム、映像制御方法、及びプログラム
WO2021075377A1 (ja) * 2019-10-14 2021-04-22 株式会社デンソー 物体検知装置、物体検知方法、および物体検知プログラム
JP7535442B2 (ja) 2020-11-27 2024-08-16 日産自動車株式会社 車両支援方法及び車両支援装置

Also Published As

Publication number Publication date
JP2018163592A (ja) 2018-10-18

Similar Documents

Publication Publication Date Title
JP7025912B2 (ja) 車載環境認識装置
EP2352136B1 (en) System for monitoring the area around a vehicle
JP3846494B2 (ja) 移動障害物検出装置
US8406472B2 (en) Method and system for processing image data
WO2016129403A1 (ja) 物体検知装置
CN113998034A (zh) 骑乘者辅助系统和方法
JP6014440B2 (ja) 移動物体認識装置
JP5574789B2 (ja) 車両周辺監視装置及び車両周辺監視方法
JP6073358B2 (ja) 車体部及び/又は車輪と対象物との衝突を回避するための能動的警報及び/又はナビゲーション補助の方法
WO2010058821A1 (ja) 接近物体検知システム
US11691585B2 (en) Image processing apparatus, imaging device, moving body device control system, image processing method, and program product
JP2013225295A5 (ja)
WO2017130640A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2013232091A (ja) 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
JP5898001B2 (ja) 車両周辺監視装置
JP5482672B2 (ja) 移動物体検出装置
JP6833259B2 (ja) 物体検知支援装置
US20160314363A1 (en) Obstacle detection apparatus and method
US20180012068A1 (en) Moving object detection device, image processing device, moving object detection method, and integrated circuit
JP2018060422A (ja) 物体検出装置
KR20180047149A (ko) 충돌 위험 경고 장치 및 방법
JP4864953B2 (ja) 車両周辺監視装置
JP5832850B2 (ja) 車線監視システム及び車線監視方法
JP4823753B2 (ja) 車両の周辺監視装置
JP3586938B2 (ja) 車載用距離測定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210201

R150 Certificate of patent or registration of utility model

Ref document number: 6833259

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150