JPWO2009078056A1 - 移動物検知装置及び移動物検知プログラム - Google Patents

移動物検知装置及び移動物検知プログラム Download PDF

Info

Publication number
JPWO2009078056A1
JPWO2009078056A1 JP2009546072A JP2009546072A JPWO2009078056A1 JP WO2009078056 A1 JPWO2009078056 A1 JP WO2009078056A1 JP 2009546072 A JP2009546072 A JP 2009546072A JP 2009546072 A JP2009546072 A JP 2009546072A JP WO2009078056 A1 JPWO2009078056 A1 JP WO2009078056A1
Authority
JP
Japan
Prior art keywords
feature point
image frame
time
moving object
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009546072A
Other languages
English (en)
Other versions
JP4957807B2 (ja
Inventor
水谷 政美
政美 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2009078056A1 publication Critical patent/JPWO2009078056A1/ja
Application granted granted Critical
Publication of JP4957807B2 publication Critical patent/JP4957807B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

動画像からの移動物検知装置の第1の手段において、時刻tに取得した画像フレームと時刻t−1に取得した画像フレームとに基づいて、時刻t−1に取得した画像フレーム内の各特徴点についての移動量を算出する。第2の手段と、第1の手段により算出した移動量が所定の値よりも小さい特徴点について、時刻t−1に取得した画像フレームとt+mに取得した画像フレームとに基づいて、時刻t−1に取得した画像フレーム内の該特徴点についての移動量を算出する。

Description

本発明は、動画像から移動物を検知する技術に関し、特に、接近する移動物を画像処理により検知する技術に関する。
従来より、見通しが悪い交差点等におけるドライバの運転判断支援を目的として、車両の先端等にカメラを設置して、カメラからの車両左右方向の映像を、車載ディスプレイに表示させる車載型死角カメラ映像表示装置(ブラインドコーナーモニタ)がある。ドライバは、モニタに表示された映像で車両左右方向を確認することにより、接近物体の見落としを低減させる。
しかし、遠方から接近する物体については、以下の性質により、ドライバがモニタに十分な注意を払っているつもりであっても、見落としや誤判断が生じて交通事故につながる危険があった。
すなわち、遠方から接近する物体は、画像中を占める領域サイズが小さいため、背景に溶け込み易く、ドライバにとっては車両やオートバイ等の形状に気づきにくい。また、接近物体であるために、画像上においては移動量が小さく、移動していてもその変化に気づきにくい。これに対し、カメラ映像データから画像処理によって接近物体を検知し、接近物体の画像領域を強調表示させる技術について提供されている(例えば、特許文献1)。
ところで、動画像から移動する物体を検出する技術の1つとして、オプティカルフロー方式があり、オプティカルフロー方式を大きく分けるとブロックマッチング法と勾配法とがある。
上記のとおり、遠方から接近する物体については画像上の動きが小さく、1画素未満となる場合もある。例えばあるカメラレンズの設定においては約50メートル先の接近中の車両をブラインドコーナーモニタで検知するには、1画素の水平移動を観測するために5フレーム程度が必要となる。
この場合は、ブロックマッチング法によりオプティカルフローを求めようとすると、サブピクセル推定を行わない限り、フローは0と算出されてしまう。これにより、従来の移動物検知技術においては、遠方領域に対する検出精度が不足していた。
上記の特許文献1に記載されている移動体判定方法においては、遠方の領域のオプティカルフローについては、サブピクセル推定機能を有する勾配法を用い、これにより、1画素未満のフローを算出している。
しかし、勾配法においては、2フレーム間では輝度は不変であるという仮定の下で数学的近似を用いている。このため、算出値自体が不安定になる傾向があるという欠点があった。
また、一般的に、サブピクセル推定を行うと、動領域に1画素以下のフローの値が算出できる一方で、静止領域にも0以外のフローが算出され、動領域/静止領域の区別が困難となる欠点があった。
さらに、特許文献1では、ブロックマッチング法と勾配法の組み合わせによって動領域と静止領域との区別をするために、画像の領域が遠距離領域あるいは近距離領域のいずれであるかを示す情報が必要となる、という課題があった。
更には、勾配法は複雑な除算処理を含む。このため、処理速度が遅く、またハードウェア実装が困難である。その上、勾配法によれば細かい動きまで検出できてしまうため、ノイズも多く拾ってしまう、という課題があった。
一方、ブロックマッチング法により1画素未満のフローを算出する場合は、フローの算出に使用する2フレームの間隔を、1時刻よりも長く取る必要がある。しかし、使用する2フレーム間の時間間隔を単純に間延びさせるだけでは、高速に移動する物体や近距離付近に存在する物体については、動きが大きくなりすぎ、あるフレーム中の物体を示す点に対応する他方のフレーム中の点が探索範囲を超えてしまう、という情況が発生してしまう。これにより、誤ったフローが算出されてしまう、という課題があった。
また、フレームごとに移動物体の検知を行うとすると、間延びさせた分の画像フレームを記憶させなければならず、メモリが大量に必要となる、という課題があった。
特開2007−172540号公報
本発明は、動画像から移動物を検出するときに、より簡易な構成で、近距離の移動物体の検出精度を維持しつつ、遠方の移動物体の検出精度を省メモリ、省計算量で向上させることのできる技術を提供することを目的とする。
この動画像からの移動物検知装置の特徴は、時刻tに取得した画像フレームと時刻t−1に取得した画像フレームとに基づいて、時刻t−1に取得した画像フレーム内の各特徴点についての移動量を算出する第1の手段と、前記第1の手段により算出した移動量が所定の値よりも小さい特徴点について、前記時刻t−1に取得した画像フレームとt+m(m>0)に取得した画像フレームとに基づいて、時刻t−1に取得した画像フレーム内の該特徴点についての移動量を算出する第2の手段と、を備えることにある。
まず、第1の手段において、時刻t−1及び時刻tに取得した連続する画像フレーム間で特徴点の移動量を計算する。計算した結果、移動量が所定の値未満であるときは、第2の手段において、2以上時刻の離れた画像フレーム間で特徴点の移動量を計算する。画像中動きの大きい物体については第1の手段において検知することができ、画像中動きの小さい物体については第2の手段において検知することができる。
前記第2の手段により算出した移動量が所定の値よりも小さい特徴点について、前記mの値をインクリメントして、再度、前記第2の手段を実行する構成としてもよい。時刻t−1に取得した画像フレームから抽出した特徴点について動きを追跡することができる。
なお、本発明は、上記の移動物検知装置に限らない。上記の移動物検知方法やその方法をコンピュータに実行させるプログラム等であっても、本発明に含まれる。
本発明の実施形態に係る車載型死角カメラ映像装置の構成図である。 特徴点追跡処理部のより詳細な構成を示す図である。 特徴点の追跡処理を説明する図である。 特徴点の追跡に伴う特徴点追跡管理テーブルの更新を示す図である。 特徴点追跡管理テーブルから冗長な項目を削除する処理を説明する図である。 冗長な項目の削除に伴う特徴点追跡管理テーブルの更新を示す図である。 新たに特徴点を抽出する処理を説明する図である。 新たに抽出された特徴点について項目を追加することによる、特徴点追跡管理テーブルの更新を示す図である。 本実施形態に係る接近物検知処理を示すフローチャートである。
以下、本発明の好適な実施の形態について、図面を参照しながら詳細に説明する。
図1は、本発明の実施形態に係る車載型死角カメラ映像装置の構成図である。図1(a)に示す車載型死角カメラ映像装置10は、車載装置1、カメラ装置4及びディスプレイ装置5を含んで構成される。
カメラ装置4は、実施例においては、魚眼レンズあるいはプリズムレンズから構成され、車両の左右方向の画像が得られるように調整されて配置される。カメラ装置4は、所定の時間間隔で画像を取得し、取得した画像を車載装置1に与える。
ディスプレイ装置5は、カメラ装置4において撮影した映像及び車載装置1において加工した映像を出力表示させ、車両の運転席から出力された映像を確認できる位置に設けられている。
車載装置1は、接近物体検出部2及び合成映像データ生成部3を含む。車載装置1は、カメラ装置4から入力された映像データから移動物を検知して、ディスプレイ装置5に映像を出力表示するときに、検知した移動物を強調表示させる。
接近物体検出部2は、2つの画像フレーム間について算出したオプティカルフローにより、接近物体を検出する。合成映像データ生成部3は、接近物体検出部2において検出した接近物体については画像を加工して、透過的に色分け表示する等により表示変更して、ディスプレイ装置5に出力表示させる。
図1(b)は、接近物検出部2の構成をより具体的に示す図である。接近物検出部2は、特徴点算出処理部21、特徴点登録処理部22、特徴点追跡管理テーブル23、適応的時間差制御型特徴点追跡処理部(以下の説明においては特徴点追跡処理部と略記)24及び出力処理部25を含んで構成される。
特徴点算出処理部21は、画像フレームから画像のコーナー(角)等を示す特徴点を抽出する。特徴点の抽出には、実施例においては、画像上の物体形状のコーナーによく反応するハリスオペレータを用い、ハリスオペレータの演算結果から、局所窓内で評価値が極大値をとる座標を算出することにより求めている。特徴点登録処理部22は、特徴点算出処理部21において抽出した特徴点に関わる情報を、特徴点追跡管理テーブル23に登録する。
特徴点追跡処理部24は、特徴点追跡管理テーブル23を参照し、所定の条件を満たす場合には、新たに入力された画像フレームから、特徴点追跡管理テーブル23に登録されている特徴点についてのオプティカルフローを算出する。そして、算出したオプティカルフローの値に応じて、特徴点追跡管理テーブル23を更新する。特徴点追跡処理部24における処理の詳細については後述する。
出力処理部25は、特徴点追跡管理テーブル23に格納されている特徴点に関わる情報を参照して、ディスプレイ装置5に出力を変更して表示すべき特徴点に関わる情報を示す出力リスト26を作成する。ディスプレイ装置5には、最新の特徴点近傍領域の部分画像の中から、特徴点の周辺のエッジ領域を公知技術により取り出して、取り出したエッジ領域に透過的な色分け等を行った合成画像が出力される。
図2は、特徴点追跡処理部24のより詳細な構成を示す図である。特徴点追跡処理部24は、オプティカルフロー算出部31、フロー評価部32、特徴点管理テーブル更新部33及び冗長トラック削減部34を含んで構成される。以下、図2を参照して、特徴点追跡処理について説明する。
オプティカルフロー算出部31は、入力された時刻tの画像フレームからオプティカルフローを算出する。オプティカルフローを算出するときに、まず、特徴点追跡管理テーブル23を参照してその特徴点を検出した時刻t−n(n≧2)を取り出し、時刻t−nと現時刻tの時刻差|t−(t−n)|=|n|と所定のしきい値Thとを比較する。時刻差がしきい値Th未満である場合には、その特徴点についてオプティカルフローを算出する。本実施形態においては、ブロックマッチング法を用いて、時刻tの画像フレームから9×9画素のブロックを取り出して、ブロックの類似点の評価関数として、SAD(差分絶対値和)を使用してオプティカルフローを算出する。オプティカルフローは、以下の式で定義する。
Figure 2009078056
上の(1)式のうち、まず、上段の計算(中心座標同士のSAD値の評価)を行い、所定のしきい値ThSADよりも小さい場合は、動きは0とする。これは、図1に示す車載型死角カメラ映像装置10は、交差点での車両停止状態において利用されることが多いことに基づく。すなわち、最初に画像の中心座標(交差点中心付近)についてフローを算出し、フローが0でない場合についてのみ以降の処理を実行する構成とすることで、オプティカルフロー算出の総計算量を削減できる。
フロー評価部32は、オプティカルフロー算出部31において算出したフローv(u、v)の大きさを評価する。具体的には、フローの大きさ|v|が所定のしきい値Vよりも大きい場合には、その特徴点について、接近物体であるか否かを判定する。
具体的には、フローvのうち水平成分の向きが、画面中央等の基準点に対して内向きであるか否か等により判定する。これは、例えば魚眼レンズにより取得した画像のうち、魚眼レンズを取り付けた車両に対して左右から車両に近づく物体については画像の中央へと移動することに基づく。なお、車両が移動中の場合には、車両に接近する物体については画面中央方向へと移動し、背景については画面の外側方向へと移動する。このように、実施例においては、特徴点近傍領域が他の領域と比べてユニークな動きをすることに着目し、その動きを検出することにより、接近物体か否かを判定している。
カメラ装置4に魚眼レンズ以外のレンズ、例えばプリズムレンズその他の通常のレンズを用いる場合であっても、移動物体の移動方向と背景の移動方向が逆になる画像については、上記の方法により移動物体を検出することが可能である。
特徴点管理テーブル更新部33は、フロー評価部32において移動物体の接近フローと判定された場合に、特徴点追跡管理テーブル23を更新する。特徴点追跡管理テーブル23には、特徴点ごとにその座標を含む情報が格納されており、特徴点管理テーブル更新部33は、フローvの各成分の値を加算することにより、座標値を更新する。
冗長トラック削減部34は、特徴点追跡管理テーブル23により管理されている特徴点のうち、冗長と判定した特徴点については、その情報をテーブルから削除する。冗長と判定してテーブルから情報を削除する場合の例としては、互いに距離の近い特徴点同士については、一方のみを残す場合や、一定の期間以上に渡り追跡ができていない特徴点が存在する場合等である。冗長トラック削減処理については、後述する。
次に、図3及び図4を参照して、特徴点を追跡して特徴点追跡管理テーブル23を更新する処理について、具体的に説明する。
図3は、特徴点の追跡処理を説明する図であり、図4は、特徴点の追跡に伴う特徴点追跡管理テーブル23の更新を示す図である。なお、ここでは、説明の簡単のため、接近フローと判定される特徴点についてのみ図示している。
図3においては、時刻t−1、t、t+1における画像フレーム、各時刻の画像フレームから抽出された5つの特徴点及び特徴点の近傍領域を図示している。
図4(a)は、時刻t−1における画像フレームについて接近物検出処理を実行した後の特徴点追跡管理テーブル23を示す図であり、図4(b)は、時刻tにおける画像フレームについて接近物検出処理を実行した後の特徴点追跡管理テーブル23を示す図であり、図4(c)は、時刻t+1における画像フレームについて接近物検出処理を実行した後の特徴点追跡管理テーブル23を示す図である。
図4に示すように、特徴点追跡管理テーブル23は、項番ごとに、画像パッチデータ情報、座標、時刻(TM)及び追跡回数が格納されている。
項番は、抽出された特徴点を識別するための識別情報である。画像パッチデータ情報は、特徴点の近傍領域についての部分画像データ(パッチデータ)を識別するための識別情報である。座標は、特徴点の位置座標が格納される。時刻は、その特徴点が検出された最新のタイムスタンプが格納される。追跡回数は、特徴点が上記のフロー検出処理において検出された回数が格納される。
特徴点追跡管理テーブル23において、それぞれの特徴点について、該特徴点の近傍領域の画像(周辺画像)を、前記各データと併せて格納しても良い。特徴点の近傍領域の画像(周辺画像)を格納する構成にすれば、特徴点の追跡のために過去のt−1〜t−Tの各フレームをそのまま記憶しておくためのメモリ(容量フレームサイズ×T)を保持する必要が無くなる。例えば、この構成をLSIに搭載した場合、外側にDRAMとしてフレーム記憶用のメモリを備える必要が無くなる。また、空間的に冗長な特徴点の削除・マージ処理を導入していることで、過去T以上を遡っても、1フレームサイズ相当のメモリ領域だけを確保すれば良いことになり、装置の低コスト化に寄与することができる。
時刻tにおける画像フレームが図1に示す接近物体検出部2に入力されると、特徴点追跡管理テーブル23から、過去(図3及び図4に示す例では時刻t−1)において抽出された特徴点の座標を読み出す。読み出した座標の周辺の領域を探索して、特徴点に対応する点が含まれる領域を求め、フローを算出する。
項番「1」の特徴点については、時刻t−1からtの間のフローは0である。このため、図4(a)及び図4(b)に示すとおり、時刻tにおける画像フレームについて接近物検出処理を実行する前後で更新はなされていない。連続するフレーム間でフローが検出されなかったときは、更に次の時刻の画像フレームとの間でフローを算出する。しかし、項番「1」の特徴点については、時刻t−1からt+1の間についてもフローが0であるため、図4(b)及び図4(c)に示すように、時刻t+1における画像フレームについて接近物検出処理を実行する前後で更新されていない。
項番「2」の特徴点については、時刻t−1からtの間については、上記と同様にフローは0であり、図4(a)及び図4(b)の間ではデータ更新はなされていない。しかし、時刻t−1からt+1の間については0以外のフロー(v2´)が検出されている。このため、図4(c)に示すように、時刻t+1の画像フレームについて接近物検出処理実行後の特徴点管理テーブル23においては、項番2の特徴点の座標として、時刻t−1の特徴点の座標に算出したフローv2´を加算して得られる値が格納されている。また、追跡回数については、1を加算した値「N2+1」が格納され、時刻については、フローが検出された最新の画像フレームに対応する時刻が格納される。
なお、ここでは、最初に特徴点を検出した時刻における特徴点の座標にフローを加算して新たに特徴点の座標値を得ているが、これには限らない。例えば、0以外のフローを検出することができた時刻の画像フレームから特徴点を抽出し、抽出した特徴点の座標を得る構成とすることもできる。
項番「3」〜「5」の特徴点については、時刻t−1と時刻tとの間、時刻tと時刻t+1との間のいずれにおいてもフローが検出されている。この場合は、時刻t−1及びtの画像フレーム間で算出したフロー(v3、v4及びv5)及び時刻t及びt+1の画像フレーム間で算出したフロー(v3´、v4´及びv5´)に基づいて、座標値を順次更新していく。時刻及び追跡回数についても、上記と同様に更新される。
以上説明したように、図1に示す車載型死角カメラ映像装置10によれば、画像フレームから、画像中のコーナー等を特徴点として抽出し、抽出した特徴点の動きを追跡する。特徴点ごとに、特徴点が抽出された時刻以後の画像フレームから特徴点に対応する領域を探索し、オプティカルフローを算出する。オプティカルフロー算出中のSAD値が所定のしきい値ThSAD未満の場合にはオプティカルフローを0とする。フローvの大きさ|v|が所定のしきい値Vよりも大きいこと判定することで、所定の画素以上の動きを検出している。連続する2つの画像フレーム間で動きが検出されない場合についてのみ、所定の観測期間Thに渡って特徴点の動きを評価する。これにより、省計算量で遠方の移動物体の検出精度の向上を実現させている。
また、本実施形態に係る車載型死角カメラ映像装置10においては、抽出された特徴点の近傍領域の部分画像データをパッチデータとして保持しておくとともに、特徴点追跡管理テーブル23に座標値を格納しておく。オプティカルフローの算出等の処理においては、過去のある時点の特徴点に対応する点を現在の時刻についての画像フレームから求める構成としているため、過去の画像データを全て記憶させておく必要がなく、遠方の移動物体の検出を省メモリで実現することが可能となる。
具体的には、パッチデータサイズを9×9画素とすると、特徴点は最大で約150点存在するため、パッチデータの保持には、9×9×150≒約11キロバイト要する。1画像フレームのサイズは180×80画素≒約14キロバイトであり、1画像フレーム未満の記憶領域で済む。
次に、特徴点追跡管理テーブル23から冗長なトラックを削減する処理について説明する。
図5は、特徴点追跡管理テーブル23から冗長な項目を削除する処理を説明する図であり、図6は、冗長な項目の削除に伴う特徴点追跡管理テーブル23の更新を示す図である。図5においては、時刻tの画像フレームを示す。時刻t以前の時刻においては、5つの特徴点が抽出されている。
図5に示すように、5つの特徴点のうち項番3、4、5の特徴点の座標は、時刻tの画像フレーム上では互いに近い。この場合は、ある物体について特徴点が複数抽出されていることが考えられる。このため、互いの距離が所定の値D以下である特徴点が複数存在する場合は、少なくとも1点についてはテーブルに残し、他の特徴点についての項目については、テーブルから削除する。実施例においては、追跡回数が最大である1項目のみを残し、他の項目については削除している。
図6(a)は、冗長な項目を削除する前の特徴点追跡管理テーブル23を示す図であり、図6(b)は、冗長な項目を削除した後の特徴点追跡管理テーブル23を示す図である。
互いの特徴点間の距離が所定の値D以下であるとの条件を満たす3つの特徴点(図5においては#3、#4、#5)については、追跡回数(図6中においてはLENと表記)が最大の値を取る特徴点、すなわち追跡回数が5回である項目(項番5の項目)のみを残し、項番3、4の項目については特徴点追跡管理テーブル23から削除する。そして、2つの項目を削除すると、削除前には項番5であった項目について、項番を繰り上げて項番「3」と更新している。
上記の実施例においては、特徴点追跡管理テーブル23に登録されている特徴点のうち、近傍の点同士については長く追跡できている点を残し、他についてはテーブルから削除することとしている。ここでは、長く追跡できている方を信頼することとしているためである。
他の実施例としては、特徴点追跡管理テーブル23の更新において、過去の画像パッチデータ情報、座標及び時刻等をリストとして管理しておき、リスト長もしくは時間長が最も長い項目について残す構成としてもよい。
更に、追跡回数等の条件に、他の条件を追加することもできる。例えば、移動軌跡がより直線的なものを選択してテーブルに残す構成とすることもできる。
この場合は、各特徴点についての最新の画像及び座標値から、特徴点ごとに直線方程式を最小二乗法等により求める。そして、所定の誤差の範囲内で特徴点が求めた直線方程式にのるか否かにより、その特徴点の移動軌跡を求めた直線方程式に近似することの適・不適を判断する。移動軌跡がより直線的な特徴点を残す構成とすることにより、道路を走行中の車両等の移動を検出することが可能となる。
この他、例えば、魚眼レンズを用いるシステム構成においては、1秒間以上動きが追跡できない項目については削除する構成とすることもできる。
図7は、新たに特徴点を抽出する処理を説明する図であり、図8は、新たに抽出された特徴点について項目を追加することによる、特徴点追跡管理テーブル23の更新を示す図である。図7及び図8を参照して、入力された画像データから特徴点を新たに抽出する処理について具体的に説明する。
図7(a)は、時刻t以前に追跡していた特徴点を示し、図7(b)は、時刻tの画像フレームから抽出した特徴点を示す。図1の説明において述べたとおり、実施例においては、特徴点はハリスオペレータを用いて抽出している。
時刻tの画像フレームから抽出された特徴点は、#FT1、2、3、4の4つである。これら4つの特徴点と、特徴点追跡管理テーブル23に既に登録されている特徴点#1〜5との距離を求める。距離が所定のしきい値Dab以上である場合、すなわち、既に登録されている特徴点と新たに抽出された特徴点とが距離Dab以上離れている場合は、新たに抽出された特徴点について、座標等の情報を特徴点追跡管理テーブル23に登録する。そして、時刻tの画像フレームから新たに抽出された特徴点の部分画像データを取り出して、メモリに記憶させる。メモリに記憶させていた過去の部分画像データについては削除する。
図7に示す例では、時刻tの画像フレームから新たに抽出された特徴点のうち、特徴点#FT3については、すでにテーブルにおいて管理されている特徴点との距離がしきい値Dab以上である。この場合は、特徴点#FT3について、特徴点追跡管理テーブル23に座標等の情報を登録し、部分画像データを記憶させる。
図8に示すように、特徴点追跡管理テーブル23のうち、新たに追加される特徴点については、項番「6」の項目に登録されている。時刻tの画像フレームのうち特徴点#FT3の近傍領域についての部分画像データ#FT3を示す情報が記憶され、座標としては、時刻tの画像フレームにおける特徴点#FT3の座標が格納されている。
図9は、本実施形態に係る接近物検知処理を示すフローチャートである。図9に示す処理は、カメラ装置4において取得した画像フレームが入力されるごと(実施例においては30分の1秒ごと)に実行される。
まず、ステップS1で、入力された画像フレームを取得した時刻tが開始時刻であるか否か判定し、開始時刻である場合には、接近物検知処理については行わず、ステップS10に進む。時刻tが開始時刻でない場合は、ステップS2に進む。
ステップS2で、特徴点追跡管理テーブル23に登録されている項目の1つを参照し、画像フレームの時刻tと、テーブルに格納されている時刻とを比較し、時刻差がしきい値Th未満であるか否かを判定する。時刻差がしきい値Th未満である場合にはステップS3に進む。時刻差がしきい値Th以上である場合は、ステップS7に進み、その項目については特徴点追跡管理テーブル23から削除し、ステップS2に戻り次の項目について時刻差の判定を行う。
ステップS3で、時刻t(現時刻)の画像フレームから、特徴点追跡管理テーブル23の参照している項目に対応するブロックを取り出し、上記の(1)式によりオプティカルフローvを算出する。そして、ステップS4で、算出したオプティカルフローvの大きさ|v|がしきい値Vよりも大きいか否かを判定する。
ステップS4において、オプティカルフローvの大きさがしきい値V以下であると判定された場合は、その項目については、時刻tの画像フレームからは動きが検出することができなかったと判断し、ステップS2に戻る。
ステップS4において、オプティカルフローvの大きさがしきい値Vよりも大きいと判定された場合は、ステップS5に進み、更に、算出したフローvが接近フローであるか否かを判定する。上記のとおり、実施例においては、オプティカルフローvの水平成分の向きに基づいて接近フローか否かを判定する。ステップS5において、接近フローでないと判定された場合は、ステップS2に戻り、次の項目について上記と同様の処理を実行する。ステップS5において、接近フローと判定された場合は、ステップS6に進む。
ステップS6で、参照している項目について更新処理を行う。具体的には、座標を「x+v」に、時刻については「t」にそれぞれ更新し、追跡回数については1インクリメントする。画像パッチデータについては、時刻tの部分画像データを保持していることを示す情報に更新する。
以降、特徴点追跡管理テーブル23に登録されている全ての項目について上記の処理を実行する。全ての項目について上記の処理を実行したか否かを判定し、全ての項目について処理を実行したと判定されると、ステップS8に進む。
ステップS8で、特徴点追跡管理テーブル23から、冗長な特徴点についての項目を削除する。削除の具体的な方法については、図5及び図6を参照して説明したとおりである。
ステップS9で、接近物検知処理の結果を出力する。ステップS9においては、例えば、追跡回数が所定のしきい値TN以上になった項目について出力する。ステップS10で、時刻tの画像フレームから新たに特徴点の抽出を行い、ステップS11で、新たに追加する特徴点について、必要な情報を特徴点追跡管理テーブル23に登録し、処理を完了する。ステップS10及びステップS11における新たな特徴点の抽出処理及びテーブル23への登録処理については、図7及び図8を参照して説明したとおりである。
以上説明したように、本実施形態に係る車載型死角カメラ映像装置10によれば、時刻ごとに取得する画像フレームのうち、2つの画像フレーム間のオプティカルフローを算出して画像中の物体の移動を検出する。連続する画像フレーム間で物体の移動が検出されれば、その動きを追跡するが、連続画像フレーム間で所定の画素以上の物体の移動が検出されなかった場合には、次の時刻以降の画像フレームを用いて動きを再評価する。これにより、画像の領域ごとに遠距離領域/近距離領域のいずれであるかを示す情報を要せずに、遠方の移動物体であっても高精度で検出することが可能となる。
なお、上記においては、車載型死角カメラ映像装置(ブラインドコーナーモニタ)を例について説明しているが、本発明は、上記の方法をコンピュータに実行させるプログラムによっても実現可能である。また、車載型死角カメラ映像装置以外にも、例えば、監視カメラ等の撮影範囲が広いカメラにおいて移動物体を検出する場合にも適用が可能である。

Claims (11)

  1. 動画像からの移動物検知装置であって、
    時刻tに取得した画像フレームと時刻t−1に取得した画像フレームとに基づいて、時刻t−1に取得した画像フレーム内の各特徴点についての移動量を算出する第1の手段と、
    前記第1の手段により算出した移動量が所定の値よりも小さい特徴点について、前記時刻t−1に取得した画像フレームとt+mに取得した画像フレームとに基づいて、時刻t−1に取得した画像フレーム内の該特徴点についての移動量を算出する第2の手段と、
    を備えることを特徴とする移動物検知装置。
  2. 前記第2の手段により算出した移動量が所定の値よりも小さい特徴点について、前記mの値をインクリメントして、再度、前記第2の手段を実行する
    ことを特徴とする請求項1記載の移動物検知装置。
  3. 前記第1の手段または第2の手段により算出した移動量が、前記所定の値よりも大きい前記特徴点について、画面上の表示を変更して出力する出力手段、
    を更に備えることを特徴とする請求項2記載の移動物検知装置。
  4. 前記出力手段は、前記第2の手段により算出した移動量が前記所定の値よりも大きく、且つ該特徴点についての追跡回数が所定のしきい値以上である特徴点については、画面上の表示を変更して出力する、
    ことを特徴とする請求項3記載の移動物検知装置。
  5. 前記第1の手段または第2の手段は、画像フレームの内側へと移動する特徴点についての移動量を算出する
    ことを特徴とする請求項2記載の移動物検知装置。
  6. 画像フレームから抽出した特徴点に関わる情報を格納する格納手段と、
    を更に備え、
    新たに特徴点が抽出されたときは、前記格納手段に既に格納されている特徴点との距離が所定のしきい値以上である場合に、該新たに抽出された特徴点に関わる情報を該格納手段に格納する
    ことを特徴とする請求項2記載の移動物検知装置。
  7. 画像フレームから抽出した特徴点に関わる情報を格納する格納手段と、
    を更に備え、
    前記格納手段に格納されている情報のうち、時刻t+mに取得した画像フレーム内で、互いに所定の距離範囲内にある複数の特徴点が存在するときは、該複数の特徴点のうち少なくとも1つの特徴点に関わる情報については該格納手段に残し、他については削除する
    ことを特徴とする請求項2記載の移動物検知装置。
  8. 前記格納手段は、さらに、時刻t−1における前記各特徴点に関する情報と対応付けて、該各特徴点の周辺画像を格納することを特徴とする請求項6記載の移動物検知装置。
  9. 前記特徴点は、前記画像フレームのコーナー度合の評価値の極大点を選択することにより求める
    ことを特徴とする請求項2記載の移動物検知装置。
  10. 動画像からの移動物検知を行うための移動物検知プログラムであって、
    時刻tに取得した画像フレームと時刻t−1に取得した画像フレームとに基づいて、時刻t−1に取得した画像フレーム内の各特徴点についての移動量を算出し、
    前記算出した移動量が所定の値よりも小さい特徴点について、前記時刻t−1に取得した画像フレームとt+mに取得した画像フレームとに基づいて、時刻t−1に取得した画像フレーム内の該特徴点についての移動量を算出する、
    処理をコンピュータに実行させることを特徴とする移動物検知プログラム。
  11. 動画像からの移動物検知を行うための移動物検知方法であって、
    時刻tに取得した画像フレームと時刻t−1に取得した画像フレームとに基づいて、時刻t−1に取得した画像フレーム内の各特徴点についての移動量を算出する第1のステップと、
    前記第1のステップにおいて算出した移動量が所定の値よりも小さい特徴点について、前記時刻t−1に取得した画像フレームとt+mに取得した画像フレームとに基づいて、時刻t−1に取得した画像フレーム内の該特徴点についての移動量を算出する第2のステップと、
    を備えることを特徴とする移動物検知方法。
JP2009546072A 2007-12-14 2007-12-14 移動物検知装置及び移動物検知プログラム Active JP4957807B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2007/001404 WO2009078056A1 (ja) 2007-12-14 2007-12-14 移動物検知装置及び移動物検知プログラム

Publications (2)

Publication Number Publication Date
JPWO2009078056A1 true JPWO2009078056A1 (ja) 2011-04-28
JP4957807B2 JP4957807B2 (ja) 2012-06-20

Family

ID=40795184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009546072A Active JP4957807B2 (ja) 2007-12-14 2007-12-14 移動物検知装置及び移動物検知プログラム

Country Status (3)

Country Link
US (1) US8150104B2 (ja)
JP (1) JP4957807B2 (ja)
WO (1) WO2009078056A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5269707B2 (ja) * 2009-07-01 2013-08-21 富士フイルム株式会社 画像合成装置及び方法
WO2011013281A1 (ja) * 2009-07-29 2011-02-03 パナソニック株式会社 移動体検出方法及び移動体検出装置
US8744522B2 (en) * 2009-10-21 2014-06-03 Xerox Corporation Portable security system built into cell phones
JP5667773B2 (ja) * 2010-03-18 2015-02-12 キヤノン株式会社 情報作成装置及びその制御方法
JP5521778B2 (ja) * 2010-05-26 2014-06-18 富士通株式会社 計測装置及び制御装置
JP5776769B2 (ja) 2011-05-24 2015-09-09 富士通株式会社 物体接近検知装置、物体接近検知方法、及びプログラム
JP2013097675A (ja) * 2011-11-02 2013-05-20 Honda Elesys Co Ltd 勾配推定装置、勾配推定方法、及び勾配推定プログラム
CN103680145B (zh) * 2013-12-06 2016-01-20 河海大学 一种基于局部图像特征的人车自动识别方法
JP6657622B2 (ja) * 2015-07-07 2020-03-04 株式会社リコー 画像処理装置及び画像処理方法
JP6424787B2 (ja) 2015-09-29 2018-11-21 コニカミノルタ株式会社 移動量検出器、およびそれを備えた画像形成装置
IL280983B (en) * 2016-06-30 2022-07-01 Magic Leap Inc Pose assessment in three-dimensional space
JP6868996B2 (ja) * 2016-10-13 2021-05-12 日立建機株式会社 障害物検知システム及び建設機械
US10916019B2 (en) * 2019-02-01 2021-02-09 Sony Corporation Moving object detection in image frames based on optical flow maps
JP7481785B2 (ja) * 2020-02-28 2024-05-13 パナソニックオートモーティブシステムズ株式会社 検知装置、検知方法、およびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3892059B2 (ja) * 1995-03-07 2007-03-14 松下電器産業株式会社 動物体追跡装置
JP2001167282A (ja) * 1999-12-10 2001-06-22 Toshiba Corp 移動物体抽出装置及びその方法
JP3810657B2 (ja) * 2001-07-31 2006-08-16 松下電器産業株式会社 運動物体検出方法および装置
US7194110B2 (en) * 2002-12-18 2007-03-20 Intel Corporation Method and apparatus for tracking features in a video sequence
JP2006318345A (ja) * 2005-05-16 2006-11-24 Sony Corp 物体追跡方法、物体追跡方法のプログラム、物体追跡方法のプログラムを記録した記録媒体及び物体追跡装置
JP4892965B2 (ja) 2005-12-26 2012-03-07 住友電気工業株式会社 移動体判定システム、移動体判定方法、及びコンピュータプログラム
JP4847779B2 (ja) * 2006-04-13 2011-12-28 株式会社日立製作所 車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システム

Also Published As

Publication number Publication date
JP4957807B2 (ja) 2012-06-20
US20100202661A1 (en) 2010-08-12
WO2009078056A1 (ja) 2009-06-25
US8150104B2 (en) 2012-04-03

Similar Documents

Publication Publication Date Title
JP4957807B2 (ja) 移動物検知装置及び移動物検知プログラム
TWI393074B (zh) 移動物體偵測裝置與方法
KR102011230B1 (ko) 화상 처리 장치 및 화상 처리 방법
US8050459B2 (en) System and method for detecting pedestrians
JP4157620B2 (ja) 移動物体検出装置及びその方法
JP2013006548A (ja) 駐車支援装置
CN111932596B (zh) 摄像头遮挡区域的检测方法、装置、设备和存储介质
CN108280445B (zh) 一种车辆周围运动物体和凸起障碍物的检测方法
WO2018134897A1 (ja) 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法
CN110967018B (zh) 停车场定位方法、装置、电子设备及计算机可读介质
JP7143661B2 (ja) 情報処理システム、プログラム、及び制御方法
JP2014106740A (ja) 車載用駐車枠認識装置
JP2016143364A (ja) 位置同定装置、位置同定方法、及びプログラム
JP4734568B2 (ja) 画像上移動物体計測点決定方法及び装置
JP2008238927A (ja) 車両周辺画像表示装置
WO2018186086A1 (ja) 俯瞰映像生成装置、俯瞰映像表示装置、俯瞰映像生成方法およびプログラム
JPH11345392A (ja) 障害物検出装置及び障害物検出方法
JP4155252B2 (ja) 車両検出装置
JP5176523B2 (ja) 移動体検出装置、移動体検出方法および移動体検出プログラム
JP4661578B2 (ja) 移動体認識装置
JP3823982B2 (ja) 画像補正方法、プログラム及び装置
CN113902047A (zh) 图像元素匹配方法、装置、设备以及存储介质
JP2004251886A (ja) 周囲物体検出装置
WO2018174123A1 (ja) 物体検出装置、交通監視システム、物体検出装置の制御方法及びプログラム
JP4555987B2 (ja) 画像における移動物体追跡方法及び装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4957807

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150