JP6459752B2 - 画像上の移動物体追跡装置 - Google Patents

画像上の移動物体追跡装置 Download PDF

Info

Publication number
JP6459752B2
JP6459752B2 JP2015091188A JP2015091188A JP6459752B2 JP 6459752 B2 JP6459752 B2 JP 6459752B2 JP 2015091188 A JP2015091188 A JP 2015091188A JP 2015091188 A JP2015091188 A JP 2015091188A JP 6459752 B2 JP6459752 B2 JP 6459752B2
Authority
JP
Japan
Prior art keywords
image
moving
vehicle
position prediction
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015091188A
Other languages
English (en)
Other versions
JP2016207120A (ja
Inventor
和宏 宮里
和宏 宮里
雅道 大杉
雅道 大杉
深町 映夫
映夫 深町
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015091188A priority Critical patent/JP6459752B2/ja
Publication of JP2016207120A publication Critical patent/JP2016207120A/ja
Application granted granted Critical
Publication of JP6459752B2 publication Critical patent/JP6459752B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像上の移動物体が同画像から消失した後、前記画像上に新たに現れた移動物体が消失した移動物体であるか否かを判定する画像上の移動物体追跡装置に関する。
カメラから繰り返し入力される画像(入力画像)上の移動物体を抽出し、抽出された移動物体の入力画像上の移動を追跡する画像監視システム(以下、「従来システム」とも称呼される。)が、特許文献1に記載されている。
従来システムは、最新の入力画像(現在画像)に新たに出現した(抽出された)移動物体、即ち、過去の入力画像(過去画像)に現れていなかった物体、に対して個別の識別番号を新たに付与する。一方、現在画像に現れている移動物体が過去画像にも現れていれば、従来システムは、既に付与された識別番号を現在画像上の移動物体に適用する。
移動物体が他の物体の陰に隠れると、その隠れた移動物体(後方物体)は入力画像から消失する。その場合、従来システムは、後方物体の消失直前の移動方向及び移動速度等に基づいて後方物体の現時点の画像上の位置を予測する。予測された後方物体の画像上の位置は、便宜上「予測位置」とも称呼される。
後方物体が予測位置の近傍に再び現れると、従来システムは、消失する前に後方物体に対して付与されていた識別番号をその再出現した後方物体に適用する。一方、従来システムは、予測位置が入力画像の範囲外に出たとき、或いは、後方物体が消失した後にカメラから入力された画像の数が所定フレーム数(追跡停止フレーム数)に達したとき、後方物体の位置予測を停止する。
特開2007−334631号公報
しかしながら、追跡停止フレーム数が適切に設定されていない場合、「前方物体の陰に隠れて消失した後方物体」に類似する移動物体が出現したときに誤認識が発生する虞がある。例えば、追跡停止フレーム数が小さすぎると、後方物体が再出現する前に従来システムがその後方物体の追跡(位置予測)を停止し、その結果、その後方物体が再出現したときに従来システムが新たな移動物体が出現したと誤認する場合が発生し得る。一方、追跡停止フレーム数が大きすぎると、後方物体が消失中に移動速度及び/又は移動方向を変更して予測位置に再出現しなかった場合であっても従来システムが位置予測を継続し、新たに出現した後方物体とは異なる移動物体を後方物体であると誤認する場合が発生し得る。
加えて、多くの場合、入力画像に写された被写体のそれぞれは、画像上の大きさ及び移動速度が互いに異なる。従って、あらゆる画像に共通の適切な追跡停止フレーム数を決定することは困難である。
そこで、本発明の目的の一つは、後方物体の位置予測を停止するタイミングを適切に決定し、以て、後方物体の消失後に新たに移動物体が出現したときに誤認識が発生することを回避できる画像上の移動物体追跡装置を提供することである。
上記目的を達成するための本発明に係る画像上の移動物体追跡装置(以下、「本発明装置」とも称呼される。)は、
画像を撮影し、同画像を出力する撮像装置と、
前記撮像装置から繰り返し入力される画像を処理する処理装置と、
を備えている。
前記処理装置は、物体抽出部、位置予測部、及び、再出現判定部を備えている。
前記物体抽出部は、
前記画像に写された移動物体を抽出する物体抽出処理を実行する。
前記位置予測部は、
前記物体抽出部によって抽出された前記移動物体の内の一つである「後方物体」と、同移動物体の内の他の一つである「前方物体」と、が前記画像上において互いに接近し、
その結果、同後方物体が同前方物体の陰に隠れることによって前記物体抽出処理による同後方物体の抽出が不可能となる「遮蔽現象」が発生している間、
同後方物体の同画像上の位置である「予測位置」を同遮蔽現象が発生する前の同後方物体の同画像上の移動速度及び移動方向に基づいて予測する位置予測処理を実行する。
更に、前記位置予測部は、
前記遮蔽現象が発生する直前に前記後方物体が前記画像上に占めていた領域(後方物体消失前領域)と、前記前方物体が現在の同画像上に占める領域(前方物体現在領域)と、の重複が無くなったとき、前記位置予測処理を停止する。
前記再出現判定部は、
前記位置予測部によって予測された前記予測位置の近傍に移動物体が前記物体抽出部によって新たに抽出されたとき、前記遮蔽現象が終了して同後方物体が前記画像上に再出現したと判定する。
本発明装置は、後方物体消失前領域と前方物体現在領域とが重複する領域(重複領域)に基づいて位置予測処理を停止するタイミングを決定する。換言すれば、本発明装置において、追跡停止フレーム数を予め決定しておく必要は無い。
本発明装置は、重複領域の発生によって遮蔽現象が発生したときから位置予測処理を開始し、重複領域が無くなったときに位置予測処理を停止する。位置予測処理の停止後、後方物体に類似する移動物体が物体抽出処理によって抽出された場合、本発明装置は、後方物体とは異なる移動物体が出現したと判定する。
例えば、前方物体及び/又は後方物体の移動速度が速いために遮蔽現象の発生から終了までの時間が短い場合、前方物体は後方物体消失前領域を短時間にて通過するので、位置予測処理が早期に停止される。即ち、遮蔽現象が終了しているにも拘わらず位置予測部が位置予測処理を継続することが回避される。
一方、前方物体及び/又は後方物体の移動速度が遅いために遮蔽現象の発生から終了までの時間が長い場合、位置予測処理が停止されるまでの時間を長くする必要がある。本発明装置は、仮に、後方物体が停止していたとしても、重複領域が無くなり後方物体が再出現するタイミングまで位置予測処理を継続する(図2(E)を参照。)。即ち、遮蔽現象が終了する前に位置予測処理が停止されることが回避される。
従って、本発明装置によれば、位置予測処理を停止するタイミングを適切に決定することができ、以て、後方物体の消失後に新たに移動物体が出現したときに誤認識が発生することを抑制することができる。
本発明の実施形態に係る画像上の移動物体追跡装置(本追跡装置)が適用される車両(本車両)の概略図である。 本車両の停車中に撮影された一連の画像の例である。 本車両の停車中に撮影された一連の画像の他の例である。 本追跡装置が実行する移動物体追跡処理ルーチンを表したフローチャートである。
(構成)
以下、図面を参照しながら本発明の実施形態に係る画像上の移動物体追跡装置(以下、「本追跡装置」とも称呼される。)について説明する。本追跡装置は、図1に概略構成が示された車両10に適用される。本追跡装置は、カメラ20、ECU30及び表示装置40を含んでいる。車両10は、カメラ20を含むセンサによって取得された情報に基づいて車両10周辺の移動物体を検出し自動運転及び衝突回避制御等を実行する図示しない運転支援装置を搭載している。
カメラ20は、車両10の車体の前端中央部に固定され、車両10の進行方向正面の画像を撮影できるようになっている。カメラ20は、撮影した画像を表す信号をECU30へ出力する。ECU30は、周知のマイクロコンピュータを含む電子回路であり、CPU、ROM、RAM及びインターフェース等を含んでいる。ROMは、CPUが実行するプログラムを記憶している。RAMは、データを一時的に記憶する。
表示装置40は、車両10の車室内に設けられた図示しないセンターコンソールに配設されている。表示装置40は、車両10の乗員の操作によって、カメラ20が撮影した画像を表示することができる。
(移動物体追跡処理の概要)
カメラ20は所定の撮影周期Δt毎に画像を撮影する。ECU30は、カメラ20から入力された画像(入力画像)をRAMに記憶する。ECU30は、カメラ20によって最後に撮影された画像(即ち、現在画像)と、カメラ20によって現在画像の直前に撮影された画像(即ち、現在画像よりも撮影周期Δtだけ以前に撮影された旧画像)と、をRAM上に保持する。
更に、ECU30は、現在画像と旧画像とに基づいて画像に写された移動物体を抽出する。より具体的に述べると、ECU30は、現在画像及び旧画像のそれぞれを所定の大きさの矩形に分割する。即ち、ECU30は、現在画像及び旧画像のそれぞれを矩形の集合として扱う。
ECU30は、旧画像を構成するそれぞれの矩形が現在画像においてどの位置に現れるかを探索する。探索に成功した場合、旧画像におけるその矩形の位置(移動元)を始点とし、現在画像における同矩形の位置(移動先)を終点とするオプティカルフローベクトルが取得される。オプティカルフローベクトルのそれぞれは、旧画像及び現在画像の双方に写された矩形の撮影周期Δtにおける移動方向及び移動量(即ち、移動速度)を表している。
ECU30は、現在画像において向きと大きさが互いに類似するオプティカルフローベクトルの終点が集合している領域(矩形の集合)を一つの移動物体が写された領域と判定する。即ち、現在画像から移動物体が抽出される。ECU30が実行する現在画像から移動物体を抽出する処理は、便宜上「物体抽出処理」とも称呼される。
加えて、ECU30は、現在画像における、その移動物体が写された領域(矩形の集合)を終点とするオプティカルフローベクトルのそれぞれの始点の集合が、旧画像における、その移動物体が写された領域であると判定する。ECU30は、現在画像における移動物体の領域と、旧画像における移動物体の領域と、の差分に基づいて撮影周期Δtにおけるこの移動物体の入力画像上の移動方向及び移動速度を取得することができる。
ECU30は、現在画像に写された移動物体のそれぞれに対して識別番号を付与する。付与された識別番号のそれぞれは、対応する移動物体の現在画像上の位置と共にRAMに記憶される。現在画像に写された移動物体が旧画像において既に識別番号が付与されていれば、ECU30は、現在画像上のその移動物体に対して「旧画像上のその移動物体に対して付与されていたのと同一の識別番号」を付与する。
図2(A)〜(E)は、抽出された移動物体の例である車両51及び車両52を表している。車両51及び車両52に付された矢印は、オプティカルフローベクトルを表している。車両51には識別番号(ID)としてn1が付与され、車両52には識別番号としてn2が付与されている。
図2(A)〜(D)において、図2(A)、(B)及び(C)の順に時間が流れ、図2(D)に至っている。図2(A)〜(D)及び(E)に対応する画像が撮影される間、車両10は停止している。
旧画像に写された移動物体が、その移動物体のそれまでの移動方向及び移動速度に基づいて入力画像の範囲外に出たと判定されると、ECU30は、その識別番号をRAMから消去する。一方、旧画像に写された移動物体が、入力画像の範囲外に出ていないにも拘わらず現在画像に現れない場合(即ち、移動物体が消失した場合)、ECU30は、その移動物体の一部又は全部が他の移動物体の陰に隠れた(即ち、遮蔽現象が発生した)と推定する。
例えば、図2(A)に写された車両51及び車両52は、互いに接近し、画像上において図2(B)に表された時点にて接触している。入力画像において、車両51は車両52よりも後方にある。車両51は便宜上「後方物体」とも称呼され、車両52は便宜上「前方物体」とも称呼される。図2(B)に表された時点より後、車両51は車両52の陰に隠れるので、上述した物体抽出処理によって車両51が抽出できなくなる。即ち、車両51において遮蔽現象が発生する。
移動物体が消失した場合、ECU30は、消失した移動物体の入力画像上の位置を消失する直前の移動方向及び移動速度に基づいて予測する。例えば、図2(C)において車両51は車両52によって完全に遮蔽されているが、ECU30は、図2(B)に示された車両51の位置、移動方向及び移動速度に基づいて、図2(C)に表された時点における車両51の位置が領域51aであると予測する。ECU30が実行する「遮蔽現象によって抽出できなくなった移動物体の現在画像における位置」を予測する処理は、便宜上「位置予測処理」をも称呼される。
図2(D)に表された時点になると、車両51が位置予測処理によって予測された位置の近傍に再び現れている。即ち、消失前の車両51(例えば、図2(B)に表された車両51)と類似の移動物体が、物体抽出処理によって抽出されている。この場合、ECU30は、遮蔽現象が終了して車両51が再出現したと判定し、遮蔽現象の発生前に車両51に付与されていた識別番号と同一の番号(本例において、n1)を、図2(D)の車両51に付与する。
しかし、何らかの理由によって車両51が再出現しなかった場合、ECU30は、位置予測処理を適当なタイミングにて停止する。より具体的に述べると、車両51の消失が発生したとき、ECU30は、消失発生の直前(即ち、図2(B)に表される時点)における車両51の占める領域51bを、後方物体消失前領域としてRAMに記憶する。入力画像において車両51と車両52は互いに接近していたので、領域51b(後方物体消失前領域)と、現在画像における車両52の領域(前方物体現在領域)と、が重複する領域の面積は、遮蔽現象の発生後、車両52の移動に伴って一旦増加し、最大となった後、減少を開始する。
図2(C)に表される時点を経て図2(E)に表される時点に達し、領域51bと、現在画像における車両52の領域と、の重複が無くなると、ECU30は、位置予測処理を停止する。即ち、ECU30は、後方物体消失前領域と、前方物体現在領域と、の重複が無くなったとき、位置予測処理を停止する。
位置予測処理の停止後に車両51に類似する移動物体が入力画像に現れた場合、ECU30は、その移動物体を車両51とは異なる物体であると判定する。即ち、ECU30は、その新たに現れた移動物体に対してn1とは異なる識別番号を付与する。
位置予測処理の停止後に消失物体と類似する移動物体が現れる例を図3(A)〜(E)に示す。図3(A)〜(E)において、図3(A)、(B)及び(C)の順に時間が流れ、図3(E)に至っている。図3(A)〜(E)に対応する画像が撮影される間、カメラ20を搭載した車両10は停止している。
図3(A)において、車両61〜車両63が物体抽出処理によって抽出されている。車両61及び車両63は同一の車種であり、従って、互いに類似する外観を有している。車両61には識別番号としてm1が付与され、車両62には識別番号としてm2が付与され、車両63には識別番号としてm3が付与されている。
車両61及び車両62は、互いに接近し、画像上において図3(B)に表された時点にて接触している。その後、図3(C)に表された時点にて車両61は車両62によって完全に遮蔽されているが、このとき車両61は交差点を左折し、入力画像における移動方向が右方から上方に変化している。その結果、遮蔽現象の発生前に抽出された車両61と、遮蔽現象の終了後に再出現した車両61と、は入力画像における形状及び色彩並びに大きさ等が互いに異なっている。そのため、ECU30は、「遮蔽現象の終了後に再出現した車両61」を「遮蔽現象の発生前に抽出された車両61」とは異なる移動物体であると判定し、以て、再出現した車両61に対してm1とは異なる識別番号(本例において、m4)を付与している。
図3(D)に表された時点にて、車両62に係る前方物体現在領域と、車両61に係る後方物体消失前領域である領域61bと、の重複が無くなり、ECU30は、位置予測処理を停止する。その後、図3(E)に表された時点にて、ECU30は、「交差点を左折した結果、入力画像における移動方向が下方から右方に変化した車両63」を物体抽出処理によって抽出している。
この時点における車両63と、遮蔽現象が発生する前の車両61と、は共に入力画像上を右方に移動しているので、入力画像に写された外観は互いに類似している。加えて、車両63は、「仮にECU30が図3(D)に表された時点にて予測処理を停止していなければ、予測処理によって予測された車両61の位置」の近傍に出現している。
しかし、ECU30は、既に予測処理を停止しているので、車両63は車両61とは異なる移動物体であると判定し、従って、車両63に対して車両61に付与した識別番号(本例において、m1)とは異なる識別番号(本例において、m5)を付与する。
(具体的作動)
次に、ECU30の具体的作動について説明する。ECU30のCPU(以下、単に「CPU」とも称呼される。)は、撮影周期Δtが経過する毎に図4にフローチャートにより示した「移動物体追跡処理ルーチン」を実行する。
従って、適当なタイミングになると、CPUは、図4のステップ400から処理を開始してステップ405に進み、カメラ20によって撮影された画像(現在画像)を取得する。次いでCPUは、ステップ410に進み、物体抽出処理を実行することによって現在画像に写された移動物体を抽出する。
次いでCPUは、ステップ415に進み、現在画像から抽出された移動物体と、前回本ルーチンが実行されたときに識別番号が付与された移動物体(即ち、旧画像から抽出された移動物体)と、の関連付けを行う。具体的には、CPUは、「現在画像から抽出された移動物体であって旧画像からも抽出された移動物体」に対して前回本ルーチンが実行された時に付与されたのと同一の識別番号を付与する。加えて、CPUは、旧画像において入力画像の外へ出ようとしていた移動物体であって現在画像に現れていない移動物体(即ち、入力画像の外に出た移動物体)に係る識別番号をRAMから消去する。
次いでCPUは、ステップ420に進み、消失した物体が存在するか否かを判定する。即ち、CPUは、入力画像の外へ出た移動物体以外の、旧画像から抽出された移動物体であって現在画像からは抽出されなかった移動物体が存在するか否かを判定する。
消失した物体が存在していれば、CPUは、ステップ420にて「Yes」と判定してステップ425に進む。ステップ425にてCPUは、消失した物体の旧画像における位置及び形状(即ち、後方物体消失前領域)、後方物体消失前領域内の色彩、移動方向及び移動速度、並びに、「後方物体消失前領域の近傍にあって後方物体消失前領域に接近していた移動物体(即ち、前方物体)の識別番号」を「位置予測情報」としてRAMに記憶する。消失した物体が複数存在していれば、CPUは、消失した物体のそれぞれに対応する位置予測情報を生成してRAMに記憶する。次いでCPUは、ステップ430に進む。
一方、消失した物体が存在していなければ、CPUは、ステップ420にて「No」と判定してステップ430に直接進む。
ステップ430にてCPUは、位置予測処理を終了すべき消失物体が存在するか否かを判定する。即ち、CPUは、RAMに記憶された位置予測情報であって後方物体消失前領域と前方物体現在領域との重複が無くなっている位置予測情報に係る消失物体が存在するか否かを判定する。
位置予測処理を終了すべき消失物体が存在していれば、CPUは、ステップ430にて「Yes」と判定してステップ435に進み、位置予測処理を終了すべき消失物体に係る位置予測情報をRAMから消去する。位置予測処理を終了すべき消失物体が複数存在していれば、CPUは、それらの消失物体のそれぞれに対応する位置予測情報をRAMから消去する。次いでCPUは、ステップ440に進む。
一方、位置予測処理を終了すべき消失物体が存在していなければ、CPUは、ステップ430にて「No」と判定してステップ440に直接進む。
ステップ440にてCPUは、RAMに記憶された位置予測情報が存在しているか否かを判定する。位置予測情報が存在していれば、CPUは、ステップ440にて「Yes」と判定してステップ445に進み、位置予測情報及び「その位置予測情報が登録された後に経過した時間」に基づいてその位置予測情報に係る消失物体の現在画像における位置を予測する。即ち、CPUは、位置予測処理を実行する。位置予測情報が複数存在していれば、CPUは、位置予測情報のそれぞれに対して位置予測処理を実行する。次いでCPUは、ステップ450に進む。
一方、位置予測情報が存在していなければ、CPUは、ステップ440にて「No」と判定してステップ450に直接進む。
ステップ450にてCPUは、再出現した物体が存在するか否かを判定する。即ち、CPUは、位置予測処理によって予測された消失物体の現在位置の近傍に位置予測情報に含まれる後方物体消失前領域と類似する領域(移動物体)が抽出されているか否かを判定する。
再出現した物体が存在していれば、CPUは、ステップ450にて「Yes」と判定してステップ455に進み、再出現した物体と、消失する前の物体と、の関連付けを行う。具体的には、CPUは、再出現した物体に対して消失する前に付されていたのと同一の識別番号を付与する。再出現した物体が複数存在していれば、CPUは、再出現した物体のそれぞれに対して消失する前に付されていたのと同一の識別番号を付与する。次いでCPUは、ステップ460に進む。
一方、再出現した物体が存在していなければ、CPUは、ステップ450にて「No」と判定してステップ460に直接進む。
ステップ460にてCPUは、新たに出現した物体(即ち、現在画像から抽出された移動物体であって未だ識別番号が付与されていない移動物体)が存在するか否かを判定する。新たに出現した物体が存在していれば、CPUは、ステップ460にて「Yes」と判定してステップ465に進み、新たに出現した物体に対して識別番号を新たに付与する。新たに出現した物体が複数存在していれば、CPUは、新たに出現した物体のそれぞれに対して識別番号を新たに付与する。次いでCPUは、ステップ495に進んで本ルーチンを一旦終了する。
一方、新たに出現した物体が存在していなければ、CPUは、ステップ460にて「No」と判定してステップ495に直接進む。
以上、説明したように、本追跡装置は、
画像を撮影し、同画像を出力する撮像装置(カメラ20)と、
前記撮像装置から繰り返し(撮影周期Δt毎に)入力される画像(図4のステップ405)を処理する処理装置(ECU30)と、
を備える画像上の移動物体追跡装置において、
前記処理装置は、
前記画像に写された移動物体を抽出する物体抽出処理(図4のステップ410)を実行する物体抽出部と、
前記物体抽出部によって抽出された前記移動物体の内の一つである後方物体と、同移動物体の内の他の一つである前方物体と、が前記画像上において互いに接近し(図2の車両51及び車両52)、その結果、同後方物体が同前方物体の陰に隠れることによって前記物体抽出処理による同後方物体の抽出が不可能となる遮蔽現象が発生している間(図2(C))の同後方物体の同画像上の位置である予測位置(図2(C)の領域51a)を同遮蔽現象が発生する前の同後方物体の同画像上の移動速度及び移動方向に基づいて予測する位置予測処理(図4のステップ445)を実行する位置予測部と、
前記位置予測部によって予測された前記予測位置の近傍に移動物体が前記物体抽出部によって新たに抽出されたとき、前記遮蔽現象が終了して同後方物体が前記画像上に再出現したと判定する(図4のステップ450及びステップ455)再出現判定部と、
を備え、
前記位置予測部は、
前記遮蔽現象が発生する直前に前記後方物体が前記画像上に占めていた領域と、前記前方物体が現在の同画像上に占める領域と、の重複が無くなったとき(図2(E)の領域51b及び車両52)、前記位置予測処理を停止する(図4のステップ430及びステップ435)、
ように構成されている。
本追跡装置によれば、遮蔽現象によって画像から消失した移動物体に対する位置予測を停止するタイミングを適切に決定することが可能となり、以て、消失物体の再出現時、或いは、消失物体に類似する他の移動物体の出現時における誤認識の発生を回避することができる。
以上、本発明に係る画像上の移動物体追跡装置の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。例えば、本実施形態において、カメラ20は車両10に固定されていた。しかし、カメラ20は、建造物の入口及び屋内等、車両とは異なる場所に設置されていても良い。
加えて、本実施形態において、後方物体の一部が前方物体の陰に隠れると、その後方物体の抽出が不可能となっていた(即ち、後方物体が消失していた)。しかし、物体抽出処理の精度によっては、後方物体がある程度(例えば、入力画像における後方物体が占める領域の半分程度)前方物体の陰に隠れるまではその後方物体の抽出が可能となる。この場合、後方物体の抽出が不可能となる直前の後方物体が画像上を占める領域を後方物体消失前領域として扱っても良い。
加えて、本実施形態において、遮蔽現象が発生したとき、ECU30は、前方物体を「後方物体消失前領域の近傍にあって後方物体消失前領域に接近していた移動物体」として抽出していた。しかし、ECU30は、前方物体を他の条件によって抽出しても良い。例えば、ECU30は、現在画像における移動物体のそれぞれの移動方向及び移動速度並びに大きさに基づいて2つの移動物体の重なりの発生(即ち、遮蔽現象の発生)を予測し、その内の一方の移動物体が消失したとき、他方の移動物体を前方物体として抽出しても良い。
加えて、本実施形態において示された図2及び図3の例において、入力画像上、略右方向に進む移動物体と、略左方向に進む移動物体と、が重なることによって遮蔽現象が発生していた。即ち、2つの移動物体のそれぞれの移動方向の差分の大きさは略180度であった。しかし、2つの移動物体のそれぞれの移動方向の差は異なる角度であっても良い。例えば、入力画像上、上下方向に進む移動物体と、左右方向に進む移動物体と、が重なることによって発生した遮蔽現象に対して位置予測処理を停止するタイミングを決定することも可能である。この場合、2つの移動物体のそれぞれの移動方向の差分の大きさは略90度となる。
加えて、ECU30は、所謂ブロックマッチング法によりオプティカルフローベクトルを取得していた。ECU30は、他の方法(例えば、勾配法)によりオプティカルフローベクトルを取得しても良い。
車両…10、カメラ…20、ECU…30、車両…61、車両…62、車両…63。

Claims (1)

  1. 画像を撮影し、同画像を出力する撮像装置と、
    前記撮像装置から繰り返し入力される画像を処理する処理装置と、
    を備える画像上の移動物体追跡装置において、
    前記処理装置は、
    前記画像に写された移動物体を抽出する物体抽出処理を実行する物体抽出部と、
    前記物体抽出部によって抽出された前記移動物体の内の一つである後方物体と、同移動物体の内の他の一つである前方物体と、が前記画像上において互いに接近し、その結果、同後方物体が同前方物体の陰に隠れることによって前記物体抽出処理による同後方物体の抽出が不可能となる遮蔽現象が発生している間の同後方物体の同画像上の位置である予測位置を同遮蔽現象が発生する前の同後方物体の同画像上の移動速度及び移動方向に基づいて予測する位置予測処理を実行する位置予測部と、
    前記位置予測部によって予測された前記予測位置の近傍に移動物体が前記物体抽出部によって新たに抽出されたとき、前記遮蔽現象が終了して同後方物体が前記画像上に再出現したと判定する再出現判定部と、
    を備え、
    前記位置予測部は、
    前記遮蔽現象が発生する直前に前記後方物体が前記画像上に占めていた領域と、前記前方物体が現在の同画像上に占める領域と、の重複が無くなったとき、前記位置予測処理を停止する、
    ように構成された画像上の移動物体追跡装置。
JP2015091188A 2015-04-28 2015-04-28 画像上の移動物体追跡装置 Active JP6459752B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015091188A JP6459752B2 (ja) 2015-04-28 2015-04-28 画像上の移動物体追跡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015091188A JP6459752B2 (ja) 2015-04-28 2015-04-28 画像上の移動物体追跡装置

Publications (2)

Publication Number Publication Date
JP2016207120A JP2016207120A (ja) 2016-12-08
JP6459752B2 true JP6459752B2 (ja) 2019-01-30

Family

ID=57490023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015091188A Active JP6459752B2 (ja) 2015-04-28 2015-04-28 画像上の移動物体追跡装置

Country Status (1)

Country Link
JP (1) JP6459752B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7180521B2 (ja) * 2019-04-18 2022-11-30 株式会社デンソー 物標検出装置、物標検出方法、及び運転支援システム
JP7344095B2 (ja) 2019-11-19 2023-09-13 株式会社アイシン 管制装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8131011B2 (en) * 2006-09-25 2012-03-06 University Of Southern California Human detection and tracking system
JP4874150B2 (ja) * 2007-03-30 2012-02-15 セコム株式会社 移動物体追跡装置

Also Published As

Publication number Publication date
JP2016207120A (ja) 2016-12-08

Similar Documents

Publication Publication Date Title
JP6511283B2 (ja) 物体検知装置
CN104108392B (zh) 车道估计装置和方法
CN104680815B (zh) 车道变换确定设备、交叉口进入确定设备及其方法
US9950667B2 (en) Vehicle system for detecting object and operation method thereof
KR102595604B1 (ko) 이벤트 기반 센서를 이용한 객체의 검출 방법 및 장치
US20180114067A1 (en) Apparatus and method for extracting objects in view point of moving vehicle
JP2006338272A (ja) 車両挙動検出装置、および車両挙動検出方法
JP6331785B2 (ja) 物体追跡装置、物体追跡方法および物体追跡プログラム
JPH11353565A (ja) 車両用衝突警報方法及び装置
JP6340957B2 (ja) 物体検出装置および物体検出プログラム
JP2017124898A (ja) エレベータの乗車検知システム
WO2018020722A1 (ja) 画像処理装置および画像処理方法
JP2010063001A (ja) 人物追跡装置および人物追跡プログラム
JP6722051B2 (ja) 物体検出装置、及び物体検出方法
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6139465B2 (ja) 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
US10540546B2 (en) Image processing apparatus, control method, and storage medium
US10525900B2 (en) Vehicle periphery monitoring device
US11804026B2 (en) Device and a method for processing data sequences using a convolutional neural network
JP2020052647A (ja) 物体検出装置、物体検出方法、物体検出用コンピュータプログラム及び車両制御システム
JP6271776B1 (ja) エレベータの乗車検知システム
JP6459752B2 (ja) 画像上の移動物体追跡装置
JP2014149716A (ja) 物体追跡装置及びその方法
JP2015185135A (ja) 停車認識装置、停車認識方法及びプログラム
JP6165513B2 (ja) ハンドジェスチャトラッキングシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181217

R151 Written notification of patent or utility model registration

Ref document number: 6459752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151