JP2019159894A - 動体検出装置 - Google Patents

動体検出装置 Download PDF

Info

Publication number
JP2019159894A
JP2019159894A JP2018046582A JP2018046582A JP2019159894A JP 2019159894 A JP2019159894 A JP 2019159894A JP 2018046582 A JP2018046582 A JP 2018046582A JP 2018046582 A JP2018046582 A JP 2018046582A JP 2019159894 A JP2019159894 A JP 2019159894A
Authority
JP
Japan
Prior art keywords
moving object
likelihood
point
vector
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018046582A
Other languages
English (en)
Other versions
JP6509396B1 (ja
Inventor
川村 誠
Makoto Kawamura
誠 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Systems Corp
Original Assignee
Toyota Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Systems Corp filed Critical Toyota Systems Corp
Priority to JP2018046582A priority Critical patent/JP6509396B1/ja
Application granted granted Critical
Publication of JP6509396B1 publication Critical patent/JP6509396B1/ja
Publication of JP2019159894A publication Critical patent/JP2019159894A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】カメラ視野が変化している場合であってもそのカメラによって撮影された画像上の動体が映る領域を特定することが可能であり且つその動体の画像上の移動に伴う動体周辺の領域が変化している場合であっても画像上の動体が映る領域を追跡することができる動体検出装置。【解決手段】画像を構成するピクセルに対応するオプティカルフローベクトル、同ベクトルの取得尤度及び同ベクトルにおけるカメラ視野の変化の寄与分に基づき各ピクセルが動体に対応している尤度(動体尤度)を取得し、更に、動体尤度に基づいて画像上の特定領域が動体を必要十分な大きさで囲んでいるほど大きくなるように領域尤度を取得し、領域尤度に基づいて画像上の動体が映る領域を取得する。同領域が取得されたときは同領域の光学特徴値の分布にも基づいて領域尤度を取得する。【選択図】 図3

Description

本発明は、カメラによって繰り返し撮影された画像に含まれる動体を検出する動体検出装置に関する。
カメラによって所定の時間間隔が経過する毎に撮影された画像(撮影画像)に基づいて、撮影画像に含まれる動体を抽出する動体検出装置(以下、「従来装置」とも称呼される。)が知られている(例えば、特許文献1を参照。)。従来装置は、所定の時間間隔を隔てて撮影された画像のそれぞれに共に映る被写体に基づいてオプティカルフローベクトルを取得する。加えて、従来装置は、オプティカルフローベクトルに基づいて撮影画像上の動体(画像内動体)が映る領域(動体領域)を取得する。更に、従来装置は、動体領域をテンプレートとして記憶し、その後、取得された画像における動体領域と記憶されたテンプレートとを比較することによって撮影された画像に映る動体を追跡する。
特開2004−13614号公報
ところで、カメラの視野(撮影画像に映る範囲)が従来装置の運用者による操作及びカメラに風が吹き付けられること等によって変化する場合がある。しかし、従来装置においてはカメラ視野の変化が考慮されていない。そのため、カメラ視野の変化によって、画像内動体に加えて撮影画像に映る画像内動体以外の領域(即ち、背景領域)が撮影画像上を時間間隔の経過に伴って移動し、以て、背景領域が画像内動体として検出される虞がある。
加えて、従来装置が記憶したテンプレ−トに撮影画像に映る画像内動体の周辺領域(具体的には、地面及び建造物等の背景)が含まれる可能性がある。この場合、例えば、アスファルトの路面上にいた画像内動体が芝生の生えた場所に移動すると、画像内動体の周辺領域が変化する。画像内動体の移動によって画像内動体の周辺領域が変化すると、新たに取得された撮影画像に含まれるテンプレ−トに相当する領域と、従来装置が記憶したテンプレ−トと、の差分が大きくなる。そのため、画像内動体の移動に起因する画像内動体の周辺領域の変化(本例において、アスファルト領域から芝生領域への変化)が原因で画像内動体の追跡に失敗する虞がある。
そこで、本発明の目的の1つは、カメラ視野が変化している場合であっても撮影画像上の画像内動体が映る領域を特定(具体的には、検出及び追跡)でき且つ画像内動体の周辺領域の変化が発生している場合であっても画像内動体が映る領域を追跡することができる動体検出装置を提供することである。
上記目的を達成するための動体検出装置(動体検出装置20)(以下、「本発明装置」とも称呼される。)は、画像取得部、フローベクトル取得部、画面動態ベクトル取得部、動体尤度取得部、領域尤度取得部、及び、画像内動体特定部を含む(図2を参照)。
前記画像取得部は、
カメラ(10)によって新たに撮影された撮影画像を所定の時間間隔(Δt)が経過する毎に繰り返し取得する。
前記フローベクトル取得部は、
第1時点にて取得された前記撮影画像である第1画像(前回画像Sp)に映る被写体の位置と、同被写体の前記第1時点よりも前記時間間隔だけ時間が経過した第2時点にて取得された前記撮影画像である第2画像(現在画像Sc)に映る位置と、に基づいて、前記第2画像上の「特定点(現在点Pc)」と、前記特定点に対応する前記第1画像上の「対応点(フロー起点Pf)」と、の組合せを同対応点が始点であり且つ同特定点が終点である「オプティカルフローベクトル(Vo)」として任意の前記特定点又は前記対応点に対して取得し、且つ、取得された前記オプティカルフローベクトルのそれぞれの取得精度を「ベクトル尤度(Lv)」として取得する「フローベクトル取得処理」を前記撮影画像のそれぞれに対して実行する。
前記画面動態ベクトル取得部は、
前記オプティカルフローベクトルのそれぞれを前記第1時点における前記撮影画像の視野と前記第2画像における前記撮影画像の視野との差分である「画面動態の変化」に起因する「画面動態ベクトル(Vs’)」と、前記撮影画像に映る動体である画像内動体の前記第1時点から前記第2時点までの前記撮影画像上の移動に起因する「動体移動ベクトル(Vm)」と、の和として捉えたときの、前記特定点を終点とする前記画面動態ベクトル又は前記対応点を始点とする前記画面動態ベクトルを任意の前記特定点又は前記対応点に対して取得する「画面動態ベクトル取得処理」を前記撮影画像のそれぞれに対して実行する。
前記動体尤度取得部は、
前記オプティカルフローベクトル、前記ベクトル尤度及び前記画面動態ベクトルに基づいて前記特定点が前記画像内動体に対応している可能性に正の相関を有する値を同特定点の「動体尤度(Lm)」として任意の前記特定点に対して取得する「動体尤度取得処理」を前記撮影画像のそれぞれに対して実行する。
前記領域尤度取得部は、
前記第2画像上に配置された特定領域(パーティクル矩形)に含まれる前記特定点のそれぞれの前記動体尤度が大きいほど大きくなり且つ前記特定領域の周辺の領域に含まれる前記特定点のそれぞれの前記動体尤度が大きいほど小さくなる値を領域尤度(検出矩形尤度Ld)として任意の前記特定領域に対して取得する「領域尤度取得処理」を前記撮影画像のそれぞれに対して実行する。
前記画像内動体特定部は、
前記領域尤度に基づいて前記第2画像上の前記画像内動体が映る領域を特定する画像内動体特定処理(検出判定処理及び追跡判定処理)を前記撮影画像のそれぞれに対して実行する。
前記領域尤度取得処理は、
前記画像内動体特定処理が前回実行されたときに前記画像内動体が映る領域が特定されていれば(図9のステップ930にて「No」と判定したとき、及び、ステップ965にて「Yes」と判定したとき)、
前記特定領域に含まれる前記特定点のそれぞれの前記動体尤度が大きくなり、且つ、前記特定された画像内動体を構成する点の、前記動体尤度によって重み付けされた光学特徴値の分布である基準分布と、前記特定領域に含まれる前記画像内動体を構成する点の、前記動体尤度によって重み付けされた光学特徴値の分布と、が類似するほど(即ち、追跡矩形内動体尤度Svfが大きいほど)大きくなり、
前記特定領域の周辺の領域に含まれる前記特定点のそれぞれの前記動体尤度が大きくなり、且つ、前記基準分布と、前記特定領域の周辺の領域に含まれる前記画像内動体を構成する点の、前記動体尤度によって重み付けされた光学特徴値の分布と、が類似するほど(即ち、追跡周辺動体尤度Sofが大きいほど)小さくなるように前記領域尤度(追跡矩形尤度Lf)を設定する処理である。
前記時間間隔は、固定値であっても良く、変化する値であっても良い。本発明装置は、時間間隔が経過する毎に新たに取得される第2画像を構成する点のそれぞれに対して動体尤度を取得する。
画面動態の変化が発生している場合であっても特定点が画像内動体に対応していなければ、オプティカルフローベクトルと画面動態ベクトルとの差として取得される動体移動ベクトルの大きさが大きくならない。そのため、本発明装置は、オプティカルフローベクトル及び画面動態ベクトルに基づき、画面動態の変化による影響を低減したうえで動体尤度を取得することができる。
更に、領域尤度は特定領域に含まれる点の動体尤度に加えて特定領域周辺の領域に含まれる点の動体尤度も考慮して取得されるので、特定領域が画像内動体を含んでいても特定領域の大きさが画像内動体の大きさと比較して過大であれば、領域尤度は小さくなる。一方、特定領域が画像内動体を含んでいても特定領域の大きさが画像内動体の大きさと比較して過小であれば、領域尤度は小さくなる。換言すれば、領域尤度は、領域尤度に基づいて特定領域が画像内動体を必要十分な大きさで囲んでいるときに大きな値となる。
加えて、画像内動体特定処理によって特定された画像内動体が映る領域を次に実行される画像内動体特定処理が特定するとき(即ち、画像内動体を追跡するとき)、特定領域に含まれる画像内動体の周辺領域が変化しても、周辺領域を構成する点のそれぞれの動体尤度は比較的小さいので、領域尤度に与える影響は比較的小さい。更に、画像内動体の追跡における領域尤度の取得に際し、動体尤度に加え、動体尤度によって重み付けされた光学特徴値の分布が考慮される。
(本発明装置の効果)
従って、本発明装置によれば、画面動態の変化がある場合であっても撮影画像上の画像内動体が映る領域を特定することができる。加えて、特定された画像内動体の周辺領域が変化した場合であっても画像内動体を精度良く追跡することができる。
本発明装置の他の態様において、
前記動体尤度取得処理は、
前記画面動態ベクトルによって特定される、前記特定点及び同特定点を終点とする前記画面動態ベクトルの始点である「画面動態起点(Ph)」を含む、前記第2画像における同特定点の位置に映る「前記画像内動体以外の被写体又は前記画像内動体の背後にある被写体」の、前記画面動態の変化に伴う前記時間間隔が経過する毎の前記撮影画像上の移動を表す点の集合である「画面動態移動点列(Ps)」を構成する前記撮影画像上の点のそれぞれに対応する光学特徴値(赤強度Br、青強度Bb及び緑強度Bg)に相関を有する値である「背景差分動体尤度(C)」にも基づいて前記特定点に対応する前記動体尤度を取得する処理である
ように構成される。
光学特徴値は、撮影画像を構成する点の明るさ(撮影画像が白黒画像である場合の、その点の明度)であっても良く、その点の赤強度、緑強度及び青強度のそれぞれに基づいて取得される値であっても良い。
画面動態の変化が発生している場合であっても、画面動態ベクトルの取得誤差が小さければ、画面動態移動点列は、撮影画像の範囲(視野)に含まれる特定の背景物(対応背景物、具体的には、背景物を構成する点)に対応している。一般に、撮影画像全体の面積に対する画像内動体の占める面積の割合の比率は比較的小さいので、画面動態移動点列を構成する点のうち、画像内動体に対応する点は少ない可能性が高い。
換言すれば、画面動態移動点列を構成する点に対応する光学特徴値の多くは、対応背景物に対応する値である可能性が高い。そのため、特定点に対応する光学特徴値が画面動態移動点列を構成する点に対応する光学特徴値の多くと近似していれば、特定点が対応背景物に対応している可能性(即ち、特定点が画像内動体に対応していない可能性)が高くなる。
(本態様の効果)
画面動態の変化が発生している場合であっても、画面動態ベクトルの取得誤差が小さければ、画面動態ベクトルに基づいて取得される画面動態移動点列は対応背景物の撮影画像上の移動を表している。換言すれば、背景差分動体尤度を、特定点が画像内動体に対応している可能性に相関を有する値に設定することが可能となる。従って、本態様によれば、画面動態の変化が発生している場合であっても、動体尤度を精度良く取得することが可能となる。
この態様において、
前記動体尤度取得処理は、
前記特定点以外の前記画面動態移動点列を構成する点のそれぞれに対応する光学特徴値の移動平均値(以下、「背景強度移動平均値」とも総称される)を取得し、
前記光学特徴値の移動平均値のそれぞれを明度補正して得られる補正後移動平均値と、前記特定点の光学特徴値と、の差分が大きいほど前記背景差分動体尤度を大きい値に設定し、且つ、前記特定点以外の前記画面動態移動点列を構成する点のそれぞれに対応する光学特徴値の分散(以下、「背景強度分散値」とも総称される)が大きいほど小さい値に設定する処理を含み、
前記明度補正は、
前記補正後移動平均値の分布を、前記第2画像における当該光学特徴値の分布と類似させる補正である、
ように構成されることが好適である。
ところで、カメラから取得する撮影画像がデータ圧縮されていれば、画像取得部は、データ圧縮を解除して撮影画像を復元する必要がある。この場合、一時的に画像の一部又は全部が乱れる可能性がある。加えて、カメラが風に揺れることにより画面動態が一時的に大きく変化する場合がある。或いは、撮影画像に映る背景が一時的に風になびく場合がある。このような画像内動体の移動に起因しない一時的な撮影画像の変化は、以下、「画像ノイズ」と総称される。
背景強度移動平均値は、光学特徴値のそれぞれを平滑化した値であるので、画面動態移動点列を構成する点の一部が画像内動体に対応していた場合、及び、画面動態移動点列を構成する点の一部が画像ノイズの影響を受けていた場合であっても、背景強度移動平均値が対応背景物に対応する光学特徴値に近似している可能性が高い。換言すれば、背景強度移動平均値と特定点の光学特徴値との間の差分が大きければ、特定点は対応背景物ではなく画像内動体に対応している可能性が高い。
加えて、第1画像と第2画像との間に露出の変化及びホワイトバランスの変化等に起因する画面全体の明るさの差違があっても、背景強度移動平均値を明度補正することによって得られた補正後移動平均値の分布は第2画像における光学特徴値の分布と類似している。そのため、背景差分動体尤度を補正後移動平均値と特定点の光学特徴値との差分に基づいて取得することによって、画面全体の明るさの差違が発生している場合であっても、背景差分動体尤度を、特定点が画像内動体に対応している可能性に相関を有する値に設定することができる。
一方、背景強度分散値が大きければ、背景強度移動平均値が画像内動体及び画像ノイズ等の影響を強く受けており、以て、背景強度移動平均値と対応背景物に対応する光学特徴値との差分が大きくなっている可能性が高い。そのため、この場合、背景差分動体尤度は小さい値に設定される。
(この場合における本態様の効果)
従って、この態様によれば、撮影画像が画像ノイズの影響を強く受けている場合であっても、第1画像と第2画像との間に露出の変化及びホワイトバランスの変化等に起因する画面全体の明るさの差違が発生している場合であっても、背景差分動体尤度を、特定点が画像内動体に対応している可能性に相関を有する値に設定することができ、以て、動体尤度をより精度良く取得することが可能となる。
本発明装置の他の態様において、
前記動体尤度取得処理は、
前記オプティカルフローベクトルによって特定される、前記特定点及び前記対応点を含む、前記第2画像における同特定点の位置に映る被写体の、前記時間間隔が経過する毎の前記撮影画像上の移動を表す点の集合であるフロー点列(Pv)を構成する前記撮影画像上の点のそれぞれに対応する前記動体移動ベクトルの移動平均として取得されるベクトル(平均フローベクトルVav)の大きさ(平均フロー速度Vaf)が大きいほど大きく且つ前記フロー点列を構成する点のそれぞれに対応する前記オプティカルフローベクトルの前記ベクトル尤度(平均ベクトル尤度Lavによって表される値)が大きいほど大きな値に設定されるフロー差分動体尤度(B)にも基づいて前記特定点に対応する前記動体尤度を取得する処理である、
ように構成される。
オプティカルフローベクトル及び画面動態ベクトルの取得誤差が小さければ、動体移動ベクトルは、画面動態の変化の有無に依らず、画像内動体の撮影画像上の移動を表す。平均フロー速度は、フロー点列を構成する点のそれぞれに対応する動体移動ベクトルの移動平均として取得されるベクトルの大きさであるので、画像ノイズの影響によりフロー点列を構成する点のそれぞれに対して取得されるオプティカルフローベクトルの一部の取得精度が低い場合であっても、平均フロー速度が大きく変化する可能性は小さい。一方、フロー点列を構成する点のそれぞれに対応するオプティカルフローベクトルのベクトル尤度が小さければ、即ち、平均フロー速度が含む誤差が大きい可能性が高いとき、フロー差分動体尤度は、小さな値に設定される。
例えば、撮影画像の範囲内において、太陽光の照射が雲によって遮られた状態から、雲の移動によって太陽光が地面に照射される状態へ遷移する場合がある。この場合、撮影画像における建物及び樹木等の影が映る領域と、太陽光が直接照射されている領域と、の間の明度の差分が大きくなる。このとき、第2画像上の影が映る領域に対応する点(特定点)に対応する背景差分動体尤度が大きくなる可能性がある。即ち、仮に、背景差分動体尤度のみに基づいて動体尤度が取得されると、背景物の影を構成する点の動体尤度が大きな値となる可能性がある。
一方、背景物の影を構成する点の動体移動ベクトルの大きさは小さいので、動体移動ベクトルに基づいて動体尤度を取得することにより、背景物の影を構成する点の動体尤度が大きな値となることが回避できる。従って、本態様によれば、画面動態の変化が発生している場合、及び、太陽光が雲に遮られている状態から太陽光が雲に遮られていない状態に変化した場合であっても、動体尤度を精度良く取得することが可能となる。
(本態様の効果)
従って、この態様によれば、フロー差分動体尤度を、特定点が画像内動体に対応している可能性に相関を有する値に設定することができ、以て、動体尤度をより精度良く取得することが可能となる。
本発明装置の他の態様において、
前記動体尤度取得処理は、
前記背景差分動体尤度(B)を、とり得る値の範囲が前記動体尤度と等しくなるように取得し、
前記フロー差分動体尤度(C)を、とり得る値の範囲が前記動体尤度と等しくなるように取得し、且つ、
前記動体尤度取得処理が前回実行されたときに前記対応点に対して取得された前記動体尤度である「前回動体尤度(Lmp)」と、前記特定点に対応する前記オプティカルフローベクトルに係る前記ベクトル尤度との内の小さい方の値を同特定点に対応する「第1暫定尤度(At1)」として取得し、
前記特定点の前記第1暫定尤度と、同特定点の前記フロー差分動体尤度と、の内の大きい方の値を同特定点の「第2暫定尤度(At2)」として取得し、
前記特定点の前記第2暫定尤度と、前記特定点の前記背景差分動体尤度と、の内の小さい方の値を同特定点の前記動体尤度として取得する、
ように構成される。
前回動体尤度が小さければ、特定点が画像内動体に対応している可能性が低い。一方、特定点に対応するオプティカルフローベクトルに係るベクトル尤度が小さければ、前回動体尤度が「特定点が画像内動体に対応する可能性」と相関を有する可能性が低い。そこで、第1暫定尤度として、特定点の前回動体尤度と、特定点に対応するオプティカルフローベクトルに係るベクトル尤度と、の内の小さい方の値が選択される。
換言すれば、第1暫定尤度が大きければ、第1時点において対応点が画像内動体に対応していた可能性が高い。一方、特定点に対応するフロー差分動体尤度が大きければ、第2時点において特定点が画像内動体に対応している可能性が高い。そこで、第2暫定尤度として、第1暫定尤度と、フロー差分動体尤度と、の内の大きい方の値が選択される。従って、第2暫定尤度が大きければ、第1時点における対応点及び(第1時点における対応点の移動先である)第2時点における特定点の少なくとも一方が画像内動体に対応している可能性が高い。
ところで、オプティカルフローベクトルの取得方法によっては、特定点が画像内動体の近傍にある背景物に対応していると、その特定点に対して取得されるオプティカルフローベクトルが、画像内動体上のその特定点近傍の点に対して取得されるオプティカルフローベクトルと類似する場合がある。この場合、特定点が画像内動体に対応していないにも拘わらず、フロー差分動体尤度が比較的大きな値となり、以て、第2暫定尤度が比較的大きな値となる可能性がある。
一方、背景差分動体尤度は、上述したように、太陽光の照射状況の変化によって取得誤差が一時的に大きくなる場合がある。そのため、第2暫定尤度及び背景差分動体尤度が共に大きい値であるときにのみ動体尤度が大きな値に設定されるべきである。
(本態様の効果)
そこで、動体尤度として、第2暫定尤度と、背景差分動体尤度と、の内の小さい方の値が選択される。従って、本態様によれば、動体尤度をより精度良く取得することが可能となる。
本発明装置の他の態様において、
本発明装置は、
前記撮影画像上の複数の前記特定領域の一部又は全部の位置及び/又は形状を変化させる「特定領域更新処理」を前記撮影画像のそれぞれに対して実行する特定領域更新部を備える。
前記特定領域更新処理は、
前記特定領域のそれぞれに対して「オプティカルフロー追随処理」及び「前回移動方向追随処理」の何れか一方を、前記特定領域を構成する点のそれぞれの前記動体尤度が大きいほど高い確率にて前記オプティカルフロー追随処理が選択されるように、選択して実行する処理を含む。
前記オプティカルフロー追随処理は、
前記特定領域を構成する点の1つを始点又は終点とする前記オプティカルフローベクトルである「代表フローベクトル」に基づいて前記特定領域の位置の変化量を決定する処理である。
前記前回移動方向追随処理は、
前記特定領域更新処理が前回実行されたときに前記特定領域に対して決定された位置の変化量に基づいて同特定領域の位置の変化量を決定する処理である。
ように構成される。
この態様において、
前記オプティカルフロー追随処理は、
前記特定領域を構成する点のそれぞれの前記動体尤度が大きいほど大きい確率にて同特定領域を構成する点の1つを「領域代表点(第1矩形代表点Pr1)」として選択し、前記領域代表点を始点とする前記オプティカルフローベクトルを前記代表フローベクトルとして取得する
ように構成されることが好適である。
加えて、この態様において、
前記複数の特定領域の内の何れかが選択される確率がその特定領域の前記領域尤度に比例する方法によって前記特定領域を選択する処理を前記特定領域の数だけ繰り返し、前記選択された特定領域のそれぞれを前記第2画像上に配置し直す「特定領域リサンプリング処理(検出矩形リサンプリング処理及び追跡矩形リサンプリング処理)」を前記撮影画像のそれぞれに対して実行する特定領域リサンプリング部を備える
ように構成されることが好適である。
更に、この態様において、
前記画像内動体特定処理は、
複数の前記特定領域のそれぞれの前記領域尤度の平均値が所定の閾値(第1尤度閾値Lth1及び第2尤度閾値Lth2)よりも大きく且つ前記複数の特定領域のそれぞれの位置及び大きさを平均して得られる「平均領域(平均矩形Rm)」と一部又は全部が重複する前記特定領域の数が所定の閾値(第1矩形数閾値Cth1及び第2矩形数閾値Cth2)よりも大きいことを含む所定の特定条件が成立しているとき、前記平均領域を前記画像内動体が映る領域として特定する処理である(図9のステップ930及びステップ960)
ように構成されることが好適である。
本態様において、所謂、パーティクルフィルタ処理が実行される。即ち、撮影画像上に複数の特定領域を配置し、且つ、位置及び形状(例えば、大きさ)を変化させ、領域尤度が大きくなると、特定領域リサンプリング処理によってその特定領域が複数再配置される(即ち、複製される)可能性が高くなる。
画像内動体が特定領域に含まれているとき、その特定領域に対してオプティカルフロー追随処理が実行されると、特定領域が画像内動体に追随して撮影画像上を移動する可能性が高くなる。この場合、例えば、画像内動体の撮影画像上の移動速度が大きい場合であっても、特定領域が画像内動体に追随することができる。
特に、特定領域に含まれる画像内動体に対応する点が上記領域代表点として選択される可能性が高いので、代表フローベクトルとして領域代表点を始点とするオプティカルフローベクトルが取得されると、特定領域が画像内動体と共に撮影画像上を移動する可能性が更に高くなる。
或いは、特定領域に対して前回移動方向追随処理が実行されると、特定領域は、特定領域更新処理が前回実行されたときに決定された移動方向及び移動量に基づいて新たな移動方向及び移動量が決定される。そのため、特定領域更新処理が前回実行されたときに特定領域が画像内動体に追随して移動していれば、画像内動体の一部又は全部が静止物の陰に隠れた場合であっても、画像内動体に対する追随を継続することができる。
ところで、撮影画像が鮮明でなければ、撮影画像を構成する点のそれぞれの動体尤度が、撮影画像が鮮明である場合と比較して小さくなる傾向がある。この場合、領域尤度も、撮影画像が鮮明である場合と比較して小さくなる。しかし、特定領域更新処理、及び、特定領域リサンプリング処理の結果として、動体尤度が相対的に大きい領域に特定領域が集まる可能性が高い。
(本態様の効果)
従って、特定領域更新処理及び特定領域リサンプリング処理が繰り返し実行されると、画像内動体の近傍に特定領域が集まってくる。そのため、特定領域のそれぞれの領域尤度の平均値が大きくなり且つ多くの特定領域が平均領域と重複していれば、その平均領域を画像内動体が映る領域として特定することができる。
本発明装置の他の態様において、
前記フローベクトル取得処理は、
前記撮影画像を構成する点の1つの近傍における光学特徴値の分布を近似する「近似関数」を、前記第1画像を構成する任意の点と前記第2画像を構成する任意の点に対して取得し、
前記特定点から零ベクトルを含む「周辺点ベクトル」によって表される向き及び大きさだけ移動した点である「特定周辺点」に対して取得された前記近似関数の同特定周辺点における勾配ベクトルと、
前記特定周辺点から零ベクトルを含む「対応点ベクトル」によって表される向き及び大きさだけ移動した前記第1画像上の点である「対応周辺点」に対して取得された前記近似関数の同対応周辺点における勾配ベクトルと、
の差分として取得される「差分ベクトル」の大きさの2乗和である「誤差2乗和」を任意の前記周辺点ベクトルに対して取得し且つ積算して得られる「誤差積算値」が最も小さくなる前記対応点ベクトルである特定対応点ベクトル(即ち、特定対応点ベクトルは、対応点ベクトルの内、誤差積算値が最も小さくなるベクトル)の逆ベクトルを前記特定点を終点とする前記オプティカルフローベクトルとして取得し、
前記ベクトル尤度を、
前記誤差積算値(下記式(96)における「c−bmx−bmy」)が大きくなるほど大きくなり、
前記対応点ベクトルの成分を表す2つの値が入力値であり且つ同入力値に対応する前記誤差積算値が出力値である2変数関数の前記特定対応点ベクトルに対応する入力値における2階微分値が最大となる方向である「特定方向」の2階微分値(式(96)における「g 」の係数)が大きくなるほど大きくなり、且つ、
前記2変数関数の前記特定対応点ベクトルに対応する入力値における「前記特定方向と直交する方向」の2階微分値(式(96)における「g 」の係数)が大きくなるほど大きくなる、ように取得する処理である
ように構成される。
一般に、特定点近傍の領域の光学特徴値の分布と、対応点近傍の領域の光学特徴値の分布と、は互いに類似している。そのため、「対応点ベクトルの逆ベクトル」が特定点を終点とするオプティカルフローベクトルと一致していれば、「対応点ベクトルの逆ベクトル」が同オプティカルフローベクトルと一致していない場合と比較して特定点及び特定点周辺の点のそれぞれに対して取得された差分ベクトルのそれぞれの大きさが小さくなる。換言すれば、特定点に対して種々の対応点ベクトルのそれぞれに対応する誤差積算値を取得すれば、誤差積算値が最小となったときの「対応点ベクトル(即ち、特定対応点ベクトル)の逆ベクトル」を、特定点を終点とするオプティカルフローベクトルとして取得することができる。
誤差積算値の最小値が大きいほど特定点近傍の領域の光学特徴値の分布と、対応点近傍の領域の光学特徴値の分布と、の差分が大きい。この場合、特定点と対応点とが対応している可能性が低くなり、以て、特定点に対して取得されたオプティカルフローベクトルの信頼性が低くなる。加えて、特定点近傍の領域及び対応点近傍の領域の光学特徴値の分布が均一であるほど(即ち、光学特徴値の変化が緩慢であるほど)上記2変数関数の特定対応点ベクトルに対応する入力値における特定方向の2階微分値、及び、特定方向と直交する方向の2階微分値が小さくなる。この場合、取得されたオプティカルフローベクトルが特定点と対応点との組合せに対応している可能性が低くなり、オプティカルフローベクトルの信頼性が低くなる。
(本態様の効果)
本態様によれば、撮影画像を構成する点のそれぞれに対してより精度良くオプティカルフローベクトルを取得することが可能となり、且つ、取得されたオプティカルフローベクトルのそれぞれの信頼性が正しく反映された値としてベクトル尤度を取得することができる。
上記説明においては、本発明の理解を助けるために、後述する実施形態に対応する発明の構成に対し、その実施形態で用いた名称及び/又は符号を括弧書きで添えている。しかしながら、本発明の各構成要素は、前記名称及び/又は符号によって規定される実施形態に限定されるものではない。本発明の他の目的、他の特徴及び付随する利点は、以下の図面を参照しつつ記述される本発明の実施形態についての説明から容易に理解されるであろう。
本発明の実施形態に係る動体検出装置(本検出装置)の概略図である。 本検出装置が実行する画像内動体抽出処理に含まれる処理のそれぞれを示した図である。 本検出装置が取得する撮影画像、並びに、撮影画像に基づいて取得されるオプティカルフローベクトル、画面動態ベクトル及び動体移動ベクトルの例を示した図である。 パーティクル矩形における動体尤度の分布の例を示したグラフである。 (A)は第1検出周辺領域を示した図であり、(B)は第2検出周辺領域を示した図であり、(C)は第3検出周辺領域を示した図であり、(D)は第4検出周辺領域を示した図である。 赤色ヒストグラムの例を示したグラフである。 (A)は基準赤色ヒストグラムの例を示したグラフであり、(B)はパーティクル矩形赤色ヒストグラムの例を示したグラフであり、(C)は2つのヒストグラムの面積が揃えられ且つ重ね合わされた例を示したグラフである。 (A)は第1追跡周辺領域を示した図であり、(B)は第2追跡周辺領域を示した図であり、(C)は第3追跡周辺領域を示した図であり、(D)は第4追跡周辺領域を示した図である。 本検出装置が実行する画像内動体抽出処理ルーチンを表したフローチャートである。
(構成)
以下、図面を参照しながら本発明の実施形態に係る動体検出システム(以下、「本検出システム」とも称呼される。)について説明する。本検出システムの概略構成が図1に示される。
本検出システムは、カメラ10及び動体検出装置20を含んでいる。カメラ10は、画像処理部11、ズームレンズ12、雲台13及びネットワークインタフェース14を含んでいる。
画像処理部11は、所定の時間間隔Δt(固定値)が経過する毎に画像(以下、「撮影画像」とも称呼される。)を取得(撮影)する画像取得処理を実行する。画像処理部11は、取得した撮影画像を周知の方法によりデータ圧縮し、そのデータ圧縮された撮影画像を送信する。
ズームレンズ12及び雲台13のそれぞれは、電子駆動機構(何れも不図示)を備えている。ズームレンズ12は、電子駆動機構の駆動によってズームイン及びズームアウトすることができる。即ち、ズームレンズ12は、画像処理部11の画角を連続的に変更することができる。
雲台13は、電子駆動機構の駆動によって画像処理部11をパン及びチルトさせることができる。即ち、雲台13は、画像処理部11の向き(具体的には、画像処理部11の水平角度及び垂直角度)を連続的に変更することができる。
ネットワークインタフェース14は、ネットワーク30を介して動体検出装置20とのデータの送受信を行う。
動体検出装置20は、CPU、RAM及びハードディスクドライブ(HDD)等を構成要素として含む汎用コンピュータであり、入出力装置21を含んでいる。動体検出装置20は、ネットワーク30を介してズームレンズ12及び雲台13を制御することができる。動体検出装置20が実行する処理のそれぞれが図2に示される。図2に示される処理のそれぞれの内容は、後述される。
動体検出装置20は、ネットワーク30を介して画像処理部11から撮影画像を時間間隔Δtが経過する毎に受信する画像取得処理を実行する。動体検出装置20は、画像取得処理の実行時、受信した撮影画像のデータ圧縮を解除し、撮影画像を復元する。
入出力装置21は、ディスプレイ、キーボード、マウス及びスピーカーを含んでいる。本検出システムの運用者は、入出力装置21を介して動体検出装置20を操作し且つ動体検出装置20から情報を得ることができる。入出力装置21のディスプレイには、撮影画像が表示される。
加えて、運用者は、入出力装置21に対する操作によって撮影画像に撮影される範囲(即ち、画像処理部11の視野)を変更することができる。具体的には、運用者による入出力装置21に対する操作に基づいて動体検出装置20がカメラ10に指示を送り、その指示に基づいてズームレンズ12及び雲台13の電子駆動機構が制御される。
撮影画像の視野の変化状態は、以下、「画面動態」とも称呼される。画面動態は、運用者による入出力装置21に対する操作に加え、カメラ10に吹き付ける風によっても変化する場合がある。この場合、画像処理部11のパン及びチルトに加え、画像処理部11のロールが発生する可能性がある。
動体検出装置20がカメラ10から受信する撮影画像は、ピクセル(以下、単に「点」とも称呼される。)の集合である。撮影画像の横方向のピクセルの数は横解像度Ghであり、撮影画像の縦方向のピクセルの数は縦解像度Gvである。
撮影画像を構成するピクセルのそれぞれの色(即ち、色相、彩度及び明度の組合せ)は、赤強度Br、緑強度Bg及び青強度Bbの組合せによって表される。赤強度Brは、対応するピクセルの赤色の強度(輝度)を256階調にて表す。緑強度Bgは、対応するピクセルの緑色の輝度を256階調にて表す。青強度Bbは、対応するピクセルの青色の輝度を256階調にて表す。
即ち、赤強度Br、緑強度Bg及び青強度Bbのそれぞれは、「0」から「255」までの整数である。赤強度Brが大きくなるほど、対応するピクセルの赤色の強度が高くなる。緑強度Bgが大きくなるほど、対応するピクセルの緑色の強度が高くなる。青強度Bbが大きくなるほど、対応するピクセルの青色の強度が高くなる。
撮影画像上のピクセルの位置は、X座標(「0」から「Gh−1」までの整数)及びY座標(「0」から「Gv−1」までの整数)の組合せによって表される。X−Y座標が(0,0)である撮影画像の原点は、撮影画像の左上端の点である。ピクセルが撮影画像の右にあるほどX座標値が大きくなる。ピクセルが撮影画像の下にあるほどY座標値が大きくなる。撮影画像の右下端のX−Y座標は(Gh−1,Gv−1)である。
以下の説明において、撮影画像上のX座標値が小さくなる方向は、「左方向」とも称呼される。同様に、撮影画像上のX座標値が大きくなる方向は、「右方向」とも称呼される。一方、撮影画像上のY座標値が小さくなる方向は、「上方向」とも称呼される。同様に、撮影画像上のY座標値が大きくなる方向は、「下方向」とも称呼される。
動体検出装置20が最後にカメラ10から取得した撮影画像(即ち、最新の撮影画像)は、現在画像Scとも称呼される。動体検出装置20が現在画像Scよりも1つ前にカメラ10から受信した撮影画像(即ち、現在画像Scが撮影された時点よりも時間間隔Δtだけ過去の時点にて撮影された撮影画像)は、前回画像Spとも称呼される。現在画像Sc上の点は、現在点Pcと称呼され、X−Y座標を付して現在点Pc(Xc,Yc)とも表記される。前回画像Spが取得された時刻は、便宜上、「第1時点」とも称呼される。一方、現在画像Scが取得された時刻は、便宜上、「第2時点」とも称呼される。
動体検出装置20は、カメラ10から現在画像Scを受信すると、現在点Pc(Xc,Yc)のそれぞれに対して明度By(Xc,Yc)を取得する。明度Byは、カラー画像である現在画像Scをモノクロ画像に変換したときの各ピクセルの明るさである。明度Byのぞれぞれは、「0」から「255」までの整数である。現在点Pc(Xc,Yc)の明度が高いほど、明度By(Xc,Yc)が大きくなる。明度By(Xc,Yc)は、後述されるフローベクトル取得処理の詳細説明において参照される。
(画像内動体抽出処理)
動体検出装置20は、撮影画像に含まれ且つ撮影画像上を移動する人間及び動物等の動体(以下、「画像内動体」とも称呼される。)の検出及び追跡を行う画像内動体抽出処理を実行する。即ち、動体検出装置20は、画像内動体が検出されていないときは画像内動体の探索を行い、画像内動体が検出されているときは検出された画像内動体を追跡する。
動体検出装置20は、画像内動体の検出及び追跡を行うため、現在点Pcのそれぞれに対して動体尤度Lmを取得する動体尤度特定処理と、撮影画像上の動体尤度Lmが高い領域(具体的には、矩形)を撮影画像上の画像内動体が占める領域として特定する画像内動体領域特定処理と、を実行する。
現在点Pc(Xc,Yc)が画像内動体の一部である(即ち、現在画像Sc上の点Pcの位置に画像内動体が映っている)可能性が高いほど動体尤度Lm(Xc,Yc)が大きくなる。動体尤度Lmは「0」から「1」までの範囲に含まれる(即ち、0≦Lm≦1)。
(動体尤度特定処理)
先ず、動体尤度特定処理について説明する。動体尤度特定処理は、フローベクトル取得処理、画面動態ベクトル取得処理、フロー差分動体尤度取得処理、背景差分動体尤度取得処理、及び、動体尤度決定処理を含んでいる。
(フローベクトル取得処理)
フローベクトル取得処理の概略について説明する。フローベクトル取得処理は、現在画像Sc上の現在点Pc(Xc,Yc)のそれぞれに対し、現在画像Sc上の現在点Pc(Xc,Yc)に対応する被写体の前回画像Sp上の位置(以下、「フロー起点Pf(Xf,Yf)」とも称呼される。)を始点とし、現在点Pc(Xc,Yc)を終点とする、オプティカルフローベクトルVo(Xc,Yc)を取得(推定)し且つオプティカルフローベクトルVo(Xc,Yc)の推定精度であるベクトル尤度Lv(Xc,Yc)を取得する処理である。即ち、フローベクトル取得処理において、現在点Pcのそれぞれに対応するフロー起点Pfが推定される。
フローベクトル取得処理の実行時、動体検出装置20は、更に、前回画像Sp上のフロー起点Pf(Xf,Yf)のそれぞれに対し、フロー起点Pf(Xf,Yf)を始点とし現在点Pc(Xc,Yc)を終点とするオプティカルフローベクトルVo’(Xf,Yf)を取得し且つオプティカルフローベクトルVo’(Xf,Yf)の推定精度であるベクトル尤度Lv’(Xf,Yf)を取得する。
オプティカルフローベクトルVoは、以下、単にフローベクトルVoとも表記され、オプティカルフローベクトルVo’は、以下、単にフローベクトルVo’とも表記される。フローベクトルVo(Xc,Yc)は終点の位置によって特定され、フローベクトルVo’(Xf,Yf)は始点の位置によって特定される。現在点Pcは、便宜上、「特定点」とも称呼される。一方、フロー起点Pfは、便宜上、「対応点」とも称呼される。
換言すれば、フローベクトルVo(Xc,Yc)は、前回画像Sp上のフロー起点Pf(Xf,Yf)から現在画像Sc上の現在点Pc(Xc,Yc)までの時間間隔Δtにおける被写体の撮影画像上の移動の向き及び大きさを表すベクトルである。フローベクトルVo(Xc,Yc)のX軸成分及びY軸成分を(xo,yo)として表すと、xo=Xc−Xf且つyo=Yc−Yfである。
ベクトル尤度Lvのそれぞれは、「0」から「1」までの範囲に含まれる(即ち、0≦Lv≦1)。ベクトル尤度Lv(Xc,Yc)は、フローベクトルVo(Xc,Yc)の取得誤差が小さい可能性が高いほど(即ち、フローベクトルVoの推定精度が高いほど)大きな値となる。
フローベクトルVo及びベクトル尤度Lvの詳細な取得方法については後述される。現在点Pc(Xc,Yc)のそれぞれに対応するフローベクトルVo(Xc,Yc)及びベクトル尤度Lv(Xc,Yc)が取得されると、動体検出装置20は、フロー起点Pf(Xf,Yf)のそれぞれを始点とするフローベクトルVo’(Xf,Yf)及びベクトル尤度Lv’(Xf,Yf)を取得する。
より具体的に述べると、動体検出装置20は、取得された種々のフローベクトルVoの内、フロー起点Pf(Xf,Yf)が始点であるものを選択し、そのフローベクトルVoをフロー起点Pfを始点とするフローベクトルVo’(Xf,Yf)として取得する。加えて、動体検出装置20は、そのフローベクトルVoのベクトル尤度LvをフローベクトルVo’(Xf,Yf)のベクトル尤度Lvとして取得する。
フロー起点Pfを始点とするフローベクトルVoが複数あれば、動体検出装置20は、それらのフローベクトルVoの内のベクトル尤度Lvが最大であるものを選択し、そのフローベクトルVoをフロー起点Pfを始点とするフローベクトルVo’(Xf,Yf)として取得する。一方、フロー起点Pfを始点とするフローベクトルVoが存在していなければ、動体検出装置20は、そのフロー起点Pf(Xf,Yf)を始点とするフローベクトルVo’(Xf,Yf)は零ベクトルであり且つそのフローベクトルVo’(Xf,Yf)のベクトル尤度Lvは「0」とする。
フローベクトルVoの例について図3(A)及び(B)を参照しながら説明する。図3(A)は、時刻t1にて撮影された撮影画像である画像S1を示している。図3(B)は、時刻t1よりも時間間隔Δtが経過した時刻t2(即ち、t2=t1+Δt)にて撮影された撮影画像である画像S2を示している。従って、画像S2が撮影された時点(即ち、時刻t2)において、画像S2は現在画像Scであり、画像S1は前回画像Spである。
後述される図3(C)は、時刻t2よりも時間間隔Δtが経過した時刻t3(即ち、t3=t2+Δt)にて撮影された撮影画像である画像S3を示している。カメラ10は、後述される「時刻t1よりも時間間隔Δtだけ以前の時刻t0(即ち、t0=t1−Δt)」から時刻t3までの間、上方向に一定の角速度にてチルトしている。加えて、画像S1〜画像S3に映る画像内動体(具体的には、小動物40)は、時刻t0から時刻t3までの間、カメラ10から見て右方向に一定の速度にて移動している。
画像S1上の点P1は、画像内動体(この例において、小動物40)の一部(具体的には、小動物40の右耳先端部)に対応している。画像S1上の点P1は、画像S2上の点P2に対応している。即ち、点P1及び点P2は共に小動物40の右耳先端部に対応している。換言すれば、画像S1において点P1の位置に映っていた小動物40の一部は、画像S2において点P2の位置に映っている。
以下の説明において、点P2を終点とするフローベクトルVo(図3(B)における矢印Vo2)は、フローベクトルVo(P2)とも表記される。即ち、ベクトルを特定するため、ベクトルの終点のX−Y座標に代わり、ベクトルの終点を表す符号が括弧内に表記される場合がある。
フローベクトルVo(P2)は、点P1が始点であり且つ点P2が終点であるベクトルである。この例において、点P2が現在点Pcであり且つ点P1がフロー起点Pfである。
(画面動態ベクトル取得処理)
ところで、フローベクトルVo(Xc,Yc)によって表されるフロー起点Pfから現在点Pcまでの時間間隔Δtにおける撮影画像上の移動は、現在点Pc(Xc,Yc)に対応する画像内動体の実際の移動(動体移動)と、画面動態の変化によって発生する見かけ上の移動(画面動態変化)と、に起因する。フローベクトルVo(Xc,Yc)における動体移動の寄与分は、動体移動ベクトルVm(Xc,Yc)とも称呼される。
例えば、現在点Pc(Xc,Yc)が画像内動体に対応していなければ(即ち、現在点Pcが路面及び構造物等の背景物に対応していれば)、理論上(即ち、フローベクトルVoの取得誤差が無ければ)、動体移動ベクトルVm(Xc,Yc)は零ベクトルとなる。
この場合、フローベクトルVo(Xc,Yc)は、画面動態変化を表している。現在点Pc(Xc,Yc)における画面動態変化を表すベクトルは、画面動態ベクトルVs(Xc,Yc)とも称呼される。画面動態ベクトルVs(Xc,Yc)の終点は現在点Pc(Xc,Yc)である一方、画面動態ベクトルVs(Xc,Yc)の始点は、画面動態起点Ph(Xh,Yh)とも称呼される。
即ち、画面動態ベクトルVs(Xc,Yc)は、前回画像Sp上の画面動態起点Ph(Xh,Yh)にある背景物が、画面動態変化によって現在画像Sc上の現在点Pc(Xc,Yc)に移動したことを表している。
画面動態ベクトルVs(Xc,Yc)は、終点の位置によって特定される。これに対し、画面動態起点Ph(Xh,Yh)を始点とする画面動態ベクトルVsは、以下、画面動態ベクトルVs’(Xh,Yh)とも表記される。
フローベクトルVo(Xc,Yc)は、動体移動ベクトルVm(Xc,Yc)と、フロー起点Pf(Xf,Yf)を始点とする画面動態ベクトルVs’(Xf,Yf)と、の和であると捉えることができる(即ち、Vo(Xc,Yc)=Vm(Xc,Yc)+Vs’(Xf,Yf))。
例えば、画面動態の変化が無ければ(即ち、前回画像Spの撮影時点から現在点Pcの撮影時点までカメラ10の撮影領域が変化していなければ)、理論上、画面動態ベクトルVsは全て零ベクトルとなる。
図3(B)の例において、フローベクトルVo(P2)は、動体移動ベクトルVm(P2)(図3(B)における矢印Vm2)と、画面動態ベクトルVs’(P1)(図3(B)における矢印Vs2’)と、の和である。
動体移動ベクトルVm(P2)は、点P2mが始点であり且つ点P2が終点であるベクトルである。画面動態ベクトルVs’(P1)は、点P1が始点であり且つ点P2mが終点であるベクトルである。なお、画面動態ベクトルVs(P2)(図3(B)における矢印Vs2)は、点P2sが始点であり且つ点P2が終点であるベクトルである。
上述したように、小動物40が右方向に移動しているので、動体移動ベクトルVm(P2)は、右向きのベクトルである。一方、カメラ10が上方向にチルトしているので、画面動態ベクトルVs’(P1)及び画面動態ベクトルVs(P2)は下向きのベクトルである。
フローベクトル取得処理が完了すると、動体検出装置20は、画面動態ベクトル取得処理を実行し、現在点Pc(Xc,Yc)のそれぞれに対して画面動態ベクトルVs(Xc,Yc)を取得する。画面動態ベクトルVsの具体的な取得方法については後述される。
現在点Pc(Xc,Yc)のそれぞれに対して画面動態ベクトルVs(Xc,Yc)が取得されると、動体検出装置20は、画面動態起点Ph(Xh,Yh)のそれぞれに対して画面動態起点Ph(Xh,Yh)を始点とする画面動態ベクトルVs’(Xh,Yh)を取得する。画面動態ベクトルVs’(Xh,Yh)の具体的な取得方法については後述される。
(フロー差分動体尤度取得処理)
画面動態ベクトル取得処理が完了すると、動体検出装置20は、フロー差分動体尤度取得処理を実行し、現在点Pc(Xc,Yc)のそれぞれに対してフロー差分動体尤度B(Xc,Yc)を取得する。フロー差分動体尤度B(Xc,Yc)のそれぞれは、「0」から「1」までの範囲に含まれる(即ち、0≦B≦1)。
動体検出装置20は、フロー差分動体尤度B(Xc,Yc)を、平均ベクトル尤度Lav(Xc,Yc)、平均フロー速度Vaf(Xc,Yc)、及び、所定の基準速度kv(固定値)を用いて下式(1)に基づいて取得する。式(1)において、右辺に含まれる変数に係る座標(Xc,Yc)は省略されている。
Figure 2019159894
動体検出装置20は、平均ベクトル尤度Lav(Xc,Yc)及び平均フロー速度Vaf(Xc,Yc)を、フロー点列Pv(Xc,Yc)を構成する点のそれぞれを終点とするフローベクトルVo、ベクトル尤度Lv及び動体移動ベクトルVmに基づいてそれぞれ取得する。
フロー点列Pv(Xc,Yc)は、時間間隔Δtが経過する毎に撮影画像上を移動し且つ現在画像Sc上の位置が現在点Pc(Xc,Yc)である点の集合である。フロー点列Pv(Xc,Yc)は、現在点Pc(Xc,Yc)、及び、フローベクトルVo(Xc,Yc)の始点(即ち、フロー起点Pf(Xf,Yf))を含んでいる。
フロー点列Pvについて、図3(C)の例を参照しながら説明する。時刻t0において点P0の位置にあった被写体(即ち、小動物40の右耳先端部)は、点P1(時刻t1)及び点P2(時刻t2)を経て時刻t3においては点P3に移動している。従って、時刻t3におけるフロー点列Pv(P3)は、点P0、点P1、点P2及び点P3によって構成されている。
図3(C)の矢印Vo1は、時刻t1にて取得されたフローベクトルVo(P1)を表している。加えて、矢印Vo3は、時刻t3にて取得されたフローベクトルVo(P3)を表している。
一方、図3(C)の矢印Vm1は、時刻t1にて取得されたフローベクトルVo(P1)に対応する動体移動ベクトルVm(P1)を表している。矢印Vm1(即ち、動体移動ベクトルVm(P1))の始点は点P1mである。
加えて、矢印Vm3は、時刻t3にて取得されたフローベクトルVo(P3)に対応する動体移動ベクトルVm(P3)を表している。矢印Vm3(即ち、動体移動ベクトルVm(P3))の始点は点P3mである。
次に、平均ベクトル尤度Lav(Xc,Yc)の取得方法について説明する。平均ベクトル尤度Lav(Xc,Yc)は、フロー点列Pv(Xc,Yc)を構成する点のそれぞれを終点とするフローベクトルVoのベクトル尤度Lvのそれぞれの移動平均である。
図3(C)の例によれば、時刻t3にて取得される平均ベクトル尤度Lav(P3)は、時刻t1にて取得されたフローベクトルVo(P1)(即ち、矢印Vo1)のベクトル尤度Lv、時刻t2にて取得されたフローベクトルVo(P2)(即ち、矢印Vo2)のベクトル尤度Lv、及び、時刻t3にて取得されたフローベクトルVo(P3)(即ち、矢印Vo3)のベクトル尤度Lvの移動平均である。なお、時刻t0にてフローベクトルVo(P0)は取得されていないので、時刻t0における点P0に係るベクトル尤度Lvは「0」である。
動体検出装置20は、平均ベクトル尤度Lav(Xc,Yc)を、尤度和WLav(Xc,Yc)を重み和Wa(Xc,Yc)により除することによって取得する(即ち、Lavt=WLav/Wa)。尤度和WLav(Xc,Yc)及び重み和Wa(Xc,Yc)の取得方法は、ベクトル尤度Lv(Xc,Yc)が前回平均ベクトル尤度Lavp(Xc,Yc)以上であるか否か(即ち、Lv≧Lavpであるか否か)に応じて異なる。前回平均ベクトル尤度Lavp(Xc,Yc)は、フロー差分動体尤度取得処理が前回実行されたときにフロー起点Pf(Xf,Yf)に対して取得された平均ベクトル尤度Lav(Xf,Yf)である。
先ず、ベクトル尤度Lv(Xc,Yc)が前回平均ベクトル尤度Lavp(Xc,Yc)以上である場合における、尤度和WLav(Xc,Yc)及び重み和Wa(Xc,Yc)の取得方法について説明する。
この場合、尤度和WLav(Xc,Yc)は、前回尤度和WLavp(Xc,Yc)及び所定の定数α1を用いて下式(2)に基づいて取得される。前回尤度和WLavp(Xc,Yc)は、フロー差分動体尤度取得処理が前回実行されたときにフロー起点Pf(Xf,Yf)に対して取得された尤度和WLav(Xf,Yf)である。定数α1は、「0」より大きく「1」より小さい定数である(即ち、0<α1<1)。

WLav(Xc,Yc)=α1×WLavp(Xc,Yc)
+(1−α1)×Lv(Xc,Yc) ……(2)
一方、重み和Wa(Xc,Yc)は、前回重み和Wap(Xc,Yc)を用いて下式(3)に基づいて取得される。前回重み和Wap(Xc,Yc)は、フロー差分動体尤度取得処理が前回実行されたときにフロー起点Pf(Xf,Yf)に対して取得された重み和Wa(Xf,Yf)である。

Wa(Xc,Yc)=α1×Wap(Xc,Yc)+(1−α1)
……(3)
次に、ベクトル尤度Lv(Xc,Yc)が前回平均ベクトル尤度Lavp(Xc,Yc)よりも小さい場合(即ち、Lv<Lavp)における、尤度和WLav(Xc,Yc)及び重み和Wa(Xc,Yc)の取得方法について説明する。
この場合、定数α1を補正して得られる補正後定数α1m(Xc,Yc)が参照される。補正後定数α1m(Xc,Yc)は、下式(4)に基づいて取得される。式(4)から理解されるように、補正後定数α1mは定数α1よりも小さい(即ち、α1m<α1)。加えて、尤度和WLav(Xc,Yc)及び重み和Wa(Xc,Yc)のそれぞれは、補正後定数α1m(Xc,Yc)を用いて下式(5)及び下式(6)に基づいてそれぞれ取得される。

α1m(Xc,Yc)=α1×Lv×Wa/WLav ……(4)
WLav(Xc,Yc)=α1m×WLavp+
(1−α1)×Lv ……(5)
Wa(Xc,Yc)=α1m×Wap+(1−α1) ……(6)

式(4)〜式(6)において、右辺に含まれる変数に係る座標(Xc,Yc)は省略されている。
なお、何れの場合も(即ち、ベクトル尤度Lv(Xc,Yc)が前回平均ベクトル尤度Lavp(Xc,Yc)以上であるか否かに拘わらず)、フロー起点Pf(Xf,Yf)が撮影画像の範囲外にあれば、前回尤度和WLavp(Xc,Yc)及び前回重み和Wap(Xc,Yc)の値はそれぞれ「0」となる。
次に、平均フロー速度Vaf(Xc,Yc)の取得方法について説明する。平均フロー速度Vaf(Xc,Yc)は、移動平均ベクトルVwv(Xc,Yc)の長さ(大きさ)を尤度和WLav(Xc,Yc)で除することによって取得される(即ち、Vaf(Xc,Yc)=|Vav(Xc,Yc)|/WLav(Xc,Yc))。
以下の説明において、フロー差分動体尤度取得処理が前回実行されたときにフロー起点Pf(Xf,Yf)に対して取得された移動平均ベクトルVwv(Xf,Yf)は、前回移動平均ベクトルVwvp(Xc,Yc)と称呼される。フロー起点Pf(Xf,Yf)が撮影画像の範囲外にあれば、前回平均フローベクトルVavp(Xc,Yc)は零ベクトルとなる。
移動平均ベクトルVwv(Xc,Yc)の取得方法は、ベクトル尤度Lv(Xc,Yc)が前回平均ベクトル尤度Lavp(Xc,Yc)以上であるか否か(即ち、Lv≧Lavpであるか否か)に応じて異なる。
ベクトル尤度Lv(Xc,Yc)が前回平均ベクトル尤度Lavp(Xc,Yc)以上である場合(即ち、Lv≧Lavp)、移動平均ベクトルVwv(Xc,Yc)は、下式(7)に基づいて取得される。
Figure 2019159894
式(7)において、右辺に含まれる変数に係る座標(Xc,Yc)は省略されている。
一方、ベクトル尤度Lv(Xc,Yc)が前回平均ベクトル尤度Lavp(Xc,Yc)よりも小さければ(即ち、Lv<Lavp)、移動平均ベクトルVwv(Xc,Yc)は、下式(8)に基づいて取得される。式(8)から理解されるように、この場合、移動平均ベクトルVwv(Xc,Yc)の決定に際し、ベクトル尤度Lv(Xc,Yc)が前回平均ベクトル尤度Lavp(Xc,Yc)以上である場合と比較して前回移動平均ベクトルVwvp(Xc,Yc)の寄与が小さくなる。
Figure 2019159894
式(8)において、右辺に含まれる変数に係る座標(Xc,Yc)は省略されている。
図3(C)の例によれば、時刻t3にて取得される平均フローベクトルVav(P3)は、時刻t1にて取得された動体移動ベクトルVm(P1)(即ち、矢印Vm1)、時刻t2にて取得された動体移動ベクトルVm(P2)(即ち、矢印Vm2)、及び、時刻t3にて取得された動体移動ベクトルVm(P3)(即ち、矢印Vm3)に基づいて決定される。
なお、図3(C)の点P3mは、時刻t3にて取得された動体移動ベクトルVm(P3)の終点が点P3にあるときの動体移動ベクトルVm(P3)の始点である。なお、時刻t0にてフローベクトルVo(P0)が取得されていないので、時刻t0における動体移動ベクトルVm(P0)は零ベクトルである。
ここで、フロー差分動体尤度B(Xc,Yc)の意義について説明する。上記式(1)から理解されるように、フロー差分動体尤度B(Xc,Yc)は、平均ベクトル尤度Lav(Xc,Yc)が大きくなるほど大きくなり、平均フロー速度Vaf(Xc,Yc)が大きくなるほど大きくなる。上述したようにベクトル尤度Lvは「0」から「1」までの範囲に含まれるので、平均ベクトル尤度Lavも「0」から「1」までの範囲に含まれる。そのため、上述したように、フロー差分動体尤度Bは、「0」から「1」までの範囲に含まれる(即ち、0≦B≦1)。
平均フロー速度Vafがフロー点列Pvを構成する点のそれぞれに対応する動体移動ベクトルVmに基づいて取得されるので、フロー点列Pvを構成する点が画像内動体に対応していて且つ画像内動体の撮影画像上の移動速度が大きければ、平均フロー速度Vafが大きな値となり、以て、フロー差分動体尤度Bが比較的大きな値となる。一方、画面動態変化が発生しているときであっても、画面動態変化に起因してフロー差分動体尤度B(Xc,Yc)が大きく上昇する可能性は小さい。
例えば、フロー点列Pvに対応する画像内動体の撮影画像上の移動速度が短時間の間だけ小さくなっても、それまでに画像内動体の撮影画像上の移動速度が比較的大きい状態が継続していれば、平均フロー速度Vafの値が急激に下がらず、以て、フロー差分動体尤度Bの値が比較的大きい状態が継続する。
一方、フロー点列Pvが背景物に対応していれば、平均フロー速度Vafは比較的小さな値となる。この場合、上述した画像ノイズの影響により一時的に平均フロー速度Vafが大きな値となっても、平均フロー速度Vafの値が急激に上昇せず、以て、フロー差分動体尤度Bの値が比較的小さい状態が継続する。
従って、フロー差分動体尤度B(Xc,Yc)は、現在点Pc(Xc,Yc)が画像内動体に対応している可能性が高いときに大きな値となる。ただし、フロー点列Pv(Xc,Yc)を構成する点に対して取得されたフローベクトルVoのそれぞれのベクトル尤度Lvが小さいと、平均ベクトル尤度Lav(Xc,Yc)が比較的小さな値となり、以て、フロー差分動体尤度B(Xc,Yc)は小さな値となる。
(背景差分動体尤度取得処理)
動体検出装置20は、背景モデルを取得(更新)する背景学習処理、及び、背景モデルに基づいて背景差分動体尤度C(Xc,Yc)を取得する背景差分動体尤度取得処理を実行する。背景差分動体尤度C(Xc,Yc)のそれぞれは、「0」から「1」までの範囲に含まれる(即ち、0≦C≦1)。
背景差分動体尤度C(Xc,Yc)は、色差分2乗和Css(Xc,Yc)、色基準分散Cbv(Xc,Yc)、及び、所定の基準係数kcを用いて下式(9)に基づいて取得される。式(9)において、右辺に含まれる変数に係る座標(Xc,Yc)は省略されている。
Figure 2019159894
色差分2乗和Css(Xc,Yc)及び色基準分散Cbv(Xc,Yc)は、画面動態移動点列Ps(Xc,Yc)を構成する点のそれぞれの赤強度Br、緑強度Bg及び青強度Bbに基づいて決定される。
画面動態移動点列Ps(Xc,Yc)は、画面動態の変化に伴って時間間隔Δtが経過する毎に撮影画像上を移動し且つ現在画像Sc上の位置が現在点Pc(Xc,Yc)である点の集合である。画面動態移動点列Ps(Xc,Yc)は、現在点Pc(Xc,Yc)、及び、画面動態起点Ph(Xh,Yh)を含んでいる。
画面動態移動点列Psについて、図3(C)の例を参照しながら説明する。図3(C)の矢印Vs1は、時刻t1にて取得された点P1を終点とする画面動態ベクトルVs(P1)を表している。矢印Vs1の始点は、点P1sである。一方、矢印Vs3’は、時刻t3にて取得されたフローベクトルVo(P3i)を表している。矢印Vs3’(即ち、フローベクトルVo(P3i))の始点は、点P2mである。
図3(B)から理解されるように、時刻t2において、点P2mは背景物に対応しているので、時刻t3にて取得された画面動態ベクトルVs(P3i)は、フローベクトルVo(P3i)と等しい。換言すれば、時刻t3における動体移動ベクトルVm(P3i)は、零ベクトルである。加えて、時刻t3において、点P3iは、背景物に対応している。
従って、時刻t3における点P3iに対応する背景物は、時刻t0から時刻t3にかけて画面動態の変化に伴い撮影画像上を点P1sから点P1及び点P2mを経て点P3iへ移動している。加えて、時刻t3における点P3iに対応する背景物は時刻t0にて初めて撮影画像上に現れている(即ち、「時刻t0よりも時間間隔Δtだけ以前の時刻」にて取得された撮影画像には点P3iに対応する背景物は映っていない。)。
以上より、時刻t3における画面動態移動点列Ps(P3i)は、点P1s、点P1、点P2m及び点P3iから構成されている。時刻t0における点P1s、時刻t2における点P2m、及び、時刻t3における点P3iは、道路の縁石に対応している。一方、時刻t1における点P1は小動物40の一部に対応しているが、この「点P1に対応する小動物40の一部」の背後には「時刻t2における点P2mに対応する道路の縁石」がある。
色差分2乗和Css(Xc,Yc)及び色基準分散Cbv(Xc,Yc)の取得に用いられる、赤強度Brに基づいて決定されるパラメータは、補正後前回赤強度移動平均Tarpm(Xc,Yc)及び補正後前回赤強度分散Tvrpm(Xc,Yc)である。補正後前回赤強度移動平均Tarpm(Xc,Yc)は、画面動態移動点列Psを構成する点のそれぞれの赤強度Brの移動平均である。補正後前回赤強度分散Tvrpm(Xc,Yc)は、画面動態移動点列Psを構成する点のそれぞれの赤強度Brの分散である。
色差分2乗和Css(Xc,Yc)及び色基準分散Cbv(Xc,Yc)の取得に用いられる、緑強度Bgに基づいて決定されるパラメータは、補正後前回緑強度移動平均Tagpm(Xc,Yc)及び補正後前回緑強度分散Tvgpm(Xc,Yc)である。色差分2乗和Css(Xc,Yc)及び色基準分散Cbv(Xc,Yc)の取得に用いられる、青強度Bbに基づいて決定されるパラメータは、補正後前回青強度移動平均Tabpm(Xc,Yc)及び補正後前回青強度分散Tvbpm(Xc,Yc)である。
色差分2乗和Css(Xc,Yc)は、下式(10)に基づいて取得される。

Css(Xc,Yc)=(Br−Tarpm)
+(Bg−Tagpm)
+(Bb−Tabpm) ……(10)
一方、色基準分散Cbv(Xc,Yc)は、下式(11)に基づいて取得される暫定色基準分散Cbvt(Xc,Yc)と、所定の定数mvmxと、内の大きい方の値に設定される(即ち、Cbv(Xc,Yc)=max(Cbvt(Xc,Yc),mvmx))。

Cbvt(Xc,Yc)=Tvrpm+Tvgpm+Tvbpm ……(11)

なお、式(10)及び式(11)において、右辺に含まれる変数に係る座標(Xc,Yc)は省略されている。
以下、補正後前回赤強度移動平均Tarpm(Xc,Yc)及び補正後前回赤強度分散Tvrpm(Xc,Yc)の取得方法について説明する。緑強度Bgに基づいて決定される同様のパラメータ及び青強度Bbに基づいて決定される同様のパラメータの取得方法は、赤強度Brに基づいて決定されるパラメータの取得方法と同様であるので、説明が割愛される。
補正後前回赤強度移動平均Tarpm(Xc,Yc)及び補正後前回赤強度分散Tvrpm(Xc,Yc)の取得に際し、赤強度比Tdr(Xc,Yc)、前回赤強度移動平均Tarp(Xc,Yc)、前回赤強度分散Tvrp(Xc,Yc)、赤強度和Ttr(Xc,Yc)、赤強度2乗和Tnr(Xc,Yc)及び赤重み和Wsr(Xc,Yc)が取得される。
赤強度比Tdr(Xc,Yc)、前回赤強度移動平均Tarp(Xc,Yc)及び前回赤強度分散Tvrp(Xc,Yc)は、下式(12)〜下式(14)に基づいてそれぞれ取得される。

Tdr(Xc,Yc)=Tarpm/Tarp ……(12)
Tarp(Xc,Yc)=Ttrp/Wsrp ……(13)
Tvrp(Xc,Yc)=Tnrp/Wsrp−Tarp ……(14)
赤強度和Ttr(Xc,Yc)、は、所定の定数α2を用いて下式(15)に基づき取得される。定数α2は、「0」より大きく「1」より小さい所定の定数である(即ち、0<α2<1)。前回赤強度和Ttrp(Xc,Yc)は、背景差分動体尤度取得処理が前回実行されたときに画面動態起点Ph(Xh,Yh)に対して取得された赤強度和Ttr(Xh,Yh)である。

Ttr(Xc,Yc)=α2×Ttrp×Tdr
+(1−α2)×Br ……(15)
赤強度2乗和Tnr(Xc,Yc)は、下式(16)に基づいて取得される。前回赤強度2乗和Tnrp(Xc,Yc)は、背景差分動体尤度取得処理が前回実行されたときに画面動態起点Ph(Xh,Yh)に対して取得された赤強度2乗和Tnr(Xh,Yh)である。

Tnr(Xc,Yc)=α2×Tnrp×Tdr
+(1−α2)×Br ……(16)
赤重み和Wsr(Xc,Yc)は、下式(17)に基づいて取得される。前回赤重み和Wsrp(Xc,Yc)は、背景差分動体尤度取得処理が前回実行されたときに画面動態起点Ph(Xh,Yh)に対して取得された赤重み和Wsr(Xh,Yh)である。

Wsr(Xc,Yc)=α2×Wsrp+(1−α2) ……(17)
補正後前回赤強度移動平均Tarpm(Xc,Yc)は、補正前の赤強度移動平均Tarp(Xc,Yc)が入力値である原点を通る2次関数の出力値として取得される。具体的には、補正後前回赤強度移動平均Tarpm(Xc,Yc)は、係数kr1及び係数kr2を用いて下式(18)に基づき取得される。

Tarpm(Xc,Yc)=Tarp×kr1
+Tarp×kr2 ……(18)
係数kr1及び係数kr2の組合せは、下式(19)に基づいて決定される赤強度差分Tcrを現在画像Scにおける「重複点集合」を構成する点のそれぞれに対して取得し、それらの赤強度差分Tcrの和である合計赤差分Wcr(即ち、Wcr=ΣTcr)が最小となるように決定される。重複点集合は、現在画像Scを構成する点の内、現在画像Scを構成する点のそれぞれを終点とする画面動態ベクトルVsの始点の位置が前回画像Spに含まれる点の集合である。

Tcr=(Tarp×kr1+Tarp×kr2−Br) ……(19)
換言すれば、重複点集合は、現在画像Scに含まれる背景物(画像内動体によって遮蔽され現在画像Scに映っていない背景物(遮蔽背景物)を含む)であって、前回画像Spにも含まれる背景物(遮蔽背景物を含む)、を構成する点の集合である。即ち、現在点Pc(Xc,Yc)に対応する画面動態起点Ph(Xh,Yh)が撮影画像に含まれていれば(即ち、0≦Xh≦Gh−1且つ0≦Yh≦Gv−1であれば)、その現在点Pc(Xc,Yc)は重複点集合に含まれる。以下、背景差分動体尤度取得処理に関する説明において、「Σ」は、重複点集合を構成する点のそれぞれに対して取得された値のそれぞれの和を意味する。
合計赤差分Wcrが最小となるように決定された係数kr1及び係数kr2に基づいて赤強度移動平均Tarp(Xc,Yc)から補正後前回赤強度移動平均Tarpm(Xc,Yc)を取得することにより、重複点集合を構成する点のそれぞれの補正後前回赤強度移動平均Tarpmの分布は、現在画像Scにおける重複点集合を構成する点のそれぞれの赤強度Brの分布と類似するようになる。補正後前回赤強度移動平均Tarpmの分布が現在画像Scにおける赤強度Brの分布と類似するように赤強度移動平均Tarpを補正して補正後前回赤強度移動平均Tarpmを取得する処理は、便宜上「明度補正」とも称呼される。
係数kr1及び係数kr2のそれぞれは、下式(20)及び下式(21)に基づいて取得される。
Figure 2019159894
補正後前回赤強度分散Tvrpm(Xc,Yc)は、下式(22)に基づいて取得される。即ち、補正後前回赤強度分散Tvrpm(Xc,Yc)は、赤強度比Tdr(Xc,Yc)を用いて前回赤強度分散Tvrp(Xc,Yc)を補正することによって取得される。

Tvrpm(Xc,Yc)=Tvrp×Tdr ……(22)
なお、上記式(12)〜式(22)において、右辺に含まれる変数に係る座標(Xc,Yc)は省略されている。
ここで、背景差分動体尤度C(Xc,Yc)の意義について説明する。上述したように、画面動態移動点列Psを構成する点のそれぞれは、理論上、同一の背景物(具体的には、背景物の特定の一部であり、以下、「対応背景物」とも称呼される。)に対応している。例えば、上述した時刻t3における画面動態移動点列Ps(P3i)に対応する道路の縁石が対応背景物に該当する。この例において、画像S1における点P1から理解されるように、撮影画像上の対応背景物が映る位置に画像内動体(この場合、小動物40)が映る場合がある。
一般に、撮影画像全体の面積に対する画像内動体の占める面積の比率は比較的低いので、画面動態移動点列Psを構成する点のうち、画像内動体に対応する点は少ない可能性が高い。そのため、現在点Pc(Xc,Yc)に対応する対応背景物の色彩(現在点対応物色彩)は、前回赤強度移動平均Tarp(Xc,Yc)、前回緑強度移動平均Tagp(Xc,Yc)及び前回青強度移動平均Tabp(Xc,Yc)の組合せによって表される色彩(対応背景物色彩)と近似する可能性が高い。
前回緑強度移動平均Tagp(Xc,Yc)は、画面動態移動点列Psを構成する点のそれぞれの緑強度Bgの移動平均である。前回青強度移動平均Tabp(Xc,Yc)は、画面動態移動点列Psを構成する点のそれぞれの青強度Bbの移動平均である。前回緑強度移動平均Tagp(Xc,Yc)及び前回青強度移動平均Tabp(Xc,Yc)の取得方法は、前回赤強度移動平均Tarp(Xc,Yc)の取得方法と同様であるため、説明が割愛される。
従って、現在点Pc(Xc,Yc)に画像内動体が映ったとき、現在点対応物色彩と対応背景物色彩との差分の大きさが大きくなる可能性が高い。
ところで、前回画像Spの撮影時点から現在画像Scの撮影時点までの間に画面全体の明るさの変化(画像明度変化)が発生する場合がある。画像明度変化は、カメラ10の露出の変化及びホワイトバランスの変化等に起因して発生する。画像明度変化が発生すると、現在点Pc(Xc,Yc)に対応背景物が映っている場合であっても、現在対応物点色彩と対応背景物色彩との差分が大きくなる可能性が高い。
一方、画面明度変化が発生しても、現在点Pc(Xc,Yc)に対応背景物が映っていれば、補正後前回赤強度移動平均Tarpm(Xc,Yc)、補正後前回緑強度移動平均Tagpm(Xc,Yc)及び補正後前回青強度移動平均Tabpm(Xc,Yc)の組合せによって表される色彩(補正後対応背景物色彩)は、現在点対応物色彩と近似している可能性が高い。
上記式(10)から理解されるように、色差分2乗和Css(Xc,Yc)は、補正後対応背景物色彩と、現在点Pcの色彩と、の差分が大きくなるほど大きな値に設定される。従って、色差分2乗和Cssは、画面明度変化の発生の有無に拘わらず、現在点Pc(Xc,Yc)の色彩と、現在点対応物色彩と、の差分が大きいほど大きな値に設定される。
ただし、色基準分散Cbv(Xc,Yc)が大きければ、対応背景物色彩が対応背景物の実際の色彩と乖離している可能性が高い。そのため、色基準分散Cbv(Xc,Yc)が大きいと、背景差分動体尤度C(Xc,Yc)が減少する。
(動体尤度決定処理)
動体検出装置20は、動体尤度決定処理を実行し、現在点Pc(Xc,Yc)のそれぞれに対して動体尤度Lm(Xc,Yc)を取得する。動体尤度Lm(Xc,Yc)は、現在点Pc(Xc,Yc)が動体の一部である尤度を表す。動体尤度Lmは、「0」から「1」までの範囲に含まれる(即ち、0≦Lm≦1)。動体尤度Lm(Xc,Yc)は、現在点Pc(Xc,Yc)が画像内動体の一部である可能性が高いほど大きな値となる。
動体検出装置20は、動体尤度Lm(Xc,Yc)を、背景差分動体尤度C(Xc,Yc)、フロー差分動体尤度B(Xc,Yc)、ベクトル尤度Lv(Xc,Yc)、及び、前回動体尤度Lmp(Xc,Yc)に基づいて取得する。
前回動体尤度Lmp(Xc,Yc)は、現在画像Scに対して取得されたフローベクトルVo(Xc,Yc)のフロー起点Pf(Xf,Yf)に対し、動体尤度特定処理が前回実行されたときに取得された動体尤度Lm(Xf,Yf)である。例えば、時刻t3にて実行される動体尤度特定処理における点P3に対する前回動体尤度Lmp(P3)は、時刻t2にて実行された動体尤度特定処理によって点P2に対して取得された動体尤度Lm(P2)に等しい。
動体検出装置20は、前回動体尤度Lmp(Xc,Yc)及びベクトル尤度Lv(Xc,Yc)の内の小さい方の値を第1暫定尤度At1(Xc,Yc)として取得する(即ち、At1=min(Lmp,Lv))。加えて、動体検出装置20は、第1暫定尤度At1(Xc,Yc)及びフロー差分動体尤度B(Xc,Yc)の内の大きい方の値を第2暫定尤度At2(Xc,Yc)として取得する(即ち、At2=max(At1,B))。更に、動体検出装置20は、第2暫定尤度At2(Xc,Yc)及び背景差分動体尤度C(Xc,Yc)の内の小さい方の値を動体尤度Lm(Xc,Yc)として取得する(即ち、Lm=min(At2,C))。上述した動体尤度Lm(Xc,Yc)の決定方法の概略が、図4に示される。
前回動体尤度Lmp(Xc,Yc)が小さいと、現在点Pc(Xc,Yc)が画像内動体に対応している可能性が低い。一方、ベクトル尤度Lv(Xc,Yc)が小さければ、前回動体尤度Lmp(Xc,Yc)が「現在点Pc(Xc,Yc)が画像内動体に対応する可能性」と相関を有する可能性が低い。そこで、第1暫定尤度At1(Xc,Yc)として、現在点Pc(Xc,Yc)の前回動体尤度Lmp(Xc,Yc)と、ベクトル尤度Lv(Xc,Yc)と、の内の小さい方の値が選択される。
換言すれば、第1暫定尤度At1(Xc,Yc)が大きければ、前回画像Spが取得された時点におけるフロー起点Pf(Xf,Yf)が画像内動体に対応していた可能性が高い。一方、フロー差分動体尤度B(Xc,Yc)が大きければ、現在画像Scが取得された時点における現在点Pc(Xc,Yc)が画像内動体に対応している可能性が高い。そこで、第2暫定尤度At2(Xc,Yc)として、第1暫定尤度At1(Xc,Yc)と、フロー差分動体尤度B(Xc,Yc)と、の内の大きい方の値が選択される。従って、第2暫定尤度At2(Xc,Yc)が大きければ、前回画像Spが取得された時点におけるフロー起点Pf(Xf,Yf)及び現在画像Scが取得された時点における現在点Pc(Xc,Yc)の少なくとも一方が画像内動体に対応している可能性が高い。
ところで、現在画像Scを構成する点のそれぞれに対してフローベクトルVoを取得すると(即ち、フローベクトルVoをピクセル単位で取得すると)、現在点Pc(Xc,Yc)が画像内動体の近傍にある背景物に対応しているとき、現在点Pc(Xc,Yc)に対して取得されるフローベクトルVo(Xc,Yc)が、現在点Pc(Xc,Yc)の近傍の点に対して取得されるフローベクトルVoと類似する場合がある。この場合、現在点Pc(Xc,Yc)が画像内動体に対応していないにも拘わらず、フロー差分動体尤度B(Xc,Yc)が比較的大きな値となり、以て、第2暫定尤度At2(Xc,Yc)が比較的大きな値となる可能性がある。
一方、背景差分動体尤度C(Xc,Yc)は、太陽光の照射状況の変化によって取得誤差が一時的に大きくなる可能性がある。具体的には、前回画像Spが取得された時点から現在画像Scが取得された時点までの間に「太陽光の照射が雲によって遮られた状態」から「太陽光が地面に照射される状態」へ遷移する場合がある。この場合、撮影画像における建物及び樹木等の影が映る領域と、太陽光が直接照射されている領域と、の間の明度の差分が大きくなり、以て、背景差分動体尤度C(Xc,Yc)の取得誤差が大きくなる可能性がある。そのため、第2暫定尤度At2(Xc,Yc)及び背景差分動体尤度C(Xc,Yc)が共に大きい値であるときにのみ動体尤度Lm(Xc,Yc)が大きな値に設定される。
(画像内動体領域特定処理)
次に、画像内動体領域特定処理について説明する。画像内動体領域特定処理において、現在画像Sc上に矩形数Np個(本実施形態において、矩形数Npは「500」。)のパーティクル矩形が配置される。具体的な処理の内容は後述されるが、画像内動体領域特定処理が実行されると、画像内動体領域特定処理が前回実行されたときに前回画像Sp上に配置されたパーティクル矩形のそれぞれの位置、幅及び高さが変更されたうえで現在画像Sc上に配置される。更に、現在画像Sc上に配置されたパーティクル矩形のそれぞれが画像内動体を囲んでいるか否かを表す尤度(後述される、検出矩形尤度Ld及び追跡矩形尤度Lf)が取得され、その尤度に基づいて撮影画像上の画像内動体の占める領域の特定に成功したか否かが判定される。パーティクル矩形は、便宜上「特定領域」とも称呼される。
より具体的に述べると、動体検出装置20は、画像内動体が検出されていないとき、画像内動体領域特定処理に際し、特定領域更新処理、検出矩形尤度取得処理、検出矩形リサンプリング処理、及び、検出判定処理を実行する。
特定領域更新処理は、前回画像Sp上に配置されたパーティクル矩形のそれぞれの位置、幅及び高さを変更して現在画像Sc上に配置する処理である。検出矩形尤度取得処理は、現在画像Sc上に配置されたパーティクル矩形のそれぞれの検出矩形尤度Ldを取得する処理である。検出矩形リサンプリング処理は、検出矩形尤度Ldに応じて選択されたパーティクル矩形を再配置させる処理である。検出判定処理は、画像内動体の検出に成功したか否かを判定する処理である。
検出判定処理において画像内動体の検出に成功したと判定されると、色ヒストグラム生成処理が実行されて基準ヒストグラムが生成される。一方、所定の時間(後述される時間閾値Tth3)継続して画像内動体の検出に失敗すると、矩形再配置処理が実行される。矩形再配置処理は、全てのパーティクル矩形を新たに生成する処理である。矩形再配置処理は、動体検出装置20が起動して画像内動体抽出処理を開始するときに実行されるイニシャルルーチン(不図示)においても実行される。
画像内動体が検出されているとき、動体検出装置20は、画像内動体領域特定処理に際し、特定領域更新処理、追跡矩形尤度取得処理、追跡矩形リサンプリング処理、及び、追跡判定処理を実行する。追跡矩形尤度取得処理、及び、追跡矩形リサンプリング処理は、検出矩形尤度取得処理、及び、検出矩形リサンプリング処理にそれぞれ類似する処理であり、相違点が後述される。追跡判定処理は、画像内動体の追跡に成功したか否かを判定する処理である。
追跡判定処理において画像内動体の追跡に成功したと判定されると、基準ヒストグラム更新処理が実行される。或いは、追跡判定処理において画像内動体の追跡に失敗したと判定されると、矩形再配置処理が実行される。
パーティクル矩形のそれぞれの諸元は、中心位置のX座標値である矩形横位置Xn、中心位置のY座標値である矩形縦位置Yn、X軸方向(横方向)の長さである矩形幅Rw、及び、Y軸方向(縦方向)の長さである矩形高Rhによって表される。矩形横位置Xn、矩形縦位置Yn、矩形幅Rw及び矩形高Rhの組合せは、「矩形諸元」とも称呼される。矩形横位置Xn及び矩形縦位置Ynの組合せは、矩形中心位置Pn(Xn,Yn)とも称呼される。
(特定領域更新処理)
特定領域更新処理について説明する。特定領域更新処理が実行されると、パーティクル矩形のそれぞれに対し、矩形位置の横位置(X座標値)の変化量である横位置変化量ΔXn、矩形位置の縦位置(Y座標値)の変化量である縦位置変化量ΔYn、矩形幅Rwの変化量である矩形幅変化量ΔRw、及び矩形高Rhの変化量である矩形高変化量ΔRhがそれぞれ決定される。
即ち、特定領域更新処理の実行後、パーティクル矩形の矩形諸元は、
矩形横位置Xnが(Xn+ΔXn)となり、
矩形縦位置Ynが(Yn+ΔYn)となり、
矩形幅Rwが(Rw+ΔRw)となり、且つ、
矩形高Rhが(Rh+ΔRh)となる。
横位置変化量ΔXn、縦位置変化量ΔYn、矩形幅変化量ΔRw及び矩形高変化量ΔRhの組合せは矩形諸元変化量とも総称される。パーティクル矩形のそれぞれの矩形諸元変化量は、前回移動方向追随法、及び、オプティカルフロー追随法の何れかに基づいて決定される。
パーティクル矩形のそれぞれに対し、画面動態追随移動法、及び、オプティカルフロー追随法の何れを適用するかは、確率Ptに応じて決定される。確率Ptは、(オプティカルフロー追随法ではなく)画面動態追随移動法が適用される確率である。パーティクル矩形のそれぞれに対する確率Ptは、修正矩形内動体尤度Svrを用いて下式(23)に基づいて取得される。

Pt=0.2/(Svr×0.8+0.2) ……(23)
修正矩形内動体尤度Svrは、前回画像Sp上に配置されたパーティクル矩形を構成する点のそれぞれに対して取得される修正動体尤度Lr(Xf,Yf)の平均値である。修正動体尤度Lr(Xf,Yf)は、パーティクル矩形を構成する前回画像Sp上の点(即ち、フロー起点Pf(Xf,Yf))を始点とするフローベクトルVo’の終点である現在点Pc(Xc,Yc)の動体尤度Lm(Xc,Yc)に基づいて取得される。修正動体尤度Lr(Xf,Yf)は、動体尤度Lm(Xc,Yc)及びフローベクトルVo(Xc,Yc)のベクトル尤度Lv(Xc,Yc)の内の小さい方の値である(即ち、Lr(Xf,Yf)=min(Lm(Xc,Yc),Lv(Xc,Yc)))。
(前回移動方向追随法−位置の変化量)
前回移動方向追随法における横位置変化量ΔXn及び縦位置変化量ΔYnの決定方法について説明する。横位置変化量ΔXn及び縦位置変化量ΔYnは、
(a)画面動態に基づいて決定される画面動態位置変化量、
(b)特定領域更新処理が前回実行されたときにおける矩形位置の変化量から画面動態の変化量を差し引いた移動量である矩形移動速度、及び
(c)正規乱数(正規分布乱数)によって決定される第1乱数諸元位置変化量
に基づいて決定される。
画面動態位置変化量は、画面動態横位置変化量ΔXs及び画面動態縦位置変化量ΔYsの組合せである。矩形移動速度は、横移動速度ΔXt及び縦移動速度ΔYtの組合せである。第1乱数諸元位置変化量は、第1乱数横位置変化量ΔXr1及び第1乱数縦位置変化量ΔYr1の組合せである。
横位置変化量ΔXnは、画面動態横位置変化量ΔXs、横移動速度ΔXt及び第1乱数横位置変化量ΔXr1の和として取得される(即ち、ΔXn=ΔXs+ΔXt+ΔXr1)。同様に、縦位置変化量ΔYnは、画面動態縦位置変化量ΔYs、縦移動速度ΔYt及び第1乱数縦位置変化量ΔYr1の和として取得される(即ち、ΔYn=ΔYs+ΔYt+ΔYr1)。
(a)画面動態横位置変化量ΔXsは、矩形中心位置Pn(Xn,Yn)を始点とする画面動態ベクトルVs’のX軸方向成分に等しい。同様に、画面動態縦位置変化量ΔYsは、矩形中心位置Pn(Xn,Yn)を始点とする画面動態ベクトルVs’のY軸方向成分に等しい。
(b)矩形移動速度は、(b1)特定領域更新処理が前回実行されたときにそのパーティクル矩形に対して決定された前回矩形位置変化量、(b2)フローベクトル取得処理が前回実行されたときに取得された(即ち、前回画像Spに対して取得された)画面動態ベクトルVsである前回画面動態ベクトルVspに基づいて決定される前回画面動態位置変化量、及び、(b3)パーティクル矩形の中心位置の画面動態拡大率に基づいて取得される。
前回矩形位置変化量は、前回横位置変化量ΔXnp及び前回縦位置変化量ΔYnpの組合せである。前回横位置変化量ΔXnpは、特定領域更新処理が前回実行されたときにそのパーティクル矩形に対して決定された横位置変化量ΔXnである。同様に、前回縦位置変化量ΔYnpは、特定領域更新処理が前回実行されたときにそのパーティクル矩形に対して決定された縦位置変化量ΔYnである。
前回画面動態位置変化量は、前回画面動態横位置変化量ΔXsp及び画面動態縦位置変化量ΔYspの組合せである。前回画面動態横位置変化量ΔXspは、前回画面動態ベクトルVspのうち、矩形中心位置Pn(Xn,Yn)を終点とするベクトルのX軸方向成分に等しい。同様に、前回画面動態縦位置変化量ΔYspは、前回画面動態ベクトルVspのうち、矩形中心位置Pn(Xn,Yn)を終点とするベクトルのY軸方向成分に等しい。
特定領域更新処理の対象となるパーティクル矩形が、前回実行された特定領域更新処理において前回移動方向追随法が選択されていれば、前回画面動態位置変化量は、特定領域更新処理が前回実行されたときに取得された画面動態位置変化量と等しい。
前回矩形位置変化量と前回画面動態位置変化量との差分は、原始矩形移動速度と称呼される。原始矩形移動速度は、原始横移動速度ΔXsa及び原始縦移動速度ΔYsaの組合せである。原始横移動速度ΔXsaは、前回横位置変化量ΔXnpと前回画面動態横位置変化量ΔXspとの差分である(即ち、ΔXsa=ΔXnp−ΔXsp)。同様に、原始縦移動速度ΔYsaは、前回縦位置変化量ΔYnpと前回画面動態縦位置変化量ΔYspとの差分である(即ち、ΔYsa=ΔYnp−ΔYsp)。
画面動態拡大率は、画面動態横拡大率Rew及び画面動態高拡大率Rehの組合せである。画面動態横拡大率Rewは、画面動態の変化に起因する矩形中心位置Pn(Xn,Yn)のX軸方向の拡大率である。同様に、画面動態高拡大率Rehは、画面動態の変化に起因する矩形中心位置Pn(Xn,Yn)のY軸方向の拡大率である。画面動態横拡大率Rew及び画面動態高拡大率Rehの具体的な取得方法については、後述される。
矩形移動速度は、原始矩形移動速度と画面動態拡大率との積として取得される。具体的には、横移動速度ΔXtは、原始横移動速度ΔXsaと画面動態横拡大率Rewとの積である(ΔXt=ΔXsa×Rew)。同様に、縦移動速度ΔYtは、原始縦移動速度ΔYsaと画面動態高拡大率Rehとの積である(ΔYt=ΔYsa×Reh)。
(c)第1乱数横位置変化量ΔXr1は、平均値が「0」であり且つ標準偏差が標準偏差Dx1である正規乱数によって決定される値である。標準偏差Dx1は、矩形幅Rw及び矩形高Rhの内の大きい方と、所定の係数Kx1と、の積である(即ち、Dx1=max(Rw,Rh)×Kx1)。即ち、仮に、動体検出装置20がこの正規乱数により多数の第1乱数横位置変化量ΔXr1を取得すると、取得された第1乱数横位置変化量ΔXr1の集合は、平均値が「0」であり且つ標準偏差が標準偏差Dx1である正規分布を形成する。
同様に、第1乱数縦位置変化量ΔYr1は、平均値が「0」であり且つ標準偏差が標準偏差Dy1である正規乱数によって決定される値である。標準偏差Dy1は、矩形幅Rw及び矩形高Rhの内の大きい方と、所定の係数Ky1と、の積である(即ち、Dy1=max(Rw,Rh)×Ky1)。本実施形態において、係数Kx1及び係数Ky1は、互いに等しい。
(前回移動方向追随法−大きさの変化量)
次に、前回移動方向追随法における矩形幅変化量ΔRw及び矩形高変化量ΔRhの決定方法について説明する。矩形幅変化量ΔRw及び矩形高変化量ΔRhの決定に際して、正規乱数によって決定される第1乱数矩形幅変化量ΔRwr1及び第1乱数矩形高変化量ΔRhr1が取得される。
第1乱数矩形幅変化量ΔRwr1は、平均値が「0」であり且つ標準偏差が標準偏差Ds1である正規乱数によって決定される値である。標準偏差Ds1は、矩形幅Rw及び矩形高Rhの内の大きい方と、所定の係数Ks1と、の積である(即ち、Ds1=max(Rw,Rh)×Ks1)。同様に、第1乱数矩形高変化量ΔRhr1は、平均値が「0」であり且つ標準偏差が標準偏差Ds1である正規乱数によって決定される値である。
矩形幅変化量ΔRwは、下式(24)に基づいて取得される。同様に、矩形高変化量ΔRhは、下式(25)に基づいて取得される。

ΔRw=Rw×(Rew−1)+ΔRwr1 ……(24)
ΔRh=Rh×(Reh−1)+ΔRhr1 ……(25)
(オプティカルフロー追随法−位置の変化量)
オプティカルフロー追随法における横位置変化量ΔXn及び縦位置変化量ΔYnの決定方法について説明する。横位置変化量ΔXn及び縦位置変化量ΔYnの決定に際してフロー横位置変化量ΔXno及びフロー縦位置変化量ΔYnoが取得される。
横位置変化量ΔXnは、フロー横位置変化量ΔXno及び第1乱数横位置変化量ΔXr1の和として取得される(即ち、ΔXn=ΔXno+ΔXr1)。同様に、縦位置変化量ΔYnは、フロー縦位置変化量ΔYno及び第1乱数縦位置変化量ΔYr1の和として取得される(即ち、ΔYn=ΔYno+ΔYr1)。
フロー横位置変化量ΔXno及びフロー縦位置変化量ΔYnoの取得に際して、前回画像Sp上に配置されたパーティクル矩形を構成するピクセルの中から第1矩形代表点Pr1が選択される。第1矩形代表点Pr1の選択方法については後述される。
第1矩形代表点Pr1を始点とするフローベクトルVo’のX軸方向成分は、第1代表横成分Vd1xと称呼される。フロー横位置変化量ΔXnoは、第1代表横成分Vd1xと等しい値に設定される。同様に、第1矩形代表点Pr1を始点とするフローベクトルVo’のY軸方向成分は、第1代表横成分Vd1yと称呼される。フロー縦位置変化量ΔYnoは、第1代表横成分Vd1yと等しい値に設定される。
(オプティカルフロー追随法−大きさの変化量)
次に、オプティカルフロー追随法における矩形幅変化量ΔRw及び矩形高変化量ΔRhの決定方法について説明する。矩形幅変化量ΔRw及び矩形高変化量ΔRhの決定に際して、第1矩形代表点Pr1の選択方法と同様の方法によって第2矩形代表点Pr2が選択される。
第2矩形代表点Pr2を始点とするフローベクトルVo’のX軸方向成分は、第2代表横成分Vd2xと称呼される。同様に、第2矩形代表点Pr2を始点とするフローベクトルVo’のY軸方向成分は、第2代表縦成分Vd2yと称呼される。
加えて、第1矩形代表点Pr1のX軸座標はPd1xと称呼され、第1矩形代表点Pr1のY軸座標はPd1yと称呼される。同様に、第2矩形代表点Pr2のX軸座標はPd2xと称呼され、第2矩形代表点Pr2のY軸座標はPd2yと称呼される。
(a)矩形幅変化量ΔRwの決定方法
Pd2xとPd1xとの差分の大きさが矩形幅Rwに所定の係数Kbを乗じて得られる値以上であれば(即ち、|Pd2x−Pd1x|≧Rw×Kb)、矩形幅変化量ΔRwは、下式(26)に基づいて決定される。係数Kbは「0」より大きく且つ「1」より小さい値であり、本実施形態において「0.25」である。

ΔRw=Rw×(Vd2x−Vd1x)/(Pd2x−Pd1x)
+ΔRwr1 ……(26)
一方、Pd2xとPd1xとの差分の大きさが矩形幅Rwに係数Kbを乗じて得られる値よりも小さければ(即ち、|Pd2x−Pd1x|<Rw×Kb)、矩形幅変化量ΔRwは、上記式(24)に基づいて決定される。
(b)矩形高変化量ΔRhの決定方法
Pd2yとPd1yとの差分の大きさが矩形高Rhに係数Kbを乗じて得られる値以上であれば(即ち、|Pd2y−Pd1y|≧Rh×Kb)、矩形高変化量ΔRhは、下式(27)に基づいて決定される。

ΔRh=Rh×(Vd2y−Vd1y)/(Pd2y−Pd1y)
+ΔRhr1 ……(27)
一方、Pd2yとPd1yとの差分の大きさが矩形高Rhに係数Kbを乗じて得られる値よりも小さければ(即ち、|Pd2y−Pd1y|<Rh×Kb)、矩形高変化量ΔRhは、上記式(25)に基づいて決定される。
(オプティカルフロー追随法−代表点の選択方法)
第1矩形代表点Pr1の選択方法について説明する。第2矩形代表点Pr2の選択方法は第1矩形代表点Pr1の選択方法と同様であるので、説明を割愛する。
第1矩形代表点Pr1の選択に際して、前回画像Sp上に配置されたパーティクル矩形を構成する点のそれぞれに対して取得される修正動体尤度Lr(Xf,Yf)の合計値である合計全体動体尤度Lmpsが取得される(即ち、Lmps=ΣLr)。
第1矩形代表点Pr1は、前回画像Sp上に配置されたパーティクル矩形を構成するピクセルのそれぞれの内から確率Pwに応じてランダムに選択される。パーティクル矩形に含まれるあるフロー起点Pf(Xf,Yf)が選択される確率Pwは、合計全体動体尤度Lmpsに対する、その点の修正動体尤度Lr(Xf,Yf)の比率として決定される(即ち、Pw=Lr/Lmps)。
例えば、パーティクル矩形を構成するピクセルの一つである点Pa1の修正動体尤度Lr(Pa1)が、パーティクル矩形を構成するピクセルの他の一つである点Pa2の修正動体尤度Lr(Pa2)の2倍の大きさであると仮定する(即ち、Lr(Pa1)=2×Lr(Pa2))。この場合、点Pa1に係る確率Pw(Pa1)は、点Pa2に係る確率Pw(Pa2)の2倍の大きさとなる(即ち、Pw(Pa1)=2×Pw(Pa2))。従って、点Pa1が第1矩形代表点Pr1として選択される確率は、点Pa2が第1矩形代表点Pr1として選択される確率の2倍である。
(検出矩形尤度取得処理)
検出矩形尤度取得処理について説明する。検出矩形尤度取得処理は、特定領域更新処理によって現在画像Sc上に配置されたパーティクル矩形のそれぞれに対して検出矩形尤度Ldを取得する処理である。検出矩形尤度Ldは、矩形内動体尤度Svが大きくなるほど大きくなり、検出周辺動体尤度Sdoが大きくなるほど小さくなる。
矩形内動体尤度Svは、パーティクル矩形を構成するピクセルのそれぞれの動体尤度Lmの平均値である。検出周辺動体尤度Sdoは、後述されるパーティクル矩形周辺の領域の動体尤度Lmの平均値に基づいて取得される。
パーティクル矩形が画像内動体を囲んでいると(即ち、パーティクル矩形が画像内動体を含んでいると)、矩形内動体尤度Svが大きくなる。ところが、パーティクル矩形が画像内動体を囲んでいても、パーティクル矩形の大きさが画像内動体の大きさと比較して過大であると、パーティクル矩形内にある動体尤度Lmが小さいピクセルの数が多くなり、以て、矩形内動体尤度Svが小さくなる。
一方、検出周辺動体尤度Sdoは、パーティクル矩形周辺の領域(後述される、検出周辺領域)を構成するピクセルの動体尤度Lmが大きいほど大きくなる。そのため、パーティクル矩形が画像内動体を含んでいても、パーティクル矩形の大きさが画像内動体の大きさと比較して過小であれば、画像内動体の一部が検出周辺領域に含まれ、以て、検出周辺動体尤度Sdoが大きくなる。
従って、パーティクル矩形が画像内動体を含み(囲み)、且つ、パーティクル矩形の大きさが画像内動体を囲むのに必要十分な大きさであるとき、検出矩形尤度Ldは大きな値となる。
検出周辺動体尤度Sdoの取得に際し、動体検出装置20は、図5(A)〜(D)に示される4種の検出周辺領域(具体的には、第1検出周辺領域Rgd1、第2検出周辺領域Rgd2、第3検出周辺領域Rgd3及び第4検出周辺領域Rgd4)のそれぞれに対して第1検出周辺動体尤度Sdo1、第2検出周辺動体尤度Sdo2、第3検出周辺動体尤度Sdo3及び第4検出周辺動体尤度Sdo4をそれぞれ取得する。
次いで、動体検出装置20は、第1検出周辺動体尤度Sdo1、第2検出周辺動体尤度Sdo2、第3検出周辺動体尤度Sdo3及び第4検出周辺動体尤度Sdo4の内の最大値を検出周辺動体尤度Sdoとして取得する(即ち、Sdo=max(Sdo1,Sdo2,Sdo3,Sdo4))。
第1検出周辺領域Rgd1について説明する。第1検出周辺領域Rgd1とパーティクル矩形との位置関係が、図5(A)に示される。第1検出周辺領域Rgd1は、4つの矩形(即ち、検出周辺矩形51a〜検出周辺矩形51d)から構成される。
検出周辺矩形51aは、パーティクル矩形(図5(A)〜(D)の例において、パーティクル矩形50)の上端に隣接している。検出周辺矩形51aの左端のX座標はパーティクル矩形の左端のX座標と等しく、検出周辺矩形51aの右端のX座標はパーティクル矩形の右端のX座標と等しい。従って、検出周辺矩形51aの横方向の長さは、パーティクル矩形の矩形幅Rwと等しい。
検出周辺矩形51aの縦方向の長さは、検出周辺矩形高Ndhである。検出周辺矩形高Ndhは、パーティクル矩形の矩形高Rhに「0.3」を乗じて得られる値と、所定の第1長さ閾値Nth1と、の内の大きい方の値に等しい(即ち、Ndh=max(Rh×0.3,Nth1))。
検出周辺矩形51bは、パーティクル矩形の下端に隣接している。検出周辺矩形51bの左端のX座標はパーティクル矩形の左端のX座標と等しく、検出周辺矩形51bの右端のX座標はパーティクル矩形の右端のX座標と等しい。従って、検出周辺矩形51bの横方向の長さは、パーティクル矩形の矩形幅Rwと等しい。検出周辺矩形51bの縦方向の長さは、検出周辺矩形高Ndhである。
検出周辺矩形51cは、パーティクル矩形の左端に隣接している。検出周辺矩形51cの上端のY座標はパーティクル矩形の上端のY座標と等しく、検出周辺矩形51cの下端のY座標はパーティクル矩形の下端のY座標と等しい。従って、検出周辺矩形51cの縦方向の長さは、パーティクル矩形の矩形高Rhと等しい。
検出周辺矩形51cの横方向の長さは、検出周辺矩形幅Ndwである。検出周辺矩形幅Ndwは、パーティクル矩形の矩形幅Rwに「0.3」を乗じて得られる値と、第1長さ閾値Nth1と、の内の大きい方の値に等しい(即ち、Ndw=max(Rw×0.3,Nth1))。
検出周辺矩形51dは、パーティクル矩形の右端に隣接している。検出周辺矩形51dの上端のY座標はパーティクル矩形の上端のY座標と等しく、検出周辺矩形51dの下端のY座標はパーティクル矩形の下端のY座標と等しい。従って、検出周辺矩形51dの縦方向の長さは、パーティクル矩形の矩形高Rhと等しい。検出周辺矩形51dの横方向の長さは、検出周辺矩形幅Ndwである。
動体検出装置20は、検出周辺矩形51aを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdaa、及び、検出周辺矩形51bを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdabを取得する。加えて、動体検出装置20は、検出周辺矩形51cを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdac、及び、検出周辺矩形51dを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdadを取得する。
更に、動体検出装置20は、検出矩形動体尤度Sdaa、検出矩形動体尤度Sdab、検出矩形動体尤度Sdac、及び、検出矩形動体尤度Sdadの内の最大値を第1検出周辺動体尤度Sdo1として取得する。
図5(A)の例において、パーティクル矩形50と小動物40とが重複している領域があるので、矩形内動体尤度Svが比較的大きい値となる。一方、パーティクル矩形50の大きさが小動物40の大きさよりも小さいので、検出周辺矩形51cと小動物40とが重複する領域が発生している。そのため、検出矩形動体尤度Sdacが比較的大きな値となる。従って、パーティクル矩形50が小動物40を囲み且つパーティクル矩形50の大きさが小動物40を囲むのに必要十分な大きさである場合と比較して、第1検出周辺動体尤度Sdo1の値が大きくなる。
第2検出周辺領域Rgd2について説明する。第2検出周辺領域Rgd2とパーティクル矩形との位置関係が、図5(B)に示される。第2検出周辺領域Rgd2は、4つの矩形(即ち、検出周辺矩形52a〜検出周辺矩形52d)から構成される。
検出周辺矩形52aは、パーティクル矩形の上端に隣接している。検出周辺矩形52aの左端のX座標は、パーティクル矩形の左端のX座標よりも検出周辺矩形幅Ndwだけ小さい。一方、検出周辺矩形52aの右端のX座標は、パーティクル矩形の右端のX座標と等しい。従って、検出周辺矩形52aの横方向の長さは、パーティクル矩形の矩形幅Rwと検出周辺矩形幅Ndwとの和(即ち、Rw+Ndw)に等しい。検出周辺矩形52aの縦方向の長さは、検出周辺矩形高Ndhである。
検出周辺矩形52bは、パーティクル矩形の下端に隣接している。検出周辺矩形52bの左端のX座標は、パーティクル矩形の左端のX座標と等しい。一方、検出周辺矩形52bの右端のX座標は、パーティクル矩形の右端のX座標よりも検出周辺矩形幅Ndwだけ大きい。従って、検出周辺矩形52bの横方向の長さは、パーティクル矩形の矩形幅Rwと検出周辺矩形幅Ndwとの和(即ち、Rw+Ndw)に等しい。検出周辺矩形52bの縦方向の長さは、検出周辺矩形高Ndhである。
検出周辺矩形52cは、パーティクル矩形の左端に隣接している。検出周辺矩形52cの上端のY座標は、パーティクル矩形の上端のY座標と等しい。一方、検出周辺矩形52cの下端のY座標はパーティクル矩形の下端のY座標よりも検出周辺矩形高Ndhだけ大きい。従って、検出周辺矩形52cの縦方向の長さは、パーティクル矩形の矩形高Rhと検出周辺矩形高Ndhとの和(即ち、Rh+Ndh)に等しい。検出周辺矩形52cの横方向の長さは、検出周辺矩形幅Ndwである。
検出周辺矩形52dは、パーティクル矩形の右側に隣接している。検出周辺矩形52dの上端のY座標は、パーティクル矩形の上端のY座標よりも検出周辺矩形高Ndhだけ小さい。一方、検出周辺矩形52dの下端のY座標はパーティクル矩形の下端のY座標と等しい。従って、検出周辺矩形52dの縦方向の長さは、パーティクル矩形の矩形高Rhと検出周辺矩形高Ndhとの和(即ち、Rh+Ndh)に等しい。検出周辺矩形52dの横方向の長さは、検出周辺矩形幅Ndwである。
動体検出装置20は、検出周辺矩形52aを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdba、及び、検出周辺矩形52bを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdbbを取得する。加えて、動体検出装置20は、検出周辺矩形52cを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdbc、及び、検出周辺矩形52dを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdbdを取得する。
更に、動体検出装置20は、検出矩形動体尤度Sdba、検出矩形動体尤度Sdbb、検出矩形動体尤度Sdbc、及び、検出矩形動体尤度Sdbdの内の最大値を第2検出周辺動体尤度Sdo2として取得する。
第3検出周辺領域Rgd3について説明する。第3検出周辺領域Rgd3とパーティクル矩形との位置関係が、図5(C)に示される。第3検出周辺領域Rgd3は、4つの矩形(即ち、検出周辺矩形53a〜検出周辺矩形53d)から構成される。
検出周辺矩形53aは、パーティクル矩形の上端に隣接している。検出周辺矩形53aの左端のX座標は、パーティクル矩形の左端のX座標と等しい。一方、検出周辺矩形53aの右端のX座標は、パーティクル矩形の右端のX座標よりも検出周辺矩形幅Ndwだけ大きい。従って、検出周辺矩形53aの横方向の長さは、パーティクル矩形の矩形幅Rwと検出周辺矩形幅Ndwとの和(即ち、Rw+Ndw)に等しい。検出周辺矩形53aの縦方向の長さは、検出周辺矩形高Ndhである。
検出周辺矩形53bは、パーティクル矩形の下端に隣接している。検出周辺矩形53bの左端のX座標は、パーティクル矩形の左端のX座標よりも検出周辺矩形幅Ndwだけ小さい。一方、検出周辺矩形53bの右端のX座標は、パーティクル矩形の右端のX座標と等しい。従って、検出周辺矩形53bの横方向の長さは、パーティクル矩形の矩形幅Rwと検出周辺矩形幅Ndwとの和(即ち、Rw+Ndw)に等しい。検出周辺矩形53bの縦方向の長さは、検出周辺矩形高Ndhである。
検出周辺矩形53cは、パーティクル矩形の左端に隣接している。検出周辺矩形53cの上端のY座標は、パーティクル矩形の上端のY座標よりも検出周辺矩形高Ndhだけ小さい。一方、検出周辺矩形53cの下端のY座標はパーティクル矩形の下端のY座標と等しい。従って、検出周辺矩形53cの縦方向の長さは、パーティクル矩形の矩形高Rhと検出周辺矩形高Ndhとの和(即ち、Rh+Ndh)に等しい。検出周辺矩形53cの横方向の長さは、検出周辺矩形幅Ndwである。
検出周辺矩形53dは、パーティクル矩形の右側に隣接している。検出周辺矩形53dの上端のY座標は、パーティクル矩形の上端のY座標と等しい。一方、検出周辺矩形53dの下端のY座標はパーティクル矩形の下端のY座標よりも検出周辺矩形高Ndhだけ大きい。従って、検出周辺矩形53dの縦方向の長さは、パーティクル矩形の矩形高Rhと検出周辺矩形高Ndhとの和(即ち、Rh+Ndh)に等しい。検出周辺矩形53dの横方向の長さは、検出周辺矩形幅Ndwである。
動体検出装置20は、検出周辺矩形53aを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdca、及び、検出周辺矩形53bを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdcbを取得する。加えて、動体検出装置20は、検出周辺矩形53cを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdcc、及び、検出周辺矩形53dを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdcdを取得する。
更に、動体検出装置20は、検出矩形動体尤度Sdca、検出矩形動体尤度Sdcb、検出矩形動体尤度Sdcc、及び、検出矩形動体尤度Sdcdの内の最大値を第3検出周辺動体尤度Sdo3として取得する。
第4検出周辺領域Rgd4について説明する。第4検出周辺領域Rgd4とパーティクル矩形との位置関係が、図5(D)に示される。第4検出周辺領域Rgd4は、4つの矩形(即ち、検出周辺矩形54a〜検出周辺矩形54d)によって構成される。検出周辺矩形54a〜検出周辺矩形54dのそれぞれの横方向の長さは検出周辺矩形幅Ndwであり、検出周辺矩形54a〜検出周辺矩形54dのそれぞれの縦方向の長さは検出周辺矩形高Ndhである。
検出周辺矩形54aの右下端は、パーティクル矩形の左上端と接している。即ち、検出周辺矩形54aの右端のX座標はパーティクル矩形の左端のX座標よりも「1」だけ小さく、検出周辺矩形54aの下端のY座標はパーティクル矩形の上端のY座標よりも「1」だけ小さい。
検出周辺矩形54bの左下端は、パーティクル矩形の右上端と接している。即ち、検出周辺矩形54bの左端のX座標はパーティクル矩形の右端のX座標よりも「1」だけ大きく、検出周辺矩形54bの下端のY座標はパーティクル矩形の上端のY座標よりも「1」だけ小さい。
検出周辺矩形54cの右上端は、パーティクル矩形の左下端と接している。即ち、検出周辺矩形54cの右端のX座標はパーティクル矩形の左端のX座標よりも「1」だけ小さく、検出周辺矩形54cの上端のY座標はパーティクル矩形の下端のY座標よりも「1」だけ大きい。
検出周辺矩形54dの左上端は、パーティクル矩形の右下端と接している。即ち、検出周辺矩形54dの左端のX座標はパーティクル矩形の右端のX座標よりも「1」だけ大きく、検出周辺矩形54dの上端のY座標はパーティクル矩形の下端のY座標よりも「1」だけ大きい。
検出周辺矩形54a〜検出周辺矩形54dのそれぞれの面積がパーティクル矩形の面積に「0.3」を乗じた値よりも小さければ(即ち、Ndh×Ndw<0.3×Rw×Rh)、第4検出周辺動体尤度Sdo4を「0」に設定する。
一方、検出周辺矩形54a〜検出周辺矩形54dのそれぞれの面積がパーティクル矩形の面積「0.3」を乗じた値以上であれば(即ち、Ndh×Ndw≧0.3×Rw×Rh)、動体検出装置20は、以下の手順により第4検出周辺動体尤度Sdo4を取得する。
即ち、動体検出装置20は、検出周辺矩形54aを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdda、及び、検出周辺矩形54bを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sddbを取得する。加えて、動体検出装置20は、検出周辺矩形54cを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sddc、及び、検出周辺矩形54dを構成するピクセルのそれぞれの動体尤度Lmの平均値である検出矩形動体尤度Sdddを取得する。
更に、動体検出装置20は、検出矩形動体尤度Sdda、検出矩形動体尤度Sddb、検出矩形動体尤度Sddc、及び、検出矩形動体尤度Sdddの内の最大値を第4検出周辺動体尤度Sdo4として取得する。
第1検出周辺動体尤度Sdo1、第2検出周辺動体尤度Sdo2、第3検出周辺動体尤度Sdo3及び第4検出周辺動体尤度Sdo4が取得され、以て、検出周辺動体尤度Sdoが取得されると、動体検出装置20は、補正後矩形内動体尤度Svm及び補正後検出周辺動体尤度Sdomを取得する。
具体的には、動体検出装置20は、補正後矩形内動体尤度Svmを下式(28)に基づいて取得する。式(28)から理解されるように、矩形内動体尤度Svが大きくなるほど補正後矩形内動体尤度Svmが大きくなる。

Svm=1−(1−Sv) ……(28)
一方、動体検出装置20は、補正後検出周辺動体尤度Sdomを下式(29)に基づいて取得する。

Sdom=1−(1−Sdo) ……(29)
次いで、動体検出装置20は、補正後矩形内動体尤度Svmと補正後検出周辺動体尤度Sdomとの差分である検出矩形尤度差分Sdd(即ち、Sdd=Svm−Sdom)を取得する。検出矩形尤度差分Sddが正の値であれば、動体検出装置20は、検出矩形尤度Ldを検出矩形尤度差分Sddに設定する。一方、検出矩形尤度差分Sddが「0」以下の値であれば、動体検出装置20は、検出矩形尤度Ldを「0」に設定する(即ち、Ld=max(Svm−Sdom,0))。
(検出矩形リサンプリング処理)
検出矩形尤度取得処理が終了すると、動体検出装置20は、検出矩形リサンプリング処理を実行する。検出矩形リサンプリング処理は、現在画像Sc上に矩形数Npに等しい数のパーティクル矩形を配置し直す処理である。動体検出装置20は、矩形数Npに等しい数だけあるパーティクル矩形の内から再配置(リサンプリング)されるパーティクル矩形を1つ選択する検出矩形選択処理を矩形数Npに等しい数だけ実行する。
検出矩形選択処理に際して、動体検出装置20は、矩形数Npに等しい数だけあるパーティクル矩形のそれぞれの検出矩形尤度Ldの合計値である合計検出矩形尤度Ldsを取得する(即ち、Lds=ΣLd)。検出矩形選択処理において、あるパーティクル矩形が選択される確率Pgdは、合計検出矩形尤度Ldsに対する、そのパーティクル矩形の検出矩形尤度Ldの比率として決定される(即ち、Pgd=Ld/Lds)。
例えば、パーティクル矩形の一つである矩形Rs1の検出矩形尤度Ld(Rs1)が、他のパーティクル矩形である矩形Rs2の検出矩形尤度Ld(Rs2)の2倍の大きさであると仮定する(即ち、Ld(Rs1)=2×Ld(Rs2))。この場合、矩形Rs1に係る確率Pgd(Rs1)は、矩形Rs2に係る確率Pgd(Rs2)の2倍の大きさとなる(即ち、Pgd(Rs1)=2×Pgd(Rs2))。従って、検出矩形選択処理が実行されたときに矩形Rs1が選択される確率は、矩形Rs2が選択される確率の2倍である。
(検出判定処理)
検出矩形リサンプリング処理が終了すると、動体検出装置20は、検出判定処理を実行する。検出判定処理の実行時、動体検出装置20は、所定の画像内動体検出条件が成立していれば、画像内動体が検出されたと判定する。画像内動体検出条件は、以下の条件(dc1)及び条件(dc2)が共に成立した状態が所定の第1時間閾値Tth1以上継続していれば、画像内動体が検出されたと判定する。第1時間閾値Tth1は、時間間隔Δtの整数倍の大きさ(時間)である。
条件(dc1)パーティクル矩形のそれぞれの検出矩形尤度Ldの平均値が所定の第1尤度閾値Lth1よりも大きい。
条件(dc2)平均矩形Rmと一部又は全部が重複しているパーティクル矩形の数が所定の第1矩形数閾値Cth1以上である。
平均矩形Rmは、矩形数Npに等しい数だけあるパーティクル矩形のそれぞれの矩形横位置Xnの平均値である平均横位置Xnm、パーティクル矩形のそれぞれの矩形縦位置Ynの平均値である平均縦位置Ynm、パーティクル矩形のそれぞれの矩形幅Rwの平均値である平均矩形幅Rwm、及び、パーティクル矩形のそれぞれの矩形高Rhの平均値である平均矩形高Rhmの組合せによって表される。
動体検出装置20は、画像内動体が検出されたと判定したとき、平均矩形Rmの位置及び大きさを、画像内動体の位置及び大きさとして抽出する。画像内動体が検出されたときの平均矩形Rmは、「動体検出矩形」とも称呼される。
更に、画像内動体が検出されると、動体検出装置20は、入出力装置21のディスプレイに表示された撮影画像に平均矩形Rmの位置及び大きさを表す図形を付加し且つ入出力装置21のスピーカーに画像内動体が検出されたことを表す音声を再生させる。
(色ヒストグラム生成処理)
画像内動体が検出されると、動体検出装置20は、動体検出矩形を構成する点のそれぞれの赤強度Brの動体尤度Lmにより重み付けされた分布を表す色ヒストグラム(赤色ヒストグラム)を生成する。加えて、動体検出装置20は、動体検出矩形を構成する点のそれぞれの緑強度Bgの分布を表す色ヒストグラム(緑色ヒストグラム)、及び、動体検出矩形を構成する点のそれぞれの青強度Bbの分布を表す色ヒストグラム(青色ヒストグラム)を生成する。
赤色ヒストグラムの生成方法について説明する。緑色ヒストグラム及び青色ヒストグラムの生成方法は、赤色ヒストグラムの生成方法と同様である。そのため、緑色ヒストグラム及び青色ヒストグラムの生成方法の説明は割愛する。
加えて、後述されるように、色ヒストグラムは、動体検出矩形以外の矩形に対しても生成される。色ヒストグラムを生成する対象となる矩形は、「対象矩形」とも称呼される。動体検出矩形に対して取得された色ヒストグラム(即ち、赤色ヒストグラム、緑色ヒストグラム及び青色ヒストグラムの組合せ)は、「基準ヒストグラム」とも称呼される。
基準ヒストグラムを構成する赤色ヒストグラムは、「基準赤色ヒストグラム」とも称呼される。同様に、基準ヒストグラムを構成する緑色ヒストグラムは、「基準緑色ヒストグラム」とも称呼される。基準ヒストグラムを構成する青色ヒストグラムは、「基準青色ヒストグラム」とも称呼される。
赤色ヒストグラムの例が図6に示される。赤色ヒストグラムにおいて、赤強度Brの分布が第1ビンHb1〜第8ビンHb8の8個のビンによって表される。具体的には、第1ビンHb1は、赤強度Brが「0」から「31」までの範囲を表す。同様に、第2ビンHb2は、赤強度Brが「32」から「63」までの範囲を表す。第3ビンHb3は、赤強度Brが「64」から「95」までの範囲を表す。第4ビンHb4は、赤強度Brが「96」から「127」までの範囲を表す。
第5ビンHb5は、赤強度Brが「128」から「159」までの範囲を表す。第6ビンHb6は、赤強度Brが「160」から「191」までの範囲を表す。第7ビンHb7は、赤強度Brが「192」から「223」までの範囲を表す。第8ビンHb8は、赤強度Brが「224」から「255」までの範囲を表す。
第1ビンHb1に含まれる値(即ち、赤色ヒストグラムにおける第1ビンHb1に対応する矩形の高さ)は、第1ビン値Ce1である。同様に、第2ビンHb2に含まれる値は、第2ビン値Ce2である。第3ビンHb3に含まれる値は、第3ビン値Ce3である。第4ビンHb4に含まれる値は、第4ビン値Ce4である。第5ビンHb5に含まれる値は、第5ビン値Ce5である。第6ビンHb6に含まれる値は、第6ビン値Ce6である。第7ビンHb7に含まれる値は、第7ビン値Ce7である。第8ビンHb8に含まれる値は、第8ビン値Ce8である。
動体検出装置20は、対象矩形を構成するピクセルのそれぞれの「赤強度Br及び動体尤度Lm」に応じて、第1ビン値Ce1〜第8ビン値Ce8の内の何れか1つ又は2つを増加させる。
より具体的に述べると、あるピクセルの赤強度Brの値が「0」から「16」までの範囲に含まれていれば、動体検出装置20は、動体尤度Lmを第1ビン値Ce1の増分ΔCe1として取得する(即ち、ΔCe1=Lm)。
一方、赤強度Brの値が「17」から「48」までの範囲に含まれていれば、動体検出装置20は、第1ビン値Ce1及び第2ビン値Ce2の値を増加させる。この際、動体検出装置20は、赤強度Brの値が小さいほど、第1ビン値Ce1の増加量を大きくし且つ第2ビン値Ce2の増加量を小さくする。一方、動体検出装置20は、赤強度Brの値が大きいほど、第1ビン値Ce1の増加量を小さくし且つ第2ビン値Ce2の増加量を大きくする。ただし、赤強度Brが「48」であれば、動体検出装置20は、第2ビン値Ce2の値のみをを増加させる(即ち、ΔCe2=Lm)。
これにより、赤強度Brの僅かな違いにより赤色ヒストグラムが大きく変化することが回避される。例えば、赤強度Brが「31」であるピクセルが多いときに第1ビン値Ce1が大きな値となる一方、赤強度Brが「32」であるピクセルが多いときに第2ビン値Ce2が大きな値となる事象の発生が回避される。
具体的には、動体検出装置20は、増分ΔCe1を下式(30)に基づいて算出する。一方、動体検出装置20は、第2ビン値Ce2の増分ΔCe2を下式(31)に基づいて算出する。

ΔCe1=動体尤度Lm×(48−赤強度Br)/32 ……(30)
ΔCe2=動体尤度Lm×(赤強度Br−16)/32 ……(31)
増分ΔCe1が算出されると、動体検出装置20は、第1ビン値Ce1の値を増分ΔCe1だけ増加させる(即ち、Ce1←Ce1+ΔCe1)。一方、増分ΔCe2が算出されると、動体検出装置20は、第2ビン値Ce2の値を増分ΔCe2だけ増加させる(即ち、Ce2←Ce2+ΔCe2)。
同様に、赤強度Brの値が「49」から「80」までの範囲に含まれていれば、動体検出装置20は、第2ビン値Ce2の増分ΔCe2を下式(32)に基づいて算出する。加えて、動体検出装置20は、第3ビン値Ce3の増分ΔCe3を下式(33)に基づいて算出する。

ΔCe2=動体尤度Lm×(80−赤強度Br)/32 ……(32)
ΔCe3=動体尤度Lm×(赤強度Br−48)/32 ……(33)
増分ΔCe2が算出されると、動体検出装置20は、第2ビン値Ce2の値を増分ΔCe2だけ増加させる(即ち、Ce2←Ce2+ΔCe2)。一方、増分ΔCe3が算出されると、動体検出装置20は、第3ビン値Ce3の値を増分ΔCe3だけ増加させる(即ち、Ce3←Ce3+ΔCe3)。
赤強度Brの値が「81」から「112」までの範囲に含まれていれば、動体検出装置20は、第3ビン値Ce3の増分ΔCe3を下式(34)に基づいて算出する。加えて、動体検出装置20は、第4ビン値Ce4の増分ΔCe4を下式(35)に基づいて算出する。

ΔCe3=動体尤度Lm×(112−赤強度Br)/32 ……(34)
ΔCe4=動体尤度Lm×(赤強度Br−80)/32 ……(35)
増分ΔCe3が算出されると、動体検出装置20は、第3ビン値Ce3の値を増分ΔCe3だけ増加させる(即ち、Ce3←Ce3+ΔCe3)。一方、増分ΔCe4が算出されると、動体検出装置20は、第4ビン値Ce4の値を増分ΔCe4だけ増加させる(即ち、Ce4←Ce4+ΔCe4)。
赤強度Brの値が「113」から「144」までの範囲に含まれていれば、動体検出装置20は、第4ビン値Ce4の増分ΔCe4を下式(36)に基づいて算出する。加えて、動体検出装置20は、第5ビン値Ce5の増分ΔCe5を下式(37)に基づいて算出する。

ΔCe4=動体尤度Lm×(144−赤強度Br)/32 ……(36)
ΔCe5=動体尤度Lm×(赤強度Br−112)/32 ……(37)
増分ΔCe4が算出されると、動体検出装置20は、第4ビン値Ce4の値を増分ΔCe4だけ増加させる(即ち、Ce4←Ce4+ΔCe4)。一方、増分ΔCe5が算出されると、動体検出装置20は、第5ビン値Ce5の値を増分ΔCe5だけ増加させる(即ち、Ce5←Ce5+ΔCe5)。
赤強度Brの値が「145」から「176」までの範囲に含まれていれば、動体検出装置20は、第5ビン値Ce5の増分ΔCe5を下式(38)に基づいて算出する。加えて、動体検出装置20は、第6ビン値Ce6の増分ΔCe6を下式(39)に基づいて算出する。

ΔCe5=動体尤度Lm×(176−赤強度Br)/32 ……(38)
ΔCe6=動体尤度Lm×(赤強度Br−144)/32 ……(39)
増分ΔCe5が算出されると、動体検出装置20は、第5ビン値Ce5の値を増分ΔCe5だけ増加させる(即ち、Ce5←Ce5+ΔCe5)。一方、増分ΔCe6が算出されると、動体検出装置20は、第6ビン値Ce6の値を増分ΔCe6だけ増加させる(即ち、Ce6←Ce6+ΔCe6)。
赤強度Brの値が「177」から「208」までの範囲に含まれていれば、動体検出装置20は、第6ビン値Ce6の増分ΔCe6を下式(40)に基づいて算出する。加えて、動体検出装置20は、第7ビン値Ce7の増分ΔCe7を下式(41)に基づいて算出する。

ΔCe6=動体尤度Lm×(208−赤強度Br)/32 ……(40)
ΔCe7=動体尤度Lm×(赤強度Br−176)/32 ……(41)
赤強度Brの値が「209」から「239」までの範囲に含まれていれば、動体検出装置20は、第7ビン値Ce7の増分ΔCe7を下式(42)に基づいて算出する。加えて、動体検出装置20は、第8ビン値Ce8の増分ΔCe8を下式(43)に基づいて算出する。

ΔCe7=動体尤度Lm×(240−赤強度Br)/32 ……(42)
ΔCe8=動体尤度Lm×(赤強度Br−208)/32 ……(43)
赤強度Brが「240」から「255」までの範囲に含まれていれば、動体検出装置20は、動体尤度Lmを第8ビン値Ce8の増分ΔCe8として取得し(即ち、ΔCe8=Lm)、第8ビン値Ce8の値を増分ΔCe8だけ増加させる(即ち、Ce8←Ce8+ΔCe8)。
赤色ヒストグラムの生成が完了すると(即ち、対象矩形を構成するピクセルのそれぞれの赤強度Brに応じて第1ビン値Ce1〜第8ビン値Ce8を増加させる処理が完了すると)、動体検出装置20は、緑色ヒストグラム及び青色ヒストグラムを生成する。
(追跡矩形尤度取得処理)
上述したように、画像内動体が検出されているとき、動体検出装置20は、検出矩形尤度取得処理に代わり追跡矩形尤度取得処理を実行する。即ち、動体検出装置20は、検出矩形尤度Ldに代わり追跡矩形尤度Lfをパーティクル矩形のそれぞれに対して取得する。
検出矩形尤度Ldが「パーティクル矩形及び検出周辺領域」の動体尤度Lmに基づいて取得されていたのに対し、追跡矩形尤度Lfは「パーティクル矩形及びその周辺の領域(追跡周辺領域)」の「動体尤度Lm及び色類似度Ss」に基づいて取得される。
検出矩形尤度Ldは、パーティクル矩形に対して取得される矩形内動体尤度Sv、及び、パーティクル矩形周辺の領域(即ち、検出周辺領域)に対して取得される検出周辺動体尤度Sdoに基づいて取得されていた。加えて、矩形内動体尤度Sv及び検出周辺動体尤度Sdoは、動体尤度Lmに基づいて取得されていた。
これに対し、追跡矩形尤度Lfは、パーティクル矩形に対して取得される追跡矩形内動体尤度Svf、及び、パーティクル矩形周辺の領域(後述される、追跡周辺領域)に対して取得される追跡周辺動体尤度Sofに基づいて取得される。
(追跡矩形尤度−パーティクル矩形)
追跡矩形内動体尤度Svfの取得方法について説明する。動体検出装置20は、動体尤度Lm及び色類似度Ssに基づいて追跡矩形内動体尤度Svfを取得する。色類似度Ssは、パーティクル矩形を対象矩形として取得された色ヒストグラムと、基準ヒストグラムと、が類似している度合い(類似度)を表す値である。
より具体的に述べると、動体検出装置20は、パーティクル矩形を対象矩形として取得された赤色ヒストグラム(パーティクル矩形赤色ヒストグラム)と、基準赤色ヒストグラムと、の類似度をヒストグラム交差法により赤類似度Ssrとして取得する。
基準赤色ヒストグラムの例が、図7(A)に示される。一方、パーティクル矩形赤色ヒストグラムの例が、図7(B)に示される。基準赤色ヒストグラムの面積が基準赤面積Abrであり、パーティクル矩形赤色ヒストグラムの面積が対象赤面積Acrである。
基準赤色ヒストグラムの面積が「1」となるように縦軸方向に1/Abr倍に伸長して得られるヒストグラムと、パーティクル矩形赤色ヒストグラムの面積が「1」となるように縦軸方向に1/Acr倍に伸長して得られるヒストグラムと、の重複部分の面積が、赤類似度Ssrとして取得される。この際、基準赤面積Abrが「1」より大きければ(即ち、Abr>1であれば)、基準赤色ヒストグラムは縦軸方向に圧縮される。対象赤面積Acrが「1」より大きければ(即ち、Acr>1であれば)、パーティクル矩形赤色ヒストグラムは縦軸方向に圧縮される。
面積が「1」となるように揃えられ(縦軸方向に伸長され)且つ重ね合わされた2つのヒストグラムの例が図7(C)に示される。
同様に、動体検出装置20は、対象矩形に対して取得された緑色ヒストグラムと、基準緑色ヒストグラムと、の類似度を公差法により緑類似度Ssgとして取得する。加えて、動体検出装置20は、対象矩形に対して取得された青色ヒストグラムと、基準青色ヒストグラムと、の類似度を公差法により青類似度Ssbとして取得する。
次いで、動体検出装置20は、赤類似度Ssr、緑類似度Ssg及び青類似度Ssbの内の最小値を対象矩形の色類似度Ssとして取得する。更に、動体検出装置20は、周辺矩形を構成するピクセルのそれぞれの動体尤度Lmの平均値と、色類似度Ssと、の積を追跡矩形内動体尤度Svfとして取得する。
(追跡矩形尤度−追跡周辺領域)
追跡周辺動体尤度Sofの取得方法について説明する。追跡周辺動体尤度Sofの取得に際し、動体検出装置20は、4種の追跡周辺領域(具体的には、第1追跡周辺領域Rgf1、第2追跡周辺領域Rgf2、第3追跡周辺領域Rgf3及び第4追跡周辺領域Rgf4)のそれぞれに対して第1追跡周辺動体尤度Sfo1、第2追跡周辺動体尤度Sfo2、第3追跡周辺動体尤度Sfo3及び第4追跡周辺動体尤度Sfo4をそれぞれ取得する。
動体検出装置20は、第1追跡周辺動体尤度Sfo1、第2追跡周辺動体尤度Sfo2、第3追跡周辺動体尤度Sfo3及び第4追跡周辺動体尤度Sfo4の内の最大値を追跡周辺動体尤度Sofとして取得する(即ち、Sof=max(Sfo1,Sfo2,Sfo3,Sfo4))。
第1追跡周辺領域Rgf1について説明する。第1追跡周辺領域Rgf1とパーティクル矩形との位置関係が、図8(A)に示される。第1追跡周辺領域Rgf1は、4つの矩形(即ち、追跡周辺矩形61a〜追跡周辺矩形61d)から構成される。
追跡周辺矩形61aは、パーティクル矩形(図8(A)〜(D)の例において、パーティクル矩形60)の上端に隣接している。追跡周辺矩形61aの左端のX座標はパーティクル矩形の左端のX座標と等しく、追跡周辺矩形61aの右端のX座標はパーティクル矩形の右端のX座標と等しい。従って、追跡周辺矩形61aの横方向の長さは、パーティクル矩形の矩形幅Rwと等しい。
追跡周辺矩形61aの縦方向の長さは、追跡周辺矩形高Nfhである。追跡周辺矩形高Nfhは、パーティクル矩形の矩形高Rhに「0.15」を乗じて得られる値と、「第1長さ閾値Nth1よりも小さい所定の第2長さ閾値Nth2」と、の内の大きい方の値に等しい(即ち、Ndh=max(Rh×0.15,Nth2))。
追跡周辺矩形61bは、パーティクル矩形の下端に隣接している。追跡周辺矩形61bの左端のX座標はパーティクル矩形の左端のX座標と等しく、追跡周辺矩形61bの右端のX座標はパーティクル矩形の右端のX座標と等しい。従って、追跡周辺矩形61bの横方向の長さは、パーティクル矩形の矩形幅Rwと等しい。追跡周辺矩形61bの縦方向の長さは、追跡周辺矩形高Nfhである。
追跡周辺矩形61cは、パーティクル矩形の左端に隣接している。追跡周辺矩形61cの上端のY座標はパーティクル矩形の上端のY座標と等しく、追跡周辺矩形61cの下端のY座標はパーティクル矩形の下端のY座標と等しい。従って、追跡周辺矩形61cの縦方向の長さは、パーティクル矩形の矩形高Rhと等しい。
追跡周辺矩形61cの横方向の長さは、追跡周辺矩形幅Nfwである。追跡周辺矩形幅Nfwは、パーティクル矩形の矩形幅Rwに「0.15」を乗じて得られる値と、第2長さ閾値Nth2と、の内の大きい方の値に等しい(即ち、Ndw=max(Rw×0.15,Nth2))。
追跡周辺矩形61dは、パーティクル矩形の右端に隣接している。追跡周辺矩形61dの上端のY座標はパーティクル矩形の上端のY座標と等しく、追跡周辺矩形61dの下端のY座標はパーティクル矩形の下端のY座標と等しい。従って、追跡周辺矩形61dの縦方向の長さは、パーティクル矩形の矩形高Rhと等しい。追跡周辺矩形61dの横方向の長さは、追跡周辺矩形幅Nfwである。
動体検出装置20は、追跡周辺矩形61aを対象矩形として取得された色類似度Ssと、追跡周辺矩形61aを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfaaとして取得する。同様に、動体検出装置20は、追跡周辺矩形61bを対象矩形として取得された色類似度Ssと、追跡周辺矩形61bを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfabとして取得する。
動体検出装置20は、追跡周辺矩形61cを対象矩形として取得された色類似度Ssと、追跡周辺矩形61cを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfacとして取得する。動体検出装置20は、追跡周辺矩形61dを対象矩形として取得された色類似度Ssと、追跡周辺矩形61dを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfadとして取得する。
更に、動体検出装置20は、追跡矩形動体尤度Sfaa、追跡矩形動体尤度Sfab、追跡矩形動体尤度Sfac及び追跡矩形動体尤度Sfadの内の最大値を第1追跡周辺動体尤度Sfo1として取得する。
第2追跡周辺領域Rgf2について説明する。第2追跡周辺領域Rgf2とパーティクル矩形との位置関係が、図8(B)に示される。第2追跡周辺領域Rgf2は、4つの矩形(即ち、追跡周辺矩形62a〜追跡周辺矩形62d)から構成される。
追跡周辺矩形62aは、パーティクル矩形の上端に隣接している。追跡周辺矩形62aの左端のX座標は、パーティクル矩形の左端のX座標よりも追跡周辺矩形幅Nfwだけ小さい。一方、追跡周辺矩形62aの右端のX座標は、パーティクル矩形の右端のX座標と等しい。従って、追跡周辺矩形62aの横方向の長さは、パーティクル矩形の矩形幅Rwと追跡周辺矩形幅Nfwとの和(即ち、Rw+Nfw)に等しい。検出周辺矩形52aの縦方向の長さは、追跡周辺矩形高Nfhである。
追跡周辺矩形62bは、パーティクル矩形の下端に隣接している。追跡周辺矩形62bの左端のX座標は、パーティクル矩形の左端のX座標と等しい。一方、追跡周辺矩形62bの右端のX座標は、パーティクル矩形の右端のX座標よりも追跡周辺矩形幅Nfwだけ大きい。従って、追跡周辺矩形62bの横方向の長さは、パーティクル矩形の矩形幅Rwと追跡周辺矩形幅Nfwとの和(即ち、Rw+Nfw)に等しい。検出周辺矩形52bの縦方向の長さは、追跡周辺矩形高Nfhである。
追跡周辺矩形62cは、パーティクル矩形の左端に隣接している。追跡周辺矩形62cの上端のY座標は、パーティクル矩形の上端のY座標と等しい。一方、追跡周辺矩形62cの下端のY座標は、パーティクル矩形の下端のY座標よりも追跡周辺矩形高Nfhだけ大きい。従って、追跡周辺矩形62cの縦方向の長さは、パーティクル矩形の矩形高Rhと追跡周辺矩形高Nfhとの和(即ち、Rh+Nfh)に等しい。追跡周辺矩形62cの横方向の長さは、追跡周辺矩形幅Nfwである。
追跡周辺矩形62dは、パーティクル矩形の右端に隣接している。追跡周辺矩形62dの上端のY座標は、パーティクル矩形の上端のY座標よりも追跡周辺矩形高Nfhだけ小さい。一方、追跡周辺矩形62dの下端のY座標は、パーティクル矩形の下端のY座標と等しい。従って、追跡周辺矩形62dの縦方向の長さは、パーティクル矩形の矩形高Rhと追跡周辺矩形高Nfhとの和(即ち、Rh+Nfh)に等しい。追跡周辺矩形62dの横方向の長さは、追跡周辺矩形幅Nfwである。
動体検出装置20は、追跡周辺矩形62aを対象矩形として取得された色類似度Ssと、追跡周辺矩形62aを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfbaとして取得する。同様に、動体検出装置20は、追跡周辺矩形62bを対象矩形として取得された色類似度Ssと、追跡周辺矩形62bを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfbbとして取得する。
動体検出装置20は、追跡周辺矩形62cを対象矩形として取得された色類似度Ssと、追跡周辺矩形62cを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfbcとして取得する。動体検出装置20は、追跡周辺矩形62dを対象矩形として取得された色類似度Ssと、追跡周辺矩形62dを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfbdとして取得する。
更に、動体検出装置20は、追跡矩形動体尤度Sfba、追跡矩形動体尤度Sfbb、追跡矩形動体尤度Sfbc及び追跡矩形動体尤度Sfbdの内の最大値を第2追跡周辺動体尤度Sfo2として取得する。
第3追跡周辺領域Rgf3について説明する。第3追跡周辺領域Rgf3とパーティクル矩形との位置関係が、図8(C)に示される。第3追跡周辺領域Rgf3は、4つの矩形(即ち、追跡周辺矩形63a〜追跡周辺矩形63d)から構成される。
追跡周辺矩形63aは、パーティクル矩形の上端に隣接している。追跡周辺矩形63aの左端のX座標は、パーティクル矩形の左端のX座標と等しい。一方、追跡周辺矩形63aの右端のX座標は、パーティクル矩形の右端のX座標よりも追跡周辺矩形幅Nfwだけ大きい。従って、追跡周辺矩形63aの横方向の長さは、パーティクル矩形の矩形幅Rwと追跡周辺矩形幅Nfwとの和(即ち、Rw+Nfw)に等しい。追跡周辺矩形63aの縦方向の長さは、追跡周辺矩形高Nfhである。
追跡周辺矩形63bは、パーティクル矩形の下端に隣接している。追跡周辺矩形63bの左端のX座標は、パーティクル矩形の左端のX座標よりも追跡周辺矩形幅Nfwだけ小さい。一方、追跡周辺矩形63bの右端のX座標は、パーティクル矩形の右端のX座標と等しい。従って、追跡周辺矩形63bの横方向の長さは、パーティクル矩形の矩形幅Rwと追跡周辺矩形幅Nfwとの和(即ち、Rw+Nfw)に等しい。追跡周辺矩形63bの縦方向の長さは、追跡周辺矩形高Nfhである。
追跡周辺矩形63cは、パーティクル矩形の左端に隣接している。追跡周辺矩形63cの上端のY座標は、パーティクル矩形の上端のY座標よりも追跡周辺矩形高Nfhだけ小さい。一方、追跡周辺矩形63cの下端のY座標は、パーティクル矩形の下端のY座標と等しい。従って、追跡周辺矩形63cの縦方向の長さは、パーティクル矩形の矩形高Rhと追跡周辺矩形高Nfhとの和(即ち、Rh+Nfh)に等しい。追跡周辺矩形63cの横方向の長さは、追跡周辺矩形幅Nfwである。
追跡周辺矩形63dは、パーティクル矩形の右側に隣接している。追跡周辺矩形63dの上端のY座標は、パーティクル矩形の上端のY座標と等しい。一方、追跡周辺矩形63dの下端のY座標は、パーティクル矩形の下端のY座標よりも追跡周辺矩形高Nfhだけ大きい。従って、追跡周辺矩形63dの縦方向の長さは、パーティクル矩形の矩形高Rhと追跡周辺矩形高Nfhとの和(即ち、Rh+Nfh)に等しい。追跡周辺矩形63dの横方向の長さは、追跡周辺矩形幅Nfwである。
動体検出装置20は、追跡周辺矩形63aを対象矩形として取得された色類似度Ssと、追跡周辺矩形63aを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfcaとして取得する。同様に、動体検出装置20は、追跡周辺矩形63bを対象矩形として取得された色類似度Ssと、追跡周辺矩形63bを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfcbとして取得する。
動体検出装置20は、追跡周辺矩形63cを対象矩形として取得された色類似度Ssと、追跡周辺矩形63cを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfccとして取得する。動体検出装置20は、追跡周辺矩形63dを対象矩形として取得された色類似度Ssと、追跡周辺矩形63dを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfcdとして取得する。
更に、動体検出装置20は、追跡矩形動体尤度Sfca、追跡矩形動体尤度Sfcb、追跡矩形動体尤度Sfcc及び追跡矩形動体尤度Sfcdの内の最大値を第3追跡周辺動体尤度Sfo3として取得する。
第4追跡周辺領域Rgf4について説明する。第4追跡周辺領域Rgf4とパーティクル矩形との位置関係が、図8(D)に示される。第4追跡周辺領域Rgf4は、4つの矩形(即ち、追跡周辺矩形64a〜追跡周辺矩形64d)から構成される。追跡周辺矩形64a〜追跡周辺矩形64dのそれぞれの横方向の長さは追跡周辺矩形幅Nfwであり、追跡周辺矩形64a〜追跡周辺矩形64dのそれぞれの縦方向の長さは追跡周辺矩形高Nfhである。
追跡周辺矩形64aの右下端は、パーティクル矩形の左上端と接している。即ち、追跡周辺矩形64aの右端のX座標はパーティクル矩形の左端のX座標よりも「1」だけ小さく、追跡周辺矩形64aの下端のY座標はパーティクル矩形の上端のY座標よりも「1」だけ小さい。
追跡周辺矩形64bの左下端は、パーティクル矩形の右上端と接している。即ち、追跡周辺矩形64bの左端のX座標はパーティクル矩形の右端のX座標よりも「1」だけ大きく、追跡周辺矩形64bの下端のY座標はパーティクル矩形の上端のY座標よりも「1」だけ小さい。
追跡周辺矩形64cの右上端は、パーティクル矩形の左下端と接している。即ち、追跡周辺矩形64cの右端のX座標はパーティクル矩形の左端のX座標よりも「1」だけ小さく、追跡周辺矩形64cの上端のY座標はパーティクル矩形の下端のY座標よりも「1」だけ大きい。
追跡周辺矩形64dの左上端は、パーティクル矩形の右下端と接している。即ち、追跡周辺矩形64dの左端のX座標はパーティクル矩形の右端のX座標よりも「1」だけ大きく、追跡周辺矩形64dの上端のY座標はパーティクル矩形の下端のY座標よりも「1」だけ大きい。
追跡周辺矩形64a〜追跡周辺矩形64dのそれぞれの面積がパーティクル矩形の面積に「0.15」を乗じた値よりも小さければ(即ち、Ndh×Ndw<0.15×Rw×Rh)、動体検出装置20は、第4追跡周辺動体尤度Sfo4を「0」に設定する。
一方、追跡周辺矩形64a〜追跡周辺矩形64dのそれぞれの面積がパーティクル矩形の面積に「0.15」を乗じた値以上であれば(即ち、Ndh×Ndw≧0.15×Rw×Rh)、動体検出装置20は、以下の手順により第4追跡周辺動体尤度Sfo4を取得する。
即ち、動体検出装置20は、追跡周辺矩形64aを対象矩形として取得された色類似度Ssと、追跡周辺矩形64aを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfdaとして取得する。同様に、動体検出装置20は、追跡周辺矩形64bを対象矩形として取得された色類似度Ssと、追跡周辺矩形64bを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfdbとして取得する。
動体検出装置20は、追跡周辺矩形64cを対象矩形として取得された色類似度Ssと、追跡周辺矩形64cを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfdcとして取得する。動体検出装置20は、追跡周辺矩形64dを対象矩形として取得された色類似度Ssと、追跡周辺矩形64dを構成するピクセルのそれぞれの動体尤度Lmの平均値と、の積を追跡矩形動体尤度Sfddとして取得する。
更に、動体検出装置20は、追跡矩形動体尤度Sfda、追跡矩形動体尤度Sfdb、追跡矩形動体尤度Sfdc及び追跡矩形動体尤度Sfddの内の最大値を第4追跡周辺動体尤度Sfo4として取得する。
第1追跡周辺動体尤度Sfo1、第2追跡周辺動体尤度Sfo2、第3追跡周辺動体尤度Sfo3及び第4追跡周辺動体尤度Sfo4が取得され、以て、追跡周辺動体尤度Sofが取得されると、動体検出装置20は、補正後追跡矩形内動体尤度Svfm及び補正後追跡周辺動体尤度Sofmを取得する。
具体的には、動体検出装置20は、補正後追跡矩形内動体尤度Svfmを下式(44)に基づいて取得する。

Svfm=1−(1−Svf) ……(44)
一方、動体検出装置20は、補正後追跡周辺動体尤度Sofmを下式(45)に基づいて算出する。

Sofm=1−(1−Sof) ……(45)
次いで、動体検出装置20は、補正後追跡矩形内動体尤度Svfmと補正後追跡周辺動体尤度Sofmとの差分である追跡矩形尤度差分Sdfを取得する。ただし、補正後追跡矩形内動体尤度Svfmが補正後追跡周辺動体尤度Sofm以下であれば、動体検出装置20は、追跡矩形尤度差分Sdfを「0」に設定する(即ち、Sdf=max(Svfm−Sofm,0))。
更に、動体検出装置20は、追跡矩形尤度Lfを下式(46)に基づいて取得する。

Lf={(1−Lc)×Sdf+Lc}×(1−Rb)+Lo×Rb
……(46)
式(46)において、画像外矩形率Rbは、パーティクル矩形の面積(即ち、Rh×Rw)に対するパーティクル矩形の撮影画像の外にある部分の面積の割合である。従って、パーティクル矩形の全てが撮影画像内に収まっているとき、画像外矩形率Rbは「0」であり、パーティクル矩形の全てが撮影画像外にあるとき、画像外矩形率Rbは「1」である。
具体的には、以下の条件(c1)〜条件(c4)が全て成立していれば、パーティクル矩形の全てが撮影画像内に収まっている。
(c1)パーティクル矩形の左端のX座標(即ち、Xc−Rw/2)が撮影画像の左端のX座標(即ち、「0」)以上である。
(c2)パーティクル矩形の右端のX座標(即ち、Xc+Rw/2)が撮影画像の右端のX座標(即ち、横解像度Gh−1)以下である。
(c3)パーティクル矩形の上端のY座標(即ち、Yc−Rh/2)が撮影画像の上端のY座標(即ち、「0」)以上である。
(c4)パーティクル矩形の下端のY座標(即ち、Yc+Rh/2)が撮影画像の下端のY座標(即ち、縦解像度Gv−1)以下である。
一方、式(46)における追跡矩形最小尤度Lcは、所定の定数である。本実施形態において、追跡矩形最小尤度Lcは、「0.05」である。加えて、式(46)における追跡矩形画像外尤度Loは、所定の定数である。本実施形態において、追跡矩形画像外尤度Loは、「0.1」である。
画像外矩形率Rbが「1」であるとき、追跡矩形尤度Lfは、追跡矩形画像外尤度Loと等しい値に設定される。一方、画像外矩形率Rbが「0」であるとき、追跡矩形尤度Lfは、追跡矩形尤度差分Sdf(0≦Sdf≦1)の値に応じて、追跡矩形最小尤度Lc以上であり且つ「1」以下の値となる。
式(46)に基づく追跡矩形尤度Lfの計算において、追跡矩形画像外尤度Lo(0<Lo)が用いられるのは、追跡対象である画像内動体が撮影画像の外に出た場合に、画像内動体と共に撮影画像の外に出たパーティクル矩形の追跡矩形尤度Lfが「0」となることを防ぐためである。それにより、その後に実行される追跡矩形リサンプリング処理において、撮影画像の外に出たそのパーティクル矩形が再配置されることなく消失することが回避され(即ち、そのパーティクル矩形が撮影画像の外にある状態が継続され)、以て、画像内動体が撮影画像の外に出たことを判断できるようになる。
加えて、同様に、式(46)において追跡矩形最小尤度Lc(0<Lc)が用いられるのは、追跡対象である画像内動体が「画像内動体とカメラ10との間にある遮蔽物」によって一時的に遮蔽された場合に追跡矩形尤度Lfが「0」となることを防ぐためである。それにより、その後に実行される追跡矩形リサンプリング処理において、画像内動体が遮蔽物周辺の位置からパーティクル矩形が消失することが回避され、以て、画像内動体が再び遮蔽物の周辺にに現れたときにその画像内動体を追跡することが可能となる。
(追跡矩形リサンプリング処理)
追跡矩形尤度取得処理が終了すると、動体検出装置20は、追跡矩形リサンプリング処理を実行する。上述した検出矩形リサンプリング処理においては検出矩形尤度Ldに基づいて再配置(リサンプリング)されるパーティクル矩形が選択されていた。これに対し、追跡矩形リサンプリング処理においては追跡矩形尤度Lfに基づいて再配置されるパーティクル矩形を1つ選択する追跡矩形選択処理を矩形数Npに等しい数だけ実行する。
追跡矩形選択処理において、あるパーティクル矩形が選択される確率Pgfは、パーティクル矩形のそれぞれの追跡矩形尤度Lfの合計値である合計検出矩形尤度Lfsに対する、そのパーティクル矩形の追跡矩形尤度Lfの比率として決定される(即ち、Pgf=Lf/Lfs)。
(追跡判定処理)
追跡矩形リサンプリング処理が終了すると、動体検出装置20は、追跡判定処理を実行する。追跡判定処理の実行時、動体検出装置20は、所定の画像内動体追跡失敗条件が成立すると、画像内動体の追跡に失敗したと判定する。画像内動体追跡失敗条件は、以下の条件(df1)及び条件(df2)の何れか一方又は両方が成立している場合に成立する条件である。
条件(df1)パーティクル矩形のそれぞれの追跡矩形尤度Lfの平均値である平均追跡矩形尤度Lfaが所定の第2尤度閾値Lth2よりも小さく(即ち、Lfa<Lth2)、或いは、平均矩形Rmと一部又は全部が重複しているパーティクル矩形の数である収束矩形数Nqが所定の第2矩形数閾値Cth2以上である(即ち、Nq≧Cth2)状態が所定の第2時間閾値Tth2以上継続している。
条件(df2)撮影画像外に出たパーティクル矩形(即ち、画像外矩形率Rbが「1」であるパーティクル矩形)の数が所定の個数閾値Kth以上である。
動体検出装置20は、画像内動体の追跡に失敗したと判定すると、入出力装置21のディスプレイに表示されていた平均矩形Rmの位置及び大きさを表す図形を消失させ且つ入出力装置21のスピーカーに画像内動体が追跡できなかったことを表す音声を再生させる。
(基準ヒストグラム更新処理)
画像内動体の追跡に失敗したと判定されなかった場合、即ち、画像内動体の追跡に成功した場合、動体検出装置20は、基準ヒストグラム更新処理を実行して基準ヒストグラムを更新する。
基準ヒストグラムの更新に際して、更新率Ruが取得される。更新率Ruは、所定の係数Ku、平均追跡矩形尤度Lfa及び収束率Rqの積として取得される(即ち、Ru=Ku×Lfa×Rq)。本実施形態において、係数Kuは「0.01」である。収束率Rqは、矩形数Npに対する収束矩形数Nqの比率である(即ち、Rq=Nq/Np)。
基準ヒストグラム更新処理における基準赤色ヒストグラムにおける第1ビンHb1の値(即ち、第1ビン値Ce1)の取得方法について説明する。基準ヒストグラムを構成する他のビン(基準緑色ヒストグラム及び基準青色ヒストグラムのそれぞれを構成するビンを含む)に対する変更処理は、第1ビンHb1に対する取得方法と同様であるので説明を割愛する。
動体検出装置20は、下式(47)から更新後の基準ヒストグラムの第1ビン値Ce1を決定する。式(47)において、前回第1ビン値Ce1pは、基準ヒストグラム更新処理が実行される前の基準赤色ヒストグラムにおける第1ビンHb1の第1ビン値Ce1である。追跡後第1ビン値Cef1は、平均矩形Rmに対して上述した色ヒストグラム生成処理を実行することによって取得された第1ビン値Ce1である。

Ce1=(1−Ru)×Ce1p+Ru×Cef1 ……(47)
(具体的作動)
次に、動体検出装置20の具体的作動について説明する。動体検出装置20のCPU(以下、単に「CPU」とも称呼される。)は、時間間隔Δtが経過する毎に図9にフローチャートにより表された「画像内動体抽出処理ルーチン」を実行する。
本ルーチンにおいて値が設定され且つ参照される動体検出フラグXdは、画像内動体が検出されているときに「1」に設定される。動体検出フラグXdは、上記イニシャルルーチンにおいて「0」に設定される。
適当なタイミングとなると、CPUは、図9のステップ900から処理を開始し、ステップ905に進み、動体尤度特定処理を実行して現在点Pcのそれぞれに対して動体尤度Lmを取得する。
次いで、CPUは、ステップ910に進み特定領域更新処理を実行してパーティクル矩形のそれぞれの矩形諸元を変更する。更に、CPUは、ステップ915に進み、動体検出フラグXdの値が「0」であるか否かを判定する。
(A)画像内動体が検出されない状態が継続する場合
現時点において画像内動体が検出されておらず、画像内動体が検出されない状態が継続すると仮定する。
この場合、動体検出フラグXdの値が「0」であるので、CPUは、ステップ915にて「Yes」と判定してステップ920に進み、検出矩形尤度取得処理を実行してパーティクル矩形のそれぞれに対して検出矩形尤度Ldを取得する。
次いで、CPUは、ステップ925に進み、検出矩形リサンプリング処理を実行して検出矩形のリサンプリングを行う。更に、CPUは、ステップ930に進み画像内動体検出条件が成立しているか否か(即ち、上記条件(dc1)及び条件(dc2)が共に成立した状態が第1時間閾値Tth1以上継続しているか否か)を判定する。
前述の仮定によれば、画像内動体が検出されていないので、画像内動体検出条件が成立していない。そのため、CPUは、ステップ930にて「Yes」と判定してステップ935に進み、画像内動体が検出されていない状態が所定の時間閾値Tth3以上継続しているか否かを判定する。画像内動体が検出されていない状態が時間閾値Tth3以上継続していなければ、CPUは、ステップ935にて「No」と判定してステップ995に進み、本ルーチンの処理を終了する。
一方、画像内動体が検出されていない状態が時間閾値Tth3以上継続すると、CPUは、ステップ935にて「Yes」と判定してステップ940に進み、矩形再配置処理を実行して全てのパーティクル矩形を新たに生成する。次いで、CPUは、ステップ995に進む。
(B)画像内動体が検出され、且つ、その後、画像内動体の追跡に成功する場合
画像内動体が検出され、且つ、その後、画像内動体の追跡に成功すると仮定する。
この場合、画像内動体検出条件が成立している。そのため、CPUは、ステップ930にて「No」と判定してステップ945に進み、動体検出フラグXdの値を「1」に設定する。次いで、CPUは、ステップ950に進み、色ヒストグラム生成処理を実行して基準ヒストグラムを生成する。次いで、CPUは、ステップ995に進む。
その後、本ルーチンが再度実行されると、CPUは、ステップ915にて「No」と判定してステップ955に進み、追跡矩形尤度取得処理を実行してパーティクル矩形のそれぞれに対して追跡矩形尤度Lfを取得する。次いで、CPUは、ステップ960に進み、追跡矩形リサンプリング処理を実行して検出矩形のリサンプリングを行う。
更に、CPUは、ステップ965に進み画像内動体追跡失敗条件が成立していないか否か(即ち、上記条件(df1)及び条件(df2)が何れも成立していないか否か)を判定する。前術の仮定によれば、画像内動体の追跡に成功しているので、画像内動体追跡失敗条件が成立していない。
そのため、CPUは、ステップ965にて「Yes」と判定してステップ970に進み、基準ヒストグラム更新処理を実行して基準ヒストグラムを更新する。次いで、CPUは、ステップ995に進む。
(C)画像内動体が検出されていたが、その画像内動体の追跡に失敗する場合
画像内動体が検出され、且つ、その後、画像内動体の追跡に失敗すると仮定する。
この場合、画像内動体追跡失敗条件が成立している。そのため、CPUは、ステップ965にて「No」と判定してステップ975に進み、動体検出フラグXdの値を「0」に設定する。次いで、CPUは、ステップ940に進む。
(オプティカルフローの取得)
フローベクトルVo及びベクトル尤度Lvの取得方法について説明する。本実施形態におけるフローベクトルVoの取得方法は、下記参考文献1に記載されたフローベクトルの取得方法(以下、「従来方法」とも称呼される)に基づき且つ後述される改良が施されている。
Gunnar Farneback, "Two-frame motion estimation based on polynomial expansion," Image analysis 363-370 (2003) (参考文献1)
先ず、従来方法について説明し、その後、本実施形態における従来方法の改良点について説明する。
(概要説明)
従来方法によれば、前回画像Sp上の点xの周囲の点の明度Byの分布が2次関数(以下、「近似2次関数」とも称呼される。)によって近似される。現在画像Sc上の点xに対して取得された近似2次関数が、前回画像Sp上の点xに対して取得された近似2次関数と類似していれば(即ち、2つの近似2次関数を特定する係数(パラメータ)のそれぞれが互いに近似していれば)、点xが時間間隔Δtの間に点xに移動したと推定される。即ち、点xを始点であり点xが終点であるフローベクトルVoが取得される。
(撮影画像上の点近傍の明度の2次関数による近似)
近似2次関数を特定する係数を決定する方法について説明する。以下の説明において、関数sの入力値(即ち、引数)は、撮影画像上の点のX座標及びY座標を成分とするベクトルである。一方、関数sの出力値は、入力値によって特定された撮影画像上の点の明度Byである。近似2次関数fの引数は、関数sと同様に撮影画像上の点を特定するベクトルである。近似2次関数fの出力値は、入力値によって特定された撮影画像上の点の明度Byの近似値である。ベクトル及び行列は、数式中において太文字を用いて表される。関数sの引数(即ち、ベクトル)によって特定される撮影画像上の点の位置が、撮影画像の範囲外にあるとき、関数sの出力値は「0」となる。
近似2次関数fは、下式(48)により表される。式(48)において、ベクトルxは撮影画像上の点xの位置を表し、ベクトルx’は点xからの移動の向き及び大きさを表す。換言すれば、ベクトルx’は、点xを原点とする座標系におけるX座標及びY座標を成分とするベクトルである。ただし、式(48)において、下式(49)の関係が成立する。
Figure 2019159894
式(48)における近似2次関数fの「係数a11乃至係数a22、係数b、係数b及び係数c」は、下式(50)に示される誤差関数eの値が最小となるように決定される。
Figure 2019159894
ここで、ベクトルx’を引数とする重み関数wは、ベクトルx’の長さ|Vx’|(即ち、|Vx’|=(x’+y’1/2)が大きくなるほど小さくなり、最小値が「0」である関数である。重み関数wのx’及びy’に対する積分値は「1」である。
重み関数wは、長さ|Vx’|が同じとなるx’及びy’の組合せに対して同じ値となる。即ち、重み関数wは、x’=0且つy’=0である点に対して対称であり、x’=0により表される直線及びy’=0により表される直線に対してそれぞれ対称である。
誤差関数eが最小値となるとき、係数a11乃至係数a22、係数b、係数b及び係数cのそれぞれに対して下式(51)乃至下式(56)が成立する。簡略化のため、式(51)乃至式(56)において、関数s及び重み関数Wは単に「s」及び「W」と表されている(即ち、それぞれの引数であるベクトルx’が省略されている)。
Figure 2019159894
式(51)乃至式(56)から、下式(57)が得られる。
Figure 2019159894
加えて、重み関数wの性質(点対称であり且つ線対称であること、及び、積分値が「1」であること)から、下式(58)乃至下式(61)が得られる。
Figure 2019159894
更に、式(57)及び式(58)乃至式(61)から下式(62)が得られる。
Figure 2019159894
式(62)を展開することによって下式(63)乃至下式(66)が得られる。下式(63)乃至下式(66)を解くことにより、係数a11乃至係数a22、係数b、係数b及び係数cが取得される。
Figure 2019159894
(フローベクトルの取得)
前回画像Sp上の点xのX−Y座標をベクトルxにより表せば、点xに対する近似2次関数は下式(67)の関数fによって表される。同様に、現在画像Sc上の点xのX−Y座標をベクトルxにより表せば、点xに対する近似2次関数は下式(68)の関数fによって表される。
Figure 2019159894
式(67)の関数fのグラフをベクトルdだけ移動させると式(68)の関数fのグラフと一致すると仮定すると、下式(69)が成立する。
Figure 2019159894
この場合、下式(70)が成立するので、下式(71)の関係が得られる。
Figure 2019159894
式(71)の2番目の式を変形して、下式(72)が得られる。ただし、この場合、下式(73)の関係が成立する。
Figure 2019159894
式(72)は、関数fのグラフをベクトルdだけ移動させると関数fのグラフと一致する、との仮定に基づいてベクトルdを行列A及びベクトルΔbから求める数式である。
式(71)の第1式によれば、行列A及び行列Aが互いに一致するが、一般に、行列A及び行列Aは互いに異なる。そこで、従来方法においては下式(74)に基づいて(即ち、「行列A及び行列Aから定まる行列A」及びベクトルΔbに基づいて)ベクトルdが取得される。ただし、式(74)において、下式(75)の関係が成立している。
Figure 2019159894
なお、ベクトルdは前回画像Sp上の点x近傍の明度Byの分布を表す関数fから現在画像Sc上の点x近傍の明度Byの分布を表す関数fに向かうベクトルであるので、ベクトルdが点xから点xへの時間間隔Δtにおける移動を表すフローベクトルVoに相当する。即ち、上述した演算によって現在画像Sc上の点のそれぞれに対して「その現在画像Sc上の点」を終点とするフローベクトルVoを取得することができる。或いは、前回画像Sp上の点のそれぞれに対して「その前回画像Sp上の点」を始点とするフローベクトルVoを取得することができる。
ところで、式(74)に基づいて取得されたベクトルdは、点xの周辺の近似2次関数と点xの周辺の近似2次関数のみに基づいて取得される。そのため、近似2次関数(即ち、関数f及び関数f)の近似誤差が大きい場合及び画像ノイズの影響が大きい場合、上述した方法によって取得されたベクトルdの誤差が比較的大きくなる場合が多い。そこで、従来方法において、現在画像Sc上の点x近傍の点xも考慮してベクトルdを取得することが提案されている。
より具体的に述べると、点xが画像内動体の一部であれば(即ち、点xが画像内動体を構成するピクセルの内の1つであれば)、点xも画像内動体の一部である可能性が高い。一方、点xが画像内動体の一部でなければ(即ち、点xが背景の一部であれば)、点xも背景の一部である可能性が高い。そのため、点xを終点とする(推定されたベクトルではなく実際の)フローベクトルVoと、点xを終点とする実際のフローベクトルVoと、は互いに向き及び大きさが類似している可能性が高い。
そのため、あるベクトルdと、種々の「点x近傍の点x」に対して取得されたベクトルdと、の間の差分が小さいほど値が小さくなる誤差関数eが定義される。更に、誤差関数eの値が小さくなるようにベクトルdが取得される(即ち、フローベクトルVoが取得される。)。
誤差関数eについて説明する。式(74)から下式(76)が得られる。
Figure 2019159894
一方、点xに対して取得された行列A及びベクトルΔbと同様の演算によって、点xに対して取得された行列A及びΔbに基づいて下式(77)により誤差ベクトルeが算出される。あるベクトルdと、点xに対して取得されたベクトルd(即ち、ベクトルd)と、が互いに同一であれば誤差ベクトルeの大きさ(長さ)は「0」となる。或いは、ベクトルdとベクトルdとが向き及び大きさにおいて互いに類似していれば、誤差ベクトルeの大きさは小さな値となる。一方、ベクトルdとベクトルdとが向き及び大きさにおいて互いに大きく異なっていれば、誤差ベクトルeの大きさは大きな値となる。即ち、誤差ベクトルeの大きさは、ベクトルdとベクトルdとの類似度に相関を有する。
Figure 2019159894
そこで、誤差関数eは、下式(78)に示されるように種々の点xに対する誤差ベクトルeの大きさの2乗和に基づいて取得される。式(78)における関数wiは、重み関数である。関数wiは、点xと点xとの距離が所定値以下であるとき、「0」より大きく且つ点xと点xとの距離が小さいほど大きな値となる。一方、関数wiは、点xと点xとの距離がこの所定値より大きいとき「0」となる。
Figure 2019159894
ここで、ベクトルdがベクトルdと等しいときに誤差関数eの値が最小となると仮定する。更に、ベクトルdとベクトルdとの差分をベクトルd’と定義すれば(即ち、下式(79)が成立していれば)、下式(80)が得られる。
Figure 2019159894
誤差関数eは、ベクトルd’が零ベクトルであるときに極値となるので下式(81)の関係が成立する。式(81)をベクトルdについて解くと、下式(82)が得られる。
Figure 2019159894
ここで、下式(83)に示されるように係数a11乃至係数a22、係数b、係数b及び係数cを定義すれば、ベクトルdは下式(84)により表される。ベクトルdを「点xを終点とするフローベクトルVo」として取得することができる。
Figure 2019159894
なお、この場合、下式(85)が成立する。
Figure 2019159894
(本願の改良)
上述したように、従来方法において、前回画像Spに対応する行列Aと現在画像Scに対応する行列Aを平均して得られる行列Aに対して定まる誤差ベクトルeの大きさの2乗和が最小となるようにベクトルdが取得(推定)されていた。しかし、前回画像Spに対応する行列Aと、現在画像Scに対応する行列Aと、の間の差分が大きいと(即ち、行列Aの要素のそれぞれと、行列Aの要素のそれぞれと、が互いに大きく異なっていると)、行列Aと行列Aと間の差分が大きくなり、その結果、上記式(74)によって取得されるベクトルdは、上記式(72)によって得られるベクトルdと大きく異なる。
一方、上記式(71)の第2式は、上記式(72)によって得られるベクトルdだけ関数fのグラフを移動させると、関数fの点xの位置における勾配ベクトルと、関数fの点xの位置における勾配ベクトルと、が互いに一致することを表している。そのため、行列Aと行列Aとの間の差分が大きいと、上記式(74)によって得られるベクトルdだけ関数fのグラフを移動したとき、点xの位置における関数fの勾配ベクトルと関数fの勾配ベクトルとの差分が大きくなる一方、誤差関数eは小さな値となる場合が発生し得る。
そこで、本実施形態において、ベクトルdだけ移動した関数fの点xの位置における勾配ベクトルと、関数fの点xの位置における勾配ベクトルと、の差分が大きいほど誤差関数の値が大きくなるようにベクトルdの取得方法が改良されている。具体的には、点xのそれぞれに対して第1誤差ベクトルev1が下式(86)により算出される。ただし、式(86)において、下式(87)の関係が成立している。更に、第1誤差ベクトルev1の大きさの2乗和に基づいて下式(88)に示されるように誤差関数eが定義される。
Figure 2019159894
ここで、下式(89)に示されるように係数a11乃至係数a22、係数b、係数b及び係数cを定義すれば、ベクトルdは上記式(84)により取得される。
Figure 2019159894
(ベクトル尤度の取得方法)
次に、本実施形態におけるベクトル尤度Lvを取得する方法について説明する。ベクトルd’を下式(90)のように表すと、誤差関数eは下式(91)のように表すことができる。
Figure 2019159894
ここで、下式(92)に示されるようにベクトルd’を表す極座標を定義すると、誤差関数eに関して下式(93)が得られる。
Figure 2019159894
更に、下式(94)に示されるように係数λ及び角度φを定義し且つ下式(95)に示されるようにベクトルgを定義すると、誤差関数eに関して下式(96)が得られる。
Figure 2019159894
なお、係数λ及び角度φに関して、下式(97)が成立する。一方、ベクトルgに関して、下式(98)が成立する。ベクトルgは、角度φだけ回転した座標系におけるベクトルdとベクトルdとの差分のベクトルである。角度φは、誤差関数eの2階微分値が最大となる方向(特定方向)に相当する角度である。
Figure 2019159894
式(96)におけるg の係数をgcとし且つg の係数をgcとする(即ち、下式(99)に示されるようにgc及びgcを定義する)。λは0以上の値であるので(即ち、λ≧0)、係数gcは係数gcよりも大きい(即ち、gc≧gc)。そのため、係数gcが「0」又は負の値であれば、式(96)の誤差関数eは極小値をとらない。換言すれば、この場合、誤差関数eが最小値となるようなベクトルdを取得することができない。
Figure 2019159894
換言すれば、式(97)より、下式(100)が成立するときは係数gcが負の値となるので、誤差関数eが最小値となるようなベクトルdを取得することができない。これに対し、式(100)が成立していないとき(即ち、下式(101)が成立しているとき)、誤差関数erが最小値となるようなベクトルdを取得することができる。この場合、誤差関数eの最小値であるmin(e)は、下式(102)で表される。
Figure 2019159894
誤差関数eの最小値が大きいとき、誤差関数eの最小値が小さいときと比較して取得(推定)されたフローベクトルVo(即ち、ベクトルd)の信頼度が小さい。即ち、取得されたフローベクトルVoと実際のフローベクトルVoとの間の差分(誤差)が大きくなる可能性が高い。
例えば、現在画像Sc上の点x周辺の種々の点(即ち、点x)に対するフローベクトルVoのそれぞれが、点xに対するフローベクトルVoと類似していなければ、誤差関数eの最小値が大きくなる。
或いは、係数gc及び係数gcが小さければ、(係数gc及び係数gcが大きいときと比較して)誤差関数eの値が入力値であるベクトルdの変化に伴って最小値に近づくとき(即ち、誤差関数eの値が低下するとき)、誤差関数eの値の低下の度合いが小さくなる。
誤差関数eの2次の項の係数(実際の誤差関数eにおける係数gc及び係数gc)の大きさが小さいと、即ち、誤差関数erのベクトルgの方向(特定方向)における2階微分値、及び、特定方向に直交する方向における2階微分値が小さいと、誤差関数eが最小値に近づくときの誤差関数eの低下の度合いが緩慢となる。誤差関数eが最小値に近づくときに誤差関数eが急速に低下する場合、「誤差関数eが下に急峻である」と称呼される。一方、誤差関数eが最小値に近づくときに誤差関数eは緩やかに低下する場合、「誤差関数eが下に緩慢である」と称呼される。
発明者は、誤差関数eが下に緩慢であるとき、誤差関数eが下に急峻であるときと比較して上述した方法にて取得(推定)されたベクトルdの誤差(時間間隔Δtにおける実際の撮影画像上の点の移動との差分)が大きい可能性が高いとの知見を得た。そこで、発明者は、実際のベクトルdが、下式(103)の関数Pd1の値に比例した確率にて分布するとのモデルを構築した。式(103)における係数kは固定値である(本実施形態において、係数k=1)。
Figure 2019159894
関数Pd1の出力値は、種々のベクトルdに対する積分値(即ち、関数Pd1をg1及びg2に対して積分して得られる値)は、「1」ではない。そこで。積分値が「1」となるように関数Pd1に係数(定数)を乗じた値を下式(104)に示される確率密度関数Pdとして取得する。式(104)における分散σ 及び分散σ は、下式(105)に基づいて算出される。
Figure 2019159894
本実施形態において、下式(106)が成立するg1及びg2の組合せに対して得られる関数Pdの値の積分値が、ベクトル尤度Lvとして取得される。具体的には、ベクトル尤度Lvは、下式(107)に基づく近似値として算出される。従って、誤差関数eが下に緩慢であるほど、分散σ 及び分散σ が大きくなり、以て、ベクトル尤度Lvは小さくなる。
Figure 2019159894
ところで、発明者は、更に、誤差関数eの最小値min(e)が大きいとき、最小値min(e)が小さいときと比較して、取得されたベクトルdの信頼度が低いとの知見を得ている。即ち、誤差関数eの最小値min(e)が大きいと、誤差関数eの最小値を与えるベクトルdとは異なるベクトルが実際のフローベクトルVoに対応する可能性が高い。
そこで、誤差関数eの最小値min(e)がkΣw(係数kは固定値であって、本実施形態において係数k=5)よりも大きいとき、下式(108)に示される誤差関数e’に基づいて動体尤度Lmが取得される。誤差関数e’の最小値min(e’)は、kΣwである。換言すれば、誤差関数eの出力値を、最小値がkΣwとなるように調整して得られる関数が誤差関数e’である。
Figure 2019159894
この場合、分散σ 及び分散σ は、下式(109)に基づいて算出される。従って、誤差関数eの最小値min(e)が大きいほど、分散σ 及び分散σ が大きくなり、以て、ベクトル尤度Lvは小さくなる。
Figure 2019159894
以上をまとめると、現在画像Sc上のある点xを終点とするフローベクトルVoを取得するとき、下式(110)が成立していれば、点xのベクトル尤度Lvは「0」であり、フローベクトルVoは零ベクトルとなる。式(110)は、上記式(100)と同じ数式である。
Figure 2019159894
一方、式(110)が成立していないとき、下式(111)が成立していれば、上述したベクトルdが点xを終点とするフローベクトルVoとして取得される。加えて、点xのベクトル尤度Lvは下式(112)に基づいて算出される。式(112)は、上記式(107)と同じ数式である。
Figure 2019159894
更に、式(110)が成立していないとき、下式(113)が成立していれば、点xを終点とするフローベクトルVoとして取得され、そのベクトル尤度Lvは下式(114)に基づいて算出される。式(114)は、上記式(112)と同じ数式である。
Figure 2019159894
式(112)及び式(114)から理解されるように、係数gc及び/又は係数gcが大きいとき(即ち、誤差関数eが下に急峻であるとき)、係数gc及び/又は係数gcが小さいとき(即ち、誤差関数eが下に緩慢であるとき)と比較して動体尤度Lmが大きな値となる。加えて、誤差関数eの最小値が式(113)により表される閾値より大きいとき、誤差関数eの最小値が大きいほど動体尤度Lmが小さな値となる。
(画面動態ベクトルの取得)
画面動態ベクトルVsの取得方法について説明する。画面動態ベクトルVsの取得方法に関する以下の説明において、前回画像Sp上の点(x,y)が現在画像Sc上の点(x’,y’)に移動している。撮影画像内に画像内動体が含まれておらず且つフローベクトルVoの取得誤差が無いと仮定すれば、現在画像Sc上の点のそれぞれに対して取得されたフローベクトルVo(Pc)によって画定される前回画像Sp上の点(x,y)から現在画像Sc上の点(x’,y’)への移動は、画面動態の変化に伴う射影変換であると捉えることができる。
前回画像Spから現在画像Scへの射影変換は、8個の係数(axx,axy,ayz,b,b,c,c)を用いて下式(115)のように表すことができる。
Figure 2019159894
実際には、画像内動体及びフローベクトルVoの取得誤差等の原因により上記8個の係数を一意に取得することは困難である。そこで、前回画像Sp上の点(x,y)から現在画像Sc上の点(x’,y’)への移動(即ち、点(x,y)と点(x’,y’)との種々の組合せ)を精度良く表すように8個の係数を決定する必要がある。
具体的には、ベクトル尤度LvをフローベクトルVoの重みとして考慮し、前回画像Sp上の点(x,y)(すなわち、(x,y)=(x’,y’)−Vo(x’,y’))に対応する現在画像Sc上の点(x’,y’)と、式(115)における射影変換による点(x’,y’)と、の差分が少なくなるように、上記8個の係数を決定すればよい。
2つの画像に基づいて射影変換の対応関係(具体的には、8個の係数)を取得する方法は、既に提案されている(例えば、参考文献2及び参考文献3を参照。)。そのため、ここではその取得手法についての具体的な説明は省略する。
清水 慶行、太田 直哉、金谷 健一 「信頼性評価を備えた最適な射影変換の計算プログラム」 33-40 (情報処理学会研究報告 コンピュータビジョンとイメージメディア 1998/05/27) (参考文献2)
新妻 弘崇、金谷 健一 「最適な射影変換の新しい計算アルゴリズム」 219-226 (電子情報通信学会技術研究報告 2009/11/26) (参考文献3)
或いは、撮影画像内に画像内動体が含まれていれば、所謂ロバスト推定法又はRANSAC法を使うことにより、撮影画像全体に占める面積が比較的小さい画像内動体が映る部分の撮影画像上の移動の影響を排除する一方、画面動態の変化に伴う撮影画像上の被写体の移動に基づく射影変換を計算することができる。
8個の係数が決定されると、画面動態ベクトルVsを求めることができる。より具体的に述べると、前回画像Sp上の点(x,y)の画面動態の変化に伴って移動した現在画像Sc上の点(x’,y’)の位置は下式(116)及び(117)によって求められる。
Figure 2019159894
式(116)及び(117)をx’及びy’について解くと、下式(118)及び(119)が得られる。式(118)及び(119)に基づいて現在画像上の点(x’,y’)を終点とする画面動態ベクトルVs(x’,y’)を取得することができる。即ち、画面動態ベクトルVs(x’,y’)のX軸方向成分は、x’と、式(118)に基づいて取得されたxと、の差分(即ち、x’−x)である。一方、画面動態ベクトルVs(x’,y’)のY軸方向成分は、y’と、式(119)に基づいて取得されたyと、の差分である(即ち、y’−y)。
Figure 2019159894
加えて、前回画像上の点(x、y)を始点とする画面動態ベクトルVs’(x、y)は、式(116)及び式(117)に基づいて取得することができる。即ち、画面動態ベクトルVs’(x、y)のX軸方向成分は、xと式(116)に基づいて取得されたx’との差分(即ち、x’−x)である。一方、画面動態ベクトルVs’(x、y)のY軸方向成分は、yと式(117)に基づいて取得されたy’との差分(即ち、y’−y)である。
(画面動態横拡大率及び画面動態高拡大率の取得方法)
上述した前回画像Sp上の点(x、y)の位置における画面動態横拡大率Rewは、上記式(116)をxに対して偏微分することによって取得される。一方、上述した前回画像Sp上の点(x、y)の位置における画面動態高拡大率Rehは、上記式(117)をyに対して偏微分することによって取得される。
以上、本発明に係る動体検出装置の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。例えば、本実施形態に係る動体検出装置20は、時間間隔Δtが経過する毎に画像処理部11によって取得された撮影画像を受信していた。しかし、動体検出装置20が撮影画像を受信する時間間隔が変化しても良い。
加えて、本実施形態において、フローベクトルVo(Xc,Yc)は、動体移動ベクトルVm(Xc,Yc)と、フロー起点Pf(Xf,Yf)を始点とする画面動態ベクトルVs’(Xf,Yf)と、の和として扱われていた(即ち、Vo(Xc,Yc)=Vm(Xc,Yc)+Vs’(Xf,Yf))。しかし、フローベクトルVo(Xc,Yc)は、動体移動ベクトルVm(Xc,Yc)と、現在点Pc(Xc,Yc)を終点とする画面動態ベクトルVs(Xc,Yc)と、の和として捉えられても良い(即ち、Vo(Xc,Yc)=Vm(Xc,Yc)+Vs(Xc,Yc))。換言すれば、動体検出装置20は、動体移動ベクトルVm(Xc,Yc)をフローベクトルVo(Xc,Yc)と画面動態ベクトルVs(Xc,Yc)との差として取得しても良い(即ち、Vm(Xc,Yc)=Vo(Xc,Yc)−Vs(Xc,Yc))。
加えて、本実施形態において、動体尤度Lm(Xc,Yc)は、前回動体尤度Lmp(Xc,Yc)、ベクトル尤度Lv(Xc,Yc)、フロー差分動体尤度B(Xc,Yc)及び背景差分動体尤度C(Xc,Yc)に基づいて取得されていた。しかし、動体尤度Lm(Xc,Yc)の取得に際し、前回動体尤度Lmp(Xc,Yc)、フロー差分動体尤度B(Xc,Yc)及び背景差分動体尤度C(Xc,Yc)の内の1つ又は2つを取得する処理は、割愛されても良い。
加えて、本実施形態において、背景差分動体尤度Cは、赤強度Br、緑強度Bg及び青強度Bbに基づいて取得されていた。即ち、背景差分動体尤度Cの取得に際して赤強度Br、緑強度Bg及び青強度Bbの組合せが光学特徴値として採用されていた。しかし、背景差分動体尤度Cの取得に際して採用される光学特徴値は、赤強度Br、緑強度Bg及び青強度Bbの組合せとは異なっていても良い。例えば、明度Byが光学特徴値として採用されても良い。即ち、動体検出装置20は、明度Byに基づいて決定された色差分2乗和Css及び色基準分散Cbvを用いて背景差分動体尤度Cを取得しても良い。
加えて、本実施形態において、フローベクトルVoは、明度Byの分布に基づいて決定される近似2次関数(関数f及び関数f)を用いて取得されていた。即ち、フローベクトルVoの取得に際して明度Byが光学特徴値として採用されていた。しかし、フローベクトルVoの取得に際して採用される光学特徴値は、明度Byとは異なっていても良い。例えば、赤強度Br、緑強度Bg及び青強度Bbの組合せが光学特徴値として採用されても良い。即ち、動体検出装置20は、赤強度Br、緑強度Bg及び青強度Bbのそれぞれの分布に基づいて近似2次関数をそれぞれ取得し、それらの近似2次関数に基づいてフローベクトルVoを取得しても良い。
加えて、本実施形態において、パーティクル矩形のそれぞれは矩形によって画定される領域であった。検出周辺領域及び追跡周辺領域はパーティクル矩形に隣接する矩形(領域)であった。しかし、これらの領域は矩形以外の図形によって画定される領域(特定領域)であっても良い。例えば、特定領域は楕円形であり、検出周辺領域及び追跡周辺領域は、特定領域(楕円)と同心であり且つパーティクル矩形よりも大きい楕円から特定領域が除外された領域であっても良い。
10…カメラ、11…画像処理部、12…ズームレンズ、13…雲台、14…ネットワークインタフェース、20…動体検出装置、21…入出力装置、30…ネットワーク、40…小動物。

Claims (10)

  1. カメラによって新たに撮影された撮影画像を所定の時間間隔が経過する毎に繰り返し取得する画像取得部と、
    第1時点にて取得された前記撮影画像である第1画像に映る被写体の位置と、同被写体の前記第1時点よりも前記時間間隔だけ時間が経過した第2時点にて取得された前記撮影画像である第2画像に映る位置と、に基づいて、前記第2画像上の特定点と、前記特定点に対応する前記第1画像上の対応点と、の組合せを同対応点が始点であり且つ同特定点が終点であるオプティカルフローベクトルとして任意の前記特定点又は前記対応点に対して取得し、且つ、取得された前記オプティカルフローベクトルのそれぞれの取得精度をベクトル尤度として取得するフローベクトル取得処理を前記撮影画像のそれぞれに対して実行するフローベクトル取得部と、
    前記オプティカルフローベクトルのそれぞれを前記第1時点における前記撮影画像の視野と前記第2画像における前記撮影画像の視野との差分である画面動態の変化に起因する画面動態ベクトルと、前記撮影画像に映る動体である画像内動体の前記第1時点から前記第2時点までの前記撮影画像上の移動に起因する動体移動ベクトルと、の和として捉えたときの、前記特定点を終点とする前記画面動態ベクトル又は前記対応点を始点とする前記画面動態ベクトルを任意の前記特定点又は前記対応点に対して取得する画面動態ベクトル取得処理を前記撮影画像のそれぞれに対して実行する画面動態ベクトル取得部と、
    前記オプティカルフローベクトル、前記ベクトル尤度及び前記画面動態ベクトルに基づいて前記特定点が前記画像内動体に対応している可能性に正の相関を有する値を同特定点の動体尤度として任意の前記特定点に対して取得する動体尤度取得処理を前記撮影画像のそれぞれに対して実行する動体尤度取得部と、
    前記第2画像上に配置された特定領域に含まれる前記特定点のそれぞれの前記動体尤度が大きいほど大きくなり且つ前記特定領域の周辺の領域に含まれる前記特定点のそれぞれの前記動体尤度が大きいほど小さくなる値を領域尤度として任意の前記特定領域に対して取得する領域尤度取得処理を前記撮影画像のそれぞれに対して実行する領域尤度取得部と、
    前記領域尤度に基づいて前記第2画像上の前記画像内動体が映る領域を特定する画像内動体特定処理を前記撮影画像のそれぞれに対して実行する画像内動体特定部と、
    を備え、
    前記領域尤度取得処理は、
    前記画像内動体特定処理が前回実行されたときに前記画像内動体が映る領域が特定されていれば、前記特定領域に含まれる前記特定点のそれぞれの前記動体尤度が大きくなり、且つ、前記特定された画像内動体を構成する点の、前記動体尤度によって重み付けされた光学特徴値の分布である基準分布と、前記特定領域に含まれる前記画像内動体を構成する点の、前記動体尤度によって重み付けされた光学特徴値の分布と、が類似するほど大きくなり、前記特定領域の周辺の領域に含まれる前記特定点のそれぞれの前記動体尤度が大きくなり、且つ、前記基準分布と、前記特定領域の周辺の領域に含まれる前記画像内動体を構成する点の、前記動体尤度によって重み付けされた光学特徴値の分布と、が類似するほど小さくなるように前記領域尤度を設定する処理である
    ように構成された動体検出装置。
  2. 請求項1に記載の動体検出装置において、
    前記動体尤度取得処理は、
    前記画面動態ベクトルによって特定される、前記特定点及び同特定点を終点とする前記画面動態ベクトルの始点である画面動態起点を含む、前記第2画像における同特定点の位置に映る前記画像内動体以外の被写体又は前記画像内動体の背後にある被写体の、前記画面動態の変化に伴う前記時間間隔が経過する毎の前記撮影画像上の移動を表す点の集合である画面動態移動点列を構成する前記撮影画像上の点のそれぞれに対応する光学特徴値に相関を有する値である背景差分動体尤度にも基づいて前記特定点に対応する前記動体尤度を取得する処理である
    ように構成された動体検出装置。
  3. 請求項2に記載の動体検出装置において、
    前記動体尤度取得処理は、
    前記特定点以外の前記画面動態移動点列を構成する点のそれぞれに対応する光学特徴値の移動平均値を取得し、
    前記光学特徴値の移動平均値のそれぞれを明度補正して得られる補正後移動平均値と、前記特定点の光学特徴値と、の差分が大きいほど前記背景差分動体尤度を大きい値に設定し、且つ、前記特定点以外の前記画面動態移動点列を構成する点のそれぞれに対応する光学特徴値の分散が大きいほど小さい値に設定する処理を含み、
    前記明度補正は、
    前記補正後移動平均値の分布を、前記第2画像における当該光学特徴値の分布と類似させる補正である、
    ように構成された動体検出装置。
  4. 請求項1乃至請求項3の何れか一項に記載の動体検出装置において、
    前記動体尤度取得処理は、
    前記オプティカルフローベクトルによって特定される、前記特定点及び前記対応点を含む、前記第2画像における同特定点の位置に映る被写体の、前記時間間隔が経過する毎の前記撮影画像上の移動を表す点の集合であるフロー点列を構成する前記撮影画像上の点のそれぞれに対応する前記動体移動ベクトルの移動平均として取得されるベクトルの大きさが大きいほど大きく且つ前記フロー点列を構成する点のそれぞれに対応する前記オプティカルフローベクトルの前記ベクトル尤度が大きいほど大きな値に設定されるフロー差分動体尤度にも基づいて前記特定点に対応する前記動体尤度を取得する処理である、
    ように構成された動体検出装置。
  5. 請求項2又は請求項3に記載の動体検出装置において、
    前記動体尤度取得処理は、
    前記背景差分動体尤度を、とり得る値の範囲が前記動体尤度と等しくなるように取得し、
    前記オプティカルフローベクトルによって特定される、前記特定点及び前記対応点を含む、前記第2画像における同特定点の位置に映る被写体の、前記時間間隔が経過する毎の前記撮影画像上の移動を表す点の集合であるフロー点列を構成する前記撮影画像上の点のそれぞれに対応する前記動体移動ベクトルの移動平均として取得されるベクトルの大きさが大きいほど大きく且つ前記フロー点列を構成する点のそれぞれに対応する前記オプティカルフローベクトルの前記ベクトル尤度が大きいほど大きな値に設定されるフロー差分動体尤度を、とり得る値の範囲が前記動体尤度と等しくなるように取得し、且つ、
    前記動体尤度取得処理が前回実行されたときに前記対応点に対して取得された前記動体尤度である前回動体尤度と、前記特定点に対応する前記オプティカルフローベクトルに係る前記ベクトル尤度との内の小さい方の値を同特定点に対応する第1暫定尤度として取得し、前記特定点の前記第1暫定尤度と、同特定点の前記フロー差分動体尤度と、の内の大きい方の値を同特定点の第2暫定尤度として取得し、前記特定点の前記第2暫定尤度と、前記特定点の前記背景差分動体尤度と、の内の小さい方の値を同特定点の前記動体尤度として取得する、
    処理であるように構成された動体検出装置。
  6. 請求項1乃至請求項5の何れか一項に記載の動体検出装置であって、
    前記撮影画像上の複数の前記特定領域の一部又は全部の位置及び/又は形状を変化させる特定領域更新処理を前記撮影画像のそれぞれに対して実行する特定領域更新部を備え、
    前記特定領域更新処理は、
    前記特定領域のそれぞれに対してオプティカルフロー追随処理及び前回移動方向追随処理の何れか一方を、前記特定領域を構成する点のそれぞれの前記動体尤度が大きいほど高い確率にて前記オプティカルフロー追随処理が選択されるように、選択して実行する処理を含み、
    前記オプティカルフロー追随処理は、
    前記特定領域を構成する点の1つを始点又は終点とする前記オプティカルフローベクトルである代表フローベクトルに基づいて前記特定領域の位置の変化量を決定する処理であり、
    前記前回移動方向追随処理は、
    前記特定領域更新処理が前回実行されたときに前記特定領域に対して決定された位置の変化量に基づいて同特定領域の位置の変化量を決定する処理である、
    ように構成された動体検出装置。
  7. 請求項6に記載の動体検出装置において、
    前記オプティカルフロー追随処理は、
    前記特定領域を構成する点のそれぞれの前記動体尤度が大きいほど大きい確率にて同特定領域を構成する点の1つを領域代表点として選択し、前記領域代表点を始点とする前記オプティカルフローベクトルを前記代表フローベクトルとして取得する
    ように構成された動体検出装置。
  8. 請求項6又は請求項7に記載の動体検出装置であって、
    前記複数の特定領域の内の何れかが選択される確率がその特定領域の前記領域尤度に比例する方法によって前記特定領域を選択する処理を前記特定領域の数だけ繰り返し、前記選択された特定領域のそれぞれを前記第2画像上に配置し直す特定領域リサンプリング処理を前記撮影画像のそれぞれに対して実行する特定領域リサンプリング部を備える
    ように構成された動体検出装置。
  9. 請求項8に記載の動体検出装置において、
    前記画像内動体特定処理は、
    複数の前記特定領域のそれぞれの前記領域尤度の平均値が所定の閾値よりも大きく且つ前記複数の特定領域のそれぞれの位置及び大きさを平均して得られる平均領域と一部又は全部が重複する前記特定領域の数が所定の閾値よりも大きいことを含む所定の特定条件が成立しているとき、前記平均領域を前記画像内動体が映る領域として特定する処理である
    ように構成された動体検出装置。
  10. 請求項1乃至請求項9の何れか一項に記載の動体検出装置において、
    前記フローベクトル取得処理は、
    前記撮影画像を構成する点の1つの近傍における光学特徴値の分布を近似する近似関数を、前記第1画像を構成する任意の点と前記第2画像を構成する任意の点に対して取得し、
    前記特定点から零ベクトルを含む周辺点ベクトルによって表される向き及び大きさだけ移動した点である特定周辺点に対して取得された前記近似関数の同特定周辺点における勾配ベクトルと、前記特定周辺点から零ベクトルを含む対応点ベクトルによって表される向き及び大きさだけ移動した前記第1画像上の点である対応周辺点に対して取得された前記近似関数の同対応周辺点における勾配ベクトルと、の差分として取得される差分ベクトルの大きさの2乗和である誤差2乗和を任意の前記周辺点ベクトルに対して取得し且つ積算して得られる誤差積算値が最も小さくなる前記対応点ベクトルである特定対応点ベクトルの逆ベクトルを前記特定点を終点とする前記オプティカルフローベクトルとして取得し、
    前記ベクトル尤度を、前記誤差積算値が大きくなるほど大きくなり、前記対応点ベクトルの成分を表す2つの値が入力値であり且つ同入力値に対応する前記誤差積算値が出力値である2変数関数の前記特定対応点ベクトルに対応する入力値における2階微分値が最大となる方向である特定方向の2階微分値が大きくなるほど大きくなり、且つ、前記2変数関数の前記特定対応点ベクトルに対応する入力値における前記特定方向と直交する方向の2階微分値が大きくなるほど大きくなる、ように取得する
    処理であるように構成された動体検出装置。
JP2018046582A 2018-03-14 2018-03-14 動体検出装置 Active JP6509396B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018046582A JP6509396B1 (ja) 2018-03-14 2018-03-14 動体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018046582A JP6509396B1 (ja) 2018-03-14 2018-03-14 動体検出装置

Publications (2)

Publication Number Publication Date
JP6509396B1 JP6509396B1 (ja) 2019-05-08
JP2019159894A true JP2019159894A (ja) 2019-09-19

Family

ID=66429927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018046582A Active JP6509396B1 (ja) 2018-03-14 2018-03-14 動体検出装置

Country Status (1)

Country Link
JP (1) JP6509396B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112261390B (zh) * 2020-08-20 2022-02-11 深圳市豪恩汽车电子装备股份有限公司 车载摄像设备及其图像优化装置和优化方法

Also Published As

Publication number Publication date
JP6509396B1 (ja) 2019-05-08

Similar Documents

Publication Publication Date Title
JP6563609B2 (ja) 中間ビューからの効率的なキャンバスビューの生成
JP3885458B2 (ja) 投写画像の校正方法及びその装置、並びに機械可読媒体
US8265374B2 (en) Image processing apparatus, image processing method, and program and recording medium used therewith
US20090213222A1 (en) System for tracking a moving object, by using particle filtering
JP2007183949A (ja) イメージマッチング速度とブレンディング方法を改善したパノラマ映像提供方法および装置
US20110216288A1 (en) Real-Time Projection Management
JP5225313B2 (ja) 画像生成装置、画像生成方法、及びプログラム
CN101080744B (zh) 产生合成图像的方法
JP5596427B2 (ja) 光学投影制御方法、光学投影制御装置、光学投影制御システムおよびプログラム
US20220383589A1 (en) Image processing apparatus, image processing method, method for generating learned model, and storage medium
KR20190120492A (ko) 실 공간 비강체의 가상 공간 정합 방법 및 장치
JP2008259161A (ja) 目標追尾装置
JP2021114685A (ja) 制御装置、投影制御方法、投影システム、プログラム、および記憶媒体
US11715218B2 (en) Information processing apparatus and information processing method
JP2019159894A (ja) 動体検出装置
JP6345345B2 (ja) 画像処理装置及び画像処理方法及び画像処理プログラム
JP2018136793A (ja) 画像処理装置、画像処理方法及びプログラム
JP6851089B2 (ja) 適応的三次元空間生成方法及びそのシステム
US20230011121A1 (en) Virtual reality simulator and virtual reality simulation program
JP2017123589A (ja) 情報処理装置、情報処理方法および映像投影システム
US20230011228A1 (en) Virtual reality simulator and virtual reality simulation program
WO2022134550A1 (zh) 投影图像的调整曲线计算和调整方法、系统、装置及介质
KR101935969B1 (ko) 히스토그램을 이용한 객체 추적 실패 감지 및 재추적 방법 및 장치
JP6417204B2 (ja) 画像処理装置および画像処理方法
EP3706410B1 (en) Image processing device, image processing method, program, and projection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190402

R150 Certificate of patent or registration of utility model

Ref document number: 6509396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250