JP6432163B2 - 追尾装置、カメラ、追尾方法および追尾プログラム - Google Patents

追尾装置、カメラ、追尾方法および追尾プログラム Download PDF

Info

Publication number
JP6432163B2
JP6432163B2 JP2014112680A JP2014112680A JP6432163B2 JP 6432163 B2 JP6432163 B2 JP 6432163B2 JP 2014112680 A JP2014112680 A JP 2014112680A JP 2014112680 A JP2014112680 A JP 2014112680A JP 6432163 B2 JP6432163 B2 JP 6432163B2
Authority
JP
Japan
Prior art keywords
image
similarity
tracking target
tracking
target candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014112680A
Other languages
English (en)
Other versions
JP2015228552A (ja
Inventor
浩史 金藤
浩史 金藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014112680A priority Critical patent/JP6432163B2/ja
Publication of JP2015228552A publication Critical patent/JP2015228552A/ja
Application granted granted Critical
Publication of JP6432163B2 publication Critical patent/JP6432163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、追尾装置、カメラ、追尾方法および追尾プログラムに関する。
時系列に入力されるフレーム画像内で被写体を追尾する追尾装置において、正規化相関という演算手法を用いてテンプレート画像とターゲット画像間の類似度を算出して被写体を追尾する技術が知られている(特許文献1参照)。
日本国特許第3768073号公報
しかしながら、従来の追尾装置では、例えば追尾対象が遮蔽物で遮蔽されるような信頼性低下を検出することができず、追尾が困難になるという問題がある。
本発明による追尾装置は、画像を繰り返し取得する第1取得部と、画像に含まれる追尾対象の周囲に関する周囲基準情報を取得する第2取得部と、第1取得部によって時系列に取得される画像と、追尾対象に関する対象基準情報と、に基づいて追尾対象候補画像を検出する検出部と、検出部が検出した追尾対象候補画像と、追尾対象候補画像を検出した画像よりも前の画像から取得された周囲基準情報と、の比較を行う比較部と、比較部の比較結果に基づき、追尾対象候補画像に関する評価を行う評価部と、を備え
本発明によるカメラは、上記追尾装置を搭載す
本発明による追尾方法は、画像を繰り返し取得し、画像に含まれる追尾対象の周囲に関する周囲基準情報を取得し、時系列に取得される画像と、追尾対象に関する対象基準情報と、に基づいて追尾対象候補画像を検出し、検出した追尾対象候補画像と、追尾対象候補画像を検出した画像よりも前の画像から取得された周囲基準情報と、を比較し、比較結果に基づき、検出した前記追尾対象候補画像に関する評価を行う
本発明による追尾プログラムは、画像を繰り返し取得する処理と、画像に含まれる追尾対象の周囲に関する周囲基準情報を取得する処理と、時系列に取得される画像と、追尾対象に関する対象基準情報と、に基づいて追尾対象候補画像を検出する処理と、検出した追尾対象候補画像と、追尾対象候補画像を検出した画像よりも前の画像から取得された周囲基準情報と、を比較する処理と、比較結果に基づき、検出した追尾対象候補画像に関する評価を行う処理と、をコンピュータに実行させる。
本発明によれば、追尾の信頼性に応じて適切に対処し得る。
本発明の一実施の形態による追尾装置を搭載するカメラの構成を例示するブロック図である。 演算部によって実行される被写体追尾処理の流れを説明するフローチャートである。 被写体ロスト時の追尾処理の流れを説明するフローチャートである。 初期フレーム処理の詳細を説明するフローチャートである。 時系列のフレーム画像を例示する図である。 時系列のフレーム画像を例示する図である。 時系列のフレーム画像を例示する図である。 更新処理の詳細を説明するフローチャートである。 カメラに対する追尾プログラムの供給を説明する図である。
以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態による追尾装置を搭載するカメラの構成を例示するブロック図である。図1において、カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106と、を備える。
操作部材101は、使用者によって操作される種々の入力部材、例えば電源スイッチ、レリーズボタン、ズームボタン、十字キー、などを含む。レンズ102は、複数の光学レンズ群から構成され、撮像素子103の撮像面に被写体像を結像させる。図1では、光学レンズ群を代表する1枚のレンズを図示している。
撮像素子103は、例えばCMOSイメージセンサによって構成され、レンズ102により結像された被写体像を撮像する。撮像された画像のデータは、制御装置104へ出力される。制御装置104は、画像データに所定の画像処理を施す。
メモリカードスロット105は、記憶媒体としてのメモリカードを挿入するためのスロットである。制御装置104から出力された画像データは、メモリカードスロット105に挿入されているメモリカードに記録される。
モニタ106は、例えばカメラ100の背面に搭載されたタッチ操作液晶パネルによって構成される。モニタ106には、撮像素子103によって所定の間隔で時系列に取得されたモニタ用画像(ライブビュー画像)や、メモリカードに記憶されている画像データに基づく再生画像や、カメラ100を設定するための設定メニュー画面などが表示可能に構成される。
制御装置104は、CPU、メモリ、およびその他の周囲回路により構成され、後述する演算部104aを機能的に備える。なお、制御装置104を構成するメモリには、プログラムを格納するメモリ、ワークメモリ、バッファメモリとして使用されるメモリが含まれる。
<フローチャートの説明>
図2および図3は、制御装置104内の演算部104aによって実行される被写体追尾処理の流れを説明するフローチャートである。制御装置104は、図2、図3の処理を行う追尾プログラムを、例えば、撮像素子103によって時系列に取得された画像データが撮像素子103から逐次出力される場合に起動させる。演算部104aは、撮像素子103から所定のフレームレートで読み出された時系列のフレーム画像について、各フレーム画像における追尾対象の位置を特定する。
図2のステップS10において、演算部104aは、初期設定を行うための初期フレーム処理を行う。図4は、初期フレーム処理の詳細を説明するフローチャートである。演算部104aは、ステップS10−1において第1フレーム目のフレーム画像情報を入力する。演算部104aは、例えばフレーム画像がRGB表色系で表されている場合に、次式(1)〜(3)を用いて、色相(Hue)、彩度(Saturation)、明度(Value)の3成分から成る画像に変換する。
ここで、RGB成分の3つの値のうち、最大のものをMAX、最小のものをMINとする。
Figure 0006432163
ただし、H<0の時、H=H+360である。
なお、次式(4)〜(6)または次式(7)〜(9)を用いて、輝度成分(Y成分)からなる輝度画像と、色差成分(Cb成分、Cr成分)からなる色差画像とに変換してもよい。
Figure 0006432163
Y= 0.2990R +0.5870G + 0.1140B ・・・・・・・・・・(4)
Cb = −0.1687R −0.3313G + 0.5000B + 128 ・・・・・・・(5)
Cr = 0.5000R − 0.4187G − 0.0813B +128 ・・・・・・・(6)
Y= 0.25R +0.50G + 0.25B ・・・・・・・・・・・・・(7)
Cb = −0.25R − 0.50G + 0.75B + 128 ・・・・・・・・・・(8)
Cr = 0.75R − 0.50G − 0.25B + 128 ・・・・・・・・・・(9)
ステップS10−2において、演算部104aは、ユーザーによって追尾対象として指定された矩形領域を被写体領域とする。具体的には、ユーザーがモニタ106の画面上で追尾対象とする所望の被写体位置をタッチ操作すると、演算部104aがタッチ位置を含む所定の矩形範囲を被写体領域とする。演算部104aは、例えば追尾演算に用いる座標系において、被写体領域の左上の座標を被写体位置座標とする。
ステップS10−3において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域の画像を初期テンプレート画像として取得する。ステップS10−4において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域の画像を合成テンプレート画像として取得する。
ステップS10−5において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域の画像を非更新型対象テンプレート画像として取得する。ステップS10−6において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域の画像を更新型対象テンプレート画像として取得する。
以上説明したように初期フレーム処理においては、初期テンプレート画像、合成テンプレート画像、非更新型対象テンプレート画像、および更新型対象テンプレート画像が共通となる。本実施形態では、初期テンプレート画像および合成テンプレート画像を追尾演算において用いるとともに、非更新型対象テンプレート画像および更新型対象テンプレート画像を上記追尾演算結果に対する信頼性判定処理に用いる。非更新型対象テンプレート画像と更新型対象テンプレート画像とが対象テンプレート画像群を構成する。
ステップS10−7において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域に隣接する複数の領域を、周囲テンプレート画像群として取得する。図5〜図7は、時系列のフレーム画像を例示する図であり、サーキットを駆けるオートバイ(追尾対象)を流し撮りしたものである。図5に示すように、フレーム画像において被写体領域40の上に隣接する領域51、被写体領域40の下に隣接する領域52、被写体領域40の左に隣接する領域53、被写体領域40の右に隣接する領域54が、周囲テンプレート画像群を構成する。
図4のステップS10−8において、演算部104aは、ロストフラグをOFFに設定し、図2のステップS20へ進む。ロストフラグは、追尾対象を見失った場合(フレーム画像において追尾対象を検出できなかった場合)にON とし、追尾対象を見失っていない場合(フレーム画像において追尾対象を検出できた場合)にOFF とするフラグである。
図2のステップS20において、演算部104aは、第2フレーム目以降のフレーム画像情報を入力してステップS30へ進む。処理内容は、第1フレーム目(ステップS10−1)の場合と同様である。
ステップS30において、演算部104aは、ロストフラグがOFF か否かを判定する。演算部104aは、ロストフラグがOFFに設定されている場合にステップS30を肯定判定してステップS40へ進み、ロストフラグがONに設定されている場合にステップS30を否定判定してステップS35の被写体ロスト時の追尾処理へ進む。被写体ロスト時の追尾処理については後述する。
<追尾対象を見失っていない場合の追尾演算>
ステップS40において、演算部104aは、初期テンプレート画像と合成テンプレート画像とを用いて、検索エリアの類似度マップを上記色相H、彩度S、明度Vの各プレーンで作成する。検索エリアは、入力したフレーム画像情報のうち追尾対象を検索する範囲をいう。類似度マップ作成には、例えば、次式(10)〜(12)に示すように、ターゲット画像とテンプレート画像の絶対差分和SAD(Sum of Absolute Difference)を使用する。ターゲット画像は、テンプレート画像のサイズと同サイズの検索エリア内の画像である。
SAD = Σ|Hターゲット画像−Hテンプレート画像| ・・・・・・・・(10)
SAD = Σ|Sターゲット画像−Sテンプレート画像| ・・・・・・・・(11)
SAD = Σ|Vターゲット画像−Vテンプレート画像| ・・・・・・・・(12)
ステップS50において、演算部104aは、ステップS40において作成したH、S、V各プレーンの類似度マップに、被写体位置からの距離に応じて係数を乗算する。係数は、次式(13)より算出する。
Kyori(x, y) = Kyori + K(|x−M | + |y−M|) ・・・・・(13)
なお、式(13)において、(x,y) は類似度マップの二次元座標値、Mは前フレームにおける被写体位置のx座標、Mは前フレームにおける被写体位置のy座標である。また、本例ではKyori = 1.0、K = 0.05としている。このように距離に応じた重み付けを行うのは、前フレームにおける被写体位置に近い位置を優遇するためである。
ステップS60において、演算部104aは、H、S、V各プレーンの類似度マップを次式(14)により統合する。
N= TempHeight×TempWidth×255
MapHSV = 1/N(GainH×DistMapH + GainS×DistMapS + GainV×DistMapV)
・・・・・(14)
なお、式(14)において、TempHeightはテンプレート画像の縦幅、TempWidthはテンプレート画像の横幅、DistMapHは距離重み係数を乗算したHプレーンの類似度マップ、DistMapSは距離重み係数を乗算したSプレーンの類似度マップ、DistMapVは距離重み係数を乗算したVプレーンの類似度マップである。また、本例ではGainH = 1.5、GainS = 1.5、GainV = 0.1としている。
演算部104aはさらに、統合した2つの類似度マップ(初期テンプレート画像に関する類似度マップ、合成テンプレート画像に関する類似度マップ)の中から類似度が最大(本実施形態においては絶対差分和SADが最小)となるxy座標をマッチング位置として選出し、このマッチング位置を左上座標としたテンプレート画像のサイズと同じ矩形領域を被写体候補領域として取得する。
<被写体候補領域に対する信頼性判定>
ステップS70において、演算部104aは、次式(15)、(16)により、ステップS60において取得した被写体候補領域の、対象テンプレート画像群と周囲テンプレート画像群とに対する類似度を算出する。
Figure 0006432163
S= 0.5×(NCC + 1) ・・・・・・・・・・・・・・・(16)
Object(i,j)は、被写体候補領域に対応し、Template(i,j)は、対象テンプレート画像群と周囲テンプレート画像群とに対応する。式(15)は正規化相互相関(NCC)の算出式であり、類似度が高いほど1に近づき、類似度が低いほど−1に近づく。式(16)は、類似度が高いほど1に近づき、類似度が低いほど0に近づくように式(15)の結果を変形したものである。
演算部104aはさらに、対象テンプレート画像群の中で類似度が最大になった値をSmaxP、周囲テンプレート画像群の中で類似度が最大になった値をSmaxNとし、次式(17)より相対類似度Sを算出する。
Figure 0006432163
図6において、画面内に遮蔽物60となり得るポールが存在する。サーキットを駆けるオートバイ(追尾対象)は遮蔽物60に接近し、次フレームである図7において、オートバイ(追尾対象)が遮蔽物60に隠れてしまう。図6のフレーム画像において、被写体領域40の上に隣接する領域51、被写体領域40の下に隣接する領域52、被写体領域40の左に隣接する領域53、被写体領域40の右に隣接する領域54が、周囲テンプレート画像群を構成する。
オートバイ(追尾対象)が遮蔽物60に隠れた遮蔽状態になると、オートバイと遮蔽物60の色が似ている場合、図7のように被写体候補領域41が遮蔽物60の上に設定されてしまう事がある。このような場合、被写体候補領域41の、対象テンプレート画像群に対する類似度は比較的高い値となってしまう。しかしながら、本実施形態では1フレーム前の図6において遮蔽物60を含む領域54が、周囲テンプレート画像として取得されている。このため、被写体候補領域41の、周囲テンプレート画像群(本例では領域54)に対する類似度は、対象テンプレート画像群に対する類似度よりも高くなる。したがって、相対類似度Sの値が小さくなり、遮蔽状態を正しく判定できる。式(17)によれば、遮蔽状態でない場合に相対類似度Sの値が1に近づき、遮蔽状態の場合に相対類似度Sの値が小さくなる。
ステップS80において、演算部104aは、ステップS70において算出した相対類似度Sが、所定の「判定閾値1」以上か否かを判定する。演算部104aは、相対類似度Sが「判定閾値1」以上の場合にステップS80を肯定判定してステップS90へ進み、「判定閾値1」未満の場合にステップS80を否定判定してステップS140へ進む。なお、本実施形態では、「判定閾値1」=0.4960としている。ステップS80を肯定判定する場合は、S60において選出した被写体候補領域の信頼性が高い。ステップS80を否定判定する場合は、S60において選出した被写体候補領域の信頼性が低い。
ステップS90において、演算部104aは、ステップS60において選出したマッチング位置を新たな被写体位置として採用し、被写体候補領域を新たな被写体領域として採用する。
ステップS100において、演算部104aは合成テンプレート画像の更新処理を行う。図8は、更新処理の詳細を説明するフローチャートである。図8のステップS100−1において、演算部104aは、ステップS60においてマッチング位置を選出した類似度マップが、初期テンプレート画像による類似度マップであるか、合成テンプレート画像による類似度マップであるかを判定する。演算部104aは、合成テンプレート画像による類似度マップであると判断した場合はステップS100−2へ進み、初期テンプレート画像による類似度マップである場合にはステップS100−3へ進む。
ステップS100−2において、演算部104aは、ステップS90において採用した新たな被写体領域の画素値に重み係数Aを乗じた画像と、初期テンプレート画像の画素値に重み係数B(ただしA≧B、かつA+B=1)を乗じた画像とを加算し、加算後の画像を合成テンプレート画像として更新して図2のステップS110へ進む。
ステップS100−3において、演算部104aは、ステップS90において採用した新たな被写体領域の画素値に上記重み係数Bを乗じた画像と、初期テンプレート画像の画素値に上記重み係数Aを乗じた画像とを加算し、加算後の画像を合成テンプレート画像として更新して図2のステップS110へ進む。
図2のステップS110において、演算部104aは、更新型対象テンプレート画像の更新処理を行う。新たな更新型対象テンプレート画像は、非更新型対象テンプレート画像の画素値に重み係数Cを乗じた画像と、ステップS90において採用した新たな被写体領域の画素値に重み係数Dを乗じた画像とを加算して作成する。これにより、現在の被写体の形状を反映し、かつ、初期状態から大きく離れ過ぎない、更新型対象テンプレート画像を取得することができる。なお、C≧D、かつC+D=1である。
ステップS120において、演算部104aは、ステップS90において採用した新たな被写体領域に隣接する複数の領域を新たな周囲テンプレート画像群として更新する。ステップS130において、演算部104aは、全てのフレーム画像に対する処理が完了したか否かを判定する。演算部104aは、全フレーム画像に対して処理を行った場合にステップS130を肯定判定して図2による処理を終了する。演算部104aは、全フレーム画像に対して処理を行っていない場合にはステップS130を否定判定し、ステップS20へ戻る。ステップS20へ戻る場合は、新たなフレーム画像情報を入力し、上述した処理を繰り返す。
ステップS80を否定判定して進むステップS140において、演算部104aは、フレーム画像内に追尾対象はいないと判定し、ロストフラグをONに設定してステップS130へ進む。
<追尾対象を見失った場合の追尾演算>
図3は、被写体ロスト時の追尾処理を説明するフローチャートである。図3のステップS150において、演算部104aは、ステップS40の場合と同様に、初期テンプレート画像と合成テンプレート画像を用いて、検索エリアの類似度マップを上記色相H、彩度S、明度Vの各プレーンで作成する。ただし、検索エリアを、ロストフラグがOFFの時(追尾対象を見失っていない場合)よりも広く設定する。これにより、追尾対象がロスト(遮蔽状態)した座標から離れた位置に出現する場合も、検索エリア内に追尾対象を捉えることができる。
ステップS160において、演算部104aは、ステップS50の場合と同様に、ステップS150において作成したH、S、V各プレーンの類似度マップに、被写体位置からの距離に応じて係数を乗算する。ただし、上式(13)のKの値は、ロストフラグがOFFの時よりも小さい値に設定する。これにより、被写体がロストした座標から離れた位置に出現する場合の絶対差分和SADが小さくなり、被写体候補領域として選出することができる。なお、本実施形態では、K = 0.02としている。
ステップS170において、演算部104aは、ステップS60の場合と同様に、H、S、V各プレーンの類似度マップを上式(14)により統合し、統合した2つの類似度マップの中から類似度が最大(本実施形態においては絶対差分和SADが最小)となるxy座標をマッチング位置として選出する。そして、選出したマッチング位置を左上座標としたテンプレート画像のサイズと同じ矩形領域を被写体候補領域として取得する。
ステップS180において、演算部104aは、ステップS70の場合と同様に、式(15)〜(17)によって相対類似度Sを算出する。
ステップS190において、演算部104aは、ステップS180において算出した相対類似度Sが、所定の「判定閾値2」以上か否かを判定する。演算部104aは、相対類似度Sが「判定閾値2」以上の場合にステップS190を肯定判定してステップS200へ進み、「判定閾値2」未満の場合にステップS190を否定判定してステップS130へ進む。なお、本実施形態では、「判定閾値2」に、「判定閾値1」よりも大きい値(=0.4990)を使用する。ステップS190を肯定判定する場合は、S170において選出した被写体候補領域の信頼性が高い。ステップS190を否定判定する場合は、S170において選出した被写体候補領域の信頼性が低い。
ステップS200において、演算部104aは、ステップS170において選出したマッチング位置を新たな被写体位置として採用し、被写体候補領域を新たな被写体領域として採用する。
ステップS210において、演算部104aは、ステップS100の場合と同様に、合成テンプレート画像の更新処理を行う。ステップS220において、演算部104aは、ステップS110の場合と同様に、更新型対象テンプレート画像の更新処理を行う。ステップS230において、演算部104aは、ステップS120の場合と同様に、周囲テンプレート画像群の更新処理を行う。
ステップS240において、演算部104aは、フレーム内に追尾対象が戻ってきた(遮蔽状態を脱した)と判断し、ロストフラグをOFFに設定して図2のステップS130へ進む。
上述した実施形態によれば、次の作用効果が得られる。
(1)カメラ100は、フレーム画像を繰り返し取得する撮像素子103と、上記フレーム画像に含まれる追尾対象に関するテンプレート画像(初期テンプレート画像、合成テンプレート画像、対象テンプレート画像群)を取得する演算部104aと、追尾対象の周囲に関する周囲テンプレート画像群を取得する演算部104aと、演算部104aによって時系列に取得されるフレーム画像に対して、フレーム画像内に設定したターゲット画像とテンプレート画像との第1の類似度(SAD)を算出し、第1の類似度に基づき被写体候補領域41を検出する第1の類似度算出部(演算部104a)と、第1の類似度算出部(演算部104a)によって検出された被写体候補領域41と周囲テンプレート画像群より第2の類似度(NCC)を算出する第2の類似度算出部(演算部104a)と、第2の類似度算出部(演算部104a)によって算出された第2の類似度(NCC)に基づき、第1の類似度算出部(演算部104a)により検出した被写体候補領域41の信頼性を判定する演算部104aと、を備える。これにより、判定した信頼性に応じて適切な対処が可能になる。
(2)被写体候補領域41の信頼性が所定値より高い場合にフレーム画像における被写体候補領域41の位置を追尾対象の位置とし、信頼性が所定値より低い場合に被写体が画像中にいないと判定することにより、追尾対象を適切に追尾することができる。
(3)被写体候補領域41の信頼性が所定値より高い場合、追尾対象の位置を特定して次のフレーム画像に対する処理へ進み、信頼性が所定値より低い場合、被写体がいないと判定したまま次のフレーム画像に対する処理へ進むので、追尾処理を適切に行うことができる。
(4)第2の類似度算出部(演算部104a)は、第1の類似度算出部(演算部104a)によって検出された被写体候補領域41とテンプレート画像(対象テンプレート画像群)との第3の類似度(NCC)を算出し、演算部104aは、第3の類似度(NCC)と第2の類似度(NCC)とに基づき、第1の類似度算出部(演算部104a)により検出した被写体候補領域41の信頼性を判定するので、第1の類似度算出部(演算部104a)が算出した類似度(SAD)と同種の類似度のみで信頼性判定する場合に比べて、多面的に信頼性を判定できる。
(5)第1の類似度算出部(演算部104a)が第1の類似度(SAD)を算出するための類似度演算と、第2の類似度算出部(演算部104a)が第2の類似度(NCC)および第3の類似度(NCC)を算出するための類似度演算とを互いに異ならせたので、同種の類似度演算のみで信頼性判定する場合に比べて、多面的に信頼性を判定できる。また、演算部104aは、第3の類似度(NCC)を、第3の類似度(NCC)と第2の類似度(NCC)との加算値で除算した値に基づき、第1の類似度算出部(演算部104a)により検出した被写体候補領域41の信頼性を判定する。これにより、追尾対象が遮蔽物60に隠れる遮蔽状態か否かの判別が容易になる。
(6)演算部104aは、第3の類似度(NCC)を、第3の類似度(NCC)と第2の類似度(NCC)との加算値で除算した値が、閾値よりも大きい場合に信頼性が高いと判定し、閾値よりも小さい場合に信頼性が低いと判定する。具体的には、遮蔽状態でない場合に信頼性が高く、遮蔽状態の場合に信頼性が低いと判定し得るので、信頼性判定を適切に行える。
(7)第1の類似度算出部(演算部104a)は、フレーム画像内において第1の類似度(SAD)に基づき被写体候補領域41を検出する検索エリアを、演算部104aにより信頼性が高いと判定した場合よりも信頼性が低いと判定した場合に広くする。これにより、例えば、追尾対象が遮蔽状態になった座標位置から離れた座標位置に出現する場合に、追尾対象を検索エリア内に捉える可能性を高めることができる。
(8)演算部104aは、追尾対象の左右および上下それぞれの位置に関して複数の周囲テンプレート画像群を取得し、第2の類似度算出部(演算部104a)は、被写体候補領域41と複数の周囲テンプレート画像群51−54の各々との間で第2の類似度(NCC)を複数通り算出し、演算部104aは、複数通りの第2の類似度(NCC)のうち最も類似性が高い第2の類似度に基づき、第1の類似度算出部(演算部104a)により検出した被写体候補領域41の信頼性を判定する。一般に、追尾対象が遮蔽物60に隠れる遮蔽状態になる前のフレーム画像においては、追尾対象の左右上下のいずれかに遮蔽物60が含まれる。このため、左右上下方向に対する複数通りの第2の類似度(NCC)のうち最も類似性が高い第2の類似度を用いることで、信頼性が低下する遮蔽状態を適切に判定できる。
次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
上述した実施形態では、カメラ100を例に追尾装置を説明したが、カメラ100に対して追尾プログラムを後から供給してもよい。カメラ100への追尾プログラムの供給は、例えば図9に例示するように、プログラムを格納したパーソナルコンピュータ205から赤外線通信や近距離無線通信によってカメラ100へ送信することができる。
パーソナルコンピュータ205に対するプログラムの供給は、プログラムを格納したCD−ROMなどの記憶媒体204をパーソナルコンピュータ205にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でパーソナルコンピュータ205へローディングしてもよい。通信回線201を経由する場合は、当該通信回線に接続されたサーバー202のストレージ装置203などにプログラムを格納しておく。
また、プログラムを格納したメモリカードなどの記憶媒体204Bをカメラ100にセットしてもよい。このように、追尾プログラムは、記憶媒体や通信回線を介する提供など、種々の形態のコンピュータプログラム製品として供給できる。
(変形例2)
上述した説明では、被写体候補領域の検出のための追尾演算において、ターゲット画像とテンプレート画像(初期テンプレート画像、合成テンプレート画像)との間の類似度判定に絶対差分和(SAD)を用いるとともに、検出した被写体候補領域41の信頼性判定を行う演算において、被写体候補領域41とテンプレート画像(対象テンプレート画像群、周囲テンプレート画像群)との間の類似度判定に正規化相互相関(NCC)を用いた。追尾演算と信頼性判定の演算とで異なる類似度判定を行う代わりに、追尾演算と信頼性判定の演算とで同じ類似度判定(絶対差分和(SAD)または正規化相互相関(NCC)に揃える)を行うように構成してもよい。
(変形例3)
ターゲット画像とテンプレート画像との間の類似度判定に用いる初期テンプレート画像および合成テンプレート画像のサイズと、被写体候補領域41とテンプレート画像との間の類似度判定に用いる対象テンプレート画像群および周囲テンプレート画像群のサイズとを同じにする例を説明したが、これらのテンプレート画像のサイズは必ずしも同じにしなくてもよい。例えば、対象テンプレート画像群および周囲テンプレート画像群のサイズを、初期テンプレート画像および合成テンプレート画像のサイズより小さくしてもよい。
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
40…被写体領域
41…被写体候補領域
51〜54…周囲テンプレート画像群
60…遮蔽物
100…カメラ
103…撮像素子
104…制御装置
104a…演算部
201…通信回線
202…サーバー
204、204B…記憶媒体
205…パーソナルコンピュータ

Claims (11)

  1. 画像を繰り返し取得する第1取得部と、
    画像に含まれる追尾対象の周囲に関する周囲基準情報を取得する第2取得部と、
    前記第1取得部によって時系列に取得される前記画像と、前記追尾対象に関する対象基準情報と、に基づいて追尾対象候補画像を検出する検出部と、
    前記検出部が検出した追尾対象候補画像と、前記追尾対象候補画像を検出した画像よりも前の画像から取得された前記周囲基準情報と、の比較を行う比較部と、
    前記比較部の比較結果に基づき、前記追尾対象候補画像に関する評価を行う評価部と、
    を備える追尾装置。
  2. 請求項1に記載の追尾装置において、
    前記評価部は、前記評価に関する値が所定値より高い場合に前記画像における前記追尾対象候補画像の位置を前記追尾対象の位置とし、前記評価に関する値が前記所定値より低い場合、被写体が画像中にいないと判定する、
    尾装置。
  3. 請求項2に記載の追尾装置において、
    前記評価に関する値が所定値より高い場合、前記追尾対象の位置を特定して次の画像に対する処理へ進み、前記評価に関する値が前記所定値より低い場合、前記被写体がいないと判定したまま次の画像に対する処理へ進む、
    尾装置。
  4. 請求項2または3に記載の追尾装置において、
    前記比較部は、前記追尾対象候補画像と前記周囲基準情報との第1類似度と、前記追尾対象候補画像と前記対象基準情報との第類似度と、を算出し、
    前記評価部は、前記第1類似度と前記第2類似度とに基づき、前記追尾対象候補画像の信頼性を判定する追尾装置。
  5. 請求項4に記載の追尾装置において、
    前記検出部が前記追尾対象候補画像を検出する際に算出する、前記画像と前記対象基準情報との第3類似度を算出するための類似度演算と、前記比較部が前記第類似度および前記第類似度を算出するための類似度演算とは互いに異なり、
    前記評価部は、前記第類似度を、前記第類似度と前記第類似度との加算値で除算した値に基づき、前記追尾対象候補画像の信頼性を判定する追尾装置。
  6. 請求項5に記載の追尾装置において、
    前記評価部は、前記除算した値が閾値より大きい場合に信頼性が高いと判定し、前記除算した値が前記閾値より小さい場合に信頼性が低いと判定する追尾装置。
  7. 請求項6に記載の追尾装置において、
    前記検出部は、前記画像内において前記第類似度に基づき前記追尾対象候補画像を検出する範囲を、前記評価部により前記信頼性が高いと判定された場合よりも前記信頼性が低いと判定された場合に広くする追尾装置。
  8. 請求項〜7のいずれか一項に記載の追尾装置において、
    前記第2取得部は、前記追尾対象の左右および上下それぞれの位置に関して複数の周囲基準情報を取得し、
    前記比較部は、前記追尾対象候補画像と前記複数の周囲基準情報の各々との間で前記第類似度を複数通り算出し、
    前記評価部は、前記複数通りの第類似度のうち最も類似性が高い第類似度に基づき、前記追尾対象候補画像の信頼性を判定する追尾装置。
  9. 請求項1〜のいずれか一項に記載の追尾装置を搭載するカメラ。
  10. 画像を繰り返し取得し、
    前記画像に含まれる追尾対象の周囲に関する周囲基準情報を取得し、
    時系列に取得される前記画像と、前記追尾対象に関する対象基準情報と、に基づいて追尾対象候補画像を検出し、
    前記検出した前記追尾対象候補画像と、前記追尾対象候補画像を検出した画像よりも前の画像から取得された前記周囲基準情報と、を比較し、
    比較結果に基づき、前記検出した前記追尾対象候補画像に関する評価を行う
    尾方法。
  11. 画像を繰り返し取得する処理と、
    前記画像に含まれる追尾対象の周囲に関する周囲基準情報を取得する処理と、
    時系列に取得される前記画像と、前記追尾対象に関する対象基準情報と、に基づいて追尾対象候補画像を検出する処理と、
    前記検出した前記追尾対象候補画像と、前記追尾対象候補画像を検出した画像よりも前の画像から取得された前記周囲基準情報と、を比較する処理と、
    比較結果に基づき、前記検出した前記追尾対象候補画像に関する評価を行う処理と、
    をコンピュータに実行させる追尾プログラム。
JP2014112680A 2014-05-30 2014-05-30 追尾装置、カメラ、追尾方法および追尾プログラム Active JP6432163B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014112680A JP6432163B2 (ja) 2014-05-30 2014-05-30 追尾装置、カメラ、追尾方法および追尾プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014112680A JP6432163B2 (ja) 2014-05-30 2014-05-30 追尾装置、カメラ、追尾方法および追尾プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018210242A Division JP2019023934A (ja) 2018-11-08 2018-11-08 追尾装置、カメラ、追尾方法および追尾プログラム

Publications (2)

Publication Number Publication Date
JP2015228552A JP2015228552A (ja) 2015-12-17
JP6432163B2 true JP6432163B2 (ja) 2018-12-05

Family

ID=54885805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014112680A Active JP6432163B2 (ja) 2014-05-30 2014-05-30 追尾装置、カメラ、追尾方法および追尾プログラム

Country Status (1)

Country Link
JP (1) JP6432163B2 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3768073B2 (ja) * 1999-06-15 2006-04-19 株式会社日立国際電気 物体追跡方法及び物体追跡装置
JP4930509B2 (ja) * 2006-08-30 2012-05-16 株式会社ニコン 画像追尾装置、画像追尾方法、およびカメラ
JP4623122B2 (ja) * 2008-04-03 2011-02-02 ソニー株式会社 画像信号処理装置、画像信号処理方法、およびプログラム
JP5383366B2 (ja) * 2009-07-28 2014-01-08 キヤノン株式会社 画像処理装置、画像処理方法、および、そのプログラム
JP5488076B2 (ja) * 2010-03-15 2014-05-14 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム

Also Published As

Publication number Publication date
JP2015228552A (ja) 2015-12-17

Similar Documents

Publication Publication Date Title
EP3457683B1 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
JP6620888B2 (ja) 煙検出装置、方法及び画像処理装置
US10043313B2 (en) Information processing apparatus, information processing method, information processing system, and storage medium
CN110998659B (zh) 图像处理系统、图像处理方法、及程序
JP6438403B2 (ja) 結合された深度キューに基づく平面視画像からの深度マップの生成
US9626766B2 (en) Depth sensing using an RGB camera
US10313657B2 (en) Depth map generation apparatus, method and non-transitory computer-readable medium therefor
CN108292362A (zh) 用于光标控制的手势识别
US9767387B2 (en) Predicting accuracy of object recognition in a stitched image
CN108712606A (zh) 提示方法、装置、存储介质及移动终端
CN109661815A (zh) 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
JP2019023934A (ja) 追尾装置、カメラ、追尾方法および追尾プログラム
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
JP6719945B2 (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP6432163B2 (ja) 追尾装置、カメラ、追尾方法および追尾プログラム
KR20120042323A (ko) 텍스처 및 움직임 감지를 사용한 시간적으로-일관된 변이 추정을 위한 방법 및 장치
JP6608311B2 (ja) 画像評価装置及び画像評価プログラム
CN115623313A (zh) 图像处理方法、图像处理装置、电子设备、存储介质
JP5451364B2 (ja) 被写体追跡装置及びその制御方法
KR20180012638A (ko) 누적 채널 특징점을 이용한 영상 인식에서의 객체 검출 방법 및 장치
US10346680B2 (en) Imaging apparatus and control method for determining a posture of an object
JP6953184B2 (ja) 画像処理装置および画像処理方法
US10671881B2 (en) Image processing system with discriminative control
US11615583B2 (en) Scene crop via adaptive view-depth discontinuity
JP2024516016A (ja) 入力画像の処理方法、入力画像の処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180607

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181022

R150 Certificate of patent or registration of utility model

Ref document number: 6432163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250