JP2012203613A - 画像処理装置および方法、記録媒体並びにプログラム - Google Patents

画像処理装置および方法、記録媒体並びにプログラム Download PDF

Info

Publication number
JP2012203613A
JP2012203613A JP2011067138A JP2011067138A JP2012203613A JP 2012203613 A JP2012203613 A JP 2012203613A JP 2011067138 A JP2011067138 A JP 2011067138A JP 2011067138 A JP2011067138 A JP 2011067138A JP 2012203613 A JP2012203613 A JP 2012203613A
Authority
JP
Japan
Prior art keywords
image
frame
reliability
target image
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011067138A
Other languages
English (en)
Inventor
Kaname Ogawa
要 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011067138A priority Critical patent/JP2012203613A/ja
Priority to US13/354,852 priority patent/US8774458B2/en
Priority to EP12159800A priority patent/EP2503511A1/en
Priority to CN2012100706966A priority patent/CN102693544A/zh
Publication of JP2012203613A publication Critical patent/JP2012203613A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

【課題】軽い負荷で画像をトラッキングすることができるようにする。
【解決手段】トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、混合率を変化させた場合の和で表される評価値が計算され、評価値が最大になるときの混合率が求められる。評価値が最大になるときの混合率が設定された信頼度に基づいて対象画像に対応する画像が検出される。
【選択図】図3

Description

本技術は画像処理装置および方法、記録媒体並びにプログラムに関し、特に軽い負荷で画像をトラッキングすることができるようにした画像処理装置および方法、記録媒体並びにプログラムに関する。
デジタルカメラは、被写体を自動的にフォーカスするオートフォーカス機能を有していることが多い。これによりユーザは、カメラを被写体に向け、レリーズスイッチを操作するだけの簡単な操作で、被写体をピントが合った状態で確実に撮影することができる。
さらにトラッキング機能が具備されている場合、被写体が移動したとしても、その被写体が自動的にトラッキングされるので、その被写体に対するピントが合った状態で撮影を行うことができる。
被写体を自動的にトラッキングする技術としては、例えば非特許文献1に記載された技術がある。
「Ensemble Tracking」 Shai Avidan, Mitsubishi Electric Research Labs, 201 Broadway Cambridge, MA02139, avidan@merl.com
しかしながら、非特許文献1に記載の技術は、ブースティングの技術を用いるものであるため、計算量が厖大となり、民生用の画像処理装置であるデジタルカメラに応用することは困難である。
本技術はこのような状況に鑑みてなされたものであり、軽い負荷で画像をトラッキングすることができるようにするものである。
本技術の一側面は、トラッキングの対象であるオブジェクトを含む対象画像と、第1のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算部と、前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて、第2のフレームの前記対象画像に対応する画像を検出する検出部とを備える画像処理装置である。
前記第1のフレームと前記第2のフレームは、奇数フレームと偶数フレームの一方と他方とすることができる。
前記第2のフレームのスキャン領域のスキャン画像を前記比較画像とし、前記対象画像と前記スキャン画像の前記信頼度を演算する演算部をさらに備えることができる。
前記検出部は、前記対象画像と前記スキャン画像の前記信頼度が最大となる前記スキャン画像を前記対象画像に対応する画像として検出することができる。
前記計算部は、前記第1のフレームの基準領域の画像を前記対象画像とし、前記基準領域の前記対象画像を少なくとも一部に含む複数の領域をポジティブ領域とし、前記基準領域の前記対象画像を含まない複数の領域をネガティブ領域とし、前記基準領域の前記対象画像と複数の前記ポジティブ領域の画像との前記信頼度である第1の信頼度を計算し、前記基準領域の前記対象画像と複数の前記ネガティブ領域の画像との前記信頼度である第2の信頼度を計算し、前記第1の信頼度と前記ポジティブ領域の第1の重み係数との積和である第1の積和を計算し、前記第2の信頼度と前記ネガティブ領域の第2の重み係数との積和である第2の積和を計算し、前記第1の積和と前記第2の積和の和を前記評価値として計算することができる。
前記第1の重み係数は、定数を前記ポジティブ領域の数で除算した値とし、前記第2の重み係数は、前記定数を前記ネガティブ領域の数で除算した値とすることができる。
前記計算部は、前記第2のフレームの前記対象画像に対応する画像の座標に対応する領域であって、前記第2のフレームよりさらに後の第3のフレームの領域の画像を新たな前記対象画像として、前記第3のフレームで前記評価値を計算して、前記評価値が最大になるときの前記混合率を求め、前記検出部は、前記第3のフレームの画像に基づいて前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて、前記第3のフレームよりさらに後の第4のフレームにおいて、前記第3のフレームの新たな前記対象画像に対応する画像を検出することができる。
前記対象画像に対応する画像の座標に対応する領域にマーカを表示する表示部をさらに備えることができる。
前記対象画像に対応する画像が画面の所定の位置に配置されるようにカメラの位置を駆動する駆動部をさらに備えることができる。
前記第1の特徴量は輝度情報とし、前記第2の特徴量は色情報とすることができる。
本技術の側面の画像処理方法、記録媒体およびプログラムは、上述した本技術の側面の画像処理装置に対応する画像処理方法、記録媒体およびプログラムである。
本技術の側面においては、トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、混合率を変化させた場合の和で表される評価値が計算され、評価値が最大になるときの混合率が求められる。評価値が最大になるときの混合率が設定された信頼度に基づいて対象画像に対応する画像が検出される。
以上のように、本技術の一側面によれば、軽い負荷で画像をトラッキングすることができる。
本技術のデジタルカメラの構成を示すブロック図である。 トラッキング処理を説明するフローチャートである。 領域の切り出しを説明する図である。 評価値を説明する図である スキャンを説明する図である。 マーカの表示を説明する図である。 領域の切り出しを説明する図である。
図1は、本技術のデジタルカメラ1の構成を示すブロック図である。デジタルカメラ1は、CPU(Central Processing Unit)11、レンズ12、出力部13、入力部14、および記憶部15により構成されている。
CPU11は、各種の処理を実行する。レンズ12は被写体を撮像し、その画像データをCPU11に供給する。出力部13は、例えばLCD(Liquid Crystal Display)などにより構成され、レンズ12により撮像された画像を表示する。また出力部13は、スピーカを有し、必要な警告音等を出力する。入力部14は、ユーザにより操作されるレリーズスイッチの他、シャッタスピード、露光時間を調整する部材等により構成される。記憶部15は、撮像された画像データを記憶したり、CPU11が動作するプログラムなどを記憶する。
駆動部41は、例えばカメラ1が所定の台(図示せず)に搭載されている状態において、カメラ1を所定の方向にパン、チルトする。
CPU11は、取り込み部21、切り出し部22、初期化部23、計算部24、設定部25、演算部26、検出部27、表示部28、フォーカス部29、および判定部30の機能ブロックを有している。各部は必要に応じて信号を授受することが可能である。
取り込み部21は、画像の取り込みを行う。切り出し部22は、取り込まれた画像から所定の部分の切り出しを行う。初期化部23は、係数を初期化する。計算部24は、各所の計算を実行する。設定部25は、係数の設定を行う。演算部26は、各所の演算を実行する。検出部27は、位置を検出する。表示部28は、マーカを表示する。フォーカス部29は、フォーカス調整を行う。判定部30は、各種の判定処理を行う。
この実施の形態においては、各部はプログラムを実行する場合に機能的に構成されるが、ハードウェアとして構成してもよいことは勿論である。
図2は、トラッキング処理を説明するフローチャートである。以下、この図2を参照して、デジタルカメラ1のトラッキング処理について説明する。
ステップS1において取り込み部21は、画像を取り込む。すなわちレンズ12が撮像した画像の所定のフレームF1の画像が取り込まれる。この取り込みは、レンズ12により撮像され、記憶部15に記憶された画像から行われる。
ステップS2において切り出し部22は、ステップS1の処理で取り込まれたフレームの画像から、オブジェクトを含む領域と含まない領域とを切り出す。オブジェクトとはユーザがトラッキングを希望する対象の画像であり、例えば被写体の顔である。この顔の切り出しについて図3を参照して説明する。
図3は、領域の切り出しを説明する図である。図3に示されるように、ステップS1の処理で取り込まれた画像であるフレーム101(フレームF1に対応する)に、オブジェクト102が表示されている。オブジェクト102を含む例えば矩形の領域が基準領域111−0とされる。そして基準領域111−0内の画像が対象画像114とされる。後述するステップS10の処理でマーカ231が、その後のフレーム201(フレームF2に対応する)上に表示されている場合には(後述する図6を参照)、フレーム201上のマーカ231の座標に対応するフレーム101上の領域が基準領域111−0とされる。まだステップS10の処理が実行される前の最初のフレームでは、ユーザが入力部14を操作することで指定した点を中心とする矩形の領域が基準領域111−0とされる。
ステップS2では、この基準領域111−0の対象画像114の少なくとも一部を含む領域111−1,111−2,・・・,111−Npが切り出される。すなわちNp個の領域が基準領域111−0の対象画像114を含むポジティブ領域として切り出される。同様に、基準領域111−0の対象画像114を全く含まない領域112−1,112−2,・・・,112−Nnが切り出される。すなわちNn個の領域が基準領域111−0の対象画像114を含まないネガティブ領域として切り出される。
次にステップS3において初期化部23は、各領域の重み係数w,wを初期化する。重み係数w,wは、次の式(1)により表される。重み係数wは、ポジティブ領域111−J(J=1,2,・・・,Np)の重み係数であり、重み係数wは、ネガティブ領域112−J(J=1,2,・・・,Nn)の重み係数である。
Figure 2012203613
式(1)で表されるように、ポジティブ領域の重み係数wは、定数Gをポジティブ領域の数Npで除算した値であり、ネガティブ領域の重み係数wは、定数Gをネガティブ領域の数Nnで除算した値である。ポジティブ領域の重み係数wの値は各領域111−Jにおいて同一である。同様に、ネガティブ領域の重み係数wの値は各領域112−Jにおいて同一である。定数GP,の値は、デジタルカメラ1の工場出荷時に予め決定され、設定される。
定数GP,の値は、例えばいずれも0.5に設定したり、定数Gの値を0.8とし、定数Gの値を0.2とすることもできる。重み係数w,wのうち、対応する定数がより大きい値に設定された方の重みがより強くなる。定数GP,の値を所定の値に設定することで、重み係数wと重み係数wのバランスを、適宜調整することができる。
ステップS4において計算部24は、評価値Eval(K)を計算する。評価値Eval(K)は、式(2)で表される。式(2)における信頼度Confidence(K)は、式(3)で表される。Kは、例えば0乃至256のように、変化される整数値である。
Figure 2012203613
Figure 2012203613
すなわち、式(2)では、基準領域111−0の対象画像114と、複数のポジティブ領域111−1,111−2,・・・の画像との信頼度Confidence(K)が第1の信頼度とされる。これが式(2)の右辺の第1項の信頼度Confidence(K)である。基準領域111−0の対象画像114と複数のネガティブ領域112−1,112−2,・・・の画像との信頼度Confidence(K)が第2の信頼度とされる。これが式(2)の右辺の第2項の信頼度Confidence(K)である。第1の信頼度とポジティブ領域111−1,111−2,・・・の第1の重み係数wとの積和が第1の積和とされ、第2の信頼度とネガティブ領域112−1,112−2,・・・の第2の重み係数wとの積和が第2の積和とされる。そして第1の積和と第2の積和の和が評価値Eval(K)とされる。
式(3)におけるfeat_Aは、トラッキングする対象であるオブジェクトを含む対象画像114と比較画像の第1の特徴量(例えば輝度情報)のマッチング度であり、feat_Bは、第2の特徴量(例えば色情報)のマッチング度である。Kは、第1の特徴量のマッチング度feat_Aと第2の特徴量のマッチング度feat_Bの混合率を意味する。式(3)から判るように、信頼度Confidence(K)は、比較画像が、対象画像114と一致する確からしさを表しており、その値が大きい程、比較画像が対象画像114と一致する可能性が高い。勿論、輝度情報と色情報以外の特徴量を用いることができる。
式(2)における右辺の第1項のΣのtrueは、ポジティブ領域のConfidence(K)だけを積和することを意味する。式(2)における右辺の第1項のポジティブ領域のConfidence(K)を計算する場合において対象画像114と比較される比較画像は、ポジティブ領域111−Jの画像である。同様に、第2項のΣのtrueは、ネガティブ領域のConfidence(K)だけを積和することを意味する。式(2)における右辺の第2項のネガティブ領域のConfidence(K)を計算する場合において対象画像114と比較される比較画像は、ネガティブ領域112−Jの画像である。
ステップS5において計算部24は、評価値Eval(K)の値を最大とする混合率Kmを求める。すなわち、混合率Kの値を0乃至256に順次変化させて、評価値Eval(K)の値が計算される。そして257個の評価値Eval(K)の値の中から最大のものが選択され、評価値Eval(K)の値を最大とする混合率Kmが決定される。
図4は、評価値を説明する図である。混合率Kの値を0乃至256に順次変化させると、評価値Eval(K)の値は図4に示されるように変化する。図4の例では、評価値Eval(K)の値を最大にする混合率Kは、Kmである。評価値Eval(K)の値を最大にする混合率Kmが、そのフレームのオブジェクト102を含む対象画像114を検出するのに最適な混合率である。ステップS8,S9で後述するように、次のフレームでは、この混合率Kmを用いて信頼度Confidence(K)が演算される。つまり評価値Eval(K)は、最適な混合率Kmを決定するための関数である。
そこでステップS6において設定部25は、式(3)の信頼度Confidence(K)に、ステップS5で求められた混合率Kmを設定する。
以上のようにしてステップS1乃至S6の処理により、第1のフレームで混合率Kの学習処理が行われた後、続くステップS7乃至S11により第2のフレームでトラッキング処理が行われる。
ステップS7において取り込み部21は画像を取り込む。つまりステップS1で取り込まれたフレームF1の次のフレームF2の画像が記憶部15から読み出され、取り込まれる。
ステップS8において演算部26は、取り込んだ画像上でスキャン画像をスキャンし、各スキャン画像の信頼度Confidence(K)を演算する。すなわちステップS2の処理で、フレームF1の基準領域111−0の画像が対象画像114として決定されている。現在のフレーム(つまりステップS7で取り込まれたフレームF2)上の所定の位置の、対象画像114に対応する大きさのスキャン領域のスキャン画像が比較画像として抽出され、対象画像114と比較される。そして対象画像114とスキャン画像の間の第1の特徴量のマッチング度feat_Aと第2の特徴量のマッチング度feat_Bが演算される。演算された第1の特徴量のマッチング度feat_Aと第2の特徴量のマッチング度feat_Bを式(3)に適用して、信頼度Confidence(K)が演算される。このときの混合率Kとしては、ステップS6で設定された値Kmが用いられる。
図5は、スキャンを説明する図である。図5に示されるように、ステップS7で取り込まれたフレーム201(すなわちフレームF2)上の所定の位置のスキャン領域221−1のスキャン画像222−1が比較画像として抽出され、ステップS2で指定された前のフレームF1の対象画像114と比較される。スキャン領域221−1の大きさは、基準領域111−0と同じ大きさとされている。つまり、スキャン画像222−1は対象画像114と同じ大きさとされている。式(3)の混合率Kの値が最大値Kmに設定された状態で、対象画像211とスキャン画像222−1との信頼度Confidence(K)が演算される。
フレーム201上の比較領域は、比較領域211−1,211−2,211−3,・・・と順次移動され、同様の処理が繰り返される。フレーム201上のスキャンする範囲は、フレーム201の全体とすることもできるが、ステップS2で指定された基準領域111−0の座標(すなわち前回のステップS10の処理でマーカ231が表示された座標)を基準として、そこから所定の距離の範囲内とすることもできる。スキャンする範囲を制限した方が計算量を少なくすることができる。
ステップS9において検出部27は、信頼度Confidence(K)が最大となる領域を検出する。すなわち、ステップS8の処理で演算された各スキャン領域221−J(J=1,2,・・・)の信頼度Confidence(K)の中から、最も大きな値の信頼度Confidence(K)が選択され、その信頼度Confidence(K)に対応するスキャン領域221−Mが選択される。そして、そのフレーム201(フレームF2)上のスキャン領域221−Mの画像が、フレーム101(フレームF1)上の対象画像114に対応する画像232とされる。つまり、フレーム101上の基準領域111−0の対象画像114が、フレームF2のスキャン領域221−Mに移動し、画像232として表示されているものと判断される(後述する図6を参照)。
ステップS10で表示部28は、検出された位置にマーカ231を表示する。図6は、マーカ231の表示を説明する図である。図6においては、スキャン領域221−Mにオブジェクト102を含む画像232が表示されている。そしてスキャン領域221−Mの位置にマーカ231が表示されている。つまり画像232に対してマーカ232が表示されている。フォーカス部29は、マーカ231内に表示されている画像232を基準にフォーカスが合うように、レンズ12を駆動、調整する。ユーザはこのマーカ231を見て、いまどこにフォーカスが合っているのかを確認することができる。
ステップS11において判定部30は、トラッキングを終了するかを判定する。ユーザが入力部14を操作して、トラッキングの中止を指令した場合、トラッキング処理は終了される。
トラッキングの中止が指令されていない場合、処理はステップS1に戻り、さらに次のフレームF3の画像が取り込まれる。そしてステップS2においてオブジェクトを含む領域を切り出す処理が行われる。最初のフレームF1の場合、まだステップS10の処理が行われていないので、ユーザにより指定された位置に基づいて基準領域111−0が設定された。しかしいまの場合、ステップS10の処理で前回の対象画像114に対応する画像232の座標が判っているので、フレーム201のマーカ231が表示されている領域221−Mに対応する座標の次のフレーム301の領域が新たな基準領域111−0とされ、そこを基準に切り出し処理が行われる。
図7は、2回目の領域の切り出しを説明する図である。図7に示されるように、2回目のステップS1の処理で新たに取り込まれたフレーム301(すなわちフレームF3)の領域311−0は、1フレーム前の図6のフレーム201(すなわちフレームF2)上のスキャン領域221−Mに対応する領域である。この領域311−0が新たなフレーム301の基準領域とされ、そこに表示されている画像が新たな対象画像314とされる。切り出し部22は、この新たな基準領域311−0を基準として、新たなポジティブ領域311−1,311−2,・・・と、新たなネガティブ領域312−1,312−2,・・・を切り出す。
以下、同様の処理が行われる。すなわち、フレームF2の対象画像114に対応する画像232の座標に対応する領域であって、フレームF2よりさらに後のフレームF3の領域の画像が新たな対象画像314とされ、フレームF3で評価値Eval(K)が計算される。つまり、新たな対象画像314と、新たなポジティブ領域311−1,311−2,・・・、並びに新たなネガティブ領域312−1,312−2,・・・との間における評価値Eval(K)が計算される。
さらに計算された評価値Eval(K)が最大になるときの混合率Kmが求められる。そして、フレームF3の画像に基づいて評価値Eval(K)が最大になるときの混合率Kmが設定された信頼度Confidence(K)に基づいて、フレームF3よりさらに後のフレームF4(図示せず)において、フレームF3の新たな対象画像314に対応する画像が検出される。
このような処理が、各フレーム毎に繰り返されて、オブジェクト102が移動すると、その移動先をマーカ231がトラッキングし、表示される。ステップS1乃至S6の処理は、連続する奇数フレームと偶数フレームの一方で実行され、ステップS7乃至S11の処理は、他方で実行される。
なお、式(2)の右辺の第2項は、省略することも可能である。ただしこの場合、省略しない場合に比べてトラッキングの機能の質は低下する。
また、式(3)における正規化処理に代えて、すなわち値256による除算をせずに、(256−K)の代わりに、(1−K)を用いるようにしてもよい。
さらにステップS10においてマーカ231を表示させるようにしたが、駆動部41を駆動して、常に、オブジェクト102がフレーム内の所定の位置(例えば中央)に位置するようにカメラ1の位置をパン、チルトして制御することもできる。
本技術は、フレーム毎に得られる情報だけを利用しており、例えば動きベクトルのような複数のフレーム間の画像から得られる情報を利用したり、測距装置などを利用していないので、処理が迅速かつ簡単になる。また、本技術は、演算量が少ないので、デジタルカメラの他、ビデオカメラ、監視カメラ、その他の小型で安価な画像処理装置に適用し、リアルタイムでオブジェクトをトラッキングすることができる。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることができる。
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、記憶部15に記憶される。
なお、本明細書において、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
本技術は、以下のような構成もとることができる。
(1)
トラッキングの対象であるオブジェクトを含む対象画像と、第1のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算部と、
前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて、第2のフレームの前記対象画像に対応する画像を検出する検出部と
を備える画像処理装置。
(2)
前記第1のフレームと前記第2のフレームは、奇数フレームと偶数フレームの一方と他方である
前記(1)に記載の画像処理装置。
(3)
前記第2のフレームのスキャン領域のスキャン画像を前記比較画像とし、前記対象画像と前記スキャン画像の前記信頼度を演算する演算部をさらに備える
前記(1)または(2)に記載の画像処理装置。
(4)
前記検出部は、前記対象画像と前記スキャン画像の前記信頼度が最大となる前記スキャン画像を前記対象画像に対応する画像として検出する
前記(1)、(2)または(3)に記載の画像処理装置。
(5)
前記計算部は、前記第1のフレームの基準領域の画像を前記対象画像とし、前記基準領域の前記対象画像を少なくとも一部に含む複数の領域をポジティブ領域とし、前記基準領域の前記対象画像を含まない複数の領域をネガティブ領域とし、前記基準領域の前記対象画像と複数の前記ポジティブ領域の画像との前記信頼度である第1の信頼度を計算し、前記基準領域の前記対象画像と複数の前記ネガティブ領域の画像との前記信頼度である第2の信頼度を計算し、前記第1の信頼度と前記ポジティブ領域の第1の重み係数のと積和である第1の積和を計算し、前記第2の信頼度と前記ネガティブ領域の第2の重み係数との積和である第2の積和を計算し、前記第1の積和と前記第2の積和の和を前記評価値として計算する
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記第1の重み係数は、定数を前記ポジティブ領域の数で除算した値であり、前記第2の重み係数は、前記定数を前記ネガティブ領域の数で除算した値である
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記計算部は、前記第2のフレームの前記対象画像に対応する画像の座標に対応する領域であって、前記第2のフレームよりさらに後の第3のフレームの領域の画像を新たな前記対象画像として、前記第3のフレームで前記評価値を計算して、前記評価値が最大になるときの前記混合率を求め、
前記検出部は、前記第3のフレームの画像に基づいて前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて、前記第3のフレームよりさらに後の第4のフレームにおいて、前記第3のフレームの新たな前記対象画像に対応する画像を検出する
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記対象画像に対応する画像の座標に対応する領域にマーカを表示する表示部をさらに備える
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記対象画像に対応する画像が画面の所定の位置に配置されるようにカメラの位置を駆動する駆動部をさらに備える
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)
前記第1の特徴量は輝度情報であり、
前記第2の特徴量は色情報である
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11)
トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算ステップと、
前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて前記対象画像に対応する画像を検出する検出ステップと
を含む画像処理方法。
(12)
トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算ステップと、
前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて前記対象画像に対応する画像を検出する検出ステップと
を含む処理をコンピュータに実行させるプログラムが記録されている記録媒体。
(13)
トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算ステップと、
前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて前記対象画像に対応する画像を検出する検出ステップと
を含む処理をコンピュータに実行させるプログラム。
1 デジタルカメラ, 12 レンズ, 13 出力部, 14 入力部, 15 記憶部, 21 取り込み部, 22 切り出し部, 23 初期化部, 24 計算部, 25 設定部, 26 演算部, 27 検出部, 28 表示部, 29 フォーカス部, 30 判定部

Claims (13)

  1. トラッキングの対象であるオブジェクトを含む対象画像と、第1のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算部と、
    前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて、第2のフレームの前記対象画像に対応する画像を検出する検出部と
    を備える画像処理装置。
  2. 前記第1のフレームと前記第2のフレームは、奇数フレームと偶数フレームの一方と他方である
    請求項1に記載の画像処理装置。
  3. 前記第2のフレームのスキャン領域のスキャン画像を前記比較画像とし、前記対象画像と前記スキャン画像の前記信頼度を演算する演算部をさらに備える
    請求項2に記載の画像処理装置。
  4. 前記検出部は、前記対象画像と前記スキャン画像の前記信頼度が最大となる前記スキャン画像を前記対象画像に対応する画像として検出する
    請求項3に記載の画像処理装置。
  5. 前記計算部は、前記第1のフレームの基準領域の画像を前記対象画像とし、前記基準領域の前記対象画像を少なくとも一部に含む複数の領域をポジティブ領域とし、前記基準領域の前記対象画像を含まない複数の領域をネガティブ領域とし、前記基準領域の前記対象画像と複数の前記ポジティブ領域の画像との前記信頼度である第1の信頼度を計算し、前記基準領域の前記対象画像と複数の前記ネガティブ領域の画像との前記信頼度である第2の信頼度を計算し、前記第1の信頼度と前記ポジティブ領域の第1の重み係数のと積和である第1の積和を計算し、前記第2の信頼度と前記ネガティブ領域の第2の重み係数との積和である第2の積和を計算し、前記第1の積和と前記第2の積和の和を前記評価値として計算する
    請求項4に記載の画像処理装置。
  6. 前記第1の重み係数は、定数を前記ポジティブ領域の数で除算した値であり、前記第2の重み係数は、前記定数を前記ネガティブ領域の数で除算した値である
    請求項5に記載の画像処理装置。
  7. 前記計算部は、前記第2のフレームの前記対象画像に対応する画像の座標に対応する領域であって、前記第2のフレームよりさらに後の第3のフレームの領域の画像を新たな前記対象画像として、前記第3のフレームで前記評価値を計算して、前記評価値が最大になるときの前記混合率を求め、
    前記検出部は、前記第3のフレームの画像に基づいて前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて、前記第3のフレームよりさらに後の第4のフレームにおいて、前記第3のフレームの新たな前記対象画像に対応する画像を検出する
    請求項5に記載の画像処理装置。
  8. 前記対象画像に対応する画像の座標に対応する領域にマーカを表示する表示部をさらに備える
    請求項5に記載の画像処理装置。
  9. 前記対象画像に対応する画像が画面の所定の位置に配置されるようにカメラの位置を駆動する駆動部をさらに備える
    請求項5に記載の画像処理装置。
  10. 前記第1の特徴量は輝度情報であり、
    前記第2の特徴量は色情報である
    請求項5に記載の画像処理装置。
  11. トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算ステップと、
    前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて前記対象画像に対応する画像を検出する検出ステップと
    を含む画像処理方法。
  12. トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算ステップと、
    前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて前記対象画像に対応する画像を検出する検出ステップと
    を含む処理をコンピュータに実行させるプログラムが記録されている記録媒体。
  13. トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算ステップと、
    前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて前記対象画像に対応する画像を検出する検出ステップと
    を含む処理をコンピュータに実行させるプログラム。
JP2011067138A 2011-03-25 2011-03-25 画像処理装置および方法、記録媒体並びにプログラム Withdrawn JP2012203613A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011067138A JP2012203613A (ja) 2011-03-25 2011-03-25 画像処理装置および方法、記録媒体並びにプログラム
US13/354,852 US8774458B2 (en) 2011-03-25 2012-01-20 Image processing apparatus, image processing method, recording medium, and program
EP12159800A EP2503511A1 (en) 2011-03-25 2012-03-16 Image processing apparatus, image processing method, recording medium, and program
CN2012100706966A CN102693544A (zh) 2011-03-25 2012-03-16 图像处理设备、图像处理方法、记录介质和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011067138A JP2012203613A (ja) 2011-03-25 2011-03-25 画像処理装置および方法、記録媒体並びにプログラム

Publications (1)

Publication Number Publication Date
JP2012203613A true JP2012203613A (ja) 2012-10-22

Family

ID=45936779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011067138A Withdrawn JP2012203613A (ja) 2011-03-25 2011-03-25 画像処理装置および方法、記録媒体並びにプログラム

Country Status (4)

Country Link
US (1) US8774458B2 (ja)
EP (1) EP2503511A1 (ja)
JP (1) JP2012203613A (ja)
CN (1) CN102693544A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112021007302T5 (de) 2021-03-12 2024-01-25 Omron Corporation Bildverarbeitungsvorrichtung und bildverarbeitungsverfahren

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5825851B2 (ja) * 2011-05-27 2015-12-02 キヤノン株式会社 撮像装置及びその制御方法
US9852511B2 (en) 2013-01-22 2017-12-26 Qualcomm Incoporated Systems and methods for tracking and detecting a target object
CN104219488B (zh) * 2013-05-31 2019-01-11 索尼公司 目标图像的生成方法和装置、以及视频监控系统
US9904990B2 (en) 2015-12-18 2018-02-27 Ricoh Co., Ltd. Single image rectification
US9875548B2 (en) 2015-12-18 2018-01-23 Ricoh Co., Ltd. Candidate list generation
US9984451B2 (en) 2015-12-18 2018-05-29 Michael Gormish Linear grouping of recognized items in an image
US9805289B2 (en) 2015-12-18 2017-10-31 Ricoh Co., Ltd. Color-based post-processing of images
US10514825B2 (en) 2015-12-18 2019-12-24 Ricoh Co., Ltd. Image recognition result visualization over time
US9754237B2 (en) 2015-12-18 2017-09-05 Ricoh Co., Ltd. Index image quality metric
US10339690B2 (en) 2015-12-18 2019-07-02 Ricoh Co., Ltd. Image recognition scoring visualization
US9911213B2 (en) 2015-12-18 2018-03-06 Ricoh Co., Ltd. Panoramic image stitching using objects
WO2018011870A1 (ja) * 2016-07-11 2018-01-18 三菱電機株式会社 動画像処理装置、動画像処理方法及び動画像処理プログラム
CN108932273B (zh) * 2017-05-27 2022-03-04 腾讯科技(深圳)有限公司 图片筛选方法及装置
CN108563692B (zh) * 2018-03-16 2021-08-06 新智认知数据服务有限公司 一种目标查重方法及装置
CN110233962B (zh) * 2019-04-26 2021-04-16 努比亚技术有限公司 一种置信度的优化方法、装置及计算机可读存储介质
CN112710227B (zh) * 2019-10-24 2023-04-25 浙江舜宇智能光学技术有限公司 箱体体积测量方法及其系统
CN113014955B (zh) * 2019-12-19 2022-11-15 北京百度网讯科技有限公司 视频帧处理方法、装置、电子设备和计算机可读存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5528698A (en) * 1995-03-27 1996-06-18 Rockwell International Corporation Automotive occupant sensing device
US7340079B2 (en) * 2002-09-13 2008-03-04 Sony Corporation Image recognition apparatus, image recognition processing method, and image recognition program
CN101051385B (zh) * 2006-04-07 2011-11-23 欧姆龙株式会社 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置
CN1932846A (zh) * 2006-10-12 2007-03-21 上海交通大学 基于外表模型的视频人脸跟踪识别方法
JP4434236B2 (ja) 2007-06-11 2010-03-17 ソニー株式会社 画像処理装置、画像表示装置、撮像装置、これらの処理方法およびプログラム
CN101325691B (zh) * 2007-06-14 2010-08-18 清华大学 融合不同生存期的多个观测模型的跟踪方法和跟踪装置
JP4479756B2 (ja) 2007-07-05 2010-06-09 ソニー株式会社 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
JP4853425B2 (ja) 2007-08-14 2012-01-11 ソニー株式会社 撮像装置、撮像方法およびプログラム
JP5109564B2 (ja) 2007-10-02 2012-12-26 ソニー株式会社 画像処理装置、撮像装置、これらにおける処理方法およびプログラム
US8320613B2 (en) * 2008-06-04 2012-11-27 Lockheed Martin Corporation Detecting and tracking targets in images based on estimated target geometry
JP5544528B2 (ja) 2009-09-25 2014-07-09 三和システムエンジニアリング株式会社 繊維体の自動成形挿入方法および装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112021007302T5 (de) 2021-03-12 2024-01-25 Omron Corporation Bildverarbeitungsvorrichtung und bildverarbeitungsverfahren

Also Published As

Publication number Publication date
US8774458B2 (en) 2014-07-08
CN102693544A (zh) 2012-09-26
EP2503511A1 (en) 2012-09-26
US20120243737A1 (en) 2012-09-27

Similar Documents

Publication Publication Date Title
JP2012203613A (ja) 画像処理装置および方法、記録媒体並びにプログラム
US11809998B2 (en) Maintaining fixed sizes for target objects in frames
US11835702B2 (en) Medical image processing apparatus, medical image processing method, and medical observation system
JP6043856B2 (ja) Rgbdカメラを用いた頭部ポーズ推定
US10506172B2 (en) Camera setting adjustment based on predicted environmental factors and tracking systems employing the same
US8494256B2 (en) Image processing apparatus and method, learning apparatus and method, and program
CN109565551B (zh) 对齐于参考帧合成图像
US9648229B2 (en) Image processing device and associated methodology for determining a main subject in an image
JP4699040B2 (ja) 自動追尾制御装置及び自動追尾制御方法、並びにプログラム、自動追尾システム
CN111935393A (zh) 拍摄方法、装置、电子设备和存储介质
CN103688292A (zh) 图像显示装置和图像显示方法
CN105744138B (zh) 快速对焦方法和电子设备
EP3115935B1 (en) A method, apparatus, computer program and system for image analysis
KR20120005040A (ko) 카메라에 대한 최적의 시야각 위치를 선택하는 방법
KR101664733B1 (ko) 전 방향 고해상도 추적 녹화 장치 및 방법
US11394873B2 (en) Control apparatus, control method, and recording medium
US10198617B2 (en) Image-acquisition apparatus
TW201222422A (en) Method and arrangement for identifying virtual visual information in images
JP6921606B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2021024860A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2016119572A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
TW202019150A (zh) 資訊顯示系統及資訊顯示方法
JP7203305B2 (ja) 撮影システム、撮影方法、及びプログラム
Kooi et al. Colour descriptors for tracking in spatial augmented reality
US11617024B2 (en) Dual camera regions of interest display

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603