JP5090474B2 - 電子カメラおよび画像処理方法 - Google Patents

電子カメラおよび画像処理方法 Download PDF

Info

Publication number
JP5090474B2
JP5090474B2 JP2009552414A JP2009552414A JP5090474B2 JP 5090474 B2 JP5090474 B2 JP 5090474B2 JP 2009552414 A JP2009552414 A JP 2009552414A JP 2009552414 A JP2009552414 A JP 2009552414A JP 5090474 B2 JP5090474 B2 JP 5090474B2
Authority
JP
Japan
Prior art keywords
update
feature
tracking
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009552414A
Other languages
English (en)
Other versions
JPWO2009098894A1 (ja
Inventor
育規 石井
祐亮 物部
康伸 小倉
和幸 今川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2009552414A priority Critical patent/JP5090474B2/ja
Publication of JPWO2009098894A1 publication Critical patent/JPWO2009098894A1/ja
Application granted granted Critical
Publication of JP5090474B2 publication Critical patent/JP5090474B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/365Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals by analysis of the spatial frequency components of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Description

本発明は、画像中の物体を追跡し、追跡結果をディスプレイ上に提示する電子カメラおよびその方法に関するものである。
近年、AF(オートフォーカス;Auto-Focus)・AE(自動露出;Auto Exposure)・逆光補正機能の位置合わせ手段として、電子カメラに顔検出機能が搭載されている。顔検出機能を用いることにより、被写体に自動的に焦点を合わせることができるため、ユーザの撮影補助として有効な手段になっている。
顔を検出する画像処理装置および方法としては、顔と顔以外(以下、非顔)のパターンを学習し、その学習したパラメータを入力した識別器を用いて、顔と非顔を識別する方法が提案されている(例えば、特許文献1参照)。
図1は、特許文献1の画像処理装置を示すものである。図2は、部分画像の切り出しの一例を示す図である。部分画像切り出し部900は、入力された画像1001から、部分画像1000を切り出す。部分画像1000は、複数サイズのウィンドウを画像の左上を起点として、順次画像の右下まで、適当な画素(例えば1画素)分を右側または下側にずらしながら走査することによって、切り出される(図2)。なお、「切り出し」とは、該当する部分の画像データだけを読み出すことをいう。
特徴量評価部1(901)は複数の識別器の組み合わせによって構成される。識別器は、ブースティング手法を用いて学習したパラメータを用いて指定する位置において、後述するレクタンギュラーフィーチャー(以下、隣接差分フィルタと呼ぶ)に基づき特徴量を算出する。そして、特徴量評価部1(901)は、前記識別器の出力値の重みつき線形和が学習に基づいて算出した閾値より低ければ非顔に識別し、前記部分画像の識別処理を終了する。一方、閾値以上であれば顔に識別し、次の特徴量評価部2(902)に処理が移る。特徴量評価部2(902)は、特徴量評価部1(901)に使用した学習パラメータとは異なるパラメータを用いて評価を行う。このように、複数の特徴量評価部を用いて、評価値を算出し、算出した評価値の値に基づいて、顔と非顔とを弁別している。
図3(a)、(b)、(c)、(d)は、隣接差分フィルタを図示したものであり、図3(e)は、隣接差分フィルタ(b)を画像に適用したときの例である。隣接差分フィルタは、隣接した白色矩形と黒色矩形で示され、白色矩形内の画素平均値と黒色矩形内の画素平均値の差を出力する。
隣接差分フィルタから出力される画素平均値の差が大きいことによって特定されるのが顔の部品の特徴であり、これは、目および口のように隣接間の領域の画素値の差が大きい領域において高い特徴量を出力することを意味する。例えば、図3(e)は、額の位置にある黒色矩形の画素の総和と眉の位置にある白色矩形の画素の総和との差に基づき特徴量を算出する。この特徴量は、隣接した領域間の差であるため、画像内の局所的な特徴(例えば線成分)に強く反応し、目、眉、口等の顔部品において特徴的な値を出力する。なお、隣接差分フィルタは、一般にはハーライクフィーチャー(Haar−like feature)と呼ぶ。
しかし、顔検出だけでは、顔(目、鼻、口)が見えている範囲でなければ検出できないし、ペットなどの顔以外の物体を追跡できない。そのため、あらかじめユーザが物体の情報をオンラインによって登録し、その物体を追跡することによって顔以外の物体でも、自動的に焦点を合わせる方法がある。
従来から用いられる物体追跡手法として、顔検出結果位置の近傍領域のみを再度顔検出することによる顔追跡方法、相関演算に基づく前フレーム近傍探索を用いたテンプレートマッチング、高速化を目指したアクティブ探索に基づく方法、確率分布による統計的情報を用いて動き予測を入れて探索を行うパーティクルフィルタやコンデンセーションに基づく方法などがある。
これらは、あらかじめ、なんらかの方法を用いて追跡を行いたい物体の、初期特徴量(色あるいは輝度の色ヒストグラムあるいはテンプレート画像そのもの、形状・輪郭情報など)を登録する。その登録特徴量を用いて、画像中において登録特徴量に類似する箇所を探索することによって、物体追跡が行われる。これらの手法では、初期特徴量をあらかじめ作成しておき、この特徴量と画像の各位置に基づいて抽出した特徴量とのマッチングをとる。
しかし、一般的なムービーを用いて撮影する対象は、顔などが長時間見えていることは少なく、画像上における見え方が大きく変化することが多い。従来の手法では、画像上において見え方が大きく変化するような対象に対しては、目標をすぐに見失ってしまうという問題がある。
この問題を解決するために、例えば特許文献2では、テンプレートを逐次更新する方法を用いている。この方法によると、追跡対象の見え方が変化する場合でも、この変化に応じてテンプレートが更新される。このため、見え方が変化する物体を追跡することが可能になる。
米国特許出願公開第2002/0102024号公報 特開2002−157599号公報
しかしながら、特許文献2の方法では、フレーム毎にテンプレートを更新するが、常に対象物体のみを含む領域を用いてテンプレートを更新できるというわけではない。更新する領域に非追跡対象領域が混入することにより、それ以降の追跡を失敗するという問題点がある。
図5を用いて、具体的に説明する。例えば、図5(a)の正解領域が200に定められているとする。このとき、次のフレームである図5(b)では、帽子の色の境界が類似するため、201の位置においてマッチングする。この位置では、201の左側に背景を含むため、次フレーム以降の追跡では、背景の特徴も加わり、頭部追跡に悪影響を及ぼす。しかし、202にマッチングできれば、頭部全体に基づいて特徴を得ることができ、次フレーム以降も安定して頭部を追跡することができる。
本発明は、上記従来の課題に鑑み、対象物の位置を安定に検出できる特徴を用いて更新領域を決定することによって対象物が存在する領域の追跡間違いをなくすものである。また、追跡の結果、正解位置からのずれが大きくなった場合には、正しい位置に補正することによって、安定した追跡処理を実現するものである。
上記課題を解決するために、本願発明の電子カメラは、連続して撮影する画像の各フレーム内において追尾の対象となる対象物が写っている対象領域を特定して表示する機能を持つ電子カメラであって、前記対象物の特徴を定量的に示すあらかじめ登録された第一の特徴量を用いて、フレーム内のあらかじめ定められた範囲内を探索し、前記探索結果として得られた領域内の画像に対して前記対象物の画像との一致度を示す第一の評価値を算出し、算出した前記第一の評価値に基づいて、前記対象物の画像が存在すると推定されるターゲット領域を特定する追跡処理部と、前記第一の特徴量とは異なる特徴量であり、かつ、前記対象物の特徴を定量的に示す第二の特徴量を用いて、前記フレーム内のあらかじめ定められた範囲内を探索し、前記探索結果として得られた領域内の画像に対して前記対象物の画像との一致度を示す第二の評価値を算出し、算出した前記第二の評価値に基づいて、前記第一の特徴量を更新するための更新領域を前記フレーム内において特定する更新領域算出部と、前記追跡処理部において算出された前記第一の評価値と、前記更新領域算出部において算出された前記第二の評価値とのうち少なくとも一つが、あらかじめ定められた条件を満足するか否かを調べることにより、前記第一の特徴量を更新するか否かを判定する更新判定部と、前記更新判定部によって前記第一の特徴量を更新すると判定された場合、前記更新領域内において抽出された新たな第一の特徴量により、前記第一の特徴量を更新する登録特徴量更新部と、前記更新判定部によって前記第一の特徴量を更新しないと判定された場合、前記追跡処理部において特定された前記ターゲット領域を前記対象領域と特定して前記ターゲット領域に関する情報を描画し、前記更新判定部によって前記第一の特徴量を更新すると判定された場合、前記更新領域算出部において特定された前記更新領域を前記対象領域と特定して前記更新領域に関する情報を描画する追跡結果描画部とを備え、前記追跡処理部は、あらかじめ登録された前記第一の特徴量が更新された場合、更新後の第一の特徴量を用いて、新たなフレーム内の新たなターゲット領域を特定する。
これにより、電子カメラにおいて、物体を追尾する際に、物体を追跡する特徴と別の特徴、もしくは、物体を追跡する特徴とは別の特徴である形状を利用して物体の位置決めをすることが可能になる。そして、更新を常に行うか、それとも、一定の条件下で行うかなどといった判定を行うことが可能になり、誤った場所を用いた更新を軽減させる効果がある。
また、前記追跡処理部は、前記第一の特徴量として、対象物の色情報を用いて、前記対象物の画像が存在すると推定されるターゲット領域を特定し、前記更新領域算出部は、前記第二の特徴量として、対象物の形状情報を用いて前記更新領域を特定するとしてもよい。
これにより、対象物体の見え方の変化が生じるような場合でも安定した追尾が可能になる。
さらに、前記更新判定部は、前記更新領域算出部において算出された前記第二の評価値が、前記追跡処理部において算出された前記第一の評価値よりも大きいとき、または、前記更新領域算出部において算出された前記第二の評価値があらかじめ定められた第一の閾値より大きいときに前記第一の特徴量を更新すると判定するとしてもよい。
これにより、更新領域検知結果の評価値が追跡結果の評価値を上回るとき、または、更新領域検知結果が第一の閾値より大きい場合に第一の特徴量を更新するため、毎回更新する必要がなく、処理量が削減できる。
また、前記更新判定部は、前記対象物の画像の画素ごとの平均彩度が高いほど前記第一の閾値に大きな値を設定し、前記対象の平均彩度が低いほど前記第一の閾値に小さな値を設定する前記更新判定部は、前記更新領域算出部において算出された前記第二の評価値が、前記追跡処理部において算出された前記第一の評価値よりも大きいとき、または、前記更新領域算出部において算出された前記第二の評価値があらかじめ定められた第一の閾値より大きいときに前記第一の特徴量を更新すると判定する前記追跡処理部は、前記第一の特徴量として、対象物の色情報を用いて、前記対象物の画像が存在すると推定されるターゲット領域を特定し、前記更新領域算出部は、前記第二の特徴量として、対象物の形状情報を用いて前記更新領域を特定するとしてもよい。
これにより、追跡対象物の彩度値により追跡のしやすさが変わる。すなわち、彩度が高いということは、色がはっきりしているということであり、第一の特徴量による追跡がより正確に行われることを示している。このため、彩度が高いときには第一の閾値を大きくし、彩度が低いときには第一の閾値を小さく設定することによって、第一の特徴量を頻繁に更新すべきか、そうでないかを決めることができる。従って、対象物によって閾値を柔軟に設定することが可能となり、追跡精度を向上させることができる。
また、前記更新判定部は、さらに、前記追跡処理部において特定された前記ターゲット領域と前記更新領域算出部において特定された前記更新領域との距離があらかじめ定められた第二の閾値以上になったときに更新すると判定するとしてもよい。
これにより、追跡処理部による追跡処理結果と、更新領域算出部による更新領域検知結果の位置が大きくずれた場合に第一の特徴量を更新することができるため、追跡が失敗した場合にも、更新された第一の特徴量を用いて追跡処理の復帰が可能となり、追跡性能が安定化する。
また、前記電子カメラは、さらに、前記対象物の追跡が継続不可能か否かを判定する終了判定部を備え、前記終了判定部は、前記第一の評価値と前記第二の評価値との両方が、あらかじめ定められた第三の閾値より小さいときに前記対象の追跡が継続不可能と判定するとしてもよい。
これにより、対象物の追跡が継続不能となった場合には自動的に追跡処理を終了することができるため、ユーザの手間をかけることなく処理を終えることができる。
また、前記追跡結果描画部は、前記対象の追跡が継続不可能と判定されたときに、ターゲット領域および更新領域の描画を終了するとしてもよい。
これにより、余計な追尾処理結果を表示しないため、ユーザに違和感を与えない。
さらに、前記追跡結果描画部は、前記対象の追跡が継続不可能と判定されたときに、追跡不能となったことをユーザに提示する画像を描画するとしてもよい。
これにより、ユーザに追尾が終了したことを知らせることができるため、ユーザが再度追尾を行うかといった行動に移ることができる。
また、前記追跡結果描画部は、前記対象の追跡が継続不可能と判定されたときに、ユーザに対して再度初期位置設定を促す画像を描画するとしてもよい。
これにより、ユーザに初期設定を行うことを促すことができるため、不慣れな使用者であっても、再度設定すべきことが容易に理解できる。
さらに、前記追跡結果描画部は、前記対象の追跡が継続不可能と判定されたときに、新たな顔検出により初期位置設定を行うとしてもよい。
これにより、人物を対象とする場合には、顔の部分に自動的に初期位置を再設定できる。
また、前記電子カメラは、さらに、各フレーム内の画像内において顔を検出する顔検出回路と、前記顔検出回路によって検出された顔の向きを認識する顔向き認識回路とを備え、前記更新領域算出部は、前記顔向き認識回路によって前記対象物である顔が横を向いていると認識されたとき、真横を向いている顔の領域である更新基準領域を前記更新領域算出部において算出した後、顔部分と髪の毛部分とのあらかじめ指定された位置関係に基づき、前記更新基準領域内における前記更新領域を算出するとしてもよい。
これにより、あらかじめ、更新領域検知結果に応じて更新すべき場所が変わったり、例えば、顔検出した結果の顔向きに応じて、更新すべき場所が変わったり、顔検出のサイズに応じて、より大きいサイズを用いて更新を行ったり、服を含むような形による更新を行うなど、様々な位置関係における更新が可能となり、追跡精度が向上する。
これにより、顔を追尾することが可能になるため、顔認証などとの結合が可能になる。
また、これにより、例えば、円形状のように回転しても見た目が変わらない場合に、追尾物体を安定に追尾できる。
また、前記電子カメラは、さらに、前記追跡処理部において特定されたターゲット領域、および、前記更新領域算出部において特定された前記更新領域のいずれかに基づいて、前記電子カメラの動作を調整するためのカメラパラメータを変更するカメラ制御部を有するとしてもよい。
これにより、カメラパラメータを制御することが可能になるため、対象に応じたカメラパラメータ設定を行うことができる。
前記カメラ制御部は、前記カメラパラメータに基づいて、前記電子カメラの筐体および雲台の少なくとも一方の動作を制御し、特定された前記対象物の全体、または一部をフレーム内の所定の位置、およびサイズに合わせるように制御を行うとしてもよい。
これにより、カメラを制御することにより、対象物の適した位置にカメラ制御することが可能になる。
前記電子カメラは、さらに、前記ターゲット領域の初期位置を、ユーザからの入力に基づいて、または、あらかじめ定められた方法を用いて決定するターゲット領域初期設定部を有するとしてもよい。
これにより、ターゲット領域の初期位置を設定することが可能になり、追尾の初期位置を決めることができる。
前記ターゲット領域初期設定部は、人物、もしくは、顔のいずれか一方の検出位置を初期位置と決定するとしてもよい。
これにより、人物、もしくは顔位置を初期位置とすることができ、人物追尾の初期設定を自動的に行うことができる。
前記ターゲット領域初期設定部は、AF(オートフォーカス)機能により焦点を合わせた場所を初期位置と決定するとしてもよい。
これにより、AF機能により焦点を合わせた領域を初期設定として追尾を行うことが可能となり、AF機能との連携が容易になる。
なお、本発明は、装置として実現できるだけでなく、その装置を構成する処理手段をステップとする方法として実現したり、それらステップをコンピュータに実行させるプログラムとして実現したり、そのプログラムを記録したコンピュータ読み取り可能なCD−ROMなどの記録媒体として実現したり、そのプログラムを示す情報、データまたは信号として実現したりすることもできる。そして、それらプログラム、情報、データおよび信号は、インターネット等の通信ネットワークを介して配信してもよい。
本発明によれば、対象物体の見え方が変化した場合でも対象追跡を行うことが可能になるため、物体が後ろを向くような場合でも追跡し、枠を表示し続け、AE、AF、カメラ制御によるフレーミング機能、自動撮影を行うことができる。
図1は、従来の顔検出処理のフローチャートである。 図2は、従来の画像からの顔検出処理の説明図である。 図3(a)〜(e)は、従来の隣接差分フィルタの説明図である。 図4は、本発明の実施の形態1、2における画像処理装置のブロック図である。 図5(a)(b)は、従来手法における追尾を失敗する例の説明図である。 図6(a)(b)は、色ヒストグラム探索の説明図である。 図7(a)(b)は、色ヒストグラムの類似度算出の説明図である。 図8(a)(b)は、横顔のリファレンス画像領域の説明図である。 図9は、実施の形態1のフローチャートである。 図10(a)〜(c)は、追尾特徴量と更新領域検知結果の関係図である。 図11は、実施の形態2のフローチャートである。
(実施の形態1)
本実施の形態1では、顔検出と色情報を利用した追跡を併用することによって、顔検出だけでは不可能な、後ろを向いた頭部の追跡も可能とする画像処理装置について述べる。すなわち、実施の形態1の画像処理装置(電子カメラ)は、従来の顔検出および顔向き認識を用いて、追尾撮影の対象となる対象物が存在するであろうターゲット領域を特定する。そして、毎フレーム、ターゲット領域が特定される都度、対象物の色の特徴量を抽出して更新する。顔検出ができなくなった場合には、更新された対象物の色特徴を用いてターゲット領域を特定し、色の登録特徴量を更新する。
図4は、本発明の実施の形態1の電子カメラの構成を示す図である。図4において、100は、電子カメラである。101はレンズ、102は絞り機能を備えるシャッター、103は光学像を電気信号に変換する撮像素子、104は撮像素子103のアナログ信号出力をディジタル信号に変換するAD変換器(Analog Digital Converter)である。
タイミング発生回路105は撮像素子103、AD変換器104、DA変換器(Digital Analog Converter)106にクロック信号および制御信号を供給する。タイミング発生回路105は、メモリ制御回路107およびシステム制御回路108により制御される。
画像処理回路109は、AD変換器104からのデータあるいはメモリ制御回路107からのデータに対して所定の画像補間処理や色変換処理を行う。
また、画像処理回路109においては、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御回路108が露光制御部149、測距制御部114に対して制御を行う。
メモリ制御回路107は、AD変換器104、タイミング発生回路105、画像処理回路109、画像表示メモリ110、DA変換器106、メモリ111、およびリサイズ回路112を制御する。
AD変換器104のデータが画像処理回路109、メモリ制御回路107を介して、あるいはAD変換器104のデータが直接メモリ制御回路107を介して、画像表示メモリ110あるいは、メモリ111に書き込まれる。
110は画像表示メモリ、106はDA変換器、148はTFT(Thin Film Transistor)-LCD(Liquid Crystal Display)等からなる画像表示部であり、画像表示メモリ110に書き込まれた表示用の画像データは、DA変換器106を介して画像表示部148により表示される。
リサイズ回路112は、撮影した動画像のフレーム画像に基づいて低解像度画像であるリサイズ画像を生成する。リサイズ回路112は、撮像素子103の画素数と異なる画素数(サイズ)を用いて記録媒体に画像データを記録したい場合に利用される。
また、画像表示部148は、撮像素子103よりも画素数はかなり小さいので、画像表示部148に表示を行う場合の表示用画像を生成するためにも用いられる。リサイズ画像の解像度は用途に基づき所定の複数の解像度から選択されるように構成される。リサイズ回路112は、メモリ111に格納された画像を読み込んでリサイズ処理を行い、処理を終えたデータをメモリ111に書き込む。
露光制御部149は絞り機能を備えるシャッター102を制御し、フラッシュ113と連携することによりフラッシュ調光機能も有するものである。
測距制御部114はレンズ101のフォーカシングを制御する。ズーム制御部115はレンズ101のズーミングを制御する。バリア制御部116はバリアである保護部117の動作を制御する。
フラッシュ113は、AF補助光の投光機能、フラッシュ調光機能も有する。
システム制御回路108は画像処理装置(電子カメラ)100全体を制御し、メモリ118はシステム制御回路108の動作用の定数、変数、プログラム等を記録する。
表示部119は、システム制御回路108でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態あるいはメッセージ等を表示する液晶表示装置、スピーカー等の表示部などである。表示部119は、画像処理装置100の操作部近辺の視認しやすい装置に単数あるいは複数箇所設置され、例えばLCDあるいはLED(Light Emitting Diode)、発音素子等の組み合わせにより構成されている。
不揮発性メモリ120は、電気的に証拠・記録可能なメモリであり、例えばEEPROM等が用いられる。
モードダイアル121は、自動撮影モード、撮影モード、パノラマ撮影モード、再生モード等の各機能モードを切り替え設定することができる。
シャッタースイッチ123はシャッタースイッチSW1で、不図示のシャッターボタンの操作途中でONとなりAF処理、AE処理、AWB(Auto White Balance)処理等の動作開始を指示する。
シャッタースイッチ123はシャッタースイッチSW2で、不図示のシャッターボタンの操作完了でONとなり、撮像素子103から読み出した信号をAD変換器104、メモリ制御回路107を介してメモリ111に画像データを書き込む露光処理、画像処理回路109やメモリ制御回路107での演算を用いた現像処理、メモリ111から画像データを読み出し、記録部124に画像データを書き込む記録処理という一連の処理の動作開始を指示する。
電源制御部125は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されており、電池の装着の有無、電池の種類、電池残量の検出を行い、検出結果およびシステム制御回路108の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体を含む各部へ供給する。
電源126は、コネクタ127、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池で実現される電源部128、およびACアダプター等からなる。
インタフェース129および130は、メモリカードやハードディスク等の記録媒体とのインタフェースであり、コネクタ131および132はメモリカードやハードディスク等の記録媒体と本体との接続を行う。保護部117は、画像処理装置(電子カメラ)100のレンズ101を含む撮像部を覆うことにより、撮像部の汚れや破損を防止するバリアである。
光学ファインダ133は、画像表示部148による電子ファインダ機能を使用することなしに、光学ファインダのみを用いて撮影を行うことが可能である。
通信部134は、RS232CやUSB(Universal Serial Bus)、IEEE1394、モデム、LAN、および無線通信等の各種通信機能を有する。
アンテナ135は、通信部134により画像処理装置(電子カメラ)100を他の機器と接続するコネクタあるいは無線通信の場合はアンテナである。
初期特徴量抽出部136は、メモリ111に格納された画像データから初期特徴量を抽出し、メモリ111に書き込む。初期特徴量を抽出する座標は、タッチパネルによるユーザ指定、あるいは、顔検出位置やシャッタースイッチSW1を押すことによって設定されるAF領域等による自動設定が可能である。
追跡処理部137は、メモリ111から登録特徴量を読み込み、追跡処理を行い、メモリ111に追跡結果(座標データ、評価値)を書き込む。なお、評価値は登録特徴量とターゲット領域の特徴量との類似度を示す値であり、以下では、評価値が大きいほど確からしい、すなわち、一致度が高い場合を例として説明する。
追跡先頭フレーム指定回路138は、画像データのうち、追跡で行う先頭フレームであるか否かを判定し、メモリ111に判定結果を書き込む。
更新領域検知回路139は、更新領域の検知を行い、メモリ111に更新領域検知結果(座標データ、評価値)を書き込む。なお、更新領域についても、評価値は登録特徴量と更新領域の特徴量との類似度を示す値であり、以下では、評価値が大きいほど確からしい、すなわち、一致度が高い場合を例として説明する。
更新判定回路140は、メモリ111に保存されている登録特徴量を更新するか否かを判定し、判定結果をメモリ111に書き込む。
終了判定回路141は、追跡を終了するか否かの判定結果をメモリ111に書き込む。
位置補正回路142は、メモリ111に格納されている追跡結果を、あらかじめメモリ111に保持されている更新領域検知結果と追跡結果との位置関係情報を含む位置関係情報DBに基づき、補正する。
登録特徴量更新回路143は、追跡結果と更新領域検知結果が後述する関係にあるとき、メモリ111に記録されている登録特徴量を、更新領域検知結果の位置の特徴を用いて更新する。
追跡結果描画回路144は、メモリ111に書き込まれた追跡結果をLCDに表示させるために、画像表示メモリ110に書き込まれた表示用の画像データに対し、追跡結果の位置に追跡されたことがわかる情報、例えば、追跡枠、モザイク化、文字、表示色の変更、ぼかすなどの処理を施す。
追跡結果描画回路144は、メモリ111に書き込まれた追跡結果をLCDに表示させるために、画像表示メモリ110に書き込まれた表示用の画像データに対し、追跡結果の位置、もしくは、更新領域検知結果の位置に追跡されたことがわかる情報、例えば、追跡枠、モザイク化、文字、表示色の変更、ぼかすなどの処理を施す。
カメラ制御回路145は、メモリ111に書き込まれた追跡結果の位置とサイズに基づき、対象物体が、画像の一定の位置・サイズ(例えば、顔が中央になる、あるいは、全身が表示されるようにズームするなど)になるようにカメラを制御する。
顔検出回路146は、画像から顔検出を行いメモリ111に顔検出結果(位置、サイズ、評価値)を書き込む。
顔向き認識回路147は、顔検出回路146によって検出された顔が、上下左右どちらの向きを向いているのかを認識し、認識結果をメモリ111に書き込む。
これら136、137、138、139、140、141、142、143、144のいずれかの回路を備えない場合は、システム制御回路108において、ソフトウェア処理によって後述するフローを用いて追跡および更新処理を行ってもよい。
以下、図6および図7を用いて、画像処理装置100の動作を説明する。
システム制御回路108が、撮像素子103、AD変換器104、画像処理回路109、メモリ制御回路107を介して、メモリ111に撮影した画像データを書き込む露光処理、および、メモリ制御回路107そして必要に応じて画像処理回路109を用いて、メモリ111に書き込まれた画像データを読み出して各種処理を行う現像処理からなる撮影処理を実行する。
撮影処理を終えたなら、システム制御回路108は、メモリ111に書き込まれた画像データに対し、リサイズ回路112を用いて撮影画像を画像表示部148に表示するための表示用画像を生成する。システム制御回路108は、同様に、リサイズ回路112にて顔検出回路に入力すべき画像サイズ(QVGA(Quarter Video Graphics Array)など)に画像をリサイズし、顔検出用画像をメモリ111に保存する。
システム制御回路108は、メモリ111に保存されている顔検出用画像データに対して、顔検出回路146によって従来技術を用いて顔検出処理を実行し、処理結果をメモリ111に保存する。
また、システム制御回路108は、顔向き認識回路147によって従来技術を用いて顔向き認識処理を実行し、処理結果をメモリ111に保存する。
顔検出回路146により、顔が検出された場合、初期特徴量抽出部136は、メモリ111に格納されている顔検出、顔向き認識処理結果を参照して、登録特徴量の抽出を行い、メモリ111に登録特徴量を書き込む。例えば、初期特徴量抽出部136は、メモリ111に格納されている顔検出結果および顔向き情報に基づいて、色の特徴量として顔の色ヒストグラムを抽出し、メモリ111に登録する。そして、初期特徴量抽出部136によってメモリ111に登録された特徴量を用いて、追跡処理部137は、追跡処理を行う。
ここでは、色ヒストグラムを用いた登録特徴量の抽出、および、追跡処理について図6を用いて説明する。
正面顔が図6(a)のように画像から検出されたと仮定する。このとき、この領域(リファレンス領域)の色ヒストグラムが作成される。具体的には、ヒストグラムの横軸には、リファレンス領域から得られる各画素のHSV(Hue Saturation Value)色空間のHの値(0〜360の実数)が、20個に区分される領域に割り当てられる。そして、それぞれの区分に割り当てられる個数が、度数となる。リファレンス領域内の各画素のHの値が、どの領域に入るかは、i番目の画素のHをHiとするとHi*19/360によって計算することができる。そして、度数の総和が1になるように、各区分の度数が、リファレンス領域の画素数で割られることによって正規化される。そして、図6(b)のように、検出領域より一定の範囲で広げた領域301が探索領域となり、追跡ウィンドウ302のサイズ・位置を変えながら探索が行なわれる。追跡処理部137は、探索しながら追跡ウィンドウ領域の色ヒストグラム303が作成される。
次に、リファレンス領域の色ヒストグラムと追跡ウィンドウ領域の色ヒストグラムに基づいて類似値が算出される。類似度の算出方法を図7を用いて説明する。図7(a)はリファレンス画像であり、ここから算出した色ヒストグラムが401である。また、図7(b)は、インプット画像であり、探索ウィンドウの色ヒストグラムを402に示す。このように、類似度、すなわち、評価値が、それぞれの色ヒストグラムの重なり度合いによって算出される。類似度算出は、(数1)によって行われる。
Figure 0005090474
ここでRiはリファレンス領域の色ヒストグラムにおけるi番目の区分の度数であり、ここでIiは追跡ウィンドウ領域の色ヒストグラムにおけるi番目の区分の度数である。
ここでは、iは0から19までの値をとる。本例では、20という値で区分けされたヒストグラムを用いて説明したが、1以上の値であればどのような値でも構わない。なお、この値は対象の複雑さによって変更する。複数色を含む場合はこの値を大きくし、細かい区分で違いをみることにより、精度を向上することができる。一方で、色数が少ない物体に対しては、この値を小さくして、大まかな区分で違いをみることによって、少ないメモリを用いて追跡を行うことができる。
なお、リファレンス領域の指定方法として、顔検出位置としたが、これは、ユーザがタッチパネルあるいはポインタ等を用いて指定してもよいし、音声情報などを用いて指定してもよい。また、色ヒストグラムによるマッチングについて説明したが、切り出した画像間のテンプレートの差異を求めてもよい。また、これらのテンプレートに前処理として色ヒストグラム補正を行うことによって、輝度の影響を受け難くすることができる。差異を求める方法としては、最小二乗距離を最小にする方法あるいは正規化相関による方法など、一般的に距離を求める方法であればどのような方法でも構わない。また、探索方法として、単純に領域を走査する方法について述べたが、パーティクルフィルタなど確率分布に基づいた探索方法でもよい。
次に、顔向きに応じた登録特徴量の抽出方法について説明する。正面顔の場合は、顔全体を登録することによって、安定した追跡が可能である。しかし、顔が正面から横を向いた場合においては、以降のフレームにおいて後ろを向く可能性があるため、特徴量の登録位置に工夫を施す。図8(a)に示すように、横顔の場合は、顔検出領域501内に、肌の色情報と、髪の色情報の両方を含む。ここで、図8(b)に示すように、顔検出処理により、顔検出領域内の後頭部領域20%程度をリファレンス領域502とすることによって、髪の色情報を取得すれば、対象が後ろを向いた場合でも髪の色情報により色を用いての追跡が可能になる。なお、正面を向きやすい場合や後ろを向きやすい場合などに応じて、この割合を変更することによって、追跡を安定することができる。
なお、本例では、髪の毛として説明したが、帽子や服など色変動の少ないものを被っている場合においても、本手法は有効に機能する。
また、顔が検出されており、追跡結果と一定の距離にある場合は、更新領域検知回路139が、更新するかしないかの判定結果を示すフラグを立て、メモリ111にフラグを書き込む。そして、位置補正回路142によって、顔検出位置が補正される。
この顔検出位置に基づいて登録特徴量が抽出され、登録特徴量更新回路143によって登録特徴量が更新され、メモリ111に書き込む。登録特徴量の抽出は、前述の方法と同様に行う。
このように、向きに応じて登録特徴量の抽出領域を変更することによって、横顔から後ろを向いた場合でも、髪の毛や帽子を用いることによって、向きの変化に応じて適切な色特徴を登録できるため、対象が後ろを向いた場合でも、安定な追跡が可能になる。また、追跡処理に失敗した場合でも顔検出結果に基づき、位置補正回路142において、位置を補正し、メモリ111の追跡結果を更新することによって、安定した顔の追跡が可能になる。
また、顔検出は顔内部のみを検出する場合がある。そこで、検出結果座標を、頭部を含むように定数倍することによって、安定した追跡が可能になる。
また、後ろを向いたという情報を保持しておき、後ろ向きから前向きに復帰する際は特徴量の抽出領域を変更することによって、より安定した追跡が可能になる。以下、具体的に説明する。後ろを向いたときに次に横を向いた場合は正面を向く可能性が高い。そこで、リファレンス領域502ではなく、顔検出領域501の顔側の領域を特徴量抽出領域とすることによって、次に顔が現れたときにでも対応できるようにする。これにより、後ろ向きから横、正面と遷移する際に、肌色情報を利用することができるため、後ろから正面への復帰が安定する。
後ろを向いた場合でも追跡できているので、後ろ向き状態の場合でも追跡結果描画回路にて、追跡枠の表示や追跡結果位置をぼかす等のUI(User Interface)制御はもちろんのこと、AE・AFなどの制御や、カメラ制御回路145でカメラの制御を行うことによって、自動フレーミング・自動撮影が可能になる。
以上の処理をプログラムにて実行した場合は、図9に示すステップになる。入力画像を撮影し、撮影された入力データ(S601)に対して、顔検出処理(S602)が行われる。なお、顔検出は、従来の方法を使用する。次いで、顔検出した結果に対して顔向き認識処理(S603)が行われる。この顔向き認識も、従来の方法を使用する。そして、顔検出位置から色の初期登録特徴が抽出される(S604)。さらに、次のフレームにおいて色特徴を用いてターゲット領域を特定する追跡処理(S605)が行われ、その後、顔検出処理(S606)が行われる。もし、顔検出ができれば(S607)、顔向き認識結果に基づいて、追跡結果であるターゲット領域が顔検出位置に置き換えられる。顔検出ができない場合は、色の特徴量を用いて追跡処理を行い、色の特徴量に関する追跡評価値が算出される。追跡結果の評価値も閾値以下であれば追跡処理が終了する(S611)。また、色特徴量による追跡結果の評価値が閾値より高ければ、ターゲット領域内の初期位置から色ヒストグラムを用いて表される色特徴が抽出され、初期登録特徴量を更新した後(S612)、追尾枠の表示、およびカメラ制御へと制御が移る(S609)。そして、顔検出ができた場合は、顔向き検出の結果に基づいて初期登録特徴量が更新される箇所を選択し、初期登録特徴量が更新される(S608)。そして、更新された追跡結果位置、すなわち、ターゲット領域のLCD表示、およびカメラ制御が行われる(S609)その後、追跡処理(S605)に戻り、処理が繰り返される。
(実施の形態2)
実施の形態2では、円形状情報のように回転に不変な情報と色情報とを利用した追跡、頭部(正面向きの顔だけでなく顔が見えない後ろ向きの場合も含む)の追跡も可能とする電子カメラについて述べる。すなわち、実施の形態2では、顔向き情報の代わりに円形状の情報を用いて、色特徴を更新するための更新領域の位置を決定する。
実施の形態2の構成は、図4の構成と同じであるので、動作が同一の構成要素に対しては説明を省略する。
実施の形態2でも追跡処理は、実施の形態1と同様に色ヒストグラムマッチングを用いて類似度、すなわち、評価値を算出し、追跡を行うものとして説明する。
実施の形態2でも実施の形態1と同様の方法を用いて、顔検出情報やユーザからの指示(タッチパネルやポインタなど)によって対象物の初期位置を決定し、初期特徴量を登録する。
頭部の見え方に対して変な情報の一つに、「頭部は円である」ということがある。そこで、本実施の形態2では、更新領域検知回路139によって、形状情報を利用して更新領域の検知を行う例を示す。これ以外にも、物体の見え方に対する不変な特徴であれば、どのようなものを用いても構わない。
頭部円形状の検出方法について述べる。メモリ111に格納されている追跡結果の近傍においてエッジ検出が行われる。エッジ検出はソーベルオペレータなどが用いられる。もしくは、フレーム間差分により、差分点を利用する方法がある。ここで得られる点群(特徴点群)に対して、ハフ変換を実施し、円の半径と中心が求められる。円の半径と中心の求め方は、例えば、文献「HeadFinder:フレーム間差分をベースにした人物追跡、馬場ら」(非特許文献:1)に記載されている手法によって求めることができる。上記文献で述べられている手法について簡単に説明する。
円は(数2)を用いて中心座標a、bおよび半径rの定数によって決定できる。
Figure 0005090474
これをハフ変換に当てはめると、求める未知数が3個となるので投票空間が3次元となる。この計算量は膨大となるため、実時間動作は難しい。そこで、サイズがある一定の半径rの範囲に限定される。その後、幅を持たせた複数の半径内に含まれる特徴点群を用いて投票を行うことによって半径パラメータa、bが求められる。これにより、頭部の円形状が推定される。このとき、円上に特徴点群が何個含まれるかが、円形状のフィッティング度合いを表す評価値となる。この円形状の位置、半径情報と評価値がメモリ111に書き込まれる。
ここでは、頭部は評価値が低いが向き変化に対して安定して検出でき、色情報は、向きが変わると評価値が下がるという点に着目する。見え方が変わることにより色情報にて評価値が下がる場合に、頭部円形状の検出位置にて位置補正を行い、登録特徴量を補正することによって、見え方の変化に対して安定した追跡を行う追跡方法について述べる。
更新判定回路140が、メモリ111から色による追跡結果の評価値と更新領域検知結果の評価値とを読み込み、追跡結果の評価値が、更新領域検知結果の評価値を下回ったときや、閾値th1を下回ったときに、更新の判定を行いメモリ111に判定結果を書き込む。このときの評価値と時間軸の関係を図10に示す。
図10(a)は、更新領域検知結果の評価値が追跡結果の評価値を上回ったときに更新を行う。図10(a)、(b)および(c)において、実線は、追跡結果の評価値を表し、点線は更新領域検知結果の評価値を表す。
Figure 0005090474
この場合は、対象物体の見え方が変化し、評価値が下がることによって生じる現象であり追跡の失敗が起こったときに、復帰できるように更新をすることができる。
図10(b)は、更新領域検知結果の評価値が閾値th1より大きくなった場合に、更新を行うものである。
Figure 0005090474
この場合は、更新領域検知結果での安定性が保証されるときである。この場合は、更新領域検知結果の位置に、追跡結果の位置を補正する。これにより、更新領域検知結果を用いて十分に追跡できる場合は図10(b)の方式を利用し、そうでない物体においてはどちらかをうまく選択できるため、安定したシステムの構築が可能になる。
さらに更新のタイミングについて説明する。色評価値の変化は、登録の色や対象物の色の複雑さによって異なる。例えば、平均彩度が高い場合には、色による追跡の評価値が高く、評価値が見え方の変化とともに、ゆっくりと下がる傾向にある。
このため、平均彩度が高い物体では、円検出の頻度を下げることが可能になり、全体的な処理量の削減につながる。また、平均彩度が低い場合には、色ヒストグラムによる追跡は難しく、急激に評価値が下がる傾向にある。このため、平均彩度が低い場合には、頻繁に円検出を行うことによって、安定した追跡が可能になる。なお、平均彩度が低い場合には、円検出により特定された更新領域を、ターゲット領域と定めてもよい。
また、上記では、評価値の関係により更新する方法について述べたが、色による追跡結果位置すなわち、ターゲット領域と、円検出の結果位置すなわち、更新領域との距離関係を用いて、更新を行う方法もある。例えば、検出した円半径の2倍の範囲内を許容範囲としたときに、これよりも色の追跡結果位置(追跡枠の重心)が離れている場合は、円検出の位置に更新を行うことによって、安定した追跡が可能になる。なお、円の倍数に限らず、ユークリッド距離などどのような距離を用いても構わない。この場合、色特徴による追跡の評価値も高く、円検出による評価値も高いとしても、色特徴による追跡が対象物でなく、誤追跡である可能性が高いからである。
位置補正回路142が、追跡結果のターゲット領域の座標とサイズとを、更新領域検知結果の座標とサイズとに置き換え、メモリ111に格納する。このとき、更新領域検知結果は円の中心と半径が格納されているので、矩形枠の左上座標、高さと幅が得られるように中心から半径を引いた値を左上座標とし、半径の2倍を矩形枠の高さと幅とする。
また、図10(c)に示すように、追跡終了判定回路141において、追跡結果の評価値と、更新領域検知結果の評価値が閾値th2を下回ったときに、追跡を終了する判定結果をメモリ111に格納する。
その後、顔検出を実施し初期特徴量抽出部136により自動復帰、または、ユーザに追跡処理が終了したことを通知し、再度、追跡物体位置を指定させるという方法をとることによって、再追跡が可能になる。
以上により、後ろを向いた場合でも追跡でき、このような状態でも追跡結果描画回路にて、追跡枠の表示や追跡結果位置をぼかす等のUI制御はもちろんのこと、AE・AFなどの制御や、カメラ制御回路145でカメラの制御を行うことで、自動フレーミング・自動撮影が可能になる。
以上の処理をプログラムにて実行した場合は、図11に示すようなステップになる。撮影された入力画像(S801)に対して、顔検出(S802)が行われる。顔検出した結果に対して初期登録特徴が抽出される(S803)。次のフレームにおいて、ステップS803で登録された色特徴を用いて追跡処理(S804)を行い、ターゲット領域が特定される。その後、形状特徴である円を用いて円検出が行われ、更新領域の特定を行う(S805)。
色特徴による追跡処理の評価値と、形状特徴である円を用いた円検出の評価値をもとに、追跡処理を終了するか否かが判定される(S806)。ステップ806では、色特徴量による追跡処理の評価値と円検出による評価値とが、ともに、閾値th2を下回ったときに、追跡を終了すると判定する。追跡処理を終了すると判定された場合は、追跡処理を終了し、追跡枠の表示が終了する、もしくは、アラーム等によってユーザに処理終了が提示される。その後、ユーザには、再度初期位置設定を行うように促す表示がディスプレイに記載されるか、顔検出により初期位置設定が行われ自動復帰するとしてもよい(S810)。終了しない場合は、図10(b)に示したように閾値th1が用いられるか、すなわち、色特徴による追跡処理の評価値にかかわらず、円検出による評価値が閾値th1を上回るときは色特徴を更新するとするか、または、図10(a)に示したように円検出による更新領域検知結果の評価値が色特徴を用いた追跡の評価値を上回ったとき、色特徴の特徴量の更新を行うと判定する(S807)。特徴量の更新を行うと判定された場合、更新領域検知結果の位置・特徴量を用いて追尾結果の位置・特徴量が更新される(S808)。そして、更新された追跡結果位置のLCD表示、およびカメラ制御が行われる(S809)。その後、ステップS804の追跡処理に戻り、ステップS804〜S810で繰り返し処理が行われる。
この追跡処理方法や類似度算出方法については、色ヒストグラムマッチング方法に限ったものではなく、最小二乗距離に基づく方法や正規化相関に基づく方法などでも構わない。また、探索方法として単純な走査でなくパーティクルフィルタに基づく方法などであったとしても構わない。
また、本実施の形態では、色特徴を追尾特徴とし、形状特徴を更新領域検知特徴としたが、非剛体であって色変化が少ない物体のように、色の変化に対して安定にとれ、形状が不安定な場合においては、色特徴を、更新領域検知結果特徴とし、形状特徴を追尾特徴としても構わない。なお、本実施の形態では、初期位置として顔検出位置を利用したが、AFの位置を初期位置として利用しても構わない。
なお、ブロック図(図4など)の各機能ブロックは典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。例えばメモリ以外の機能ブロックが1チップ化されていてもよい。
ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサを用いて実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
また、各機能ブロックのうち、符号化または復号化の対象となるデータを格納する手段だけ1チップ化せずに別構成としてもよい。
本発明にかかる電子カメラおよび画像処理方法は、物体の見え方が変化するような対象の追跡機能を有し、追跡機能によって実現されるベストショット撮影機能やAE・AFなどのカメラ制御、画像のフレーミングに有用である。また、人物などの対象物を追跡撮影する監視カメラに有用である。
100 画像処理装置(電子カメラ)
101 レンズ
102 シャッター
103 撮像素子
104 AD変換器
105 タイミング発生回路
106 DA変換器
107 メモリ制御回路
108 システム制御回路
109 画像処理回路
110 画像表示メモリ
111 メモリ
112 リサイズ回路
113 フラッシュ
114 測距制御部
115 ズーム制御部
116 バリア制御部
117 保護部
118 メモリ
119 表示部
120 不揮発性メモリ
121 モードダイアル
123 シャッタースイッチ
124 記録部
125 電源制御部
126 電源部
127 コネクタ
128 電源部
129 インタフェース
130 インタフェース
131 コネクタ
132 コネクタ
133 光学ファインダ
134 通信部
135 アンテナ
136 初期特徴量抽出部
137 追跡処理部
138 追跡先頭フレーム指定回路
139 更新領域検知回路
140 更新判定回路
141 終了判定回路
142 位置補正回路
143 登録特徴量更新回路
144 追跡結果描画回路
145 カメラ制御回路
146 顔検出回路
147 顔向き認識回路
148 画像表示部
149 露光制御部
200 フレーム(a)での追尾結果
201 フレーム(b)での追尾結果
202 フレーム(b)での正解位置
301 探索領域
302 追跡ウィンドウ
303 追跡ウィンドウ領域の色ヒストグラム
401 リファレンス画像の色ヒストグラム
402 入力画像の色ヒストグラム
501 顔検出領域
502 リファレンス領域
S601 入力画像ステップ
S602 顔検出ステップ
S603 顔向き認識ステップ
S604 初期登録特徴抽出ステップ
S605 追跡処理ステップ
S606 顔検出ステップ
S607 顔検出判定ステップ
S608 初期登録特徴更新ステップ
S609 追尾枠表示部・カメラ制御ステップ
S610 追跡評価値比較ステップ
S611 追跡終了ステップ
S612 初期登録特徴量更新ステップ
S801 入力画ステップ
S802 顔検出ステップ
S803 初期登録特徴抽出ステップ
S804 追跡処理ステップ
S805 円検出ステップ
S806 追跡終了判定ステップ
S807 特徴量更新判定ステップ
S808 特徴量更新ステップ
S809 追尾枠表示部・カメラ制御ステップ
S810 追跡終了ステップ
900 部分画像切り出し部
901 特徴量評価部1
902 特徴量評価部2
903 特徴量評価部3
1000 部分画像
1001 入力画像

Claims (19)

  1. 連続して撮影する画像の各フレーム内において追尾の対象となる対象物が写っている対象領域を特定して表示する機能を持つ電子カメラであって、
    前記対象物の特徴を定量的に示すあらかじめ登録された第一の特徴量を用いて、フレーム内のあらかじめ定められた範囲内を探索し、前記探索結果として得られた領域内の画像に対して前記対象物の画像との一致度を示す第一の評価値を算出し、算出した前記第一の評価値に基づいて、前記対象物の画像が存在すると推定されるターゲット領域を特定する追跡処理部と、
    前記第一の特徴量とは異なる特徴量であり、かつ、前記対象物の特徴を定量的に示す第二の特徴量を用いて、前記フレーム内のあらかじめ定められた範囲内を探索し、前記探索結果として得られた領域内の画像に対して前記対象物の画像との一致度を示す第二の評価値を算出し、算出した前記第二の評価値に基づいて、前記第一の特徴量を更新するための更新領域を前記フレーム内において特定する更新領域算出部と、
    前記追跡処理部において算出された前記第一の評価値と、前記更新領域算出部において算出された前記第二の評価値とのうち少なくとも一つが、あらかじめ定められた条件を満足するか否かを調べることにより、前記第一の特徴量を更新するか否かを判定する更新判定部と、
    前記更新判定部によって前記第一の特徴量を更新すると判定された場合、前記更新領域内において抽出された新たな第一の特徴量により、前記第一の特徴量を更新する登録特徴量更新部と、
    前記更新判定部によって前記第一の特徴量を更新しないと判定された場合、前記追跡処理部において特定された前記ターゲット領域を前記対象領域と特定して前記ターゲット領域に関する情報を描画し、前記更新判定部によって前記第一の特徴量を更新すると判定された場合、前記更新領域算出部において特定された前記更新領域を前記対象領域と特定して前記更新領域に関する情報を描画する追跡結果描画部とを備え、
    前記追跡処理部は、あらかじめ登録された前記第一の特徴量が更新された場合、更新後の第一の特徴量を用いて、新たなフレーム内の新たなターゲット領域を特定する
    電子カメラ。
  2. 前記追跡処理部は、前記第一の特徴量として、対象物の色情報を用いて、前記対象物の画像が存在すると推定されるターゲット領域を特定し、
    前記更新領域算出部は、前記第二の特徴量として、対象物の形状情報を用いて前記更新領域を特定する
    請求項1記載の電子カメラ。
  3. 前記更新判定部は、前記更新領域算出部において算出された前記第二の評価値が、前記追跡処理部において算出された前記第一の評価値よりも大きいとき、または、前記更新領域算出部において算出された前記第二の評価値があらかじめ定められた第一の閾値より大きいときに前記第一の特徴量を更新すると判定する
    請求項1記載の電子カメラ。
  4. 前記更新判定部は、前記対象物の画像の画素ごとの平均彩度が高いほど前記第一の閾値に大きな値を設定し、前記対象の平均彩度が低いほど前記第一の閾値に小さな値を設定する
    請求項3記載の電子カメラ。
  5. 前記更新判定部は、さらに、前記追跡処理部において特定された前記ターゲット領域と前記更新領域算出部において特定された前記更新領域との距離があらかじめ定められた第二の閾値以上になったときに更新すると判定する
    請求項1記載の電子カメラ。
  6. 前記電子カメラは、さらに、
    前記対象物の追跡が継続不可能か否かを判定する終了判定部を備え、
    前記終了判定部は、前記第一の評価値と前記第二の評価値との両方が、あらかじめ定められた第三の閾値より小さいときに前記対象の追跡が継続不可能と判定する
    請求項1記載の電子カメラ。
  7. 前記追跡結果描画部は、前記対象の追跡が継続不可能と判定されたときに、ターゲット領域および更新領域の描画を終了する
    請求項6記載の電子カメラ。
  8. 前記追跡結果描画部は、前記対象の追跡が継続不可能と判定されたときに、追跡不能となったことをユーザに提示する画像を描画する
    請求項6記載の電子カメラ。
  9. 前記追跡結果描画部は、前記対象の追跡が継続不可能と判定されたときに、ユーザに対して再度初期位置設定を促す画像を描画する
    請求項6記載の電子カメラ。
  10. 前記追跡結果描画部は、前記対象の追跡が継続不可能と判定されたときに、新たな顔検出により初期位置設定を行う
    請求項6記載の電子カメラ。
  11. 前記電子カメラは、さらに、
    各フレーム内の画像内において顔を検出する顔検出回路と、
    前記顔検出回路によって検出された顔の向きを認識する顔向き認識回路とを備え、
    前記更新領域算出部は、前記顔向き認識回路によって前記対象物である顔が横を向いていると認識されたとき、真横を向いている顔の領域である更新基準領域を前記更新領域算出部において算出した後、顔部分と髪の毛部分とのあらかじめ指定された位置関係に基づき、前記更新基準領域内における前記更新領域を算出する
    請求項1記載の電子カメラ。
  12. 前記電子カメラは、さらに、前記追跡処理部において特定されたターゲット領域、および、前記更新領域算出部において特定された前記更新領域のいずれかに基づいて、前記電子カメラの動作を調整するためのカメラパラメータを変更するカメラ制御部を有する
    請求項1記載の電子カメラ。
  13. 前記カメラ制御部は、前記カメラパラメータに基づいて、前記電子カメラの筐体および雲台の少なくとも一方の動作を制御し、特定された前記対象物の全体、または一部をフレーム内の所定の位置、およびサイズに合わせるように制御を行う
    請求項12記載の電子カメラ。
  14. 前記電子カメラは、さらに、前記ターゲット領域の初期位置を、ユーザからの入力に基づいて、または、あらかじめ定められた方法を用いて決定するターゲット領域初期設定部を有する
    請求項1記載の電子カメラ。
  15. 前記ターゲット領域初期設定部は、人物、もしくは、顔のいずれか一方の検出位置を初期位置と決定する
    請求項14記載の電子カメラ。
  16. 前記ターゲット領域初期設定部は、AF(オートフォーカス)機能により焦点を合わせた場所を初期位置と決定する
    請求項14記載の電子カメラ。
  17. 連続して撮影する画像の各フレーム内において追尾の対象となる対象物が写っている対象領域を特定して表示する機能を持つ電子カメラにおける画像処理方法であって、
    追跡処理部が、前記対象物の特徴を定量的に示すあらかじめ登録された第一の特徴量を用いて、フレーム内のあらかじめ定められた範囲内を探索し、前記探索結果として得られた領域内の画像に対して前記対象物の画像との一致度を示す第一の評価値を算出し、算出した前記第一の評価値に基づいて、前記対象物の画像が存在すると推定されるターゲット領域を特定し、
    更新領域算出部が、前記第一の特徴量とは異なる特徴量であり、かつ、前記対象物の特徴を定量的に示す第二の特徴量を用いて、前記フレーム内のあらかじめ定められた範囲内を探索し、前記探索結果として得られた領域内の画像に対して前記対象物の画像との一致度を示す第二の評価値を算出し、算出した前記第二の評価値に基づいて、前記第一の特徴量を更新するための更新領域を前記フレーム内において特定し、
    更新判定部が、前記追跡処理部において算出された前記第一の評価値と、前記更新領域算出部において算出された前記第二の評価値とのうち少なくとも一つが、あらかじめ定められた条件を満足するか否かを調べることにより、前記第一の特徴量を更新するか否かを判定し、
    登録特徴量更新部が、前記更新判定部によって前記第一の特徴量を更新すると判定された場合、前記更新領域内において抽出された新たな第一の特徴量により、前記第一の特徴量を更新し、
    追跡結果描画部が、前記更新判定部によって前記第一の特徴量を更新しないと判定された場合、前記追跡処理部において特定された前記ターゲット領域を前記対象領域と特定して前記ターゲット領域に関する情報を描画し、前記更新判定部によって前記第一の特徴量を更新すると判定された場合、前記更新領域算出部において特定された前記更新領域を前記対象領域と特定して前記更新領域に関する情報を描画し、
    前記追跡処理部は、あらかじめ登録された前記第一の特徴量が更新された場合、更新後の第一の特徴量を用いて、新たなフレーム内の新たなターゲット領域を特定する
    画像処理方法。
  18. 連続して撮影する画像の各フレーム内において追尾の対象となる対象物が写っている対象領域を特定して表示する機能を持つ集積回路であって、
    前記対象物の特徴を定量的に示すあらかじめ登録された第一の特徴量を用いて、フレーム内のあらかじめ定められた範囲内を探索し、前記探索結果として得られた領域内の画像に対して前記対象物の画像との一致度を示す第一の評価値を算出し、算出した前記第一の評価値に基づいて、前記対象物の画像が存在すると推定されるターゲット領域を特定する追跡処理部と、
    前記第一の特徴量とは異なる特徴量であり、かつ、前記対象物の特徴を定量的に示す第二の特徴量を用いて、前記フレーム内のあらかじめ定められた範囲内を探索し、前記探索結果として得られた領域内の画像に対して前記対象物の画像との一致度を示す第二の評価値を算出し、算出した前記第二の評価値に基づいて、前記第一の特徴量を更新するための更新領域を前記フレーム内において特定する更新領域算出部と、
    前記追跡処理部において算出された前記第一の評価値と、前記更新領域算出部において算出された前記第二の評価値とのうち少なくとも一つが、あらかじめ定められた条件を満足するか否かを調べることにより、前記第一の特徴量を更新するか否かを判定する更新判定部と、
    前記更新判定部によって前記第一の特徴量を更新すると判定された場合、前記更新領域内において抽出された新たな第一の特徴量により、前記第一の特徴量を更新する登録特徴量更新部と、
    前記更新判定部によって前記第一の特徴量を更新しないと判定された場合、前記追跡処理部において特定された前記ターゲット領域を前記対象領域と特定して前記ターゲット領域に関する情報を描画し、前記更新判定部によって前記第一の特徴量を更新すると判定された場合、前記更新領域算出部において特定された前記更新領域を前記対象領域と特定して前記更新領域に関する情報を描画する追跡結果描画部とを備え、
    前記追跡処理部は、あらかじめ登録された前記第一の特徴量が更新された場合、更新後の第一の特徴量を用いて、新たなフレーム内の新たなターゲット領域を特定する
    集積回路。
  19. 連続して撮影する画像の各フレーム内において追尾の対象となる対象物が写っている対象領域を特定して表示する機能を持つ画像処理プログラムが記録されたコンピュータ読み取り可能な記録媒体であって、
    追跡処理部が、前記対象物の特徴を定量的に示すあらかじめ登録された第一の特徴量を用いて、フレーム内のあらかじめ定められた範囲内を探索し、前記探索結果として得られた領域内の画像に対して前記対象物の画像との一致度を示す第一の評価値を算出し、算出した前記第一の評価値に基づいて、前記対象物の画像が存在すると推定されるターゲット領域を特定し、
    更新領域算出部が、前記第一の特徴量とは異なる特徴量であり、かつ、前記対象物の特徴を定量的に示す第二の特徴量を用いて、前記フレーム内のあらかじめ定められた範囲内を探索し、前記探索結果として得られた領域内の画像に対して前記対象物の画像との一致度を示す第二の評価値を算出し、算出した前記第二の評価値に基づいて、前記第一の特徴量を更新するための更新領域を前記フレーム内において特定し、
    更新判定部が、前記追跡処理部において算出された前記第一の評価値と、前記更新領域算出部において算出された前記第二の評価値とのうち少なくとも一つが、あらかじめ定められた条件を満足するか否かを調べることにより、前記第一の特徴量を更新するか否かを判定し、
    登録特徴量更新部が、前記更新判定部によって前記第一の特徴量を更新すると判定された場合、前記更新領域内において抽出された新たな第一の特徴量により、前記第一の特徴量を更新し、
    追跡結果描画部が、前記更新判定部によって前記第一の特徴量を更新しないと判定された場合、前記追跡処理部において特定された前記ターゲット領域を前記対象領域と特定して前記ターゲット領域に関する情報を描画し、前記更新判定部によって前記第一の特徴量を更新すると判定された場合、前記更新領域算出部において特定された前記更新領域を前記対象領域と特定して前記更新領域に関する情報を描画し、
    前記追跡処理部は、あらかじめ登録された前記第一の特徴量が更新された場合、更新後の第一の特徴量を用いて、新たなフレーム内の新たなターゲット領域を特定する
    プログラムを記録した記録媒体。
JP2009552414A 2008-02-06 2009-02-06 電子カメラおよび画像処理方法 Active JP5090474B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009552414A JP5090474B2 (ja) 2008-02-06 2009-02-06 電子カメラおよび画像処理方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008026160 2008-02-06
JP2008026160 2008-02-06
PCT/JP2009/000477 WO2009098894A1 (ja) 2008-02-06 2009-02-06 電子カメラおよび画像処理方法
JP2009552414A JP5090474B2 (ja) 2008-02-06 2009-02-06 電子カメラおよび画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2009098894A1 JPWO2009098894A1 (ja) 2011-05-26
JP5090474B2 true JP5090474B2 (ja) 2012-12-05

Family

ID=40951973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009552414A Active JP5090474B2 (ja) 2008-02-06 2009-02-06 電子カメラおよび画像処理方法

Country Status (5)

Country Link
US (1) US8253819B2 (ja)
EP (1) EP2242253B1 (ja)
JP (1) JP5090474B2 (ja)
CN (1) CN101939980B (ja)
WO (1) WO2009098894A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017512991A (ja) * 2014-11-12 2017-05-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 目標物体の検出方法、検出装置及びロボット
KR20210014774A (ko) * 2013-06-14 2021-02-09 퀄컴 인코포레이티드 트랙커 보조 이미지 캡쳐

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4869270B2 (ja) * 2008-03-10 2012-02-08 三洋電機株式会社 撮像装置及び画像再生装置
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
CN102150180A (zh) * 2008-10-14 2011-08-10 松下电器产业株式会社 人脸识别装置及人脸识别方法
KR101051365B1 (ko) * 2009-07-16 2011-07-22 주식회사 유니온커뮤니티 카메라를 구비한 출입관리장치 및 그 출입관리방법
JP5279654B2 (ja) * 2009-08-06 2013-09-04 キヤノン株式会社 画像追尾装置、画像追尾方法、及びコンピュータプログラム
JP5483961B2 (ja) * 2009-09-02 2014-05-07 キヤノン株式会社 画像処理装置、被写体判別方法、プログラム及び記憶媒体
GB2483168B (en) 2009-10-13 2013-06-12 Pointgrab Ltd Computer vision gesture based control of a device
JP5657235B2 (ja) * 2009-11-10 2015-01-21 オリンパスイメージング株式会社 画像撮像装置及び画像撮像方法
JP5427577B2 (ja) * 2009-12-04 2014-02-26 パナソニック株式会社 表示制御装置及び表示画像形成方法
KR101652261B1 (ko) * 2009-12-24 2016-08-30 삼성전자주식회사 카메라를 이용한 오브젝트 검출 방법
US8705813B2 (en) * 2010-06-21 2014-04-22 Canon Kabushiki Kaisha Identification device, identification method, and storage medium
JP5720275B2 (ja) * 2011-02-03 2015-05-20 株式会社リコー 撮像装置および撮像方法
CN102075686B (zh) * 2011-02-10 2013-10-30 北京航空航天大学 一种鲁棒的实时在线摄像机跟踪方法
US8766153B2 (en) * 2011-02-17 2014-07-01 Mitutoyo Corporation Vision measuring device and auto-focusing control method
KR20120118383A (ko) * 2011-04-18 2012-10-26 삼성전자주식회사 이미지 보정 장치 및 이를 이용하는 이미지 처리 장치와 그 방법들
WO2013001940A1 (ja) * 2011-06-29 2013-01-03 オリンパスイメージング株式会社 追尾装置及び追尾方法
JP5888890B2 (ja) * 2011-07-21 2016-03-22 オリンパス株式会社 フォーカス制御装置
JP6034197B2 (ja) * 2011-08-25 2016-11-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像処理装置、3次元撮像装置、画像処理方法、および画像処理プログラム
CN103299613B (zh) * 2011-11-17 2017-08-15 松下电器(美国)知识产权公司 图像处理装置、摄像装置及图像处理方法
CN102521580A (zh) * 2011-12-21 2012-06-27 华平信息技术(南昌)有限公司 实时目标匹配跟踪方法及系统
KR101989152B1 (ko) * 2012-02-10 2019-09-30 삼성전자주식회사 동영상 촬영 또는 재생 중, 정지 영상을 캡쳐하는 장치 및 방법
US9049364B2 (en) * 2012-02-13 2015-06-02 Htc Corporation Focus adjusting method and image capture device thereof
JP5888034B2 (ja) * 2012-03-16 2016-03-16 富士通株式会社 利用者検知装置、方法及びプログラム
US9256781B2 (en) * 2012-05-10 2016-02-09 Pointguard Ltd. System and method for computer vision based tracking of an object
US8938124B2 (en) * 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
US8441548B1 (en) * 2012-06-15 2013-05-14 Google Inc. Facial image quality assessment
CN103516972B (zh) * 2012-06-19 2017-03-29 联想(北京)有限公司 摄像头控制方法及电子设备
JP2014116716A (ja) * 2012-12-07 2014-06-26 Samsung Display Co Ltd 追尾装置
JP2014139734A (ja) * 2013-01-21 2014-07-31 Sony Corp 情報処理装置および方法、並びにプログラム
JP2014207659A (ja) * 2013-03-19 2014-10-30 パナソニック株式会社 画像処理装置及び画像処理方法及び撮像装置
KR101316805B1 (ko) 2013-05-22 2013-10-11 주식회사 파이브지티 자동 얼굴 위치 추적 및 얼굴 인식 방법 및 시스템
WO2014203026A1 (en) * 2013-06-17 2014-12-24 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi A method for object tracking
CN104424634B (zh) * 2013-08-23 2017-05-03 株式会社理光 对象跟踪方法和装置
JP6268960B2 (ja) * 2013-11-15 2018-01-31 オムロン株式会社 画像認識装置及び画像認識装置に対するデータ登録方法
US9437000B2 (en) * 2014-02-20 2016-09-06 Google Inc. Odometry feature matching
JP6415196B2 (ja) * 2014-09-08 2018-10-31 キヤノン株式会社 撮像装置および撮像装置の制御方法
JP6521626B2 (ja) 2014-12-25 2019-05-29 キヤノン株式会社 被写体追跡装置、方法およびプログラム
US9934443B2 (en) * 2015-03-31 2018-04-03 Daon Holdings Limited Methods and systems for detecting head motion during an authentication transaction
JP6924932B2 (ja) * 2015-11-13 2021-08-25 パナソニックIpマネジメント株式会社 移動体追跡方法、移動体追跡装置、およびプログラム
TWI585394B (zh) * 2015-12-09 2017-06-01 由田新技股份有限公司 動態式自動追焦系統
JP6656987B2 (ja) * 2016-03-30 2020-03-04 株式会社エクォス・リサーチ 画像認識装置、移動体装置、及び画像認識プログラム
CN106934395B (zh) * 2017-02-15 2020-06-30 国家计算机网络与信息安全管理中心 一种采用surf特征和颜色特征相融合的刚体目标跟踪方法
CN107181976B (zh) * 2017-04-28 2021-01-29 华为技术有限公司 一种弹幕显示方法及电子设备
CN110059521B (zh) * 2018-01-18 2022-05-13 浙江宇视科技有限公司 目标跟踪方法及装置
US20190244030A1 (en) * 2018-02-07 2019-08-08 Hitachi, Ltd. Object tracking in video using better object area
US11164015B2 (en) * 2018-05-08 2021-11-02 Ford Global Technologies, Llc Simultaneous diagnosis and shape estimation from a perceptual system derived from range sensors
JP6779474B2 (ja) * 2019-01-16 2020-11-04 みこらった株式会社 浮揚移動台
CN110517614B (zh) * 2019-08-28 2022-11-22 苏州精速智能科技有限公司 一种液晶模组导电粒子不良的检测方法
US11308923B2 (en) * 2019-10-09 2022-04-19 Motorola Mobility Llc Electronic device with face orienting user interface
US11076111B1 (en) * 2019-11-13 2021-07-27 Twitch Interactive, Inc. Smart color-based background replacement
CN111062965B (zh) * 2019-12-26 2023-01-17 西华大学 一种基于流水线的低复杂度双门限多分辨率嘴部检测方法
US11004212B1 (en) * 2020-01-02 2021-05-11 Hong Kong Applied Science and Technology Research Institute Company Limited Object tracking method and system using iterative template matching
US11553136B2 (en) * 2020-02-19 2023-01-10 Canon Kabushiki Kaisha Subject tracking device, subject tracking method, and storage medium
JP7214681B2 (ja) * 2020-02-19 2023-01-30 キヤノン株式会社 被写体追尾装置、被写体追尾方法、コンピュータプログラム及び記憶媒体
JP6785481B1 (ja) * 2020-05-22 2020-11-18 パナソニックIpマネジメント株式会社 画像追尾装置
CN115222817B (zh) * 2022-08-31 2022-11-29 成都千嘉科技股份有限公司 一种指针式压力表的指针定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304348A (ja) * 1997-05-01 1998-11-13 Atr Chinou Eizo Tsushin Kenkyusho:Kk 動物体追跡方法
JPH11167455A (ja) * 1997-12-05 1999-06-22 Fujitsu Ltd 手形状認識装置及び単色物体形状認識装置
JP2004362210A (ja) * 2003-06-04 2004-12-24 Nippon Telegr & Teleph Corp <Ntt> 物体追跡装置と方法、及びそのプログラムとそのプログラムを記録した記録媒体

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH056434A (ja) * 1991-06-27 1993-01-14 Matsushita Electric Ind Co Ltd 自動追尾装置
US6687386B1 (en) * 1999-06-15 2004-02-03 Hitachi Denshi Kabushiki Kaisha Object tracking method and object tracking apparatus
US6859552B2 (en) * 2000-11-07 2005-02-22 Minolta Co., Ltd. Image retrieving apparatus
JP2002157599A (ja) 2000-11-17 2002-05-31 Nippon Telegr & Teleph Corp <Ntt> 物体検出認識方法,物体検出認識プログラムを記録した記録媒体および物体監視追跡装置
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US7298412B2 (en) * 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
KR100459893B1 (ko) * 2002-01-08 2004-12-04 삼성전자주식회사 동영상에서 칼라 기반의 객체를 추적하는 방법 및 그 장치
JP4140567B2 (ja) * 2004-07-14 2008-08-27 松下電器産業株式会社 物体追跡装置および物体追跡方法
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
JP4824411B2 (ja) * 2005-01-20 2011-11-30 パナソニック株式会社 顔抽出装置、半導体集積回路
ATE546800T1 (de) * 2005-07-05 2012-03-15 Omron Tateisi Electronics Co Tracking-vorrichtung
JP2007072520A (ja) * 2005-09-02 2007-03-22 Sony Corp 映像処理装置
JP4657934B2 (ja) * 2006-01-23 2011-03-23 富士フイルム株式会社 顔検出方法および装置並びにプログラム
GB2452512B (en) * 2007-09-05 2012-02-29 Sony Corp Apparatus and method of object tracking
TW200929005A (en) * 2007-12-26 2009-07-01 Altek Corp Human face detection and tracking method
JP4730431B2 (ja) * 2008-12-16 2011-07-20 日本ビクター株式会社 目標追尾装置
JP5383366B2 (ja) * 2009-07-28 2014-01-08 キヤノン株式会社 画像処理装置、画像処理方法、および、そのプログラム
JP5662670B2 (ja) * 2009-10-27 2015-02-04 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304348A (ja) * 1997-05-01 1998-11-13 Atr Chinou Eizo Tsushin Kenkyusho:Kk 動物体追跡方法
JPH11167455A (ja) * 1997-12-05 1999-06-22 Fujitsu Ltd 手形状認識装置及び単色物体形状認識装置
JP2004362210A (ja) * 2003-06-04 2004-12-24 Nippon Telegr & Teleph Corp <Ntt> 物体追跡装置と方法、及びそのプログラムとそのプログラムを記録した記録媒体

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210014774A (ko) * 2013-06-14 2021-02-09 퀄컴 인코포레이티드 트랙커 보조 이미지 캡쳐
KR102349242B1 (ko) * 2013-06-14 2022-01-07 퀄컴 인코포레이티드 트랙커 보조 이미지 캡쳐
US11538232B2 (en) 2013-06-14 2022-12-27 Qualcomm Incorporated Tracker assisted image capture
JP2017512991A (ja) * 2014-11-12 2017-05-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 目標物体の検出方法、検出装置及びロボット
US10551854B2 (en) 2014-11-12 2020-02-04 SZ DJI Technology Co., Ltd. Method for detecting target object, detection apparatus and robot
US11392146B2 (en) 2014-11-12 2022-07-19 SZ DJI Technology Co., Ltd. Method for detecting target object, detection apparatus and robot

Also Published As

Publication number Publication date
EP2242253B1 (en) 2019-04-03
WO2009098894A1 (ja) 2009-08-13
EP2242253A1 (en) 2010-10-20
CN101939980A (zh) 2011-01-05
US20110001840A1 (en) 2011-01-06
EP2242253A4 (en) 2014-05-14
JPWO2009098894A1 (ja) 2011-05-26
US8253819B2 (en) 2012-08-28
CN101939980B (zh) 2012-08-08

Similar Documents

Publication Publication Date Title
JP5090474B2 (ja) 電子カメラおよび画像処理方法
US8836777B2 (en) Automatic detection of vertical gaze using an embedded imaging device
JP5054063B2 (ja) 電子カメラ、画像処理装置及び画像処理方法
JP4999570B2 (ja) 表情認識装置及び方法、並びに撮像装置
JP6106921B2 (ja) 撮像装置、撮像方法および撮像プログラム
US8306262B2 (en) Face tracking method for electronic camera device
US20100302595A1 (en) Image Reproducing Apparatus And Imaging Apparatus
JP6157165B2 (ja) 視線検出装置及び撮像装置
JPH10307923A (ja) 顔部品抽出装置および顔の向き検出装置
US20210256713A1 (en) Image processing apparatus and image processing method
JP5471130B2 (ja) 画像処理装置及び方法
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
US10140503B2 (en) Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus
JP2001111882A (ja) 被写体検出装置、画像処理装置、画像処理システム、被写体検出方法、画像処理方法、及び記憶媒体
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP5336798B2 (ja) 画像処理装置および画像処理方法、プログラム
JP2010074312A (ja) 画像処理装置および画像処理方法、プログラム
US11553136B2 (en) Subject tracking device, subject tracking method, and storage medium
JP5247419B2 (ja) 撮像装置および被写体追跡方法
JP7110657B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2021040178A (ja) 画像処理装置、撮像装置、制御方法、およびプログラム
JP2016201637A (ja) 画像処理装置及び画像処理方法
JP2011076439A (ja) 撮像装置、撮像装置の制御方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120912

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5090474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350