JP5399502B2 - 追尾対象選択装置、方法、プログラム及び回路 - Google Patents

追尾対象選択装置、方法、プログラム及び回路 Download PDF

Info

Publication number
JP5399502B2
JP5399502B2 JP2011535280A JP2011535280A JP5399502B2 JP 5399502 B2 JP5399502 B2 JP 5399502B2 JP 2011535280 A JP2011535280 A JP 2011535280A JP 2011535280 A JP2011535280 A JP 2011535280A JP 5399502 B2 JP5399502 B2 JP 5399502B2
Authority
JP
Japan
Prior art keywords
image
tracking
video
unit
tracking target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011535280A
Other languages
English (en)
Other versions
JPWO2011043060A1 (ja
Inventor
康伸 小倉
祐亮 物部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2011535280A priority Critical patent/JP5399502B2/ja
Publication of JPWO2011043060A1 publication Critical patent/JPWO2011043060A1/ja
Application granted granted Critical
Publication of JP5399502B2 publication Critical patent/JP5399502B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、デジタルスチルカメラ、デジタルビデオカメラ、ネットワークカメラ、セキュリティカメラなどの分野において、画像中から、追尾対象物体を、正確に選択するための技術に関する。
近年、デジタルスチルカメラやデジタルビデオカメラ等に代表される、撮像機能を有する小型の電子機器が普及するとともに、これらの撮像機能の高機能化が進んでいる。
例えば、これらの撮像装置は、通常、LCD等のディスプレイを備えており、ユーザは、記録される映像を、ディスプレイで確認しながら、被写体を撮影することが可能である。現在、デジタルスチルカメラやデジタルビデオカメラの分野において、人物の顔を検出し、検出した顔に対して、自動合焦機能(AF(Auto Focus))や自動露光機能(AE(Auto Exposure))等の、調整の処理をすることができる撮像装置や、人物の笑顔度を測定し、シャッター制御を行う撮像装置も存在する。
しかし、顔が複数検出された場合、検出された複数の顔のうちのどの顔に対して制御を行うかを判断するのが困難である。このため、ユーザが意図しない対象に対して、制御(AFの処理、AEの処理など)が行われる場合がある。一方で、ユーザが意図する人物について、予め、その人物の顔画像を登録しておき、特定の人物(登録された顔画像の人物)のみを検出したり、ユーザが選択した人物・物体に対して追尾を行い、その追尾に合わせて、AF/AE制御を行う撮像装置も存在する。
ユーザが、追尾したい人物や物体を選択する、従来の技術としては、ユーザの手入力(例えば、タッチパネル上の追尾対象物体領域に対するタッチなど)によって、追尾対象物体領域を指定し、指定された追尾対象物体領域の色特徴を抽出し、抽出された色特徴等の物体等の追尾を行う技術や、画像中から、追尾候補オブジェクトを検出し、検出した追尾候補オブジェクトを選択し、選択された追尾候補オブジェクトを、追尾オブジェクトとして設定する技術がある(例えば、特許文献1、特許文献2参照)。
図21は、前記特許文献1に記載された従来技術のブロック図である。
従来技術として、図21に示される処理の方法9Aが挙げられる。
特開2004−252748号公報 特開2007−74279号公報
しかしながら、前記特許文献1の方法では、追尾対象物体が、静止状態(もしくは、静止に近い状態)である必要がある。
図2は、従来技術の課題を説明する図である。
つまり、例えば、ムービーなどの動画の撮影環境では、被写体が動いている場合が多い。そして、このような撮影環境下において、追尾対象(AE等において行われる追尾での追尾対象)の選択を行う場合、ムービーのユーザが、LCD(Liquid Crystal Display)等のディスプレイを見ながら、選択を行う。そして、図2の(A)欄に示すように、追尾対象の選択を行った瞬間、被写体が動いてしまうことがある。つまり、例えば、被写体の映像91として、動く前の第1の時刻において、第1の位置91a1Pの第1の映像91a1が表示される一方で、第2の時刻において、第2の位置91a2Pの第2の映像92a2が表示されることがある。つまり、こうして、映像91が、第1の位置91a1Pと、第2の位置91a2Pとの間で移動(位置が変化)することがある。
このような移動の結果、ユーザの意図とはずれた位置の物体(例えば、映像91の位置が、第2の位置91a2である第2の時刻における、第1の位置91a1Pにある物体(図略)など)に対して、選択を行ってしまい、誤った選択に基づいた追尾を行ってしまう。
なお、このような、映像91の移動は、例えば、その映像91へと写された被写体(図14における被写体103xを参照)の、三次元空間(道路103Rを参照)における移動により生じることもある。
一方で、デジタルカメラやムービーの撮影では、三脚を用いず、手持ちで撮影する場合も多い。このため、被写体が、三次元空間において(道路103Rにおいて)、ほぼ静止している場合であったとしても、映像91が移動することが生じることがある。つまり、対象選択の設定の際、機器のボタン操作や、タッチパネルでの操作を行う必要がある。このため、これらの操作により、カメラ本体が動いてしまうことがある。そして、このような、カメラ本体の動きが生じる結果、被写体の位置(被写体103xの位置を参照)と、カメラの位置(撮像素子103の位置を参照)との間の位置関係がずれる事で、映像91(図2)の位置が、複数の位置(位置91a1P、91a2Pなど)の間で変化してしまうことがある。つまり、こうして、カメラの動きが、誤設定の原因となってしまうことがある。
また、特許文献2の方法では、追尾対象物の選択を、オブジェクト検出された1以上の候補の中から行う。
しかし、図2の(B)欄に示すように、追跡対象の視認性が悪い場合(例えば、対象が、顔の場合においては、顔が小さい場合(映像91b)、後ろ(例えば、左後ろなど)を向いている場合(映像91c)など)において、ユーザが、追尾対象として選択したい物体が、どれか分からず(分かり難くて)、適切に選択をすることが困難で、選択の操作が、簡単にできないことがある。
そこで、本発明は、上記の課題を解決するものであり、追尾対象選択の操作(タッチなど)を、簡易(簡単)にすることができ、追尾対象が静止状態にない場合や(映像91aなど)、視認性が悪い場合(映像91b、映像91cなど)等であっても、簡単に選択できて、ひいては、(確実に)正しく選択ができるようにするための、追尾対象選択装置及びその方法並びに記憶媒体等を提供することを目的とする。
上述の課題を解決するために、第1の追尾対象選択装置は、追尾対象を選択する追尾対象選択装置であって、入力画像(カメラなどで撮像された入力画像(第2の入力画像))から、所定の物体(予め定められた物体、当該入力画像に撮像された物体)を検出する物体検出部と、前記物体検出部により検出した前記物体を追尾し、追尾される当該物体がある追尾物体候補領域を算出する追尾部と、入力画像(第1の入力画像)における固定の位置に、前記追尾部で算出された前記追尾物体候補領域の画像(第1の入力画像に含まれる第1の映像の被写体の、第2の入力画像における第2の映像)を合成する合成部と、前記合成部で、前記画像が前記固定の位置に合成された後における、合成された当該画像が含まれる前記入力画像(合成後における第1の入力画像)を表示する表示部と、前記表示部により表示される、合成がされた後の前記入力画像における、前記固定の位置に表示されている、合成がされた前記画像に対して、ユーザにより操作(タッチの操作など)がされた場合に、前記操作がされた前記画像において検出された前記物体(例えば、人物(の顔)、車など)を、予め定められた処理(例えば、AFの処理など)における追尾での前記追尾対象として選択する選択部とを備える。
本構成によって、ユーザが、追尾させたい物体を(、複数の物体から)選択する(追尾対象選択装置に選択させる)際において、対象物体(追尾させたい物体)が動いている場合でも、対象物体候補(画像合成された画像)が、固定の位置に表示されるため、ユーザが意図する対象物体を、正確に選択することが可能となる。
そして、第2の追尾対象選択装置は、上述の構成、作用を有し、かつ、前記追尾部で追尾している前記追尾物体候補領域の前記画像から、所定の特徴を抽出する特徴抽出部と、前記特徴抽出部から抽出された前記特徴から、対象物体の所定の状態(方向(図2の映像91cなどを参照)など)を算出し、算出される前記状態が、予め定められた状態か否か(正面向きの方向か否かなど)を判定する判定部と、前記判定部によって、算出された、前記追尾物体候補領域の前記状態が、前記予め定められた状態であると判定された場合に、判定がされた前記追尾物体候補領域(前記追尾対象候補領域の画像)を記憶する記憶部とを備える。
なお、例えば、領域を記憶するとは、その領域の映像を記憶することをいう。
本構成によって、対象物体候補領域(その領域の画像)の状態(例えば、その領域に写された被写体の方向など)を判定し、記憶部に記憶し、記憶された対象物体候補領域(の画像)が、固定の位置に表示される。このため、ユーザが、対象物体を選択する時点で、撮像される、対象物体の映像(上述された、第1の入力画像における第1の映像)が、視認性が悪い映像で(図2の(B)欄などを参照)、その映像の対象物体が、ユーザが意図する対象物体か否かをユーザが判断できない(判断し難い)場合でも、ユーザが、意図する対象物体を、正確に選択することが可能となる。
なお、本装置は、例えば、追尾装置と呼ばれてもよいし、対象選択装置と呼ばれてもよいし、物体選択装置などのその他の名前で呼ばれてもよい。
なお、表示を行う表示部の一部などにより、この表示の制御を行う表示制御部が構成されてもよい。つまり、表示部が、この表示制御部により、当該表示部による表示を制御してもよい。
本発明の追尾対象選択装置によれば、画像中の対象物体が動いている場合(図2の(A)欄を参照)や、対象物体の映像の視認性が悪い(対象が小さい、不適切な向きであるなどによって、ユーザが、対象物体(が複数の物体のうちの何れであるか)を(簡単に)認識できない)場合((B)欄を参照)であっても、正確に、ユーザが意図する対象物体を、選択することが可能になる。
すなわち、操作が簡単にでき、かつ、簡単さの程度が、より十分にでき、かつ、合成がされる画像(本書類における「他方の映像」)の位置が、確実に適切できる。
図1は、本発明の実施の形態における追尾対象選択装置のブロック図である。 図2は、従来技術の課題を説明する図である。 図3は、本発明の実施の形態1における追尾対象選択装置の機能構成を示す機能ブロック図である。 図4は、本発明の実施の形態1における追尾対象選択装置の機能構成を示す表示処理までのフローチャートである。 図5は、本発明の実施の形態1における追尾対象選択装置の機能構成を示す追尾対象選択処理のフローチャートである。 図6は、本発明の実施の形態1における追尾部のフローチャートである。 図7は、本発明の実施の形態1における追尾部を説明するための図である。 図8は、本発明の実施の形態1における特徴抽出部での、物体の向き算出を説明するための図である。 図9は、本発明の実施の形態1における顔中心座標の算出を説明するための図である。 図10は、本発明の実施の形態1における鼻位置座標の算出を説明するための図である。 図11は、本発明の実施の形態1における記憶部を説明するための図である。 図12は、本発明の実施の形態1における表示部を説明するための図である。 図13は、本発明の実施の形態1における選択処理を説明するための図である。 図14は、本発明の実施の形態1における他の例を説明するための図である。 図15は、本発明の実施の形態2における追尾対象選択装置の機能構成を示す機能ブロック図である。 図16は、本発明の実施の形態2における追尾対象選択装置の機能構成を示す表示処理までのフローチャートである。 図17は、本発明の実施の形態2における表示の例を説明するための図である。 図18は、本発明の実施の形態3における追尾対象選択装置の機能構成を示す機能ブロック図である。 図19は、本発明の実施の形態3における追尾対象選択装置の機能構成を示す表示処理までのフローチャートである。 図20は、本発明の実施の形態3における表示の例を説明するための図である。 図21は、従来技術のブロック図である。 図22は、追尾対象選択装置のブロック図である。 図23は、画面を示す図である。 図24は、撮像された複数の画像を示す図である。 図25は、画面を示す図である。 図26は、複数の時刻での画面を示す図である。 図27は、小さいサイズの映像などを示す図である。 図28は、被写体の向きが、正面向きでない映像などを示す図である。
以下、本発明の実施の形態について図面を参照しながら説明する。
実施形態の追尾対象選択装置は、追尾対象(追尾対象103xm:図22)を選択する追尾対象選択装置(追尾対象選択装置1、カメラ)であって、入力画像(例えば画像9Iaなど(図22、図24)、カメラにおいて撮像された第2の入力画像)から、所定の物体(被写体301x)を検出する物体検出部(物体検出部301:図3、図22など)と、前記物体検出部により検出した前記物体(被写体301x)を追尾し、追尾される当該物体がある追尾物体候補領域((画像9Iaに含まれる先の映像93の)領域301xR)を算出する追尾部(追尾部302)と、入力画像(画像9Ib(図22、図24など)、第1の入力画像)における固定の位置(位置92P:図22、図12、図13など)に、前記追尾部で算出された前記追尾物体候補領域(領域301xR)の画像(先の映像93(図22、図24など)、映像92(図22、図12、図13など))を合成する合成部(合成部306)と、前記合成部で、前記画像(映像92(映像93))が前記固定の位置(位置92P)に合成された後における、合成された当該画像(映像92)が含まれる前記入力画像(画像9C(図22、図24、図12、図13など))を表示する表示部(表示部307)と、前記表示部により表示される、合成がされた後の前記入力画像(画像9C)における、前記固定の位置(位置92P)に表示されている、合成がされた前記画像(映像92(映像93))に対して、ユーザ(ユーザ1U:図22)により操作(操作104L2(図22、図13など)、タッチの操作など)がされた場合に、(複数の物体(被写体A〜Cなど)のうちで、)前記操作がされた前記画像(映像93)において検出された前記物体(被写体301x:例えば、図12、図13の被写体B)を、予め定められた処理(AFの処理など)における追尾での前記追尾対象(追尾対象103xm:図22)として選択する選択部(選択部308)とを備える。
そして、本追尾対象選択装置は、前記追尾部で追尾している前記対象物体候補領域(領域301xR)の前記画像(映像93)から、所定の特徴(座標904(図9)など)を抽出する特徴抽出部(特徴抽出部303)と、前記特徴抽出部から抽出された前記特徴(座標904など)から、対象物体(映像93、被写体301x)の所定の状態(角度3D1b(図11)、方向103x1、103x2など)を算出し、算出される前記状態が、予め定められた状態(例えば0度(の近傍)、方向103x2(図12)など)か否かを判定する判定部(判定部304)と、前記判定部によって、算出された、前記対象物体候補領域(領域301xR、領域301xRの映像93)の前記状態(角度3D1b(図11)等)が、前記予め定められた状態(0度、方向013x2など)であると判定された場合に、判定がされた前記追尾対象候補領域(領域301xR、領域301xRの映像93)を(合成に利用されるもの(領域、映像)として)記憶する記憶部(記憶部305)とを備える。
なお、例えば、領域を記憶するとは、その領域の映像を記憶することをいう。また、表示部(表示部307)が、当該表示部による表示を制御してもよい。つまり、例えば、表示部の一部または全部により、この制御を行う表示制御部が構成されてもよい
つまり、当該追尾対象選択装置は、カメラ(図1などを参照)であり、被写体(例えば図25の被写体B)の、一方の映像(一方の映像91)を撮像する撮像素子(撮像素子103:図1)を備え、前記表示部(表示部307)は、撮像された前記一方の映像(一方の映像91)と共に、当該一方の映像(一方の映像91)の被写体(被写体B)の他方の映像(他方の映像92:図25など)を表示し、前記選択部(選択部308)は、表示された前記他方の映像(他方の映像92)に対する操作(操作92L:図25など)がされた場合に、撮像された前記一方の映像(一方の映像91)の前記被写体(被写体B)を、予め定められた処理(AFの処理など)における追尾での、追尾の対象(追尾対象103xm:図22)として選択してもよい。
これにより、タッチ等の操作で選択される被写体(被写体B)の映像(一方の映像91)が、カメラ(撮像素子103)により撮像された映像で、様々な映像(図2,図26〜図28などを参照)であることがあり、どのような映像であるか、予測が付かない(付き難い(ことが多い))にも関わらず、適切な動作がされる。
つまり、被写体(図25の被写体B)の映像として、撮像された一方の映像91と共に、当該一方の映像91とは異なる他方の映像92も表示されて、表示された当該他方の映像92に対する操作92Lがされることにより、被写体(被写体B)が選択される。これにより、撮像される一方の映像91がどのような映像であるか(図2、図26〜図28などを参照)に関わらず、他方の映像92への操作で足りて、選択の操作が簡単にできる。
しかも、例えば、複数の時刻(図26の上段の第1の時刻、下段の第2の時刻)のうちの第2の時刻(下段の時刻)での、表示される、合成された前記画像(図26における、他方の映像921N(921))の位置(位置921PN)は、第1の時刻(上段の時刻)での当該他方の映像(他方の映像921M(921))の位置(位置921PM)と同じ位置(共通する位置921P)であり、異なる位置(上段での位置921PMとは異なる他の位置(符号は省略))ではない。
つまり、例えば、こうして、他方の映像92Pの位置92Pは、複数の時刻(第1の時刻、第2の時刻)の間のうちに、移動(変化)されず、静止しており、つまり、共通の位置92P(固定位置)に固定される。
なお、このような複数の時刻は、例えば、第1の映像911(図26上段、下段)の位置が、第1の時刻での位置911PMから、第2の時刻での位置911PNへと移動(変化)する際における、第1の時刻および第2の時刻などである。
これにより、他方の映像92に対する操作がユーザによりされるのに際して、例えば、図26の位置911PM(上段)および911PN(下段)、または、図2の位置91a1Pおよび91a2Pなどのような、互いに異なる複数の位置から、操作を行うべき位置を特定する必要がない。つまり、単に、第1の時刻に位置921PMでの操作がされるのと同じく、第2の時刻にも、第1の時刻での位置921PMと同じ位置921PN(共通する位置921P)での操作がされるだけで済む。このため、複数の位置から、位置がユーザにより特定される必要がなく、操作が、より十分に簡単にできる。
しかも、第2の時刻(下段)での一方の映像911N(911)の位置911PNは、第1の時刻(上段)における位置911PMと違うにも関わらず、第2の時刻(下段)における、他方の映像921Pの位置921PNは、第1の時刻(上段)での位置921PMと同じ位置(位置921P、右下隅の場所)であり、他の位置ではない。このため、一方の映像911の位置が変化するにも関わらず、他方の映像921の、第1の時刻(上段)における位置921PMが適切な位置(右下隅の位置)であるのと同じく、第2の時刻(下段)における位置921PNも、適切な位置(右下隅の位置)に維持され、確実に、他方の映像921が、適切な位置(例えば、右下隅の位置)に表示できる。
こうして、本装置によれば、操作が簡単にでき、かつ、簡単さの程度が、より十分にでき、かつ、合成がされる画像(他方の映像92(921))の位置が、確実に適切にできて、様々な効果が両立できる。
(実施の形態1)
本実施の形態1では、追尾対象選択装置(追尾対象選択装置1a)について開示する。
図1は、追尾対象選択装置のブロック図である。
図3は、本実施の形態1における対象追尾選択装置の機能ブロック図である。
図1を用いて、本形態の追尾対象選択装置の構成を説明する。
図1において、CPU(中央演算処理装置)101は、ROM(リードオンリーメモリ:Read Only Memory)102に格納され、図4、図5(後述)に示すフローチャートに沿う処理のための画像処理プログラム(例えばコンピュータプログラム1P)を実行し、バス110を経由し、図3に示す各要素を制御する。
なお、例えば、RAM(ランダムアクセスメモリ)105および外部記憶装置106には、図3に示す記憶部305のための領域の他、CPU101が、その処理のために必要とする一次記憶領域が確保されている。
なお、図3に示す各処理部の処理は、例えば、CPU101が、ROM102に格納された画像処理プログラムを実行することにより行われる。
本装置は、物体検出部301と、追尾部302と、特徴抽出部303と、判定部304と、記憶部305と、合成部306と、表示部307と、選択部308とを有する。
なお、各部の動作の詳細については、後述する。
図4は、本発明の、追尾対象候補の表示方法のフローチャートである。
図4に示す、追尾対象候補の表示方法は、図1の装置によって実現される。なお、本実施の形態では、対象物体を、人物の顔(図7、図8などを参照)として、また、所定の状態を、顔の向き(図8の(A)欄、(B)欄、図2の映像91cなどを参照)として、説明する。
ステップS401で、本装置において、撮像素子103から入力された画像から、物体検出部301は、人物の顔の位置と大きさとをそれぞれ検出する。
ステップS402で、物体検出部301で検出された、人物の顔を、固有の物体として、物体追尾を行う(追尾部302)。
ステップS403で、追尾された顔の顔向きを算出するための特徴を抽出する(特徴抽出部303)。
ステップS404で、ステップS403で抽出された特徴から、顔の向きを推定する(例えば特徴抽出部303により)。
ステップS405で、ステップS404で推定された、顔の向きが、所定の状態(例えば、正面向きの顔)との誤差が、過去の推定誤差より小さい向きか否かを判定する(判定部304)。
ステップS406で、ステップS405において、過去の推定誤差より小さいと判定された場合に(S405:Yes)、記憶部305に、より小さいと判定された推定誤差を更新する。
ステップS407で、ステップS406における処理と同様に、ステップS401で検出された顔画像を、その顔画像に付与されている(その顔画像に対応付けられた)固有のラベルとともに、記憶部305に記憶更新する(データ3D(図3)を参照)。
ステップS408で、ステップS407で記憶された顔画像を、固定の位置(図12、図13の位置92Pなどを参照)に表示されるように、合成部306で合成を行い、合成された、固定の位置における顔画像を、表示部307に表示する。
物体検出部301は、撮像素子103から入力された画像(入力画像)から、ユーザが追尾したい人物の顔の候補を検出する。
なお、詳細な検出アルゴリズムとしては、例えば、特開2006−350645等で公開されている、AdaBoostアルゴリズムを用い、例えば、顔向き毎に、専用の顔向きを検出する識別器を構成して、適切な処理を実現する(後述の説明を参照)。
なお、物体検出方法は、このアルゴリズムに限ったものではない。
なお、非特許文献 PRMU 107(206) PP211−224において、一般物体の検出に関しても、その可能性が述べられている。つまり、本技術は、対象物体を、人物の顔に限ったものではなく、対象物体を、一般物体まで広げた範囲において、適応することが可能である。
追尾部302は、物体検出部301が、例えば、1個のシステムLSI(Large Scale Integration)として構成され、リアルタイム処理(例えば、1秒当たり30回以上の処理)が可能となった場合などに適する、次のような処理をしてもよい。つまり、一度検出された物体は、次フレームでは、前フレームで検出された位置の近傍で検出される可能性が高いはずである。つまり、上述された、リアルタイム処理が可能であるケース等においては、追尾部302において、このような、検出位置の連続性を用いて、この連続性を用いる追尾部を実現してもよい。
図6は、追尾部のフローチャートである。
ステップS601で、検出された物体の位置の近傍に、1フレーム前に、物体が存在したかを判定する。
ステップS602で、ステップS601において、1フレーム前における位置の近傍に、検出した物体が存在すると判定された場合に(S601:Yes)、検出された物体(1フレーム前における、近傍に存在した物体と同じ物体)の検出座標の履歴を更新する。
ステップS603で、ステップS601において、1フレーム前の近傍に、検出した物体が存在しないと判定された場合に(S601:No)、検出された物体に対して、これまでに検出された物体に付与された各ラベルとは異なる、固有のラベル(新しいラベル)を付与する。
ステップS604で、新たに検出された物体検出座標を、検出座標の履歴に、新たに追加する。
なお、ここでの説明では、位置の連続性を用いた追尾方法を述べたが、用いられる方法は、色を用いた物体追尾方法や、顔照合を用いた物体追尾方法であってもよいし、その他の方法でもよい。
図7は、追尾の結果を示す。
前フレーム701(図7の上段)において検出された、物体の位置(位置702a、703a)から、後フレーム704(下段)において検出された物体の位置(位置705a、706a)へと、検出される位置が変化した場合が、図7により示される。
そして、この場合において、既に(図7の上段の時刻から)存在して、固有のラベルが付与されているA(702)、B(703)については、後フレーム704(下段の時刻)では、次の処理がされる。つまり、行われる処理は、それぞれの物体(前フレーム701における、位置702aの物体、位置703aの物体)の位置が、新しい位置(下段における位置705a、位置706a)に変わっても、上段の時刻での、その物体のラベルと同一のラベル、つまり、変化しないラベルにより、その物体へのラベルの付与がされる処理である。これにより、図示されるように、位置705aについて、A(705)の付与がされ、位置706aについて、B(706)の付与がされる。他方で、新たに検出された物体(707)は、新たにラベルC(新しいラベル)が付与される。
特徴抽出部303の本説明では、人物の顔向きで説明する。
図8は、本発明の実施の形態1における特徴抽出部での、物体の向きの算出の処理を説明するための図である。
例えば、抽出する特徴(属性、性質)として、左右の目位置(例えば、図8の(A)欄での、2つの目の座標801、802)、顔中心座標(例えば座標803)、鼻位置座標(例えば座標804)、顔サイズ(図8のSize)の5点を抽出する。
なお、両目の検出においては、人物顔の検出のアルゴリズムと同様のアルゴリズムにより、検出が可能である。なお、この検出で用いられる方法は、例えば、エッジベースの、コーナー検出アルゴリズムを用いた方法などでもよいし、その他の方法などでもよい。
図9は、本発明の実施の形態1における、顔中心座標の算出の処理を説明するための図である。
顔検出器(顔検出器303a)は、複数の顔向き検出器(検出器303a1〜303a3など)から構成されており、顔が存在する1箇所において、それらの、様々な顔向きの複数の検出器(検出器303a1等)のうちのそれぞれが、位置・サイズが変わる、互いに異なる複数の候補枠を出力する(検出器303a1による3つの(複数の)枠901、検出器303a2による3つの枠902、検出器303a3による3つの枠903などを参照)。
そして、出力された複数の候補枠の中心座標の平均値、サイズの平均値をそれぞれ算出し、それら複数の算出で得られる複数の情報を統合した結果として得られる中心座標が、顔中心座標となる(座標904)。なお、つまり、こうして、例えば、それら、検出器303a1による複数の枠901と、検出器303a2による複数の枠902と、検出器303a3による複数の枠903とのうちの何れもが利用されることにより、比較的精度よく、顔の中心の座標904が算出されてもよい。
図10は、本発明の実施の形態1における、鼻位置座標(座標1004を参照)の算出の処理を説明するための図である。
顔中心座標の処理(上述の図9など)と同様に、複数の顔向き検出器(例えば、検出器303b1〜303b3など)のそれぞれが、位置・サイズが変わる、複数の候補枠を出力する(図9を参照)。
そして、この、出力された候補枠に対して、その候補枠を出力した検出器に対応する処理がされる。つまり、それぞれの候補枠に対して、一定量の、その候補枠を出力した検出器に対応するオフセットを与える。なお、例えば、与えられるオフセットは、顔サイズで正規化されたオフセットである。このことにより、候補枠の中心座標を、鼻位置に補正する(図10における、補正後の枠1001〜1003を参照)。
そして、オフセット量を与えられた候補枠(補正後の枠1001〜1003)の中心座標の平均値、サイズの平均値をそれぞれ算出し、各算出で得られる情報を統合した結果の中心座標が、鼻位置座標(座標1004)とされる。
なお、今回の例では、鼻位置座標の算出において、各顔検出器の出力結果を用いて、算出をしたが、人物顔の検出と同様のアルゴリズムにより、検出を行っても良いし、別のアルゴリズムを用いて、位置の検出を行っても良い。
判定部304の説明では、人物の顔向き判定の例を用いて、説明する。
上述のようにして、特徴抽出部303により、左右の目位置座標、顔中心座標、鼻位置座標、および、顔サイズが、下記の処理がされるよも前に、既に得られている。
そこで、まず、顔中心位置と(例えば図9の座標904など)、鼻位置と(図10の座標1004など)のそれぞれの位置のX成分(下記の数式1におけるFaceおよびNose)の、顔サイズ(FaceSize、下記の数式1の分母を参照)で正規化した、正規化差分量(F、数式1の左辺を参照)を算出する。
(数1)
また、同様に、顔中心位置と(下記の数式2におけるFaceを参照)、左右の目(下記の数式2におけるLEyeおよびLEye、図8を参照)の中心点(図8の座標805aを参照)とのX成分の、顔サイズ(FaceSize、下記の数式2の分母を参照)で正規化した、正規化差分量(F、数式2の左辺を参照)を算出する。
(数2)
それぞれの、算出された正規化差分量(F, F、数式1および数式2)から、その差分量に相当(対応)する、顔向きの角度(下記の数式3、4における、Dir, Dirを参照)を、ルックアップテーブル(数式3、4におけるLUT, LUTを参照)よりテーブル引きし、顔向き角度(Dir, Dir)とする。
(数3)
(数4)
そして、最終的な顔向き角度としては、下記の[式5](数式5)に示す通り、上述の数式3、4でそれぞれ算出された顔向き(Dir、Dir)に対して、重み(W, W)を掛け、足し合わせた値(Dir)を算出する。
(数5)
なお、顔向き判定においては、より多くの顔特徴点を取得してもよく、つまり、例えば、幾何学的位置関係から、顔向きを、より精度よく算出するアルゴリズムなどを用いても良い。
そして、算出された顔向き角度が、所定の向きか否かを判定する。ここでは、例えば、説明の都合上、所定の向きを、正面の顔向き(図12の方向103x2などを参照)で説明する。
そして、算出された顔向き角度が、−10度〜10度(0度の、予め定められた近傍の角度)の場合、正面向きの顔と判定し、記憶部305に、正面向きの顔と判定された画像とともに、顔向き角度の算出値、付与されたラベルも記憶する(図3のデータ3Dを参照)。
そして、次フレーム以降の処理においては、同一の追尾対象の顔向き算出値が、記憶している算出値(顔向き算出値)と比較した時における、より正面向きである顔の算出値(顔向き算出値)であった場合には、次の処理がされる。つまり、その処理は、記憶部に記憶している、正面向きの画像と、顔向き角度の算出値とを、上述された、同一の追尾対象の顔向き算出値が算出された画像と、その顔向き算出値とへと、それぞれ更新する処理である。
図11は、本発明の実施の形態1における記憶部を説明するための図である。
先述の説明のようにして、適切な処理がされることにより、記憶部には、図11に示すように、追尾している物体(顔)の、正面の向きの画像(画像3D1a〜3D3a)と、顔向きの算出値(値(スコア)3D1b〜3D3b)と、付与されたラベル(ラベル3D1c〜3D3c)とがそれぞれ記憶される。なお、ラベル(ラベル3D1cなど)は、例えば、そのラベルが付与される画像(例えば画像3D1a)の被写体(被写体A)を、複数の被写体(被写体A〜C)のうちから特定する情報などである。
合成部306は、記憶部に記憶されている、追尾物体の画像のサイズを正規化し、正規化がされた後における、追尾物体の画像を、入力画像と合成する。つまり、例えば、記憶された画像から、予め定められたサイズを有し、当該予め定められたサイズへと、サイズが正規化(変更)された画像が生成されて、生成された画像が、上述の入力画像(の一部分)に合成されてもよい。
なお、合成する場所は、撮影シーン画像の邪魔にならない場所であることが好ましく、例えば、画面の下部や上部などの四隅に合成してもよい(図12における、合成がされる、右下隅の場所などを参照)。
また、普段は、正規化された画像の合成がされないなどで、正規化された画像が表示されず、合成がされる前の、元々の入力画像のみを表示させておいてもよい。そして、ユーザの操作によって、正規化された画像の表示を行うことが指示された場合にのみ、任意の場所(右下隅の場所など)に、画像(正規化された画像)の合成を行い、元々の入力画像と、正規化された画像との両方が含まれる、合成後の画像が生成され、表示されてもよい。つまり、この指示がされた場合にのみ、その画像(正規化された画像)を表示させても良い。
また、入力画像における、追尾している物体の位置(例えば、図12における映像91の位置)の付近に、付与された、その物体に対応するラベル(図12における、映像91の付近に示される「B」の文字を参照)も合成してもよい。このことによって、選択しようとしている対象物体(被写体の、正規化されて、合成された画像(映像92を参照))と、実際の、入力画像上での位置(入力画像で、その被写体が撮像された位置(映像91の位置))との間の対応が(比較的簡単に)取れる為、ユーザにとって分かり易くできる。
図12は、本発明の実施の形態1における表示部を説明するための図である。
表示部307は、合成部306によって、入力画像と、記憶部で記憶している画像を表示させる。図12に、記憶している画像と、入力画像を合成し、合成により生成された画像9Cを表示させた例を示す。
図5は、本発明の実施の形態1における追尾対象選択装置の機能構成を示す追尾対象選択処理のフローチャートである。
次に、追尾対象候補の選択方法の説明を、図5のフローチャートで説明する。
ステップS501で、記憶部に記憶している、追尾対象候補の画像を、固定位置に表示する。なお、例えば、第1の時刻(例えば、図26の上段での時刻)で表示がされると共に(S501a)、第1の時刻で表示がされる位置(例えば位置921PM)と同じ位置(位置921PN)に、第2の時刻における表示がされて、固定位置への表示がされてもよい。
ステップS502で、ユーザの操作(合成されて表示された、上記の画像(図12の映像92)に対するタッチ等)によって、追尾したい対象を、固定位置からユーザが選択する(ユーザが、装置1に選択させる)。つまり、例えば、対象(例えば図12の被写体B)が、その対象の、合成された映像(例えば図12の映像92b)が表示された固定位置(位置92bP)に対する操作(タッチ等)により、選択されてもよい。
図13は、本発明の実施の形態1における選択処理を説明するための図である。
図13に示すように、ユーザが、それぞれの顔画像が、固定位置(位置92Pなど)で、正面を向いた顔画像(映像92)である複数の顔画像(被写体A〜Cの3個の顔画像)の中から、追尾したい対象の顔画像をタッチして、その顔画像の対象(被写体、例えば被写体B)を選択することが可能であり、誤った対象選択が行われなくなる。
なお、対象を選択後、選択された対象に対してのみ、追尾枠(図13における、被写体Bの映像91に付された、太線91xによる枠を参照)を表示し、AE/AFの制御を行う。また、対象選択後は、記憶部に記憶している画像を合成せずに、映像92等の合成をせず、画面104Rにおける表示をしても良い。
図14は、本発明の実施の形態1における、他の例を説明するための図である。
実施の形態1では、人物の顔を例にとって説明したが、図14に示すように、人物以外の一般物体、例えば、車のような場合の形態が構成されても良い。
また、特徴抽出部で、笑顔判定に用いる顔画像の、エッジや周波数成分を、特徴として抽出してもよい。そして、判定部において、抽出された特徴から、笑顔度を判定して、記憶部に記憶させ、スチール写真として、そのシーンを出力しても良い。つまり、例えば、複数の顔画像のうちで、その顔画像から抽出された特徴から特定される笑顔度が比較的高い顔画像が出力されて、出力される顔画像のシーンの映像が、合成された映像(映像92参照)として出力されてもよい。
(実施の形態2)
図15は、本実施の形態2における、文字情報を用いた追尾対象選択装置(装置1b)の機能ブロック図である。
本装置は、物体検出部1501と、追尾部1502と、特徴抽出部1503と、文字認識部1504と、記憶部1505と、合成部1506と、表示部1507と、選択部1508とを有する。
各部の動作については、後で詳しく述べられる。
図16は、本発明の実施の形態2における追尾対象選択装置の機能構成(処理構成)を示す、表示処理までのフローチャート図である。
実施の形態1の場合と、多くの点が同じであるため、文字認識部の処理以降の部分(S1604以降の部分)を特に詳しく説明する。
ステップS1604で、追尾している対象物体候補画像から、文字認識に必要な特徴を抽出する(特徴抽出部1503)。
ステップS1605で、追尾している対象物体候補が、既に文字認識できているものか否かを判定する。
ステップS1606で、まだ文字認識が出来ていないなら、抽出した特徴より、文字認識を行う(文字認識部1504)。
ステップS1607で、文字認識に成功したか否かを判定する。
ステップS1608で、文字認識に失敗したなら(S1607:No)、追尾物体の画像を記憶する。
ステップS1609で、文字認識に成功したなら(S1607:Yes)、認識した文字を記憶する(記憶部1505)。
ステップS1610で、記憶部に記憶している追尾対象候補画像や文字を、入力画像と合成し、固定の位置(固定位置)に表示する。
文字認識部1504は、追尾対象物体が持つ、固有の文字情報を認識する。例えば、認識される文字情報は、車のナンバープレートの情報のような文字情報である。
記憶部1505では、追尾対象の画像と、認識した文字情報の両方(図3のデータ3Dを参照)を記憶する。
合成部1506では、入力画像に対して、追尾対象候補画像、もしくは文字情報、もしくはそれらの両方を合成して(後述の図17などを参照)、合成がされた後における画像(入力画像)を、表示部1507に表示させる。
図17は、本発明の実施の形態2における、表示の例を説明するための図である。
例えば、図17に示されるような表示がされてもよい。
(実施の形態3)
図18は、本実施の形態3における、文字情報を用いた対象追尾選択装置(装置1c)の機能ブロック図である。
本装置は、物体検出部1801と、追尾部1802と、特徴抽出部1803と、類似度算出部1804と、記憶部1805と、合成部1806と、表示部1807と、選択部1808と、登録DB1809とを有する(DB:database)。
図19は、本発明の実施の形態3における追尾対象選択装置の機能構成(処理構成)を示す、表示処理までのフローチャート図である。
実施の形態1の場合と、多くの点が同じであるため、判定部以降の部分(S1905以降の部分)を特に詳しく説明する。
ステップS1905で、追尾している対象物体候補画像から抽出された特徴(特徴1803a:図18)と、予め登録DBに登録されている特徴(特徴1809a)との間のマッチングを行い、(それらの特徴の間の)類似度(類似度1804a:図18)を算出する。
ステップS1906で、S1905で算出された類似度(類似度1804a)を、過去の類似度(データ3DW(図18)を参照)と比較して、判定する。
ステップS1907で、ステップS1905で算出された類似度が、過去の類似度(データ3DWの類似度)よりも高い値である場合に(S1906:Yes)、類似度の更新を行う。
ステップS1908で、過去の類似度より高い値である場合において(S1906:Yes)、追尾物体を記憶更新する。
ステップS1909で、ステップS1905で算出された類似度が、ある閾値より高いかを判定する。
ステップS1910で、ある閾値より高い類似度であれば(S1909:Yes)、登録DBに付随する付加情報も、記憶部に記憶する。
ステップS1911で、記憶部に記憶している追尾対象候補画像と付加情報とを、それぞれ、入力画像に合成し(図17の映像92eを参照)、入力画像における固定の位置に、それらを表示する。
登録DB1809は、特定の人物の顔画像と、付加情報(人物名など)とを、予め登録してあるデータベースである。
類似度算出部1804では、特徴抽出部1803で抽出された特徴(特徴1803a:図18)と、予め登録してある、登録DB1809での特徴(特徴1809a)との間のマッチングを行う。マッチングの結果の類似度(類似度1804a)が、以前の類似度(データ3DWの類似度)よりも高い類似度であれば(図19のS1906:Yes)、類似度と、追尾物体画像とを記憶部へ、記憶更新する。さらに、類似度が閾値を超える場合には(S1909:Yes)、登録DBに付随する付加情報も、記憶部に記憶する。
合成部1806では、追尾対象画像とともに、付加情報がある場合には、その付加情報も、入力画像(先述)に対して合成し、表示部で表示する。
図20は、本発明の実施の形態3における表示の例を説明するための図である。
表示例を、図20に示す。
なお、また、本発明を、上記実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
上記の対象物体選択装置は、具体的には、中央演算処理装置(CPU:Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、などから構成されるコンピュータシステムである。そして、前記RAMには、コンピュータプログラムが記憶されている。前記CPUが、前記コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここで、コンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが、複数個組み合わされて、構成されたものである。
上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を、1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能な、ICカード(IC:Integrated Circuit)または単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラムまたは前記デジタル信号を、コンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM(Compact Disc−ROM)、MO(Magneto−Optical disk(disc))、DVD(Digital Versatile Disc)、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
また、本発明は、登録データ、前記コンピュータプログラム、または前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送する方法としてもよい。
また、本発明は、マイクロプロセッサとメモリとを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または、前記プログラムまたは前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより本発明を実施するとしてもよい。
こうして、要するに、追尾対象をユーザが選択する際、追跡対象が動いている場合(図2の(A)欄を参照)や、視認性が悪い場合((B)欄を参照)でも、追尾対象を選択し易くすることができる。つまり、入力画像中から、所定の物体を検出する物体検出部と、前記検出された物体を、(時刻が互いに異なっても互いに)同一の物体と(特定)して、追尾を行う追尾部と、前記追尾(追跡)をしている物体から、特徴を抽出する特徴抽出部と、前記抽出した特徴から、検出物体の状態(例えば、顔の方向など)を算出し、検出物体を記憶するか否かの判定を行う判定部と、前記判定部により、記憶すると判定された物体の状態を表すスコアと、追尾している物体の画像(当該スコアにおける状態(顔の方向)での画像)とを記憶する記憶部と、入力画像に対して、前記記憶部で記憶している、物体の画像(上述のスコアの状態での画像)を、固定の位置において合成して、合成がされた後における、上述の入力画像を表示する表示部と、前記表示部の、固定の位置に表示されている検出物体を、予め定められた処理(例えば、AFの処理)における追尾での追尾対象として選択する選択部からなる。
なお、被写体は、猫、犬などのペットでもよい。そして、先述された、固定の位置(図12の位置92P等)に合成され、表示される画像(例えば、図12における、他方の映像92)は、ペットの毛並み(色、模様、毛並みのテクスチャなど)を表示する画像でもよい。
なお、図14の処理がされる際などにおいては、例えば、道路103Rを走る車(被写体103x)の監視がされてもよい。
なお、こうして、図26に示されるように、被写体(例えば、図26の被写体B)の、撮像された第1の映像(一方の映像91)と共に、その被写体の、タッチ等の操作がされる第2の映像(他方の映像92)が表示されてもよい。
そして、図12の方向92bd、方向92mdにより示されるように、例えば、一の被写体(例えば、図12の被写体B)の第2の映像(他方の映像92b)における、被写体(被写体B)の方向(方向92bd)は、他の被写体(例えば被写体C)の第2の映像(他方の映像92m)における、被写体(被写体C)の方向(方向92md)と同じでもよい。
すなわち、固定位置に表示される対象物が、必ずしも、同じ方向(向き)を向いていなくても良い。
つまり、図12における、被写体Bの他方の映像92bにおける方向92bdは、被写体Cの他方の映像92mにおける方向92mdと同じ方向である。これら、方向92bdおよび方向92mdにより示されるように、例えば、固定位置に表示される対象物が、同じ方向を向いていてもよい。
一方で、必ずしも、この図12での例のように、同じ方向(方向92bdおよび方向92mdを参照)を向いている必要はなく、説明の便宜上から詳しい説明(図示等)は省略されたが、違う方向を向いていても良い。
なお、この点に関しては、図14における、方向92ddと、方向92ndについても、同様である。
なお、例えば、図14に示される車A〜C(図14の上部の3つの被写体103x)の3つの第1の映像(一方の映像91)は、それぞれ、撮像素子103により撮像された、道路103Rの画像9Ib(図14)の一部でもよい。つまり、画像9Ibが撮像されることにより、それぞれが、撮像された画像9Ibにおける一部であり、当該画像91bにおいて、当該一部に含まれる映像である複数の第1の映像(複数の一方の映像91(図14))が撮像されてもよい。
こうして、例えば、前記判定部は、前記状態(写された被写体の方向など)を示すスコア(角度3D1b(図11)等)を算出し、前記記憶部は、前記追尾物体候補領域の前記画像(画像3D1a(図11))とともに、算出された、当該画像の前記状態の前記スコア(角度3D1b等)を記憶してもよい。
また、前記判定部は、算出された、前記状態を示すスコア(角度3Dxb(図11))を、前記記憶部に予め記憶されたスコア(角度3D1b)と比較して、算出された前記スコア(角度3Dxb)と、算出された前記スコア(角度3Dxb)により示される前記状態の前記画像(画像3Dxa)とを前記記憶部に更新するか否かを判定し、前記判定部により、更新すると判定された場合、前記記憶部に予め記憶された前記スコア(角度3D1b)と、予め記憶された当該スコア(角度3D1b)に対応付けて記憶された画像(画像3D1a)とを、算出された前記スコア(角度3Dxb)と、算出された当該スコア(角度3Dxb)の前記画像(画像3Dxa)とへと、それぞれ更新してもよい。
また、前記特徴抽出部は、前記追尾物体候補領域の前記画像(映像93:図22など)に表れる向き(図12の向き103x1、向き103x2などのうちの1つ)を示す特徴量(座標904(図9)など)を抽出し、前記判定部は、抽出した前記特徴量に基づいて、当該特徴量により示される前記向き(向き103x1、向き103x2などのうちの1つ)が、所定の向き(例えば、方向103d(図12)の向き)であるか否かを判定し、前記所定の向きと判定された場合に、判定がされた前記向きを示す前記特徴量が抽出された前記追尾物体候補領域(画像3Dxa(図11)、画像3Dxaがあった、図22の領域301xR等)を前記記憶部に記憶させてもよい。
なお、例えば、領域を記憶するとは、その領域の映像を記憶することをいう。
また、前記追尾物体候補領域(領域301xR:図22)は、人物の顔(顔8F:図8)の領域であり、前記特徴抽出部は、前記特徴量として、顔中心座標(例えば座標807:図8)、鼻位置座標(座標808)、目位置座標(座標805、806)、顔サイズ(Size)を抽出し、前記判定部は、前記顔中心座標(座標807)と、前記鼻位置座標(座標808)との2つの座標の間の差と、前記顔中心座標(座標807)と、2つの前記目位置座標(座標805、806)の中心の座標(座標805a)との2つの座標の間の差との2つの前記差(符号を付けず)から、前記所定の向き(図12の方向103Dの向き)か否かの判定(先述)をしてもよい。
また、前記特徴抽出部は、前記追尾物体候補領域(領域301xR:図22)の人物の顔表情を示す特徴量を抽出し、前記判定部は、抽出した当該特徴量に基づいて、前記人物の前記顔表情が、笑顔の表情であるか否かを判定してもよい。
なお、笑顔の表情であるか否かの判定は、例えば、公知の技術による処理により、行われてもよい。
また、前記特徴抽出部は、前記追尾物体候補領域(領域301xR)の物体から、文字認識に必要な特徴量(例えば、文字のエッジの位置、方向など)を抽出し、前記判定部は、抽出した当該特徴量に基づいて、当該物体に表れた文字の文字認識ができたか否かを判定してもよい。
また、前記特徴抽出部は、前記追尾物体候補領域(領域301xR)の物体から、物体認識に必要な特徴量を抽出し、前記判定部は、前記記憶部に予め登録されている特徴と、抽出した当該特徴量により示される特徴との間のマッチングを行い、判定をしてもよい。
なお、例えば、物体認識とは、複数の物体のうちから、追尾物体候補領域の物体と同じ物体を特定することなどをいう。
また、前記合成部は、前記追尾物体候補領域(領域301xR)の画像(図20の映像92など)に加えて、前記判定部により得られる付加情報(ラベル(名前など)の画像92N)も(撮像された入力画像(先述)に対して)合成してもよい。
なお、例えば、図26の上段の時刻における、他方の映像92の表示は、図5のS501aでされると共に、下段の時刻での表示は、S501bでされてもよい。
なお、例えば、追尾対象103xm(図22等)として選択される被写体を特定する選択データ308d(図22)が生成されることにより、生成されるデータ208dにより特定される被写体が、追尾対象103xmとして選択されてもよい。
そして、表示される前記他方の映像(図25の他方の映像92)における、前記被写体(被写体B)のサイズ(サイズ92S)は、予め定められた閾値(閾値Th)以上のサイズ(サイズ92S)であり、当該閾値(閾値Th)よりも小さいサイズ(図2の映像91bのサイズ、図27の小さいサイズ912Sなど)ではなくてもよい。
これにより、閾値以上の大きなサイズ92Sのために、ユーザが、他方の映像92を見る際において、見られた当該他方の映像92の被写体(例えば、図25での被写体B)として、複数の被写体(被写体A〜Cなど)のうちから、当該被写体と同じ被写体(被写体B)が簡単に特定される。これにより、例えば、他方の映像92に対する操作92Lをするのが適切であるのがユーザにより簡単に判断されるなどして、操作が、さらに十分に簡単にできる。
なお、閾値Thは、具体的には、例えば、写された被写体のサイズが、そのサイズ以下であると、当該サイズでの被写体の写された映像(図2の映像91b、図27の映像912)に対する操作が、簡単でなく、行い難いサイズ(例えば、そのようなサイズの複数のうちの最大のものなど)などでもよい。
そして、表示される前記他方の映像(図25の他方の映像92)における、前記被写体の方向(図28の方向92d)は、予め定められた方向(図12の方向103d)と同じ方向(方向103x2、撮像素子103(カメラ1)を向いた方向)であり、異なる方向(方向103x1、図28の方向913d、図2の映像91cでの方向(後ろ向きの方向、左後ろを向いた方向など)ではなくてもよい。
なお、被写体の方向とは、例えば、被写体の正面などの、被写体が有する複数の面のうちの、その被写体の特徴が多く表れた面が向く方向(図28の方向92d、図14の方向92dd等を参照)などをいう。
そして、上述された、予め定められた方向は、例えば、撮像素子103を向いた方向103d(図12)と同じ(方向103dに近い、方向103dの近傍の)方向などである。
これにより、被写体の正面の外観(の特徴(図25の映像92、図14の映像92等を参照))がユーザに見え易いなどにより、ユーザが、複数の被写体(例えば、図25の被写体A〜C)から、他方の映像92に写された被写体(被写体B)が、何れの被写体であるかを、より簡単に特定して、操作が、さらに十分に簡単にできる。
なお、例えば、図26の一方の映像911は、例えば、より具体的には、位置911PM(上段)から位置911PN(下段)へと移動し、かつ、写された被写体のサイズが、閾値Th(図25等)よりも小さいサイズであり(図27の小さいサイズ912Sを参照)、かつ、写された被写体(被写体B)の方向が、予め定められた方向(図12の方向103d)とは異なる方向(方向103x1、図26の一方の映像911における、左後ろ向きの方向を参照)である映像でもよい。
このような一方の映像911が撮像される際において、位置が移動せず(図25、図26の位置92Pを参照)、大きいサイズ92S(図25を参照)を有し、かつ、予め定められた方向と同じ方向(図12の方向103x2)を有する他方の映像921(図26)が表示されてもよい。
これにより、このような一方の映像911が撮像される際においてさえ、操作が簡単にできて、さらに十分、確実に、操作が簡単にできる。
そして、前記撮像素子は、前記一方の映像(図28の一方の映像91)である、後の映像(図24の一方の映像(後の映像)91)を撮像するよりも前に、当該後の映像の前記被写体(図28の被写体B)と同じ被写体(被写体B)が写され、写された当該被写体の方向(図24の映像93xでの方向)が、前記予め定められた方向(図12の方向103d)と同じ方向(方向103x2)である先の映像(図24の先の映像93x)を撮像し、前記表示部は、撮像された前記先の映像(先の映像93x)の情報(図24(図3)の情報3D)を利用することにより(合成部306(図24、図3など)により)生成された、前記予め定められた方向と同じ方向(図12の方向103x2、図28の方向92d)の前記他方の映像(図28の他方の映像92)を表示してもよい。
これにより、単に、先の映像93x(図24)が撮像されるだけで、簡単に、他方の映像92の表示のための情報(情報3D:図24、図3など)が利用されるのが可能になり、他方の映像92の表示が簡単にできる。
なお、例えば、先述のように、方向103x2を有する、適切な先の映像93(先の映像93x:図24)と、方向103x1を有する、不適切な先の映像93とが含まれる複数の先の映像93(図24を参照)から、適切な先の映像93(先の映像93x)が選択されて、利用されてもよい。
そして、前記表示部は、前記被写体(例えば、図17における車C)の前記一方の映像(一方の映像91e)および前記他方の映像(他方の映像92e)以外の、当該被写体(車C)のその他の映像(図17の映像93(図24の先の映像93を参照))から生成された、複数の被写体(車A〜C)から当該被写体(車C)を特定する文字(図17の「奈良330xx−oo」、文字列92e2)を示す映像(他方の映像92e)を、前記他方の映像(他方の映像92)として表示してもよい。
そして、前記合成部(合成部306)は、前記一方の映像(一方の映像91e)および前記他方の映像(他方の映像92e)以外の前記その他の映像(図17の映像93)から文字認識により特定された前記文字(「奈良330xx−oo」、文字列92e2)が、当該その他の映像(映像93)に対して合成された映像(他方の映像92e)を生成し、前記表示部は、生成された当該映像(他方の映像92e)を、前記他方の映像(他方の映像92)として表示してもよい。
これにより、ユーザが、被写体の特定を、さらに簡単にできて、操作が、さらに十分に簡単にできる。
なお、例えば、被写体が顔8F(図8)である際などにおいて、被写体の名前などの情報の文字(文字列)が表示されてもよい。
なお、例えば、上述の文字認識を行う文字認識部1504(図15など)が設けられてもよい。そして、例えば、文字認識部1504は、図15に示されるように、例えば、判定部304の一部でもよいし、判定部304の外部などに設けられてもよい。
なお、例えば、ある局面などにおいて、一方の映像91(先述)として、図23の映像9Wが撮像されてもよい。そして、この映像9Wは、例えば、図25に示される、他方の映像92と同様に、(所定時間の間)移動せず、かつ、大きなサイズ92Sを有し、かつ、写された被写体の方向が、予め定められた方向と同じ方向(図12の方向103x2)の映像でもよい。
そして、撮像された一方の映像91が、このような映像9Wであるか、映像9Wではない他の映像(図26の一方の映像911、図27の一方の映像912、図28の一方の映像913などを参照)であるかに関わらず、一方の映像91が撮像され、表示される際には、その一方の映像91(映像9W、または、一方の映像912等の何れか)の被写体の他方の映像92が表示されてもよい。
これにより、映像9Wが撮像され、表示される際にも、他方の映像92が表示されて、映像9Wではない上述の他の映像が撮像される際の処理と同じ処理がされて、処理がり簡単にできる。
しかも、他の映像が撮像される際の表示と同じ表示がされて、より分かり易い表示ができる。
これにより、より簡単な処理と、より分かり易い表示とが両立できる。
なお、本カメラは、例えば、民生品のデジタルカメラなどで、購入したユーザにより望まれる時に、望まれる被写体が撮像されて、どのような被写体の映像が撮像されるか、予測が付かない(付き難い)カメラなどである。
なお、本カメラは、例えば、道路103Rを走る車などの、偶然現れた被写体103xを撮像するカメラ(例えば監視カメラ等)などでもよい。
また、図13に示されるように、例えば、他方の映像92に対する操作104L2がされた際において、操作104L2がされたことを示す表示(太線)91Xが、一方の映像91の位置91Pと、他方の映像92の位置92Pとのうちで、一方の映像91の位置91P(の近傍)にのみ表示され、他方の映像92の位置(の近傍)には表示されなくてもよい。
これにより、表示が少なくされて、さらに分かり易い表示ができる。
なお、より具体的には、例えば、固定の位置に表示される他方の映像92として、被写体の外観の画像(図17の画像92e1を参照)が含まれず、文字認識で特定された文字列9X1(図17、映像92eの文字列92e2を参照)のみが表された映像9Xが表示されることがあってもよい。
これにより、複数の被写体(車A〜車C)のうちから被写体(車B)を特定する、撮像された一方の映像91eと共に、その被写体(車B)を特定する(その被写体の文字列「大阪550 なoo−xx」を示す)他方の映像9Xが表示されて、操作が簡単にできる。しかも、固定の位置に表示されることにより、十分に操作が簡単にできたり、表示される位置が確実に適切にできる。しかも、更には、文字列9X1のみによるシンプルな表示がされることにより、分かり易い表示がされ、より十分に適切な表示できる。
こうして、複数の構成(表示部307、選択部308など)が組み合わせられることにより、組合わせからの相乗効果が生じる。これに対して、知られる従来例においては、これらの複数の構成のうちの全部または一部がなく、相乗効果は生じない。本技術は、このような、構成、作用、効果の点において、従来例に対して、先進性を有する。
なお、互いに異なる複数の実施形態における複数の記載などの、互いに遠く離れた複数の箇所の複数の技術事項が、適宜組合わせられてもよい。組合わせられた形態が、併せて開示される。
なお、図26に示されるように、被写体Bの一方の映像91(一方の映像911)の位置(位置911PM、位置911PN)は、第1の時刻(上段)においては、予め定められた第1の位置関係921JM(より右側である関係)を、他の位置(他の被写体Aの、撮像された一方の映像91の位置(位置921XM))に対して有してもよい。
そして、一方で、他の第2の時刻(下段)においては、第2の位置関係921JN(より左側である関係)を(当該第2の時刻における、当該他の被写体(被写体A)の映像の位置(位置921XN)に対して)有してもよい。
そして、被写体Bの他方の映像92(他方の映像921)の位置(位置921P)は、第1の時刻でも、第2の時刻でも、互いに同じ位置関係922J(より右側である関係)を他の位置(被写体A(他の被写体)の、合成された他方の映像92の位置(位置922X(922XM、922XN)))に対して有してもよい。
これにより、被写体Bの一方の映像91が有する位置関係が、第1の位置関係921JMから第2の位置関係921JNに変化しても、位置関係922J(より右側である関係)とは異なる他の位置関係(図略、例えばより左側である関係)の位置での操作が不要であり(下段における位置関係922Jを参照)、同じ位置関係922J(より右側)での操作で済んで、より確実に、操作が簡単にできる。
なお、図1に示されるように、例えば、追尾対象選択装置(カメラ)1の一部(又は)全部は、CPU101(図1)などを含んでなるコンピュータ1C(図1)でもよい。そして、このコンピュータ1Cにより、コンピュータプログラム1P(図1、例えば、先述された画像処理プログラム)が実行されることにより、上述の1以上の機能が実現されてもよい。そして、このコンピュータプログラム1Pは、例えば、ROM102に記憶されてもよい。
また、このコンピュータ1Cが実装されるなどして、適切な回路が構成されて、上述の1以上の機能が実装された集積回路1L(図1)が構築されてもよい。
なお、1以上の工程が含まれてなる方法、上述のプログラムのデータ構造などが構築されてもよい。
なお、符号705により、時刻TでのラベルAの物体と同じ物体の、時刻T+αでの映像が示さる。符号706により、時刻TでのラベルBの物体と同じ物体の、時刻T+αでの映像が示される。符号707により、新たに検出された物体の、ラベルCが付与された映像が示される。符号901により、右75度顔検出器により出力された顔検出候補枠が示される。符号902により、右30度顔検出器により出力された顔検出候補枠が示される。符号903により、正面顔検出器により出力された顔検出候補枠が示される。符号1001により、右75度顔検出器により出力された顔検出候補枠に、オフセットを与えた結果が示される。符号1002により、右30度顔検出器により出力された顔検出候補枠に、オフセットを与えた結果が示される。符号1003により、正面顔検出器により出力された顔検出候補枠に、オフセットを与えた結果が示される。符号104L2により、固定の位置にある物体を選択する操作が示される。
本発明にかかる追尾対象選択装置及びその方法並びに記憶媒体は、デジタルカメラや、デジタルビデオカメラでの撮影の際に、様々なシーンの撮影において、被写体を容易に選択、追尾し、AF/AEを制御することで、簡単に失敗しない撮影を行うことが可能となり、有用である。
101 CPU
102 ROM
103 カメラ
104 表示ディスプレイ
105 RAM
106 外部記憶装置
108 インターフェース装置
301 物体検出部
302 追尾部
303 特徴抽出部
304 判定部
305 記憶部
306 合成部
307 表示部
308 選択部
701 時刻Tにおける画像フレーム
702 ラベルAが付与された映像
703 ラベルBが付与された映像
704 時刻T+αにおける画像フレーム
801 正面向きの右目
802 正面向きの左目
803 正面向きの顔中心座標
804 正面向きの鼻座標
805 右向きの右目
806 右向きの左目
807 右向きの顔中心座標
808 右向きの鼻座標
904 顔中心座標
1004 鼻位置座標
1200 表示画面
1201 画像合成した画像
1302 選択された物体
9X1 認識された文字
1809 登録(DB)データベース

Claims (19)

  1. 追尾対象を選択する追尾対象選択装置であって、
    入力画像から、所定の物体を検出する物体検出部と、
    前記物体検出部により検出した前記物体を追尾し、追尾される当該物体がある追尾物体候補領域を算出する追尾部と、
    入力画像における固定の位置に、前記追尾部で算出された前記追尾物体候補領域の画像を合成する合成部と、
    前記合成部で、前記画像が前記固定の位置に合成された後における、合成された当該画像が含まれる前記入力画像を表示する表示部と、
    前記表示部により表示される、合成がされた後の前記入力画像における、前記固定の位置に表示されている、合成がされた前記画像に対して、ユーザにより操作がされた場合に、前記操作がされた前記画像において検出された前記物体を、予め定められた処理における追尾での前記追尾対象として選択する選択部とを備える追尾対象選択装置。
  2. 前記追尾部で追尾している前記追尾物体候補領域の前記画像から、所定の特徴を抽出する特徴抽出部と、
    前記特徴抽出部から抽出された前記特徴から、対象物体の所定の状態を算出し、算出される前記状態が、予め定められた状態か否かを判定する判定部と、
    前記判定部によって、算出された、前記追尾物体候補領域の前記状態が、前記予め定められた状態であると判定された場合に、判定がされた前記追尾物体候補領域を記憶する記憶部とを備える請求項1記載の追尾対象選択装置。
  3. 前記判定部は、前記状態を示すスコアを算出し、
    前記記憶部は、前記追尾物体候補領域の前記画像とともに、算出された、当該画像の前記状態の前記スコアを記憶する請求項2記載の追尾対象選択装置。
  4. 前記判定部は、算出された、前記状態を示すスコアを、前記記憶部に予め記憶されたスコアと比較して、算出された前記スコアと、算出された前記スコアにより示される前記状態の前記画像とを前記記憶部に更新するか否かを判定し、
    前記判定部により、更新すると判定された場合、前記記憶部に予め記憶された前記スコアと、予め記憶された当該スコアに対応付けて記憶された画像とを、算出された前記スコアと、算出された当該スコアの前記画像とへと、それぞれ更新する請求項2記載の追尾対象選択装置。
  5. 前記特徴抽出部は、前記追尾物体候補領域の前記画像に表れる向きを示す特徴量を抽出し、
    前記判定部は、抽出した前記特徴量に基づいて、当該特徴量により示される前記向きが、所定の向きであるか否かを判定し、
    前記所定の向きと判定された場合に、判定がされた前記向きを示す前記特徴量が抽出された前記追尾物体候補領域を前記記憶部に記憶させる請求項2記載の追尾対象選択装置。
  6. 前記追尾物体候補領域は、人物の顔の領域であり、
    前記特徴抽出部は、前記特徴量として、顔中心座標、鼻位置座標、目位置座標、顔サイズを抽出し、
    前記判定部は、前記顔中心座標と、前記鼻位置座標との2つの座標の間の差と、前記顔中心座標と、2つの前記目位置座標の中心の座標との2つの座標の間の差との2つの前記差から、前記所定の向きか否かの判定をする請求項5記載の追尾対象選択装置。
  7. 前記特徴抽出部は、前記追尾物体候補領域の人物の顔表情を示す特徴量を抽出し、
    前記判定部は、抽出した当該特徴量に基づいて、前記人物の前記顔表情が、笑顔の表情であるか否かを判定する請求項2記載の追尾対象選択装置。
  8. 前記特徴抽出部は、前記追尾物体候補領域の物体から、文字認識に必要な特徴量を抽出し、
    前記判定部は、抽出した当該特徴量に基づいて、当該物体に表れた文字の文字認識ができたか否かを判定する請求項2記載の追尾対象選択装置。
  9. 前記特徴抽出部は、前記追尾物体候補領域の物体から、物体認識に必要な特徴量を抽出し、
    前記判定部は、前記記憶部に予め登録されている特徴と、抽出した当該特徴量により示される特徴との間のマッチングを行い、判定をする請求項2記載の追尾対象選択装置。
  10. 前記合成部は、前記追尾物体候補領域の画像に加えて、前記判定部により得られる付加情報も合成する請求項2記載の追尾対象選択装置。
  11. 当該追尾対象選択装置は、カメラであり、
    被写体の、一方の映像を撮像する撮像素子を備え、
    前記表示部は、撮像された前記一方の映像と共に、当該一方の映像の被写体の他方の映像を表示し、
    前記選択部は、表示された前記他方の映像に対する操作がされた場合に、撮像された前記一方の映像の前記被写体を、予め定められた処理における追尾での、追尾の対象として選択し、
    複数の時刻のうちの第2の時刻での、表示される前記他方の映像の位置は、第1の時刻での当該他方の映像の位置と同じ位置である請求項1記載の追尾対象選択装置。
  12. 表示される前記他方の映像における、前記被写体のサイズは、予め定められた閾値以上のサイズであり、当該閾値よりも小さいサイズではない請求項11記載の追尾対象選択装置。
  13. 表示される前記他方の映像における、前記被写体の方向は、予め定められた方向と同じ方向であり、異なる方向ではない請求項11または12記載の追尾対象選択装置。
  14. 前記撮像素子は、前記一方の映像である、後の映像を撮像するよりも前に、当該後の映像の前記被写体と同じ被写体が写され、写された当該被写体の方向が、前記予め定められた方向と同じ方向である先の映像を撮像し、
    前記表示部は、撮像された前記先の映像の情報を利用することにより生成された、前記予め定められた方向と同じ方向の前記他方の映像を表示する請求項13記載の追尾対象選択装置。
  15. 前記表示部は、前記被写体の前記一方の映像および前記他方の映像以外の、当該被写体のその他の映像から生成された、複数の被写体から当該被写体を特定する文字を示す映像を、前記他方の映像として表示する請求項11〜14の何れかに記載の追尾対象選択装置。
  16. 前記合成部は、前記一方の映像および前記他方の映像以外の前記その他の映像から文字認識により特定された前記文字が、当該その他の映像に対して合成された映像を生成し、
    前記表示部は、生成された当該映像を、前記他方の映像として表示する請求項15記載の追尾対象選択装置。
  17. 追尾対象を選択する追尾対象選択装置に設けられる集積回路であって、
    入力画像から、所定の物体を検出する物体検出部と、
    前記物体検出部により検出した前記物体を追尾し、追尾される当該物体がある追尾物体候補領域を算出する追尾部と、
    入力画像における固定の位置に、前記追尾部で算出された前記追尾物体候補領域の画像を合成する合成部と、
    前記合成部で、前記画像が前記固定の位置に合成された後における、合成された当該画像が含まれる前記入力画像を表示部に表示させる表示制御部と、
    前記表示部により表示される、合成がされた後の前記入力画像における、前記固定の位置に表示されている、合成がされた前記画像に対して、ユーザにより操作がされた場合に、前記操作がされた前記画像において検出された前記物体を、予め定められた処理における追尾での前記追尾対象として選択する選択部とを備える集積回路。
  18. 追尾対象を選択する追尾対象選択方法であって、
    入力画像から、所定の物体を検出する物体検出ステップと、
    前記物体検出ステップで検出した前記物体を追尾し、追尾される当該物体がある追尾物体候補領域を算出する追尾ステップと、
    入力画像における固定の位置に、前記追尾ステップで算出された前記追尾物体候補領域の画像を合成する合成ステップと、
    前記合成ステップで、前記画像が前記固定の位置に合成された後における、合成された当該画像が含まれる前記入力画像を表示する表示ステップと、
    前記表示ステップで表示される、合成がされた後の前記入力画像における、前記固定の位置に表示されている、合成がされた前記画像に対して、ユーザにより操作がされた場合に、前記操作がされた前記画像において検出された前記物体を、予め定められた処理における追尾での前記追尾対象として選択する選択ステップとを含む追尾対象選択方法。
  19. コンピュータに、追尾対象を選択させるためのコンピュータプログラムであって、
    入力画像から、所定の物体を検出する物体検出ステップと、
    前記物体検出ステップで検出した前記物体を追尾し、追尾される当該物体がある追尾物体候補領域を算出する追尾ステップと、
    入力画像における固定の位置に、前記追尾ステップで算出された前記追尾物体候補領域の画像を合成する合成ステップと、
    前記合成ステップで、前記画像が前記固定の位置に合成された後における、合成された当該画像が含まれる前記入力画像を表示部に表示させる表示制御ステップと、
    前記表示部により表示される、合成がされた後の前記入力画像における、前記固定の位置に表示されている、合成がされた前記画像に対して、ユーザにより操作がされた場合に、前記操作がされた前記画像において検出された前記物体を、予め定められた処理における追尾での前記追尾対象として選択する選択ステップとを前記コンピュータに実行させるためのコンピュータプログラム。
JP2011535280A 2009-10-07 2010-10-05 追尾対象選択装置、方法、プログラム及び回路 Active JP5399502B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011535280A JP5399502B2 (ja) 2009-10-07 2010-10-05 追尾対象選択装置、方法、プログラム及び回路

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009233289 2009-10-07
JP2009233289 2009-10-07
JP2011535280A JP5399502B2 (ja) 2009-10-07 2010-10-05 追尾対象選択装置、方法、プログラム及び回路
PCT/JP2010/005956 WO2011043060A1 (ja) 2009-10-07 2010-10-05 追尾対象選択装置、方法、プログラム及び回路

Publications (2)

Publication Number Publication Date
JPWO2011043060A1 JPWO2011043060A1 (ja) 2013-03-04
JP5399502B2 true JP5399502B2 (ja) 2014-01-29

Family

ID=43856544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011535280A Active JP5399502B2 (ja) 2009-10-07 2010-10-05 追尾対象選択装置、方法、プログラム及び回路

Country Status (5)

Country Link
US (1) US8432357B2 (ja)
EP (1) EP2355492B1 (ja)
JP (1) JP5399502B2 (ja)
CN (1) CN102239687B (ja)
WO (1) WO2011043060A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4636064B2 (ja) * 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP4766197B2 (ja) * 2009-01-29 2011-09-07 日本電気株式会社 特徴量選択装置
US9633437B2 (en) * 2010-03-22 2017-04-25 Omnitek Partners Llc Method for displaying successive image frames on a display to stabilize the display of a selected feature in the image frames
KR101381439B1 (ko) * 2011-09-15 2014-04-04 가부시끼가이샤 도시바 얼굴 인식 장치 및 얼굴 인식 방법
US20130155308A1 (en) * 2011-12-20 2013-06-20 Qualcomm Incorporated Method and apparatus to enhance details in an image
CN102547209B (zh) * 2012-02-06 2015-07-22 华为技术有限公司 视讯设备控制方法、装置及视讯系统
US9124800B2 (en) * 2012-02-13 2015-09-01 Htc Corporation Auto burst image capture method applied to a mobile device, method for tracking an object applied to a mobile device, and related mobile device
KR101231469B1 (ko) 2012-02-23 2013-02-07 인텔 코오퍼레이션 이미지 처리 지원 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
JP5941736B2 (ja) * 2012-04-10 2016-06-29 オリンパス株式会社 撮影機器
JP5970937B2 (ja) 2012-04-25 2016-08-17 ソニー株式会社 表示制御装置および表示制御方法
EP2888871A4 (en) * 2012-08-27 2016-05-25 Nokia Technologies Oy METHOD AND APPARATUS FOR RECORDING VIDEO SEQUENCES
US8933885B2 (en) * 2012-09-25 2015-01-13 Nokia Corporation Method, apparatus, and computer program product for reducing hand or pointing device occlusions of a display
US20140192205A1 (en) * 2013-01-08 2014-07-10 Samsung Electronics Co. Ltd. Apparatus and method for object tracking during image capture
JP5867424B2 (ja) * 2013-02-28 2016-02-24 ソニー株式会社 画像処理装置、画像処理方法、プログラム
KR20150113572A (ko) * 2014-03-31 2015-10-08 삼성전자주식회사 영상데이터를 획득하는 전자장치 및 방법
US10027883B1 (en) * 2014-06-18 2018-07-17 Amazon Technologies, Inc. Primary user selection for head tracking
US9729865B1 (en) 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
US9977495B2 (en) 2014-09-19 2018-05-22 Utherverse Digital Inc. Immersive displays
US9684830B2 (en) * 2014-11-14 2017-06-20 Intel Corporation Automatic target selection for multi-target object tracking
JP6722878B2 (ja) * 2015-07-30 2020-07-15 パナソニックIpマネジメント株式会社 顔認証装置
EP3376470B1 (en) * 2015-11-13 2021-01-13 Panasonic Intellectual Property Management Co., Ltd. Moving body tracking method, moving body tracking device, and program
JP2017216709A (ja) * 2017-07-13 2017-12-07 株式会社ニコン 電子カメラ
JP6977624B2 (ja) * 2018-03-07 2021-12-08 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム
JP7024539B2 (ja) * 2018-03-22 2022-02-24 カシオ計算機株式会社 画像編集装置、画像編集方法、及びプログラム
CN109191486A (zh) * 2018-09-12 2019-01-11 广州粤创富科技有限公司 一种宠物图像分割方法及电子设备
CN109218612B (zh) * 2018-09-17 2022-04-22 东莞市丰展电子科技有限公司 一种追踪拍摄系统及拍摄方法
JP6579727B1 (ja) * 2019-02-04 2019-09-25 株式会社Qoncept 動体検出装置、動体検出方法、動体検出プログラム
JP7253440B2 (ja) * 2019-05-09 2023-04-06 東芝テック株式会社 追跡装置及び情報処理プログラム
CN111324096B (zh) * 2020-03-03 2021-04-23 郑州旭飞光电科技有限公司 一种基板玻璃加工、包装信息可追溯系统及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005102175A (ja) * 2003-08-25 2005-04-14 Fuji Photo Film Co Ltd デジタルカメラ

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252748A (ja) 2003-02-20 2004-09-09 Toshiba Corp 画像処理方法、画像処理装置
JP4140567B2 (ja) 2004-07-14 2008-08-27 松下電器産業株式会社 物体追跡装置および物体追跡方法
JP2006115406A (ja) 2004-10-18 2006-04-27 Omron Corp 撮像装置
JP4767595B2 (ja) 2005-06-15 2011-09-07 パナソニック株式会社 対象物検出装置及びその学習装置
JP2007074279A (ja) 2005-09-06 2007-03-22 Canon Inc 撮像装置及びその制御方法
US7403643B2 (en) * 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
JP4264663B2 (ja) * 2006-11-21 2009-05-20 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
JP4915420B2 (ja) * 2006-12-11 2012-04-11 株式会社ニコン 電子カメラ
JP2008187591A (ja) * 2007-01-31 2008-08-14 Fujifilm Corp 撮像装置及び撮像方法
JP5056061B2 (ja) * 2007-02-22 2012-10-24 株式会社ニコン 撮像装置
US8615112B2 (en) 2007-03-30 2013-12-24 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
JP4794584B2 (ja) 2007-03-30 2011-10-19 カシオ計算機株式会社 撮像装置、画像表示装置、及びそのプログラム
JP4636064B2 (ja) * 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP5047007B2 (ja) 2008-03-03 2012-10-10 三洋電機株式会社 撮像装置
US8265474B2 (en) * 2008-03-19 2012-09-11 Fujinon Corporation Autofocus system
KR101009881B1 (ko) * 2008-07-30 2011-01-19 삼성전자주식회사 재생되는 영상의 타겟 영역을 확대 디스플레이하기 위한장치 및 방법
JP5279635B2 (ja) * 2008-08-20 2013-09-04 キヤノン株式会社 画像処理装置、画像処理方法、および、プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005102175A (ja) * 2003-08-25 2005-04-14 Fuji Photo Film Co Ltd デジタルカメラ

Also Published As

Publication number Publication date
WO2011043060A1 (ja) 2011-04-14
US20110241991A1 (en) 2011-10-06
CN102239687A (zh) 2011-11-09
EP2355492B1 (en) 2018-04-11
CN102239687B (zh) 2013-08-14
EP2355492A4 (en) 2013-12-04
US8432357B2 (en) 2013-04-30
EP2355492A1 (en) 2011-08-10
JPWO2011043060A1 (ja) 2013-03-04

Similar Documents

Publication Publication Date Title
JP5399502B2 (ja) 追尾対象選択装置、方法、プログラム及び回路
US9674507B2 (en) Monocular visual SLAM with general and panorama camera movements
WO2018112788A1 (zh) 图像处理方法及设备
JP6043293B2 (ja) 画像処理装置、撮像装置および画像処理方法
WO2017126172A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
KR20150055543A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2012103789A (ja) オブジェクト表示装置及びオブジェクト表示方法
KR101923177B1 (ko) 사용자 기반의 증강 현실 정보를 제공하기 위한 장치 및 방법
KR101647969B1 (ko) 사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램
CN109902725A (zh) 移动目标的检测方法、装置及电子设备和存储介质
US20210176404A1 (en) Electronic apparatus and method for controlling the same
US9489715B2 (en) Image display apparatus and image display method
US10235607B2 (en) Control device, control method, and computer program product
EP3629570A2 (en) Image capturing apparatus and image recording method
JP2019204518A (ja) 人物追跡方法、装置、機器及び記憶媒体
US9311522B2 (en) Apparatus and method for improving face recognition ratio
KR101308184B1 (ko) 윈도우 형태의 증강현실을 제공하는 장치 및 방법
JP5448952B2 (ja) 同一人判定装置、同一人判定方法および同一人判定プログラム
JP6175583B1 (ja) 画像処理装置、実寸法表示方法、及び実寸法表示処理プログラム
US10140766B2 (en) Apparatus and method of augmenting video
JP5383207B2 (ja) 情報処理装置、制御方法、コンピュータプログラム、および記憶媒体
CN114143442B (zh) 图像虚化方法、计算机设备、计算机可读存储介质
JP6525693B2 (ja) 画像処理装置及び画像処理方法
JP2017098851A (ja) 表示制御方法、表示制御プログラムおよび情報処理装置
KR20110087595A (ko) 디지털 영상 처리 장치 및 그 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131023

R150 Certificate of patent or registration of utility model

Ref document number: 5399502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350