JP5978639B2 - 画像処理装置、画像処理方法、プログラム、及び記録媒体 - Google Patents

画像処理装置、画像処理方法、プログラム、及び記録媒体 Download PDF

Info

Publication number
JP5978639B2
JP5978639B2 JP2012022679A JP2012022679A JP5978639B2 JP 5978639 B2 JP5978639 B2 JP 5978639B2 JP 2012022679 A JP2012022679 A JP 2012022679A JP 2012022679 A JP2012022679 A JP 2012022679A JP 5978639 B2 JP5978639 B2 JP 5978639B2
Authority
JP
Japan
Prior art keywords
tracking
face
face area
area
tracking target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012022679A
Other languages
English (en)
Other versions
JP2013162329A5 (ja
JP2013162329A (ja
Inventor
正典 村上
正典 村上
明 徳世
明 徳世
貴 辻村
貴 辻村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012022679A priority Critical patent/JP5978639B2/ja
Priority to PCT/JP2013/000428 priority patent/WO2013118450A1/en
Priority to CN201380007191.8A priority patent/CN104081757B/zh
Priority to US14/352,195 priority patent/US10225462B2/en
Priority to EP13705017.5A priority patent/EP2813066A1/en
Publication of JP2013162329A publication Critical patent/JP2013162329A/ja
Publication of JP2013162329A5 publication Critical patent/JP2013162329A5/ja
Application granted granted Critical
Publication of JP5978639B2 publication Critical patent/JP5978639B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本開示は、画像処理装置、画像処理方法、プログラム、及び記録媒体に関する。
特許文献1には、撮像画像から人物の顔領域を検出し、顔領域を追尾する技術が開示されている。特許文献1に開示された技術は、顔領域を追尾することで、人物を追尾することができる。
特開2004−283959号公報
しかし、特許文献1に開示された技術では、顔領域を検出することができない場合に、人物の追尾が途切れてしまっていた。このため、人物の追尾をより確実に行うことができる技術が望まれていた。
本開示のある観点によれば、撮像画像中の顔領域に基づいて被写体の部分領域を検出し、前記部分領域を追尾する追尾部を備える、画像処理装置が提供される。
本開示のある観点によれば、撮像画像中の顔領域に基づいて被写体の部分領域を検出し、前記部分領域を追尾することを含む、画像処理方法が提供される。
本開示のある観点によれば、コンピュータに、撮像画像中の顔領域に基づいて被写体の部分領域を検出し、前記部分領域を追尾する追尾機能を実現させる、プログラムが提供される。
本開示によれば、撮像画像中の顔領域に基づいて、被写体の部分領域を検出する。したがって、本開示によれば、顔領域を検出することができない場合であっても、部分領域を追尾することができる。
以上説明したように本開示によれば、人物の追尾をより確実に行うことができる。
本開示の実施形態に係る画像処理装置の構成を示すブロック図である。 画像処理装置による処理の手順をしめすフローチャートである。 画像処理装置による処理の手順をしめすフローチャートである。 画像処理装置による処理の手順をしめすフローチャートである。 画像処理装置による処理の手順をしめすフローチャートである。 画像処理装置による処理の手順をしめすフローチャートである。 画像処理装置により設定される体領域の例を示す説明図である。 画像処理装置により設定される体領域の例を示す説明図である。 画像処理装置により設定される体領域の例を示す説明図である。 新たに検出された顔領域と追尾対象の体領域との位置関係を判定する様子を示す説明図である。 追尾対象が顔領域から体領域に移行する様子を示す説明図である。 追尾対象が体領域から顔領域に移行する様子を示す説明図である。 画像処理装置による追尾処理の効果を説明するための説明図である。 画像処理装置による追尾処理の効果を説明するための説明図である。 画像処理装置による追尾処理の効果を説明するための説明図である。 画像処理装置による追尾処理の効果を説明するための説明図である。 本実施形態の変形例を説明するための説明図である。 本実施形態の変形例を説明するための説明図である。 人物の追尾が途切れた場合に行われる処理を説明するための説明図である。 本実施形態の変形例を説明するための説明図である。 本実施形態の変形例を説明するための説明図である。 本実施形態の変形例を説明するための説明図である。 本実施形態の変形例を説明するための説明図である。 本実施形態の変形例を説明するための説明図である。 本実施形態の変形例を説明するための説明図である。 本実施形態の効果を説明するための説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行なうものとする。
1.背景技術の検討
2.画像処理装置の構成
3.画像処理装置による処理の手順
4.画像処理装置による効果
5.各種変形例
6.まとめ
<1.背景技術の検討>
本発明者は、撮像画像中の人物を追尾する背景技術を検討することで、本実施形態に係る画像処理装置に想到するに至った。そこで、まず背景技術について検討する。
特許文献1には、撮像画像から人物の顔領域を検出し、顔領域を追尾する技術が開示されている。なお、特許文献1では、顔検出と肌色領域の検出を併用することで、追尾の精度の向上を図っている。一方、人物(被写体)の部分領域(人物の各部分のうち、顔以外の部分が描かれた領域)を撮像画像から抽出し、体領域を追尾する技術も提案されている。ここで、本実施形態では、部分領域は、人体の顔以外のあらゆる領域(たとえば、胴体が描かれた領域、手が描かれた領域等)であってもよい。本実施形態では、部分領域を体領域とも称する。これらの技術では、顔領域または体領域を追尾することで、人物を追尾することができる。これらの技術では、人物を追尾することで、人物の状態を認識することができるので、人物の状態に応じた各種パラメータ(例えば、撮像装置のフォーカス、明るさ等)の設定が可能になる。
しかし、これらの技術は各々独立しており、両者を併用した技術は何ら知られていなかった。また、顔領域を追尾する技術は、例えば人物が撮像レンズに対して背を向けた場合や、撮像レンズから遠くはなれている場合には、顔領域を検出することができなかった。そして、顔領域を追尾する技術では、人物が検出されない場合に、人物の追尾が途切れてしまっていた。
また、体領域を追尾する技術は、照度変化や人物の体勢の変化といった環境変化に弱かった。即ち、体領域を追尾する技術は、環境変化に対するロバスト性が低かった。したがって、体領域を追尾する技術では、環境の変化によって体領域の追尾、即ち人物の追尾が途切れる場合や、追尾の精度が落ちる場合があった。
これに対し、本実施形態に係る画像処理装置は、顔領域の追尾と体領域の追尾とを併用し、かつ、これらを適切に切り替えることで、人物の追尾をより確実に行なうことができる。以下、詳細に説明する。なお、本実施形態の画像処理装置1は、人物を含む各種の生体(人物、犬、猫等)を追尾することができる。勿論、画像処理装置1は、人物のみを追尾してもよいし、人物以外の動物のみを追尾してもよい。
<2.画像処理装置の構成>
次に、図1に基づいて、画像処理装置1の構成について説明する。画像処理装置1は、レンズ10と、撮像部20と、生体追尾部(追尾部)30と、表示部40と、外部IF(インタフェース)50とを備える。なお、画像処理装置1は、レンズ、撮像素子、CPU、ROM、RAM、フラッシュメモリ、ディスプレイ、コネクタ等のハードウェア構成を有する。ROMには、画像処理装置1に撮像部20と、生体追尾部30と、表示部40とを実現させるためのプログラムが記録されている。CPUは、ROMに記録されたプログラムを読みだして実行する。したがって、これらのハードウェア構成により、レンズ10と、撮像部20と、生体追尾部30と、表示部40と、外部IF(インタフェース)50とが実現される。
画像処理装置1は、レンズ10及び撮像部20を備えるので、撮像装置(例えばデジタルスチルカメラ)となっている。勿論、画像処理装置1は、レンズ10及び撮像部20を有していなくてもよい。この場合、画像処理装置1は、外部から撮像画像を取得し、この撮像画像に基づいて、人物を追尾する。また、画像処理装置1による処理に必要なプログラムは画像処理装置1内部のROMに記録されるが、外部記録媒体に記録されていてもよい。この場合、画像処理装置1は、例えば、外部記録媒体から上記のプログラムを読み出して実行することとなる。プログラムは、ネットワーク経由で提供されるものであってもよい。
撮像部20は撮像素子を有しており、レンズ10を介して外光を取り込み、撮像素子に照射することで、撮像画像を生成する。なお、図7に示すように、撮像画像にはxy軸が設定されている。撮像画像の水平方向に延びる軸がx軸、垂直方向に延びる軸がy軸となる。撮像部20は、撮像画像を生体追尾部30に出力する。撮像部20は、静止画及び動画の撮像を行うことができる。撮像部20は、動画を撮像する場合、動画の各フレームとなる撮像画像を所定時間毎に生成し、生体追尾部30に出力する。なお、以下の説明において、撮像画像は、特に説明がない限り、現フレームの撮像画像であるものとする。
生体追尾部30は、画像メモリ31と、顔検出部32と、顔照合部33と、体追尾部34と、追尾対象決定部35と、体領域検出部36と、特徴量抽出部37と、表示制御部38とを備える。画像メモリ31は、撮像部20から与えられた撮像画像を記憶する。また、画像メモリ31は、顔領域の特徴量と顔領域の識別情報とが関連付けられた顔領域リストを記憶する。ここで、顔領域の特徴量としては、顔領域の各パーツ(目、鼻、口等)の位置、形状、顔領域の輪郭等が挙げられる。
顔検出部32は、撮像画像から生体の顔領域を検出する顔検出処理を行う。顔照合部33は、現フレームの顔領域と顔領域リスト中の顔領域とを照合する顔照合処理を行う。さらに、顔照合部33は、追尾対象の顔領域、即ち追尾顔領域を追尾する顔追尾処理も行なう。体追尾部34は、体領域検出部36により設定された体領域を追尾する。即ち、体追尾部34は、体追尾処理を行なう。追尾対象決定部35は、顔領域及び体領域の少なくとも一方を追尾対象として決定する。体領域検出部36は、顔領域に対して所定の位置関係にある領域を追尾対象の体領域、即ち追尾体領域として設定する。特徴量抽出部37は、追尾体領域から特徴量を抽出する。表示制御部38は、撮像画像等を表示部40に表示する。これらの構成による具体的な処理については後述する。表示部40は、表示制御部38による制御により撮像画像等を表示する。外部IF50は画像処理装置1と外部の機器とを接続するためのインタフェースである。
<3.画像処理装置による処理の手順>
つぎに、画像処理装置1による処理の手順を図2〜図6に示すフローチャートに沿って説明する。
[全体処理]
まず、全体処理を図2に示すフローチャートに沿って説明する。ステップS10において、顔検出部32は顔検出処理を行なう。具体的には、顔検出部32は、画像メモリ31から撮像画像を取得し、撮像画像から顔領域を検出する。また、顔検出部32は、撮像画像中の顔領域に顔枠を重畳する。顔検出部32は、顔枠が重畳された撮像画像、即ち顔枠重畳画像を顔照合部33に出力する。
なお、本実施形態では、顔領域が上下逆さまになっている場合や、後ろ向きになっている場合には、検出の対象外とする。なお、顔領域が上下逆さまになっている場合にも検出の対象としてもよい。また、顔領域が後ろ向きになっている場合には、後述するように、顔領域の位置が推定されるようにしてもよい。
ここで、顔領域が上下逆さまになる場合とは、例えば、後述する第1の基準軸とy軸とのなす角度が−180度以上−135度未満となる場合、または、+135度より大きく+180度以下となる場合である(ステップS190参照)。
一方、顔領域が後ろ向きになっている場合とは、例えば、後述する第2の基準軸と光軸とのなす角度が−180度以上−135度未満となる場合、または、+135度より大きく+180度以下となる場合である(ステップS240参照)。
ステップS20において、顔照合部33は、顔照合処理及び顔追尾処理を行なう。具体的には、顔照合部33は、顔追尾枠重畳画像中の顔領域から特徴量を抽出し、抽出した特徴量と顔領域リスト中の特徴量とを照合することで、顔枠重畳画像中の顔領域と顔領域リスト中の識別情報とを関連付ける。また、顔照合部33は、顔領域リストに登録されていない新規顔領域、即ち前フレーム(現フレームの1つ前のフレーム)で検出されていない顔領域が顔枠重畳画像中に存在する場合には、新規顔領域に対応する顔枠を新規顔枠に変更する。なお、顔照合部33は、前フレームでも検出された顔領域を通常顔領域として扱う。
次いで、顔照合部33は、ユーザによる顔領域の指定操作があったか否かを判定する。顔照合部33は、ユーザによる顔領域の指定操作があったと判定した場合には、ユーザが指定した顔領域を追尾顔領域として設定し、追尾顔領域に関連付けられた識別情報を画像メモリ31に記憶する。ついで、顔照合部33は、追尾顔領域に顔追尾枠を重畳する。顔照合部33は、追尾顔領域を発見した旨の第1の顔発見情報を生成し、追尾対象決定部35に出力する。さらに、顔照合部33は、顔追尾枠が重畳された顔枠重畳画像、即ち顔追尾枠重畳画像を生成し、体領域検出部36及び表示制御部38に出力する。なお、顔追尾枠以外の顔枠は消去されてもよい。
一方、顔照合部33は、すでに追尾顔領域が設定されている場合には、追尾顔領域に関連付けられた識別情報(即ち、追尾対象識別情報)を画像メモリ31から取得し、追尾対象識別情報と同じ識別情報を有する顔領域を顔枠重畳画像から探索する。顔照合部33は、追尾対象識別情報と同じ識別情報を有する顔領域を発見した場合には、その顔領域を追尾顔領域とし、追尾顔領域に顔追尾枠を重畳する。顔照合部33は、追尾顔領域を発見した旨の第1の顔発見情報を生成し、追尾対象決定部35に出力する。さらに、顔照合部33は、顔追尾枠が重畳された顔枠重畳画像、即ち顔追尾枠重畳画像を生成し、体領域検出部36及び表示制御部38に出力する。
一方、顔照合部33は、追尾対象識別情報と同じ識別情報を有する顔領域を顔枠重畳画像から発見することができなかった場合には、追尾顔領域を発見できなかった旨の第2の顔発見情報を生成し、追尾対象決定部35に出力する。さらに、顔照合部33は、顔枠重畳画像を追尾対象決定部35及び表示制御部38に出力する。
次いで、顔照合部33は、前フレームで追尾対象決定部35から顔領域追尾継続情報が与えられたか否か(即ち、追尾対象が顔領域であるか否か)を判定する。顔照合部33は、前フレームで追尾対象決定部35から顔領域追尾継続情報が与えられたと判定した場合には、以下の顔追尾処理を行った後、ステップS30に進む。一方、顔照合部33は、前フレームで追尾対象決定部35から顔領域追尾継続情報が与えられないと判定した場合には、ステップS30に進む。以上が顔照合処理の内容である。
即ち、顔照合部33は、前フレームの追尾顔領域の近傍から現フレームの顔領域を探索する。顔照合部33は、前フレームの追尾顔領域の近傍から現フレームの顔領域を発見した場合には、発見された顔領域を追尾顔領域と判定し、追尾顔領域に顔追尾枠を重畳する。そして、顔照合部33は、前フレームの追尾顔領域の近傍から現フレームの顔領域を発見したことを示す第1の顔追尾結果情報を追尾対象決定部35に出力する。さらに、顔照合部33は、顔追尾枠重畳画像を体領域検出部36及び表示制御部38に出力する。
一方、顔照合部33は、前フレームの追尾顔領域の近傍から現フレームの顔領域を発見することができなかった場合には、顔追尾が行えなかったことを示す第2の顔追尾結果情報を追尾対象決定部35に出力する。
なお、顔検出部32及び顔照合部33は、追尾対象が顔領域であるか否かに関わらず、上述したステップS10及びS20の処理を行なう。
ステップS30において、体追尾部34は、追尾対象決定部35から起動指示情報が与えられたか否かを判定する。体追尾部34は、追尾対象決定部35から起動指示情報が与えられた場合には、ステップS40に進み、与えられない場合には、ステップS50に進む。
ステップS40において、体追尾部34は、画像メモリ31から撮像画像を取得する。次いで、体追尾部34は、特徴量抽出部37から与えられた特徴量情報に基づいて、体追尾処理を行なう。
具体的には、体追尾部34は、追尾体領域を撮像画像から探索する。体追尾部34は、追尾体領域を撮像画像から発見することができた場合には、追尾体領域の一部に体追尾枠を重畳する。次いで、体追尾部34は、追尾体領域を発見することができた旨の第1の体追尾結果情報と、体追尾枠が重畳された撮像画像、即ち体追尾枠重畳画像とを追尾対象決定部35に出力する。さらに、体追尾部34は、体追尾枠重畳画像を表示制御部38に出力する。体追尾枠は、顔追尾枠と異なる態様(例えば、色、大きさ、形状)で描かれる。
一方、体追尾部34は、追尾体領域を撮像画像から発見することができなかった場合には、追尾体領域を発見することができなかった旨の第2の体追尾結果情報を追尾対象決定部35に出力する。
ステップS50において、追尾対象決定部35は、図3に示す追尾対象決定処理を行なう。追尾対象決定処理は、概略的には、顔領域及び体領域のうち少なくとも一方を追尾対象として決定する処理である。追尾対象決定部35は、顔領域を追尾対象として決定した場合には、その旨の顔領域追尾継続情報を顔照合部33に出力する。顔照合部33は、顔領域追尾継続情報が与えられた場合には、次フレームで上述した顔追尾処理を継続して行なう。一方、追尾対象決定部35は、体領域を追尾対象として決定した場合には、後述するステップS100において、起動指示情報を体追尾部34に出力する。なお、追尾対象決定部35は、顔領域を追尾対象として決定し、かつ、顔領域の信頼度が所定値以下となる場合にも、起動指示情報を体追尾部34に出力する。即ち、本実施形態では、顔領域及び体領域が並行して追尾される場合がある。
ステップS60において、追尾対象決定部35は、追尾対象が顔領域であるか否かを判定する。追尾対象決定部35は、追尾対象が顔領域であると判定した場合には、ステップS70に進み、追尾対象が体領域であると判定した場合には、ステップS100に進む。
ステップS70において、追尾対象決定部35は、体領域の検出を指示する旨の体領域検出指示情報を体領域検出部36に出力する。体領域検出部36は、体領域検出指示情報が与えられた場合に、図4に示す体領域検出処理を行なう。体領域検出処理は、概略的には、顔領域と所定の位置関係にある領域を検索体領域として検出する処理である。ここで、所定の位置関係とは、概略的には、顔領域と体領域とが顔領域の首部分で連結される位置関係を意味する。この領域及び体領域は、同一の被写体(生体)を構成すると推測される。また、体領域は、生体の各部分のうち、顔以外の任意の部分を示す。体領域検出部36は、体領域に関する体領域情報を特徴量抽出部37に出力する。
ステップS80において、特徴量抽出部37は、体領域情報に基づいて、体領域の特徴量を体領域から抽出する。ここで、体領域の特徴量としては、体の色(服の色)等が挙げられる。特徴量抽出部37はは、体領域の特徴量に関する特徴量情報を生成し、体追尾部34に出力する。体追尾部34は、特徴量情報に基づいて、次フレームで体追尾処理を行なう。
ステップS90において、顔照合部33は、顔登録処理を行なう。具体的には、顔照合部33は、新規顔領域の特徴量及び新規顔領域に対応する識別情報を顔領域リストに登録する。
ステップS100において、追尾対象決定部35は、次回の追尾対象判定処理を行なう。次回の追尾対象判定処理は、概略的には、次フレームで体追尾処理を行うか否かを決定する処理である。その後、画像処理装置1は処理を終了する。
[追尾対象決定処理]
次に、図3に基づいて、追尾対象決定処理の手順について説明する。ステップS110において、追尾対象決定部35は、照合処理で追尾顔領域が発見されたか否かを判定する。具体的には、追尾対象決定部35は、顔照合部33から第1の顔発見情報が与えられたか否かを判定する。追尾対象決定部35は、第1の顔発見情報が与えられたと判定した場合には、ステップS120に進み、第1の顔発見情報ではなく第2の顔発見情報が与えられたと判定した場合には、ステップS130に進む。
ステップS120において、追尾対象決定部35は、追尾対象を顔領域に決定する。即ち、追尾対象決定部35は、照合処理によって追尾顔領域と同じ顔領域が発見された場合には、追尾対象を顔領域に決定する。その後、追尾対象決定部35は、追尾対象決定処理を終了する。
ステップS130において、追尾対象決定部35は、顔照合部33が顔追尾中であり、かつ追尾顔領域を検出することができたか否かを判定する。具体的には、追尾対象決定部35は、顔照合部33から第1の顔追尾結果情報が与えられたか否かを判定する。追尾対象決定部35は、顔照合部33から第1の顔追尾結果情報が与えられたと判定した場合には、ステップS120に進み、顔照合部33から第1の顔追尾結果情報ではなく第2の顔追尾結果情報が与えられたと判定した場合には、ステップS140に進む。したがって、追尾対象決定部35は、顔追尾処理によって追尾顔領域と同じ顔領域が発見された場合にも、追尾対象を顔領域に決定する。
ステップS140において、追尾対象決定部35は、体追尾処理が成功したか否かを判定する。具体的には、追尾対象決定部35は、体追尾部34から第1の体追尾結果情報が与えられたか否かを判定する。追尾対象決定部35は、体追尾部34から第1の体追尾結果情報が与えられたと判定した場合には、ステップS150に進み、体追尾部34から第1の体追尾結果情報ではなく第2の体追尾結果情報が与えられたと判定した場合には、ステップS180に進む。
ステップS150において、追尾対象決定部35は、結びつき判定処理を行う。結びつき判定処理は、概略的には、新規顔領域と追尾体領域とを結びつける処理である。追尾対象決定部35は、新規顔領域と追尾体領域とが上述した所定の位置関係にある、即ち同一の被写体を構成すると推定される場合には、これらを結びつける。
ステップS160において、追尾対象決定部35は、新規顔領域と追尾体領域とが結びついたか否かを判定し、これらが結びついたと判定した場合には、ステップS120に進み、これらが結びつかないと判定した場合には、ステップS170に進む。したがって、追尾対象決定部35は、現フレームの照合処理及び顔追尾処理で新規顔領域が発見されない場合であっても、新規顔領域が追尾体領域に結びつく場合には、追尾対象を顔領域に設定する。
ステップS170において、追尾対象決定部35は、追尾対象を体領域に設定する。したがって、追尾対象決定部35は、現フレームの照合処理及び顔追尾処理で新規顔領域が発見されず、かつ、新規顔領域が追尾体領域に結びつかない場合に、追尾対象を体領域に設定する。その後、追尾対象決定部35は、追尾対象決定処理を終了する。
ステップS180において、追尾対象決定部35は、追尾を終了する旨の決定を行なう。追尾顔領域及び追尾体領域のいずれも発見されないからである。その後、追尾対象決定部35は、追尾対象決定処理を終了する。
[体領域検出処理]
次に、図4に基づいて、体領域検出処理の手順について説明する。ステップS190において、体領域検出部36は、追尾顔領域のロール方向の向きが正面であるか否かを判定する。ここで、ロール方向は、撮像画像上での回転方向である。具体的には、体領域検出部36は、まず、顔領域の首部分が延びる方向に平行な第1の基準軸を設定する。そして、体領域検出部36は、第1の基準軸を、追尾顔領域内の各パーツ(目、鼻、口等)の位置に基づいて調整する。例えば、体領域検出部36は、両目を結ぶ直線と第1の基準軸とが直交しない場合、これらが直交するように、第1の基準軸を回転させる。第1の基準軸は、目から首に向かう方向が正方向となる。
次いで、体領域検出部36は、第1の基準軸とy軸とがなす角度を検出する。体領域検出部36は、これらの軸がなす角度が−45度より大きく+45度より小さい場合に、追尾顔領域のロール方向が正面方向であると判定する。なお、体領域検出部36による判定の基準となる角度については、ここで示される値に限られない。以下同様である。第1の基準軸とy軸とのなす角度は、被写体が直立した際に0度となり、左回り方向を正方向とする。図7(a)に追尾顔領域のロール方向が正面方向である例を示す。この例では、顔追尾枠重畳画像100に追尾顔領域210及び顔追尾枠300が描かれており、第1の基準軸とy軸とのなす角度はほぼ0度となっている。
体領域検出部36は、追尾顔領域のロール方向が正面方向であると判定した場合には、ステップS200に進み、追尾顔領域のロール方向が正面方向以外であると判定した場合には、ステップS210に進む。
ステップS200において、体領域検出部36は、追尾顔領域の首部分に隣接し、かつ、第1の基準軸正方向に長く延びる(第1の基準軸正方向の長さがこの軸に垂直な方向の長さよりも長い)領域を追尾体領域として検出(設定)する。例えば、体領域検出部36は、図7(a)に示す例では、追尾顔領域210の下方向に縦長の領域400を設定し、これを追尾体領域とする。
次いで、体領域検出部36は、追尾体領域の形状を追尾顔領域の大きさ、世代情報、及び性別情報に基づいて調整する。ここで、世代情報は、例えば赤ん坊、子供、大人の区分である。例えば、体領域検出部36は、追尾顔領域が大きいほど、追尾体領域を大きくする。追尾顔領域が大きいほど、被写体の年齢が高く、追尾体領域も大きいと推定されるからである。また、体領域検出部36は、追尾顔領域に対する追尾体領域の大きさの比を、追尾顔領域が示す世代が若いほど小さくする。赤ん坊や子供は、頭の大きさに対して体が小さいからである。また、体領域検出部36は、男性の体領域よりも女性の体領域の方が小さくなるように体領域を調整する。その後、体領域検出部36は、ステップS240に進む。
ステップS210において、体領域検出部36は、追尾顔領域のロール方向の向きが左傾きであるか否かを判定する。体領域検出部36は、追尾顔領域のロール方向の向きが左傾きであると判定した場合には、ステップS220に進み、追尾顔領域のロール方向の向きが右傾きであると判定した場合には、ステップS230に進む。
体領域検出部36は、第1の基準軸とy軸とがなす角度が+45度以上+135度以下である場合に、追尾顔領域のロール方向の向きが左傾きであると判定する。図7(b)に追尾顔領域のロール方向の向きが左傾きである例を示す。この例では、顔追尾枠重畳画像100に追尾顔領域210及び顔追尾枠300が描かれており、第1の基準軸とy軸とのなす角度はほぼ90度となっている。
一方、体領域検出部36は、第1の基準軸とy軸とがなす角度が−135度以上−45度以下である場合に、追尾顔領域のロール方向の向きが右傾きであると判定する。追尾顔領域のロール方向の向きが右傾きである例を図7(c)に示す。この例では、顔追尾枠重畳画像100に追尾顔領域210及び顔追尾枠300が描かれており、第1の基準軸とy軸とのなす角度はほぼ−90度となっている。
ステップS220において、体領域検出部36は、追尾顔領域の首部分に隣接し、かつ、第1の基準軸正方向に長く延びる領域を追尾体領域として検出(設定)する。例えば、体領域検出部36は、図7(b)に示す例では、追尾顔領域210の右方向に横長の領域400を設定し、これを追尾体領域とする。次いで、体領域検出部36は、追尾顔領域の形状を追尾顔領域の大きさ、世代情報、及び性別情報に基づいて調整する。その後、体領域検出部36は、ステップS240に進む。
ステップS230において、体領域検出部36は、追尾顔領域の首部分に隣接し、かつ、第1の基準軸正方向に長く延びる領域を追尾体領域として検出(設定)する。図7(c)に示す例では、体領域検出部36は、追尾顔領域210の左方向に横長の領域400を設定し、これを追尾体領域とする。次いで、体領域検出部36は、追尾顔領域の形状を追尾顔領域の大きさ、世代情報、及び性別情報に基づいて調整する。その後、体領域検出部36は、ステップS240に進む。
ステップS240において、体領域検出部36は、追尾顔領域のヨー方向の向きが正面であるか否かを判定する。ここで、ヨー方向は、第1の基準軸に垂直な平面(即ち、ヨー方向基準面)上での回転方向である。具体的には、体領域検出部36は、まず、被写体の視線をヨー方向基準面に投影した軸を第2の基準軸として設定する。第2の基準軸は、被写体からレンズ10に向かう方向が正方向となる。そして、体領域検出部36は、第2の基準軸を、追尾顔領域内の各パーツ(目、鼻、口等)の位置に基づいて調整する。例えば、体領域検出部36は、口の中央点をヨー方向基準面に投影した投影点を第2の基準軸が通らない場合、第2の基準軸が投影点を通るように、第2の基準軸の位置を調整する。
次いで、体領域検出部36は、第2の基準軸と光軸とがなす角度を検出する。体領域検出部36は、これらの軸がなす角度が−10度より大きく+10度より小さい場合に、追尾顔領域のヨー方向の向きが正面であると判定する。ここで、光軸は、被写体からレンズ10に向かう方向を正方向とする。第2の基準軸と光軸とのなす角度は、被写体がレンズ10側に向いており、かつ、第2の基準軸が光軸に並行となる場合0度となり、ヨー方向基準面上で左回り方向を正方向とする。図8(a)に追尾顔領域のヨー方向の向きが正面である例を示す。この例では、顔追尾枠重畳画像100に追尾顔領域210及び顔追尾枠300が描かれており、第2の基準軸と光軸とのなす角度はほぼ0度となっている。
体領域検出部36は、追尾顔領域のヨー方向の向きが正面であると判定した場合には、ステップS310に進み、追尾顔領域のヨー方向の向きが正面以外であると判定した場合には、ステップS250に進む。
ステップS250において、体領域検出部36は、追尾顔領域のヨー方向の向きが左向きであるか否かを判定する。体領域検出部36は、第2の基準軸と光軸とがなす角度が−135度以上−10度以下である場合に、追尾顔領域のヨー方向の向きが左向きであると判定する。図8(b)、(c)に追尾顔領域のヨー方向の向きが左向きである例を示す。図8(b)に示す例では、顔追尾枠重畳画像100に追尾顔領域210及び顔追尾枠300が描かれており、第2の基準軸と光軸とのなす角度は−30度程度となっている。図8(c)に示す例では、顔追尾枠重畳画像100に追尾顔領域210及び顔追尾枠300が描かれており、第2の基準軸と光軸とのなす角度は−90度程度となっている。
一方、体領域検出部36は、第2の基準軸と光軸とがなす角度が+10度以上+135度以下である場合に、追尾顔領域のヨー方向の向きが右向きであると判定する。図8(d)、(e)に追尾顔領域のヨー方向の向きが右向きである例を示す。図8(d)に示す例では、顔追尾枠重畳画像100に追尾顔領域210及び顔追尾枠300が描かれており、第2の基準軸と光軸とのなす角度は+30度程度となっている。図8(e)に示す例では、顔追尾枠重畳画像100に追尾顔領域210及び顔追尾枠300が描かれており、第2の基準軸と光軸とのなす角度は+90度程度となっている。
体領域検出部36は、追尾顔領域のヨー方向の向きが左向きであると判定した場合には、ステップS260に進み、追尾顔領域のヨー方向の向きが右向きであると判定した場合には、ステップS290に進む。
ステップS260において、体領域検出部36は、第2の基準軸と光軸とのなす角度が−45度以上−10度以下であるか否かを判定する。即ち、体領域検出部36は、追尾顔領域のヨー方向への回転が僅かであるか否かを判定する。体領域検出部36は、第2の基準軸と光軸とのなす角度が−45度以上−10度以下である(即ち、追尾顔領域のヨー方向への回転が僅かである)と判定した場合には、ステップS270に進む。一方、体領域検出部36は、第2の基準軸と光軸とのなす角度が−45度より小さい(即ち、ヨー方向への回転が大きい)と判定した場合には、ステップS280に進む。
ステップS270において、体領域検出部36は、第2の基準軸の回転方向と反対方向に少し追尾体領域を移動させる。例えば、体領域検出部36は、第2の基準軸の回転方向と反対方向に顔追尾枠300の幅(x軸方向の長さ)の1/4程度だけ追尾体領域を移動させる。例えば、図8(b)に示す例では、追尾顔領域210は撮像画像中左方向に回転しているので、体領域検出部36は、右方向に顔追尾枠300の幅の1/4程度だけ追尾体領域400を移動させる。その後、体領域検出部36は、ステップS320に進む。
ステップS280において、体領域検出部36は、第2の基準軸の回転方向と反対方向に大きく追尾体領域を移動させる。例えば、体領域検出部36は、第2の基準軸の回転方向と反対方向に顔追尾枠300の幅の1/2程度だけ追尾体領域を移動させる。例えば、図8(c)に示す例では、追尾顔領域210は撮像画像中左方向に回転しているので、体領域検出部36は、右方向に顔追尾枠300の幅の1/2程度だけ追尾体領域400を移動させる。その後、体領域検出部36は、ステップS320に進む。
ステップS290において、体領域検出部36は、第2の基準軸と光軸とのなす角度が+10度以上+45度以下であるか否かを判定する。即ち、体領域検出部36は、追尾顔領域のヨー方向への回転が僅かであるか否かを判定する。体領域検出部36は、第2の基準軸と光軸とのなす角度が+10度以上+45度以下であると判定した場合には、ステップS300に進む。一方、体領域検出部36は、第2の基準軸と光軸とのなす角度が+45度より大きい(即ち、ヨー方向への回転が大きい)と判定した場合には、ステップS310に進む。
ステップS300において、体領域検出部36は、第2の基準軸の回転方向と反対方向に少し追尾体領域を移動させる。例えば、体領域検出部36は、第2の基準軸の回転方向と反対方向に顔追尾枠300の幅(x軸方向の長さ)の1/4程度だけ追尾体領域を移動させる。例えば、図8(d)に示す例では、追尾顔領域210は撮像画像中右方向に回転しているので、体領域検出部36は、左方向に顔追尾枠300の幅の1/4程度だけ追尾体領域400を移動させる。その後、体領域検出部36は、ステップS320に進む。
ステップS310において、体領域検出部36は、第2の基準軸の回転方向と反対方向に大きく追尾体領域を移動させる。例えば、体領域検出部36は、第2の基準軸の回転方向と反対方向に顔追尾枠300の幅の1/2程度だけ追尾体領域を移動させる。例えば、図8(e)に示す例では、追尾顔領域210は撮像画像中右方向に回転しているので、体領域検出部36は、左方向に顔追尾枠300の幅の1/2程度だけ追尾体領域400を移動させる。その後、体領域検出部36は、ステップS320に進む。
ステップS320において、体領域検出部36は、追尾顔領域のピッチ方向(首の長さ方向)の向き及び回転角度に基づいて追尾体領域を調整する。ここで、ピッチ方向は、第1の基準軸及び光軸を含む平面(即ち、ピッチ方向基準面)上での回転方向である。具体的には、体領域検出部36は、まず、被写体の視線をピッチ方向基準面に投影した軸を第3の基準軸として設定する。第3の基準軸は、被写体からレンズ10に向かう方向が正方向となる。そして、体領域検出部36は、第3の基準軸を、追尾顔領域内の各パーツ(目、鼻、口等)の位置に基づいて調整する。例えば、体領域検出部36は、鼻と口の中心点とを通る直線をピッチ方向基準面に投影した投影直線と第3の基準軸とが直交しない場合には、これらが直交するように、第3の基準軸を回転させる。
次いで、体領域検出部36は、第3の基準軸と光軸とがなす角度、即ち追尾顔領域のピッチ方向への回転角度を検出する。ここで、追尾顔領域のピッチ方向への回転角度は、被写体がレンズ10側に向いており、かつ、第3の基準軸と光軸とが平行となる際に0度となり、ピッチ方向基準面上で左回り方向を正方向とする。追尾顔領域のピッチ方向への回転角度は、概略的には、被写体が顔を体に近づけた際に負の値となり、被写体が顔を体から遠ざけた際に正の値となる。体領域検出部36は、追尾顔領域のピッチ方向への回転角度が正の値となる場合、回転角度の絶対値が大きいほど追尾体領域を第1の基準軸正方向に大きくする。一方、体領域検出部36は、追尾顔領域のピッチ方向への回転角度が負の値となる場合、回転角度の絶対値が大きいほど追尾体領域を第1の基準軸正方向に小さくする。
次いで、体領域検出部36は、追尾体領域のうち、撮像画像外にはみ出した領域を切り取る。ここで、追尾体領域の一部が撮像画像外にはみ出す場合としては、例えば、追尾顔領域が撮像画像の端部に配置されている場合、追尾顔領域が非常に大きい場合等が挙げられる。図9(a)に追尾体領域の一部が撮像画像の外にはみ出す例を示す。図9(a)に示す例では、顔追尾枠重畳画像100に追尾顔領域210及び顔追尾枠300が描かれており、追尾体領域400の一部が顔追尾枠重畳画像100の下方にはみ出している。
ステップS330において、体領域検出部36は、追尾体領域が追尾顔領域に対して一定以上の大きさを有するか否かを判定する。体領域検出部36は、追尾体領域が追尾顔領域に対して一定以上の大きさを有すると判定した場合には、体領域検出処理を終了し、追尾体領域が追尾顔領域に対して一定未満の大きさしか有しないと判定した場合には、ステップS335に進む。
ステップS335において、体領域検出部36は、追尾体領域を追尾顔領域方向に拡張する。追尾体領域が追尾顔領域方向に拡張される例を図9(b)に示す。図9(b)に示すように、ステップS335の処理が行われた場合、追尾体領域の一部は追尾顔領域に重畳される。なお、拡張される領域の大きさは、ステップS320で切り取られた領域と略同じであればよい。その後、体領域検出部36は、体領域検出処理を終了する。
なお、体領域検出部36は、追尾顔領域の周辺領域の動き情報(動きベクトル)、撮像画像以外の情報(例えば、赤外線情報、距離情報、サーモグラフ情報等)を併用することで、追尾体領域を検出してもよい。例えば、体領域検出部36は、追尾顔領域と同じ動きをする領域を追尾体領域として検出してもよい。さらに、体領域検出部36は、追尾顔領域と同じ温度を有する領域を追尾体領域として検出してもよい。さらに、体領域検出部36は、レンズ10からの距離が追尾顔領域と同じである領域を追尾体領域として検出してもよい。
[結びつき判定処理]
次に、図5に基づいて、ステップS150に示す結びつき判定処理について説明する。ステップS340において、追尾対象決定部35は、顔照合部33から与えられた顔枠重畳画像と、体追尾部34から与えられた体追尾枠重畳画像とを合成することで、結びつき判定用画像を生成する。顔照合部33が新規顔領域を発見した場合、この結びつき判定用画像には、新規顔領域及び新規顔枠が含まれる。また、結びつき判定用画像には、体追尾枠が含まれる。次いで、追尾対象決定部35は、体追尾枠の重心を算出する。体追尾枠の重心は、例えば体追尾枠の中心点となる。
ステップS350において、追尾対象決定部35は、新規顔領域のロール方向の向きが正面であるか否かを判定する。具体的な処理内容はステップS190と同様である。追尾対象決定部35は、新規顔領域のロール方向が正面方向であると判定した場合には、ステップS360に進み、新規顔領域のロール方向が正面方向以外であると判定した場合には、ステップS370に進む。
ステップS360において、体領域検出部36は、新規顔領域の首部分に隣接し、かつ、第1の基準軸正方向に長く延びる領域を検索領域として設定する。なお、体領域検出部36は、第1の基準軸に直交する方向にも検索領域を広げる。図10(a)に検索領域の例を示す。この例では、結びつき判定用画像110に新規顔領域220及び新規顔枠310が描かれており、新規顔領域のロール方向の向きが正面となっている。また、追尾対象決定部35は、新規顔領域220の下方向に縦長の検索領域440を設定する。
次いで、追尾対象決定部35は、追尾顔領域の形状を追尾顔領域の大きさ、世代情報、及び性別情報に基づいて調整する。具体的な処理内容は上述したステップS200と同様である。
ステップS370において、追尾対象決定部35は、追尾顔領域のロール方向の向きが左傾きであるか否かを判定する。具体的な処理内容はステップS210と同様である。追尾対象決定部35は、追尾顔領域のロール方向の向きが左傾きであると判定した場合には、ステップS380に進み、追尾顔領域のロール方向の向きが右傾きであると判定した場合には、ステップS390に進む。
ステップS380において、追尾対象決定部35は、追尾顔領域の首部分に隣接し、かつ、第1の基準軸正方向に長く延びる領域を検索領域として設定する。なお、体領域検出部36は、第1の基準軸に直交する方向にも検索領域を広げる。図10(b)に検索領域の例を示す。この例では、結びつき判定用画像110に新規顔領域220及び新規顔枠310が描かれており、新規顔領域のロール方向の向きが左傾きとなっている。また、追尾対象決定部35は、新規顔領域220の右方向に横長の検索領域440を設定する。次いで、追尾対象決定部35は、新規顔領域の形状を新規顔領域の大きさ、世代情報、及び性別情報に基づいて調整する。その後、追尾対象決定部35は、ステップS400に進む。
ステップS390において、追尾対象決定部35は、新規顔領域の首部分に隣接し、かつ、第1の基準軸正方向に長く延びる領域を検索領域として設定する。なお、体領域検出部36は、第1の基準軸に直交する方向にも検索領域を広げる。また、ステップS390の処理が行われる場合、新規顔領域のロール方向の向きは右傾きとなっている。図10(c)に検索領域の例を示す。この例では、結びつき判定用画像110に新規顔領域220及び新規顔枠310が描かれており、新規顔領域のロール方向の向きが右傾きとなっている。また、追尾対象決定部35は、新規顔領域220の左方向に横長の検索領域440を設定する。次いで、体領域検出部36は、新規顔領域の形状を新規顔領域の大きさ、世代情報、及び性別情報に基づいて調整する。その後、体領域検出部36は、ステップS400に進む。
ステップS400において、追尾対象決定部35は、新規顔領域のヨー方向の向きが正面であるか否かを判定する。具体的な処理内容はステップS240と同様である。追尾対象決定部35は、新規顔領域のヨー方向の向きが正面であると判定した場合には、ステップS480に進み、新規顔領域のヨー方向の向きが正面以外であると判定した場合には、ステップS410に進む。
ステップS410において、追尾対象決定部35は、新規顔領域のヨー方向が左向きであるか否かを判定する。具体的な処理内容はステップS250と同様である。追尾対象決定部35は、新規顔領域のヨー方向の向きが左向きであると判定した場合には、ステップS420に進み、新規顔領域のヨー方向の向きが右向きであると判定した場合には、ステップS450に進む。
ステップS420において、追尾対象決定部35は、新規顔領域のヨー方向への回転が僅かであるか否かを判定する。具体的な処理内容はステップS260と同様である。追尾対象決定部35は、新規顔領域のヨー方向への回転が僅かであると判定した場合には、ステップS430に進む。一方、追尾対象決定部35は、ヨー方向への回転が大きいと判定した場合には、ステップS440に進む。
ステップS430において、追尾対象決定部35は、第2の基準軸の回転方向と反対方向に少し検索領域を移動させる。具体的な処理内容は、ステップS270と同様である。その後、追尾対象決定部35は、ステップS480に進む。
ステップS440において、追尾対象決定部35は、第2の基準軸の回転方向と反対方向に大きく検索領域を移動させる。具体的な処理内容は、ステップS280と同様である。その後、追尾対象決定部35は、ステップS480に進む。
ステップS450において、追尾対象決定部35は、新規顔領域のヨー方向への回転が僅かであるか否かを判定する。具体的な処理内容はステップS290と同様である。追尾対象決定部35は、新規顔領域のヨー方向への回転が僅かであると判定した場合には、ステップS460に進む。一方、追尾対象決定部35は、ヨー方向への回転が大きいと判定した場合には、ステップS470に進む。
ステップS460において、追尾対象決定部35は、第2の基準軸の回転方向と反対方向に少し検索領域を移動させる。具体的な処理内容はステップS300と同様である。その後、追尾対象決定部35は、ステップS480に進む。
ステップS470において、追尾対象決定部35は、第2の基準軸の回転方向と反対方向に大きく検索領域を移動させる。具体的な処理内容はステップS310と同様である。その後、追尾対象決定部35は、ステップS480に進む。
ステップS480において、追尾対象決定部35は、検索領域内に体追尾枠の重心が存在するか否かを判定する。図10(a)に、検索領域内に体追尾枠の重心が存在する例を示す。図10(a)に示す例では、結びつき判定用画像110に体追尾枠420及び重心430が重畳されており、重心430が検索領域440内に存在する。同様に、図10(d)に、検索領域外に体追尾枠の重心が存在する例を示す。図10(d)に示す例では、結びつき判定用画像110に体追尾枠420及び重心430が重畳されており、重心430が検索領域440外に存在する。
追尾対象決定部35は、検索領域内に体追尾枠の重心が存在すると判定した場合には、ステップS490に進み、検索領域外に体追尾枠の重心が存在すると判定した場合には、ステップS500に進む。
ステップS490において、追尾対象決定部35は、新規顔領域と追尾体領域とが上述した所定の位置関係にあると判定し、これらを結びつける。その後、追尾対象決定部35は、結びつき判定処理を終了する。一方、ステップS500において、追尾対象決定部35は、新規顔領域と追尾体領域とが所定の位置関係にないと判定し、これらを結びつけない。その後、追尾対象決定部35は、結びつき判定処理を終了する。
なお、追尾対象決定部35は、新規顔領域の周辺領域の動き情報(動きベクトル)、撮像画像以外の情報(例えば、赤外線情報、距離情報、サーモグラフ情報等)を併用することで、検索領域を設定してもよい。具体的な処理内容は、体領域検出処理と同様である。
[次回の追尾対象判定処理]
次に、図6に基づいて、次回の追尾対象判定処理について説明する。ステップS510において、追尾対象決定部35は、体領域が追尾対象となっているか否かを判定する。なお、追尾対象は、図3に示す追尾対象決定処理により決定される。追尾対象決定部35は、体領域が追尾対象となっている場合には、ステップS520に進み、顔領域が追尾対象となっている場合には、ステップS530に進む。
ステップS520において、追尾対象決定部35は、体追尾部34を起動する。具体的には、追尾対象決定部35は、起動指示情報を体追尾部34に起動する。これにより、次フレームから体追尾処理が開始される。その後、追尾対象決定部35は、次回の追尾対象判定処理を終了する。
ステップS530において、追尾対象決定部35は、追尾顔領域の信頼度が所定値以下であるか否かを判定する。追尾対象決定部35は、追尾顔領域の信頼度が所定値以下であると判定した場合には、ステップS520に進み、追尾顔領域の信頼度が所定値を超えると判定した場合には、ステップS540に進む。したがって、追尾対象決定部35は、追尾対象が顔領域である場合であっても、顔領域の信頼度が低い場合には、顔追尾と体追尾とを並行して行う。追尾顔領域の信頼度は、追尾顔領域のヨー方向の回転角度の絶対値が大きくなるほど小さくなる。ステップS540において、追尾対象決定部35は、体追尾部34を起動しない。その後、追尾対象決定部35は、次回の追尾対象判定処理を終了する。
このように、生体追尾部30は、原則として追尾対象を顔領域とする。即ち、生体追尾部30は、現フレームの照合処理で追尾顔領域が発見された場合には、追尾対象を顔領域とする。さらに、生体追尾部30は、現フレームの顔追尾処理で追尾顔領域が発見された場合にも、追尾対象を顔領域とする。さらに、生体追尾部30は、追尾対象が体領域となっていても、新規顔領域と追尾体領域とが結びつく場合には、追尾対象を顔領域に変更する。
ただし、生体追尾部30は、現フレームで追尾顔領域が発見されず、かつ、新規顔領域が追尾体領域に結びつかなかった場合、追尾対象を体領域とする。そして、生体追尾部30は、追尾対象が体領域となる場合、または、追尾顔領域の信頼度が低い場合には、次フレームで体追尾処理を開始する。即ち、生体追尾部30は、現フレームで発見された追尾顔領域の信頼度が低い場合には、次フレームでは顔追尾処理と体追尾処理とを並行して行う。生体追尾部30が原則として追尾対象を顔領域とする理由としては、例えば、顔追尾処理の方が体追尾処理よりも環境の変化に対するロバスト性が大きいことが挙げられる。
また、生体追尾部30は、顔追尾処理中は、常に追尾体領域を検出する。これにより、生体追尾部30は、常に最新の(即ち、現在の環境に応じた)追尾体領域を認識することができる。
[表示制御部による処理]
次に、表示制御部38が表示部40に表示する画像の例を説明する。表示制御部38は、各構成から与えられた画像を合成することで表示用画像120を生成し、これを表示部40に表示する。図11(a)〜(d)、図12(a)〜(d)は表示用画像120の例である。表示制御部38は、現フレームでの追尾対象が顔領域となっている場合、例えば図11(a)に示す表示用画像120を表示部40に表示する。
この表示用画像120には、人物画像200、追尾顔領域210、及び顔追尾枠300が描かれている。人物画像200はレンズ10に対し正面を向いている。なお、体領域検出部36は、表示制御部38による処理と平行して、追尾体領域400を検出する。
その後、人物画像200のヨー方向が変化すると、追尾顔領域210の信頼度が低下する。しかし、追尾顔領域210の信頼度が高い場合には、追尾対象は顔領域のままであり、かつ、体追尾部34は起動しない。したがって、表示制御部38は、図11(b)に示すように、図11(a)と同様の表示用画像120を表示する。
その後、追尾顔領域210の信頼度が所定値以下となった場合には、追尾対象は顔領域のままであるが、体追尾部34が起動する。この場合、表示制御部38には、顔追尾枠重畳画像及び体追尾枠重畳画像が与えられる。そこで、表示制御部38は、図11(c)に示すように、これらの画像を合成したものを表示用画像120として表示部40に表示する。表示用画像120には、顔追尾枠300及び体追尾枠420が両方描かれる。
その後、追尾顔領域が検出されなくなると、表示制御部38には、顔枠重畳画像及び体追尾枠重畳画像が与えられる。そこで、表示制御部38は、図11(d)に示すように、これらの画像を合成したものを表示用画像120として表示部40に表示する。ただし、顔領域が検出されていないので、表示用画像120には顔領域が描かれない。なお、この場合であっても、顔検出部32及び顔照合部33は起動しつづけている。
新規顔領域が検出されない状態では、表示制御部38は、同様の画像を表示する(図11(e)〜図12(a)、(b)参照)。これにより、ユーザは、現在の追尾対象を容易に把握できると共に、追尾対象が切り替わるタイミングも容易に把握することができる。
その後、新規顔領域が発見されると、顔枠重畳画像には、新規顔枠が含まれる。この場合、表示制御部38は、図12(c)に示す表示用画像120を表示部40に表示する。この表示用画像120には、新規顔領域220及び新規顔枠310が描かれる。一方、追尾対象決定部35は、表示制御部38による処理と並行して、結びつき判定処理を行なう。図12(c)に示す例では、新規顔領域220と体追尾枠420とが所定の位置関係にあるので、新規顔領域220が追尾顔領域210とされ、新規顔枠310が顔追尾枠300とされる。さらに、体追尾部34が停止する。したがって、表示制御部38は、次フレームでは、図12(d)に示す表示用画像120を表示する。この表示用画像120には、追尾顔領域210及び顔追尾枠300が描かれる。
<4.画像処理装置による効果>
次に、画像処理装置1による効果の例について、いくつか説明する。図13(a)〜(c)は、表示部40に表示される表示用画像120の一例を示す。これらの表示用画像120には、人物画像200及び犬画像500が描かれる。また、犬画像500の体領域に体追尾枠600が重畳されている。即ち、犬画像500が追尾対象となっている。一方、人物画像200の顔領域は、通常顔領域230、即ち前フレームでも検出された顔領域となっている。したがって、通常顔領域230には、顔枠320が重畳されている。即ち、物体追尾部34が追尾対象である犬画像500を追尾する一方で、顔検出部32及び顔照合部33は、顔検出処理及び顔照合処理を継続して行なう。したがって、撮像部20は、犬画像500の追尾中であっても、表示用画像120に基づいて、人物画像200の顔領域に応じたホワイトバランス調整を行うことができる。また、撮像部20は、表示用画像120に基づいて、犬画像500にフォーカスを合わせ、かつ、露光を顔領域に適切な値に調整することができる。
図13(a)に示すように、人物画像200と犬画像500とが離れている場合、これらは当然に結びつかない。しかし、図13(b)に示すように、両者が近づくと、顔領域230と追尾体領域との位置関係が所定の位置関係となる場合がある。しかし、結びつき判定処理の対象となるのは、新規顔領域に限られる。したがって、図13(c)に示すように、これらは結びつかず、結果として、顔領域230が追尾対象とされることはない。このように、画像処理装置1は、追尾対象が異なる被写体に移行してしまうことを防止することができる。
同様に、図14(a)〜(b)は表示用画像120の一例である。図14(a)に示すように、表示用画像120には、人物画像200、200a〜200cが描かれている。これらの人物画像のうち、人物画像200の顔領域が追尾対象となっている。したがって、人物画像200の顔領域が追尾顔領域210となっている。一方、他の人物画像200a〜200cの顔領域は通常顔領域となっており、それぞれ顔枠320a〜320cが重畳されている。
その後、図14(b)に示すように、人物画像200の顔領域が検出されなくなると、追尾対象が人物画像200の体領域に移行する。即ち、人物画像200の体領域に追尾体枠420が重畳される。一方、この例では、人物画像200a〜200cの顔領域が検出されているので、これらの顔領域に顔枠320a〜320cが重畳される。したがって、撮像部20は、人物画像200の顔領域が検出されなくなった場合であっても、表示用画像120に基づいて、人物画像200の顔領域に応じたホワイトバランス調整を行うことができる。さらに、撮像部20は、表示用画像120に基づいて、露光を顔領域に適切な値に調整することができる。
同様に、図15(a)〜(d)は表示用画像120の一例である。これらの表示用画像120には、人物画像200及び犬画像500が描かれる。また、人物画像200の顔領域が追尾顔領域210となっており、追尾顔領域210に顔追尾枠300が重畳されている。したがって、追尾顔領域210は顔領域リストに登録されている。
図15(a)に示すように、追尾顔領域210と犬画像500とが所定の位置関係にある場合、犬画像500が追尾体領域400として検出される場合がある。したがって、図15(b)に示すように、人物が画像処理装置1の撮像範囲の外に移動すると、犬画像500が追尾体領域とされ、犬画像500に体追尾枠420が重畳される場合がある。
その後、あるフレームで人物画像200が表示用画像120内に戻ると、図15(c)に示すように、人物画像200の顔領域は新規顔領域220とされる。さらに、新規顔領域220に新規顔枠310が重畳される。なお、この例では、新規顔領域220と犬画像500とは離れているので、これらは結び付けられない。しかし、新規顔領域220は、すでに顔領域リストに登録されているので、顔照合処理において、新規顔領域220は追尾顔領域210とされ、追尾顔領域210に顔追尾枠300が重畳される。したがって、図15(d)に示すように、追尾対象は、人物画像200の顔領域に復帰する。このように、画像処理装置1は、あるタイミングで追尾対象が異なる被写体に移行してしまっても、追尾対象を元の被写体に戻すことができる。
同様に、図16(a)〜(d)は表示用画像120の一例である。これらの表示用画像120には、人物画像200が描かれる。図16(a)に示す表示用画像120では、人物画像200が追尾されている。しかし、顔領域が検出されないので、体領域が追尾対象とされている。したがって、人物画像200の体領域に体追尾枠420が重畳されている。
その後、人物が画像処理装置1に近づく(矢印A1方向に移動する)と、図16(b)に示すように、人物画像200の顔領域が検出される。これにより、追尾対象が顔領域に変更される。即ち、人物画像200の顔領域が追尾顔領域210とされ、追尾顔領域210に顔追尾枠300が重畳される。さらに、追尾顔領域210が顔領域リストに登録される。
その後、人物が画像処理装置1の撮像範囲の外に移動する(矢印A2方向に移動する)
と、図16(c)に示すように、人物画像200が表示用画像120から消失(フレームアウト)し、追尾も途切れる。
その後、人物が画像処理装置1の撮像範囲の外から矢印A3方向に移動して、画像処理装置1の撮像範囲内に入ると、まず、照合処理において、人物画像200の顔領域が新規顔領域とされる。さらに、人物画像200の顔領域はすでに顔領域リストに登録されているので、新規顔領域が追尾顔領域210とされ、追尾顔領域210に顔追尾枠300が重畳される。したがって、図16(d)に示すように、追尾対象は、人物画像200の顔領域に復帰する。このように、画像処理装置1は、あるタイミングで追尾対象がフレームアウトしてしまっても、追尾対象が撮像範囲内に復帰した際に、直ちにその追尾対象を追尾することができる。
なお、人物画像の体領域のみを追尾する技術では、人物の顔領域を登録しておくことができない。したがって、この技術では、追尾対象が一旦フレームアウトしてしまうと、追尾対象が撮像範囲内に復帰しても、やはり体領域を追尾することしかできない。そして、体領域の追尾は環境の変化に対するロバスト性が低い。したがって、人物画像の体領域のみを追尾する技術では、一旦追尾対象がフレームアウトしてしまうと、追尾を復帰させることができない場合が多かった。これに対し、画像処理装置1は、あるタイミングで追尾対象がフレームアウトしてしまっても、追尾対象が撮像範囲内に復帰した際に、直ちにその追尾対象を追尾することができる。
<5.各種変形例>
次に、画像処理装置1が行う処理の各種変形例を説明する。
[第1の変形例]
上述したように、追尾対象決定部35は、新規顔領域が発見され、かつ、新規顔領域と追尾体領域とが所定の位置関係にある場合には、新規顔領域を追尾顔領域とする。しかし、追尾対象決定部35は、新規顔領域が発見され、かつ、新規顔領域と追尾体領域とが所定の位置関係にある場合であっても、体領域の追尾を継続してもよい。
第1の変形例による処理の例を図17(a)〜(d)に基づいて説明する。図17(a)〜(d)は、第1の変形例において表示部40に表示される表示用画像120の例を示す。図17(a)〜(c)は図12(a)〜(c)と同様である。即ち、追尾対象決定部35は、新規顔領域が発見されるまでは、上述した追尾対象決定処理を行なう。
しかし、追尾対象決定部35は、図17(c)に示すように、新規顔領域220が発見され、かつ、新規顔領域220と追尾体領域とが所定の位置関係にある場合であっても、新規顔領域220を追尾顔領域とはしない。具体的には、追尾対象決定部35は、結びつき判定処理を行わない。したがって、次フレームにおいて、顔照合部33は、前フレームの新規顔領域220を通常顔領域230とし、通常顔領域230に顔枠320を重畳する。したがって、表示制御部38は、図17(d)に示すように、通常顔領域230、顔枠320、及び体追尾枠420が描かれた表示用画像120を表示する。
第1の変形例によれば、画像処理装置1は、動物、乗り物、人物の体領域といった顔領域以外の部分を正確かつ継続して追尾することができる。なお、画像処理装置1が新規顔領域への結びつき判定処理を行うか否かは、ユーザによる設定により可能であるものとする。これにより、画像処理装置1は、様々なユーザのニーズに応えることができる。
[第2の変形例]
次に、第2の変形例について説明する。第2の変形例では、顔照合部33は、ユーザによる入力操作などにより、いずれかの顔領域をスマイル追尾顔領域に設定する。そして、顔照合部33は、スマイル追尾顔領域にスマイル顔追尾枠を重畳する。顔照合部33は、スマイル追尾顔領域が笑顔となった場合には、その旨を撮像部20に通知し、撮像部20は、当該通知を受け取った際に撮像を行なう。なお、スマイル顔追尾枠は、顔追尾枠と異なる態様で表示されるのが好ましい。
さらに、体領域検出部36は、スマイル追尾顔領域と所定の位置関係にある領域をスマイル追尾体領域として検出する。そして、体追尾部34は、スマイル追尾体領域にスマイル体追尾枠を重畳する。また、追尾対象決定部35は、スマイル追尾体領域が新規顔領域と所定の位置関係にある場合、新規顔領域をスマイル追尾顔領域とする。なお、追尾対象決定部35は、検索領域を広げることで、顔領域に追尾対象を変更しやすくしてもよい。
第2の変形例による処理の例を、図18(a)〜(b)に基づいて説明する。図18(a)〜(b)は第2の変形例において表示部40に表示される表示用画像120の一例である。図18(a)に示すように、表示用画像120には、人物画像200、200a〜200cが描かれている。これらの人物画像のうち、人物画像200の顔領域がスマイル追尾顔領域240となっており、スマイル追尾顔領域240にスマイル追尾枠350が重畳されている。一方、他の人物画像200a〜200cの顔領域は通常顔領域となっており、それぞれ顔枠320a〜320cが重畳されている。
その後、図18(b)に示すように、人物画像200の顔領域が検出されなくなると、追尾対象が人物画像200の体領域に移行する。ここで、人物画像200の体領域はスマイル追尾体領域とされ、スマイル追尾体領域にスマイル体追尾枠450が重畳される。その後、人物画像200の顔領域が再度発見された場合には、その顔領域、即ち新規顔領域がスマイル追尾顔領域240とされ、スマイル追尾顔領域240にスマイル追尾枠350が重畳される。
これにより、画像処理装置1は、ある顔領域がスマイル追尾顔領域として設定された後は、仮にその顔領域が検出されなくなっても、他の顔領域がスマイル追尾顔領域として設定されることを防止することができる。このため、画像処理装置1は、ユーザが指定した顔領域以外の顔領域が笑顔になっても、撮像を行わないようにすることができる。
なお、顔領域のみを追尾する技術では、一旦スマイル追尾顔領域が検出されなくなると、図19に示すように、他の顔領域がスマイル追尾顔領域とされ、これらの顔領域にスマイル対象顔枠350a〜350cが表示されてしまう。したがって、この技術では、ユーザが指定した顔領域以外の顔領域が笑顔になった際に、撮像を行ってしまう場合がある。
[第3の変形例]
次に、第3の変形例を説明する。上述したように、表示制御部38は、追尾顔領域の信頼度が低い場合、顔追尾枠及び体追尾枠を両方表示する。しかし、第3の変形例では、表示制御部38は、追尾顔領域の信頼度が低い場合であっても、顔追尾枠のみを表示する。この場合、追尾顔領域が発見されなくなった場合、顔追尾枠が直ちに(1フレームで)体追尾枠に移行する。勿論、ハンチングを防止するために、一定の期間は顔追尾枠を継続して表示するようにしてもよい。
第3の変形例による処理の例を、図20(a)〜(b)に基づいて説明する。図20(a)〜(b)は第3の変形例において表示部40に表示される表示用画像120の一例である。図20(a)に示す表示用画像120は、図11(c)に示す表示用画像120と同様に、追尾顔領域210の信頼度が低い場合に表示される画像である。一方、図20(b)は図11(d)と同様に、追尾顔領域が検出されなくなった場合に表示される画像である。図20(a)に示すように、第3の変形例では、追尾顔領域210の信頼度が低くなっても、体追尾枠420は表示されない。第3の変形例であっても、ユーザは、追尾対象を正確に把握することができる。
[第4の変形例]
次に、第4の変形例を説明する。上述したように、表示制御部38は、追尾顔領域の信頼度が低い場合、顔追尾枠及び体追尾枠を両方表示する。しかし、第4の変形例では、表示制御部38は、追尾顔領域の信頼度が低い場合、表示用画像120中の顔追尾枠を遷移枠に変更する一方、体追尾枠を表示しない。そして、表示制御部38は、この遷移枠を1フレーム毎に少しずつ体追尾枠の位置まで移動させる。そして、表示制御部38は、遷移枠の位置が体追尾枠の位置に一致した場合、遷移枠を体追尾枠に変更する。第4の変形例によれば、ハンチングがより確実に防止される一方、ユーザは、追尾対象を正確に把握することができる。
第4の変形例による処理の例を、図21(a)〜(c)に基づいて説明する。図21(a)〜(c)は第4の変形例において表示部40に表示される表示用画像120の一例である。図21(a)に示す表示用画像120は、図11(c)に示す表示用画像120と同様に、追尾顔領域210の信頼度が低い場合に表示される画像である。一方、図21(b)、(c)は図11(d)と同様に、追尾顔領域が検出されなくなった場合に表示される画像である。第4の変形例では、追尾顔領域210の信頼度が低くなった場合、表示制御部38は、顔追尾枠300を遷移枠700に変更する。そして、表示制御部38は、図21(b)、(c)に示すように、遷移枠700を1フレーム毎に少しずつ体追尾枠の位置まで移動させる。
[第5の変形例]
次に、第5の変形例について説明する。第5の変形例では、体追尾部34は、追尾体領域に顔追尾枠を重畳する。したがって、表示制御部38は、追尾対象が体領域となる場合であっても、顔追尾枠が重畳された追尾体領域を表示する。
第5の変形例による処理の例を、図22に基づいて説明する。図22は、図14(b)と同様の状況を示している。ただし、第5の変形例では、人物画像200の追尾体領域に顔追尾枠300が重畳されている。この場合であっても、ユーザは、追尾対象を正確に把握することができる。
[第6の変形例]
次に、第6の変形例について説明する。第6の変形例では、顔検出部32は、追尾対象が体領域となる場合に、追尾体領域と所定の位置関係にある領域を顔推定領域として検出する。そして、顔照合部33は、顔推定領域に顔推定枠を重畳させる。一方、体追尾部34は、追尾体領域に体追尾枠を重畳しない。したがって、表示制御部38は、追尾対象が体領域となる場合であっても、顔推定枠が重畳された顔推定領域を表示する。なお、顔推定枠は顔追尾枠と同様の態様(例えば、色、形状)で表示されても良く、他の態様で表示されてもよい。
第6の変形例による処理の例を、図23に基づいて説明する。図23は、図14(b)と同様の状況を示している。ただし、第6の変形例では、人物画像200の顔推定領域に顔推定枠360が重畳されている。この場合であっても、ユーザは、追尾対象を正確に把握することができる。
[第7の変形例]
次に、第7の変形例について説明する。第7の変形例では、体追尾部34は、追尾体領域の全体に人体枠を重畳する。なお、体追尾部34は、追尾対象が顔領域となる場合であっても、この人体枠を追尾体領域に重畳しても良い。
第7の変形例による処理の例を、図24に基づいて説明する。図24は、図14(b)と同様の状況を示している。ただし、第7の変形例では、人物画像200の追尾体領域の全体に人体枠370が重畳されている。
[第8の変形例]
次に、第8の変形例について説明する。第8の変形例は、第6の変形例において、体追尾部34が追尾体領域に体追尾枠を重畳するものである。
第8の変形例による処理の例を、図25に基づいて説明する。図25は、図14(b)と同様の状況を示している。ただし、第8の変形例では、人物画像200の顔推定領域に顔推定枠360が重畳され、追尾体領域に体追尾枠420が重畳されている。この場合であっても、ユーザは、追尾対象を正確に把握することができる。
<6.まとめ>
このように、画像処理装置1は、追尾対象を顔領域と体領域との間で適切に切り替えることができる。これにより、顔領域が上下左右に頻繁に動き、顔検出が安定しない場合や、環境(例えば照度)が頻繁に変化する場合であっても、画像処理装置1は、追尾対象をより正確かつ継続して追尾することができる。したがって、画像処理装置1は、追尾対象の向きやサイズの変化、照度などの環境の変化にも強い被写体追尾が可能となる。また、画像処理装置1は、追尾対象を認識できなくなることによる追尾終了の回数を減らすことができるので、ユーザによる追尾対象の再登録の手間を大幅に低減することができる。
例えば、図26(a)〜(d)に示す例では、表示用画像120に人物画像200として子供が描かれている。子供は頻繁に動くので、顔検出が安定しない。また、これらの画像は、照度が頻繁に変化する環境(例えば砂浜)で撮像されたものである。
画像処理装置1は、図26(a)に示すように、人物画像200の顔領域を検出することができた場合には、顔領域を追尾顔領域210とし、追尾顔領域210に顔追尾枠300を重畳する。一方、画像処理装置1は、追尾顔領域210と所定の位置関係にある領域を追尾体領域として検出する。即ち、画像処理装置1は、顔領域の追尾中であっても、最新の追尾体領域を認識する。
したがって、図26(b)に示すように、画像処理装置1は、人物画像200の顔領域を発見することができなくなった場合であっても、追尾対象を直ちに体領域に変更し、追尾体領域に体追尾枠420を重畳させることができる。
その後、図26(c)に示すように、画像処理装置1は、人物画像200の顔領域を再度発見した場合には、その顔領域を新規顔領域とする。そして、画像処理装置1は、新規顔領域が追尾体領域と所定の位置関係にあるので、新規顔領域を追尾顔領域210とし、追尾顔領域210に顔追尾枠300を重畳する。次いで、一方、画像処理装置1は、追尾顔領域210と所定の位置関係にある領域を追尾体領域として検出する。即ち、画像処理装置1は、顔領域の追尾中であっても、最新の追尾体領域を認識する。
したがって、図26(d)に示すように、画像処理装置1は、人物画像200の顔領域を発見することができなくなった場合であっても、追尾対象を直ちに体領域に変更し、追尾体領域に体追尾枠420を重畳させることができる。
以上により、本実施形態では、画像処理装置1は、撮像画像中の顔領域に対して所定の位置関係にある領域を体領域として検出し、体領域を追尾する。したがって、画像処理装置1は、顔領域を検出することができない場合であっても、体領域を追尾することができるので、人物の追尾をより確実に行うことができる。
さらに、画像処理装置1は、顔領域の特性に基づいて、体領域を検出するので、体領域をより正確に検出することができる。
さらに、顔領域の特性には、顔領域の向き、顔領域の大きさ、顔領域内の各パーツの位置、世代情報、及び性別情報のうち、少なくとも1つが含まれるので、画像処理装置1は、体領域をより正確に検出することができる。
さらに、顔領域の向きには、顔領域のロール方向、ヨー方向、及びピッチ方向のうち、少なくとも1つが含まれるので、画像処理装置1は、体領域をより正確に検出することができる。
さらに、画像処理装置1は、撮像画像から顔領域を検出し、顔領域及び体領域のうち、少なくとも一方を追尾対象として決定し、追尾対象を追尾するので、顔領域を検出することができない場合出会っても、体領域を追尾することができる。
さらに、画像処理装置1は、顔領域が過去のフレーム、具体的には前フレームで検出されている場合には、顔領域を追尾対象として決定する。したがって、画像処理装置1は、顔領域が前フレームで検出されている場合、即ち顔追尾が可能な場合には、顔追尾を継続して行なうことができる。
さらに、画像処理装置1は、顔領域が検出され、かつ、過去のフレーム、即ち前フレームで追尾されている場合には、顔領域を追尾対象として決定する。したがって、画像処理装置1は、顔領域が前フレームで追尾されている場合、即ち顔追尾が可能な場合には、顔追尾を継続して行なうことができる。
さらに、画像処理装置1は、顔領域の追尾中に顔領域の信頼度が所定値以下になった場合に、体領域の追尾を開始するので、人体をより正確かつ確実に追尾することができる。
さらに、画像処理装置1は、体領域の追尾中に顔領域を検出し、顔領域と体領域とが所定の位置関係にある場合に、顔領域を追尾対象として決定する。したがって、画像処理装置1は、体領域と同一の被写体を構成する顔領域が発見された場合に、直ちに顔追尾を再開することができる。
さらに、画像処理装置1は、顔領域が過去のフレーム、即ち前フレームで検出されておらず、かつ、顔領域と体領域とが所定の位置関係にある場合に、顔領域を追尾対象として決定する。したがって、画像処理装置1は、体領域と顔領域とが別々の被写体を構成する場合には、これらの位置関係が仮に所定の位置関係になったとしても、追尾対象を顔領域に移行しないようにすることができる。
さらに、画像処理装置1は、撮像画像と、追尾対象を示す追尾枠(顔追尾枠または体追尾枠)とを表示部40に表示し、追尾対象を変更する場合に、顔追尾枠及び体追尾枠を両方表示する。したがって、ユーザは、追尾対象をより正確に把握することができる。
さらに、画像処理装置1は、追尾枠を追尾対象の種類に応じた態様で表示する。即ち、画像処理装置1は、追尾対象が顔領域となる場合には、顔領域に顔追尾枠を重畳し、追尾対象が体領域となる場合には、体領域に体追尾枠を重畳する。したがって、ユーザは、追尾対象の種類をより正確に把握することができる。
さらに、画像処理装置1は、撮像画像と、追尾枠とを表示部40に表示し、追尾対象を変更する場合に、追尾枠を変更前の追尾対象から変更後の追尾対象まで遷移させるので、ハンチングを防止することができる。したがって、ユーザは、追尾対象をより正確に把握することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
撮像画像中の顔領域に基づいて被写体の部分領域を検出し、前記部分領域を追尾する追尾部を備える、画像処理装置。
(2)
前記部分領域は前記顔領域に対して所定の位置関係にある、前記(1)記載の画像処理装置。
(3)
前記追尾部は、前記撮像画像から前記顔領域を検出し、前記顔領域及び前記部分領域のうち、少なくとも一方を追尾対象として決定し、前記追尾対象を追尾する、前記(2)記載の画像処理装置。
(4)
前記追尾部は、前記追尾対象を前記顔領域及び前記部分領域の間で切り替える、前記(3)記載の画像処理装置。
(5)
前記追尾部は、前記顔領域を検出する毎に、前記顔領域を顔領域リストに登録し、現フレームの前記顔領域が前記顔領域リストに登録された顔領域に一致する場合には、前記顔領域を追尾対象として決定する、前記(4)記載の画像処理装置。
(6)
前記追尾部は、現フレームの前記顔領域が過去のフレームで追尾されている顔領域に一致する場合には、前記顔領域を追尾対象として決定する、前記(4)記載の画像処理装置。
(7)
前記追尾部は、前記顔領域の追尾中に前記顔領域の信頼度が所定値以下になった場合に、前記部分領域の追尾を開始する、前記(4)〜(6)の何れか1項に記載の画像処理装置。
(8)
前記追尾部は、前記部分領域の追尾中に前記顔領域を検出し、前記顔領域と前記部分領域とが前記所定の位置関係にある場合に、前記顔領域を追尾対象として決定する、前記(4)〜(7)の何れか1項に記載の画像処理装置。
(9)
前記追尾部は、前記顔領域が過去のフレームで検出されておらず、かつ、前記顔領域と前記部分領域とが前記所定の位置関係にある場合に、前記顔領域を追尾対象として決定する、前記(8)記載の画像処理装置。
(10)
前記追尾部は、前記撮像画像と、前記追尾対象を示す追尾対象報知画像とを表示部に表示し、前記追尾対象を変更する場合に、前記追尾対象報知画像を変更前の追尾対象と変更後の追尾対象との両方に表示する、前記(4)〜(9)の何れか1項に記載の画像処理装置。
(11)
前記追尾部は、前記撮像画像を表示部に表示し、前記追尾対象を示す追尾対象報知画像を前記追尾対象の種類に応じた態様で前記表示部に表示する、前記(4)〜(10)の何れか1項に記載の画像処理装置。
(12)
前記追尾部は、前記撮像画像と、前記追尾対象を示す追尾対象報知画像とを表示部に表示し、前記追尾対象を変更する場合に、前記追尾対象報知画像を変更前の追尾対象から変更後の追尾対象まで遷移させる、前記(4)〜(9)の何れか1項に記載の画像処理装置。
(13)
前記追尾部は、前記顔領域の特性に基づいて、前記部分領域を検出する、前記(1)〜(12)の何れか1項に記載の画像処理装置。
(14)
前記顔領域の特性には、前記顔領域の向き、前記顔領域の大きさ、前記顔領域の動き、顔領域内の各パーツの位置、世代情報、及び性別情報のうち、少なくとも1つが含まれる、前記(13)記載の画像処理装置。
(15)
前記顔領域の向きには、前記顔領域のロール方向、ヨー方向、及びピッチ方向のうち、少なくとも1つが含まれる、前記(14)記載の画像処理装置。
(16)
撮像画像中の顔領域に基づいて被写体の部分領域を検出し、前記部分領域を追尾することを含む、画像処理方法。
(17)
コンピュータに、
撮像画像中の顔領域に基づいて被写体の部分領域を検出し、前記部分領域を追尾する追尾機能を実現させる、プログラム。

1 画像処理装置
10 レンズ
20 撮像部
30 生体追尾部
31 画像メモリ
32 顔検出部
33 顔照合部
34 体追尾部
35 追尾対象決定部
36 体領域検出部
37 特徴量抽出部
38 表示制御部
40 表示部
50 外部インタフェース

Claims (13)

  1. 撮像画像中の顔領域に基づいて被写体の部分領域を検出し、前記顔領域及び前記部分領域のうち少なくとも一方を追尾する追尾部を備え、
    前記追尾部は、追尾対象を前記顔領域及び前記部分領域の間で切り替え
    前記部分領域の追尾中に前記顔領域を検出し、前記顔領域が過去のフレームで検出されておらず、かつ、前記顔領域と前記部分領域とが所定の位置関係にある場合に、前記顔領域を追尾対象として決定する、画像処理装置。
  2. 前記部分領域は前記顔領域に対して所定の位置関係にある、請求項1記載の画像処理装置。
  3. 前記追尾部は、前記顔領域を検出する毎に、前記顔領域を顔領域リストに登録し、現フレームの前記顔領域が前記顔領域リストに登録された顔領域に一致する場合には、前記顔領域を追尾対象として決定する、請求項1または2に記載の画像処理装置。
  4. 前記追尾部は、現フレームの前記顔領域が過去のフレームで追尾されている顔領域に一致する場合には、前記顔領域を追尾対象として決定する、請求項1〜3のいずれか1項に記載の画像処理装置。
  5. 前記追尾部は、前記顔領域の追尾中に前記顔領域の信頼度が所定値以下になった場合に、前記部分領域の追尾を開始する、請求項1〜4の何れか1項に記載の画像処理装置。
  6. 前記追尾部は、前記撮像画像と、前記追尾対象を示す追尾対象報知画像とを表示部に表示し、前記追尾対象を変更する場合に、前記追尾対象報知画像を変更前の追尾対象と変更後の追尾対象との両方に表示する、請求項1〜の何れか1項に記載の画像処理装置。
  7. 前記追尾部は、前記撮像画像を表示部に表示し、前記追尾対象を示す追尾対象報知画像を前記追尾対象の種類に応じた態様で前記表示部に表示する、請求項1〜の何れか1項に記載の画像処理装置。
  8. 前記追尾部は、前記撮像画像と、前記追尾対象を示す追尾対象報知画像とを表示部に表示し、前記追尾対象を変更する場合に、前記追尾対象報知画像を変更前の追尾対象から変更後の追尾対象まで遷移させる、請求項1〜の何れか1項に記載の画像処理装置。
  9. 前記追尾部は、前記顔領域の特性に基づいて、前記部分領域を検出する、請求項1〜の何れか1項に記載の画像処理装置。
  10. 前記顔領域の特性には、前記顔領域の向き、前記顔領域の大きさ、前記顔領域の動き、顔領域内の各パーツの位置、世代情報、及び性別情報のうち、少なくとも1つが含まれる、請求項記載の画像処理装置。
  11. 前記顔領域の向きには、前記顔領域のロール方向、ヨー方向、及びピッチ方向のうち、少なくとも1つが含まれる、請求項10記載の画像処理装置。
  12. 撮像画像中の顔領域に基づいて被写体の部分領域を検出し、前記顔領域及び前記部分領域のうち少なくとも一方を追尾することを含み、
    追尾対象を前記顔領域及び前記部分領域の間で切り替え
    前記部分領域の追尾中に前記顔領域を検出し、前記顔領域が過去のフレームで検出されておらず、かつ、前記顔領域と前記部分領域とが所定の位置関係にある場合に、前記顔領域を追尾対象として決定する、画像処理方法。
  13. コンピュータに、
    撮像画像中の顔領域に基づいて被写体の部分領域を検出し、前記顔領域及び前記部分領域のうち少なくとも一方を追尾する追尾機能を実現させ、
    前記追尾機能は、追尾対象を前記顔領域及び前記部分領域の間で切り替え
    前記部分領域の追尾中に前記顔領域を検出し、前記顔領域が過去のフレームで検出されておらず、かつ、前記顔領域と前記部分領域とが所定の位置関係にある場合に、前記顔領域を追尾対象として決定する、プログラム。
JP2012022679A 2012-02-06 2012-02-06 画像処理装置、画像処理方法、プログラム、及び記録媒体 Active JP5978639B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012022679A JP5978639B2 (ja) 2012-02-06 2012-02-06 画像処理装置、画像処理方法、プログラム、及び記録媒体
PCT/JP2013/000428 WO2013118450A1 (en) 2012-02-06 2013-01-28 Image processing apparatus, image processing method, program, and recording medium
CN201380007191.8A CN104081757B (zh) 2012-02-06 2013-01-28 图像处理设备、图像处理方法、图像处理系统
US14/352,195 US10225462B2 (en) 2012-02-06 2013-01-28 Image processing to track face region of person
EP13705017.5A EP2813066A1 (en) 2012-02-06 2013-01-28 Image processing apparatus, image processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012022679A JP5978639B2 (ja) 2012-02-06 2012-02-06 画像処理装置、画像処理方法、プログラム、及び記録媒体

Publications (3)

Publication Number Publication Date
JP2013162329A JP2013162329A (ja) 2013-08-19
JP2013162329A5 JP2013162329A5 (ja) 2015-03-12
JP5978639B2 true JP5978639B2 (ja) 2016-08-24

Family

ID=47739425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012022679A Active JP5978639B2 (ja) 2012-02-06 2012-02-06 画像処理装置、画像処理方法、プログラム、及び記録媒体

Country Status (5)

Country Link
US (1) US10225462B2 (ja)
EP (1) EP2813066A1 (ja)
JP (1) JP5978639B2 (ja)
CN (1) CN104081757B (ja)
WO (1) WO2013118450A1 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6184189B2 (ja) * 2013-06-19 2017-08-23 キヤノン株式会社 被写体検出装置およびその制御方法、撮像装置、被写体検出装置の制御プログラムおよび記憶媒体
CN106157328B (zh) * 2015-04-20 2019-05-03 欧姆龙株式会社 运动判定装置、运动判定方法
CN106296725B (zh) * 2015-06-12 2021-10-19 富泰华工业(深圳)有限公司 运动目标实时检测与跟踪方法及目标检测装置
JP6573193B2 (ja) * 2015-07-03 2019-09-11 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
WO2017018012A1 (ja) * 2015-07-28 2017-02-02 ソニー株式会社 情報処理システム、情報処理方法、および記録媒体
WO2017043132A1 (ja) * 2015-09-08 2017-03-16 日本電気株式会社 顔認識システム、顔認識方法、表示制御装置、表示制御方法および表示制御プログラム
EP3142040A1 (en) 2015-09-11 2017-03-15 Canon Kabushiki Kaisha Information processing apparatus, method of controlling the same, and program
JP6775343B2 (ja) 2015-09-11 2020-10-28 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
CN107037962B (zh) * 2015-10-23 2020-06-16 株式会社摩如富 图像处理装置、电子设备以及图像处理方法
CN105357442A (zh) * 2015-11-27 2016-02-24 小米科技有限责任公司 摄像头拍摄角度调整方法及装置
JP6700791B2 (ja) * 2016-01-05 2020-05-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
TWI610569B (zh) * 2016-03-18 2018-01-01 晶睿通訊股份有限公司 物體追蹤資訊的傳輸與顯示方法及其系統
JP6755713B2 (ja) * 2016-05-25 2020-09-16 キヤノン株式会社 追尾装置、追尾方法及びプログラム
CN106127732B (zh) * 2016-06-13 2019-01-01 深圳市太赫兹科技创新研究院 微波图像中人体性别检测方法和装置
CN106650583B (zh) * 2016-09-28 2019-07-23 Oppo广东移动通信有限公司 人脸检测方法、装置及终端设备
CN106331511A (zh) * 2016-11-16 2017-01-11 广东欧珀移动通信有限公司 智能终端跟踪拍摄的方法和装置
CN106780658B (zh) * 2016-11-16 2021-03-09 北京旷视科技有限公司 人脸特征添加方法、装置及设备
CN106780662B (zh) 2016-11-16 2020-09-18 北京旷视科技有限公司 人脸图像生成方法、装置及设备
JP6797009B2 (ja) * 2016-12-01 2020-12-09 株式会社Nttドコモ 人物識別装置、方法及びプログラム
WO2018112137A1 (en) * 2016-12-15 2018-06-21 General Electric Company System and method for image segmentation using a joint deep learning model
JP6440749B2 (ja) * 2017-01-16 2018-12-19 東芝テリー株式会社 監視画像処理装置及び監視画像処理方法
KR102495359B1 (ko) * 2017-10-27 2023-02-02 삼성전자주식회사 객체 트래킹 방법 및 장치
WO2019144263A1 (zh) * 2018-01-23 2019-08-01 深圳市大疆创新科技有限公司 可移动平台的控制方法、设备、计算机可读存储介质
CN108734083B (zh) * 2018-03-21 2023-04-25 北京猎户星空科技有限公司 智能设备的控制方法、装置、设备和存储介质
CN108733280A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 智能设备的焦点跟随方法、装置、智能设备及存储介质
CN110163889A (zh) * 2018-10-15 2019-08-23 腾讯科技(深圳)有限公司 目标跟踪方法、目标跟踪装置、目标跟踪设备
JP7113364B2 (ja) * 2018-10-18 2022-08-05 パナソニックIpマネジメント株式会社 撮像装置
CN109274891B (zh) * 2018-11-07 2021-06-22 北京旷视科技有限公司 一种图像处理方法、装置及其存储介质
TWI692731B (zh) * 2019-01-02 2020-05-01 瑞昱半導體股份有限公司 物件位置判斷電路
CN111416916B (zh) * 2019-01-04 2022-07-26 瑞昱半导体股份有限公司 物件位置判断电路
CN110334670B (zh) * 2019-07-10 2021-08-17 北京迈格威科技有限公司 对象监控方法及装置、电子设备、存储介质
CN110807407B (zh) * 2019-10-30 2023-04-18 东北大学 一种用于视频中高度近似动态目标的特征提取方法
CN111275002A (zh) * 2020-02-18 2020-06-12 上海商汤临港智能科技有限公司 一种图像处理方法、装置及电子设备
JP7095002B2 (ja) * 2020-02-19 2022-07-04 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP2022045757A (ja) * 2020-09-09 2022-03-22 キヤノン株式会社 撮像制御装置およびその制御方法
WO2022074787A1 (ja) * 2020-10-08 2022-04-14 日本電気株式会社 画像処理装置、画像処理方法、プログラム
CN114449155A (zh) * 2020-11-02 2022-05-06 嘉楠明芯(北京)科技有限公司 基于摄像装置的云台控制方法以及云台控制装置
CN117296079A (zh) * 2021-05-13 2023-12-26 松下知识产权经营株式会社 物体探测装置以及方法
WO2022244414A1 (ja) * 2021-05-19 2022-11-24 パナソニックIpマネジメント株式会社 計測方法および計測装置
CN113554693B (zh) * 2021-09-18 2021-12-31 深圳市安软慧视科技有限公司 一种边缘部署图像的关联和评判方法、设备及存储介质
WO2023065165A1 (zh) * 2021-10-20 2023-04-27 深圳市大疆创新科技有限公司 可移动平台的控制方法、装置、可移动平台和存储介质

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219225A (ja) * 2002-01-25 2003-07-31 Nippon Micro Systems Kk 動体画像監視装置
US7400344B2 (en) * 2002-12-19 2008-07-15 Hitachi Kokusai Electric Inc. Object tracking method and object tracking apparatus
JP4239635B2 (ja) 2003-03-20 2009-03-18 ソニー株式会社 ロボット装置、その動作制御方法、及びプログラム
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US9129381B2 (en) * 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
JP4830650B2 (ja) * 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
JP4670635B2 (ja) * 2005-12-27 2011-04-13 株式会社ニコン 撮影装置
JP4808578B2 (ja) * 2006-09-22 2011-11-02 富士フイルム株式会社 デジタルカメラおよびその制御方法
JP5386793B2 (ja) 2006-12-11 2014-01-15 株式会社リコー 撮像装置および撮像装置の露出制御方法
JP2009048347A (ja) * 2007-08-17 2009-03-05 Seiko Epson Corp 画像処理装置、画像処理方法、および、画像処理プログラム
JP4991493B2 (ja) 2007-11-16 2012-08-01 株式会社リコー 電子装置、電力モードの切替方法、プログラム及びコンピュータ読み取り可能な記録媒体
JP4552997B2 (ja) * 2007-11-16 2010-09-29 カシオ計算機株式会社 撮像装置及びプログラム
JP5273998B2 (ja) * 2007-12-07 2013-08-28 キヤノン株式会社 撮像装置、その制御方法及びプログラム
JP4843002B2 (ja) * 2008-01-25 2011-12-21 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP5047007B2 (ja) * 2008-03-03 2012-10-10 三洋電機株式会社 撮像装置
JP4869270B2 (ja) * 2008-03-10 2012-02-08 三洋電機株式会社 撮像装置及び画像再生装置
JP2010003251A (ja) * 2008-06-23 2010-01-07 Panasonic Corp 画像リサイズ処理装置及び画像リサイズ処理方法
JP2010108475A (ja) * 2008-10-03 2010-05-13 Sony Corp 画像処理装置および方法、プログラム、並びに記録媒体
JP2010113129A (ja) * 2008-11-06 2010-05-20 Nikon Corp 画像追尾装置、焦点調節装置、および撮像装置
JP4748271B2 (ja) * 2009-01-28 2011-08-17 株式会社ニコン 電子カメラおよび画像処理プログラム
JP5233720B2 (ja) * 2009-02-12 2013-07-10 ソニー株式会社 撮像装置、撮像装置の制御方法およびプログラム
US20100259647A1 (en) * 2009-04-09 2010-10-14 Robert Gregory Gann Photographic effect for digital photographs
CN101546376A (zh) * 2009-04-28 2009-09-30 上海银晨智能识别科技有限公司 人体生物信息采集系统、人脸照片采集、质检系统及方法
JP5359645B2 (ja) * 2009-07-23 2013-12-04 ソニー株式会社 構図判定装置、撮像システム、構図判定方法、プログラム
JP2011166305A (ja) * 2010-02-05 2011-08-25 Sony Corp 画像処理装置および撮像装置
JP4852652B2 (ja) 2010-03-09 2012-01-11 パナソニック株式会社 電子ズーム装置、電子ズーム方法、及びプログラム
JP2011209966A (ja) 2010-03-29 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011210139A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
JP5577793B2 (ja) 2010-03-30 2014-08-27 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN101916496B (zh) * 2010-08-11 2013-10-02 无锡中星微电子有限公司 一种司机驾驶姿势检测的系统和方法
JP5771461B2 (ja) * 2011-06-29 2015-09-02 オリンパス株式会社 追尾装置、追尾方法及び追尾プログラム

Also Published As

Publication number Publication date
CN104081757A (zh) 2014-10-01
JP2013162329A (ja) 2013-08-19
US10225462B2 (en) 2019-03-05
CN104081757B (zh) 2017-10-17
US20140247374A1 (en) 2014-09-04
WO2013118450A1 (en) 2013-08-15
EP2813066A1 (en) 2014-12-17

Similar Documents

Publication Publication Date Title
JP5978639B2 (ja) 画像処理装置、画像処理方法、プログラム、及び記録媒体
JP6304999B2 (ja) 顔検出装置、方法およびプログラム
US9031327B2 (en) Information processing device, method, and program that recognizes a predetermined part of a body
JP6141079B2 (ja) 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
CN111566612A (zh) 基于姿势和视线的视觉数据采集系统
JP4452833B2 (ja) 視線移動検出方法及び視線移動検出装置
JP4645223B2 (ja) 顔追跡プログラムおよび顔追跡方法
JP6187817B2 (ja) 顔検出装置、方法およびプログラム
US10289908B2 (en) Method, apparatus, and computer program product for tracking eye gaze and eye movement
JP5001930B2 (ja) 動作認識装置及び方法
JP2008140290A (ja) 頭部の位置・姿勢検出装置
JP2016045874A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2011186576A (ja) 動作認識装置
JP2010191793A (ja) 警告表示装置及び警告表示方法
JP6922821B2 (ja) 画像解析装置、方法およびプログラム
JP2021051470A (ja) 対象追跡手段の切り替えが可能な対象追跡プログラム、装置及び方法
JP2009176005A (ja) 顔画像の特徴点検出方法およびその装置
JP2011134119A (ja) 車両周辺監視装置
Chuang et al. Driver behavior recognition using recurrent neural network in multiple depth cameras environment
JP4660534B2 (ja) 顔画像による顔領域追跡方法及びその装置
JP5951966B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2009237899A (ja) 画像処理装置
JP2017069876A (ja) 処理装置
Miyoshi et al. Detection of Dangerous Behavior by Estimation of Head Pose and Moving Direction
JP2019096252A (ja) 撮影映像から人の行動を表すコンテキストを推定するプログラム、装置及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160711

R151 Written notification of patent or utility model registration

Ref document number: 5978639

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250