JP2011076439A - 撮像装置、撮像装置の制御方法、及びコンピュータプログラム - Google Patents
撮像装置、撮像装置の制御方法、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2011076439A JP2011076439A JP2009228101A JP2009228101A JP2011076439A JP 2011076439 A JP2011076439 A JP 2011076439A JP 2009228101 A JP2009228101 A JP 2009228101A JP 2009228101 A JP2009228101 A JP 2009228101A JP 2011076439 A JP2011076439 A JP 2011076439A
- Authority
- JP
- Japan
- Prior art keywords
- identification information
- face image
- subject
- face
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Studio Devices (AREA)
- Collating Specific Patterns (AREA)
Abstract
【課題】 撮像された人物(個人)を識別する精度を向上させる。
【解決手段】 再生した画像データから顔画像を検出し、検出した顔画像から個人識別情報を抽出することを、通常の顔画像301、サングラスをかけた顔画像302、帽子を被った顔画像303の夫々について行う。そして、それらが同一人物のものであるとしてそれらを相互に関連付けて記憶する。その後、撮像した画像から顔を検出し、顔画像の特徴点付近に動きがあった場合、動きのあった位置と、動きの方向とに基づいて個人識別情報を切り替える。そして、帽子やサングラスの部分の特徴点も含めて個人の識別を行う。したがって、個人の識別精度や、顔の追従精度を高めることができる。
【選択図】 図1
【解決手段】 再生した画像データから顔画像を検出し、検出した顔画像から個人識別情報を抽出することを、通常の顔画像301、サングラスをかけた顔画像302、帽子を被った顔画像303の夫々について行う。そして、それらが同一人物のものであるとしてそれらを相互に関連付けて記憶する。その後、撮像した画像から顔を検出し、顔画像の特徴点付近に動きがあった場合、動きのあった位置と、動きの方向とに基づいて個人識別情報を切り替える。そして、帽子やサングラスの部分の特徴点も含めて個人の識別を行う。したがって、個人の識別精度や、顔の追従精度を高めることができる。
【選択図】 図1
Description
本発明は、撮像装置、撮像装置の制御方法、及びコンピュータプログラムに関し、特に、撮像された画像から人物を検出するために用いて好適なものである。
近年の撮像装置は、被写体である人物の顔に焦点を合わせるフォーカス処理や、顔が綺麗に写るように露出調整処理・ホワイトバランス補正処理等の画像処理を自動で行う機能を搭載している。これらの画像処理を撮像するタイミングで行える様に人物を識別する技術が、特許文献1に記載されている。また、人物の顔を追従する技術が、特許文献2、3に記載されている。
特許文献1では、まず、撮像された顔画像から人物の顔領域を検出し、検出した結果に基づいて目や口等の顔のパーツを抽出する。そして、抽出した結果に基づいて顔の特徴量を抽出し、抽出した顔の特徴量と登録済みの顔画像情報データベースの情報との類似度を評価する。
特許文献2では、対応領域の大きさが相互に異なる複数の大きさのテンプレートと、入力された画像とを比較することにより人物の顔の向きを追跡する技術が開示されている。具体的には、まず、大きいテンプレート(両眼、口等の顔の特徴部分を含む顔全体の画像)との類似度が最大になる入力画像の位置と、小さいテンプレート(立体的に検出可能な顔の特徴部分(鼻等))との類似度が最大になる入力画像の位置との相対位置を求める。そして、前回のテンプレート更新時の大小テンプレートの入力画像に対する相対位置と、今回の大小テンプレートの入力画像に対する相対位置との変位量が所定の値よりも大きくなったときに、テンプレートを更新する。
特許文献2では、対応領域の大きさが相互に異なる複数の大きさのテンプレートと、入力された画像とを比較することにより人物の顔の向きを追跡する技術が開示されている。具体的には、まず、大きいテンプレート(両眼、口等の顔の特徴部分を含む顔全体の画像)との類似度が最大になる入力画像の位置と、小さいテンプレート(立体的に検出可能な顔の特徴部分(鼻等))との類似度が最大になる入力画像の位置との相対位置を求める。そして、前回のテンプレート更新時の大小テンプレートの入力画像に対する相対位置と、今回の大小テンプレートの入力画像に対する相対位置との変位量が所定の値よりも大きくなったときに、テンプレートを更新する。
特許文献3では、まず、撮像画像から人物の顔画像を検出し、検出した顔画像から個人の属性を判定する。そして、データベースから、判定した属性と属性が一致する顔画像を検索し、検索した顔画像と、撮像画像から得られた顔画像との類似性を判定する。また、特許文献3では、顔画像の動きを検出し、その検出結果に基づいて次のフレームの顔領域を推定して顔の追従を行うことが開示されている。さらに特許文献3では、顔画像の一部分が隠れた場合には、画像の補正を行うことも開示されている。
しかしながら、特許文献1に記載の技術では、撮像した顔画像と、顔の特徴点の各パーツとの類似度を比較しているのみである。したがって、メガネ(サングラス)や帽子等を装着した人物を撮像した場合、顔の一部が隠蔽されるので、登録済みの顔画像と比較すると顔の一部分の類似度が著しく低下する。このため、個人の識別精度が低下することになる。
また、特許文献2に記載の技術では、顔(個人)の識別を行っていないため、複数人(通行人や無関係の人)がいる撮像シーンでは、撮りたい人物以外の顔を追従する可能性がある。また、撮りたい人物が、帽子やメガネ(サングラス)等、顔の一部を隠蔽するようなものを着脱した時には、正しく顔を追従できない。
また、特許文献2に記載の技術では、顔(個人)の識別を行っていないため、複数人(通行人や無関係の人)がいる撮像シーンでは、撮りたい人物以外の顔を追従する可能性がある。また、撮りたい人物が、帽子やメガネ(サングラス)等、顔の一部を隠蔽するようなものを着脱した時には、正しく顔を追従できない。
また、特許文献3に記載の技術では、顔画像の一部分が隠れた場合、隠蔽部分を予め登録済みの顔画像から復元するため、本来隠蔽部分も含めて画像を撮りたい場合には、正しく画像を撮ることができない。また、隠蔽部分を補正するため、目や口、鼻などの位置が正しく補正されなかった場合、その後の個人の識別精度が低くなる。すなわち、補正の精度に応じて顔の追従精度が左右されることになる。
本発明は、以上のような問題点に鑑みてなされたものであり、撮像された人物(個人)を識別する精度を向上させることを目的とする。
本発明は、以上のような問題点に鑑みてなされたものであり、撮像された人物(個人)を識別する精度を向上させることを目的とする。
本発明の撮像装置は、撮像手段で得られた画像データから、被写体の顔画像の特徴点を抽出する抽出手段と、被写体を識別するための識別情報であって、顔画像の特徴点に関する情報を含む識別情報を、1つの被写体について複数通り記憶する記憶手段と、前記画像データから、前記被写体の動きを検出する動き検出手段と、前記記憶手段により記憶された識別情報と、前記抽出手段により抽出された顔画像の特徴点とに基づいて、前記被写体を識別する識別手段と、前記動き検出手段により検出された被写体の動きであって、当該被写体の顔画像を含む領域における動きに応じて、当該被写体に対する識別情報を、前記記憶手段により記憶された識別情報から選択して切り替える切替手段と、を有することを特徴とする。
本発明によれば、被写体の顔画像を含む領域における動きに応じて、顔画像の特徴点に関する情報を含む識別情報を切り替え、切り替えた識別情報と、当該顔画像の特徴点とに基づいて、当該被写体を識別するようにした。したがって、顔の一部分が隠れた状態でも、その状態に応じた識別情報を用いることが可能になる。よって、撮像された人物(個人)を識別する精度を向上させることが可能になる。
以下、図面を用いて本発明の実施形態を説明する。尚、以下の各実施形態では、撮像装置がデジタルカメラである場合を例に挙げて説明する。
(第1の実施形態)
まず、本発明の第1の実施形態を説明する。
図1は、本実施形態に係るデジタルカメラの構成の一例を示すブロック図である。
デジタルカメラは、図1に示すように、撮像部114、操作部105、制御部106、表示部107、識別情報取得部108、記憶部109、顔検出部110、識別部111、識別情報切替部112、動き検出部113、及び動き判定部116を備えている。撮像部114、制御部106、表示部107、識別情報取得部108、記憶部109、顔検出部110、識別部111、識別情報切替部112、動き検出部113、及び動き判定部116は、バス115を介して相互に接続されている。操作部105における操作の状態は、制御部106により検知される。また、撮像部114、制御部106、顔検出部110、及び識別部111からの情報は、バス115を介して表示部107に供給される。
(第1の実施形態)
まず、本発明の第1の実施形態を説明する。
図1は、本実施形態に係るデジタルカメラの構成の一例を示すブロック図である。
デジタルカメラは、図1に示すように、撮像部114、操作部105、制御部106、表示部107、識別情報取得部108、記憶部109、顔検出部110、識別部111、識別情報切替部112、動き検出部113、及び動き判定部116を備えている。撮像部114、制御部106、表示部107、識別情報取得部108、記憶部109、顔検出部110、識別部111、識別情報切替部112、動き検出部113、及び動き判定部116は、バス115を介して相互に接続されている。操作部105における操作の状態は、制御部106により検知される。また、撮像部114、制御部106、顔検出部110、及び識別部111からの情報は、バス115を介して表示部107に供給される。
撮像部114は、レンズ101、撮像素子102、A/D変換部103、及び画像処理部104を備えて構成される。この他、撮像部114は、画像バッファメモリ等も備えている。
撮像素子102は、例えばCCD又はCMOSであり、レンズ101からの光学像を電気信号に変換する。A/D変換部103は、撮像素子102からの画像データをA/D変換する。画像処理部104は、A/D変換部103でA/D変換された画像データに対してホワイトバランスやシャープネス等の画像処理を行い、画像処理を行った画像データに対してJPEG形式やTIFF形式等で圧縮処理を行う。撮像された画像データ(撮像画像データ)は、一時、バッファメモリに保存される。その後、記憶部109は、制御部106からの制御によって、バッファメモリに保存された画像データを、メモリカード等の記憶媒体に記憶することができる。
撮像素子102は、例えばCCD又はCMOSであり、レンズ101からの光学像を電気信号に変換する。A/D変換部103は、撮像素子102からの画像データをA/D変換する。画像処理部104は、A/D変換部103でA/D変換された画像データに対してホワイトバランスやシャープネス等の画像処理を行い、画像処理を行った画像データに対してJPEG形式やTIFF形式等で圧縮処理を行う。撮像された画像データ(撮像画像データ)は、一時、バッファメモリに保存される。その後、記憶部109は、制御部106からの制御によって、バッファメモリに保存された画像データを、メモリカード等の記憶媒体に記憶することができる。
操作部105は、電源ボタン、シャッタボタン、選択操作やメニュー操作等に関わる十字キー、及び決定ボタン等、ユーザにより操作されるスイッチやボタン等を含む。操作部105は、ユーザが、電源のオン・オフ、シャッタ動作の指示、カメラズーム動作の指示等、各種のUI(User Interface)を使用した操作を行うために使用される。
制御部106は、デジタルカメラ全体の動作を統括して制御する。制御部106は、CPUと、CPUにより実行される制御プログラム(コンピュータプログラム)を格納しているROMと、CPUによる制御処理の実行時に、各種データを一時的に保存するRAM等を備えて構成されている。制御部106における制御対象としては、操作部105からのシャッタ動作の指示等のトリガをもとにした撮像部114における撮像動作と、撮像した画像データの記憶部109への記憶とが挙げられる。また、表示部107における表示制御と、顔検出部110における顔検出制御と、識別部111における個人識別制御と、動き検出部113における動き検出制御も、制御部106における制御対象である。この他、動き判定部116における動き判定制御と、識別情報取得部108における個人識別情報取得制御等も、制御部106における制御対象である。
表示部107は、を、液晶ビューファインダー(LCD)等の表示装置を備え、撮像前のライブ画像の表示機能、メニュー設定の表示機能、撮像画像の表示機能、及び顔枠の表示機能等を備えている。
識別情報取得部108は、撮像部114で撮像された画像データから顔画像を取得(抽出)し、取得した顔画像から個人識別用の個人識別情報(眉、目、鼻、口、顔の輪郭形状、及びそれぞれのサイズと特徴点の位置等)を取得する。
記憶部109は、撮像部114からの画像データの記憶制御や、識別情報取得部108からの顔画像や個人識別情報の登録制御に基づいて、内蔵ROMやDRAMあるいはメモリカード等の記憶媒体に行う。
顔検出部110は、撮像前のライブ画像や撮像画像から人物の顔(顔画像)を検出し、顔画像の特徴点を抽出する。
識別情報取得部108は、撮像部114で撮像された画像データから顔画像を取得(抽出)し、取得した顔画像から個人識別用の個人識別情報(眉、目、鼻、口、顔の輪郭形状、及びそれぞれのサイズと特徴点の位置等)を取得する。
記憶部109は、撮像部114からの画像データの記憶制御や、識別情報取得部108からの顔画像や個人識別情報の登録制御に基づいて、内蔵ROMやDRAMあるいはメモリカード等の記憶媒体に行う。
顔検出部110は、撮像前のライブ画像や撮像画像から人物の顔(顔画像)を検出し、顔画像の特徴点を抽出する。
識別部111は、顔検出部110で抽出された「顔画像の特徴点」と、記憶部109により記憶された「個人識別情報」とに基づいて、撮像前のライブ画像や撮像画像から検出された顔画像の個人(被写体)の識別を行う。
動き検出部113は、撮像部114で撮像された画像データに基づいて被写体の動き検出を行う。
動き判定部116は、動き検出部113による動き検出の結果に基づいて、顔画像周辺領域の外側の領域と、顔画像の特定の一部の領域との間における動き判定を行う。具体的に動き判定部116は、動き検出部113による動き検出の結果に基づいて、顔画像周辺領域の外から、顔画像の目や頭部近傍等への動き判定を行う。また、動き判定部116は、動き検出部113による動き検出の結果に基づいて、顔画像の目や頭部近傍等から顔画像周辺領域の外への動き判定を行う。
識別情報切替部112は、動き判定部116による動き判定の結果を用いて、記憶部109により記憶されている個人識別情報の切替えを行う。
動き検出部113は、撮像部114で撮像された画像データに基づいて被写体の動き検出を行う。
動き判定部116は、動き検出部113による動き検出の結果に基づいて、顔画像周辺領域の外側の領域と、顔画像の特定の一部の領域との間における動き判定を行う。具体的に動き判定部116は、動き検出部113による動き検出の結果に基づいて、顔画像周辺領域の外から、顔画像の目や頭部近傍等への動き判定を行う。また、動き判定部116は、動き検出部113による動き検出の結果に基づいて、顔画像の目や頭部近傍等から顔画像周辺領域の外への動き判定を行う。
識別情報切替部112は、動き判定部116による動き判定の結果を用いて、記憶部109により記憶されている個人識別情報の切替えを行う。
図2は、デジタルカメラにおける処理の一例を説明するフローチャートである。図2では、電源がONされてから、デジタルカメラが、ユーザによる操作等に基づいて、撮像、再生、撮像前の画像表示、個人識別情報の登録、個人識別、顔を追従しての顔枠表示、及び電源OFFを行う場合を例に挙げて説明する。
電源がONされると、ステップS201において、LCD表示処理が行われる。ステップS207における再生表示ON処理での表示部107の制御がない場合には、このLCD表示処理において、顔検出部110は、撮像前のライブ画像から顔を検出する。そして、表示部107は、撮像前のライブ画像と、顔検出部110で検出された顔に対応する顔枠とをLCDに表示する。一方、ステップS207における再生表示ON処理での表示部107の制御がある場合には、表示部107は、撮像した画像データのうちユーザにより選択された画像データに基づく画像を表示(再生)する。
電源がONされると、ステップS201において、LCD表示処理が行われる。ステップS207における再生表示ON処理での表示部107の制御がない場合には、このLCD表示処理において、顔検出部110は、撮像前のライブ画像から顔を検出する。そして、表示部107は、撮像前のライブ画像と、顔検出部110で検出された顔に対応する顔枠とをLCDに表示する。一方、ステップS207における再生表示ON処理での表示部107の制御がある場合には、表示部107は、撮像した画像データのうちユーザにより選択された画像データに基づく画像を表示(再生)する。
次に、ステップS202において、イベント取得処理が行われる。ユーザによる電源スイッチの操作によりデジタルカメラの電源がOFFされた場合、或いは電池切れの場合には、イベント取得処理において、電源OFF・電池切れイベントが取得される。また、ユーザによってシャッタボタンが押された場合には、イベント取得処理において、撮像イベントが取得される。また、ユーザによって再生ボタンが押された場合には、イベント取得処理において、再生表示ONイベントが取得される。また、再生画像が表示されている最中に、ユーザによって再生停止ボタンが押された場合には、イベント取得処理において、再生表示OFFイベントが取得される。また、再生画像が表示されている最中に、ユーザによって個人識別情報の登録が指定された場合には、イベント取得処理において、個人識別情報登録イベントが取得される。また、不図のメニュー設定画面において、ユーザによって顔認識モードが選択された場合には、イベント取得処理において、個人識別モードイベント(顔認識モードイベント)が取得される。ユーザによって個人識別モードがOFFされるまで個人識別モードイベントは継続する。イベント取得処理は、例えば、操作部105における操作の内容を制御部106が識別することにより行われる。
次に、ステップS203において、制御部106は、ステップS202で取得したイベントに基づいて、発生したイベントが、電源OFF・電池切れイベントであるか否かを判定する。この判定の結果、発生したイベントが、電源OFF・電池切れイベントであれば、制御部106は、デジタルカメラの電源をOFFして、図2のフローチャートによる処理を終了する。一方、発生したイベントが、電源OFF・電池切れイベントでない場合には、ステップS204に進む。
ステップS204に進むと、制御部106は、ステップS202で取得したイベントに基づいて、発生したイベントが、撮像イベントであるか否かを判定する。この判定の結果、発生したイベントが、撮像イベントである場合には、ステップS205に進み、撮像処理が行われる。この撮像処理では、撮像部114は、被写体の明るさや撮像距離等を測定する各種センサを制御して画像の撮像を行う。そして、撮像部114は、撮像した画像の信号処理(ホワイトバランスやシャープネス等)を行う。さらに、撮像部114は、信号処理を行った画像に対して、例えばJPEG形式やTIFF形式等で圧縮処理を施して画像データを作成する。記憶部109は、撮像部114で得られた画像データをメモリカード等の外部記録媒体等へ記録する。そして、ステップS201に戻る。
一方、ステップS204において、発生したイベントが、撮像イベントでないと判定された場合には、ステップS206に進む。ステップS206に進むと、制御部106は、ステップS202で取得したイベントに基づいて、発生したイベントが、再生表示ONイベントであるか否かを判定する。この判定の結果、発生したイベントが、再生表示ONイベントである場合には、ステップS207に進み、再生表示ON処理が行われる。この再生表示ON処理では、制御部106は、撮像した画像データをユーザの操作に基づいて選択し、選択した画像データの表示を行うように表示部107を制御する。そして、ステップS201に戻る。
一方、ステップS206において、発生したイベントが、再生表示ONイベントでないと判定された場合には、ステップS208に進む。ステップS208に進むと、制御部106は、ステップS202で取得したイベントに基づいて、発生したイベントが、再生表示OFFイベントであるか否かを判定する。この判定の結果、発生したイベントが、再生表示OFFイベントである場合には、ステップS209に進み、再生表示OFF処理が行われる。この再生表示OFF処理では、制御部106は、表示中の再生画像を消して撮像前のライブ画像表示へ表示を切り替えるように表示部107を制御する。そして、ステップS201に戻る。
一方、ステップS208において、発生したイベントが、再生表示OFFイベントでないと判定された場合には、ステップS210に進む。ステップS210に進むと、制御部106は、ステップS202で取得したイベントに基づいて、発生したイベントが、個人識別情報登録イベントであるか否かを判定する。この判定の結果、発生したイベントが、個人識別情報登録イベントである場合には、ステップS211に進み、個人識別情報登録処理が行われる。この個人識別情報登録処理では、識別情報取得部108は、表示中の画像データから顔画像を抽出する。そして、識別情報取得部108は、抽出した顔画像から個人識別用の情報である個人識別情報(眉・目・鼻・口・顔の輪郭形状、及びそれぞれのサイズと特徴点の位置等)を抽出する。そして、記憶部109は、識別情報取得部108で得られた「顔画像と個人識別情報」を、内蔵フラッシュROM、DRAM、或いはメモリカード等の記憶媒体に記録して登録する。そして、ステップS201に戻る。
図3は、個人識別用に登録された顔画像の一例を示す図である。尚、図3に示す顔画像301〜303は、それぞれ特徴点が異なる同一人物の顔画像である。図3(a)は、通常の顔画像301を示し、図3(b)は、サングラスをかけた時の顔画像302を示し、図3(c)は、帽子を被った時の顔画像303を示す。通常の顔画像301の個人識別情報としては、目・鼻・口・顔の輪郭形状、及びそれぞれのサイズと特徴点の位置等が挙げられる。サングラスをかけた時の顔画像302の個人識別情報としては、鼻・口・顔の輪郭形状、サングラスのフレームの形・色、及びそれぞれのサイズと特徴点の位置等が挙げられる。帽子を被った時の顔画像303の個人識別情報としては、目・鼻・口の輪郭形状、帽子の形状・色、及びそれぞれのサイズと特徴点の位置等が挙げられる。このように本実施形態では、1つの被写体(個人)に対して複数通りの個人識別情報が用いられる。
通常の顔画像301とその個人識別情報を、メインの顔画像の個人識別情報とし、サングラスをかけた時の顔画像302、及び帽子を被った時の顔画像303とそれらの個人識別情報をサブの顔画像の個人識別情報とし、それらが相互に関連付けて記憶される。また、サングラスをかけた時の顔画像302の個人識別情報及び帽子を被った時の顔画像303の個人識別情報と、通常の顔画像301の個人識別情報との差異のある特徴点の位置も記憶される。以上のように本実施形態では、これら、メインの顔画像の個人識別情報と、サブの顔画像の個人識別情報と、差異のある特徴点の位置の情報とが、切替え情報として記憶される。
図2の説明に戻り、ステップS210の判定の結果、発生したイベントが、個人識別情報登録イベントでない場合には、ステップS212に進む。ステップS212に進むと、制御部106は、ステップS202で取得したイベントに基づいて、発生したイベントが、個人識別モードイベントであるか否かを判定する。この判定の結果、発生したイベントが、個人識別モードイベントである場合には、ステップS213に進み、個人識別処理が行われた後に、ステップS201に戻る。一方、発生したイベントが、個人識別モードイベントでない場合には、ステップS201に戻る。
図4は、個人識別処理の一例を詳細に説明するフローチャートである。
まず、ステップS401において、顔検出部110は顔検出処理を行う。
顔検出処理としては、主成分分析による固有顔(eigenface)を用いた方法がある。この方法は「M.A.Turk and A.P.Pentland, "Face recognition using eigenfaces", Proc. of IEEE Conf. on Computer Vision and Pattern Recognition, pp.586-591, 1991.」に記載されている。また、特開平9−251534号公報に示されているように、目、鼻、口等の特徴点を利用した方法により、顔検出処理を行うようにしてもよい。これらの方法は、入力画像と複数の標準パターンとのパターンマッチング法により入力画像が人物の顔であるかどうかを判定している。顔検出処理での顔検出の結果としては、顔画像の特徴点の情報(鼻・口・顔の輪郭形状、サングラスのフレームの形・色、帽子の形状・色、及びそれぞれのサイズと特徴点の位置等)が挙げられる。尚、顔検出処理自体は、前述したように公知の技術で実現できるので、ここでは、その詳細な説明を省略する。
まず、ステップS401において、顔検出部110は顔検出処理を行う。
顔検出処理としては、主成分分析による固有顔(eigenface)を用いた方法がある。この方法は「M.A.Turk and A.P.Pentland, "Face recognition using eigenfaces", Proc. of IEEE Conf. on Computer Vision and Pattern Recognition, pp.586-591, 1991.」に記載されている。また、特開平9−251534号公報に示されているように、目、鼻、口等の特徴点を利用した方法により、顔検出処理を行うようにしてもよい。これらの方法は、入力画像と複数の標準パターンとのパターンマッチング法により入力画像が人物の顔であるかどうかを判定している。顔検出処理での顔検出の結果としては、顔画像の特徴点の情報(鼻・口・顔の輪郭形状、サングラスのフレームの形・色、帽子の形状・色、及びそれぞれのサイズと特徴点の位置等)が挙げられる。尚、顔検出処理自体は、前述したように公知の技術で実現できるので、ここでは、その詳細な説明を省略する。
次に、ステップS402において、顔検出部110は、ステップS401における顔検出処理の結果を元に、顔を検出したか否かを判定する。この判定の結果、顔を検出しなかった場合には、ステップS403に進み、表示部107は、LCDに表示されている顔枠を消す顔枠消し処理を行う。そして、個人識別処理を終了する。
一方、顔を検出した場合には、ステップS404に進み、表示部107は、LCDに顔枠を表示する顔枠表示処理を行う。
一方、顔を検出した場合には、ステップS404に進み、表示部107は、LCDに顔枠を表示する顔枠表示処理を行う。
次に、ステップS405において、動き検出部113は、動き検出処理を行う。例えば、動き検出部113は、画面を構成する画素のもつ輝度値が微小時間後(次のフレーム)にその輝度値を変えず、座標のみが変化したとして、画素の速度ベクトルを求めるオプティカルフロー計算等により動きベクトルを求め、顔画像の周辺の動き検出を行う。
顔画像の周辺の動き検出を、図5〜図8を用いて説明する。
図5は、サングラスをかけた被写体がサングラスを取った場合の顔画像の周辺の動き検出の一例を説明する図である。
図5において、画像データ501は、サングラスをかけた被写体の画像データである。動き検出領域502は、顔画像の周辺の動きを検出する領域である。動き検出領域502は、画像データ501よりも小さく、且つ、検出した顔画像の領域よりも大きい領域とする。
画像データ503は、画像データ501の次のフレームの画像データである。画像データ503では、顔画像の特徴点の一つである目の近傍から物体(サングラス504)が動いたことが検出される。
画像データ505は、画像データ503の次のフレームの画像データである。画像データ505では、動き検出領域502から物体(サングラス504)が出て行ったことが検出される。
図5は、サングラスをかけた被写体がサングラスを取った場合の顔画像の周辺の動き検出の一例を説明する図である。
図5において、画像データ501は、サングラスをかけた被写体の画像データである。動き検出領域502は、顔画像の周辺の動きを検出する領域である。動き検出領域502は、画像データ501よりも小さく、且つ、検出した顔画像の領域よりも大きい領域とする。
画像データ503は、画像データ501の次のフレームの画像データである。画像データ503では、顔画像の特徴点の一つである目の近傍から物体(サングラス504)が動いたことが検出される。
画像データ505は、画像データ503の次のフレームの画像データである。画像データ505では、動き検出領域502から物体(サングラス504)が出て行ったことが検出される。
図6は、被写体がサングラスをかける場合の顔画像の周辺の動き検出の一例を説明する図である。
図6において、画像データ601は、サングラスを持った被写体の画像データである。動き検出領域602は、顔画像の周辺の動きを検出する領域である。動き検出領域602は、画像データ601よりも小さく、且つ、検出した顔画像の領域よりも大きい領域とする。
画像データ603は、画像データ601の次のフレームの画像データである。画像データ603では、動き検出領域602に物体(サングラス604)が入ってきたことが検出される。
画像データ605は、画像データ603の次のフレームの画像データである。画像データ605では、動き検出領域602に入ってきた物体(サングラス604)が顔画像の特徴点の一つである目の近傍で止まった(サングラス604が装着された)ことが検出される。
図6において、画像データ601は、サングラスを持った被写体の画像データである。動き検出領域602は、顔画像の周辺の動きを検出する領域である。動き検出領域602は、画像データ601よりも小さく、且つ、検出した顔画像の領域よりも大きい領域とする。
画像データ603は、画像データ601の次のフレームの画像データである。画像データ603では、動き検出領域602に物体(サングラス604)が入ってきたことが検出される。
画像データ605は、画像データ603の次のフレームの画像データである。画像データ605では、動き検出領域602に入ってきた物体(サングラス604)が顔画像の特徴点の一つである目の近傍で止まった(サングラス604が装着された)ことが検出される。
図7は、被写体が帽子をとった場合の顔画像の周辺の動き検出の一例を説明する図である。
図7において、画像データ701は、帽子を被った被写体の画像データである。動き検出領域702は、顔画像の周辺の動きを検出する領域である。動き検出領域702は、画像データ701よりも小さく、且つ、検出した顔画像の領域よりも大きい領域とする。
画像データ703は、画像データ701の次のフレームの画像データである。画像データ703では、顔画像の特徴点の一つである頭部の近傍(目、眉より上部)から物体(帽子704)が動いたことが検出される。
画像データ705は、画像データ703の次のフレームの画像データである。画像データ705では、動き検出領域702から物体(帽子704)が出て行ったことが検出される。
図7において、画像データ701は、帽子を被った被写体の画像データである。動き検出領域702は、顔画像の周辺の動きを検出する領域である。動き検出領域702は、画像データ701よりも小さく、且つ、検出した顔画像の領域よりも大きい領域とする。
画像データ703は、画像データ701の次のフレームの画像データである。画像データ703では、顔画像の特徴点の一つである頭部の近傍(目、眉より上部)から物体(帽子704)が動いたことが検出される。
画像データ705は、画像データ703の次のフレームの画像データである。画像データ705では、動き検出領域702から物体(帽子704)が出て行ったことが検出される。
図8は、被写体が帽子を被る場合の顔画像の周辺の動き検出の一例を説明する図である。
図8において、画像データ801は、帽子を持った被写体の画像データである。動き検出領域802は、顔画像の周辺の動きを検出する領域である。動き検出領域802は、画像データ801よりも小さく、且つ。検出した顔画像の領域よりも大きい領域とする。
画像データ803は、画像データ801の次のフレームの画像データである。画像データ803では、動き検出領域802に物体(帽子804)が入ってきたことが検出される。
画像データ805は、画像データ803の次のフレームの画像データである。画像データ805では、動き検出領域802から入ってきた物体(帽子804)が顔画像の特徴点の一つである頭部の近傍(目、眉より上部)で止まったことが検出される。
図8において、画像データ801は、帽子を持った被写体の画像データである。動き検出領域802は、顔画像の周辺の動きを検出する領域である。動き検出領域802は、画像データ801よりも小さく、且つ。検出した顔画像の領域よりも大きい領域とする。
画像データ803は、画像データ801の次のフレームの画像データである。画像データ803では、動き検出領域802に物体(帽子804)が入ってきたことが検出される。
画像データ805は、画像データ803の次のフレームの画像データである。画像データ805では、動き検出領域802から入ってきた物体(帽子804)が顔画像の特徴点の一つである頭部の近傍(目、眉より上部)で止まったことが検出される。
以上のように、図4のステップS405の動き検出処理では、動き検出部113は、顔画像の周辺と顔画像の特徴点の近傍とにおける動き検出の結果を、顔画像周辺動き情報としてメモリへ格納する。このとき、動き検出部113は、動き検出領域を画像全体ではなく、顔画像及びその周辺のみとすることで、動き検出範囲を限定し処理速度の向上を図るようにしている。
図4の説明に戻り、ステップS406において、動き判定部116は、ステップS405で得られた顔画像周辺動き情報と、ステップS401で得られた顔画像の特徴点の情報とに基づいて、顔画像の特徴点付近に動きがあったか否かを判定する。例えば、動き判定部116は、顔への物体(メガネ(サングラス)や帽子等)の着脱判定を行う。
図5に示した例では、被写体がサングラスを外したと判定される。図6に示した例では、被写体がサングラスをかけたと判定される。図7に示した例では、被写体が帽子をかぶったと判定される。図8に示した例では、被写体が帽子をとったと判定される。
このステップS406の判定の結果、顔画像の特徴点付近に動きがあった場合には、ステップS407に進み、識別情報切替部112は、識別情報切替処理を行う。一方、顔画像の特徴点付近に動きがなかった場合には、ステップS407を省略して後述するステップS408に進む。
図4の説明に戻り、ステップS406において、動き判定部116は、ステップS405で得られた顔画像周辺動き情報と、ステップS401で得られた顔画像の特徴点の情報とに基づいて、顔画像の特徴点付近に動きがあったか否かを判定する。例えば、動き判定部116は、顔への物体(メガネ(サングラス)や帽子等)の着脱判定を行う。
図5に示した例では、被写体がサングラスを外したと判定される。図6に示した例では、被写体がサングラスをかけたと判定される。図7に示した例では、被写体が帽子をかぶったと判定される。図8に示した例では、被写体が帽子をとったと判定される。
このステップS406の判定の結果、顔画像の特徴点付近に動きがあった場合には、ステップS407に進み、識別情報切替部112は、識別情報切替処理を行う。一方、顔画像の特徴点付近に動きがなかった場合には、ステップS407を省略して後述するステップS408に進む。
図9は、識別情報切替処理の一例を詳細に説明するフローチャートである。
まず、ステップS901において、識別情報切替部112は、顔画像の周辺の動き検出領域の外から顔画像の特徴点の一部分への動きがあったか否かを、顔画像周辺動き情報に基づいて判定する。この判定の結果、顔画像の周辺の動き検出領域の外から顔画像の特徴点の一部分への動きがあった場合には、ステップS902に進む。ステップS902に進むと、識別情報切替部112は、動きのあった顔画像の特徴点の位置と切替え情報とに基づいて、個人識別情報を切り替える。現在の個人識別情報がメインの個人識別情報である場合には、動きのあった顔画像の特徴点の位置と切替え情報とに基づくサブの個人識別情報に個人識別情報が切り替わる。一方、現在の個人識別情報がサブの個人識別情報である場合には、動きのあった顔画像の特徴点の位置と切替え情報とに基づく他のサブの個人識別情報に個人識別情報が切り替わる。そして、識別情報切替処理を終了し、図4のステップS408に進む。本実施形態では、ステップS902において、識別情報切替部112は、記憶している全ての個人識別情報の検索を行わずに、顔画像の特徴点の動きがあった箇所に関連する個人識別情報のみを検索対象とするようにしている。例えば、通常の顔画像301の個人識別情報は検索対象から外される。また、例えば、顔画像の特徴点の一部分が目である場合には、目に物体が装着されていない顔画像(図3に示す例では、サングラスをかけていない顔画像303)の個人識別情報は検索対象から外される。
まず、ステップS901において、識別情報切替部112は、顔画像の周辺の動き検出領域の外から顔画像の特徴点の一部分への動きがあったか否かを、顔画像周辺動き情報に基づいて判定する。この判定の結果、顔画像の周辺の動き検出領域の外から顔画像の特徴点の一部分への動きがあった場合には、ステップS902に進む。ステップS902に進むと、識別情報切替部112は、動きのあった顔画像の特徴点の位置と切替え情報とに基づいて、個人識別情報を切り替える。現在の個人識別情報がメインの個人識別情報である場合には、動きのあった顔画像の特徴点の位置と切替え情報とに基づくサブの個人識別情報に個人識別情報が切り替わる。一方、現在の個人識別情報がサブの個人識別情報である場合には、動きのあった顔画像の特徴点の位置と切替え情報とに基づく他のサブの個人識別情報に個人識別情報が切り替わる。そして、識別情報切替処理を終了し、図4のステップS408に進む。本実施形態では、ステップS902において、識別情報切替部112は、記憶している全ての個人識別情報の検索を行わずに、顔画像の特徴点の動きがあった箇所に関連する個人識別情報のみを検索対象とするようにしている。例えば、通常の顔画像301の個人識別情報は検索対象から外される。また、例えば、顔画像の特徴点の一部分が目である場合には、目に物体が装着されていない顔画像(図3に示す例では、サングラスをかけていない顔画像303)の個人識別情報は検索対象から外される。
一方、ステップS901の判定の結果、顔画像の周辺の動き検出領域の外から顔画像の特徴点の一部分への動きがなかった場合には、ステップS903に進む。ステップS903に進むと、識別情報切替部112は、顔画像の特徴点の一部分から顔画像の周辺の動き検出領域の外への動きがあったか否かを、顔画像周辺動き情報に基づいて判定する。この判定の結果、顔画像の特徴点の一部分から顔画像の周辺の動き検出領域の外への動きがあった場合には、ステップS904に進む。ステップS904に進むと、識別情報切替部112は、個人識別情報を切り替える。現在の個人識別情報が、装着されている物体が1つである顔画像の個人識別情報(サブの個人識別情報)の場合には、メインの個人識別情報に個人識別情報が切り替わる。一方、現在の個人識別情報が、装着されている物体が複数である顔画像の個人識別情報(サブの個人識別情報)の場合には、動きのあった顔画像の特徴点の位置と切替え情報とに基づく他のサブの個人識別情報に個人識別情報が切り替わる。そして、識別情報切替処理を終了し、図4のステップS408に進む。本実施形態では、ステップS904において、識別情報切替部112は、記憶している全ての個人識別情報の検索を行わずに、顔画像の特徴点の動きがあった箇所に関連する個人識別情報のみを検索対象とするようにしている。例えば、顔画像の特徴点の一部分が目である場合には、目に物体が装着されている顔画像(図3に示す例では、サングラスをかけている顔画像302)の個人識別情報は検索対象から外される。
一方、ステップS903の判定の結果、顔画像の特徴点の一部分から顔画像の周辺の動き検出領域の外への動きがなかった場合には、個人識別情報の切り替えを行わずに識別情報切替処理を終了し、図4のステップS408に進む。
一方、ステップS903の判定の結果、顔画像の特徴点の一部分から顔画像の周辺の動き検出領域の外への動きがなかった場合には、個人識別情報の切り替えを行わずに識別情報切替処理を終了し、図4のステップS408に進む。
図4の説明に戻り、ステップS408に進むと、識別部111は、個人識別処理を行う。例えば、識別部111は、現在選択されている個人識別情報と、顔画像の特徴点の情報とに基づいて、特徴点の類似度を判定し、判定した結果を数値化し、数値が閾値以上であれば、当該特徴点は、当該個人識別情報で識別される個人と一致しているとみなす。そして、識別部111は、それぞれの特徴点(眉・目・鼻・口・顔の輪郭形状、サイズ、及びそれぞれの特徴点の位置等)の一致・不一致の結果を総合的に判断して個人(被写体)を識別し、個人識別の結果をメモリに格納する。
次に、ステップS409において、制御部106は、ステップS408における個人識別処理の結果に基づいて個人が識別されたか否かを判定する。
次に、ステップS409において、制御部106は、ステップS408における個人識別処理の結果に基づいて個人が識別されたか否かを判定する。
この判定の結果、個人が識別された場合には、個人識別処理を終了する。一方、個人が識別されなかった場合には、表示部107は、表示部107は、LCDに表示されている顔枠を消す顔枠消し処理を行う。そして、個人識別処理を終了する。
以上、個人識別処理の一例を説明したが、個人識別処理は毎フレーム処理しなくてもよい。さらには、個人識別処理中の顔検出や個人識別は複数フレームに1回行い、動き検出は毎フレーム行う等の処理形態をとってもよい。
以上、個人識別処理の一例を説明したが、個人識別処理は毎フレーム処理しなくてもよい。さらには、個人識別処理中の顔検出や個人識別は複数フレームに1回行い、動き検出は毎フレーム行う等の処理形態をとってもよい。
図10、図11は、個人識別処理が終了した時の1フレームから4フレームまでの画像データの第1、第2の例を示す図である。
図10は、被写体がサングラスをかける動作を行っているときの画像データの移り変わりの一例を示す図である。
図10において、画像データ1001は、1回目の個人識別処理が終わった状態の画像データである。画像データ1001では、人物1002の顔1003が、ステップS401の顔検出処理で検出される。そして、ステップS404において、LCDに顔枠1004が表示される。その後、ステップS408の個人識別処理で、顔1003の特徴点の情報と、記憶部109により登録されている顔画像301(図3(a)を参照)の個人識別情報との類似度に基づき、個人が識別される。尚、顔画像の周辺の動き検出領域1005は、LCDに表示されない。
図10は、被写体がサングラスをかける動作を行っているときの画像データの移り変わりの一例を示す図である。
図10において、画像データ1001は、1回目の個人識別処理が終わった状態の画像データである。画像データ1001では、人物1002の顔1003が、ステップS401の顔検出処理で検出される。そして、ステップS404において、LCDに顔枠1004が表示される。その後、ステップS408の個人識別処理で、顔1003の特徴点の情報と、記憶部109により登録されている顔画像301(図3(a)を参照)の個人識別情報との類似度に基づき、個人が識別される。尚、顔画像の周辺の動き検出領域1005は、LCDに表示されない。
画像データ1011は、2回目の個人識別処理が終わった状態の(画像データ1001の次のフレームの)画像データである。画像データ1001と同様に、画像データ1011でも、人物1012の顔1013が検出される。そして、ステップS404で、LCDに顔枠1014が表示(更新)される。尚、人物1002は、被写体が動いたことを明示的に説明するために画像データ1001の人物1002の残像を示したものであり、LCDには表示されない。また、顔画像の周辺の動き検出領域1015も、LCDには表示されない。
画像データ1021は、3回目の個人識別処理が終わった状態の(画像データ1011の次のフレームの)画像データである。画像データ1001、1011と同様に、画像データ1021でも、人物1022の顔1023が検出される。そして、ステップS404で、LCDに顔枠1024が表示(更新)される。また、ステップS405の動き検出処理では、顔画像の周辺にサングラス1026の動きが検出され、顔画像周辺動き情報がメモリへ保持される。尚、人物1002、1012は、被写体が動いたことを明示的に説明するために画像データ1001、1011の人物1002、1012の残像を示したものであり、LCDには表示されない。また、顔画像の周辺の動き検出領域1025も、LCDには表示されない。
画像データ1031は、4回目の個人識別処理が終わった状態の(画像データ1021の次のフレームの)画像データである。画像データ1001、1011、1021と同様に、画像データ1031でも、人物1032の顔1033が検出される。そして、ステップS404で、LCDに顔枠1034が表示(更新)される。また、ステップS407において、本フレーム(画像データ1131)で、顔画像の周辺の動き検出領域の外からサングラス1036が入ってきて目近傍でサングラス1036が止まったと判定され、個人識別情報が顔画像302の個人識別情報に切り替えられる。識別情報切替処理は、前フレームの動き検出結果の顔画像周辺動き情報(顔画像の周辺へのサングラスの動きあり)と、本フレームの情報と、切り替え情報とに基づいて行われる。このとき、図2のステップS212の個人識別情報登録処理で記録した「同一人物に対する切替え情報」を用いることで、他人の個人識別情報を選択することなくなると共に、個人識別情報の切り替え処理速度を向上することができる。
更に、ステップS408で、顔1033の特徴点の情報(鼻・口・顔の輪郭形状、サングラスのフレームの形・色、及びそれぞれのサイズと特徴点の位置等)と、切り替えた個人識別情報(顔画像302の個人識別情報)との類似度に基づき、個人が識別される。サングラスのフレームの形や色までも比較することで、個人の識別精度を高めている。尚、人物1002、1012、1022は、被写体が動いたことを明示的に説明するために画像データ1001、1011、1021の人物1002、1012、1022の残像を示したものであり、LCDには表示されない。また、顔画像の周辺の動き検出領域1035も、LCDには表示されない。
図11は、被写体がサングラスを外す動作を行っているときの画像データの移り変わりの一例を示す図である。
図11において、画像データ1101は、1回目の個人識別処理が終わった状態の画像データである。画像データ1101では、人物1102の顔1103が、ステップS401の顔検出処理で検出される。そして、ステップS404において、LCDに顔枠1104が表示される。そして、ステップS408の個人識別処理で、顔1103の特徴点の情報と、記憶部109により登録されている顔画像302(図3(b)を参照)の個人識別情報との類似度に基づき、個人が識別される。尚、顔画像の周辺の動き検出領域1105は、LCDに表示されない。
図11において、画像データ1101は、1回目の個人識別処理が終わった状態の画像データである。画像データ1101では、人物1102の顔1103が、ステップS401の顔検出処理で検出される。そして、ステップS404において、LCDに顔枠1104が表示される。そして、ステップS408の個人識別処理で、顔1103の特徴点の情報と、記憶部109により登録されている顔画像302(図3(b)を参照)の個人識別情報との類似度に基づき、個人が識別される。尚、顔画像の周辺の動き検出領域1105は、LCDに表示されない。
画像データ1111は、2回目の個人識別処理が終わった状態の(画像データ1101の次のフレームの)画像データである。画像データ1101と同様に、画像データ1111でも、人物1112の顔1113が検出される。そして、ステップS404で、LCDに顔枠1104が表示(更新)される。尚、人物1102は、被写体が動いたことを明示的に説明するために画像データ1101の人物1102の残像を示したものであり、LCDには表示されない。また、顔画像の周辺の動き検出領域1115も、LCDには表示されない。
画像データ1121は、3回目の個人識別処理が終わった状態の(画像データ1111の次のフレームの)画像データである。画像データ1101、1111と同様に、画像データ1121でも、人物1122の顔1123が検出される。そして、ステップS404で、LCDに顔枠1124が表示(更新)される。また、ステップS405の動き検出処理では、顔画像の周辺の動き検出領域1125において、顔画像の特徴点の1つである目の近傍からサングラス1126が動いたことが検出され、顔画像周辺動き情報がメモリへ保持される。尚、人物1102、1112は、被写体が動いたことを明示的に説明するために画像データ1101、1111の人物1102、1112の残像を示したものであり、LCDには表示されない。また、顔画像の周辺の動き検出領域1125も、LCDには表示されない。
画像データ1131は、4回目の個人識別処理が終わった状態の(画像データ1121の次フレームの)画像データである。画像データ1101、1111、1121と同様に、画像データ1131でも、人物1132の顔1133が検出される。そして、ステップS404で、LCDに顔枠1134が表示(更新)される。また、ステップS407の識別情報切替処理において、本フレーム(画像データ1131)で、顔画像の周辺の動き検出領域からサングラスが出たと判定され、個人識別情報が顔画像301の個人識別情報に切り替えられる。識別情報切替処理は、前フレームの動き検出結果の顔画像周辺動き情報(顔画像の特徴点の1つの目近傍から動きあり)と、本フレームの情報と、切り替え情報とに基づいて行われる。前述したように、同一人物に対する切替え情報を用いることで、他人の個人識別情報を選択することなくなると共に、個人識別情報の切り替え処理速度を向上することができる。
更に、ステップS408で、顔1133の特徴点の情報(目・鼻・口・顔の輪郭形状、及びそれぞれのサイズと特徴点の位置等)と、切り替えた個人識別情報(顔画像301の個人識別情報)との類似度に基づき、個人が識別される。尚、人物1102、1112、1122は、被写体が動いたことを明示的に説明するために画像データ1101、1111、1121の人物1102、1112、1122の残像を示したものであり、LCDには表示されない。また、顔画像の周辺の動き検出領域1135も、LCDには表示されない。
以上のように本実施形態では、再生した画像データから顔画像を検出し、検出した顔画像から個人識別情報を抽出することを、通常の顔画像301、サングラスをかけた顔画像302、帽子を被った顔画像303の夫々について行う。そして、それらが同一人物のものであるとしてそれらを相互に関連付けて記憶する。その後、撮像した画像から顔を検出し、顔画像の特徴点付近に動きがあった場合、動きのあった位置と、動きの方向とに基づいて個人識別情報を切り替える。そして、帽子やサングラスの部分の特徴点も含めて個人の識別を行う。したがって、顔の一部分が隠れた状態でも、その状態に応じた識別情報を用いることが可能になる。よって、個人の識別精度や、顔の追従精度を高めることができる。
また、画像データよりも小さく、顔画像の領域よりも大きい領域を、顔画像の周辺の動き検出領域とした。したがって、画像全体の動き検出を行うよりも、処理速度の向上を図ることがでる。
また、顔画像の周辺の動き検出領域の外から、顔画像の目や頭部近傍への動き判定や、顔画像の目や頭部近傍から、顔画像の周辺の動き検出領域の外への動き判定を行うようにした。したがって、個人識別情報の切り替え時に、記憶している全ての個人識別情報の検索を行わずに、顔画像の特徴点の動きがあった箇所に関連する個人識別情報のみを検索対象とすることができる。したがって、個人識別情報の切り替え処理の速度の向上を図ることができる。
また、同一人物の個人識別情報を関連付けて切替え情報として保持するようにした。したがって、個人識別情報の切り替え時に、他人の個人識別情報を選択することがなくなると共に、個人識別情報の切り替え処理の速度の向上を図ることができる。
また、顔画像の周辺の動き検出領域の外から、顔画像の目や頭部近傍への動き判定や、顔画像の目や頭部近傍から、顔画像の周辺の動き検出領域の外への動き判定を行うようにした。したがって、個人識別情報の切り替え時に、記憶している全ての個人識別情報の検索を行わずに、顔画像の特徴点の動きがあった箇所に関連する個人識別情報のみを検索対象とすることができる。したがって、個人識別情報の切り替え処理の速度の向上を図ることができる。
また、同一人物の個人識別情報を関連付けて切替え情報として保持するようにした。したがって、個人識別情報の切り替え時に、他人の個人識別情報を選択することがなくなると共に、個人識別情報の切り替え処理の速度の向上を図ることができる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態では、識別情報切替処理において、個人識別情報を登録できるようにする。このように本実施形態と第1の実施形態とは、識別情報切替処理の一部が主として異なる。したがって、本実施形態の説明において、前述した第1の実施形態と同一の部分については、図1〜図11に付した符号と同一の符号を付す等して詳細な説明を省略する。
次に、本発明の第2の実施形態について説明する。本実施形態では、識別情報切替処理において、個人識別情報を登録できるようにする。このように本実施形態と第1の実施形態とは、識別情報切替処理の一部が主として異なる。したがって、本実施形態の説明において、前述した第1の実施形態と同一の部分については、図1〜図11に付した符号と同一の符号を付す等して詳細な説明を省略する。
図12は、識別情報切替処理の一例を詳細に説明するフローチャートである。
まず、ステップS1201において、識別情報切替部112は、顔画像の周辺の動き検出領域の外から顔画像の特徴点の一部分への動きがあったか否かを、顔画像周辺動き情報に基づいて判定する。この判定の結果、顔画像の周辺の動き検出領域の外から顔画像の特徴点の一部分への動きがあった場合には、ステップS1202に進む。ステップS1202に進むと、識別情報切替部112は、図2のステップS211の個人識別情報登録処理で記録した「同一人物に対する切替え情報」に基づいて、切り替える個人識別情報があるか否かを判定する。特定の個人に対して、例えば、図3の顔画像301〜303のようなメイン及びサブの顔画像の個人識別情報が登録されていた場合には、ステップS1202において、切り替える個人識別情報があると判定される。一方、例えば、図3の顔画像301のようなメインの顔画像の個人識別情報のみが登録されていた場合には、ステップS1202において、切り替える個人識別情報がないと判定される。
まず、ステップS1201において、識別情報切替部112は、顔画像の周辺の動き検出領域の外から顔画像の特徴点の一部分への動きがあったか否かを、顔画像周辺動き情報に基づいて判定する。この判定の結果、顔画像の周辺の動き検出領域の外から顔画像の特徴点の一部分への動きがあった場合には、ステップS1202に進む。ステップS1202に進むと、識別情報切替部112は、図2のステップS211の個人識別情報登録処理で記録した「同一人物に対する切替え情報」に基づいて、切り替える個人識別情報があるか否かを判定する。特定の個人に対して、例えば、図3の顔画像301〜303のようなメイン及びサブの顔画像の個人識別情報が登録されていた場合には、ステップS1202において、切り替える個人識別情報があると判定される。一方、例えば、図3の顔画像301のようなメインの顔画像の個人識別情報のみが登録されていた場合には、ステップS1202において、切り替える個人識別情報がないと判定される。
ステップS1202の判定の結果、切り替える個人識別情報がある場合には、ステップS1203に進む。ステップS1203に進むと、識別情報切替部112は、動きのあった顔画像の特徴点の位置と切替え情報とに基づいて、個人識別情報を切り替える。現在の個人識別情報がメインの個人識別情報である場合には、動きのあった顔画像の特徴点の位置と切替え情報とに基づくサブの個人識別情報に個人識別情報が切り替わる。一方、現在の個人識別情報がサブの個人識別情報である場合には、動きのあった顔画像の特徴点の位置と切替え情報とに基づく他のサブの個人識別情報に個人識別情報が切り替わる。そして、識別情報切替処理を終了し、図4のステップS408に進む。本実施形態でも、図9のステップS902と同様に、ステップS1203において、識別情報切替部112は、記憶している全ての個人識別情報の検索を行わずに、顔画像の特徴点の動きがあった箇所に関連する個人識別情報のみを検索対象とするようにしている。
一方、ステップS1202の判定の結果、切り替える個人識別情報がない場合には、ステップS1204に進み、表示部107は、個人識別情報の登録をユーザに促すUIをLCDに表示する。
次に、ステップS1205において、制御部106は、ステップS1204で表示されたUIに対するユーザの操作の内容に基づいて、個人識別情報を登録するか否かを判定する。この判定の結果、個人識別情報を登録する場合には、ステップS1206に進み、個人識別情報登録処理が行われる。この個人識別情報登録処理は、図2のステップS211と同じ処理である。ただし、顔画像の抽出対象には撮像前のライブ画像が含まれる。そして、識別情報切替処理を終了し、図4のステップS408に進む。
一方、ステップS1205の判定の結果、個人識別情報を登録しない場合には、ステップS1206の処理を行わずに識別情報切替処理を終了し、図4のステップS408に進む。
次に、ステップS1205において、制御部106は、ステップS1204で表示されたUIに対するユーザの操作の内容に基づいて、個人識別情報を登録するか否かを判定する。この判定の結果、個人識別情報を登録する場合には、ステップS1206に進み、個人識別情報登録処理が行われる。この個人識別情報登録処理は、図2のステップS211と同じ処理である。ただし、顔画像の抽出対象には撮像前のライブ画像が含まれる。そして、識別情報切替処理を終了し、図4のステップS408に進む。
一方、ステップS1205の判定の結果、個人識別情報を登録しない場合には、ステップS1206の処理を行わずに識別情報切替処理を終了し、図4のステップS408に進む。
ステップS1201において、顔画像の周辺の動き検出領域の外から顔画像の特徴点の一部分への動きがなかった場合には、ステップS1207に進む。ステップS1207に進むと、識別情報切替部112は、顔画像の特徴点の一部分から顔画像の周辺の動き検出領域の外への動きがあったか否かを、顔画像周辺動き情報に基づいて判定する。この判定の結果、顔画像の特徴点の一部分から顔画像の周辺の動き検出領域の外への動きがあった場合には、ステップS1208に進む。ステップS1208に進むと、識別情報切替部112は、個人識別情報を切り替える。現在の個人識別情報が、装着されている物体が1つである顔画像の個人識別情報(サブの個人識別情報)の場合には、メインの個人識別情報に個人識別情報が切り替わる。一方、現在の個人識別情報が、装着されている物体が複数である顔画像の個人識別情報(サブの個人識別情報)の場合には、動きのあった顔画像の特徴点の位置と切替え情報とに基づく他のサブの個人識別情報に個人識別情報が切り替わる。そして、識別情報切替処理を終了し、図4のステップS408に進む。本実施形態でも、図9のステップS904と同様に、ステップS1208において、識別情報切替部112は、記憶している全ての個人識別情報の検索を行わずに、顔画像の特徴点の動きがあった箇所に関連する個人識別情報のみを検索対象とするようにしている。
一方、ステップS1207の判定の結果、顔画像の特徴点の一部分から顔画像の周辺の動き検出領域の外への動きがなかった場合には、個人識別情報の切り替えを行わずに識別情報切替処理を終了し、図4のステップS408に進む。
一方、ステップS1207の判定の結果、顔画像の特徴点の一部分から顔画像の周辺の動き検出領域の外への動きがなかった場合には、個人識別情報の切り替えを行わずに識別情報切替処理を終了し、図4のステップS408に進む。
以上のように本実施形態では、顔画像の周辺の動き検出領域の外から顔画像の特徴点の一部分への動きがあったときの個人識別情報の切り替え時に、切り替える個人識別情報があるか否かを判定する。この判定の結果、切り替える個人識別情報がない場合には、個人識別情報を生成して登録できるようにした。したがって、個人識別情報登録モードへ移行せずに(図2のステップS211の処理を行わずに)、個人識別情報の登録が可能となり、使い勝手のよいUIを提供することができ、よくかけるサングラスやよくかぶる帽子等の登録を撮像前に行うことができる。よって、個人の識別精度と、顔の追従精度を、より一層高めることができる。
尚、本実施形態では、切り替える個人識別情報がない場合は、個人識別情報の登録を促すUIを自動的にLCDに表示させる場合を例に挙げて説明した。しかしながら、必ずしもこのようにする必要はなく、切り替える個人識別情報がない場合の登録モードをメニュー設定により設定できるようにしてもよい。このようにした場合には、例えば、次のようにすることができる。まず、図12のステップS1202において、切り替える個人識別情報がないと判定されると、この登録モードに移行しているか否かを判定する。この判定の結果、登録モードに移行している場合には、個人識別情報の登録を促すUIを表示して個人識別情報の登録を行い、そうでない場合には、識別情報切替処理を終了し、図4のステップS408に進むようにしてもよい。
尚、本実施形態では、切り替える個人識別情報がない場合は、個人識別情報の登録を促すUIを自動的にLCDに表示させる場合を例に挙げて説明した。しかしながら、必ずしもこのようにする必要はなく、切り替える個人識別情報がない場合の登録モードをメニュー設定により設定できるようにしてもよい。このようにした場合には、例えば、次のようにすることができる。まず、図12のステップS1202において、切り替える個人識別情報がないと判定されると、この登録モードに移行しているか否かを判定する。この判定の結果、登録モードに移行している場合には、個人識別情報の登録を促すUIを表示して個人識別情報の登録を行い、そうでない場合には、識別情報切替処理を終了し、図4のステップS408に進むようにしてもよい。
尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
(その他の実施例)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
108 識別情報取得部、111 識別部、112 識別情報切替部
Claims (8)
- 撮像手段で得られた画像データから、被写体の顔画像の特徴点を抽出する抽出手段と、
被写体を識別するための識別情報であって、顔画像の特徴点に関する情報を含む識別情報を、1つの被写体について複数通り記憶する記憶手段と、
前記画像データから、前記被写体の動きを検出する動き検出手段と、
前記記憶手段により記憶された識別情報と、前記抽出手段により抽出された顔画像の特徴点とに基づいて、前記被写体を識別する識別手段と、
前記動き検出手段により検出された被写体の動きであって、当該被写体の顔画像を含む領域における動きに応じて、当該被写体に対する識別情報を、前記記憶手段により記憶された識別情報から選択して切り替える切替手段と、を有することを特徴とする撮像装置。 - 前記動き検出手段は、前記画像データよりも小さく、且つ、前記顔画像の領域よりも大きい顔画像周辺動き検出領域における被写体の動きを検出することを特徴とする請求項1に記載の撮像装置。
- 前記被写体の顔画像を含む領域における動きは、前記顔画像周辺動き検出領域の外から前記顔画像の一部分への動きと、前記顔画像の一部分から前記顔画像周辺動き検出領域の外への動きと、を含むことを特徴とする請求項2に記載の撮像装置。
- 前記記憶手段は、1つの被写体についての複数通りの識別情報を相互に関連付けて記憶することを特徴とする請求項1〜3の何れか1項に記載の撮像装置。
- 前記動き検出手段により検出された被写体の動きであって、当該被写体の顔画像を含む領域における動きに応じた識別情報が記憶されていない場合に、当該顔画像に基づいて、当該被写体についての識別情報を生成する生成手段を更に有し、
前記記憶手段は、前記生成手段により識別情報が生成されると、当該識別情報を記憶することを特徴とする請求項1〜4の何れか1項に記載の撮像装置。 - 前記1つの被写体についての複数通りの識別情報は、何も装着していない顔画像の特徴点に関する情報と、物体を装着している顔画像の特徴点に関する情報とを含むことを特徴とする請求項1〜5の何れか1項に記載の撮像装置。
- 撮像手段で得られた画像データから、被写体の顔画像の特徴点を抽出する抽出ステップと、
被写体を識別するための識別情報であって、顔画像の特徴点に関する情報を含む識別情報を、1つの被写体について複数通り記憶する記憶ステップと、
前記画像データから、前記被写体の動きを検出する動き検出ステップと、
前記記憶ステップにより記憶された識別情報と、前記抽出ステップにより抽出された顔画像の特徴点とに基づいて、前記被写体を識別する識別ステップと、
前記動き検出ステップにより検出された被写体の動きであって、当該被写体の顔画像を含む領域における動きに応じて、当該被写体に対する識別情報を、前記記憶ステップにより記憶された識別情報から選択して切り替える切替ステップと、を有することを特徴とする撮像装置の制御方法。 - 撮像手段で得られた画像データから、被写体の顔画像の特徴点を抽出する抽出ステップと、
被写体を識別するための識別情報であって、顔画像の特徴点に関する情報を含む識別情報を、1つの被写体について複数通り記憶媒体に記憶する記憶ステップと、
前記画像データから、前記被写体の動きを検出する動き検出ステップと、
前記記憶ステップにより記憶された識別情報と、前記抽出ステップにより抽出された顔画像の特徴点とに基づいて、前記被写体を識別する識別ステップと、
前記動き検出ステップにより検出された被写体の動きであって、当該被写体の顔画像を含む領域における動きに応じて、当該被写体に対する識別情報を、前記記憶ステップにより記憶された識別情報から選択して切り替える切替ステップと、をコンピュータに実行させることを特徴とするコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009228101A JP2011076439A (ja) | 2009-09-30 | 2009-09-30 | 撮像装置、撮像装置の制御方法、及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009228101A JP2011076439A (ja) | 2009-09-30 | 2009-09-30 | 撮像装置、撮像装置の制御方法、及びコンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011076439A true JP2011076439A (ja) | 2011-04-14 |
Family
ID=44020346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009228101A Abandoned JP2011076439A (ja) | 2009-09-30 | 2009-09-30 | 撮像装置、撮像装置の制御方法、及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011076439A (ja) |
-
2009
- 2009-09-30 JP JP2009228101A patent/JP2011076439A/ja not_active Abandoned
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4274233B2 (ja) | 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム | |
KR101490016B1 (ko) | 인물 화상 처리 장치 및 인물 화상 처리 방법 | |
JP6106921B2 (ja) | 撮像装置、撮像方法および撮像プログラム | |
JP4898532B2 (ja) | 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体 | |
JP4725377B2 (ja) | 顔画像登録装置、顔画像登録方法、顔画像登録プログラム、および記録媒体 | |
US8494286B2 (en) | Face detection in mid-shot digital images | |
JP4844670B2 (ja) | 映像処理装置および映像処理方法 | |
JP2011165008A (ja) | 画像認識装置および方法 | |
JP5959923B2 (ja) | 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置 | |
JP2010233133A (ja) | ビデオデータ記録装置、ビデオデータ再生装置、およびビデオデータ記録方法、ビデオデータ再生方法 | |
KR101325002B1 (ko) | 화상 처리 장치, 화상 처리 방법 및 기록 매체 | |
JP6098133B2 (ja) | 顔構成部抽出装置、顔構成部抽出方法及びプログラム | |
WO2012014946A1 (ja) | 画像処理装置、および画像処理プログラム | |
JP6087615B2 (ja) | 画像処理装置およびその制御方法、撮像装置、および表示装置 | |
JP5092093B2 (ja) | 画像処理装置 | |
JP5995610B2 (ja) | 被写体認識装置及びその制御方法、撮像装置、表示装置、並びにプログラム | |
JP2011076439A (ja) | 撮像装置、撮像装置の制御方法、及びコンピュータプログラム | |
JP2008148262A (ja) | 撮像装置及び撮像装置の制御方法、プログラム及び記憶媒体 | |
JP2021105850A (ja) | 画像処理装置及び方法、及び撮像装置 | |
JP2008158976A (ja) | 被写体認識装置、画像検索方法、および被写体認識プログラム | |
JP2008167028A (ja) | 撮像装置 | |
JP6776532B2 (ja) | 画像処理装置、撮像装置、電子機器及び画像処理プログラム | |
JP7110657B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2013182478A (ja) | 被写体追尾装置、被写体追尾方法およびカメラ | |
JP2013182479A (ja) | 被写体追尾装置、被写体追尾方法およびカメラ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120924 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20130729 |