JP7138199B2 - 顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラム - Google Patents

顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラム Download PDF

Info

Publication number
JP7138199B2
JP7138199B2 JP2020569387A JP2020569387A JP7138199B2 JP 7138199 B2 JP7138199 B2 JP 7138199B2 JP 2020569387 A JP2020569387 A JP 2020569387A JP 2020569387 A JP2020569387 A JP 2020569387A JP 7138199 B2 JP7138199 B2 JP 7138199B2
Authority
JP
Japan
Prior art keywords
image
face area
captured image
face
area detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020569387A
Other languages
English (en)
Other versions
JPWO2020158102A1 (ja
Inventor
秀昭 國分
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020158102A1 publication Critical patent/JPWO2020158102A1/ja
Application granted granted Critical
Publication of JP7138199B2 publication Critical patent/JP7138199B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Description


本発明は、顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラムに関する。

撮像画像から被写体の一部である顔を検出する機能を備えた撮像装置が知られている。この機能によって顔が検出されると、検出された顔を囲う顔枠を撮像画像に重畳して表示し、この顔枠内の対象画像にピントを合わせたり、露出制御を行ったりすることで、その顔にとって好適な条件で撮像することができる。また、撮像画像からの顔検出に失敗した場合には、直前に検出された顔をテンプレート画像として記憶し、このテンプレート画像に類似する領域を撮像画像から探索し、探索された領域を顔領域として検出する追尾機能も知られている(特許文献1-3参照)。

特開2010-130493号公報 特開2011-029822号公報 特開2018-004916号公報

上述した追尾機能において、基準とするテンプレート画像のサイズが大きくなると、このテンプレート画像に類似する領域の探索に時間がかかり、追尾性能が低下する。特許文献1-3には、追尾処理の負荷を軽減することについては考慮されていない。

本発明は、上記事情に鑑みてなされたものであり、顔領域の検出処理を軽負荷にて行うことができる顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラムを提供することを目的とする。

本発明の顔領域検出装置は、撮像素子から出力される撮像画像から顔領域を検出する顔領域検出装置であって、第一の撮像画像から検出された上記顔領域を基準画像として、上記第一の撮像画像よりも後に出力された第二の撮像画像から、上記基準画像の一部である特定画像に類似する類似領域を探索し、上記第二の撮像画像における上記類似領域を含む上記基準画像と同じサイズの第一領域を顔領域として検出する追尾処理部を備え、上記基準画像における上記特定画像の位置と、上記第一領域における上記類似領域の位置とは一致しているものである。

本発明の撮像装置は、上記顔領域検出装置と、上記撮像素子と、を備えるものである。

本発明の顔領域検出方法は、撮像素子から出力される撮像画像から顔領域を検出する顔領域検出方法であって、第一の撮像画像から検出された上記顔領域を基準画像として、上記第一の撮像画像よりも後に出力された第二の撮像画像から、上記基準画像の一部である特定画像に類似する類似領域を探索し、上記第二の撮像画像における上記類似領域を含む上記基準画像と同じサイズの第一領域を顔領域として検出する追尾処理ステップを備え、上記基準画像における上記特定画像の位置と、上記第一領域における上記類似領域の位置は一致しているものである。

本発明の顔領域検出プログラムは、撮像素子から出力される撮像画像から顔領域を検出する顔領域検出プログラムであって、第一の撮像画像から検出された上記顔領域を基準画像として、上記第一の撮像画像よりも後に出力された第二の撮像画像から、上記基準画像の一部である特定画像に類似する類似領域を探索し、上記第二の撮像画像における上記類似領域を含む上記基準画像と同じサイズの第一領域を顔領域として検出する追尾処理ステップをコンピュータに実行させるためのものであり、上記基準画像における上記特定画像の位置と、上記第一領域における上記類似領域の位置は一致しているものである。

本発明によれば、顔領域の検出処理を軽負荷にて行うことができる顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラムを提供することができる。

本発明の撮像装置の一実施形態であるデジタルカメラ100の概略構成を示す図である。 図1に示すデジタルカメラ100のシステム制御部11の機能ブロック図である。 システム制御部11による追尾処理の具体例を説明するための模式図である。 システム制御部11の動作を説明するためのフローチャートである。 図4に示すステップS4の詳細を示すフローチャートである。 システム制御部11の追尾処理の具体例の変形例を説明するための模式図である。 図4に示すステップS4の追尾処理の変形例を示すフローチャートである。 図1に示すデジタルカメラ100のシステム制御部11の機能ブロックの変形例を示す図である。 図1に示すデジタルカメラ100のシステム制御部11の機能ブロックの変形例を示す図である。 誤追尾の判定処理の変形例を説明するための模式図である。 本発明の撮像装置の一実施形態であるスマートフォン200の外観を示すものである。 図11に示すスマートフォン200の構成を示すブロック図である。

以下、本発明の実施形態について図面を参照して説明する。

図1は、本発明の撮像装置の一実施形態であるデジタルカメラ100の概略構成を示す図である。

図1に示すデジタルカメラは、撮像レンズ1と、絞り2と、レンズ制御部4と、レンズ駆動部8と、絞り駆動部9と、を有するレンズ装置40を備える。

レンズ装置40は、デジタルカメラ100に着脱可能なものであってもよいし、デジタルカメラ100と一体化されたものであってもよい。

撮像レンズ1と絞り2は撮像光学系を構成し、撮像光学系は光軸方向に移動可能なフォーカスレンズを少なくとも含む。

このフォーカスレンズは、撮像光学系の焦点を調節するためのレンズであり、単一のレンズ又は複数のレンズで構成される。フォーカスレンズが光軸方向に移動することで、フォーカスレンズの主点の位置が光軸方向に沿って変化し、被写体側の焦点位置の変更が行われる。なお、フォーカスレンズとしては、電気的な制御により、光軸方向の主点の位置を変更可能な液体レンズが用いられてもよい。

レンズ装置40のレンズ制御部4は、デジタルカメラ100のシステム制御部11と有線又は無線によって通信可能に構成される。

レンズ制御部4は、システム制御部11からの指令にしたがい、レンズ駆動部8を介して撮像レンズ1に含まれるフォーカスレンズを駆動してフォーカスレンズの主点の位置を変更したり、絞り駆動部9を介して絞り2の開口量を制御したりする。

デジタルカメラ100は、更に、撮像光学系を通して被写体を撮像するCCD(Charge Coupled Device)型イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等の撮像素子5と、撮像素子5の出力に接続された相関二重サンプリング処理等のアナログ信号処理を行うアナログ信号処理部6と、アナログ信号処理部6から出力されるアナログ信号をデジタル信号に変換するアナログデジタル変換回路7と、を備える。

アナログ信号処理部6及びアナログデジタル変換回路7は、システム制御部11によって制御される。アナログ信号処理部6及びアナログデジタル変換回路7は、撮像素子5と一体化されていてもよい。

撮像素子5は、複数の画素が二次元状に配置された撮像面を有し、撮像光学系によってこの撮像面に結像される被写体像をこの複数の画素によって電気信号(画素信号)に変換して出力する。撮像素子5の各画素から出力される画素信号の集合を以下では撮像画像という。

デジタルカメラ100の電気制御系全体を統括制御するシステム制御部11は、撮像素子駆動部10を介して撮像素子5を駆動し、レンズ装置40の撮像光学系を通して撮像した被写体像を撮像画像として出力させる。

システム制御部11には、操作部14を通してユーザからの指示信号が入力される。

システム制御部11は、デジタルカメラ100全体を統括制御するものであり、ハードウェア的な構造は、プログラムを実行して処理を行う各種のプロセッサである。

各種のプロセッサとしては、プログラムを実行して各種処理を行う汎用的なプロセッサであるCPU(Central Prosessing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又はASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。

これら各種のプロセッサの構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。

システム制御部11は、各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAの組み合わせ)で構成されてもよい。

更に、このデジタルカメラ100の電気制御系は、RAM(Random Accsess Memory)から構成されるメインメモリ16と、メインメモリ16へのデータ記憶及びメインメモリ16からのデータ読み出しの制御を行うメモリ制御部15と、アナログデジタル変換回路7から出力される撮像画像に対しデジタル信号処理を行ってJPEG(Joint Photographic Experts Group)形式等の各種フォーマットにしたがった撮像画像データを生成するデジタル信号処理部17と、記憶媒体21へのデータ記憶及び記憶媒体21からのデータ読み出しの制御を行う外部メモリ制御部20と、有機EL(electroluminescence)ディスプレイ又は液晶ディスプレイ等で構成される表示部23と、表示部23の表示を制御する表示制御部22と、を備える。

記憶媒体21は、デジタルカメラ100に内蔵されるフラッシュメモリ等の半導体メモリ又はデジタルカメラ100に着脱可能な可搬型の半導体メモリ等である。

メモリ制御部15、デジタル信号処理部17、外部メモリ制御部20、及び表示制御部22は、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令によって制御される。

図2は、図1に示すデジタルカメラ100のシステム制御部11の機能ブロック図である。

システム制御部11は、顔領域検出プログラムを含むプログラムを実行することで、顔検出部11A、追尾処理部11B、及び表示制御部11Cとして機能する。本明細書におけるシステム制御部11は、顔領域検出装置を構成する。

顔検出部11Aは、ライブビュー画像表示等のための動画撮像時において撮像素子5から出力される撮像画像から、人物又は動物の顔を示す顔領域を検出する顔検出処理を行う。

追尾処理部11Bは、顔領域の検出対象となる撮像画像に対する顔検出処理によって顔領域の検出が失敗(顔領域が検出できない状態)となった場合に、以下の追尾処理を行う。

追尾処理は、検出対象となる撮像画像(第二の撮像画像とする)よりも前に撮像素子5から出力された第一の撮像画像から検出されていた顔領域を基準画像として設定し、第二の撮像画像から、この基準画像の一部である特定画像に類似する類似領域を探索し、第二の撮像画像におけるこの類似領域を含み且つ基準画像と同じサイズの第一領域を顔領域として検出する処理である。なお、第一の撮像画像から検出されていた上記の顔領域とは、顔検出処理又は追尾処理のどちらかによって得られたものである。

表示制御部11Cは、顔検出部11Aと追尾処理部11Bのいずれかによって、検出対象となる撮像画像から顔領域が検出された場合には、この撮像画像にその顔領域を示す枠を重畳させた画像を表示部23に表示させる。

図3は、システム制御部11による追尾処理の具体例を説明するための模式図である。図3には、図中の左から右に移動する人物を撮像素子5により撮像して得られた第一の撮像画像G1と第二の撮像画像G2が示されている。第二の撮像画像G2は、第一の撮像画像G1よりも後に撮像素子5から出力されたものである。

図3の例では、第一の撮像画像G1から顔検出処理によって顔領域30が検出されているものとする。第二の撮像画像G2から顔検出処理によって顔領域が検出できなかった場合には、追尾処理部11Bは、第一の撮像画像G1から検出された顔領域30を基準画像として設定する。そして、追尾処理部11Bは、この基準画像のうちの一部(図3の例では、基準画像の中心に設定された基準画像よりも狭い領域)を特定画像31として決定する。追尾処理部11Bは、第二の撮像画像G2から、この特定画像31と類似する類似領域33を探索し、類似領域33を含み且つ基準画像と同じサイズの第一領域32を顔領域として検出する。

追尾処理部11Bは、基準画像(顔領域30)における特定画像31の位置と、第一領域32における類似領域33の位置とが一致する(換言すると、第一領域32と類似領域33との位置関係が、基準画像と特定画像31との位置関係と一致する)ように、第一領域32の位置を決定する。これにより、類似領域33の探索に要する処理負荷を軽減しながら、顔領域30と一致する第一領域32を顔領域として検出することを可能としている。

図4は、システム制御部11の動作を説明するためのフローチャートである。図5は、図4に示すステップS4の詳細を示すフローチャートである。

動画撮像が開始された後、撮像素子5から顔領域の検出対象となる第二の撮像画像の出力がなされると、顔検出部11Aが、この第二の撮像画像から顔領域を検出する顔検出処理を行う(ステップS1)。顔検出処理の結果、第二の撮像画像から顔領域が検出された場合(ステップS2:YES)には、顔領域ありの結果がメモリに保存される(ステップS3)。一方、顔検出処理の結果、第二の撮像画像から顔領域が検出されなかった場合(ステップS2:NO)には、ステップS4において追尾処理が行われる。

図5に示すように、追尾処理においては、まず、追尾処理部11Bが、第二の撮像画像よりも前に出力された第一の撮像画像に対し、顔検出処理又は追尾処理によって顔領域が検出されているか否かを判定する(ステップS41)。

ステップS41の判定がNOとなった場合には、追尾処理が不可のため、追尾処理部11Bは、第二の撮像画像には顔領域なしと判定し、その結果をメモリに保存する(ステップS48)。一方、ステップS41の判定がYESとなった場合には、追尾処理部11Bは、第一の撮像画像から検出された顔領域の画像を基準画像として設定する(ステップS42)。

次に、追尾処理部11Bは、設定した基準画像の一部を特定画像として決定し、第二の撮像画像から、この特定画像と類似する類似領域を探索する(ステップS43)。

ステップS43の探索の結果、類似領域があった場合(ステップS44:YES)には、追尾処理部11Bは、第二の撮像画像においてこの類似領域を含む上記の第一領域を設定し(ステップS45)、設定した第一領域を顔領域と判定し、顔領域ありの結果をメモリに保存する(ステップS46)。

ステップS43の探索の結果、類似領域がなかった場合(ステップS44:NO)には、追尾処理部11Bは、第二の撮像画像には顔領域なしと判定し、その結果をメモリに保存する(ステップS48)。なお、追尾処理部11Bは、ステップS2の判定がNOとなり且つステップS44の判定がNOとなる状態が1回発生した場合にステップS48の処理を行うのではなく、この状態が一定回数連続して発生した場合にステップS48の処理を行うようにしてもよい。

図4のステップS3とステップS4の後、表示制御部11Cは、メモリに保存された最新の顔領域の検出結果の情報を参照し、顔領域がありの場合(ステップS5:YES)には、第二の撮像画像に顔領域を示す枠を重畳させた画像を表示部23に表示させる(ステップS7)。表示制御部11Cは、顔領域がなしの場合(ステップS5:NO)には、顔領域を示す枠を重畳させない第二の撮像画像を表示部23に表示させる(ステップS6)。動画撮像中は以上の処理が繰り返される。

以上のように、デジタルカメラ100によれば、図3に例示したように、過去に検出された顔領域30と類似する第一領域32を第二の撮像画像G2から探索(追尾)するにあたり、過去に検出された顔領域30よりも狭い領域の特定画像31を使って類似領域33を探索し、この類似領域33の位置から、第一領域32を決定している。このため、第二の撮像画像G2から、顔領域30に類似する第一領域32を追尾するために要するシステム制御部11の処理負荷を軽減することができる。この結果、顔検出処理を高速化したり、システム制御部11のコストを下げたりすることができる。

なお、図3の例において、追尾処理部11Bは、基準画像(顔領域30)における特定画像31を、基準画像の中心に設定するものとしたが、これに限らない。例えば、追尾処理部11Bは、基準画像を解析し、その解析結果に基づいて、基準画像のどの部分を特定画像とするかを決定してもよい。具体的には、追尾処理部11Bは、基準画像のコントラスト値を求め、その基準画像において、このコントラスト値が予め決められた閾値を超える部分を特定画像として決定する。

図6は、基準画像における特定画像の設定例の変形例を説明するための模式図である。図6の例では、基準画像として設定された顔領域30のうち、コントラスト値が閾値以上となっている人物の眼の領域が特定画像31として決定される。そして、この特定画像31と類似する類似領域33が第二の撮像画像G2から探索され、この類似領域33を含む第一領域32が顔領域として検出される。

このように、コントラストが高い部分を特定画像31とすることで、類似領域33の探索精度を高めることができ、顔領域である第一領域32の検出精度を高めることができる。

なお、ここでは、基準画像におけるコントラスト値が閾値以上となる部分を特定画像としたが、基準画像から眼を検出し、検出した眼を含む部分を特定画像として決定してもよい。

図7は、図4に示すステップS4の追尾処理の変形例を示すフローチャートである。図7に示すフローチャートは、ステップS45とステップS46の間に、ステップS51、ステップS52、及びステップS53が追加された点を除いては、図4と同じである。図7において図4と同じ処理には同一符号を付して説明を省略する。なお、この変形例の動作においては、撮像素子5として、上記の複数の画素に位相差検出用画素を含むものが用いられるものとしている。

ステップS45の後、追尾処理部11Bは、顔領域が検出済みの第一の撮像画像から設定した基準画像に含まれる位相差検出用画素の信号に基づいて、この基準画像に含まれる被写体の第一の距離情報L1を算出する(ステップS51)。更に、追尾処理部11Bは、検出対象となる第二の撮像画像に設定した第一領域に含まれる位相差検出用画素の信号に基づいて、この第一領域に含まれる被写体の第二の距離情報L2を算出する(ステップS52)。

次に、追尾処理部11Bは、第一の距離情報L1と第二の距離情報L2の差の絶対値が予め決められた距離閾値を超えるか否かを判定する(ステップS53)。第一の距離情報L1と第二の距離情報L2の差の絶対値が大きくなる場合とは、第一の撮像画像の顔領域に含まれる被写体と、第二の撮像画像から検出された顔領域(第一領域)に含まれる被写体とが大きく異なる状態になっている可能性がある場合を意味する。つまり、この差の絶対値が大きいと、第一領域に顔ではない物体が含まれており、誤追尾が発生している可能性があると判断することができる。

そこで、追尾処理部11Bは、第一の距離情報L1と第二の距離情報L2の差の絶対値が上記距離閾値を超えている場合(ステップS53:YES)には、ステップS45にて設定した第一領域は非顔領域であると判定し、ステップS48に処理を移行する。一方、追尾処理部11Bは、第一の距離情報L1と第二の距離情報L2の差の絶対値が上記距離閾値以下であれば(ステップS53:NO)、ステップS46に処理を移行し、ステップS45にて設定した第一領域を顔領域であると判定する。

以上のように、図7に示す変形例によれば、顔ではない被写体への誤追尾が発生したか否かを判定することができ、顔領域の検出精度を高めることができる。この結果、顔ではない物体に露出又は焦点が合うといったことを防ぐことができ、撮像画質の品質を向上させることができる。

図8は、図1に示すデジタルカメラ100のシステム制御部11の機能ブロックの変形例を示す図である。システム制御部11は、顔領域検出プログラムを含むプログラムを実行することで、顔検出部11A、追尾処理部11B、表示制御部11C、及び予測部11Dとして機能する。この変形例では、追尾処理部11Bが図7に示す動作を行う。

図8に示すシステム制御部11の予測部11Dは、図7のステップS42にて基準画像を設定した第一の撮像画像と、それよりも前に撮像素子5から出力される1つ又は複数の撮像画像とに基づいて、この第一の撮像画像から検出された顔領域に含まれる顔の上記撮像光学系の光軸方向の動きを予測する。

図8に示すシステム制御部11の追尾処理部11Bは、予測部11Dによって予測された顔の動きが第一の値の場合には、この動きが第一の値よりも大きい第二の場合よりも、上記の距離閾値を小さくする。

第一の距離情報L1と第二の距離情報L2との差は、基準画像と第一領域とにそれぞれ同一の顔が含まれており、且つ、この顔が撮像光学系の光軸方向に移動している場合にも大きくなる。そのため、上記のように、予測部11Dによって顔の光軸方向の動きを予測し、その動きが大きいと判断できる場合には、その顔の動き分を加味して距離閾値を大きくする。このようにすることで、誤追尾が発生しているか否かの判定を高精度に行うことができる。

図9は、図1に示すデジタルカメラ100のシステム制御部11の機能ブロックの変形例を示す図である。システム制御部11は、顔領域検出プログラムを含むプログラムを実行することで、顔検出部11A、追尾処理部11B、表示制御部11C、及び合焦制御部11Eとして機能する。この変形例では、追尾処理部11Bが図7に示す動作を行う。

図9に示すシステム制御部11の合焦制御部11Eは、顔検出部11A又は追尾処理部11Bによって撮像画像から検出された顔領域の画像に基づいて、撮像光学系の合焦制御を行う。

図9に示すシステム制御部11の追尾処理部11Bは、図7のステップS53において、第一の距離情報L1と第二の距離情報L2との差の絶対値が距離閾値を超えた場合には、顔を含まない可能性の高い第一領域に基づいて合焦制御が行われないように、次にステップS53の処理を行ってステップS53の判定がNOとなるまでの間は、撮像光学系の合焦状態をそれまでの状態に固定する。

図9の変形例によれば、第二の撮像画像に含まれる顔領域に遮蔽物が一時的に侵入した場合であっても、その遮蔽物に合焦されてしまうのを防ぐことができる。そして、この遮蔽物が無くなった場合には、ステップS53の判定がNOとなって、遮蔽物の無い顔領域に瞬時に合焦させることができる。したがって、被写体の顔とデジタルカメラ100との間に遮蔽物が瞬間的に入るようなケースにおいても、その顔に焦点を合わせ続けることが可能となる。

なお、図9の変形例は、図8の変形例と組み合わせることも可能である。

図7から図9に示す変形例において、追尾処理部11Bは、第一の撮像画像のうちの基準画像に含まれる被写体の第一の距離情報L1と、第二の撮像画像のうちの第一領域に含まれる被写体の第二の距離情報L2との差に基づいて、誤追尾の有無を判定するものとした。

この変形例として、追尾処理部11Bは、図10に示すように、第一の撮像画像G1のうちの基準画像(顔領域30)の周囲の枠状の領域34の位相差検出用画素の信号に基づいて、この領域34に含まれる被写体の第三の距離情報L3を算出し、第二の撮像画像G2のうちの第一領域32の周囲の枠状の領域35の位相差検出用画素の信号に基づいて、この領域35に含まれる被写体の第四の距離情報L4を算出し、第三の距離情報L3と第四の距離情報L4との差に基づいて、誤追尾の有無を判定してもよい。

具体的には、追尾処理部11Bは、図7のステップS45とステップS51の間において、第三の距離情報L3と第四の距離情報L4との差の絶対値が上記の距離閾値を超えるか否かを判定する。そして、この絶対値が距離閾値を超える場合には、第二の撮像画像G2に設定した第一領域32が非顔領域であると判定し、この絶対値が距離閾値以下の場合には、ステップS51以降の処理を行う。

このように、顔領域である基準画像の周囲にある被写体の距離と、顔領域として判定される第一領域の周囲にある被写体の距離の差に基づいて、第二の撮像画像における誤追尾の有無を判定することで、実際の顔領域に遮蔽物が侵入する前のタイミングにて誤追尾を検出することができる。

なお、図3、図6、図10の例では、顔領域を矩形の領域としたが、顔領域は、顔を含む円、楕円、台形、菱形、星形等の他の形状とすることも可能である。

次に、本発明の撮像装置の実施形態としてスマートフォンの構成について説明する。

図11は、本発明の撮像装置の一実施形態であるスマートフォン200の外観を示すものである。

図11に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示部としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。

また、この様な筐体201は、スピーカ205と、マイクロホン206と、操作部207と、カメラ部208とを備えている。なお、筐体201の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造又はスライド機構を有する構成を採用したりすることもできる。

図12は、図11に示すスマートフォン200の構成を示すブロック図である。

図12に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記憶部212と、外部入出力部213と、GPS(Global Positioning System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220とを備える。

また、スマートフォン200の主たる機能として、図示省略の基地局装置BSと図示省略の移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。

無線通信部210は、主制御部220の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータ等の送受信、ウェブデータ又はストリーミングデータ等の受信を行う。

表示入力部204は、主制御部220の制御により、画像(静止画像及び動画像)又は文字情報等を表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203とを備える。

表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)等を表示デバイスとして用いたものである。

操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、ユーザの指又は尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指又は尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。

図12に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。

係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。

なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体201の大きさ等に応じて適宜設計されるものである。

さらにまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式等が挙げられ、いずれの方式を採用することもできる。

通話部211は、スピーカ205又はマイクロホン206を備え、マイクロホン206を通じて入力されたユーザの音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210あるいは外部入出力部213により受信された音声データを復号してスピーカ205から出力させたりするものである。

また、図11に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。

操作部207は、キースイッチ等を用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図11に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指等で押下されるとオンとなり、指を離すとバネ等の復元力によってオフ状態となる押しボタン式のスイッチである。

記憶部212は、主制御部220の制御プログラム及び制御データ、アプリケーションソフトウェア、通信相手の名称又は電話番号等を対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータ等を一時的に記憶するものである。また、記憶部212は、スマートフォン内蔵の内部記憶部217と着脱自在な外部メモリスロットを有する外部記憶部218により構成される。

なお、記憶部212を構成するそれぞれの内部記憶部217と外部記憶部218は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)等の格納媒体を用いて実現される。

外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394等)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)等)により直接的又は間接的に接続するためのものである。

スマートフォン200に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)、SIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるパーソナルコンピュータ、イヤホン等がある。

外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達したり、スマートフォン200の内部のデータが外部機器に伝送されるようにしたりすることができる。

GPS受信部214は、主制御部220の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン200の緯度、経度、高度からなる位置を検出する。GPS受信部214は、無線通信部210又は外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。

モーションセンサ部215は、例えば、3軸の加速度センサ等を備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向又は加速度が検出される。係る検出結果は、主制御部220に出力されるものである。

電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。

主制御部220は、マイクロプロセッサを備え、記憶部212が記憶する制御プログラム及び制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。また、主制御部220は、無線通信部210を通じて、音声通信又はデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。

アプリケーション処理機能は、記憶部212が記憶するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能、電子メールの送受信を行う電子メール機能、又はウェブページを閲覧するウェブブラウジング機能等がある。

また、主制御部220は、受信データ又はダウンロードしたストリーミングデータ等の画像データ(静止画像又は動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。

画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。

さらに、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じたユーザ操作を検出する操作検出制御を実行する。

表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコン又はスクロールバー等のソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。

なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像等について、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。

また、操作検出制御の実行により、主制御部220は、操作部207を通じたユーザ操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作と上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付けたりする。

さらに、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域又はソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。

また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。

ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指等によって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。

カメラ部208は、図1に示したデジタルカメラにおける外部メモリ制御部20、記憶媒体21、表示制御部22、表示部23、及び操作部14以外の構成を含む。

カメラ部208によって生成された撮像画像データは、記憶部212に記憶したり、外部入出力部213又は無線通信部210を通じて出力したりすることができる。

図11に示すスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよい。

また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示したり、操作パネル203の操作入力のひとつとして、カメラ部208の画像を利用したりすることができる。

また、GPS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。さらには、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断したり、現在の使用環境を判断したりすることもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。

その他、静止画又は動画の画像データにGPS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等を付加して記憶部212に記憶したり、外部入出力部213又は無線通信部210を通じて出力したりすることもできる。

以上のような構成のスマートフォン200においても、顔領域の検出を軽負荷にて行うことができる。

以上説明してきたように、本明細書には以下の事項が開示されている。

(1)

撮像素子から出力される撮像画像から顔領域を検出する顔領域検出装置であって、

第一の撮像画像から検出された上記顔領域を基準画像として、上記第一の撮像画像よりも後に出力された第二の撮像画像から、上記基準画像の一部である特定画像に類似する類似領域を探索し、上記第二の撮像画像における上記類似領域を含む上記基準画像と同じサイズの第一領域を顔領域として検出する追尾処理部を備え、

上記基準画像における上記特定画像の位置と、上記第一領域における上記類似領域の位置とは一致している顔領域検出装置。

(2)

(1)記載の顔領域検出装置であって、

上記追尾処理部は、上記基準画像に含まれる被写体の第一の距離情報と、上記第一領域に含まれる被写体の第二の距離情報との差が予め決められた距離閾値を超える場合には、上記第一領域が非顔領域であると判定する顔領域検出装置。

(3)

(2)記載の顔領域検出装置であって、

上記第一の撮像画像と、それよりも前に上記撮像素子から出力される上記撮像画像とに基づいて、上記第一の撮像画像の上記顔領域に含まれる顔の、上記撮像素子に被写体像を結像させるための撮像光学系の光軸方向の動きを予測する予測部を備え、

上記追尾処理部は、上記距離閾値を上記予測部により予測された上記動きに基づいて制御する顔領域検出装置。

(4)

(3)記載の顔領域検出装置であって、

上記追尾処理部は、上記動きが第一の値の場合には、上記動きが第一の値よりも大きい第二の場合よりも、上記距離閾値を小さくする顔領域検出装置。

(5)

(2)から(4)のいずれか1つに記載の顔領域検出装置であって、

上記撮像画像から検出された上記顔領域に基づいて、上記撮像素子に被写体像を結像させるための撮像光学系の合焦制御を行う合焦制御部を備え、

上記合焦制御部は、上記差が上記距離閾値を超えた場合には、上記撮像光学系の合焦状態を予め決められた時間固定する顔領域検出装置。

(6)

(1)記載の顔領域検出装置であって、

上記追尾処理部は、上記第一の撮像画像における上記基準画像の周囲の領域に含まれる被写体の第三の距離情報と、上記第二の撮像画像における上記第一領域の周囲の領域に含まれる被写体の第四の距離情報との差が予め決められた距離閾値を超える場合には、上記第一領域が非顔領域であると判定する顔領域検出装置。

(7)

(1)から(6)のいずれか1つに記載の顔領域検出装置であって、

上記追尾処理部は、上記基準画像の解析結果に基づいて上記特定画像を決定する顔領域検出装置。

(8)

(7)記載の顔領域検出装置であって、

上記追尾処理部は、上記基準画像のコントラスト値を求め、上記基準画像において上記コントラスト値が予め決められた閾値を超える部分を上記特定画像として決定する顔領域検出装置。

(9)

(1)から(8)のいずれか1つに記載の顔領域検出装置と、

上記撮像素子と、を備える撮像装置。

(10)

撮像素子から出力される撮像画像から顔領域を検出する顔領域検出方法であって、

第一の撮像画像から検出された上記顔領域を基準画像として、上記第一の撮像画像よりも後に出力された第二の撮像画像から、上記基準画像の一部である特定画像に類似する類似領域を探索し、上記第二の撮像画像における上記類似領域を含む上記基準画像と同じサイズの第一領域を顔領域として検出する追尾処理ステップを備え、

上記基準画像における上記特定画像の位置と、上記第一領域における上記類似領域の位置は一致している顔領域検出方法。

(11)

(10)記載の顔領域検出方法であって、

上記追尾処理ステップは、上記基準画像に含まれる被写体の第一の距離情報と、上記第一領域に含まれる被写体の第二の距離情報との差が予め決められた距離閾値を超える場合には、上記第一領域が非顔領域であると判定する顔領域検出方法。

(12)

(11)記載の顔領域検出方法であって、

上記第一の撮像画像と、それよりも前に上記撮像素子から出力される上記撮像画像とに基づいて、上記第一の撮像画像の上記顔領域に含まれる顔の、上記撮像素子に被写体像を結像させるための撮像光学系の光軸方向の動きを予測する予測ステップを備え、

上記追尾処理ステップは、上記距離閾値を上記予測ステップにより予測された上記動きに基づいて制御する顔領域検出方法。

(13)

(12)記載の顔領域検出方法であって、

上記追尾処理ステップは、上記動きが第一の値の場合には、上記動きが第一の値よりも大きい第二の場合よりも、上記距離閾値を小さくする顔領域検出方法。

(14)

(11)から(13)のいずれか1つに記載の顔領域検出方法であって、

上記撮像画像から検出された上記顔領域に基づいて、上記撮像素子に被写体像を結像させるための撮像光学系の合焦制御を行う合焦制御ステップを備え、

上記合焦制御ステップは、上記差が上記距離閾値を超えた場合には、上記撮像光学系の合焦状態を予め決められた時間固定する顔領域検出方法。

(15)

(10)記載の顔領域検出方法であって、

上記追尾処理ステップは、上記第一の撮像画像における上記基準画像の周囲の領域に含まれる被写体の第三の距離情報と、上記第二の撮像画像における上記第一領域の周囲の領域に含まれる被写体の第四の距離情報との差が予め決められた距離閾値を超える場合には、上記第一領域が非顔領域であると判定する顔領域検出方法。

(16)

(10)から(15)のいずれか1つに記載の顔領域検出方法であって、

上記追尾処理ステップは、上記基準画像の解析結果に基づいて上記特定画像を決定する顔領域検出方法。

(17)

(16)記載の顔領域検出方法であって、

上記追尾処理ステップは、上記基準画像のコントラスト値を求め、上記基準画像において上記コントラスト値が予め決められた閾値を超える部分を上記特定画像として決定する顔領域検出方法。

(18)

撮像素子から出力される撮像画像から顔領域を検出する顔領域検出プログラムであって、

第一の撮像画像から検出された上記顔領域を基準画像として、上記第一の撮像画像よりも後に出力された第二の撮像画像から、上記基準画像の一部である特定画像に類似する類似領域を探索し、上記第二の撮像画像における上記類似領域を含む上記基準画像と同じサイズの第一領域を顔領域として検出する追尾処理ステップをコンピュータに実行させるためのものであり、

上記基準画像における上記特定画像の位置と、上記第一領域における上記類似領域の位置は一致している顔領域検出プログラム。

本発明は、特にデジタルカメラ又はスマートフォン等に適用して利便性が高く、有効である。

1 撮像レンズ

2 絞り

4 レンズ制御部

5 撮像素子

6 アナログ信号処理部

7 アナログデジタル変換回路

8 レンズ駆動部

9 絞り駆動部

10 撮像素子駆動部

11 システム制御部

11A 顔検出部

11B 追尾処理部

11C 表示制御部

11D 予測部

11E 合焦制御部

14 操作部

15 メモリ制御部

16 メインメモリ

17 デジタル信号処理部

20 外部メモリ制御部

21 記憶媒体

22 表示制御部

23 表示部

24 制御バス

25 データバス

40 レンズ装置

G1 第一の撮像画像

30 顔領域

31 特定画像

G2 第二の撮像画像

32 第一領域

33 類似領域

34、35 領域

200 スマートフォン

201 筐体

202 表示パネル

203 操作パネル

204 表示入力部

205 スピーカ

206 マイクロホン

207 操作部

208 カメラ部

210 無線通信部

211 通話部

212 記憶部

213 外部入出力部

214 GPS受信部

215 モーションセンサ部

216 電源部

217 内部記憶部

218 外部記憶部

220 主制御部

ST1~STn GPS衛星

Claims (18)

  1. 撮像素子から出力される撮像画像から顔領域を検出する顔領域検出装置であって、
    第一の撮像画像から検出された前記顔領域を基準画像として、前記第一の撮像画像よりも後に出力された第二の撮像画像から、前記基準画像の一部である特定画像に類似する類似領域を探索し、
    前記第二の撮像画像に、前記特定画像に類似する前記類似領域があると判定された場合に、前記第二の撮像画像における前記類似領域を含む第一領域を顔領域として設定する追尾処理部を備え、
    前記追尾処理部は、前記第一領域が前記基準画像と同じサイズで、かつ、前記第一領域における前記類似領域の位置が、前記基準画像における前記特定画像の位置と一致するように、前記第一の撮像画像における前記基準画像及び前記特定画像の位置関係を用いて前記第一領域を設定する顔領域検出装置。
  2. 請求項1記載の顔領域検出装置であって、
    前記追尾処理部は、前記基準画像に含まれる被写体の第一の距離情報と、前記第一領域に含まれる被写体の第二の距離情報との差が予め決められた距離閾値を超える場合には、
    前記第一領域が非顔領域であると判定する顔領域検出装置。
  3. 請求項2記載の顔領域検出装置であって、
    前記第一の撮像画像と、それよりも前に前記撮像素子から出力される前記撮像画像とに基づいて、前記第一の撮像画像の前記顔領域に含まれる顔の、前記撮像素子に被写体像を結像させるための撮像光学系の光軸方向の動きを予測する予測部を備え、
    前記追尾処理部は、前記距離閾値を前記予測部により予測された前記動きに基づいて制御する顔領域検出装置。
  4. 請求項3記載の顔領域検出装置であって、
    前記追尾処理部は、前記動きが第一の値の場合には、前記動きが第一の値よりも大きい第二の場合よりも、前記距離閾値を小さくする顔領域検出装置。
  5. 請求項2から4のいずれか1項記載の顔領域検出装置であって、
    前記撮像画像から検出された前記顔領域に基づいて、前記撮像素子に被写体像を結像させるための撮像光学系の合焦制御を行う合焦制御部を備え、
    前記合焦制御部は、前記差が前記距離閾値を超えた場合には、前記撮像光学系の合焦状態を予め決められた時間固定する顔領域検出装置。
  6. 請求項1記載の顔領域検出装置であって、
    前記追尾処理部は、前記第一の撮像画像における前記基準画像の周囲の領域に含まれる被写体の第三の距離情報と、前記第二の撮像画像における前記第一領域の周囲の領域に含まれる被写体の第四の距離情報との差が予め決められた距離閾値を超える場合には、前記第一領域が非顔領域であると判定する顔領域検出装置。
  7. 請求項1から6のいずれか1項記載の顔領域検出装置であって、
    前記追尾処理部は、前記基準画像の解析結果に基づいて前記特定画像を決定する顔領域検出装置。
  8. 請求項7記載の顔領域検出装置であって、
    前記追尾処理部は、前記基準画像のコントラスト値を求め、前記基準画像において前記コントラスト値が予め決められた閾値を超える部分を前記特定画像として決定する顔領域検出装置。
  9. 請求項1から8のいずれか1項記載の顔領域検出装置と、
    前記撮像素子と、を備える撮像装置。
  10. 撮像素子から出力される撮像画像から顔領域を検出する顔領域検出方法であって、
    第一の撮像画像から検出された前記顔領域を基準画像として、前記第一の撮像画像よりも後に出力された第二の撮像画像から、前記基準画像の一部である特定画像に類似する類似領域を探索し、前記第二の撮像画像に、前記特定画像に類似する前記類似領域があると判定された場合に、前記第二の撮像画像における前記類似領域を含む第一領域を顔領域として設定する追尾処理ステップを備え、
    前記追尾処理ステップは、前記第一領域を前記基準領域と同じサイズで、かつ、前記第一領域における前記類似領域の位置が、前記基準画像における前記特定画像の位置と一致するように、前記第一の撮像画像における前記基準画像及び前記特定画像の位置関係を用いて前記第一領域を設定する顔領域検出方法。
  11. 請求項10記載の顔領域検出方法であって、
    前記追尾処理ステップは、前記基準画像に含まれる被写体の第一の距離情報と、前記第一領域に含まれる被写体の第二の距離情報との差が予め決められた距離閾値を超える場合には、前記第一領域が非顔領域であると判定する顔領域検出方法。
  12. 請求項11記載の顔領域検出方法であって、
    前記第一の撮像画像と、それよりも前に前記撮像素子から出力される前記撮像画像とに基づいて、前記第一の撮像画像の前記顔領域に含まれる顔の、前記撮像素子に被写体像を結像させるための撮像光学系の光軸方向の動きを予測する予測ステップを備え、
    前記追尾処理ステップは、前記距離閾値を前記予測ステップにより予測された前記動きに基づいて制御する顔領域検出方法。
  13. 請求項12記載の顔領域検出方法であって、
    前記追尾処理ステップは、前記動きが第一の値の場合には、前記動きが第一の値よりも大きい第二の場合よりも、前記距離閾値を小さくする顔領域検出方法。
  14. 請求項11から13のいずれか1項記載の顔領域検出方法であって、
    前記撮像画像から検出された前記顔領域に基づいて、前記撮像素子に被写体像を結像させるための撮像光学系の合焦制御を行う合焦制御ステップを備え、
    前記合焦制御ステップは、前記差が前記距離閾値を超えた場合には、前記撮像光学系の合焦状態を予め決められた時間固定する顔領域検出方法。
  15. 請求項10記載の顔領域検出方法であって、
    前記追尾処理ステップは、前記第一の撮像画像における前記基準画像の周囲の領域に含まれる被写体の第三の距離情報と、前記第二の撮像画像における前記第一領域の周囲の領域に含まれる被写体の第四の距離情報との差が予め決められた距離閾値を超える場合には、前記第一領域が非顔領域であると判定する顔領域検出方法。
  16. 請求項10から15のいずれか1項記載の顔領域検出方法であって、
    前記追尾処理ステップは、前記基準画像の解析結果に基づいて前記特定画像を決定する顔領域検出方法。
  17. 請求項16記載の顔領域検出方法であって、
    前記追尾処理ステップは、前記基準画像のコントラスト値を求め、前記基準画像において前記コントラスト値が予め決められた閾値を超える部分を前記特定画像として決定する顔領域検出方法。
  18. 撮像素子から出力される撮像画像から顔領域を検出する顔領域検出プログラムであって、
    第一の撮像画像から検出された前記顔領域を基準画像として、前記第一の撮像画像よりも後に出力された第二の撮像画像から、前記基準画像の一部である特定画像に類似する類似領域を探索し、前記第二の撮像画像に、前記特定画像に類似する前記類似領域があると判定された場合に、前記第二の撮像画像における前記類似領域を含む第一領域を顔領域として検出する追尾処理ステップをコンピュータに実行させるためのものであり、
    前記追尾処理ステップは、前記第一領域を前記基準領域と同じサイズで、かつ、前記第一領域における前記類似領域の位置が、前記基準画像における前記特定画像の位置と一致するように、前記第一の撮像画像における前記基準画像及び前記特定画像の位置関係を用いて前記第一領域を設定する顔領域検出プログラム。
JP2020569387A 2019-01-30 2019-11-12 顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラム Active JP7138199B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019014202 2019-01-30
JP2019014202 2019-01-30
PCT/JP2019/044436 WO2020158102A1 (ja) 2019-01-30 2019-11-12 顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラム

Publications (2)

Publication Number Publication Date
JPWO2020158102A1 JPWO2020158102A1 (ja) 2020-08-06
JP7138199B2 true JP7138199B2 (ja) 2022-09-15

Family

ID=71840439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020569387A Active JP7138199B2 (ja) 2019-01-30 2019-11-12 顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラム

Country Status (3)

Country Link
US (1) US20210337113A1 (ja)
JP (1) JP7138199B2 (ja)
WO (1) WO2020158102A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157778A (ja) 2002-11-06 2004-06-03 Advanced Telecommunication Research Institute International 鼻位置の抽出方法、およびコンピュータに当該鼻位置の抽出方法を実行させるためのプログラムならびに鼻位置抽出装置
JP2007274197A (ja) 2006-03-30 2007-10-18 Fujifilm Corp 赤目検出装置、赤目検出方法、および赤目検出プログラム
JP2013109590A (ja) 2011-11-21 2013-06-06 Lapis Semiconductor Co Ltd 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2014116716A (ja) 2012-12-07 2014-06-26 Samsung Display Co Ltd 追尾装置
JP2017194656A (ja) 2016-04-22 2017-10-26 キヤノン株式会社 撮像装置及びその制御方法、プログラム並びに記憶媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760826B (zh) * 2016-02-03 2020-11-13 歌尔股份有限公司 一种人脸跟踪方法、装置和智能终端
JP6742173B2 (ja) * 2016-06-30 2020-08-19 キヤノン株式会社 焦点調節装置及び方法、及び撮像装置
JP6817602B2 (ja) * 2016-10-07 2021-01-20 パナソニックIpマネジメント株式会社 監視映像解析システム、監視映像解析方法及び監視映像解析プログラム
EP3526964B1 (en) * 2016-10-14 2024-02-21 Genetec Inc. Masking in video stream

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157778A (ja) 2002-11-06 2004-06-03 Advanced Telecommunication Research Institute International 鼻位置の抽出方法、およびコンピュータに当該鼻位置の抽出方法を実行させるためのプログラムならびに鼻位置抽出装置
JP2007274197A (ja) 2006-03-30 2007-10-18 Fujifilm Corp 赤目検出装置、赤目検出方法、および赤目検出プログラム
JP2013109590A (ja) 2011-11-21 2013-06-06 Lapis Semiconductor Co Ltd 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2014116716A (ja) 2012-12-07 2014-06-26 Samsung Display Co Ltd 追尾装置
JP2017194656A (ja) 2016-04-22 2017-10-26 キヤノン株式会社 撮像装置及びその制御方法、プログラム並びに記憶媒体

Also Published As

Publication number Publication date
JPWO2020158102A1 (ja) 2020-08-06
US20210337113A1 (en) 2021-10-28
WO2020158102A1 (ja) 2020-08-06

Similar Documents

Publication Publication Date Title
US9912859B2 (en) Focusing control device, imaging device, focusing control method, and focusing control program
KR102053361B1 (ko) 화면 회전을 적응적으로 수행하기 위한 방법 및 그 전자 장치
US9854151B2 (en) Imaging device and focusing control method
US9883108B2 (en) Imaging apparatus and image blur correction method
JP5719480B2 (ja) 画像変形装置およびその動作制御方法
JP6028112B2 (ja) 撮像装置及び合焦制御方法
JPWO2013190946A1 (ja) 撮像装置およびその動作制御方法
US11102419B2 (en) Imaging control device, imaging apparatus, imaging control method, and imaging control program
US10623625B2 (en) Focusing control device, imaging device, focusing control method, and nontransitory computer readable medium
US10863095B2 (en) Imaging apparatus, imaging method, and imaging program
JP7138199B2 (ja) 顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラム
US11600241B2 (en) Display control device, imaging device, display control method, and display control program
US20200329200A1 (en) Image shake correction device, imaging device, image shake correction method, and image shake correction program
JP5832673B2 (ja) 撮像装置およびその動作制御方法
JP7085651B2 (ja) 撮像装置の制御装置、撮像装置、撮像装置の制御方法、撮像装置の制御プログラム
US20230360222A1 (en) Processing apparatus, processing method, and processing program
US11968455B2 (en) Shake correction device, imaging apparatus, shake correction method, and shake correction program
US20210368102A1 (en) Control device of imaging device, imaging device, control method of imaging device, and control program of imaging device
US10992872B2 (en) Imaging control device, imaging apparatus, imaging control method, and storage medium
US20230139889A1 (en) Control device, imaging apparatus, control method, and control program
JP2015192362A (ja) 画像再生装置,画像再生方法およびその制御プログラム

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20210726

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R150 Certificate of patent or registration of utility model

Ref document number: 7138199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150