JP6203007B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP6203007B2
JP6203007B2 JP2013236149A JP2013236149A JP6203007B2 JP 6203007 B2 JP6203007 B2 JP 6203007B2 JP 2013236149 A JP2013236149 A JP 2013236149A JP 2013236149 A JP2013236149 A JP 2013236149A JP 6203007 B2 JP6203007 B2 JP 6203007B2
Authority
JP
Japan
Prior art keywords
image data
detection
subject
evaluation value
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013236149A
Other languages
English (en)
Other versions
JP2015095882A (ja
Inventor
小薬 弘治
弘治 小薬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013236149A priority Critical patent/JP6203007B2/ja
Publication of JP2015095882A publication Critical patent/JP2015095882A/ja
Application granted granted Critical
Publication of JP6203007B2 publication Critical patent/JP6203007B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、撮影画像から顔および人物などの被写体領域を検出する画像処理装置に関する。
近年、カメラやビデオカメラでは撮影画像から人物の顔や人物の体といった被写体領域を検出し、検出した被写体領域に対して自動でフォーカスを合わせて撮影するものが普及している。
また、携帯電話やタブレット端末などでは、撮影者本人が画面を見ながら自身を記録する、いわゆる自分撮りを容易にするために、主たる被写体を撮影するためのカメラ部とは反対側の位置、即ちモニター側にもう一つのカメラ部を備えたものが多くなっている。例えば、モニター側のカメラ部で撮影した撮影者の画像を解析して、被写体側のカメラ部の制御を行う技術が提案されている(特許文献1を参照)。
特開2010−148052
このような複数のカメラ部を有する画像処理装置において、複数のカメラ部から得られたそれぞれの画像に対して被写体領域の検出を行うことができれば、被写体および撮影者のそれぞれに対して適切な撮影制御や画像処理を行うことが可能となる。
画像から被写体領域を検出する方法としては、例えば、特定の被写体領域(例えば顔)の特徴パターンマッチングを撮影画像に対して行う方法がある。あるいは、撮影画像から色相成分を抽出して色相に応じた領域分割を行い、それぞれの領域の位置、サイズ、および形状に基づいて、主たる被写体と推定される領域を特定する方法がある。
しかしながら、このような画像から被写体領域を検出する機能は、ある程度の処理時間がかかり、撮影画像のサイズ、枚数などに大きく影響される。
カメラやタブレット端末のようなモバイル機器では、装置の大きさや、消費電力などの制約などにより、限られたリソースしか搭載できないことが多く、同時に行える処理には限りがある。そのため、複数のカメラ部から得られたそれぞれの画像に対して、同時に被写体領域の検出を行うことができない場合がある。
本発明は上述した問題を解決するためのものであり、複数の撮影画像に対する被写体検出処理をより効率的に行うことを目的とする。
上記課題を解決するため、本発明は、第1の撮像手段で生成された第1の画像データと、第2の撮像手段で生成された第2の画像データが入力され、前記第1の画像データおよび前記第2の画像データから被写体領域を検出する検出手段を有し、前記検出手段は、前記第1の画像データにおける前記被写体領域の検出結果と、前記第2の画像データにおける前記被写体領域の検出結果に応じて、以降における、前記第1の画像データから前記被写体領域を検出する第1の検出処理を行う割合と、前記第2の画像データから前記被写体領域を検出する第2の検出処理を行う割合を設定することを特徴とする画像処理装置を提供する。
本発明によれば、被写体の状況に応じて、複数のカメラ部から得られた画像に対する、被写体領域検出処理の割合を効率的に配分することが可能になる。
本発明の実施形態に係るデジタルカメラ100のブロック図 本発明に係るデジタルカメラ100の外観図 本発明に係る検出顔数を用いた顔検出処理割合決定動作イメージ図 本発明に係る検出顔数を用いた顔検出処理割合決定動作フローチャート 本発明に係る認証人物数を用いた顔検出処理割合決定動作イメージ図 本発明に係るパンニング動作検知を用いた顔検出処理割合決定動作イメージ図 本発明に係るセルフタイマー動作検知を用いた顔検出処理割合決定動作イメージ図 本発明に係る顔領域サイズ情報を用いた顔検出処理割合決定動作イメージ図 本発明に係る検出顔数、認証顔数、パンニング検知、セルフタイマー動作検知、顔検出領域の大きさを用いた顔検出処理割合決定動作フローチャート
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では、画像処理装置の一例としてのデジタルカメラに本発明を適用した実施形態について説明するが、本発明はカラー撮像素子から読み出された画像信号を処理可能な任意の装置において実施可能である。従って、画像処理装置には、パーソナルコンピュータ、タブレット端末、ゲーム機、携帯電話機など、カメラを内蔵もしくは接続可能な任意の電子機器や、画像処理ソフトウェアを実行可能な任意の電子機器が含まれる。
(第1の実施形態)
図1は、本発明の実施形態に係るデジタルカメラ100のハードウェアブロック図である。
DRAM(Dynamic Random Access Memory)101は、デジタルカメラ100のメインメモリであり、画像データや、メモリカード200から読み込んだ画像符号化データを一時保持することが可能である。データバス102は、後述する各ブロックがDRAM101へのアクセスするためのバスである。
第1のレンズユニット103は、撮影者がメインとして被写体を撮影するための光学ユニットである。第1の撮像素子104は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサーなどで構成される。撮像素子104は、第1のレンズユニット103を透過してきた光束を電気信号に変換し、この電気信号をデジタルの画像データとしてDRAM101へ一時保持する。
第2のレンズユニット105は、第1のレンズユニット103を用いて撮影を行う際に、撮影者に向けられるように配置される光学ユニットである。第2の撮像素子106は、CCDやCMOSセンサーで構成され、第2のレンズユニット104を透過してきた光を電気信号に変換し、この電気信号をデジタルの画像データとしてDRAM101へ一時保持する。第1のレンズユニット103と第1の撮像素子104で第1のカメラ部を構成し、第2のレンズユニット105と第2の撮像素子106で第2のカメラ部を構成する。
カメラ信号処理部107は、第1の撮像素子104および、第2の撮像素子106によってDRAM101へ一時保持された画像データを読み出し、この画像データに対してノイズリダクション、現像処理、画像補正処理、リサイズ等の画像処理を行う。顔検出部108は、カメラ信号処理部107によって生成された画像データが入力され、この画像データから顔領域を検出する回路である。個人認識部109は、顔検出部108によって検出された顔領域の画像から人物の特徴データを生成し、予め登録されている人物特徴データと一致するかを判断することで、個人認識を行う。動きベクトル検出部110は、カメラ信号処理部107によって生成された所定時間分の複数フレームの画像データを用いることで、撮影画像全体の動きベクトルを検出する。
顔検出部108は、第1の撮像素子104で生成された画像データと第2の撮像素子106で生成された画像データのいずれからも顔領域の検出を行うことができるが、これら2つの画像データから同時に顔領域の検出を行うことはできない。そのため、顔検出部108は、周期的に第1の撮像素子104で生成された画像データから顔領域を検出する処理と、第2の撮像素子106で生成された画像データから顔領域を検出する処理を切り替える構成となっている。
個人認識部109は、顔検出部108から検出された顔領域に関するデータを受け取り、受け取ったデータが示す顔領域が、予め個人ごとに登録されている識別データと同一人物であると判定できるか否かを判定することによって、個人認識を行う。
パネル部111は、DRAM101に一時保持されている画像データを読み込み、表示パネルへ表示を行うパネル部である。表示パネルは、LCD(Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)等の技術を用いて構成されている。メディアI/F112は、デジタルカメラ100と、デジタルカメラ100に装着されている記録媒体200とのインターフェースである。デジタルカメラ100は、DRAM101読み込んだデータをメディアI/F112を介して記録媒体200へ記録する。
制御バス113は、CPU114がデジタルカメラ100の各ブロックへ制御指示を行うためのバスである。メインCPU114は、デジタルカメラ100全体を統括し、それぞれのブロックの制御を行う。プログラムバス115は、CPU114と、ROM116、RAM117、タイマー118、および操作キー119を接続するバスである。
ROM(Read Only Memory)116は、CPU114のプログラムを格納し、RAM(Random Access Memory)117は、CPU114のワークメモリとして用いられる。このROM116には、後述する各処理を実行するためのプログラムが格納されており、CPU114によってこれらの処理が実行される。
タイマー部118は、所定時間が経過するとCPU114へ割り込み信号を発生させ、CPU114へ時間を通知する。操作キー119は、ユーザがデジタルカメラ100の動作指示を行うためのボタンや、十字キーで構成される。記録媒体200は、画像処理装置から着脱可能なメモリカードである。
図2は、本発明に係るデジタルカメラ100の外観図である。
デジタルカメラ100の、主たる被写体を撮影するための第1のレンズユニット103が配置された面の反対側の面には、第2のレンズユニット105、パネル部111、および、操作キー119の一部である十字キーが配置されている。また、デジタルカメラ100の上面には、操作キー119の一部であるシャッターボタンが配置されている。
第1のレンズユニット103から取り込まれた撮影画像は、第1の撮像素子とカメラ信号処理部107によって画像データ化され、DRAM101へ一時保持され、その画像データはパネル111によって表示される。ユーザによって、シャッターボタンが押されると、デジタルカメラ100に装着されている不図示の記録媒体200にメディアI/F112を介して記録される。
デジタルカメラ100の第1の撮像素子104と第2の撮像素子106は設定されたフレームレートで撮影を行う。第1の撮像素子104で生成された1フレーム以上の画像データをメイン画像データとし、第2の撮像素子106で生成された1フレーム以上の画像データをサブ画像データとする。
図3は、本発明に係るデジタルカメラ100における、検出された顔領域の数に応じて、顔検出処理の割合を設定する処理を説明するための図である。顔検出処理の割合とは、顔検出部108が、第1の撮像素子104で生成されたメイン画像データに対して顔検出を行う時間と、第2の撮像素子106で生成されたサブ画像データに対して顔検出を行う時間の比率を示すものである。
CPU114は、メイン画像データとサブ画像データのそれぞれに対して評価値を算出し、算出された評価値に応じて、メイン画像データとサブ画像データのそれぞれに対して割り当てる顔検出処理の時間を設定する。同一期間においては、顔検出処理の割合が高くなるほど、その期間内で行われる顔検出処理の回数が増える。そのため、顔検出処理を行う対象となるフレーム数を多くする、画像データで顔検出処理を行う対象とする領域を広くする、あるいは、顔検出処理で検出可能な顔領域のサイズの種類を多くすることができるようになる。
CPU114は、メイン画像データとサブ画像データに対する顔検出処理の割合の初期値として、両方に対して50%という値を用いて検出処理を行う。すなわち、メイン画像データとサブ画像データのそれぞれに対して、同じ時間だけ顔検出処理に要する時間が割り当てられる。
CPU114は、メイン画像データから検出された顔の数をFm、サブ画像データから検出された顔の数をFsとすると、以下の式1および式2を用いて、メイン画像データに対する評価値Vmとサブ画像データに対する評価値Vsを算出する。
Vm=Fm×2+1 ・・・(式1)
Vs=Fs+1 ・・・(式2)
メイン画像データから検出された顔領域の数Fmとサブ画像データから検出された顔領域の数Fsが同じならば、メイン画像データに対する評価値Vmよりもサブ画像データに対する評価値Vsのほうが小さくなる。これは、撮影中に、デジタルカメラ100に対する撮影者の顔の位置や顔のサイズが変動することは少ないためである。また、いずれの評価値も必ず1以上の値となるため、顔が途中でフレームインした場合であっても、その顔領域を検出することが可能となる。
図3のCase1では、メイン画像データからは顔領域が2つ検出され、サブ画像データからは顔領域が1つ検出されているため、メイン画像データの評価値Vmとサブ画像データの評価値Vsは、式1および式2よりそれぞれ以下の値となる。
Vm=(2)×2+1=5
Vs=(1)+1=2
この評価値の割合に応じて、次の顔検出処理に係る所定周期におけるメイン画像データとサブ画像データに対する顔検出処理を行う割合が決定される。この場合、メイン画像データには71(=5/(5+2))%、サブ撮影画像には29(=2/(5+2))%の顔検出処理が割り当てられる。
図3のCase2では、メイン画像データからは顔領域が検出されず、サブ画像データからは顔領域が1つ検出されているため、メイン画像データの評価値Vmとサブ画像データの評価値Vsは、式1および式2よりそれぞれ以下の値となる。
Vm=(0)×2+1=1
Vs=(1)+1=2
この場合、次の周期ではメイン画像データには33%、サブ画像データには67%の割合で顔検出処理の時間が割り当てられる。
図4は、図3で説明した本発明に係るデジタルカメラ100における顔検出処理の割合を決定する動作のフローチャートである。この動作は、所定周期で行われるものとする。
まず、CPU114は、初期値として設定されている顔検出処理の割合、あるいは、前回決定された顔検出処理の割合に基づいて、顔検出部108に、メイン画像データおよびサブ画像データに対する顔検出処理を行わせる(ステップS401)。
CPU114は、メイン画像データとサブ画像データのそれぞれから検出された顔領域の数に基づいて、上述した式1および式2を用いて、メイン画像データの評価値Vmとサブ画像データの評価値Vsを算出する(ステップS402)。
CPU114は、算出されたメイン画像データの評価値Vmとサブ画像データの評価値Vsの比率から、次の周期におけるメイン画像データとサブ画像データに対する顔検出処理の時間の割合を決定する(ステップS403)。
この顔検出処理の割合を1フレーム毎に行えば、メイン画像データとサブ画像データに対する顔検出処理の時間の割合に応じて、それぞれの画像データから検出できる顔領域のサイズの範囲に差を設けることができる。また、この顔検出処理の割合を複数フレーム毎に行えば、メイン画像データとサブ画像データから検出できる顔領域のサイズの範囲に差を設けるだけでなく、顔検出処理が行われるフレームの数に差を設けることも可能となる。
以上、説明したように、本実施形態によれば、メイン画像データとサブ画像データに対して、それぞれの画像データに含まれる顔領域の数に沿って、以降のフレームにおける顔検出処理のリソースを適切に配分することが可能となる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
本実施形態では、メイン画像データとサブ画像データに対する顔検出処理の時間の割合を決定する際に、個人認識の結果も参照する点が第1の実施形態と異なる。
図5は、本発明に係るデジタルカメラ100における、検出された顔領域に対する個人認証結果応じて、顔検出処理の割合を設定する処理を説明するための図である。
メイン画像データから検出された顔の数をFm、サブ画像データから検出された顔の数をFs、メイン画像データにおいて個人認識できた顔の数をPm、および、サブ画像データにおいて個人認識できた顔の数をPsとする。CPU114は、以下の式3および式4を用いて、メイン画像データに対する評価値Vpmとサブ画像データに対する評価値Vpsを算出する。
Vpm=Fm×2+Pm×4+1 ・・・(式3)
Vps=Fs+Ps×2+1 ・・・(式4)
個人認識に成功した人物が画像データに含まれている場合、その人物が、撮影者にとって重要度の高い人物である可能性が高い。そのため、個人認識に成功した人物が含まれている画像データについては、顔領域を見失いにくくするため、評価値を高く設定する必要がある。そのため、評価値を求める際に、個人認識できた顔の数に掛ける係数は、検出できた顔領域の数に掛ける係数よりも大きな値が設定されている。
図5のCase3では、メイン画像データからは顔領域が2つ検出され、そのうちの1つに対して個人認識が成功している。サブ画像データからは顔領域が1つ検出され、個人認識は成功していない。そのため、メイン画像データの評価値Vpmとサブ画像データの評価値Vpsは、式3および式4よりそれぞれ以下の値となる。
Vpm=(2)×2+(1)×4+1=9
Vps=(1)+(0)×2+1=2
この評価値の割合に応じて、次の顔検出処理に係る所定周期におけるメイン画像データとサブ画像データに対する顔検出処理を行う割合が決定される。この場合、メイン画像データには82(≒9/(9+2))%、サブ撮影画像には18(≒2/(9+2))%の顔検出処理が割り当てられる。
図5のCase4では、メイン画像データからは顔領域が3つ検出され、そのうちの1つに対して個人認識が成功している。サブ画像データからは顔領域が1つ検出され、その顔に対して個人認識も成功している。そのため、メイン画像データの評価値Vpmとサブ画像データの評価値Vpsは、式3および式4よりそれぞれ以下の値となる。
Vpm=(3)×2+(1)×4+1=11
Vps=(1)+(1)×2+1=4
この評価値の割合に応じて、次の顔検出処理に係る所定周期におけるメイン画像データとサブ画像データに対する顔検出処理を行う割合が決定される。この場合、メイン画像データには73(≒11/(11+4))%、サブ撮影画像には27(≒4/(11+4))%の顔検出処理が割り当てられる。
本実施形態によれば、メイン画像データとサブ画像データのそれぞれから検出された顔領域の数だけでなく、個人認識の結果に応じて、以降のフレームにおける顔検出処理のリソースを適切に配分することが可能となる。
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
本実施形態では、メイン画像データとサブ画像データに対する顔検出処理の時間の割合を決定する際に、パンニング動作の判定の結果も参照する点が第1の実施形態と異なる。
図6は、本発明に係るデジタルカメラ100における、動きベクトル検出部110によって検出された動きベクトルに基づいて、パンニング動作の有無を判定し、この判定結果に応じて、顔検出処理の割合を設定する処理を説明するための図である。
CPU114は、動きベクトル検出部110によって検出された動きベクトルのサイズが閾値以上であり、かつ、同一方向に所定回数以上連続して検出された場合に、パンニング動作が行われていると判定する。
メイン画像データから検出された顔の数をFm、サブ画像データから検出された顔の数をFs、およびパンニング動作の判定結果をNとする。このNの値は、パンニング動作ありと判定された場合は1、パンニング動作なしと判定された場合は0となる。CPU114は、以下の式5および式6を用いて、メイン画像データに対する評価値Vnmとサブ画像データに対する評価値Vnsを算出する。
Vnm=Fm×2+N×4+1 ・・・(式5)
Vns=Fs+1 ・・・(式6)
パンニング動作の判定結果を示すNはメイン画像データに対する評価値に対してのみ反映させる。これは、パンニング動作を行ったとしても、第2のレンズユニット105に対する撮影者の顔の位置はさほど変化しないと考えられるためである。
図6のCase5−1、Case5−2、およびCase5−3は、メイン画像データに対する評価値Vpmとサブ画像データに対する評価値Vpsの時系列における変化を説明するための図である。Case5−1、Case5−2、およびCase5−3の順で、時間が経過しているものとする。
図6のCase5−1では、メイン画像データからは顔領域が1つ検出され、サブ画像データからも顔領域が1つ検出され、パンニング動作なしと判定されている。そのため、メイン画像データの評価値Vnmとサブ画像データの評価値Vnsは、式5および式6よりそれぞれ以下の値となる。
Vnm=(1)×2+(0)×4+1=3
Vns=(1)+1=2
この場合、メイン画像データには60(≒3/(3+2))%、サブ撮影画像には40(≒2/(3+2))%の顔検出処理が割り当てられる。
Case5−2では、メイン画像データからは顔領域が2つ検出され、サブ画像データからは顔領域が1つ検出され、パンニング動作ありと判定されている。そのため、メイン画像データの評価値Vnmとサブ画像データの評価値Vnsは、式5および式6よりそれぞれ以下の値となる。
Vnm=(2)×2+(1)×4+1=9
Vns=(1)+1=2
この場合、メイン画像データには82(≒9/(9+2))%、サブ撮影画像には18(≒2/(9+2))%の顔検出処理が割り当てられる。
Case5−3では、メイン画像データからは顔領域が2つ検出され、サブ画像データからは顔領域が1つ検出され、パンニング動作なしと判定されている。そのため、メイン画像データの評価値Vnmとサブ画像データの評価値Vnsは、式5および式6よりそれぞれ以下の値となる。
Vnm=(2)×2+(0)×4+1=5
Vns=(1)+1=2
この場合、メイン画像データには72(≒5/(5+2))%、サブ撮影画像には28(≒2/(5+2))%の顔検出処理が割り当てられる。
本実施形態によれば、メイン画像データとサブ画像データのそれぞれから検出された顔領域の数だけでなく、パンニング動作の有無に応じて、以降のフレームにおける顔検出処理のリソースを適切に配分することが可能となる。パンニング動作が発生していた場合には、メイン画像データに対する顔検出処理の割合を高くすることで、パンニング動作によってフレームインした人物を素早く検出することが可能になる。
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。
本実施形態では、メイン画像データとサブ画像データに対する顔検出処理の時間の割合を決定する際に、セルフタイマー動作の設定の有無も参照する点が第1の実施形態と異なる。
図7は、本発明に係るデジタルカメラにおける、セルフタイマー動作に応じて、顔検出処理の割合を設定する処理を説明するための図である。
メイン画像データから検出された顔の数をFm、およびサブ画像データから検出された顔の数をFsとする。CPU114は、以下の式7ないし式9を用いて、メイン画像データに対する評価値Vtmとサブ画像データに対する評価値Vtsを算出する。CPU114は、セルフタイマー動作が設定されているか否かに応じて、サブ画像データに対する評価値Vtsの算出方法を切り替える。
Vtm=Fm×2+1 ・・・(式7)
・セルフタイマー動作が設定されている場合
Vts=Fs+1 ・・・(式8)
・セルフタイマー動作が設定されていない場合
Vts=0 ・・・(式9)
図7のCase6−1、Case6−2、およびCase6−3は、メイン画像データに対する評価値Vtmとサブ画像データに対する評価値Vtsの時系列における変化を説明するための図である。Case6−1、Case6−2、およびCase6−3の順で、時間が経過しているものとする。
図7のCase6−1では、メイン画像データからは顔領域が3つ検出され、サブ画像データからは顔領域が1つ検出され、セルフタイマー動作が設定されていない。そのため、メイン画像データの評価値Vtmとサブ画像データの評価値Vtsは、式7および式8よりそれぞれ以下の値となる。
Vtm=(3)×2+1=7
Vts=(1)+1=2
この場合、メイン画像データには78(≒7/(7+2))%、サブ撮影画像には22(≒2/(7+2))%の顔検出処理が割り当てられる。
Case6−2では、メイン画像データからは顔領域が3つ検出され、サブ画像データからは顔領域が1つ検出され、セルフタイマー動作が設定されている。そのため、メイン画像データの評価値Vtmとサブ画像データの評価値Vtsは、式7および式9よりそれぞれ以下の値となる。
Vtm=(3)×2+1=7
Vts=0
この場合、メイン画像データに100%の顔検出処理が割り当てられる。
Case6−3では、メイン画像データからは顔領域が4つ検出され、サブ画像データからは顔領域が検出されず、セルフタイマー動作が設定されている。そのため、メイン画像データの評価値Vtmとサブ画像データの評価値Vtsは、式7および式9よりそれぞれ以下の値となる。
Vtm=(4)×2+1=9
Vts=0
この場合、メイン画像データに100%の顔検出処理が割り当てられる。
本実施形態によれば、セルフタイマー動作が設定された場合には、撮影者が第1のレンズユニット103で撮影される位置に移動する可能性が高いため、サブ画像データに対する顔検出処理を行わないようにする。これにより、第1のレンズユニット103による撮影画角にフレームインした撮影者の顔領域を素早く検出することができるようになる。なお、ここでは、セルフタイマー動作の設定がされた場合にも、サブ画像データの評価値Vtsを求める構成を例にあげて説明したが、これに限られるものではない。セルフタイマー動作の設定がされた場合には、顔領域の検出結果に関わらず、サブ画像データに対する顔検出処理を行わないように設定してもよい。
(第5の実施形態)
次に、本発明の第5の実施形態について説明する。
本実施形態では、メイン画像データとサブ画像データに対する顔検出処理の時間の割合を決定する際に、検出された顔領域のサイズも参照する点が第1の実施形態と異なる。
図8は、本発明に係るデジタルカメラ100における、検出された顔領域の数およびそのサイズに応じて、顔検出処理の割合を設定する処理を説明するための図である。
メイン画像データから検出された顔の数をFm、およびサブ画像データから検出された顔の数をFsとする。CPU114は、サブ画像データから検出された顔領域のうち、サイズが閾値以下である顔を除外した残りの顔領域の数Fssを求める。そして、CPU114は以下の式10と式11を用いて、メイン画像データに対する評価値Vsmとサブ画像データに対する評価値Vssを算出する。
Vsm=Fm×2+1 ・・・(式10)
Vsm=Fss+1 ・・・(式11)
図8のCase7−1では、メイン画像データからは顔領域が2つ検出され、サブ画像データからも顔領域が2つ検出されている。しかしながら、サブ画像データから検出された2つの顔領域のうちの1つは、サイズが閾値以下である。そのため、CPU114は、サイズが閾値以下であるこの顔領域は評価値算出には用いず、サブ画像データにおいては残り1つの顔領域に基づいて、サブ画像データの評価値Vnsを求める。その様子を図8のCase7−2に示す。
Vsm=(2)×2+1=5
Vss=(1)+1=2
この場合、メイン画像データには71(≒5/(5+2))%、サブ撮影画像には29≒2/(5+2))%の顔検出処理が割り当てられる。
本実施形態によれば、サブ画像データで検出された顔領域のサイズが閾値以下であれば、撮影者とは関係のない人物が映ったと判定し、このサイズが閾値以下の顔領域を除外して、顔検出処理の割合を設定することが可能となる。
なお、ここではサブ画像データで検出された顔領域についてのみサイズを判定する例をあげて説明を行ったが、これに限られるものではない。メイン画像データから検出された顔領域についても、サイズが閾値以下である顔領域を除外するようにしてもよい。ただし、サブ画像データにおける顔領域のサイズはおおよそ一定の範囲に収まるのに対して、メイン画像データにおける顔領域のサイズは、撮影の構図によって様々である。そのため、メイン画像データから複数の顔領域が検出された場合に、そのサイズの相対値によって、顔領域のサイズの閾値を設定するようにすればよい。
(第6の実施形態)
次に、本発明の第6の実施形態について説明する。
本実施形態では、上述した第1の実施形態ないし第5の実施形態を全て考慮して、顔検出処理割合決定を行う。
図9は、本発明に係るデジタルカメラにおける、サイズの条件を加えた顔領域の数、個人認識結果、パンニング動作の判定結果、およびセルフタイマー動作の設定の有無に応じて、顔検出処理の割合を設定する処理を説明するための図である。
CPU114は、メイン画像データとサブ画像データに対する顔検出処理の割合の初期値として、両方に対して50%という値を設定している。
CPU114は、設定されている顔検出処理の割合で、顔検出部108にメイン画像データおよびサブ画像データに対して顔検出処理を行わせる。CPU114はメイン画像データから検出された顔領域の数Fm、および、サブ画像データから検出された顔領域のうちサイズが閾値よりも大きい顔領域の数Fssを取得する(ステップS901)。
CPU114は、個人認識部109に、メイン画像データから検出された顔領域、および、サブ画像データから検出された顔領域のうちサイズが閾値よりも大きい顔領域に対して、個人認識処理を行わせる(ステップS902)。そして、メイン画像データにおいて個人認証に成功した顔領域の数をPm、サブ画像データにおいて個人認証に成功した顔領域の数をPsとする。
CPU114は、動きベクトル検出部110で検出された動きベクトルに基づいて、パンニング動作の判定を行い、パンニング動作がされていると判定したならばN=1とし、そうでないならばN=0とする(ステップS903)。
CPU114は、ステップS901乃至S903で得られた値を、下記に示す式12および式13に当てはめ、メイン画像データに対する評価値Vmと、サブ画像データに対する評価値Vsを算出する(ステップS904)。
Vm=Fm×2+Pm×4+N×4+1 ・・・(式12)
Vs=Fss+Ps×2+1 ・・・(式13)
CPU114は、セルフタイマー動作が設定されているか否かを判定し、セルフタイマー動作が設定されているならば、Vs=0とする(ステップS905)。
CPU114は、得られた評価値Vmと評価値Vsの割合に応じて、次の顔検出処理に係る所定周期におけるメイン画像データとサブ画像データに対する顔検出処理を行う割合を決定する(ステップS906)。
本実施形態によれば、メイン画像データとサブ画像データから検出された顔領域に関する情報に加え、デジタルカメラ100自身に関する情報を考慮して、顔検出処理のリソースを適切に配分することが可能となる。
以上のように、上述した各実施形態によれば、顔検出処理のリソースを増やさずに、以降のフレームにおけるメイン画像データとサブ画像データに対する顔検出処理を効率的に行うことができるようになる。
そして、デジタルカメラ100は、第1および第2のカメラ部に対し、それぞれのカメラ部で得られた画像データで検出された顔領域に基づいて、焦点調整制御、露出調節制御、およびホワイトバランス制御などの撮影動作を制御することができる。
また、デジタルカメラ100は、それぞれのカメラ部で得られた画像データに対し、顔領域を基に人物が占める領域を抽出し、人物が占める領域以外に対して強めの平滑化処理を行う。このような処理を行うことで、人物にのみピントがあったような画像データに加工することができるようになる。
また、デジタルカメラ100は、それぞれの画像データを符号化する際に、人物が占める領域以外の領域の符号量を抑制するように、領域毎に圧縮率を変更することもできる。こうすることで、人物に対する鮮鋭度を維持しつつ、圧縮後の画像データのサイズを小さくすることができるようになる。
また、デジタルカメラ100は、サブ画像データから検出された顔領域を切り出して縮小し、メイン画像データに合成することもできる。このようにすることで、ユーザは、主たる被写体を撮影した時の撮影者の表情も同時に確認できることができるようになる。
このように、デジタルカメラ100は、メイン画像データとサブ画像データのそれぞれから検出された顔領域を利用することで、ユーザにとって利便性の高い処理を提供することが可能となる。
なお、上述した各実施形態では、画像データから被写体領域を検出する例として人物の顔領域を例にあげて説明を行ったが、人物を検出する機能を有するのであれば、顔にかぎらず、人物のシルエットや人体を検出するような構成としてもよい。また、ペットを撮影する際には、メイン画像データからは犬や猫などの顔領域を検出し、サブ画像データからは人物の顔領域を検出するようにしてもよい。顔検出部108は人物の顔を検出するためのパラメータと犬や猫などの顔を検出するパラメータを有しており、メイン画像データから顔領域を検出する場合とサブ画像データから顔領域を検出する場合とで、これらのパラメータを切り替えるように構成すればよい。
(その他の実施形態)
上述した実施形態は本発明の例示的な一実施形態であり、その具体的な数値を含め、いかなる意味においても実施形態の内容は本発明を限定しない。本発明に含まれる範囲は特許請求の範囲の記載によってのみ規定される。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100 画像処理装置
103 第1のレンズユニット
104 第1の撮像素子
105 第2のレンズユニット
106 第2の撮像素子
107 カメラ信号処理部
108 顔検出部
109 個人認識部
110 動きベクトル検出部
111 パネル部
114 CPU
116 ROM
118 タイマー
119 操作キー

Claims (12)

  1. 第1の撮像手段で生成された第1の画像データと、第2の撮像手段で生成された第2の画像データが入力され、前記第1の画像データおよび前記第2の画像データから被写体領域を検出する検出手段を有し、
    前記検出手段は、前記第1の画像データにおける前記被写体領域の検出結果と、前記第2の画像データにおける前記被写体領域の検出結果に応じて、以降における、前記第1の画像データから前記被写体領域を検出する第1の検出処理を行う割合と、前記第2の画像データから前記被写体領域を検出する第2の検出処理を行う割合を設定することを特徴とする画像処理装置。
  2. 前記検出手段は、前記第1の検出処理と前記第2の検出処理を同時に行えないことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の画像データにおける前記被写体領域の検出結果に基づく評価値と、前記第2の画像データにおける前記被写体領域の検出結果に基づく評価値を算出する評価手段を有し、
    前記検出手段は、前記第1の画像データに対する評価値と、前記第2の画像データに対する評価値の割合に基づいて、前記第1の検出処理を行う割合と前記第2の検出処理を行う割合を設定することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記検出結果は、前記検出手段が検出できた前記被写体領域の数を含み、
    前記評価手段は、前記検出手段が検出した前記被写体領域の数が多いほど、前記評価値を高く算出することを特徴とする請求項3に記載の画像処理装置。
  5. 前記評価手段は、前記検出手段が検出した前記被写体領域のうち、サイズが閾値以下の被写体領域については、前記検出手段が検出した前記被写体領域の数に含めないことを特徴とする請求項4に記載の画像処理装置。
  6. 前記検出手段で検出された前記被写体領域に関するデータが入力され、前記被写体領域が予め登録された識別データと同一の被写体であるか否かを判定する認識手段を有し、
    前記評価手段は、前記認識手段が識別に成功した前記被写体領域の数が多いほど、前記評価値を高く算出することを特徴とする請求項3乃至5のいずれか1項に記載の画像処理装置。
  7. 前記画像処理装置にパンニング動作が生じているか否かを判定するための動き検出手段を有し、
    前記評価手段は、前記動き検出手段によって前記パンニング動作が生じている判定された場合には、前記パンニング動作が生じていないと判定された場合に比べ、前記評価値を高く算出することを特徴とする請求項3乃至6のいずれか1項に記載の画像処理装置。
  8. 前記第1の画像データおよび前記第2の画像データがセルフタイマーの機能を用いて撮影された画像であるか否かを判定するためのセルフタイマーの検出手段を有し、
    前記検出手段は、前記セルフタイマーの機能を用いて撮影された画像であることを検出した場合には、前記第2の検出処理を行わないことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記評価手段は、前記被写体領域の検出結果に対して係数を掛けることで評価値を算出するものであり、前記第1の画像データに対する前記係数の値を、前記第2の画像データに対する前記係数の値よりも大きくすることを特徴とする請求項3乃至5のいずれか1項に記載の画像処理装置。
  10. 前記第1の画像データを生成する第1のカメラ部と、前記第1のカメラ部が配置された面の反対側の面に配置され、前記第2の画像データを生成する第2のカメラ部を有することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 第1の撮像手段で生成された第1の画像データと、第2の撮像手段で生成された第2の画像データが入力される入力工程と、
    前記第1の画像データおよび前記第2の画像データから被写体領域を検出する第1の検出工程と、
    前記検出工程において、前記第1の画像データにおける前記被写体領域の検出結果と、前記第2の画像データにおける前記被写体領域の検出結果に応じて、前記第1の画像データから前記被写体領域を検出する第1の検出処理を行う割合と、前記第2の画像データから前記被写体領域を検出する第2の検出処理を行う割合を設定する設定工程と、
    前記設定工程において設定された割合に従い、前記第1の画像データおよび前記第2の画像データから被写体領域を検出する第2の検出工程と、を有することを特徴とする画像処理方法。
  12. コンピュータを、請求項1乃至請求項9のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2013236149A 2013-11-14 2013-11-14 画像処理装置、画像処理方法およびプログラム Active JP6203007B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013236149A JP6203007B2 (ja) 2013-11-14 2013-11-14 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013236149A JP6203007B2 (ja) 2013-11-14 2013-11-14 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015095882A JP2015095882A (ja) 2015-05-18
JP6203007B2 true JP6203007B2 (ja) 2017-09-27

Family

ID=53197983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013236149A Active JP6203007B2 (ja) 2013-11-14 2013-11-14 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6203007B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106991668B (zh) * 2017-03-09 2020-08-18 南京邮电大学 一种天网摄像头拍摄画面的评价方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4872785B2 (ja) * 2007-05-02 2012-02-08 カシオ計算機株式会社 撮影装置、被写体選択方法及び被写体選択プログラム
JP4659088B2 (ja) * 2008-12-22 2011-03-30 京セラ株式会社 カメラ付き携帯端末
KR101680684B1 (ko) * 2010-10-19 2016-11-29 삼성전자주식회사 영상 처리 방법 및 이를 적용한 영상 촬영 장치

Also Published As

Publication number Publication date
JP2015095882A (ja) 2015-05-18

Similar Documents

Publication Publication Date Title
EP3024227B1 (en) Image processing apparatus and image processing method
EP2273450B1 (en) Target tracking and detecting in images
US9674395B2 (en) Methods and apparatuses for generating photograph
WO2018173792A1 (ja) 制御装置、制御方法、プログラム、及び、電子機器システム
JP6049448B2 (ja) 被写体領域追跡装置、その制御方法及びプログラム
EP3544286B1 (en) Focusing method, device and storage medium
CN106060391B (zh) 一种摄像头工作模式的处理方法及装置、电子设备
WO2014084249A1 (ja) 顔認証装置、認証方法とそのプログラム、情報機器
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
CN107360366B (zh) 拍照方法、装置、存储介质及电子设备
CN112954212B (zh) 视频生成方法、装置及设备
US20140369611A1 (en) Image processing apparatus and control method thereof
CN108574803B (zh) 图像的选取方法、装置、存储介质及电子设备
CN108513068B (zh) 图像的选取方法、装置、存储介质及电子设备
JP2010092092A (ja) 画像処理装置及び画像処理方法
JP2009105559A (ja) 撮影画像からの認識対象検出処理方法およびカメラ付き携帯型電子機器
JP2019186791A (ja) 撮像装置、撮像装置の制御方法、および制御プログラム
JP6203007B2 (ja) 画像処理装置、画像処理方法およびプログラム
US9143684B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
US20170013194A1 (en) Imaging device and method of operating the same
CN108520036B (zh) 图像的选取方法、装置、存储介质及电子设备
CN112153291B (zh) 拍照方法和电子设备
JP5660306B2 (ja) 撮像装置、プログラム、及び撮像方法
CN108431867B (zh) 一种数据处理方法及终端
KR101567668B1 (ko) 다중 초점 방식으로 영상을 생성하는 스마트폰 카메라 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170829

R151 Written notification of patent or utility model registration

Ref document number: 6203007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151