JP2019212966A - 撮像装置及びその制御方法、プログラム - Google Patents

撮像装置及びその制御方法、プログラム Download PDF

Info

Publication number
JP2019212966A
JP2019212966A JP2018104914A JP2018104914A JP2019212966A JP 2019212966 A JP2019212966 A JP 2019212966A JP 2018104914 A JP2018104914 A JP 2018104914A JP 2018104914 A JP2018104914 A JP 2018104914A JP 2019212966 A JP2019212966 A JP 2019212966A
Authority
JP
Japan
Prior art keywords
face
touch operation
touch
detected
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018104914A
Other languages
English (en)
Other versions
JP7098419B2 (ja
Inventor
知大 菅谷
Tomohiro Sugaya
知大 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018104914A priority Critical patent/JP7098419B2/ja
Publication of JP2019212966A publication Critical patent/JP2019212966A/ja
Application granted granted Critical
Publication of JP7098419B2 publication Critical patent/JP7098419B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Focusing (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 被写体が動いている場合でも、タッチ操作により所望の被写体を容易に選択することが可能な撮像装置及びその制御方法、プログラムを提供する。【解決手段】 本発明の撮像装置は、撮像画像内の複数の被写体を検出する被写体検出手段と、ユーザのタッチ操作を検出する操作検出手段と、検出されたタッチ操作の動きと、検出された前記複数の被写体のそれぞれの動きとの一致度に基づいて、前記複数の被写体から主被写体を選択する制御を行う制御手段と、を備える。【選択図】 図1

Description

本発明は、被写体を撮像する撮像装置及びその制御方法、プログラムに関する。
従来から、デジタルカメラやビデオカメラ等の撮像装置において、自動的に被写体にフォーカス(焦点)を合わせるオートフォーカス(AF)制御技術が知られている。例えば、コントラストAF制御方式は、撮像素子を用いて生成された映像信号の鮮鋭度(コントラスト状態)を示すAF評価値信号を生成し、該AF評価値信号が最大となるフォーカスレンズの位置を探索するAF制御方式である。
また、画像から特定の被写体パターンを自動的に検出する被写体検出技術が知られている。例えば、画像内の人物の顔の領域を検出する顔検出処理を行うことで、検出した顔に対して明るさやフォーカスの制御を行うことができる。
ここで、画像内に複数の被写体が存在する場合、カメラがAF制御で自動的に選択した被写体と、ユーザが撮影したい被写体とが一致しないことがある。
下記の特許文献1には、撮影者がタッチパネル上でタッチパネルを押圧したときに、フォーカス枠を押圧した位置で固定させるか、押圧した位置にある被写体に追尾させるかを選択させる手間を省くことを可能にした撮像装置が提案されている。
特開2011−030008号広報
しかしながら、上述した従来の技術では、被写体が動いている場合に、タッチ操作により所望の被写体を選択しにくいことがあった。
そこで、本発明は、被写体が動いている場合でも、タッチ操作により所望の被写体を容易に選択することが可能な撮像装置及びその制御方法、プログラムを提供することを目的とする。
上述した課題を解決するために、本発明の一実施形態に係る撮像装置は、撮像画像内の複数の被写体を検出する被写体検出手段と、ユーザのタッチ操作を検出する操作検出手段と、検出されたタッチ操作の動きと、検出された前記複数の被写体のそれぞれの動きとの一致度に基づいて、前記複数の被写体から主被写体を選択する制御を行う制御手段と、を備える。
また、本発明の一実施形態に係る撮像装置の制御方法は、撮像画像内の複数の被写体を検出する被写体検出ステップと、ユーザのタッチ操作を検出する操作検出ステップと、検出されたタッチ操作の動きと、検出された前記複数の被写体のそれぞれの動きとの一致度に基づいて、前記複数の被写体から主被写体を選択する制御を行う制御ステップと、を備える。
本発明によれば、被写体が動いている場合でも、タッチ操作により所望の被写体を容易に選択することが可能となる。
本発明に係る撮像装置の構成を示すブロック図である。 AF枠決定処理について説明するためのフロー図である。 実施の形態1におけるユーザのタッチ操作に基づく主顔決定処理について説明するためのフロー図である。 図3のStep203の顔の動きとタッチ操作の動きとの一致判定処理について説明するための図である。 実施の形態1における時刻tnのOPx[n]、Ax[n]、Bx[n]の数値の例を示す表である。 実施の形態1におけるEVFの画面表示について説明するための図である。 実施の形態2における顔の動きとタッチ操作との動きの一致判定処理について説明するための図である。 実施の形態2における時刻tnのOPx[n]、Ax[n]、Bx[n]の具体的な数値の例を示す表である。 相対位置制御と絶対位置制御の自動設定処理について説明するためのフロー図である。 一致判定処理を行う前の段階でタッチ位置と顔位置との距離を条件に加えて追加処理を行う例について説明するためのフロー図である。
以下、図面を用いて本発明の実施の形態について説明する。なお、本発明の技術的範囲は、特許請求の範囲によって確定され、以下に例示する実施形態によって限定されるものではない。また、実施形態の中で説明されている特徴の組み合わせすべてが本発明に必須とは限らない。本明細書および図面に記載の内容は例示であって、本発明を制限するものと見なすべきではない。本発明の趣旨に基づき種々の変形(各実施形態の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、各実施形態及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
(実施の形態1)
図1は、本発明に係る撮像装置の構成を示すブロック図である。図1において、第1固定レンズ101、変倍レンズ102、絞り103、第2固定レンズ104、及びフォーカスコンペンセータレンズ(フォーカスレンズ)105により被写体からの光を結像するための撮像光学系が構成される。変倍レンズ102を光軸方向に移動することにより、ズーム倍率が調整(変倍)される。フォーカスレンズ105を光軸方向に移動することにより、変倍に伴う焦点面の移動の補正とフォーカシングが行われる。
撮像素子106は、CCDセンサやCMOSセンサにより構成される光電変換素子である。撮像素子106は、被写体像を光電変換して撮像信号を生成する。CDS/AGC回路107は、撮像素子106から出力される撮像信号をサンプリングしてゲイン調整する。画像信号処理回路108は、CDS/AGC回路107から出力される撮像信号に対して各種の画像処理を施し、画像信号を生成する。背面表示部109は、LCD等の表示パネルにより構成され、画像信号処理回路108で生成された画像信号に基づく画像を表示する。また、電子ビューファインダ(EVF)119は、同じく、画像信号処理回路108で生成された画像信号に基づく画像を表示する。
記録部115は、画像信号処理回路108で生成された画像信号を、磁気テープ、光ディスク、半導体メモリ等の記録媒体に記録する。背面表示部109の画面上に配置されるタッチパネル112は、ユーザの指の接触を検知可能なタッチ操作検出部である。タッチパネル112と背面表示部109とは一体的に構成することができる。例えば、タッチパネル112を背面表示部109の表示面上層に取り付け、背面表示部109の表示を妨げないように構成する。タッチパネル112におけるタッチ入力座標と、背面表示部109の画面上の座標とを対応づけることにより、あたかもユーザが背面表示部109の画面を直接的に操作するようなGUIを構成することができる。GUIは、Graphical User Interfaceを表す。
ズーム制御部110は、マイコン114からの指示に応じて、変倍レンズ102を移動させる。フォーカシング制御部111は、マイコン114からの指示に基づいて、フォーカスレンズ105を移動させる。ズーム制御部110及びフォーカシング制御部111は、夫々、ステッピングモータ、DCモータ、振動型モータ、及びボイスコイルモータ等のアクチュエータにより構成される。
AF信号処理回路113は、CDS/AGC回路107から出力される撮像信号のうち、焦点検出に用いられる部分領域(使用するAF枠を含む周辺の部分領域)の信号から高周波成分を抽出して、AF評価値を示すAF評価値信号(焦点信号)を生成する。つまり、AF信号処理回路113は、設定されたAF枠に対応する撮像信号の成分から、AF評価値信号を生成する生成手段を構成する。AF評価値は、マイコン114に出力される。AF評価値は、撮像信号に基づいて生成される画像(映像)の鮮鋭度(コントラスト状態)を表すものである。撮像光学系の焦点状態(合焦の度合い)によって鮮鋭度は変化するので、AF評価値信号は撮像光学系の焦点状態を表す信号となる。
マイコン114は、CPU(Central Processing Unit)としてマイクロプロセッサを使用したマイクロコンピュータ(Microcomputer)である。マイコン114は、不図示のROMからプログラムを読み出して実行することにより、撮像装置全体の動作を制御する。マイコン114は、AF評価値に基づいてフォーカシング制御部111を制御することで、フォーカスレンズ105を移動し、焦点調節制御を行う。
顔検出部116は、CDS/AGC回路107から出力された撮像信号に対して顔検出処理を施し、撮像画像内の人物や動物の顔領域を検出する。例えば、撮像中の撮像画像(ライブビュー画像)内の人物や動物の顔領域を検出する。顔検出部116は、顔以外の予め定められた被写体(例えば、人物全体、車・飛行機・列車等の移動体等)を検出する被写体検出部であってもよい。顔検出部116による顔検出結果は、マイコン114に送信される。マイコン114は、顔検出結果に基づき、主被写体(主顔)を決定する。マイコン114は、撮像画像内の主顔領域を含む位置にAF枠を設定するように、AF信号処理回路113へコマンドを送信する。顔検出処理としては、画像の各画素の階調色から肌色領域を抽出して予め用意した顔の輪郭プレートとのマッチング度で顔検出を行う方法や、パターン認識技術を用いて、目、鼻、口等の顔の特徴点を抽出することで顔検出を行う方法等がある。画像中に複数の人物が存在する場合は、その人数分の顔領域が検出される。AF信号処理回路113は、マイコン114から受信したコマンドに基づいて、主被写体(主顔)領域のAF評価値のみを出力する。
絞り制御部117は、絞り機構103を駆動させるためのアクチュエータ及びそのドライバを含む。輝度情報検波・演算回路118は、CDS/AGC回路107によって読み出された撮像信号から、画面内の測光枠の輝度値(測光値)を取得し、演算により正規化する。マイコン114は、輝度情報検波・演算回路118で取得された測光値と、適正な露出が得られるように設定された目標値との差分を算出する。そして、マイコン114は、算出した差分から、絞りの補正駆動量を算出し、絞り制御部117の駆動を制御する。
次に、図2のフロー図を用いてAF枠決定処理について説明する。Step101で、AF枠決定処理を開始する。一定周期毎に、AF枠決定処理が開始されるものとする。図2の各ステップは、マイコン114により実行される。
Step102において、マイコン114は、撮像装置に設定されているAF制御モードが「顔+追尾優先」モードであるか判断する。ここで「顔+追尾優先」モードとは、顔が検出された場合はAF枠位置を主顔位置に優先的に設定する方式である。さらに、主顔位置が移動した場合、AF枠もそれに追従して自動的に移動させる。撮像装置に設定されているAF制御モードが「顔+追尾優先」モードである場合は、Step102からStep103へ進み、それ以外のAF制御モードの場合は、Step102からStep110に進む。
Step103では、顔検出部116の顔検出処理の結果に基づき、撮像画像内で顔が検出できたかを判断する。顔とみなせる顔領域が検出できた場合は、Step103からStep104へ進み、顔領域が検出できなかった場合は、Step103からStep111に進む。
Step104では、タッチパネル112のタッチ操作の検出結果に基づき、ユーザによるタッチ操作の有無を判断する。タッチ操作が検出された場合は、Step104からStep201に進む。タッチ操作が検出されない場合は、Step104からStep105に進む。なお、今回のタイミングでタッチ操作が検出できなかった場合でも、前回のAF枠決定処理でタッチ操作が検出された場合は、Step104からStep201に進むようにしてもよい。
Step201では、タッチ操作に基づいて、撮像画像内の主顔を決定する処理を行う。詳細は後述する。主顔決定処理が完了したら、Step201からStep106に進める。
Step106では、主顔が確定したかを判断する。主顔が確定している場合は、Step106からStep107に進む。主顔が確定していない場合は、Step106からStep105に進む。
ここまで、タッチ操作によって主顔位置を確定し、その主顔位置をAF枠位置に設定する処理を説明した。タッチ操作がなかった場合、あるいはタッチ操作と一致する顔が検出できなかった場合は、Step105以降の処理となる。
Step105では、顔検出部116の顔検出処理の結果、前回のAF枠決定処理で主顔として判断していた領域と相関がある顔検出領域があるに基づいて、同一人物の顔検出結果があるか否かを判断する。相関がある顔検出領域がある場合、すなわち今回の処理においても前回の主顔と同一人物の顔が継続して検出できている場合は、Step105からStep108へ進む。Step108では、前回の主顔位置を選択して、AF枠位置に設定する。前回の主顔と相関のある顔が検出できなかった場合は、Step105からStep109に進む。
Step109では、顔検出部116の顔検出処理の結果に基づいて、主顔を決定する処理を行う。撮像画像から検出された顔が1つの場合は、その顔を主顔として決定する。撮像画像から複数の顔が検出された場合は、例えば、撮像画像内の顔の位置に基づいて、画像中央に最も近い顔を主顔として決定する。ただし、大きい顔を主顔として決定してもよく、撮像画像から主顔を決定する方法は限定されない。Step109の処理が完了したら、Step107に進む。
Step107では、決定された主顔位置にAF枠を設定し、AF枠決定処理を終了する。
ここまで、撮像装置に設定されているAF制御モードが「顔+追尾優先」モードである場合の処理を説明した。次に、AF制御モードが「顔+追尾優先」モード以外の方式である場合の処理について説明する。他のAF制御モードの例として、「タッチ位置優先」モードがある。この方式は、ユーザによるタッチ位置をAF枠として設定する方式である。自動追尾せず、タッチ位置を優先してAF枠を設定するため、タッチした顔位置にAF枠が設定された状態で顔位置が移動しても、AF枠の位置はタッチ位置に固定されたままとなる。
Step110において、マイコン114は、撮像装置に設定されているAF制御モードが「タッチ位置優先」モードであるか判断する。撮像装置に設定されているAF制御モードが「タッチ位置優先」モードである場合は、Step110からStep111へ進み、それ以外のAF制御モードの場合は、Step110からStep115に進む。
Step111では、タッチパネル112のタッチ操作の検出結果に基づき、ユーザによるタッチ操作の有無を判断する。タッチ操作が検出された場合は、Step111からStep112に進む。Step112では、タッチ操作が検出されたタッチ位置にAF枠を設定し、AF枠決定処理を終了する。Step111で、タッチ操作が検出されない場合は、Step111からStep113に進む。
Step113では、前回のAF枠決定処理でAF枠が設定されているか判断する。前回のAF枠決定処理でAF枠が設定されていると判断した場合は、Step113からStep114に進む。Step114ではAF枠を前回設定した位置に設定する。この処理が完了したら、AF枠決定処理を終了する。Step113で、前回のAF枠決定処理でAF枠が設定されていないと判断した場合は、Step113からStep115に進む。
Step115は、撮像装置に設定されているAF制御モードが「顔+追尾優先」モードでもなく、「タッチ位置優先」モードでもない場合の処理である。一例として、「固定エリア」モードがある。この方式では、例えば、撮像画像の中央の固定位置にAF枠を設定する。この処理が完了したら、AF枠決定処理を終了する。ただし、AF制御モードが「顔+追尾優先」モードでもなく、「タッチ位置優先」モードでもない場合に、他のAF制御モードがあれば、Step115処理は必ずしもAF枠を固定エリアにする方法でなくてもよい。
次に、図3のフロー図を用いて、実施の形態1におけるユーザのタッチ操作に基づく主顔決定処理について説明する。Step201で、タッチ操作に基づく主顔決定処理を開始する。図2で説明したとおり、この処理は、撮像装置に設定されているAF制御モードが「顔+追尾優先」モードであり、顔が検出され、かつタッチ操作が検出された場合に開始される。図3の各ステップは、マイコン114により実行される。
Step202では、タッチパネル112のタッチ操作の検出結果に基づき、ユーザによるドラッグ操作の有無を判断する。Step202で、ドラッグ操作が検出された場合は、Step203に進み、ドラッグ操作が検出されない場合は、Step206に進む。ここでは、タッチパネル112に対するタッチダウン操作後、所定期間のタッチ操作(長押し)中にタッチ位置を変更するような操作が行われた場合に、ドラッグ操作として検出される。例えば、短時間のタッチ操作(短押し)が行われた場合は、ドラッグ操作として検出されない。
Step203では、撮像画像内で検出されている顔の動きとタッチ操作の動きとの一致判定処理を行う。例えば、ドラッグ操作の移動方向、移動量、移動速度によって一致度を判定する。所定期間の顔位置の移動方向、移動量、移動速度と、所定期間のドラッグ操作の移動方向、移動量、移動速度と、との一致度を判定する。ただし、移動方向、移動量、移動速度のいずれか1つまたは2つのみを用いて、一致度の判定を行ってもよい。
Step204では、ドラッグ操作と一致する動きの顔の有無を判断する。具体的には、所定期間の顔位置の移動方向、移動量、移動速度と、所定期間のドラッグ操作の移動方向、移動量、移動速度との一致度が閾値以上である顔が撮像画像内に存在するかを判定する。ドラッグ操作と一致する動きの顔が検出された場合は、Step204からStep205に進み、ドラッグ操作と一致する動きの顔が検出されない場合は、Step204からStep207に進む。
Step205では、ドラッグ操作と一致する動きの顔を主顔の候補とし、Step206に進む。所定期間の顔位置の移動方向、移動量、移動速度と、所定期間のドラッグ操作の移動方向、移動量、移動速度との一致度が閾値以上である顔が撮像画像内に複数存在する場合は、一致度が最も高い顔を主顔候補とする。
ここで、主顔候補は、主顔と確定する前の未確定状態である。主顔候補となった時点で、主顔候補位置に枠表示を行い、主顔候補があることをユーザに通知する。例えば、確定した主顔は実線の顔枠、主顔候補は点線の顔枠というように枠形状を変える。確定した主顔の顔枠と、主顔候補の顔枠と枠の色等の表示形態を変える。主顔候補が存在する状態で、ユーザがタッチアップ操作を行うと、主顔候補が正式に主顔と確定される。ユーザのタッチ操作が検出されるまでは、主顔は未確定の状態である。
Step207では、撮像画像内のユーザのタッチ位置の顔の有無を判断する。タッチ位置と重なる位置に顔がある場合は、Step207からStep208へ進み、タッチ位置と重なる位置に顔が無い場合は、Step207からStep209へ進む。
Step208では、撮像画像内のユーザのタッチ位置にある顔を主顔候補とし、Step206に進む。Step209では、主顔候補なしとして、Step206に進む。
Step206では、ユーザによるタッチアップ操作があるかを検出し、タッチアップ操作が検出されたらStep210に進む。タッチアップ操作が検出されるまでは、Step206からStep202に戻り、ドラッグ操作の検出を繰り返し行う。タッチアップ操作とは、タッチパネル112をタッチダウンした後、タッチした指をタッチパネル112から離して、タッチを解除する操作である。
Step210では、主顔候補の有無を判断する。主顔候補がある場合は、Step211に進み、主顔候補がない場合は、Step212に進む。
Step211では、主顔候補を正式に主顔として確定し、タッチ操作に基づく主顔決定処理を終了する。Step212では、主顔が未確定の状態を維持し、タッチ操作に基づく主顔決定処理を終了する。
次に、図4を用いて、図3のStep203の顔の動きとタッチ操作の動きとの一致判定処理について詳しく説明する。ここで、タッチパネルのタッチ検出位置、および撮像画像内の顔位置は、X−Y座標の2軸で定義される。ただし、X座標とY座標とで処理が同じ場合は、X座標における処理のみ記載し、Y座標における処理の説明は省略する。また、ここでは、顔Aと顔Bの2人の顔領域が検出された場合の説明を行うが、顔が検出される人数は2人に限定されるものではなく、2人より多い場合も同様の処理が適用される。
図4(a)は、検出された顔位置とタッチ操作位置の軌跡を示す図である。具体的には、横軸を時間、縦軸をX軸上の位置として、顔検出部116で検出された顔Aと顔BのX軸上の位置の軌跡を示している。また、同様に、横軸を時間、縦軸をX軸上の位置として、タッチパネル112により検出されたタッチ操作位置のX軸上の位置の軌跡を示している。実線がタッチ操作(ドラッグ操作)の位置変化(移動)の軌跡を示し、点線が顔Aと顔BのX軸上の位置変化(移動)の軌跡を示す。
図4(b)は、検出された顔位置とタッチ操作位置の軌跡をサンプリングする様子を示す図である。具体的には、図4(a)で示したX軸上のタッチ操作位置、および顔Aと顔Bの位置の変化を、所定時間間隔でサンプリングする様子を示している。時刻t0、t1、t2、t3、t4、t5がサンプリング時刻を示している。ここでは、X軸上のサンプリング時のタッチ操作位置を●印、顔Aの位置を◆印、顔Bの位置を塗りつぶし△印で示している。サンプリング回数は、t0〜t5の6回だけ示しているが、サンプリング回数はこれに限定されるものではなく、より長時間にわたってサンプリングを行ってもよい。長時間にわたって一致状態を判定する場合は、サンプリング回数を増やせばよい。
また、AF枠決定処理が所定周期で実施されることを説明したが、本処理におけるサンプリング周期は、AF枠決定処理の周期と一致させる必要はない。より詳細な移動軌跡を取得する場合には、サンプリング周期が短い方がよい。また、処理負荷を軽減した場合は、サンプリング周期が長い方がよい。さらに、顔の位置変化またはタッチ操作の位置変化の大きさや速さによって、サンプリング周期を変更してもよい。この場合、顔の位置変化あるいはタッチ操作の位置変化が大きい場合、または速い場合は、サンプリング周期を短くして、位置変化の検出漏れがないようにすればよい。また、サンプリング周期を一定にしないで、動的に変更してもよい。顔の位置変化あるいはタッチ操作の位置変化の特徴点を検出し、方向変化あるいは速度変化のタイミングで、サンプリングを行ってもよい。
図4(c)は、サンプリング時の顔位置およびタッチ操作位置のX座標を示す図である。具体的には、図4(b)で示したサンプリング時における顔位置とタッチ操作位置のX座標を示している。タッチ操作のX座標は配列OPx[n]に格納され、顔AのX座標は配列Ax[n]に格納され、顔BのX座標は配列Bx[n]に格納される。
図5は、実施の形態1における時刻tn(n=0,1,2,3,4,5)のOPx[n]、Ax[n]、Bx[n]の具体的な数値の例を示す表である。また、表の中段には、時刻tn〜tn−1のOPx[n]、Ax[n]、Bx[n]の変化量ΔOPx[n]、ΔAx[n]、ΔBx[n]を算出した数値を示している。例えば、OPx[0]とOPx[1]とから、X軸上での変化量1が算出される。なお、表の数値は、例えば画素単位としても、撮像画像を0〜100等の数値で正規化した単位でもよい。表の下段には、時刻tn〜tn−1のOPx[n]、Ax[n]、Bx[n]の変化量ΔOPx[n]、ΔAx[n]、ΔBx[n]に基づき算出される、顔Aとタッチ操作の位置変化量の差分、顔Bとタッチ操作の位置変化量の差分を示している。この数値は、単位時間あたりの顔A,Bとタッチ操作の位置変化量の一致度合いに関する数値である。この数値が大きいほど、タッチ操作と顔の動きの一致度が低く(不一致度が高く)、この数値が小さいほど、タッチ操作と顔の動きの一致度が高い(不一致度が低い)ことを示している。例えば、時刻t3〜t4では、顔Aとタッチ操作の位置変化量の方が、顔Bとタッチ操作の位置変化量よりも一致度が高く、時刻t3〜t4以外では、顔Bとタッチ操作の位置変化量の方が、顔Aとタッチ操作の位置変化量よりも一致度が高い。つまり、全体的に顔Bとタッチ操作の動きの方が一致度が高い(差分の数値が小さい)。不一致度または一致度は、変化量の総和で示すことができる。例えば、顔Aに関するタッチ操作の位置変化との不一致度は、式1で表すことができる。
Σ|ΔAx[n]―ΔOPx[n]|・・・(式1)
式1で算出される数値が大きいほど、タッチ操作と顔の動きの一致度が低く(不一致度が高く)、この数値が小さいほど、タッチ操作と顔の動きの一致度が高い(不一致度が低い)ことを示している。顔Aに関するタッチ操作の位置変化との一致度は、式2のように、式1の逆数で表される。
1/(Σ|ΔAx[n]―ΔOPx[n]|)・・・(式2)
図5に示した例では、顔Aとタッチ操作の動きの不一致度(式1の演算結果)は46であり、顔Bとタッチ操作の動きの不一致度(式1の演算結果)は16であり、顔Bの方が顔Aよりタッチ操作と近い動きをしている。
なお、ここまでX軸上での一致度について言及したが、Y軸を含めた2次元座標上の一致度を算出する場合は、式3を用いて算出することができる。
1/(Σ(|ΔAx[n]―ΔOPx[n]|+|ΔAy[n]―ΔOPy[n]|)・・・(式3)
ここで、ΔOPy、ΔAyは、それぞれY軸上のタッチ操作の位置変化量、顔Aの位置変化量を示す。
次に、図6を用いて、実施の形態1におけるEVF119の画面表示について説明する。ユーザは、撮像中の撮像画像(ライブビュー画像)をEVF119の表示画面で確認しながら、タッチパネル112を見ないでタッチ操作して、主顔を決定することができる。図6(a)〜(d)では、撮像画像内には2人の人物の顔A、顔Bがある。EVF119には、タッチ位置を示す丸枠、顔Aの四角枠、顔Bの四角枠が、撮像画像に重畳された表示画像が表示されている。図6(a)〜(d)では、タッチパネル112と一体構成された背面表示部109の画面上には撮像画像が表示されていない。タッチパネル112と一体構成された背面表示部109の画面上には撮像画像が表示されるが、ユーザがEVF119に接近していることが検知され、ユーザがEVF11を覗いていると判断すると、背面表示部109は撮像画像の表示を停止する。EVF119には、被写体の近接を検知する近接センサを設けるものとする。図6(a)〜(d)において、タッチパネル112と一体構成された背面表示部109の画面上には撮像画像が表示されていてもよい。
図6(a)は、ユーザがタッチパネル112に対してタッチ操作した直後の表示画面を示している。ここでは、今回タッチ操作する前の状態において、図2で示したAF枠決定処理によって、Step109で撮像画像に基づく主顔決定処理が行われ、画面中央付近の顔Aが主顔として決定されたものとする。主顔決定後の顔Aの領域は二重枠線、主顔でない顔Bの領域は一重枠線で表示されている。タッチ操作直後は、タッチアップ操作前であるため、図3で説明したタッチ操作に基づく主顔決定処理は完了していない状態である。
図6(b)は、ユーザがドラッグ操作中のタッチ枠位置および顔位置を示す表示画面である。タッチパネル112へのタッチ操作の初期位置からの相対位置変化に応じて、EVF119の表示画面に表示されるタッチ枠の位置が変化する(相対位置制御)。また、顔A、顔Bの移動軌跡は、図示のとおりである。ただし、実際には、顔A、顔B移動軌跡は、EVF119の表示画面上には表示されないものとする。
図6(c)は、ユーザがドラッグ操作を完了したときのタッチ枠位置および顔位置を示す表示画面を示す図である。ドラッグ操作を完了したときとは、例えば、ドラッグ操作によるタッチ位置の移動が停止したときである。ここで、図3を用いて説明したStep203の一致判定処理により、顔Bの動きとドラッグ操作の動きが一致すると判定されたものとする。そして、Step205で顔Bが主顔候補として決定され、EVF119の表示画面上で顔Bが主顔候補となったことがユーザに通知される。図6(c)では、主顔候補となった顔枠が、一重枠線の点滅表示で通知される場合を例示している。
図6(d)は、ユーザがタッチアップ操作した直後のタッチ枠位置および顔位置を示す表示画面を示す図である。主顔候補が存在している状態でタッチアップ操作が行われると、Step211の処理により主顔候補の顔Bが主顔として確定される。そして、顔Bの顔枠が二重枠線に変更され、顔Aの顔枠が一重枠線に変更されることで、主顔が顔Aから顔Bに変更されたことが通知される。
以上のように、本実施の形態では、撮像画像内で検出されている顔の動きとタッチ操作の動きに基づいて、主顔が決定される。したがって、被写体が動いている場合でも、タッチ操作により所望の被写体を容易に選択することが可能となる。従来は、EVF119で撮像画像を確認しながら、タッチパネル112のタッチ操作により所望の被写体を選択しようとしても、被写体が動いている場合には、所望の被写体を選択しにくいことがあった。
しかし、本実施の形態のように、顔の動きとタッチ操作の動きから、主顔候補を推定することで、所望の被写体を容易に選択することが可能になる。
なお、本発明はタッチパネルへのタッチ操作に限定されず、例えば、十字キーや上下左右カーソルキー等の操作部材へのユーザ操作に応じて、ユーザの指定位置の枠を移動させてもよい。
(実施の形態2)
本実施の形態2に係る撮像装置の構成及び動作を、実施の形態1との差異を中心に説明する。実施の形態2では、タッチ操作に基づく主顔決定処理の判定条件に、タッチ位置と顔位置との距離に関する条件を追加する。実施の形態2に係る撮像装置の構成は、図1と同様であるため、同一の符号を用いて説明する。なお、本実施の形態2において、実施の形態1と同様に、ユーザが選択する対象の被写体として人物の顔を例示するが、動物の顔であってもよいし、顔以外の被写体(例えば、人物全体、車・飛行機・列車等の移動体等)であってもよい。
図7は、実施の形態2における顔の動きとタッチ操作との動きの一致判定処理について説明するための図である。実施の形態1の図4と同様の点については説明を繰り返さない。図4では、全体的に顔Bとタッチ操作の動きの方が一致度が高い場合を示したが、図7では、全体的に顔Aとタッチ操作の動きの方が一致度が高い。ただし、X座標上では、顔Aの位置よりも顔Bの位置の方が、タッチ操作位置に近い。
図8は、実施の形態2における時刻tn(n=0,1,2,3,4,5)のOPx[n]、Ax[n]、Bx[n]の具体的な数値の例を示す表である。実施の形態1の図5と同様の点については説明を繰り返さない。表の最下段には、時刻tnにおける顔A,Bの座標位置とタッチ操作の座標位置との差分を記載している。この数値から、タッチ操作位置と顔位置とがどれだけ離れているか(近いか)が分かる。
実施の形態1で説明した式1を用いた演算結果では、顔Aとタッチ操作の動きの不一致度(式1の演算結果)は5となり、顔Bとタッチ操作の動きの不一致度(式1の演算結果)は35となり、顔Aの方が顔Bよりタッチ操作と近い動きをしていると判断できる。
本実施の形態2では、タッチ位置と顔位置との距離も考慮し、下記の式4を用いて顔とタッチ操作の動きの不一致度を計算する。
Σ|ΔAx[n]―ΔOPx[n]|+Σ|Ax[n]―OPx[n]|・・・(式4)
式4を用いて算出すると、顔Aとタッチ操作の動きの不一致度(式4の演算結果)は207となり、顔Bとタッチ操作の動きの不一致度(式4の演算結果)は68であり、顔Bの方が顔Aよりタッチ操作と近い動きをしていると判断できる。
ただし、重み付け係数kを用いた下記の式5を用いて、算出してもよい。係数kは、任意の値に設定できるものとする。
Σ|ΔAx[n]―ΔOPx[n]|+k*Σ|Ax[n]―OPx[n]|・・・(式5)
実施の形態1では、ユーザは、撮像中の撮像画像(ライブビュー画像)をEVF119の表示画面で確認しながら、タッチパネル112を見ないでタッチ操作することを想定していた。このため、タッチパネル112へのユーザのタッチ位置は、EVF119で表示中の撮像画像内の選択したい顔の位置と異なることがあった。したがって、タッチパネル112へのタッチ操作の初期位置からの相対位置変化に応じて、EVF119の表示画面に表示されるタッチ枠の位置が変化するようにした(相対位置制御)。
一方、実施の形態2では、ユーザが、タッチパネル112と一体構成された背面表示部109の画面に表示された撮像画像を確認しながらタッチパネル112をタッチ操作することも想定している。この場合、タッチパネル112へのユーザのタッチ位置は、背面表示部109の画面に表示された撮像画像内の選択したい顔の位置付近であると考えられる。したがって、タッチパネル112へのタッチ操作の絶対位置に応じて、EVF119の表示画面に表示されるタッチ枠の位置が変化するようにする(絶対位置制御)。従来、顔が速く動いている場合は、タッチ操作により所望の顔(被写体)を選択しにくいことがあった。そこで、顔(被写体)にある程度近い位置をタッチ操作し、顔(被写体)の動きにある程度近い軌跡でタッチ操作ができれば、所望の顔(被写体)を選択できるようにする。
図9は、相対位置制御と絶対位置制御の自動設定処理について説明するためのフロー図である。図9の各ステップは、マイコン114により実行される。EVF119に被写体の近接を検知する近接センサを設け、マイコン114は近接センサによる検知結果を受け取る。
Step301において、マイコン114が、EVF119にユーザが近接していると判断した場合は、Step302に進み、タッチ操作に応じた相対位置制御に設定する。一方、Step301において、マイコン114が、EVF119にユーザが近接していないと判断した場合は、Step303に進み、タッチ操作に応じた絶対位置制御に設定する。
ユーザが、撮像中の撮像画像(ライブビュー画像)をEVF119の表示画面で確認しながら、タッチパネル112を見ないでタッチ操作する場合には、式5の係数kの値を比較的小さい値に設定し、タッチ操作に応じた相対位置制御を行う(Step302)。この場合、絶対的なタッチ位置と顔位置との差分の一致度算出への影響度合いが小さくなる。
ユーザが、タッチパネル112と一体構成された背面表示部109に表示された撮像画像を確認しながらタッチパネル112をタッチ操作する場合には、式5の係数kの値を比較的大きい値に設定し、タッチ操作に応じた絶対位置制御を行う(Step303)。この場合、絶対的なタッチ位置と顔位置との差分の一致度算出への影響度合いが大きくなる。
したがって、ユーザが、EVFを使用した撮影方法を行う場合と、EVFを使用した撮影方法を行う場合とで、タッチ操作に応じた相対位置制御と、タッチ操作に応じた絶対位置制御とが自動的に切り替えられる。これにより、それぞれの撮影方法において、ユーザは所望の被写体を容易に選択することができる。
以上の説明では、顔の動きとタッチ操作の動きとの一致判定処理において、タッチ位置と顔位置との距離を条件に加えたが、顔の動きとタッチ操作の動きとの一致判定処理を行う前の段階で、タッチ位置と顔位置との距離を条件に加えて追加処理をしてもよい。
図10は、顔の動きとタッチ操作の動きとの一致判定処理を行う前の段階で、タッチ位置と顔位置との距離を条件に加えて追加処理を行う例について説明するためのフロー図である。図10のStep201〜Step212の処理は、図3のStep201〜Step212の処理と同じであり、詳細な説明は繰り返さない。図10では、Step202とStep203との間に、Step401〜Step404が追加されている。
Step401では、タッチ操作に応じた絶対位置制御と、タッチ操作に応じた相対位置制御とのどちらに設定されているかを判断する。タッチ操作に応じた絶対位置制御に設定されている場合は、Step402に進み、タッチ操作位置と顔位置の差の判断に用いる閾値POS_THをPOS1に設定する。一方、タッチ操作に応じた相対位置制御に設定されている場合は、Step403に進み、タッチ操作位置と顔位置の差の判断に用いる閾値POS_THをPOS2に設定する。ここで、POS1<POS2の関係が成り立っているものとする。
次に、Step404では、タッチ操作位置と顔位置の差が、POS_THの数値より大きい場合は、その顔は一致度判定対象から除外する。これにより、ユーザが選択する意図がない顔を、主顔の選択対象から除外することができる。これにより、例えば、検出した顔の数が多い場合に、処理を軽減させつつ、撮影方法に適した顔選択を行うことが可能となる。
(その他の実施の形態)
以上の説明では、オートフォーカス(AF)制御の対象領域として主顔領域を用いたが、これに限定されない。他の用途の例として、輝度情報検波・演算回路118で輝度値を検出する領域を、上述のようにして決定した主顔位置にすることで、主顔位置が適正露出になるようなオート露出(AE)制御に用いてもよい。また、画像信号処理回路108が行う画像処理に特定領域の切出し処理を含み、本実施形態を用いて決定した顔位置に基づいて領域切出しした画像信号を生成することで、主顔位置を画角中心位置に保持するような被写体追尾制御に用いてもよい。
本発明は、上述の実施の形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。上記コンピュータは、例えば、CPUやMPU等のプロセッサーで構成される。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。上述の実施形態の1以上の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。
また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータはがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。
109 表示部
112 タッチパネル
114 マイコン
116 顔検出部
119 EVF

Claims (13)

  1. 撮像画像内の複数の被写体を検出する被写体検出手段と、
    ユーザのタッチ操作を検出する操作検出手段と、
    検出されたタッチ操作の動きと、検出された前記複数の被写体のそれぞれの動きとの一致度に基づいて、前記複数の被写体から主被写体を選択する制御を行う制御手段と、を備える撮像装置。
  2. 前記タッチ操作の動きは、タッチ位置の移動方向、移動量、移動速度の少なくとも一つを含むことを特徴とする請求項1に記載の撮像装置。
  3. 前記タッチ操作は、ドラッグ操作であることを特徴とする請求項1または2に記載の撮像装置。
  4. 前記被写体は、顔であることを特徴とする請求項1から3までのいずれか1項に記載の撮像装置。
  5. 前記制御手段は、追尾優先のAF制御モードに設定されているか否かを判断し、追尾優先のAF制御モードに設定されている場合に、検出されたタッチ操作の動きと、検出された前記複数の被写体のそれぞれの動きとの一致度に基づいて、前記複数の被写体から主被写体を選択する制御を行うことを特徴とする請求項1から4までのいずれか1項に記載の撮像装置。
  6. 前記撮像画像と、前記タッチ操作に係るタッチ位置を示すタッチ枠とを表示する電子ビューファインダをさらに備えることを特徴とする請求項1から5までのいずれか1項に記載の撮像装置。
  7. 前記操作検出手段は、前記電子ビューファインダとは異なる位置に配置された表示部に設けられることを特徴とする請求項6に記載の撮像装置。
  8. 前記制御手段は、検出されたタッチ操作の動きと、検出された前記複数の被写体のそれぞれの動きとの一致度が最も高い被写体を、主被写体として選択することを特徴とする請求項1から7までのいずれか1項に記載の撮像装置。
  9. 前記制御手段は、検出されたタッチ操作の動きと、検出された前記複数の被写体のそれぞれの動きとの一致度と、検出されたタッチ操作の位置と前記複数の被写体のそれぞれとの距離とに基づいて、前記複数の被写体から主被写体を選択する制御を行うことを特徴とする請求項1から7までのいずれか1項に記載の撮像装置。
  10. 前記電子ビューファインダには近接センサが設けられ、
    前記制御手段は、
    ユーザが前記電子ビューファインダに近接していると判断した場合は、前記操作検出手段へのユーザのタッチ操作の初期位置からの相対位置変化に応じて、前記電子ビューファインダに表示される前記タッチ枠の位置を変化される相対位置制御を行い、
    ユーザが前記電子ビューファインダに近接していないと判断した場合は、前記操作検出手段へのユーザのタッチ操作の相対位置に応じて、前記電子ビューファインダに表示される前記タッチ枠の位置を変化される絶対位置制御を行うことを特徴とする請求項6に記載の撮像装置。
  11. 前記制御手段は、前記電子ビューファインダに表示された前記撮像画像内の複数の被写体のうち、前記操作検出手段へのユーザのタッチ操作に係るタッチ位置と閾値より離れた位置の被写体を、主被写体の選択対象から除外することを特徴とする請求項6に記載の撮像装置。
  12. 撮像装置の制御方法であって、
    撮像画像内の複数の被写体を検出する被写体検出ステップと、
    ユーザのタッチ操作を検出する操作検出ステップと、
    検出されたタッチ操作の動きと、検出された前記複数の被写体のそれぞれの動きとの一致度に基づいて、前記複数の被写体から主被写体を選択する制御を行う制御ステップと、を備える撮像装置の制御方法。
  13. コンピュータを請求項1から請求項11までのいずれか1項に記載の撮像装置の前記制御手段として機能させるためのプログラム。
JP2018104914A 2018-05-31 2018-05-31 撮像装置及びその制御方法、プログラム Active JP7098419B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018104914A JP7098419B2 (ja) 2018-05-31 2018-05-31 撮像装置及びその制御方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018104914A JP7098419B2 (ja) 2018-05-31 2018-05-31 撮像装置及びその制御方法、プログラム

Publications (2)

Publication Number Publication Date
JP2019212966A true JP2019212966A (ja) 2019-12-12
JP7098419B2 JP7098419B2 (ja) 2022-07-11

Family

ID=68845560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104914A Active JP7098419B2 (ja) 2018-05-31 2018-05-31 撮像装置及びその制御方法、プログラム

Country Status (1)

Country Link
JP (1) JP7098419B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010041299A (ja) * 2008-08-04 2010-02-18 Nikon Corp 電子カメラ
JP2018037860A (ja) * 2016-08-31 2018-03-08 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010041299A (ja) * 2008-08-04 2010-02-18 Nikon Corp 電子カメラ
JP2018037860A (ja) * 2016-08-31 2018-03-08 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
JP7098419B2 (ja) 2022-07-11

Similar Documents

Publication Publication Date Title
US11012614B2 (en) Image processing device, image processing method, and program
JP5159515B2 (ja) 画像処理装置およびその制御方法
US8831282B2 (en) Imaging device including a face detector
US7259785B2 (en) Digital imaging method and apparatus using eye-tracking control
TWI549501B (zh) An imaging device, and a control method thereof
US10021307B2 (en) Processing apparatus for camera shake correction
US9215363B2 (en) Implementing autofocus in an image capture device while compensating for movement
JP7346654B2 (ja) 画像処理装置、撮像装置、制御方法、プログラム、及び記憶媒体
US10163222B2 (en) Image capturing apparatus, tracking device, control method, and storage medium
JP4552997B2 (ja) 撮像装置及びプログラム
US8648960B2 (en) Digital photographing apparatus and control method thereof
JP2009268086A (ja) 撮像装置
US9451149B2 (en) Processing apparatus, processing method, and program
WO2017130522A1 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6512961B2 (ja) 撮像制御装置およびその制御方法、プログラム、並びに記憶媒体
US8508602B2 (en) Photographing apparatus method, and computer usable medium for photographing an object within a detection area based on a change of the object
JP6431429B2 (ja) 撮像装置およびその制御方法、プログラム、ならびに記憶媒体
JP6645711B2 (ja) 画像処理装置、画像処理方法、プログラム
JP7098419B2 (ja) 撮像装置及びその制御方法、プログラム
JP7122916B2 (ja) 撮像装置およびその制御方法、プログラムならびに記憶媒体
WO2020129620A1 (ja) 撮像制御装置、撮像装置、撮像制御方法
US20140226023A1 (en) Imaging apparatus, control method, and program
US20230185370A1 (en) Electronic apparatus, method for controlling electronic apparatus, and storage medium
JP2018006803A (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP2011164428A (ja) 撮像装置、撮像装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220629

R151 Written notification of patent or utility model registration

Ref document number: 7098419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151