JP6602361B2 - 電子機器及びその制御方法 - Google Patents

電子機器及びその制御方法 Download PDF

Info

Publication number
JP6602361B2
JP6602361B2 JP2017200572A JP2017200572A JP6602361B2 JP 6602361 B2 JP6602361 B2 JP 6602361B2 JP 2017200572 A JP2017200572 A JP 2017200572A JP 2017200572 A JP2017200572 A JP 2017200572A JP 6602361 B2 JP6602361 B2 JP 6602361B2
Authority
JP
Japan
Prior art keywords
image
display
magnification
region
organ
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017200572A
Other languages
English (en)
Other versions
JP2019074928A (ja
Inventor
紀章 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017200572A priority Critical patent/JP6602361B2/ja
Priority to US16/156,363 priority patent/US10911663B2/en
Publication of JP2019074928A publication Critical patent/JP2019074928A/ja
Application granted granted Critical
Publication of JP6602361B2 publication Critical patent/JP6602361B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は電子機器及びその制御方法に関し、画像から検出された器官領域の選択に関するものである。
画像から顔、及び目(瞳)などの器官領域を検出し、検出された器官領域のうちいずれかをユーザー操作に応じて選択してAFの対象領域とする撮像装置が知られている。
特許文献1には、検出された瞳が、AF可能ではあるもののサイズが小さい場合に、正確に瞳の位置をタッチで指定できない場合を考慮し、瞳の大きさに上記オフセット量を加算した値を瞳の存在する領域として設定することが提案されている。
特開2013−70164号公報
特許文献1でも、ユーザーが所望する瞳(すなわち器官領域)を正確に選択できない場合がある。例えば、顔のサイズが小さい場合、瞳の大きさにオフセット量を加算したとしても、右目と左目の間の眉間の部分においてはそれぞれの瞳の領域の境界が存在するか、それぞれの領域が重なってしまう。そして、ユーザーが片方の目をタッチしようとしても、正確にタッチができず、眉間付近がタッチ位置となってしまった場合に、ユーザーが意図した瞳と逆の瞳が選択されてしまう可能性がある。
本発明は上記課題に鑑み、ユーザーの所望する器官領域をより正確に選択できるようにした電子機器、電子機器の制御方法、プログラム及び記録媒体を提供することを目的とする。
上記目的を達成するために、本発明の一態様による電子機器は、
画像から特定の被写体領域及び該特定の被写体領域に含まれる器官領域を検出する検出手段と、
表示手段に対するタッチ操作を検知するタッチ検知手段と、
前記表示手段に第1の倍率で表示された画像のうち、前記検出手段によって前記画像から検出された未選択の特定の被写体領域に対応する領域への特定のタッチ操作があったことに応じて、前記特定の被写体領域に含まれる器官領域を選択することなく前記特定の被写体領域を選択し、
前記表示手段に前記第1の倍率よりも大きい第2の倍率で表示された前記画像のうち、前記特定の被写体領域に含まれる器官領域に対応する領域への前記特定のタッチ操作があったことに応じて、前記器官領域を選択するように制御する制御手段と
を有することを特徴とする。
本発明によれば、ユーザーの所望する器官領域をより正確に選択できる。
デジタルカメラ100の外観図である。 デジタルカメラ100の構成ブロック図である。 LV撮影モード処理のフローチャートである。 表示部28における表示例である。
以下、図面を参照して本発明の好適な実施形態を説明する。
図1(a)、(b)に本発明の電子機器の一例としてのデジタルカメラ(撮像装置)の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。図1において、表示部28は画像や各種情報を表示する、カメラ背面に設けられた表示部である。ファインダー外表示部43は、カメラ上面に設けられた表示部であり、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。シャッターボタン61は撮影指示を行うための操作部である。モード切替スイッチ60は各種モードを切り替えるための操作部である。端子カバー40は外部機器との接続ケーブルとデジタルカメラ100とを接続する接続ケーブル等のコネクタ(不図示)を保護するカバーである。メイン電子ダイヤル71は操作部70に含まれる回転操作部材であり、このメイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72はデジタルカメラ100の電源のON及びOFFを切り替える操作部材である。サブ電子ダイヤル73は操作部70に含まれ、操作部70に含まれる回転操作部材であり、選択枠の移動や画像送りなどを行える。十字キー74は操作部70に含まれ、上、下、左、右部分をそれぞれ押し込み可能な十字キー(4方向キー)である。十字キー74の押した部分に応じた操作が可能である。SETボタン75は操作部70に含まれ、押しボタンであり、主に選択項目の決定などに用いられる。LVボタン76は操作部70に含まれ、メニューボタンにおいてライブビュー(以下、LV)のONとOFFを切り替えるボタンである。動画撮影モードにおいては、動画撮影(記録)の開始、停止の指示に用いられる。拡大ボタン77は操作部70に含まれ、撮影モードのライブビュー表示において拡大モードのON、OFF、及び拡大モード中の拡大率の変更を行うための操作ボタンである。再生モードにおいては再生画像を拡大し、拡大率を増加させるための拡大ボタンとして機能する。縮小ボタン78は操作部70に含まれ、拡大された再生画像の拡大率を低減させ、表示された画像を縮小させるためのボタンである。再生ボタン79は操作部70に含まれ、撮影モードと再生モードとを切り替える操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部28に表示させることができる。クイックリターンミラー12は、システム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。通信端子10はデジタルカメラ100がレンズ側(着脱可能)と通信を行う為の通信端子である。接眼ファインダー16はフォーカシングスクリーン13を観察することで、レンズユニット150を通して得た被写体の光学像の焦点や構図の確認を行うための覗き込み型のファインダーである。蓋202は記録媒体200を格納したスロットの蓋である。グリップ部90は、ユーザーがデジタルカメラ100を構えた際に右手で握りやすい形状とした保持部である。
図2は、本実施形態によるデジタルカメラ100の構成例を示すブロック図である。図2において、レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。通信端子6はレンズユニット150がデジタルカメラ100側と通信を行う為の通信端子であり、通信端子10はデジタルカメラ100がレンズユニット150側と通信を行う為の通信端子である。レンズユニット150は、この通信端子6、10を介してシステム制御部50と通信し、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行い、AF駆動回路3を介して、レンズ103の位置を変位させることで焦点を合わせる。
AEセンサー17は、レンズユニット150を通した被写体の輝度を測光する。
焦点検出部11は、システム制御部50にデフォーカス量情報を出力する。システム制御部50はそれに基づいてレンズユニット150を制御し、位相差AFを行う。
クイックリターンミラー12(以下、ミラー12)は、露光、ライブビュー撮影、動画撮影の際にシステム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。ミラー12は、レンズ103から入射した光束をファインダー16側と撮像部22側とに切替えるためのミラーである。ミラー12は通常時はファインダー16へと光束を導くよう反射させるように配されているが、撮影が行われる場合やライブビュー表示の場合には、撮像部22へと光束を導くように上方に跳ね上がり光束中から待避する(ミラーアップ)。またミラー12はその中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、焦点検出を行うための焦点検出部11に入射するように透過させる。
撮影者は、ペンタプリズム14とファインダー16を介して、フォーカシングスクリーン13を観察することで、レンズユニット150を通して得た被写体の光学像の焦点や構図の確認が可能となる。
シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。
撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器19を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器19からのアナログ信号に応じた表示を行う。A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器19においてアナログ変換し、表示部28に逐次転送して表示することで、電子ビューファインダーとして機能し、スルー画像表示(ライブビュー表示)を行える。
ファインダー内液晶表示部41には、ファインダー内表示部駆動回路42を介して、現在オートフォーカスが行われている測距点を示す枠(AF枠)や、カメラの設定状態を表すアイコンなどが表示される。
ファインダー外液晶表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部50は、デジタルカメラ100全体を制御する少なくとも1つのプロセッサーまたは回路である。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリにはRAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。また、システム制御部はメモリ32、D/A変換器19、表示部28等を制御することにより表示制御も行う。
システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
モード切り替えスイッチ60、シャッターボタン61、操作部70、電源スイッチ72はシステム制御部50に各種の動作指示を入力するための操作手段である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ60で、これらのモードのいずれかに直接切り替えられる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り換えた後に、表示された複数のモードのいずれかを選択し、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の押下途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。
第2シャッタースイッチ64は、シャッターボタン61を最後まで押下する操作、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像を画像ファイルとして書き込むまでの一連の撮影処理(本撮影)の動作を開始する。
操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
操作部70は、ユーザーからの操作を受け付ける入力部としての各種操作部材である。操作部70には、少なくとも以下の操作部が含まれる。シャッターボタン61、メイン電子ダイヤル71、電源スイッチ72、サブ電子ダイヤル73、十字キー74、SETボタン75、LVボタン76、拡大ボタン77、縮小ボタン78、再生ボタン79。
電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。
顔検出部24aは、画像処理部24で得られた画像から人の顔などの特定領域を検出する少なくとも1つのプロセッサーまたは回路である。また器官検出部24bは、画像処理部24で得られた画像と顔検出部24aで検出した特定領域から器官領域を検出する少なくとも1つのプロセッサーまたは回路である。ここでの器官とは、顔を構成する要素である瞳や鼻、口などである。本撮像装置では顔検出部24a、器官検出部24b(顔検出部24aで検出した特定領域の要素の検出部)のいずれも画像処理部24の一部である。すなわち、顔検出部24a、器官検出部24bは双方の機能を有する同一のプロセッサーまたは回路又はモジュールであってもよく、それぞれ異なるプロセッサーまたは回路またはモジュールであっても良い。
電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。通信部54は撮像部22で撮像した画像(LV画像を含む)や、記録媒体200に記録された画像を送信可能であり、また、外部機器から画像データやその他の各種情報を受信することができる。
姿勢検知部55は重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像なのかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加することや、画像を回転して記録することが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。
なお操作部70のひとつとして、表示部28に対する接触を検知可能(タッチ検知可能)なタッチパネル70aを有する。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aを光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付ける。そして、タッチパネル70aにおける入力座標と、表示部28上の表示座標とを対応付ける。これにより、恰もユーザーが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することができる。システム制御部50はタッチパネル70aへの以下の操作。あるいは状態を検出できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・タッチパネル70aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネル70aへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作(ドラッグ)が行なわれたと判定するものとする。
タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる(スライドに続いてフリックがあったものと判定できる)。
更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。
タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。
また、デジタルカメラ100では、撮影時のオートフォーカス(AF)の動作モードとして、複数のAFモードからユーザー操作に応じて1つのAFモードを設定することが可能である。AFモードの設定は、設定メニュー画面における、AFモードを設定するためのメニュー項目が選択されて表示されるAFモード設定画面でのユーザー操作に基づいて行われる。AFを行う位置の決定方式ごとに複数のAFモードが用意されている。本実施形態では、AFモードとして、一点AFモードと、追尾優先モードのいずれかが設定できるものとする。
一点AFモードは、撮影範囲の中央、あるいはユーザーが指定した一点に焦点調節位置を表すAF枠を設定するAFモードである。一点AFモードでは、AF枠は被写体に変化があっても移動せず、顔などの被写体が検出されているか否かに関わらず、AF枠の位置から得られた情報(コントラスト値や位相差AF用のデフォーカス量)に基づいてAFが行われる。
追尾優先モードでは、ユーザーからの追尾指定がない場合(追尾待機状態、追尾解除状態)は、デジタルカメラ100が自動的に主被写体と判定した被写体がAF対象(焦点調節位置)となる。人物の顔が検出された場合は、検出された人物の瞳または顔を優先して主被写体としてAF対象にする。人物の顔が検出されていない場合は、動体、コントラスト値の高い被写体、中央に近い被写体などの所定の条件に従って主被写体をデジタルカメラ100が自動的に決定してAF対象とする。また、ユーザーからの追尾対象の指定がなされた後は、LV画像中で指定された被写体を追尾し続け、追尾している被写体をAF対象とする。例えばユーザーが人物Aの瞳または顔を追尾指定した場合(追尾中)は、LV画像上で人物Aが移動しても人物Aの瞳または顔を追い続け、AF対象とする。
また、人物以外を追尾対象とすることも可能であり(モノ追尾)、追尾指定された位置の色、コントラスト、形状などを条件として、同一の被写体がLV画像中で移動しても追い続け、AF対象とする。すなわち、追尾優先モードは追尾を行うことによるAF位置の決定が可能なAFモードである。なお、AFモードは一点AFモードと追尾モードに限るものではない。例えばユーザーが指定した限定領域内で追尾を行うAFモード(「ゾーンAF」)などがあってもよい。設定したAFモードは、不揮発性メモリ56に記憶され、撮影モード処理においてはシステムメモリ52に読み出される。
以下、デジタルカメラ100における本実施形態でのライブビュー撮影モードについて説明する。顔検出部24aと器官検出部24bで顔とその器官、例えば左目と右目が検出された場合、タッチダウンまたはタッチアップにおけるタッチ位置が顔領域、左目領域、右目領域の何れであるかのみに基づいて領域指定を行うことが考えられる。なお、ここで顔領域とは、顔領域のうち左目領域でも右目領域でもない領域のことである。しかしこうすると、ユーザーの意図通りの領域がうまく指定できない場合がある。例えば、ユーザーが右目の領域を指定しようとして右目領域内をタッチしたつもりでも、実際には少しずれて右目領域の外側をタッチしてしまい、顔全体、または左目が指定されてしまう可能性がある。この問題は、検出されている顔や器官が小さい場合や、LVや動画のように画像全体における被写体の位置や大きさが変動する場合に、より顕著である。また、ユーザーの意図通りの領域がうまく指定できない要因としては、瞳や顔のように、小さい指定対象を指定する場合、タッチした指で指定対象が隠れてしまい、上手く意図通りの位置をタッチできているのか確認することが難しいことも挙げられる。これに対し本実施形態では、タッチダウンまたはタッチアップによって器官領域を含む検出されている顔を拡大して表示し、その上で器官領域の選択のためのタッチ操作を受けつけるようにする。これにより、大きく表示された器官領域に対するタッチ操作で器官領域の選択が行えるため、ユーザーの意図通りの領域を、より確実に指定できるようにする。
図3に、デジタルカメラ100において、AFモードを追尾優先モードに設定している場合の本実施形態でのライブビュー(LV)撮影モードのフローチャートを示す。この処理は、不揮発性メモリ56に記録されたプログラムを、システムメモリ52をワークメモリとして展開し、システム制御部50が実行することにより実現する。デジタルカメラ100をLV撮影モードで起動すると図3の処理を開始する。
S301では、システム制御部50は、撮像部22でのLVの撮像を開始し、撮像されたLV画像の表示部28への表示を開始する。またLV画像の撮像を開始すると、顔検出部24aでのLV画像からの顔検出、及び器官検出部24bでの器官検出を開始する。以下、LV撮影モードにおいては顔検出部24aでの顔検出と器官検出部24bでの器官検出を継続して行うものとする。初期状態では、LV画像は拡大することなく表示部28に全体が収まる通常倍率(第1の倍率。この倍率を等倍と称する)で表示される。
図4(a)に、表示部28における等倍のLV画像の表示例を示す。LV画像400は等倍で表示されており、LV画像400の全体が表示部28におけるLV画像の表示領域に収まっている。より詳しくは、縦と横のサイズのうち少なくとも一方がLV画像400と表示部28におけるLV画像の表示領域とで一致し、他方はLV画像400が表示領域のサイズ以下となる倍率である。顔検出部24aはLV画像400から随時顔検出を行う。顔検出部24aによってLV画像400から顔が検出されると、システム制御部50は、LV画像400に重畳して各顔の位置に、各顔に対応する領域を示す指標(表示アイテム)である顔枠を表示する。図4(a)の例では、人物401,402,403の3名がLV画像に写っており、それぞれの顔が検出されている。そのため、顔枠411、412,413がLV画像400に重畳して表示されている。図4(a)は、ユーザーによる被写体の選択(追尾位置の指定)が行われる前の状態である。
S302では、システム制御部50は、タッチパネル70a(表示部28の表示面)に対するタッチダウンがあったか否かを判定する。ダッチダウンが合った場合はS303へ進み、そうでない場合はS314に進む。
S302では、システム制御部50は、LV画像を等倍では無く拡大して表示している状態か否かを判定する。拡大表示中であればS309へ進み、そうではなく通常倍率(等倍)で表示している場合にはS304へ進む。
S304では、システム制御部50は、S302でタッチダウンを検出した際のタッチ位置(タッチダウン位置)が顔検出部24aで検出された顔に対応する領域内であるか否かを判定する。タッチダウン位置が検出された顔に対応する領域内である場合はS306へ進み、顔が検出されていない場合、及び、顔が検出されていてもタッチダウン位置が顔に対応する領域外である場合にはS305へ進む。
S305では、システム制御部50は、タッチダウン位置の被写体(顔以外、または顔の器官以外の被写体)をモノ追尾の追尾対象として設定する。モノ追尾の追尾対象と設定すると、LV画像に重畳して追尾枠(AF枠)を表示し、追尾対象の色や輝度情報などに基づいた追尾(モノ追尾)を行う。
S306では、システム制御部50は、タッチダウン位置で検出されている顔が既に選択済み(すなわち、追尾中)であるか否かを判定する。既に選択済みの顔である場合はS308に進み、そうではなく、タッチダウン位置で検出されている顔が未選択であった場合にはS307へ進む。なお、顔の器官領域が選択(追尾)されている場合に、その器官領域を含む顔に対応する領域にタッチダウンされた場合も、選択済みの顔に対するタッチダウンと判定してS308に進むものとする。例えば、人物401の右側瞳が追尾対象として選択されて図4(e)のような表示状態となっている場合に、顔枠411の内側に対するタッチダウンがあると、S306でYesと判定し、S308へ進む。
S307では、システム制御部50は、タッチダウン位置で検出されている顔を追尾対象として選択し、追尾処理を開始する。そして、LV画像に重畳して、選択した顔(追尾中の顔)に対して、選択中(追尾中)であることを示す指標(表示アイテム)である追尾枠(AF枠)を表示する。
図4(b)に、S307での表示部28における表示例を示す。LV画像400に重畳して、人物401の顔が選択されたこと示す追尾枠421が表示されている。このケースは、図4(a)の状態において顔枠411の内側に対するタッチダウンを検知した場合の表示例である。検知されていた他の顔枠412、413は、追尾枠との混同を防ぐため非表示となる。2重枠の追尾枠421は、1重枠の顔枠411とは、異なる表示形態で表示され、区別できる表示形態となっている。人物401の顔の位置が変わっても、追尾枠421が人物401の顔の位置に追従(追尾)して表示される。アイコン405は追尾を解除する(顔の選択状態を解除)する指示を受け付けるタッチアイコンである。図4(b)の状態からアイコン405へのタッチダウンが検出されると、顔の追尾を解除(停止)し、図4(a)の表示状態へ戻る。
S308では、システム制御部50は、表示部28において、LV画像のうち、選択されている顔に基づいて決定される選択されている顔の位置を中心とした拡大範囲を、第1の倍率(等倍)よりも大きい第2の倍率で拡大表示する。また、拡大表示を開始してから無操作の状態が所定時間(3秒程度)続いたら拡大を解除して通常倍率の表示に復帰するため、拡大解除までのタイマーの計測を開始する。
図4(c)に、S308での表示例を示す。図4(c)は、図4(b)の状態で追尾枠421の内側に対するタッチダウンがあった場合に表示される拡大表示の例である。拡大LV画像420は、LV画像400に重畳して表示される、LV画像400の一部範囲を第2の倍率(>第1の倍率)で拡大表示したものである。なお、本実施形態では拡大LV画像420を、等倍のLV画像400の周辺部が見えるように、LV画像400の一部に重畳して表示する例を説明するが、これに限るものではない。等倍のLV画像400に置き換えて、拡大LV画像420を表示部28のLV画像表示領域の全体に収まるように表示してもよい。拡大LV画像420は、拡大直前における選択中の顔の中心が拡大範囲の中心となるように表示される。従って図4(c)の例では、人物401の顔の中心が拡大範囲の中心となっている。本実施形態では、その後のカメラのフレーミングまたは人物401自体の移動によって、人物401の顔が画面の中央でなくなっても拡大範囲は変更しないものとする。ただしこれに限るものではない。すなわち、拡大表示の開始後にカメラのフレーミングまたは人物401自体の移動によって、撮像範囲における人物401の顔の位置が変わっても常に拡大範囲の中心が追尾している人物401の顔の中心となるように、動的に拡大範囲を変更しても良い。図4(c)のように拡大表示することによって、拡大前の図4(b)と比べて人物401の顔の器官(目、鼻、口など)が大きく表示されるため、ユーザーはタッチで人物401の顔の器官を指定しやすくなる。
S309では、システム制御部50は、タッチ位置が器官検出部24bで検出されている器官の領域であるか否かを判定する。S309に進む場合はS303で拡大中であると判定されたえ場合であるため、前述の通り、顔の器官(目、鼻、口など)が大きく表示されるため、ユーザーはタッチで人物401の顔の器官を指定しやすくなっている。本実施形態では、ユーザーが指定可能な器官は左目又は右目であるものとする。従って、タッチダウンされた位置が、拡大LV画像420のうち、器官検出部24bで検出された左目の領域内、あるいは右目の領域内であると判定された場合はS310に進み、そうでない場合はS305に進む。なお、本実施形態では左目か右目を選択可能としたが、これに限るものではなく、口、鼻、眉など、他の器官を選択可能としてもよい。
S310では、システム制御部50は、タッチダウン位置が、人物401の両目のうち、拡大LV画像420に表示された左側の瞳に対応する領域であったか否かを判定する。左側の瞳に対応する領域であった場合にはS311に進み、そうでない場合、すなわち右側の瞳に対応する領域であった場合にはS312へ進む。
S311では、システム制御部50は、拡大LV画像420のうち、追尾対象の顔の左側の瞳を選択して新たな追尾対象として追尾処理を開始する。また、左側の目の位置に、追尾対象として選択されていることを示す追尾枠(AF枠)を表示する。さらに、人物401の顔の周りは、追尾枠とは異なる顔枠411の表示形態とする。なお、S311において顔枠411は表示しなくても良い。
S312では、システム制御部50は、拡大LV画像420のうち、追尾対象の顔の右側の瞳を選択して新たな追尾対象として追尾処理を開始する。また、右側の目の位置に、追尾対象として選択されていることを示す追尾枠(AF枠)を表示する。さらに、人物401の顔の周りは、追尾枠とは異なる顔枠411の表示形態とする。なお、S312において顔枠411は表示しなくても良い。
S311、S312で、拡大LV画像420を表示した状態でユーザーの操作に応じて新たな追尾枠を設定すると、拡大解除までのタイマーをリセットして再度スタートする。すなわち、拡大が解除される前に拡大LV画像420に対するタッチ操作があると、拡大解除までの時間を延長する。
図4(d)に、S312での表示部28での表示例を示す。図4(d)は、図4(c)の状態で、人物401の右側の瞳周辺に対するタッチダウンがあった場合に表示される表示例である。人物401の右側の瞳周辺とは、器官検出部24bで検出されている人物の右側の瞳の位置に基づいて設定された、右側の瞳の選択のためのタッチ反応領域である。人物401の右側の瞳の位置には、右側の瞳が選択され、追尾対象となったことを示す追尾枠431(後のAFの際にAFの対象となるAF枠)が表示される。図4(c)で追尾枠の表示形態であった人物401の顔の周りの枠は、表示形態がかわり、顔枠411となる。これによって、追尾対象が顔全体ではなく右側の瞳となったことをユーザーが識別可能となる。
S313では、システム制御部50は、タッチアップがあったか否かを判定する。タッチアップがあった場合にはS314に進み、そうでない場合にはS313でタッチアップがあるのを待つ。
S314では、システム制御部50は、拡大表示を行っていない状態(通常倍率で表示している状態)で拡大ボタン77が押下されたか(拡大表示を指示する操作があったか)否かを判定する。通常倍率で表示している状態で拡大ボタン77が押下された場合(拡大操作を受付けた場合)はS315へ進み、そうでない場合(拡大ボタン77が押下されていない場合、あるいは既に拡大表示を行っていた場合)には、S316へ進む。
S315では、システム制御部50は、拡大モードでの拡大表示を行う。拡大モードはユーザーがピントの合い具合などを詳細に確認するために用いられる。拡大モードでは、5倍、10倍、等倍のいずれかの倍率でLV画像を表示部28に表示することができる。拡大ボタン77が押下されて拡大モードがONとなった後に、メイン電子ダイヤル71を操作することで、5倍、10倍、等倍の何れかの倍率に変更する。拡大ボタン77をもう一度押下すると拡大モードがOFFとなり、通常倍率の表示となる。なお、拡大ボタン77の押下によって拡大表示された場合は、時間の経過に応じて自動的に通常倍率に戻ることはしない。従って、拡大解除までのタイマーの計測はしない。拡大モードで拡大表示されている場合にも、タッチダウンによって追尾対象の器官領域の選択(指定)が可能であるものとする。
S316では、拡大表示している状態で、拡大解除イベントがあったか否かを判定する。拡大表示している状態とは、前述のS308で選択済みの顔の領域をタッチしたことによるLV画像の拡大表示と、S315での拡大モードでのLV画像の拡大表示の双方を含む。前者の拡大表示中に、拡大解除までの所定時間のタイマーが満了した(すなわち、拡大LV画像420に対する操作が無いまま所定時間が経過した)か、拡大ボタン77が押下(拡大解除操作)されると、拡大解除イベントがあったと判定してS317へ進む。後者の拡大表示中に、拡大ボタン77が押下(拡大解除操作)されると、拡大解除イベントがあったと判定してS317へ進む。そうでない場合、あるいは拡大表示中出ない場合にはS318へ進む。
S317では、システム制御部50は、拡大表示を解除して通常倍率でのLV画像の表示状態へ遷移する。この際、追尾対象が指定されていなければ前述の図4(a)の表示状態となる。追尾対象が器官領域ではなく顔である場合には図4(b)の表示状態となる。拡大表示の際に、追尾対象として顔の器官領域が選択(指定)されていれば、図4(e)に示す表示状態となる。図4(e)においては、LV画像400に重畳して、人物401の顔の領域に顔枠411が表示され、右側の瞳の領域に追尾枠431(AF枠)が表示されており、追尾対象が人物401の右側の瞳であることが識別可能である。
S318では、システム制御部50は、シャッターボタン61が半押しされてSW1がオンとなったか否かを判定する。SW1がオンとなった場合(撮影準備指示操作が合った場合)はS319に進み、そうでない場合はS323に進む。
S319では、システム制御部50は、S305、S307,S311、S312のいずれかの処理によって設定された追尾対象への現在の追尾枠(AF枠)の位置で、AF処理、AE処理を行う。オートホワイトバランス(AWB)処理を行っても良い。なお、SW1がオンとなったこのタイミングだけでなくS305、S307,S311、S312のいずれかでAF枠が設定された時点でAF処理、AE処理、AWB処理の少なくとも1つを行うようにしてもよい。なお、S311、S312でユーザーによる瞳の選択がされていた場合には、選択された瞳の領域にピントが合うようにAFが行われる。S307で(他の器官ではなく)顔全体が選択されていた場合には、右目と左目のうち、自動的に選択した瞳にピントが合うようにAFを行う、あるいは、眉間などに対してピントが合う用意AFを行う。瞳の自動選択は、例えば片方の瞳しか検出されていない場合には検出されている瞳を選択し、両目が検出されている場合には、デジタルカメラ100に近い側の目を選択する、あるいは大きく写っている側の目を選択する、などである。
S320では、システム制御部50は、シャッターボタン61が全押しされてSW2がオンとなったか否かを判定する。SW2がオンとなった場合(撮影指示操作があった場合)はS321へ進み、そうでない場合はS322へ進む。
S321では、システム制御部50は。撮像部22での本露光、信号読み出しから記録媒体200に撮像された画像を画像ファイルとして書き込むまでの一連の処理を含む本撮影を行う。
S322では、システム制御部50は、SW1のオン(シャッターボタン61の半押し)が維持されているか否かを判定し、維持されていればS320に進み、維持されていない場合(シャッターボタン61の押下状態が解除された場合)はS323へ進む。
S323では、システム制御部50は、電源オフ操作、電池残量不足による電源オフイベント、光学ファインダー撮影モードや再生モードなどの他の動作モードの遷移などによる、LV撮影モードの終了イベントがあったか否かを判定する。終了イベントがない場合はS323に戻って処理を繰り返し、終了イベントがあった場合はLV撮影モード処理を終了する。
以上説明した処理によれば、ユーザーは顔(特定の被写体領域)の器官領域である瞳を選択したい場合は、まず顔を選択する(S307)。そして、選択された顔の領域をタッチすると、器官領域を含む選択された顔の部分が大きく拡大表示される(S308)。そして、ユーザーは大きく表示された顔の画像から、所望の器官領域をタッチで選択することができるため、ユーザーが所望する器官領域を正確に、かつ簡単に選択することが可能となる。さらに、LV画像を通常倍率で表示している際に未選択の顔の領域をタッチした場合には、その顔が選択され、器官領域が選択されることはない。そのため、ユーザーが顔を選択したくてタッチした場合に、ユーザーの意図に反して顔の器官領域(目、鼻、口)などが選択されてしまうことなく、確実にかつ簡単に顔を選択可能である。
なお、上述の実施形態では、タッチダウン位置に基づいて被写体の顔、器官を選択する例を説明したが、タッチアップ位置(タッチアップがあった場合の直前のタッチ位置)に基づいて選択するようにしても良い。その場合、S302はタッチアップがあったか否かの判定となり、S304〜S312はタッチダウン位置の代わりにタッチアップ位置に基づく処理となる。この場合、S313の処理は不要となる。
また、上記実施形態では、拡大LV画像420を表示した状態を解除して通常倍率のLV表示に復帰するのは、拡大LV画像420を表示して無操作の状態が所定時間経過した場合か、ユーザーからの解除操作があった場合である例を説明した。しかしこれに限るものではなく、シャッターボタン61の半押し(SW1オン、撮影準備指示、AF実行指示)があった場合に拡大を解除するようにしてもよい。さらに、S311、S312で、拡大LV画像420を表示した状態でユーザーの操作に応じて新たな追尾枠を設定されたことに応じて、所定時間の経過を待つことなく、すぐに、あるいは0.5秒程度の短い時間(第2の時間)を挟んで拡大解除してもよい。これは、拡大LV画像420を表示した状態での器官領域の選択が完了したすなわち、拡大LV画像420を表示した状態で行うべきユーザーの操作が完了し、拡大LV画像420を表示する必要が無くなったためである。拡大LV画像420を表示して新たな追尾枠を設定されたことに応じてすぐに拡大解除する場合は、図4(c)の表示状態から、図4(d)の表示を行うことなく、図4(e)の表示状態へ遷移する。拡大LV画像420を表示して新たな追尾枠を設定されたことに応じて短い時間を挟んで拡大解除する場合は、図4(c)の表示状態から、第2の時間だけ図4(c)の表示を行った後、自動的に図4(e)の表示状態へ遷移する。
また、上述した実施形態においては、ライブビュー撮影時にAFまたは追尾の対象の瞳を選択する際の操作について説明したが、これはこの例に限定されず、画像から検出された顔の器官を選択する際の操作方法として適用可能である。画像は、LV画像に限られるものではなく、再生画像であってもよい。例えば、記録媒体に記録済みの画像から、顔、または目を含む顔の器官のいずれかを選択し、選択した顔または器官に画像処理を施すような場合にも適用可能である。例えば、タブレットPCやスマートフォン、シール印刷システムなどで、記録済みの画像から顔、目、口、鼻を検出し、所望の目を選択して赤目補正を掛ける、モザイクまたはマスクをかける、瞳の強調処理(大きくするなど)を行う、などを行うことができる。目以外でも、鼻を選択して大きく強調する画像処理、美肌効果の画像処理、などを掛けることができる。さらに、口を選択して、赤みを強調する、光沢を付けるなどの画像処理を掛けることができる。このような場合の顔の器官の選択方法として、LV画像の変わりに、記録済み画像を対象として図3のS302〜S313の処理を適用してもよい。すなわち。まずタッチダウンによって、検出された顔の選択を受け付け、その後、選択された顔の領域に対するタッチダウン操作によって、その顔を中心として画像を拡大表示する。その上で、顔に含まれる器官領域を選択するタッチ操作を受け付ける、という操作方法を提供できる。
さらに、上述の実施形態においては、通常倍率で表示している際に選択可能な特定の被写体領域として顔の例を説明したが、器官領域を含む領域であれば、人物の上半身領域や全身領域など、他の領域を通常倍率で表示している際に選択可能としても良い。その場合、選択済みの人物の上半身領域や全身領域に対するタッチがあると、その上半身領域や全身領域を含む領域が拡大表示され、器官領域が選択しやすいように表示される。
なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
また、上述した実施形態においては、本発明をデジタルカメラ100に適用した場合を例にして説明したが、これはこの例に限定されず、画像から検出された顔の器官を選択可能な電子機器であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、シール印刷システム、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。
また、LV画像から顔の器官を選択する場合も、撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する電子機器(制御装置)にも本発明を適用可能である。撮像装置を遠隔で制御する電子機器としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。この場合、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示でき、このLV画像から顔の器官を選択する場合の制御装置側の処理として、本発明を適用可能である。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。

Claims (15)

  1. 画像から特定の被写体領域及び該特定の被写体領域に含まれる器官領域を検出する検出手段と、
    表示手段に対するタッチ操作を検知するタッチ検知手段と、
    前記表示手段に第1の倍率で表示された画像のうち、前記検出手段によって前記画像から検出された未選択の特定の被写体領域に対応する領域への特定のタッチ操作があったことに応じて、前記特定の被写体領域に含まれる器官領域を選択することなく前記特定の被写体領域を選択し、
    前記表示手段に前記第1の倍率よりも大きい第2の倍率で表示された前記画像のうち、前記特定の被写体領域に含まれる器官領域に対応する領域への前記特定のタッチ操作があったことに応じて、前記器官領域を選択するように制御する制御手段と
    を有することを特徴とする電子機器。
  2. 前記特定の被写体領域は人物の顔領域であることを特徴とする請求項1に記載の電子機器。
  3. 前記制御手段は、人物の顔に含まる左側の目及び右側の目を含む複数の器官領域から、前記特定のタッチ操作によっていずれかを選択可能であることを特徴とする請求項2に記載の電子機器。
  4. 前記表示手段に前記第1の倍率で表示された画像のうち、前記検出手段によって前記画像から検出された選択済みの特定の被写体領域に対応する領域への前記特定のタッチ操作があったことに応じて、前記画像のうち選択済みの特定の被写体領域を含む範囲を前記第2の倍率で拡大して表示するように制御する表示制御手段を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。
  5. 前記表示制御手段は、選択済みの前記特定の被写体領域に対応する領域への前記特定のタッチ操作に応じて前記画像を前記第2の倍率で拡大して表示している際に前記特定のタッチ操作に応じて器官領域が選択されると、前記第2の倍率での拡大表示を解除し、前記画像を前記第1の倍率で表示するように制御することを特徴とする請求項4に記載の電子機器。
  6. 前記表示制御手段は、選択済みの前記特定の被写体領域に対応する領域への前記特定のタッチ操作に応じて、前記画像を前記第2の倍率で拡大して表示した後、自動的に前記第2の倍率での拡大表示を解除し、前記画像を前記第1の倍率で表示するように制御することを特徴とする請求項4または5に記載の電子機器。
  7. 前記特定のタッチ操作とは異なる操作であって、画像の拡大表示を指示する拡大操作を受け付ける受付手段を更に有し、
    前記表示制御手段は、前記受付手段で前記拡大操作を受け付けたことに応じて前記画像を前記第2の倍率で拡大して表示した後は、自動的には前記第2の倍率での拡大表示を解除しないことを特徴とする請求項6に記載の電子機器。
  8. 前記表示制御手段は、前記画像に重畳して、特定の被写体が選択されている場合には選択されている特定の被写体領域を示す指標を表示し、器官領域が選択されている場合には選択された器官領域を示す指標を表示するように制御することを特徴とする請求項4乃至7のいずれか1項に記載の電子機器。
  9. 前記特定のタッチ操作は、タッチの開始、あるいはタッチを離す操作であることを特徴とする請求項1乃至8のいずれか1項に記載の電子機器。
  10. 前記画像は撮像手段で撮像されたライブビュー画像であることを特徴とする請求項1乃至9のいずれか1項に記載の電子機器。
  11. 前記制御手段の制御によって選択された器官領域に基づいて。AF処理、追尾処理、AE処理、AWB処理の少なくともいずれかを行うように制御することを特徴とする請求項10に記載の電子機器。
  12. 前記画像は記録済みの画像であり、前記制御手段の制御によって選択された器官領域に基づいた画像処理を行うことを特徴とする請求項1乃至9のいずれか1項に記載の電子機器。
  13. 画像から特定の被写体領域及び該特定の被写体領域に含まれる器官領域を検出する検出ステップと、
    表示手段に対するタッチ操作を検知するタッチ検知ステップと、
    前記表示手段に第1の倍率で表示された画像のうち、前記検出ステップによって前記画像から検出された未選択の特定の被写体領域に対応する領域への特定のタッチ操作があったことに応じて、前記特定の被写体領域に含まれる器官領域を選択することなく前記特定の被写体領域を選択し、
    前記表示手段に前記第1の倍率よりも大きい第2の倍率で表示された前記画像のうち、前記特定の被写体領域に含まれる器官領域に対応する領域への前記特定のタッチ操作があったことに応じて、前記器官領域を選択するように制御する制御ステップと
    を有することを特徴とする電子機器の制御方法。
  14. コンピュータを、請求項1乃至12のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。
  15. コンピュータを、請求項1乃至12のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2017200572A 2017-10-16 2017-10-16 電子機器及びその制御方法 Active JP6602361B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017200572A JP6602361B2 (ja) 2017-10-16 2017-10-16 電子機器及びその制御方法
US16/156,363 US10911663B2 (en) 2017-10-16 2018-10-10 Electronic apparatus and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017200572A JP6602361B2 (ja) 2017-10-16 2017-10-16 電子機器及びその制御方法

Publications (2)

Publication Number Publication Date
JP2019074928A JP2019074928A (ja) 2019-05-16
JP6602361B2 true JP6602361B2 (ja) 2019-11-06

Family

ID=66096229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017200572A Active JP6602361B2 (ja) 2017-10-16 2017-10-16 電子機器及びその制御方法

Country Status (2)

Country Link
US (1) US10911663B2 (ja)
JP (1) JP6602361B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10440252B2 (en) * 2013-09-24 2019-10-08 Sony Corporation Apparatus and imaging method for setting a target of an image
JP7040043B2 (ja) * 2018-01-25 2022-03-23 セイコーエプソン株式会社 写真処理装置、写真データの生産方法および写真処理プログラム
CN117061869A (zh) * 2018-12-28 2023-11-14 株式会社尼康 电子设备、照相机以及程序
JP7281951B2 (ja) * 2019-04-22 2023-05-26 シャープ株式会社 電子機器、制御装置、制御プログラムおよび制御方法
WO2021010070A1 (ja) 2019-07-12 2021-01-21 ソニー株式会社 撮像装置、撮像方法、プログラム
JP7458756B2 (ja) * 2019-11-29 2024-04-01 キヤノン株式会社 表示制御装置及びその制御方法
JP7532042B2 (ja) 2020-02-03 2024-08-13 キヤノン株式会社 撮像制御装置、撮像制御装置の制御方法、プログラム及び記憶媒体
JP7527129B2 (ja) * 2020-04-28 2024-08-02 キヤノン株式会社 焦点調節装置、撮像装置、焦点調節方法、及びプログラム
WO2024025086A1 (ko) * 2022-07-29 2024-02-01 삼성전자 주식회사 상호작용에 기반하여 이미지를 표시하기 위한 전자 장치 및 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006253806A (ja) * 2005-03-08 2006-09-21 Olympus Corp 撮影装置及び撮影方法
EP2207342B1 (en) * 2009-01-07 2017-12-06 LG Electronics Inc. Mobile terminal and camera image control method thereof
JP5783494B2 (ja) * 2011-07-19 2015-09-24 カシオ計算機株式会社 画像処理装置、プログラム及び画像処理方法
JP2013070164A (ja) * 2011-09-21 2013-04-18 Olympus Imaging Corp 撮像装置及び撮像方法
JP2014228629A (ja) * 2013-05-21 2014-12-08 キヤノン株式会社 撮像装置、その制御方法、およびプログラム、並びに記憶媒体

Also Published As

Publication number Publication date
US20190116311A1 (en) 2019-04-18
US10911663B2 (en) 2021-02-02
JP2019074928A (ja) 2019-05-16

Similar Documents

Publication Publication Date Title
JP6602361B2 (ja) 電子機器及びその制御方法
JP6748582B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記録媒体
JP2018107711A (ja) 撮像制御装置及びその制御方法
JP6701145B2 (ja) 電子機器及びその制御方法
JP6833505B2 (ja) 撮像制御装置及びその制御方法
JP2018125612A (ja) 撮像装置及びその制御方法
JP2018107710A (ja) 撮像装置及びその制御方法
JP2018133674A (ja) 撮像装置及びその制御方法
JP6991033B2 (ja) 電子機器及びその制御方法
JP2017122984A (ja) 電子機器及びその制御方法
JP2017215852A (ja) 電子機器、その制御方法、プログラム及び記録媒体
JP2018013745A (ja) 電子機器およびその制御方法
JP2018107713A (ja) 撮像制御装置及びその制御方法
JP2018129765A (ja) 撮像装置及びその制御方法
JP7049195B2 (ja) 電子機器及びその制御方法、プログラム、並びに記憶媒体
JP2018117186A (ja) 撮像制御装置、撮像装置、制御方法、プログラム、及び記憶媒体
JP2018037893A (ja) 撮像制御装置及びその制御方法、プログラム、並びに記憶媒体
JP2021141573A (ja) 電子機器
JP6512961B2 (ja) 撮像制御装置およびその制御方法、プログラム、並びに記憶媒体
JP2014017665A (ja) 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体
JP7383552B2 (ja) 電子機器およびその制御方法
JP2018107712A (ja) 撮像制御装置及びその制御方法
JP6765901B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP6765902B2 (ja) 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
JP2019022116A (ja) 撮像装置、その制御方法、およびプログラム、並びに記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191008

R151 Written notification of patent or utility model registration

Ref document number: 6602361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151