JP2022018908A - 撮像制御装置、その制御方法、プログラム及び記録媒体 - Google Patents

撮像制御装置、その制御方法、プログラム及び記録媒体 Download PDF

Info

Publication number
JP2022018908A
JP2022018908A JP2020122348A JP2020122348A JP2022018908A JP 2022018908 A JP2022018908 A JP 2022018908A JP 2020122348 A JP2020122348 A JP 2020122348A JP 2020122348 A JP2020122348 A JP 2020122348A JP 2022018908 A JP2022018908 A JP 2022018908A
Authority
JP
Japan
Prior art keywords
instruction
input
movement
specific range
selected position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020122348A
Other languages
English (en)
Other versions
JP2022018908A5 (ja
JP7518684B2 (ja
Inventor
崇 吉田
Takashi Yoshida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020122348A priority Critical patent/JP7518684B2/ja
Priority claimed from JP2020122348A external-priority patent/JP7518684B2/ja
Priority to US17/372,593 priority patent/US11770602B2/en
Priority to CN202110801143.2A priority patent/CN113949809A/zh
Publication of JP2022018908A publication Critical patent/JP2022018908A/ja
Publication of JP2022018908A5 publication Critical patent/JP2022018908A5/ja
Application granted granted Critical
Publication of JP7518684B2 publication Critical patent/JP7518684B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

【課題】ユーザが画像内の位置を選択する際の操作性を向上させることが可能な撮像制御装置を提供する。【解決手段】本開示に係る撮像制御装置は、表示手段への位置の入力を受けつけ可能な第1の指示手段と、表示手段のうち第1の指示手段により入力が受けつけられた位置の被写体像に基づく特定の範囲において、選択位置を移動させる移動指示を受けつけ可能な第2の指示手段と、移動前の選択位置が特定の範囲内で、特定の範囲の第1の方向の境界に達していない場合には、第2の指示手段に対する選択位置の第1の方向への移動指示操作に応じて選択位置を第1の方向に移動させ、移動前の選択位置が特定の範囲内で、特定の範囲の第1の方向の境界に達している場合には、第2の指示手段に対する選択位置の第1の方向への移動指示操作があっても選択位置を第1の方向に移動させないように制御する制御手段とを有する。【選択図】図3A

Description

本発明は、撮像制御装置、その制御方法、プログラム及び記録媒体に関する。
使用者の視線位置を検出し、検出した視線位置に基づいて画像上の測定領域を選択する技術が知られている。特許文献1には、視線位置で測定領域を選択し、選択された測定領域が所定の範囲内である場合には、操作部材の操作により測定領域を第1の速度で移動させ、そうでない場合には、より早い第2の速度で移動させることが開示されている。
特開2018-74200号公報
特許文献1に開示される技術では、視線位置に基づいて選択された測定領域に応じて、操作部材で操作する際の測定領域の移動速度が変化する。このため、最初の視線位置に基づいて選択された領域が所定の範囲外である場合には、測定領域の移動速度が速くなり、細かい移動を行いたい場合に操作し難くなる可能性がある。
本発明は、上記課題に鑑みてなされ、その目的は、ユーザが画像内の位置を選択する際の操作性を向上させることが可能な技術を実現することである。
この課題を解決するため、本発明の撮像制御装置は以下の構成を備える。すなわち、表示手段への位置の入力を受けつけ可能な第1の指示手段と、前記表示手段のうち前記第1の指示手段により入力が受けつけられた位置の被写体像に基づく特定の範囲において、選択位置を移動させる移動指示を受けつけ可能な第2の指示手段と、移動前の前記選択位置が前記特定の範囲内で、前記特定の範囲の第1の方向の境界に達していない場合には、前記第2の指示手段に対する選択位置の前記第1の方向への移動指示操作に応じて前記選択位置を前記第1の方向に移動させ、移動前の前記選択位置が前記特定の範囲内で、前記特定の範囲の第1の方向の境界に達している場合には、前記第2の指示手段に対する選択位置の前記第1の方向への移動指示操作があっても前記選択位置を前記第1の方向に移動させないように制御する制御手段とを有する、ことを特徴とする。
本発明によれば、ユーザが画像内の位置を選択する際の操作性を向上させることが可能になる。
本発明の実施形態に係る撮像制御装置の一例としてのデジタルカメラの外観図を示す図 本実施形態に係るデジタルカメラの機能構成例を示すブロック図 本実施形態に係る選択位置制御処理の動作を示すフローチャート(1) 本実施形態に係る選択位置制御処理の動作を示すフローチャート(2) 本実施形態に係るAF選択枠の位置の制御例を説明する図
(実施形態1)
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
(デジタルカメラの構成)
図1は、本実施形態の撮像制御装置の一例としてのデジタルカメラ100の機能構成例を示すブロック図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。
図1(a)~(b)に本実施形態に係るデジタルカメラ100の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
デジタルカメラ100は、後述するレンズユニット150を着脱可能であり、レンズユニット150を通過した光学的な被写体像(光学像)を電子的な画像データに変換する後述する撮像部22を有している。
背面表示部28はデジタルカメラ100の背面に設けられており、画像や各種情報を表示することができる。タッチパネル70aは、背面表示部28の表示面(操作面)に対するタッチ操作およびドラッグ操作を検出することができる。
デジタルカメラ100の背面側中央には後述する接眼部16が設けられている。また、デジタルカメラ100の上部に設けられたファインダー外表示部43は、シャッター速度や絞り値をはじめとするデジタルカメラ100の様々な設定値を表示する。
シャッターボタン61は操作ボタンであり、ユーザによって押下されると、後述する撮影処理を行う。なお、シャッターボタン61の押下方向には、第1の位置(後述する第1シャッタースイッチ62)と第2の位置(後述する第2シャッタースイッチ64)とがある。第1の位置ではシャッタースピードや絞り値を決定する動作を行い、第2の位置では後述する撮影処理が行われる。本実施形態の例では、第2の位置は第1の位置よりも深い位置に設定されている。
モード切換えスイッチ60は、静止画撮影モードや動画撮影モードを切り替えるための操作部材である。例えば、静止画撮影モードには、撮影動作をデジタルカメラ100が自動的に制御するオート撮影モードや、ユーザがシャッター速度や絞り値を細かく設定できるマニュアル撮影モードなどが設けられている。
端子カバー40は外部機器とデジタルカメラ100を接続ケーブルを介して接続するコネクタ(不図示)を保護するカバーである。
メイン電子ダイヤル71は回転操作部材であり、メイン電子ダイヤル71を回転させることで、シャッター速度や絞り値などを変更することができる。
電源スイッチ72は、押下操作により、デジタルカメラ100を起動して撮影待機状態にしたり、撮影終了後にデジタルカメラ100を非動作状態に切り替えることが可能な操作部材である。
サブ電子ダイヤル73は回転操作部材であり、撮影した画像を背面表示部28に表示した状態で回転操作することで、表示画像を次々と送ることができる。
十字キー74は、上、下、左、右にそれぞれ押し込み可能な、例えば円盤状の4方向キーであり、例えば撮影中に被写体に合焦させた測距点を移動させる際に、各方向キーの操作に応じて測距点を移動することができる。
SETボタン75は操作ボタンであり、主に選択項目の決定手段として用いられる。動画ボタン76は、動画撮影(記録)の開始、停止の指示操作に用いられる。AEロックボタン77は、撮影待機状態における押下により、被写体の明るさを示す露出値をその時点の露出値に固定することができる操作ボタンである。
拡大ボタン78は、例えば背面表示部28に表示された画像の一部を拡大表示するための操作ボタンであり、拡大ボタン78を押下するたびに通常表示、1倍、5倍、10倍と画面が切り替わる。拡大ボタン78を押下した後にメイン電子ダイヤル71を回転操作することにより、例えば時計回りに回転操作すると、背面表示部28に表示された画像を拡大表示でき、反時計回りに回転操作すると背面表示部28に表示された画像を縮小表示することができる。また、記録された画像を表示させる再生モードにおいても再生画像を拡大したり縮小したりすることができる。
再生ボタン79は、操作ボタンであり、再生ボタン79を押下することで、撮影待機状態から再生モードへ、または、再生モードから撮影待機状態に切り替えることができる。
メニューボタン81は、操作ボタンであり、押下することにより記録画質や日付など、各種設定可能な項目を背面表示部28に表示することができる。
マイク82は、操作者の発した音声を認識するための音声入力用マイクである。図1ではデジタルカメラ100の背面に配置されているが、音声入力機能が果たせれば特にデジタルカメラ100の背面側に限られるものではない。
視線入力開始ボタン83は、選択されているAF選択枠位置においてAF動作を開始させるボタンである。通信端子10は、デジタルカメラ100が後述するレンズユニット150(着脱可能)と通信を行う為の通信端子である。
接眼ユニット171の構成要素である接眼部16は、ユーザがデジタルカメラ100を覗くときに目が近接する接眼部である。ユーザは、接眼部16に目を近づけて覗き込むことで後述する内部のファインダー内表示部(以下、EVF)29に表示された映像を視認することができる。接眼検知部57は、接眼部16に撮影者が接眼状態であるか否かを検知する接眼検知センサである。
蓋41は後述する着脱可能な記録媒体200を着脱する際に開閉可能な蓋である。グリップ部90は、ユーザがデジタルカメラ100を把持する部位であり、把持する際に右手で握りやすい形状となっている。グリップ部90を右手で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン61、メイン電子ダイヤル71が配置されている。また、同じ状態で右手の親指で操作可能な位置に、サブ電子ダイヤル73が配置されている。
(デジタルカメラの機能構成例)
次に、図2を参照して、図1に示すデジタルカメラ100の機能構成例について説明する。
レンズユニット150は、デジタルカメラ100に着脱可能な交換式レンズである。レンズ103は、被写体で反射した被写体光から光学的な像(被写体像)を形成するための複数枚のレンズを含む。なお、図2に示す例では、簡略化のため1枚のレンズのみを示している。
通信端子6は、レンズユニット150がデジタルカメラ100と通信を行うための通信端子である。レンズユニット150内のレンズシステム制御回路4等の回路は、レンズユニット150に設けられた通信端子6とデジタルカメラ100に設けられた通信端子10とが電気的に接続されることで、デジタルカメラ100内のシステム制御部50と通信可能となる。そのため、システム制御部50は、レンズシステム制御回路4および絞り駆動回路2と通信して絞り位置の制御を行ったり、レンズ駆動回路3と通信してレンズ103を変位させて実像のピント状態の変更を行うことができる。
シャッター101は、例えば、システム制御部50の制御で後述する撮像部22の露光時間を自由に制御することができるフォーカルプレーンシャッターである。
撮像部22は、レンズ103を通過した被写体像(光学像)が結像する撮像面を有し、光電変換によって撮像面の光学像に応じた電気信号(アナログ信号)を出力する撮像デバイス(撮像素子)を含む。撮像デバイスには、例えば、CCD(Charge Couple Device)やCMOS(Complementary MOS)センサが用いられる。
A/D変換器23は、信号変換手段として機能する信号変換回路を含み、撮像部22から出力されるアナログ信号をデジタル信号に変換する。
画像処理部24は、A/D変換器23からのデジタル信号、または、後述するメモリ制御部15からのデジタル信号に対して、例えば、所定の画素補間処理、縮小といったリサイズ処理、色変換処理などの所定の演算処理を行って画像データを生成する。画像処理部24により得られた演算結果は、システム制御部50により絞り位置の制御やレンズ位置制御に用いられる。画像処理部24では更に、画像データを用いて、TTL方式のAWB(オートホワイトバランス)処理、被写体像の認識処理、領域の抽出処理なども行う。
被写体像の認識処理には、例えば、被写体が人物や動物であると認識した場合には顔のみを被写体像の表示範囲と認識したり、肩や下半身まで含んだ領域を被写体像の表示範囲と認識する処理が含まれる。また、被写体像の表示範囲として毛髪や体毛をすべて含む領域を確実に設定するために、認識された領域よりも少し広い範囲を被写体像の表示範囲として設定してもよい。そのため、被写体像の表示範囲は、被写体像の領域が含まれる略短冊形のほか、例えば被写体像の領域が含まれる略楕円形や、被写体の輪郭を略トレースした範囲としてもよい。
領域の抽出処理では、画像処理部24は、画像データから被写体像の表示範囲を抽出する処理を行う。画像処理部24は、被写体像の表示範囲を抽出するために、表示画像の輝度や色情報を利用したエッジ検出を適用してもよく、また、被写体像の認識処理により被写体像の種類を判別してからその判別した種類に合わせて被写体像の表示範囲を抽出してもよい。また、不図示の測距手段により計測された被写体の測距情報(距離情報)を利用して、画像処理部24は視線位置にある被写体像の距離と近い距離にある範囲を表示範囲として設定してもよい。画像処理部24で抽出されたこの被写体像の範囲は、後述の実施形態において特定の範囲として利用される。
メモリ制御部15は、システム制御部50によって制御されたデータを、A/D変換器23、画像処理部24、メモリ32との間で送受信するメモリ制御手段である。A/D変換器23から出力されたデジタル信号は、画像処理部24およびメモリ制御部15を介して、あるいは、メモリ制御部15のみを介して後述するメモリ32に直接書き込まれる。
メモリ32は、例えば揮発性の半導体メモリを含み、撮像部22によって得られA/D変換器23により変換されたデジタル信号や画像処理部24で生成された画像データを一時的に記憶する記憶手段である。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。メモリ32に書き込まれたデジタル信号や画像データはメモリ制御部15を介して背面表示部28、EVF29により表示される。
背面表示部28は、メモリ制御部15からの信号に応じた表示を行う。EVF29は、ファインダ内に配置される表示パネルを含み、接眼検知部57により接眼が検知された場合にメモリ制御部15からの信号に応じた表示を行う。
デジタルカメラ100では、撮像部22からのアナログ信号をA/D変換器23によってA/D変換されメモリ32に記録されたデジタル信号を、背面表示部28またはEVF29に逐次転送して表示する。これにより、リアルタイム表示であるライブビュー撮影表示が実現される。
不揮発性メモリ56は、例えばEEPROMなどの不揮発性の半導体メモリを含み、電気的に消去・記録可能な読み出し専用の記録媒体である。不揮発性メモリ56は、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいうプログラムとは、本実施形態にて後述するフローチャートに示す処理(選択位置制御処理)を実行するためのプログラムのことである。
システム制御部50は、少なくとも1つのプロセッサまたは回路を含み、制御手段として機能する。システム制御部50は、前述した不揮発性メモリ56に記録されたプログラムを後述のシステムメモリ52に展開して実行することで、後述する選択位置制御処理を実行したり、デジタルカメラ100全体を制御したりする。
システムメモリ52は、例えば揮発性の半導体メモリを含み、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等が一時的に記憶される、読み出しと書き込みが可能な記憶手段である。
システムタイマー53は、撮影者がデジタルカメラ100の操作を行っていないと判断した場合に電池の消耗を防ぐために背面表示部28を消灯するオートパワーオフを実行するまでの時間や露光時間を計測する計時部である。
モード切換えスイッチ60や操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。前述の通り、モード切換えスイッチ60は、システム制御部50の動作モードを切り替える。動作モードは、例えば、静止画撮影モード、動画撮影モードを含む。
静止画撮影モードに含まれる撮影モードは、オート撮影モード、オートシーン判別モード、マニュアル撮影モード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)を含む。ユーザがモード切換えスイッチ60を押下した後、メイン電子ダイヤル71を回転操作した場合に、撮影モードが変更される。同様に、動画撮影モードにも複数の撮影モードが含まれていてもよい。
第1シャッタースイッチ62は、前述の通り、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理等の撮影準備動作を開始する。第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からのアナログ信号の読み出しから画像データを後述する記録媒体200に書き込むまでの撮影処理を開始する。
操作部70は、ユーザからの操作を受け付ける入力部としての各種操作部材を含み、少なくとも図1に示したボタンやダイヤル等の操作部材を含む。図2に示すタッチパネル70aやシャッターボタン61等のほか、操作部70には、メイン電子ダイヤル71、サブ電子ダイヤル73、十字キー74、SETボタン75、動画ボタン76が含まれる。更に、AEロックボタン77、拡大ボタン78、再生ボタン79、メニューボタン81、マイク82、視線入力開始ボタン83も操作部70に含まれる。
ファインダー外表示部43は、表示パネルを含み、ファインダー外表示部駆動回路44を介して、シャッター速度や絞り値をはじめとする撮影時に設定する様々な設定値を表示する。
電源制御部80は、デジタルカメラ100を駆動させるための電源となる電源部30を検出する回路、DC-DCコンバータ、電源の供給先を切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要なタイミングで、供給先へ供給する。電源部30は、例えば、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等を含んでよい。
記録媒体I/F18は、メモリカードやハードディスク等の後述する記録媒体200とのインターフェースである。記録媒体200は、例えば、SDカード、FLASH(登録商標)メモリ、ハードディスクなどであり、デジタルカメラ100に対して着脱可能であり、撮影された画像を記録するためのメモリカード等の記録媒体である。なお、記録媒体200はデジタルカメラ100の内部に備えられてもよい。
姿勢検知部55は、重力方向に対するデジタルカメラ100の姿勢を検知する。システム制御部50は、姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかの向き情報を出力可能である。システム制御部50は、姿勢検知部55で出力された向き情報を画像データに付加することが可能である。姿勢検知部55としては、例えば、加速度センサやジャイロセンサなどを用いることができる。姿勢検知部55として、加速度センサとジャイロセンサを用いると、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
赤外発光ダイオード166は、接眼部16と接眼状態であるユーザの眼球(目)の視線位置を検出するための発光素子であり、接眼部16の外部に向けて赤外光を照射し、接眼部16に接眼されたユーザの眼球(目)161に赤外光を照射する。赤外発光ダイオード166から発せられた赤外光は眼球(目)161で反射し、その赤外反射光はダイクロイックミラー162に到達する。
ダイクロイックミラー162は赤外光だけを入射方向に対して直角に反射し、可視光は透過させる。光路を変更された赤外反射光は、後述する結像レンズ163を介して後述する視線検知センサ164の撮像面に結像する。
結像レンズ163は視線検知光学系を構成する光学部材であり、赤外反射光を後述する視線検知センサ164に眼球像として結像させる。視線検知センサ164は、CCD型イメージセンサ等の撮像デバイスから成る。
視線検知センサ164は、結像した眼球像を電気信号に光電変換して後述する視線検出回路165へ出力する。視線検出回路165は、視線検知センサ164の出力信号に基づき、ユーザの視線位置を検出し、検出情報をシステム制御部50および注視判定部170に出力する。このようにダイクロイックミラー162、結像レンズ163、視線検知センサ164、赤外発光ダイオード166、視線検出回路165により視線検出手段160が構成され、接眼部16は視線操作部としての機能を有する。なお、視線検出手段160は、上述の例に限らず、他の構成としてもよく、所定の閾値は任意に変更可能である。
システム制御部50は、接眼検知部57と視線検出手段160からの出力に基づいて、接眼部16に対する操作、あるいは状態を検知することができる。例えば、システム制御部50は、接眼部16に接眼したユーザの視線が新たに検出されたこと、すなわち、視線入力の開始を検知することができる。また、システム制御部50は、接眼部16に接眼したユーザの視線入力がある状態、及び接眼部16に接眼したユーザが注視している状態を検知することができる。本実施形態では、注視している状態は、システム制御部50により、例えばユーザの視線位置が所定時間内に所定の移動量を超えなかった場合に検知される。更に、システム制御部50は、接眼部16に接眼したユーザが入力していた視線を外したこと、すなわち、視線入力の終了を検知することができる。一方、システム制御部50は、接眼部16に接眼したユーザが何も視線入力していない状態も検知することができる。
システム制御部50は、視線入力がある状態や注視している状態を検知した場合、視線検出回路165からの検出情報に含まれる位置情報と、EVF29の表示座標との対応関係に基づいて、EVF29の表示画面上の視線位置を検出する。このように、システム制御部50は、表示画面上の視線位置を検出する視線検出手段として機能する。
接眼検知部57は、図1を参照して前述した通り、ファインダーの接眼部16に対する目(物体)161の接近(接眼)および離脱(離眼)を検知する(接近検知)、接眼検知センサである。システム制御部50は、接眼検知部57で検知された状態に応じて、背面表示部28とEVF29の表示(表示状態)/非表示(非表示状態)を切り替える。システム制御部50は、接眼していない状態(非接眼中)である場合、背面表示部28を表示し、EVF29を非表示とする。一方、接眼している状態(接眼中)である場合、EVF29を表示し、背面表示部28を非表示とする。
接眼検知部57は、例えばフォトインタラプタなどの赤外線近接センサを用いることができ、EVF29を内蔵する接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合には、接眼検知部57の投光部(図示せず)から投光した赤外線が反射して赤外線近接センサの受光部(図示せず)に受光される。物体が接近していない場合には、接眼検知部57の投光部から投光した赤外線は赤外線近接センサの受光部に受光されない。このように、接眼検知部57は、赤外線近接センサの受光部における受光の有無によって、接眼部16への物体の接眼検知を行うことができる。また、接眼を検出した後は、システム制御部50は、離眼を検出するまでは接眼状態であるものと判定する。そして、離眼を検出した後は、システム制御部50は、接眼を検出するまでは非接眼状態であるものとする。
なお、上述の例では、接眼検知に赤外線近接センサを用いる場合を例に説明したが、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサを採用してもよい。
音声入力部58は、マイク82から入力された音に対して、音声認識処理を行う。音声認識処理では、マイク82に入力された音が、ユーザによるデジタルカメラ100に対する何らかの操作指示であるか、それ以外の音声もしくは雑音であるかを識別する。そして、入力された音声がデジタルカメラ100に対する操作指示であった場合には、その指示内容はシステム制御部50に伝えられ、システム制御部50は当該操作指示の内容を実行する。
通信部54は、通信回路又はモジュールを含み、例えばBluetooth(登録商標)、無線LANなどの無線通信により外部装置と通信することができる。
(選択位置制御処理に係る一連の動作)
次に、図3A、図3Bおよび図4を参照して、本実施形態における選択位置制御処理の一連の動作について説明する。選択位置制御処理は、視線入力とタッチパネル上の手動操作(タッチ操作およびドラッグ操作)によるAF選択枠の位置変更に関する処理であり、被写体像に対するAF選択枠の位置選択において、誤動作の抑制および容易且つ高精度な位置選択を実現する。すなわち、本実施形態に係るAF選択枠403の位置選択によりAF動作を行う被写体像上の位置を容易且つ高精度に設定することができ、よりユーザ意図を反映した撮影画像に得ることができる。なお、以下の説明では、第1の指示手段として視線入力手段、第2の指示手段としてタッチパネル上でのタッチ操作およびドラッグ操作を行う形態に関して説明する。しかし、第1の指示手段と第2の指示手段は、視線入力とタッチ操作およびドラッグ操作に限定されるものではない。
また、以下の説明では、図4を参照して、本実施形態に係る、視線入力と手動操作(タッチ操作およびドラッグ操作)によって選択位置を変更する際の、被写体像とAF選択枠の位置の関係について説明する。図4(a)~(e)では、第1の位置エリアを特定の範囲402a、第2の位置エリアを特定の範囲402bとする場合を例に説明する。しかし、第1の位置エリアおよび第2の位置エリアを、特定の範囲402a及び402bに限定するものではない。なお、EVF29には、図4(a)~(e)に示す情報に加えて、絞り値やシャッタースピード、撮影可能枚数などの各種情報を合わせたものが表示されてよい。
なお、図3A及び図3Bに示す選択位置制御処理の一連の動作は、特に言及しない限り、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開、実行するして実行することで実現される。また、この処理は、ユーザがデジタルカメラ100の電源スイッチ72は操作したことに応じてデジタルカメラ100が起動した時点から開始される。
ステップS301では、システム制御部50は、デジタルカメラ100を撮影待機状態に移行させる。撮影待機状態では、システム制御部50は、タッチパネル70aの操作に応じた様々な動作を行うように制御することができる。
ステップS302では、システム制御部50は、ユーザがEVF29を覗くために顔を近づけた(すなわち接眼した)ことを、接眼検知部57により検知したかどうかを判定する。システム制御部50は、接眼を検知したと判定した場合には、ステップS303に進み、そうでない場合には、ステップS307へ進む。
ステップS303では、システム制御部50は、背面表示部28の表示を停止するとともにEVF29の表示を開始して被写体像を表示する。
ステップS304では、システム制御部50は、視線検出手段160に視線の検知を開始させる。
ステップS305では、システム制御部50は、ユーザによるタッチパネル70aへの手動操作(タッチ操作もしくはドラッグ操作:T&D)により、AF選択枠の位置の移動指示が行われたかどうかを判定する。例えば、システム制御部50は、タッチパネル70a上のユーザのタッチの移動量が所定量以上である場合に、移動指示が行われたと判定する。システム制御部50は、移動指示が行われたと判定した場合には、ステップS306へ進み、そうでない場合にはステップS309へ進む。
ステップS306では、システム制御部50は、ステップS305で指示された位置へAF選択枠403を移動する。
ステップS307では、システム制御部50は、ユーザによるタッチパネル70aへの手動操作(タッチ操作もしくはドラッグ操作:T&D)による移動指示に基いて、AF選択枠403を移動する。
ステップS308では、システム制御部50は、AF選択枠403の位置でAF動作を行う。
ステップS309では、システム制御部50は、視線入力開始ボタン83の押下操作が行われたかどうかを判定する。システム制御部50は、視線入力開始ボタン83が押下されたと判定した場合にはステップS310へ進み、そうでない場合にはステップS305へ戻る。
ステップS310では、システム制御部50は、視線検出手段160で検知した視線位置(入力位置ともいう)の情報に応じて、例えば、図4(a)に示すようにEVF29のライブビュー表示に視線位置表示401を重畳表示する。
ここで、図4(a)を参照する。図4(a)は、被写体像411aと411bがEVF29に表示される様子を示している。ユーザが被写体像411aに視線を向けている場合、システム制御部50は、視線検出手段160により検知された視線位置の情報に基づいて、ユーザの視線位置である被写体像411aの上に視線位置表示401および特定の範囲402aを重畳表示させている。
ステップS311では、画像処理部24によって視線位置にある被写体像が抽出処理され、システム制御部50は、当該被写体像を特定の範囲402aとしてEVF29に重畳表示する。
ステップS312では、画像処理部24は、システム制御部50の指示に応じて、ステップS312で抽出した特定の範囲402aに顔が含まれているかを判定する。システム制御部50は、画像処理部24により顔が含まれていると判定された場合にはステップS313に進み、そうでない場合にはステップS314に進む。なお、特定の範囲402aに顔が含まれるかどうかの判定は、ステップS311で画像処理部24が実行した抽出処理の結果を利用してシステム制御部50が判定を行ってもよい。
ステップS313では、システム制御部50は、特定の範囲402aに含まれる顔の瞳の位置に、AF選択枠403を重畳表示する。なお、顔検出や瞳検出には、公知技術を利用することができるため、これらの検出に係る詳細は省略する。
ステップS314では、システム制御部50は、視線検出手段160で検出した視線位置の情報に基づいて、視線位置にAF選択枠403を表示する。例えば、システム制御部50は、EVF29の表示画像に表示されている視線位置表示401にAF選択枠403を重畳表示する。
ここで、図4(b)を参照する。図4(b)は、特定の範囲402aの中にAF選択枠403aが表示される様子を示している。画像処理部24によって被写体像411aの範囲が特定の範囲402aであると認識され、システム制御部50が視線位置にAF選択枠403aを表示している。このAF選択枠403aは、ユーザのタッチパネルへのタッチ操作およびドラッグ操作によって、上下左右の任意の方向に移動操作可能である。
仮に、被写体像411aの左下に視線位置表示401があった場合、AF選択枠403aは、被写体像411aの左下にあった、図4(a)において視線位置表示401の位置と略同じ位置に表示される。
このように、S314までの処理により、システム制御部50は、表示された表示画像に対するユーザの視線に基づいて、表示画像上の特定の位置(視線位置や瞳位置)を、撮像の際にフォーカスを合わせるための選択位置(AF選択枠の位置)として決定する。
ステップS315では、システム制御部50は、表示されているAF選択枠403の位置の被写体像に対してAF動作を行う。ここで、AF選択枠403の位置が被写体像の移動に追従するように移動するいわゆるサーボAF動作では、特定の範囲402aとAF選択枠403の位置は同方向に同一量だけ追従移動する。この追従移動中には、互いの相対位置の関係は維持され、後述するステップS319でのユーザの操作によってのみ変更される。
ステップS316では、ステップS310で表示した視線位置表示401を消去する。ステップS317では、画像処理部24は、システム制御部50の指示に応じて、特定の範囲402aと表示画像全体の範囲である既定の領域のサイズ比を算出する。画像処理部24は、サイズ比を、二つの領域に関する水平方向の画素数、垂直方向の画素数、領域内の総ピクセル数などの情報を用いて算出する。
ステップS318では、システム制御部50は、ステップS317で算出したサイズ比に基づいて、タッチパネル70aの操作感度を変更する。操作感度については図4(e)を参照して後述する。
以下のステップS319~S330では、システム制御部50は、タッチパネル70a等の指示部材を介したユーザ操作により、決定された選択位置(AF選択枠の位置)を移動させて、AF選択枠の位置を所望の位置に調節する。このとき、システム制御部50は、仮に選択位置に対するユーザ操作に誤操作が含まれる場合であっても、特定の範囲402a(或いは被写体領域内)を出ないように、選択位置の移動を制御する。詳細は後述するが、例えば、システム制御部50は、移動される選択位置が特定の範囲402aの境界に達しているか否かに応じて、当該ユーザ操作による選択位置の移動を許可したり許可しないようにする。
ステップS319では、システム制御部50は、ユーザのタッチ操作およびドラッグ操作による、AF選択枠403の位置選択操作の有無を判定する。システム制御部50は、ユーザによる位置選択操作が行われたと判定した場合には、操作量を検知してステップS320へ進み、そうでない場合にはステップS331に進む。なお、システム制御部50は、ユーザ操作を受け付けた後は、視線による入力がユーザの手動操作による選択位置の調整を妨げないように、所定時間受け付けない(ユーザの視線の検知を停止させる)ようにしてもよい。
ステップS320では、システム制御部50は、特定の範囲402aとAF選択枠403aの境界位置を識別し、上下左右の各方向における境界位置の一致の有無を検知する。
ここで、図4(c)を参照する。図4(c)は、AF選択枠403aが特定の範囲402aの左端にあることを示している。この場合、AF選択枠403aと特定の範囲402aの左側境界が一致しているため、システム制御部50は、ユーザによる左方向へのタッチ操作およびドラッグ操作を受け付けても、左方向にはAF選択枠403aを移動しない。一方で、左側以外の、例えば上方向へユーザによる移動操作が行われた場合には、システム制御部50は、AF選択枠403aを上方向へ移動する。従って、図4(c)に示す例では、システム制御部50は、特定の範囲402bとAF選択枠403aの左側境界の一致を検知し、上および下、右方向は一致なしと検知する。
図4(d)は、図4(c)からユーザの視線位置が移動するとともに移動後の視線位置へ視線位置表示401が移動し、被写体像411bが特定の範囲402bとして選択されていることを示している。
図4(e)は、特定の範囲402bの中にAF選択枠403bが表示されていることを示している。図4(e)に示す特定の範囲402bは、図4(b)に示した特定の範囲402aと比較して小さい。この場合、システム制御部50は、特定の範囲のサイズが小さい場合には、AF選択枠403bの操作感度を低くして、特定の範囲402b内の選択位置を細かく移動させることが可能になる。すなわち、特定の範囲(例えば選択位置にある被写体像)のサイズ情報に応じて、選択位置の移動に対するユーザ操作の感度を変更することで、AF選択枠403b(選択位置)の移動を高精度に行なうことが可能になる。ここで、操作感度は、ユーザによるタッチ操作およびドラッグ操作の指の移動量に対する、AF選択枠の移動量の比率である。この比率が小さくなれば操作感度が低く、容易に高精度な位置選択が可能である。例えば、特定の範囲が500×1000ピクセルであり、画面全体が3000×2000ピクセルである場合を考える。この場合、操作感度変更前の移動量を1として、「面積比が1/12なので移動量を1/12とする」「水平方向の長さの比が1/6なので、移動量を1/6とする」「垂直方向の長さの比が1/2なので、移動量を1/2とする」等の操作感度を設定する。
ステップS321では、システム制御部50は、ステップS319で受け付けた入力操作方向が、(上下左右の4方向の成分に分解した場合に)二方向であるか(すなわち二方向の成分を含むか)を判別する。例えば、システム制御部50は、左上への入力であった場合には、左と上の二方向の成分を含む入力であると判別する。システム制御部50は、入力操作方向が二方向であると判定した場合にはステップS322へ進み、そうでない(すなわち一方向のみ)場合にはステップS323ヘ進む。
ステップS322では、システム制御部50は、ステップS319で検知したAF選択枠の位置選択操作の入力操作方向と、ステップS320で検知した境界位置の一致方向とを比較して、この2つが一致しているかどうかを判定する。システム制御部50は、少なくとも一つの方向において一致すると判定した場合は、ステップS324へ進む。二方向ともに一致しないと判定された場合は、ステップS327へ進む。
ステップS323では、システム制御部50は、ステップS319で検知したAF選択枠の位置選択操作の入力操作方向と、ステップS320で検知した境界位置の一致方向を比較して、入力操作方向と境界位置の一致方向の2つが一致しているかを判定する。システム制御部50は、入力操作方向と境界位置の一致方向が一致すると判定した場合は、ステップS328へ進み、そうでない場合には、ステップS329へ進む。
ステップS324では、システム制御部50は、ステップS322の一致判定が、二方向ともに一致していたかを判定する。システム制御部50は、一致判定が二方向での一致であると判定した場合には、ステップS325へ進み、そうでない場合にはステップS326へ進む。
ステップS325では、システム制御部50は、ステップS316で受け付けた入力操作を無効とする。その結果としてAF選択枠403aは移動しないため、AF選択枠403aが特定の範囲402bの外側に移動することはない。
ステップS326では、システム制御部50は、ステップS324で一致していないと判定した方向にのみ、AF選択枠403aを、ステップS319の入力操作量に応じて移動する。
ステップS327では、システム制御部50は、AF選択枠403aを、ステップS319の入力操作方向及び入力操作量に応じて移動する。ステップS328では、システム制御部50は、ステップS319で受け付けた入力操作を無効とする。結果として、AF選択枠403aは移動しないため、AF選択枠403aが特定の範囲402bの外側に移動することはない。
ステップS329では、システム制御部50は、AF選択枠403aを、ステップS319の入力操作量に応じて移動する。ステップS330では、システム制御部50は、AF選択枠403aの位置でAF動作を行う。なお、AF動作後には、ステップS318で変更した操作感度は、変更前の感度へ戻る。
ステップS331では、システム制御部50は、第2シャッタースイッチ信号SW2の受信有無を判定する。システム制御部50は、第2シャッタースイッチ信号SW2を受信したと判定した場合にはステップS332へ進み、そうでない場合には、撮影待機状態として、ステップS301に戻る。
ステップS332では、システム制御部50は、デジタルカメラ100の撮影処理を実行する。ステップS333では、システム制御部50は、ユーザによる電源スイッチ72操作の有無を判定する。システム制御部50は、電源スイッチ72が操作されたと判定した場合には、本処理の一連の動作を終了する。一方、システム制御部50は、電源スイッチ72が操作されていないと判定した場合は、デジタルカメラの状態を撮影待機状態として、ステップS301へ戻る。
以上説明したように、本実施形態では、ファインダー内表示部29への位置の入力を受けつけ、入力が受けつけられた位置の被写体像に基づく特定の範囲において、選択位置を移動させる移動指示を受けつける。そして、移動前の選択位置が特定の範囲内で、特定の範囲の第1の方向の境界に達していない場合、選択位置の第1の方向への移動指示操作に応じて選択位置を第1の方向に移動させる。また、移動前の選択位置が特定の範囲内で、特定の範囲の第1の方向の境界に達している場合、選択位置の第1の方向への移動指示操作があっても選択位置を第1の方向に移動させないように制御する。すなわち、システム制御部50は、移動される選択位置が特定の範囲402aの境界に達しているか否かに応じて、当該ユーザ操作による選択位置を移動させたり移動させなかったりするようにした。このようにすることで、フォーカスを合わせるような操作において画像内の位置を選択する際の操作性を向上させることができる。
また、本実施形態では、選択位置にある被写体像のサイズに応じて、選択位置の移動に対するユーザ操作を受け付ける感度を変更するようにした。このようにすることで、選択位置の移動を高精度に行なうことが可能になる。
(変形例)
上述の実施形態では、ユーザがEVF29を覗き込んで、タッチパネル70aや視線検出回路165を使用した操作を行う場合を例に説明した。しかしながら、本実施形態に係る構成はこの例に限定されない。以下に、本実施形態に係る構成の変形例について説明する。
上述の第1の指示手段は、視線入力に限らず、撮像範囲における特定位置の絶対位置を指定できるものであれば他の構成であってもよい。例えば、マイク82を使用した音声による名称の入力や、タッチパネル70aを使用した被写体像に対するタッチによる位置の入力などであってもよい。この場合、システム制御部50は、ステップS310における視線位置の代わりに、音声入力で指示された被写体像が表示されている位置や、タッチ入力の位置を用いる。
第2の指示手段は、タッチパネル70aでのタッチ操作およびドラッグ操作に限らず、AF選択枠403の移動方向を指定できるものであれば他の構成であってもよい。例えば、マイク82を使用した音声入力による方向の指示や、十字キー74の押下操作などであってもよい。この場合、システム制御部50は、ステップS319におけるタッチ操作およびドラッグ操作による移動方向指示の代わりに、音声で指示された方向や、十字キー74の押下方向による移動指示を用いる。
また、本実施形態は、ユーザが背面表示部28を見ながら操作するデジタルカメラに使用されてもよい。この場合、例えば、第1の指示手段はマイク82を使用した音声入力であり、第2の指示手段は十字キー74による操作であってよい。更に、視線位置情報により被写体領域を抽出する代わりに、音声入力部58がマイク82からの入力情報による指示内容を認識し、画像処理部24が被写体像を抽出し、例えば特定の範囲402aを背面表示部28のライブビュー表示に重畳表示してもよい。また、システム制御部50は、タッチ操作およびドラッグ操作の代わりに、十字キー74の入力方向に基づいてAF選択枠403の移動操作を実行してもよい。
更に、上述の変形例のように、第1の指示手段に視線入力を使用しない場合、デジタルカメラ100にはEVF29が搭載されていなくてもよい。この場合、システム制御部50は、ステップS301からステップS305へ進んで、ステップS302からステップS304の処理をスキップすることができる。また、システム制御部50は、ステップ306以降において、視線検出手段160による操作の代わりに、第1の指示手段としてマイク82に入力された音声による音声入力指示に基づいた操作を実行する。
また、図4(a)~(e)に示した例では、視線位置表示401が十時型である場合を例に説明した。しかし、視線位置表示401は、十字型ではなく丸型や角型でもよく、また表示されなくてもよい。表示されない場合には、例えばAF選択枠403の位置が視線位置の移動に合わせて動くことで、ユーザは自身の視線位置が動いていることを認識することができる。
また、視線検出手段160による選択位置指示の開始操作は、視線入力開始ボタン83の押下操作ではなく、マイク82への音声入力指示や、他の任意のボタン押下などでもよい。音声入力指示の場合には、システム制御部50は、マイク82の検出音の中に、音声による「視線入力開始」や「目で位置を選択する」などの、視線を使用した選択操作を開始する旨の発声を検知した場合に、視線入力による指示操作の受け付けを開始してもよい。また、指示が他のボタン押下である場合には、例えば視線入力開始ボタン83以外の任意のボタン押下により、視線入力による指示操作の受け付けを開始してもよい。もしくは、システム制御部50は、メニューボタン81押下により表示されるメニュー画面から視線入力による指示操作の常時受け付けON/OFFを切り替えてもよい。
更に、特定の範囲402のサイズ比較は、既定の領域のサイズと比較して行われるが、既定の領域は表示画像全体でなくてもよい。例えば、固定の領域でもよいし、「直前に選択された特定の範囲402」のように比較のたびに変更されてもよい。以下に具体例を説明する。まず、システム制御部50の指示に応じて、ステップS301からステップS319までの処理が実行され、更にステップS319からステップS330が実行された後に、ステップS301に戻った状態を想定する。このとき、図4(b)のように被写体像411aが特定の範囲402aとして選択されている。
次にステップS310で図4(d)のように、視線位置が被写体像411bへ移動し、視線位置表示401は被写体像411bに重畳表示される。更にステップS311で特定の範囲402bも重畳表示される。このとき、既定の領域が「直前に選択された特定の範囲402」と定められている場合は、特定の範囲402aが既定の領域となる。その後ステップS313もしくはステップS314で、図4(e)のようにAF選択枠403bが重畳表示され、ステップS317では特定の範囲402aと特定の範囲402bの比較を基に操作感度が変更される。
また、ステップS319の動作では、タッチ操作およびドラッグ操作による、AF選択枠403の位置選択操作を受け付ける場合を例に説明した。このとき、システム制御部50は、このユーザ操作を受け付けたことに応じて、EVF29の表示を特定の範囲402が全て含まれるように拡大させて表示してもよい。拡大表示を行う場合には、システム制御部50は、第2の指示手段の操作感度も併せて変更する。拡大表示前後における特定の範囲402のサイズの比率は、任意の適当な値が使用されてよい。拡大後の操作感度はこの比率と略同一の比率で変更される。例えば、システム制御部50は、特定の範囲402が上下それぞれ2倍に拡大表示した場合には、操作量に対するAF選択枠403の移動量を上下ともに2倍に変更する。これにより、ユーザの操作に対してAF選択枠403を細かく移動させることができるので、AF選択枠403の位置指定をより高精度に行うことができる。
更に、ステップS321では、特定の範囲402とAF選択枠403の境界位置を識別し、上下左右の各方向における一致の有無を判定する例を説明した。しかし、AF選択枠403が特定の範囲402の境界の近傍に位置するかどうかを判定できればよい。例えば、AF選択枠403の一部分が特定の範囲402の外に存在する場合には、AF選択枠403の境界と特定の範囲402の境界が交点を持つこととなる。この交点を持つ状態を一致ありと判定してもよい。また、AF選択枠403が特定の範囲402の境界の近傍、例えば特定の範囲402の左端から20%の位置にある場合には、一致ありと判定してもよい。これはAF選択枠403が特定の範囲402の左側境界の近傍であり、数回の操作で容易に一致してしまうことが想定されるためである。
なお、上述の説明では、特定の範囲を被写体像の範囲に基づいて設定する場合を例に説明した。しかし、特定の範囲は、被写体像に関わらないサイズである所定サイズの範囲であってもよい。
上述の実施形態では、ユーザがAF選択枠の位置を変更する場合を例に説明したが、変更するのはAF選択枠でなくともよい。例えば、露出決定のためのAE測定を行う位置であったり、その他のデジタルカメラ100で変更可能なパラメータに関する位置指定をユーザが行う手段として使用することができる。
なお、システム制御部50が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
更に、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されず撮像手段を有する機器であれば適用可能である。すなわち、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ゲーム機、タブレット端末、スマートフォン、ヘッドマウントディスプレイなどの表示装置を備えた電子機器などに適用可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
29…EVF、50…システム制御部、70a…タッチパネル、160…視線検出手段、401…視線位置表示、402a/402b…特定の範囲、403…AF選択枠

Claims (20)

  1. 表示手段への位置の入力を受けつけ可能な第1の指示手段と、
    前記表示手段のうち前記第1の指示手段により入力が受けつけられた位置の被写体像に基づく特定の範囲において、選択位置を移動させる移動指示を受けつけ可能な第2の指示手段と、
    移動前の前記選択位置が前記特定の範囲内で、前記特定の範囲の第1の方向の境界に達していない場合には、前記第2の指示手段に対する選択位置の前記第1の方向への移動指示操作に応じて前記選択位置を前記第1の方向に移動させ、
    移動前の前記選択位置が前記特定の範囲内で、前記特定の範囲の第1の方向の境界に達している場合には、前記第2の指示手段に対する選択位置の前記第1の方向への移動指示操作があっても前記選択位置を前記第1の方向に移動させないように制御する制御手段とを有することを特徴とする撮像制御装置。
  2. 前記制御手段は、移動前の前記選択位置にある被写体像のサイズに応じて、前記選択位置を移動させる前記移動指示を受け付ける感度を変更する、ことを特徴とする請求項1に記載の撮像制御装置。
  3. 前記制御手段は、移動前の前記選択位置にある被写体像が第1のサイズである場合、所定の移動指示に対して前記選択位置を第1の移動量で移動させ、該被写体像が前記第1のサイズより小さい第2のサイズである場合、前記所定の移動指示に対して、前記選択位置を前記第1の移動量より小さい第2の移動量で移動させる、ことを特徴とする請求項2に記載の撮像制御装置。
  4. 前記特定の範囲は、前記第1の指示手段によって入力された位置に基づく被写体像に関わらないサイズである所定サイズの範囲である、ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像制御装置。
  5. 前記特定の範囲は、前記第1の指示手段によって入力された位置で検出された被写体に応じた範囲である、ことを特徴とする請求項1乃至4のいずれか1項に記載の撮像制御装置。
  6. 前記第1の指示手段は、被写体像に対する視線による位置の入力である視線入力を受け付ける視線入力手段、もしくは被写体像に対する音声による名称の入力を受け付ける音声入力手段、もしくは被写体像に対するタッチによる位置の入力であるタッチ入力を受け付けるタッチ入力手段のいずれかである、ことを特徴とする請求項1乃至5のいずれか1項に記載の撮像制御装置。
  7. 前記第1の指示手段に基づく前記特定の範囲が決定された後は、前記特定の範囲は被写体像の移動に追従移動する、ことを特徴とする請求項1乃至6のいずれか1項に記載の撮像制御装置。
  8. 前記追従移動中には、前記特定の範囲と前記第2の指示手段による選択位置との相対位置が維持される、ことを特徴とする請求項7に記載の撮像制御装置。
  9. 前記特定の範囲は、前記第1の指示手段によって入力された位置で検出された被写体の測距情報に基づき決定される、ことを特徴とする請求項1乃至8のいずれか1項に記載の撮像制御装置。
  10. 前記被写体像に瞳が含まれる場合には、第1の指示手段により入力が受けつけられた位置を瞳位置とする、ことを特徴とする請求項1乃至9のいずれか1項に記載の撮像制御装置。
  11. 前記特定の範囲は、前記第1の指示手段により入力が受けつけられた位置の被写体像が含まれる略短冊形もしくは略楕円形、被写体の輪郭を略トレースした範囲である、ことを特徴とする請求項1乃至10のいずれか1項に記載の撮像制御装置。
  12. 前記制御手段は、前記第2の指示手段による指示が開始された場合、前記第1の指示手段による入力を所定時間受け付けない、ことを特徴とする請求項1乃至11のいずれか1項に記載の撮像制御装置。
  13. 前記表示手段は、ファインダー内に配置される表示パネルを含む、ことを特徴とする請求項1から12のいずれか1項に記載の撮像制御装置。
  14. 表示手段への位置の入力を受けつけ可能な第1の指示手段と、
    前記表示手段のうち前記第1の指示手段により入力が受けつけられた位置の被写体像において、選択位置を移動させる移動指示を受けつけ可能な第2の指示手段と、
    前記被写体像から特定の被写体領域を抽出する抽出手段と、
    前記抽出手段によって前記第1の指示手段での入力位置を含む範囲において抽出された前記特定の被写体領域が第1のサイズである場合には、前記第2の指示手段に対する第1の操作量の移動操作に応じて、前記選択位置を前記特定の被写体領域内において第1の移動量で移動させ、
    前記抽出手段によって前記第1の指示手段での入力位置を含む範囲において抽出された前記特定の被写体領域が第1のサイズよりも小さい第2のサイズである場合には、前記第2の指示手段に対する前記第1の操作量の移動操作に応じて、前記選択位置を前記特定の被写体領域内において第1の移動量よりも小さい第2の移動量だけ移動させるように制御する制御手段と、を有することを特徴とする撮像制御装置。
  15. 前記第2の指示手段への操作量に対する前記選択位置の移動量の大きさは、画面全体と前記特定の範囲とのサイズ情報の比較により決定される、ことを特徴とする請求項14に記載の撮像制御装置。
  16. 前記サイズ情報とは、前記特定の範囲の水平方向の長さ、垂直方向の長さ、範囲の面積の少なくともいずれかである、ことを特徴とする請求項15に記載の撮像制御装置。
  17. 表示手段への位置の入力を受けつけ可能な第1の指示手段と、前記表示手段のうち前記第1の指示手段により入力が受けつけられた位置の被写体像に基づく特定の範囲において、選択位置を移動させる移動指示を受けつけ可能な第2の指示手段と、を有する撮像制御装置の制御方法であって、
    移動前の前記選択位置が前記特定の範囲内で、前記特定の範囲の第1の方向の境界に達していない場合には、前記第2の指示手段に対する選択位置の前記第1の方向への移動指示操作に応じて前記選択位置を前記第1の方向に移動させ、
    移動前の前記選択位置が前記特定の範囲内で、前記特定の範囲の第1の方向の境界に達している場合には、前記第2の指示手段に対する選択位置の前記第1の方向への移動指示操作があっても前記選択位置を前記第1の方向に移動させないように制御する制御工程を有する、ことを特徴とする撮像制御装置の制御方法。
  18. 表示手段への位置の入力を受けつけ可能な第1の指示手段と、前記表示手段のうち前記第1の指示手段により入力が受けつけられた位置の被写体像において、選択位置を移動させる移動指示を受けつけ可能な第2の指示手段と、を有する撮像制御装置の制御方法であって、
    前記被写体像から特定の被写体領域を抽出する抽出工程と、
    前記抽出工程において前記第1の指示手段での入力位置を含む範囲において抽出された前記特定の被写体領域が第1のサイズである場合には、前記第2の指示手段に対する第1の操作量の移動操作に応じて、前記選択位置を前記特定の被写体領域内において第1の移動量で移動させ、
    前記抽出工程において前記第1の指示手段での入力位置を含む範囲において抽出された前記特定の被写体領域が第1のサイズよりも小さい第2のサイズである場合には、前記第2の指示手段に対する前記第1の操作量の移動操作に応じて、前記選択位置を前記特定の被写体領域内において第1の移動量よりも小さい第2の移動量だけ移動させるように制御する制御工程と、を有することを特徴とする撮像制御装置の制御方法。
  19. コンピュータを、請求項1から16のいずれか1項に記載された撮像制御装置の各手段として機能させるためのプログラム。
  20. コンピュータを、請求項1から16のいずれか1項に記載された撮像制御装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。
JP2020122348A 2020-07-16 2020-07-16 撮像制御装置、その制御方法、プログラム及び記録媒体 Active JP7518684B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020122348A JP7518684B2 (ja) 2020-07-16 撮像制御装置、その制御方法、プログラム及び記録媒体
US17/372,593 US11770602B2 (en) 2020-07-16 2021-07-12 Apparatus, control method therefor, and storage medium
CN202110801143.2A CN113949809A (zh) 2020-07-16 2021-07-15 电子设备及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020122348A JP7518684B2 (ja) 2020-07-16 撮像制御装置、その制御方法、プログラム及び記録媒体

Publications (3)

Publication Number Publication Date
JP2022018908A true JP2022018908A (ja) 2022-01-27
JP2022018908A5 JP2022018908A5 (ja) 2023-07-24
JP7518684B2 JP7518684B2 (ja) 2024-07-18

Family

ID=

Also Published As

Publication number Publication date
CN113949809A (zh) 2022-01-18
US11770602B2 (en) 2023-09-26
US20220021817A1 (en) 2022-01-20

Similar Documents

Publication Publication Date Title
CN113301247B (zh) 一种摄像设备、其控制方法以及存储介质
JP7208128B2 (ja) 撮像装置およびその制御方法
EP3863013A1 (en) Voice input apparatus, control method thereof, and computer program for executing processing corresponding to voice instruction
US20240062583A1 (en) Electronic apparatus and method for controlling the same
JP2020204915A (ja) 電子機器およびその制御方法
CN113364945A (zh) 电子装置、控制方法和计算机可读介质
JP7490372B2 (ja) 撮像制御装置及びその制御方法
JP2021184123A (ja) 電子機器、電子機器の制御方法、プログラム
JP6768449B2 (ja) 撮像制御装置、撮像装置の制御方法及びプログラム
JP7518684B2 (ja) 撮像制御装置、その制御方法、プログラム及び記録媒体
JP6611575B2 (ja) 撮像制御装置およびその制御方法
US20210278749A1 (en) Electronic device and method for controlling electronic device
JP2022018908A (ja) 撮像制御装置、その制御方法、プログラム及び記録媒体
US20210127048A1 (en) Control apparatus, control method, and storage medium
CN112040095A (zh) 电子装置、电子装置的控制方法及存储介质
JP2021124613A (ja) 音声入力装置およびその制御方法ならびにプログラム
CN116648668A (zh) 电子设备、其控制方法、程序和存储介质
JP2022067578A (ja) 撮像装置及びその制御方法及びプログラム及び記録媒体
JP2021158502A (ja) 撮像装置、撮像方法、プログラムおよび記録媒体
JP2022095306A (ja) 表示制御装置及びその制御方法
JP2021180437A (ja) 撮像装置
JP2022129065A (ja) 表示制御装置及びその制御方法及びプログラム及び記録媒体
JP2023048009A (ja) 撮像装置、制御方法及びプログラム
JP2021152744A (ja) 電子機器及びその制御方法
JP2021012238A (ja) 電子機器およびその制御方法、プログラム、並びに記憶媒体

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240607