JP7451255B2 - Electronic equipment and its control method - Google Patents

Electronic equipment and its control method Download PDF

Info

Publication number
JP7451255B2
JP7451255B2 JP2020052810A JP2020052810A JP7451255B2 JP 7451255 B2 JP7451255 B2 JP 7451255B2 JP 2020052810 A JP2020052810 A JP 2020052810A JP 2020052810 A JP2020052810 A JP 2020052810A JP 7451255 B2 JP7451255 B2 JP 7451255B2
Authority
JP
Japan
Prior art keywords
type
image
magnification
line
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020052810A
Other languages
Japanese (ja)
Other versions
JP2021152744A (en
Inventor
誠司 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020052810A priority Critical patent/JP7451255B2/en
Publication of JP2021152744A publication Critical patent/JP2021152744A/en
Application granted granted Critical
Publication of JP7451255B2 publication Critical patent/JP7451255B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、特に、操作部材を備えた電子機器、電子機器の制御方法、プログラム及び記憶媒体に関する。 The present invention particularly relates to an electronic device including an operating member, a method of controlling the electronic device, a program, and a storage medium.

近年、ジョイスティック(以下、マルチコントローラーまたはMC)を搭載した電子機器が増えている。MCは、上、下、左、右、及び斜め4方向の計8方向の何れかの方向へ押し倒して指示する操作(以下、8方向操作)と、中央部分での押し込み操作(以下、中央押し操作)との2つの操作が可能であるものが多い。このMCを電子機器に搭載することにより、ユーザーの操作性を向上させることができる。 In recent years, the number of electronic devices equipped with joysticks (hereinafter referred to as multi-controllers or MCs) has been increasing. The MC can be pushed down in any of eight directions (up, down, left, right, and diagonally) (hereinafter referred to as 8-direction operation), and pressed in the center (hereinafter referred to as center push). In many cases, two operations are possible: By installing this MC in electronic equipment, user operability can be improved.

ミラーレスなどのデジタルカメラにおいては、MCにより、ユーザーがカメラに対して素早い操作を行えるようになるため、撮影機会の増加などが期待できる。例えば、AF(オートフォーカス)を行う位置の指定にMCを用いる場合には、8方向操作でAF枠の位置を8方向へ移動させ、中央押し操作によってAF枠の位置を画面中央に戻すといった操作が可能である。 In digital cameras such as mirrorless cameras, MC allows users to quickly operate the camera, so it is expected that there will be an increase in photographic opportunities. For example, when using MC to specify the position for AF (autofocus), you can move the AF frame in 8 directions by operating in 8 directions, and return the AF frame to the center of the screen by pressing the center. is possible.

また、特許文献1には、MCの中央押し操作を行ってAF枠を特定位置へ移動させ、8方向操作を行うことにより特定位置からAF枠を移動させるようにすることが開示されており、このようなMCにより、素早いAF枠の移動を実現できるとしている。 Further, Patent Document 1 discloses that the AF frame is moved to a specific position by pressing the center of the MC, and the AF frame is moved from the specific position by performing an eight-direction operation. It is said that this type of MC makes it possible to quickly move the AF frame.

特開2015-22208号公報Japanese Patent Application Publication No. 2015-22208

MCの操作においては、タイミングによって8方向押し操作と中央押し操作とを同時に行うなど、正確な操作が要求される場合があるが、操作部分が小さいことから誤った操作がなされやすい。 When operating the MC, accurate operations may be required, such as simultaneously performing an eight-direction push operation and a center push operation depending on the timing, but erroneous operations are likely to occur because the operating portion is small.

特許文献1に記載の方法では、操作性優先の観点からは、中央押し操作の後に、押下したまま8方向操作を許可することで特定位置からのAF枠移動をしやすくすることができる。しかしながら、例えば前述のようにAF枠を厳密に中央に位置させたい場合に、誤って8方向操作をしてしまうとAF枠が狙った位置からずれてしまう。 In the method described in Patent Document 1, from the viewpoint of giving priority to operability, after the center press operation, eight-direction operations are allowed while the center press is held down, thereby making it easier to move the AF frame from a specific position. However, for example, if you want to position the AF frame strictly in the center as described above, if you accidentally operate in eight directions, the AF frame will shift from the desired position.

本発明は前述の問題点に鑑み、複数種類の操作を同時に行うことが可能な操作部材を用いて操作する場合に、利便性を備えながら誤操作を低減できるようにすることを目的としている。 In view of the above-mentioned problems, an object of the present invention is to provide convenience while reducing erroneous operations when operating using an operating member that can perform multiple types of operations simultaneously.

本発明に係る電子機器は、第1の倍率と、前記第1の倍率とは異なる第2の倍率とを含む複数の倍率のうち、いずれの倍率で画像を表示するかを切り替える切り替え手段と、複数の方向のいずれかを指示する第1の種別の操作と、方向を指示しない第2の種別の操作とを受け付け可能な操作手段と、前記第1の倍率で画像を表示している際に、前記第1の種別の操作に基づいて、前記表示される画像においてAF位置を移動する制御を行い、前記第2の倍率で画像を表示している際に、前記操作手段に対する前記第1の種別の操作に基づいて、画像全体のうちの前記表示される画像の表示領域を移動する制御を行う制御手段と、を有し、前記制御手段は、前記第1の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記AF位置の移動を行わないように制御し、前記第2の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記表示領域の移動を行うように制御することを特徴とする。 An electronic device according to the present invention includes a switching means for switching at which magnification an image is to be displayed among a plurality of magnifications including a first magnification and a second magnification different from the first magnification; an operation means capable of accepting a first type of operation that specifies one of a plurality of directions and a second type of operation that does not specify a direction; , controls to move the AF position in the displayed image based on the first type of operation, and when the image is displayed at the second magnification, the first type of operation is performed on the operation means. control means for controlling movement of a display area of the displayed image of the entire image based on a type of operation, and the control means displays the image at the first magnification. when the first type of operation is performed while the second type of operation is performed, the AF position is moved in the direction based on the first type of operation. When the first type of operation is performed while the second type of operation is performed while the image is displayed at the second magnification and the image is displayed at the second magnification. The display area is controlled to be moved in a direction based on a first type of operation.

本発明によれば、複数種類の操作を同時に行うことが可能な操作部材を用いて操作する場合に、利便性を備えながら誤操作を低減することができる。 According to the present invention, it is possible to reduce erroneous operations while providing convenience when operating using an operating member that can perform multiple types of operations simultaneously.

実施形態に係るデジタルカメラの外観構成例を示す図である。1 is a diagram illustrating an example of the external configuration of a digital camera according to an embodiment. 実施形態に係るデジタルカメラの内部構成例を示すブロック図である。1 is a block diagram showing an example of the internal configuration of a digital camera according to an embodiment. FIG. 撮影モードでの処理手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of a processing procedure in shooting mode. 表示部またはEVFに表示される画像の例を示す図である。FIG. 3 is a diagram showing an example of an image displayed on a display unit or EVF.

以下、図面を参照して本発明の好適な実施形態を説明する。
図1(a)及び図1(b)には、本発明を適用可能な装置(電子機器)の一例としてのデジタルカメラ100(撮像装置)の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
FIGS. 1A and 1B show external views of a digital camera 100 (imaging device) as an example of a device (electronic device) to which the present invention can be applied. 1(a) is a front perspective view of the digital camera 100, and FIG. 1(b) is a rear perspective view of the digital camera 100.

図1において、表示部28は画像や各種情報を表示する、カメラ背面に設けられた表示部である。タッチパネル70aは、表示部28の表示面(操作面)に対するタッチ操作を検出することができる。ファインダー外表示部43は、カメラ上面に設けられた表示部であり、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。シャッターボタン61は撮影指示を行うための操作部である。モード切替スイッチ60は各種モードを切り替えるための操作部である。 In FIG. 1, the display section 28 is a display section provided on the back of the camera that displays images and various information. The touch panel 70a can detect a touch operation on the display surface (operation surface) of the display unit 28. The outside viewfinder display section 43 is a display section provided on the top surface of the camera, and displays various setting values of the camera, including shutter speed and aperture. The shutter button 61 is an operation unit for instructing photography. The mode changeover switch 60 is an operation unit for switching between various modes.

端子カバー40は外部機器との接続ケーブルとデジタルカメラ100とを接続するコネクタ(不図示)を保護するカバーである。メイン電子ダイヤル71は回転操作部材であり、このメイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72はデジタルカメラ100の電源のON及びOFFを切り替える操作部材である。サブ電子ダイヤル73は回転操作部材であり、選択枠の移動や画像送りなどを行える。 The terminal cover 40 is a cover that protects a connector (not shown) that connects a connection cable with an external device and the digital camera 100. The main electronic dial 71 is a rotary operation member, and by rotating the main electronic dial 71, settings such as shutter speed and aperture can be changed. The power switch 72 is an operation member that turns the power of the digital camera 100 on and off. The sub-electronic dial 73 is a rotary operation member that can move the selection frame, advance images, etc.

4方向キー74は、上、下、左、右部分をそれぞれ押し込み可能な4方向に押し込み可能な押しボタンを有する十字キーである。4方向キー74の押下した方向に押した部分に応じた操作が可能である。SETボタン75は押しボタンであり、主に選択項目の決定などに用いられる。動画ボタン76は、動画撮影(記録)の開始、停止の指示に用いられる。AEロックボタン77は、撮影待機状態で押下することにより、露出状態を固定することができる。 The four-direction key 74 is a cross key that has push buttons that can be pushed in four directions, such as up, down, left, and right parts, respectively. An operation corresponding to the pressed part of the four-direction key 74 can be performed in the pressed direction. The SET button 75 is a push button, and is mainly used for determining selection items. The video button 76 is used to instruct the start and stop of video shooting (recording). The AE lock button 77 can be pressed in the shooting standby state to fix the exposure state.

拡大ボタン78は、撮影モードのライブビュー表示において拡大モードのON、OFFを行うための操作ボタンである。拡大モードをONとしてからメイン電子ダイヤル71を操作することにより、ライブビュー画像の拡大、縮小を行える。また、拡大ボタン78は、再生モードにおいては再生画像を拡大し、拡大率を増加させるための拡大ボタンとして機能する。 The enlargement button 78 is an operation button for turning on and off the enlargement mode in live view display in the shooting mode. By operating the main electronic dial 71 after turning on the enlargement mode, the live view image can be enlarged or reduced. Further, the enlarge button 78 functions as an enlarge button for enlarging the reproduced image and increasing the enlargement ratio in the reproduction mode.

再生ボタン79は、撮影モードと再生モードとを切り替える操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部28に表示させることができる。メニューボタン81は、押下することにより各種の設定可能なメニュー画面が表示部28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、4方向キー74やSETボタン75、またはマルチコントローラー(以下、MC)65を用いて直感的に各種設定を行うことができる。MC65は、上、右上、右、右下、下、左下、左、左上の8方向のいずれかの方向への押し倒しによる方向指示操作(以下、8方向操作)と、中央部分の押し込み操作(以下、中央押し操作)との異なる種別の操作を受け付け可能である。 The playback button 79 is an operation button for switching between shooting mode and playback mode. By pressing the playback button 79 during the shooting mode, the mode shifts to the playback mode, and the latest image among the images recorded on the recording medium 200 can be displayed on the display unit 28. When the menu button 81 is pressed, various setting menu screens are displayed on the display unit 28. The user can intuitively make various settings using the menu screen displayed on the display unit 28, the four-direction key 74, the SET button 75, or the multi-controller (hereinafter referred to as MC) 65. The MC65 can be operated by pushing down in any of the eight directions (up, upper right, right, lower right, lower, lower left, left, upper left) to indicate direction (hereinafter referred to as 8-direction operation), and by pressing the center part (hereinafter referred to as 8-direction operation). , center press operation).

通信端子10は、デジタルカメラ100が後述する図2のレンズユニット150(着脱可能)と通信を行うための通信端子である。接眼部16は、接眼ファインダー(覗き込み型のファインダー)の接眼部であり、ユーザーは、接眼部16を介して後述する図2の内部のEVF(Electric View Finder)29に表示された映像を視認することができる。接眼検知部57は、接眼部16にユーザーが接眼しているか否かを検知する接眼検知センサーである。 The communication terminal 10 is a communication terminal for the digital camera 100 to communicate with a lens unit 150 (removable) shown in FIG. 2, which will be described later. The eyepiece section 16 is an eyepiece section of an eyepiece finder (a peering type finder), and the user can see through the eyepiece section 16 the image displayed on an internal EVF (Electric View Finder) 29 in FIG. 2, which will be described later. Images can be viewed visually. The eyepiece detection section 57 is an eyepiece detection sensor that detects whether or not the user's eye is placed on the eyepiece section 16 .

蓋202は記録媒体を格納したスロットの蓋である。グリップ部90は、ユーザーがデジタルカメラ100を構えた際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン61、メイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73が配置されている。 A lid 202 is a lid for a slot that stores a recording medium. The grip section 90 is a holding section shaped so that it can be easily grasped with the right hand when the user holds the digital camera 100. The shutter button 61 and the main electronic dial 71 are arranged at positions that can be operated with the index finger of the right hand while holding the digital camera 100 by gripping the grip part 90 with the little finger, ring finger, and middle finger of the right hand. Further, in the same state, a sub-electronic dial 73 is arranged at a position that can be operated with the thumb of the right hand.

図2は、デジタルカメラ100の内部構成例を示すブロック図である。
図2において、レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103の位置を変位させることで焦点を合わせる。
FIG. 2 is a block diagram showing an example of the internal configuration of the digital camera 100.
In FIG. 2, a lens unit 150 is a lens unit equipped with an exchangeable photographic lens. The lens 103 is usually composed of a plurality of lenses, but in FIG. 2, only one lens is shown for simplicity. The communication terminal 6 is a communication terminal for the lens unit 150 to communicate with the digital camera 100 side, and the communication terminal 10 is a communication terminal for the digital camera 100 to communicate with the lens unit 150 side. Lens unit 150 communicates with system control section 50 via these communication terminals 6 and 10. The lens unit 150 controls the aperture 1 by the internal lens system control circuit 4 via the aperture drive circuit 2. Further, the lens unit 150 focuses by displacing the position of the lens 103 by the lens system control circuit 4 via the AF drive circuit 3.

シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(イメージセンサー)である。撮像部22は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサーを有していてもよい。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換する。 The shutter 101 is a focal plane shutter that can freely control the exposure time of the imaging unit 22 under the control of the system control unit 50. The imaging unit 22 is an imaging device (image sensor) made up of a CCD, CMOS device, or the like that converts an optical image into an electrical signal. The imaging unit 22 may include an imaging plane phase difference sensor that outputs defocus amount information to the system control unit 50. The A/D converter 23 converts the analog signal output from the imaging section 22 into a digital signal.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理、色変換処理、等)を行う。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、システム制御部50は、画像処理部24により得られた演算結果に基づいて露光制御や測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理、等が行われる。画像処理部24は更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。 The image processing section 24 performs predetermined processing (pixel interpolation, resizing processing such as reduction, color conversion processing, etc.) on the data from the A/D converter 23 or the data from the memory control section 15. Further, the image processing section 24 performs predetermined calculation processing using the captured image data, and the system control section 50 performs exposure control and distance measurement control based on the calculation results obtained by the image processing section 24. As a result, TTL (through-the-lens) type AF (autofocus) processing, AE (automatic exposure) processing, EF (flash pre-emission) processing, etc. are performed. The image processing unit 24 further performs predetermined arithmetic processing using the captured image data, and performs TTL AWB (auto white balance) processing based on the obtained arithmetic results.

A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介してメモリ32に書き込まれる。あるいは、A/D変換器23からの出力データは、画像処理部24を介さずにメモリ制御部15を介してメモリ32に書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28やEVF29に表示するための画像データを格納する。メモリ32は、所定枚数の静止画や所定時間の動画および音声を格納するのに十分な記憶容量を備えている。 Output data from the A/D converter 23 is written into the memory 32 via the image processing section 24 and the memory control section 15. Alternatively, the output data from the A/D converter 23 is written into the memory 32 via the memory control unit 15 without passing through the image processing unit 24. The memory 32 stores image data obtained by the imaging section 22 and converted into digital data by the A/D converter 23, and image data to be displayed on the display section 28 and EVF 29. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, a predetermined period of moving images, and audio.

また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28やEVF29に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器19を介して表示部28やEVF29により表示される。表示部28とEVF29のそれぞれは、LCDや有機EL等のディスプレイであり、D/A変換器19からのアナログ信号に応じた表示を行う。A/D変換器23によってA/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器19においてアナログ信号に変換し、表示部28またはEVF29に逐次転送して表示することで、ライブビュー表示(LV)が行える。以下、ライブビュー表示で表示される画像をライブビュー画像(LV画像)と称する。 Furthermore, the memory 32 also serves as an image display memory (video memory). The D/A converter 19 converts the image display data stored in the memory 32 into an analog signal and supplies it to the display section 28 and the EVF 29. In this way, the image data for display written in the memory 32 is displayed on the display section 28 and the EVF 29 via the D/A converter 19. Each of the display section 28 and the EVF 29 is a display such as an LCD or an organic EL, and performs display according to an analog signal from the D/A converter 19. The digital signal A/D converted by the A/D converter 23 and stored in the memory 32 is converted into an analog signal by the D/A converter 19, and is sequentially transferred to the display unit 28 or EVF 29 for display. View display (LV) can be performed. Hereinafter, the image displayed in the live view display will be referred to as a live view image (LV image).

システム制御部50は、少なくとも1つのプロセッサー及び/または少なくとも1つの回路からなる制御部であり、デジタルカメラ100全体を制御する。システム制御部50は、プロセッサーであり、回路でもある。システム制御部50は、不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。また、システム制御部50は、メモリ32、D/A変換器19、表示部28、EVF29等を制御することにより表示制御も行う。 The system control unit 50 is a control unit including at least one processor and/or at least one circuit, and controls the entire digital camera 100. The system control unit 50 is both a processor and a circuit. The system control unit 50 executes programs recorded in the nonvolatile memory 56 to realize each process of the present embodiment, which will be described later. The system control unit 50 also performs display control by controlling the memory 32, D/A converter 19, display unit 28, EVF 29, and the like.

システムメモリ52は例えばRAMであり、システム制御部50は、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等をシステムメモリ52に展開する。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等である。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記録される。ここでいうプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
The system memory 52 is, for example, a RAM, and the system control unit 50 expands constants and variables for operation of the system control unit 50, programs read from the nonvolatile memory 56, etc. into the system memory 52.
The nonvolatile memory 56 is an electrically erasable/recordable memory, such as an EEPROM. Constants, programs, etc. for operation of the system control unit 50 are recorded in the nonvolatile memory 56. The program here refers to a program for executing various flowcharts described later in this embodiment.
The system timer 53 is a timer that measures the time used for various controls and the time of a built-in clock.

通信部54は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(LV画像を含む)や、記録媒体200に記録された画像を送信可能であり、外部機器から画像データやその他の各種情報を受信することができる。 The communication unit 54 transmits and receives video signals and audio signals to and from external devices connected via wireless or wired cables. The communication unit 54 can also be connected to a wireless LAN (Local Area Network) and the Internet. Furthermore, the communication unit 54 can communicate with external devices using Bluetooth (registered trademark) or Bluetooth Low Energy. The communication unit 54 can transmit images captured by the imaging unit 22 (including LV images) and images recorded on the recording medium 200, and can receive image data and other various information from external devices.

姿勢検知部55は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である加速度センサーやジャイロセンサーを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。 The attitude detection unit 55 detects the attitude of the digital camera 100 with respect to the direction of gravity. Based on the posture detected by the posture detection section 55, it is determined whether the image taken by the imaging section 22 is an image taken with the digital camera 100 held horizontally or an image taken with the digital camera 100 held vertically. It is possible to determine the The system control unit 50 can add orientation information according to the orientation detected by the orientation detection unit 55 to the image file of the image captured by the imaging unit 22, or rotate and record the image. be. As the posture detection section 55, an acceleration sensor, a gyro sensor, or the like can be used. It is also possible to detect the movement of the digital camera 100 (panning, tilting, lifting, whether it is stationary, etc.) using an acceleration sensor or a gyro sensor that is the posture detection unit 55.

接眼検知部57は、接眼ファインダー(以後、単に「ファインダー」と記載する)の接眼部16に対する目(物体)の接近(接眼)および離反(離眼)を検知する(接近検知)、接眼検知センサーである。システム制御部50は、接眼検知部57で検知された状態に応じて、表示部28とEVF29の表示(表示状態)/非表示(非表示状態)を切り替える。より具体的には、少なくとも撮影待機状態で、かつ、表示先の切替設定が自動切替である場合において、非接眼中は表示先を表示部28として表示をオンとし、EVF29は非表示とする。また、接眼中は表示先をEVF29として表示をオンとし、表示部28は非表示とする。接眼検知部57としては、例えば赤外線近接センサーを用いることができ、EVF29を内蔵するファインダーの接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部57の投光部(図示せず)から投光した赤外線が物体で反射して赤外線近接センサーの受光部(図示せず)で受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部57は、接眼部16への物体の近接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサーは一例であって、接眼検知部57には、接眼とみなせる状態を検知できるものであれば他のセンサーを採用してもよい。 The eyepiece detection unit 57 detects (approach detection) when the eye (object) approaches (eyepiece) and moves away from (eye separation) the eyepiece 16 of the eyepiece finder (hereinafter simply referred to as "finder"). It's a sensor. The system control unit 50 switches the display unit 28 and the EVF 29 between display (display state) and non-display (non-display state) according to the state detected by the eye proximity detection unit 57. More specifically, at least in the shooting standby state and when the display destination switching setting is automatic switching, the display destination is turned on and the EVF 29 is not displayed while the eye is not close. Further, while the eye is being viewed, the EVF 29 is set as the display destination and the display is turned on, and the display section 28 is not displayed. As the eyepiece detecting section 57, for example, an infrared proximity sensor can be used, and it is possible to detect the approach of any object to the eyepiece section 16 of the finder incorporating the EVF 29. When an object approaches, infrared light emitted from a light projecting section (not shown) of the eye proximity detection section 57 is reflected by the object and is received by a light receiving section (not shown) of an infrared proximity sensor. Depending on the amount of infrared rays received, it is also possible to determine how close the object is from the eyepiece 16 (eyepiece distance). In this way, the eyepiece detection section 57 performs eyepiece detection to detect the proximity distance of an object to the eyepiece section 16. When an object is detected that approaches the eyepiece unit 16 within a predetermined distance from the non-eye-closed state (non-approaching state), it is determined that the object is close to the eyepiece 16 . When the object whose approach was detected moves away from the eye-closed state (approach state) by a predetermined distance or more, it is determined that the eye has left the eye. The threshold value for detecting close eye contact and the threshold value for detecting eye separation may be different by providing hysteresis, for example. Furthermore, after detecting eye contact, it is assumed that the eye remains in close contact until eye separation is detected. After eye separation is detected, it is assumed that the eye is not in eye contact until eye contact is detected. Note that the infrared proximity sensor is just one example, and other sensors may be used as the eye proximity detection section 57 as long as they can detect a state that can be considered as eye proximity.

ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。
電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出などを行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
Various setting values of the camera, including the shutter speed and aperture, are displayed on the outside-finder display section 43 via the outside-finder display section drive circuit 44.
The power supply control unit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit for switching the blocks to be energized, and the like, and detects whether or not a battery is attached, the type of battery, and the remaining battery level. Further, the power supply control section 80 controls the DC-DC converter based on the detection result and the instruction from the system control section 50, and supplies the necessary voltage to each section including the recording medium 200 for a necessary period. The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like.

記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。 The recording medium I/F 18 is an interface with a recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card for recording photographed images, and is composed of a semiconductor memory, a magnetic disk, or the like.

操作部70は、ユーザーからの操作(ユーザー操作)を受け付ける入力部であり、システム制御部50に各種の動作指示を入力するために使用される。図2に示すように、操作部70は、シャッターボタン61、モード切替スイッチ60、電源スイッチ72、タッチパネル70a、その他の操作部材70b、MC65等を含む。その他の操作部材70bには、メイン電子ダイヤル71、サブ電子ダイヤル73、4方向キー74、SETボタン75、動画ボタン76、AEロックボタン77、拡大ボタン78、再生ボタン79、メニューボタン81等が含まれる。 The operation unit 70 is an input unit that receives operations from the user (user operations), and is used to input various operation instructions to the system control unit 50. As shown in FIG. 2, the operation unit 70 includes a shutter button 61, a mode changeover switch 60, a power switch 72, a touch panel 70a, other operation members 70b, an MC 65, and the like. Other operating members 70b include a main electronic dial 71, a sub electronic dial 73, a four-way key 74, a SET button 75, a video button 76, an AE lock button 77, an enlarge button 78, a playback button 79, a menu button 81, etc. It can be done.

シャッターボタン61は、第1シャッタースイッチ62と第2シャッタースイッチ64を備える。第1シャッタースイッチ62は、シャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮影準備動作を開始する。 The shutter button 61 includes a first shutter switch 62 and a second shutter switch 64. The first shutter switch 62 is turned on when the shutter button 61 is pressed halfway (instruction for photographing preparation) during operation of the shutter button 61, and generates a first shutter switch signal SW1. The system control unit 50 starts photographing preparation operations such as AF (autofocus) processing, AE (auto exposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing in response to the first shutter switch signal SW1. do.

第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから、撮像された画像を画像ファイルとして記録媒体200に書き込むまでの、一連の撮影処理の動作を開始する。 The second shutter switch 64 is turned ON when the operation of the shutter button 61 is completed, that is, when the shutter button 61 is fully pressed (photographing instruction), and generates a second shutter switch signal SW2. In response to the second shutter switch signal SW2, the system control unit 50 starts a series of photographic processing operations from reading out the signal from the imaging unit 22 to writing the photographed image into the recording medium 200 as an image file.

モード切替スイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画撮影モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60より、ユーザーは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードのいずれかに、他の操作部材を用いて選択的に切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。 The mode changeover switch 60 switches the operation mode of the system control unit 50 to one of a still image shooting mode, a moving image shooting mode, a playback mode, and the like. Modes included in the still image shooting mode include an automatic shooting mode, an automatic scene discrimination mode, a manual mode, an aperture priority mode (Av mode), a shutter speed priority mode (Tv mode), and a program AE mode (P mode). Additionally, there are various scene modes, custom modes, etc., which are shooting settings for each shooting scene. The mode selector switch 60 allows the user to directly switch to any of these modes. Alternatively, after once switching to the shooting mode list screen using the mode changeover switch 60, the user may selectively switch to any of the displayed plurality of modes using another operating member. Similarly, the video shooting mode may include a plurality of modes.

タッチパネル70aは、表示部28の表示面(タッチパネル70aの操作面)への各種タッチ操作を検出するタッチセンサーである。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは、光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示面上の表示座標とを対応付ける。これにより、あたかもユーザーが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を提供できる。 The touch panel 70a is a touch sensor that detects various touch operations on the display surface of the display unit 28 (the operation surface of the touch panel 70a). The touch panel 70a and the display section 28 can be configured integrally. For example, the touch panel 70a is configured such that its light transmittance does not interfere with the display on the display section 28, and is attached to the upper layer of the display surface of the display section 28. Then, the input coordinates on the touch panel 70a are associated with the display coordinates on the display surface of the display unit 28. Thereby, it is possible to provide a GUI (graphical user interface) as if the user could directly operate the screen displayed on the display unit 28.

システム制御部50は、タッチパネル70aへの以下の操作、あるいは状態を検出できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態(以下、タッチオン(Touch-On)と称する)。
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル70aへタッチしていた指やペンがタッチパネル70aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
The system control unit 50 can detect the following operations or states on the touch panel 70a.
- A finger or a pen that has not touched the touch panel 70a newly touches the touch panel 70a, that is, the start of a touch (hereinafter referred to as Touch-Down).
- A state in which the touch panel 70a is touched with a finger or a pen (hereinafter referred to as Touch-On).
- The finger or pen is moving while touching the touch panel 70a (hereinafter referred to as Touch-Move).
- The finger or pen that was touching the touch panel 70a is separated (released) from the touch panel 70a, that is, the touch is finished (hereinafter referred to as Touch-Up).
- A state in which nothing is touched on the touch panel 70a (hereinafter referred to as Touch-Off).

タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When a touchdown is detected, a touch-on is also detected at the same time. After touchdown, touch-ons typically continue to be detected unless a touch-up is detected. When a touch move is detected, a touch-on is also detected at the same time. Even if a touch-on is detected, if the touch position does not move, a touch move will not be detected. After all touching fingers and pens are detected to have touched up, touch-off occurs.

これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。そして、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものであってもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。 These operations/states and the coordinates of the position where the finger or pen is touching on the touch panel 70a are notified to the system control unit 50 through the internal bus. Then, the system control unit 50 determines what kind of operation (touch operation) has been performed on the touch panel 70a based on the notified information. Regarding touch moves, the direction of movement of a finger or pen on the touch panel 70a can also be determined for each vertical component and horizontal component on the touch panel 70a based on changes in position coordinates. If it is detected that a touch move has been made over a predetermined distance, it is determined that a slide operation has been performed. An operation in which a finger is touched on the touch panel 70a, quickly moved by a certain distance, and then released is called a flick. In other words, a flick is an operation in which a finger is quickly traced on the touch panel 70a as if flicking. If a touch move over a predetermined distance and at a predetermined speed or higher is detected, and a touch-up is detected as is, it can be determined that a flick has been performed (it can be determined that a flick has occurred following a slide operation). Further, a touch operation in which a plurality of points (for example, two points) are touched together (multi-touch) and the touch positions are brought closer to each other is referred to as a pinch-in, and a touch operation in which the touch positions are moved away from each other is referred to as a pinch-out. Pinch out and pinch in are collectively referred to as a pinch operation (or simply pinch). The touch panel 70a may be any one of various types of touch panels such as a resistive film type, a capacitive type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, a light sensor type, etc. good. There are two methods: one detects that a touch has been made when the touch panel is touched, and the other detects that there is a touch when a finger or pen approaches the touch panel. Either method may be used.

視線検出ブロック160は、接眼部16に接眼したユーザーがEVF29を見ているか、見ている場合、どの位置を見ているかという視線を検知するためのブロックである。視線検出ブロック160には、ダイクロイックミラー162、結像レンズ163、視線検知センサー164、赤外発光ダイオード166、視線検出回路165が含まれる。 The line-of-sight detection block 160 is a block for detecting the line-of-sight of whether the user who has put his/her eyes on the eyepiece unit 16 is looking at the EVF 29, and if so, which position the user is looking at. The line of sight detection block 160 includes a dichroic mirror 162, an imaging lens 163, a line of sight detection sensor 164, an infrared light emitting diode 166, and a line of sight detection circuit 165.

赤外発光ダイオード166は発光素子であり、接眼部16に接眼したユーザーの眼球(目)161に赤外光を照射する。赤外発光ダイオード166から発した赤外光は眼球(目)161で反射し、その赤外反射光はダイクロイックミラー162に到達する。ダイクロイックミラー162は赤外光だけを反射して可視光を透過させる。光路を変更された赤外反射光は、結像レンズ163を介して視線検知センサー164の撮像面に結像する。結像レンズ163は視線検知光学系を構成する光学部材である。視線検知センサー164は、CCD型イメージセンサ等の撮像デバイスから成る。視線検知センサー164は、入射された赤外反射光を電気信号に光電変換して視線検出回路165へ出力する。視線検出回路165は少なくとも1つのプロセッサーを含み、視線検知センサー164の出力信号に基づき、ユーザーの眼球(目)161の画像または動きからユーザーの視線位置を検出し、検出情報をシステム制御部50に出力する。 The infrared light emitting diode 166 is a light emitting element, and irradiates the eyeball (eye) 161 of the user who looks into the eyepiece section 16 with infrared light. Infrared light emitted from the infrared light emitting diode 166 is reflected by the eyeball (eye) 161, and the infrared reflected light reaches the dichroic mirror 162. Dichroic mirror 162 reflects only infrared light and transmits visible light. The infrared reflected light whose optical path has been changed forms an image on the imaging surface of the line-of-sight detection sensor 164 via the imaging lens 163. The imaging lens 163 is an optical member that constitutes a line of sight detection optical system. The line of sight detection sensor 164 is composed of an imaging device such as a CCD type image sensor. The line of sight detection sensor 164 photoelectrically converts the incident infrared reflected light into an electrical signal and outputs it to the line of sight detection circuit 165 . The line of sight detection circuit 165 includes at least one processor, detects the user's line of sight position from the image or movement of the user's eyeball (eye) 161 based on the output signal of the line of sight detection sensor 164, and sends the detected information to the system control unit 50. Output.

本実施形態では、視線検出ブロック160を用いて、角膜反射法と呼ばれる方式で視線を検出する。角膜反射法とは、赤外発光ダイオード166から発した赤外光が眼球(目)161の特に角膜で反射した反射光と、眼球(目)161の瞳孔との位置関係から、視線の向き・位置を検出する方式である。この他にも黒目と白目での光の反射率が異なることを利用する強膜反射法と呼ばれる方式など、様々な視線の向き・位置を検出する方式がある。なお、視線の向き・位置を検出できる方式であれば、上記以外の視線検出手段の方式を用いてもよい。なお、本実施形態では接眼検知部57の投光部および受光部は前述の赤外発光ダイオード166および視線検知センサー164とは別体のデバイスであるものとして説明した。しかしこれに限るものではなく、接眼検知部57の投光部を赤外発光ダイオード166で兼ね、受光部を視線検知センサー164で兼ねてもよい。 In this embodiment, the line of sight detection block 160 is used to detect the line of sight using a method called corneal reflection method. The corneal reflection method is based on the positional relationship between the infrared light emitted from the infrared light emitting diode 166 reflected by the cornea of the eyeball (eye) 161 and the pupil of the eyeball (eye) 161 to determine the direction of the line of sight. This method detects the position. In addition, there are various methods for detecting the direction and position of the line of sight, such as the scleral reflection method, which utilizes the difference in light reflectivity between the black eye and the white of the eye. It should be noted that any other method of line-of-sight detecting means than the above may be used as long as it is capable of detecting the direction and position of the line-of-sight. In this embodiment, the light emitting section and the light receiving section of the eye proximity detection section 57 have been described as being separate devices from the above-mentioned infrared light emitting diode 166 and line of sight detection sensor 164. However, the invention is not limited to this, and the infrared light emitting diode 166 may also serve as the light emitting part of the eye proximity detection part 57, and the line of sight detection sensor 164 may serve as the light receiving part.

システム制御部50は、視線検出ブロック160からのユーザーの視線に係る情報に基づいて以下の操作、あるいは状態を検知できる。
・接眼部16に接眼したユーザーの視線が新たに入力(検出)されたこと。すなわち、視線入力の開始。
・接眼部16に接眼したユーザーの視線入力がある状態であること。
・接眼部16に接眼したユーザーが注視している状態であること。
・接眼部16に接眼したユーザーが入力していた視線を外したこと。すなわち、視線入力の終了。
・接眼部16に接眼したユーザーが何も視線入力していない状態。
The system control unit 50 can detect the following operations or states based on information related to the user's line of sight from the line of sight detection block 160.
- The line of sight of the user who has looked at the eyepiece unit 16 has been newly input (detected). In other words, the start of gaze input.
- There is a state in which there is a line-of-sight input from a user who has placed his/her eye on the eyepiece unit 16.
- The user who has placed his/her eye on the eyepiece section 16 is in a state of gazing.
- The user who looked at the eyepiece unit 16 removed the line of sight that was being input. In other words, the end of gaze input.
- A state in which the user who has looked at the eyepiece unit 16 is not inputting any line of sight.

ここで述べた注視とは、ある程度の時間にわたってユーザーがほぼ同じ位置を見続けたことを意味している。注視しているか否かの判定としては例えば、ユーザーの視線位置が所定時間(例えば0.5秒程度)にわたって所定の移動量を超えなかった場合に注視されたと判定する。なお、所定時間はユーザーによって設定できる時間でもよいし、あらかじめ固定して決められた時間でもよいし、直前の視線位置と現在の視線位置との距離関係で変化するようにしてもよい。例えば、システム制御部50は、視線検出回路165から受け取った検出情報に基づいて、ユーザーの視線がほぼ同じ位置で検出されている状態(視線移動無し状態)の継続期間が所定時間(閾値期間)を越えた場合に、ユーザーが注視していると判定する。また、システム制御部50は、例えば、最新の検出タイミングを含む短期間(≦前述の閾値期間)における視線の検出位置の平均位置が所定範囲内に収まり、かつ、ばらつき(分散)が所定値よりも少ない場合に、視線移動無し状態であると判定する。 The gaze mentioned here means that the user continued to look at approximately the same position for a certain amount of time. To determine whether or not the user is gazing, for example, it is determined that the user is gazing when the position of the user's line of sight does not exceed a predetermined amount of movement for a predetermined period of time (for example, about 0.5 seconds). Note that the predetermined time may be a time that can be set by the user, may be a fixed time that is determined in advance, or may be changed depending on the distance relationship between the immediately previous line-of-sight position and the current line-of-sight position. For example, the system control unit 50 determines, based on the detection information received from the line-of-sight detection circuit 165, that the duration of a state in which the user's line of sight is detected at approximately the same position (state of no line-of-sight movement) is a predetermined period (threshold period). If the value exceeds , it is determined that the user is gazing. In addition, the system control unit 50 also determines that, for example, the average position of the detected position of the line of sight in a short period of time (≦the threshold period described above) including the latest detection timing is within a predetermined range, and the dispersion (dispersion) is less than a predetermined value. If the number of eyes is small, it is determined that the line of sight is not moving.

図3は、本実施形態によるデジタルカメラ100の撮影モードでの処理手順の一例を示すフローチャートである。なお、図3に示す各処理は、システム制御部50が不揮発性メモリ56または記録媒体200に記録されたプログラムをシステムメモリ52に展開して、システム制御部50が実行することによって実現される。
電源スイッチ72が操作され、電源がオンに切り替わると、システム制御部50は本撮影モード処理を開始する。
FIG. 3 is a flowchart showing an example of a processing procedure in the shooting mode of the digital camera 100 according to the present embodiment. Note that each process shown in FIG. 3 is realized by the system control unit 50 loading a program recorded in the nonvolatile memory 56 or the recording medium 200 into the system memory 52, and executing the program by the system control unit 50.
When the power switch 72 is operated and the power is turned on, the system control unit 50 starts the main photography mode processing.

S301において、システム制御部50は、フラグや制御変数等を初期化する。
S302において、システム制御部50は、表示部28において、ライブビュー表示させる。
S303において、システム制御部50は、表示部28において、カメラ設定値に基づいて、カメラ設定値を示す情報アイコンをライブビューに重畳して表示させる。図4(a)は、撮影モードの画像全体のライブビューの画面例を示す図である。図4(a)に示すように、ライブビュー401に重畳して、被写体402と一点AF枠403とが表示されている。
In S301, the system control unit 50 initializes flags, control variables, and the like.
In S302, the system control unit 50 causes the display unit 28 to display a live view.
In S303, the system control unit 50 causes the display unit 28 to display an information icon indicating the camera setting value superimposed on the live view based on the camera setting value. FIG. 4A is a diagram showing an example of a live view screen of the entire image in the shooting mode. As shown in FIG. 4A, a subject 402 and a single-point AF frame 403 are displayed superimposed on a live view 401.

S304において、システム制御部50は、操作部70のメニューボタン81などの各種設定値の変更に必要な操作がなされたか否かを判断する。操作がなされた場合はS305へ進み、そうでなければS306へ進む。 In S304, the system control unit 50 determines whether an operation necessary to change various setting values, such as the menu button 81 of the operation unit 70, has been performed. If the operation has been performed, the process advances to S305; otherwise, the process advances to S306.

S305において、システム制御部50は、S305での操作に基づいて、各種設定値を変更する。例えば、MC65などの各種操作部材の有効/無効を切り替える設定、それらの操作部材への機能割り当て設定、それらの操作部材の敏感度を変更する設定、視線検出ブロック160の有効/無効を切り替える設定が挙げられる。また、それ以外には、後述のAF方式を切り替える設定、AFの動作をワンショット/サーボ/マニュアルフォーカスのいずれかに切り替える設定などが挙げられる。本実施形態においては、視線検出ブロック160を有効とする設定、つまり、接眼を検知した場合に視線入力機能を有効にし、接眼を検知しなかった場合に視線入力機能を無効にする設定となっていることを前提として説明する。 In S305, the system control unit 50 changes various setting values based on the operation in S305. For example, settings to enable/disable various operating members such as the MC65, settings to assign functions to those operating members, settings to change the sensitivity of those operating members, settings to enable/disable the line of sight detection block 160, etc. Can be mentioned. Other examples include settings to switch the AF method, which will be described later, and settings to switch the AF operation to one shot/servo/manual focus. In this embodiment, the line-of-sight detection block 160 is set to be enabled, that is, the line-of-sight input function is enabled when the eye is detected, and the line-of-sight input function is disabled when the eye is not detected. This explanation assumes that there is.

操作部材の敏感度は、例えば、敏感、標準、鈍感の3段階で設定可能である。MC65の敏感度の場合は、主に8方向操作に対する敏感度設定を行うことになる。なお、MC65の敏感度は、等倍でライブビュー表示されている場合と、拡大表示されている場合とでそれぞれ異なる設定とすることもできる。 The sensitivity of the operating member can be set, for example, in three stages: sensitive, standard, and insensitive. In the case of the sensitivity of MC65, sensitivity settings are mainly made for eight-direction operation. Note that the sensitivity of the MC 65 can be set differently depending on whether live view is displayed at the same size and when the image is displayed in enlarged size.

また、AF方式とは、AF枠の領域設定や位置指定方法を切り替える設定値である。AF枠の領域の大きさを設定する際には、ある程度広い範囲のAF枠(ゾーンAF)とすることも可能である。本実施形態では、さらに一点AFと全域AFとを切り替え可能であるとする。一点AFは、ユーザーが指定した位置に固定してAF枠を設定するモードである。また、全域AFは、ライブビュー全体に含まれる被写体をシステム制御部50が検出し、その被写体に対してAF枠を設定するモードである。 Further, the AF method is a setting value for switching the area setting and position specification method of the AF frame. When setting the size of the AF frame area, it is also possible to set the AF frame to have a somewhat wide range (zone AF). In this embodiment, it is further assumed that it is possible to switch between single point AF and area AF. Single-point AF is a mode in which the AF frame is fixed at a position specified by the user. Further, the whole area AF is a mode in which the system control unit 50 detects a subject included in the entire live view and sets an AF frame for the subject.

MC65の中央押し操作へ割り当て可能な機能には、AF枠を画面中央に戻す機能、ユーザーが予め登録した特定の位置(ホームポジション)へ移動させる機能が挙げられる。それ以外の割り当て可能な機能としては、ライブビューの拡大倍率を変更する機能、そして前記視線の検出結果位置にAF枠を移動させる機能、などが挙げられる。本実施形態においては、MC65の中央押し操作で、接眼されていない場合など視線入力機能が無効なときには画面中央に戻す機能を割り当て、視線入力機能が有効な場合には視線の検出結果位置へ移動させる機能を割り当てるものとして説明する。 Functions that can be assigned to the center press operation of the MC 65 include a function to return the AF frame to the center of the screen and a function to move it to a specific position (home position) registered in advance by the user. Other assignable functions include a function to change the live view magnification, a function to move the AF frame to the position of the detection result of the line of sight, and the like. In this embodiment, by pressing the center of the MC65, a function is assigned to return to the center of the screen when the gaze input function is disabled, such as when the eye is not in close contact, and to move to the gaze detection result position when the gaze input function is enabled. The explanation will be given assuming that the function is assigned.

S306において、システム制御部50は、拡大モードがONの状態で操作部70のメイン電子ダイヤル71を用いてライブビュー倍率の変更操作がなされたか否かを判断する。操作がなされた場合は、S307へ進み、そうでなければ、S308へ進む。 In S306, the system control unit 50 determines whether or not the live view magnification is changed using the main electronic dial 71 of the operation unit 70 while the enlargement mode is ON. If the operation has been performed, the process advances to S307; otherwise, the process advances to S308.

S307において、システム制御部50は、S306で検出された変更操作に基づいて、表示部28において、ライブビュー表示の倍率を変更して表示させる。ここでユーザーは、撮影シーンに応じて適宜ライブビューの倍率を、等倍と拡大倍率との間で切り替えることができる。図4(d)は、撮影モードの拡大ライブビューの画面例を示す図である。図4(d)に示すように、拡大ライブビュー411に重畳して、拡大位置を示す拡大インジケータ412と、画面の中心位置を示す中心AF枠413とが表示される。 In S307, the system control unit 50 changes the magnification of the live view display on the display unit 28 based on the changing operation detected in S306. Here, the user can appropriately switch the live view magnification between the same magnification and the enlarged magnification depending on the shooting scene. FIG. 4(d) is a diagram showing an example of a screen of enlarged live view in shooting mode. As shown in FIG. 4D, an enlargement indicator 412 indicating the enlargement position and a center AF frame 413 indicating the center position of the screen are displayed superimposed on the enlarged live view 411.

S308において、システム制御部50は、MC65に対し、中央押し操作がなされたか否かを判断する。操作がなされた場合は、S309へ進み、そうでなければ、S323へ進む。
S309において、システム制御部50は、ライブビュー表示が拡大中か否かを判断する。拡大中の場合はS313へ進み、そうでなければS310へ進む。
In S308, the system control unit 50 determines whether a center push operation has been performed on the MC 65. If the operation has been performed, the process advances to S309; otherwise, the process advances to S323.
In S309, the system control unit 50 determines whether the live view display is being expanded. If the image is being enlarged, the process advances to S313; otherwise, the process advances to S310.

S310において、システム制御部50は、接眼検知部57により接眼が検知されており、かつ、視線入力機能が有効か否かを判断する。接眼が検知されており、かつ、視線入力機能が有効の場合はS312へ進み、そうでない場合(視線入力機能が無効に設定されている場合、あるいは、視線入力機能が有効に設定されているが接眼を検知していない場合)はS311へ進む。視線入力機能を有効とするか無効とするかは、予め設定メニューなどから設定しておくことができるものとする。
S311において、システム制御部50は、表示部28またはEVF29においてAF枠を中央に移動させて表示させる。図4(b)は、撮影モードのライブビューの画面例を示す図であり、基本的には図4(a)に示す例と同じであるが、一点AF枠403が画面中央へ移動した状態である。なお、中央ではなく予め登録された位置(ホームポジション)へ移動させるようにしてもよい。
In S310, the system control unit 50 determines whether or not the close eye detection unit 57 detects close eye contact and whether or not the line of sight input function is enabled. If eye contact is detected and the line-of-sight input function is enabled, the process advances to S312; otherwise (if the line-of-sight input function is set to be disabled, or if the line-of-sight input function is set to be enabled), the process proceeds to S312. If no eye contact is detected), the process advances to S311. Whether the line of sight input function is enabled or disabled can be set in advance from a settings menu or the like.
In S311, the system control unit 50 moves the AF frame to the center on the display unit 28 or EVF 29 and displays it. FIG. 4(b) is a diagram showing an example of the live view screen in shooting mode, which is basically the same as the example shown in FIG. 4(a), but with the single-point AF frame 403 moved to the center of the screen. It is. Note that it may be moved to a pre-registered position (home position) instead of the center.

S312において、システム制御部50は、EVF29において、AF枠を視線検出位置に移動させて表示させる。図4(g)は、撮影モードの視線入力が有効な状態でのライブビューの画面例を示す図である。図4(g)に示すように、被写体422a~422cを含むライブビュー421が表示されており、それに重畳して、AF枠423と、視線検出位置を示す視線ポインタ424とがEVF29に表示されている。この状態でS308においてMC65の中央押し操作が検出されると、図4(h)に示すように、視線ポインタ424があった位置にAF枠423が移動して表示される。 In S312, the system control unit 50 moves the AF frame to the line-of-sight detection position in the EVF 29 and displays it. FIG. 4(g) is a diagram illustrating an example of a live view screen in a state where line-of-sight input in shooting mode is enabled. As shown in FIG. 4(g), a live view 421 including subjects 422a to 422c is displayed, and superimposed thereon, an AF frame 423 and a line-of-sight pointer 424 indicating the line-of-sight detection position are displayed on the EVF 29. There is. In this state, when a center press operation of the MC 65 is detected in S308, the AF frame 423 is moved and displayed at the position where the line-of-sight pointer 424 was, as shown in FIG. 4(h).

一方、S313において、システム制御部50は、S310と同様に、接眼検知部57により接眼が検知されており、かつ、視線入力機能が有効か否かを判断する。接眼が検知されており、かつ、視線入力機能が有効の場合はS315へ進み、そうでなければS314へ進む。
S314において、システム制御部50は、表示部28またはEVF29において、拡大位置を中央に移動させて表示させる。なお、中央ではなく予め登録された位置(ホームポジション)へ拡大位置を移動させるようにしてもよい。また、このとき拡大位置に連動してAF枠を移動させてもよく、連動するか否かを、ユーザーが切り替える設定を設けてもよい。図4(e)には、図4(d)に示す表示状態から、拡大位置が中央へ移動された状態を示している。
On the other hand, in S313, similarly to S310, the system control unit 50 determines whether or not the eye contact is detected by the eye contact detection unit 57 and the line of sight input function is enabled. If eye contact is detected and the line of sight input function is enabled, the process advances to S315; otherwise, the process advances to S314.
In S314, the system control unit 50 moves the enlarged position to the center on the display unit 28 or EVF 29 and displays the image. Note that the enlarged position may be moved to a pre-registered position (home position) instead of the center. Further, at this time, the AF frame may be moved in conjunction with the enlarged position, or a setting may be provided for the user to switch whether or not to move in conjunction with the enlarged position. FIG. 4E shows a state in which the enlarged position has been moved to the center from the display state shown in FIG. 4D.

S315において、システム制御部50は、EVF29において、拡大位置を視線検出位置に基づいた位置に移動させる。例えば、視線検出位置を中心にライブビュー表示を拡大するように変更する。このとき、同様に、拡大位置に連動するようにAF枠も移動させてもよい。 In S315, the system control unit 50 moves the enlarged position of the EVF 29 to a position based on the line-of-sight detection position. For example, the live view display is changed to be enlarged around the line-of-sight detection position. At this time, the AF frame may also be moved in conjunction with the enlarged position.

S316において、システム制御部50は、MC65に対し、中央押し操作がなされた状態で、8方向操作がなされたか否かを判断する。操作がなされた場合は、S317へ進み、そうでなければ、S323へ進む。
S317において、システム制御部50は、ライブビュー表示が拡大中か否かを判断する。拡大中の場合はS318へ進み、そうでなければS320へ進む。
In S316, the system control unit 50 determines whether an eight-direction operation has been performed on the MC 65 while the center push operation has been performed. If the operation has been performed, the process advances to S317; otherwise, the process advances to S323.
In S317, the system control unit 50 determines whether the live view display is being expanded. If the image is being enlarged, the process advances to S318; otherwise, the process advances to S320.

S318において、システム制御部50は、S310と同様に、接眼検知部57により接眼が検知されており、かつ、視線入力機能が有効か否かを判断する。接眼が検知されており、かつ、視線入力機能が有効の場合はS319へ進み、そうでなければS321へ進んでMC65の8方向操作に応じた機能実行はしない。つまり、視線入力機能が無効である場合は、MC65の中央押し操作の継続中は8方向操作が無効になる。なお、S318、S319の処理を無くし、S317でNoと判定した場合はS321に進むようにしてもよい。すなわち、視線入力機能の有効無効にかかわらず、MC65の中央押し操作の継続中は8方向操作を無効とするようにしても良い。
S319において、システム制御部50は、EVF29において、S316で検出された8方向操作の方向に基づいてAF枠を移動させて表示させる。図4(i)には、図4(h)に示すAF枠423の位置から、S316で検出された8方向操作の方向に基づいて、AF枠423を被写体422cの選択位置へ移動させている例を示している。
In S318, similarly to S310, the system control unit 50 determines whether or not the eye contact is detected by the eye contact detection unit 57 and the line of sight input function is enabled. If eye contact has been detected and the line of sight input function is valid, the process advances to S319; otherwise, the process advances to S321, and the function corresponding to the 8-direction operation of the MC 65 is not executed. In other words, when the line-of-sight input function is disabled, the eight-direction operation is disabled while the center pressing operation of the MC 65 continues. Note that the processing in S318 and S319 may be omitted and the process may proceed to S321 if the determination is No in S317. That is, regardless of whether the line-of-sight input function is enabled or disabled, the eight-direction operation may be disabled while the center pressing operation of the MC 65 continues.
In S319, the system control unit 50 moves and displays the AF frame in the EVF 29 based on the direction of the eight-direction operation detected in S316. In FIG. 4(i), the AF frame 423 is moved from the position of the AF frame 423 shown in FIG. 4(h) to the selected position of the subject 422c based on the direction of the eight-direction operation detected in S316. An example is shown.

S320において、システム制御部50は、S316の操作に基づいて、表示部28またはEVF29において、拡大位置を移動させて表示させる。図4(f)は、図4(e)に示した状態から、S316で検出された8方向操作の方向に基づいて、拡大位置を右方向へずらしている例を示している。なお、図4(f)に示した例では、AF枠は中央の位置のまま拡大位置が右方向へずれているが、拡大位置に連動するようにAF枠も右方向へずれるようにしてもよい。 In S320, the system control unit 50 moves and displays the enlarged position on the display unit 28 or EVF 29 based on the operation in S316. FIG. 4(f) shows an example in which the enlarged position is shifted to the right from the state shown in FIG. 4(e) based on the direction of the eight-direction operation detected in S316. Note that in the example shown in Figure 4(f), the AF frame remains at the center position and the enlarged position shifts to the right, but even if the AF frame is also shifted to the right in conjunction with the enlarged position. good.

S321において、システム制御部50は、MC65に対し、8方向操作が解除されたか否かを判断する。解除された場合はS322へ進み、そうでなければS317へ進む。
S322において、システム制御部50は、MC65に対し、中央押し操作が解除されたか否かを判断する。解除された場合はS323へ進み、そうでなければS316へ進む。
In S321, the system control unit 50 determines whether the eight-direction operation of the MC 65 has been released. If it has been released, the process advances to S322; otherwise, the process advances to S317.
In S322, the system control unit 50 determines whether the center push operation for the MC 65 has been released. If it has been released, the process advances to S323; otherwise, the process advances to S316.

S323において、システム制御部50は、MC65に対し、中央押し操作がなされていない状態で、8方向操作がなされたか否かを判断する。操作がなされた場合は、S324へ進み、そうでなければ、S328へ進む。
S324において、システム制御部50は、ライブビュー表示が拡大中か否かを判断する。拡大中の場合はS326へ進み、そうでなければS325へ進む。
In S323, the system control unit 50 determines whether an eight-direction operation has been performed on the MC 65 without a center push operation being performed. If the operation has been performed, the process advances to S324; otherwise, the process advances to S328.
In S324, the system control unit 50 determines whether the live view display is being expanded. If the image is being enlarged, the process advances to S326; otherwise, the process advances to S325.

S325において、システム制御部50は、表示部28またはEVF29において、S323で検出された8方向操作の方向に基づいてAF枠を移動させて表示させる。図4(c)は、撮影モードのライブビューの画面例を示す図であり、図4(a)または図4(b)に示した状態から、一点AF枠403がS323検出された8方向操作の方向に基づいて移動した状態であることを示している。 In S325, the system control unit 50 moves and displays the AF frame on the display unit 28 or EVF 29 based on the direction of the eight-direction operation detected in S323. FIG. 4(c) is a diagram showing an example of a live view screen in the shooting mode. From the state shown in FIG. 4(a) or FIG. This indicates that the object has moved based on the direction of .

S326において、システム制御部50は、表示部28またはEVF29において、S323で検出された8方向操作の方向に基づいて拡大位置を移動させて表示させる。
S327において、システム制御部50は、MC65に対し、8方向操作が解除されたか否かを判断する。解除された場合はS328へ進み、そうでなければS324へ進む。
In S326, the system control unit 50 moves and displays the enlarged position on the display unit 28 or EVF 29 based on the direction of the eight-direction operation detected in S323.
In S327, the system control unit 50 determines whether the eight-direction operation of the MC 65 has been released. If it has been released, the process advances to S328; otherwise, the process advances to S324.

S328において、システム制御部50は、操作部70に対し、その他の操作がなされたか否かを判断する。なされた場合はS329へ進み、そうでなければS330へ進む。その他の操作とは、撮影操作や、シャッタースピードや絞り値などの撮影パラメータの変更操作などである。
S329において、システム制御部50は、その他の処理を行う。その他の処理とは、撮影や、シャッタースピードや絞り値などの撮影パラメータの変更などである。
In S328, the system control unit 50 determines whether any other operation has been performed on the operation unit 70. If so, the process advances to S329; otherwise, the process advances to S330. Other operations include shooting operations and changing shooting parameters such as shutter speed and aperture value.
In S329, the system control unit 50 performs other processing. Other processing includes photographing and changing photographing parameters such as shutter speed and aperture value.

S330において、システム制御部50は、操作部70に対し、終了操作がなされたか否かを判断する。ここで終了操作とは、電源スイッチ72が押下される操作や、再生ボタン79が押下される操作などである。終了操作がなされた場合は処理を終了し、そうでなければS304へ進む。 In S330, the system control unit 50 determines whether a termination operation has been performed on the operation unit 70. Here, the termination operation includes an operation in which the power switch 72 is pressed, an operation in which the playback button 79 is pressed, and the like. If the end operation has been performed, the process ends; otherwise, the process advances to S304.

以上のように本実施形態によれば、視線入力機能が無効である場合、表示部28またはEVF29において、等倍でライブビュー表示され、MC65に対して中央押しした状態で8方向操作がなされた場合には、8方向操作を無効にするようにした。これにより、例えばAF枠が誤って中央位置からずれてしまうような不都合を防止することができる。一方で、拡大表示されているような場合には、視線入力機能が無効である場合にも、MC65に対して中央押しした状態で8方向操作がなされた場合には、8方向操作を有効にするようにした。このように拡大表示されている場合には、8方向操作によって拡大位置を微調整することができる。なお、上述した通り、視線入力機能の有効/無効にかかわらず、拡大せずにLV表示している場合にはMC65の中央押し継続中の8方向操作を無効とし、拡大してLV表示している場合にはMC65の中央押し継続中の8方向操作を有効とするようにしてもよい。 As described above, according to the present embodiment, when the line of sight input function is disabled, live view is displayed at the same magnification on the display unit 28 or EVF 29, and eight-direction operations are performed while pressing the center of the MC 65. In this case, 8-way operation is now disabled. This makes it possible to prevent inconveniences such as, for example, the AF frame being erroneously shifted from the center position. On the other hand, when the display is enlarged, even if the line-of-sight input function is disabled, if the 8-direction operation is performed while pressing the center of the MC65, the 8-direction operation will be enabled. I decided to do so. When the display is enlarged in this way, the enlarged position can be finely adjusted by operating in eight directions. As mentioned above, regardless of whether the line-of-sight input function is enabled or disabled, if the LV display is performed without enlarging, the 8-direction operation while pressing the center of the MC65 is disabled, and the LV display is enlarged. If so, the 8-direction operation may be enabled while the center of the MC 65 is being pressed.

また、視線入力機能が有効である場合、MC65に対して中央押しした状態で8方向操作がなされた場合であっても、8方向操作を有効にするようにした(S319)。視線入力機能が有効である場合では、中央押しで視線に応じた位置にAF枠を移動した後に、8方向操作でAF枠の位置の微調整を行う必要性が高いことから、8方向操作による誤操作の低減よりも微調整の操作性を優先している。これによって視線に基づいて大雑把に決めたAF枠の位置を8方向操作で簡単に微調整でき、利便性を確保することができる。 In addition, when the line of sight input function is enabled, the 8-direction operation is enabled even if the 8-direction operation is performed while pressing the center of the MC 65 (S319). When the line of sight input function is enabled, it is highly necessary to move the AF frame to a position according to the line of sight by pressing the center, and then fine-tune the position of the AF frame using 8-direction operation. The ease of fine adjustment is given priority over the reduction of erroneous operations. As a result, the position of the AF frame, which has been roughly determined based on the line of sight, can be easily fine-tuned by operating in eight directions, ensuring convenience.

なお、図3に示した例では、MC65により一点AF枠を移動させたが、全域AFに対して適用させても良い。図4(j)~図4(l)は、全域AFに適用させた場合の画面例を示す図であり、図4(j)は、全域AFにおける撮影モードのライブビューの画面例を示す図である。 Note that in the example shown in FIG. 3, the MC 65 moves the AF frame at one point, but the AF frame may be applied to the entire area AF. FIGS. 4(j) to 4(l) are diagrams showing examples of screens when applied to whole area AF, and FIG. 4(j) is a diagram showing an example of a screen of live view in shooting mode in whole area AF. It is.

図4(j)に示すように、被写体422a~422cを含むライブビュー421がEVF29に表示されており、それに重畳して、検出AF枠425と、視線検出位置を示す視線ポインタ424が表示されている。S308において、MC65の中央押し操作がなされたと判断した場合には、S312において、図4(k)に示すように、視線ポインタ424があった位置に最も近い被写体422bを選択した状態でEVF29に表示させる。 As shown in FIG. 4(j), a live view 421 including subjects 422a to 422c is displayed on the EVF 29, and a detection AF frame 425 and a line-of-sight pointer 424 indicating the line-of-sight detection position are displayed superimposed on it. There is. In S308, if it is determined that the center press operation of the MC 65 has been performed, in S312, as shown in FIG. let

また、図4(k)において、選択された被写体422bには、追尾AF枠426と、MC65の左右方向操作によって選択する被写体の切り替え操作が可能であることを示す左右矢印427とが表示される。この状態から、S316でMC65の8方向操作がなされたと判断した場合は、S319において、図4(l)に示すように、別の被写体422cを選択した状態でEVF29に表示させる。このように、視線検出位置にAF枠を移動させた後、継続してMC65の8方向操作を有効とすることで、仮に意図しない被写体を選択してしまっても、すぐに微調整が可能となる。 In addition, in FIG. 4(k), a tracking AF frame 426 and a left/right arrow 427 indicating that the selected subject can be switched by operating the MC 65 in the left/right direction are displayed for the selected subject 422b. . In this state, if it is determined in S316 that the MC 65 has been operated in eight directions, another subject 422c is selected and displayed on the EVF 29 in S319, as shown in FIG. 4(l). In this way, by continuing to enable the MC65's 8-direction operation after moving the AF frame to the line-of-sight detection position, even if you select an unintended subject, you can immediately make fine adjustments. Become.

なお、MC65の中央押し操作したまま8方向操作した後に中央押し操作のみの状態に戻した場合(S321/Yes→S322/Noの場合)も、S316に戻ることから、状況に応じて、8方向操作が有効または無効となる。また、視線入力機能はEVF29でのみ有効な機能であるとしているが、それに限らない。表示部28にライブビューが表示されている状態であっても、視線検出を可能な構成としてもよい。 Furthermore, if you operate the MC65 in 8 directions while pressing the center and then return to the state of only pressing the center (S321/Yes → S322/No), the process will return to S316. The operation is enabled or disabled. Further, although the line-of-sight input function is said to be effective only with the EVF 29, it is not limited thereto. Even when the live view is displayed on the display unit 28, the configuration may be such that line of sight detection can be performed.

さらに本実施形態においては、MC65は8方向操作が可能としているが、8方向に限らずそれより操作可能な方向が多くても少なくてもよい。また、MC65は、図1(b)に示すようなジョイスティック形状の部材に限らない。押圧を検出可能なタッチ操作部材でもよいし、押下式のボタン表面にタッチ操作を検出可能な操作部材でもよい。 Further, in the present embodiment, the MC 65 can be operated in eight directions, but the number of operable directions is not limited to eight directions, and the number of operable directions may be larger or smaller. Further, the MC 65 is not limited to a joystick-shaped member as shown in FIG. 1(b). It may be a touch operation member that can detect a press, or an operation member that can detect a touch operation on the surface of a push-down button.

なお、図3に示した制御に併せて、MC65の敏感度を変更してもよい。例えば、表示部28に等倍のライブビューが表示されている状態では、中央押し操作からの8方向操作を無効とする代わりに、8方向操作のみを行った場合のAF枠の移動(S325)を敏感にしてもよい。これに対して、中央押し操作からの8方向操作を有効とするライブビュー拡大状態においては、拡大位置の移動(S320)を鈍感にしてもよい。 Note that the sensitivity of the MC 65 may be changed in conjunction with the control shown in FIG. For example, when the live view at the same size is displayed on the display unit 28, instead of disabling the 8-direction operation from the center press operation, the AF frame is moved when only the 8-direction operation is performed (S325). may be made sensitive. On the other hand, in the live view enlarged state in which eight-direction operations starting from the center press operation are enabled, the movement of the enlarged position (S320) may be made insensitive.

また、拡大表示よりも等倍のライブビュー表示の方がMC65の敏感度が鈍感に設定されている場合は、表示部28に等倍のライブビューが表示されている状態で中央押し操作からの8方向操作を有効としてもよい。つまり、S318/Noの場合に、システム制御部50は、S319と同様に、表示部28において、S316で検出された8方向操作の方向に基づいてAF枠を移動させて表示させる。その後、S321に進む。それとは反対に、拡大表示よりも等倍のライブビュー表示の方がMC65の敏感度が敏感に設定されている場合にのみ、図3に示すように、表示部28に等倍のライブビューが表示されている状態で中央押し操作からの8方向操作を無効としてもよい。場合によっては、利便性と誤操作防止の両立が必要でない場合もあり、利便性のみを確保したい場合などでは、敏感度の設定を変更することにより利便性を確保することができる。 In addition, if the sensitivity of the MC65 is set to be less sensitive for the live view display at the same size than for the enlarged display, when the live view at the same size is displayed on the display unit 28, pressing the center button 8-direction operation may be enabled. That is, in the case of S318/No, the system control unit 50 moves and displays the AF frame on the display unit 28 based on the direction of the eight-direction operation detected in S316, similarly to S319. After that, the process advances to S321. On the contrary, only when the sensitivity of the MC65 is set to be more sensitive for the live view display at the same size than for the enlarged display, the live view at the same size is displayed on the display unit 28 as shown in FIG. The 8-direction operation from the center push operation may be disabled in the displayed state. In some cases, it may not be necessary to have both convenience and prevention of erroneous operations, and in cases where only convenience is desired, convenience can be ensured by changing the sensitivity setting.

また、AF動作の設定が、ワンショット、サーボ、マニュアルフォーカスの何れかの設定によって制御を変えてもよい。例えば、ワンショットの設定の場合は中央押し操作からの8方向操作を無効とするが、サーボの設定は、基本的に動いている被写体を撮影するシーンで用いられるため、操作性を重視してもよい。つまり、AF動作の設定がサーボである場合は、表示部28に等倍のライブビューが表示されている状態で中央押し操作からの8方向操作を有効としてもよい。 Furthermore, the control may be changed depending on the setting of the AF operation: one shot, servo, or manual focus. For example, in the case of a one-shot setting, the 8-direction operation from the center press operation is disabled, but the servo setting is basically used in scenes where moving subjects are photographed, so operability is emphasized. Good too. That is, when the AF operation is set to servo, the eight-direction operation from the center press operation may be enabled while the live view at the same size is displayed on the display unit 28.

また、撮影操作中に制御を変えてもよい。例えば、シャッターボタン61の状態がSW1状態(半押しの状態)の場合には、表示部28に等倍のライブビューが表示されている状態で中央押し操作からの8方向操作を有効とするなどとしてもよい。さらに、AF方式に応じて制御を変えてもよい。例えば、所定値以上の広い範囲のAF枠(ゾーンAF)を設定している場合は、厳密な中央構図が不要なシーンであることが多い。そのため、表示部28に等倍のライブビューが表示されている状態で中央押し操作からの8方向操作を有効としてもよい。これにより、誤操作よりも利便性を重視した仕様とすることができる。 Further, the control may be changed during the photographing operation. For example, when the shutter button 61 is in the SW1 state (half-pressed state), the 8-direction operation from the center press operation is enabled while the live view at the same size is displayed on the display unit 28. You can also use it as Furthermore, control may be changed depending on the AF method. For example, if an AF frame (zone AF) with a wide range greater than a predetermined value is set, the scene often does not require a strict central composition. Therefore, while the live view at the same size is displayed on the display unit 28, the eight-direction operation from the center press operation may be enabled. This makes it possible to create a specification that places more emphasis on convenience than on erroneous operations.

また、本実施形態においては、MC65の中央押し操作で、AF枠または拡大位置を所定の位置に移動させる機能を割り当てた。具体的には、視線入力機能が無効なときにはAF枠または拡大位置を画面中央またはホームポジションに戻す機能を割り当て、視線入力機能が有効な場合にはAF枠または拡大位置を視線の検出結果位置へ移動させる機能を割り当てた。また、MC65の8方向操作で、AF枠または拡大位置をその方向へ移動させる機能を割り当てた。一方で、メニューボタン81を操作してメニュー画面からMC65の中央押し操作及び8方向操作の機能を異なる機能に割り当てることも可能である。図3に示した処理は、MC65の中央押し操作及び8方向操作に上述の機能が割り当てられていることが前提であるため、異なる機能を割り当てた場合には、図3に示す制御を行わないようにする。この場合、MC65が操作された際にその異なる機能に応じた処理を行うようにする。 Further, in this embodiment, a function of moving the AF frame or enlarged position to a predetermined position is assigned by pressing the center of the MC 65. Specifically, when the line-of-sight input function is disabled, a function is assigned to return the AF frame or enlarged position to the center of the screen or the home position, and when the line-of-sight input function is enabled, the AF frame or enlarged position is returned to the line-of-sight detection result position. Assigned the function to move. Additionally, a function has been assigned to move the AF frame or enlarged position in the 8-direction direction of the MC65. On the other hand, it is also possible to operate the menu button 81 and assign the functions of the center push operation and eight-direction operation of the MC 65 to different functions from the menu screen. The process shown in FIG. 3 is based on the assumption that the above-mentioned functions are assigned to the center push operation and 8-direction operation of the MC65, so if different functions are assigned, the control shown in FIG. 3 will not be performed. Do it like this. In this case, when the MC 65 is operated, processing is performed in accordance with the different functions.

(その他の実施形態)
なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
(Other embodiments)
Note that the various controls described above as being performed by the system control unit 50 may be performed by a single piece of hardware, or multiple pieces of hardware (for example, multiple processors or circuits) may share the processing to It is also possible to perform overall control. Further, although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and the present invention may be applied to various forms without departing from the gist of the present invention. included. Furthermore, each of the embodiments described above is merely one embodiment of the present invention, and it is also possible to combine the embodiments as appropriate.

また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されず、MCを搭載した装置であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する装置としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。 Furthermore, in the above-described embodiments, the present invention has been described as an example in which the present invention is applied to a digital camera, but the present invention is not limited to this example, and can be applied to any device equipped with an MC. That is, the present invention is applicable to personal computers, PDAs, mobile phone terminals, portable image viewers, printer devices with displays, digital photo frames, music players, game machines, electronic book readers, and the like. Furthermore, the present invention is applicable not only to the imaging device itself but also to a control device that communicates with the imaging device (including a network camera) via wired or wireless communication and remotely controls the imaging device. Examples of devices that remotely control the imaging device include devices such as smartphones, tablet PCs, and desktop PCs. The imaging device can be controlled remotely by notifying the imaging device of commands to perform various operations and settings from the control device, based on operations performed on the control device and processing performed on the control device. be. Furthermore, a live view image taken by the imaging device may be received via wired or wireless communication and displayed on the control device side.

本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。 The present invention is also realized by performing the following processing. That is, the software (program) that realizes the functions of the embodiments described above is supplied to a system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program code. This is the process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

50 システム制御部、65 MC 50 System control unit, 65 MC

Claims (20)

第1の倍率と、前記第1の倍率とは異なる第2の倍率とを含む複数の倍率のうち、いずれの倍率で画像を表示するかを切り替える切り替え手段と、
複数の方向のいずれかを指示する第1の種別の操作と、方向を指示しない第2の種別の操作とを受け付け可能な操作手段と、
前記第1の倍率で画像を表示している際に、前記第1の種別の操作に基づいて、前記表示される画像においてAF位置を移動する制御を行い、前記第2の倍率で画像を表示している際に、前記操作手段に対する前記第1の種別の操作に基づいて、画像全体のうちの前記表示される画像の表示領域を移動する制御を行う制御手段と、
を有し、
前記制御手段は、
前記第1の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記AF位置の移動を行わないように制御し、
前記第2の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記表示領域の移動を行うように制御する
ことを特徴とする電子機器。
A switching means for switching which magnification to display the image at among a plurality of magnifications including a first magnification and a second magnification different from the first magnification;
an operation means capable of accepting a first type of operation that instructs one of a plurality of directions and a second type of operation that does not specify a direction;
While displaying the image at the first magnification, control is performed to move the AF position in the displayed image based on the first type of operation , and the image is displayed at the second magnification. A control means for controlling movement of a display area of the displayed image of the entire image based on the first type of operation on the operation means during display;
has
The control means includes:
When the first type of operation is performed while the second type of operation is being performed while the image is displayed at the first magnification, the first type of operation is performed. controlling the AF position not to move in the direction based on the
When the first type of operation is performed while the second type of operation is being performed while the image is displayed at the second magnification, the first type of operation is performed. An electronic device, characterized in that the display area is controlled to move in a direction based on the direction.
前記制御手段は、The control means includes:
前記第1の倍率で画像を表示している際に、前記第2の種別の操作が行われたことに応じて前記AF位置を所定の位置に移動するように制御し、controlling the AF position to move to a predetermined position in response to the second type of operation being performed while displaying the image at the first magnification;
前記第2の倍率で画像を表示している際に、前記第2の種別の操作が行われたことに応じて前記表示領域を所定の位置に移動するように制御することを特徴とする請求項1に記載の電子機器。A claim characterized in that the display area is controlled to be moved to a predetermined position in response to the second type of operation being performed when the image is displayed at the second magnification. The electronic device according to item 1.
視線検出手段で検出されたユーザーの視線に係る情報を入力する入力手段を更に有し、
前記制御手段は、前記第1の倍率で画像を表示している際に、前記入力手段により前記視線に係る情報が入力されている場合には、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合であっても、前記第1の種別の操作に基づく前記AF位置の移動を行うように制御することを特徴とする請求項1に記載の電子機器。
further comprising an input means for inputting information related to the user's line of sight detected by the line of sight detection means,
The control means controls a state in which the second type of operation is performed when information related to the line of sight is input by the input means while displaying the image at the first magnification. 2. The electronic device according to claim 1, wherein the AF position is controlled to be moved based on the first type of operation even if the first type of operation is performed in . device.
前記第1の種別及び前記第2の種別の操作の機能を割り当てる割り当て手段をさらに有し、
前記割り当て手段によって前記第1の種別の操作に対して前記AF位置を前記第1の種別の操作に基づく方向に移動させる機能、および前記第2の種別の操作に対して前記AF位置を所定の位置に移動させる機能が割り当てられた場合に、前記制御手段は、前記第1の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記AF位置の移動を行わないように制御することを特徴とする請求項1乃至のいずれか1項に記載の電子機器。
further comprising an allocation means for allocating functions of the first type and the second type of operation,
A function of moving the AF position in a direction based on the first type of operation by the assignment means in response to the first type of operation, and a function of moving the AF position in a predetermined direction for the second type of operation. When the function of moving the image to a certain position is assigned, the control means may control the control means to display the first type of image in a state where the second type of operation is performed while displaying the image at the first magnification. 4. The AF position is controlled not to be moved in the direction based on the first type of operation when an operation of the first type is performed. Electronics.
前記第2の倍率は、前記第1の倍率よりも大きい倍率であることを特徴とする請求項1乃至のいずれか1項に記載の電子機器。 5. The electronic device according to claim 1, wherein the second magnification is larger than the first magnification. 前記第1の倍率は、画像の全体が表示される倍率であることを特徴とする請求項に記載の電子機器。 6. The electronic device according to claim 5 , wherein the first magnification is a magnification at which the entire image is displayed. 点を検出するための前記AF位置の領域の大きさを設定する領域設定手段をさらに有し、
前記領域設定手段によって前記焦点を検出する位置での領域の大きさが所定値以上である場合に、前記制御手段は、前記第1の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合であっても、前記第1の種別の操作に基づく方向に前記AF位置の移動を行うように制御することを特徴とする請求項1乃至6のいずれか1項に記載の電子機器。
further comprising area setting means for setting the size of the area of the AF position for detecting the focus ,
When the size of the area at the position where the focus is detected by the area setting unit is equal to or larger than a predetermined value, the control unit controls the second magnification while displaying the image at the first magnification. Even if the first type of operation is performed while another type of operation is being performed, the AF position may be controlled to move in the direction based on the first type of operation. The electronic device according to any one of claims 1 to 6 .
複数の方向のいずれかを指示する第1の種別の操作と、方向を指示しない第2の種別の操作とを受け付け可能な操作手段と、
視線検出手段で検出されたユーザーの視線に係る情報を入力する入力手段と、
前記操作手段に対する操作に基づいて、表示される画像においてAF位置を移動する制御を行う制御手段と、
を有し、
前記制御手段は、
前記入力手段により前記視線に係る情報が入力されておらず、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合には、前記第1の種別の操作に基づく方向に前記AF位置の移動を行わないように制御し、
前記入力手段により前記視線に係る情報が入力されており、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合には、前記第1の種別の操作に基づく方向に前記AF位置の移動を行うように制御する
ことを特徴とする電子機器。
an operation means capable of accepting a first type of operation that instructs one of a plurality of directions and a second type of operation that does not specify a direction;
an input means for inputting information related to the user's line of sight detected by the line of sight detection means;
a control means for controlling movement of an AF position in a displayed image based on an operation on the operation means;
has
The control means includes:
If the information related to the line of sight is not input by the input means and the first type of operation is performed while the second type of operation has been performed, the first type of operation is performed. controlling the AF position not to move in a direction based on the operation;
If the information related to the line of sight has been input by the input means and the first type of operation is performed while the second type of operation has been performed, the first type of operation is performed. An electronic device characterized by controlling the AF position to be moved in a direction based on .
前記視線検出手段は、ファインダーに接眼したユーザーの目の視線を検出する手段であることを特徴とする請求項3又は8に記載の電子機器。 9. The electronic device according to claim 3, wherein the line of sight detection means is a means for detecting the line of sight of the user's eyes when the user looks at the finder. 前記入力手段により前記視線に係る情報が入力されている場合に、前記制御手段は、前記第2の種別の操作に応じて、前記AF位置を前記ユーザーの視線に基づく位置に移動するよう制御することを特徴とする請求項3、8又は9に記載の電子機器。 When information related to the line of sight is input by the input means, the control means controls to move the AF position to a position based on the user's line of sight in response to the second type of operation. The electronic device according to claim 3, 8 or 9, characterized in that: 前記入力手段により前記視線に係る情報が入力されていない場合に、前記制御手段は、前記第2の種別の操作に応じて、前記AF位置を前記画像の中央の位置または予め登録された位置に移動するよう制御することを特徴とする請求項3、8、9又は10に記載の電子機器。 When information related to the line of sight is not input by the input means, the control means changes the AF position to a central position of the image or a pre-registered position according to the second type of operation. 11. The electronic device according to claim 3, wherein the electronic device is controlled to move. 前記表示される画像は、撮像手段で撮像されたライブビュー画像であることを特徴とする請求項1乃至11のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 11 , wherein the displayed image is a live view image captured by an imaging device. 前記撮像手段をさらに有することを特徴とする請求項12に記載の電子機器。 The electronic device according to claim 12 , further comprising the imaging means. 前記第1の種別の操作は、前記操作手段を前記複数の方向のいずれかの方向へ押し倒す操作であることを特徴とする請求項1乃至13のいずれか1項に記載の電子機器。 14. The electronic device according to claim 1, wherein the first type of operation is an operation of pushing down the operating means in one of the plurality of directions. 前記複数の方向は8方向であることを特徴とする請求項14に記載の電子機器。 The electronic device according to claim 14 , wherein the plurality of directions are eight directions. 前記第2の種別の操作は、前記操作手段を押し込む操作であることを特徴とする請求項1乃至15のいずれか1項に記載の電子機器。 16. The electronic device according to claim 1, wherein the second type of operation is an operation of pushing the operation means. 複数の方向のいずれかを指示する第1の種別の操作と、方向を指示しない第2の種別の操作とを受け付け可能な操作手段を有する電子機器の制御方法であって、
第1の倍率と、前記第1の倍率とは異なる第2の倍率とを含む複数の倍率のうち、いずれの倍率で画像を表示するかを切り替える切り替え工程と、
前記第1の倍率で画像を表示している際に、前記第1の種別の操作に基づいて、前記表示される画像においてAF位置を移動する制御を行い、前記第2の倍率で画像を表示している際に、前記操作手段に対する前記第1の種別の操作に基づいて、画像全体のうちの前記表示される画像の表示領域を移動する制御を行う制御工程と、
を有し、
前記制御工程においては、
前記第1の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記AF位置の移動を行わないように制御し、
前記第2の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記表示領域の移動を行うように制御する
ことを特徴とする電子機器の制御方法。
A method for controlling an electronic device having an operation means capable of accepting a first type of operation that instructs one of a plurality of directions and a second type of operation that does not instruct a direction, the method comprising:
a switching step of switching at which magnification the image is to be displayed among a plurality of magnifications including a first magnification and a second magnification different from the first magnification;
While displaying the image at the first magnification, control is performed to move the AF position in the displayed image based on the first type of operation , and the image is displayed at the second magnification. a control step of performing control to move a display area of the displayed image of the entire image based on the first type of operation on the operation means during display;
has
In the control step,
When the first type of operation is performed while the second type of operation is being performed while the image is displayed at the first magnification, the first type of operation is performed. controlling the AF position not to move in the direction based on the
When the first type of operation is performed while the second type of operation is being performed while the image is displayed at the second magnification, the first type of operation is performed. A method for controlling an electronic device, characterized in that the display area is controlled to be moved in a direction based on the direction.
複数の方向のいずれかを指示する第1の種別の操作と、方向を指示しない第2の種別の操作とを受け付け可能な操作手段を有する電子機器の制御方法であって、
視線検出手段で検出されたユーザーの視線に係る情報を入力する入力工程と、
前記操作手段に対する操作に基づいて、表示される画像においてAF位置を移動する制御を行う制御工程と、
を有し、
前記制御工程においては、
前記入力工程により前記視線に係る情報が入力されておらず、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合には、前記第1の種別の操作に基づく方向に前記AF位置の移動を行わないように制御し、
前記入力工程により前記視線に係る情報が入力されており、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合には、前記第1の種別の操作に基づく方向に前記AF位置の移動を行うように制御する
ことを特徴とする電子機器の制御方法。
A method for controlling an electronic device having an operation means capable of accepting a first type of operation that instructs one of a plurality of directions and a second type of operation that does not instruct a direction, the method comprising:
an input step of inputting information related to the user's line of sight detected by the line of sight detection means;
a control step of controlling movement of an AF position in a displayed image based on an operation on the operation means;
has
In the control step,
If the information related to the line of sight has not been input in the input step and the first type of operation is performed while the second type of operation has been performed, the first type of operation is performed. controlling the AF position not to move in a direction based on the operation;
If the information related to the line of sight has been input in the input step and the first type of operation is performed while the second type of operation has been performed, the first type of operation is performed. A method of controlling an electronic device, comprising: controlling the AF position to move in a direction based on .
コンピュータを、請求項1乃至16のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 16 . コンピュータを、請求項1乃至16のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 16 .
JP2020052810A 2020-03-24 2020-03-24 Electronic equipment and its control method Active JP7451255B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020052810A JP7451255B2 (en) 2020-03-24 2020-03-24 Electronic equipment and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020052810A JP7451255B2 (en) 2020-03-24 2020-03-24 Electronic equipment and its control method

Publications (2)

Publication Number Publication Date
JP2021152744A JP2021152744A (en) 2021-09-30
JP7451255B2 true JP7451255B2 (en) 2024-03-18

Family

ID=77887301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020052810A Active JP7451255B2 (en) 2020-03-24 2020-03-24 Electronic equipment and its control method

Country Status (1)

Country Link
JP (1) JP7451255B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128297A (en) 2003-10-24 2005-05-19 Seiko Epson Corp Digital camera

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128297A (en) 2003-10-24 2005-05-19 Seiko Epson Corp Digital camera

Also Published As

Publication number Publication date
JP2021152744A (en) 2021-09-30

Similar Documents

Publication Publication Date Title
JP7321786B2 (en) Electronic equipment and its control method
WO2018021165A4 (en) Electronic device and method for controlling same
US11240419B2 (en) Electronic device that can execute function in accordance with line of sight of user, method of controlling electronic device, and non-transitory computer readable medium
CN112104809B (en) Electronic device, control method of electronic device, and storage medium
JP7442331B2 (en) Voice input device and its control method and program
JP7467071B2 (en) Electronic device, electronic device control method, program, and storage medium
JP7346375B2 (en) Electronic equipment, its control method, program, and recording medium
EP3876517A1 (en) Electronic device, control method, program, and computer readable medium
WO2020255675A1 (en) Electronic device and control method therefor
JP7465129B2 (en) Imaging device, control method thereof, program, and storage medium
JP7383552B2 (en) Electronic equipment and its control method
US11442244B2 (en) Imaging device
JP7387493B2 (en) Electronic devices, control methods for electronic devices, programs, storage media
CN112040095B (en) Electronic device, control method of electronic device, and storage medium
JP7451255B2 (en) Electronic equipment and its control method
JP2021097356A (en) Imaging control device
JP2021092958A (en) Electronic apparatus, control method thereof, program, and storage medium
JP2021022897A (en) Electronic apparatus, control method of electronic device, program, and recording medium
CN112312008B (en) Electronic device, control method of electronic device, and storage medium
JP2021018634A (en) Electronic equipment and method of controlling the same
GB2598171A (en) Display control apparatus and control method therefor and recording medium
JP2023160103A (en) Electronic apparatus
JP2022172840A (en) Electronic apparatus, method for controlling electronic apparatus, program, and storage medium
CN113364973A (en) Electronic device, control method of electronic device, and computer-readable medium
JP2021082188A (en) Electronic apparatus, control method of electronic apparatus, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240306

R151 Written notification of patent or utility model registration

Ref document number: 7451255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151