JP2021152744A - Electronic device and control method thereof - Google Patents

Electronic device and control method thereof Download PDF

Info

Publication number
JP2021152744A
JP2021152744A JP2020052810A JP2020052810A JP2021152744A JP 2021152744 A JP2021152744 A JP 2021152744A JP 2020052810 A JP2020052810 A JP 2020052810A JP 2020052810 A JP2020052810 A JP 2020052810A JP 2021152744 A JP2021152744 A JP 2021152744A
Authority
JP
Japan
Prior art keywords
type
magnification
image
electronic device
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020052810A
Other languages
Japanese (ja)
Other versions
JP7451255B2 (en
Inventor
誠司 小川
Seiji Ogawa
誠司 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020052810A priority Critical patent/JP7451255B2/en
Publication of JP2021152744A publication Critical patent/JP2021152744A/en
Application granted granted Critical
Publication of JP7451255B2 publication Critical patent/JP7451255B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Viewfinders (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Position Input By Displaying (AREA)

Abstract

To reduce erroneous operation while maintaining convenience when an operation is made by using an operation member allowing simultaneously performing a plurality of operations.SOLUTION: While un-magnified live view display is performed, if an eight directional operation is performed in a state where a center pressing operation is performed, it is controlled so that an AF frame is not moved in a direction based on the eight directional operation. While enlarged live view display is performed, if an eight directional operation is performed in a state where a center pressing operation is performed, it is controlled so that an enlargement position is moved in the direction based on the eight directional operation. On the other hand, while a line-of-sight input operation is enabled, if the eight directional operation is performed in a state where a center pressing operation is performed, it is controlled so that the enlargement position is moved in the direction based on the eight directional operation even in a state where the un-magnified live view display is performed.SELECTED DRAWING: Figure 3

Description

本発明は、特に、操作部材を備えた電子機器、電子機器の制御方法、プログラム及び記憶媒体に関する。 The present invention particularly relates to an electronic device provided with an operating member, a control method for the electronic device, a program, and a storage medium.

近年、ジョイスティック(以下、マルチコントローラーまたはMC)を搭載した電子機器が増えている。MCは、上、下、左、右、及び斜め4方向の計8方向の何れかの方向へ押し倒して指示する操作(以下、8方向操作)と、中央部分での押し込み操作(以下、中央押し操作)との2つの操作が可能であるものが多い。このMCを電子機器に搭載することにより、ユーザーの操作性を向上させることができる。 In recent years, the number of electronic devices equipped with a joystick (hereinafter, multi-controller or MC) is increasing. The MC can be pushed down in any of eight directions, up, down, left, right, and diagonally, in a total of eight directions (hereinafter, eight-direction operation) and a push operation in the central part (hereinafter, center push). Many of them are capable of two operations (operation). By mounting this MC in an electronic device, the operability of the user can be improved.

ミラーレスなどのデジタルカメラにおいては、MCにより、ユーザーがカメラに対して素早い操作を行えるようになるため、撮影機会の増加などが期待できる。例えば、AF(オートフォーカス)を行う位置の指定にMCを用いる場合には、8方向操作でAF枠の位置を8方向へ移動させ、中央押し操作によってAF枠の位置を画面中央に戻すといった操作が可能である。 In digital cameras such as mirrorless cameras, MC enables users to quickly operate the camera, which is expected to increase shooting opportunities. For example, when MC is used to specify the position for performing AF (autofocus), the position of the AF frame is moved in eight directions by eight-direction operation, and the position of the AF frame is returned to the center of the screen by pressing the center. Is possible.

また、特許文献1には、MCの中央押し操作を行ってAF枠を特定位置へ移動させ、8方向操作を行うことにより特定位置からAF枠を移動させるようにすることが開示されており、このようなMCにより、素早いAF枠の移動を実現できるとしている。 Further, Patent Document 1 discloses that the AF frame is moved to a specific position by performing a center pressing operation of the MC, and the AF frame is moved from the specific position by performing an eight-direction operation. It is said that such MC can realize quick movement of the AF frame.

特開2015−22208号公報JP 2015-22208

MCの操作においては、タイミングによって8方向押し操作と中央押し操作とを同時に行うなど、正確な操作が要求される場合があるが、操作部分が小さいことから誤った操作がなされやすい。 In the operation of the MC, an accurate operation such as performing an 8-direction push operation and a center push operation at the same time may be required depending on the timing, but since the operation portion is small, an erroneous operation is likely to be performed.

特許文献1に記載の方法では、操作性優先の観点からは、中央押し操作の後に、押下したまま8方向操作を許可することで特定位置からのAF枠移動をしやすくすることができる。しかしながら、例えば前述のようにAF枠を厳密に中央に位置させたい場合に、誤って8方向操作をしてしまうとAF枠が狙った位置からずれてしまう。 In the method described in Patent Document 1, from the viewpoint of prioritizing operability, it is possible to facilitate the movement of the AF frame from a specific position by permitting the eight-direction operation while pressing the center after the center pressing operation. However, for example, when the AF frame is to be positioned exactly in the center as described above, if the AF frame is mistakenly operated in eight directions, the AF frame will deviate from the target position.

本発明は前述の問題点に鑑み、複数種類の操作を同時に行うことが可能な操作部材を用いて操作する場合に、利便性を備えながら誤操作を低減できるようにすることを目的としている。 In view of the above-mentioned problems, it is an object of the present invention to make it possible to reduce erroneous operations while providing convenience when operating using an operating member capable of simultaneously performing a plurality of types of operations.

本発明に係る電子機器は、第1の倍率と、前記第1の倍率とは異なる第2の倍率とを含む複数の倍率のうち、いずれの倍率で画像を表示するかを切り替える切り替え手段と、複数の方向のいずれかを指示する第1の種別の操作と、方向を指示しない第2の種別の操作とを受け付け可能な操作手段と、前記操作手段に対する操作に基づいて、前記表示される画像において選択位置を移動する制御を行う制御手段と、を有し、前記制御手段は、前記第1の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記選択位置の移動を行わないように制御し、前記第2の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記選択位置の移動を行うように制御することを特徴とする。 The electronic device according to the present invention includes a switching means for switching which magnification is used to display an image among a plurality of magnifications including a first magnification and a second magnification different from the first magnification. An image to be displayed based on an operation means capable of accepting a first type of operation instructing any of a plurality of directions and a second type of operation not instructing a direction, and an operation on the operation means. The control means has a control means for controlling the movement of the selected position, and the control means is in a state where the second type of operation is performed while the image is displayed at the first magnification. When the first type of operation is performed, the selected position is controlled not to move in the direction based on the first type of operation, and the image is displayed at the second magnification. At that time, when the operation of the first type is performed while the operation of the second type is performed, the selected position is moved in the direction based on the operation of the first type. It is characterized by controlling.

本発明によれば、複数種類の操作を同時に行うことが可能な操作部材を用いて操作する場合に、利便性を備えながら誤操作を低減することができる。 According to the present invention, when operating using an operating member capable of simultaneously performing a plurality of types of operations, it is possible to reduce erroneous operations while providing convenience.

実施形態に係るデジタルカメラの外観構成例を示す図である。It is a figure which shows the appearance composition example of the digital camera which concerns on embodiment. 実施形態に係るデジタルカメラの内部構成例を示すブロック図である。It is a block diagram which shows the internal structure example of the digital camera which concerns on embodiment. 撮影モードでの処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure in a shooting mode. 表示部またはEVFに表示される画像の例を示す図である。It is a figure which shows the example of the image which is displayed on the display part or EVF.

以下、図面を参照して本発明の好適な実施形態を説明する。
図1(a)及び図1(b)には、本発明を適用可能な装置(電子機器)の一例としてのデジタルカメラ100(撮像装置)の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
1 (a) and 1 (b) show an external view of a digital camera 100 (imaging device) as an example of a device (electronic device) to which the present invention can be applied. FIG. 1A is a front perspective view of the digital camera 100, and FIG. 1B is a rear perspective view of the digital camera 100.

図1において、表示部28は画像や各種情報を表示する、カメラ背面に設けられた表示部である。タッチパネル70aは、表示部28の表示面(操作面)に対するタッチ操作を検出することができる。ファインダー外表示部43は、カメラ上面に設けられた表示部であり、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。シャッターボタン61は撮影指示を行うための操作部である。モード切替スイッチ60は各種モードを切り替えるための操作部である。 In FIG. 1, the display unit 28 is a display unit provided on the back surface of the camera for displaying images and various information. The touch panel 70a can detect a touch operation on the display surface (operation surface) of the display unit 28. The outside viewfinder display unit 43 is a display unit provided on the upper surface of the camera, and various setting values of the camera such as a shutter speed and an aperture are displayed. The shutter button 61 is an operation unit for giving a shooting instruction. The mode changeover switch 60 is an operation unit for switching various modes.

端子カバー40は外部機器との接続ケーブルとデジタルカメラ100とを接続するコネクタ(不図示)を保護するカバーである。メイン電子ダイヤル71は回転操作部材であり、このメイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72はデジタルカメラ100の電源のON及びOFFを切り替える操作部材である。サブ電子ダイヤル73は回転操作部材であり、選択枠の移動や画像送りなどを行える。 The terminal cover 40 is a cover that protects a connector (not shown) that connects the connection cable to the external device and the digital camera 100. The main electronic dial 71 is a rotation operation member, and by turning the main electronic dial 71, it is possible to change set values such as a shutter speed and an aperture. The power switch 72 is an operating member that switches the power of the digital camera 100 on and off. The sub electronic dial 73 is a rotation operation member, and can move the selection frame, feed an image, and the like.

4方向キー74は、上、下、左、右部分をそれぞれ押し込み可能な4方向に押し込み可能な押しボタンを有する十字キーである。4方向キー74の押下した方向に押した部分に応じた操作が可能である。SETボタン75は押しボタンであり、主に選択項目の決定などに用いられる。動画ボタン76は、動画撮影(記録)の開始、停止の指示に用いられる。AEロックボタン77は、撮影待機状態で押下することにより、露出状態を固定することができる。 The four-way key 74 is a cross-shaped key having push buttons that can be pushed in four directions in which the up, down, left, and right portions can be pushed. It is possible to perform an operation according to the portion of the four-direction key 74 pressed in the pressed direction. The SET button 75 is a push button and is mainly used for determining a selection item or the like. The moving image button 76 is used to instruct the start and stop of moving image shooting (recording). The exposure state can be fixed by pressing the AE lock button 77 in the shooting standby state.

拡大ボタン78は、撮影モードのライブビュー表示において拡大モードのON、OFFを行うための操作ボタンである。拡大モードをONとしてからメイン電子ダイヤル71を操作することにより、ライブビュー画像の拡大、縮小を行える。また、拡大ボタン78は、再生モードにおいては再生画像を拡大し、拡大率を増加させるための拡大ボタンとして機能する。 The enlargement button 78 is an operation button for turning on / off the enlargement mode in the live view display of the shooting mode. By operating the main electronic dial 71 after turning on the enlargement mode, the live view image can be enlarged or reduced. Further, the enlargement button 78 functions as an enlargement button for enlarging the reproduced image and increasing the enlargement ratio in the reproduction mode.

再生ボタン79は、撮影モードと再生モードとを切り替える操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部28に表示させることができる。メニューボタン81は、押下することにより各種の設定可能なメニュー画面が表示部28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、4方向キー74やSETボタン75、またはマルチコントローラー(以下、MC)65を用いて直感的に各種設定を行うことができる。MC65は、上、右上、右、右下、下、左下、左、左上の8方向のいずれかの方向への押し倒しによる方向指示操作(以下、8方向操作)と、中央部分の押し込み操作(以下、中央押し操作)との異なる種別の操作を受け付け可能である。 The playback button 79 is an operation button for switching between the shooting mode and the playback mode. By pressing the playback button 79 during the shooting mode, the playback mode can be entered, and the latest image among the images recorded on the recording medium 200 can be displayed on the display unit 28. When the menu button 81 is pressed, various settable menu screens are displayed on the display unit 28. The user can intuitively make various settings by using the menu screen displayed on the display unit 28, the four-direction key 74, the SET button 75, or the multi-controller (hereinafter, MC) 65. The MC65 has a direction instruction operation (hereinafter, 8-direction operation) by pushing down in any of the eight directions of upper, upper right, right, lower right, lower, lower left, left, and upper left, and a pushing operation of the central portion (hereinafter, lower). , Center push operation) and different types of operations can be accepted.

通信端子10は、デジタルカメラ100が後述する図2のレンズユニット150(着脱可能)と通信を行うための通信端子である。接眼部16は、接眼ファインダー(覗き込み型のファインダー)の接眼部であり、ユーザーは、接眼部16を介して後述する図2の内部のEVF(Electric View Finder)29に表示された映像を視認することができる。接眼検知部57は、接眼部16にユーザーが接眼しているか否かを検知する接眼検知センサーである。 The communication terminal 10 is a communication terminal for the digital camera 100 to communicate with the lens unit 150 (detachable) of FIG. 2 described later. The eyepiece portion 16 is an eyepiece portion of an eyepiece finder (look-in type finder), and the user is displayed via the eyepiece portion 16 on the internal EVF (Electric View Finder) 29 of FIG. 2, which will be described later. The image can be visually recognized. The eyepiece detection unit 57 is an eyepiece detection sensor that detects whether or not the user is in contact with the eyepiece unit 16.

蓋202は記録媒体を格納したスロットの蓋である。グリップ部90は、ユーザーがデジタルカメラ100を構えた際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン61、メイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73が配置されている。 The lid 202 is a lid of a slot that stores a recording medium. The grip portion 90 is a holding portion having a shape that makes it easy for the user to hold the digital camera 100 with his / her right hand. The shutter button 61 and the main electronic dial 71 are arranged at positions that can be operated by the index finger of the right hand while holding the digital camera 100 by holding the grip portion 90 with the little finger, ring finger, and middle finger of the right hand. Further, in the same state, the sub electronic dial 73 is arranged at a position where it can be operated with the thumb of the right hand.

図2は、デジタルカメラ100の内部構成例を示すブロック図である。
図2において、レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103の位置を変位させることで焦点を合わせる。
FIG. 2 is a block diagram showing an example of the internal configuration of the digital camera 100.
In FIG. 2, the lens unit 150 is a lens unit equipped with an interchangeable photographing lens. The lens 103 is usually composed of a plurality of lenses, but in FIG. 2, it is simply shown by only one lens. The communication terminal 6 is a communication terminal for the lens unit 150 to communicate with the digital camera 100 side, and the communication terminal 10 is a communication terminal for the digital camera 100 to communicate with the lens unit 150 side. The lens unit 150 communicates with the system control unit 50 via these communication terminals 6 and 10. Then, the lens unit 150 controls the diaphragm 1 via the diaphragm drive circuit 2 by the internal lens system control circuit 4. Further, the lens unit 150 is focused by shifting the position of the lens 103 via the AF drive circuit 3 by the lens system control circuit 4.

シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(イメージセンサー)である。撮像部22は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサーを有していてもよい。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換する。 The shutter 101 is a focal plane shutter that can freely control the exposure time of the imaging unit 22 under the control of the system control unit 50. The image pickup unit 22 is an image pickup element (image sensor) composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal. The imaging unit 22 may have an imaging surface phase difference sensor that outputs defocus amount information to the system control unit 50. The A / D converter 23 converts the analog signal output from the imaging unit 22 into a digital signal.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理、色変換処理、等)を行う。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、システム制御部50は、画像処理部24により得られた演算結果に基づいて露光制御や測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理、等が行われる。画像処理部24は更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。 The image processing unit 24 performs predetermined processing (resizing processing such as pixel interpolation and reduction, color conversion processing, etc.) on the data from the A / D converter 23 or the data from the memory control unit 15. Further, the image processing unit 24 performs a predetermined calculation process using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the calculation result obtained by the image processing unit 24. As a result, TTL (through-the-lens) AF (autofocus) processing, AE (autoexposure) processing, EF (flash pre-flash) processing, and the like are performed. The image processing unit 24 further performs a predetermined calculation process using the captured image data, and performs a TTL method AWB (auto white balance) process based on the obtained calculation result.

A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介してメモリ32に書き込まれる。あるいは、A/D変換器23からの出力データは、画像処理部24を介さずにメモリ制御部15を介してメモリ32に書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28やEVF29に表示するための画像データを格納する。メモリ32は、所定枚数の静止画や所定時間の動画および音声を格納するのに十分な記憶容量を備えている。 The output data from the A / D converter 23 is written to the memory 32 via the image processing unit 24 and the memory control unit 15. Alternatively, the output data from the A / D converter 23 is written to the memory 32 via the memory control unit 15 without going through the image processing unit 24. The memory 32 stores the image data obtained by the imaging unit 22 and converted into digital data by the A / D converter 23, and the image data to be displayed on the display unit 28 and the EVF 29. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, and audio.

また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28やEVF29に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器19を介して表示部28やEVF29により表示される。表示部28とEVF29のそれぞれは、LCDや有機EL等のディスプレイであり、D/A変換器19からのアナログ信号に応じた表示を行う。A/D変換器23によってA/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器19においてアナログ信号に変換し、表示部28またはEVF29に逐次転送して表示することで、ライブビュー表示(LV)が行える。以下、ライブビュー表示で表示される画像をライブビュー画像(LV画像)と称する。 Further, the memory 32 also serves as a memory (video memory) for displaying an image. The D / A converter 19 converts the image display data stored in the memory 32 into an analog signal and supplies it to the display unit 28 and the EVF 29. In this way, the image data for display written in the memory 32 is displayed by the display unit 28 and the EVF 29 via the D / A converter 19. Each of the display unit 28 and the EVF 29 is a display such as an LCD or an organic EL, and displays according to an analog signal from the D / A converter 19. The digital signal that has been A / D converted by the A / D converter 23 and stored in the memory 32 is converted into an analog signal by the D / A converter 19, and is sequentially transferred to the display unit 28 or the EVF 29 for display. View display (LV) can be performed. Hereinafter, the image displayed in the live view display is referred to as a live view image (LV image).

システム制御部50は、少なくとも1つのプロセッサー及び/または少なくとも1つの回路からなる制御部であり、デジタルカメラ100全体を制御する。システム制御部50は、プロセッサーであり、回路でもある。システム制御部50は、不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。また、システム制御部50は、メモリ32、D/A変換器19、表示部28、EVF29等を制御することにより表示制御も行う。 The system control unit 50 is a control unit including at least one processor and / or at least one circuit, and controls the entire digital camera 100. The system control unit 50 is both a processor and a circuit. The system control unit 50 realizes each process of the present embodiment described later by executing the program recorded in the non-volatile memory 56. The system control unit 50 also controls the display by controlling the memory 32, the D / A converter 19, the display unit 28, the EVF 29, and the like.

システムメモリ52は例えばRAMであり、システム制御部50は、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等をシステムメモリ52に展開する。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等である。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記録される。ここでいうプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
The system memory 52 is, for example, a RAM, and the system control unit 50 expands the operating constants and variables of the system control unit 50, a program read from the non-volatile memory 56, and the like into the system memory 52.
The non-volatile memory 56 is a memory that can be electrically erased and recorded, such as EEPROM. The non-volatile memory 56 records constants, programs, and the like for the operation of the system control unit 50. The program referred to here is a program for executing various flowcharts described later in this embodiment.
The system timer 53 is a time measuring unit that measures the time used for various controls and the time of the built-in clock.

通信部54は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(LV画像を含む)や、記録媒体200に記録された画像を送信可能であり、外部機器から画像データやその他の各種情報を受信することができる。 The communication unit 54 transmits and receives video signals and audio signals to and from an external device connected by a wireless or wired cable. The communication unit 54 can also be connected to a wireless LAN (Local Area Network) or the Internet. The communication unit 54 can also communicate with an external device using Bluetooth (registered trademark) or Bluetooth Low Energy. The communication unit 54 can transmit an image (including an LV image) captured by the image pickup unit 22 and an image recorded on the recording medium 200, and can receive image data and various other information from an external device.

姿勢検知部55は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である加速度センサーやジャイロセンサーを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。 The posture detection unit 55 detects the posture of the digital camera 100 with respect to the direction of gravity. Based on the posture detected by the posture detection unit 55, whether the image taken by the image pickup unit 22 is an image taken by holding the digital camera 100 horizontally or an image taken by holding the digital camera 100 vertically. Can be determined. The system control unit 50 can add orientation information according to the posture detected by the posture detection unit 55 to the image file of the image captured by the image pickup unit 22, or rotate and record the image. be. As the posture detection unit 55, an acceleration sensor, a gyro sensor, or the like can be used. It is also possible to detect the movement (pan, tilt, lift, whether or not it is stationary, etc.) of the digital camera 100 by using the acceleration sensor or the gyro sensor which is the posture detection unit 55.

接眼検知部57は、接眼ファインダー(以後、単に「ファインダー」と記載する)の接眼部16に対する目(物体)の接近(接眼)および離反(離眼)を検知する(接近検知)、接眼検知センサーである。システム制御部50は、接眼検知部57で検知された状態に応じて、表示部28とEVF29の表示(表示状態)/非表示(非表示状態)を切り替える。より具体的には、少なくとも撮影待機状態で、かつ、表示先の切替設定が自動切替である場合において、非接眼中は表示先を表示部28として表示をオンとし、EVF29は非表示とする。また、接眼中は表示先をEVF29として表示をオンとし、表示部28は非表示とする。接眼検知部57としては、例えば赤外線近接センサーを用いることができ、EVF29を内蔵するファインダーの接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部57の投光部(図示せず)から投光した赤外線が物体で反射して赤外線近接センサーの受光部(図示せず)で受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部57は、接眼部16への物体の近接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサーは一例であって、接眼検知部57には、接眼とみなせる状態を検知できるものであれば他のセンサーを採用してもよい。 The eyepiece detection unit 57 detects the approach (eyepiece) and separation (eyepiece) of the eye (object) with respect to the eyepiece 16 of the eyepiece finder (hereinafter, simply referred to as “finder”) (approach detection). It is a sensor. The system control unit 50 switches the display (display state) / non-display (non-display state) of the display unit 28 and the EVF 29 according to the state detected by the eyepiece detection unit 57. More specifically, at least in the shooting standby state and when the display destination switching setting is automatic switching, the display destination is set to the display unit 28 and the display is turned on and the EVF 29 is hidden during non-eye contact. Further, during eye contact, the display destination is set to EVF29, the display is turned on, and the display unit 28 is hidden. As the eyepiece detection unit 57, for example, an infrared proximity sensor can be used, and it is possible to detect the approach of some object to the eyepiece unit 16 of the finder containing the EVF29. When an object approaches, the infrared rays projected from the light projecting unit (not shown) of the eyepiece detection unit 57 are reflected by the object and received by the light receiving unit (not shown) of the infrared proximity sensor. From the amount of infrared rays received, it is possible to determine how close the object is from the eyepiece 16 (eyepiece distance). In this way, the eyepiece detection unit 57 performs eyepiece detection that detects the close distance of the object to the eyepiece unit 16. When an object approaching the eyepiece portion 16 within a predetermined distance is detected from the non-eyepiece state (non-approaching state), it is assumed that the eyepiece is detected. When the object that has detected the approach is separated by a predetermined distance or more from the eyepiece state (approaching state), it is assumed that the eye has been removed. The threshold value for detecting the eyepiece and the threshold value for detecting the eyepiece may be different, for example, by providing hysteresis. In addition, after the eyepiece is detected, the eyepiece is assumed to be in the eyepiece state until the eyepiece is detected. After the eyepiece is detected, it is assumed that the eyepiece is not in the eyepiece state until the eyepiece is detected. The infrared proximity sensor is an example, and another sensor may be used for the eyepiece detection unit 57 as long as it can detect a state that can be regarded as an eyepiece.

ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。
電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出などを行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
The outside viewfinder display unit 43 displays various settings of the camera, such as the shutter speed and the aperture, via the outside viewfinder display unit drive circuit 44.
The power supply control unit 80 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, the remaining battery level, and the like. Further, the power supply control unit 80 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period. The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like.

記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。 The recording medium I / F18 is an interface with a recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card for recording a captured image, and is composed of a semiconductor memory, a magnetic disk, or the like.

操作部70は、ユーザーからの操作(ユーザー操作)を受け付ける入力部であり、システム制御部50に各種の動作指示を入力するために使用される。図2に示すように、操作部70は、シャッターボタン61、モード切替スイッチ60、電源スイッチ72、タッチパネル70a、その他の操作部材70b、MC65等を含む。その他の操作部材70bには、メイン電子ダイヤル71、サブ電子ダイヤル73、4方向キー74、SETボタン75、動画ボタン76、AEロックボタン77、拡大ボタン78、再生ボタン79、メニューボタン81等が含まれる。 The operation unit 70 is an input unit that receives an operation (user operation) from the user, and is used to input various operation instructions to the system control unit 50. As shown in FIG. 2, the operation unit 70 includes a shutter button 61, a mode changeover switch 60, a power switch 72, a touch panel 70a, other operation members 70b, MC65, and the like. Other operating members 70b include a main electronic dial 71, a sub electronic dial 73, a four-way key 74, a SET button 75, a moving image button 76, an AE lock button 77, an enlargement button 78, a play button 79, a menu button 81, and the like. Is done.

シャッターボタン61は、第1シャッタースイッチ62と第2シャッタースイッチ64を備える。第1シャッタースイッチ62は、シャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮影準備動作を開始する。 The shutter button 61 includes a first shutter switch 62 and a second shutter switch 64. The first shutter switch 62 is turned on by a so-called half-press (shooting preparation instruction) during the operation of the shutter button 61, and the first shutter switch signal SW1 is generated. The system control unit 50 starts shooting preparation operations such as AF (autofocus) processing, AE (autoexposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing by the first shutter switch signal SW1. do.

第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから、撮像された画像を画像ファイルとして記録媒体200に書き込むまでの、一連の撮影処理の動作を開始する。 The second shutter switch 64 is turned on when the operation of the shutter button 61 is completed, so-called full pressing (shooting instruction), and the second shutter switch signal SW2 is generated. The system control unit 50 starts a series of shooting processes from reading the signal from the image pickup unit 22 to writing the captured image as an image file on the recording medium 200 by the second shutter switch signal SW2.

モード切替スイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画撮影モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60より、ユーザーは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードのいずれかに、他の操作部材を用いて選択的に切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。 The mode changeover switch 60 switches the operation mode of the system control unit 50 to any one of a still image shooting mode, a moving image shooting mode, a playback mode, and the like. The modes included in the still image shooting mode include an auto shooting mode, an auto scene discrimination mode, a manual mode, an aperture priority mode (Av mode), a shutter speed priority mode (Tv mode), and a program AE mode (P mode). In addition, there are various scene modes, custom modes, etc. that are shooting settings for each shooting scene. From the mode changeover switch 60, the user can directly switch to any of these modes. Alternatively, the mode changeover switch 60 may be used to once switch to the shooting mode list screen, and then selectively switch to any of the displayed plurality of modes by using another operating member. Similarly, the moving image shooting mode may include a plurality of modes.

タッチパネル70aは、表示部28の表示面(タッチパネル70aの操作面)への各種タッチ操作を検出するタッチセンサーである。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは、光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示面上の表示座標とを対応付ける。これにより、あたかもユーザーが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を提供できる。 The touch panel 70a is a touch sensor that detects various touch operations on the display surface (operation surface of the touch panel 70a) of the display unit 28. The touch panel 70a and the display unit 28 can be integrally configured. For example, the touch panel 70a is configured so that the light transmittance does not interfere with the display of the display unit 28, and is attached to the upper layer of the display surface of the display unit 28. Then, the input coordinates on the touch panel 70a are associated with the display coordinates on the display surface of the display unit 28. As a result, it is possible to provide a GUI (graphical user interface) as if the user can directly operate the screen displayed on the display unit 28.

システム制御部50は、タッチパネル70aへの以下の操作、あるいは状態を検出できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態(以下、タッチオン(Touch-On)と称する)。
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル70aへタッチしていた指やペンがタッチパネル70aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
The system control unit 50 can detect the following operations or states on the touch panel 70a.
-A finger or pen that has not touched the touch panel 70a newly touches the touch panel 70a, that is, the start of touch (hereinafter, referred to as touch-down).
-A state in which the touch panel 70a is touched with a finger or a pen (hereinafter referred to as "Touch-On").
-The finger or pen is moving while touching the touch panel 70a (hereinafter referred to as Touch-Move).
-The finger or pen touching the touch panel 70a is separated (released) from the touch panel 70a, that is, the end of the touch (hereinafter referred to as "Touch-Up").
-A state in which nothing is touched on the touch panel 70a (hereinafter, referred to as touch-off).

タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When touchdown is detected, touch-on is also detected at the same time. After touchdown, touch-on usually continues to be detected unless touch-up is detected. When a touch move is detected, a touch-on is detected at the same time. Even if touch-on is detected, touch move is not detected unless the touch position is moved. After it is detected that all the fingers and pens that have been touched are touched up, the touch is turned off.

これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。そして、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものであってもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。 These operations / states and the position coordinates of the finger or pen touching the touch panel 70a are notified to the system control unit 50 via the internal bus. Then, the system control unit 50 determines what kind of operation (touch operation) has been performed on the touch panel 70a based on the notified information. Regarding the touch move, the moving direction of the finger or pen moving on the touch panel 70a can also be determined for each vertical component and horizontal component on the touch panel 70a based on the change in the position coordinates. When it is detected that the touch move is performed over a predetermined distance, it is determined that the slide operation has been performed. An operation of quickly moving a finger on the touch panel 70a by a certain distance and then releasing the finger is called a flick. In other words, flicking is an operation of swiftly tracing on the touch panel 70a as if flicking with a finger. If it is detected that the touch move is performed at a predetermined speed or more over a predetermined distance and the touch-up is detected as it is, it can be determined that the flick has been performed (it can be determined that there was a flick following the slide operation). Further, a touch operation in which a plurality of points (for example, two points) are touched together (multi-touch) to bring the touch positions closer to each other is called a pinch-in, and a touch operation to move the touch positions away from each other is called a pinch-out. Pinch out and pinch in are collectively called pinch operation (or simply pinch). The touch panel 70a may be any of various types of touch panels such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. good. There are a method of detecting that there is a touch due to contact with the touch panel and a method of detecting that there is a touch due to the approach of a finger or a pen to the touch panel, but any method may be used.

視線検出ブロック160は、接眼部16に接眼したユーザーがEVF29を見ているか、見ている場合、どの位置を見ているかという視線を検知するためのブロックである。視線検出ブロック160には、ダイクロイックミラー162、結像レンズ163、視線検知センサー164、赤外発光ダイオード166、視線検出回路165が含まれる。 The line-of-sight detection block 160 is a block for detecting the line-of-sight of whether the user who has eyepieces on the eyepiece 16 is looking at the EVF 29, and if so, at what position. The line-of-sight detection block 160 includes a dichroic mirror 162, an imaging lens 163, a line-of-sight detection sensor 164, an infrared light emitting diode 166, and a line-of-sight detection circuit 165.

赤外発光ダイオード166は発光素子であり、接眼部16に接眼したユーザーの眼球(目)161に赤外光を照射する。赤外発光ダイオード166から発した赤外光は眼球(目)161で反射し、その赤外反射光はダイクロイックミラー162に到達する。ダイクロイックミラー162は赤外光だけを反射して可視光を透過させる。光路を変更された赤外反射光は、結像レンズ163を介して視線検知センサー164の撮像面に結像する。結像レンズ163は視線検知光学系を構成する光学部材である。視線検知センサー164は、CCD型イメージセンサ等の撮像デバイスから成る。視線検知センサー164は、入射された赤外反射光を電気信号に光電変換して視線検出回路165へ出力する。視線検出回路165は少なくとも1つのプロセッサーを含み、視線検知センサー164の出力信号に基づき、ユーザーの眼球(目)161の画像または動きからユーザーの視線位置を検出し、検出情報をシステム制御部50に出力する。 The infrared light emitting diode 166 is a light emitting element, and irradiates the user's eyeball (eye) 161 with the eyepiece 16 with infrared light. The infrared light emitted from the infrared light emitting diode 166 is reflected by the eyeball (eye) 161 and the infrared reflected light reaches the dichroic mirror 162. The dichroic mirror 162 reflects only infrared light and transmits visible light. The infrared reflected light whose optical path has been changed is imaged on the imaging surface of the line-of-sight detection sensor 164 via the imaging lens 163. The imaging lens 163 is an optical member that constitutes a line-of-sight detection optical system. The line-of-sight detection sensor 164 includes an imaging device such as a CCD type image sensor. The line-of-sight detection sensor 164 photoelectrically converts the incident infrared reflected light into an electric signal and outputs it to the line-of-sight detection circuit 165. The line-of-sight detection circuit 165 includes at least one processor, detects the user's line-of-sight position from the image or movement of the user's eyeball (eye) 161 based on the output signal of the line-of-sight detection sensor 164, and transmits the detection information to the system control unit 50. Output.

本実施形態では、視線検出ブロック160を用いて、角膜反射法と呼ばれる方式で視線を検出する。角膜反射法とは、赤外発光ダイオード166から発した赤外光が眼球(目)161の特に角膜で反射した反射光と、眼球(目)161の瞳孔との位置関係から、視線の向き・位置を検出する方式である。この他にも黒目と白目での光の反射率が異なることを利用する強膜反射法と呼ばれる方式など、様々な視線の向き・位置を検出する方式がある。なお、視線の向き・位置を検出できる方式であれば、上記以外の視線検出手段の方式を用いてもよい。なお、本実施形態では接眼検知部57の投光部および受光部は前述の赤外発光ダイオード166および視線検知センサー164とは別体のデバイスであるものとして説明した。しかしこれに限るものではなく、接眼検知部57の投光部を赤外発光ダイオード166で兼ね、受光部を視線検知センサー164で兼ねてもよい。 In the present embodiment, the line-of-sight detection block 160 is used to detect the line of sight by a method called the corneal reflex method. The corneal reflex method refers to the direction of the line of sight based on the positional relationship between the reflected light emitted from the infrared light emitting diode 166, especially the reflected light of the eyeball (eye) 161 and the pupil of the eyeball (eye) 161. This is a method of detecting the position. In addition to this, there are various methods for detecting the direction and position of the line of sight, such as a method called scleral reflection method, which utilizes the difference in light reflectance between black and white eyes. A method of line-of-sight detection means other than the above may be used as long as the method can detect the direction and position of the line of sight. In the present embodiment, the light emitting unit and the light receiving unit of the eyepiece detection unit 57 have been described as being separate devices from the infrared light emitting diode 166 and the line-of-sight detection sensor 164 described above. However, the present invention is not limited to this, and the light emitting portion of the eyepiece detection unit 57 may be combined with the infrared light emitting diode 166, and the light receiving unit may be also used by the line-of-sight detection sensor 164.

システム制御部50は、視線検出ブロック160からのユーザーの視線に係る情報に基づいて以下の操作、あるいは状態を検知できる。
・接眼部16に接眼したユーザーの視線が新たに入力(検出)されたこと。すなわち、視線入力の開始。
・接眼部16に接眼したユーザーの視線入力がある状態であること。
・接眼部16に接眼したユーザーが注視している状態であること。
・接眼部16に接眼したユーザーが入力していた視線を外したこと。すなわち、視線入力の終了。
・接眼部16に接眼したユーザーが何も視線入力していない状態。
The system control unit 50 can detect the following operations or states based on the information related to the user's line of sight from the line of sight detection block 160.
-The line of sight of the user who touched the eyepiece 16 was newly input (detected). That is, the start of line-of-sight input.
-The eyepiece 16 is in a state where the user's line of sight is input.
-The user who has the eyepiece on the eyepiece 16 is watching.
-The line of sight entered by the user who touched the eyepiece 16 was removed. That is, the end of line-of-sight input.
-A state in which the user who has the eyepiece on the eyepiece 16 does not input any line of sight.

ここで述べた注視とは、ある程度の時間にわたってユーザーがほぼ同じ位置を見続けたことを意味している。注視しているか否かの判定としては例えば、ユーザーの視線位置が所定時間(例えば0.5秒程度)にわたって所定の移動量を超えなかった場合に注視されたと判定する。なお、所定時間はユーザーによって設定できる時間でもよいし、あらかじめ固定して決められた時間でもよいし、直前の視線位置と現在の視線位置との距離関係で変化するようにしてもよい。例えば、システム制御部50は、視線検出回路165から受け取った検出情報に基づいて、ユーザーの視線がほぼ同じ位置で検出されている状態(視線移動無し状態)の継続期間が所定時間(閾値期間)を越えた場合に、ユーザーが注視していると判定する。また、システム制御部50は、例えば、最新の検出タイミングを含む短期間(≦前述の閾値期間)における視線の検出位置の平均位置が所定範囲内に収まり、かつ、ばらつき(分散)が所定値よりも少ない場合に、視線移動無し状態であると判定する。 The gaze mentioned here means that the user has been looking at almost the same position for some time. As a determination of whether or not the user is gazing, for example, it is determined that the user is gazing when the line-of-sight position of the user does not exceed the predetermined movement amount for a predetermined time (for example, about 0.5 seconds). The predetermined time may be a time that can be set by the user, may be a fixed time, or may be changed depending on the distance relationship between the immediately preceding line-of-sight position and the current line-of-sight position. For example, the system control unit 50 has a predetermined period (threshold period) of a state in which the user's line of sight is detected at substantially the same position (no line-of-sight movement) based on the detection information received from the line-of-sight detection circuit 165. If it exceeds, it is determined that the user is watching. Further, in the system control unit 50, for example, the average position of the line-of-sight detection positions in a short period (≦ the above-mentioned threshold period) including the latest detection timing is within a predetermined range, and the variation (dispersion) is greater than the predetermined value. If the number is small, it is determined that there is no movement of the line of sight.

図3は、本実施形態によるデジタルカメラ100の撮影モードでの処理手順の一例を示すフローチャートである。なお、図3に示す各処理は、システム制御部50が不揮発性メモリ56または記録媒体200に記録されたプログラムをシステムメモリ52に展開して、システム制御部50が実行することによって実現される。
電源スイッチ72が操作され、電源がオンに切り替わると、システム制御部50は本撮影モード処理を開始する。
FIG. 3 is a flowchart showing an example of a processing procedure in the shooting mode of the digital camera 100 according to the present embodiment. Each process shown in FIG. 3 is realized by the system control unit 50 expanding the program recorded in the non-volatile memory 56 or the recording medium 200 into the system memory 52 and executing the program by the system control unit 50.
When the power switch 72 is operated and the power is switched on, the system control unit 50 starts the main shooting mode processing.

S301において、システム制御部50は、フラグや制御変数等を初期化する。
S302において、システム制御部50は、表示部28において、ライブビュー表示させる。
S303において、システム制御部50は、表示部28において、カメラ設定値に基づいて、カメラ設定値を示す情報アイコンをライブビューに重畳して表示させる。図4(a)は、撮影モードの画像全体のライブビューの画面例を示す図である。図4(a)に示すように、ライブビュー401に重畳して、被写体402と一点AF枠403とが表示されている。
In S301, the system control unit 50 initializes flags, control variables, and the like.
In S302, the system control unit 50 displays the live view on the display unit 28.
In S303, the system control unit 50 causes the display unit 28 to superimpose and display an information icon indicating the camera setting value on the live view based on the camera setting value. FIG. 4A is a diagram showing a screen example of a live view of the entire image in the shooting mode. As shown in FIG. 4A, the subject 402 and the one-point AF frame 403 are displayed superimposing on the live view 401.

S304において、システム制御部50は、操作部70のメニューボタン81などの各種設定値の変更に必要な操作がなされたか否かを判断する。操作がなされた場合はS305へ進み、そうでなければS306へ進む。 In S304, the system control unit 50 determines whether or not an operation necessary for changing various set values such as the menu button 81 of the operation unit 70 has been performed. If the operation is performed, the process proceeds to S305, otherwise the process proceeds to S306.

S305において、システム制御部50は、S305での操作に基づいて、各種設定値を変更する。例えば、MC65などの各種操作部材の有効/無効を切り替える設定、それらの操作部材への機能割り当て設定、それらの操作部材の敏感度を変更する設定、視線検出ブロック160の有効/無効を切り替える設定が挙げられる。また、それ以外には、後述のAF方式を切り替える設定、AFの動作をワンショット/サーボ/マニュアルフォーカスのいずれかに切り替える設定などが挙げられる。本実施形態においては、視線検出ブロック160を有効とする設定、つまり、接眼を検知した場合に視線入力機能を有効にし、接眼を検知しなかった場合に視線入力機能を無効にする設定となっていることを前提として説明する。 In S305, the system control unit 50 changes various set values based on the operation in S305. For example, there are settings for enabling / disabling various operating members such as MC65, setting for assigning functions to those operating members, setting for changing the sensitivity of those operating members, and setting for switching between enabling / disabling the line-of-sight detection block 160. Can be mentioned. Other than that, there are a setting for switching the AF method described later, a setting for switching the AF operation to one of one-shot / servo / manual focus, and the like. In the present embodiment, the line-of-sight detection block 160 is enabled, that is, the line-of-sight input function is enabled when the eyepiece is detected, and the line-of-sight input function is disabled when the eyepiece is not detected. The explanation is based on the assumption that there is.

操作部材の敏感度は、例えば、敏感、標準、鈍感の3段階で設定可能である。MC65の敏感度の場合は、主に8方向操作に対する敏感度設定を行うことになる。なお、MC65の敏感度は、等倍でライブビュー表示されている場合と、拡大表示されている場合とでそれぞれ異なる設定とすることもできる。 The sensitivity of the operating member can be set in three stages, for example, sensitive, standard, and insensitive. In the case of the sensitivity of MC65, the sensitivity for 8-direction operation is mainly set. The sensitivity of the MC65 can be set differently depending on whether the live view is displayed at the same magnification or the enlarged display is performed.

また、AF方式とは、AF枠の領域設定や位置指定方法を切り替える設定値である。AF枠の領域の大きさを設定する際には、ある程度広い範囲のAF枠(ゾーンAF)とすることも可能である。本実施形態では、さらに一点AFと全域AFとを切り替え可能であるとする。一点AFは、ユーザーが指定した位置に固定してAF枠を設定するモードである。また、全域AFは、ライブビュー全体に含まれる被写体をシステム制御部50が検出し、その被写体に対してAF枠を設定するモードである。 The AF method is a setting value for switching the area setting and the position designation method of the AF frame. When setting the size of the AF frame area, it is possible to set the AF frame (zone AF) in a wide range to some extent. In the present embodiment, it is further possible to switch between single-point AF and full-range AF. One-point AF is a mode in which an AF frame is set by fixing it at a position specified by the user. Further, the whole area AF is a mode in which the system control unit 50 detects a subject included in the entire live view and sets an AF frame for the subject.

MC65の中央押し操作へ割り当て可能な機能には、AF枠を画面中央に戻す機能、ユーザーが予め登録した特定の位置(ホームポジション)へ移動させる機能が挙げられる。それ以外の割り当て可能な機能としては、ライブビューの拡大倍率を変更する機能、そして前記視線の検出結果位置にAF枠を移動させる機能、などが挙げられる。本実施形態においては、MC65の中央押し操作で、接眼されていない場合など視線入力機能が無効なときには画面中央に戻す機能を割り当て、視線入力機能が有効な場合には視線の検出結果位置へ移動させる機能を割り当てるものとして説明する。 Functions that can be assigned to the center pressing operation of the MC65 include a function of returning the AF frame to the center of the screen and a function of moving the AF frame to a specific position (home position) registered in advance by the user. Other assignable functions include a function of changing the magnification of the live view and a function of moving the AF frame to the detection result position of the line of sight. In the present embodiment, the function of returning to the center of the screen is assigned when the line-of-sight input function is disabled, such as when the eyepiece is not eyepieced, and when the line-of-sight input function is enabled, the movement is moved to the line-of-sight detection result position. It will be described as assigning the function to be performed.

S306において、システム制御部50は、拡大モードがONの状態で操作部70のメイン電子ダイヤル71を用いてライブビュー倍率の変更操作がなされたか否かを判断する。操作がなされた場合は、S307へ進み、そうでなければ、S308へ進む。 In S306, the system control unit 50 determines whether or not the live view magnification change operation has been performed using the main electronic dial 71 of the operation unit 70 while the enlargement mode is ON. If the operation is performed, the process proceeds to S307, and if not, the process proceeds to S308.

S307において、システム制御部50は、S306で検出された変更操作に基づいて、表示部28において、ライブビュー表示の倍率を変更して表示させる。ここでユーザーは、撮影シーンに応じて適宜ライブビューの倍率を、等倍と拡大倍率との間で切り替えることができる。図4(d)は、撮影モードの拡大ライブビューの画面例を示す図である。図4(d)に示すように、拡大ライブビュー411に重畳して、拡大位置を示す拡大インジケータ412と、画面の中心位置を示す中心AF枠413とが表示される。 In S307, the system control unit 50 changes the magnification of the live view display and displays it on the display unit 28 based on the change operation detected in S306. Here, the user can appropriately switch the magnification of the live view between the same magnification and the magnification magnification according to the shooting scene. FIG. 4D is a diagram showing a screen example of the enlarged live view in the shooting mode. As shown in FIG. 4D, the magnifying indicator 412 indicating the magnified position and the central AF frame 413 indicating the center position of the screen are displayed superimposing on the magnified live view 411.

S308において、システム制御部50は、MC65に対し、中央押し操作がなされたか否かを判断する。操作がなされた場合は、S309へ進み、そうでなければ、S323へ進む。
S309において、システム制御部50は、ライブビュー表示が拡大中か否かを判断する。拡大中の場合はS313へ進み、そうでなければS310へ進む。
In S308, the system control unit 50 determines whether or not the center push operation has been performed on the MC65. If the operation is performed, the process proceeds to S309, and if not, the process proceeds to S323.
In S309, the system control unit 50 determines whether or not the live view display is being expanded. If it is expanding, the process proceeds to S313, otherwise the process proceeds to S310.

S310において、システム制御部50は、接眼検知部57により接眼が検知されており、かつ、視線入力機能が有効か否かを判断する。接眼が検知されており、かつ、視線入力機能が有効の場合はS312へ進み、そうでない場合(視線入力機能が無効に設定されている場合、あるいは、視線入力機能が有効に設定されているが接眼を検知していない場合)はS311へ進む。視線入力機能を有効とするか無効とするかは、予め設定メニューなどから設定しておくことができるものとする。
S311において、システム制御部50は、表示部28またはEVF29においてAF枠を中央に移動させて表示させる。図4(b)は、撮影モードのライブビューの画面例を示す図であり、基本的には図4(a)に示す例と同じであるが、一点AF枠403が画面中央へ移動した状態である。なお、中央ではなく予め登録された位置(ホームポジション)へ移動させるようにしてもよい。
In S310, the system control unit 50 determines whether or not the eyepiece is detected by the eyepiece detection unit 57 and the line-of-sight input function is effective. If the eyepiece is detected and the line-of-sight input function is enabled, proceed to S312, and if not (when the line-of-sight input function is disabled or the line-of-sight input function is enabled). If the eyepiece is not detected), the process proceeds to S311. Whether to enable or disable the line-of-sight input function can be set in advance from the setting menu or the like.
In S311 the system control unit 50 moves the AF frame to the center on the display unit 28 or the EVF 29 to display it. FIG. 4B is a diagram showing a screen example of the live view in the shooting mode, which is basically the same as the example shown in FIG. 4A, but the one-point AF frame 403 is moved to the center of the screen. Is. In addition, it may be moved to a pre-registered position (home position) instead of the center.

S312において、システム制御部50は、EVF29において、AF枠を視線検出位置に移動させて表示させる。図4(g)は、撮影モードの視線入力が有効な状態でのライブビューの画面例を示す図である。図4(g)に示すように、被写体422a〜422cを含むライブビュー421が表示されており、それに重畳して、AF枠423と、視線検出位置を示す視線ポインタ424とがEVF29に表示されている。この状態でS308においてMC65の中央押し操作が検出されると、図4(h)に示すように、視線ポインタ424があった位置にAF枠423が移動して表示される。 In S312, the system control unit 50 moves the AF frame to the line-of-sight detection position in the EVF 29 and displays it. FIG. 4 (g) is a diagram showing a screen example of a live view in a state where the line-of-sight input in the shooting mode is enabled. As shown in FIG. 4 (g), the live view 421 including the subjects 422a to 422c is displayed, and the AF frame 423 and the line-of-sight pointer 424 indicating the line-of-sight detection position are displayed on the EVF 29 so as to be superimposed on the live view 421. There is. When the center pressing operation of the MC65 is detected in S308 in this state, the AF frame 423 moves and is displayed at the position where the line-of-sight pointer 424 was located, as shown in FIG. 4H.

一方、S313において、システム制御部50は、S310と同様に、接眼検知部57により接眼が検知されており、かつ、視線入力機能が有効か否かを判断する。接眼が検知されており、かつ、視線入力機能が有効の場合はS315へ進み、そうでなければS314へ進む。
S314において、システム制御部50は、表示部28またはEVF29において、拡大位置を中央に移動させて表示させる。なお、中央ではなく予め登録された位置(ホームポジション)へ拡大位置を移動させるようにしてもよい。また、このとき拡大位置に連動してAF枠を移動させてもよく、連動するか否かを、ユーザーが切り替える設定を設けてもよい。図4(e)には、図4(d)に示す表示状態から、拡大位置が中央へ移動された状態を示している。
On the other hand, in S313, the system control unit 50 determines whether or not the eyepiece is detected by the eyepiece detection unit 57 and the line-of-sight input function is effective, as in S310. If the eyepiece is detected and the line-of-sight input function is enabled, the process proceeds to S315, otherwise the process proceeds to S314.
In S314, the system control unit 50 causes the display unit 28 or the EVF 29 to display the enlarged position by moving it to the center. The enlarged position may be moved to a pre-registered position (home position) instead of the center. Further, at this time, the AF frame may be moved in conjunction with the enlarged position, and a setting may be provided in which the user switches whether or not the AF frame is linked. FIG. 4 (e) shows a state in which the enlarged position has been moved to the center from the display state shown in FIG. 4 (d).

S315において、システム制御部50は、EVF29において、拡大位置を視線検出位置に基づいた位置に移動させる。例えば、視線検出位置を中心にライブビュー表示を拡大するように変更する。このとき、同様に、拡大位置に連動するようにAF枠も移動させてもよい。 In S315, the system control unit 50 moves the enlarged position to a position based on the line-of-sight detection position in the EVF 29. For example, the live view display is changed to be enlarged around the line-of-sight detection position. At this time, similarly, the AF frame may be moved so as to be interlocked with the enlarged position.

S316において、システム制御部50は、MC65に対し、中央押し操作がなされた状態で、8方向操作がなされたか否かを判断する。操作がなされた場合は、S317へ進み、そうでなければ、S323へ進む。
S317において、システム制御部50は、ライブビュー表示が拡大中か否かを判断する。拡大中の場合はS318へ進み、そうでなければS320へ進む。
In S316, the system control unit 50 determines whether or not the eight-direction operation has been performed on the MC65 while the center push operation has been performed. If the operation is performed, the process proceeds to S317, and if not, the process proceeds to S323.
In S317, the system control unit 50 determines whether or not the live view display is being expanded. If it is expanding, proceed to S318, otherwise proceed to S320.

S318において、システム制御部50は、S310と同様に、接眼検知部57により接眼が検知されており、かつ、視線入力機能が有効か否かを判断する。接眼が検知されており、かつ、視線入力機能が有効の場合はS319へ進み、そうでなければS321へ進んでMC65の8方向操作に応じた機能実行はしない。つまり、視線入力機能が無効である場合は、MC65の中央押し操作の継続中は8方向操作が無効になる。なお、S318、S319の処理を無くし、S317でNoと判定した場合はS321に進むようにしてもよい。すなわち、視線入力機能の有効無効にかかわらず、MC65の中央押し操作の継続中は8方向操作を無効とするようにしても良い。
S319において、システム制御部50は、EVF29において、S316で検出された8方向操作の方向に基づいてAF枠を移動させて表示させる。図4(i)には、図4(h)に示すAF枠423の位置から、S316で検出された8方向操作の方向に基づいて、AF枠423を被写体422cの選択位置へ移動させている例を示している。
In S318, the system control unit 50 determines whether or not the eyepiece is detected by the eyepiece detection unit 57 and the line-of-sight input function is effective, as in S310. If the eyepiece is detected and the line-of-sight input function is enabled, the process proceeds to S319, otherwise the process proceeds to S321 and the function is not executed according to the 8-direction operation of the MC65. That is, when the line-of-sight input function is disabled, the eight-direction operation is disabled while the center pressing operation of the MC65 is being continued. The processing of S318 and S319 may be eliminated, and if No is determined in S317, the process may proceed to S321. That is, regardless of whether the line-of-sight input function is enabled or disabled, the eight-direction operation may be disabled while the center pressing operation of the MC65 is being continued.
In S319, the system control unit 50 moves and displays the AF frame in the EVF 29 based on the direction of the eight-direction operation detected in S316. In FIG. 4 (i), the AF frame 423 is moved from the position of the AF frame 423 shown in FIG. 4 (h) to the selected position of the subject 422c based on the direction of the eight-direction operation detected in S316. An example is shown.

S320において、システム制御部50は、S316の操作に基づいて、表示部28またはEVF29において、拡大位置を移動させて表示させる。図4(f)は、図4(e)に示した状態から、S316で検出された8方向操作の方向に基づいて、拡大位置を右方向へずらしている例を示している。なお、図4(f)に示した例では、AF枠は中央の位置のまま拡大位置が右方向へずれているが、拡大位置に連動するようにAF枠も右方向へずれるようにしてもよい。 In S320, the system control unit 50 moves the enlarged position on the display unit 28 or the EVF 29 to display it based on the operation of S316. FIG. 4 (f) shows an example in which the enlarged position is shifted to the right based on the direction of the eight-direction operation detected in S316 from the state shown in FIG. 4 (e). In the example shown in FIG. 4 (f), the enlarged position of the AF frame remains at the center position and the enlarged position is shifted to the right. However, the AF frame may also be shifted to the right so as to be linked to the enlarged position. good.

S321において、システム制御部50は、MC65に対し、8方向操作が解除されたか否かを判断する。解除された場合はS322へ進み、そうでなければS317へ進む。
S322において、システム制御部50は、MC65に対し、中央押し操作が解除されたか否かを判断する。解除された場合はS323へ進み、そうでなければS316へ進む。
In S321, the system control unit 50 determines whether or not the eight-direction operation has been canceled with respect to the MC65. If it is canceled, the process proceeds to S322, otherwise the process proceeds to S317.
In S322, the system control unit 50 determines with respect to the MC65 whether or not the center pressing operation has been released. If it is canceled, the process proceeds to S323, otherwise the process proceeds to S316.

S323において、システム制御部50は、MC65に対し、中央押し操作がなされていない状態で、8方向操作がなされたか否かを判断する。操作がなされた場合は、S324へ進み、そうでなければ、S328へ進む。
S324において、システム制御部50は、ライブビュー表示が拡大中か否かを判断する。拡大中の場合はS326へ進み、そうでなければS325へ進む。
In S323, the system control unit 50 determines whether or not the eight-direction operation has been performed on the MC65 in a state where the center push operation has not been performed. If the operation is performed, the process proceeds to S324, and if not, the process proceeds to S328.
In S324, the system control unit 50 determines whether or not the live view display is being expanded. If it is expanding, proceed to S326, otherwise proceed to S325.

S325において、システム制御部50は、表示部28またはEVF29において、S323で検出された8方向操作の方向に基づいてAF枠を移動させて表示させる。図4(c)は、撮影モードのライブビューの画面例を示す図であり、図4(a)または図4(b)に示した状態から、一点AF枠403がS323検出された8方向操作の方向に基づいて移動した状態であることを示している。 In S325, the system control unit 50 moves and displays the AF frame on the display unit 28 or EVF29 based on the direction of the eight-direction operation detected in S323. FIG. 4C is a diagram showing a screen example of the live view in the shooting mode, and is an eight-direction operation in which the one-point AF frame 403 is detected in S323 from the state shown in FIG. 4A or FIG. 4B. It shows that it is in a state of being moved based on the direction of.

S326において、システム制御部50は、表示部28またはEVF29において、S323で検出された8方向操作の方向に基づいて拡大位置を移動させて表示させる。
S327において、システム制御部50は、MC65に対し、8方向操作が解除されたか否かを判断する。解除された場合はS328へ進み、そうでなければS324へ進む。
In S326, the system control unit 50 moves and displays the enlarged position on the display unit 28 or the EVF 29 based on the direction of the eight-direction operation detected in S323.
In S327, the system control unit 50 determines whether or not the eight-direction operation has been canceled with respect to the MC65. If it is canceled, the process proceeds to S328, otherwise the process proceeds to S324.

S328において、システム制御部50は、操作部70に対し、その他の操作がなされたか否かを判断する。なされた場合はS329へ進み、そうでなければS330へ進む。その他の操作とは、撮影操作や、シャッタースピードや絞り値などの撮影パラメータの変更操作などである。
S329において、システム制御部50は、その他の処理を行う。その他の処理とは、撮影や、シャッタースピードや絞り値などの撮影パラメータの変更などである。
In S328, the system control unit 50 determines whether or not any other operation has been performed on the operation unit 70. If it is done, proceed to S329, otherwise proceed to S330. Other operations include shooting operations and operations for changing shooting parameters such as shutter speed and aperture value.
In S329, the system control unit 50 performs other processing. Other processes include shooting and changing shooting parameters such as shutter speed and aperture value.

S330において、システム制御部50は、操作部70に対し、終了操作がなされたか否かを判断する。ここで終了操作とは、電源スイッチ72が押下される操作や、再生ボタン79が押下される操作などである。終了操作がなされた場合は処理を終了し、そうでなければS304へ進む。 In S330, the system control unit 50 determines whether or not the end operation has been performed on the operation unit 70. Here, the end operation is an operation in which the power switch 72 is pressed, an operation in which the play button 79 is pressed, and the like. If the end operation is performed, the process is terminated, otherwise the process proceeds to S304.

以上のように本実施形態によれば、視線入力機能が無効である場合、表示部28またはEVF29において、等倍でライブビュー表示され、MC65に対して中央押しした状態で8方向操作がなされた場合には、8方向操作を無効にするようにした。これにより、例えばAF枠が誤って中央位置からずれてしまうような不都合を防止することができる。一方で、拡大表示されているような場合には、視線入力機能が無効である場合にも、MC65に対して中央押しした状態で8方向操作がなされた場合には、8方向操作を有効にするようにした。このように拡大表示されている場合には、8方向操作によって拡大位置を微調整することができる。なお、上述した通り、視線入力機能の有効/無効にかかわらず、拡大せずにLV表示している場合にはMC65の中央押し継続中の8方向操作を無効とし、拡大してLV表示している場合にはMC65の中央押し継続中の8方向操作を有効とするようにしてもよい。 As described above, according to the present embodiment, when the line-of-sight input function is disabled, the live view is displayed at the same magnification on the display unit 28 or EVF29, and the eight-direction operation is performed with the MC65 pressed in the center. In that case, the 8-way operation was disabled. This makes it possible to prevent, for example, the inconvenience that the AF frame is accidentally displaced from the center position. On the other hand, in the case of enlarged display, even if the line-of-sight input function is disabled, if 8-direction operation is performed while the MC65 is pressed in the center, 8-direction operation is enabled. I tried to do it. When the image is enlarged in this way, the enlarged position can be finely adjusted by operating in eight directions. As described above, regardless of whether the line-of-sight input function is enabled or disabled, if the LV is displayed without enlarging, the 8-direction operation while the MC65 is being pressed in the center is invalidated, and the LV is enlarged and displayed. If so, the eight-direction operation while the MC65 is being pushed centrally may be enabled.

また、視線入力機能が有効である場合、MC65に対して中央押しした状態で8方向操作がなされた場合であっても、8方向操作を有効にするようにした(S319)。視線入力機能が有効である場合では、中央押しで視線に応じた位置にAF枠を移動した後に、8方向操作でAF枠の位置の微調整を行う必要性が高いことから、8方向操作による誤操作の低減よりも微調整の操作性を優先している。これによって視線に基づいて大雑把に決めたAF枠の位置を8方向操作で簡単に微調整でき、利便性を確保することができる。 Further, when the line-of-sight input function is enabled, the 8-direction operation is enabled even when the 8-direction operation is performed while the MC65 is pressed in the center (S319). When the line-of-sight input function is enabled, it is highly necessary to fine-tune the position of the AF frame by operating in eight directions after moving the AF frame to a position corresponding to the line of sight by pressing the center. The operability of fine adjustment is prioritized over the reduction of erroneous operations. As a result, the position of the AF frame roughly determined based on the line of sight can be easily finely adjusted by operating in eight directions, and convenience can be ensured.

なお、図3に示した例では、MC65により一点AF枠を移動させたが、全域AFに対して適用させても良い。図4(j)〜図4(l)は、全域AFに適用させた場合の画面例を示す図であり、図4(j)は、全域AFにおける撮影モードのライブビューの画面例を示す図である。 In the example shown in FIG. 3, the one-point AF frame is moved by the MC65, but it may be applied to the entire area AF. 4 (j) to 4 (l) are diagrams showing a screen example when applied to the full-area AF, and FIG. 4 (j) is a diagram showing a screen example of the live view of the shooting mode in the full-range AF. Is.

図4(j)に示すように、被写体422a〜422cを含むライブビュー421がEVF29に表示されており、それに重畳して、検出AF枠425と、視線検出位置を示す視線ポインタ424が表示されている。S308において、MC65の中央押し操作がなされたと判断した場合には、S312において、図4(k)に示すように、視線ポインタ424があった位置に最も近い被写体422bを選択した状態でEVF29に表示させる。 As shown in FIG. 4 (j), the live view 421 including the subjects 422a to 422c is displayed on the EVF 29, and the detection AF frame 425 and the line-of-sight pointer 424 indicating the line-of-sight detection position are displayed superimposed on the live view 421. There is. When it is determined in S308 that the center pressing operation of the MC65 has been performed, in S312, as shown in FIG. 4 (k), the subject 422b closest to the position where the line-of-sight pointer 424 was located is selected and displayed on the EVF29. Let me.

また、図4(k)において、選択された被写体422bには、追尾AF枠426と、MC65の左右方向操作によって選択する被写体の切り替え操作が可能であることを示す左右矢印427とが表示される。この状態から、S316でMC65の8方向操作がなされたと判断した場合は、S319において、図4(l)に示すように、別の被写体422cを選択した状態でEVF29に表示させる。このように、視線検出位置にAF枠を移動させた後、継続してMC65の8方向操作を有効とすることで、仮に意図しない被写体を選択してしまっても、すぐに微調整が可能となる。 Further, in FIG. 4K, the selected subject 422b is displayed with a tracking AF frame 426 and left and right arrows 427 indicating that the selected subject can be switched by operating the MC65 in the left-right direction. .. If it is determined from this state that the MC65 has been operated in eight directions in S316, the EVF29 is displayed in S319 with another subject 422c selected as shown in FIG. 4 (l). In this way, after moving the AF frame to the line-of-sight detection position, by continuously enabling the 8-direction operation of the MC65, even if an unintended subject is selected, fine adjustment can be performed immediately. Become.

なお、MC65の中央押し操作したまま8方向操作した後に中央押し操作のみの状態に戻した場合(S321/Yes→S322/Noの場合)も、S316に戻ることから、状況に応じて、8方向操作が有効または無効となる。また、視線入力機能はEVF29でのみ有効な機能であるとしているが、それに限らない。表示部28にライブビューが表示されている状態であっても、視線検出を可能な構成としてもよい。 It should be noted that even when the MC65 is operated in 8 directions while being operated in the center and then returned to the state of only the center push operation (in the case of S321 / Yes → S322 / No), it returns to S316, so depending on the situation, there are 8 directions. The operation is enabled or disabled. Further, the line-of-sight input function is said to be a function effective only in EVF29, but is not limited to this. Even when the live view is displayed on the display unit 28, the line-of-sight detection may be possible.

さらに本実施形態においては、MC65は8方向操作が可能としているが、8方向に限らずそれより操作可能な方向が多くても少なくてもよい。また、MC65は、図1(b)に示すようなジョイスティック形状の部材に限らない。押圧を検出可能なタッチ操作部材でもよいし、押下式のボタン表面にタッチ操作を検出可能な操作部材でもよい。 Further, in the present embodiment, the MC65 can be operated in eight directions, but the operation is not limited to the eight directions, and there may be more or less operations than the eight directions. Further, the MC65 is not limited to the joystick-shaped member as shown in FIG. 1 (b). It may be a touch operation member capable of detecting a press, or an operation member capable of detecting a touch operation on the surface of a press-type button.

なお、図3に示した制御に併せて、MC65の敏感度を変更してもよい。例えば、表示部28に等倍のライブビューが表示されている状態では、中央押し操作からの8方向操作を無効とする代わりに、8方向操作のみを行った場合のAF枠の移動(S325)を敏感にしてもよい。これに対して、中央押し操作からの8方向操作を有効とするライブビュー拡大状態においては、拡大位置の移動(S320)を鈍感にしてもよい。 The sensitivity of the MC65 may be changed in accordance with the control shown in FIG. For example, in a state where the same-magnification live view is displayed on the display unit 28, the AF frame is moved when only the 8-direction operation is performed instead of disabling the 8-direction operation from the center push operation (S325). May be sensitive. On the other hand, in the live view enlarged state in which the eight-direction operation from the center pressing operation is enabled, the movement of the enlarged position (S320) may be insensitive.

また、拡大表示よりも等倍のライブビュー表示の方がMC65の敏感度が鈍感に設定されている場合は、表示部28に等倍のライブビューが表示されている状態で中央押し操作からの8方向操作を有効としてもよい。つまり、S318/Noの場合に、システム制御部50は、S319と同様に、表示部28において、S316で検出された8方向操作の方向に基づいてAF枠を移動させて表示させる。その後、S321に進む。それとは反対に、拡大表示よりも等倍のライブビュー表示の方がMC65の敏感度が敏感に設定されている場合にのみ、図3に示すように、表示部28に等倍のライブビューが表示されている状態で中央押し操作からの8方向操作を無効としてもよい。場合によっては、利便性と誤操作防止の両立が必要でない場合もあり、利便性のみを確保したい場合などでは、敏感度の設定を変更することにより利便性を確保することができる。 If the sensitivity of the MC65 is set to be less sensitive in the live view display at the same magnification than in the enlarged display, the live view at the same magnification is displayed on the display unit 28 and the center press operation is performed. Eight-way operation may be enabled. That is, in the case of S318 / No, the system control unit 50 moves and displays the AF frame on the display unit 28 based on the direction of the eight-direction operation detected in S316, similarly to S319. Then, the process proceeds to S321. On the contrary, as shown in FIG. 3, the live view of the same size is displayed on the display unit 28 only when the sensitivity of the MC65 is set more sensitively in the live view display of the same size than in the enlarged display. In the displayed state, the 8-direction operation from the center push operation may be invalidated. In some cases, it may not be necessary to achieve both convenience and prevention of erroneous operation. When only convenience is to be ensured, convenience can be ensured by changing the sensitivity setting.

また、AF動作の設定が、ワンショット、サーボ、マニュアルフォーカスの何れかの設定によって制御を変えてもよい。例えば、ワンショットの設定の場合は中央押し操作からの8方向操作を無効とするが、サーボの設定は、基本的に動いている被写体を撮影するシーンで用いられるため、操作性を重視してもよい。つまり、AF動作の設定がサーボである場合は、表示部28に等倍のライブビューが表示されている状態で中央押し操作からの8方向操作を有効としてもよい。 Further, the AF operation setting may be changed by any one of one-shot, servo, and manual focus settings. For example, in the case of one-shot setting, 8-direction operation from the center push operation is invalid, but since the servo setting is basically used in the scene of shooting a moving subject, emphasis is placed on operability. May be good. That is, when the AF operation is set to the servo, the eight-direction operation from the center push operation may be enabled while the live view of the same magnification is displayed on the display unit 28.

また、撮影操作中に制御を変えてもよい。例えば、シャッターボタン61の状態がSW1状態(半押しの状態)の場合には、表示部28に等倍のライブビューが表示されている状態で中央押し操作からの8方向操作を有効とするなどとしてもよい。さらに、AF方式に応じて制御を変えてもよい。例えば、所定値以上の広い範囲のAF枠(ゾーンAF)を設定している場合は、厳密な中央構図が不要なシーンであることが多い。そのため、表示部28に等倍のライブビューが表示されている状態で中央押し操作からの8方向操作を有効としてもよい。これにより、誤操作よりも利便性を重視した仕様とすることができる。 Further, the control may be changed during the shooting operation. For example, when the shutter button 61 is in the SW1 state (half-pressed state), the eight-direction operation from the center-pressed operation is enabled while the live view of the same magnification is displayed on the display unit 28. May be. Further, the control may be changed according to the AF method. For example, when an AF frame (zone AF) in a wide range of a predetermined value or more is set, it is often the scene that does not require a strict central composition. Therefore, the eight-direction operation from the center pressing operation may be enabled while the live view of the same magnification is displayed on the display unit 28. As a result, the specifications can be made with more emphasis on convenience than erroneous operation.

また、本実施形態においては、MC65の中央押し操作で、AF枠または拡大位置を所定の位置に移動させる機能を割り当てた。具体的には、視線入力機能が無効なときにはAF枠または拡大位置を画面中央またはホームポジションに戻す機能を割り当て、視線入力機能が有効な場合にはAF枠または拡大位置を視線の検出結果位置へ移動させる機能を割り当てた。また、MC65の8方向操作で、AF枠または拡大位置をその方向へ移動させる機能を割り当てた。一方で、メニューボタン81を操作してメニュー画面からMC65の中央押し操作及び8方向操作の機能を異なる機能に割り当てることも可能である。図3に示した処理は、MC65の中央押し操作及び8方向操作に上述の機能が割り当てられていることが前提であるため、異なる機能を割り当てた場合には、図3に示す制御を行わないようにする。この場合、MC65が操作された際にその異なる機能に応じた処理を行うようにする。 Further, in the present embodiment, a function of moving the AF frame or the enlarged position to a predetermined position is assigned by the center pressing operation of the MC65. Specifically, when the line-of-sight input function is disabled, the function to return the AF frame or magnified position to the center of the screen or the home position is assigned, and when the line-of-sight input function is enabled, the AF frame or magnified position is moved to the line-of-sight detection result position. Assigned the function to move. In addition, the function of moving the AF frame or the enlarged position in that direction was assigned by operating the MC65 in eight directions. On the other hand, it is also possible to operate the menu button 81 to assign the center pressing operation and the eight-direction operation function of the MC65 to different functions from the menu screen. Since the processing shown in FIG. 3 is based on the premise that the above-mentioned functions are assigned to the center pressing operation and the 8-direction operation of the MC65, the control shown in FIG. 3 is not performed when different functions are assigned. To do so. In this case, when the MC65 is operated, processing is performed according to the different functions.

(その他の実施形態)
なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
(Other embodiments)
It should be noted that the above-mentioned various controls described as those performed by the system control unit 50 may be performed by one hardware, or a plurality of hardware (for example, a plurality of processors and circuits) share the processing to be a device. The whole control may be performed. Further, although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Furthermore, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be combined as appropriate.

また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されず、MCを搭載した装置であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する装置としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。 Further, in the above-described embodiment, the case where the present invention is applied to a digital camera has been described as an example, but this is not limited to this example, and any device equipped with an MC can be applied. That is, the present invention is applicable to personal computers, PDAs, mobile phone terminals, portable image viewers, printer devices equipped with displays, digital photo frames, music players, game machines, electronic book readers, and the like. Further, the present invention can be applied not only to the image pickup device main body but also to a control device that communicates with the image pickup device (including a network camera) via wired or wireless communication and remotely controls the image pickup device. As a device for remotely controlling the image pickup device, for example, there are devices such as smartphones, tablet PCs, and desktop PCs. The image pickup device can be controlled remotely by notifying the image pickup device of commands for performing various operations and settings from the control device side based on the operations performed on the control device side and the processes performed on the control device side. be. Further, the live view image taken by the imaging device may be received via wired or wireless communication and displayed on the control device side.

本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。 The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program code. This is the process to be executed. In this case, the program and the storage medium that stores the program constitute the present invention.

50 システム制御部、65 MC 50 system control unit, 65 MC

Claims (22)

第1の倍率と、前記第1の倍率とは異なる第2の倍率とを含む複数の倍率のうち、いずれの倍率で画像を表示するかを切り替える切り替え手段と、
複数の方向のいずれかを指示する第1の種別の操作と、方向を指示しない第2の種別の操作とを受け付け可能な操作手段と、
前記操作手段に対する操作に基づいて、前記表示される画像において選択位置を移動する制御を行う制御手段と、
を有し、
前記制御手段は、
前記第1の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記選択位置の移動を行わないように制御し、
前記第2の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記選択位置の移動を行うように制御する
ことを特徴とする電子機器。
A switching means for switching at which magnification the image is displayed among a plurality of magnifications including the first magnification and the second magnification different from the first magnification.
An operating means capable of accepting a first type of operation that specifies one of a plurality of directions and a second type of operation that does not specify a direction.
A control means that controls movement of the selected position in the displayed image based on an operation on the operation means, and a control means.
Have,
The control means
When the operation of the first type is performed while the operation of the second type is performed while the image is displayed at the first magnification, the operation of the first type is performed. Control the selection position so that it does not move in the direction based on the image.
When the operation of the first type is performed while the operation of the second type is performed while the image is displayed at the second magnification, the operation of the first type is performed. An electronic device characterized in that it is controlled to move the selected position in a direction based on the image.
視線検出手段で検出されたユーザーの視線に係る情報を入力する入力手段を更に有し、
前記制御手段は、前記第1の倍率で画像を表示している際であっても、前記入力手段により前記視線に係る情報が入力されている場合には、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合には、前記第1の種別の操作に基づく前記選択位置の移動を行うように制御することを特徴とする請求項1に記載の電子機器。
Further having an input means for inputting information related to the user's line of sight detected by the line-of-sight detection means,
Even when the control means is displaying an image at the first magnification, if the information related to the line of sight is input by the input means, the second type of operation is performed. The first aspect of the present invention is described in claim 1, wherein when the operation of the first type is performed in the broken state, the operation of the selected position is controlled to be performed based on the operation of the first type. Electronics.
複数の方向のいずれかを指示する第1の種別の操作と、方向を指示しない第2の種別の操作とを受け付け可能な操作手段と、
視線検出手段で検出されたユーザーの視線に係る情報を入力する入力手段と、
前記操作手段に対する操作に基づいて、表示される画像において選択位置を移動する制御を行う制御手段と、
を有し、
前記制御手段は、
前記入力手段により前記視線に係る情報が入力されておらず、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合には、前記第1の種別の操作に基づく方向に前記選択位置の移動を行わないように制御し、
前記入力手段により前記視線に係る情報が入力されており、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合には、前記第1の種別の操作に基づく方向に前記選択位置の移動を行うように制御する
ことを特徴とする電子機器。
An operating means capable of accepting a first type of operation that specifies one of a plurality of directions and a second type of operation that does not specify a direction.
An input means for inputting information related to the user's line of sight detected by the line-of-sight detection means, and
A control means that controls the movement of the selected position in the displayed image based on the operation on the operation means, and the control means.
Have,
The control means
When the information related to the line of sight is not input by the input means and the operation of the first type is performed while the operation of the second type is performed, the operation of the first type is performed. Control the selection position so that it does not move in the direction based on the operation.
When the information related to the line of sight is input by the input means and the operation of the first type is performed while the operation of the second type is performed, the operation of the first type is performed. An electronic device characterized in that the selected position is controlled to move in a direction based on the above.
前記視線検出手段は、ファインダーに接眼したユーザーの目の視線を検出する手段であることを特徴とする請求項2又は3に記載の電子機器。 The electronic device according to claim 2 or 3, wherein the line-of-sight detecting means is a means for detecting the line of sight of the user's eyes that have come into contact with the finder. 前記入力手段により前記視線に係る情報が入力されている場合に、前記制御手段は、前記第2の種別の操作に応じて、前記選択位置を前記ユーザーの視線に基づく位置に移動するよう制御することを特徴とする請求項2乃至4のいずれか1項に記載の電子機器。 When the information related to the line of sight is input by the input means, the control means controls to move the selected position to a position based on the line of sight of the user in response to the operation of the second type. The electronic device according to any one of claims 2 to 4, wherein the electronic device is characterized by the above. 前記入力手段により前記視線に係る情報が入力されていない場合に、前記制御手段は、前記第2の種別の操作に応じて、前記選択位置を前記画像の中央の位置または予め登録された位置に移動するよう制御することを特徴とする請求項2乃至5のいずれか1項に記載の電子機器。 When the information related to the line of sight is not input by the input means, the control means sets the selected position to the center position of the image or a pre-registered position according to the operation of the second type. The electronic device according to any one of claims 2 to 5, wherein the electronic device is controlled to move. 前記第1の種別及び前記第2の種別の操作の機能を割り当てる割り当て手段をさらに有し、
前記割り当て手段によって前記第1の種別の操作に対して前記選択位置を前記第1の種別の操作に基づく方向に移動させる機能、および前記第2の種別の操作に対して前記選択位置を所定の位置に移動させる機能が割り当てられた場合に、前記制御手段は、前記第1の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記選択位置の移動を行わないように制御することを特徴とする請求項1乃至6のいずれか1項に記載の電子機器。
Further having an assignment means for assigning the functions of the first type and the operation of the second type.
A function of moving the selected position in a direction based on the first type of operation for the first type of operation by the allocation means, and a predetermined selection position for the second type of operation. When the function of moving to the position is assigned, the control means is displaying the image at the first magnification, and the first type is operated in the state where the operation of the second type is performed. The method according to any one of claims 1 to 6, wherein when the operation of Electronics.
前記第2の倍率は、前記第1の倍率よりも大きい倍率であることを特徴とする請求項1乃至7のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 7, wherein the second magnification is a magnification larger than the first magnification. 前記第1の倍率は、画像の全体が表示される倍率であることを特徴とする請求項8に記載の電子機器。 The electronic device according to claim 8, wherein the first magnification is a magnification at which the entire image is displayed. 前記第1の種別の操作に対する敏感度を設定する敏感度設定手段をさらに有し、
前記敏感度設定手段により、前記第1の倍率での前記第1の種別の操作が、前記第2の倍率での前記第1の種別の操作よりも敏感に設定されている場合に、前記制御手段は、前記第1の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記選択位置の移動を行わないように制御することを特徴とする請求項8又は9に記載の電子機器。
It further has a sensitivity setting means for setting the sensitivity to the first type of operation.
The control when the sensitivity setting means sets the operation of the first type at the first magnification more sensitively than the operation of the first type at the second magnification. The means is the first type when the operation of the first type is performed while the operation of the second type is performed while the image is displayed at the first magnification. The electronic device according to claim 8 or 9, wherein the selected position is controlled so as not to move in a direction based on the operation of the above.
前記第2の倍率で画像を表示している場合に、前記選択位置は、画像全体のうちの拡大する位置であることを特徴とする請求項8乃至10のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 8 to 10, wherein when the image is displayed at the second magnification, the selected position is an enlarged position in the entire image. .. 前記第1の倍率で画像を表示している場合に、前記選択位置は、焦点を検出する位置であることを特徴とする請求項1乃至11のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 11, wherein when the image is displayed at the first magnification, the selected position is a position for detecting the focus. 前記焦点を検出する位置での領域の大きさを設定する領域設定手段をさらに有し、
前記領域設定手段によって前記焦点を検出する位置での領域の大きさが所定値以上である場合に、前記制御手段は、前記第1の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合であっても、前記第1の種別の操作に基づく方向に前記選択位置の移動を行うように制御することを特徴とする請求項12に記載の電子機器。
It further has a region setting means for setting the size of the region at the position where the focus is detected.
When the size of the region at the position where the focus is detected by the region setting means is equal to or larger than a predetermined value, the control means receives the second magnification when displaying the image at the first magnification. Even when the operation of the first type is performed while the operation of the type is performed, it is possible to control the movement of the selected position in the direction based on the operation of the first type. The electronic device according to claim 12.
前記表示される画像は、撮像手段で撮像されたライブビュー画像であることを特徴とする請求項1乃至13のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 13, wherein the displayed image is a live view image captured by the imaging means. 前記撮像手段をさらに有することを特徴とする請求項14に記載の電子機器。 The electronic device according to claim 14, further comprising the imaging means. 前記第1の種別の操作は、前記操作手段を前記複数の方向のいずれかの方向へ押し倒す操作であることを特徴とする請求項1乃至15のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 15, wherein the first type of operation is an operation of pushing down the operating means in any one of the plurality of directions. 前記複数の方向は8方向であることを特徴とする請求項16に記載の電子機器。 The electronic device according to claim 16, wherein the plurality of directions are eight directions. 前記第2の種別の操作は、前記操作手段を押し込む操作であることを特徴とする請求項1乃至17のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 17, wherein the second type of operation is an operation of pushing the operating means. 複数の方向のいずれかを指示する第1の種別の操作と、方向を指示しない第2の種別の操作とを受け付け可能な操作手段を有する電子機器の制御方法であって、
第1の倍率と、前記第1の倍率とは異なる第2の倍率とを含む複数の倍率のうち、いずれの倍率で画像を表示するかを切り替える切り替え工程と、
前記操作手段に対する操作に基づいて、前記表示される画像において選択位置を移動する制御を行う制御工程と、
を有し、
前記制御工程においては、
前記第1の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記選択位置の移動を行わないように制御し、
前記第2の倍率で画像を表示している際に、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合に、前記第1の種別の操作に基づく方向に前記選択位置の移動を行うように制御する
ことを特徴とする電子機器の制御方法。
A control method for an electronic device having an operating means capable of accepting a first type of operation instructing any of a plurality of directions and a second type of operation not instructing a direction.
A switching step of switching which magnification is used to display an image among a plurality of magnifications including a first magnification and a second magnification different from the first magnification.
A control step of controlling the movement of the selected position in the displayed image based on the operation on the operating means, and
Have,
In the control step,
When the operation of the first type is performed while the operation of the second type is performed while the image is displayed at the first magnification, the operation of the first type is performed. Control the selection position so that it does not move in the direction based on the image.
When the operation of the first type is performed while the operation of the second type is performed while the image is displayed at the second magnification, the operation of the first type is performed. A control method for an electronic device, which controls the movement of the selected position in a direction based on the control.
複数の方向のいずれかを指示する第1の種別の操作と、方向を指示しない第2の種別の操作とを受け付け可能な操作手段を有する電子機器の制御方法であって、
視線検出手段で検出されたユーザーの視線に係る情報を入力する入力工程と、
前記操作手段に対する操作に基づいて、表示される画像において選択位置を移動する制御を行う制御工程と、
を有し、
前記制御工程においては、
前記入力工程により前記視線に係る情報が入力されておらず、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合には、前記第1の種別の操作に基づく方向に前記選択位置の移動を行わないように制御し、
前記入力工程により前記視線に係る情報が入力されており、前記第2の種別の操作が行われた状態で前記第1の種別の操作が行われた場合には、前記第1の種別の操作に基づく方向に前記選択位置の移動を行うように制御する
ことを特徴とする電子機器の制御方法。
A control method for an electronic device having an operating means capable of accepting a first type of operation instructing any of a plurality of directions and a second type of operation not instructing a direction.
An input process for inputting information related to the user's line of sight detected by the line-of-sight detection means,
A control step of controlling the movement of the selected position in the displayed image based on the operation on the operating means, and
Have,
In the control step,
When the information related to the line of sight is not input by the input step and the operation of the first type is performed while the operation of the second type is performed, the operation of the first type is performed. Control the selection position so that it does not move in the direction based on the operation.
When the information related to the line of sight is input by the input step and the operation of the first type is performed while the operation of the second type is performed, the operation of the first type is performed. A method for controlling an electronic device, which controls the movement of the selected position in a direction based on the above.
コンピュータを、請求項1乃至18のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 18. コンピュータを、請求項1乃至18のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium containing a program for causing the computer to function as each means of the electronic device according to any one of claims 1 to 18.
JP2020052810A 2020-03-24 2020-03-24 Electronic equipment and its control method Active JP7451255B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020052810A JP7451255B2 (en) 2020-03-24 2020-03-24 Electronic equipment and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020052810A JP7451255B2 (en) 2020-03-24 2020-03-24 Electronic equipment and its control method

Publications (2)

Publication Number Publication Date
JP2021152744A true JP2021152744A (en) 2021-09-30
JP7451255B2 JP7451255B2 (en) 2024-03-18

Family

ID=77887301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020052810A Active JP7451255B2 (en) 2020-03-24 2020-03-24 Electronic equipment and its control method

Country Status (1)

Country Link
JP (1) JP7451255B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128297A (en) 2003-10-24 2005-05-19 Seiko Epson Corp Digital camera

Also Published As

Publication number Publication date
JP7451255B2 (en) 2024-03-18

Similar Documents

Publication Publication Date Title
JP7321786B2 (en) Electronic equipment and its control method
CN112714247B (en) Image pickup apparatus and control method of image pickup apparatus
JP2018013745A (en) Electronic equipment and control method therefor
US11233941B2 (en) Electronic device that receives line of sight input, method of controlling electronic device, and non-transitory computer readable medium
US11240419B2 (en) Electronic device that can execute function in accordance with line of sight of user, method of controlling electronic device, and non-transitory computer readable medium
WO2020255675A1 (en) Electronic device and control method therefor
JP7301615B2 (en) Electronic equipment and its control method
EP3876517A1 (en) Electronic device, control method, program, and computer readable medium
JP7346375B2 (en) Electronic equipment, its control method, program, and recording medium
JP2022018244A (en) Electronic apparatus and method for controlling the same
JP2021163182A (en) Electronic apparatus and method for controlling the same
JP2021022897A (en) Electronic apparatus, control method of electronic device, program, and recording medium
US11442244B2 (en) Imaging device
CN112040095B (en) Electronic device, control method of electronic device, and storage medium
JP2021140589A (en) Electronic device, control method for electronic device, program, and storage medium
JP2021140590A (en) Electronic device, control method for electronic device, program, and storage medium
JP2021097356A (en) Imaging control device
JP7451255B2 (en) Electronic equipment and its control method
CN112312008B (en) Electronic device, control method of electronic device, and storage medium
WO2024095888A1 (en) Imaging device, control method, and program
JP2022095306A (en) Display control device and method for controlling the same
JP2021018634A (en) Electronic equipment and method of controlling the same
JP2024066463A (en) Imaging device, control method and program
JP2022095264A (en) Display control device and method for controlling the same
GB2598171A (en) Display control apparatus and control method therefor and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240306

R151 Written notification of patent or utility model registration

Ref document number: 7451255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151