JP2020036280A - Electronic equipment, control method thereof, and program thereof - Google Patents

Electronic equipment, control method thereof, and program thereof Download PDF

Info

Publication number
JP2020036280A
JP2020036280A JP2018163197A JP2018163197A JP2020036280A JP 2020036280 A JP2020036280 A JP 2020036280A JP 2018163197 A JP2018163197 A JP 2018163197A JP 2018163197 A JP2018163197 A JP 2018163197A JP 2020036280 A JP2020036280 A JP 2020036280A
Authority
JP
Japan
Prior art keywords
touch
touchdown
control unit
display
operation member
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018163197A
Other languages
Japanese (ja)
Other versions
JP6703057B2 (en
Inventor
井上 浩二
Koji Inoue
浩二 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018163197A priority Critical patent/JP6703057B2/en
Publication of JP2020036280A publication Critical patent/JP2020036280A/en
Application granted granted Critical
Publication of JP6703057B2 publication Critical patent/JP6703057B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an electronic equipment capable of starting touch operation for carrying out the next same processing even if the touch operation is performed, a control method thereof, and a program thereof.SOLUTION: An electronic equipment includes: detection means for detecting touch operation; and control means which executes predetermined processing based on a first positional coordinate subjected to first touch-down when the first touch-down is detected by the detection means in a state that is not subjected to touch operation, executes preparation processing of the predetermined processing based on a second position coordinate without executing the predetermined processing when a second touch-down to the second position coordinate is detected by the detection means in a state in which touch-on by the first touch-down is detected by the detection means, and executes the predetermined processing based on the second position coordinate when it is detected that the first touch-down was subjected to touch-up in a state in which the touch-on by the first touch-down and touch-on by second touch-down are detected by the detection means.SELECTED DRAWING: Figure 7

Description

本発明は、タッチ操作が可能な電子機器に関する。   The present invention relates to an electronic device capable of performing a touch operation.

近年、デジタルカメラやスマートフォン等のようにユーザがディスプレイを直接タッチして直感的に操作(タッチ操作)できる電子機器が知られている。   2. Description of the Related Art In recent years, electronic devices such as digital cameras and smartphones that allow a user to intuitively operate (touch operation) by directly touching a display have been known.

例えば、特許文献1は、感圧センサにタッチされた位置座標に基づいて被写体に焦点を合わせることができるカメラが開示されている。   For example, Patent Literature 1 discloses a camera that can focus on a subject based on position coordinates touched on a pressure-sensitive sensor.

特開平11−142719号公報JP-A-11-142719

しかし、電子機器はタッチ操作されている場合、同じ処理を行う別のタッチ操作を受け付けないため、ユーザは同じ処理を行うタッチ操作を続けて行いたくても、1回のタッチ操作が終わってから次のタッチ操作を行う必要があった。   However, when a touch operation is performed, the electronic device does not accept another touch operation for performing the same process. Therefore, even if the user wants to perform the touch operation for performing the same process continuously, after the touch operation is completed, The next touch operation had to be performed.

そこで本発明は、ユーザはタッチ操作をしている状態でも次の同じ処理を行うタッチ操作を開始できるようにすることを目的とする。   Therefore, an object of the present invention is to enable a user to start a touch operation for performing the following same process even while performing a touch operation.

上記目的を達成するために、本発明の電子機器は、操作部材に対するタッチ操作を検出する検出手段と、制御手段とを有し、前記制御手段は、前記操作部材にタッチ操作されていない状態において、前記操作部材に対する第一のタッチダウンを前記検出手段によって検出すると、前記第一のタッチダウンがなされた前記操作部材の第一の位置座標に基づいた所定の処理を実行し、前記制御手段は、前記第一のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対する第二のタッチダウンを前記検出手段によって検出すると、前記第二のタッチダウンに基づいた前記所定の処理を実行せずに、前記第二のタッチダウンがなされた前記第二の位置座標に基づいた前記所定の処理の準備処理を実行し、前記制御手段は、前記第一のタッチダウンによるタッチオンおよび前記第二のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記第一のタッチダウンがタッチアップされたことを検出した場合、前記第二のタッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行することを特徴とする。   In order to achieve the above object, an electronic device of the present invention has a detection unit that detects a touch operation on an operation member, and a control unit, wherein the control unit is configured to perform a touch operation on the operation member when the operation member is not touched. Detecting a first touchdown on the operation member by the detection unit, executes a predetermined process based on first position coordinates of the operation member on which the first touchdown has been performed, and the control unit In a state where the touch-on by the first touch-down is detected by the detection unit, the detection unit detects a second touch-down on a second position coordinate different from the first position coordinate of the operation member. Then, without executing the predetermined process based on the second touchdown, the second position seat where the second touchdown is performed is performed. Executing the preparatory processing of the predetermined processing based on the above, in a state where the touch-on by the first touch-down and the touch-on by the second touch-down are detected by the detecting means, When detecting that one touchdown has been touched up, the predetermined processing is executed based on the second position coordinates at which the second touchdown is performed.

本発明によれば、ユーザはタッチ操作をしている状態でも次の同じ処理を行うタッチ操作を開始できる。   According to the present invention, the user can start a touch operation for performing the following same process even while performing a touch operation.

第一の実施形態のデジタルカメラの前面の一例を示す外観図。FIG. 1 is an external view illustrating an example of a front surface of a digital camera according to a first embodiment. 第一の実施形態のデジタルカメラの構成の一例を示すブロック図。FIG. 1 is a block diagram illustrating an example of a configuration of a digital camera according to a first embodiment. フォーカス位置とフレーム番号の関係の一例を示す図。FIG. 4 is a diagram illustrating an example of a relationship between a focus position and a frame number. (a)第一の実施形態のデジタルカメラの表示部の撮影開始時における表示の一例を示す図。(b)第一の実施形態のデジタルカメラの表示部の被写体にタッチされた状態における表示の一例を示す図。(c)第一の実施形態のデジタルカメラの表示部の別の被写体にタッチされた状態における表示の一例を示す図。(d)第一の実施形態のデジタルカメラの表示部の別の被写体に対するタッチが離された状態における表示の一例を示す図。FIG. 3A is a diagram illustrating an example of a display of the digital camera according to the first embodiment at the start of shooting. FIG. 3B is a diagram illustrating an example of a display in a state where the subject is touched on the display unit of the digital camera according to the first embodiment. FIG. 3C is a diagram illustrating an example of display in a state where another subject is touched on the display unit of the digital camera according to the first embodiment. FIG. 4D is a diagram illustrating an example of display in a state where a touch on another subject on the display unit of the digital camera according to the first embodiment is released. 第一の実施形態のデジタルカメラの撮影処理の一例を示すフローチャート。5 is a flowchart illustrating an example of a photographing process of the digital camera according to the first embodiment. (a)第二の実施形態のデジタルカメラの表示部の撮影開始時における表示の一例を示す図。(b)第二の実施形態のデジタルカメラの表示部の被写体にタッチされた状態における表示の一例を示す図。(c)第二の実施形態のデジタルカメラの表示部の別の被写体にタッチされた状態における表示の一例を示す図。(d)第二の実施形態のデジタルカメラの表示部の別の被写体に対するタッチが離された状態における表示の一例を示す図。(A) The figure which shows an example of the display at the time of the imaging | photography start of the display part of the digital camera of 2nd embodiment. FIG. 6B is a diagram illustrating an example of a display in a state where a subject is touched on the display unit of the digital camera according to the second embodiment. FIG. 9C is a diagram illustrating an example of a display in a state where another subject is touched on the display unit of the digital camera according to the second embodiment. FIG. 9D is a diagram illustrating an example of a display in a state where a touch on another subject on the display unit of the digital camera according to the second embodiment is released. 第二の実施形態のデジタルカメラの撮影処理の一例を示すフローチャート。9 is a flowchart illustrating an example of a photographing process of the digital camera according to the second embodiment.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[第一の実施形態]
図1に本発明を適用可能な電子機器の一例であるデジタルカメラ100の外観図を示す。
[First embodiment]
FIG. 1 shows an external view of a digital camera 100 which is an example of an electronic apparatus to which the present invention can be applied.

表示部28は画像や各種情報を表示する表示部である。   The display unit 28 is a display unit that displays images and various information.

モード切替スイッチ60は各種モードを切り替えるための操作部である。シャッターボタン61は撮影指示を行うための操作部である。   The mode switch 60 is an operation unit for switching between various modes. The shutter button 61 is an operation unit for giving a shooting instruction.

コネクタ112は、パーソナルコンピュータやプリンタなどの外部機器と接続するための接続ケーブル111とデジタルカメラ100とのコネクタである。   The connector 112 is a connector between the connection cable 111 for connecting to an external device such as a personal computer and a printer, and the digital camera 100.

操作部70はユーザからの各種操作を受け付ける各種スイッチ、ボタン、タッチパネル等の操作部材から構成される操作部である。電源スイッチ72は操作部70に含まれ、電源オン、電源オフを切り替えるための押しボタンである。コントローラホイール73は操作部70に含まれる回転操作可能な操作部材である。   The operation unit 70 is an operation unit including operation members such as various switches, buttons, and a touch panel that receive various operations from the user. The power switch 72 is included in the operation unit 70 and is a push button for switching power on and power off. The controller wheel 73 is an operation member included in the operation unit 70 that can be rotated.

記録媒体200はメモリカードやハードディスク等の記録媒体である。記録媒体スロット201は記録媒体200を格納するためのスロットである。記録媒体スロット201に格納された記録媒体200は、デジタルカメラ100との通信が可能となり、記録や再生が可能となる。蓋202は記録媒体スロット201の蓋である。図においては、蓋202を開けて記録媒体スロット201から記録媒体200の一部を取り出して露出させた状態を示している。   The recording medium 200 is a recording medium such as a memory card or a hard disk. The recording medium slot 201 is a slot for storing the recording medium 200. The recording medium 200 stored in the recording medium slot 201 can communicate with the digital camera 100, and can perform recording and reproduction. The lid 202 is a lid of the recording medium slot 201. The drawing shows a state in which the lid 202 is opened, a part of the recording medium 200 is taken out from the recording medium slot 201 and exposed.

図2は、本実施形態におけるデジタルカメラ100の構成例を示すブロック図である。   FIG. 2 is a block diagram illustrating a configuration example of the digital camera 100 according to the present embodiment.

撮影レンズ103はズームレンズ、フォーカスレンズを含むレンズ群である。シャッタ101は絞り機能を備えるシャッタである。撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。バリア102は、デジタルカメラ100の、撮影レンズ103を含む撮像系を覆うことにより、撮影レンズ103、シャッタ101、撮像部22を含む撮像系の汚れや破損を防止する。また、撮像部22は焦点検出部(不図示)を含む。焦点検出部は後述するシステム制御部50にデフォーカス量情報を出力する。デフォーカス量情報は、撮影レンズ103における被写体に合焦する位置からのずれを示す情報である。システム制御部50はデフォーカス量情報に基づいて撮影レンズ103を制御し、位相差AFを行う。なお、焦点検出部は撮像部22と別部材にしてもよい。   The taking lens 103 is a lens group including a zoom lens and a focus lens. The shutter 101 is a shutter having an aperture function. The image pickup section 22 is an image pickup element configured by a CCD, a CMOS element, or the like that converts an optical image into an electric signal. The A / D converter 23 converts an analog signal into a digital signal. The A / D converter 23 is used to convert an analog signal output from the imaging unit 22 into a digital signal. The barrier 102 covers the imaging system including the imaging lens 103 of the digital camera 100 to prevent the imaging system including the imaging lens 103, the shutter 101, and the imaging unit 22 from being stained or damaged. Further, the imaging unit 22 includes a focus detection unit (not shown). The focus detection unit outputs defocus amount information to a system control unit 50 described later. The defocus amount information is information indicating a deviation from a position where the subject is focused on the photographing lens 103. The system control unit 50 controls the photographing lens 103 based on the defocus amount information and performs phase difference AF. Note that the focus detection unit may be a separate member from the imaging unit 22.

また、位相差AF方式では、デジタルカメラ100はある被写体に合焦している場合でも、他の被写体とのデフォーカス量情報を測定することが可能である。   Also, in the phase difference AF method, even when the digital camera 100 is focused on a certain subject, it is possible to measure the defocus amount information with another subject.

画像処理部24は、A/D変換器23からのデータ、またはメモリ制御部15からのデータに対して画素補間、縮小等のリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理を行う。画像処理部24により得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。   The image processing unit 24 performs resizing processing such as pixel interpolation and reduction or color conversion processing on data from the A / D converter 23 or data from the memory control unit 15. Further, the image processing unit 24 performs a predetermined calculation process using the captured image data. The system control unit 50 performs exposure control and distance measurement control based on the calculation results obtained by the image processing unit 24. Thus, AF (auto focus) processing, AE (auto exposure) processing, and EF (flash pre-emission) processing of the TTL (through the lens) method are performed. The image processing unit 24 further performs predetermined arithmetic processing using the captured image data, and performs TTL AWB (auto white balance) processing based on the obtained arithmetic result.

A/D変換器23からの出力データは、画像処理部24およびメモリ制御部15を介して、あるいは、メモリ制御部15を介してメモリ32に記録される。メモリ32は、撮像部22によって撮像されA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを記録する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声等のデータを記録するのに十分な記録容量を備えている。   Output data from the A / D converter 23 is recorded in the memory 32 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15. The memory 32 records image data captured by the imaging unit 22 and converted into digital data by the A / D converter 23, and image data to be displayed on the display unit 28. The memory 32 has a sufficient storage capacity for recording data such as a predetermined number of still images, moving images and audio for a predetermined time.

また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器13は、メモリ32に記録されている画像表示用のデータをアナログ信号に変換して表示部28へ出力する。このように、メモリ32に記録された画像データはD/A変換器13を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器13からのアナログ信号に応じた表示を行う。システム制御部50はA/D変換器23によってA/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器13においてアナログ変換し、表示部28に逐次転送して表示することで、表示部28は電子ビューファインダとして機能する。これによってデジタルカメラ100はスルー画像表示(ライブビュー表示(LV表示))を行うことができる。以下、ライブビューで表示される画像をLV画像と称する。   The memory 32 also serves as an image display memory (video memory). The D / A converter 13 converts the image display data recorded in the memory 32 into an analog signal and outputs the analog signal to the display unit 28. As described above, the image data recorded in the memory 32 is displayed on the display unit 28 via the D / A converter 13. The display unit 28 performs display according to an analog signal from the D / A converter 13 on a display such as an LCD. The system control unit 50 converts the digital signal A / D-converted by the A / D converter 23 and stored in the memory 32 into an analog signal in the D / A converter 13 and sequentially transfers the digital signal to the display unit 28 for display. The display unit 28 functions as an electronic viewfinder. As a result, the digital camera 100 can display a through image (live view display (LV display)). Hereinafter, an image displayed in the live view is referred to as an LV image.

不揮発性メモリ56は、電気的に消去・記録可能な記録媒体としてのメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのコンピュータプログラムのことである。   The nonvolatile memory 56 is a memory as a recording medium that can be electrically erased and recorded, and for example, an EEPROM or the like is used. The non-volatile memory 56 stores constants, programs, and the like for the operation of the system control unit 50. Here, the program is a computer program for executing various flowcharts described later in the present embodiment.

システム制御部50は、少なくとも1つのプロセッサまたは回路を有する制御部であり、デジタルカメラ100全体を制御する。不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、例えばRAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等が展開される。また、システム制御部50はメモリ32、D/A変換器13、表示部28等を制御することにより表示制御も行う。   The system control unit 50 is a control unit having at least one processor or circuit, and controls the entire digital camera 100. By executing the program recorded in the nonvolatile memory 56, each process of the present embodiment described later is realized. For example, a RAM is used as the system memory 52. In the system memory 52, constants and variables for operation of the system control unit 50, programs read from the nonvolatile memory 56, and the like are expanded. The system control unit 50 also performs display control by controlling the memory 32, the D / A converter 13, the display unit 28, and the like.

システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。   The system timer 53 is a time measuring unit that measures the time used for various controls and the time of a built-in clock.

モード切替スイッチ60、シャッターボタン61、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッタ速度優先モード(Tvモード)、プログラムAEモード、連射撮影モードがある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60より、ユーザは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り換えた後に、表示された複数のモードのいずれかを選択し、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。   The mode changeover switch 60, the shutter button 61, and the operation unit 70 are operation means for inputting various operation instructions to the system control unit 50. The mode switch 60 switches the operation mode of the system control unit 50 to one of a still image recording mode, a moving image shooting mode, a reproduction mode, and the like. The modes included in the still image recording mode include an auto shooting mode, an auto scene determination mode, a manual mode, an aperture priority mode (Av mode), a shutter speed priority mode (Tv mode), a program AE mode, and a continuous shooting mode. Further, there are various scene modes, custom modes, and the like, which are shooting settings for each shooting scene. The mode switch 60 allows the user to directly switch to any of these modes. Alternatively, after temporarily switching to the shooting mode list screen with the mode switch 60, any of the displayed modes may be selected and switched using another operation member. Similarly, the moving image shooting mode may include a plurality of modes.

第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。   The first shutter switch 62 is turned on when the shutter button 61 provided on the digital camera 100 is operated, that is, when the shutter button 61 is half-pressed (shooting preparation instruction), and generates a first shutter switch signal SW1. In response to the first shutter switch signal SW1, operations such as AF (auto focus) processing, AE (auto exposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing are started.

第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを記録するまでの一連の撮影処理の動作を開始する。   The second shutter switch 64 is turned on when the operation of the shutter button 61 is completed, that is, when the shutter button 61 is fully pressed (photographing instruction), and generates a second shutter switch signal SW2. In response to the second shutter switch signal SW2, the system control unit 50 starts a series of photographing processing operations from signal reading from the imaging unit 22 to recording of image data on the recording medium 200.

操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。   Each operation member of the operation unit 70 is appropriately assigned a function for each scene by, for example, selecting and operating various function icons displayed on the display unit 28, and functions as various function buttons. The function buttons include, for example, an end button, a return button, an image forward button, a jump button, a refinement button, an attribute change button, and the like. For example, when a menu button is pressed, a menu screen on which various settings can be made is displayed on the display unit 28. The user can intuitively perform various settings using the menu screen displayed on the display unit 28, and the four-way buttons of up, down, left, and right and the SET button.

コントローラホイール73は、操作部70に含まれる回転操作可能な操作部材であり、方向ボタンと共に選択項目を指示する際などに使用される。コントローラホイール73を回転操作すると、操作量に応じて電気的なパルス信号が発生し、このパルス信号に基づいてシステム制御部50はデジタルカメラ100の各部を制御する。このパルス信号によって、コントローラホイール73が回転操作された角度や、何回転したかなどを判定することができる。なお、コントローラホイール73は回転操作が検出できる操作部材であればどのようなものでもよい。例えば、ユーザの回転操作に応じてコントローラホイール73自体が回転してパルス信号を発生するダイヤル操作部材であってもよい。また、タッチセンサよりなる操作部材で、コントローラホイール73自体は回転せず、コントローラホイール73上でのユーザの指の回転動作などを検出するものであってもよい(いわゆる、タッチホイール)。   The controller wheel 73 is a rotatable operation member included in the operation unit 70, and is used when indicating a selection item together with the direction button. When the controller wheel 73 is rotated, an electric pulse signal is generated according to the operation amount, and the system control unit 50 controls each unit of the digital camera 100 based on the pulse signal. With this pulse signal, it is possible to determine the angle at which the controller wheel 73 has been rotated, the number of rotations, and the like. Note that the controller wheel 73 may be any operation member as long as the operation member can detect a rotation operation. For example, a dial operation member that generates a pulse signal by rotating the controller wheel 73 itself in response to a rotation operation by the user may be used. Further, the operation member formed of a touch sensor may detect the rotation operation of the user's finger on the controller wheel 73 without rotating the controller wheel 73 itself (a so-called touch wheel).

電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。   The power control unit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is mounted, the type of the battery, and the remaining battery level. Further, the power control unit 80 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period. The power supply unit 30 includes a primary battery such as an alkaline battery and a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, and a Li battery, and an AC adapter.

記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや光ディスク、磁気ディスク等から構成される。   The recording medium I / F 18 is an interface with a recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card for recording a captured image, and includes a semiconductor memory, an optical disk, a magnetic disk, and the like.

通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号等の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(ライブ画像を含む)や、記録媒体200に記録された画像等のデータを送信することができる。また、通信部54は外部機器から画像データやその他の各種情報を受信することができる。   The communication unit 54 is connected by a wireless or wired cable and transmits and receives a video signal, an audio signal, and the like. The communication unit 54 is also connectable to a wireless LAN (Local Area Network) or the Internet. In addition, the communication unit 54 can communicate with an external device using Bluetooth (registered trademark) or Bluetooth Low Energy. The communication unit 54 can transmit data such as an image (including a live image) captured by the imaging unit 22 and an image recorded on the recording medium 200. Further, the communication unit 54 can receive image data and other various information from an external device.

姿勢検知部55は重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサやジャイロセンサなどを用いることができる。姿勢検知部55である、加速度センサやジャイロセンサを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。   The posture detection unit 55 detects the posture of the digital camera 100 with respect to the direction of gravity. Based on the posture detected by the posture detection unit 55, whether the image photographed by the imaging unit 22 is an image photographed by holding the digital camera 100 horizontally or an image photographed by holding it vertically. Can be determined. The system control unit 50 can add orientation information according to the orientation detected by the orientation detection unit 55 to the image file of the image captured by the imaging unit 22 or rotate and record the image. is there. As the posture detection unit 55, an acceleration sensor, a gyro sensor, or the like can be used. It is also possible to detect the movement of the digital camera 100 (whether or not the digital camera 100 is panning, tilting, lifting, or stationary, etc.) by using an acceleration sensor or a gyro sensor, which is the posture detection unit 55.

なお操作部70の一つとして、表示部28に対する接触を検出可能なタッチパネル70aを有する。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示画面上の表示座標とを対応付ける。これにより、あたかもユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を提供できる。システム制御部50はタッチパネル70aへの以下の操作、あるいは状態を検出できる。   As one of the operation units 70, a touch panel 70a capable of detecting contact with the display unit 28 is provided. The touch panel 70a and the display unit 28 can be integrally configured. For example, the touch panel 70a is configured so that the light transmittance does not disturb the display of the display unit 28, and is attached to the upper layer of the display surface of the display unit 28. Then, the input coordinates on the touch panel 70a are associated with the display coordinates on the display screen of the display unit 28. Thereby, it is possible to provide a GUI (graphical user interface) as if the user could directly operate the screen displayed on the display unit 28. The system control unit 50 can detect the following operation or state on the touch panel 70a.

・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・タッチパネル70aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネル70aへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
-A finger or pen that has not touched the touch panel 70a newly touches the touch panel 70a. That is, a touch is started (hereinafter, referred to as a touch-down).
A state in which the touch panel 70a is being touched by a finger or a pen (hereinafter, referred to as touch-on).
Movement while touching the touch panel 70a with a finger or a pen (hereinafter, referred to as touch-move).
-The finger or the pen touching the touch panel 70a is released. That is, the end of the touch (hereinafter, referred to as touch-up).
A state in which nothing is touched on the touch panel 70a (hereinafter, referred to as touch-off).

タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。   When the touch-down is detected, the touch-on is also detected at the same time. After a touch-down, a touch-on is usually continuously detected unless a touch-up is detected. Touch move is also detected when touch-on is detected. Even if a touch-on is detected, a touch move is not detected unless the touch position has moved. After it is detected that all the touched fingers or pens have been touched up, the touch is turned off.

これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判断できる(スライド操作に続いてフリックがあったものと判断できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。   These operations / states and the coordinates of the position where the finger or pen touches the touch panel 70a are notified to the system control unit 50 via the internal bus. System control unit 50 determines what operation (touch operation) has been performed on touch panel 70a based on the notified information. As for the touch move, the moving direction of the finger or the pen moving on the touch panel 70a can be determined for each of the vertical component and the horizontal component on the touch panel 70a based on the change in the position coordinates. If it is detected that a touch move has been performed for a predetermined distance or more, it is determined that a slide operation has been performed. An operation of quickly moving a finger on the touch panel for a certain distance and then releasing it is called a flick. In other words, the flick is an operation of quickly tracing the touch panel 70a as if to flick it with a finger. If it is detected that a touch move has been performed at a predetermined speed or more at a predetermined speed or more, and a touch-up is detected as it is, it can be determined that a flick has been performed (it can be determined that a flick has occurred following a slide operation). Further, a touch operation of touching a plurality of places (for example, two points) at the same time and bringing the touch positions closer to each other is referred to as pinch-in, and a touch operation for moving the touch positions farther from each other is referred to as pinch-out. Pinch out and pinch in are collectively referred to as pinch operation (or simply pinch). The touch panel 70a can use any one of various types of touch panels such as a resistive film type, a capacitive type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, and an optical sensor type. good. Depending on the method, there is a method of detecting that a touch has been made when a touch has been made on the touch panel, and a method of detecting that a touch has been made when a finger or pen has approached the touch panel, but any method may be used.

ここで、動画撮影する場合および連射撮影する場合において、位相差AFを用いてシステム制御部50が撮影レンズ103の合焦する位置を予測する方法を説明する。   Here, a description will be given of a method in which the system control unit 50 predicts the in-focus position of the imaging lens 103 using the phase difference AF in the case of shooting a moving image and the case of continuous shooting.

システム制御部50は、撮像するごとに測定したデフォーカス量情報から被写体に合焦するために必要な撮影レンズ103の駆動量(以下、レンズ駆動量という)を計算する。例えば動画を撮影している場合、システム制御部50は0.03秒(30FPS(Frames per Second)の動画における1フレーム)ごとにデフォーカス量情報からレンズ駆動量を計算する。そしてシステム制御部50はレンズ駆動量と現在のレンズの位置からから次に撮影するタイミングにおけるレンズの位置(フォーカス位置)を計算する。システム制御部50はこのフォーカス位置を不揮発性メモリ56やシステムメモリ52等に所定時間または所定の撮影回数の間記録する。位相差AF方式の場合、デジタルカメラ100は特定の被写体に合焦していても他の被写体に対するフォーカス位置を計算できる。   The system control unit 50 calculates a driving amount (hereinafter, referred to as a lens driving amount) of the photographing lens 103 necessary for focusing on a subject from defocus amount information measured each time an image is captured. For example, when shooting a moving image, the system control unit 50 calculates the lens driving amount from the defocus amount information every 0.03 seconds (one frame in a moving image of 30 FPS (Frames per Second)). Then, the system control unit 50 calculates the lens position (focus position) at the next shooting timing from the lens driving amount and the current lens position. The system control unit 50 records the focus position in the nonvolatile memory 56, the system memory 52, or the like for a predetermined time or a predetermined number of times of photographing. In the case of the phase difference AF method, the digital camera 100 can calculate a focus position with respect to another subject even if the focus is on a specific subject.

図3を用いて、システム制御部50が撮影レンズ103の合焦する位置を予測する方法の一例を説明する。図3はデジタルカメラ100において動画を撮影した場合における、フォーカス位置とフレーム番号の関係である。図3において、縦軸はフォーカス位置、横軸はフレーム番号を示す。図3の横軸において、nが現在のフレーム番号である。システム制御部50は、フォーカス位置が所定の時間以内に所定量以上変化した場合、被写体が動体であると判断する。例えば、フレーム番号nにおけるフォーカス位置304はフレーム番号n−1におけるフォーカス位置303から所定量以上変化しているため、システム制御部50はこの被写体を動体であると判断する。なお、フォーカス位置を計算した回数が所定回数より少ない場合、システム制御部50は被写体が動体ではないと判断する。   An example of a method in which the system control unit 50 predicts the in-focus position of the photographing lens 103 will be described with reference to FIG. FIG. 3 shows a relationship between a focus position and a frame number when a moving image is captured by the digital camera 100. 3, the vertical axis indicates the focus position, and the horizontal axis indicates the frame number. In the horizontal axis of FIG. 3, n is the current frame number. When the focus position changes by a predetermined amount or more within a predetermined time, the system control unit 50 determines that the subject is a moving object. For example, since the focus position 304 at the frame number n has changed by a predetermined amount or more from the focus position 303 at the frame number n-1, the system control unit 50 determines that the subject is a moving object. If the number of times the focus position is calculated is smaller than the predetermined number, the system control unit 50 determines that the subject is not a moving object.

ここで被写体が動体である場合、システム制御部50はフォーカス位置を複数用いることで、次のフレームにおける被写体の位置を予測することができる。例えば、動体である被写体に撮影レンズ103を合焦する場合、システム制御部50はフレーム番号nにおいて、フォーカス位置301〜304を用いて近似曲線310を作成し、次のフレーム番号n+1におけるフォーカス位置305を計算する。近似曲線310は例えば最小二乗法を用いて計算される。   Here, when the subject is a moving object, the system control unit 50 can predict the position of the subject in the next frame by using a plurality of focus positions. For example, when the photographing lens 103 is focused on a moving subject, the system control unit 50 creates an approximate curve 310 using the focus positions 301 to 304 at the frame number n, and focuses at the focus position 305 at the next frame number n + 1. Is calculated. The approximate curve 310 is calculated using, for example, the least squares method.

図4(a)〜(d)を用いて本実施形態におけるタッチ操作によるAFについて説明する。図4(a)〜(d)において、デジタルカメラ100は動画撮影または連射撮影している。表示部28には被写体が3人表示されており、表示部28の左上にはタッチしていることを示すタッチアイコン401、402が表示されている。   With reference to FIGS. 4A to 4D, the AF by the touch operation in the present embodiment will be described. 4A to 4D, the digital camera 100 performs moving image shooting or continuous shooting. Three subjects are displayed on the display unit 28, and touch icons 401 and 402 indicating that the user is touching are displayed on the upper left of the display unit 28.

図4(a)において、デジタルカメラ100は自動で被写体にAFしている状態である。この状態において、ユーザが合焦したい被写体を表示部28(タッチパネル70a)に対してタッチダウンすることによって、デジタルカメラ100はタッチダウンされた部分に映る被写体にAFする(以降、この操作をタッチAFという)。   FIG. 4A shows a state in which the digital camera 100 is automatically performing AF on a subject. In this state, when the user touches down the subject to be focused on the display unit 28 (the touch panel 70a), the digital camera 100 performs AF on the subject reflected in the touched-down portion (hereinafter, this operation is referred to as touch AF). ).

図4(b)において、デジタルカメラ100はタッチされた被写体にタッチAFする。また、デジタルカメラ100は、タッチAFしていることを示す第一の枠403を表示部28に表示する。この第一の枠403はガイドオブジェクトであり、マークや記号等で表される。さらにデジタルカメラ100は表示部28でタッチアイコン401を点滅させ、タッチAFしていることをユーザに目立つように示す。以降、後述するタッチAFと区別するため第一のタッチAFという。なお、ここで、ユーザはタッチした指を離している。いいかえると、タッチ操作はタッチダウンの後、タッチアップされている。ここでユーザが表示部28に対して第一の枠403の外側に更にタッチダウンした場合、デジタルカメラ100は図4(c)の状態に遷移する。   In FIG. 4B, the digital camera 100 performs touch AF on a touched subject. Further, the digital camera 100 displays a first frame 403 indicating that the touch AF is being performed on the display unit 28. The first frame 403 is a guide object, and is represented by a mark, a symbol, or the like. Further, the digital camera 100 blinks the touch icon 401 on the display unit 28 to prominently indicate to the user that the touch AF is being performed. Hereinafter, it is referred to as a first touch AF to distinguish it from a touch AF described later. Here, the user has released the touched finger. In other words, the touch operation is touched up after touchdown. Here, when the user further touches down on the display unit 28 outside the first frame 403, the digital camera 100 transitions to the state of FIG. 4C.

図4(c)において、ユーザが表示部28に対して第一の枠403の外側にタッチオンしている間、デジタルカメラ100は表示部28に対して新たにタッチオンされている部分に映る被写体のデフォーカス量情報を測定し、フォーカス位置を計算する。この場合、デジタルカメラ100は新たにタッチオンされている表示部28の部分にデフォーカス量情報を測定している(およびフォーカス位置を計算している)ことを示す第二の枠404を表示する。この第二の枠404は第一の枠403と同様にガイドオブジェクトであるが、第一の枠403とは異なるマークや記号等で表される。これにより、ユーザは第一のタッチAFを示す枠とデフォーカス量情報の測定を示す枠とを区別しやすくなる。さらにデジタルカメラ100は表示部28でタッチアイコン402を点滅させ、デフォーカス量情報を測定していることを示す。デジタルカメラ100はタッチアイコン402とタッチアイコン401とを異なるように点滅させることで、ユーザは第一のタッチAFとデフォーカス量情報の測定の両方を行っていることが分かりやすくなる。ユーザはタッチオンしている指をタッチアップした場合、デジタルカメラは図4(d)の状態に遷移する。   In FIG. 4C, while the user touches on the display unit 28 outside the first frame 403, the digital camera 100 displays the subject reflected in the portion where the display unit 28 is newly touched on. The defocus amount information is measured, and the focus position is calculated. In this case, the digital camera 100 displays a second frame 404 indicating that the defocus amount information is being measured (and the focus position is being calculated) on the portion of the display unit 28 that is newly touched on. The second frame 404 is a guide object like the first frame 403, but is represented by a mark, symbol, or the like different from the first frame 403. Thereby, the user can easily distinguish the frame indicating the first touch AF from the frame indicating the measurement of the defocus amount information. Further, the digital camera 100 blinks the touch icon 402 on the display unit 28 to indicate that the defocus amount information is being measured. The digital camera 100 makes the touch icon 402 and the touch icon 401 blink differently so that the user can easily understand that both the first touch AF and the measurement of the defocus amount information are performed. When the user touches up the touched finger, the digital camera transitions to the state shown in FIG.

図4(d)において、デジタルカメラ100は第二の枠404の部分に映る被写体にAFする。以降、第一のタッチAFと区別するためにこれを第二のタッチAFという。このとき、デジタルカメラ100は表示部28から第一の枠403の表示を消し、さらにタッチアイコン401の点滅させる処理を終了する。また、デジタルカメラ100は、タッチアイコン402を第二のタッチAFしている状態を示すように点滅(図4(c)のタッチアイコン401と同じ点滅)させる。またデジタルカメラ100は第二の枠404をタッチAFしている状態を示すように表示(図4(c)の第一の枠403と同じ表示)する。   In FIG. 4D, the digital camera 100 performs AF on a subject shown in the second frame 404. Hereinafter, this is referred to as a second touch AF to distinguish it from the first touch AF. At this time, the digital camera 100 deletes the display of the first frame 403 from the display unit 28 and ends the process of blinking the touch icon 401. Further, the digital camera 100 blinks the touch icon 402 so as to indicate the state of the second touch AF (the same blink as the touch icon 401 in FIG. 4C). Further, the digital camera 100 displays the second frame 404 so as to indicate a state where the touch AF is being performed (the same display as the first frame 403 in FIG. 4C).

このようにデジタルカメラ100はある被写体にAFしている間でも、さらに次にAFしたい被写体に関するデフォーカス量情報を測定しフォーカス位置を計算することで、デジタルカメラ100はAFする対象をすばやく切り替えることができる。さらに被写体が動体の場合、デジタルカメラ100は被写体に関するデフォーカス量情報を複数回測定して被写体の動きを予測する必要があるため、ユーザは特に顕著な効果を得られる。   As described above, even while the digital camera 100 is performing AF on a certain subject, the digital camera 100 can quickly switch the subject to be AF by measuring the defocus amount information on the subject to be AF next and calculating the focus position. Can be. Further, when the subject is a moving object, the digital camera 100 needs to measure the defocus amount information about the subject a plurality of times to predict the movement of the subject, so that the user can obtain a particularly remarkable effect.

ここでデジタルカメラ100は表示部28でタッチアイコン401、402を点滅させることで、タッチAFまたはデフォーカス量情報を測定していることをユーザに報知したが、報知の方法は点滅させる方法以外でもよい。例えば、タッチアイコン401、402の輝度を上げる方法や色を変化させる方法がある。   Here, the digital camera 100 notifies the user that the touch AF or the defocus amount information is being measured by blinking the touch icons 401 and 402 on the display unit 28. However, the method of reporting is not limited to the blinking method. Good. For example, there are a method of increasing the brightness of the touch icons 401 and 402 and a method of changing the color.

また第一の枠403の色は第二の枠404の色より目立つ色にするとさらに効果を得られる。ユーザは目立つ色である第一の枠403が現在合焦している部分であり、第二の枠404はまだ合焦していない部分であると直感的に理解しやすい。目立つ色は例えば、他方の色より輝度が高い色や透明度の低い色等である。   Further, if the color of the first frame 403 is made to be more conspicuous than the color of the second frame 404, further effects can be obtained. It is easy for the user to intuitively understand that the first frame 403, which is a conspicuous color, is the currently focused portion, and the second frame 404 is the portion that has not been focused yet. The conspicuous color is, for example, a color having a higher luminance or a color having a lower transparency than the other color.

図5はデジタルカメラ100の処理の手順を示すフローチャートである。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現される。この処理はユーザが第2シャッタースイッチ64を押下し、動画撮影または連射撮影を開始した場合に実行される。また、ユーザは撮影開始時点においてタッチAFのための操作はしていないものとする。   FIG. 5 is a flowchart showing the procedure of the process of the digital camera 100. Each process in this flowchart is realized by the system control unit 50 expanding a program recorded in the nonvolatile memory 56 into the system memory 52 and executing the program. This process is executed when the user presses the second shutter switch 64 to start moving image shooting or continuous shooting. It is also assumed that the user has not performed an operation for touch AF at the time of starting shooting.

ステップS500では、システム制御部50は画像を撮影する。デジタルカメラ100が動画撮影モードである場合、この画像は動画の1フレームに相当する。以降のステップは、次にシステム制御部50がステップS500において撮影するための処理である。   In step S500, the system control unit 50 captures an image. When the digital camera 100 is in the moving image shooting mode, this image corresponds to one frame of the moving image. The subsequent steps are processing for the system control unit 50 to take an image in step S500.

ステップS501では、システム制御部50は、第一のタッチAFの処理を実行している状態か否かを判断する。システム制御部50は第一のタッチAFの処理を実行している状態でなければステップS502に進み、第一のタッチAFの処理を実行していない状態であればステップS505に進む。   In step S501, the system control unit 50 determines whether or not the first touch AF process is being performed. The system control unit 50 proceeds to step S502 unless the first touch AF process is being executed, and proceeds to step S505 if the first touch AF process is not being executed.

ステップS502では、システム制御部50は、ユーザにタッチAFの操作をされたか否かを判断する。例えば、システム制御部50はタッチパネル70aにタッチダウンされたことを検出することで、システム制御部50はタッチAFの操作をされたと判断する。システム制御部50は、タッチAFの操作をされたと判断した場合はステップS503に進み、そうでない場合はステップS510に進む。ここでステップS502において第一のタッチAFの処理を開始した場合、システム制御部50は第一のタッチAFの処理を実行している状態となる。   In step S502, the system control unit 50 determines whether or not the user has performed the touch AF operation. For example, by detecting that the touch panel 70a has been touched down, the system control unit 50 determines that the touch AF operation has been performed. If the system control unit 50 determines that the touch AF operation has been performed, the process proceeds to step S503; otherwise, the process proceeds to step S510. Here, when the first touch AF process is started in step S502, the system control unit 50 is in a state of executing the first touch AF process.

ステップS503では、システム制御部50はユーザが表示部28にタッチ操作した部分に第一の枠403を表示する。またシステム制御部50は第一のタッチAFの処理を実行していることを示すためにタッチアイコン401の表示を変化させる処理を行う。本ステップでは、システム制御部50は表示部28にタッチアイコンを図4(b)のように表示している。本ステップ以降、システム制御部50は第一の枠403に映る被写体に追尾するように、第一の枠403の表示部28上の位置座標や大きさ等を変化させて表示する。   In step S503, the system control unit 50 displays the first frame 403 in a portion where the user touches the display unit 28. Further, the system control unit 50 performs a process of changing the display of the touch icon 401 to indicate that the first touch AF process is being performed. In this step, the system control unit 50 displays the touch icon on the display unit 28 as shown in FIG. After this step, the system control unit 50 changes the position coordinates, size, and the like of the first frame 403 on the display unit 28 so as to track the subject reflected in the first frame 403 and displays the same.

次に第一のタッチAFの処理を実行している状態におけるシステム制御部50の処理について説明する。   Next, a process of the system control unit 50 in a state where the first touch AF process is being performed will be described.

ステップS504では、次の撮影において第一の枠403に映る被写体に合焦するために、システム制御部50は撮像部22によってデフォーカス量を測定する。   In step S504, the system control unit 50 measures the amount of defocus by the imaging unit 22 in order to focus on the subject reflected in the first frame 403 in the next shooting.

ステップS505では、システム制御部50は、ステップS504において測定したデフォーカス量情報からフォーカス位置を計算する。システム制御部50はこの計算したフォーカス位置および現在のフレーム番号をシステムメモリ52や不揮発性メモリ56等に所定時間または所定の撮影回数の間記録する。所定時間または所定の撮影回数を超えた場合、システム制御部50は最も古いフォーカス位置の情報を削除する。   In step S505, the system control unit 50 calculates a focus position from the defocus amount information measured in step S504. The system control unit 50 records the calculated focus position and the current frame number in the system memory 52, the nonvolatile memory 56, or the like for a predetermined time or a predetermined number of times of photographing. When a predetermined time or a predetermined number of times of photographing is exceeded, the system control unit 50 deletes the information of the oldest focus position.

ステップS506では、システム制御部50は、図3において説明した方法によって、ステップS505において計算したフォーカス位置を用いて第一の枠403に映る被写体が動体か否かを判断する。システム制御部50は第一の枠403に映る被写体が動体であると判断した場合はステップS508に進み、そうでない場合はステップS507に進む。   In step S506, the system control unit 50 determines whether the subject shown in the first frame 403 is a moving object using the focus position calculated in step S505 by the method described with reference to FIG. If the system control unit 50 determines that the subject shown in the first frame 403 is a moving object, the process proceeds to step S508; otherwise, the process proceeds to step S507.

ステップS507では、S505において計算したフォーカス位置に撮影レンズ103を駆動する。   In step S507, the photographing lens 103 is driven to the focus position calculated in step S505.

ステップS508では、次の撮影において第一の枠403に映る被写体に合焦するために、システム制御部50は図3において説明した方法によって、第一の枠403に映る被写体に対するフォーカス位置を計算する。   In step S508, the system control unit 50 calculates the focus position for the subject shown in the first frame 403 by the method described with reference to FIG. .

ステップS509では、システム制御部50は、ステップS508において計算したフォーカス位置に撮影レンズ103を駆動する。これによって被写体が動いている場合でもシステム制御部50は次の撮影において被写体に合焦できる。   In step S509, the system control unit 50 drives the photographing lens 103 to the focus position calculated in step S508. Thus, even when the subject is moving, the system control unit 50 can focus on the subject in the next photographing.

以上、第一のタッチAFの処理を実行している状態におけるシステム制御部50の処理について説明した。次に第一のタッチAFの処理を実行している状態においてユーザが第一の枠403の外側にタッチオンする場合におけるシステム制御部50の処理を説明する。   The processing of the system control unit 50 in the state where the first touch AF processing is being performed has been described above. Next, processing of the system control unit 50 when the user touches on the outside of the first frame 403 in a state where the first touch AF processing is being performed will be described.

ステップS510では、システム制御部50は第二のタッチAFの処理を実行している状態であるか否か判断する。システム制御部50は第二のタッチAFの処理を実行している状態ではない場合はステップS511に進み、そうでない場合はステップS513に進む。   In step S510, the system control unit 50 determines whether the second touch AF process is being performed. The system control unit 50 proceeds to step S511 if the second touch AF process is not being executed, and proceeds to step S513 otherwise.

ステップS511では、システム制御部50は表示部28において第一の枠403の外側にタッチダウンを検出したか否かを判断する。システム制御部50は、第一の枠403の外側にタッチダウンを検出した場合はステップS512に進み、そうでない場合はステップS522に進む。ここでステップS511において第二のタッチAFの処理を開始した場合、システム制御部50は第二のタッチAFの処理を実行している状態となる。   In step S511, the system control unit 50 determines whether the display unit 28 has detected a touchdown outside the first frame 403. If the system control unit 50 detects a touchdown outside the first frame 403, the process proceeds to step S512; otherwise, the process proceeds to step S522. Here, when the second touch AF process is started in step S511, the system control unit 50 is in a state of executing the second touch AF process.

ステップS512では、システム制御部50は表示部28上の新たにタッチダウンを検出した部分に第二の枠404を表示する。またシステム制御部50は第二のタッチAFの処理を実行していることを示すために、タッチアイコン402の表示を変化させる処理を行う。本ステップでは、システム制御部50は表示部28にタッチアイコンを図4(c)のように表示している。またシステム制御部50は第一の枠403と第二の枠404の色を異なるように表示することで、ユーザは第一のタッチAFしている被写体と第二のタッチAFしている被写体を区別しやすくなる。本ステップ以降、システム制御部50は第二の枠403に映る被写体に追尾するように、第二の枠403の表示部28上の位置座標や大きさ等を変化させて表示する。   In step S512, the system control unit 50 displays the second frame 404 on a portion on the display unit 28 where a new touchdown is detected. Further, the system control unit 50 performs a process of changing the display of the touch icon 402 to indicate that the second touch AF process is being performed. In this step, the system control unit 50 displays the touch icons on the display unit 28 as shown in FIG. Also, the system control unit 50 displays the colors of the first frame 403 and the second frame 404 differently, so that the user can distinguish between the subject performing the first touch AF and the subject performing the second touch AF. It becomes easy to distinguish. After this step, the system control unit 50 changes the position coordinates, size, and the like of the second frame 403 on the display unit 28 so as to track the subject reflected in the second frame 403 and displays the same.

次に第二のタッチAFの処理を実行している状態におけるシステム制御部50の処理について説明する。   Next, a process of the system control unit 50 in a state where the second touch AF process is being performed will be described.

ステップS513では、システム制御部50は第二の枠404に映る被写体のデフォーカス量情報を測定する。   In step S513, the system control unit 50 measures the defocus amount information of the subject shown in the second frame 404.

ステップS514では、システム制御部50はステップS504において測定したデフォーカス量情報からフォーカス位置を計算する。システム制御部50はこの計算したフォーカス位置をシステムメモリ52や不揮発性メモリ56等に所定時間または所定の撮影回数の間記録する。所定時間または所定の撮影回数を超えた場合、システム制御部50は最も古いフォーカス位置の情報を削除する。システム制御部50は第二の枠404に映る被写体に合焦する前にフォーカス位置をあらかじめ計算することで、ユーザによる第二のタッチAFがタッチアップされた後すぐに被写体に合焦できる。   In step S514, the system control unit 50 calculates a focus position from the defocus amount information measured in step S504. The system control unit 50 records the calculated focus position in the system memory 52, the nonvolatile memory 56, or the like for a predetermined time or a predetermined number of times of photographing. When a predetermined time or a predetermined number of times of photographing is exceeded, the system control unit 50 deletes the information of the oldest focus position. The system control unit 50 can calculate the focus position in advance before focusing on the subject shown in the second frame 404, so that the subject can be focused immediately after the second touch AF is touched up by the user.

ステップS515では、システム制御部50は第二の枠404にタッチオンされているか否かを検出する。システム制御部50は第二の枠404にタッチオンを検出している場合はステップS522に進み、そうでない場合はステップS516に進む。システム制御部50は第二の枠404にタッチオンを検出している間、第二の枠404に映る被写体に対するフォーカス位置を計算し続けるが、第二の枠404に映る被写体に合焦するための撮影レンズ103を駆動する処理を行わない。ステップS513からステップS515におけるシステム制御部50がタッチオンを検出している間の処理は請求項1における準備処理に相当する。   In step S515, the system control unit 50 detects whether the second frame 404 is touched on. The system control unit 50 proceeds to step S522 if touch-on has been detected in the second frame 404, and otherwise proceeds to step S516. While detecting the touch-on on the second frame 404, the system control unit 50 continues to calculate the focus position for the subject shown in the second frame 404, but the focus position for focusing on the subject shown in the second frame 404 is determined. The processing for driving the photographing lens 103 is not performed. The processing during the time when the system control unit 50 detects the touch-on in steps S513 to S515 corresponds to the preparation processing in claim 1.

ステップS516では、システム制御部50は表示部28に表示している第一の枠403の表示を消す処理を行う。またシステム制御部50はタッチアイコン401およびタッチアイコン402の表示を変化させる処理を行う。本ステップでは、システム制御部50は表示部28にタッチアイコンを図4(d)のように表示している。   In step S516, the system control unit 50 performs a process of deleting the display of the first frame 403 displayed on the display unit 28. Further, the system control unit 50 performs a process of changing the display of the touch icons 401 and 402. In this step, the system control unit 50 displays the touch icons on the display unit 28 as shown in FIG.

ステップS517では、システム制御部50は図3において説明した方法によって、ステップS514において計算したフォーカス位置を用いて第二の枠に映る被写体が動体か否かを判断する。システム制御部50は第二の枠404に映る被写体が動体であればステップS519に進み、そうでない場合はステップS520に進む。ここで、システム制御部50はステップS514において、第二の枠404に映る被写体に対するフォーカス位置を記録し続けていることにより、第二の枠404に映る被写体が動体か否かを判断できる。また、システム制御部50はステップS514において第二の枠404に映る被写体に対するフォーカス位置を記録し続けていることにより、合焦していない第二の枠404に映る被写体の動きを予測することができる。これによってシステム制御部50はステップS517において、第二の枠404に映る被写体に合焦する場合でも、被写体に焦点を合わせるまでの時間を短くすることができる。   In step S517, the system control unit 50 determines whether the subject shown in the second frame is a moving object by using the focus position calculated in step S514 by the method described with reference to FIG. If the subject shown in the second frame 404 is a moving object, the system control unit 50 proceeds to step S519, otherwise proceeds to step S520. Here, in step S514, the system control unit 50 continues to record the focus position for the subject shown in the second frame 404, so that it is possible to determine whether the subject shown in the second frame 404 is a moving object. Further, since the system control unit 50 continues to record the focus position for the subject shown in the second frame 404 in step S514, it can predict the movement of the subject shown in the unfocused second frame 404. it can. As a result, the system control unit 50 can shorten the time required for focusing on the subject even in the case where the subject reflected in the second frame 404 is focused in step S517.

ステップS518では、S513において計算したフォーカス位置に撮影レンズ103を駆動する。   In step S518, the photographing lens 103 is driven to the focus position calculated in step S513.

ステップS519では、次の撮影において第二の枠404に映る被写体に合焦するために、システム制御部50は図3において説明した方法によって、第二の枠404に映る被写体に対するフォーカス位置を計算する。   In step S519, in order to focus on the subject shown in the second frame 404 in the next photographing, the system control unit 50 calculates the focus position for the subject shown in the second frame 404 by the method described with reference to FIG. .

ステップS520では、ステップS519において計算したフォーカス位置に基づいて撮影レンズ103を駆動する。これによって第二の枠404に映る被写体が動いている場合でも、準備処理を行っていたことにより、システム制御部50はタッチオンが離されたことを検出した次の撮影において第二の枠404に映る被写体に合焦できる。   In step S520, the photographing lens 103 is driven based on the focus position calculated in step S519. As a result, even when the subject reflected in the second frame 404 is moving, the system control unit 50 performs the preparation processing, and the system control unit 50 moves to the second frame 404 in the next photographing that has detected that the touch-on has been released. We can focus on subject to be reflected.

ステップS521では、システム制御部50は第二のタッチAFの状態を終了し、第一のタッチAFの状態になる。この処理以降、システム制御部50は第二の枠404を第一の枠403として処理する。また、この処理以降、システム制御部50はタッチアイコン402をタッチアイコン401として処理する。ここでシステム制御部50は表示部28にタッチアイコンを図4(d)のように表示し、タッチアイコンの位置関係は入れ替えない。このような処理を行うことで、本処理の後、第二の枠404の外にユーザがタッチした場合、システム制御部50はそのタッチを第二のタッチAFとして扱い、本フローチャートの処理を繰り返すことができる。またタッチアイコンの位置関係を入れ替えないことで、ユーザは本フローチャートの処理が正常に行われていることを認識できる。ステップS522では、システム制御部50は撮影が終了したか否かを判断する。例えば、ユーザが第2シャッタースイッチ64の押下が離されたことを検出した場合、システム制御部50は処理を終了する。システム制御部50は撮影が終了していないと判断した場合は、ステップS501の処理を行い、撮影を継続する。   In step S521, the system control unit 50 ends the second touch AF state and enters the first touch AF state. After this processing, the system control unit 50 processes the second frame 404 as the first frame 403. After this process, the system control unit 50 processes the touch icon 402 as the touch icon 401. Here, the system control unit 50 displays the touch icons on the display unit 28 as shown in FIG. 4D, and does not change the positional relationship of the touch icons. By performing such processing, when the user touches outside the second frame 404 after this processing, the system control unit 50 treats the touch as the second touch AF and repeats the processing of this flowchart. be able to. Further, by not changing the positional relationship of the touch icons, the user can recognize that the processing of this flowchart is performed normally. In step S522, the system control unit 50 determines whether the shooting has been completed. For example, if the user detects that the second shutter switch 64 has been released, the system control unit 50 ends the process. If the system control unit 50 determines that the shooting has not been completed, the process of step S501 is performed, and the shooting is continued.

以上、図5を参照しながら、本実施形態におけるデジタルカメラ100の処理の手順について説明した。   The processing procedure of the digital camera 100 according to the present embodiment has been described above with reference to FIG.

ここでステップS513において第一の枠403と第二の枠404の色を異ならせると記載したが、第一の枠403の色は第二の枠404の色より目立つ色にするとさらに効果を得られる。ユーザは目立つ色である第一の枠403が現在合焦している部分であり、第二の枠404はまだ合焦していない部分であると直感的に理解しやすい。目立つ色は例えば、他方の色より輝度が高い色や透明度の低い色等である。   Here, in step S513, it is described that the colors of the first frame 403 and the second frame 404 are made different. However, if the color of the first frame 403 is set to be more conspicuous than the color of the second frame 404, further effects are obtained. Can be It is easy for the user to intuitively understand that the first frame 403, which is a conspicuous color, is the currently focused portion, and the second frame 404 is the portion that has not been focused yet. The conspicuous color is, for example, a color having a higher luminance or a color having a lower transparency than the other color.

[第二の実施形態]
第二の実施形態において、ユーザが第一のタッチAFのタッチダウンを継続する場合について説明する。第二の実施形態において、第一の実施形態で用いたデジタルカメラ100を用いるが、本発明はこの構成に限られるものではない。
[Second embodiment]
In the second embodiment, a case where the user continues the touchdown of the first touch AF will be described. In the second embodiment, the digital camera 100 used in the first embodiment is used, but the present invention is not limited to this configuration.

図6(a)〜(d)を用いて本実施形態におけるタッチ操作によるAFについて説明する。図6(a)〜(d)において、デジタルカメラ100は動画撮影モードまたは連射撮影モードによって撮影している状態である。表示部28には被写体が3人表示されており、表示部28の左上にはタッチしていることを示すタッチアイコン601、602が表示されている。   With reference to FIGS. 6A to 6D, AF by a touch operation in the present embodiment will be described. 6A to 6D, the digital camera 100 is in a state of shooting in a moving image shooting mode or a continuous shooting mode. On the display unit 28, three subjects are displayed, and at the upper left of the display unit 28, touch icons 601 and 602 indicating that a touch is performed are displayed.

図6(a)は図4(a)と同様であるため説明は省略する。   FIG. 6A is the same as FIG. 4A, and a description thereof will be omitted.

図6(b)において、デジタルカメラ100はタッチされた被写体にAFする。また、デジタルカメラ100は、タッチされた被写体にAFしていることを示す第一の枠603を表示部28に表示する。この第一の枠603は図4(b)の第一の枠403と同様である。ここで、ユーザはタッチした指を離していない。いいかえると、タッチ操作はタッチダウンの後、タッチオンを継続している。ここでユーザが表示部28に対して第一の枠603の外側に更にタッチダウンした場合、デジタルカメラ100は図4(c)の状態に遷移する。   In FIG. 6B, the digital camera 100 performs AF on the touched subject. In addition, the digital camera 100 displays a first frame 603 on the display unit 28 indicating that AF is being performed on the touched subject. The first frame 603 is the same as the first frame 403 in FIG. Here, the user has not released the touched finger. In other words, touch operation continues touch-on after touch-down. Here, when the user further touches down on the display unit 28 outside the first frame 603, the digital camera 100 transitions to the state of FIG. 4C.

図6(c)において、ユーザが表示部28に対して第一の枠603の外側にタッチオンしている間、デジタルカメラ100は表示部28に対して新たにタッチオンされている部分に映る被写体のデフォーカス量情報を測定する。この場合、デジタルカメラ100は新たにタッチオンされている表示部28の部分にデフォーカス量情報を測定していることを示す第二の枠604を表示する。この第二の枠604は図4(c)の第二の枠404と同様である。さらにデジタルカメラ100は表示部28でタッチアイコン602を点滅させ、デフォーカス量情報を測定していることを示す。デジタルカメラ100はタッチアイコン602とタッチアイコン601とを異なるように点滅させることで、ユーザはタッチAFとデフォーカス量情報の測定の両方を行っていることが分かりやすくなる。ユーザは第一の枠603にタッチオンしている指をタッチアップした場合、デジタルカメラは図6(d)の状態に遷移する。このときユーザは第二の枠604にタッチオンし続けている。   In FIG. 6C, while the user touches on the display unit 28 outside the first frame 603, the digital camera 100 displays a subject reflected in a portion where the display unit 28 is newly touched on. Measure the defocus amount information. In this case, the digital camera 100 displays a second frame 604 indicating that the defocus amount information is being measured on the portion of the display unit 28 that is newly touched on. This second frame 604 is the same as the second frame 404 in FIG. Further, the digital camera 100 blinks the touch icon 602 on the display unit 28 to indicate that the defocus amount information is being measured. The digital camera 100 makes the touch icon 602 and the touch icon 601 blink differently so that the user can easily understand that both the touch AF and the measurement of the defocus amount information are performed. When the user touches up the finger touching on the first frame 603, the digital camera transitions to the state shown in FIG. At this time, the user keeps touching on the second frame 604.

図6(d)は図4(d)と同様であるため説明は省略する。ただし、図6(d)において、ユーザは第二の枠604にタッチオンしていてもタッチアップしていてもよい。デジタルカメラ100が図6(c)から図6(d)の状態に遷移するまでユーザは第二の枠604にタッチオンし続けていればよい。   FIG. 6D is the same as FIG. 4D, and the description is omitted. However, in FIG. 6D, the user may be touching on or touching up the second frame 604. The user need only keep touching on the second frame 604 until the digital camera 100 transitions from the state of FIG. 6C to the state of FIG. 6D.

図7はデジタルカメラ100の処理の手順を示すフローチャートである。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現される。この処理はユーザが第2シャッタースイッチ64を押下し、動画撮影または連射撮影を開始した場合に実行される。また、ユーザは撮影開始時点においてタッチAFのための操作はしておらず、デジタルカメラ100は第1シャッタースイッチ62を押されたことによってAFしている状態か、またはAFしていない状態である。   FIG. 7 is a flowchart showing the procedure of the process of the digital camera 100. Each process in this flowchart is realized by the system control unit 50 expanding a program recorded in the nonvolatile memory 56 into the system memory 52 and executing the program. This process is executed when the user presses the second shutter switch 64 to start moving image shooting or continuous shooting. In addition, the user has not performed an operation for touch AF at the start of shooting, and the digital camera 100 is in a state of performing AF by pressing the first shutter switch 62 or in a state of not performing AF. .

ステップS700からステップS709はそれぞれ図5のステップS500からステップS509と同様であるため説明を省略する。   Steps S700 to S709 are the same as steps S500 to S509 in FIG. 5, respectively, and thus description thereof will be omitted.

ステップS710では、システム制御部50は第二のタッチAFの処理を実行している状態であるか否か判断する。システム制御部50は第二のタッチAFの処理を実行している状態ではない場合はステップS711に進み、そうでない場合はステップS716に進む。   In step S710, the system control unit 50 determines whether the second touch AF process is being performed. The system control unit 50 proceeds to step S711 when the second touch AF process is not being executed, and otherwise proceeds to step S716.

ステップS711では、システム制御部50は第一の枠603においてタッチアップを検出したか否かを判断する。システム制御部50はタッチアップを検出した場合はステップS712に進み、そうでない場合はステップS714に進む。   In step S711, the system control unit 50 determines whether a touch-up has been detected in the first frame 603. If the system control unit 50 detects a touch-up, the process proceeds to step S712; otherwise, the process proceeds to step S714.

ステップS712では、システム制御部50はタッチアイコン401を点滅させる表示を終了する。このときのタッチアイコンの表示は、図6(a)と同じ状態である。本ステップの処理の後、システム制御部50はステップS726の処理を行う。   In step S712, the system control unit 50 ends the display for blinking the touch icon 401. The display of the touch icons at this time is the same as that in FIG. After the processing of this step, the system control unit 50 performs the processing of step S726.

ステップS713からステップS716はそれぞれ図5のステップS511からステップS514と同様であるため説明を省略する。   Steps S713 to S716 are the same as steps S511 to S514 in FIG. 5, respectively, and thus description thereof will be omitted.

ステップS717では、システム制御部50は第一のタッチAF(第一の枠603に対するタッチオン)がタッチアップされたことを検出したか否かを判断する。システム制御部50はタッチアップを検出した場合はステップS720に進み、そうでない場合はステップS718に進む。   In step S717, the system control unit 50 determines whether the first touch AF (touch on the first frame 603) has been touched up. If the system control unit 50 detects a touch-up, the process proceeds to step S720; otherwise, the process proceeds to step S718.

ステップS718では、システム制御部50は第二のタッチAF(第二の枠604に対するタッチオン)がタッチアップされたことを検出したか否かを判断する。システム制御部50は第二のタッチAFのタッチアップを検出した場合はステップS719に進み、そうでない場合はステップS726に進む。   In step S718, the system control unit 50 determines whether the second touch AF (touch on the second frame 604) has been touched up. If the system control unit 50 detects the touch-up of the second touch AF, the process proceeds to step S719; otherwise, the process proceeds to step S726.

ステップS719では、システム制御部50は第二のタッチAFの処理を実行している状態を終了する。本ステップの処理の後、システム制御部50はステップS726に進む。   In step S719, the system control unit 50 ends the state in which the second touch AF process is being performed. After the processing of this step, the system control unit 50 proceeds to step S726.

ステップS720からステップS726はそれぞれ図5のステップS516からステップS522と同様であるため説明を省略する。   Steps S720 to S726 are the same as steps S516 to S522 in FIG. 5, respectively, and will not be described.

このように第一の枠603のタッチオンしている状態の間のみ第二のタッチAFを受け付けることで、通常のタッチAFと本処理における第二のAFとをユーザは使い分けやすくなる。   By accepting the second touch AF only while the first frame 603 is in the touch-on state, the user can easily use the normal touch AF and the second AF in the present process.

以上、図7を参照しながら、本実施形態におけるデジタルカメラ100の処理の手順について説明した。   The processing procedure of the digital camera 100 according to the present embodiment has been described above with reference to FIG.

このように、合焦している被写体から他の被写体に合焦する場合でも、デジタルカメラ100は他の被写体に滑らかに焦点を合わせることが可能となる。特に他の被写体が動いている場合、デジタルカメラ100は本処理を行わない場合に比べて被写体への合焦の速さに関して顕著な効果を得ることができる。   As described above, even when the in-focus subject is focused on another subject, the digital camera 100 can smoothly focus on the other subject. In particular, when another subject is moving, the digital camera 100 can obtain a remarkable effect regarding the speed of focusing on the subject as compared with the case where this processing is not performed.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

Claims (17)

操作部材に対するタッチ操作を検出する検出手段と、
制御手段とを有し、
前記制御手段は、前記操作部材にタッチ操作されていない状態において、前記操作部材に対する第一のタッチダウンを前記検出手段によって検出すると、前記第一のタッチダウンがなされた前記操作部材の第一の位置座標に基づいた所定の処理を実行し、
前記制御手段は、前記第一のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対する第二のタッチダウンを前記検出手段によって検出すると、前記第二のタッチダウンに基づいた前記所定の処理を実行せずに、前記第二のタッチダウンがなされた前記第二の位置座標に基づいた前記所定の処理の準備処理を実行し、
前記制御手段は、前記第一のタッチダウンによるタッチオンおよび前記第二のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記第一のタッチダウンがタッチアップされたことを検出した場合、前記第二のタッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行する
ことを特徴とする電子機器。
Detecting means for detecting a touch operation on the operation member;
Control means,
The control means, in a state where a touch operation is not performed on the operation member, when a first touchdown on the operation member is detected by the detection means, the first touchdown of the operation member on which the first touchdown is performed is performed. Perform a predetermined process based on the position coordinates,
The control unit performs the second touch-down on the second position coordinate of the operation member different from the first position coordinate in a state where the touch-on by the first touch-down is detected by the detection unit. When the detection is performed by the detection unit, the predetermined process based on the second position coordinate at which the second touchdown is performed is not performed, and the preparatory process of the predetermined process is performed without performing the predetermined process based on the second touchdown. Run
When the control unit detects that the first touch-down is touched up in a state where the touch-on by the first touch-down and the touch-on by the second touch-down are detected by the detection unit. An electronic device configured to execute the predetermined process based on the second position coordinates at which the second touchdown is performed.
さらに前記操作部材への表示手段を有し、
前記制御手段は、前記操作部材にタッチオンされた位置座標にタッチされたことを示すガイドオブジェクトを前記表示手段によって表示する
ことを特徴とする請求項1に記載の電子機器。
Further comprising a display means for the operation member,
The electronic device according to claim 1, wherein the control unit displays a guide object indicating that a position coordinate touched on the operation member is touched by the display unit.
前記制御手段は、前記準備処理を実行している場合と前記所定の処理を実行している場合と、における前記ガイドオブジェクトの色を互いに異なるように表示する
ことを特徴とする請求項2に記載の電子機器。
The said control means displays the color of the said guide object in the case where the said preparation process is performing and the case where the said predetermined process is performing so that it may mutually differ. The said control means is characterized by the above-mentioned. Electronic equipment.
前記制御手段は、前記表示手段によって前記操作部材に第一のアイコンと第二のアイコンを表示し、前記第一のタッチダウンを前記検出手段によって検出した場合、前記第一のアイコンを目立つように表示し、前記第二のタッチダウンを前記検出手段によって検出した場合、前記第二のアイコンを目立つように表示する
ことを特徴とする請求項2または3に記載の電子機器。
The control means displays a first icon and a second icon on the operation member by the display means, and when the first touchdown is detected by the detection means, the first icon is made to stand out. 4. The electronic device according to claim 2, wherein the second icon is displayed so as to be prominently displayed when the second touchdown is detected by the detection unit. 5.
前記目立つように表示するとは、アイコンを点滅する表示、アイコンの色を変える表示、およびアイコンの大きさを変える表示のいずれか一つの表示することであることを特徴とする請求項4に記載の電子機器。   5. The display according to claim 4, wherein the prominent display is one of a display in which an icon blinks, a display in which the color of the icon is changed, and a display in which the size of the icon is changed. 6. Electronics. 操作部材に対するタッチ操作を検出する検出手段と、
制御手段とを有し、
前記制御手段は、前記操作部材に対するタッチ操作を前記検出手段によって検出すると、前記タッチ操作の第一の位置座標に基づいた所定の処理を実行し、
前記制御手段は、前記所定の処理を実行している状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対するタッチダウンを前記検出手段によって検出すると、前記タッチダウンによる前記所定の処理を実行せずに前記第二の位置座標に基づいた前記所定の処理のための準備処理を実行し、
前記制御手段は、前記タッチダウンがタッチアップされた場合、前記タッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行する
ことを特徴とする電子機器。
Detecting means for detecting a touch operation on the operation member;
Control means,
When the control unit detects a touch operation on the operation member by the detection unit, the control unit executes a predetermined process based on first position coordinates of the touch operation,
The control unit, in a state where the predetermined process is being executed, when the detection unit detects a touchdown of the operation member at a second position coordinate different from the first position coordinate, the control unit detects the touchdown by the touchdown. Performing a preparation process for the predetermined process based on the second position coordinates without performing the predetermined process,
The electronic device, wherein, when the touchdown is touched up, the control means executes the predetermined processing based on the second position coordinates at which the touchdown is performed.
さらに前記操作部材への表示手段を有し、
前記制御手段は、前記表示手段によって前記操作部材に第一のアイコンと第二のアイコンを表示し、前記タッチ操作を前記検出手段によって検出した場合、前記第一のアイコンを目立つように表示し、前記タッチダウンを前記検出手段によって検出した場合、前記第二のアイコンを目立つように表示し、
前記制御手段は、前記所定の処理を実行していることを示すガイドオブジェクトを前記表示手段によって表示し、前記準備処理を実行していることをしめすガイドオブジェクトは表示しない
ことを特徴とする請求項6に記載の電子機器。
Further comprising a display means for the operation member,
The control means displays a first icon and a second icon on the operation member by the display means, and when the touch operation is detected by the detection means, displays the first icon conspicuously, When the touchdown is detected by the detection unit, the second icon is displayed prominently,
The control unit displays a guide object indicating that the predetermined process is being executed by the display unit, and does not display a guide object indicating that the preparation process is being executed. 7. The electronic device according to 6.
前記目立つように表示するとは、アイコンを点滅する表示、アイコンの色を変える表示、およびアイコンの大きさを変える表示のいずれか一つの表示することであることを特徴とする請求項7に記載の電子機器。   8. The display according to claim 7, wherein the prominent display is any one of a display in which the icon blinks, a display in which the color of the icon is changed, and a display in which the size of the icon is changed. Electronics. 前記制御手段は、前記準備処理を実行している場合と前記所定の処理を実行している場合と、における前記ガイドオブジェクトの色を互いに異なるように表示する
ことを特徴とする請求項7または8に記載の電子機器。
The control means displays the colors of the guide objects differently when the preparation process is being executed and when the predetermined process is being executed. An electronic device according to claim 1.
さらに撮像手段を有し、前記所定の処理は前記撮像手段による位相差を用いたオートフォーカスであることを特徴とする請求項1から9のいずれか1項に記載の電子機器。   10. The electronic apparatus according to claim 1, further comprising an imaging unit, wherein the predetermined processing is an autofocus using a phase difference by the imaging unit. 前記撮像手段はレンズを含み、
前記準備処理は、前記所定の処理において前記第二の位置座標に映る被写体に対する前記レンズの駆動量を前記制御手段が計算する処理であることを特徴とする請求項10に記載の電子機器。
The imaging means includes a lens,
11. The electronic apparatus according to claim 10, wherein the preparation process is a process in which the control unit calculates a drive amount of the lens with respect to a subject represented by the second position coordinate in the predetermined process.
さらに記録手段を有し、
前記制御手段は、前記準備処理において前記記録手段によって前記駆動量を記録し、記録した複数の前記駆動量に基づいて前記被写体が動いているか否かを判断し、
前記制御手段が前記被写体が動いていないと判断した場合、前記撮像手段は前記準備処理によって計算した前記レンズの駆動量を用いて前記所定の処理を実行し、
前記制御手段が前記被写体が動いていると判断した場合、前記制御手段は次に撮像するタイミングにおける前記被写体に対する前記レンズの駆動量を前記準備処理によって計算された前記レンズの駆動量から計算し、前記準備処理によって計算された前記レンズの駆動量から計算された前記レンズの駆動量を用いて前記撮像手段は前記所定の処理を実行する
ことを特徴とする請求項11に記載の電子機器。
It further has a recording means,
The control unit records the drive amount by the recording unit in the preparation process, and determines whether the subject is moving based on the plurality of recorded drive amounts,
When the control unit determines that the subject is not moving, the imaging unit performs the predetermined process using the lens drive amount calculated by the preparation process,
If the control means determines that the subject is moving, the control means calculates the drive amount of the lens with respect to the subject at the next imaging timing from the drive amount of the lens calculated by the preparation process, The electronic apparatus according to claim 11, wherein the imaging unit executes the predetermined process using a drive amount of the lens calculated from a drive amount of the lens calculated by the preparation process.
前記撮像手段による撮影は、動画撮影または連射撮影であることを特徴とする請求項10から12のいずれか1項に記載の電子機器。   The electronic device according to claim 10, wherein the imaging by the imaging unit is a moving image shooting or a continuous shooting. 前記操作部材はタッチパネルであることを特徴とする請求項1から13のいずれか1項に記載の電子機器。   14. The electronic device according to claim 1, wherein the operation member is a touch panel. 操作部材に対するタッチ操作を検出する検出手段と、
制御手段とを有する電子機器の制御方法であって、
前記操作部材にタッチ操作されていない状態において、前記操作部材に対する第一のタッチダウンを前記検出手段によって検出すると、前記第一のタッチダウンがなされた前記操作部材の第一の位置座標に基づいた処理を実行するステップと、
前記第一のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対する第二のタッチダウンを前記検出手段によって検出すると、前記第二のタッチダウンに基づいた処理を実行せずに、前記第二のタッチダウンがなされた前記第二の位置座標に基づいた所定の処理の準備処理を実行するステップと、
前記第一のタッチダウンによるタッチオンおよび前記第二のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記第一のタッチダウンによるタッチ操作がタッチアップされた場合、前記第二のタッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行するステップと
を有することを特徴とする制御方法。
Detecting means for detecting a touch operation on the operation member;
A control method of an electronic device having control means,
In a state where the operation member is not touch-operated, when the first touchdown on the operation member is detected by the detection unit, the first touchdown is performed based on the first position coordinates of the operation member on which the first touchdown is performed. Performing an operation;
In a state where the touch-on by the first touch-down is detected by the detection unit, when the detection unit detects a second touch-down on a second position coordinate different from the first position coordinate of the operation member. Performing a preparation process for a predetermined process based on the second position coordinates at which the second touchdown has been performed, without performing the process based on the second touchdown,
In a state where the touch-on by the first touch-down and the touch-on by the second touch-down are detected by the detection unit, when the touch operation by the first touch-down is touched up, the second touch Executing the predetermined processing based on the second position coordinates where the down has been performed.
操作部材に対するタッチ操作を検出する検出手段と、
制御手段とを有する電子機器の制御方法であって、
前記操作部材に対するタッチ操作を前記検出手段によって検出すると、前記タッチ操作の第一の位置座標に基づいた所定の処理を実行するステップと、
前記所定の処理を実行している状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対するタッチダウンを前記検出手段によって検出すると、前記タッチダウンによる前記所定の処理を実行せずに前記第二の位置座標に基づいた前記所定の処理のための準備処理を実行するステップと、
前記タッチダウンがタッチアップされた場合、前記タッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行するステップと
を有することを特徴とする制御方法。
Detecting means for detecting a touch operation on the operation member;
A control method of an electronic device having control means,
When a touch operation on the operation member is detected by the detection unit, executing a predetermined process based on first position coordinates of the touch operation;
In a state where the predetermined process is being executed, when the detection unit detects a touchdown of the operation member at a second position coordinate different from the first position coordinate, the predetermined process is executed by the touchdown. Performing a preparatory process for the predetermined process based on the second position coordinates without performing;
And performing the predetermined processing based on the second position coordinates at which the touch-down is performed when the touch-down is touched up.
コンピュータを請求項1から14のいずれか1項に記載の通信装置の各手段として機能させるための、コンピュータが読み取り可能なプログラム。   A computer-readable program for causing a computer to function as each unit of the communication device according to claim 1.
JP2018163197A 2018-08-31 2018-08-31 Electronic device, control method thereof, and program thereof Active JP6703057B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018163197A JP6703057B2 (en) 2018-08-31 2018-08-31 Electronic device, control method thereof, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018163197A JP6703057B2 (en) 2018-08-31 2018-08-31 Electronic device, control method thereof, and program thereof

Publications (2)

Publication Number Publication Date
JP2020036280A true JP2020036280A (en) 2020-03-05
JP6703057B2 JP6703057B2 (en) 2020-06-03

Family

ID=69668752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018163197A Active JP6703057B2 (en) 2018-08-31 2018-08-31 Electronic device, control method thereof, and program thereof

Country Status (1)

Country Link
JP (1) JP6703057B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150055006A1 (en) * 2013-08-23 2015-02-26 Samsung Electronics Co., Ltd. Photographing apparatus and method of controlling the same
EP2947867A1 (en) * 2014-05-19 2015-11-25 Lg Electronics Inc. Mobile terminal and method of controlling the same
US20170019589A1 (en) * 2015-07-14 2017-01-19 Samsung Electronics Co., Ltd. Image capturing apparatus and method
JP2017123515A (en) * 2016-01-05 2017-07-13 キヤノン株式会社 Electronic apparatus and control method therefor
US20170366743A1 (en) * 2014-01-15 2017-12-21 Samsung Electronics Co., Ltd. Method for setting image capture conditions and electronic device performing the same
JP2017224325A (en) * 2017-08-02 2017-12-21 キヤノン株式会社 Electronic apparatus and control method of the same
JP2018125801A (en) * 2017-02-03 2018-08-09 キヤノン株式会社 Imaging apparatus, control method of imaging apparatus, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150055006A1 (en) * 2013-08-23 2015-02-26 Samsung Electronics Co., Ltd. Photographing apparatus and method of controlling the same
US20170366743A1 (en) * 2014-01-15 2017-12-21 Samsung Electronics Co., Ltd. Method for setting image capture conditions and electronic device performing the same
EP2947867A1 (en) * 2014-05-19 2015-11-25 Lg Electronics Inc. Mobile terminal and method of controlling the same
US20170019589A1 (en) * 2015-07-14 2017-01-19 Samsung Electronics Co., Ltd. Image capturing apparatus and method
JP2017123515A (en) * 2016-01-05 2017-07-13 キヤノン株式会社 Electronic apparatus and control method therefor
JP2018125801A (en) * 2017-02-03 2018-08-09 キヤノン株式会社 Imaging apparatus, control method of imaging apparatus, and program
JP2017224325A (en) * 2017-08-02 2017-12-21 キヤノン株式会社 Electronic apparatus and control method of the same

Also Published As

Publication number Publication date
JP6703057B2 (en) 2020-06-03

Similar Documents

Publication Publication Date Title
EP2367345B1 (en) Image pickup apparatus and its control method
JP6667294B2 (en) Electronic device and control method thereof
JP6614943B2 (en) Imaging control apparatus and control method thereof
KR102075379B1 (en) Electronic device and method for controlling the same
CN110035224B (en) Electronic device, control method thereof, and storage medium
JP6806572B2 (en) Imaging control device, imaging device, control method, program, and storage medium
JP6494215B2 (en) Electronic device, control method thereof and program
JP2014228629A (en) Imaging apparatus, control method and program thereof, and storage medium
JP2013225844A (en) Image pickup device and control method and program thereof and recording medium
JP7034619B2 (en) Image pickup device, its control method, and program, and storage medium
JP5575290B2 (en) Imaging apparatus and control method thereof
JP7225022B2 (en) Imaging device and display control method
JP7098490B2 (en) Imaging device and its control method
JP6257255B2 (en) Display control device and control method of display control device
JP6703057B2 (en) Electronic device, control method thereof, and program thereof
JP2018107753A (en) Imaging control device and method for controlling the same
JP2021028785A (en) Electronic apparatus and control method for electronic apparatus
US9088762B2 (en) Image capturing apparatus and control method thereof
JP5863418B2 (en) Imaging apparatus and control method thereof
CN112351189B (en) Exposure setting apparatus, control method thereof, and storage medium
JP7086722B2 (en) Display control device and its control method
JP6301002B2 (en) Display control device and control method of display control device
JP2020191599A (en) Imaging apparatus and control method of the same
JP2022038527A (en) Electronic device, control method of the same, program, and recording medium
JP2015122562A (en) Photographing apparatus, photographing control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200507

R151 Written notification of patent or utility model registration

Ref document number: 6703057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151