JP2020036280A - Electronic equipment, control method thereof, and program thereof - Google Patents
Electronic equipment, control method thereof, and program thereof Download PDFInfo
- Publication number
- JP2020036280A JP2020036280A JP2018163197A JP2018163197A JP2020036280A JP 2020036280 A JP2020036280 A JP 2020036280A JP 2018163197 A JP2018163197 A JP 2018163197A JP 2018163197 A JP2018163197 A JP 2018163197A JP 2020036280 A JP2020036280 A JP 2020036280A
- Authority
- JP
- Japan
- Prior art keywords
- touch
- touchdown
- control unit
- display
- operation member
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、タッチ操作が可能な電子機器に関する。 The present invention relates to an electronic device capable of performing a touch operation.
近年、デジタルカメラやスマートフォン等のようにユーザがディスプレイを直接タッチして直感的に操作(タッチ操作)できる電子機器が知られている。 2. Description of the Related Art In recent years, electronic devices such as digital cameras and smartphones that allow a user to intuitively operate (touch operation) by directly touching a display have been known.
例えば、特許文献1は、感圧センサにタッチされた位置座標に基づいて被写体に焦点を合わせることができるカメラが開示されている。
For example,
しかし、電子機器はタッチ操作されている場合、同じ処理を行う別のタッチ操作を受け付けないため、ユーザは同じ処理を行うタッチ操作を続けて行いたくても、1回のタッチ操作が終わってから次のタッチ操作を行う必要があった。 However, when a touch operation is performed, the electronic device does not accept another touch operation for performing the same process. Therefore, even if the user wants to perform the touch operation for performing the same process continuously, after the touch operation is completed, The next touch operation had to be performed.
そこで本発明は、ユーザはタッチ操作をしている状態でも次の同じ処理を行うタッチ操作を開始できるようにすることを目的とする。 Therefore, an object of the present invention is to enable a user to start a touch operation for performing the following same process even while performing a touch operation.
上記目的を達成するために、本発明の電子機器は、操作部材に対するタッチ操作を検出する検出手段と、制御手段とを有し、前記制御手段は、前記操作部材にタッチ操作されていない状態において、前記操作部材に対する第一のタッチダウンを前記検出手段によって検出すると、前記第一のタッチダウンがなされた前記操作部材の第一の位置座標に基づいた所定の処理を実行し、前記制御手段は、前記第一のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対する第二のタッチダウンを前記検出手段によって検出すると、前記第二のタッチダウンに基づいた前記所定の処理を実行せずに、前記第二のタッチダウンがなされた前記第二の位置座標に基づいた前記所定の処理の準備処理を実行し、前記制御手段は、前記第一のタッチダウンによるタッチオンおよび前記第二のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記第一のタッチダウンがタッチアップされたことを検出した場合、前記第二のタッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行することを特徴とする。 In order to achieve the above object, an electronic device of the present invention has a detection unit that detects a touch operation on an operation member, and a control unit, wherein the control unit is configured to perform a touch operation on the operation member when the operation member is not touched. Detecting a first touchdown on the operation member by the detection unit, executes a predetermined process based on first position coordinates of the operation member on which the first touchdown has been performed, and the control unit In a state where the touch-on by the first touch-down is detected by the detection unit, the detection unit detects a second touch-down on a second position coordinate different from the first position coordinate of the operation member. Then, without executing the predetermined process based on the second touchdown, the second position seat where the second touchdown is performed is performed. Executing the preparatory processing of the predetermined processing based on the above, in a state where the touch-on by the first touch-down and the touch-on by the second touch-down are detected by the detecting means, When detecting that one touchdown has been touched up, the predetermined processing is executed based on the second position coordinates at which the second touchdown is performed.
本発明によれば、ユーザはタッチ操作をしている状態でも次の同じ処理を行うタッチ操作を開始できる。 According to the present invention, the user can start a touch operation for performing the following same process even while performing a touch operation.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[第一の実施形態]
図1に本発明を適用可能な電子機器の一例であるデジタルカメラ100の外観図を示す。
[First embodiment]
FIG. 1 shows an external view of a
表示部28は画像や各種情報を表示する表示部である。
The
モード切替スイッチ60は各種モードを切り替えるための操作部である。シャッターボタン61は撮影指示を行うための操作部である。
The
コネクタ112は、パーソナルコンピュータやプリンタなどの外部機器と接続するための接続ケーブル111とデジタルカメラ100とのコネクタである。
The
操作部70はユーザからの各種操作を受け付ける各種スイッチ、ボタン、タッチパネル等の操作部材から構成される操作部である。電源スイッチ72は操作部70に含まれ、電源オン、電源オフを切り替えるための押しボタンである。コントローラホイール73は操作部70に含まれる回転操作可能な操作部材である。
The
記録媒体200はメモリカードやハードディスク等の記録媒体である。記録媒体スロット201は記録媒体200を格納するためのスロットである。記録媒体スロット201に格納された記録媒体200は、デジタルカメラ100との通信が可能となり、記録や再生が可能となる。蓋202は記録媒体スロット201の蓋である。図においては、蓋202を開けて記録媒体スロット201から記録媒体200の一部を取り出して露出させた状態を示している。
The
図2は、本実施形態におけるデジタルカメラ100の構成例を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration example of the
撮影レンズ103はズームレンズ、フォーカスレンズを含むレンズ群である。シャッタ101は絞り機能を備えるシャッタである。撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。バリア102は、デジタルカメラ100の、撮影レンズ103を含む撮像系を覆うことにより、撮影レンズ103、シャッタ101、撮像部22を含む撮像系の汚れや破損を防止する。また、撮像部22は焦点検出部(不図示)を含む。焦点検出部は後述するシステム制御部50にデフォーカス量情報を出力する。デフォーカス量情報は、撮影レンズ103における被写体に合焦する位置からのずれを示す情報である。システム制御部50はデフォーカス量情報に基づいて撮影レンズ103を制御し、位相差AFを行う。なお、焦点検出部は撮像部22と別部材にしてもよい。
The taking
また、位相差AF方式では、デジタルカメラ100はある被写体に合焦している場合でも、他の被写体とのデフォーカス量情報を測定することが可能である。
Also, in the phase difference AF method, even when the
画像処理部24は、A/D変換器23からのデータ、またはメモリ制御部15からのデータに対して画素補間、縮小等のリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理を行う。画像処理部24により得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
The
A/D変換器23からの出力データは、画像処理部24およびメモリ制御部15を介して、あるいは、メモリ制御部15を介してメモリ32に記録される。メモリ32は、撮像部22によって撮像されA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを記録する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声等のデータを記録するのに十分な記録容量を備えている。
Output data from the A /
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器13は、メモリ32に記録されている画像表示用のデータをアナログ信号に変換して表示部28へ出力する。このように、メモリ32に記録された画像データはD/A変換器13を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器13からのアナログ信号に応じた表示を行う。システム制御部50はA/D変換器23によってA/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器13においてアナログ変換し、表示部28に逐次転送して表示することで、表示部28は電子ビューファインダとして機能する。これによってデジタルカメラ100はスルー画像表示(ライブビュー表示(LV表示))を行うことができる。以下、ライブビューで表示される画像をLV画像と称する。
The
不揮発性メモリ56は、電気的に消去・記録可能な記録媒体としてのメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのコンピュータプログラムのことである。
The
システム制御部50は、少なくとも1つのプロセッサまたは回路を有する制御部であり、デジタルカメラ100全体を制御する。不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、例えばRAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等が展開される。また、システム制御部50はメモリ32、D/A変換器13、表示部28等を制御することにより表示制御も行う。
The
システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
The
モード切替スイッチ60、シャッターボタン61、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッタ速度優先モード(Tvモード)、プログラムAEモード、連射撮影モードがある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60より、ユーザは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り換えた後に、表示された複数のモードのいずれかを選択し、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
The
第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。
The
第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを記録するまでの一連の撮影処理の動作を開始する。
The
操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
Each operation member of the
コントローラホイール73は、操作部70に含まれる回転操作可能な操作部材であり、方向ボタンと共に選択項目を指示する際などに使用される。コントローラホイール73を回転操作すると、操作量に応じて電気的なパルス信号が発生し、このパルス信号に基づいてシステム制御部50はデジタルカメラ100の各部を制御する。このパルス信号によって、コントローラホイール73が回転操作された角度や、何回転したかなどを判定することができる。なお、コントローラホイール73は回転操作が検出できる操作部材であればどのようなものでもよい。例えば、ユーザの回転操作に応じてコントローラホイール73自体が回転してパルス信号を発生するダイヤル操作部材であってもよい。また、タッチセンサよりなる操作部材で、コントローラホイール73自体は回転せず、コントローラホイール73上でのユーザの指の回転動作などを検出するものであってもよい(いわゆる、タッチホイール)。
The controller wheel 73 is a rotatable operation member included in the
電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
The
記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや光ディスク、磁気ディスク等から構成される。
The recording medium I /
通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号等の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(ライブ画像を含む)や、記録媒体200に記録された画像等のデータを送信することができる。また、通信部54は外部機器から画像データやその他の各種情報を受信することができる。
The communication unit 54 is connected by a wireless or wired cable and transmits and receives a video signal, an audio signal, and the like. The communication unit 54 is also connectable to a wireless LAN (Local Area Network) or the Internet. In addition, the communication unit 54 can communicate with an external device using Bluetooth (registered trademark) or Bluetooth Low Energy. The communication unit 54 can transmit data such as an image (including a live image) captured by the
姿勢検知部55は重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサやジャイロセンサなどを用いることができる。姿勢検知部55である、加速度センサやジャイロセンサを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
The posture detection unit 55 detects the posture of the
なお操作部70の一つとして、表示部28に対する接触を検出可能なタッチパネル70aを有する。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示画面上の表示座標とを対応付ける。これにより、あたかもユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を提供できる。システム制御部50はタッチパネル70aへの以下の操作、あるいは状態を検出できる。
As one of the
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・タッチパネル70aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネル70aへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
-A finger or pen that has not touched the touch panel 70a newly touches the touch panel 70a. That is, a touch is started (hereinafter, referred to as a touch-down).
A state in which the touch panel 70a is being touched by a finger or a pen (hereinafter, referred to as touch-on).
Movement while touching the touch panel 70a with a finger or a pen (hereinafter, referred to as touch-move).
-The finger or the pen touching the touch panel 70a is released. That is, the end of the touch (hereinafter, referred to as touch-up).
A state in which nothing is touched on the touch panel 70a (hereinafter, referred to as touch-off).
タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When the touch-down is detected, the touch-on is also detected at the same time. After a touch-down, a touch-on is usually continuously detected unless a touch-up is detected. Touch move is also detected when touch-on is detected. Even if a touch-on is detected, a touch move is not detected unless the touch position has moved. After it is detected that all the touched fingers or pens have been touched up, the touch is turned off.
これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判断できる(スライド操作に続いてフリックがあったものと判断できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。
These operations / states and the coordinates of the position where the finger or pen touches the touch panel 70a are notified to the
ここで、動画撮影する場合および連射撮影する場合において、位相差AFを用いてシステム制御部50が撮影レンズ103の合焦する位置を予測する方法を説明する。
Here, a description will be given of a method in which the
システム制御部50は、撮像するごとに測定したデフォーカス量情報から被写体に合焦するために必要な撮影レンズ103の駆動量(以下、レンズ駆動量という)を計算する。例えば動画を撮影している場合、システム制御部50は0.03秒(30FPS(Frames per Second)の動画における1フレーム)ごとにデフォーカス量情報からレンズ駆動量を計算する。そしてシステム制御部50はレンズ駆動量と現在のレンズの位置からから次に撮影するタイミングにおけるレンズの位置(フォーカス位置)を計算する。システム制御部50はこのフォーカス位置を不揮発性メモリ56やシステムメモリ52等に所定時間または所定の撮影回数の間記録する。位相差AF方式の場合、デジタルカメラ100は特定の被写体に合焦していても他の被写体に対するフォーカス位置を計算できる。
The
図3を用いて、システム制御部50が撮影レンズ103の合焦する位置を予測する方法の一例を説明する。図3はデジタルカメラ100において動画を撮影した場合における、フォーカス位置とフレーム番号の関係である。図3において、縦軸はフォーカス位置、横軸はフレーム番号を示す。図3の横軸において、nが現在のフレーム番号である。システム制御部50は、フォーカス位置が所定の時間以内に所定量以上変化した場合、被写体が動体であると判断する。例えば、フレーム番号nにおけるフォーカス位置304はフレーム番号n−1におけるフォーカス位置303から所定量以上変化しているため、システム制御部50はこの被写体を動体であると判断する。なお、フォーカス位置を計算した回数が所定回数より少ない場合、システム制御部50は被写体が動体ではないと判断する。
An example of a method in which the
ここで被写体が動体である場合、システム制御部50はフォーカス位置を複数用いることで、次のフレームにおける被写体の位置を予測することができる。例えば、動体である被写体に撮影レンズ103を合焦する場合、システム制御部50はフレーム番号nにおいて、フォーカス位置301〜304を用いて近似曲線310を作成し、次のフレーム番号n+1におけるフォーカス位置305を計算する。近似曲線310は例えば最小二乗法を用いて計算される。
Here, when the subject is a moving object, the
図4(a)〜(d)を用いて本実施形態におけるタッチ操作によるAFについて説明する。図4(a)〜(d)において、デジタルカメラ100は動画撮影または連射撮影している。表示部28には被写体が3人表示されており、表示部28の左上にはタッチしていることを示すタッチアイコン401、402が表示されている。
With reference to FIGS. 4A to 4D, the AF by the touch operation in the present embodiment will be described. 4A to 4D, the
図4(a)において、デジタルカメラ100は自動で被写体にAFしている状態である。この状態において、ユーザが合焦したい被写体を表示部28(タッチパネル70a)に対してタッチダウンすることによって、デジタルカメラ100はタッチダウンされた部分に映る被写体にAFする(以降、この操作をタッチAFという)。
FIG. 4A shows a state in which the
図4(b)において、デジタルカメラ100はタッチされた被写体にタッチAFする。また、デジタルカメラ100は、タッチAFしていることを示す第一の枠403を表示部28に表示する。この第一の枠403はガイドオブジェクトであり、マークや記号等で表される。さらにデジタルカメラ100は表示部28でタッチアイコン401を点滅させ、タッチAFしていることをユーザに目立つように示す。以降、後述するタッチAFと区別するため第一のタッチAFという。なお、ここで、ユーザはタッチした指を離している。いいかえると、タッチ操作はタッチダウンの後、タッチアップされている。ここでユーザが表示部28に対して第一の枠403の外側に更にタッチダウンした場合、デジタルカメラ100は図4(c)の状態に遷移する。
In FIG. 4B, the
図4(c)において、ユーザが表示部28に対して第一の枠403の外側にタッチオンしている間、デジタルカメラ100は表示部28に対して新たにタッチオンされている部分に映る被写体のデフォーカス量情報を測定し、フォーカス位置を計算する。この場合、デジタルカメラ100は新たにタッチオンされている表示部28の部分にデフォーカス量情報を測定している(およびフォーカス位置を計算している)ことを示す第二の枠404を表示する。この第二の枠404は第一の枠403と同様にガイドオブジェクトであるが、第一の枠403とは異なるマークや記号等で表される。これにより、ユーザは第一のタッチAFを示す枠とデフォーカス量情報の測定を示す枠とを区別しやすくなる。さらにデジタルカメラ100は表示部28でタッチアイコン402を点滅させ、デフォーカス量情報を測定していることを示す。デジタルカメラ100はタッチアイコン402とタッチアイコン401とを異なるように点滅させることで、ユーザは第一のタッチAFとデフォーカス量情報の測定の両方を行っていることが分かりやすくなる。ユーザはタッチオンしている指をタッチアップした場合、デジタルカメラは図4(d)の状態に遷移する。
In FIG. 4C, while the user touches on the
図4(d)において、デジタルカメラ100は第二の枠404の部分に映る被写体にAFする。以降、第一のタッチAFと区別するためにこれを第二のタッチAFという。このとき、デジタルカメラ100は表示部28から第一の枠403の表示を消し、さらにタッチアイコン401の点滅させる処理を終了する。また、デジタルカメラ100は、タッチアイコン402を第二のタッチAFしている状態を示すように点滅(図4(c)のタッチアイコン401と同じ点滅)させる。またデジタルカメラ100は第二の枠404をタッチAFしている状態を示すように表示(図4(c)の第一の枠403と同じ表示)する。
In FIG. 4D, the
このようにデジタルカメラ100はある被写体にAFしている間でも、さらに次にAFしたい被写体に関するデフォーカス量情報を測定しフォーカス位置を計算することで、デジタルカメラ100はAFする対象をすばやく切り替えることができる。さらに被写体が動体の場合、デジタルカメラ100は被写体に関するデフォーカス量情報を複数回測定して被写体の動きを予測する必要があるため、ユーザは特に顕著な効果を得られる。
As described above, even while the
ここでデジタルカメラ100は表示部28でタッチアイコン401、402を点滅させることで、タッチAFまたはデフォーカス量情報を測定していることをユーザに報知したが、報知の方法は点滅させる方法以外でもよい。例えば、タッチアイコン401、402の輝度を上げる方法や色を変化させる方法がある。
Here, the
また第一の枠403の色は第二の枠404の色より目立つ色にするとさらに効果を得られる。ユーザは目立つ色である第一の枠403が現在合焦している部分であり、第二の枠404はまだ合焦していない部分であると直感的に理解しやすい。目立つ色は例えば、他方の色より輝度が高い色や透明度の低い色等である。
Further, if the color of the
図5はデジタルカメラ100の処理の手順を示すフローチャートである。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現される。この処理はユーザが第2シャッタースイッチ64を押下し、動画撮影または連射撮影を開始した場合に実行される。また、ユーザは撮影開始時点においてタッチAFのための操作はしていないものとする。
FIG. 5 is a flowchart showing the procedure of the process of the
ステップS500では、システム制御部50は画像を撮影する。デジタルカメラ100が動画撮影モードである場合、この画像は動画の1フレームに相当する。以降のステップは、次にシステム制御部50がステップS500において撮影するための処理である。
In step S500, the
ステップS501では、システム制御部50は、第一のタッチAFの処理を実行している状態か否かを判断する。システム制御部50は第一のタッチAFの処理を実行している状態でなければステップS502に進み、第一のタッチAFの処理を実行していない状態であればステップS505に進む。
In step S501, the
ステップS502では、システム制御部50は、ユーザにタッチAFの操作をされたか否かを判断する。例えば、システム制御部50はタッチパネル70aにタッチダウンされたことを検出することで、システム制御部50はタッチAFの操作をされたと判断する。システム制御部50は、タッチAFの操作をされたと判断した場合はステップS503に進み、そうでない場合はステップS510に進む。ここでステップS502において第一のタッチAFの処理を開始した場合、システム制御部50は第一のタッチAFの処理を実行している状態となる。
In step S502, the
ステップS503では、システム制御部50はユーザが表示部28にタッチ操作した部分に第一の枠403を表示する。またシステム制御部50は第一のタッチAFの処理を実行していることを示すためにタッチアイコン401の表示を変化させる処理を行う。本ステップでは、システム制御部50は表示部28にタッチアイコンを図4(b)のように表示している。本ステップ以降、システム制御部50は第一の枠403に映る被写体に追尾するように、第一の枠403の表示部28上の位置座標や大きさ等を変化させて表示する。
In step S503, the
次に第一のタッチAFの処理を実行している状態におけるシステム制御部50の処理について説明する。
Next, a process of the
ステップS504では、次の撮影において第一の枠403に映る被写体に合焦するために、システム制御部50は撮像部22によってデフォーカス量を測定する。
In step S504, the
ステップS505では、システム制御部50は、ステップS504において測定したデフォーカス量情報からフォーカス位置を計算する。システム制御部50はこの計算したフォーカス位置および現在のフレーム番号をシステムメモリ52や不揮発性メモリ56等に所定時間または所定の撮影回数の間記録する。所定時間または所定の撮影回数を超えた場合、システム制御部50は最も古いフォーカス位置の情報を削除する。
In step S505, the
ステップS506では、システム制御部50は、図3において説明した方法によって、ステップS505において計算したフォーカス位置を用いて第一の枠403に映る被写体が動体か否かを判断する。システム制御部50は第一の枠403に映る被写体が動体であると判断した場合はステップS508に進み、そうでない場合はステップS507に進む。
In step S506, the
ステップS507では、S505において計算したフォーカス位置に撮影レンズ103を駆動する。
In step S507, the photographing
ステップS508では、次の撮影において第一の枠403に映る被写体に合焦するために、システム制御部50は図3において説明した方法によって、第一の枠403に映る被写体に対するフォーカス位置を計算する。
In step S508, the
ステップS509では、システム制御部50は、ステップS508において計算したフォーカス位置に撮影レンズ103を駆動する。これによって被写体が動いている場合でもシステム制御部50は次の撮影において被写体に合焦できる。
In step S509, the
以上、第一のタッチAFの処理を実行している状態におけるシステム制御部50の処理について説明した。次に第一のタッチAFの処理を実行している状態においてユーザが第一の枠403の外側にタッチオンする場合におけるシステム制御部50の処理を説明する。
The processing of the
ステップS510では、システム制御部50は第二のタッチAFの処理を実行している状態であるか否か判断する。システム制御部50は第二のタッチAFの処理を実行している状態ではない場合はステップS511に進み、そうでない場合はステップS513に進む。
In step S510, the
ステップS511では、システム制御部50は表示部28において第一の枠403の外側にタッチダウンを検出したか否かを判断する。システム制御部50は、第一の枠403の外側にタッチダウンを検出した場合はステップS512に進み、そうでない場合はステップS522に進む。ここでステップS511において第二のタッチAFの処理を開始した場合、システム制御部50は第二のタッチAFの処理を実行している状態となる。
In step S511, the
ステップS512では、システム制御部50は表示部28上の新たにタッチダウンを検出した部分に第二の枠404を表示する。またシステム制御部50は第二のタッチAFの処理を実行していることを示すために、タッチアイコン402の表示を変化させる処理を行う。本ステップでは、システム制御部50は表示部28にタッチアイコンを図4(c)のように表示している。またシステム制御部50は第一の枠403と第二の枠404の色を異なるように表示することで、ユーザは第一のタッチAFしている被写体と第二のタッチAFしている被写体を区別しやすくなる。本ステップ以降、システム制御部50は第二の枠403に映る被写体に追尾するように、第二の枠403の表示部28上の位置座標や大きさ等を変化させて表示する。
In step S512, the
次に第二のタッチAFの処理を実行している状態におけるシステム制御部50の処理について説明する。
Next, a process of the
ステップS513では、システム制御部50は第二の枠404に映る被写体のデフォーカス量情報を測定する。
In step S513, the
ステップS514では、システム制御部50はステップS504において測定したデフォーカス量情報からフォーカス位置を計算する。システム制御部50はこの計算したフォーカス位置をシステムメモリ52や不揮発性メモリ56等に所定時間または所定の撮影回数の間記録する。所定時間または所定の撮影回数を超えた場合、システム制御部50は最も古いフォーカス位置の情報を削除する。システム制御部50は第二の枠404に映る被写体に合焦する前にフォーカス位置をあらかじめ計算することで、ユーザによる第二のタッチAFがタッチアップされた後すぐに被写体に合焦できる。
In step S514, the
ステップS515では、システム制御部50は第二の枠404にタッチオンされているか否かを検出する。システム制御部50は第二の枠404にタッチオンを検出している場合はステップS522に進み、そうでない場合はステップS516に進む。システム制御部50は第二の枠404にタッチオンを検出している間、第二の枠404に映る被写体に対するフォーカス位置を計算し続けるが、第二の枠404に映る被写体に合焦するための撮影レンズ103を駆動する処理を行わない。ステップS513からステップS515におけるシステム制御部50がタッチオンを検出している間の処理は請求項1における準備処理に相当する。
In step S515, the
ステップS516では、システム制御部50は表示部28に表示している第一の枠403の表示を消す処理を行う。またシステム制御部50はタッチアイコン401およびタッチアイコン402の表示を変化させる処理を行う。本ステップでは、システム制御部50は表示部28にタッチアイコンを図4(d)のように表示している。
In step S516, the
ステップS517では、システム制御部50は図3において説明した方法によって、ステップS514において計算したフォーカス位置を用いて第二の枠に映る被写体が動体か否かを判断する。システム制御部50は第二の枠404に映る被写体が動体であればステップS519に進み、そうでない場合はステップS520に進む。ここで、システム制御部50はステップS514において、第二の枠404に映る被写体に対するフォーカス位置を記録し続けていることにより、第二の枠404に映る被写体が動体か否かを判断できる。また、システム制御部50はステップS514において第二の枠404に映る被写体に対するフォーカス位置を記録し続けていることにより、合焦していない第二の枠404に映る被写体の動きを予測することができる。これによってシステム制御部50はステップS517において、第二の枠404に映る被写体に合焦する場合でも、被写体に焦点を合わせるまでの時間を短くすることができる。
In step S517, the
ステップS518では、S513において計算したフォーカス位置に撮影レンズ103を駆動する。
In step S518, the photographing
ステップS519では、次の撮影において第二の枠404に映る被写体に合焦するために、システム制御部50は図3において説明した方法によって、第二の枠404に映る被写体に対するフォーカス位置を計算する。
In step S519, in order to focus on the subject shown in the
ステップS520では、ステップS519において計算したフォーカス位置に基づいて撮影レンズ103を駆動する。これによって第二の枠404に映る被写体が動いている場合でも、準備処理を行っていたことにより、システム制御部50はタッチオンが離されたことを検出した次の撮影において第二の枠404に映る被写体に合焦できる。
In step S520, the photographing
ステップS521では、システム制御部50は第二のタッチAFの状態を終了し、第一のタッチAFの状態になる。この処理以降、システム制御部50は第二の枠404を第一の枠403として処理する。また、この処理以降、システム制御部50はタッチアイコン402をタッチアイコン401として処理する。ここでシステム制御部50は表示部28にタッチアイコンを図4(d)のように表示し、タッチアイコンの位置関係は入れ替えない。このような処理を行うことで、本処理の後、第二の枠404の外にユーザがタッチした場合、システム制御部50はそのタッチを第二のタッチAFとして扱い、本フローチャートの処理を繰り返すことができる。またタッチアイコンの位置関係を入れ替えないことで、ユーザは本フローチャートの処理が正常に行われていることを認識できる。ステップS522では、システム制御部50は撮影が終了したか否かを判断する。例えば、ユーザが第2シャッタースイッチ64の押下が離されたことを検出した場合、システム制御部50は処理を終了する。システム制御部50は撮影が終了していないと判断した場合は、ステップS501の処理を行い、撮影を継続する。
In step S521, the
以上、図5を参照しながら、本実施形態におけるデジタルカメラ100の処理の手順について説明した。
The processing procedure of the
ここでステップS513において第一の枠403と第二の枠404の色を異ならせると記載したが、第一の枠403の色は第二の枠404の色より目立つ色にするとさらに効果を得られる。ユーザは目立つ色である第一の枠403が現在合焦している部分であり、第二の枠404はまだ合焦していない部分であると直感的に理解しやすい。目立つ色は例えば、他方の色より輝度が高い色や透明度の低い色等である。
Here, in step S513, it is described that the colors of the
[第二の実施形態]
第二の実施形態において、ユーザが第一のタッチAFのタッチダウンを継続する場合について説明する。第二の実施形態において、第一の実施形態で用いたデジタルカメラ100を用いるが、本発明はこの構成に限られるものではない。
[Second embodiment]
In the second embodiment, a case where the user continues the touchdown of the first touch AF will be described. In the second embodiment, the
図6(a)〜(d)を用いて本実施形態におけるタッチ操作によるAFについて説明する。図6(a)〜(d)において、デジタルカメラ100は動画撮影モードまたは連射撮影モードによって撮影している状態である。表示部28には被写体が3人表示されており、表示部28の左上にはタッチしていることを示すタッチアイコン601、602が表示されている。
With reference to FIGS. 6A to 6D, AF by a touch operation in the present embodiment will be described. 6A to 6D, the
図6(a)は図4(a)と同様であるため説明は省略する。 FIG. 6A is the same as FIG. 4A, and a description thereof will be omitted.
図6(b)において、デジタルカメラ100はタッチされた被写体にAFする。また、デジタルカメラ100は、タッチされた被写体にAFしていることを示す第一の枠603を表示部28に表示する。この第一の枠603は図4(b)の第一の枠403と同様である。ここで、ユーザはタッチした指を離していない。いいかえると、タッチ操作はタッチダウンの後、タッチオンを継続している。ここでユーザが表示部28に対して第一の枠603の外側に更にタッチダウンした場合、デジタルカメラ100は図4(c)の状態に遷移する。
In FIG. 6B, the
図6(c)において、ユーザが表示部28に対して第一の枠603の外側にタッチオンしている間、デジタルカメラ100は表示部28に対して新たにタッチオンされている部分に映る被写体のデフォーカス量情報を測定する。この場合、デジタルカメラ100は新たにタッチオンされている表示部28の部分にデフォーカス量情報を測定していることを示す第二の枠604を表示する。この第二の枠604は図4(c)の第二の枠404と同様である。さらにデジタルカメラ100は表示部28でタッチアイコン602を点滅させ、デフォーカス量情報を測定していることを示す。デジタルカメラ100はタッチアイコン602とタッチアイコン601とを異なるように点滅させることで、ユーザはタッチAFとデフォーカス量情報の測定の両方を行っていることが分かりやすくなる。ユーザは第一の枠603にタッチオンしている指をタッチアップした場合、デジタルカメラは図6(d)の状態に遷移する。このときユーザは第二の枠604にタッチオンし続けている。
In FIG. 6C, while the user touches on the
図6(d)は図4(d)と同様であるため説明は省略する。ただし、図6(d)において、ユーザは第二の枠604にタッチオンしていてもタッチアップしていてもよい。デジタルカメラ100が図6(c)から図6(d)の状態に遷移するまでユーザは第二の枠604にタッチオンし続けていればよい。
FIG. 6D is the same as FIG. 4D, and the description is omitted. However, in FIG. 6D, the user may be touching on or touching up the
図7はデジタルカメラ100の処理の手順を示すフローチャートである。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現される。この処理はユーザが第2シャッタースイッチ64を押下し、動画撮影または連射撮影を開始した場合に実行される。また、ユーザは撮影開始時点においてタッチAFのための操作はしておらず、デジタルカメラ100は第1シャッタースイッチ62を押されたことによってAFしている状態か、またはAFしていない状態である。
FIG. 7 is a flowchart showing the procedure of the process of the
ステップS700からステップS709はそれぞれ図5のステップS500からステップS509と同様であるため説明を省略する。 Steps S700 to S709 are the same as steps S500 to S509 in FIG. 5, respectively, and thus description thereof will be omitted.
ステップS710では、システム制御部50は第二のタッチAFの処理を実行している状態であるか否か判断する。システム制御部50は第二のタッチAFの処理を実行している状態ではない場合はステップS711に進み、そうでない場合はステップS716に進む。
In step S710, the
ステップS711では、システム制御部50は第一の枠603においてタッチアップを検出したか否かを判断する。システム制御部50はタッチアップを検出した場合はステップS712に進み、そうでない場合はステップS714に進む。
In step S711, the
ステップS712では、システム制御部50はタッチアイコン401を点滅させる表示を終了する。このときのタッチアイコンの表示は、図6(a)と同じ状態である。本ステップの処理の後、システム制御部50はステップS726の処理を行う。
In step S712, the
ステップS713からステップS716はそれぞれ図5のステップS511からステップS514と同様であるため説明を省略する。 Steps S713 to S716 are the same as steps S511 to S514 in FIG. 5, respectively, and thus description thereof will be omitted.
ステップS717では、システム制御部50は第一のタッチAF(第一の枠603に対するタッチオン)がタッチアップされたことを検出したか否かを判断する。システム制御部50はタッチアップを検出した場合はステップS720に進み、そうでない場合はステップS718に進む。
In step S717, the
ステップS718では、システム制御部50は第二のタッチAF(第二の枠604に対するタッチオン)がタッチアップされたことを検出したか否かを判断する。システム制御部50は第二のタッチAFのタッチアップを検出した場合はステップS719に進み、そうでない場合はステップS726に進む。
In step S718, the
ステップS719では、システム制御部50は第二のタッチAFの処理を実行している状態を終了する。本ステップの処理の後、システム制御部50はステップS726に進む。
In step S719, the
ステップS720からステップS726はそれぞれ図5のステップS516からステップS522と同様であるため説明を省略する。 Steps S720 to S726 are the same as steps S516 to S522 in FIG. 5, respectively, and will not be described.
このように第一の枠603のタッチオンしている状態の間のみ第二のタッチAFを受け付けることで、通常のタッチAFと本処理における第二のAFとをユーザは使い分けやすくなる。
By accepting the second touch AF only while the
以上、図7を参照しながら、本実施形態におけるデジタルカメラ100の処理の手順について説明した。
The processing procedure of the
このように、合焦している被写体から他の被写体に合焦する場合でも、デジタルカメラ100は他の被写体に滑らかに焦点を合わせることが可能となる。特に他の被写体が動いている場合、デジタルカメラ100は本処理を行わない場合に比べて被写体への合焦の速さに関して顕著な効果を得ることができる。
As described above, even when the in-focus subject is focused on another subject, the
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.
Claims (17)
制御手段とを有し、
前記制御手段は、前記操作部材にタッチ操作されていない状態において、前記操作部材に対する第一のタッチダウンを前記検出手段によって検出すると、前記第一のタッチダウンがなされた前記操作部材の第一の位置座標に基づいた所定の処理を実行し、
前記制御手段は、前記第一のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対する第二のタッチダウンを前記検出手段によって検出すると、前記第二のタッチダウンに基づいた前記所定の処理を実行せずに、前記第二のタッチダウンがなされた前記第二の位置座標に基づいた前記所定の処理の準備処理を実行し、
前記制御手段は、前記第一のタッチダウンによるタッチオンおよび前記第二のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記第一のタッチダウンがタッチアップされたことを検出した場合、前記第二のタッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行する
ことを特徴とする電子機器。 Detecting means for detecting a touch operation on the operation member;
Control means,
The control means, in a state where a touch operation is not performed on the operation member, when a first touchdown on the operation member is detected by the detection means, the first touchdown of the operation member on which the first touchdown is performed is performed. Perform a predetermined process based on the position coordinates,
The control unit performs the second touch-down on the second position coordinate of the operation member different from the first position coordinate in a state where the touch-on by the first touch-down is detected by the detection unit. When the detection is performed by the detection unit, the predetermined process based on the second position coordinate at which the second touchdown is performed is not performed, and the preparatory process of the predetermined process is performed without performing the predetermined process based on the second touchdown. Run
When the control unit detects that the first touch-down is touched up in a state where the touch-on by the first touch-down and the touch-on by the second touch-down are detected by the detection unit. An electronic device configured to execute the predetermined process based on the second position coordinates at which the second touchdown is performed.
前記制御手段は、前記操作部材にタッチオンされた位置座標にタッチされたことを示すガイドオブジェクトを前記表示手段によって表示する
ことを特徴とする請求項1に記載の電子機器。 Further comprising a display means for the operation member,
The electronic device according to claim 1, wherein the control unit displays a guide object indicating that a position coordinate touched on the operation member is touched by the display unit.
ことを特徴とする請求項2に記載の電子機器。 The said control means displays the color of the said guide object in the case where the said preparation process is performing and the case where the said predetermined process is performing so that it may mutually differ. The said control means is characterized by the above-mentioned. Electronic equipment.
ことを特徴とする請求項2または3に記載の電子機器。 The control means displays a first icon and a second icon on the operation member by the display means, and when the first touchdown is detected by the detection means, the first icon is made to stand out. 4. The electronic device according to claim 2, wherein the second icon is displayed so as to be prominently displayed when the second touchdown is detected by the detection unit. 5.
制御手段とを有し、
前記制御手段は、前記操作部材に対するタッチ操作を前記検出手段によって検出すると、前記タッチ操作の第一の位置座標に基づいた所定の処理を実行し、
前記制御手段は、前記所定の処理を実行している状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対するタッチダウンを前記検出手段によって検出すると、前記タッチダウンによる前記所定の処理を実行せずに前記第二の位置座標に基づいた前記所定の処理のための準備処理を実行し、
前記制御手段は、前記タッチダウンがタッチアップされた場合、前記タッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行する
ことを特徴とする電子機器。 Detecting means for detecting a touch operation on the operation member;
Control means,
When the control unit detects a touch operation on the operation member by the detection unit, the control unit executes a predetermined process based on first position coordinates of the touch operation,
The control unit, in a state where the predetermined process is being executed, when the detection unit detects a touchdown of the operation member at a second position coordinate different from the first position coordinate, the control unit detects the touchdown by the touchdown. Performing a preparation process for the predetermined process based on the second position coordinates without performing the predetermined process,
The electronic device, wherein, when the touchdown is touched up, the control means executes the predetermined processing based on the second position coordinates at which the touchdown is performed.
前記制御手段は、前記表示手段によって前記操作部材に第一のアイコンと第二のアイコンを表示し、前記タッチ操作を前記検出手段によって検出した場合、前記第一のアイコンを目立つように表示し、前記タッチダウンを前記検出手段によって検出した場合、前記第二のアイコンを目立つように表示し、
前記制御手段は、前記所定の処理を実行していることを示すガイドオブジェクトを前記表示手段によって表示し、前記準備処理を実行していることをしめすガイドオブジェクトは表示しない
ことを特徴とする請求項6に記載の電子機器。 Further comprising a display means for the operation member,
The control means displays a first icon and a second icon on the operation member by the display means, and when the touch operation is detected by the detection means, displays the first icon conspicuously, When the touchdown is detected by the detection unit, the second icon is displayed prominently,
The control unit displays a guide object indicating that the predetermined process is being executed by the display unit, and does not display a guide object indicating that the preparation process is being executed. 7. The electronic device according to 6.
ことを特徴とする請求項7または8に記載の電子機器。 The control means displays the colors of the guide objects differently when the preparation process is being executed and when the predetermined process is being executed. An electronic device according to claim 1.
前記準備処理は、前記所定の処理において前記第二の位置座標に映る被写体に対する前記レンズの駆動量を前記制御手段が計算する処理であることを特徴とする請求項10に記載の電子機器。 The imaging means includes a lens,
11. The electronic apparatus according to claim 10, wherein the preparation process is a process in which the control unit calculates a drive amount of the lens with respect to a subject represented by the second position coordinate in the predetermined process.
前記制御手段は、前記準備処理において前記記録手段によって前記駆動量を記録し、記録した複数の前記駆動量に基づいて前記被写体が動いているか否かを判断し、
前記制御手段が前記被写体が動いていないと判断した場合、前記撮像手段は前記準備処理によって計算した前記レンズの駆動量を用いて前記所定の処理を実行し、
前記制御手段が前記被写体が動いていると判断した場合、前記制御手段は次に撮像するタイミングにおける前記被写体に対する前記レンズの駆動量を前記準備処理によって計算された前記レンズの駆動量から計算し、前記準備処理によって計算された前記レンズの駆動量から計算された前記レンズの駆動量を用いて前記撮像手段は前記所定の処理を実行する
ことを特徴とする請求項11に記載の電子機器。 It further has a recording means,
The control unit records the drive amount by the recording unit in the preparation process, and determines whether the subject is moving based on the plurality of recorded drive amounts,
When the control unit determines that the subject is not moving, the imaging unit performs the predetermined process using the lens drive amount calculated by the preparation process,
If the control means determines that the subject is moving, the control means calculates the drive amount of the lens with respect to the subject at the next imaging timing from the drive amount of the lens calculated by the preparation process, The electronic apparatus according to claim 11, wherein the imaging unit executes the predetermined process using a drive amount of the lens calculated from a drive amount of the lens calculated by the preparation process.
制御手段とを有する電子機器の制御方法であって、
前記操作部材にタッチ操作されていない状態において、前記操作部材に対する第一のタッチダウンを前記検出手段によって検出すると、前記第一のタッチダウンがなされた前記操作部材の第一の位置座標に基づいた処理を実行するステップと、
前記第一のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対する第二のタッチダウンを前記検出手段によって検出すると、前記第二のタッチダウンに基づいた処理を実行せずに、前記第二のタッチダウンがなされた前記第二の位置座標に基づいた所定の処理の準備処理を実行するステップと、
前記第一のタッチダウンによるタッチオンおよび前記第二のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記第一のタッチダウンによるタッチ操作がタッチアップされた場合、前記第二のタッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行するステップと
を有することを特徴とする制御方法。 Detecting means for detecting a touch operation on the operation member;
A control method of an electronic device having control means,
In a state where the operation member is not touch-operated, when the first touchdown on the operation member is detected by the detection unit, the first touchdown is performed based on the first position coordinates of the operation member on which the first touchdown is performed. Performing an operation;
In a state where the touch-on by the first touch-down is detected by the detection unit, when the detection unit detects a second touch-down on a second position coordinate different from the first position coordinate of the operation member. Performing a preparation process for a predetermined process based on the second position coordinates at which the second touchdown has been performed, without performing the process based on the second touchdown,
In a state where the touch-on by the first touch-down and the touch-on by the second touch-down are detected by the detection unit, when the touch operation by the first touch-down is touched up, the second touch Executing the predetermined processing based on the second position coordinates where the down has been performed.
制御手段とを有する電子機器の制御方法であって、
前記操作部材に対するタッチ操作を前記検出手段によって検出すると、前記タッチ操作の第一の位置座標に基づいた所定の処理を実行するステップと、
前記所定の処理を実行している状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対するタッチダウンを前記検出手段によって検出すると、前記タッチダウンによる前記所定の処理を実行せずに前記第二の位置座標に基づいた前記所定の処理のための準備処理を実行するステップと、
前記タッチダウンがタッチアップされた場合、前記タッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行するステップと
を有することを特徴とする制御方法。 Detecting means for detecting a touch operation on the operation member;
A control method of an electronic device having control means,
When a touch operation on the operation member is detected by the detection unit, executing a predetermined process based on first position coordinates of the touch operation;
In a state where the predetermined process is being executed, when the detection unit detects a touchdown of the operation member at a second position coordinate different from the first position coordinate, the predetermined process is executed by the touchdown. Performing a preparatory process for the predetermined process based on the second position coordinates without performing;
And performing the predetermined processing based on the second position coordinates at which the touch-down is performed when the touch-down is touched up.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018163197A JP6703057B2 (en) | 2018-08-31 | 2018-08-31 | Electronic device, control method thereof, and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018163197A JP6703057B2 (en) | 2018-08-31 | 2018-08-31 | Electronic device, control method thereof, and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020036280A true JP2020036280A (en) | 2020-03-05 |
JP6703057B2 JP6703057B2 (en) | 2020-06-03 |
Family
ID=69668752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018163197A Active JP6703057B2 (en) | 2018-08-31 | 2018-08-31 | Electronic device, control method thereof, and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6703057B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150055006A1 (en) * | 2013-08-23 | 2015-02-26 | Samsung Electronics Co., Ltd. | Photographing apparatus and method of controlling the same |
EP2947867A1 (en) * | 2014-05-19 | 2015-11-25 | Lg Electronics Inc. | Mobile terminal and method of controlling the same |
US20170019589A1 (en) * | 2015-07-14 | 2017-01-19 | Samsung Electronics Co., Ltd. | Image capturing apparatus and method |
JP2017123515A (en) * | 2016-01-05 | 2017-07-13 | キヤノン株式会社 | Electronic apparatus and control method therefor |
US20170366743A1 (en) * | 2014-01-15 | 2017-12-21 | Samsung Electronics Co., Ltd. | Method for setting image capture conditions and electronic device performing the same |
JP2017224325A (en) * | 2017-08-02 | 2017-12-21 | キヤノン株式会社 | Electronic apparatus and control method of the same |
JP2018125801A (en) * | 2017-02-03 | 2018-08-09 | キヤノン株式会社 | Imaging apparatus, control method of imaging apparatus, and program |
-
2018
- 2018-08-31 JP JP2018163197A patent/JP6703057B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150055006A1 (en) * | 2013-08-23 | 2015-02-26 | Samsung Electronics Co., Ltd. | Photographing apparatus and method of controlling the same |
US20170366743A1 (en) * | 2014-01-15 | 2017-12-21 | Samsung Electronics Co., Ltd. | Method for setting image capture conditions and electronic device performing the same |
EP2947867A1 (en) * | 2014-05-19 | 2015-11-25 | Lg Electronics Inc. | Mobile terminal and method of controlling the same |
US20170019589A1 (en) * | 2015-07-14 | 2017-01-19 | Samsung Electronics Co., Ltd. | Image capturing apparatus and method |
JP2017123515A (en) * | 2016-01-05 | 2017-07-13 | キヤノン株式会社 | Electronic apparatus and control method therefor |
JP2018125801A (en) * | 2017-02-03 | 2018-08-09 | キヤノン株式会社 | Imaging apparatus, control method of imaging apparatus, and program |
JP2017224325A (en) * | 2017-08-02 | 2017-12-21 | キヤノン株式会社 | Electronic apparatus and control method of the same |
Also Published As
Publication number | Publication date |
---|---|
JP6703057B2 (en) | 2020-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2367345B1 (en) | Image pickup apparatus and its control method | |
JP6667294B2 (en) | Electronic device and control method thereof | |
JP6614943B2 (en) | Imaging control apparatus and control method thereof | |
KR102075379B1 (en) | Electronic device and method for controlling the same | |
CN110035224B (en) | Electronic device, control method thereof, and storage medium | |
JP6806572B2 (en) | Imaging control device, imaging device, control method, program, and storage medium | |
JP6494215B2 (en) | Electronic device, control method thereof and program | |
JP2014228629A (en) | Imaging apparatus, control method and program thereof, and storage medium | |
JP2013225844A (en) | Image pickup device and control method and program thereof and recording medium | |
JP7034619B2 (en) | Image pickup device, its control method, and program, and storage medium | |
JP5575290B2 (en) | Imaging apparatus and control method thereof | |
JP7225022B2 (en) | Imaging device and display control method | |
JP7098490B2 (en) | Imaging device and its control method | |
JP6257255B2 (en) | Display control device and control method of display control device | |
JP6703057B2 (en) | Electronic device, control method thereof, and program thereof | |
JP2018107753A (en) | Imaging control device and method for controlling the same | |
JP2021028785A (en) | Electronic apparatus and control method for electronic apparatus | |
US9088762B2 (en) | Image capturing apparatus and control method thereof | |
JP5863418B2 (en) | Imaging apparatus and control method thereof | |
CN112351189B (en) | Exposure setting apparatus, control method thereof, and storage medium | |
JP7086722B2 (en) | Display control device and its control method | |
JP6301002B2 (en) | Display control device and control method of display control device | |
JP2020191599A (en) | Imaging apparatus and control method of the same | |
JP2022038527A (en) | Electronic device, control method of the same, program, and recording medium | |
JP2015122562A (en) | Photographing apparatus, photographing control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200507 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6703057 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |