JP6703057B2 - 電子機器、その制御方法、およびそのプログラム - Google Patents

電子機器、その制御方法、およびそのプログラム Download PDF

Info

Publication number
JP6703057B2
JP6703057B2 JP2018163197A JP2018163197A JP6703057B2 JP 6703057 B2 JP6703057 B2 JP 6703057B2 JP 2018163197 A JP2018163197 A JP 2018163197A JP 2018163197 A JP2018163197 A JP 2018163197A JP 6703057 B2 JP6703057 B2 JP 6703057B2
Authority
JP
Japan
Prior art keywords
touchdown
touch
operation member
detected
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018163197A
Other languages
English (en)
Other versions
JP2020036280A (ja
Inventor
井上 浩二
浩二 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018163197A priority Critical patent/JP6703057B2/ja
Publication of JP2020036280A publication Critical patent/JP2020036280A/ja
Application granted granted Critical
Publication of JP6703057B2 publication Critical patent/JP6703057B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、タッチ操作が可能な電子機器に関する。
近年、デジタルカメラやスマートフォン等のようにユーザがディスプレイを直接タッチして直感的に操作(タッチ操作)できる電子機器が知られている。
例えば、特許文献1は、感圧センサにタッチされた位置座標に基づいて被写体に焦点を合わせることができるカメラが開示されている。
特開平11−142719号公報
しかし、電子機器はタッチ操作されている場合、同じ処理を行う別のタッチ操作を受け付けないため、ユーザは同じ処理を行うタッチ操作を続けて行いたくても、1回のタッチ操作が終わってから次のタッチ操作を行う必要があった。
そこで本発明は、ユーザはタッチ操作をしている状態でも次の同じ処理を行うタッチ操作を開始できるようにすることを目的とする。
上記目的を達成するために、本発明の電子機器は、操作部材に対するタッチ操作を検出する検出手段と、制御手段とを有し、前記制御手段は、前記操作部材にタッチ操作されていない状態において、前記操作部材に対する第一のタッチダウンを前記検出手段によって検出すると、前記第一のタッチダウンがなされた前記操作部材の第一の位置座標に基づいた所定の処理を実行し、前記制御手段は、前記第一のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対する第二のタッチダウンを前記検出手段によって検出すると、前記第二のタッチダウンに基づいた前記所定の処理を実行せずに、前記第二のタッチダウンがなされた前記第二の位置座標に基づいた前記所定の処理の準備処理を実行し、前記制御手段は、前記第一のタッチダウンによるタッチオンおよび前記第二のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記第一のタッチダウンがタッチアップされたことを検出した場合、前記第二のタッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行することを特徴とする。
本発明によれば、ユーザはタッチ操作をしている状態でも次の同じ処理を行うタッチ操作を開始できる。
第一の実施形態のデジタルカメラの前面の一例を示す外観図。 第一の実施形態のデジタルカメラの構成の一例を示すブロック図。 フォーカス位置とフレーム番号の関係の一例を示す図。 (a)第一の実施形態のデジタルカメラの表示部の撮影開始時における表示の一例を示す図。(b)第一の実施形態のデジタルカメラの表示部の被写体にタッチされた状態における表示の一例を示す図。(c)第一の実施形態のデジタルカメラの表示部の別の被写体にタッチされた状態における表示の一例を示す図。(d)第一の実施形態のデジタルカメラの表示部の別の被写体に対するタッチが離された状態における表示の一例を示す図。 第一の実施形態のデジタルカメラの撮影処理の一例を示すフローチャート。 (a)第二の実施形態のデジタルカメラの表示部の撮影開始時における表示の一例を示す図。(b)第二の実施形態のデジタルカメラの表示部の被写体にタッチされた状態における表示の一例を示す図。(c)第二の実施形態のデジタルカメラの表示部の別の被写体にタッチされた状態における表示の一例を示す図。(d)第二の実施形態のデジタルカメラの表示部の別の被写体に対するタッチが離された状態における表示の一例を示す図。 第二の実施形態のデジタルカメラの撮影処理の一例を示すフローチャート。
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
[第一の実施形態]
図1に本発明を適用可能な電子機器の一例であるデジタルカメラ100の外観図を示す。
表示部28は画像や各種情報を表示する表示部である。
モード切替スイッチ60は各種モードを切り替えるための操作部である。シャッターボタン61は撮影指示を行うための操作部である。
コネクタ112は、パーソナルコンピュータやプリンタなどの外部機器と接続するための接続ケーブル111とデジタルカメラ100とのコネクタである。
操作部70はユーザからの各種操作を受け付ける各種スイッチ、ボタン、タッチパネル等の操作部材から構成される操作部である。電源スイッチ72は操作部70に含まれ、電源オン、電源オフを切り替えるための押しボタンである。コントローラホイール73は操作部70に含まれる回転操作可能な操作部材である。
記録媒体200はメモリカードやハードディスク等の記録媒体である。記録媒体スロット201は記録媒体200を格納するためのスロットである。記録媒体スロット201に格納された記録媒体200は、デジタルカメラ100との通信が可能となり、記録や再生が可能となる。蓋202は記録媒体スロット201の蓋である。図においては、蓋202を開けて記録媒体スロット201から記録媒体200の一部を取り出して露出させた状態を示している。
図2は、本実施形態におけるデジタルカメラ100の構成例を示すブロック図である。
撮影レンズ103はズームレンズ、フォーカスレンズを含むレンズ群である。シャッタ101は絞り機能を備えるシャッタである。撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。バリア102は、デジタルカメラ100の、撮影レンズ103を含む撮像系を覆うことにより、撮影レンズ103、シャッタ101、撮像部22を含む撮像系の汚れや破損を防止する。また、撮像部22は焦点検出部(不図示)を含む。焦点検出部は後述するシステム制御部50にデフォーカス量情報を出力する。デフォーカス量情報は、撮影レンズ103における被写体に合焦する位置からのずれを示す情報である。システム制御部50はデフォーカス量情報に基づいて撮影レンズ103を制御し、位相差AFを行う。なお、焦点検出部は撮像部22と別部材にしてもよい。
また、位相差AF方式では、デジタルカメラ100はある被写体に合焦している場合でも、他の被写体とのデフォーカス量情報を測定することが可能である。
画像処理部24は、A/D変換器23からのデータ、またはメモリ制御部15からのデータに対して画素補間、縮小等のリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理を行う。画像処理部24により得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
A/D変換器23からの出力データは、画像処理部24およびメモリ制御部15を介して、あるいは、メモリ制御部15を介してメモリ32に記録される。メモリ32は、撮像部22によって撮像されA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを記録する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声等のデータを記録するのに十分な記録容量を備えている。
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器13は、メモリ32に記録されている画像表示用のデータをアナログ信号に変換して表示部28へ出力する。このように、メモリ32に記録された画像データはD/A変換器13を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器13からのアナログ信号に応じた表示を行う。システム制御部50はA/D変換器23によってA/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器13においてアナログ変換し、表示部28に逐次転送して表示することで、表示部28は電子ビューファインダとして機能する。これによってデジタルカメラ100はスルー画像表示(ライブビュー表示(LV表示))を行うことができる。以下、ライブビューで表示される画像をLV画像と称する。
不揮発性メモリ56は、電気的に消去・記録可能な記録媒体としてのメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのコンピュータプログラムのことである。
システム制御部50は、少なくとも1つのプロセッサまたは回路を有する制御部であり、デジタルカメラ100全体を制御する。不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、例えばRAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等が展開される。また、システム制御部50はメモリ32、D/A変換器13、表示部28等を制御することにより表示制御も行う。
システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
モード切替スイッチ60、シャッターボタン61、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッタ速度優先モード(Tvモード)、プログラムAEモード、連射撮影モードがある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60より、ユーザは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り換えた後に、表示された複数のモードのいずれかを選択し、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。
第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを記録するまでの一連の撮影処理の動作を開始する。
操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
コントローラホイール73は、操作部70に含まれる回転操作可能な操作部材であり、方向ボタンと共に選択項目を指示する際などに使用される。コントローラホイール73を回転操作すると、操作量に応じて電気的なパルス信号が発生し、このパルス信号に基づいてシステム制御部50はデジタルカメラ100の各部を制御する。このパルス信号によって、コントローラホイール73が回転操作された角度や、何回転したかなどを判定することができる。なお、コントローラホイール73は回転操作が検出できる操作部材であればどのようなものでもよい。例えば、ユーザの回転操作に応じてコントローラホイール73自体が回転してパルス信号を発生するダイヤル操作部材であってもよい。また、タッチセンサよりなる操作部材で、コントローラホイール73自体は回転せず、コントローラホイール73上でのユーザの指の回転動作などを検出するものであってもよい(いわゆる、タッチホイール)。
電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや光ディスク、磁気ディスク等から構成される。
通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号等の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(ライブ画像を含む)や、記録媒体200に記録された画像等のデータを送信することができる。また、通信部54は外部機器から画像データやその他の各種情報を受信することができる。
姿勢検知部55は重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサやジャイロセンサなどを用いることができる。姿勢検知部55である、加速度センサやジャイロセンサを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
なお操作部70の一つとして、表示部28に対する接触を検出可能なタッチパネル70aを有する。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示画面上の表示座標とを対応付ける。これにより、あたかもユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を提供できる。システム制御部50はタッチパネル70aへの以下の操作、あるいは状態を検出できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・タッチパネル70aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネル70aへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判断できる(スライド操作に続いてフリックがあったものと判断できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。
ここで、動画撮影する場合および連射撮影する場合において、位相差AFを用いてシステム制御部50が撮影レンズ103の合焦する位置を予測する方法を説明する。
システム制御部50は、撮像するごとに測定したデフォーカス量情報から被写体に合焦するために必要な撮影レンズ103の駆動量(以下、レンズ駆動量という)を計算する。例えば動画を撮影している場合、システム制御部50は0.03秒(30FPS(Frames per Second)の動画における1フレーム)ごとにデフォーカス量情報からレンズ駆動量を計算する。そしてシステム制御部50はレンズ駆動量と現在のレンズの位置からから次に撮影するタイミングにおけるレンズの位置(フォーカス位置)を計算する。システム制御部50はこのフォーカス位置を不揮発性メモリ56やシステムメモリ52等に所定時間または所定の撮影回数の間記録する。位相差AF方式の場合、デジタルカメラ100は特定の被写体に合焦していても他の被写体に対するフォーカス位置を計算できる。
図3を用いて、システム制御部50が撮影レンズ103の合焦する位置を予測する方法の一例を説明する。図3はデジタルカメラ100において動画を撮影した場合における、フォーカス位置とフレーム番号の関係である。図3において、縦軸はフォーカス位置、横軸はフレーム番号を示す。図3の横軸において、nが現在のフレーム番号である。システム制御部50は、フォーカス位置が所定の時間以内に所定量以上変化した場合、被写体が動体であると判断する。例えば、フレーム番号nにおけるフォーカス位置304はフレーム番号n−1におけるフォーカス位置303から所定量以上変化しているため、システム制御部50はこの被写体を動体であると判断する。なお、フォーカス位置を計算した回数が所定回数より少ない場合、システム制御部50は被写体が動体ではないと判断する。
ここで被写体が動体である場合、システム制御部50はフォーカス位置を複数用いることで、次のフレームにおける被写体の位置を予測することができる。例えば、動体である被写体に撮影レンズ103を合焦する場合、システム制御部50はフレーム番号nにおいて、フォーカス位置301〜304を用いて近似曲線310を作成し、次のフレーム番号n+1におけるフォーカス位置305を計算する。近似曲線310は例えば最小二乗法を用いて計算される。
図4(a)〜(d)を用いて本実施形態におけるタッチ操作によるAFについて説明する。図4(a)〜(d)において、デジタルカメラ100は動画撮影または連射撮影している。表示部28には被写体が3人表示されており、表示部28の左上にはタッチしていることを示すタッチアイコン401、402が表示されている。
図4(a)において、デジタルカメラ100は自動で被写体にAFしている状態である。この状態において、ユーザが合焦したい被写体を表示部28(タッチパネル70a)に対してタッチダウンすることによって、デジタルカメラ100はタッチダウンされた部分に映る被写体にAFする(以降、この操作をタッチAFという)。
図4(b)において、デジタルカメラ100はタッチされた被写体にタッチAFする。また、デジタルカメラ100は、タッチAFしていることを示す第一の枠403を表示部28に表示する。この第一の枠403はガイドオブジェクトであり、マークや記号等で表される。さらにデジタルカメラ100は表示部28でタッチアイコン401を点滅させ、タッチAFしていることをユーザに目立つように示す。以降、後述するタッチAFと区別するため第一のタッチAFという。なお、ここで、ユーザはタッチした指を離している。いいかえると、タッチ操作はタッチダウンの後、タッチアップされている。ここでユーザが表示部28に対して第一の枠403の外側に更にタッチダウンした場合、デジタルカメラ100は図4(c)の状態に遷移する。
図4(c)において、ユーザが表示部28に対して第一の枠403の外側にタッチオンしている間、デジタルカメラ100は表示部28に対して新たにタッチオンされている部分に映る被写体のデフォーカス量情報を測定し、フォーカス位置を計算する。この場合、デジタルカメラ100は新たにタッチオンされている表示部28の部分にデフォーカス量情報を測定している(およびフォーカス位置を計算している)ことを示す第二の枠404を表示する。この第二の枠404は第一の枠403と同様にガイドオブジェクトであるが、第一の枠403とは異なるマークや記号等で表される。これにより、ユーザは第一のタッチAFを示す枠とデフォーカス量情報の測定を示す枠とを区別しやすくなる。さらにデジタルカメラ100は表示部28でタッチアイコン402を点滅させ、デフォーカス量情報を測定していることを示す。デジタルカメラ100はタッチアイコン402とタッチアイコン401とを異なるように点滅させることで、ユーザは第一のタッチAFとデフォーカス量情報の測定の両方を行っていることが分かりやすくなる。ユーザはタッチオンしている指をタッチアップした場合、デジタルカメラは図4(d)の状態に遷移する。
図4(d)において、デジタルカメラ100は第二の枠404の部分に映る被写体にAFする。以降、第一のタッチAFと区別するためにこれを第二のタッチAFという。このとき、デジタルカメラ100は表示部28から第一の枠403の表示を消し、さらにタッチアイコン401の点滅させる処理を終了する。また、デジタルカメラ100は、タッチアイコン402を第二のタッチAFしている状態を示すように点滅(図4(c)のタッチアイコン401と同じ点滅)させる。またデジタルカメラ100は第二の枠404をタッチAFしている状態を示すように表示(図4(c)の第一の枠403と同じ表示)する。
このようにデジタルカメラ100はある被写体にAFしている間でも、さらに次にAFしたい被写体に関するデフォーカス量情報を測定しフォーカス位置を計算することで、デジタルカメラ100はAFする対象をすばやく切り替えることができる。さらに被写体が動体の場合、デジタルカメラ100は被写体に関するデフォーカス量情報を複数回測定して被写体の動きを予測する必要があるため、ユーザは特に顕著な効果を得られる。
ここでデジタルカメラ100は表示部28でタッチアイコン401、402を点滅させることで、タッチAFまたはデフォーカス量情報を測定していることをユーザに報知したが、報知の方法は点滅させる方法以外でもよい。例えば、タッチアイコン401、402の輝度を上げる方法や色を変化させる方法がある。
また第一の枠403の色は第二の枠404の色より目立つ色にするとさらに効果を得られる。ユーザは目立つ色である第一の枠403が現在合焦している部分であり、第二の枠404はまだ合焦していない部分であると直感的に理解しやすい。目立つ色は例えば、他方の色より輝度が高い色や透明度の低い色等である。
図5はデジタルカメラ100の処理の手順を示すフローチャートである。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現される。この処理はユーザが第2シャッタースイッチ64を押下し、動画撮影または連射撮影を開始した場合に実行される。また、ユーザは撮影開始時点においてタッチAFのための操作はしていないものとする。
ステップS500では、システム制御部50は画像を撮影する。デジタルカメラ100が動画撮影モードである場合、この画像は動画の1フレームに相当する。以降のステップは、次にシステム制御部50がステップS500において撮影するための処理である。
ステップS501では、システム制御部50は、第一のタッチAFの処理を実行している状態か否かを判断する。システム制御部50は第一のタッチAFの処理を実行している状態でなければステップS502に進み、第一のタッチAFの処理を実行していない状態であればステップS505に進む。
ステップS502では、システム制御部50は、ユーザにタッチAFの操作をされたか否かを判断する。例えば、システム制御部50はタッチパネル70aにタッチダウンされたことを検出することで、システム制御部50はタッチAFの操作をされたと判断する。システム制御部50は、タッチAFの操作をされたと判断した場合はステップS503に進み、そうでない場合はステップS510に進む。ここでステップS502において第一のタッチAFの処理を開始した場合、システム制御部50は第一のタッチAFの処理を実行している状態となる。
ステップS503では、システム制御部50はステップS502において表示部28上のタッチAFの操作をされた部分に第一の枠403を表示する。またシステム制御部50は第一のタッチAFの処理を実行していることを示すためにタッチアイコン401の表示を変化させる処理を行う。本ステップでは、システム制御部50は表示部28にタッチアイコンを図4(b)のように表示している。本ステップ以降、システム制御部50は第一の枠403に映る被写体に追尾するように、第一の枠403の表示部28上の位置座標や大きさ等を変化させて表示する。
次に第一のタッチAFの処理を実行している状態におけるシステム制御部50の処理について説明する。
ステップS504では、次の撮影において第一の枠403に映る被写体に合焦するために、システム制御部50は撮像部22によってデフォーカス量を測定する。
ステップS505では、システム制御部50は、ステップS504において測定したデフォーカス量情報からフォーカス位置を計算する。システム制御部50はこの計算したフォーカス位置および現在のフレーム番号をシステムメモリ52や不揮発性メモリ56等に所定時間または所定の撮影回数の間記録する。所定時間または所定の撮影回数を超えた場合、システム制御部50は最も古いフォーカス位置の情報を削除する。
ステップS506では、システム制御部50は、図3において説明した方法によって、ステップS505において計算したフォーカス位置を用いて第一の枠403に映る被写体が動体か否かを判断する。システム制御部50は第一の枠403に映る被写体が動体であると判断した場合はステップS508に進み、そうでない場合はステップS507に進む。
ステップS507では、S505において計算したフォーカス位置に撮影レンズ103を駆動する。
ステップS508では、次の撮影において第一の枠403に映る被写体に合焦するために、システム制御部50は図3において説明した方法によって、第一の枠403に映る被写体に対するフォーカス位置を計算する。
ステップS509では、システム制御部50は、ステップS508において計算したフォーカス位置に撮影レンズ103を駆動する。これによって被写体が動いている場合でもシステム制御部50は次の撮影において被写体に合焦できる。
以上、第一のタッチAFの処理を実行している状態におけるシステム制御部50の処理について説明した。次に第一のタッチAFの処理を実行している状態においてユーザが第一の枠403の外側にタッチオンする場合におけるシステム制御部50の処理を説明する。
ステップS510では、システム制御部50は第二のタッチAFの処理を実行している状態であるか否か判断する。システム制御部50は第二のタッチAFの処理を実行している状態ではない場合はステップS511に進み、そうでない場合はステップS513に進む。
ステップS511では、システム制御部50は表示部28において第一の枠403の外側にタッチダウンを検出したか否かを判断する。システム制御部50は、第一の枠403の外側にタッチダウンを検出した場合はステップS512に進み、そうでない場合はステップS522に進む。ここでステップS511において第二のタッチAFの処理を開始した場合、システム制御部50は第二のタッチAFの処理を実行している状態となる。
ステップS512では、システム制御部50は表示部28上の新たにタッチダウンを検出した部分に第二の枠404を表示する。またシステム制御部50は第二のタッチAFの処理を実行していることを示すために、タッチアイコン402の表示を変化させる処理を行う。本ステップでは、システム制御部50は表示部28にタッチアイコンを図4(c)のように表示している。またシステム制御部50は第一の枠403と第二の枠404の色を異なるように表示することで、ユーザは第一のタッチAFしている被写体と第二のタッチAFしている被写体を区別しやすくなる。本ステップ以降、システム制御部50は第二の枠403に映る被写体に追尾するように、第二の枠403の表示部28上の位置座標や大きさ等を変化させて表示する。
次に第二のタッチAFの処理を実行している状態におけるシステム制御部50の処理について説明する。
ステップS513では、システム制御部50は第二の枠404に映る被写体のデフォーカス量情報を測定する。
ステップS514では、システム制御部50はステップS504において測定したデフォーカス量情報からフォーカス位置を計算する。システム制御部50はこの計算したフォーカス位置をシステムメモリ52や不揮発性メモリ56等に所定時間または所定の撮影回数の間記録する。所定時間または所定の撮影回数を超えた場合、システム制御部50は最も古いフォーカス位置の情報を削除する。システム制御部50は第二の枠404に映る被写体に合焦する前にフォーカス位置をあらかじめ計算することで、ユーザによる第二のタッチAFがタッチアップされた後すぐに被写体に合焦できる。
ステップS515では、システム制御部50は第二の枠404にタッチオンされているか否かを検出する。システム制御部50は第二の枠404にタッチオンを検出している場合はステップS522に進み、そうでない場合はステップS516に進む。システム制御部50は第二の枠404にタッチオンを検出している間、第二の枠404に映る被写体に対するフォーカス位置を計算し続けるが、第二の枠404に映る被写体に合焦するための撮影レンズ103を駆動する処理を行わない。ステップS513からステップS515におけるシステム制御部50がタッチオンを検出している間の処理は請求項1における準備処理に相当する。
ステップS516では、システム制御部50は表示部28に表示している第一の枠403の表示を消す処理を行う。またシステム制御部50はタッチアイコン401およびタッチアイコン402の表示を変化させる処理を行う。本ステップでは、システム制御部50は表示部28にタッチアイコンを図4(d)のように表示している。
ステップS517では、システム制御部50は図3において説明した方法によって、ステップS514において計算したフォーカス位置を用いて第二の枠に映る被写体が動体か否かを判断する。システム制御部50は第二の枠404に映る被写体が動体であればステップS519に進み、そうでない場合はステップS520に進む。ここで、システム制御部50はステップS514において、第二の枠404に映る被写体に対するフォーカス位置を記録し続けていることにより、第二の枠404に映る被写体が動体か否かを判断できる。また、システム制御部50はステップS514において第二の枠404に映る被写体に対するフォーカス位置を記録し続けていることにより、合焦していない第二の枠404に映る被写体の動きを予測することができる。これによってシステム制御部50はステップS517において、第二の枠404に映る被写体に合焦する場合でも、被写体に焦点を合わせるまでの時間を短くすることができる。
ステップS518では、S513において計算したフォーカス位置に撮影レンズ103を駆動する。
ステップS519では、次の撮影において第二の枠404に映る被写体に合焦するために、システム制御部50は図3において説明した方法によって、第二の枠404に映る被写体に対するフォーカス位置を計算する。
ステップS520では、ステップS519において計算したフォーカス位置に基づいて撮影レンズ103を駆動する。これによって第二の枠404に映る被写体が動いている場合でも、準備処理を行っていたことにより、システム制御部50はタッチオンが離されたことを検出した次の撮影において第二の枠404に映る被写体に合焦できる。
ステップS521では、システム制御部50は第二のタッチAFの状態を終了し、第一のタッチAFの状態になる。この処理以降、システム制御部50は第二の枠404を第一の枠403として処理する。また、この処理以降、システム制御部50はタッチアイコン402をタッチアイコン401として処理する。ここでシステム制御部50は表示部28にタッチアイコンを図4(d)のように表示し、タッチアイコンの位置関係は入れ替えない。このような処理を行うことで、本処理の後、第二の枠404の外にユーザがタッチした場合、システム制御部50はそのタッチを第二のタッチAFとして扱い、本フローチャートの処理を繰り返すことができる。またタッチアイコンの位置関係を入れ替えないことで、ユーザは本フローチャートの処理が正常に行われていることを認識できる。ステップS522では、システム制御部50は撮影が終了したか否かを判断する。例えば、ユーザが第2シャッタースイッチ64の押下が離されたことを検出した場合、システム制御部50は処理を終了する。システム制御部50は撮影が終了していないと判断した場合は、ステップS501の処理を行い、撮影を継続する。
以上、図5を参照しながら、本実施形態におけるデジタルカメラ100の処理の手順について説明した。
ここでステップS513において第一の枠403と第二の枠404の色を異ならせると記載したが、第一の枠403の色は第二の枠404の色より目立つ色にするとさらに効果を得られる。ユーザは目立つ色である第一の枠403が現在合焦している部分であり、第二の枠404はまだ合焦していない部分であると直感的に理解しやすい。目立つ色は例えば、他方の色より輝度が高い色や透明度の低い色等である。
[第二の実施形態]
第二の実施形態において、ユーザが第一のタッチAFのタッチダウンを継続する場合について説明する。第二の実施形態において、第一の実施形態で用いたデジタルカメラ100を用いるが、本発明はこの構成に限られるものではない。
図6(a)〜(d)を用いて本実施形態におけるタッチ操作によるAFについて説明する。図6(a)〜(d)において、デジタルカメラ100は動画撮影モードまたは連射撮影モードによって撮影している状態である。表示部28には被写体が3人表示されており、表示部28の左上にはタッチしていることを示すタッチアイコン601、602が表示されている。
図6(a)は図4(a)と同様であるため説明は省略する。
図6(b)において、デジタルカメラ100はタッチされた被写体にAFする。また、デジタルカメラ100は、タッチされた被写体にAFしていることを示す第一の枠603を表示部28に表示する。この第一の枠603は図4(b)の第一の枠403と同様である。ここで、ユーザはタッチした指を離していない。いいかえると、タッチ操作はタッチダウンの後、タッチオンを継続している。ここでユーザが表示部28に対して第一の枠603の外側に更にタッチダウンした場合、デジタルカメラ100は図4(c)の状態に遷移する。
図6(c)において、ユーザが表示部28に対して第一の枠603の外側にタッチオンしている間、デジタルカメラ100は表示部28に対して新たにタッチオンされている部分に映る被写体のデフォーカス量情報を測定する。この場合、デジタルカメラ100は新たにタッチオンされている表示部28の部分にデフォーカス量情報を測定していることを示す第二の枠604を表示する。この第二の枠604は図4(c)の第二の枠404と同様である。さらにデジタルカメラ100は表示部28でタッチアイコン602を点滅させ、デフォーカス量情報を測定していることを示す。デジタルカメラ100はタッチアイコン602とタッチアイコン601とを異なるように点滅させることで、ユーザはタッチAFとデフォーカス量情報の測定の両方を行っていることが分かりやすくなる。ユーザは第一の枠603にタッチオンしている指をタッチアップした場合、デジタルカメラは図6(d)の状態に遷移する。このときユーザは第二の枠604にタッチオンし続けている。
図6(d)は図4(d)と同様であるため説明は省略する。ただし、図6(d)において、ユーザは第二の枠604にタッチオンしていてもタッチアップしていてもよい。デジタルカメラ100が図6(c)から図6(d)の状態に遷移するまでユーザは第二の枠604にタッチオンし続けていればよい。
図7はデジタルカメラ100の処理の手順を示すフローチャートである。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現される。この処理はユーザが第2シャッタースイッチ64を押下し、動画撮影または連射撮影を開始した場合に実行される。また、ユーザは撮影開始時点においてタッチAFのための操作はしておらず、デジタルカメラ100は第1シャッタースイッチ62を押されたことによってAFしている状態か、またはAFしていない状態である。
ステップS700からステップS709はそれぞれ図5のステップS500からステップS509と同様であるため説明を省略する。
ステップS710では、システム制御部50は第二のタッチAFの処理を実行している状態であるか否か判断する。システム制御部50は第二のタッチAFの処理を実行している状態ではない場合はステップS711に進み、そうでない場合はステップS716に進む。
ステップS711では、システム制御部50は第一の枠603においてタッチアップを検出したか否かを判断する。システム制御部50はタッチアップを検出した場合はステップS712に進み、そうでない場合はステップS714に進む。
ステップS712では、システム制御部50はタッチアイコン401を点滅させる表示を終了する。このときのタッチアイコンの表示は、図6(a)と同じ状態である。本ステップの処理の後、システム制御部50はステップS726の処理を行う。
ステップS713からステップS716はそれぞれ図5のステップS511からステップS514と同様であるため説明を省略する。
ステップS717では、システム制御部50は第一のタッチAF(第一の枠603に対するタッチオン)がタッチアップされたことを検出したか否かを判断する。システム制御部50はタッチアップを検出した場合はステップS720に進み、そうでない場合はステップS718に進む。
ステップS718では、システム制御部50は第二のタッチAF(第二の枠604に対するタッチオン)がタッチアップされたことを検出したか否かを判断する。システム制御部50は第二のタッチAFのタッチアップを検出した場合はステップS719に進み、そうでない場合はステップS726に進む。
ステップS719では、システム制御部50は第二のタッチAFの処理を実行している状態を終了する。本ステップの処理の後、システム制御部50はステップS726に進む。
ステップS720からステップS726はそれぞれ図5のステップS516からステップS522と同様であるため説明を省略する。
このように第一の枠603のタッチオンしている状態の間のみ第二のタッチAFを受け付けることで、通常のタッチAFと本処理における第二のAFとをユーザは使い分けやすくなる。
以上、図7を参照しながら、本実施形態におけるデジタルカメラ100の処理の手順について説明した。
このように、合焦している被写体から他の被写体に合焦する場合でも、デジタルカメラ100は他の被写体に滑らかに焦点を合わせることが可能となる。特に他の被写体が動いている場合、デジタルカメラ100は本処理を行わない場合に比べて被写体への合焦の速さに関して顕著な効果を得ることができる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (14)

  1. 操作部材に対するタッチ操作を検出する検出手段と、
    制御手段とを有し、
    前記制御手段は、前記操作部材にタッチ操作されていない状態において、前記操作部材に対する第一のタッチダウンを前記検出手段によって検出すると、前記第一のタッチダウンがなされた前記操作部材の第一の位置座標に基づいた所定の処理を実行し、
    前記制御手段は、前記第一のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対する第二のタッチダウンを前記検出手段によって検出すると、前記第二のタッチダウンに基づいた前記所定の処理を実行せずに、前記第二のタッチダウンがなされた前記第二の位置座標に基づいた前記所定の処理の準備処理を実行し、
    前記制御手段は、前記第一のタッチダウンによるタッチオンおよび前記第二のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記第一のタッチダウンがタッチアップされたことを検出した場合、前記第二のタッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行する
    ことを特徴とする電子機器。
  2. 前記操作部材と一体的に構成された表示手段をさらに有し、
    前記制御手段は、前記表示手段によって第一のアイコンと第二のアイコンを表示し、前記第一のタッチダウンを前記検出手段によって検出した場合、前記第一のアイコンを目立つように表示し、前記第二のタッチダウンを前記検出手段によって検出した場合、前記第二のアイコンを目立つように表示する
    ことを特徴とする請求項1に記載の電子機器。
  3. 操作部材に対するタッチ操作を検出する検出手段と、
    前記操作部材と一体的に構成された表示手段と、
    制御手段とを有し、
    前記制御手段は、第一のアイコンと第二のアイコンを前記表示手段によって表示し、前記制御手段は、前記操作部材にタッチ操作されていない状態において、前記操作部材に対する第一のタッチダウンを前記検出手段によって検出すると、前記第一のタッチダウンの第一の位置座標に基づいた所定の処理を実行し、
    前記制御手段は、前記第一のタッチダウンがタッチアップされた後、前記所定の処理を実行している状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対する第二のタッチダウンを前記検出手段によって検出すると、前記第二のタッチダウンによる前記所定の処理を実行せずに前記第二の位置座標に基づいた前記所定の処理のための準備処理を実行し、
    前記制御手段は、前記第二のタッチダウンがタッチアップされた場合、前記第二のタッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行し、
    前記制御手段は、前記第一のタッチダウンを前記検出手段によって検出した場合、前記第一のアイコンを目立つように表示し、前記第二のタッチダウンを前記検出手段によって検出した場合、前記第二のアイコンを目立つように前記表示手段によって表示することを特徴とする電子機器。
  4. 前記制御手段は、前記所定の処理と前記準備処理とを実行していることを示すガイドオブジェクトをそれぞれ前記表示手段によって表示する
    ことを特徴とする請求項2または3に記載の電子機器。
  5. 前記制御手段は、前記準備処理を実行している場合と前記所定の処理を実行している場合と、における前記ガイドオブジェクトの色を互いに異なるように表示する
    ことを特徴とする請求項4に記載の電子機器。
  6. 前記目立つように表示するとは、アイコンを点滅する表示、アイコンの色を変える表示、およびアイコンの大きさを変える表示のいずれか一つの表示することであることを特徴とする請求項2から5のいずれか1項に記載の電子機器。
  7. さらに撮像手段を有し、前記所定の処理は前記撮像手段による位相差を用いたオートフォーカスであることを特徴とする請求項1から6のいずれか1項に記載の電子機器。
  8. 前記撮像手段はレンズを含み、
    前記準備処理は、前記所定の処理において前記第二の位置座標に映る被写体に対する前記レンズの駆動量を前記制御手段が計算する処理であることを特徴とする請求項7に記載の電子機器。
  9. さらに記録手段を有し、
    前記制御手段は、前記準備処理において前記記録手段によって前記駆動量を記録し、
    前記制御手段は、前記被写体が動いていると判断した場合、前記所定の処理を実行するタイミングにおける前記被写体に対する前記レンズの駆動量を、前記記録手段によって記録された複数の前記レンズの駆動量から計算する
    ことを特徴とする請求項8に記載の電子機器。
  10. 前記撮像手段による撮影は、動画撮影または連射撮影であることを特徴とする請求項から9のいずれか1項に記載の電子機器。
  11. 前記操作部材はタッチパネルであることを特徴とする請求項1から10のいずれか1項に記載の電子機器。
  12. 操作部材に対するタッチ操作を検出する検出手段を有する電子機器の制御方法であって、
    前記操作部材にタッチ操作されていない状態において、前記操作部材に対する第一のタッチダウンを前記検出手段によって検出すると、前記第一のタッチダウンがなされた前記操作部材の第一の位置座標に基づいた処理を実行するステップと、
    前記第一のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対する第二のタッチダウンを前記検出手段によって検出すると、前記第二のタッチダウンに基づいた処理を実行せずに、前記第二のタッチダウンがなされた前記第二の位置座標に基づいた所定の処理の準備処理を実行するステップと、
    前記第一のタッチダウンによるタッチオンおよび前記第二のタッチダウンによるタッチオンが前記検出手段によって検出されている状態において、前記第一のタッチダウンによるタッチ操作がタッチアップされた場合、前記第二のタッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行するステップと
    を有することを特徴とする制御方法。
  13. 操作部材に対するタッチ操作を検出する検出手段と、
    前記操作部材と一体的に構成された表示手段とを有する電子機器の制御方法であって、前記表示手段によって第一のアイコンと第二のアイコンを表示するステップと、前記操作部材にタッチ操作されていない状態において、前記操作部材に対する第一のタッチダウンを前記検出手段によって検出すると、前記第一のタッチダウンの第一の位置座標に基づいた所定の処理を実行するステップと、
    前記第一のタッチダウンがタッチアップされた後、前記所定の処理を実行している状態において、前記操作部材の前記第一の位置座標と異なる第二の位置座標に対する第二のタッチダウンを前記検出手段によって検出すると、前記第二のタッチダウンによる前記所定の処理を実行せずに前記第二の位置座標に基づいた前記所定の処理のための準備処理を実行するステップと、
    前記第二のタッチダウンがタッチアップされた場合、前記第二のタッチダウンがなされた前記第二の位置座標に基づいて前記所定の処理を実行するステップと、
    前記第一のタッチダウンを前記検出手段によって検出した場合、前記第一のアイコンを目立つように表示し、前記第二のタッチダウンを前記検出手段によって検出した場合、前記第二のアイコンを目立つように表示するステップと
    を有することを特徴とする制御方法。
  14. コンピュータを請求項1から11のいずれか1項に記載の通信装置の各手段として機能させるための、コンピュータが読み取り可能なプログラム。
JP2018163197A 2018-08-31 2018-08-31 電子機器、その制御方法、およびそのプログラム Active JP6703057B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018163197A JP6703057B2 (ja) 2018-08-31 2018-08-31 電子機器、その制御方法、およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018163197A JP6703057B2 (ja) 2018-08-31 2018-08-31 電子機器、その制御方法、およびそのプログラム

Publications (2)

Publication Number Publication Date
JP2020036280A JP2020036280A (ja) 2020-03-05
JP6703057B2 true JP6703057B2 (ja) 2020-06-03

Family

ID=69668752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018163197A Active JP6703057B2 (ja) 2018-08-31 2018-08-31 電子機器、その制御方法、およびそのプログラム

Country Status (1)

Country Link
JP (1) JP6703057B2 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102121528B1 (ko) * 2013-08-23 2020-06-10 삼성전자주식회사 촬영 장치 및 이의 제어 방법
US10855911B2 (en) * 2014-01-15 2020-12-01 Samsung Electronics Co., Ltd Method for setting image capture conditions and electronic device performing the same
KR102158214B1 (ko) * 2014-05-19 2020-09-22 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR102403065B1 (ko) * 2015-07-14 2022-05-27 삼성전자주식회사 영상 촬영 장치 및 그 동작 방법
JP6667294B2 (ja) * 2016-01-05 2020-03-18 キヤノン株式会社 電子機器およびその制御方法
JP6833535B2 (ja) * 2017-02-03 2021-02-24 キヤノン株式会社 撮像装置、撮像装置の制御方法及びプログラム
JP2017224325A (ja) * 2017-08-02 2017-12-21 キヤノン株式会社 電子機器及びその制御方法

Also Published As

Publication number Publication date
JP2020036280A (ja) 2020-03-05

Similar Documents

Publication Publication Date Title
JP5306266B2 (ja) 撮像装置及びその制御方法
JP6742730B2 (ja) 電子機器及びその制御方法
CN110035224B (zh) 电子装置及其控制方法和存储介质
JP6799475B2 (ja) 撮像装置及びその制御方法
CN108322641B (zh) 摄像控制设备、控制方法和存储介质
JP5709816B2 (ja) 撮像装置、その制御方法、および制御プログラム、並びに記録媒体
JP2014228629A (ja) 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
JP2014017665A (ja) 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体
JP6071616B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP7034619B2 (ja) 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
JP5575290B2 (ja) 撮像装置及びその制御方法
JP6701027B2 (ja) 撮像装置、その制御方法およびプログラム
JP6703057B2 (ja) 電子機器、その制御方法、およびそのプログラム
JP7225022B2 (ja) 撮像装置、及び、表示制御方法
JP7098490B2 (ja) 撮像装置及びその制御方法
JP6257255B2 (ja) 表示制御装置及び表示制御装置の制御方法
JP6779777B2 (ja) 撮像制御装置およびその制御方法
JP2021029034A (ja) 露出設定装置、その制御方法、プログラム、及び記憶媒体
JP2021028785A (ja) 電子機器および電子機器の制御方法
JP2014225846A (ja) 撮像装置、その制御方法及びプログラム
US9088762B2 (en) Image capturing apparatus and control method thereof
JP7292033B2 (ja) 情報処理装置、情報処理方法、撮像装置、及びプログラム
JP7071197B2 (ja) 撮像装置及びその制御方法
JP2018113538A (ja) 撮像装置およびその制御方法
JP6851788B2 (ja) フォーカス制御装置、フォーカス制御装置の制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200507

R151 Written notification of patent or utility model registration

Ref document number: 6703057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151