JP6910870B2 - 表示制御装置、制御方法およびプログラム - Google Patents
表示制御装置、制御方法およびプログラム Download PDFInfo
- Publication number
- JP6910870B2 JP6910870B2 JP2017130323A JP2017130323A JP6910870B2 JP 6910870 B2 JP6910870 B2 JP 6910870B2 JP 2017130323 A JP2017130323 A JP 2017130323A JP 2017130323 A JP2017130323 A JP 2017130323A JP 6910870 B2 JP6910870 B2 JP 6910870B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- proximity
- touch
- detected
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
- G06F1/3231—Monitoring the presence, absence or movement of users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
- G06F1/3262—Power saving in digitizer or tablet
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
- G06F1/3265—Power saving in display device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/65—Control of camera operation in relation to power supply
- H04N23/651—Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、上述したような問題点に鑑みてなされたものであり、意図せずに表示手段が非表示になってしまうことを防止することを目的とする。
<第1の実施形態>
図1(a)、(b)は、カメラ100の外観の一例を示す斜視図である。なお、以下では、必要に応じて、光軸方向において被写体側を前側といい、後側(カメラ背面側)に位置するユーザ(撮影者)から見た方向で上側、下側、左側、右側というものとする。
また、カメラ100は、電源オン、電源オフを切り替えるための電源スイッチ103、撮影指示を行うためのシャッターボタン104、撮影モードを切替えるためのモードダイヤル105を備える。また、カメラ100は、ユーザがカメラ100を安定して保持するためのグリップ106を備える。
カメラ100は、マイコン200、撮像センサ201、撮影レンズ202、不揮発性メモリ203、システムメモリ204、タイマー205、電源部206、電源制御部207、姿勢センサ208を備える。
マイコン200は、カメラ100全体を制御する中央演算処理装置として機能する。マイコン200は、タッチパネル部101の表示およびEVF102の表示を制御する制御手段の一例に対応する。撮像センサ201は、被写体像を撮像する。撮像センサ201は、光学像を電気信号に変換するCCDやCMOS素子等で構成される。撮像センサ201は、電気信号をA/D変換することでデジタル化し、マイコン200へ送信する。撮影レンズ202は、撮像センサ201に被写体像を結像する。不揮発性メモリ203は、後述するフローチャートを実現するプログラム、画像表示用データ、および、各種設定値(設定情報、閾値)等が格納される記録装置である。画像表示用データには、例えばカメラ100の各種設定を行う設定画面やアイコンが含まれる。システムメモリ204は、マイコン200が実行するプログラム、各種設定値、データ等を一時的に記憶するワークメモリである。タイマー205は所定のトリガから時間を計時する。タイマー205は、例えば近接センサ108の出力値が所定の閾値を超えた時点から計時を開始し、所定時間が経過した後に任意の動作を開始する。電源部206は、カメラ100の各部に電源を供給する。電源制御部207は、電源部206を制御する。なお、不揮発性メモリ203およびタイマー205は、マイコン200に内蔵されていてもよい。
・タッチパネル部101にタッチしていなかった指やペンが新たにタッチパネル部101にタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch-Down)という。)
・タッチパネル部101を指やペンでタッチしている状態であること(以下、タッチオン(Touch-On)という)。
・タッチパネル部101を指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)という)。
・タッチパネル部101へタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch-Up)という)。
・タッチパネル部101に何もタッチしていない状態(以下、タッチオフ(Touch-Off)という)。
これらの操作・状態や、タッチパネル部101上に指やペンがタッチしている位置座標は内部バスを通じてマイコン200に通知される。マイコン200は通知された情報に基づいてタッチパネル部101上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル部101上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル部101上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチパネル部101上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックという。換言すると、フリックはタッチパネル部101上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検知され、そのままタッチアップが検知されるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトという。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)という。タッチパネル部101は、抵抗膜方式、静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れの方式のものを用いてもよい。方式によって、タッチパネル部101に対する接触があったことでタッチがあったと検知する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検知する方式があるが、何れの方式であってもよい。
なお、図3は、タッチパネル部101およびEVF102の駆動制御とタッチパネル部101に対するタッチ操作との関係に特化したフローチャートであり、その他の処理を省略している。実際には、図3の処理の何れのタイミングであっても、シャッターボタン104の半押し操作に応じて、マイコン200はAF(オートフォーカス)、AE(自動露出)等の撮影準備処理を行う。また、図3の処理の何れのタイミングであっても、シャッターボタン104の全押し操作に応じて、マイコン200は撮像センサ201で撮像した画像を画像ファイルとしてメモリカードに記録するまでの一連の撮影処理を行う。更に、各種操作部材の操作に応じて、マイコン200は撮影設定(シャッター速度、絞り値、ISO感度、露出補正、セルフタイマー設定、ストロボ設定等)を行う。
S302では、マイコン200はEVF102の接眼部107に対する物体(近接物)の近接を検知したか否かを判定する。より詳しくは、マイコン200は近接センサ108が計測した物体とEVF102の接眼部107との間の距離Lが、近接検知用の閾値Lth1以下(所定距離以内)であるか否かを判定する。ユーザの顔(眼)がEVF102の接眼部107に近接して、接眼状態となっている場合には距離L≦閾値Lth1となる。また、ユーザの顔以外であっても、何らかの物体、例えばユーザの手や指等がEVF102の接眼部107に近接した場合でも、距離L≦閾値Lth1となることがある。距離L≦閾値Lth1であった場合はS304に進み、そうでない場合はS303に進む。
S309では、マイコン200はタッチアップに応じた処理を行う。例えば、マイコン200はアイコンにタッチしていた状態からタッチアップした場合にはタッチしていたアイコンに割り当てられた機能を実行する。
S311では、マイコン200は近接検知用の閾値Lth1を、初期値であるLth1(0)よりも小さい(短い)値に設定する。この値は予め定められた固定値であってもよいが、本実施形態ではタッチアップしてからの時間T1に応じて変動する変数Lth1(T1)に設定する。変数Lth1(T1)は、第2の所定時間の一例に対応する。このように、近接検知用の閾値Lth1を、初期値であるLth1(0)よりも小さい値に設定することで、タッチ操作する前の状態での近接の検知(S302、S306)よりも、物体がEVF102により近づかないと近接したと判断しないようにする。換言すると、マイコン200は物体の近接を検知され難くするようにする。タッチアップした直後はタッチ操作した指等がEVF102に不要に近づいてしまう可能性が高いが、S311の処理によって、不要な近接が検知され難くなり、意図せずにタッチパネル部101が非表示になることを防止することができる。
図5は、時間T1と変数Lth1(T1)との関係の一例を示す図である。図5では、横軸を時間T1とし、縦軸を閾値Lth1としている。閾値Lth1は、タッチアップ直後から時間T1’までが初期値Lth1(0)よりも小さい値であって、一定の値である。タッチアップ直後から時間T1’(例えば0.2秒程度)までは、指等の誤検知の可能性が高いために、タッチアップ直後から一定の値にしている。例えば、タッチパネル部101に対して上方向へのフリックを行った場合に、フリックを行った指がタッチアップから短い時間内にEVF102の接眼部107に近づいてしまうことがある。これに対して、本実施形態ではタッチアップから時間T1’までの閾値Lth1は、特に小さく設定しているため、フリックによる指が検知されてしまうことを低減することができる。時間T1’を経過した後は指等の誤検知の可能性が低くなっていくため、閾値Lth1を徐々に大きくして検知しやすくしている。したがって、誤検知ではなく本当に接眼したときに迅速にEVF102を表示させることができる。図5では、時間T1’から時間T1’’までの閾値Lth1は、時間に比例して大きくなるように設定されている。
このような閾値Lth1の設定の目的は、タッチアップ直後は指等によって誤検知する可能性が高いために近接の検知をし難くし、タッチアップしてから時間が経過するにしたがって誤検知の可能性は低減するために徐々に近接の検知をし易くすることである。したがって、図5に示すグラフの一例に限られず、この目的を逸脱しない範囲であれば、その他の閾値Lth1の設定であってもよい。
S314では、マイコン200は閾値Lth1を初期値Lth1(0)に戻すように設定して、S305に進む。
S315では、マイコン200はタッチパネル部101に対するタッチダウンがあったか否かを判定する。タッチダウンがあった場合はS307に進み、そうでない場合にはS311に進む。
S317では、マイコン200はタッチパネル部101の表示を継続したまま、EVF102を表示する。ここで表示されるのは、撮像センサ201で撮像されたLV画像および各種設定情報である。このケースでは、タッチパネル部101とEVF102との双方が表示された状態となる。したがって、タッチアップから所定時間内に、接眼ではなく指等が近接することにより検知してしまった場合でもタッチパネル部101が非表示にならないためにユーザはタッチパネル部101を確認しながらの操作性を損なわれることがない。逆に、接眼により近接を検知した場合にはEVF102も表示されているためにEVF102の表示開始の応答性が損なわれることもなく、ユーザは接眼して直ぐにEVF102の表示を確認することができる。
S319では、マイコン200はEVF102の接眼部107に対して物体が近接していた状態から近接していない状態になったか、すなわち接眼部107に近接していた物体の離間を検知したか否かを判定する。より詳しくは、マイコン200は近接センサ108が計測した物体とEVF102の接眼部107との間の距離Lが、離間検知用の閾値Lth2以上であるか否かを判定する。この場合の閾値Lth2は、閾値Lth2≧閾値Lth1(Lth1(0))に設定されている。閾値Lth2と閾値Lth1とが同じ値である場合は、S319の処理はS302、S303の処理と実質的に同等である。一方、閾値Lth2>閾値Lth1とした場合は、近接と離間との判定にヒステリシスを設けたことになり、一度近接が検知されてEVF102を表示した後では簡単に離間と判定されてEVF102が非表示にならないようにすることができる。離間を検知した場合はS320に進み、そうでない場合はS321に進む。
S321では、マイコン200は時間T2が閾値T2thを経過したか否かを判定する。より詳しくは、マイコン200は時間T2が閾値T2th以上であるか否かを判定する。閾値T2thはユーザが接眼していると想定できる時間に設定される。時間T2≧閾値T2thである場合はS322に進み、そうでない場合はS319に戻る。閾値T2thは、第2の所定時間の一例に対応する。
S322では、マイコン200はEVF102の表示を継続したまま、タッチパネル部101を表示にする。このケースでは、タッチ操作をした指等が近接したのではなく、ユーザが接眼したためにS312で近接が検知されたと想定される。したがって、マイコン200は表示させる必要のないタッチパネル部101を非表示にすることで電力消費を抑制する。その後、S323に進み、接眼中の処理を行う。
S303では、マイコン200は表示先を切替え、タッチパネル部101を非表示にしている状態から表示すると共に、EVF102を表示している状態から非表示にする。このケースでは、表示先の切替えの際にタッチパネル部101とEVF102とが同時に表示する時間は実質的に存在しない。S303において表示先を切替える場合には、S323においてタッチ操作が検知されてからの経過時間に関わらず、接眼部107に近接していた物体の離間を検知することにより行われる。
また、本実施形態では、タッチパネル部101を表示したままEVF102を表示している状態で、近接センサ108が近接を検知してから閾値T2thを経過するまでに近接センサ108が物体の離間を検知したとする。この場合には、タッチパネル部101を表示にしたまま、EVF102を非表示にする。時間T2thを経過するまでに近接センサ108が離間を検知するということは、タッチ操作した指等がEVF102に不要に近接してしまったと想定されるために、表示させる必要のないEVF102を非表示にすることで電力消費を抑制することができる。
すなわち、マイコン200がタッチパネル部101を表示している状態で最後にタッチ操作を検知してからの時間T1が閾値T1thを経過するまでに、物体が初期値Lth1(0))以内に近接してもタッチパネル部101を非表示にしない。この処理は、S312における閾値Lth1が初期値Lth1(0)よりも小さいLth1(T1)に設定されているためであって、S312をNoに進むからである。
一方、マイコン200がタッチパネル部101を表示している状態で最後にタッチ操作を検知してからの時間T1が閾値T1thを経過するまでに、物体がLth1(T1)以内に近接するとタッチパネル部101を非表示にする。この処理は、S312における閾値Lth1が初期値Lth1(0)よりも小さいLth1(T1)に設定されているためであり、S312をYesに分岐してS304に進むからである。
このように、タッチ操作を検知してからの時間T1が閾値T1thを経過するまでは、閾値Lth1の調整の分だけタッチ操作した指等が近接したとしても、意図せずにタッチパネル部101が非表示になってしまうことを防止することができる。なお、このような制御は、タッチパネル部を有する携帯電話(スマートフォン等)にも適用することができる。携帯電話には、通話時にユーザの耳の近接を検知する近接センサを有するものがあり、通話時に耳の近接を検知することに応じてタッチパネル部を非表示にする。したがって、ユーザの耳ではなくタッチ操作した指等が近接した場合でもタッチパネル部が非表示になってしまうことがある。一方、本実施形態を適用することで、タッチ操作を検知してからの時間T1が閾値T1thを経過するまでの期間では、閾値T1thを経過するまでの期間以外の期間に比べて、物体の近接を検知する距離の閾値が小さいために、近接を検知したと判定され難い。したがって、意図せずにタッチパネル部が非表示になってしまうことを防止することができる。
第1として、マイコン200はタッチ操作の前後のカメラ100の姿勢情報や動き情報に基づいて、閾値Lth1および閾値T2thを変更して設定する。マイコン200はカメラ100の姿勢情報や動き情報を姿勢センサ208から取得する。姿勢センサ208には加速度センサ、ジャイロセンサ、方位センサ、高度センサまたはGPSユニット等を用いることができる。姿勢センサ208は、カメラ100の姿勢情報や動き情報を検出する検出手段の一例に対応する。
なお、マイコン200は閾値Lth1および閾値T2thの双方を変更する場合に限られず、閾値Lth1または閾値T2thの何れかを変更するようにしてもよい。
例えば、表示内容がカメラ100の各種設定の設定画面またはLV画像を表示するライブビュー画面である場合、ライブビュー画面の方が設定画面よりもユーザがタッチアップ後に直ぐに接眼動作を行う可能性が高いと想定できる。したがって、マイコン200は表示内容がライブビュー画面である場合にはあるだけ早くEVF102を表示するために閾値Lth1を大きくなるように設定する。また、マイコン200はなるだけ早くタッチパネル部101を非表示にするために閾値T2thを短くなるように設定する。すなわち、マイコン200は表示内容がライブビュー画面以外の画面よりもライブビュー画面の方がS311で設定する閾値Lth1を大きくする。あるいは、マイコン200はライブビュー画面以外の画面ではS311で設定する閾値Lth1を初期値Lth1(0)よりも小さいLth1(T1)として、ライブビュー画面では閾値Lth1を初期値Lth1(0)のままにする。また、マイコン200は表示内容がライブビュー画面以外の画面よりもライブビュー画面の方が設定する閾値T2thを短くする。
また、設定画面の場合は繰り返しタッチ操作が行われる可能性が高く、項目の縦スクロール等のフリック操作に割り当てられた機能も存在する。したがって、マイコン200は指等の誤検知を防止するために設定画面以外の画面よりも設定画面の方がS311で設定する閾値Lth1を小さくする。また、マイコン200は誤検知を防止するために設定画面以外の画面よりも設定画面の方が閾値T2thを長くする。
このように、マイコン200は接眼動作に移る可能性が高い表示内容の場合は、接眼時には迅速にEVF102を表示することで使い勝手を向上させることができ、迅速にタッチパネル部101を非表示にすることで電力消費をより抑制することができる。一方、マイコン200はタッチ操作が行われる可能性が高い表示内容の場合は、物体の近接を検知する距離の閾値を小さくして誤検知の防止を図ることができる。
なお、マイコン200は閾値Lth1および閾値T2thの双方を変更する場合に限られず、閾値Lth1または閾値T2thの何れかを変更するようにしてもよい。
図6(a)、(b)は、タッチ操作するときの接触角度とカメラ100の姿勢について説明するための図である。例えばタッチ操作する利き手が右手の場合には、図6(a)のようにカメラ100の姿勢がグリップ上の場合は近接センサ108に指Fが近づく可能性は低い。一方、図6(b)のようにカメラ100の姿勢がグリップ下の場合は近接センサ108に指Fが近づく可能性が高く、誤検知しやすい。
したがって、マイコン200はユーザのタッチ操作するときの接触角度の情報に基づいて利き手を判定して、判定した利き手とカメラ100の姿勢情報とに基づいて、閾値Lth1および閾値T2thを変更して設定する。
一方、カメラ100が正位置の場合には、カメラ100が90度回転することから、マイコン200は接触角度θが例えば+100°〜+170°の頻度が多い場合にはユーザの利き手は右利きと判定する。また、カメラ100が正位置の場合において、マイコン200は接触角度θが例えば+10°〜+80°の頻度が多い場合にはユーザの利き手は左利きと判定する。
マイコン200が利き手を判定するタッチ操作は、直前のタッチ操作(S305のタッチダウンからS306のタッチアップ)であってもよいが、判定の精度を向上させるためにカメラ100を起動してからの複数のタッチ操作に基づいて判定することが好ましい。なお、接触角度からユーザの利き手を判定する方法は前述した方法に限定されず、その他の方法で判定してもよい。
一方、マイコン200は判定した利き手が右手の場合であって、かつ、カメラ100の姿勢がグリップ下の場合(図6(b)の状態)にはカメラ100の姿勢が正位置の場合よりも閾値Lth1を小さく、閾値T2thを長くなるように設定する。同様に、マイコン200は判定した利き手が左手の場合であって、かつ、カメラ100の姿勢がグリップ上の場合でもカメラ100の姿勢が正位置の場合よりも閾値Lth1を小さく、閾値T2thを長くなるように設定する。したがって、誤検知の防止を図ることができる。このように、使い勝手を向上させつつ、カメラ100の姿勢によっては電力消費の抑制も図ることができる。
なお、マイコン200は閾値Lth1および閾値T2thの双方を変更する場合に限られず、閾値Lth1または閾値T2thの何れかを変更するようにしてもよい。また、近接センサ108の位置によって指Fが近接センサ108に近づく可能性が変化するために、近接センサ108の位置も考慮して閾値Lth1および閾値T2thを変更することが好ましい。
例えば、S312において距離L≦Lth1であるとしてS316に進む場合に、距離L≦Lth1の状態の中でも距離Lが小さいほど接眼状態である可能性が高いと想定される。したがって、マイコン200は距離L≦Lth1の状態の中でも距離Lが大きい場合よりも距離Lが小さい方が閾値T2thを短くする。したがって、タッチパネル部101を迅速に非表示にすることができるので、電力消費の抑制を図ることができる。
例えば、S310において時間T1の計時を開始してから、S312において物体の近接を検知してS316に進むまでの時間(以下、検知時間という)が長い場合には、ユーザが接眼動作に移る可能性が高いと想定できる。したがって、マイコン200は検知時間が長い場合には検知時間が短い場合よりも閾値T2thを短くする。したがって、タッチパネル部101を迅速に非表示することができるので、電力消費の抑制を図ることができる。一方、検知時間が短い場合には、タッチ操作をした指等を検知している可能性が高いと想定できる。したがって、マイコン200は検知時間が短い場合には検知時間が長い場合よりも閾値T2thを長くする。したがって、誤検知の防止を図ることができる。
なお、前述した第1〜第5における閾値Lth1および閾値T2thを変更して設定する方法は、適宜組み合わせることも可能である。
図4は、第2の実施形態に係るカメラ100の処理の一例を示すフローチャートである。この処理は、マイコン200が不揮発性メモリ203に記録されたプログラムをシステムメモリ204に展開して実行することにより実現する。マイコン200はカメラ100が撮影モードで起動されることにより図4のフローチャートの処理を開始する。
なお、図4は、タッチパネル部101およびEVF102の駆動制御とタッチパネル部101に対するタッチ操作との関係に特化したフローチャートであり、その他の処理は省略している。実際には、図4の処理の何れのタイミングであっても、シャッターボタン104の半押し操作に応じて、マイコン200はAF、AE等の撮影準備処理を行う。また、図4の処理の何れのタイミングであっても、シャッターボタン104の全押し操作に応じて、マイコン200は撮像センサ201で撮像した画像を画像ファイルとしてメモリカードに記録するまでの一連の撮影処理を行う。更に、各種操作部材の操作に応じて、マイコン200は撮影設定(シャッター速度、絞り値、ISO感度、露出補正、セルフタイマー設定、ストロボ設定等)を行う。
S402では、マイコン200はEVF102の接眼部107に対する物体の近接を検知したか否かを判定する。この処理は、S302と同様である。物体の近接を検知した場合にはS405に進み、そうでない場合はS403に進む。
S404では、マイコン200はタッチパネル部101に対するタッチダウンがあったか否かを判定する。タッチダウンがあった場合はS307に進み、そうでない場合にはS402に戻る。
S406では、マイコン200はEVF102の接眼部107に対する物体の近接を検知したか否かを判定する。この処理は、S302と同様である。ここでは、S402から物体の近接を検知している状態が継続しているか否かを判定する処理である。物体の近接を検知している場合にはS408に進み、そうでない場合はS407に進む。
S408では、マイコン200はタッチアップしてからの時間T3が閾値T3thを経過したか否かを判定する。この処理は、S403と同様である。時間T3が閾値T3thを経過した場合はS409に進み、そうでない場合はS410に進む。
S410では、マイコン200はタッチパネル部101に対するタッチダウンがあったか否かを判定する。タッチダウンがあった場合はS411に進み、そうでない場合にはS406に戻る。
また、前述した実施形態において、マイコン200が行うものとして説明した前述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
すなわち、本発明はパーソナルコンピュータ、PDA、携帯電話、携帯型の画像ビューワ、デジタルフォトフレーム、ゲーム機、電子ブックリーダー、タブレット端末、スマートフォン、家電装置等に適用可能である。
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読取り実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (26)
- 第1の表示手段に対するタッチ操作を検知するタッチ検知手段と、
物体の近接を検知する近接検知手段と、
前記第1の表示手段に表示を行い、第2の表示手段を非表示にしている場合に、
前記タッチ検知手段でタッチ操作を検知する前に前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を非表示にすると共に前記第2の表示手段での表示を開始し、
前記第1の表示手段に表示を行い、前記第2の表示手段を非表示にしている場合に、
前記タッチ検知手段でタッチ操作を検知してから第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を表示したまま前記第2の表示手段での表示を開始するように制御する制御手段と、
を有することを特徴とする表示制御装置。 - 前記制御手段は、
前記タッチ検知手段でタッチ操作を検知してから前記第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を表示したまま前記第2の表示手段を表示している状態において、
前記近接検知手段で物体の近接を検知してから第2の所定時間を経過することに応じて、前記第1の表示手段を非表示にして、前記第2の表示手段を表示したままにするように制御することを特徴とする請求項1に記載の表示制御装置。 - 前記制御手段は、
前記タッチ検知手段でタッチ操作を検知してから前記第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を表示したまま前記第2の表示手段を表示している状態において、
前記近接検知手段で物体の近接を検知してから第2の所定時間を経過するまでに前記近接検知手段で物体の離間が検知されることに応じて、前記第1の表示手段を表示したまま前記第2の表示手段を非表示にするように制御することを特徴とする請求項1または2に記載の表示制御装置。 - 前記制御手段は、
前記第1の所定時間を経過するまでに前記タッチ検知手段でタッチ操作を検知してから前記近接検知手段で物体の近接を検知するまでの時間に基づいて、前記第2の所定時間を変更するように制御することを特徴とする請求項2または3に記載の表示制御装置。 - 該表示制御装置の姿勢情報および動き情報の少なくとも何れか一方を検出する検出手段を有し、
前記制御手段は、
前記検出手段で検出された該表示制御装置の姿勢情報および動き情報の少なくとも何れか一方に基づいて、前記第2の所定時間を変更するように制御することを特徴とする請求項2ないし4の何れか1項に記載の表示制御装置。 - 前記制御手段は、
前記タッチ検知手段でタッチ操作を検知したときに前記第1の表示手段に表示される表示内容に基づいて、前記第2の所定時間を変更するように制御することを特徴とする請求項2ないし5の何れか1項に記載の表示制御装置。 - 該表示制御装置の姿勢情報を検出する検出手段を有し、
前記制御手段は、
前記第1の表示手段に対するタッチ操作の接触角度の情報を取得し、前記接触角度の情報および前記検出手段で検出された該表示制御装置の姿勢情報に基づいて、前記第2の所定時間を変更するように制御することを特徴とする請求項2ないし6の何れか1項に記載の表示制御装置。 - 前記制御手段は、
前記近接検知手段で検知される物体までの距離に基づいて、前記第2の所定時間を変更するように制御することを特徴とする請求項2ないし7の何れか1項に記載の表示制御装置。 - 第1の表示手段に対するタッチ操作を検知するタッチ検知手段と、
物体の近接を検知する近接検知手段と、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから第1の所定時間を経過した後に、前記近接検知手段において第1の所定距離以内に物体を検知している場合には前記第1の表示手段を非表示にし、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに、前記近接検知手段において前記第1の所定距離以内に物体を検知している場合であっても前記第1の表示手段を非表示にしないように制御する制御手段と、
を有し、
前記制御手段は、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに、前記近接検知手段において前記第1の所定距離よりも短い第2の所定距離以内に物体を検知している場合には前記第1の表示手段を非表示にするように制御することを特徴とする表示制御装置。 - 第1の表示手段に対するタッチ操作を検知するタッチ検知手段と、
物体の近接を検知する近接検知手段と、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから第1の所定時間を経過した後に、前記近接検知手段で物体の近接を検知している場合には前記第1の表示手段を非表示にし、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに、前記近接検知手段で物体の近接を検知している場合には前記第1の表示手段を非表示にしないように制御する制御手段と、
を有し、
前記制御手段は、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知した後、前記第1の所定時間を経過するまで前記近接検知手段で物体の近接を継続して検知した場合には前記第1の表示手段を非表示にするように制御することを特徴とする表示制御装置。 - 前記制御手段は、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知したことに応じて、第2の表示手段の表示準備処理を開始して、その後、前記第1の所定時間を経過するまで前記近接検知手段で物体の近接を継続して検知した場合には前記第2の表示手段を表示するように制御することを特徴とする請求項10に記載の表示制御装置。 - 前記制御手段は、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知したことに応じて、第2の表示手段の表示準備処理を開始して、その後、前記近接検知手段で物体の近接を検知しなくなった場合には前記第2の表示手段の表示準備処理を終了するように制御することを特徴とする請求項10または11に記載の表示制御装置。 - 前記制御手段は、
前記タッチ検知手段でタッチ操作を検知してから前記第1の所定時間を経過するまでの期間では、前記第1の所定時間を経過するまでの期間以外において前記近接検知手段で物体の近接を検知する場合に比べて、前記近接検知手段で物体の近接を検知され難くするように制御することを特徴とする請求項1ないし12の何れか1項に記載の表示制御装置。 - 前記制御手段は、
前記タッチ検知手段でタッチ操作を検知してから前記第1の所定時間を経過するまでの期間では、前記近接検知手段において物体の近接を検知する距離の閾値を、前記第1の所定時間を経過するまでの期間以外の期間に比べて短くするように制御することを特徴とする請求項1ないし13の何れか1項に記載の表示制御装置。 - 前記制御手段は、
前記タッチ検知手段でタッチ操作を検知してから前記第1の所定時間を経過するまでの経過時間に応じて、前記近接検知手段において物体の近接を検知する距離の閾値を長くするように制御することを特徴とする請求項1ないし14の何れか1項に記載の表示制御装置。 - 前記制御手段は、
前記第1の表示手段を非表示にして、前記第2の表示手段を表示している状態で、前記近接検知手段で物体の離間が検知された場合には、前記タッチ検知手段でタッチ操作を検知してからの経過時間に関わらず、前記第1の表示手段を表示して、前記第2の表示手段を非表示にするように制御することを特徴とする請求項1ないし8、11、12の何れか1項に記載の表示制御装置。 - 前記第2の表示手段は、ファインダ内に位置する表示手段であることを特徴とする請求項1ないし8、11、12、16の何れか1項に記載の表示制御装置。
- 前記制御手段は、
前記タッチ検知手段でタッチ操作を検知してからの経過時間に基づいて、前記近接検知手段において物体の近接を検知する距離の閾値を変更するように制御することを特徴とする請求項1ないし17の何れか1項に記載の表示制御装置。 - 該表示制御装置の姿勢情報および動き情報の少なくとも何れか一方を検出する検出手段を有し、
前記制御手段は、
前記検出手段で検出された該表示制御装置の姿勢情報および動き情報の少なくとも何れか一方に基づいて、前記近接検知手段において物体の近接を検知する距離の閾値を変更するように制御することを特徴とする請求項1ないし18の何れか1項に記載の表示制御装置。 - 前記制御手段は、
前記タッチ検知手段でタッチ操作を検知したときに前記第1の表示手段に表示される表示内容に基づいて、前記近接検知手段において物体の近接を検知する距離の閾値を変更するように制御することを特徴とする請求項1ないし19の何れか1項に記載の表示制御装置。 - 該表示制御装置の姿勢情報を検出する検出手段を有し、
前記制御手段は、
前記第1の表示手段に対するタッチ操作の接触角度の情報を取得し、前記接触角度の情報および前記検出手段で検出された該表示制御装置の姿勢情報に基づいて、前記近接検知手段において物体の近接を検知する距離の閾値を変更するように制御することを特徴とする請求項1ないし20の何れか1項に記載の表示制御装置。 - 第1の表示手段に対するタッチ操作を検知するタッチ検知手段と、
物体の近接を検知する近接検知手段と、を有する表示制御装置の制御方法であって、
前記第1の表示手段に表示を行い、第2の表示手段を非表示にしている場合に、
前記タッチ検知手段でタッチ操作を検知する前に前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を非表示にすると共に前記第2の表示手段での表示を開始し、
前記第1の表示手段に表示を行い、前記第2の表示手段を非表示にしている場合に、
前記タッチ検知手段でタッチ操作を検知してから第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を表示したまま前記第2の表示手段での表示を開始するように制御する制御ステップを有することを特徴とする制御方法。 - 第1の表示手段に対するタッチ操作を検知するタッチ検知手段と、
物体の近接を検知する近接検知手段と、を有する表示制御装置の制御方法であって、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから第1の所定時間を経過した後に、前記近接検知手段において第1の所定距離以内に物体を検知している場合には前記第1の表示手段を非表示にし、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに、前記近接検知手段において前記第1の所定距離以内に物体を検知している場合であっても前記第1の表示手段を非表示にしないように制御する制御ステップを有し、
前記制御ステップは、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに、前記近接検知手段において前記第1の所定距離よりも短い第2の所定距離以内に物体を検知している場合には前記第1の表示手段を非表示にするように制御することを特徴とする制御方法。 - 第1の表示手段に対するタッチ操作を検知するタッチ検知手段と、
物体の近接を検知する近接検知手段と、を有する表示制御装置の制御方法であって、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから第1の所定時間を経過した後に、前記近接検知手段で物体の近接を検知している場合には前記第1の表示手段を非表示にし、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに、前記近接検知手段で物体の近接を検知している場合には前記第1の表示手段を非表示にしないように制御する制御ステップを有し、
前記制御ステップは、
前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知した後、前記第1の所定時間を経過するまで前記近接検知手段で物体の近接を継続して検知した場合には前記第1の表示手段を非表示にするように制御することを特徴とする制御方法。 - コンピュータを、請求項1ないし21の何れか1項に記載された表示制御装置の制御手段として機能させるためのプログラム。
- コンピュータを、請求項1ないし21の何れか1項に記載された表示制御装置の制御手段として機能させるためのプログラムを記録したコンピュータが読取り可能な記録媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017130323A JP6910870B2 (ja) | 2017-07-03 | 2017-07-03 | 表示制御装置、制御方法およびプログラム |
US16/019,663 US10531005B2 (en) | 2017-07-03 | 2018-06-27 | Display control apparatus, control method, and program |
CN201810716006.7A CN109213414B (zh) | 2017-07-03 | 2018-07-03 | 显示控制设备、控制方法和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017130323A JP6910870B2 (ja) | 2017-07-03 | 2017-07-03 | 表示制御装置、制御方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019015752A JP2019015752A (ja) | 2019-01-31 |
JP6910870B2 true JP6910870B2 (ja) | 2021-07-28 |
Family
ID=64735004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017130323A Active JP6910870B2 (ja) | 2017-07-03 | 2017-07-03 | 表示制御装置、制御方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10531005B2 (ja) |
JP (1) | JP6910870B2 (ja) |
CN (1) | CN109213414B (ja) |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004201104A (ja) * | 2002-12-19 | 2004-07-15 | Minolta Co Ltd | 撮像装置 |
TWI435591B (zh) * | 2006-10-17 | 2014-04-21 | Marvell World Trade Ltd | 用於蜂巢電話之顯示控制 |
US8416333B2 (en) * | 2009-08-31 | 2013-04-09 | Panasonic Corporation | Imaging apparatus |
JP5717510B2 (ja) * | 2010-04-08 | 2015-05-13 | キヤノン株式会社 | 撮像装置、その制御方法および記憶媒体 |
KR101248562B1 (ko) * | 2010-08-25 | 2013-03-28 | 교세라 가부시키가이샤 | 휴대전화기 및 그 제어방법 |
JP5648844B2 (ja) * | 2010-12-21 | 2015-01-07 | ソニー株式会社 | 画像表示制御装置および画像表示制御方法 |
JP5813353B2 (ja) * | 2011-04-05 | 2015-11-17 | 京セラ株式会社 | 携帯端末、表示装置、輝度制御方法及び輝度制御プログラム |
JP2013105272A (ja) * | 2011-11-11 | 2013-05-30 | Canon Inc | 表示制御装置及び表示制御方法、プログラム、並びに記憶媒体 |
JP2013196457A (ja) * | 2012-03-21 | 2013-09-30 | Aisin Aw Co Ltd | 表示装置、表示方法、及び表示プログラム |
JP2013232804A (ja) * | 2012-04-27 | 2013-11-14 | Fujitsu Ltd | 端末装置、バックライト制御方法およびバックライト制御プログラム |
JP2014006284A (ja) * | 2012-06-21 | 2014-01-16 | Nec Casio Mobile Communications Ltd | 情報処理装置、情報処理方法およびプログラム |
WO2014024366A1 (ja) * | 2012-08-09 | 2014-02-13 | パナソニック株式会社 | 携帯電子機器 |
JP6116336B2 (ja) * | 2013-04-24 | 2017-04-19 | 三星電子株式会社Samsung Electronics Co.,Ltd. | カメラ装置及びそれを備えた無線通信端末 |
JP6122355B2 (ja) * | 2013-06-26 | 2017-04-26 | 京セラ株式会社 | 携帯端末装置 |
JP6149604B2 (ja) * | 2013-08-21 | 2017-06-21 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
JP6316628B2 (ja) * | 2014-03-19 | 2018-04-25 | 株式会社ファインウェル | 携帯電話 |
JP6208609B2 (ja) * | 2014-03-26 | 2017-10-04 | 京セラ株式会社 | 携帯端末装置、携帯端末装置の制御方法およびプログラム |
WO2016105283A1 (en) * | 2014-12-26 | 2016-06-30 | Koc University | Near-to-eye display device with moving light sources |
JP6436802B2 (ja) * | 2015-01-30 | 2018-12-12 | キヤノン株式会社 | 表示制御装置及びその制御方法 |
JP6757140B2 (ja) * | 2016-01-08 | 2020-09-16 | キヤノン株式会社 | 表示制御装置及びその制御方法、プログラム、並びに記憶媒体 |
JP6647103B2 (ja) * | 2016-03-23 | 2020-02-14 | キヤノン株式会社 | 表示制御装置およびその制御方法 |
DK179657B1 (en) * | 2016-06-12 | 2019-03-13 | Apple Inc. | Devices, methods and graphical user interfaces for providing haptic feedback |
EP3509291B1 (en) * | 2016-08-31 | 2022-09-07 | Canon Kabushiki Kaisha | Imaging control apparatus and method therefor |
-
2017
- 2017-07-03 JP JP2017130323A patent/JP6910870B2/ja active Active
-
2018
- 2018-06-27 US US16/019,663 patent/US10531005B2/en active Active
- 2018-07-03 CN CN201810716006.7A patent/CN109213414B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109213414B (zh) | 2022-06-17 |
CN109213414A (zh) | 2019-01-15 |
JP2019015752A (ja) | 2019-01-31 |
US20190007622A1 (en) | 2019-01-03 |
US10531005B2 (en) | 2020-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10165189B2 (en) | Electronic apparatus and a method for controlling the same | |
US10992853B2 (en) | Image capture control apparatus, display control apparatus, and control method for tracking a tracking target in a live view image | |
US11039073B2 (en) | Electronic apparatus and method for controlling the same | |
KR20150130431A (ko) | 제스처들을 이용한 터치 입력들의 향상 | |
JP2013105272A (ja) | 表示制御装置及び表示制御方法、プログラム、並びに記憶媒体 | |
JP7433810B2 (ja) | 電子機器、電子機器の制御方法、プログラム及び記憶媒体 | |
JP7187190B2 (ja) | 電子機器、および電子機器の制御方法、プログラム、記憶媒体 | |
US10652442B2 (en) | Image capturing apparatus with operation members provided on different sides, control method of the same, and storage medium | |
JP6910870B2 (ja) | 表示制御装置、制御方法およびプログラム | |
JP7317559B2 (ja) | 電子機器 | |
JP6765901B2 (ja) | 撮像装置及びその制御方法、プログラム、並びに記憶媒体 | |
JP6765902B2 (ja) | 表示制御装置及びその制御方法、プログラム、並びに記憶媒体 | |
JP7336266B2 (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
JP7129244B2 (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
US10924680B2 (en) | Image capture control apparatus and method of controlling the same | |
JP6708516B2 (ja) | 電子装置、その制御方法およびプログラム | |
US20210127054A1 (en) | Electronic device and control method thereof | |
JP7450408B2 (ja) | 電子機器、その制御方法、プログラム及び記憶媒体 | |
JP7210158B2 (ja) | 電子機器、電子機器の制御方法、プログラム、及び、記録媒体 | |
JP2021085979A (ja) | 電子機器及びその制御方法、プログラム、記憶媒体 | |
JP5840256B2 (ja) | 電子機器およびその制御方法、プログラム並びに記憶媒体 | |
JP2022095264A (ja) | 表示制御装置及びその制御方法 | |
JP2022172840A (ja) | 電子機器、電子機器の制御方法、プログラム、及び記憶媒体 | |
JP2020027349A (ja) | 表示制御装置、表示制御方法、プログラム及び記憶媒体 | |
JP2021068168A (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200601 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210707 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6910870 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |