JP6910870B2 - 表示制御装置、制御方法およびプログラム - Google Patents

表示制御装置、制御方法およびプログラム Download PDF

Info

Publication number
JP6910870B2
JP6910870B2 JP2017130323A JP2017130323A JP6910870B2 JP 6910870 B2 JP6910870 B2 JP 6910870B2 JP 2017130323 A JP2017130323 A JP 2017130323A JP 2017130323 A JP2017130323 A JP 2017130323A JP 6910870 B2 JP6910870 B2 JP 6910870B2
Authority
JP
Japan
Prior art keywords
display
proximity
touch
detected
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017130323A
Other languages
English (en)
Other versions
JP2019015752A (ja
Inventor
直人 藤橋
直人 藤橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017130323A priority Critical patent/JP6910870B2/ja
Priority to US16/019,663 priority patent/US10531005B2/en
Priority to CN201810716006.7A priority patent/CN109213414B/zh
Publication of JP2019015752A publication Critical patent/JP2019015752A/ja
Application granted granted Critical
Publication of JP6910870B2 publication Critical patent/JP6910870B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3262Power saving in digitizer or tablet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、物体の検知に応じて表示を制御する表示制御装置、制御方法、プログラムおよび記録媒体に関するものである。
タッチパネル部を備えた装置において、タッチパネル部の表示部を非表示にすることで電力消費を抑制させることができる装置が知られている。例えば撮像装置ではファインダの近くに近接センサが配置されているものがあり、近接センサにより物体を検知した場合にはユーザがファインダに接眼していると判断して、電力消費を抑制させるためにタッチパネル部の表示部を非表示にするものがある。しかしながら、ユーザがタッチパネル部でタッチ操作をしている間に近接センサがタッチ操作している指や手を誤検知してしまうと、ユーザの意図しないタイミングでタッチパネル部の表示部が非表示になってしまう。
一方、特許文献1にはタッチパネルのタッチ可能領域のうち近接センサに近い領域をタッチ無効とし、近接センサに遠い領域をタッチ有効とすることで、指や手が近接センサに近づかないようにする撮像装置が開示されている。
特開2011−232741号公報
しかしながら、特許文献1の撮像装置では、近接センサに指や手が近づかないようにするものであり、近接センサに物体が近づいたときに表示手段が非表示になってしまう課題を解決することが困難である。
本発明は、上述したような問題点に鑑みてなされたものであり、意図せずに表示手段が非表示になってしまうことを防止することを目的とする。
本発明の表示制御装置は、第1の表示手段に対するタッチ操作を検知するタッチ検知手段と、物体の近接を検知する近接検知手段と、前記第1の表示手段に表示を行い、第2の表示手段を非表示にしている場合に、前記タッチ検知手段でタッチ操作を検知する前に前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を非表示にすると共に前記第2の表示手段での表示を開始し、前記第1の表示手段に表示を行い、前記第2の表示手段を非表示にしている場合に、前記タッチ検知手段でタッチ操作を検知してから第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を表示したまま前記第2の表示手段での表示を開始するように制御する制御手段と、を有することを特徴とする。
本発明によれば、意図せずに表示手段が非表示になってしまうことを防止することができる。
デジタルカメラの外観を示す図である。 デジタルカメラの内部構成を示す図である。 第1の実施形態の動作を示すフローチャートである。 第2の実施形態の動作を示すフローチャートである。 時間と閾値との関係を示す図である。 グリップ上およびグリップ下でのタッチ操作を示す図である。
以下、本発明の好ましい実施形態について添付の図面を参照して説明する。本実施形態は、表示制御装置が電子機器としてのデジタルカメラ(以下、カメラという)100である場合を例にして説明する。
<第1の実施形態>
図1(a)、(b)は、カメラ100の外観の一例を示す斜視図である。なお、以下では、必要に応じて、光軸方向において被写体側を前側といい、後側(カメラ背面側)に位置するユーザ(撮影者)から見た方向で上側、下側、左側、右側というものとする。
カメラ100は、カメラ背面にタッチ検知機能を有するタッチパネル部101を備える。タッチパネル部101は表示部とタッチパネルとが一体的に構成される。タッチパネル部101の表示部は第1の表示手段の一例に対応し、タッチパネルはタッチ検知手段の一例に対応する。また、カメラ100は、カメラ背面に電子ビューファインダ(以下、EVFという)102を備える。EVF102はファインダ内に位置する表示部を有する。EVF102の表示部は、第2の表示手段の一例に対応する。
また、カメラ100は、電源オン、電源オフを切り替えるための電源スイッチ103、撮影指示を行うためのシャッターボタン104、撮影モードを切替えるためのモードダイヤル105を備える。また、カメラ100は、ユーザがカメラ100を安定して保持するためのグリップ106を備える。
なお、カメラ100は、レンズ光軸OAが地面と水平かつモードダイヤル105が配置された面が上側になっている状態を正位置(正姿勢)とする。また、正位置を基準にしてカメラ100をタッチパネル部101側から見て左回りに90度回転させた状態をグリップ上(グリップ上の縦姿勢)、右回りに90度回転させた状態をグリップ下(グリップ下の縦姿勢)、上下反転させた状態を逆位置(逆さ姿勢)とする。
また、カメラ100は、近接センサ108を備える。近接センサ108は、ユーザがEVF102を視認するためにEVF102の接眼部107に顔を近づけた際に、接眼状態を検知する。近接センサ108により出力される出力値に応じて、接眼部107(あるいは近接センサ108)と近接した物体との距離Lが算出される。距離Lと近接センサ108の出力値との関係は反比例となる。すなわち、近接した物体と接眼部107との距離が近いほど出力値が大きくなる。近接センサ108は、赤外LEDから放射された光が物体により反射された反射光を検出する光学式、送波器により発振された超音波が物体により反射された反射波を検出する超音波式等を用いることができる。近接センサ108は、近接検知手段の一例に対応する。
本実施形態では、カメラ100の姿勢が正位置の状態において、EVF102はタッチパネル部101の上側に配置され、近接センサ108がタッチパネル部101とEVF102との間に配置される。ただし、タッチパネル部101、EVF102および近接センサ108は、それぞれの機能を実現できる位置であれば、前述した位置関係に限られない。
図2は、カメラ100の内部構成の一例を示す図である。
カメラ100は、マイコン200、撮像センサ201、撮影レンズ202、不揮発性メモリ203、システムメモリ204、タイマー205、電源部206、電源制御部207、姿勢センサ208を備える。
マイコン200は、カメラ100全体を制御する中央演算処理装置として機能する。マイコン200は、タッチパネル部101の表示およびEVF102の表示を制御する制御手段の一例に対応する。撮像センサ201は、被写体像を撮像する。撮像センサ201は、光学像を電気信号に変換するCCDやCMOS素子等で構成される。撮像センサ201は、電気信号をA/D変換することでデジタル化し、マイコン200へ送信する。撮影レンズ202は、撮像センサ201に被写体像を結像する。不揮発性メモリ203は、後述するフローチャートを実現するプログラム、画像表示用データ、および、各種設定値(設定情報、閾値)等が格納される記録装置である。画像表示用データには、例えばカメラ100の各種設定を行う設定画面やアイコンが含まれる。システムメモリ204は、マイコン200が実行するプログラム、各種設定値、データ等を一時的に記憶するワークメモリである。タイマー205は所定のトリガから時間を計時する。タイマー205は、例えば近接センサ108の出力値が所定の閾値を超えた時点から計時を開始し、所定時間が経過した後に任意の動作を開始する。電源部206は、カメラ100の各部に電源を供給する。電源制御部207は、電源部206を制御する。なお、不揮発性メモリ203およびタイマー205は、マイコン200に内蔵されていてもよい。
また、マイコン200は少なくとも1つのプロセッサまたは回路により構成される。マイコン200は、カメラ100全体を制御する以外に、撮像センサ201から受信した画像データの画像補正処理を行う。また、補正した画像データあるいは不揮発性メモリ203から受信した画像表示用データ、あるいはその両方をタッチパネル部101やEVF102に送信して表示する。なお、マイコン200は、タッチパネル部101やEVF102にデータを送信する際には、それぞれの表示仕様に合った画像サイズや画素数等に変換して送信する。マイコン200はタッチパネル部101とEVF102に対して同時に画像データを送信することができ、タッチパネル部101とEVF102とで同時に同じ画像データを表示することが可能である。
また、マイコン200はタッチパネル部101の操作面への以下の操作あるいは状態を検知できる。
・タッチパネル部101にタッチしていなかった指やペンが新たにタッチパネル部101にタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch-Down)という。)
・タッチパネル部101を指やペンでタッチしている状態であること(以下、タッチオン(Touch-On)という)。
・タッチパネル部101を指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)という)。
・タッチパネル部101へタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch-Up)という)。
・タッチパネル部101に何もタッチしていない状態(以下、タッチオフ(Touch-Off)という)。
タッチダウンが検知されると、同時にタッチオンであることも検知される。タッチダウンの後、タッチアップが検知されない限りは、通常はタッチオンが検知され続ける。タッチムーブが検知されるのもタッチオンが検知されている状態である。タッチオンが検知されていても、タッチ位置が移動していなければタッチムーブは検知されない。タッチしていた全ての指やペンがタッチアップしたことが検知された後はタッチオフとなる。
これらの操作・状態や、タッチパネル部101上に指やペンがタッチしている位置座標は内部バスを通じてマイコン200に通知される。マイコン200は通知された情報に基づいてタッチパネル部101上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル部101上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル部101上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチパネル部101上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックという。換言すると、フリックはタッチパネル部101上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検知され、そのままタッチアップが検知されるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトという。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)という。タッチパネル部101は、抵抗膜方式、静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れの方式のものを用いてもよい。方式によって、タッチパネル部101に対する接触があったことでタッチがあったと検知する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検知する方式があるが、何れの方式であってもよい。
図3は、第1の実施形態に係るカメラ100の処理の一例を示すフローチャートである。この処理は、マイコン200が不揮発性メモリ203に記録されたプログラムをシステムメモリ204に展開して実行することにより実現する。マイコン200はカメラ100が撮影モードで起動されることにより図3のフローチャートの処理を開始する。
なお、図3は、タッチパネル部101およびEVF102の駆動制御とタッチパネル部101に対するタッチ操作との関係に特化したフローチャートであり、その他の処理を省略している。実際には、図3の処理の何れのタイミングであっても、シャッターボタン104の半押し操作に応じて、マイコン200はAF(オートフォーカス)、AE(自動露出)等の撮影準備処理を行う。また、図3の処理の何れのタイミングであっても、シャッターボタン104の全押し操作に応じて、マイコン200は撮像センサ201で撮像した画像を画像ファイルとしてメモリカードに記録するまでの一連の撮影処理を行う。更に、各種操作部材の操作に応じて、マイコン200は撮影設定(シャッター速度、絞り値、ISO感度、露出補正、セルフタイマー設定、ストロボ設定等)を行う。
まず、S301では、マイコン200は処理に用いる各閾値を初期化する。マイコン200は物体の近接を検知(接眼検知)するときに用いる距離の閾値Lth1を初期値であるLth1(0)に初期化する。初期値Lth1(0)は、第1の所定距離の一例に対応する。また、マイコン200は接眼部107に近接する物体を検知できるように近接センサ108を有効状態にする。
S302では、マイコン200はEVF102の接眼部107に対する物体(近接物)の近接を検知したか否かを判定する。より詳しくは、マイコン200は近接センサ108が計測した物体とEVF102の接眼部107との間の距離Lが、近接検知用の閾値Lth1以下(所定距離以内)であるか否かを判定する。ユーザの顔(眼)がEVF102の接眼部107に近接して、接眼状態となっている場合には距離L≦閾値Lth1となる。また、ユーザの顔以外であっても、何らかの物体、例えばユーザの手や指等がEVF102の接眼部107に近接した場合でも、距離L≦閾値Lth1となることがある。距離L≦閾値Lth1であった場合はS304に進み、そうでない場合はS303に進む。
S303では、マイコン200はタッチパネル部101をオンにして、タッチ検知機能を有効にする。また、マイコン200はタッチパネル部101の表示部を表示(点灯)する(以下、タッチパネル部101を表示するという)。ここで表示されるのは、撮像センサ201で撮像されたライブビュー画像(以下、LV画像という)および各種設定情報である。なお、マイコン200はLV画像を表示せずに各種設定情報のみを表示してもよい。一方、マイコン200はEVF102をオフにして、EVF102の表示部を非表示(消灯)にして表示しない(以下、EVF102を非表示にするという)。以降、S305以下の処理で離眼中(非接眼中)の処理を行う。
S304では、マイコン200はEVF102をオンにして、EVF102の表示部を表示する(以下、EVF102を表示するという)。ここで表示されるのは、撮像センサ201で撮像されたLV画像および各種設定情報である。なお、マイコン200はモードが撮影モードではない場合にはLV画像以外を表示する。例えば、再生モードの場合には、マイコン200はメモリカードから読み出した画像を表示する。一方、マイコン200はタッチパネル部101の表示部をオフにして、タッチパネル部101の表示部を非表示にして表示しない(以下、タッチパネル部101を非表示にするという)。これによって不要な電力消費を抑制すると共に、接眼時にタッチパネル部101の表示によってユーザに対して眩しさを与えないようにすることができる。なお、マイコン200はタッチパネル部101のタッチ検知機能を有効にしたままとする。以降、S323以下の処理で接眼中の処理を行う。
S305では、マイコン200はタッチパネル部101に対するタッチダウンがあったか否かを判定する。タッチダウンがあった場合はS307に進み、そうでない場合にはS306に進む。このケースでは、タッチパネル部101が表示されており、ユーザは接眼していない状態でタッチパネル部101の表示を見ながらタッチ操作を行うことを想定している。
S306では、マイコン200はS302と同様、EVF102の接眼部107に対する物体の近接を検知したか否かを判定する。近接を検知した場合はS304に進み、そうでない場合はS305に戻る。S304に進むことで、マイコン200は表示先を切替え、タッチパネル部101を表示している状態から非表示にすると共に、EVF102を非表示にしている状態から表示する。このケースでは、表示先の切替えの際にタッチパネル部101とEVF102とが同時に表示する時間は実質的に存在しない。
S307では、マイコン200はタッチ操作に応じたタッチ中の処理を行う。タッチ中の処理には以下の処理が含まれる。まず、タッチダウンに応じた処理(タッチされたことを示す表示形態の変更や操作音の発音、タッチダウンされた位置にAF枠を設定するタッチAFの処理等)。また、タッチオンであることを示す表示(タッチされているアイコンを他のアイコンと識別可能に表示する等)。また、タッチムーブに応じた処理(例えば、特定の設定項目の設定値を設定するために表示されているスライダバーをタッチムーブに応じて移動する処理)。
S308では、マイコン200はタッチアップがあったか否かを判定する。タッチアップがあった場合はS309に進み、そうでない場合はS307に戻る。
S309では、マイコン200はタッチアップに応じた処理を行う。例えば、マイコン200はアイコンにタッチしていた状態からタッチアップした場合にはタッチしていたアイコンに割り当てられた機能を実行する。
S310では、マイコン200は時間T1をリセットしてからタイマー205を用いてタッチアップしてからの時間T1の計測を開始する。時間T1は、タッチ操作を検知してからの経過時間の一例に対応する。
S311では、マイコン200は近接検知用の閾値Lth1を、初期値であるLth1(0)よりも小さい(短い)値に設定する。この値は予め定められた固定値であってもよいが、本実施形態ではタッチアップしてからの時間T1に応じて変動する変数Lth1(T1)に設定する。変数Lth1(T1)は、第2の所定時間の一例に対応する。このように、近接検知用の閾値Lth1を、初期値であるLth1(0)よりも小さい値に設定することで、タッチ操作する前の状態での近接の検知(S302、S306)よりも、物体がEVF102により近づかないと近接したと判断しないようにする。換言すると、マイコン200は物体の近接を検知され難くするようにする。タッチアップした直後はタッチ操作した指等がEVF102に不要に近づいてしまう可能性が高いが、S311の処理によって、不要な近接が検知され難くなり、意図せずにタッチパネル部101が非表示になることを防止することができる。
ここで、変数Lth1(T1)は、初期値Lth1(0)よりも小さい値であって、時間T1に連動して徐々に大きく(長く)なるように設定されている。
図5は、時間T1と変数Lth1(T1)との関係の一例を示す図である。図5では、横軸を時間T1とし、縦軸を閾値Lth1としている。閾値Lth1は、タッチアップ直後から時間T1’までが初期値Lth1(0)よりも小さい値であって、一定の値である。タッチアップ直後から時間T1’(例えば0.2秒程度)までは、指等の誤検知の可能性が高いために、タッチアップ直後から一定の値にしている。例えば、タッチパネル部101に対して上方向へのフリックを行った場合に、フリックを行った指がタッチアップから短い時間内にEVF102の接眼部107に近づいてしまうことがある。これに対して、本実施形態ではタッチアップから時間T1’までの閾値Lth1は、特に小さく設定しているため、フリックによる指が検知されてしまうことを低減することができる。時間T1’を経過した後は指等の誤検知の可能性が低くなっていくため、閾値Lth1を徐々に大きくして検知しやすくしている。したがって、誤検知ではなく本当に接眼したときに迅速にEVF102を表示させることができる。図5では、時間T1’から時間T1’’までの閾値Lth1は、時間に比例して大きくなるように設定されている。
また、閾値Lth1は限度値(<初期値Lth1(0))を設けてもよい。図5では、時間T1’’(例えば1秒程度)から時間T1thまでは、閾値Lth1が限度値になるように設定されている。閾値Lth1が限度値以上に大きくならないようにすることで誤検知を防止することができる。時間T1th(例えば1.2秒程度)を経過した後は、誤検知の可能性は殆どないと判断できるために、閾値Lth1を初期値Lth1(0)に戻すことで、検知の応答性を優先している。
このような閾値Lth1の設定の目的は、タッチアップ直後は指等によって誤検知する可能性が高いために近接の検知をし難くし、タッチアップしてから時間が経過するにしたがって誤検知の可能性は低減するために徐々に近接の検知をし易くすることである。したがって、図5に示すグラフの一例に限られず、この目的を逸脱しない範囲であれば、その他の閾値Lth1の設定であってもよい。
S312では、マイコン200はEVF102の接眼部107に対する物体の近接を検知したか否かを判定する。より詳しくは、マイコン200は近接センサ108にて計測した物体とEVF102の接眼部107との間の距離Lが、近接検知用の閾値Lth1以下であるか否かを判定する。この場合の閾値Lth1は、前述のS311で変数Lth1(T1)(<初期値Lth1(0))に設定されているため、前述のS302、S306よりも物体の近接を検知したと判定され難い。距離L≦閾値Lth1である場合はS316に進み、そうでない場合はS313に進む。
S313では、マイコン200はタッチアップしてからの時間T1が閾値T1thを経過したか否かを判定する。より詳しくは、マイコン200は時間T1が閾値T1th以上であるか否かを判定する。時間T1≧閾値T1thである場合はS314に進み、そうでない場合はS315に進む。閾値T1thは、第1の所定時間の一例に対応する。
S314では、マイコン200は閾値Lth1を初期値Lth1(0)に戻すように設定して、S305に進む。
S315では、マイコン200はタッチパネル部101に対するタッチダウンがあったか否かを判定する。タッチダウンがあった場合はS307に進み、そうでない場合にはS311に進む。
S316では、マイコン200は閾値Lth1を初期値Lth1(0)に戻すように設定して、S317に進む。
S317では、マイコン200はタッチパネル部101の表示を継続したまま、EVF102を表示する。ここで表示されるのは、撮像センサ201で撮像されたLV画像および各種設定情報である。このケースでは、タッチパネル部101とEVF102との双方が表示された状態となる。したがって、タッチアップから所定時間内に、接眼ではなく指等が近接することにより検知してしまった場合でもタッチパネル部101が非表示にならないためにユーザはタッチパネル部101を確認しながらの操作性を損なわれることがない。逆に、接眼により近接を検知した場合にはEVF102も表示されているためにEVF102の表示開始の応答性が損なわれることもなく、ユーザは接眼して直ぐにEVF102の表示を確認することができる。
S318では、マイコン200は時間T2をリセットしてからタイマー205を用いてタッチパネル部101とEVF102との双方を表示してからの時間(近接を検知してからの時間)T2の計測を開始する。時間T2は、物体の近接を検知してからの時間の一例に対応する。
S319では、マイコン200はEVF102の接眼部107に対して物体が近接していた状態から近接していない状態になったか、すなわち接眼部107に近接していた物体の離間を検知したか否かを判定する。より詳しくは、マイコン200は近接センサ108が計測した物体とEVF102の接眼部107との間の距離Lが、離間検知用の閾値Lth2以上であるか否かを判定する。この場合の閾値Lth2は、閾値Lth2≧閾値Lth1(Lth1(0))に設定されている。閾値Lth2と閾値Lth1とが同じ値である場合は、S319の処理はS302、S303の処理と実質的に同等である。一方、閾値Lth2>閾値Lth1とした場合は、近接と離間との判定にヒステリシスを設けたことになり、一度近接が検知されてEVF102を表示した後では簡単に離間と判定されてEVF102が非表示にならないようにすることができる。離間を検知した場合はS320に進み、そうでない場合はS321に進む。
S320では、マイコン200はタッチパネル部101の表示を継続したまま、EVF102を非表示にする。このケースでは、ユーザが接眼したのではなく、タッチ操作をした指等が近接したためにS312で近接が検知されたと想定される。したがって、マイコン200は表示させる必要のないEVF102を非表示にすることで電力消費を抑制する。
S321では、マイコン200は時間T2が閾値T2thを経過したか否かを判定する。より詳しくは、マイコン200は時間T2が閾値T2th以上であるか否かを判定する。閾値T2thはユーザが接眼していると想定できる時間に設定される。時間T2≧閾値T2thである場合はS322に進み、そうでない場合はS319に戻る。閾値T2thは、第2の所定時間の一例に対応する。
S322では、マイコン200はEVF102の表示を継続したまま、タッチパネル部101を表示にする。このケースでは、タッチ操作をした指等が近接したのではなく、ユーザが接眼したためにS312で近接が検知されたと想定される。したがって、マイコン200は表示させる必要のないタッチパネル部101を非表示にすることで電力消費を抑制する。その後、S323に進み、接眼中の処理を行う。
S323では、マイコン200はタッチ操作があったか否かを判定する。タッチ操作があったと判定した場合にはS324に進み、マイコン200はタッチ操作に応じた処理を行う。タッチ操作がなかったと判定した場合はS325に進む。このケースでは、ユーザがEVF102の接眼部107に接眼した状態でタッチパネル部101をタッチ操作していることを想定している。例えば、EVF102に表示されたAF枠の位置を、タッチパネル部101に対して行われたタッチムーブに応じて移動させることが可能である。なお、接眼時には、マイコン200はタッチパネル部101を非表示すると共に、タッチ検知機能もオフにして、S323、S324の処理を行わないようにしてもよい。このようにすれば、接眼時のタッチパネル部101による電力消費をより抑制することができる。
S325では、マイコン200はEVF102の接眼部107に対して物体が近接していた状態から近接していない状態になったか、すなわち接眼部107に近接していた物体の離間を検知したか否かを判定する。より詳しくは、マイコン200は近接センサ108が計測した物体とEVF102の接眼部107との間の距離Lが、離間検知用の閾値Lth2以上であるか否かを判定する。離間を検知した場合はS303に進み、そうでない場合はS323に戻る。
S303では、マイコン200は表示先を切替え、タッチパネル部101を非表示にしている状態から表示すると共に、EVF102を表示している状態から非表示にする。このケースでは、表示先の切替えの際にタッチパネル部101とEVF102とが同時に表示する時間は実質的に存在しない。S303において表示先を切替える場合には、S323においてタッチ操作が検知されてからの経過時間に関わらず、接眼部107に近接していた物体の離間を検知することにより行われる。
本実施形態では、タッチパネル部101に表示し、EVF102を非表示にしている場合に、タッチ操作から閾値T1thを経過するまでに近接センサ108で物体の近接を検知することでタッチパネル部101を表示したままEVF102の表示を開始する。したがって、タッチパネル部101をタッチ操作した指等がEVF102に不要に近づいてしまい近接センサ108が近接を検知した場合であっても、ユーザの意図に反してタッチパネル部101が非表示になることを防止することができる。このように、本実施形態によれば、意図せずに表示手段が非表示になってしまうことを防止することができる。意図せずに表示手段が非表示にならないことで、表示手段に対するタッチ操作の操作性を向上させることができる。
また、本実施形態では、タッチパネル部101を表示したままEVF102を表示している状態で、近接センサ108が近接を検知してから閾値T2thを経過することに応じて、タッチパネル部101を非表示にして、EVF102を表示したままにする。近接センサ108が近接を検知してから閾値T2thを経過するということは、ユーザが接眼していると想定されるために、表示させる必要のないタッチパネル部101を非表示にすることで電力消費を抑制することができる。
また、本実施形態では、タッチパネル部101を表示したままEVF102を表示している状態で、近接センサ108が近接を検知してから閾値T2thを経過するまでに近接センサ108が物体の離間を検知したとする。この場合には、タッチパネル部101を表示にしたまま、EVF102を非表示にする。時間T2thを経過するまでに近接センサ108が離間を検知するということは、タッチ操作した指等がEVF102に不要に近接してしまったと想定されるために、表示させる必要のないEVF102を非表示にすることで電力消費を抑制することができる。
なお、前述した図3のフローチャートのうちS316〜S320の処理を省いて、S312でYesと判定された場合にはS304に進むようにし、S312でNoと判定された場合には前述と同様にS313に進むようにしてもよい。
すなわち、マイコン200がタッチパネル部101を表示している状態で最後にタッチ操作を検知してからの時間T1が閾値T1thを経過するまでに、物体が初期値Lth1(0))以内に近接してもタッチパネル部101を非表示にしない。この処理は、S312における閾値Lth1が初期値Lth1(0)よりも小さいLth1(T1)に設定されているためであって、S312をNoに進むからである。
一方、マイコン200がタッチパネル部101を表示している状態で最後にタッチ操作を検知してからの時間T1が閾値T1thを経過するまでに、物体がLth1(T1)以内に近接するとタッチパネル部101を非表示にする。この処理は、S312における閾値Lth1が初期値Lth1(0)よりも小さいLth1(T1)に設定されているためであり、S312をYesに分岐してS304に進むからである。
また、マイコン200がタッチパネル部101を表示している状態で最後にタッチ操作を検知してからの時間T1が閾値T1thを経過した場合にはS313をYesに分岐し、S314からS305をNoに分岐してS306に進む。S306において、マイコン200は物体が初期値Lth1(0)以内に近接する場合にS304に進み、マイコン200はタッチパネル部101を非表示にする。
このように、タッチ操作を検知してからの時間T1が閾値T1thを経過するまでは、閾値Lth1の調整の分だけタッチ操作した指等が近接したとしても、意図せずにタッチパネル部101が非表示になってしまうことを防止することができる。なお、このような制御は、タッチパネル部を有する携帯電話(スマートフォン等)にも適用することができる。携帯電話には、通話時にユーザの耳の近接を検知する近接センサを有するものがあり、通話時に耳の近接を検知することに応じてタッチパネル部を非表示にする。したがって、ユーザの耳ではなくタッチ操作した指等が近接した場合でもタッチパネル部が非表示になってしまうことがある。一方、本実施形態を適用することで、タッチ操作を検知してからの時間T1が閾値T1thを経過するまでの期間では、閾値T1thを経過するまでの期間以外の期間に比べて、物体の近接を検知する距離の閾値が小さいために、近接を検知したと判定され難い。したがって、意図せずにタッチパネル部が非表示になってしまうことを防止することができる。
また、本実施形態では、閾値Lth1はタッチアップしてからの時間T1に応じて変動し、閾値T2thはユーザが接眼していると想定できる時間である場合について説明したが、以下を考慮して設定してもよい。
第1として、マイコン200はタッチ操作の前後のカメラ100の姿勢情報や動き情報に基づいて、閾値Lth1および閾値T2thを変更して設定する。マイコン200はカメラ100の姿勢情報や動き情報を姿勢センサ208から取得する。姿勢センサ208には加速度センサ、ジャイロセンサ、方位センサ、高度センサまたはGPSユニット等を用いることができる。姿勢センサ208は、カメラ100の姿勢情報や動き情報を検出する検出手段の一例に対応する。
例えばマイコン200はタッチパネル部101が上向き(撮像方向が下向き)の状態(レンズ光軸が垂直に近い状態)でタッチオンされている状態から、タッチアップ後にカメラ100が正位置(レンズ光軸が水平に近い状態)の状態へ移行した動き情報を取得する。このケースでは、ユーザがカメラ100を顔に近づける動作である可能性が高いと想定できる。したがって、マイコン200はなるだけ早くEVF102を表示するために初期値Lth1(0)よりも大きくなるように閾値Lth1を設定する。また、マイコン200はなるだけ早くタッチパネル部101を非表示にするために通常よりも短くなるように閾値T2thを設定する。一方、タッチアップ後にカメラ100の姿勢が変わらず、前述した動き情報を取得しない場合には、タッチ操作が継続される可能性が高いと想定できるので、閾値Lth1および閾値T2thを変更しない。このように、マイコン200は接眼時には迅速にEVF102を表示することで使い勝手を向上させることができ、迅速にタッチパネル部101を非表示にすることで電力消費をより抑制することができる。
なお、マイコン200は閾値Lth1および閾値T2thの双方を変更する場合に限られず、閾値Lth1または閾値T2thの何れかを変更するようにしてもよい。
第2として、マイコン200はタッチパネル部101への表示内容に基づいて、閾値Lth1および閾値T2thを変更して設定する。
例えば、表示内容がカメラ100の各種設定の設定画面またはLV画像を表示するライブビュー画面である場合、ライブビュー画面の方が設定画面よりもユーザがタッチアップ後に直ぐに接眼動作を行う可能性が高いと想定できる。したがって、マイコン200は表示内容がライブビュー画面である場合にはあるだけ早くEVF102を表示するために閾値Lth1を大きくなるように設定する。また、マイコン200はなるだけ早くタッチパネル部101を非表示にするために閾値T2thを短くなるように設定する。すなわち、マイコン200は表示内容がライブビュー画面以外の画面よりもライブビュー画面の方がS311で設定する閾値Lth1を大きくする。あるいは、マイコン200はライブビュー画面以外の画面ではS311で設定する閾値Lth1を初期値Lth1(0)よりも小さいLth1(T1)として、ライブビュー画面では閾値Lth1を初期値Lth1(0)のままにする。また、マイコン200は表示内容がライブビュー画面以外の画面よりもライブビュー画面の方が設定する閾値T2thを短くする。
また、マイコン200はライブビュー画面に限らず、フリック操作に割り当てられた機能がある画面であるか、フリック操作に割り当てられた機能がない画面であるかに基づいて、閾値Lth1および閾値T2thを変更して設定してもよい。すなわち、マイコン200はフリック操作に割り当てられた機能がない画面の方がS311で設定する閾値Lth1を大きくしたり、初期値Lth1(0)のままにしたりする。
また、設定画面の場合は繰り返しタッチ操作が行われる可能性が高く、項目の縦スクロール等のフリック操作に割り当てられた機能も存在する。したがって、マイコン200は指等の誤検知を防止するために設定画面以外の画面よりも設定画面の方がS311で設定する閾値Lth1を小さくする。また、マイコン200は誤検知を防止するために設定画面以外の画面よりも設定画面の方が閾値T2thを長くする。
このように、マイコン200は接眼動作に移る可能性が高い表示内容の場合は、接眼時には迅速にEVF102を表示することで使い勝手を向上させることができ、迅速にタッチパネル部101を非表示にすることで電力消費をより抑制することができる。一方、マイコン200はタッチ操作が行われる可能性が高い表示内容の場合は、物体の近接を検知する距離の閾値を小さくして誤検知の防止を図ることができる。
なお、マイコン200は閾値Lth1および閾値T2thの双方を変更する場合に限られず、閾値Lth1または閾値T2thの何れかを変更するようにしてもよい。
第3として、マイコン200はタッチ操作の接触角度の情報とカメラ100の姿勢情報とに基づいて、閾値Lth1および閾値T2thを変更して設定する。
図6(a)、(b)は、タッチ操作するときの接触角度とカメラ100の姿勢について説明するための図である。例えばタッチ操作する利き手が右手の場合には、図6(a)のようにカメラ100の姿勢がグリップ上の場合は近接センサ108に指Fが近づく可能性は低い。一方、図6(b)のようにカメラ100の姿勢がグリップ下の場合は近接センサ108に指Fが近づく可能性が高く、誤検知しやすい。
したがって、マイコン200はユーザのタッチ操作するときの接触角度の情報に基づいて利き手を判定して、判定した利き手とカメラ100の姿勢情報とに基づいて、閾値Lth1および閾値T2thを変更して設定する。
ここで、タッチ操作の接触角度の情報からユーザの利き手を判定する場合について説明する。図6(a)に示すように、指Fでタッチ操作する場合にはタッチパネル部101をタッチしたタッチ形状が略楕円Cになる。例えば、マイコン200はタッチ形状をタッチパネル部101から取得して、タッチ形状を楕円と近似したときの長軸LAを算出し、基準軸SAから反時計回りに長軸LAまでの角度を接触角度θとして算出する。図6(a)に示すように、カメラ100がグリップ上の場合において、マイコン200は接触角度θが例えば+10°〜+80°の頻度が多い場合にはユーザの利き手は右利きと判定する。また、カメラ100がグリップ上の場合において、マイコン200は接触角度θが例えば+100°〜+170°の頻度が多い場合にはユーザの利き手は左利きと判定する。なお、マイコン200は、グリップ下の場合でも同様に利き手を判定することができる。
一方、カメラ100が正位置の場合には、カメラ100が90度回転することから、マイコン200は接触角度θが例えば+100°〜+170°の頻度が多い場合にはユーザの利き手は右利きと判定する。また、カメラ100が正位置の場合において、マイコン200は接触角度θが例えば+10°〜+80°の頻度が多い場合にはユーザの利き手は左利きと判定する。
マイコン200が利き手を判定するタッチ操作は、直前のタッチ操作(S305のタッチダウンからS306のタッチアップ)であってもよいが、判定の精度を向上させるためにカメラ100を起動してからの複数のタッチ操作に基づいて判定することが好ましい。なお、接触角度からユーザの利き手を判定する方法は前述した方法に限定されず、その他の方法で判定してもよい。
次に、マイコン200は判定した利き手が右手の場合であって、かつ、カメラ100の姿勢がグリップ上の場合(図6(a)の状態)ではカメラ100の姿勢が正位置の場合よりも閾値Lth1を大きく、閾値T2thを短くなるように設定する。同様に、マイコン200は判定した利き手が左手の場合であって、かつ、カメラ100の姿勢がグリップ下の場合でもカメラ100の姿勢が正位置の場合よりも閾値Lth1を大きく、閾値T2thを短くなるように設定する。したがって、タッチパネル部101からEVF102への迅速な表示先の切替えと電力消費の抑制とを図ることができる。
一方、マイコン200は判定した利き手が右手の場合であって、かつ、カメラ100の姿勢がグリップ下の場合(図6(b)の状態)にはカメラ100の姿勢が正位置の場合よりも閾値Lth1を小さく、閾値T2thを長くなるように設定する。同様に、マイコン200は判定した利き手が左手の場合であって、かつ、カメラ100の姿勢がグリップ上の場合でもカメラ100の姿勢が正位置の場合よりも閾値Lth1を小さく、閾値T2thを長くなるように設定する。したがって、誤検知の防止を図ることができる。このように、使い勝手を向上させつつ、カメラ100の姿勢によっては電力消費の抑制も図ることができる。
なお、マイコン200は閾値Lth1および閾値T2thの双方を変更する場合に限られず、閾値Lth1または閾値T2thの何れかを変更するようにしてもよい。また、近接センサ108の位置によって指Fが近接センサ108に近づく可能性が変化するために、近接センサ108の位置も考慮して閾値Lth1および閾値T2thを変更することが好ましい。
第4として、マイコン200は近接センサ108により検知される物体までの距離、より詳しくは、接眼部107と物体との間の距離Lに応じて閾値T2thを変更して設定する。
例えば、S312において距離L≦Lth1であるとしてS316に進む場合に、距離L≦Lth1の状態の中でも距離Lが小さいほど接眼状態である可能性が高いと想定される。したがって、マイコン200は距離L≦Lth1の状態の中でも距離Lが大きい場合よりも距離Lが小さい方が閾値T2thを短くする。したがって、タッチパネル部101を迅速に非表示にすることができるので、電力消費の抑制を図ることができる。
第5として、マイコン200はタッチ操作を検知してから近接センサ108により近接を検知するまでの時間に基づいて閾値T2thを変更して設定する。より詳しくは、マイコン200はタッチ操作を検知してから近接センサ108により近接を検知するまでの時間に応じて、閾値T2thを徐々に短くなるように設定する。
例えば、S310において時間T1の計時を開始してから、S312において物体の近接を検知してS316に進むまでの時間(以下、検知時間という)が長い場合には、ユーザが接眼動作に移る可能性が高いと想定できる。したがって、マイコン200は検知時間が長い場合には検知時間が短い場合よりも閾値T2thを短くする。したがって、タッチパネル部101を迅速に非表示することができるので、電力消費の抑制を図ることができる。一方、検知時間が短い場合には、タッチ操作をした指等を検知している可能性が高いと想定できる。したがって、マイコン200は検知時間が短い場合には検知時間が長い場合よりも閾値T2thを長くする。したがって、誤検知の防止を図ることができる。
なお、前述した第1〜第5における閾値Lth1および閾値T2thを変更して設定する方法は、適宜組み合わせることも可能である。
<第2の実施形態>
図4は、第2の実施形態に係るカメラ100の処理の一例を示すフローチャートである。この処理は、マイコン200が不揮発性メモリ203に記録されたプログラムをシステムメモリ204に展開して実行することにより実現する。マイコン200はカメラ100が撮影モードで起動されることにより図4のフローチャートの処理を開始する。
なお、図4は、タッチパネル部101およびEVF102の駆動制御とタッチパネル部101に対するタッチ操作との関係に特化したフローチャートであり、その他の処理は省略している。実際には、図4の処理の何れのタイミングであっても、シャッターボタン104の半押し操作に応じて、マイコン200はAF、AE等の撮影準備処理を行う。また、図4の処理の何れのタイミングであっても、シャッターボタン104の全押し操作に応じて、マイコン200は撮像センサ201で撮像した画像を画像ファイルとしてメモリカードに記録するまでの一連の撮影処理を行う。更に、各種操作部材の操作に応じて、マイコン200は撮影設定(シャッター速度、絞り値、ISO感度、露出補正、セルフタイマー設定、ストロボ設定等)を行う。
また、図4のフローチャートのうち、前述の図3のフローチャートと同様の処理については、同じステップ番号を付して図示している。以下、図3と同じステップ番号の処理の説明は省略し、図3と異なる処理について説明する。なお、カメラ100の構成は、前述した第1の実施形態と同様の構成である。
S401では、マイコン200は時間T3をリセットしてからタイマー205を用いてタッチアップしてからの時間T3の計測を開始する。時間T3は、タッチ操作を検知してからの経過時間の一例に対応する。
S402では、マイコン200はEVF102の接眼部107に対する物体の近接を検知したか否かを判定する。この処理は、S302と同様である。物体の近接を検知した場合にはS405に進み、そうでない場合はS403に進む。
S403では、マイコン200はタッチアップしてからの時間T3が閾値T3thを経過したか否かを判定する。より詳しくは、マイコン200は時間T3が閾値T3th以上であるか否かを判定する。時間T3≧閾値T3thである場合はS305に進み、そうでない場合はS404に進む。閾値T3thは、第1の所定時間の一例に対応する。
S404では、マイコン200はタッチパネル部101に対するタッチダウンがあったか否かを判定する。タッチダウンがあった場合はS307に進み、そうでない場合にはS402に戻る。
S405では、マイコン200はEVF102の表示準備処理を行う。ここでは表示の準備のみであってEVF102を表示しない。表示準備処理とは、EVF102の点灯自体は行わずに、表示するために電気回路の準備、例えば電源部の起動等を行うことを意味する。このようにマイコン200は閾値T3thを経過する前にEVF102に物体が近接したとしてもタッチ操作した指等の誤検知の可能性があるために、ユーザが接眼したとは判断しない。また、マイコン200はユーザが接眼したと判定する場合には迅速にEVF102を表示できるように表示準備処理を行う。
S406では、マイコン200はEVF102の接眼部107に対する物体の近接を検知したか否かを判定する。この処理は、S302と同様である。ここでは、S402から物体の近接を検知している状態が継続しているか否かを判定する処理である。物体の近接を検知している場合にはS408に進み、そうでない場合はS407に進む。
S407では、マイコン200はEVF102の表示準備処理を終了し、EVF102を表示準備処理の前の状態に戻す。このようにマイコン200は閾値T3thが経過する前にEVF102に物体が近接していない場合にはユーザが接眼していないと判断して、EVF102の表示準備処理を終了する。すなわち、EVF102の接眼部107に物体が近接している間だけ表示準備処理をすることで、タッチアップから閾値T3thを経過した後には迅速にEVF102を表示できるようにする。一方、EVF102の接眼部107に物体が近接していない間は点灯表示準備を行わないことで点灯表示準備に要する電力消費を抑制することができる。続いてS305に進み、離眼中の処理を行う。
S408では、マイコン200はタッチアップしてからの時間T3が閾値T3thを経過したか否かを判定する。この処理は、S403と同様である。時間T3が閾値T3thを経過した場合はS409に進み、そうでない場合はS410に進む。
S409では、マイコン200はEVF102を表示する。ここでは既にEVF102の表示準備処理を行っているために、EVF102の表示をS304よりも迅速に行うことができる。また、マイコン200はタッチパネル部101を非表示にする。このように、マイコン200は閾値T3thが経過してもEVF102に物体が近接している場合にはユーザが接眼していると判断して、タッチパネル部101からEVF102に表示先を切替える。続いてS323に進み、接眼中の処理を行う。
S410では、マイコン200はタッチパネル部101に対するタッチダウンがあったか否かを判定する。タッチダウンがあった場合はS411に進み、そうでない場合にはS406に戻る。
S411では、マイコン200はS406で行ったEVF102の表示準備処理を終了し、EVF102を表示準備処理の前の状態に戻す。このケースでは、新たなタッチ操作(タッチダウン)があったために、ユーザが接眼したわけではなく、タッチ操作をした指等が近接したことでS402において物体の近接が検知されたと想定される。なお、ユーザが接眼することでS402において物体の近接が検知された場合には、意図せずに鼻等の顔の一部がタッチパネル部101にタッチすることでタッチダウンが検知されることもある。したがって、マイコン200はS410、S411の処理をしないようにしてもよい。
本実施形態では、タッチパネル部101に表示している状態で、タッチパネル部101により最後にタッチ操作を検知してから閾値T3thを経過するまでに、近接センサ108で物体の近接を検知している場合にはタッチパネル部101を非表示にしない。したがって、タッチパネル部101をタッチ操作した指等が近接センサ108に不要に近づいてしまい近接センサ108が近接を検知した場合であっても、ユーザの意図に反してタッチパネル部101が非表示になることを防止することができる。このように、本実施形態によれば、意図せずに表示手段が非表示になってしまうことを防止することができる。意図せずに表示手段が非表示にならないことで、表示手段に対するタッチ操作の操作性を向上させることができる。
また、本実施形態では、タッチパネル部101により最後にタッチ操作を検知してから閾値T3thを経過するまでに、近接センサ108で物体の近接を検知した後、閾値T3thまで物体の近接を継続して検知した場合にはタッチパネル部101を非表示にする。近接センサ108が近接を検知してから閾値T3thを経過するということは、ユーザが接眼していると想定されるために、表示させる必要のないタッチパネル部101を非表示にすることで電力消費を抑制することができる。
なお、第2の実施形態では、表示制御装置がカメラ100である場合について説明したが、携帯電話(スマートフォン等)にも適用することができる。携帯電話には、通話時にユーザの耳の近接を検知する近接センサを有するものがあり、通話時に耳の近接を検知することに応じてタッチパネル部を非表示にする。この場合には、ユーザの耳ではなくタッチ操作した指等が近接した場合でもタッチパネル部が非表示になってしまうことがある。したがって、第2の実施形態を適用して、マイコン200はタッチパネル部101により最後にタッチ操作を検知してから閾値T3thを経過するまでに、近接センサ108で物体の近接を検知している場合にはタッチパネル部101を非表示にしないようにする。このようにすることで、ユーザの意図に反してタッチパネル部101の例えば通話画面が非表示になることを防止することができる。
以上、本発明を好適な実施形態に基づいて説明したが、本発明は前述した特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。また、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
また、前述した実施形態において、マイコン200が行うものとして説明した前述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
また、前述した実施形態において、本発明をカメラ100に適用する場合を例にして説明したが、この場合に限られず、第1の表示手段に対するタッチ操作を検知するタッチ検知手段および物体の近接を検知する近接検知手段を有する装置であれば適用可能である。
すなわち、本発明はパーソナルコンピュータ、PDA、携帯電話、携帯型の画像ビューワ、デジタルフォトフレーム、ゲーム機、電子ブックリーダー、タブレット端末、スマートフォン、家電装置等に適用可能である。
<その他の実施形態>
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読取り実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:表示制御装置 101:タッチパネル部 102:EVF 107:接眼部 108:近接センサ 200:マイコン 205:タイマー 208:姿勢センサ

Claims (26)

  1. 第1の表示手段に対するタッチ操作を検知するタッチ検知手段と、
    物体の近接を検知する近接検知手段と、
    前記第1の表示手段に表示を行い、第2の表示手段を非表示にしている場合に、
    前記タッチ検知手段でタッチ操作を検知する前に前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を非表示にすると共に前記第2の表示手段での表示を開始し、
    前記第1の表示手段に表示を行い、前記第2の表示手段を非表示にしている場合に、
    前記タッチ検知手段でタッチ操作を検知してから第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を表示したまま前記第2の表示手段での表示を開始するように制御する制御手段と、
    を有することを特徴とする表示制御装置。
  2. 前記制御手段は、
    前記タッチ検知手段でタッチ操作を検知してから前記第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を表示したまま前記第2の表手段を表示している状態において、
    前記近接検知手段で物体の近接を検知してから第2の所定時間を経過することに応じて、前記第1の表示手段を非表示にして、前記第2の表示手段を表示したままにするように制御することを特徴とする請求項1に記載の表示制御装置。
  3. 前記制御手段は、
    前記タッチ検知手段でタッチ操作を検知してから前記第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を表示したまま前記第2の表手段を表示している状態において、
    前記近接検知手段で物体の近接を検知してから第2の所定時間を経過するまでに前記近接検知手段で物体の離間が検知されることに応じて、前記第1の表示手段を表示したまま前記第2の表手段を非表示にするように制御することを特徴とする請求項1または2に記載の表示制御装置。
  4. 前記制御手段は、
    前記第1の所定時間を経過するまでに前記タッチ検知手段でタッチ操作を検知してから前記近接検知手段で物体の近接を検知するまでの時間に基づいて、前記第2の所定時間を変更するように制御することを特徴とする請求項2または3に記載の表示制御装置。
  5. 該表示制御装置の姿勢情報および動き情報の少なくとも何れか一方を検出する検出手段を有し、
    前記制御手段は、
    前記検出手段で検出された該表示制御装置の姿勢情報および動き情報の少なくとも何れか一方に基づいて、前記第2の所定時間を変更するように制御することを特徴とする請求項2ないし4の何れか1項に記載の表示制御装置。
  6. 前記制御手段は、
    前記タッチ検知手段でタッチ操作を検知したときに前記第1の表示手段に表示される表示内容に基づいて、前記第2の所定時間を変更するように制御することを特徴とする請求項2ないし5の何れか1項に記載の表示制御装置。
  7. 該表示制御装置の姿勢情報を検出する検出手段を有し、
    前記制御手段は、
    前記第1の表示手段に対するタッチ操作の接触角度の情報を取得し、前記接触角度の情報および前記検出手段で検出された該表示制御装置の姿勢情報に基づいて、前記第2の所定時間を変更するように制御することを特徴とする請求項2ないし6の何れか1項に記載の表示制御装置。
  8. 前記制御手段は、
    前記近接検知手段で検知される物体までの距離に基づいて、前記第2の所定時間を変更するように制御することを特徴とする請求項2ないし7の何れか1項に記載の表示制御装置。
  9. 第1の表示手段に対するタッチ操作を検知するタッチ検知手段と、
    物体の近接を検知する近接検知手段と、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから第1の所定時間を経過した後に、前記近接検知手段において第1の所定距離以内に物体を検知している場合には前記第1の表示手段を非表示にし、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに、前記近接検知手段において前記第1の所定距離以内に物体を検知している場合であっても前記第1の表示手段を非表示にしないように制御する制御手段と、
    を有し、
    前記制御手段は、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに、前記近接検知手段において前記第1の所定距離よりも短い第2の所定距離以内に物体を検知している場合には前記第1の表示手段を非表示にするように制御することを特徴とする表示制御装置。
  10. 第1の表示手段に対するタッチ操作を検知するタッチ検知手段と、
    物体の近接を検知する近接検知手段と、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから第1の所定時間を経過した後に、前記近接検知手段で物体の近接を検知している場合には前記第1の表示手段を非表示にし、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに、前記近接検知手段で物体の近接を検知している場合には前記第1の表示手段を非表示にしないように制御する制御手段と、
    を有し、
    前記制御手段は、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知した後、前記第1の所定時間を経過するまで前記近接検知手段で物体の近接を継続して検知した場合には前記第1の表示手段を非表示にするように制御することを特徴とする表示制御装置。
  11. 前記制御手段は、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知したことに応じて、第2の表示手段の表示準備処理を開始して、その後、前記第1の所定時間を経過するまで前記近接検知手段で物体の近接を継続して検知した場合には前記第2の表示手段を表示するように制御することを特徴とする請求項10に記載の表示制御装置。
  12. 前記制御手段は、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知したことに応じて、第2の表示手段の表示準備処理を開始して、その後、前記近接検知手段で物体の近接を検知しなくなった場合には前記第2の表示手段の表示準備処理を終了するように制御することを特徴とする請求項10または11に記載の表示制御装置。
  13. 前記制御手段は、
    前記タッチ検知手段でタッチ操作を検知してから前記第1の所定時間を経過するまでの期間では、前記第1の所定時間を経過するまでの期間以外において前記近接検知手段で物体の近接を検知する場合に比べて、前記近接検知手段で物体の近接を検知され難くするように制御することを特徴とする請求項1ないし12の何れか1項に記載の表示制御装置。
  14. 前記制御手段は、
    前記タッチ検知手段でタッチ操作を検知してから前記第1の所定時間を経過するまでの期間では、前記近接検知手段において物体の近接を検知する距離の閾値を、前記第1の所定時間を経過するまでの期間以外の期間に比べて短くするように制御することを特徴とする請求項1ないし13の何れか1項に記載の表示制御装置。
  15. 前記制御手段は、
    前記タッチ検知手段でタッチ操作を検知してから前記第1の所定時間を経過するまでの経過時間に応じて、前記近接検知手段において物体の近接を検知する距離の閾値を長くするように制御することを特徴とする請求項1ないし14の何れか1項に記載の表示制御装置。
  16. 前記制御手段は、
    前記第1の表示手段を非表示にして、前記第2の表示手段を表示している状態で、前記近接検知手段で物体の離間が検知された場合には、前記タッチ検知手段でタッチ操作を検知してからの経過時間に関わらず、前記第1の表示手段を表示して、前記第2の表示手段を非表示にするように制御することを特徴とする請求項1ないし8、1112の何れか1項に記載の表示制御装置。
  17. 前記第2の表示手段は、ファインダ内に位置する表示手段であることを特徴とする請求項1ないし8、111216の何れか1項に記載の表示制御装置。
  18. 前記制御手段は、
    前記タッチ検知手段でタッチ操作を検知してからの経過時間に基づいて、前記近接検知手段において物体の近接を検知する距離の閾値を変更するように制御することを特徴とする請求項1ないし17の何れか1項に記載の表示制御装置。
  19. 該表示制御装置の姿勢情報および動き情報の少なくとも何れか一方を検出する検出手段を有し、
    前記制御手段は、
    前記検出手段で検出された該表示制御装置の姿勢情報および動き情報の少なくとも何れか一方に基づいて、前記近接検知手段において物体の近接を検知する距離の閾値を変更するように制御することを特徴とする請求項1ないし18の何れか1項に記載の表示制御装置。
  20. 前記制御手段は、
    前記タッチ検知手段でタッチ操作を検知したときに前記第1の表示手段に表示される表示内容に基づいて、前記近接検知手段において物体の近接を検知する距離の閾値を変更するように制御することを特徴とする請求項1ないし19の何れか1項に記載の表示制御装置。
  21. 該表示制御装置の姿勢情報を検出する検出手段を有し、
    前記制御手段は、
    前記第1の表示手段に対するタッチ操作の接触角度の情報を取得し、前記接触角度の情報および前記検出手段で検出された該表示制御装置の姿勢情報に基づいて、前記近接検知手段において物体の近接を検知する距離の閾値を変更するように制御することを特徴とする請求項1ないし20の何れか1項に記載の表示制御装置。
  22. 第1の表示手段に対するタッチ操作を検知するタッチ検知手段と、
    物体の近接を検知する近接検知手段と、を有する表示制御装置の制御方法であって、
    前記第1の表示手段に表示を行い、第2の表示手段を非表示にしている場合に、
    前記タッチ検知手段でタッチ操作を検知する前に前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を非表示にすると共に前記第2の表示手段での表示を開始し、
    前記第1の表示手段に表示を行い、前記第2の表示手段を非表示にしている場合に、
    前記タッチ検知手段でタッチ操作を検知してから第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知したことに応じて、前記第1の表示手段を表示したまま前記第2の表示手段での表示を開始するように制御する制御ステップを有することを特徴とする制御方法。
  23. 第1の表示手段に対するタッチ操作を検知するタッチ検知手段と、
    物体の近接を検知する近接検知手段と、を有する表示制御装置の制御方法であって、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから第1の所定時間を経過した後に、前記近接検知手段において第1の所定距離以内に物体を検知している場合には前記第1の表示手段を非表示にし、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに、前記近接検知手段において前記第1の所定距離以内に物体を検知している場合であっても前記第1の表示手段を非表示にしないように制御する制御ステップを有し、
    前記制御ステップは、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに、前記近接検知手段において前記第1の所定距離よりも短い第2の所定距離以内に物体を検知している場合には前記第1の表示手段を非表示にするように制御することを特徴とする制御方法。
  24. 第1の表示手段に対するタッチ操作を検知するタッチ検知手段と、
    物体の近接を検知する近接検知手段と、を有する表示制御装置の制御方法であって、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから第1の所定時間を経過した後に、前記近接検知手段で物体の近接を検知している場合には前記第1の表示手段を非表示にし、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに、前記近接検知手段で物体の近接を検知している場合には前記第1の表示手段を非表示にしないように制御する制御ステップを有し、
    前記制御ステップは、
    前記第1の表示手段に表示を行っている状態で前記タッチ検知手段により最後にタッチ操作を検知してから前記第1の所定時間を経過するまでに前記近接検知手段で物体の近接を検知した後、前記第1の所定時間を経過するまで前記近接検知手段で物体の近接を継続して検知した場合には前記第1の表示手段を非表示にするように制御することを特徴とする制御方法。
  25. コンピュータを、請求項1ないし21の何れか1項に記載された表示制御装置の制御手段として機能させるためのプログラム。
  26. コンピュータを、請求項1ないし21の何れか1項に記載された表示制御装置の制御手段として機能させるためのプログラムを記録したコンピュータが読取り可能な記録媒体。
JP2017130323A 2017-07-03 2017-07-03 表示制御装置、制御方法およびプログラム Active JP6910870B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017130323A JP6910870B2 (ja) 2017-07-03 2017-07-03 表示制御装置、制御方法およびプログラム
US16/019,663 US10531005B2 (en) 2017-07-03 2018-06-27 Display control apparatus, control method, and program
CN201810716006.7A CN109213414B (zh) 2017-07-03 2018-07-03 显示控制设备、控制方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017130323A JP6910870B2 (ja) 2017-07-03 2017-07-03 表示制御装置、制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2019015752A JP2019015752A (ja) 2019-01-31
JP6910870B2 true JP6910870B2 (ja) 2021-07-28

Family

ID=64735004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017130323A Active JP6910870B2 (ja) 2017-07-03 2017-07-03 表示制御装置、制御方法およびプログラム

Country Status (3)

Country Link
US (1) US10531005B2 (ja)
JP (1) JP6910870B2 (ja)
CN (1) CN109213414B (ja)

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004201104A (ja) * 2002-12-19 2004-07-15 Minolta Co Ltd 撮像装置
TWI435591B (zh) * 2006-10-17 2014-04-21 Marvell World Trade Ltd 用於蜂巢電話之顯示控制
US8416333B2 (en) * 2009-08-31 2013-04-09 Panasonic Corporation Imaging apparatus
JP5717510B2 (ja) * 2010-04-08 2015-05-13 キヤノン株式会社 撮像装置、その制御方法および記憶媒体
KR101248562B1 (ko) * 2010-08-25 2013-03-28 교세라 가부시키가이샤 휴대전화기 및 그 제어방법
JP5648844B2 (ja) * 2010-12-21 2015-01-07 ソニー株式会社 画像表示制御装置および画像表示制御方法
JP5813353B2 (ja) * 2011-04-05 2015-11-17 京セラ株式会社 携帯端末、表示装置、輝度制御方法及び輝度制御プログラム
JP2013105272A (ja) * 2011-11-11 2013-05-30 Canon Inc 表示制御装置及び表示制御方法、プログラム、並びに記憶媒体
JP2013196457A (ja) * 2012-03-21 2013-09-30 Aisin Aw Co Ltd 表示装置、表示方法、及び表示プログラム
JP2013232804A (ja) * 2012-04-27 2013-11-14 Fujitsu Ltd 端末装置、バックライト制御方法およびバックライト制御プログラム
JP2014006284A (ja) * 2012-06-21 2014-01-16 Nec Casio Mobile Communications Ltd 情報処理装置、情報処理方法およびプログラム
WO2014024366A1 (ja) * 2012-08-09 2014-02-13 パナソニック株式会社 携帯電子機器
JP6116336B2 (ja) * 2013-04-24 2017-04-19 三星電子株式会社Samsung Electronics Co.,Ltd. カメラ装置及びそれを備えた無線通信端末
JP6122355B2 (ja) * 2013-06-26 2017-04-26 京セラ株式会社 携帯端末装置
JP6149604B2 (ja) * 2013-08-21 2017-06-21 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP6316628B2 (ja) * 2014-03-19 2018-04-25 株式会社ファインウェル 携帯電話
JP6208609B2 (ja) * 2014-03-26 2017-10-04 京セラ株式会社 携帯端末装置、携帯端末装置の制御方法およびプログラム
WO2016105283A1 (en) * 2014-12-26 2016-06-30 Koc University Near-to-eye display device with moving light sources
JP6436802B2 (ja) * 2015-01-30 2018-12-12 キヤノン株式会社 表示制御装置及びその制御方法
JP6757140B2 (ja) * 2016-01-08 2020-09-16 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
JP6647103B2 (ja) * 2016-03-23 2020-02-14 キヤノン株式会社 表示制御装置およびその制御方法
DK179657B1 (en) * 2016-06-12 2019-03-13 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback
EP3509291B1 (en) * 2016-08-31 2022-09-07 Canon Kabushiki Kaisha Imaging control apparatus and method therefor

Also Published As

Publication number Publication date
CN109213414B (zh) 2022-06-17
CN109213414A (zh) 2019-01-15
JP2019015752A (ja) 2019-01-31
US20190007622A1 (en) 2019-01-03
US10531005B2 (en) 2020-01-07

Similar Documents

Publication Publication Date Title
US10165189B2 (en) Electronic apparatus and a method for controlling the same
US10992853B2 (en) Image capture control apparatus, display control apparatus, and control method for tracking a tracking target in a live view image
US11039073B2 (en) Electronic apparatus and method for controlling the same
KR20150130431A (ko) 제스처들을 이용한 터치 입력들의 향상
JP2013105272A (ja) 表示制御装置及び表示制御方法、プログラム、並びに記憶媒体
JP7433810B2 (ja) 電子機器、電子機器の制御方法、プログラム及び記憶媒体
JP7187190B2 (ja) 電子機器、および電子機器の制御方法、プログラム、記憶媒体
US10652442B2 (en) Image capturing apparatus with operation members provided on different sides, control method of the same, and storage medium
JP6910870B2 (ja) 表示制御装置、制御方法およびプログラム
JP7317559B2 (ja) 電子機器
JP6765901B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP6765902B2 (ja) 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
JP7336266B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP7129244B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
US10924680B2 (en) Image capture control apparatus and method of controlling the same
JP6708516B2 (ja) 電子装置、その制御方法およびプログラム
US20210127054A1 (en) Electronic device and control method thereof
JP7450408B2 (ja) 電子機器、その制御方法、プログラム及び記憶媒体
JP7210158B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記録媒体
JP2021085979A (ja) 電子機器及びその制御方法、プログラム、記憶媒体
JP5840256B2 (ja) 電子機器およびその制御方法、プログラム並びに記憶媒体
JP2022095264A (ja) 表示制御装置及びその制御方法
JP2022172840A (ja) 電子機器、電子機器の制御方法、プログラム、及び記憶媒体
JP2020027349A (ja) 表示制御装置、表示制御方法、プログラム及び記憶媒体
JP2021068168A (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210707

R151 Written notification of patent or utility model registration

Ref document number: 6910870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151