JP2013037628A - Display device and control method therefor - Google Patents
Display device and control method therefor Download PDFInfo
- Publication number
- JP2013037628A JP2013037628A JP2011175183A JP2011175183A JP2013037628A JP 2013037628 A JP2013037628 A JP 2013037628A JP 2011175183 A JP2011175183 A JP 2011175183A JP 2011175183 A JP2011175183 A JP 2011175183A JP 2013037628 A JP2013037628 A JP 2013037628A
- Authority
- JP
- Japan
- Prior art keywords
- instruction
- unit
- button
- display
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、特に、タッチパネルを搭載した表示装置、表示装置の制御方法及びプログラムに関する。 The present invention particularly relates to a display device equipped with a touch panel, a control method for the display device, and a program.
近年、携帯電話やデジタルカメラなどのデジタル機器のユーザーインターフェースとして、タッチパネルを利用した製品が数多く開発されている。これらの製品は、タッチパネルをLCDなどの表示装置上に重ねることにより、LCDに表示された画面へ直接触ることによって操作できるため、直感的でわかりやすい操作を行うことができる。 In recent years, many products using touch panels have been developed as user interfaces for digital devices such as mobile phones and digital cameras. Since these products can be operated by directly touching the screen displayed on the LCD by overlaying a touch panel on a display device such as an LCD, an intuitive and easy-to-understand operation can be performed.
ところが、タッチパネルを用いたボタン操作では、従来の物理的なボタンと異なり、物理的な境界が無くフラットになっているため、指先の感覚でボタンを識別して物理的に押し込むような触覚的なボタン操作ができない。また、画面をタッチしようとすると、指によって画面の一部が隠れてしまい、ユーザはボタンを押したつもりでいても、ボタンから外れた場所をタッチしてしまうことがある。 However, unlike conventional physical buttons, button operations using a touch panel are flat with no physical boundaries. The buttons cannot be operated. In addition, when trying to touch the screen, a part of the screen is hidden by a finger, and the user may touch a place off the button even though he intends to press the button.
そこで、ユーザの操作性を向上させるために、様々な技術が提案されている。例えば特許文献1には、ポインティングデバイスの操作からポインタの移動方向を判定し、判定した方向にあるウィンドウの表示レイアウトを変更して拡大表示する技術が開示されている。また、特許文献2には、ユーザの視線方向に対してタッチパネルの表示画面においてタッチ可能なオブジェクトの反応領域を拡大する技術が開示されている。
Therefore, various techniques have been proposed to improve user operability. For example, Patent Literature 1 discloses a technique for determining a moving direction of a pointer from an operation of a pointing device, and changing and displaying an enlarged display layout of a window in the determined direction.
しかしながら、特許文献1に記載された技術においては、ポインティングデバイスによってオブジェクトを操作する際に、目的となるウィンドウが拡大されると、そのスペースに表示されていた他の表示が隠れてしまうことがある。このため、表示する必要のあるオブジェクトが間に存在する場合には適用できない。 However, in the technique described in Patent Document 1, when a target window is enlarged when an object is operated with a pointing device, other displays displayed in the space may be hidden. . For this reason, it cannot be applied when there is an object that needs to be displayed.
また、特許文献2に記載された技術は、車両に搭載するナビゲーション装置のように、操作するユーザの視線と表示装置との位置関係が原則として常に一定の関係にある場合に有効である。ところが、携帯電話やデジタルカメラなどのような情報機器では、ユーザの持ち方によって視線と表示装置との位置関係が変化する。このため、視線方向が変化した場合には対応することができない。
Moreover, the technique described in
本発明は前述の問題点に鑑み、ユーザによる操作状況に応じてタッチパネルの操作性を向上できるようにすることを目的としている。 The present invention has been made in view of the above-described problems, and an object of the present invention is to improve the operability of a touch panel according to an operation situation by a user.
本発明の表示装置は、処理を指示するための複数のオブジェクトを表示部に表示する表示制御手段と、前記表示部と一体化されたタッチパネルを介して前記オブジェクトに対する指示を検出する検出手段と、前記検出手段により前記オブジェクトに対する指示と検出する反応領域を設定する設定手段とを備え、前記設定手段は、前記検出手段により1つのオブジェクトに対する指示が検出された場合に、前記指示が検出されたオブジェクトに応じて前記表示部に表示される他のオブジェクトに対する指示を検出する反応領域を変更することを特徴とする。 The display device of the present invention includes a display control unit that displays a plurality of objects for instructing processing on a display unit, a detection unit that detects an instruction for the object via a touch panel integrated with the display unit, An instruction for the object by the detecting means and a setting means for setting a reaction area to be detected, and the setting means detects an object for which the instruction is detected when an instruction for one object is detected by the detecting means. Accordingly, the reaction area for detecting an instruction to another object displayed on the display unit is changed.
本発明によれば、オブジェクトの操作によって反応領域が変化し、ユーザによる操作状況に応じてタッチパネルの操作性を向上させることができる。 According to the present invention, the reaction area is changed by the operation of the object, and the operability of the touch panel can be improved according to the operation state by the user.
以下、本発明の実施形態について、図面を参照しながら説明する。
(第1の実施形態)
図1は、本実施形態に係るデジタルビデオカメラ100の構成例を示すブロック図である。
図1において、CPU101、内蔵記録メディア102、メモリ103、表示制御部104、入力部105、外部メディア入出力部106及び信号処理部109が内部バス111により接続されている。内部バス111に接続されている各部は、内部バス111を介して互いにデータのやりとりを行うことができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration example of a
In FIG. 1, a
CPU101は、デジタルビデオカメラ100の各部を制御する。内蔵記録メディア102には、画像データやその他のデータ、CPU101が動作するための各種プログラムなどが格納されている。メモリ103は、例えばDRAMやSRAMにより構成されており、CPU101が内蔵記録メディア102に格納されているプログラムに従って動作する際にワークメモリとして用いられる。なお、CPU101が動作するためのプログラムは、内蔵記録メディア102に限らず、例えば図示されないROMに予め格納されているようにしてもよい。
The
入力部105は、ユーザによる操作を受け付け、操作に応じた制御信号を生成してCPU101に送る。例えば、入力部105は、入力デバイスとしてタッチパネルや、電源ボタン、ズームレバー、シャッターボタンなどからの入力を受け付ける。また、タッチパネルは、例えば平面的に構成された入力部に対して接触された位置に応じた座標情報が出力されるようにした入力デバイスである。タッチパネルは表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、いずれの方式を用いてもよい。
The
CPU101は、入力デバイスに対してなされたユーザの操作に応じて入力部105で生成されて供給される制御信号に基づき、プログラムに従ってデジタルビデオカメラ100の各部を制御する。これにより、デジタルビデオカメラ100において、ユーザの操作に応じた動作を行うことができる。
The
表示制御部104は、表示部であるディスプレイ110に対して画像を表示させるための表示信号を出力する。例えば、表示制御部104は、CPU101がプログラムに従って生成した表示制御信号が供給されると、この表示制御信号に基づき表示信号を生成してディスプレイ110に出力する。具体的には、表示制御部104は、GUI(Graphical User Interface)を構成するGUIを表示させる。さらに、撮像部107で被写体が撮像され、信号処理部109によって電気信号に変換された画像データに係る画像等をディスプレイ110に表示させる。
The
なお、ディスプレイ110は、LCDにより構成されており、前述したタッチパネルは、ディスプレイ110と一体化して構成することができる。例えば、光の透過率によりディスプレイ110の表示を妨げないようにタッチパネルを構成し、ディスプレイ110の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、ディスプレイ110上の表示座標とを対応付ける。これにより、ユーザがディスプレイ110上に表示された画面を直接的に操作可能なGUIを構成することができる。
The
外部メディア入出力部106は、SDカードなどの外部記録媒体108を装着することができ、CPU101の制御に基づき、装着された外部記録媒体108からデータを読み出したり、外部記録媒体108にデータを書き込んだりする。なお、外部メディア入出力部106が装着可能な外部記録媒体108は、SDカードに限らず、他の不揮発性の半導体メモリやハードディスクドライブ、テープメディアやCDやDVD、BDなどのディスクメディアであってもよい。
The external media input /
撮像部107は、フォーカスレンズを含むカメラレンズや絞り、シャッターなどの光学像を結像する結像装置と、結像された光学像を映像信号に変換するCMOSセンサーやCCDなどの映像信号変換装置とを備えている。また、撮像部107は、音声を入力して音声信号に変換するマイクも備えている。
The
信号処理部109は、撮像部107で変換された映像信号に対して、CPU101の制御に基づいてホワイトバランスなど画像を調整したり、撮像部107のシャッター速度や絞りを変更して露出を調整したりする。そして、MPEG2あるいはH.264などの符号化形式により映像信号を圧縮し、メモリ103を介して内蔵記録メディア102に記録したり、外部メディア入出力部106により外部記録媒体108に記録したりする。また、信号処理部109は、音声信号における音量の調整も行い、所定の符号化形式により音声信号を圧縮する。そして、映像信号とともに音声信号が記録される。
The
図2は、図1に示したデジタルビデオカメラ100の外観構成例を示す概略図である。
図2(a)において、電源スイッチ201、ズームバー202、トリガーボタン203、ディスプレイ204に搭載されているタッチパネル、及びモード切替ボタン205は、入力部105を構成する部材である。電源スイッチ201は、本実施形態のデジタルビデオカメラ100の主電源スイッチであり、主電源をON/OFFするためのボタンである。ズームバー202は、撮像部107を構成する図2(b)に示すカメラ部207のズームレンズを操作し、画角を連続的に変更するためのバーである。
FIG. 2 is a schematic diagram showing an external configuration example of the
In FIG. 2A, the
トリガーボタン203は、撮影開始または停止を指示するボタンであり、非撮影時にトリガーボタン203が押されると撮影が開始され、撮影時に押されると撮影が停止する。モード切替ボタン205は、カメラ撮影モードと再生モードとを切り替えるためのボタンであり、デジタルビデオカメラ100がカメラ撮影モードである時には再生モードに切り替え、再生モードである時にはカメラ撮影モードに切り替える。
The
ディスプレイ204は、LCD上に入力部105であるタッチパネルが張り合わさって構成されている。また、タッチパネルは、ディスプレイ110のLCDに表示される画像に対して、視覚的に障害とならない透過率のパネルが用いられている。外部メディア挿入部206には、SDカードなどの外部記録媒体108が挿入され、外部メディア入出力部106によって画像や音声などの情報が外部記録媒体108に記録される。
The
また、図2(b)において、カメラ部207及びマイク部208はそれぞれ、撮像部107を構成する部材である。カメラ部207は、ズームレンズ、フォーカスレンズ、絞り、CMOSセンサーなどで構成され、光学像を結像し、CMOSセンサーによって結像された光学像を電気信号に変換する。また、マイク部208は、音声を入力して音声信号に変換する。
In FIG. 2B, the
以下、本実施形態では、デジタルビデオカメラ100のタッチパネルで割り当てられる機能がボタンの操作によって変化する場合に、反応領域が拡大したり縮小したりする例について説明する。
図3及び図4は、カメラ機能の設定を選択する画面(以下、カメラ機能選択画面)において、タッチパネルが操作されたときの処理手順の一例を示すフローチャートである。なお、図3及び図4に示す各処理は、CPU101の制御により行われる。
Hereinafter, in the present embodiment, an example in which the reaction area is enlarged or reduced when the function assigned on the touch panel of the
3 and 4 are flowcharts illustrating an example of a processing procedure when a touch panel is operated on a screen for selecting setting of a camera function (hereinafter, camera function selection screen). Each process shown in FIGS. 3 and 4 is performed under the control of the
まず、ユーザによりデジタルビデオカメラ100が操作され、カメラ機能選択画面を表示させる指示を受けると、処理を開始する。そして、ステップS301において、表示制御部104により画面上にMENUボタン、SHIFTボタン、AFボタン、AEボタン、WBボタン、及び閉じるボタンが表示されたカメラ機能選択画面をディスプレイ110に表示する。
First, when the user operates the
図6(a)は、ステップS301において表示されるカメラ機能選択画面の一例を模式的に表した図である。
図6(a)において、カメラ機能選択画面上には、オブジェクトとしてタッチパネルによる操作が可能な6つのボタンと、背景画として撮影画像とが表示される。撮影画像が表示されている位置にタッチ操作されると、該当する座標に対してAF及びAEを適当な値に設定することができる。
FIG. 6A is a diagram schematically illustrating an example of the camera function selection screen displayed in step S301.
In FIG. 6A, on the camera function selection screen, six buttons that can be operated with a touch panel as objects and a captured image as a background image are displayed. When a touch operation is performed at a position where a captured image is displayed, AF and AE can be set to appropriate values for the corresponding coordinates.
MENUボタン601は、デジタルビデオカメラ100のメニュー画面へ遷移するためのボタンである。メニュー画面では、例えば、外部記録媒体108の初期化処理などを選択することができる。閉じるボタン602は、カメラ機能選択画面の表示を終了し、通常のカメラ撮影画面へ戻るためのボタンである。AFボタン604は、AF調整画面へ遷移するためのボタンである。AF調整画面では、例えばオートフォーカスモードとマニュアルフォーカスモードとを切り替えることができ、マニュアルフォーカスモードでは、焦点距離をマニュアルで設定することができる。
The
AEボタン605は、AE調整画面へ遷移するためのボタンである。AE調整画面では、例えば絞りやシャッター速度を調整してデジタルビデオカメラ100の露出設定を変更することができる。WBボタン606は、WB調整画面へ遷移するためのボタンである。WB調整画面では、色温度設定を太陽光や電球といった光源に合わせた値に設定することができる。SHIFTボタン603は、前述したAFボタン604、AEボタン605、及びWBボタン606に割り当てられている機能を切り替えるためのボタンであり、SHIFTボタン603がタッチされると、図6(b)に示す画面に切り替わる。
The
図6(b)に示すカメラ機能選択画面では、AFボタン604がMICボタン607に置き換わり、AEボタン605がEXPボタン608に置き換わる。さらに、WBボタン606がEFFECTボタン609に置き換わり、閉じるボタン602が戻るボタン610に置き換わる。このとき、SHIFTボタン603については、選択された状態が識別できるように色を変化させる。
In the camera function selection screen shown in FIG. 6B, the
MICボタン607は、マイク部208から入力される音声の音量を調整するMIC調整画面へ遷移するためのボタンである。EXPボタン608は、露出の補正値を設定する露出補正設定画面へ遷移するためのボタンである。露出補正設定画面では、AEにより自動露出される際に、基準値に対してより明るく露出するかより暗く露出するかを設定することができる。
The
EFFECTボタン609は、エフェクト処理設定画面へ遷移するためのボタンである。エフェクト処理設定画面では、例えばフェードインやワイプ、モザイク処理など、撮影画像に対してエフェクトをかけることができる。戻るボタン610は、図6(a)に示したカメラ機能選択画面に戻るためのボタンである。
The
図3の説明に戻り、次に、ステップS302において、CPU101は設定手段として機能し、ステップS301で表示された各ボタンに対して、標準の反応領域を設定する。
Returning to the description of FIG. 3, in step S302, the
図7は、カメラ機能選択画面に表示される各ボタンに設定される反応領域を示す図である。
図7に示すように、カメラ機能選択画面に表示される各ボタンには、それぞれ反応領域701〜706が設定される。なお、図7に示す反応領域701〜706については、表示されないものとする。
FIG. 7 is a diagram showing a reaction area set for each button displayed on the camera function selection screen.
As shown in FIG. 7,
次に、ステップS303において、CPU101は検出手段として機能し、タッチ検出処理を行う。ここで、タッチ検出処理の詳細について説明する。
Next, in step S303, the
図5は、図3のステップS303におけるタッチ検出処理の詳細な手順の一例を示すフローチャートである。
まず、ステップS501において、ディスプレイ204のタッチパネルに対してタッチされているか否かを判定する。この判定の結果、タッチされていない場合はステップS506へ遷移し、タッチされている場合はステップS502へ遷移する。
FIG. 5 is a flowchart showing an example of a detailed procedure of the touch detection process in step S303 of FIG.
First, in step S501, it is determined whether or not the touch panel of the
ステップS502においては、タッチの位置を検出する。そして、ステップS503において、ステップS502で検出されたタッチの位置が、図7に示した反応領域701〜706内であるか否かを判定する。この判定の結果、タッチの位置が反応領域701〜706内である場合は、ステップS504において、該当する反応領域が設定されているボタンを選択状態に設定する。
In step S502, the touch position is detected. In step S503, it is determined whether or not the touch position detected in step S502 is within the
一方、ステップS503の判定の結果、タッチの位置が反応領域701〜706の外側である場合は、ステップS505へ遷移する。そして、ステップS505において、背景画として表示されている撮影画像に対してタッチされたと判定し、背景画を選択状態に設定する。そして、ステップS506において、選択状態に設定されていないボタン(及び背景画)を非選択状態として設定し、タッチ検出処理を終了する。
On the other hand, as a result of the determination in step S503, if the touch position is outside the
図3の説明に戻り、次に、ステップS304において、ステップS303のタッチ検出処理によりSHIFTボタン603が選択状態に設定されているか否かを判定する。この判定の結果、SHIFTボタン603が選択状態に設定されている場合は、図4のステップS401へ遷移し、そうでない場合は、ステップS305へ遷移する。
Returning to the description of FIG. 3, next, in step S304, it is determined whether or not the
次に、ステップS305において、ステップS303のタッチ検出処理によりAFボタン604が選択状態に設定されているか否かを判定する。この判定の結果、AFボタン604が選択状態に設定されている場合は、ステップS307へ遷移し、そうでない場合はステップS308へ遷移する。そして、ステップS307においては、表示制御部104によりAF調整画面へ画面を遷移させ、カメラ機能選択画面における処理を終了する。
Next, in step S305, it is determined whether or not the
ステップS308においては、ステップS303のタッチ検出処理によりAEボタン605が選択状態に設定されているか否かを判定する。この判定の結果、AEボタン605が選択状態に設定されている場合は、ステップS309へ遷移し、そうでない場合はステップS310へ遷移する。そして、ステップS309においては、表示制御部104によりAE調整画面へ画面を遷移させ、カメラ機能選択画面における処理を終了する。
In step S308, it is determined whether or not the
ステップS310においては、ステップS303のタッチ検出処理によりWBボタン606が選択状態に設定されているか否かを判定する。この判定の結果、WBボタン606が選択状態に設定されている場合は、ステップS311へ遷移し、そうでない場合はステップS312へ遷移する。そして、ステップS311においては、表示制御部104によりWB調整画面へ画面を遷移させ、カメラ機能選択画面における処理を終了する。
In step S310, it is determined whether or not the
ステップS312においては、ステップS303のタッチ検出処理によりMENUボタン601が選択状態に設定されているか否かを判定する。この判定の結果、MENUボタン601が選択状態に設定されている場合は、ステップS313へ遷移し、そうでない場合はステップS314へ遷移する。そして、ステップS313においては、表示制御部104によりMENU画面へ画面を遷移させ、カメラ機能選択画面を終了する。
In step S312, it is determined whether or not the
ステップS314においては、ステップS303のタッチ検出処理により閉じるボタン602が選択状態に設定されているか否かを判定する。この判定の結果、閉じるボタン602が選択状態に設定されている場合は、ステップS315へ遷移し、そうでない場合はステップS316へ遷移する。そして、ステップS315においては、表示制御部104によりカメラ記録画面へ遷移させ、カメラ機能選択画面における処理を終了する。
In step S314, it is determined whether or not the
ステップS316においては、ステップS303のタッチ検出処理により背景画が選択状態に設定されているか否かを判定する。この判定の結果、背景画が選択状態に設定されている場合は、ステップS317へ遷移し、そうでない場合はステップS303へ戻り、タッチ検出処理を再度行う。そして、ステップS317においては、背景画の選択された位置に対して、AE及びAFの値が適当な数値になるようにカメラ部207の設定を変更する。
In step S316, it is determined whether or not the background image is set to the selected state by the touch detection process in step S303. As a result of this determination, if the background image is set to the selected state, the process proceeds to step S317, and if not, the process returns to step S303 and the touch detection process is performed again. In step S317, the setting of the
ステップS304の判定の結果、SHIFTボタン603が選択状態に設定されている場合は、図4のステップS401において、表示制御部104によりボタンの変更処理を行う。具体的には、AFボタン604をMICボタン607に変更し、AEボタン605をEXPボタン608に変更する。さらに、WBボタン606をEFFECTボタン609に変更し、閉じるボタン602を戻るボタン610に変更する。
If the
次に、ステップS402において、MICボタン607、EXPボタン608、EFFECTボタン609、及び戻るボタン610の反応領域を拡大し、MENUボタン601の反応領域を縮小させる。これにより、各ボタンの反応領域は、図8(a)に示す破線801で示された領域から、図8(b)に示す破線802で示された領域へ変更される。
In step S402, the reaction area of the
SHIFTボタン603がタッチされた場合は、ユーザは画面に表示されていなかった選択項目を選択する可能性が高い。したがって、新たに表示されたMICボタン607、EXPボタン608及びEFFECTボタン609のうち、何れかのボタンがタッチされる可能性が高いため、本実施形態ではこれらのボタンの反応領域を拡大する。また、ユーザが目的とするボタンが、新たに表示されたボタンの中に含まれていない可能性もある。したがって、戻るボタン610についても反応領域を拡大する。
When the
一方、MENUボタン601は、SHIFTボタン603をタッチしなくても選択することができるボタンであるため、ユーザによってタッチされる可能性は低い。したがって、MENUボタン601の反応領域を縮小する。このように本実施形態では、CPU101は選択手段として機能し、反応領域を拡大するボタンと、反応領域を小さくするボタンとを選択するようにしている。
On the other hand, since the
次に、ステップS403において、ステップS303と同様の手順により図5に示したタッチ検出処理を行う。そして、ステップS404において、ステップS403のタッチ検出処理によりMICボタン607が選択状態に設定されているか否かを判定する。この判定の結果、MICボタン607が選択状態に設定されている場合はステップS405へ遷移し、そうでない場合はステップS406へ遷移する。そして、ステップS405においては、表示制御部104によりMIC調整画面へ画面を遷移させ、カメラ機能選択画面における処理を終了する。
Next, in step S403, the touch detection process shown in FIG. 5 is performed by the same procedure as in step S303. In step S404, it is determined whether or not the
ステップS406においては、ステップS403のタッチ検出処理によりEXPボタン608が選択状態に設定されているか否かを判定する。この判定の結果、EXPボタン608が選択状態に設定されている場合はステップS407へ遷移し、そうでない場合はステップS408へ遷移する。そして、ステップS407においては、表示制御部104によりEXP調整画面へ画面を遷移させ、カメラ機能選択画面における処理を終了する。
In step S406, it is determined whether or not the
ステップS408においては、ステップS403のタッチ検出処理によりEFFECTボタン609が選択状態に設定されているか否かを判定する。この判定の結果、EFFECTボタン609が選択状態に設定されている場合はステップS410へ遷移し、そうでない場合はステップS409へ遷移する。そして、ステップS409においては、表示制御部104によりEFFECT選択画面へ画面を遷移させ、カメラ機能選択画面における処理を終了する。
In step S408, it is determined whether or not the
ステップS410においては、ステップS403のタッチ検出処理により戻るボタン610が選択状態に設定されているか否かを判定する。この判定の結果、戻るボタン610が選択状態に設定されている場合はステップS411へ遷移し、そうでない場合はステップS403へ戻る。そして、ステップS411においては、図6(b)に示す状態から図6(a)に示す状態へ表示制御部104によりボタンの変更処理を行う。具体的には、MICボタン607をAFボタン604に変更し、EXPボタン608をAEボタン605に変更する。そして、EFFECTボタン609をWBボタン606に変更し、戻るボタン610を閉じるボタン602に変更する。このとき、SHIFTボタン603の選択状態を解除する。
In step S410, it is determined whether or not the
以上の処理を行うことによって、特定のボタンを選択した後にのみ選択可能なボタンや、特定のボタンを選択した後で機能が変化するボタンについては、タッチの反応領域を広げ、一方、表示されたままのボタンについては反応領域を狭めるようにした。これにより、ユーザが次に操作すると予想されるボタンに対してタッチの操作性を向上させることができる。また、反応領域のみを拡大することにより、ボタンを拡大することによって撮影画像などの背景画像が隠れてしまうことを防止するとともに、操作性を向上させることができる。また、例えばタッチパネルを指で操作するような場合には、SHIFTボタンをタッチしている指から近い位置に反応領域が存在するようになるため、操作性をより向上させることができる。 By performing the above processing, for buttons that can be selected only after selecting a specific button, or for buttons whose functions change after a specific button is selected, the touch response area is expanded and displayed. The reaction area of the remaining buttons was narrowed. Thereby, the operativity of a touch can be improved with respect to the button expected to be operated next by the user. Further, by enlarging only the reaction region, it is possible to prevent a background image such as a captured image from being hidden by enlarging the button, and to improve operability. Further, for example, when the touch panel is operated with a finger, the reaction region is present at a position close to the finger touching the SHIFT button, so that the operability can be further improved.
なお、本実施形態では、SHIFTボタン603がタッチされ、図6(b)に示すカメラ機能選択画面が表示されているときに背景画がタッチされた場合も、図3のステップS317と同様に、AE及びAFの値を適当な数値に設定するようにしてもよい。
In the present embodiment, when the
(第2の実施形態)
本実施形態では、第1の実施形態における処理で、さらにボタンがタッチされたときの検出のズレを用いて反応領域の拡大する量を決定する例について説明する。なお、本実施形態に係るデジタルビデオカメラの構成については、図1及び図2と同様であるため、説明は省略する。また、カメラ機能選択画面においてタッチパネルが操作されたときの処理手順については、図4のステップS402の代わりに、後述する図9のステップS901及びS902の処理が行われる点が異なっている。以下、第1の実施形態と異なる点についてのみ説明する。
(Second Embodiment)
In the present embodiment, an example will be described in which, in the processing in the first embodiment, the amount of enlargement of the reaction region is determined using a detection shift when the button is further touched. The configuration of the digital video camera according to the present embodiment is the same as that shown in FIGS. Also, the processing procedure when the touch panel is operated on the camera function selection screen is different in that processing in steps S901 and S902 in FIG. 9 described later is performed instead of step S402 in FIG. Only differences from the first embodiment will be described below.
図9は、本実施形態において、SHIFTボタン603が選択状態に設定されている場合にタッチパネルが操作されたときの処理手順の一例を示すフローチャートである。なお、図9に示す各処理はCPU101の制御により行われる。
ステップS901においては、タッチを検出した位置とSHIFTボタン603の中心位置とのズレ量及びズレ方向を検出する。
FIG. 9 is a flowchart illustrating an example of a processing procedure when the touch panel is operated when the
In step S901, a displacement amount and a displacement direction between the position where the touch is detected and the center position of the
図10は、SHIFTボタン603の中心位置及びズレ量を説明する図である。
図10において、SHIFTボタン1001がスタイラスペン1003などによりタッチされ、座標1004でタッチが検出された場合、CPU101は中心位置1002からのズレ量及びズレ方向を示すベクトル1005を検出する。
FIG. 10 is a diagram for explaining the center position and the shift amount of the
In FIG. 10, when the
次に、ステップS902において、MICボタン607、EXPボタン608、EFFECTボタン609、及び戻るボタン610の反応領域を拡大し、MENUボタン601の反応領域を縮小する。以下、このときの反応領域の拡大方法について図11を参照しながら説明する。
In step S902, the reaction area of the
図11は、MICボタン607の反応領域を拡大する様子を説明する図である。
図11において、MICボタン607に対して標準の反応領域1101が設定されている。この標準の反応領域1101に対して、ステップS901で算出したSHIFTボタン603の中心からのズレ量及びズレ方向を示すベクトル1005に従って拡大した反応領域1102をMICボタン607の反応領域として設定する。本実施形態では、中心位置から左上側へタッチの位置がずれているため、反応領域の左上側を拡大している。
FIG. 11 is a diagram for explaining how the reaction region of the
In FIG. 11, a
図12は、カメラ機能選択画面において、反応領域を拡大する様子を説明する図である。
図12に示すように、SHIFTボタン603の中心からのズレ量及びズレ方向を示すベクトル1005に従い、EXPボタン608についても同様に、標準の反応領域1201を拡大した反応領域1202に設定する。そして、EFFECTボタン609についても、標準の反応領域1203を拡大した反応領域1204に設定し、戻るボタン610についても、標準の反応領域1205を拡大した反応領域1206に設定する。ただし、戻るボタン610の反応領域1206は、一部がタッチパネルからはみ出しており、タッチパネルの外側をタッチ操作することは不可能であるため、タッチパネルの範囲内である斜線部1207を反応領域として設定する
FIG. 12 is a diagram for explaining how the reaction area is enlarged on the camera function selection screen.
As shown in FIG. 12, in accordance with a
以上のように本実施形態によれば、SHIFTボタン603という特定のボタンが選択された時に、中心位置からのズレ量及びズレ方向を検出し、ズレ量に応じて反応領域をズレ方向に拡大する。これにより、ユーザが次に操作すると予想されるボタンに対して、同様のタッチ操作のズレを考慮して、タッチ操作の操作性を向上させることができる。
As described above, according to the present embodiment, when a specific button called the
なお、本実施形態では、直前の1回のタッチ操作におけるズレから座標の誤差を算出したが、過去の複数回のタッチ操作のズレを元に算出してもよい。その場合、誤差の平均値や中間値などからズレ量を算出してもよく、算出方法は何でもよい。 In the present embodiment, the coordinate error is calculated from the shift in the last single touch operation. However, the coordinate error may be calculated based on the shift of the past multiple touch operations. In that case, the amount of deviation may be calculated from the average value or intermediate value of errors, and any calculation method may be used.
また、本実施形態では、算出したズレ量をそのまま適用して反応領域を拡大したが、適当な比率を用いて反応領域を拡大してもよい。また、算出されるズレ量により反応領域を拡大する際に、隣接する反応領域と重ならないように拡大に上限を設けてもよい。 In the present embodiment, the reaction area is expanded by applying the calculated shift amount as it is, but the reaction area may be expanded using an appropriate ratio. Further, when the reaction region is expanded by the calculated amount of deviation, an upper limit may be provided for the expansion so as not to overlap with the adjacent reaction region.
(その他の実施形態)
以上説明した実施形態では、好適な例としてデジタルビデオカメラのカメラ機能選択画面について説明したが、本発明はこれに限らず、デジタルビデオカメラの他の機能を持つ画面についても適用することができる。さらに、携帯電話やデジタルスチルカメラ、カーナビゲーションシステム、デジタルフォトフレームなど、タッチパネルを用いたあらゆる表示装置において同様に適用することができる。また、本発明はマルチタッチのタッチパネルにおいても適応することができる。
(Other embodiments)
In the embodiment described above, the camera function selection screen of the digital video camera has been described as a preferred example. However, the present invention is not limited to this, and can be applied to a screen having other functions of the digital video camera. Furthermore, the present invention can be similarly applied to any display device using a touch panel such as a mobile phone, a digital still camera, a car navigation system, and a digital photo frame. The present invention can also be applied to a multi-touch touch panel.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
101 CPU
104 表示制御部
105 入力部
110 ディスプレイ
101 CPU
104
Claims (9)
前記表示部と一体化されたタッチパネルを介して前記オブジェクトに対する指示を検出する検出手段と、
前記検出手段により前記オブジェクトに対する指示と検出する反応領域を設定する設定手段とを備え、
前記設定手段は、前記検出手段により1つのオブジェクトに対する指示が検出された場合に、前記指示が検出されたオブジェクトに応じて前記表示部に表示される他のオブジェクトに対する指示を検出する反応領域を変更することを特徴とする表示装置。 Display control means for displaying a plurality of objects for instructing processing on the display unit;
Detecting means for detecting an instruction to the object via a touch panel integrated with the display unit;
An instruction for the object by the detection means and a setting means for setting a reaction area to be detected;
The setting unit changes a reaction area for detecting an instruction for another object displayed on the display unit according to the object for which the instruction is detected when an instruction for the one object is detected by the detection unit. A display device characterized by:
前記設定手段は、前記検出手段により指示が検出された場合に、前記選択手段により選択されたオブジェクトに対する指示を検出する反応領域を拡大することを特徴とする請求項1に記載の表示装置。 A selection unit that selects an object whose reaction area is changed by the setting unit according to an object whose instruction is detected by the detection unit;
The display device according to claim 1, wherein when the instruction is detected by the detection unit, the setting unit expands a reaction region for detecting an instruction for the object selected by the selection unit.
前記設定手段は、前記表示制御手段によって切り替えられたオブジェクトに対する指示を検出する反応領域を拡大することを特徴とする請求項1または2に記載の表示装置。 The display control means switches an object to be displayed according to an object whose instruction is detected by the detection means,
The display device according to claim 1, wherein the setting unit expands a reaction area for detecting an instruction for the object switched by the display control unit.
前記設定手段は、前記算出手段によって算出されたズレ方向へ前記ズレ量に応じて反応領域を拡大することを特徴とする請求項1〜4の何れか1項に記載の表示装置。 A calculation means for calculating a deviation amount and a deviation direction between the center position of the object for which the instruction is detected by the detection means and the position for which the instruction for the object is detected;
5. The display device according to claim 1, wherein the setting unit expands a reaction region in the shift direction calculated by the calculation unit in accordance with the shift amount.
前記表示制御手段は、前記複数のオブジェクトとともに、前記撮像手段によって生成された画像データに係る画像を前記表示部に表示することを特徴とする請求項1〜6の何れか1項に記載の表示装置。 It further comprises imaging means for imaging a subject and generating image data,
The display according to claim 1, wherein the display control unit displays an image related to the image data generated by the imaging unit together with the plurality of objects on the display unit. apparatus.
前記表示部と一体化されたタッチパネルを介して前記オブジェクトに対する指示を検出する検出工程と、
前記検出工程において前記オブジェクトに対する指示と検出する反応領域を設定する設定工程とを備え、
前記設定工程においては、前記検出工程において1つのオブジェクトに対する指示が検出された場合に、前記指示が検出されたオブジェクトに応じて前記表示部に表示される他のオブジェクトに対する指示を検出する反応領域を変更することを特徴とする表示装置の制御方法。 A display control step of displaying a plurality of objects for instructing processing on the display unit;
A detection step of detecting an instruction to the object via a touch panel integrated with the display unit;
An instruction for the object and a setting step for setting a reaction area to be detected in the detection step;
In the setting step, when an instruction for one object is detected in the detection step, a reaction area for detecting an instruction for another object displayed on the display unit according to the object for which the instruction is detected is provided. A control method for a display device, wherein the display device is changed.
前記表示部と一体化されたタッチパネルを介して前記オブジェクトに対する指示を検出する検出工程と、
前記検出工程において前記オブジェクトに対する指示と検出する反応領域を設定する設定工程とをコンピュータに実行させ、
前記設定工程においては、前記検出工程において1つのオブジェクトに対する指示が検出された場合に、前記指示が検出されたオブジェクトに応じて前記表示部に表示される他のオブジェクトに対する指示を検出する反応領域を変更することを特徴とするプログラム。 A display control step of displaying a plurality of objects for instructing processing on the display unit;
A detection step of detecting an instruction to the object via a touch panel integrated with the display unit;
Causing the computer to execute an instruction for the object and a setting step for setting a reaction area to be detected in the detection step;
In the setting step, when an instruction for one object is detected in the detection step, a reaction area for detecting an instruction for another object displayed on the display unit according to the object for which the instruction is detected is provided. A program characterized by changing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011175183A JP5825921B2 (en) | 2011-08-10 | 2011-08-10 | Display device and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011175183A JP5825921B2 (en) | 2011-08-10 | 2011-08-10 | Display device and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013037628A true JP2013037628A (en) | 2013-02-21 |
JP5825921B2 JP5825921B2 (en) | 2015-12-02 |
Family
ID=47887170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011175183A Expired - Fee Related JP5825921B2 (en) | 2011-08-10 | 2011-08-10 | Display device and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5825921B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013099631A (en) * | 2013-02-27 | 2013-05-23 | Newgin Co Ltd | Game machine |
JP2015022730A (en) * | 2013-07-23 | 2015-02-02 | 富士通株式会社 | Image processing device, image processing method, and image processing program |
JP2016027495A (en) * | 2013-07-26 | 2016-02-18 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing method, and program |
JP2017010451A (en) * | 2015-06-25 | 2017-01-12 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
US10510097B2 (en) | 2011-10-19 | 2019-12-17 | Firstface Co., Ltd. | Activating display and performing additional function in mobile terminal with one-time user input |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007193589A (en) * | 2006-01-19 | 2007-08-02 | Sony Corp | Display device, method, and program |
JP2008051743A (en) * | 2006-08-28 | 2008-03-06 | Funai Electric Co Ltd | Navigation system |
JP2008217339A (en) * | 2007-03-02 | 2008-09-18 | Ricoh Co Ltd | Display processing apparatus, display processing method, and display processing program |
JP2009037344A (en) * | 2007-07-31 | 2009-02-19 | Hoya Corp | Touch panel, and processor for endoscope device |
JP2009037343A (en) * | 2007-07-31 | 2009-02-19 | Hoya Corp | Touch panel, and processor for endoscope device |
JP2010026952A (en) * | 2008-07-24 | 2010-02-04 | Victor Co Of Japan Ltd | Operation button display method and display device |
JP2011134120A (en) * | 2009-12-24 | 2011-07-07 | Brother Industries Ltd | Input device and input control program |
-
2011
- 2011-08-10 JP JP2011175183A patent/JP5825921B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007193589A (en) * | 2006-01-19 | 2007-08-02 | Sony Corp | Display device, method, and program |
JP2008051743A (en) * | 2006-08-28 | 2008-03-06 | Funai Electric Co Ltd | Navigation system |
JP2008217339A (en) * | 2007-03-02 | 2008-09-18 | Ricoh Co Ltd | Display processing apparatus, display processing method, and display processing program |
JP2009037344A (en) * | 2007-07-31 | 2009-02-19 | Hoya Corp | Touch panel, and processor for endoscope device |
JP2009037343A (en) * | 2007-07-31 | 2009-02-19 | Hoya Corp | Touch panel, and processor for endoscope device |
JP2010026952A (en) * | 2008-07-24 | 2010-02-04 | Victor Co Of Japan Ltd | Operation button display method and display device |
JP2011134120A (en) * | 2009-12-24 | 2011-07-07 | Brother Industries Ltd | Input device and input control program |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10510097B2 (en) | 2011-10-19 | 2019-12-17 | Firstface Co., Ltd. | Activating display and performing additional function in mobile terminal with one-time user input |
US10896442B2 (en) | 2011-10-19 | 2021-01-19 | Firstface Co., Ltd. | Activating display and performing additional function in mobile terminal with one-time user input |
US11551263B2 (en) | 2011-10-19 | 2023-01-10 | Firstface Co., Ltd. | Activating display and performing additional function in mobile terminal with one-time user input |
JP2013099631A (en) * | 2013-02-27 | 2013-05-23 | Newgin Co Ltd | Game machine |
JP2015022730A (en) * | 2013-07-23 | 2015-02-02 | 富士通株式会社 | Image processing device, image processing method, and image processing program |
JP2016027495A (en) * | 2013-07-26 | 2016-02-18 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing method, and program |
JP2017010451A (en) * | 2015-06-25 | 2017-01-12 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5825921B2 (en) | 2015-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5854848B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP6757268B2 (en) | Imaging device and its control method | |
JP6833506B2 (en) | Imaging device and its control method | |
JP6808529B2 (en) | Imaging device and its control method | |
JP6833505B2 (en) | Imaging control device and its control method | |
JP6873830B2 (en) | Display control device, its control method and program | |
JP6914669B2 (en) | Imaging device and its control method | |
JP5825921B2 (en) | Display device and control method thereof | |
JP6833507B2 (en) | Imaging control device and its control method | |
JP2019074928A (en) | Electronic apparatus and control method thereof | |
JP5220157B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
US10742869B2 (en) | Image pickup apparatus and control method for image pickup apparatus | |
JP2019075699A (en) | Electronic device and control method of the same | |
JP2021033539A (en) | Electronic apparatus, control method thereof, program, and storage medium | |
JP6808480B2 (en) | Imaging control device and its control method | |
JP2018125802A (en) | Imaging apparatus, control method, and program therefor | |
JP6128967B2 (en) | Display control apparatus and control method thereof | |
JP6198459B2 (en) | Display control device, display control device control method, program, and storage medium | |
WO2018150983A1 (en) | Display control device and method | |
JP2020197976A (en) | Electronic apparatus, control method for electronic apparatus, program, and recording medium | |
JP6525753B2 (en) | Display control device, control method thereof, and program | |
JP7340978B2 (en) | Display control device and method | |
JP7254454B2 (en) | IMAGING CONTROL DEVICE AND METHOD FOR CONTROLLING IMAGING CONTROL DEVICE | |
JP7171252B2 (en) | IMAGING CONTROL DEVICE AND METHOD FOR CONTROLLING IMAGING CONTROL DEVICE | |
JP6545048B2 (en) | Electronic device, control method of electronic device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140728 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150915 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151013 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5825921 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |