JP2013037628A - Display device and control method therefor - Google Patents

Display device and control method therefor Download PDF

Info

Publication number
JP2013037628A
JP2013037628A JP2011175183A JP2011175183A JP2013037628A JP 2013037628 A JP2013037628 A JP 2013037628A JP 2011175183 A JP2011175183 A JP 2011175183A JP 2011175183 A JP2011175183 A JP 2011175183A JP 2013037628 A JP2013037628 A JP 2013037628A
Authority
JP
Japan
Prior art keywords
instruction
unit
button
display
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011175183A
Other languages
Japanese (ja)
Other versions
JP5825921B2 (en
Inventor
Tomohiro Yano
智裕 矢埜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011175183A priority Critical patent/JP5825921B2/en
Publication of JP2013037628A publication Critical patent/JP2013037628A/en
Application granted granted Critical
Publication of JP5825921B2 publication Critical patent/JP5825921B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable improvement of the operability of a touch panel depending on a user's operation situation.SOLUTION: A camera function selection screen is displayed on a display mounted with a touch panel, and when one button is touched in a state where a plurality of objects (buttons) for instructing processing are displayed, a reaction region of a button whose function is the same before and after the touch among the displayed buttons except it is made smaller, and a reaction region of a button whose function is switched after the touch is made larger.

Description

本発明は、特に、タッチパネルを搭載した表示装置、表示装置の制御方法及びプログラムに関する。   The present invention particularly relates to a display device equipped with a touch panel, a control method for the display device, and a program.

近年、携帯電話やデジタルカメラなどのデジタル機器のユーザーインターフェースとして、タッチパネルを利用した製品が数多く開発されている。これらの製品は、タッチパネルをLCDなどの表示装置上に重ねることにより、LCDに表示された画面へ直接触ることによって操作できるため、直感的でわかりやすい操作を行うことができる。   In recent years, many products using touch panels have been developed as user interfaces for digital devices such as mobile phones and digital cameras. Since these products can be operated by directly touching the screen displayed on the LCD by overlaying a touch panel on a display device such as an LCD, an intuitive and easy-to-understand operation can be performed.

ところが、タッチパネルを用いたボタン操作では、従来の物理的なボタンと異なり、物理的な境界が無くフラットになっているため、指先の感覚でボタンを識別して物理的に押し込むような触覚的なボタン操作ができない。また、画面をタッチしようとすると、指によって画面の一部が隠れてしまい、ユーザはボタンを押したつもりでいても、ボタンから外れた場所をタッチしてしまうことがある。   However, unlike conventional physical buttons, button operations using a touch panel are flat with no physical boundaries. The buttons cannot be operated. In addition, when trying to touch the screen, a part of the screen is hidden by a finger, and the user may touch a place off the button even though he intends to press the button.

そこで、ユーザの操作性を向上させるために、様々な技術が提案されている。例えば特許文献1には、ポインティングデバイスの操作からポインタの移動方向を判定し、判定した方向にあるウィンドウの表示レイアウトを変更して拡大表示する技術が開示されている。また、特許文献2には、ユーザの視線方向に対してタッチパネルの表示画面においてタッチ可能なオブジェクトの反応領域を拡大する技術が開示されている。   Therefore, various techniques have been proposed to improve user operability. For example, Patent Literature 1 discloses a technique for determining a moving direction of a pointer from an operation of a pointing device, and changing and displaying an enlarged display layout of a window in the determined direction. Patent Document 2 discloses a technique for enlarging a reaction area of an object that can be touched on a display screen of a touch panel with respect to a user's line-of-sight direction.

特開2007−179095号公報JP 2007-179095 A 特開平8−95708号公報JP-A-8-95708

しかしながら、特許文献1に記載された技術においては、ポインティングデバイスによってオブジェクトを操作する際に、目的となるウィンドウが拡大されると、そのスペースに表示されていた他の表示が隠れてしまうことがある。このため、表示する必要のあるオブジェクトが間に存在する場合には適用できない。   However, in the technique described in Patent Document 1, when a target window is enlarged when an object is operated with a pointing device, other displays displayed in the space may be hidden. . For this reason, it cannot be applied when there is an object that needs to be displayed.

また、特許文献2に記載された技術は、車両に搭載するナビゲーション装置のように、操作するユーザの視線と表示装置との位置関係が原則として常に一定の関係にある場合に有効である。ところが、携帯電話やデジタルカメラなどのような情報機器では、ユーザの持ち方によって視線と表示装置との位置関係が変化する。このため、視線方向が変化した場合には対応することができない。   Moreover, the technique described in Patent Document 2 is effective when the positional relationship between the user's line of sight and the display device is always a constant relationship in principle, as in a navigation device mounted on a vehicle. However, in an information device such as a mobile phone or a digital camera, the positional relationship between the line of sight and the display device changes depending on how the user holds it. For this reason, it cannot respond when the line-of-sight direction changes.

本発明は前述の問題点に鑑み、ユーザによる操作状況に応じてタッチパネルの操作性を向上できるようにすることを目的としている。   The present invention has been made in view of the above-described problems, and an object of the present invention is to improve the operability of a touch panel according to an operation situation by a user.

本発明の表示装置は、処理を指示するための複数のオブジェクトを表示部に表示する表示制御手段と、前記表示部と一体化されたタッチパネルを介して前記オブジェクトに対する指示を検出する検出手段と、前記検出手段により前記オブジェクトに対する指示と検出する反応領域を設定する設定手段とを備え、前記設定手段は、前記検出手段により1つのオブジェクトに対する指示が検出された場合に、前記指示が検出されたオブジェクトに応じて前記表示部に表示される他のオブジェクトに対する指示を検出する反応領域を変更することを特徴とする。   The display device of the present invention includes a display control unit that displays a plurality of objects for instructing processing on a display unit, a detection unit that detects an instruction for the object via a touch panel integrated with the display unit, An instruction for the object by the detecting means and a setting means for setting a reaction area to be detected, and the setting means detects an object for which the instruction is detected when an instruction for one object is detected by the detecting means. Accordingly, the reaction area for detecting an instruction to another object displayed on the display unit is changed.

本発明によれば、オブジェクトの操作によって反応領域が変化し、ユーザによる操作状況に応じてタッチパネルの操作性を向上させることができる。   According to the present invention, the reaction area is changed by the operation of the object, and the operability of the touch panel can be improved according to the operation state by the user.

実施形態に係るデジタルビデオカメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital video camera which concerns on embodiment. 実施形態に係るデジタルビデオカメラの外観構成例を示す概略図である。It is the schematic which shows the external appearance structural example of the digital video camera which concerns on embodiment. 第1の実施形態において、カメラ機能選択画面でタッチパネルが操作されたときの処理手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of a processing procedure when a touch panel is operated on a camera function selection screen in the first embodiment. 第1の実施形態において、カメラ機能選択画面でタッチパネルが操作されたときの処理手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of a processing procedure when a touch panel is operated on a camera function selection screen in the first embodiment. 第1の実施形態において、タッチの位置を検出する処理手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of a processing procedure for detecting a touch position in the first embodiment. カメラ機能選択画面の一例を模式的に表した図である。It is the figure which represented typically an example of the camera function selection screen. カメラ機能選択画面における各ボタンの反応領域を説明する図である。It is a figure explaining the reaction area | region of each button in a camera function selection screen. 第1の実施形態において、カメラ機能選択画面における各ボタンの反応領域が拡大する様子を説明する図である。In 1st Embodiment, it is a figure explaining a mode that the reaction area | region of each button in a camera function selection screen expands. 第2の実施形態において、カメラ機能選択画面でタッチパネルが操作されたときの処理手順の一例を示すフローチャートである。In 2nd Embodiment, it is a flowchart which shows an example of the process sequence when a touch panel is operated on the camera function selection screen. 第2の実施形態において、ボタンの中心位置及びズレ量を説明する図である。In 2nd Embodiment, it is a figure explaining the center position and deviation | shift amount of a button. 第2の実施形態において、MICボタンの反応領域を拡大する様子を説明する図である。It is a figure explaining a mode that the reaction field of a MIC button is expanded in a 2nd embodiment. 第2の実施形態において、カメラ機能選択画面における各ボタンの反応領域が拡大する様子を説明する図である。In 2nd Embodiment, it is a figure explaining a mode that the reaction area | region of each button in a camera function selection screen expands.

以下、本発明の実施形態について、図面を参照しながら説明する。
(第1の実施形態)
図1は、本実施形態に係るデジタルビデオカメラ100の構成例を示すブロック図である。
図1において、CPU101、内蔵記録メディア102、メモリ103、表示制御部104、入力部105、外部メディア入出力部106及び信号処理部109が内部バス111により接続されている。内部バス111に接続されている各部は、内部バス111を介して互いにデータのやりとりを行うことができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration example of a digital video camera 100 according to the present embodiment.
In FIG. 1, a CPU 101, a built-in recording medium 102, a memory 103, a display control unit 104, an input unit 105, an external media input / output unit 106, and a signal processing unit 109 are connected by an internal bus 111. Each unit connected to the internal bus 111 can exchange data with each other via the internal bus 111.

CPU101は、デジタルビデオカメラ100の各部を制御する。内蔵記録メディア102には、画像データやその他のデータ、CPU101が動作するための各種プログラムなどが格納されている。メモリ103は、例えばDRAMやSRAMにより構成されており、CPU101が内蔵記録メディア102に格納されているプログラムに従って動作する際にワークメモリとして用いられる。なお、CPU101が動作するためのプログラムは、内蔵記録メディア102に限らず、例えば図示されないROMに予め格納されているようにしてもよい。   The CPU 101 controls each unit of the digital video camera 100. The built-in recording medium 102 stores image data, other data, various programs for operating the CPU 101, and the like. The memory 103 is composed of, for example, a DRAM or SRAM, and is used as a work memory when the CPU 101 operates according to a program stored in the internal recording medium 102. The program for operating the CPU 101 is not limited to the built-in recording medium 102, and may be stored in advance in a ROM (not shown), for example.

入力部105は、ユーザによる操作を受け付け、操作に応じた制御信号を生成してCPU101に送る。例えば、入力部105は、入力デバイスとしてタッチパネルや、電源ボタン、ズームレバー、シャッターボタンなどからの入力を受け付ける。また、タッチパネルは、例えば平面的に構成された入力部に対して接触された位置に応じた座標情報が出力されるようにした入力デバイスである。タッチパネルは表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、いずれの方式を用いてもよい。   The input unit 105 receives a user operation, generates a control signal corresponding to the operation, and sends the control signal to the CPU 101. For example, the input unit 105 receives input from a touch panel, a power button, a zoom lever, a shutter button, or the like as an input device. The touch panel is an input device that outputs coordinate information corresponding to a position touched with an input unit configured in a planar manner, for example. The touch panel may use any method such as a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, an optical sensor method, or the like.

CPU101は、入力デバイスに対してなされたユーザの操作に応じて入力部105で生成されて供給される制御信号に基づき、プログラムに従ってデジタルビデオカメラ100の各部を制御する。これにより、デジタルビデオカメラ100において、ユーザの操作に応じた動作を行うことができる。   The CPU 101 controls each unit of the digital video camera 100 according to a program based on a control signal generated and supplied by the input unit 105 in accordance with a user operation performed on the input device. Thereby, the digital video camera 100 can perform an operation according to the user's operation.

表示制御部104は、表示部であるディスプレイ110に対して画像を表示させるための表示信号を出力する。例えば、表示制御部104は、CPU101がプログラムに従って生成した表示制御信号が供給されると、この表示制御信号に基づき表示信号を生成してディスプレイ110に出力する。具体的には、表示制御部104は、GUI(Graphical User Interface)を構成するGUIを表示させる。さらに、撮像部107で被写体が撮像され、信号処理部109によって電気信号に変換された画像データに係る画像等をディスプレイ110に表示させる。   The display control unit 104 outputs a display signal for displaying an image on the display 110 which is a display unit. For example, when the display control signal generated by the CPU 101 according to the program is supplied, the display control unit 104 generates a display signal based on the display control signal and outputs the display signal to the display 110. Specifically, the display control unit 104 displays a GUI that forms a GUI (Graphical User Interface). Furthermore, an image of a subject is imaged by the imaging unit 107 and an image related to the image data converted into an electric signal by the signal processing unit 109 is displayed on the display 110.

なお、ディスプレイ110は、LCDにより構成されており、前述したタッチパネルは、ディスプレイ110と一体化して構成することができる。例えば、光の透過率によりディスプレイ110の表示を妨げないようにタッチパネルを構成し、ディスプレイ110の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、ディスプレイ110上の表示座標とを対応付ける。これにより、ユーザがディスプレイ110上に表示された画面を直接的に操作可能なGUIを構成することができる。   The display 110 is configured by an LCD, and the touch panel described above can be configured integrally with the display 110. For example, a touch panel is configured so as not to disturb the display of the display 110 due to light transmittance, and is attached to the upper layer of the display surface of the display 110. Then, the input coordinates on the touch panel are associated with the display coordinates on the display 110. Accordingly, a GUI that allows the user to directly operate the screen displayed on the display 110 can be configured.

外部メディア入出力部106は、SDカードなどの外部記録媒体108を装着することができ、CPU101の制御に基づき、装着された外部記録媒体108からデータを読み出したり、外部記録媒体108にデータを書き込んだりする。なお、外部メディア入出力部106が装着可能な外部記録媒体108は、SDカードに限らず、他の不揮発性の半導体メモリやハードディスクドライブ、テープメディアやCDやDVD、BDなどのディスクメディアであってもよい。   The external media input / output unit 106 can be loaded with an external recording medium 108 such as an SD card, and reads data from the loaded external recording medium 108 or writes data to the external recording medium 108 under the control of the CPU 101. Sloppy. The external recording medium 108 to which the external media input / output unit 106 can be attached is not limited to an SD card, but other nonvolatile semiconductor memories, hard disk drives, tape media, and disk media such as CD, DVD, and BD. Also good.

撮像部107は、フォーカスレンズを含むカメラレンズや絞り、シャッターなどの光学像を結像する結像装置と、結像された光学像を映像信号に変換するCMOSセンサーやCCDなどの映像信号変換装置とを備えている。また、撮像部107は、音声を入力して音声信号に変換するマイクも備えている。   The imaging unit 107 includes an imaging device that forms an optical image such as a camera lens including a focus lens, a diaphragm, and a shutter, and a video signal conversion device such as a CMOS sensor and a CCD that converts the formed optical image into a video signal. And. The imaging unit 107 also includes a microphone that inputs sound and converts it into a sound signal.

信号処理部109は、撮像部107で変換された映像信号に対して、CPU101の制御に基づいてホワイトバランスなど画像を調整したり、撮像部107のシャッター速度や絞りを変更して露出を調整したりする。そして、MPEG2あるいはH.264などの符号化形式により映像信号を圧縮し、メモリ103を介して内蔵記録メディア102に記録したり、外部メディア入出力部106により外部記録媒体108に記録したりする。また、信号処理部109は、音声信号における音量の調整も行い、所定の符号化形式により音声信号を圧縮する。そして、映像信号とともに音声信号が記録される。   The signal processing unit 109 adjusts an image such as white balance based on the control of the CPU 101 with respect to the video signal converted by the imaging unit 107, or adjusts the exposure by changing the shutter speed or aperture of the imaging unit 107. Or MPEG2 or H.264 The video signal is compressed by an encoding format such as H.264 and recorded on the internal recording medium 102 via the memory 103 or recorded on the external recording medium 108 by the external media input / output unit 106. The signal processing unit 109 also adjusts the volume of the audio signal, and compresses the audio signal in a predetermined encoding format. An audio signal is recorded together with the video signal.

図2は、図1に示したデジタルビデオカメラ100の外観構成例を示す概略図である。
図2(a)において、電源スイッチ201、ズームバー202、トリガーボタン203、ディスプレイ204に搭載されているタッチパネル、及びモード切替ボタン205は、入力部105を構成する部材である。電源スイッチ201は、本実施形態のデジタルビデオカメラ100の主電源スイッチであり、主電源をON/OFFするためのボタンである。ズームバー202は、撮像部107を構成する図2(b)に示すカメラ部207のズームレンズを操作し、画角を連続的に変更するためのバーである。
FIG. 2 is a schematic diagram showing an external configuration example of the digital video camera 100 shown in FIG.
In FIG. 2A, the power switch 201, zoom bar 202, trigger button 203, touch panel mounted on the display 204, and mode switching button 205 are members that constitute the input unit 105. A power switch 201 is a main power switch of the digital video camera 100 of the present embodiment, and is a button for turning on / off the main power. The zoom bar 202 is a bar for continuously changing the angle of view by operating the zoom lens of the camera unit 207 shown in FIG.

トリガーボタン203は、撮影開始または停止を指示するボタンであり、非撮影時にトリガーボタン203が押されると撮影が開始され、撮影時に押されると撮影が停止する。モード切替ボタン205は、カメラ撮影モードと再生モードとを切り替えるためのボタンであり、デジタルビデオカメラ100がカメラ撮影モードである時には再生モードに切り替え、再生モードである時にはカメラ撮影モードに切り替える。   The trigger button 203 is a button for instructing start or stop of shooting. When the trigger button 203 is pressed during non-shooting, shooting starts. When the trigger button 203 is pressed during shooting, shooting stops. A mode switching button 205 is a button for switching between the camera shooting mode and the playback mode, and switches to the playback mode when the digital video camera 100 is in the camera shooting mode, and switches to the camera shooting mode when it is in the playback mode.

ディスプレイ204は、LCD上に入力部105であるタッチパネルが張り合わさって構成されている。また、タッチパネルは、ディスプレイ110のLCDに表示される画像に対して、視覚的に障害とならない透過率のパネルが用いられている。外部メディア挿入部206には、SDカードなどの外部記録媒体108が挿入され、外部メディア入出力部106によって画像や音声などの情報が外部記録媒体108に記録される。   The display 204 is configured by attaching a touch panel as the input unit 105 on an LCD. Further, the touch panel uses a transmissible panel that does not visually impede the image displayed on the LCD of the display 110. An external recording medium 108 such as an SD card is inserted into the external media insertion unit 206, and information such as images and sounds is recorded on the external recording medium 108 by the external media input / output unit 106.

また、図2(b)において、カメラ部207及びマイク部208はそれぞれ、撮像部107を構成する部材である。カメラ部207は、ズームレンズ、フォーカスレンズ、絞り、CMOSセンサーなどで構成され、光学像を結像し、CMOSセンサーによって結像された光学像を電気信号に変換する。また、マイク部208は、音声を入力して音声信号に変換する。   In FIG. 2B, the camera unit 207 and the microphone unit 208 are members constituting the imaging unit 107, respectively. The camera unit 207 includes a zoom lens, a focus lens, a diaphragm, a CMOS sensor, and the like, forms an optical image, and converts the optical image formed by the CMOS sensor into an electrical signal. Further, the microphone unit 208 inputs voice and converts it into a voice signal.

以下、本実施形態では、デジタルビデオカメラ100のタッチパネルで割り当てられる機能がボタンの操作によって変化する場合に、反応領域が拡大したり縮小したりする例について説明する。
図3及び図4は、カメラ機能の設定を選択する画面(以下、カメラ機能選択画面)において、タッチパネルが操作されたときの処理手順の一例を示すフローチャートである。なお、図3及び図4に示す各処理は、CPU101の制御により行われる。
Hereinafter, in the present embodiment, an example in which the reaction area is enlarged or reduced when the function assigned on the touch panel of the digital video camera 100 is changed by the operation of the button will be described.
3 and 4 are flowcharts illustrating an example of a processing procedure when a touch panel is operated on a screen for selecting setting of a camera function (hereinafter, camera function selection screen). Each process shown in FIGS. 3 and 4 is performed under the control of the CPU 101.

まず、ユーザによりデジタルビデオカメラ100が操作され、カメラ機能選択画面を表示させる指示を受けると、処理を開始する。そして、ステップS301において、表示制御部104により画面上にMENUボタン、SHIFTボタン、AFボタン、AEボタン、WBボタン、及び閉じるボタンが表示されたカメラ機能選択画面をディスプレイ110に表示する。   First, when the user operates the digital video camera 100 and receives an instruction to display a camera function selection screen, the process is started. In step S301, the display control unit 104 causes the display 110 to display a camera function selection screen on which a MENU button, a SHIFT button, an AF button, an AE button, a WB button, and a close button are displayed.

図6(a)は、ステップS301において表示されるカメラ機能選択画面の一例を模式的に表した図である。
図6(a)において、カメラ機能選択画面上には、オブジェクトとしてタッチパネルによる操作が可能な6つのボタンと、背景画として撮影画像とが表示される。撮影画像が表示されている位置にタッチ操作されると、該当する座標に対してAF及びAEを適当な値に設定することができる。
FIG. 6A is a diagram schematically illustrating an example of the camera function selection screen displayed in step S301.
In FIG. 6A, on the camera function selection screen, six buttons that can be operated with a touch panel as objects and a captured image as a background image are displayed. When a touch operation is performed at a position where a captured image is displayed, AF and AE can be set to appropriate values for the corresponding coordinates.

MENUボタン601は、デジタルビデオカメラ100のメニュー画面へ遷移するためのボタンである。メニュー画面では、例えば、外部記録媒体108の初期化処理などを選択することができる。閉じるボタン602は、カメラ機能選択画面の表示を終了し、通常のカメラ撮影画面へ戻るためのボタンである。AFボタン604は、AF調整画面へ遷移するためのボタンである。AF調整画面では、例えばオートフォーカスモードとマニュアルフォーカスモードとを切り替えることができ、マニュアルフォーカスモードでは、焦点距離をマニュアルで設定することができる。   The MENU button 601 is a button for transitioning to the menu screen of the digital video camera 100. On the menu screen, for example, initialization processing of the external recording medium 108 can be selected. A close button 602 is a button for ending the display of the camera function selection screen and returning to the normal camera shooting screen. The AF button 604 is a button for making a transition to the AF adjustment screen. On the AF adjustment screen, for example, an autofocus mode and a manual focus mode can be switched. In the manual focus mode, the focal length can be set manually.

AEボタン605は、AE調整画面へ遷移するためのボタンである。AE調整画面では、例えば絞りやシャッター速度を調整してデジタルビデオカメラ100の露出設定を変更することができる。WBボタン606は、WB調整画面へ遷移するためのボタンである。WB調整画面では、色温度設定を太陽光や電球といった光源に合わせた値に設定することができる。SHIFTボタン603は、前述したAFボタン604、AEボタン605、及びWBボタン606に割り当てられている機能を切り替えるためのボタンであり、SHIFTボタン603がタッチされると、図6(b)に示す画面に切り替わる。   The AE button 605 is a button for making a transition to the AE adjustment screen. On the AE adjustment screen, for example, the exposure setting of the digital video camera 100 can be changed by adjusting the aperture and the shutter speed. The WB button 606 is a button for making a transition to the WB adjustment screen. On the WB adjustment screen, the color temperature setting can be set to a value that matches a light source such as sunlight or a light bulb. The SHIFT button 603 is a button for switching functions assigned to the AF button 604, the AE button 605, and the WB button 606 described above. When the SHIFT button 603 is touched, the screen shown in FIG. Switch to

図6(b)に示すカメラ機能選択画面では、AFボタン604がMICボタン607に置き換わり、AEボタン605がEXPボタン608に置き換わる。さらに、WBボタン606がEFFECTボタン609に置き換わり、閉じるボタン602が戻るボタン610に置き換わる。このとき、SHIFTボタン603については、選択された状態が識別できるように色を変化させる。   In the camera function selection screen shown in FIG. 6B, the AF button 604 is replaced with the MIC button 607, and the AE button 605 is replaced with the EXP button 608. Further, the WB button 606 is replaced with an EFFECT button 609, and the close button 602 is replaced with a return button 610. At this time, the color of the SHIFT button 603 is changed so that the selected state can be identified.

MICボタン607は、マイク部208から入力される音声の音量を調整するMIC調整画面へ遷移するためのボタンである。EXPボタン608は、露出の補正値を設定する露出補正設定画面へ遷移するためのボタンである。露出補正設定画面では、AEにより自動露出される際に、基準値に対してより明るく露出するかより暗く露出するかを設定することができる。   The MIC button 607 is a button for transitioning to the MIC adjustment screen for adjusting the volume of the sound input from the microphone unit 208. The EXP button 608 is a button for transitioning to an exposure correction setting screen for setting an exposure correction value. On the exposure correction setting screen, it is possible to set whether the exposure is brighter or darker than the reference value when the AE is automatically exposed.

EFFECTボタン609は、エフェクト処理設定画面へ遷移するためのボタンである。エフェクト処理設定画面では、例えばフェードインやワイプ、モザイク処理など、撮影画像に対してエフェクトをかけることができる。戻るボタン610は、図6(a)に示したカメラ機能選択画面に戻るためのボタンである。   The EFFECT button 609 is a button for making a transition to the effect processing setting screen. On the effect processing setting screen, for example, effects can be applied to captured images such as fade-in, wipe, and mosaic processing. The return button 610 is a button for returning to the camera function selection screen shown in FIG.

図3の説明に戻り、次に、ステップS302において、CPU101は設定手段として機能し、ステップS301で表示された各ボタンに対して、標準の反応領域を設定する。   Returning to the description of FIG. 3, in step S302, the CPU 101 functions as a setting unit, and sets a standard reaction region for each button displayed in step S301.

図7は、カメラ機能選択画面に表示される各ボタンに設定される反応領域を示す図である。
図7に示すように、カメラ機能選択画面に表示される各ボタンには、それぞれ反応領域701〜706が設定される。なお、図7に示す反応領域701〜706については、表示されないものとする。
FIG. 7 is a diagram showing a reaction area set for each button displayed on the camera function selection screen.
As shown in FIG. 7, reaction areas 701 to 706 are set for each button displayed on the camera function selection screen. Note that the reaction areas 701 to 706 shown in FIG. 7 are not displayed.

次に、ステップS303において、CPU101は検出手段として機能し、タッチ検出処理を行う。ここで、タッチ検出処理の詳細について説明する。   Next, in step S303, the CPU 101 functions as a detection unit and performs touch detection processing. Here, details of the touch detection process will be described.

図5は、図3のステップS303におけるタッチ検出処理の詳細な手順の一例を示すフローチャートである。
まず、ステップS501において、ディスプレイ204のタッチパネルに対してタッチされているか否かを判定する。この判定の結果、タッチされていない場合はステップS506へ遷移し、タッチされている場合はステップS502へ遷移する。
FIG. 5 is a flowchart showing an example of a detailed procedure of the touch detection process in step S303 of FIG.
First, in step S501, it is determined whether or not the touch panel of the display 204 is touched. If the result of this determination is that there is no touch, the process proceeds to step S506, and if it is touched, the process proceeds to step S502.

ステップS502においては、タッチの位置を検出する。そして、ステップS503において、ステップS502で検出されたタッチの位置が、図7に示した反応領域701〜706内であるか否かを判定する。この判定の結果、タッチの位置が反応領域701〜706内である場合は、ステップS504において、該当する反応領域が設定されているボタンを選択状態に設定する。   In step S502, the touch position is detected. In step S503, it is determined whether or not the touch position detected in step S502 is within the reaction regions 701 to 706 shown in FIG. If the result of this determination is that the touch position is within the reaction areas 701 to 706, in step S504, the button in which the corresponding reaction area is set is set to the selected state.

一方、ステップS503の判定の結果、タッチの位置が反応領域701〜706の外側である場合は、ステップS505へ遷移する。そして、ステップS505において、背景画として表示されている撮影画像に対してタッチされたと判定し、背景画を選択状態に設定する。そして、ステップS506において、選択状態に設定されていないボタン(及び背景画)を非選択状態として設定し、タッチ検出処理を終了する。   On the other hand, as a result of the determination in step S503, if the touch position is outside the reaction areas 701 to 706, the process proceeds to step S505. In step S505, it is determined that the captured image displayed as the background image has been touched, and the background image is set to the selected state. In step S506, a button (and a background image) that is not set to the selected state is set as a non-selected state, and the touch detection process ends.

図3の説明に戻り、次に、ステップS304において、ステップS303のタッチ検出処理によりSHIFTボタン603が選択状態に設定されているか否かを判定する。この判定の結果、SHIFTボタン603が選択状態に設定されている場合は、図4のステップS401へ遷移し、そうでない場合は、ステップS305へ遷移する。   Returning to the description of FIG. 3, next, in step S304, it is determined whether or not the SHIFT button 603 is set to the selected state by the touch detection processing in step S303. As a result of the determination, if the SHIFT button 603 is set to the selected state, the process proceeds to step S401 in FIG. 4, and if not, the process proceeds to step S305.

次に、ステップS305において、ステップS303のタッチ検出処理によりAFボタン604が選択状態に設定されているか否かを判定する。この判定の結果、AFボタン604が選択状態に設定されている場合は、ステップS307へ遷移し、そうでない場合はステップS308へ遷移する。そして、ステップS307においては、表示制御部104によりAF調整画面へ画面を遷移させ、カメラ機能選択画面における処理を終了する。   Next, in step S305, it is determined whether or not the AF button 604 is set to the selected state by the touch detection process in step S303. As a result of this determination, if the AF button 604 is set to the selected state, the process proceeds to step S307, and if not, the process proceeds to step S308. In step S307, the display control unit 104 changes the screen to the AF adjustment screen, and the process on the camera function selection screen is terminated.

ステップS308においては、ステップS303のタッチ検出処理によりAEボタン605が選択状態に設定されているか否かを判定する。この判定の結果、AEボタン605が選択状態に設定されている場合は、ステップS309へ遷移し、そうでない場合はステップS310へ遷移する。そして、ステップS309においては、表示制御部104によりAE調整画面へ画面を遷移させ、カメラ機能選択画面における処理を終了する。   In step S308, it is determined whether or not the AE button 605 is set to the selected state by the touch detection process in step S303. As a result of the determination, if the AE button 605 is set to the selected state, the process proceeds to step S309, and if not, the process proceeds to step S310. In step S309, the display control unit 104 changes the screen to the AE adjustment screen, and the process on the camera function selection screen is terminated.

ステップS310においては、ステップS303のタッチ検出処理によりWBボタン606が選択状態に設定されているか否かを判定する。この判定の結果、WBボタン606が選択状態に設定されている場合は、ステップS311へ遷移し、そうでない場合はステップS312へ遷移する。そして、ステップS311においては、表示制御部104によりWB調整画面へ画面を遷移させ、カメラ機能選択画面における処理を終了する。   In step S310, it is determined whether or not the WB button 606 is set to the selected state by the touch detection process in step S303. As a result of this determination, if the WB button 606 is set to the selected state, the process proceeds to step S311; otherwise, the process proceeds to step S312. In step S311, the display control unit 104 changes the screen to the WB adjustment screen, and the process on the camera function selection screen is terminated.

ステップS312においては、ステップS303のタッチ検出処理によりMENUボタン601が選択状態に設定されているか否かを判定する。この判定の結果、MENUボタン601が選択状態に設定されている場合は、ステップS313へ遷移し、そうでない場合はステップS314へ遷移する。そして、ステップS313においては、表示制御部104によりMENU画面へ画面を遷移させ、カメラ機能選択画面を終了する。   In step S312, it is determined whether or not the MENU button 601 is set to the selected state by the touch detection process in step S303. As a result of this determination, if the MENU button 601 is set to the selected state, the process proceeds to step S313, and if not, the process proceeds to step S314. In step S313, the display control unit 104 changes the screen to the MENU screen and ends the camera function selection screen.

ステップS314においては、ステップS303のタッチ検出処理により閉じるボタン602が選択状態に設定されているか否かを判定する。この判定の結果、閉じるボタン602が選択状態に設定されている場合は、ステップS315へ遷移し、そうでない場合はステップS316へ遷移する。そして、ステップS315においては、表示制御部104によりカメラ記録画面へ遷移させ、カメラ機能選択画面における処理を終了する。   In step S314, it is determined whether or not the close button 602 is set to the selected state by the touch detection process in step S303. As a result of this determination, if the close button 602 is set to the selected state, the process proceeds to step S315, and if not, the process proceeds to step S316. In step S315, the display control unit 104 makes a transition to the camera recording screen, and the process on the camera function selection screen is terminated.

ステップS316においては、ステップS303のタッチ検出処理により背景画が選択状態に設定されているか否かを判定する。この判定の結果、背景画が選択状態に設定されている場合は、ステップS317へ遷移し、そうでない場合はステップS303へ戻り、タッチ検出処理を再度行う。そして、ステップS317においては、背景画の選択された位置に対して、AE及びAFの値が適当な数値になるようにカメラ部207の設定を変更する。   In step S316, it is determined whether or not the background image is set to the selected state by the touch detection process in step S303. As a result of this determination, if the background image is set to the selected state, the process proceeds to step S317, and if not, the process returns to step S303 and the touch detection process is performed again. In step S317, the setting of the camera unit 207 is changed so that the values of AE and AF become appropriate values for the selected position of the background image.

ステップS304の判定の結果、SHIFTボタン603が選択状態に設定されている場合は、図4のステップS401において、表示制御部104によりボタンの変更処理を行う。具体的には、AFボタン604をMICボタン607に変更し、AEボタン605をEXPボタン608に変更する。さらに、WBボタン606をEFFECTボタン609に変更し、閉じるボタン602を戻るボタン610に変更する。   If the SHIFT button 603 is set to the selected state as a result of the determination in step S304, the display control unit 104 performs button change processing in step S401 in FIG. Specifically, the AF button 604 is changed to the MIC button 607, and the AE button 605 is changed to the EXP button 608. Further, the WB button 606 is changed to an EFFECT button 609, and the close button 602 is changed to a return button 610.

次に、ステップS402において、MICボタン607、EXPボタン608、EFFECTボタン609、及び戻るボタン610の反応領域を拡大し、MENUボタン601の反応領域を縮小させる。これにより、各ボタンの反応領域は、図8(a)に示す破線801で示された領域から、図8(b)に示す破線802で示された領域へ変更される。   In step S402, the reaction area of the MIC button 607, the EXP button 608, the EFFECT button 609, and the return button 610 is enlarged, and the reaction area of the MENU button 601 is reduced. Thereby, the reaction area of each button is changed from the area indicated by the broken line 801 shown in FIG. 8A to the area indicated by the broken line 802 shown in FIG.

SHIFTボタン603がタッチされた場合は、ユーザは画面に表示されていなかった選択項目を選択する可能性が高い。したがって、新たに表示されたMICボタン607、EXPボタン608及びEFFECTボタン609のうち、何れかのボタンがタッチされる可能性が高いため、本実施形態ではこれらのボタンの反応領域を拡大する。また、ユーザが目的とするボタンが、新たに表示されたボタンの中に含まれていない可能性もある。したがって、戻るボタン610についても反応領域を拡大する。   When the SHIFT button 603 is touched, the user is likely to select a selection item that is not displayed on the screen. Therefore, since any of the newly displayed MIC button 607, EXP button 608, and EFFECT button 609 is likely to be touched, the reaction area of these buttons is expanded in this embodiment. In addition, there is a possibility that the button intended by the user is not included in the newly displayed button. Therefore, the reaction area is expanded also for the return button 610.

一方、MENUボタン601は、SHIFTボタン603をタッチしなくても選択することができるボタンであるため、ユーザによってタッチされる可能性は低い。したがって、MENUボタン601の反応領域を縮小する。このように本実施形態では、CPU101は選択手段として機能し、反応領域を拡大するボタンと、反応領域を小さくするボタンとを選択するようにしている。   On the other hand, since the MENU button 601 is a button that can be selected without touching the SHIFT button 603, the possibility of being touched by the user is low. Therefore, the reaction area of the MENU button 601 is reduced. As described above, in this embodiment, the CPU 101 functions as a selection unit, and selects a button for enlarging a reaction area and a button for reducing a reaction area.

次に、ステップS403において、ステップS303と同様の手順により図5に示したタッチ検出処理を行う。そして、ステップS404において、ステップS403のタッチ検出処理によりMICボタン607が選択状態に設定されているか否かを判定する。この判定の結果、MICボタン607が選択状態に設定されている場合はステップS405へ遷移し、そうでない場合はステップS406へ遷移する。そして、ステップS405においては、表示制御部104によりMIC調整画面へ画面を遷移させ、カメラ機能選択画面における処理を終了する。   Next, in step S403, the touch detection process shown in FIG. 5 is performed by the same procedure as in step S303. In step S404, it is determined whether or not the MIC button 607 is set to the selected state by the touch detection process in step S403. As a result of this determination, if the MIC button 607 is set to the selected state, the process proceeds to step S405, and if not, the process proceeds to step S406. In step S405, the display control unit 104 changes the screen to the MIC adjustment screen, and the process on the camera function selection screen is terminated.

ステップS406においては、ステップS403のタッチ検出処理によりEXPボタン608が選択状態に設定されているか否かを判定する。この判定の結果、EXPボタン608が選択状態に設定されている場合はステップS407へ遷移し、そうでない場合はステップS408へ遷移する。そして、ステップS407においては、表示制御部104によりEXP調整画面へ画面を遷移させ、カメラ機能選択画面における処理を終了する。   In step S406, it is determined whether or not the EXP button 608 is set to the selected state by the touch detection process in step S403. As a result of this determination, if the EXP button 608 is set to the selected state, the process proceeds to step S407, and if not, the process proceeds to step S408. In step S407, the display control unit 104 changes the screen to the EXP adjustment screen, and the process on the camera function selection screen is terminated.

ステップS408においては、ステップS403のタッチ検出処理によりEFFECTボタン609が選択状態に設定されているか否かを判定する。この判定の結果、EFFECTボタン609が選択状態に設定されている場合はステップS410へ遷移し、そうでない場合はステップS409へ遷移する。そして、ステップS409においては、表示制御部104によりEFFECT選択画面へ画面を遷移させ、カメラ機能選択画面における処理を終了する。   In step S408, it is determined whether or not the EFFECT button 609 is set to the selected state by the touch detection process in step S403. As a result of the determination, if the EFFECT button 609 is set to the selected state, the process proceeds to step S410, and if not, the process proceeds to step S409. In step S409, the display control unit 104 changes the screen to the EFFECT selection screen, and the process on the camera function selection screen is terminated.

ステップS410においては、ステップS403のタッチ検出処理により戻るボタン610が選択状態に設定されているか否かを判定する。この判定の結果、戻るボタン610が選択状態に設定されている場合はステップS411へ遷移し、そうでない場合はステップS403へ戻る。そして、ステップS411においては、図6(b)に示す状態から図6(a)に示す状態へ表示制御部104によりボタンの変更処理を行う。具体的には、MICボタン607をAFボタン604に変更し、EXPボタン608をAEボタン605に変更する。そして、EFFECTボタン609をWBボタン606に変更し、戻るボタン610を閉じるボタン602に変更する。このとき、SHIFTボタン603の選択状態を解除する。   In step S410, it is determined whether or not the return button 610 is set to the selected state by the touch detection process in step S403. As a result of this determination, if the return button 610 is set to the selected state, the process proceeds to step S411, and if not, the process returns to step S403. In step S411, the display control unit 104 performs button change processing from the state shown in FIG. 6B to the state shown in FIG. Specifically, the MIC button 607 is changed to the AF button 604, and the EXP button 608 is changed to the AE button 605. Then, the EFFECT button 609 is changed to the WB button 606, and the return button 610 is changed to the close button 602. At this time, the selected state of the SHIFT button 603 is canceled.

以上の処理を行うことによって、特定のボタンを選択した後にのみ選択可能なボタンや、特定のボタンを選択した後で機能が変化するボタンについては、タッチの反応領域を広げ、一方、表示されたままのボタンについては反応領域を狭めるようにした。これにより、ユーザが次に操作すると予想されるボタンに対してタッチの操作性を向上させることができる。また、反応領域のみを拡大することにより、ボタンを拡大することによって撮影画像などの背景画像が隠れてしまうことを防止するとともに、操作性を向上させることができる。また、例えばタッチパネルを指で操作するような場合には、SHIFTボタンをタッチしている指から近い位置に反応領域が存在するようになるため、操作性をより向上させることができる。   By performing the above processing, for buttons that can be selected only after selecting a specific button, or for buttons whose functions change after a specific button is selected, the touch response area is expanded and displayed. The reaction area of the remaining buttons was narrowed. Thereby, the operativity of a touch can be improved with respect to the button expected to be operated next by the user. Further, by enlarging only the reaction region, it is possible to prevent a background image such as a captured image from being hidden by enlarging the button, and to improve operability. Further, for example, when the touch panel is operated with a finger, the reaction region is present at a position close to the finger touching the SHIFT button, so that the operability can be further improved.

なお、本実施形態では、SHIFTボタン603がタッチされ、図6(b)に示すカメラ機能選択画面が表示されているときに背景画がタッチされた場合も、図3のステップS317と同様に、AE及びAFの値を適当な数値に設定するようにしてもよい。   In the present embodiment, when the SHIFT button 603 is touched and the background image is touched when the camera function selection screen shown in FIG. 6B is displayed, as in step S317 in FIG. You may make it set the value of AE and AF to an appropriate numerical value.

(第2の実施形態)
本実施形態では、第1の実施形態における処理で、さらにボタンがタッチされたときの検出のズレを用いて反応領域の拡大する量を決定する例について説明する。なお、本実施形態に係るデジタルビデオカメラの構成については、図1及び図2と同様であるため、説明は省略する。また、カメラ機能選択画面においてタッチパネルが操作されたときの処理手順については、図4のステップS402の代わりに、後述する図9のステップS901及びS902の処理が行われる点が異なっている。以下、第1の実施形態と異なる点についてのみ説明する。
(Second Embodiment)
In the present embodiment, an example will be described in which, in the processing in the first embodiment, the amount of enlargement of the reaction region is determined using a detection shift when the button is further touched. The configuration of the digital video camera according to the present embodiment is the same as that shown in FIGS. Also, the processing procedure when the touch panel is operated on the camera function selection screen is different in that processing in steps S901 and S902 in FIG. 9 described later is performed instead of step S402 in FIG. Only differences from the first embodiment will be described below.

図9は、本実施形態において、SHIFTボタン603が選択状態に設定されている場合にタッチパネルが操作されたときの処理手順の一例を示すフローチャートである。なお、図9に示す各処理はCPU101の制御により行われる。
ステップS901においては、タッチを検出した位置とSHIFTボタン603の中心位置とのズレ量及びズレ方向を検出する。
FIG. 9 is a flowchart illustrating an example of a processing procedure when the touch panel is operated when the SHIFT button 603 is set to the selected state in the present embodiment. Each process shown in FIG. 9 is performed under the control of the CPU 101.
In step S901, a displacement amount and a displacement direction between the position where the touch is detected and the center position of the SHIFT button 603 are detected.

図10は、SHIFTボタン603の中心位置及びズレ量を説明する図である。
図10において、SHIFTボタン1001がスタイラスペン1003などによりタッチされ、座標1004でタッチが検出された場合、CPU101は中心位置1002からのズレ量及びズレ方向を示すベクトル1005を検出する。
FIG. 10 is a diagram for explaining the center position and the shift amount of the SHIFT button 603.
In FIG. 10, when the SHIFT button 1001 is touched with the stylus pen 1003 or the like and a touch is detected at the coordinates 1004, the CPU 101 detects a vector 1005 indicating a shift amount and a shift direction from the center position 1002.

次に、ステップS902において、MICボタン607、EXPボタン608、EFFECTボタン609、及び戻るボタン610の反応領域を拡大し、MENUボタン601の反応領域を縮小する。以下、このときの反応領域の拡大方法について図11を参照しながら説明する。   In step S902, the reaction area of the MIC button 607, the EXP button 608, the EFFECT button 609, and the return button 610 is enlarged, and the reaction area of the MENU button 601 is reduced. Hereinafter, a method for expanding the reaction region at this time will be described with reference to FIG.

図11は、MICボタン607の反応領域を拡大する様子を説明する図である。
図11において、MICボタン607に対して標準の反応領域1101が設定されている。この標準の反応領域1101に対して、ステップS901で算出したSHIFTボタン603の中心からのズレ量及びズレ方向を示すベクトル1005に従って拡大した反応領域1102をMICボタン607の反応領域として設定する。本実施形態では、中心位置から左上側へタッチの位置がずれているため、反応領域の左上側を拡大している。
FIG. 11 is a diagram for explaining how the reaction region of the MIC button 607 is enlarged.
In FIG. 11, a standard reaction area 1101 is set for the MIC button 607. With respect to the standard reaction area 1101, a reaction area 1102 enlarged according to the vector 1005 indicating the shift amount and the shift direction from the center of the SHIFT button 603 calculated in step S 901 is set as the reaction area of the MIC button 607. In the present embodiment, since the touch position is shifted from the center position to the upper left side, the upper left side of the reaction region is enlarged.

図12は、カメラ機能選択画面において、反応領域を拡大する様子を説明する図である。
図12に示すように、SHIFTボタン603の中心からのズレ量及びズレ方向を示すベクトル1005に従い、EXPボタン608についても同様に、標準の反応領域1201を拡大した反応領域1202に設定する。そして、EFFECTボタン609についても、標準の反応領域1203を拡大した反応領域1204に設定し、戻るボタン610についても、標準の反応領域1205を拡大した反応領域1206に設定する。ただし、戻るボタン610の反応領域1206は、一部がタッチパネルからはみ出しており、タッチパネルの外側をタッチ操作することは不可能であるため、タッチパネルの範囲内である斜線部1207を反応領域として設定する
FIG. 12 is a diagram for explaining how the reaction area is enlarged on the camera function selection screen.
As shown in FIG. 12, in accordance with a vector 1005 indicating the amount of displacement and the direction of displacement from the center of the SHIFT button 603, the EXP reaction region 1201 is similarly set to an enlarged reaction region 1202 for the EXP button 608. The EFFECT button 609 is also set to the reaction area 1204 in which the standard reaction area 1203 is enlarged, and the return button 610 is also set to the reaction area 1206 in which the standard reaction area 1205 is enlarged. However, since a part of the reaction area 1206 of the return button 610 protrudes from the touch panel and the outside of the touch panel cannot be touched, the hatched portion 1207 that is within the touch panel range is set as the reaction area.

以上のように本実施形態によれば、SHIFTボタン603という特定のボタンが選択された時に、中心位置からのズレ量及びズレ方向を検出し、ズレ量に応じて反応領域をズレ方向に拡大する。これにより、ユーザが次に操作すると予想されるボタンに対して、同様のタッチ操作のズレを考慮して、タッチ操作の操作性を向上させることができる。   As described above, according to the present embodiment, when a specific button called the SHIFT button 603 is selected, the shift amount and the shift direction from the center position are detected, and the reaction region is expanded in the shift direction according to the shift amount. . Thereby, it is possible to improve the operability of the touch operation in consideration of the deviation of the same touch operation with respect to the button expected to be operated next by the user.

なお、本実施形態では、直前の1回のタッチ操作におけるズレから座標の誤差を算出したが、過去の複数回のタッチ操作のズレを元に算出してもよい。その場合、誤差の平均値や中間値などからズレ量を算出してもよく、算出方法は何でもよい。   In the present embodiment, the coordinate error is calculated from the shift in the last single touch operation. However, the coordinate error may be calculated based on the shift of the past multiple touch operations. In that case, the amount of deviation may be calculated from the average value or intermediate value of errors, and any calculation method may be used.

また、本実施形態では、算出したズレ量をそのまま適用して反応領域を拡大したが、適当な比率を用いて反応領域を拡大してもよい。また、算出されるズレ量により反応領域を拡大する際に、隣接する反応領域と重ならないように拡大に上限を設けてもよい。   In the present embodiment, the reaction area is expanded by applying the calculated shift amount as it is, but the reaction area may be expanded using an appropriate ratio. Further, when the reaction region is expanded by the calculated amount of deviation, an upper limit may be provided for the expansion so as not to overlap with the adjacent reaction region.

(その他の実施形態)
以上説明した実施形態では、好適な例としてデジタルビデオカメラのカメラ機能選択画面について説明したが、本発明はこれに限らず、デジタルビデオカメラの他の機能を持つ画面についても適用することができる。さらに、携帯電話やデジタルスチルカメラ、カーナビゲーションシステム、デジタルフォトフレームなど、タッチパネルを用いたあらゆる表示装置において同様に適用することができる。また、本発明はマルチタッチのタッチパネルにおいても適応することができる。
(Other embodiments)
In the embodiment described above, the camera function selection screen of the digital video camera has been described as a preferred example. However, the present invention is not limited to this, and can be applied to a screen having other functions of the digital video camera. Furthermore, the present invention can be similarly applied to any display device using a touch panel such as a mobile phone, a digital still camera, a car navigation system, and a digital photo frame. The present invention can also be applied to a multi-touch touch panel.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

101 CPU
104 表示制御部
105 入力部
110 ディスプレイ
101 CPU
104 Display control unit 105 Input unit 110 Display

Claims (9)

処理を指示するための複数のオブジェクトを表示部に表示する表示制御手段と、
前記表示部と一体化されたタッチパネルを介して前記オブジェクトに対する指示を検出する検出手段と、
前記検出手段により前記オブジェクトに対する指示と検出する反応領域を設定する設定手段とを備え、
前記設定手段は、前記検出手段により1つのオブジェクトに対する指示が検出された場合に、前記指示が検出されたオブジェクトに応じて前記表示部に表示される他のオブジェクトに対する指示を検出する反応領域を変更することを特徴とする表示装置。
Display control means for displaying a plurality of objects for instructing processing on the display unit;
Detecting means for detecting an instruction to the object via a touch panel integrated with the display unit;
An instruction for the object by the detection means and a setting means for setting a reaction area to be detected;
The setting unit changes a reaction area for detecting an instruction for another object displayed on the display unit according to the object for which the instruction is detected when an instruction for the one object is detected by the detection unit. A display device characterized by:
前記設定手段により反応領域を変更するオブジェクトを、前記検出手段により指示が検出されたオブジェクトに応じて選択する選択手段をさらに備え、
前記設定手段は、前記検出手段により指示が検出された場合に、前記選択手段により選択されたオブジェクトに対する指示を検出する反応領域を拡大することを特徴とする請求項1に記載の表示装置。
A selection unit that selects an object whose reaction area is changed by the setting unit according to an object whose instruction is detected by the detection unit;
The display device according to claim 1, wherein when the instruction is detected by the detection unit, the setting unit expands a reaction region for detecting an instruction for the object selected by the selection unit.
前記表示制御手段は、前記検出手段により指示が検出されたオブジェクトに応じて、表示するオブジェクトを切り替え、
前記設定手段は、前記表示制御手段によって切り替えられたオブジェクトに対する指示を検出する反応領域を拡大することを特徴とする請求項1または2に記載の表示装置。
The display control means switches an object to be displayed according to an object whose instruction is detected by the detection means,
The display device according to claim 1, wherein the setting unit expands a reaction area for detecting an instruction for the object switched by the display control unit.
前記設定手段は、前記検出手段により1つのオブジェクトに対する指示が検出された後に、前記表示制御手段により表示されたままのオブジェクトの反応領域を縮小することを特徴とする請求項1〜3の何れか1項に記載の表示装置。   4. The setting unit according to claim 1, wherein after the detection unit detects an instruction for one object, the setting unit reduces a reaction area of the object that is still displayed by the display control unit. Item 1. A display device according to item 1. 前記検出手段によって指示が検出されたオブジェクトの中心位置と、該オブジェクトに対する指示が検出された位置とのズレ量及びズレ方向を算出する算出手段をさらに備え、
前記設定手段は、前記算出手段によって算出されたズレ方向へ前記ズレ量に応じて反応領域を拡大することを特徴とする請求項1〜4の何れか1項に記載の表示装置。
A calculation means for calculating a deviation amount and a deviation direction between the center position of the object for which the instruction is detected by the detection means and the position for which the instruction for the object is detected;
5. The display device according to claim 1, wherein the setting unit expands a reaction region in the shift direction calculated by the calculation unit in accordance with the shift amount.
前記設定手段は、前記算出手段によって算出されたズレ方向へ他の反応領域と重ならないように、反応領域を拡大することを特徴とする請求項5に記載の表示装置。   The display device according to claim 5, wherein the setting unit enlarges the reaction region so as not to overlap another reaction region in a shift direction calculated by the calculation unit. 被写体を撮像して画像データを生成する撮像手段をさらに備え、
前記表示制御手段は、前記複数のオブジェクトとともに、前記撮像手段によって生成された画像データに係る画像を前記表示部に表示することを特徴とする請求項1〜6の何れか1項に記載の表示装置。
It further comprises imaging means for imaging a subject and generating image data,
The display according to claim 1, wherein the display control unit displays an image related to the image data generated by the imaging unit together with the plurality of objects on the display unit. apparatus.
処理を指示するための複数のオブジェクトを表示部に表示する表示制御工程と、
前記表示部と一体化されたタッチパネルを介して前記オブジェクトに対する指示を検出する検出工程と、
前記検出工程において前記オブジェクトに対する指示と検出する反応領域を設定する設定工程とを備え、
前記設定工程においては、前記検出工程において1つのオブジェクトに対する指示が検出された場合に、前記指示が検出されたオブジェクトに応じて前記表示部に表示される他のオブジェクトに対する指示を検出する反応領域を変更することを特徴とする表示装置の制御方法。
A display control step of displaying a plurality of objects for instructing processing on the display unit;
A detection step of detecting an instruction to the object via a touch panel integrated with the display unit;
An instruction for the object and a setting step for setting a reaction area to be detected in the detection step;
In the setting step, when an instruction for one object is detected in the detection step, a reaction area for detecting an instruction for another object displayed on the display unit according to the object for which the instruction is detected is provided. A control method for a display device, wherein the display device is changed.
処理を指示するための複数のオブジェクトを表示部に表示する表示制御工程と、
前記表示部と一体化されたタッチパネルを介して前記オブジェクトに対する指示を検出する検出工程と、
前記検出工程において前記オブジェクトに対する指示と検出する反応領域を設定する設定工程とをコンピュータに実行させ、
前記設定工程においては、前記検出工程において1つのオブジェクトに対する指示が検出された場合に、前記指示が検出されたオブジェクトに応じて前記表示部に表示される他のオブジェクトに対する指示を検出する反応領域を変更することを特徴とするプログラム。
A display control step of displaying a plurality of objects for instructing processing on the display unit;
A detection step of detecting an instruction to the object via a touch panel integrated with the display unit;
Causing the computer to execute an instruction for the object and a setting step for setting a reaction area to be detected in the detection step;
In the setting step, when an instruction for one object is detected in the detection step, a reaction area for detecting an instruction for another object displayed on the display unit according to the object for which the instruction is detected is provided. A program characterized by changing.
JP2011175183A 2011-08-10 2011-08-10 Display device and control method thereof Expired - Fee Related JP5825921B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011175183A JP5825921B2 (en) 2011-08-10 2011-08-10 Display device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011175183A JP5825921B2 (en) 2011-08-10 2011-08-10 Display device and control method thereof

Publications (2)

Publication Number Publication Date
JP2013037628A true JP2013037628A (en) 2013-02-21
JP5825921B2 JP5825921B2 (en) 2015-12-02

Family

ID=47887170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011175183A Expired - Fee Related JP5825921B2 (en) 2011-08-10 2011-08-10 Display device and control method thereof

Country Status (1)

Country Link
JP (1) JP5825921B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013099631A (en) * 2013-02-27 2013-05-23 Newgin Co Ltd Game machine
JP2015022730A (en) * 2013-07-23 2015-02-02 富士通株式会社 Image processing device, image processing method, and image processing program
JP2016027495A (en) * 2013-07-26 2016-02-18 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, and program
JP2017010451A (en) * 2015-06-25 2017-01-12 キヤノン株式会社 Information processing apparatus, information processing method, and program
US10510097B2 (en) 2011-10-19 2019-12-17 Firstface Co., Ltd. Activating display and performing additional function in mobile terminal with one-time user input

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193589A (en) * 2006-01-19 2007-08-02 Sony Corp Display device, method, and program
JP2008051743A (en) * 2006-08-28 2008-03-06 Funai Electric Co Ltd Navigation system
JP2008217339A (en) * 2007-03-02 2008-09-18 Ricoh Co Ltd Display processing apparatus, display processing method, and display processing program
JP2009037344A (en) * 2007-07-31 2009-02-19 Hoya Corp Touch panel, and processor for endoscope device
JP2009037343A (en) * 2007-07-31 2009-02-19 Hoya Corp Touch panel, and processor for endoscope device
JP2010026952A (en) * 2008-07-24 2010-02-04 Victor Co Of Japan Ltd Operation button display method and display device
JP2011134120A (en) * 2009-12-24 2011-07-07 Brother Industries Ltd Input device and input control program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193589A (en) * 2006-01-19 2007-08-02 Sony Corp Display device, method, and program
JP2008051743A (en) * 2006-08-28 2008-03-06 Funai Electric Co Ltd Navigation system
JP2008217339A (en) * 2007-03-02 2008-09-18 Ricoh Co Ltd Display processing apparatus, display processing method, and display processing program
JP2009037344A (en) * 2007-07-31 2009-02-19 Hoya Corp Touch panel, and processor for endoscope device
JP2009037343A (en) * 2007-07-31 2009-02-19 Hoya Corp Touch panel, and processor for endoscope device
JP2010026952A (en) * 2008-07-24 2010-02-04 Victor Co Of Japan Ltd Operation button display method and display device
JP2011134120A (en) * 2009-12-24 2011-07-07 Brother Industries Ltd Input device and input control program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10510097B2 (en) 2011-10-19 2019-12-17 Firstface Co., Ltd. Activating display and performing additional function in mobile terminal with one-time user input
US10896442B2 (en) 2011-10-19 2021-01-19 Firstface Co., Ltd. Activating display and performing additional function in mobile terminal with one-time user input
US11551263B2 (en) 2011-10-19 2023-01-10 Firstface Co., Ltd. Activating display and performing additional function in mobile terminal with one-time user input
JP2013099631A (en) * 2013-02-27 2013-05-23 Newgin Co Ltd Game machine
JP2015022730A (en) * 2013-07-23 2015-02-02 富士通株式会社 Image processing device, image processing method, and image processing program
JP2016027495A (en) * 2013-07-26 2016-02-18 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, and program
JP2017010451A (en) * 2015-06-25 2017-01-12 キヤノン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP5825921B2 (en) 2015-12-02

Similar Documents

Publication Publication Date Title
JP5854848B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6757268B2 (en) Imaging device and its control method
JP6833506B2 (en) Imaging device and its control method
JP6808529B2 (en) Imaging device and its control method
JP6833505B2 (en) Imaging control device and its control method
JP6873830B2 (en) Display control device, its control method and program
JP6914669B2 (en) Imaging device and its control method
JP5825921B2 (en) Display device and control method thereof
JP6833507B2 (en) Imaging control device and its control method
JP2019074928A (en) Electronic apparatus and control method thereof
JP5220157B2 (en) Information processing apparatus, control method therefor, program, and storage medium
US10742869B2 (en) Image pickup apparatus and control method for image pickup apparatus
JP2019075699A (en) Electronic device and control method of the same
JP2021033539A (en) Electronic apparatus, control method thereof, program, and storage medium
JP6808480B2 (en) Imaging control device and its control method
JP2018125802A (en) Imaging apparatus, control method, and program therefor
JP6128967B2 (en) Display control apparatus and control method thereof
JP6198459B2 (en) Display control device, display control device control method, program, and storage medium
WO2018150983A1 (en) Display control device and method
JP2020197976A (en) Electronic apparatus, control method for electronic apparatus, program, and recording medium
JP6525753B2 (en) Display control device, control method thereof, and program
JP7340978B2 (en) Display control device and method
JP7254454B2 (en) IMAGING CONTROL DEVICE AND METHOD FOR CONTROLLING IMAGING CONTROL DEVICE
JP7171252B2 (en) IMAGING CONTROL DEVICE AND METHOD FOR CONTROLLING IMAGING CONTROL DEVICE
JP6545048B2 (en) Electronic device, control method of electronic device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151013

R151 Written notification of patent or utility model registration

Ref document number: 5825921

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees