JP2016122471A - Touch panel input device and program - Google Patents

Touch panel input device and program Download PDF

Info

Publication number
JP2016122471A
JP2016122471A JP2016074633A JP2016074633A JP2016122471A JP 2016122471 A JP2016122471 A JP 2016122471A JP 2016074633 A JP2016074633 A JP 2016074633A JP 2016074633 A JP2016074633 A JP 2016074633A JP 2016122471 A JP2016122471 A JP 2016122471A
Authority
JP
Japan
Prior art keywords
touch position
touch
sensor
display surface
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016074633A
Other languages
Japanese (ja)
Inventor
智雄 山中
Tomoo Yamanaka
智雄 山中
知明 山田
Tomoaki Yamada
知明 山田
克明 和久井
Katsuaki Wakui
克明 和久井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2016074633A priority Critical patent/JP2016122471A/en
Publication of JP2016122471A publication Critical patent/JP2016122471A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce power consumption irrespective of the presence/absence of a backlight in a display panel.SOLUTION: While a single touch screen is displayed on a display surface 11a of a display panel, when a touch panel input device detects a touch position Pt touched and operated by a user, makes a first sensor 21x and a second sensor 22y (shown by solid white circles) corresponding to a portion of the detected touch position Pt and a portion of its peripheral area in an operation state, and makes a first sensor 21x and a second sensor 22y (shown by dot circles) other than the above sensors in a non-operation state.SELECTED DRAWING: Figure 17

Description

本発明は、画像形成装置、携帯情報端末装置、車載用情報端末装置等の各種電子機器に使用されるタッチパネル入力装置に関する。   The present invention relates to a touch panel input device used in various electronic devices such as an image forming apparatus, a portable information terminal device, and an in-vehicle information terminal device.

近時、プリンター、複合機(MFP:Multi Function Peripheral)等の画像形成装置、携帯端末装置、車載用端末装置等の電子機器には、タッチパネル入力装置が使用されることがある。タッチパネル入力装置には、通常、各種情報を表示する表示パネルと、ユーザーによって表示パネルの表面(以下、「表示面」という。)のタッチ位置を検出するタッチ位置検出機構とが設けられている。   In recent years, touch panel input devices are sometimes used for electronic devices such as image forming apparatuses such as printers and multifunction peripherals (MFPs), portable terminal devices, and in-vehicle terminal devices. Generally, a touch panel input device is provided with a display panel for displaying various types of information and a touch position detection mechanism for detecting a touch position on the surface of the display panel (hereinafter referred to as “display surface”) by a user.

タッチパネル入力装置がユーザーの指示を受け付ける場合には、表示パネルの表示面に所定の画像が表示される。表示面に表示される画像には、ユーザーのタッチ操作を受け付けるボタンやアイコン等の画像(以下、「ボタン画像」という。)が含まれている場合がある。ボタン画像には、例えばメニュー画面に表示される各種ボタンや、表示面に表示されるいわゆるソフトウエアキーボードの各キーなども含まれる。   When the touch panel input device accepts a user instruction, a predetermined image is displayed on the display surface of the display panel. An image displayed on the display surface may include an image such as a button or icon that accepts a user's touch operation (hereinafter referred to as “button image”). The button image includes, for example, various buttons displayed on the menu screen and so-called software keyboard keys displayed on the display surface.

表示面にボタン画像が表示される場合、ボタン画像の表示位置に対するタッチ位置がタッチ位置検出機構によって検出されると、そのボタンに対して予め割り当てられた例えばコピー開始の指示などを示す情報の入力が受け付けられる。
このようなタッチパネル入力装置では、ユーザーの操作性、視認性等を考慮して、表示パネルが大型化される傾向にある。しかし、表示パネルが大型化すると、表示パネルの消費電力が増加するだけでなく、表示パネルのタッチ位置を検出するタッチ位置検出機構の消費電力も増加する。このために、表示パネルが大型化しても、タッチパネル入力装置全体における消費電力の低減が要望されている。
When a button image is displayed on the display surface, when a touch position with respect to the display position of the button image is detected by the touch position detection mechanism, information indicating, for example, a copy start instruction assigned in advance to the button is input. Is accepted.
In such a touch panel input device, the display panel tends to be enlarged in consideration of user operability, visibility, and the like. However, when the display panel is enlarged, not only the power consumption of the display panel increases, but also the power consumption of the touch position detection mechanism that detects the touch position of the display panel increases. For this reason, even if a display panel enlarges, reduction of the power consumption in the whole touch panel input device is desired.

特許文献1には、液晶表示部と、液晶表示部に光を照射する光源部(バックライト)とを備えたタッチパネルを有する画像形成装置が開示されている。このタッチパネルでは、光源部によって液晶表示部に光が照射されることによって表示面に、印刷用紙のサイズなどの各種設定項目や設定項目選択キーなどを示す画像が表示される。
このような構成において、タッチ位置検出機構によって検出される設定項目の選択回数が少ない場合に、当該設定項目と設定項目選択キーの表示画像に照射される光の輝度が低下するようにバックライトが制御される。これにより、液晶表示部に光を照射するバックライトの消費電力を低減することができる。
Patent Document 1 discloses an image forming apparatus having a touch panel including a liquid crystal display unit and a light source unit (backlight) that emits light to the liquid crystal display unit. In this touch panel, an image showing various setting items such as the size of the printing paper, setting item selection keys, and the like is displayed on the display surface by irradiating the liquid crystal display unit with light from the light source unit.
In such a configuration, when the number of selections of the setting item detected by the touch position detection mechanism is small, the backlight is set so that the luminance of the light applied to the display image of the setting item and the setting item selection key is reduced. Be controlled. Thereby, the power consumption of the backlight which irradiates light to a liquid crystal display part can be reduced.

特開2012−47980号公報JP 2012-47980 A

しかしながら、特許文献1の技術は、液晶表示部の電力を低減できるにとどまり、タッチ位置検出機構の消費電力を低減するものではない。
表示パネルとして、最近普及しつつある、バックライトを有さない構成のものを用い、それにタッチ位置検出機構を設置して、バックライトを備えたものよりも更に低消費電力化を図ったタッチパネル入力装置が考えられるが、表示パネルの大型化、高画素化に応じてタッチ位置検出機構の消費電力の増大が無視できず、この点の改善が望まれている。
However, the technique of Patent Document 1 can only reduce the power of the liquid crystal display unit, and does not reduce the power consumption of the touch position detection mechanism.
A touch panel input that uses a configuration that does not have a backlight as a display panel and that has a backlight and is equipped with a touch position detection mechanism to achieve even lower power consumption than that with a backlight. Although an apparatus is conceivable, an increase in power consumption of the touch position detection mechanism cannot be ignored in accordance with an increase in the size of the display panel and an increase in the number of pixels, and improvement of this point is desired.

本発明は、上記の問題に鑑みてなされたものであり、その目的は、表示パネルがバックライトを有する構成であるか否かに関係なく、消費電力を低減することができるタッチパネル入力装置およびプログラムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a touch panel input device and a program capable of reducing power consumption regardless of whether the display panel has a backlight or not. Is to provide.

上記目的を達成するため、本発明の第1の局面に係るタッチパネル入力装置は、表示面を有する表示パネルと、前記表示パネルの表示面に所定の画面を表示する表示制御手段と、前記表示パネルの表示面上における任意のタッチ位置をX−Y直交座標系の2成分として検出可能なタッチ位置検出機構と、前記表示面上にユーザーのスライド操作を要求するスライド操作画面が表示されている場合において、前記タッチ位置検出機構によってタッチ位置が検出されると、検出されたタッチ位置部分と当該タッチ位置部分の周辺部分とを除いた前記表示面上の残りの部分に相当する直交座標系のX成分領域とY成分領域の検出をオフ状態にし、かつ前記タッチ位置部分および前記周辺部分に相当する直交座標系のX成分領域とY成分領域の検出を実行することを、前記タッチ位置検出機構に指示する検出指示手段と、を備えることを特徴とする。   In order to achieve the above object, a touch panel input device according to a first aspect of the present invention includes a display panel having a display surface, display control means for displaying a predetermined screen on the display surface of the display panel, and the display panel. When a touch position detection mechanism capable of detecting an arbitrary touch position on the display surface as two components of the XY rectangular coordinate system and a slide operation screen for requesting a user's slide operation are displayed on the display surface When the touch position is detected by the touch position detection mechanism, X in the orthogonal coordinate system corresponding to the remaining portion on the display surface excluding the detected touch position portion and the peripheral portion of the touch position portion. The detection of the component region and the Y component region is turned off, and the X component region and the Y component region of the orthogonal coordinate system corresponding to the touch position portion and the peripheral portion are detected. That row, characterized in that it comprises a detecting instruction means for instructing the touch position detecting mechanism.

ここで、前記検出指示手段は、前記タッチ位置部分および前記周辺部分に相当する直交座標系のX成分領域とY成分領域の検出を実行中に、前記スライド操作に伴い、前記タッチ位置検出機構によって前記タッチ位置とは異なる新たなタッチ位置が検出されると、前記表示面上における前記新たに検出されたタッチ位置部分と当該タッチ位置部分の周辺部分とを除いた残りの部分に相当する直交座標系のX成分領域とY成分領域の検出をオフ状態にし、かつ当該タッチ位置部分および周辺部分に相当する直交座標系のX成分領域とY成分領域の検出を実行する状態に遷移することを、前記タッチ位置検出機構に指示するとしても良い。   Here, the detection instruction means performs the detection of the X component area and the Y component area of the orthogonal coordinate system corresponding to the touch position portion and the peripheral portion by the touch position detection mechanism along with the slide operation. When a new touch position different from the touch position is detected, Cartesian coordinates corresponding to the remaining portion excluding the newly detected touch position portion and the peripheral portion of the touch position portion on the display surface Transition to a state in which detection of the X component area and the Y component area of the system is turned off, and detection of the X component area and the Y component area of the orthogonal coordinate system corresponding to the touch position portion and the peripheral portion is executed. The touch position detection mechanism may be instructed.

また、前記スライド操作画面は、タッチ位置が前記表示面上を1方向にスライドされることによって所定の情報の入力を受け付けるシングルタッチ画面であるとしても良い。
さらに、前記スライド操作画面は、タッチ位置が前記表示面上を異なる2方向にそれぞれスライドされることによって所定の情報の入力を受け付けるダブルタッチ画面であるとしても良い。
The slide operation screen may be a single touch screen that receives an input of predetermined information when the touch position is slid in one direction on the display surface.
Furthermore, the slide operation screen may be a double touch screen that receives input of predetermined information by sliding the touch position in two different directions on the display surface.

また、前記タッチ位置検出機構は、前記表示パネルにおける表示面の周囲に、Y軸方向に対向する2辺の一方に複数の発光素子からなる第1発光素子列とその他方に複数の受光素子からなる第1受光素子列とが対向配置され、かつ、X軸方向に対向する2辺の一方に複数の発光素子からなる第2発光素子列とその他方に複数の受光素子からなる第2受光素子列とが対向配置されてなる検出光学系と、前記それぞれの発光素子を制御する発光制御部と、を備え、前記検出指示手段は、前記タッチ位置の検出をオフ状態にすべきX成分領域とY成分領域の検出に用いられる発光素子に電力を供給せず、前記第1領域に相当する直交座標系のX成分領域とY成分領域のタッチ位置の検出に用いられる発光素子にタッチ位置の検出のための電力を供給する指示を前記発光制御部に対して行うとしても良い。   The touch position detection mechanism includes a first light-emitting element array including a plurality of light-emitting elements on one of two sides facing in the Y-axis direction and a plurality of light-receiving elements on the other side around the display surface of the display panel. A second light receiving element composed of a plurality of light receiving elements on one side of the two sides opposed in the X-axis direction and a second light receiving element composed of a plurality of light receiving elements on the other side. A detection optical system in which columns are arranged opposite to each other, and a light emission control unit that controls each of the light emitting elements, and the detection instruction unit includes: an X component region in which detection of the touch position is to be turned off; Detecting the touch position of the light emitting element used for detecting the touch position of the X component area and the Y component area of the orthogonal coordinate system corresponding to the first area without supplying power to the light emitting element used for detecting the Y component area Supply power for Instruction may be a performed on the light emission control unit that.

ここで、前記それぞれの発光素子は、個別にスイッチを介して発光側の電力供給線に接続されており、前記検出指示手段は、前記タッチ位置の検出をオフ状態にすべきX成分領域とY成分領域の検出に用いられる発光素子に接続されたスイッチがオフ状態になり、前記第1領域に相当する直交座標系のX成分領域とY成分領域のタッチ位置の検出に用いられる発光素子に接続されるスイッチがオン状態になるように、各スイッチのオンとオフの切り替え制御の指示を前記発光制御部に対して行うとしても良い。   Here, each of the light emitting elements is individually connected to a power supply line on the light emitting side through a switch, and the detection instruction means includes an X component region and a Y component in which the detection of the touch position should be turned off. The switch connected to the light emitting element used for detecting the component area is turned off and connected to the light emitting element used for detecting the touch position of the X component area and the Y component area of the orthogonal coordinate system corresponding to the first area. The light emission control unit may be instructed to switch each switch on and off so that the switch to be turned on.

本発明の第2の局面に係るプログラムは、表示面を有する表示パネルと、前記表示パネルの表示面上における任意のタッチ位置をX−Y直交座標系の2成分として検出可能なタッチ位置検出機構を有するタッチパネル入力装置のコンピューターに、前記表示パネルの表示面に所定の画面を表示する表示制御ステップと、前記表示面上にユーザーのスライド操作を要求するスライド操作画面が表示されている場合において、前記タッチ位置検出機構によってタッチ位置が検出されると、検出されたタッチ位置部分と当該タッチ位置部分の周辺部分とを除いた前記表示面上の残りの部分に相当する直交座標系のX成分領域とY成分領域の検出をオフ状態にし、かつ前記タッチ位置部分および前記周辺部分に相当する直交座標系のX成分領域とY成分領域の検出を実行することを、前記タッチ位置検出機構に指示する検出指示ステップと、を実行させることを特徴とする。   A program according to a second aspect of the present invention includes a display panel having a display surface, and a touch position detection mechanism capable of detecting an arbitrary touch position on the display surface of the display panel as two components of an XY orthogonal coordinate system. When a display control step for displaying a predetermined screen on the display surface of the display panel and a slide operation screen for requesting a user's slide operation are displayed on the display surface, the computer of the touch panel input device having When the touch position is detected by the touch position detection mechanism, the X component region of the orthogonal coordinate system corresponding to the remaining portion on the display surface excluding the detected touch position portion and the peripheral portion of the touch position portion. And the detection of the Y component region are turned off, and the X component region and the Y component of the orthogonal coordinate system corresponding to the touch position portion and the peripheral portion are set. To perform the detection region, characterized in that to execute a detection instruction step of instructing the touch position detecting mechanism.

本発明に係るタッチパネル入力装置では、表示パネルの表示面に表示されたスライド操作画面におけるタッチ位置部分およびその周辺部分だけの検出が実行される。これにより、タッチ位置のスライドおよびスライド方向の検出を可能としつつ、タッチ位置検出機構における消費電力を表示面の全域のタッチ位置を検出する場合よりも低減でき、タッチパネル入力装置全体の消費電力の低減を実現することができる。   In the touch panel input device according to the present invention, only the touch position portion and its peripheral portion on the slide operation screen displayed on the display surface of the display panel are detected. As a result, it is possible to detect the touch position slide and the slide direction, while reducing the power consumption of the touch position detection mechanism as compared with the case of detecting the touch positions of the entire display surface, and reducing the power consumption of the entire touch panel input device. Can be realized.

タッチパネル入力装置が設けられたMFPの外観を示す斜視図である。1 is a perspective view showing an external appearance of an MFP provided with a touch panel input device. タッチパネル入力装置の構成を説明するための模式図である。It is a schematic diagram for demonstrating the structure of a touchscreen input device. タッチパネル入力装置における表示パネルの表示面に表示されたタッチ操作画面の例を示す図である。It is a figure which shows the example of the touch operation screen displayed on the display surface of the display panel in a touch panel input device. タッチパネル入力装置における表示パネルの表示面に表示される別のタッチ操作画面の例を示す図である。It is a figure which shows the example of another touch operation screen displayed on the display surface of the display panel in a touch panel input device. タッチパネル入力装置において実行される省電力制御の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the power saving control performed in a touchscreen input device. 図5のフローチャートに連続する省電力制御の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the power saving control following the flowchart of FIG. タッチパネル入力装置における表示パネルの表示面に表示されるさらに別のタッチ操作画面の例を示す図である。It is a figure which shows the example of another touch operation screen displayed on the display surface of the display panel in a touch panel input device. 省電力制御において実行される操作頻度基準処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the operation frequency reference | standard process performed in power saving control. (a)は、操作頻度基準処理が実行される前のタッチ操作画面が表示パネルの表示面に表示された状態の模式図である。(b)は、(a)に示されたタッチ操作画面のボタン画像を、操作頻度基準処理の実行によって並び替えた変更画像が表示パネルの表示面に表示された状態の模式図である。(A) is a schematic diagram of the state in which the touch operation screen before the operation frequency reference processing is displayed on the display surface of the display panel. (B) is a schematic diagram of a state in which a modified image obtained by rearranging the button images on the touch operation screen shown in (a) by performing the operation frequency reference process is displayed on the display surface of the display panel. (a)は、複数列領域画像が表示パネルの表示面に表示された状態の模式図である。(b)は、(a)に示された複数列領域画像を、単列領域表示処理の実行によって並び替えた単列領域画像が表示パネルの表示面に表示された状態の模式図である。(A) is a schematic diagram of the state in which the multi-row region image is displayed on the display surface of the display panel. (B) is a schematic diagram of a state in which a single-row area image obtained by rearranging the multiple-row area image shown in (a) by rearranging the single-row area display process is displayed on the display surface of the display panel. 省電力制御において実行される単列領域表示処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the single row area | region display process performed in power saving control. (a)は、集中表示処理が実行可能と判定されるタッチ操作画面が表示パネルの表示面に表示された場合の一例を示す模式図である。(b)は、(a)に示されたタッチ操作画面のボタン画像を、集中表示処理の実行によって表示面の左側寄りに集中表示した画像が表示パネルの表示面に表示された状態の模式図である。(A) is a schematic diagram which shows an example when the touch operation screen determined that the concentrated display process is executable is displayed on the display surface of the display panel. (B) is a schematic diagram of a state in which an image in which the button image of the touch operation screen shown in (a) is intensively displayed on the left side of the display surface by executing the intensive display processing is displayed on the display surface of the display panel. It is. (a)は、タッチ操作画面のボタン画像を、集中表示処理の実行によって表示面の中央に集中表示した画像が表示パネルの表示面に表示された状態の模式図である。(b)は、タッチ操作画面のボタン画像を、集中表示処理の実行によって表示面の右側寄りに集中表示した画像が表示パネルの表示面に表示された状態の模式図である。(A) is a schematic diagram of a state in which an image in which button images on the touch operation screen are concentratedly displayed at the center of the display surface by executing concentrated display processing is displayed on the display surface of the display panel. (B) is a schematic diagram of a state in which an image in which button images on the touch operation screen are intensively displayed on the right side of the display surface by executing the intensive display processing is displayed on the display surface of the display panel. 省電力制御において実行される集中表示処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the centralized display process performed in power saving control. 省電力制御において実行されるスライド操作省電力処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the slide operation power saving process performed in power saving control. 図15のフローチャートに連続するスライド操作省電力処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the slide operation power saving process following the flowchart of FIG. 表示パネルに表示されたシングルタッチ画面上でのユーザーによるタッチ位置がスライド操作される前の状態とスライド操作された後の状態を説明するための模式図である。It is a schematic diagram for demonstrating the state before a slide operation of the touch position by the user on the single touch screen displayed on the display panel and the state after a slide operation are carried out. (a)は、表示パネルに表示されたダブルタッチ画面をユーザーがピンチアウト操作を行うために、最初に表示パネルをタッチ操作した状態を説明するための模式図である。(b)は、(a)に示す状態で、ユーザーがピンチアウト操作を実行した状態を説明するための模式図である。(A) is a schematic diagram for demonstrating the state which touch-operated the display panel first in order for a user to pinch out operation on the double touch screen displayed on the display panel. (B) is a schematic diagram for demonstrating the state which the user performed pinch out operation in the state shown to (a).

以下、本発明の実施の形態について説明する。
[MFP]
図1は、本発明の実施形態に係るタッチパネル入力装置が設けられた画像形成装置の一例であるMFPの外観を示す斜視図である。
このMFPは、画像形成本体部Aと、タッチパネル入力装置Bとを有している。
Embodiments of the present invention will be described below.
[MFP]
FIG. 1 is a perspective view showing an appearance of an MFP as an example of an image forming apparatus provided with a touch panel input device according to an embodiment of the present invention.
This MFP has an image forming main body A and a touch panel input device B.

画像形成本体部Aは、電子写真方式によって記録シート上にトナー画像を形成してプリントアウトする画像形成機能、原稿の画像を読み取るスキャン機能、スキャンされたデータを送信する送信機能等を備えている。
タッチパネル入力装置Bは、各種情報の入力を受け付けるための画像を表示する機能と、画像が表示された表示面に対するユーザーのタッチ操作およびタッチ位置を検出する機能とを有している。
The image forming main body A has an image forming function for forming a toner image on a recording sheet by an electrophotographic method and printing it out, a scanning function for reading an image of a document, a transmission function for transmitting scanned data, and the like. .
The touch panel input device B has a function of displaying an image for accepting input of various information, and a function of detecting a user's touch operation and a touch position on the display surface on which the image is displayed.

[タッチパネル入力装置]
図2は、本実施形態に係るタッチパネル入力装置Bの構成を説明するための模式図である。タッチパネル入力装置Bは、表示パネル10およびタッチ位置検出機構20と、表示パネル10およびタッチ位置検出機構20のそれぞれを制御する主制御部30とを有している。
[Touch panel input device]
FIG. 2 is a schematic diagram for explaining the configuration of the touch panel input device B according to the present embodiment. The touch panel input device B includes a display panel 10 and a touch position detection mechanism 20, and a main control unit 30 that controls the display panel 10 and the touch position detection mechanism 20.

表示パネル10は、各種画像が表示される表示パネル本体11と、表示パネル本体11を制御する表示制御部13とを有している。
表示パネル10の表示パネル本体11は、例えば液晶表示パネルによって構成されている。なお、表示パネル本体11は、バックライトが設けられた構成、バックライトが設けられていない構成のいずれであってもよい。
The display panel 10 includes a display panel main body 11 on which various images are displayed, and a display control unit 13 that controls the display panel main body 11.
The display panel body 11 of the display panel 10 is constituted by, for example, a liquid crystal display panel. The display panel body 11 may have either a configuration provided with a backlight or a configuration provided with no backlight.

表示制御部13は、表示パネル本体11における表示面11a(図1において正面側に向けられた表面)に各種画像が表示されるように表示パネル本体11を制御する。
表示パネル本体11の表示面11aは横長の長方形状に構成されており、ユーザーによるタッチ操作が可能になっている。なお、以下においては、表示面11aにおける横方向を「X方向」、縦方向を「Y方向」とする。
The display control unit 13 controls the display panel body 11 so that various images are displayed on the display surface 11a (the surface facing the front side in FIG. 1) of the display panel body 11.
The display surface 11a of the display panel main body 11 is configured in a horizontally long rectangular shape, and can be touched by the user. In the following, the horizontal direction on the display surface 11a is referred to as “X direction”, and the vertical direction is referred to as “Y direction”.

タッチ位置検出機構20は、表示パネル本体11の表示面11a上におけるユーザーの指、入力ペン等によるタッチ位置を検出する。
タッチ位置検出機構20は、表示パネル10における表示面11aの周囲であって、Y軸方向に対向する2辺の一方に設けられた第1発光部21Aと、他方に設けられた第1受光部21Bとを有している。第1発光部21Aには、複数の第1発光素子21aからなる第1発光素子列21Mが設けられている。第1受光部21Bには、複数の第1受光素子21bからなる第1受光素子列21Nが設けられている。
The touch position detection mechanism 20 detects a touch position on the display surface 11a of the display panel body 11 by a user's finger, an input pen, or the like.
The touch position detection mechanism 20 includes a first light emitting unit 21A provided on one of two sides facing the Y axis direction around the display surface 11a of the display panel 10, and a first light receiving unit provided on the other side. 21B. The first light emitting unit 21A is provided with a first light emitting element array 21M including a plurality of first light emitting elements 21a. The first light receiving unit 21B is provided with a first light receiving element array 21N including a plurality of first light receiving elements 21b.

また、タッチ位置検出機構20は、表示パネル10における表示面11aの周囲であって、X軸方向に対向する2辺の一方に設けられた第2発光部22Aと、他方に設けられた第2受光部22Bとを有している。第2発光部22Aには、複数の第2発光素子22aからなる第2発光素子列22Mが設けられている。第2受光部22Bには、複数の第2受光素子22bからなる第2受光素子列22Nが設けられている。   The touch position detection mechanism 20 includes a second light emitting unit 22A provided on one of the two sides facing the X-axis direction around the display surface 11a of the display panel 10, and a second provided on the other side. And a light receiving portion 22B. The second light emitting unit 22A is provided with a second light emitting element array 22M including a plurality of second light emitting elements 22a. The second light receiving unit 22B is provided with a second light receiving element array 22N including a plurality of second light receiving elements 22b.

第1発光部21Aおよび第1受光部21Bと、第2発光部22Aおよび第2受光部22Bとは、表示面11a上のタッチ位置を検出する検出光学系を構成している。
第1発光部21Aにおける各第1発光素子21aは、LEDによってそれぞれ構成されており、それぞれがX方向に沿って一定の間隔、例えば2〜3mm程度をあけて配置されている。各第1発光素子21aは、それぞれから照射される光が、表示パネル本体11の表示面11aに対して例えば1〜2mm程度の上方域をY方向に沿って通過するように設けられている。
The first light emitting unit 21A and the first light receiving unit 21B, and the second light emitting unit 22A and the second light receiving unit 22B constitute a detection optical system that detects a touch position on the display surface 11a.
Each first light-emitting element 21a in the first light-emitting portion 21A is configured by an LED, and each is arranged with a constant interval, for example, about 2 to 3 mm along the X direction. Each of the first light emitting elements 21a is provided so that light emitted from each of the first light emitting elements 21a passes through an upper region of, for example, about 1 to 2 mm along the Y direction with respect to the display surface 11a of the display panel body 11.

第1発光素子21aのそれぞれは、常開の第1発光側スイッチ21cを介して、1本の第1発光側電力供給線21eに接続されている。第1発光側スイッチ21cのそれぞれは、発光制御部25によって、オン(開)状態およびオフ(閉)状態に制御される。
発光制御部25は、主制御部30からの指示により、選択された1つの第1発光側スイッチ21cを、所定のタイミングでオン状態に制御する。この場合、他の第1発光側スイッチ21cはオフ状態に制御される。
Each of the first light emitting elements 21a is connected to one first light emitting side power supply line 21e via a normally open first light emitting side switch 21c. Each of the first light emission side switches 21c is controlled by the light emission control unit 25 to an on (open) state and an off (closed) state.
In response to an instruction from the main control unit 30, the light emission control unit 25 controls the selected first light emission side switch 21c to be in an on state at a predetermined timing. In this case, the other first light emission side switch 21c is controlled to be in an OFF state.

第1発光側電力供給線21eには、発光側電流制御部23によって制御された電流が供給される。発光側電流制御部23は発光制御部25によって制御される。発光側電流制御部23は、いずれか1つの第1発光側スイッチ21cがオン状態になるタイミングで、第1発光側電力供給線21eに所定の電流を供給する。
これにより、オン状態になる第1発光側スイッチ21cが接続された第1発光素子21aに所定の電流が供給される。当該第1発光素子21aは、供給された電流に対応した強度の光を発光する動作状態(駆動状態)になる。
A current controlled by the light emission side current control unit 23 is supplied to the first light emission side power supply line 21e. The light emission side current control unit 23 is controlled by the light emission control unit 25. The light emission side current control unit 23 supplies a predetermined current to the first light emission side power supply line 21e at a timing when any one of the first light emission side switches 21c is turned on.
Thereby, a predetermined current is supplied to the first light emitting element 21a connected to the first light emitting side switch 21c to be turned on. The first light emitting element 21a enters an operation state (driving state) in which light having an intensity corresponding to the supplied current is emitted.

この場合、オン状態になった第1発光側スイッチ21c以外の第1発光側スイッチ21cはオフ状態とされる。このために、オフ状態になった第1発光側スイッチ21cに接続された第1発光素子21aには、第1発光側電力供給線21eから電流は供給されず、それぞれは、発光が停止した非動作状態(非駆動状態)になる。
発光制御部25は、第1発光側スイッチ21cのそれぞれを、X方向に沿って配置された順番で一つずつオン状態とし、それ以外をオフ状態に切り替え制御する。
In this case, the first light emission side switches 21c other than the first light emission side switch 21c that is turned on are turned off. For this reason, no current is supplied from the first light emitting side power supply line 21e to the first light emitting element 21a connected to the first light emitting side switch 21c that has been turned off, The operation state (non-drive state) is entered.
The light emission control unit 25 turns on each of the first light emission side switches 21c one by one in the order arranged along the X direction, and controls the other switches to the off state.

この第1発光側スイッチ21cのオンとオフの切り替え制御は、後述する省電力制御が実行される場合、全ての第1発光側スイッチ21cが対象になるのではなく、複数個の第1発光素子21aのうち、非動作状態(オフ状態)に設定された第1発光素子21aに接続される第1発光側スイッチ21cについては、オン状態とされずにオフ状態を維持する制御が実行されるようになっている。切り替え制御の対象とされる各第1発光側スイッチ21cを1つずつ順番にオンする場合の切り替え周期は、例えば数ミリ秒や数十ミリ秒とすることができる。第2発光部22Aも同様である。   The on / off switching control of the first light emission side switch 21c is not intended for all the first light emission side switches 21c when the power saving control described later is executed, but a plurality of first light emitting elements. Of the 21a, the first light emission side switch 21c connected to the first light emitting element 21a set to the non-operating state (off state) is controlled to maintain the off state without being turned on. It has become. The switching cycle when the first light emission side switches 21c to be switched are sequentially turned on one by one can be set to several milliseconds or several tens of milliseconds, for example. The same applies to the second light emitting unit 22A.

第1発光部21Aに対向する第1受光部21Bにおける各第1受光素子21bは、それぞれフォトダイオードによって構成されている。第1受光素子21bのそれぞれは、第1発光素子21aのそれぞれから照射された光を受光するように、第1発光素子21aのそれぞれに対向して配置されている。従って、第1受光素子21bのそれぞれも、第1発光素子21aのそれぞれと同様に、X方向に沿って2〜3mm程度の一定の間隔をあけて配置されている。   Each first light receiving element 21b in the first light receiving unit 21B facing the first light emitting unit 21A is configured by a photodiode. Each of the first light receiving elements 21b is disposed to face each of the first light emitting elements 21a so as to receive the light emitted from each of the first light emitting elements 21a. Accordingly, each of the first light receiving elements 21b is also arranged at a constant interval of about 2 to 3 mm along the X direction, similarly to each of the first light emitting elements 21a.

第1受光素子21bのそれぞれは、第1受光側スイッチ21dを介して、1本の第1受光側電力供給線21fに接続されている。第1受光側電力供給線21fには、受光側電流制御部24によって制御された電流が供給される。
第1受光素子21bに接続された第1受光側スイッチ21dは、受光制御部26によって、第1受光素子21bに対向する第1発光素子21aに接続された第1発光側スイッチ21cに同期してオンおよびオフされる。従って、いずれか1つの第1発光素子21aが動作(発光)状態になるタイミングで、当該第1発光素子21aに対向する第1受光素子21bに接続された第1受光側スイッチ21dがオン状態に制御される。
Each of the first light receiving elements 21b is connected to one first light receiving side power supply line 21f via a first light receiving side switch 21d. A current controlled by the light-receiving-side current control unit 24 is supplied to the first light-receiving-side power supply line 21f.
The first light receiving side switch 21d connected to the first light receiving element 21b is synchronized with the first light emitting side switch 21c connected to the first light emitting element 21a facing the first light receiving element 21b by the light receiving control unit 26. On and off. Accordingly, the first light receiving side switch 21d connected to the first light receiving element 21b facing the first light emitting element 21a is turned on at a timing when any one of the first light emitting elements 21a enters the operating (light emitting) state. Be controlled.

受光側電流制御部24は、受光制御部26の指示により、第1受光側スイッチ21dがオンするタイミングで、予め設定された所定の電流を第1受光側電力供給線21fに供給する。従って、第1受光素子21bに接続された第1受光側スイッチ21dがオンするタイミングで、当該第1受光素子21bに所定の電流が供給される。これにより、第1受光素子21bのそれぞれは、第1受光側スイッチ21dがオンするタイミングで、光に反応する動作状態(駆動(オン)状態)になる。   The light-receiving-side current control unit 24 supplies a predetermined current set in advance to the first light-receiving-side power supply line 21f at a timing when the first light-receiving side switch 21d is turned on according to an instruction from the light receiving control unit 26. Accordingly, a predetermined current is supplied to the first light receiving element 21b at the timing when the first light receiving side switch 21d connected to the first light receiving element 21b is turned on. As a result, each of the first light receiving elements 21b enters an operation state (drive (on) state) that reacts to light at the timing when the first light receiving side switch 21d is turned on.

動作状態になった第1受光素子21bは、対向する第1発光素子21aから発せられた光を受光すると、受光した光の強度に対応した電流を出力する。第1受光素子21bのそれぞれの出力は、主制御部30に与えられている。
第1受光素子21bが動作状態の場合、対向する第1発光素子21aから照射された光が、表示面11aをタッチした指等によって遮光されると、第1受光素子21bが受光する光の強度は低下し、当該第1受光素子21bから出力される電流が低下する。
When the first light receiving element 21b in the operating state receives light emitted from the opposing first light emitting element 21a, the first light receiving element 21b outputs a current corresponding to the intensity of the received light. Each output of the first light receiving element 21 b is given to the main control unit 30.
When the first light receiving element 21b is in an operating state, the intensity of the light received by the first light receiving element 21b when the light emitted from the opposing first light emitting element 21a is blocked by a finger or the like touching the display surface 11a Decreases, and the current output from the first light receiving element 21b decreases.

主制御部30は、動作状態になった第1受光素子21bから出力される電流値が予め設定された電流値(以下、「閾値電流」という。)よりも低下すると、ユーザーによって表示面31aがタッチ操作されたものと判定する。
これに対して、第1発光素子21aが非動作(非発光)状態に設定される場合には、当該第1発光素子21aに対向する第1受光素子21bに接続された第1受光側スイッチ21dは、オフ状態を維持するように制御される。これにより、オフ状態の第1受光側スイッチ21dに接続された第1受光素子21bは、第1受光側電力供給線21fから電流が供給されず、光に反応しない非動作状態(オフ状態)になる。このような非動作状態の第1受光素子21bは、対向する第1発光素子21aから照射される光を受光したとしても、電流を出力することはない。
When the current value output from the first light receiving element 21b in the operating state falls below a preset current value (hereinafter referred to as “threshold current”), the main control unit 30 causes the display surface 31a to be displayed by the user. It is determined that the touch operation has been performed.
On the other hand, when the first light emitting element 21a is set to a non-operating (non-light emitting) state, the first light receiving side switch 21d connected to the first light receiving element 21b facing the first light emitting element 21a. Is controlled to maintain the OFF state. Thereby, the first light receiving element 21b connected to the first light receiving side switch 21d in the off state is not supplied with current from the first light receiving side power supply line 21f, and is in a non-operating state (off state) that does not react to light. Become. Even if the first light receiving element 21b in such a non-operating state receives light emitted from the first light emitting element 21a facing the first light receiving element 21b, no current is output.

主制御部30は、順番に一つずつ動作状態になった第1受光素子21bのうち、出力される電流値が予め設定された閾値電流よりも低下した第1受光素子21b、すなわちユーザーによるタッチ操作を判定した第1受光素子21bを特定し、特定した第1受光素子21bのX座標位置に基づいて、表示面11aにおけるタッチ位置のX座標を検出する。なお、それぞれの第1受光素子21bごとに表示面11aに対するX座標位置が予め対応付けて記憶されている。   The main control unit 30 selects the first light receiving element 21b in which the output current value is lower than the preset threshold current among the first light receiving elements 21b that are in the operating state one by one, that is, the touch by the user. The first light receiving element 21b for which the operation has been determined is specified, and the X coordinate of the touch position on the display surface 11a is detected based on the specified X coordinate position of the first light receiving element 21b. In addition, the X coordinate position with respect to the display surface 11a is previously stored in association with each first light receiving element 21b.

このように、表示面11aにおける異なるX座標位置において相互に対向して配置された第1発光素子21aおよび第1受光素子21bの組は、表示面11aにおけるX成分領域のタッチ位置を検出する第1センサー21x(検出部)を構成している。第1センサー21xのそれぞれは、当該第1センサー21xが配置されたX座標位置におけるY方向に沿った全域をタッチ位置の検出対象とした透過型光学センサーになっている。   As described above, the set of the first light emitting element 21a and the first light receiving element 21b arranged to face each other at different X coordinate positions on the display surface 11a detects the touch position of the X component region on the display surface 11a. One sensor 21x (detection unit) is configured. Each of the first sensors 21x is a transmissive optical sensor in which the entire area along the Y direction in the X coordinate position where the first sensor 21x is arranged is the touch position detection target.

次に、第2発光部22Aおよび第2受光部22Bについて説明する。
第2発光部22Aにおける各第2発光素子22aもLEDによってそれぞれ構成されており、それぞれがY方向に沿って一定の間隔、例えば2〜3mm程度をあけて配置されている。第2発光部22Aは、各第2発光素子22aから照射される光が、表示パネル本体11の表示面11aに対して例えば1〜2mm程度の上方域をX方向に沿って通過すること以外は、第1発光部21Aと同様の構成になっている。
Next, the second light emitting unit 22A and the second light receiving unit 22B will be described.
Each of the second light emitting elements 22a in the second light emitting section 22A is also configured by an LED, and each is arranged with a constant interval, for example, about 2 to 3 mm along the Y direction. 22 A of 2nd light emission parts are except the light irradiated from each 2nd light emitting element 22a passing along the X direction about the upper area of about 1-2 mm with respect to the display surface 11a of the display panel main body 11, for example. The first light emitting unit 21A has the same configuration.

具体的には、第2発光素子22aのそれぞれは、第2発光側スイッチ22cを介して、1本の第2発光側電力供給線22eに接続されている。第2発光側スイッチ22cのそれぞれは、発光制御部25によって、オン状態およびオフ状態に制御される。また、第2発光側電力供給線22eに供給される電流は、発光側電流制御部23によって制御される。
このような構成の第2発光部22Aは、動作状態に設定された第2発光素子22aが、Y方向に沿って順番に動作状態となるように制御される。このこと以外は、第1発光部21Aと同様になっており、従って、非動作状態に設定された第2発光素子22aは、電流が供給されないことにより、非発光状態を維持する。
Specifically, each of the second light emitting elements 22a is connected to one second light emitting side power supply line 22e via the second light emitting side switch 22c. Each of the second light emission side switches 22c is controlled by the light emission control unit 25 to an on state and an off state. The current supplied to the second light emission side power supply line 22 e is controlled by the light emission side current control unit 23.
The second light emitting unit 22A having such a configuration is controlled such that the second light emitting elements 22a set to the operating state sequentially enter the operating state along the Y direction. Except for this, it is the same as the first light emitting unit 21A, and therefore the second light emitting element 22a set to the non-operating state maintains the non-light emitting state when no current is supplied.

第2発光部22Aに対向する第2受光部22Bにおける各第2受光素子22bも、それぞれフォトダイオードによって構成されている。第2受光素子22bのそれぞれは、第2発光素子22aのそれぞれから照射された光を受光するように、第2発光素子22aのそれぞれに対向して配置されている。第2受光部22Bも、第2受光素子22bがY方向に沿って配置されていること以外は、第1受光部22Aと同様の構成になっている。   Each second light receiving element 22b in the second light receiving unit 22B facing the second light emitting unit 22A is also configured by a photodiode. Each of the second light receiving elements 22b is disposed to face each of the second light emitting elements 22a so as to receive the light emitted from each of the second light emitting elements 22a. The second light receiving unit 22B has the same configuration as the first light receiving unit 22A except that the second light receiving element 22b is arranged along the Y direction.

具体的には、第2受光部22Bにおける第2受光素子22bのそれぞれは、第2受光側スイッチ22dを介して、1本の第2受光側電力供給線22fに接続されている。第2受光側スイッチ22dのそれぞれは、受光制御部26によって、オン状態およびオフ状態に制御される。また、第2受光側電力供給線22fに供給される電流は、受光側電流制御部24によって制御される。   Specifically, each of the second light receiving elements 22b in the second light receiving unit 22B is connected to one second light receiving side power supply line 22f via the second light receiving side switch 22d. Each of the second light receiving side switches 22d is controlled by the light receiving control unit 26 to an on state and an off state. The current supplied to the second light receiving side power supply line 22f is controlled by the light receiving side current control unit 24.

このような構成の第2受光部22Bは、第1受光部21Bと同様に、第2受光素子22bのそれぞれが、対向する第2発光素子22aが動作状態になるタイミングで動作状態になるように制御される。
動作状態になった第2受光素子22bは、受光量に対応した電流を主制御部30に出力する。また、第2受光素子22bは、電流が供給されないことにより、光に反応しない非動作状態になり、光を受光しても電流を出力することはない。
Similarly to the first light receiving unit 21B, the second light receiving unit 22B having such a configuration is set so that each of the second light receiving elements 22b is in an operating state at a timing when the opposing second light emitting element 22a is in an operating state. Be controlled.
The second light receiving element 22b in the operating state outputs a current corresponding to the amount of received light to the main control unit 30. In addition, the second light receiving element 22b is in a non-operating state that does not react to light because no current is supplied, and does not output current even when light is received.

第2受光素子22bが動作状態の場合、対向する第2発光素子22aから照射された光が、表示面11aをタッチした指等によって遮光されると、第2受光素子22bが受光する光の強度は低下し、当該第2受光素子22bから出力される電流が低下する。
一方で、第2発光素子22aが非動作(非発光)状態に設定される場合には、当該第2発光素子22aに対向する第2受光素子22bに接続された第2受光側スイッチ22dは、オフ状態を維持するように制御される。これにより、オフ状態の第2受光側スイッチ22dに接続された第2受光素子22bは、第2受光側電力供給線22fから電流が供給されず、光に反応しない非動作状態(オフ状態)になる。
When the second light receiving element 22b is in an operating state, the intensity of light received by the second light receiving element 22b when the light emitted from the opposing second light emitting element 22a is blocked by a finger or the like touching the display surface 11a. Decreases, and the current output from the second light receiving element 22b decreases.
On the other hand, when the second light emitting element 22a is set to a non-operating (non-light emitting) state, the second light receiving side switch 22d connected to the second light receiving element 22b facing the second light emitting element 22a is: It is controlled to maintain the off state. As a result, the second light receiving element 22b connected to the second light receiving side switch 22d in the off state is not supplied with current from the second light receiving side power supply line 22f and is in a non-operating state (off state) that does not react to light. Become.

主制御部30は、順番に一つずつ動作状態になった第2受光素子22bのうち、出力される電流値が閾値電流よりも低下した第2受光素子22b、すなわちユーザーによるタッチ操作を検出した第2受光素子22bを特定し、特定した第2受光素子22bのY座標位置に基づいて、表示面11aにおけるタッチ位置のY座標を検出する。なお、第2受光素子22bの座標位置は、第2受光素子22bごとに予め対応付けされて記憶されている。   The main control unit 30 detects the second light receiving element 22b in which the output current value is lower than the threshold current among the second light receiving elements 22b that are in the operating state one by one, that is, the touch operation by the user. The second light receiving element 22b is specified, and the Y coordinate of the touch position on the display surface 11a is detected based on the specified Y coordinate position of the second light receiving element 22b. The coordinate position of the second light receiving element 22b is stored in advance in association with each second light receiving element 22b.

このタッチ位置のY座標の検出と上記のX座標の検出により、表示面11a上におけるユーザーのタッチ操作によるタッチ位置がX−Y直交座標系の座標として検出される。
このように、表示面11aにおける異なるY座標位置において相互に対向して配置された第2発光素子22aおよび第2受光素子22bの組は、表示面11aにおけるY成分領域のタッチ位置を検出する第2センサー22y(検出部)を構成している。第2センサー22yのそれぞれは、当該第2センサー22yが配置されたY座標位置におけるX方向に沿った全域をタッチ位置の検出対象とした透過型光学センサーになっている。
By detecting the Y coordinate of the touch position and detecting the X coordinate, the touch position by the user's touch operation on the display surface 11a is detected as coordinates in the XY orthogonal coordinate system.
As described above, the set of the second light emitting element 22a and the second light receiving element 22b arranged to face each other at different Y coordinate positions on the display surface 11a detects the touch position of the Y component region on the display surface 11a. 2 sensor 22y (detection part) is constituted. Each of the second sensors 22y is a transmissive optical sensor in which the entire area along the X direction at the Y coordinate position where the second sensor 22y is disposed is the detection target of the touch position.

主制御部30は、所定の情報の入力を受け付ける入力操作画面を表示パネル本体11の表示面11aに表示することを表示制御部13に指示する。
また、表示面11a上に入力操作画面が表示された状態で、タッチ位置検出機構20によってタッチ位置が検出されると、主制御部30は、検出されたタッチ位置に基づいて所定の情報の入力を受け付ける。
The main control unit 30 instructs the display control unit 13 to display an input operation screen for receiving input of predetermined information on the display surface 11 a of the display panel body 11.
Further, when the touch position is detected by the touch position detection mechanism 20 in a state where the input operation screen is displayed on the display surface 11a, the main control unit 30 inputs predetermined information based on the detected touch position. Accept.

[入力操作画面]
次に、表示パネル本体11の表示面11aに表示される入力操作画面について説明する。入力操作画面には、タッチ操作画面とスライド操作画面とがある。
タッチ操作画面は、例えば図3に示す画面からなり、1つの画面内に、ユーザーによる表示面11aのタッチ操作によって所定の情報の入力を受け付ける1個以上のボタン画像、ここではB1〜B4が含まれている。ここで、ボタン画像とは、ユーザーがタッチ操作する、若しくは、ユーザーのタッチ操作による文字入力を要求するボタンやキーなどの形状を示す画像をいう。
[Input operation screen]
Next, an input operation screen displayed on the display surface 11a of the display panel body 11 will be described. The input operation screen includes a touch operation screen and a slide operation screen.
The touch operation screen includes, for example, the screen illustrated in FIG. 3, and includes one or more button images, in this case, B <b> 1 to B <b> 4 that receive predetermined information input by a user's touch operation on the display surface 11 a. It is. Here, the button image refers to an image indicating the shape of a button, a key, or the like that is touched by the user or that requests character input by the user's touch operation.

タッチ操作画面が表示面11aに表示されると、表示面11aは、ボタン画像が表示されている部分(第1領域)と、ボタン画像以外の表示画像あるいは背景画像が存在する残りの部分(第2領域)のいずれかになる。以下では、ボタン画像以外の残りの部分の画像を背景画像、第1領域をボタン画像領域、第2領域を背景画像領域という。
表示面11aにタッチ操作画面が表示されると、前述したように、タッチ位置検出機構20は、表示面11aのタッチ位置(X−Y座標)を検出し、主制御部30は、そのタッチ位置からどのボタン画像領域がタッチ操作されたのか、すなわちユーザーによりどのボタンが選択されたのかを特定する。
When the touch operation screen is displayed on the display surface 11a, the display surface 11a has a portion where the button image is displayed (first region) and a remaining portion where the display image or background image other than the button image exists (the first region). 2 region). Hereinafter, the remaining image other than the button image is referred to as a background image, the first area is referred to as a button image area, and the second area is referred to as a background image area.
When the touch operation screen is displayed on the display surface 11a, as described above, the touch position detection mechanism 20 detects the touch position (XY coordinate) of the display surface 11a, and the main control unit 30 detects the touch position. Which button image area is touch-operated, that is, which button is selected by the user.

そして、主制御部30は、ボタン画像領域に表示されたボタン画像に予め設定された所定の情報の入力(文字入力を含む)を受け付けて、受け付けられた所定の情報に関する処理を画像形成本体部Aに指示する。
一方、スライド操作画面とは、ユーザーが表示面11aのタッチ位置をスライドさせることによって所定の情報の入力を受け付ける場合に、表示面11aに表示される画面であり、シングルタッチ画面とダブルタッチ画面の2つがある。
The main control unit 30 receives input of predetermined information (including character input) set in advance in the button image displayed in the button image area, and performs processing related to the received predetermined information in the image forming main body unit. Instruct A.
On the other hand, the slide operation screen is a screen displayed on the display surface 11a when the user receives an input of predetermined information by sliding the touch position on the display surface 11a, and includes a single touch screen and a double touch screen. There are two.

シングルタッチ画面とは、フリック操作のように、例えば、表示面11aにタッチされた1本の指を1方向へスライドさせることによって所定の情報の入力を受け付ける際に表示される(図17参照)。
一方、ダブルタッチ画面とは、ピンチイン操作およびピンチアウト操作のように、例えば、表示面11aにタッチされた2本の指を相反する方向へスライドさせることによって所定情報の入力を受け付ける際に表示される(図18参照)。
The single touch screen is displayed when an input of predetermined information is accepted by sliding one finger touched on the display surface 11a in one direction as in a flick operation (see FIG. 17). .
On the other hand, the double touch screen is displayed when an input of predetermined information is received by sliding two fingers touched on the display surface 11a in opposite directions, such as a pinch-in operation and a pinch-out operation. (See FIG. 18).

図2に戻って、主制御部30の記憶部(不図示)には、複数のタッチ操作画面、複数のスライド操作画面のそれぞれの画像データが予め記憶されている。主制御部30は、記憶部に記憶された複数のタッチ操作画面またはスライド操作画面から選択された1つの画面を表示面11aに表示することを表示制御部13に指示する。
表示制御部13は、主制御部30の指示により、タッチ操作画面、スライド操作画面におけるシングルタッチ画面またはダブルタッチ画面のいずれか1つを、入力操作画面として表示面11aに表示する。表示面11aに表示された入力操作画面に対するタッチ操作によって所定情報の入力が受け付けられると、必要に応じて異なる入力操作画面が表示面11aに表示される。
Returning to FIG. 2, image data of each of the plurality of touch operation screens and the plurality of slide operation screens is stored in advance in a storage unit (not shown) of the main control unit 30. The main control unit 30 instructs the display control unit 13 to display one screen selected from a plurality of touch operation screens or slide operation screens stored in the storage unit on the display surface 11a.
In response to an instruction from the main control unit 30, the display control unit 13 displays any one of a touch operation screen, a single touch screen or a double touch screen in the slide operation screen as an input operation screen on the display surface 11a. When an input of predetermined information is accepted by a touch operation on the input operation screen displayed on the display surface 11a, a different input operation screen is displayed on the display surface 11a as necessary.

<タッチ操作画面>
次に、表示パネル本体11の表示面11aに表示されるタッチ操作画面を、図3を用いて具体的に説明する。
図3に示すタッチ操作画面には、表示面11aに表示される複数のボタン画像、ここでは4つのボタン画像B1〜B4が含まれている。この表示面11aにおけるボタン画像B1〜B4のそれぞれの表示領域がボタン画像領域になる。
<Touch operation screen>
Next, the touch operation screen displayed on the display surface 11a of the display panel body 11 will be specifically described with reference to FIG.
The touch operation screen shown in FIG. 3 includes a plurality of button images displayed on the display surface 11a, here, four button images B1 to B4. The display areas of the button images B1 to B4 on the display surface 11a become button image areas.

ボタン画像B1〜B4は、表示面11aにおける上下方向(Y方向)の下側において、X方向に沿って相互に間隔を空けた状態で1列に並んで表示されている。最も右側に表示されたボタン画像B1は楕円形状になっており、例えば、画像形成本体部Aにおいてコピー動作などの各種動作モードでの動作の開始を受け付けるスタートボタンを表示する画像になっている。   The button images B <b> 1 to B <b> 4 are displayed side by side in a row in the state of being spaced apart from each other along the X direction on the lower side of the display surface 11 a in the vertical direction (Y direction). The button image B1 displayed on the rightmost side has an oval shape. For example, the image forming main body A is an image that displays a start button that accepts the start of operations in various operation modes such as a copy operation.

ボタン画像B1に対して左側方向に順番に並んで表示されたボタン画像B2、B3、B4は、それぞれ同じ大きさの矩形状になっている。
ボタン画像B2は、画像形成時の画質調整の選択を受け付ける選択キーを表示する画像であり、ボタン画像B3は、スキャン動作時における原稿の読取モード(片面/両面読取など)の選択を受け付ける選択キーを表示する画像であり、ボタン画像B4は、画像形成動作時において使用される用紙サイズの選択を受け付ける選択キーを表示する画像になっている。これら隣り合うボタン画像同士のX方向の間隔は、等しくなっている。
The button images B2, B3, and B4 displayed side by side in order with respect to the button image B1 have rectangular shapes of the same size.
The button image B2 is an image that displays a selection key that accepts selection of image quality adjustment at the time of image formation, and the button image B3 is a selection key that accepts selection of a document reading mode (single-sided / double-sided reading, etc.) during a scanning operation. The button image B4 is an image that displays a selection key for accepting selection of the paper size used during the image forming operation. The intervals in the X direction between these adjacent button images are equal.

表示面11aにおけるボタン画像B1〜B4の表示位置であるボタン画像領域のいずれかがタッチ操作されると、主制御部30は、タッチ操作されたボタン画像に設定された情報(動作開始時など)が指示されたものとして、その指示を受け付ける。
表示面11a上の全ての領域のうち、ボタン画像B1〜B4が表示されている領域以外の領域が背景画像領域であり、具体的には表示面11aにおける右側の辺とボタン画像B1との間、表示面11aにおける左側の辺とボタン画像B4との間、隣り合う2つのボタン画像の間、ボタン画像B1〜B4がX方向に並ぶ領域と表示面11aにおける上側の辺との間が含まれる。
When any one of the button image areas which are the display positions of the button images B1 to B4 on the display surface 11a is touch-operated, the main control unit 30 sets information set on the touch-operated button image (such as when the operation starts). Is accepted as an instruction.
Of all the regions on the display surface 11a, the region other than the region where the button images B1 to B4 are displayed is the background image region, and specifically, between the right side of the display surface 11a and the button image B1. In addition, between the left side of the display surface 11a and the button image B4, between two adjacent button images, between the region in which the button images B1 to B4 are arranged in the X direction and the upper side of the display surface 11a are included. .

図3には、タッチ位置検出機構20における第1センサー21x(第1発光素子21aおよび第1受光素子21b)と、第2センサー22y(第2発光素子22aおよび第2受光素子22b)とを模式的に示している。
なお、図3では、説明を容易にするために、第1発光素子21aおよび第2発光素子22aの大きさ、ボタン画像B1〜B4の大きさ等は実際とは異なっている。表示面11aにおけるボタン画像B1〜B4が表示された部分は、通常、それぞれの上方域を、相互に隣接する複数個(通常、5個以上)の第1発光素子21aおよび第2発光素子22aのそれぞれから照射される光が通過する大きさになっている。
3 schematically shows the first sensor 21x (first light emitting element 21a and first light receiving element 21b) and the second sensor 22y (second light emitting element 22a and second light receiving element 22b) in the touch position detection mechanism 20. Is shown.
In FIG. 3, for ease of explanation, the sizes of the first light emitting element 21a and the second light emitting element 22a, the sizes of the button images B1 to B4, and the like are different from actual ones. The portion of the display surface 11a where the button images B1 to B4 are displayed usually has a plurality (usually five or more) of the first light emitting element 21a and the second light emitting element 22a adjacent to each other in the upper area. The size is such that the light emitted from each passes through.

また、相互に隣り合うボタン画像の間の表示面11aの背景画像領域は、図3では、それぞれ、1つの第1発光素子21aから照射される光が通過する程度の大きさに示されている。しかし、実際には、それぞれの背景画像領域の上方を、2〜3個程度の第1発光素子21aのそれぞれから照射される光が通過する大きさになっている。
さらに、図3では、動作状態になった第1発光素子21aから発せられた光がその第1発光素子21aに対応する第1受光素子21bに向かう様子を破線の矢印で模式的に示している。以下の各図でも発光素子から発せられた光を破線の矢印で示す場合がある。
In addition, in FIG. 3, the background image area of the display surface 11 a between the button images adjacent to each other is shown in a size that allows light emitted from one first light emitting element 21 a to pass therethrough. . However, in reality, the light emitted from each of the two or three first light emitting elements 21a passes through the background image area.
Further, in FIG. 3, a state in which light emitted from the first light emitting element 21 a in the operating state is directed to the first light receiving element 21 b corresponding to the first light emitting element 21 a is schematically illustrated by a dashed arrow. . In each of the following drawings, the light emitted from the light emitting element may be indicated by a dashed arrow.

タッチ操作画面は、複数個のボタン画像がX方向に沿って1列に配置された構成に限らず、例えば図4に示すようにY方向に沿って1列に配置される構成もある。
図4に示すタッチ操作画面には、複数のボタン画像Biが表示されている。
各ボタン画像Biには、画像形成本体部Aに設けられた送信機能によって、データを送信する際の送信先としての氏名が表示されている。この各ボタン画像Biがそれぞれ表示された表示面11aにおける各表示領域がボタン画像領域になっている。
The touch operation screen is not limited to a configuration in which a plurality of button images are arranged in one row along the X direction, and there is a configuration in which, for example, the touch operation screen is arranged in one row along the Y direction as shown in FIG.
A plurality of button images Bi are displayed on the touch operation screen shown in FIG.
Each button image Bi displays a name as a transmission destination when data is transmitted by the transmission function provided in the image forming main body A. Each display area on the display surface 11a on which each button image Bi is displayed is a button image area.

このタッチ操作画面は、画像形成本体部Aの動作モードとしてデータの送信モードを選択した場合に、詳細設定画像またはポップアップ画像として表示面11aに表示される。
複数のボタン画像Biのそれぞれは同じ形状になっており、それぞれが、表示面11aにおけるX方向に沿った横長の長方形状になっている。全てのボタン画像Biは、隣り合うボタン画像Bi同士が相互に接した状態で、Y方向に沿って1列に並んで表示されている。
This touch operation screen is displayed on the display surface 11a as a detailed setting image or a pop-up image when the data transmission mode is selected as the operation mode of the image forming main body A.
Each of the plurality of button images Bi has the same shape, and each has a horizontally long rectangular shape along the X direction on the display surface 11a. All the button images Bi are displayed in a line along the Y direction with the adjacent button images Bi in contact with each other.

全てのボタン画像Biと、表示面11aにおける左右の両側に位置する各辺との間は、表示面11aにおいてはY方向に沿った背景画像領域になっている。これらの背景画像領域は、X方向に沿った長さが比較的短く、表示面11aにおけるY方向の全域にわたって形成されている。
また、表示面11aにおけるY方向(上下方向)の最も上側および下側にそれぞれ表示された各ボタン画像Biと、表示面11aにおける上下の両側の各辺との間は、表示面11aにおけるX方向に沿った背景画像領域になっている。これらの背景画像領域は、Y方向に沿った長さが比較的短く、表示面11aにおけるX方向の全域にわたって形成されている。
Between all the button images Bi and the respective sides located on the left and right sides of the display surface 11a is a background image region along the Y direction on the display surface 11a. These background image regions have a relatively short length along the X direction, and are formed over the entire Y direction on the display surface 11a.
Further, the X direction on the display surface 11a is between the button images Bi displayed on the uppermost and lower sides in the Y direction (vertical direction) on the display surface 11a and the upper and lower sides on the display surface 11a. The background image area along the line. These background image regions have a relatively short length along the Y direction and are formed over the entire X direction on the display surface 11a.

なお、図4においても、図3と同様に、タッチ位置検出機構20における第1センサー21x(第1発光素子21aおよび第1受光素子21b)と、第2センサー22y(第2発光素子22aおよび第2受光素子22b)とを模式的に示している。
表示面11aにおける各ボタン画像Biの表示位置であるボタン画像領域がタッチ操作されると、主制御部30は、各ボタン画像Biに設定されたアドレスにデータを送信することが指示されたものとして、その指示を受け付ける。
4, similarly to FIG. 3, the first sensor 21 x (first light emitting element 21 a and first light receiving element 21 b) and second sensor 22 y (second light emitting element 22 a and second light emitting element 22 a and second light emitting element 22 a) in the touch position detection mechanism 20. 2 schematically shows two light receiving elements 22b).
When the button image area which is the display position of each button image Bi on the display surface 11a is touched, the main control unit 30 is instructed to transmit data to the address set in each button image Bi. The instruction is accepted.

<スライド操作画面>
上記のようなタッチ操作画面に対して、スライド操作画面は、本実施形態では、表示面11aに表示された画像の一部を、移動、拡大、縮小のいずれかの操作を実行する際に表示される。
[省電力制御]
主制御部30は、入力操作画面を表示パネル本体11の表示面11aに表示することが指示されると、タッチ位置を検出する際にタッチ位置検出機構20の消費電力を低減する省電力制御を実行する。省電力制御には、表示面11aにタッチ操作画面の表示が指示された場合に実行されるタッチ操作省電力処理と、表示面11aにスライド操作画面の表示が指示された場合に実行されるスライド操作省電力処理とがある。
<Slide operation screen>
In contrast to the touch operation screen as described above, in the present embodiment, the slide operation screen is displayed when a part of the image displayed on the display surface 11a is executed when any one of the movement, enlargement, and reduction operations is performed. Is done.
[Power saving control]
When instructed to display the input operation screen on the display surface 11 a of the display panel body 11, the main control unit 30 performs power saving control for reducing the power consumption of the touch position detection mechanism 20 when detecting the touch position. Run. In the power saving control, the touch operation power saving process executed when the display screen 11a is instructed to display the touch operation screen, and the slide executed when the display surface 11a is instructed to display the slide operation screen. There is operation power saving processing.

タッチ操作省電力処理では、タッチ位置検出機構20の消費電力を低減できる標準省電力モードの処理が実行される。また、ユーザーの選択によって、タッチ位置検出機構20における消費電力の低減を優先的に実行する省電力優先モードの処理を実行することも可能になっている。ユーザーによる省電力優先モードの選択は、MFPの初期設定において、あるいは、MFPを使用している間の任意のタイミングで行われる。   In the touch operation power saving process, a standard power saving mode process that can reduce the power consumption of the touch position detection mechanism 20 is executed. In addition, it is possible to execute processing in a power saving priority mode in which reduction of power consumption in the touch position detection mechanism 20 is preferentially performed according to a user's selection. The user selects the power saving priority mode at the initial setting of the MFP or at an arbitrary timing while using the MFP.

スライド操作省電力処理では、シングルタッチ画面またはダブルタッチ画面におけるタッチ位置およびタッチ位置のスライドを検出する際に、タッチ位置検出機構20の消費電力を低減することができる。
次に、主制御部30によって実行される省電力制御の詳細について、図5および図6のフローチャートに基づいて説明する。
In the slide operation power saving process, the power consumption of the touch position detection mechanism 20 can be reduced when detecting the touch position and the slide of the touch position on the single touch screen or the double touch screen.
Next, details of the power saving control executed by the main control unit 30 will be described based on the flowcharts of FIGS. 5 and 6.

主制御部30は、電源がオン状態になること等によって省電力制御を開始する。この場合、主制御部30は、表示パネル本体11の表示面11aに、表示すべき入力操作画面の表示を指示する前に、まず、その入力操作画面の画面データに付加されている入力操作画面に関する情報を取得する(ステップS11)。
この情報には、表示すべき入力操作画面の画面種類、具体的にはその画面がタッチ操作画面とスライド操作画面のいずれであるかを示す情報が含まれている。
The main control unit 30 starts power saving control when the power is turned on. In this case, before the main control unit 30 instructs the display surface 11a of the display panel body 11 to display the input operation screen to be displayed, first, the input operation screen added to the screen data of the input operation screen is displayed. The information regarding is acquired (step S11).
This information includes the screen type of the input operation screen to be displayed, specifically, information indicating whether the screen is a touch operation screen or a slide operation screen.

次いで、表示面11aに表示すべき入力操作画面がタッチ操作画面とスライド操作画面のいずれであるかを判定する(ステップS12)。この判定は、上記の画面種類の情報を参照することにより行われる。
スライド操作画面であることが判定されると(ステップS12において「No」)、スライド操作省電力処理を実行するためにステップS13に進む。ステップS13以降のスライド操作省電力処理については後述する。
Next, it is determined whether the input operation screen to be displayed on the display surface 11a is a touch operation screen or a slide operation screen (step S12). This determination is performed by referring to the information on the screen type.
If it is determined that the screen is a slide operation screen (“No” in step S12), the process proceeds to step S13 to execute a slide operation power saving process. The slide operation power saving process after step S13 will be described later.

一方、タッチ操作画面であることが判定されると(ステップS12において「Yes」)、ステップS14以降のタッチ操作省電力処理を実行する。
<タッチ操作省電力処理>
タッチ操作省電力処理には、標準省電力モードを実行する処理(ステップS14〜S19、S21)と、省電力優先モードを実行する処理(ステップS22、S34、S36)が含まれている。以下、この順に処理内容を説明する。
On the other hand, when it is determined that the screen is a touch operation screen (“Yes” in step S12), the touch operation power saving process after step S14 is executed.
<Touch operation power saving processing>
The touch operation power saving process includes a process for executing the standard power saving mode (steps S14 to S19, S21) and a process for executing the power saving priority mode (steps S22, S34, S36). Hereinafter, processing contents will be described in this order.

<標準省電力モード>
ステップS14では、表示が指示されたタッチ操作画面のボタン画像に関する情報(以下、「ボタン画像情報」という。)を取得する。ボタン画像情報には、表示面11aに表示されるべきボタン画像の輪郭を指標するX座標およびY座標(輪郭座標)と、ボタン画像毎に設定された設定入力情報が含まれる。
<Standard power saving mode>
In step S14, information related to the button image of the touch operation screen instructed to be displayed (hereinafter referred to as “button image information”) is acquired. The button image information includes an X coordinate and a Y coordinate (contour coordinates) for indicating the contour of the button image to be displayed on the display surface 11a, and setting input information set for each button image.

ここで、設定入力情報は、そのボタンがタッチ操作されたときに実行すべき機能として予め割り当てられた機能、例えばコピー開始などを示す情報である。
主制御部30は、表示が指示されたタッチ操作画面の画像データから、その画面に含まれるボタン画像の輪郭座標を取得する。この取得は、主制御部30に設けられた輪郭座標取得部(不図示)が実行する。
Here, the setting input information is information indicating a function assigned in advance as a function to be executed when the button is touched, for example, copy start.
The main control unit 30 acquires the contour coordinates of the button image included in the screen from the image data of the touch operation screen instructed to be displayed. This acquisition is executed by a contour coordinate acquisition unit (not shown) provided in the main control unit 30.

輪郭座標取得部は、例えば、タッチ操作画面の画像データを参照し、ボタン画像の輪郭を示す線分を構成する各画素ごとにそのX方向とY方向の座標位置を抽出することにより、輪郭座標を取得する。なお、輪郭座標の取得方法は、これに限られず、例えば表示対象のボタン画像ごとに、その輪郭座標が書き込まれたテーブルを予め作成して、作成されたテーブルから輪郭座標を取得する構成としてもよい。このテーブルは、例えば主制御部30の記憶部に予め記憶される構成とすることができる。   The contour coordinate acquisition unit, for example, refers to the image data of the touch operation screen and extracts the coordinate position in the X direction and the Y direction for each pixel constituting the line segment indicating the contour of the button image. To get. Note that the method for acquiring contour coordinates is not limited to this, and for example, a table in which the contour coordinates are written in advance for each button image to be displayed may be created in advance, and the contour coordinates may be acquired from the created table. Good. This table can be configured to be stored in advance in the storage unit of the main control unit 30, for example.

ステップS14においてボタン画像情報が取得されると、ステップS15に進む。
ステップS15では、取得されたボタン画像の輪郭座標に基づいて、表示面11a上におけるボタン画像領域および背景画像領域を判定する領域判定処理を実行する。
この領域判定は、それぞれのボタンごとにその画像の輪郭で示される閉じられた領域をボタン画像領域と特定し、これ以外の残りの領域を背景画像領域とすることにより行われる。この意味で、主制御部30は、ステップS15を実行する場合に、ボタン画像領域と背景画像領域とを判定する領域判定手段として機能するといえる。
If button image information is acquired in step S14, the process proceeds to step S15.
In step S15, an area determination process for determining a button image area and a background image area on the display surface 11a is executed based on the acquired contour coordinates of the button image.
This area determination is performed by specifying the closed area indicated by the outline of the image for each button as the button image area and setting the remaining area as the background image area. In this sense, it can be said that the main control unit 30 functions as an area determination unit that determines a button image area and a background image area when executing Step S15.

次いで、領域判定処理の結果に基づいて、背景画像におけるX成分領域あるいはY成分領域が表示面11aの全域にわたって存在するかを判断する(ステップS16)。
具体的には、X方向に沿って並ぶそれぞれの受光素子21bのX座標位置ごとに、そのX座標位置に対する、表示面11a上におけるY座標の全域が背景画像領域に属するか、もしくはY座標の一部がボタン画像領域に属するかを判断する。
Next, based on the result of the region determination process, it is determined whether the X component region or the Y component region in the background image exists over the entire display surface 11a (step S16).
Specifically, for each X coordinate position of the respective light receiving elements 21b arranged along the X direction, the entire Y coordinate on the display surface 11a with respect to the X coordinate position belongs to the background image area, or the Y coordinate It is determined whether a part belongs to the button image area.

例えば、図3に示す受光素子21gのX座標位置については、Y方向のいずれの位置にもボタン画像領域が存在しないので、Y座標の全域が背景画像領域に属することが判断される。一方、受光素子21hのX座標位置については、Y方向の一部の位置にボタン画像B1のボタン画像領域が存在するので、一部がボタン画像領域に属すると判断される。
Y方向についても同様に、Y方向に沿って並ぶそれぞれの受光素子22bのY座標位置ごとに、そのY座標位置に対する、表示面11a上におけるX座標の全域が背景画像領域に属するか、もしくはX座標の一部がボタン画像領域に属するかを判断する。
For example, with respect to the X coordinate position of the light receiving element 21g shown in FIG. 3, since there is no button image area at any position in the Y direction, it is determined that the entire Y coordinate area belongs to the background image area. On the other hand, regarding the X coordinate position of the light receiving element 21h, since the button image area of the button image B1 exists at a part of the position in the Y direction, it is determined that a part belongs to the button image area.
Similarly, in the Y direction, for each Y coordinate position of each light receiving element 22b arranged along the Y direction, the entire X coordinate on the display surface 11a with respect to the Y coordinate position belongs to the background image area, or X It is determined whether a part of the coordinates belongs to the button image area.

全域が背景画像領域に属すると判断されたX座標位置またはY座標位置が1つでもある場合には、背景画像におけるX成分領域あるいはY成分領域が表示面11aの全域にわたって存在すると判断され、1つもない場合には、存在しないことが判断される。図3と図4の例の場合、存在することが判断される。
背景画像領域におけるX成分領域あるいはY成分領域がY方向あるいはX方向の全域にわたって存在することを判断すると(ステップS16において「Yes」)、ステップS17に進む。
If there is at least one X coordinate position or Y coordinate position determined to belong to the background image area, it is determined that the X component area or Y component area in the background image exists over the entire display surface 11a. If not, it is determined that it does not exist. In the case of the example of FIG. 3 and FIG. 4, it is determined that it exists.
If it is determined that the X component area or the Y component area in the background image area exists in the entire Y direction or the X direction (“Yes” in step S16), the process proceeds to step S17.

ステップS17では、タッチ操作画面に複数のボタン画像が含まれる場合、その複数のボタン画像がX方向またはY方向に沿って1列に配置されているかをボタン画像情報に基づいて判断する。図3と図4に示す例の場合、1列の配置であると判断される。この意味で、主制御部30は、ステップS17を実行する場合に、各ボタン画像が1列に配置されていることを判断する配置判断手段として機能するといえる。   In step S17, when a plurality of button images are included in the touch operation screen, it is determined based on the button image information whether the plurality of button images are arranged in a line along the X direction or the Y direction. In the example shown in FIGS. 3 and 4, it is determined that the arrangement is one row. In this sense, it can be said that the main control unit 30 functions as an arrangement determination unit that determines that the button images are arranged in one row when executing Step S17.

図3の例のようにボタン画像B1〜B4がX方向に沿って1列に配置されている場合、ボタン画像B1〜B4の表示位置は、X座標では異なるがY座標では同一になる。このような状態では、いずれのボタン画像B1〜B4がタッチ操作されたかを、タッチ位置のY座標を検出しなくてもX座標だけで検出することができる。
一方、図4では複数のボタン画像がY方向に沿って1列に配置されている。この場合、それぞれのボタン画像の表示位置は、Y座標では異なるがX座標では同一になるので、タッチ位置のX座標を検出しなくてもY座標だけで検出することができる。つまり、複数のボタン画像が1列に配置されている場合、ボタン画像領域と背景画像領域の区別に関わらず、X座標とY座標の一方を非検出にしてもボタン画像のタッチ操作を検出できることになる。
When the button images B1 to B4 are arranged in a line along the X direction as in the example of FIG. 3, the display positions of the button images B1 to B4 are different in the X coordinate but are the same in the Y coordinate. In such a state, it is possible to detect which of the button images B1 to B4 is touched by using only the X coordinate without detecting the Y coordinate of the touch position.
On the other hand, in FIG. 4, a plurality of button images are arranged in one row along the Y direction. In this case, the display position of each button image is different in the Y coordinate but is the same in the X coordinate, so that it is possible to detect only the Y coordinate without detecting the X coordinate of the touch position. That is, when a plurality of button images are arranged in a line, the touch operation of the button image can be detected even if one of the X coordinate and the Y coordinate is not detected regardless of the distinction between the button image region and the background image region. become.

複数のボタン画像が1列で配置されていることを判断すると(ステップS17において「Yes」)、領域判定の結果に関わらず、複数の第1センサー21xと第2センサー22yのうち、複数のボタン画像の配列方向とは直交する方向に沿って配置されたセンサーの全てを非動作状態に設定する(ステップS18)。
図3の例では、全ての第2センサー22yが非動作状態に設定され、図4の例では、全ての第1センサー21xが非動作状態に設定される。図3と図4では、非動作状態に設定されたセンサーを網点の丸印で示している。
If it is determined that a plurality of button images are arranged in one row (“Yes” in step S17), a plurality of buttons out of the plurality of first sensors 21x and the second sensor 22y, regardless of the region determination result. All of the sensors arranged along the direction orthogonal to the image arrangement direction are set to a non-operating state (step S18).
In the example of FIG. 3, all the second sensors 22y are set to the non-operating state, and in the example of FIG. 4, all the first sensors 21x are set to the non-operating state. 3 and 4, the sensor set to the non-operating state is indicated by a halftone dot circle.

上記のように第1センサー21xは、それぞれが配置されたX座標位置において、表示面11a上のY方向に沿った全域のタッチ操作を検出対象としている。従って、表示面11aにおいて、Y方向の全域にわたって連続した背景画像領域が存在する場合には、その背景画像領域のX成分領域のタッチ操作を検出するための第1センサー21xが抽出されて非動作状態に設定される。   As described above, the first sensor 21x detects a touch operation in the entire area along the Y direction on the display surface 11a at the X coordinate position where each sensor is arranged. Accordingly, when there is a continuous background image region over the entire Y direction on the display surface 11a, the first sensor 21x for detecting the touch operation of the X component region of the background image region is extracted and is not operated. Set to state.

同様に、第2センサー22yは、それぞれが配置されたY座標位置において、表示面11aのX方向に沿った全域のタッチ操作を検出対象としている。従って、表示面11aにおいて、X方向の全域にわたって連続した背景画像領域が存在する場合には、その背景画像領域のY成分領域のタッチ操作を検出するための第2センサー22yが抽出されて非動作状態に設定される。   Similarly, the second sensor 22y detects a touch operation in the entire area along the X direction of the display surface 11a at the Y coordinate position where each sensor is arranged. Accordingly, when there is a continuous background image area over the entire area in the X direction on the display surface 11a, the second sensor 22y for detecting the touch operation of the Y component area of the background image area is extracted and is not operated. Set to state.

続いて、ステップS18で非動作状態に設定されたセンサー以外のセンサーのうち、背景画像領域に対応するセンサー、すなわち複数のボタン画像の配列方向に沿って配置された複数のセンサーのうち、背景画像領域のタッチ位置を検出可能なセンサーを非動作状態に設定する(ステップS19)。
図3の例では、複数の第1センサー21xのうち、背景画像領域に対応するセンサー(網点の丸印で示すセンサー)が非動作状態に設定され、図4の例では、複数の第2センサー22yのうち、背景画像領域に対応するセンサー(網点の丸印で示すセンサー)が非動作状態に設定される。なお、非動作状態に設定されなかったセンサーは、動作状態に設定されたことになる。図3と図4では、動作状態に設定されたセンサーを、白抜きの丸印で示している。
Subsequently, among the sensors other than the sensor set to the non-operating state in step S18, the background image among the sensors corresponding to the background image region, that is, among the plurality of sensors arranged along the arrangement direction of the plurality of button images. A sensor capable of detecting the touch position of the region is set to a non-operation state (step S19).
In the example of FIG. 3, among the plurality of first sensors 21x, a sensor corresponding to the background image region (a sensor indicated by a dot dot) is set to a non-operating state. In the example of FIG. Among the sensors 22y, a sensor corresponding to the background image area (a sensor indicated by a halftone dot) is set to a non-operating state. A sensor that has not been set to the non-operating state is set to the operating state. 3 and 4, the sensor set to the operation state is indicated by a white circle.

続いて、省電力優先モードが選択されているかを判断する(ステップS20)。省電力優先モードが選択されていないことを判断すると(ステップS20において「No」)、ステップS23に進む。
一方、複数のボタン画像が1列で配置されていないことを判断すると(ステップS17において「No」)、複数の第1センサー21xと第2センサー22yのうち、背景画像領域に対応するセンサーを抽出して、抽出したセンサーだけを非動作状態に設定して(ステップS21)、図6に示すステップS31に進む。
Subsequently, it is determined whether or not the power saving priority mode is selected (step S20). If it is determined that the power saving priority mode is not selected (“No” in step S20), the process proceeds to step S23.
On the other hand, when it is determined that a plurality of button images are not arranged in one row (“No” in step S17), a sensor corresponding to the background image region is extracted from the plurality of first sensors 21x and second sensors 22y. Then, only the extracted sensor is set to a non-operation state (step S21), and the process proceeds to step S31 shown in FIG.

ここで、複数のボタン画像が1列で配置されていないタッチ操作画面には、例えば図7に示すような4つのボタン画像B6〜B9を含む画面があり、X方向の座標位置が同じ位置関係にあるボタン画像B8とB9や、Y方向の座標位置が同じ位置関係にあるボタン画像B7とB9を含む場合、X座標とY座標の一方の座標位置を検出するだけでは、いずれのボタン画像がタッチ操作されたかが判らない。   Here, the touch operation screen in which the plurality of button images are not arranged in one row includes a screen including four button images B6 to B9 as shown in FIG. 7, for example, and the positional relationship of the coordinate positions in the X direction is the same. Button images B8 and B9, and button images B7 and B9 whose coordinate positions in the Y direction have the same positional relationship, only one of the X coordinate and Y coordinate positions is detected. I don't know if it was touched.

従って、この場合には、上記のように第1センサー21xの全てまたは第2センサー22yの全てを非動作状態に設定することができず、背景画像領域に対応するセンサー(網点の丸印で示すもの)だけを抽出してそのセンサーが非動作状態に設定される。非動作状態に設定されなかったセンサーは、動作状態に設定されたことになる。
そして、図6のステップS31において省電力優先モードがユーザーによって選択されているかを判断し、省電力優先モードが選択されていないことを判断すると(ステップS31において「No」)、図5のステップS23に進む。
Therefore, in this case, as described above, it is not possible to set all of the first sensors 21x or all of the second sensors 22y to the non-operating state, and the sensors corresponding to the background image area (indicated by dot dots) Only the ones shown) are extracted and the sensor is set to a non-operational state. A sensor that is not set to the non-operating state is set to the operating state.
Then, in step S31 of FIG. 6, it is determined whether the power saving priority mode is selected by the user, and if it is determined that the power saving priority mode is not selected (“No” in step S31), step S23 of FIG. Proceed to

一方、背景画像におけるX成分領域あるいはY成分領域が表示面11aの全域にわたって存在しないことを判断すると(ステップS16において「No」)、図6のステップS31に進む。
ここで、背景画像におけるX成分領域あるいはY成分領域が表示面11aの全域にわたって存在しない場合とは、全ての第1センサー21xのX座標位置のそれぞれにおいて、表示面11aのY方向の全域にわたって背景画像領域が存在せず、全ての第2センサー22yのY座標位置のそれぞれにおいても、表示面11aのX方向の全域にわたって背景画像領域が存在しない場合である。この場合、非動作状態に設定できるセンサーが1つも存在しないことになり、全ての第1センサー21xと第2センサー22yが動作状態に設定される。
On the other hand, if it is determined that the X component area or the Y component area in the background image does not exist over the entire display surface 11a ("No" in step S16), the process proceeds to step S31 in FIG.
Here, the case where the X component area or the Y component area in the background image does not exist over the entire area of the display surface 11a means that the background over the entire area in the Y direction of the display surface 11a at each of the X coordinate positions of all the first sensors 21x. This is a case where there is no image area and no background image area exists in the entire X direction of the display surface 11a at each of the Y coordinate positions of all the second sensors 22y. In this case, there is no sensor that can be set to the non-operating state, and all the first sensors 21x and the second sensors 22y are set to the operating state.

ステップS31において、省電力優先モードがユーザーによって選択されていないことを判断すると(ステップS31において「No」)、図5のステップS23に進む。
ステップS23では、表示指示されたタッチ操作画面を表示面11aに表示することを表示制御部13に指示するとともに、タッチ位置検出機構20に対して駆動開始を指示する。
If it is determined in step S31 that the power saving priority mode is not selected by the user (“No” in step S31), the process proceeds to step S23 in FIG.
In step S23, the display control unit 13 is instructed to display the touch operation screen instructed to be displayed on the display surface 11a, and the touch position detection mechanism 20 is instructed to start driving.

これにより、表示パネル本体11の表示面11aには、指示されたタッチ操作画面が表示される。また、タッチ位置検出機構20では、全ての第1センサー21xおよび第2センサー22yのうち、動作状態に設定されたセンサーが動作状態になり、非動作状態に設定されたセンサーが非動作状態になる。この意味で、主制御部30は、ステップS23を実行する場合に、表示パネル10に対して画像の表示を指示する表示指示手段として機能し、タッチ位置検出機構20に対してタッチ位置の検出を実行するオン状態とタッチ位置を検出しないオフ状態にすることを指示する検出指示手段として機能するといえる。   As a result, the instructed touch operation screen is displayed on the display surface 11 a of the display panel body 11. Further, in the touch position detection mechanism 20, among all the first sensors 21x and the second sensors 22y, the sensor set in the operating state is in the operating state, and the sensor set in the non-operating state is in the non-operating state. . In this sense, when executing step S23, the main control unit 30 functions as a display instruction unit that instructs the display panel 10 to display an image, and detects the touch position with respect to the touch position detection mechanism 20. It can be said that it functions as a detection instruction means for instructing an on state to be executed and an off state in which the touch position is not detected.

非動作状態に設定された第1センサー21xおよび第2センサー22yについては、対応する第1発光側スイッチ21cと第1受光側スイッチ21dおよび第2発光側スイッチ22cと第2受光側スイッチ22dの全てがオフ状態に維持される。
動作状態に設定された第1センサー21xおよび第2センサー22yについては、対応する第1発光側スイッチ21cと第1受光側スイッチ21dおよび第2発光側スイッチ22cと第2受光側スイッチ22dが順次、オンとオフの切り替えが実行される。
For the first sensor 21x and the second sensor 22y set in the non-operating state, all of the corresponding first light emitting side switch 21c, first light receiving side switch 21d, second light emitting side switch 22c, and second light receiving side switch 22d are used. Is maintained in the off state.
For the first sensor 21x and the second sensor 22y set to the operating state, the corresponding first light-emitting side switch 21c, first light-receiving side switch 21d, second light-emitting side switch 22c, and second light-receiving side switch 22d are sequentially Switching between on and off is performed.

具体的には、発光制御部25は、動作状態に設定された第1センサー21xの第1発光素子21aに接続された第1発光側スイッチ21cを、X方向に沿って並んだ順番に、一定時間だけオン状態に制御する。この場合、オン状態に制御される第1発光側スイッチ21c以外の第1発光側スイッチ21cはオフ状態に制御される。
また、発光側電流制御部23は、第1発光側スイッチ21cがオンするタイミングで第1発光側電力供給線21eに所定の基準値の電流をそれぞれ供給する。なお、この場合の第1発光側電力供給線21eに供給される所定の電力を「標準電力」とする。
Specifically, the light emission control unit 25 sets the first light emitting side switch 21c connected to the first light emitting element 21a of the first sensor 21x set to the operating state in a constant order in the order along the X direction. Control to turn on only for time. In this case, the first light emission side switch 21c other than the first light emission side switch 21c controlled to the on state is controlled to the off state.
Further, the light emission side current control unit 23 supplies a current of a predetermined reference value to the first light emission side power supply line 21e at the timing when the first light emission side switch 21c is turned on. In this case, the predetermined power supplied to the first light emission side power supply line 21e is referred to as “standard power”.

これにより、オン状態の第1発光側スイッチ21cに接続された第1発光素子21aには標準電力が供給される。標準電力が供給される第1発光素子21aは、一定時間だけ、所定の発光強度の光をY方向に沿って照射する発光状態になる。なお、この場合の第1発光素子21aの発光強度を「標準強度」とする。
また、受光制御部26は、第1発光側スイッチ21cがオン状態とされる第1センサー21xの第1受光側スイッチ21dを、当該第1発光側スイッチ21cがオンされるタイミングに同期してオン状態に制御する。従って、第1受光側スイッチ21dのそれぞれも、X方向に沿って並んだ順番に、一定時間だけオン状態に制御される。この場合も、オン状態に制御される第1受光側スイッチ21d以外の第1受光側スイッチ21dはオフ状態に制御される。
Accordingly, the standard power is supplied to the first light emitting element 21a connected to the first light emitting side switch 21c in the on state. The first light emitting element 21a to which the standard power is supplied enters a light emitting state in which light having a predetermined light emission intensity is irradiated along the Y direction for a predetermined time. In this case, the light emission intensity of the first light emitting element 21a is defined as “standard intensity”.
The light reception control unit 26 turns on the first light reception side switch 21d of the first sensor 21x in which the first light emission side switch 21c is turned on in synchronization with the timing at which the first light emission side switch 21c is turned on. Control to the state. Accordingly, each of the first light receiving side switches 21d is also controlled to be in an on state for a certain time in the order along the X direction. Also in this case, the first light receiving side switch 21d other than the first light receiving side switch 21d controlled to the on state is controlled to the off state.

第1受光側スイッチ21dのそれぞれがオンすると、当該第1受光側スイッチ21dに接続された第1受光素子21bが一定時間だけ第1受光側電力供給線21fからの供給電力を受けて動作状態となり、受光した光の強度に対応した電流を出力する。
同様に、動作状態に設定された第2センサー22yについては、発光制御部25は、その第2発光素子22aに接続された第2発光側スイッチ22cを、Y方向に沿って並んだ順番に一定時間だけオン状態に制御する。また、受光制御部26は、第2発光側スイッチ22cがオン状態とされる第2センサー22yの第2受光側スイッチ22dを、当該第2発光側スイッチ22cがオンするタイミングに同期してオン状態に制御する。
When each of the first light-receiving side switches 21d is turned on, the first light-receiving element 21b connected to the first light-receiving-side switch 21d receives the supply power from the first light-receiving side power supply line 21f for a certain period of time and enters an operating state. The current corresponding to the intensity of the received light is output.
Similarly, with respect to the second sensor 22y set in the operating state, the light emission control unit 25 keeps the second light emitting side switch 22c connected to the second light emitting element 22a in the order in which they are arranged along the Y direction. Control to turn on only for time. In addition, the light receiving control unit 26 turns on the second light receiving side switch 22d of the second sensor 22y in which the second light emitting side switch 22c is turned on in synchronization with the timing at which the second light emitting side switch 22c is turned on. To control.

これにより、第2センサー22yのそれぞれは、第1センサー21xと同様に制御される。上記の標準電力と標準強度についても第2センサー22yについて同様である。
これにより、非動作状態に設定された第1センサー21xおよび第2センサー22yのそれぞれがタッチ操作の検出対象とする背景画像領域は、タッチ操作の検出が実行されない状態(オフ状態)になる。
Thereby, each of the 2nd sensor 22y is controlled similarly to the 1st sensor 21x. The same applies to the standard power and standard intensity of the second sensor 22y.
As a result, the background image region that is the detection target of the touch operation by each of the first sensor 21x and the second sensor 22y set to the non-operation state is in a state where the detection of the touch operation is not performed (off state).

従って、全ての第1センサー21xおよび第2センサー22yをボタン画像の表示位置に関係なく動作状態、すなわちタッチ操作の検出を行えるオン状態にする構成に比べて、動作状態とされる第1センサー21xおよび第2センサー22yの個数が減少し、その個数の減少分、センサーへの供給電力が低減して、タッチ位置検出機構20の消費電力を低減することができ、タッチ位置検出機構20の省電力化を図れる。   Accordingly, the first sensor 21x that is in the operation state is compared with the configuration in which all the first sensors 21x and the second sensors 22y are in the operation state regardless of the display position of the button image, that is, the on state in which the touch operation can be detected. In addition, the number of second sensors 22y is reduced, and the power supplied to the sensors is reduced by the reduction in the number of the second sensors 22y, so that the power consumption of the touch position detection mechanism 20 can be reduced. Can be realized.

タッチ位置検出機構20の駆動が開始されると、ユーザーのタッチ操作による表示面11a上のタッチ位置が、動作状態になった第1センサー21xおよび第2センサー22yにより検出されるまで待機状態になる(ステップS24)。
このタッチ位置の検出は、次のようにして行われる。
すなわち、動作状態の第1受光素子21bおよび第2受光素子22bのそれぞれから順次出力される電流値をモニターし、いずれかの第1受光素子21bおよび第2受光素子22bの出力電流が閾値電流よりも低下したか否かを判断する。
When driving of the touch position detection mechanism 20 is started, the touch position on the display surface 11a by the user's touch operation is in a standby state until it is detected by the first sensor 21x and the second sensor 22y that are in the operating state. (Step S24).
The touch position is detected as follows.
That is, the current value sequentially output from each of the first light receiving element 21b and the second light receiving element 22b in the operating state is monitored, and the output current of one of the first light receiving element 21b and the second light receiving element 22b is greater than the threshold current. It is determined whether or not the value has also decreased.

いずれかの第1受光素子21bおよび第2受光素子22bの出力電流が閾値電流よりも低下したことを判断すると、出力電流が閾値電流よりも低下した第1受光素子21bのX座標位置および第2受光素子22bのY座標位置に基づいて、タッチ操作によるタッチ位置を表示面11a上におけるX−Y直交座標系の2成分として検出する。
タッチ位置の検出を判断すると(ステップS24において「Yes」)、検出されたタッチ位置と、ステップS14で取得されたボタン画像の輪郭座標とに基づいて、タッチ操作されたボタン画像領域に対応するボタン画像を特定し、特定されたボタン画像の設定入力情報を、ステップS14で取得された全てのボタン画像の設定入力情報から選択して取得する(ステップS25)。
When it is determined that the output current of any one of the first light receiving element 21b and the second light receiving element 22b is lower than the threshold current, the X coordinate position of the first light receiving element 21b in which the output current is lower than the threshold current and the second Based on the Y coordinate position of the light receiving element 22b, the touch position by the touch operation is detected as two components of the XY orthogonal coordinate system on the display surface 11a.
If it is determined that the touch position is detected (“Yes” in step S24), the button corresponding to the button image area that has been touch-operated based on the detected touch position and the contour coordinates of the button image acquired in step S14. The image is specified, and the setting input information of the specified button image is selected and acquired from the setting input information of all the button images acquired in step S14 (step S25).

主制御部30は、取得された設定入力情報に関する処理を画像形成本体部Aに指示する。例えば、ボタン画像B1のボタン画像領域がタッチ操作された場合には、コピー動作などの動作モードの開始が画像形成本体部Aに指示される。
また、ステップS25では、タッチ操作されたボタン画像に対するタッチ操作の回数(総合計)をカウントする。それぞれのボタン画像ごとに、1回のタッチ操作があるたびに、現在の回数に1がインクリメントされて、その回数が更新される。このタッチ操作の回数は、後述する操作頻度基準処理(ステップS22)で用いられる。
The main control unit 30 instructs the image forming main body A to perform processing related to the acquired setting input information. For example, when the button image area of the button image B1 is touched, the image forming main body A is instructed to start an operation mode such as a copy operation.
In step S25, the number of touch operations (total number) for the touched button image is counted. For each button image, each time a touch operation is performed, 1 is incremented to the current number, and the number is updated. The number of touch operations is used in an operation frequency reference process (step S22) described later.

ステップS25での処理が終了するとステップS26に進み、表示パネル10に表示されたタッチ操作画面を、異なる入力操作画面(タッチ操作画面に限らない)に変更する必要があるかを判断する。例えば、動作モードの選択を受け付けるボタン画像B2に対するタッチ操作がなされた場合、動作モードを選択するための別のメニュー画面に遷移する必要があることから、変更の必要があると判断される。   When the process in step S25 ends, the process proceeds to step S26, and it is determined whether the touch operation screen displayed on the display panel 10 needs to be changed to a different input operation screen (not limited to the touch operation screen). For example, when a touch operation is performed on the button image B2 that accepts the selection of the operation mode, it is necessary to change to another menu screen for selecting the operation mode.

異なる入力操作画面への変更が必要であることを判断すると(ステップS26において「Yes」)、ステップS11に戻り、新たな入力操作画面について、ステップS11以降の処理を実行する。一方、タッチ操作画面を他の入力操作画面に変更する必要がないことを判断すると(ステップS26において「No」)、ステップS24に戻って待機状態になる。なお、待機状態の継続時間が一定時間を超えると、当該省電力制御を終了するとしても良い。   If it is determined that it is necessary to change to a different input operation screen (“Yes” in step S26), the process returns to step S11, and the processes after step S11 are executed for the new input operation screen. On the other hand, if it is determined that there is no need to change the touch operation screen to another input operation screen (“No” in step S26), the process returns to step S24 and enters a standby state. Note that when the duration of the standby state exceeds a certain time, the power saving control may be terminated.

<省電力優先モード>
次に、省電力優先モードがユーザーによって選択されている場合について説明する。ユーザーが省電力優先モードを選択していることは、ステップS20またはS31において判断される。
<ステップS20による省電力優先モード>
省電力優先モードの選択を判断すると(ステップS20において「Yes」)、省電力優先モードとして操作頻度基準処理を実行する(ステップS22)。
<Power saving priority mode>
Next, a case where the power saving priority mode is selected by the user will be described. It is determined in step S20 or S31 that the user has selected the power saving priority mode.
<Power saving priority mode in step S20>
If the selection of the power saving priority mode is determined (“Yes” in step S20), the operation frequency reference process is executed as the power saving priority mode (step S22).

操作頻度基準処理は、タッチ操作の頻度が少ないボタン画像の表示位置であるボタン画像領域のタッチ操作を検出対象とする第1センサー21xまたは第2センサー22yに供給される電力を低減する処理である。
図8は、操作頻度基準処理のサブルーチンを示すフローチャートである。
同図に示すように、まず、表示が指示されたタッチ操作画面におけるそれぞれのボタン画像(ボタン画像領域)に対するタッチ操作の頻度を取得する(ステップS41)。
The operation frequency reference process is a process for reducing the power supplied to the first sensor 21x or the second sensor 22y whose detection target is a touch operation in a button image area that is a display position of a button image with a low touch operation frequency. .
FIG. 8 is a flowchart showing a subroutine of the operation frequency reference process.
As shown in the figure, first, the frequency of the touch operation for each button image (button image region) on the touch operation screen instructed to be displayed is acquired (step S41).

ボタン画像に対するタッチ操作の頻度とは、全てのボタン画像(ボタン画像領域)のタッチ操作の回数の合計に対して、それぞれのボタン画像の個別のタッチ操作の回数の割合である。なお、各ボタン画像に対するタッチ操作の回数は、前述したように、ステップS25においてカウントされている。従って、各ボタン画像に対するタッチ操作の回数のカウント値に基づいて、全てのボタン画像のタッチ操作の回数の合計を求めることができる。これにより、ボタン画像毎のタッチ操作の頻度を取得できる。   The frequency of touch operations on button images is the ratio of the number of individual touch operations of each button image to the total number of touch operations of all button images (button image regions). The number of touch operations for each button image is counted in step S25 as described above. Therefore, the total number of touch operations for all button images can be obtained based on the count value of the number of touch operations for each button image. Thereby, the frequency of the touch operation for each button image can be acquired.

次いで、取得されたボタン画像毎のタッチ操作の頻度を、それぞれ、予め設定された閾値と比較して、表示が指示されたタッチ操作画面における各ボタン画像を、閾値よりも高い高頻度と、閾値よりも低い低頻度とに分類する(ステップS42)。
この分類がなされると、低頻度のボタン画像および高頻度のボタン画像のいずれか一方または両方が複数であるかを判断する(ステップS43)。
Next, the frequency of the touch operation for each acquired button image is compared with a preset threshold value, and each button image on the touch operation screen instructed to be displayed is set to a frequency higher than the threshold value and the threshold value. And lower frequency (step S42).
When this classification is performed, it is determined whether one or both of the low-frequency button image and the high-frequency button image are plural (step S43).

低頻度のボタン画像および高頻度のボタン画像のいずれか一方または両方が複数であることを判断すると(ステップS43において「Yes」)、ステップS44に進む。
ステップS44では、低頻度に分類された全てのボタン画像と、高頻度に分類された全てのボタン画像とが所定の並び替え状態になるように、表示制御部13に指示する。
このステップS44の処理前に、既にステップS17において、複数のボタン画像がX方向またはY方向に沿って1列になっていることが判断されている。このために、ステップS44では、低頻度のボタン画像の全てと、高頻度のボタン画像の全てとが、ステップS17において判断された配列方向に沿って相互に分離した状態になるように、ボタン画像の表示位置が並び替える指示が行われる。
If it is determined that one or both of the low-frequency button image and the high-frequency button image are plural (“Yes” in step S43), the process proceeds to step S44.
In step S44, the display control unit 13 is instructed so that all button images classified as low frequency and all button images classified as high frequency are in a predetermined rearrangement state.
Prior to the processing of step S44, it is already determined in step S17 that a plurality of button images are arranged in a line along the X direction or the Y direction. For this reason, in step S44, all the low-frequency button images and all the high-frequency button images are separated from each other along the arrangement direction determined in step S17. The display position is rearranged.

この指示により、表示面11aでは、低頻度のボタン画像の全てと高頻度のボタン画像の全てとが、配列方向に沿って分離した状態で表示される表示位置変更が実行される。
図9(a)は、ボタン画像の並び替え前の状態の例を示す図であり、図9(b)は、ボタン画像の並び替え後の状態(変更状態)の例を示す図である。
図9では、ボタン画像B1、B3、B5が高頻度のボタン画像に分類され、ボタン画像B2、B4が低頻度のボタン画像に分類され、ボタン画像B1、B3、B5が表示面11aにおけるX方向の右側において相互に隣接した状態に並び替えられ、ボタン画像B2、B4が表示面11aにおけるX方向の左側において相互に隣接した状態に並び替えられた場合の例を示している。
By this instruction, on the display surface 11a, a display position change is performed in which all of the low-frequency button images and all of the high-frequency button images are displayed in a separated state along the arrangement direction.
FIG. 9A is a diagram illustrating an example of a state before rearrangement of button images, and FIG. 9B is a diagram illustrating an example of a state after button image rearrangement (change state).
In FIG. 9, the button images B1, B3, and B5 are classified as high-frequency button images, the button images B2 and B4 are classified as low-frequency button images, and the button images B1, B3, and B5 are in the X direction on the display surface 11a. In the example shown in the figure, the button images B2 and B4 are rearranged to be adjacent to each other on the left side in the X direction on the display surface 11a.

図8に戻って、ステップS45では、発光制御部25および受光制御部26に対して、低頻度のボタン画像に対応するボタン画像領域のタッチ操作を検出対象とする第1センサー21x(以下、「低頻度領域第1センサー21x」という。)または第2センサー22y(以下、「低頻度領域第2センサー22y」という。)のそれぞれを順番に動作状態とする時間だけを短くすることを指示する。   Returning to FIG. 8, in step S <b> 45, the first sensor 21 x (hereinafter ““ The low-frequency area first sensor 21x ") or the second sensor 22y (hereinafter referred to as" low-frequency area second sensor 22y ") is instructed to shorten only the time during which the operation state is set in order.

この場合、高頻度のボタン画像領域のタッチ操作を検出対象とする第1センサー21x(以下、「高頻度領域第1センサー21x」という。)または第2センサー22y(以下、「高頻度領域第2センサー22y」という。)のそれぞれを順番に動作状態とする時間は短くされず、標準時間になっている。
ステップS45の処理が終了すると、ステップS47に進む。
In this case, a first sensor 21x (hereinafter referred to as “high frequency area first sensor 21x”) or a second sensor 22y (hereinafter referred to as “high frequency area second”) that detects a touch operation of the high frequency button image area. The time for each of the sensors 22y ") to be in the operating state in turn is not shortened, but is a standard time.
When the process of step S45 ends, the process proceeds to step S47.

ステップS47では、低頻度領域第1センサー21xの第1発光素子21aまたは低頻度領域第2センサー22yの第2発光素子22aに対して、標準電力の電流値よりも低い電流の所定の電力(以下、「駆動低電力」という。)を供給することを発光制御部25に指示する。そして、タッチ位置検出機構20に駆動開始を指示して(ステップS48)、図5のステップS24に進む。これにより、発光制御部25および受光制御部26は、タッチ位置検出機構20を、主制御部30による指示(ステップS45、S47)になるように制御して、タッチ操作の検出を実行する。   In step S47, a predetermined power (hereinafter referred to as a standard power) lower than the current value of the standard power is supplied to the first light emitting element 21a of the low frequency area first sensor 21x or the second light emitting element 22a of the low frequency area second sensor 22y. , Referred to as “drive low power”). Then, the touch position detection mechanism 20 is instructed to start driving (step S48), and the process proceeds to step S24 in FIG. Thereby, the light emission control part 25 and the light reception control part 26 control the touch position detection mechanism 20 so that it may become the instruction | indication (step S45, S47) by the main control part 30, and perform a touch operation detection.

例えば、第2センサー22yの全てが非動作状態に設定されている場合には、ステップS45において、低頻度領域第1センサー21xの動作時間を、高頻度領域第1センサー21xの動作時間(標準時間)よりも短くすることが指示される。これにより、発光制御部25は、低頻度領域第1センサー21xにおける第1発光側スイッチ21cのオン時間を標準時間よりも短くなるように制御する。その結果、全ての低頻度領域第1センサー21xの第1発光素子21aが発光状態になる時間の合計は、操作頻度基準処理を実行しない場合よりも短くなる。   For example, when all of the second sensors 22y are set to the non-operating state, in step S45, the operating time of the low frequency area first sensor 21x is set to the operating time (standard time) of the high frequency area first sensor 21x. ) Is instructed to be shorter. Thereby, the light emission control part 25 controls the ON time of the 1st light emission side switch 21c in the low frequency area | region 1st sensor 21x so that it may become shorter than standard time. As a result, the total time for which the first light emitting elements 21a of all the low frequency region first sensors 21x are in the light emitting state is shorter than when the operation frequency reference process is not executed.

一方、第1センサー21xの全てが非動作状態に設定されている場合には、ステップS45において、低頻度領域第2センサー22yの動作時間を標準時間よりも短くすることが指示される。これにより、発光制御部25は、低頻度領域第2センサー22yにおける第2発光側スイッチ22cのオン時間が、標準時間よりも短くなるように制御する。その結果、全ての低頻度領域第2センサー22yの第2発光素子22aが発光状態になる時間の合計は、操作頻度基準処理を実行しない場合よりも短くなる。   On the other hand, if all of the first sensors 21x are set to the non-operating state, it is instructed in step S45 to make the operating time of the low frequency region second sensor 22y shorter than the standard time. Thereby, the light emission control unit 25 performs control so that the ON time of the second light emission side switch 22c in the low frequency region second sensor 22y is shorter than the standard time. As a result, the total time for which the second light emitting elements 22a of all the low frequency region second sensors 22y are in the light emitting state is shorter than when the operation frequency reference process is not executed.

いずれの場合にも、タッチ位置検出機構20の消費電力が、操作頻度基準処理を実行しない場合よりも低減される。
上記のように動作状態に設定された第1センサー21xまたは第2センサー22yのそれぞれは、順番に一つずつだけが動作状態、すなわちタッチ位置検出のための電力が供給される状態に切り替わっていく。従って、1つのセンサーに対する動作状態の時間を短くするということは、単位時間当たりにおけるそのセンサーによる検出時間が標準時間よりも短くなる。
In any case, the power consumption of the touch position detection mechanism 20 is reduced as compared with the case where the operation frequency reference process is not executed.
Each of the first sensor 21x or the second sensor 22y set in the operation state as described above is switched to the operation state, that is, the state in which the power for detecting the touch position is supplied in order. . Therefore, shortening the operation state time for one sensor means that the detection time by the sensor per unit time is shorter than the standard time.

検出時間を短くするほど消費電力を低減できるが、短くしすぎると、例えばユーザーによる指のタッチ操作が一瞬であった場合、その一瞬のタッチ操作を検出できなくなることが起こり易くなる。
一方で、動作状態の時間を標準時間よりも短くするのは、ユーザーがタッチ操作する機会が少ないボタン画像領域を検出対象とする低頻度領域第1センサー21xまたは低頻度領域第2センサー22yだけであり、かつ一瞬のタッチ操作が行われることも少ないと考えられるので、タッチ操作の検出精度の低下が生じる蓋然性は低くなる。
As the detection time is shortened, the power consumption can be reduced. However, if the detection time is too short, for example, when a finger touch operation by the user is instantaneous, it is likely that the instantaneous touch operation cannot be detected.
On the other hand, the operation state time is made shorter than the standard time only by the low-frequency region first sensor 21x or the low-frequency region second sensor 22y that detects a button image region where the user has few opportunities to perform a touch operation. In addition, since it is considered that there is little momentary touch operation, the probability that the detection accuracy of the touch operation is reduced is reduced.

このように各センサーに対する動作状態の時間を操作頻度に応じて標準時間よりも短くする制御をとる場合、動作状態の時間を固定する場合に比べてタッチ操作の検出精度の低下が生じる場合が想定されるが、ユーザーが省電力優先モードを選択していることから、タッチ位置検出機構20における消費電力の低減を優先するようにしている。
さらに、ステップS47においては、低頻度領域第1センサー21xの第1発光素子21aまたは低頻度領域第2センサー22yの第2発光素子22aに対して駆動低電力の供給が指示されている。このために、発光制御部25は、発光側電流制御部23を制御して、低頻度領域第1センサー21xの第1発光素子21aまたは低頻度領域第2センサー22yの第2発光素子22aに駆動低電力を供給する。
As described above, when control is performed so that the time of the operation state for each sensor is shorter than the standard time according to the operation frequency, the detection accuracy of the touch operation may be reduced compared to the case where the time of the operation state is fixed. However, since the user has selected the power saving priority mode, priority is given to reducing power consumption in the touch position detection mechanism 20.
Furthermore, in step S47, supply of driving low power is instructed to the first light emitting element 21a of the low frequency region first sensor 21x or the second light emitting element 22a of the low frequency region second sensor 22y. For this purpose, the light emission control unit 25 controls the light emission side current control unit 23 to drive the first light emitting element 21a of the low frequency region first sensor 21x or the second light emitting element 22a of the low frequency region second sensor 22y. Supply low power.

例えば、図9(b)に示すように全ての第2センサー22yが非動作状態に設定されている場合には、低頻度領域第1センサー21xの第1発光素子21aに接続された第1発光側スイッチ21cがオンするタイミングで、第1発光側電力供給線21eに駆動低電力が供給される。これにより、オン状態の第1発光側スイッチ21cに接続された低頻度領域第1センサー21xの第1発光素子21aには、駆動低電力が供給される。その結果、当該第1発光素子21aは、発光強度が標準強度よりも低下した低発光強度の光を照射する。   For example, as shown in FIG. 9B, when all the second sensors 22y are set to the non-operating state, the first light emission connected to the first light emitting element 21a of the first low frequency region sensor 21x. Driving low power is supplied to the first light emission side power supply line 21e at the timing when the side switch 21c is turned on. Thereby, driving low power is supplied to the first light emitting element 21a of the low frequency region first sensor 21x connected to the first light emitting side switch 21c in the on state. As a result, the first light emitting element 21a emits light having a low emission intensity whose emission intensity is lower than the standard intensity.

なお、高頻度領域第1センサー21xの第1発光素子21aが動作状態とされる場合には、当該第1発光素子21aに対して標準電力が供給される。従って、高頻度領域第1センサー21xの第1発光素子21aは標準強度の光を照射する。
図9(b)では、複数の第1発光素子21aのうち、一部の第1発光素子21aから標準強度の光(太線)が照射されている様子と、別の第1発光素子21aから低発光強度の光(細線)が照射されている様子が示されている。
In addition, when the 1st light emitting element 21a of the high frequency area | region 1st sensor 21x is made into an operation state, standard electric power is supplied with respect to the said 1st light emitting element 21a. Accordingly, the first light emitting element 21a of the high frequency region first sensor 21x emits light of standard intensity.
In FIG. 9B, among the plurality of first light emitting elements 21a, a part of the first light emitting elements 21a is irradiated with standard intensity light (thick line) and another one of the first light emitting elements 21a is low. A state in which light having a light emission intensity (thin line) is irradiated is shown.

一方、全ての第1センサー21xが非動作状態に設定されている場合には、低頻度領域第2センサー22yの第2発光素子22aに接続された第2発光側スイッチ22cがオンするタイミングで、第2発光側電力供給線22eに駆動低電力が供給される。これにより、オン状態の第2発光側スイッチ22cに接続された低頻度領域第2センサー22yの第2発光素子22aには駆動低電力が供給される。その結果、当該第2発光素子22aは、低発光強度の光を照射する。   On the other hand, when all the first sensors 21x are set to the non-operating state, the second light emission side switch 22c connected to the second light emitting element 22a of the low frequency region second sensor 22y is turned on. Driving low power is supplied to the second light emission side power supply line 22e. Thereby, driving low power is supplied to the second light emitting element 22a of the low frequency region second sensor 22y connected to the second light emitting side switch 22c in the on state. As a result, the second light emitting element 22a emits light with low emission intensity.

なお、高頻度領域第2センサー22yの第2発光素子22aが動作状態とされる場合には、当該第2発光素子22aに対して標準電力が供給される。従って、高頻度領域第2センサー22yの第2発光素子22aは標準強度の光を照射する。
いずれの場合にも、低頻度領域第1センサー21xの第1発光素子21aまたは低頻度領域第2センサー22xの第2発光素子22aへの供給電力が低減されるので、頻度に関係なく供給電力を標準電力のまま固定する構成に比べて、タッチ位置検出機構20の消費電力を低減できる。
In addition, when the 2nd light emitting element 22a of the high frequency area | region 2nd sensor 22y is made into an operation state, standard electric power is supplied with respect to the said 2nd light emitting element 22a. Accordingly, the second light emitting element 22a of the high frequency region second sensor 22y emits light of standard intensity.
In any case, since the power supplied to the first light emitting element 21a of the low frequency region first sensor 21x or the second light emitting element 22a of the low frequency region second sensor 22x is reduced, the power supply can be reduced regardless of the frequency. The power consumption of the touch position detection mechanism 20 can be reduced as compared with the configuration in which the standard power is fixed.

第1受光素子21bと第2受光素子22bのそれぞれについて、操作者のタッチ操作を検出可能な受光量の許容範囲のうち、基準となる受光量に相当する光を、対応する発光素子から発するのに必要な電流の電力が上記の標準電力として設定され、受光量の許容範囲のうち、標準電力の場合よりも少ない量の光を発光素子から発するのに必要な電流の電力が上記の駆動低電力として設定されている。   For each of the first light receiving element 21b and the second light receiving element 22b, light corresponding to the reference received light amount is emitted from the corresponding light emitting element within the allowable range of the received light amount that can detect the touch operation of the operator. Is set as the above-mentioned standard power, and the current power required for emitting a smaller amount of light from the light emitting element within the allowable range of the received light amount than in the case of the standard power It is set as power.

標準電力と駆動低電力は、タッチ位置の検出が可能な発光素子への供給電力の許容範囲内において、駆動低電力が標準電力よりも低くなるように予め決められており、駆動低電力の方が標準電力よりも消費電力を低減できるが、駆動低電力では、標準電力よりも発光素子への供給電流が低下するので、その分、発光素子からの発光量が低減する。
発光素子からの発光量が低減すると、それだけ受光素子の受光量が少なくなるので、受光素子の出力電流が標準電力の場合よりも下がり、閾値電流との差が標準電力の場合よりも小さくなることが生じる。
The standard power and the low drive power are determined in advance so that the drive low power is lower than the standard power within the allowable power supply to the light emitting element capable of detecting the touch position. However, when the driving power is low, the supply current to the light emitting element is lower than that of the standard power, so that the amount of light emitted from the light emitting element is reduced accordingly.
When the amount of light emitted from the light emitting element is reduced, the amount of light received by the light receiving element is reduced accordingly, so that the output current of the light receiving element is lower than that at the standard power, and the difference from the threshold current is smaller than that at the standard power. Occurs.

消費電力をより低減すべく、駆動低電力を標準電力に対して小さくしすぎると、例えばボタン画像領域上を通過する光の一部だけがユーザーの指により誤って遮光されただけでも、受光素子の出力電流が閾値電流を下回ってしまい、タッチ操作したものと検出してしまうことが起こり易くなる。
しかし、駆動低電力の供給は、ユーザーがタッチ操作する機会が少ないボタン画像領域を検出対象とする低頻度領域第1センサー21xまたは低頻度領域第2センサー22yだけであり、かつ当該ボタン画像領域上を通過する光を誤って指で遮光する操作を行うことも少ないと考えられるので、タッチ操作の検出精度の低下が生じる蓋然性は低くなる。
If the driving low power is made too small relative to the standard power to further reduce power consumption, for example, even if only part of the light passing over the button image area is accidentally blocked by the user's finger, the light receiving element Output current falls below the threshold current, and it is easy to detect that the touch operation is performed.
However, the drive low power is supplied only to the low-frequency area first sensor 21x or the low-frequency area second sensor 22y that detects a button image area where the user has few opportunities to perform a touch operation, and on the button image area. Therefore, it is considered that there is little operation of accidentally blocking light passing through the finger with a finger, so that the probability that the detection accuracy of the touch operation is lowered is reduced.

また、低頻度と高頻度のボタン画像の少なくとも一方が複数ある場合には、低頻度のボタン画像は、高頻度のボタン画像と分離した状態で表示される。高頻度のボタン画像は、タッチ操作のためにユーザーが接近する機会が多くなるのに対して、低頻度のボタン画像は接近する機会が少なくなる。このことによっても、さらに低頻度のボタン画像のタッチ操作の検出精度が低下する蓋然性が低くなるといえる。   When there are a plurality of low-frequency and high-frequency button images, the low-frequency button images are displayed separately from the high-frequency button images. A high-frequency button image has more opportunities for the user to approach due to a touch operation, whereas a low-frequency button image has fewer opportunities to approach. It can be said that this also reduces the probability that the detection accuracy of the touch operation of the low-frequency button image is lowered.

このように各センサーに対する供給電力を操作頻度に応じて標準電力と駆動低電力に切り替える制御をとる場合、標準電力のまま固定する場合に比べてタッチ操作の検出精度の低下が生じる場合が想定されるが、ユーザーが省電力優先モードを選択していることから、タッチ位置検出機構20における消費電力の低減を優先するようにしている。
なお、上記の駆動状態の時間を標準時間に対してどれだけよりも短くするか、および駆動低電力を標準電力に対してどれだけ低くするかについては、消費電力と検出精度を考慮して予め実験などから適した時間や電流値などを決めることができる。
As described above, when control is performed to switch the power supplied to each sensor between standard power and driving low power according to the operation frequency, it is assumed that the detection accuracy of touch operation may be lower than when the standard power is fixed. However, since the user has selected the power saving priority mode, priority is given to reducing power consumption in the touch position detection mechanism 20.
In addition, in consideration of power consumption and detection accuracy, it is necessary to determine in advance how much the above driving state time is to be shortened with respect to the standard time and how low the driving low power is with respect to the standard power. Appropriate time and current values can be determined from experiments.

次に、低頻度のボタン画像領域および高頻度のボタン画像領域の両方が複数でない場合(ステップS43において「No」)について説明する。この場合には、ステップS46に進む。ステップS46では、ボタン画像の表示位置を並び替えることなく、表示パネル本体11の表示面11aに表示することを表示制御部13に指示する。これにより、表示面11aには、ボタン画像が並び替えられていない状態のタッチ操作画面(指示されたタッチ操作画面)が表示される。   Next, a case where both the low-frequency button image area and the high-frequency button image area are not plural (“No” in step S43) will be described. In this case, the process proceeds to step S46. In step S46, the display control unit 13 is instructed to display on the display surface 11a of the display panel body 11 without rearranging the display positions of the button images. Thereby, the touch operation screen (instructed touch operation screen) in a state where the button images are not rearranged is displayed on the display surface 11a.

その後、ステップS47に進む。従って、この場合には、低頻度領域第1センサー21xのそれぞれ、低頻度領域第2センサー22yのそれぞれが動作状態になる時間を短くするステップS45の処理は実行されない。
ステップS47では、低頻度領域第1センサー21xの第1発光素子21aまたは低頻度領域第2センサー22yの第2発光素子22aに、駆動低電力を供給することを発光制御部25に指示する。
Thereafter, the process proceeds to step S47. Therefore, in this case, the process of step S45 for shortening the time during which each of the low-frequency area first sensor 21x and each of the low-frequency area second sensor 22y is in the operating state is not executed.
In step S47, the light emission control unit 25 is instructed to supply driving low power to the first light emitting element 21a of the low frequency region first sensor 21x or the second light emitting element 22a of the low frequency region second sensor 22y.

その後、タッチ位置検出機構20に駆動開始を指示して(ステップS48)、図5のステップS24に進む。これにより、発光制御部25および受光制御部26は、タッチ位置検出機構20を、主制御部30によって指示された状態になるように制御して、タッチ位置検出機構20によるタッチ操作の検出を実行する。
この場合には、低頻度領域第1センサー21xの第1発光素子21aまたは低頻度領域第2センサー22yの第2発光素子22aに対しては駆動低電力が供給される。これにより、駆動低電力が供給された第1発光素子21aまたは第2発光素子22aからは、標準強度よりも低い低強度の光が照射される。従って、タッチ位置検出機構20の消費電力は、標準強度に固定する場合よりも低減される。
Thereafter, the touch position detection mechanism 20 is instructed to start driving (step S48), and the process proceeds to step S24 in FIG. As a result, the light emission control unit 25 and the light reception control unit 26 control the touch position detection mechanism 20 to be in a state instructed by the main control unit 30, and detect the touch operation by the touch position detection mechanism 20. To do.
In this case, driving low power is supplied to the first light emitting element 21a of the low frequency region first sensor 21x or the second light emitting element 22a of the low frequency region second sensor 22y. Thereby, low intensity light lower than the standard intensity is emitted from the first light emitting element 21a or the second light emitting element 22a supplied with the driving low power. Therefore, the power consumption of the touch position detection mechanism 20 is reduced as compared with the case where the touch position detection mechanism 20 is fixed to the standard intensity.

なお、上記の説明では、低頻度のボタン画像におけるタッチ操作を検出する全ての第1センサー21xの第1発光素子21aに駆動低電力を供給する構成として、タッチ位置検出機構20における消費電力を低減している。しかし、この構成に限らない。
例えば、低頻度の1つのボタン画像(ボタン画像領域)を検出対象とする複数の第1センサー21xから選択される1以上の第1センサー21xを非動作状態とし、選択されない第1センサー21xの第1発光素子21aを動作状態にする構成としてもよい。動作状態にする第1センサー21xの第1発光素子21aには、標準電力、駆動低電力のいずれを供給してもよい。
In the above description, power consumption in the touch position detection mechanism 20 is reduced as a configuration in which driving low power is supplied to the first light emitting elements 21a of all the first sensors 21x that detect a touch operation in a low-frequency button image. doing. However, the configuration is not limited to this.
For example, one or more first sensors 21x selected from a plurality of first sensors 21x whose detection target is one infrequent button image (button image region) are deactivated, and the first sensors 21x that are not selected are in the first state. It is good also as a structure which makes 1 light emitting element 21a an operation state. Either the standard power or the driving low power may be supplied to the first light emitting element 21a of the first sensor 21x to be in the operating state.

この場合、非動作状態にされる第1センサー21xのX方向に連続する個数が多くなると、タッチ操作を検出できない領域がX方向に広くなるので、ユーザーの指の大きさと、隣り合う2つの第1センサー21xのX方向の間隔の大きさなどから、連続する個数をタッチ操作が可能な範囲内になるように予め決めることができる。また、非動作状態になる第1センサー21xを挟んでX方向両側に位置する2つの第1センサー21xがそれぞれ動作状態になるように、動作状態と非動作状態を決めることもできる。上記のことは、第2センサー22yについても同様である。   In this case, if the number of consecutive first sensors 21x in the non-operating state increases in the X direction, the area in which the touch operation cannot be detected increases in the X direction. Based on the size of the interval of one sensor 21x in the X direction, the number of consecutive ones can be determined in advance so that the touch operation is possible. Also, the operating state and the non-operating state can be determined so that the two first sensors 21x located on both sides in the X direction across the first sensor 21x that is in the non-operating state are in the operating state. The same applies to the second sensor 22y.

また、操作頻度基準処理では全ての低頻度のボタン画像と全ての高頻度のボタン画像とが相互に分離するように、ボタン画像の並び替えを行っている。しかし、このような並び替えを行わない構成としてもよい。
この場合には、図8のステップS42の処理が終了すると、ステップS43〜S45の処理を実行せずに、ステップS46の処理が実行される。これにより、ボタン画像は並び替えられることがない。その後、ステップS47の処理が実行されることにより、低頻度領域第1センサー21xの第1発光素子21aには駆動低電力が供給される。従って、タッチ位置検出機構20における消費電力は、操作頻度基準処理が実行されない場合よりも低減される。
In the operation frequency reference process, the button images are rearranged so that all the low-frequency button images and all the high-frequency button images are separated from each other. However, such a rearrangement may not be performed.
In this case, when the process of step S42 in FIG. 8 ends, the process of step S46 is executed without executing the processes of steps S43 to S45. As a result, the button images are not rearranged. Thereafter, the process of step S47 is executed, so that the drive low power is supplied to the first light emitting element 21a of the low frequency region first sensor 21x. Therefore, the power consumption in the touch position detection mechanism 20 is reduced as compared with the case where the operation frequency reference process is not executed.

さらに、ボタン画像を並び替えずに(ステップS44をスキップして)、低頻度領域第1センサー21x、低頻度領域第2センサー22yの動作状態になる時間を短くする処理(ステップS45)を実行する構成をとることも可能である。
また、操作頻度基準処理(ステップS22)では、ステップS44とS47のいずれか一方だけを実行する構成をとることもできる。
Furthermore, the process (step S45) which shortens the time which will be in the operation state of the low frequency area | region 1st sensor 21x and the low frequency area | region 2nd sensor 22y is performed, without rearranging a button image (step S44 is skipped). It is also possible to take a configuration.
In the operation frequency reference process (step S22), only one of steps S44 and S47 can be executed.

さらに、低頻度と高頻度のボタン画像の数に関わりなく、かつボタン画像の並び替えの表示も指示することなく(ステップ43、S44をスキップして)、ステップS45とS47を実行する、またはステップ45とS47の一方だけを実行する構成としても良い。
また、検出時間の短縮(ステップS45)と供給電力の低減(ステップS47)に代えて、例えば1つの低頻度のボタン画像領域を検出対象とするセンサーが複数ある場合に、その複数のセンサーの中に、電力供給されないセンサーが一部に含まれるように制御する方法(センサーを間引く方法)も考えられる。
Further, steps S45 and S47 are executed regardless of the number of low-frequency and high-frequency button images and without instructing display of button image rearrangement (steps 43 and S44 are skipped), or Only one of 45 and S47 may be executed.
In addition, instead of shortening the detection time (step S45) and reducing the power supply (step S47), for example, when there are a plurality of sensors that detect one infrequent button image area, the plurality of sensors In addition, a method of controlling to include a part of the sensor that is not supplied with power (a method of thinning out the sensor) is also conceivable.

<ステップS31による省電力優先モード>
省電力優先モードの選択が判断されると(ステップS31において「Yes」)、ステップS32〜S36による表示変更処理を省電力優先モードとして実行する。
まず、表示が指示されたタッチ操作画面の複数のボタン画像がX方向またはY方向に沿った複数の列を構成するかを判断する(ステップS32)。
<Power saving priority mode in step S31>
When the selection of the power saving priority mode is determined (“Yes” in step S31), the display change process in steps S32 to S36 is executed as the power saving priority mode.
First, it is determined whether or not the plurality of button images on the touch operation screen instructed to display constitute a plurality of columns along the X direction or the Y direction (step S32).

複数のボタン画像が複数列を構成するとは、X方向に沿って並ぶ列またはY方向に沿って並ぶ列が2列以上存在するように複数のボタン画像が並べられる構成をいう。例えば、図10(a)に示すボタン画像B11〜B17は、Y方向に沿った列が2列になるように並べられて配置される構成になっている。以下、複数のボタン画像が複数列を構成するタッチ操作画面を「複数列領域画像」という。   A plurality of button images forming a plurality of rows means a configuration in which a plurality of button images are arranged so that there are two or more rows arranged along the X direction or two rows arranged along the Y direction. For example, the button images B <b> 11 to B <b> 17 shown in FIG. 10A are configured to be arranged so that there are two rows along the Y direction. Hereinafter, a touch operation screen in which a plurality of button images form a plurality of rows is referred to as a “multi-row region image”.

タッチ操作画面が複数列領域画像でないことを判断すると(ステップS32において「No」)、ステップS35に進み、集中表示処理が実行できるかを判断する。ステップS35以降の処理については後述する。
タッチ操作画面が複数列領域画像であることを判断すると(ステップS32において「Yes」)、ステップS33に進む。ステップS33では、複数列領域画像における複数列のボタン画像を1列に並び替えた画像(以下、「単列領域画像」という。)の画像データが記憶部に予め記憶されているかを判断する。単列領域画像とは、例えば図10(b)に示すボタン画像B11〜B17のように複数のボタンがX方向またはY方向に沿って1列に配列された画像をいう。
If it is determined that the touch operation screen is not a multi-row region image (“No” in step S32), the process proceeds to step S35 to determine whether the centralized display process can be executed. The processing after step S35 will be described later.
If it is determined that the touch operation screen is a multi-row area image (“Yes” in step S32), the process proceeds to step S33. In step S <b> 33, it is determined whether image data of an image obtained by rearranging a plurality of button images in a plurality of row region images into one row (hereinafter referred to as “single row region image”) is stored in advance in the storage unit. A single-row region image refers to an image in which a plurality of buttons are arranged in one row along the X direction or the Y direction, for example, as button images B11 to B17 shown in FIG.

単列領域画像の画像データが記憶されていないことを判断すると(ステップS33において「No」)、ステップS34における単列領域表示処理を実行することなく、図5のステップS23に進む。この場合には、上記のように省電力優先モードが選択されていない場合(ステップS31において「No」)と同様の処理が実行される。
一方、単列領域画像の画像データが記憶されていることを判断すると(ステップS33において「Yes」)、単列領域表示処理の実行が可能であると判断し、ステップS34に進んで、単列領域表示処理を実行する。
If it is determined that the image data of the single row area image is not stored (“No” in step S33), the process proceeds to step S23 in FIG. 5 without executing the single row area display process in step S34. In this case, the same processing as that in the case where the power saving priority mode is not selected as described above (“No” in step S31) is executed.
On the other hand, if it is determined that the image data of the single row area image is stored (“Yes” in step S33), it is determined that the single row area display process can be executed, and the process proceeds to step S34. Execute area display processing.

<単列領域表示処理>
単列領域表示処理が実行されるのは、上記のステップS16で「No」の場合、またはステップS17で「No」の場合を条件としており、このことは、第1センサー21xの全て、または、第2センサー22yの全てが非動作状態に設定されていない状態(例えば、図7の状態)であることを意味する。
<Single row area display processing>
The single row region display process is executed on condition that “No” in Step S16 or “No” in Step S17, and this means that all of the first sensors 21x or This means that all of the second sensors 22y are not set to the non-operating state (for example, the state of FIG. 7).

このために、タッチ位置の検出を実行する際におけるタッチ位置検出機構20の消費電力は、第1センサー21xの全て、または、第2センサー22yの全てが非動作状態に設定されている状態(例えば、図3、図4の状態)よりも多くなっている。
しかし、複数列領域画像を単列領域画像に変更すると、複数のボタン画像のそれぞれのタッチ操作を、ボタン画像の配列方向に沿って配置された第1センサー21xまたは第2センサー22yだけで検出することができる。従って、ボタン画像のタッチ操作に直接的に関与しない第2センサー22yまたは第1センサー21xの全てを非動作状態に設定することができる。
For this reason, the power consumption of the touch position detection mechanism 20 when detecting the touch position is such that all of the first sensors 21x or all of the second sensors 22y are set to a non-operating state (for example, 3 and FIG. 4).
However, when the multi-row region image is changed to the single-row region image, the touch operation of each of the plurality of button images is detected only by the first sensor 21x or the second sensor 22y arranged along the arrangement direction of the button images. be able to. Accordingly, all of the second sensor 22y or the first sensor 21x that are not directly involved in the touch operation of the button image can be set to the non-operating state.

これにより、タッチ位置の検出をオフ状態にできる背景画像領域の面積が増加して、背景画像領域のタッチ操作を検出対象とする第1センサー21xおよび第2センサー22yの個数の合計を増加させることができる場合があり得る。この場合、ボタン画像(ボタン画像領域)のタッチ操作を検出対象とする第1センサー21xおよび第2センサー22yの個数の合計が、複数列領域画像の場合よりも減少することになり、タッチ操作の検出を実行する際におけるタッチ位置検出機構20の消費電力を低減することができる。   As a result, the area of the background image area where the detection of the touch position can be turned off is increased, and the total number of the first sensors 21x and the second sensors 22y whose detection targets are touch operations in the background image area is increased. It is possible that In this case, the total number of the first sensor 21x and the second sensor 22y whose detection target is the touch operation of the button image (button image region) is smaller than that in the case of the multi-row region image. It is possible to reduce power consumption of the touch position detection mechanism 20 when performing detection.

すなわち、予め決められている表示態様である複数列領域画像をこれとは異なる所定の表示態様である単列領域画像に変更すると仮定した場合に、動作状態に設定される第1センサー21xおよび第2センサー22yの総数を減少することができれば、タッチ位置検出機構20の消費電力の低減を実現できることになる。
従って、本実施の形態では、記憶部に記憶される全ての複数列領域画像のうち、単列領域画像に変更すると仮定した場合に、動作状態に設定される第1センサー21xおよび第2センサー22yの総数を減少できる複数列領域画像を予め決め、決められた複数列領域画像とこれに対応する単列領域画像とを主制御部30の記憶部に記憶しておき、表示指示された複数列領域画像に対応する単列領域画像が存在する場合に(ステップS33において「Yes」)、単列領域表示処理(ステップS34)を実行するとしている。
That is, when it is assumed that the multi-row region image having a predetermined display mode is changed to a single-row region image having a predetermined display mode different from the above, the first sensor 21x and the first sensor 21x set in the operating state If the total number of the two sensors 22y can be reduced, the power consumption of the touch position detection mechanism 20 can be reduced.
Therefore, in the present embodiment, the first sensor 21x and the second sensor 22y that are set to the operation state when it is assumed that all the multiple row area images stored in the storage unit are changed to the single row area image. A plurality of row region images that can reduce the total number of images are determined in advance, the determined plurality of row region images and the corresponding single row region image are stored in the storage unit of the main control unit 30, and a plurality of rows that are instructed to be displayed are stored. When there is a single row region image corresponding to the region image (“Yes” in step S33), the single row region display process (step S34) is executed.

この意味で、主制御部30は、ステップS33の処理を実行する際に、タッチ位置の検出をオフ状態にできるX成分領域とY成分領域の面積が増加するかを判定する領域増加判定手段として機能するといえる。
図10(a)は、単列領域表示処理が実行可能と判定される複数列領域画像が表示パネル本体11の表示面11aに表示された状態を示す模式図である。この複数列領域画像は、例えば、図9(a)に示すタッチ操作画面が表示面11aに表示された場合に、用紙サイズを設定するための選択ボタンであるボタン画像B4がタッチ操作されることにより、タッチ操作画面上にレイヤー表示される。
In this sense, the main control unit 30 serves as a region increase determination unit that determines whether the areas of the X component region and the Y component region that can turn off detection of the touch position increase when executing the process of step S33. It can be said that it functions.
FIG. 10A is a schematic diagram illustrating a state in which a multi-row area image that is determined to be capable of executing the single-row area display process is displayed on the display surface 11 a of the display panel body 11. For example, when the touch operation screen shown in FIG. 9A is displayed on the display surface 11a, the multi-row region image is touched by the button image B4 that is a selection button for setting the paper size. As a result, a layer is displayed on the touch operation screen.

表示面11aに表示された複数列領域画像では、用紙サイズに関する情報に対応した7つのボタン画像B11〜B17のうち、Y方向に沿ったボタン画像B11〜B14の列とY方向に沿ったボタン画像B15〜B17の列が2列で並列表示されている。それぞれのボタン画像B11〜B17は同じ形状および大きさになっており、X方向に沿って長い長方形状になっている。なお、表示面11aにおいて7つのボタン画像B11〜B17がそれぞれ表示された領域がボタン画像領域になっている。   In the multiple row region image displayed on the display surface 11a, among the seven button images B11 to B17 corresponding to the information on the paper size, the row of button images B11 to B14 along the Y direction and the button image along the Y direction. The rows B15 to B17 are displayed in parallel in two rows. Each of the button images B11 to B17 has the same shape and size, and has a long rectangular shape along the X direction. The area where the seven button images B11 to B17 are respectively displayed on the display surface 11a is the button image area.

左側のボタン画像の列には、表示面11aにおけるY方向の上側から下側にかけてボタン画像B11〜B14の4つが相互に接した状態で表示されている。また、右側のボタン画像の列には、表示面11aにおけるY方向の上側から下側にかけてボタン画像B15〜B17の3つが相互に接した状態で表示されている。
左側の列におけるY方向の最も上側に表示されたボタン画像B11には、プリントアウトする用紙サイズを画像データに基づいて自動的に選択することを画像形成本体部Aに指示する機能が設定されている。
In the left button image row, four button images B11 to B14 are displayed in contact with each other from the upper side to the lower side in the Y direction on the display surface 11a. In the right button image row, three button images B15 to B17 are displayed in contact with each other from the upper side to the lower side in the Y direction on the display surface 11a.
The button image B11 displayed on the uppermost side in the Y direction in the left column has a function for instructing the image forming main body A to automatically select the paper size to be printed based on the image data. Yes.

ボタン画像B11の下側のボタン画像B12、ボタン画像B13、ボタン画像B14には、それぞれ所定サイズの用紙の選択を画像形成本体部Aに指示する機能がそれぞれ設定されている。
右側の列におけるボタン画像B15〜B17のそれぞれにも、所定サイズの用紙の選択を画像形成本体部Aに指示する機能がそれぞれ設定されている。
The button image B12, the button image B13, and the button image B14 on the lower side of the button image B11 are each set with a function for instructing the image forming main body A to select a sheet of a predetermined size.
Each of the button images B15 to B17 in the right column is also set with a function for instructing the image forming main body A to select a sheet of a predetermined size.

このような複数列領域画像の表示が指示されると、ステップS14〜S17、S21の処理が実行されることにより、ボタン画像B11〜B17のボタン画像領域のタッチ操作を検出対象とする第1センサー21xと第2センサー22y(図10(a)の白抜きの丸印)が動作状態に設定される。
このような複数列領域画像における全てのボタン画像B11〜B17を、Y方向に沿って1列に並び替えた単列領域画像(変更画像)が表示パネル本体11の表示面11aに表示された状態を図10(b)に示す。
When the display of such a multi-row area image is instructed, the processes of steps S14 to S17 and S21 are executed, whereby the first sensor that detects the touch operation of the button image areas of the button images B11 to B17 as a detection target. 21x and the second sensor 22y (open circles in FIG. 10A) are set in the operating state.
A state in which a single row region image (changed image) in which all the button images B11 to B17 in such a multiple row region image are rearranged in one row along the Y direction is displayed on the display surface 11a of the display panel main body 11. Is shown in FIG.

図10(b)に示す単列領域画像では、全てのボタン画像B11〜B17が、その順番で、Y方向に沿って1列に配置されるように並び替えられて表示される。
このような単列領域画像の場合、ボタン画像B11〜B17のそれぞれのボタン画像領域のタッチ操作を、X方向に沿って並んだ第1センサー21xに関係なく、Y方向に沿った第2センサー22yによって検出できる。
In the single row region image shown in FIG. 10B, all the button images B11 to B17 are rearranged and displayed in that order so as to be arranged in one row along the Y direction.
In the case of such a single row region image, the touch operation of each button image region of the button images B11 to B17 is performed regardless of the first sensor 21x arranged along the X direction, and the second sensor 22y along the Y direction. Can be detected.

このために、図10(b)に模式的に示すように、ボタン画像B11〜B17のボタン画像領域のタッチ操作を検出対象とする第2センサー22y(図10(b)の白抜きの丸印)だけを動作状態に設定すればよい。
従って、X方向に沿って並んだ第1センサー21xの全てが非動作状態に設定され、Y方向に沿って並んだ第2センサー22yは、ボタン画像B11〜B17のそれぞれを検出対象とするセンサーだけが動作状態に設定される。これにより、非動作状態となる第1センサー21xおよび第2センサー22yの総数は、図10(a)に示す複数列領域画像の場合よりも増加し、動作状態となる第1センサー21xおよび第2センサー22yの総数は減少する。
For this purpose, as schematically shown in FIG. 10B, the second sensor 22y (a white circle in FIG. 10B) that detects a touch operation in the button image areas of the button images B11 to B17. ) Only need to be set to the operating state.
Accordingly, all of the first sensors 21x arranged along the X direction are set in a non-operating state, and the second sensors 22y arranged along the Y direction are only sensors that detect each of the button images B11 to B17. Is set to the operating state. As a result, the total number of the first sensor 21x and the second sensor 22y that are in the non-operating state is larger than that in the case of the multi-row region image illustrated in FIG. The total number of sensors 22y decreases.

図10(a)に例示する複数列領域画像だけでなく、図示しない他の複数列領域画像についても、単列領域画像に変更した場合に動作状態になる第1センサー21xおよび第2センサー22yの総数が減少するものについては、上記のようにその複数列領域画像に対応する単列領域画像の画像データが予め主制御部30に記憶されている。
従って、1以上の複数列領域画像のうち、表示されるべき複数列領域画像が指示された場合に、その指示された複数列領域画像に対応する単列領域画像の画像データを読み出すことにより、読み出した単列領域画像の画像データに基づき、複数列領域画像を変更した単列領域画像を表示パネル本体11の表示面11aに表示することができる。
Not only the multi-row region image illustrated in FIG. 10A but also other multi-row region images (not shown) of the first sensor 21x and the second sensor 22y that are in an operating state when changed to a single-row region image. For those whose total number decreases, the image data of the single row area image corresponding to the multiple row area image is stored in the main control unit 30 in advance as described above.
Therefore, when a plurality of row region images to be displayed are instructed among one or more of the plurality of row region images, by reading the image data of the single row region image corresponding to the instructed plurality of row region images, Based on the read image data of the single row region image, the single row region image obtained by changing the plurality of row region images can be displayed on the display surface 11 a of the display panel body 11.

このように、表示が指示された複数列領域画像に対応した単列領域画像が主制御部30の記憶部に記憶されている場合には、図6のステップS33において「Yes」となり、ステップS34の単列領域表示処理が実行される。
図11は、単列領域表示処理のサブルーチンを示すフローチャートである。単列領域表示処理では、複数列領域画像に替えて、主制御部30の記憶部に記憶された単列領域画像を表示面11aに表示することを表示制御部13に指示する(ステップS51)。
As described above, when the single row region image corresponding to the multiple row region image instructed to be displayed is stored in the storage unit of the main control unit 30, “Yes” is obtained in step S33 of FIG. 6, and step S34 is performed. The single column area display process is executed.
FIG. 11 is a flowchart showing a subroutine of single row area display processing. In the single row region display process, the display control unit 13 is instructed to display the single row region image stored in the storage unit of the main control unit 30 on the display surface 11a instead of the multiple row region image (step S51). .

次いで、表示面11aに表示された単列領域画像における各ボタン画像の配列方向とは直交する方向に並ぶ第1センサー21xまたは第2センサー22yの全てを非動作状態にすることを、発光制御部25および受光制御部26に指示する(ステップS52)。図10(b)の例では、全ての第1センサー21xが非動作状態に設定される。
さらに、非動作状態の設定が指示されなかった第1センサー21xまたは第2センサー22yのうち、ボタン画像(ボタン画像領域)をタッチ操作の検出対象としないセンサーと検出対象とするセンサーを抽出する(ステップS53)。図10(b)の例では、全ての第2センサー22yのうち、網点の丸印で示す第2センサー22yが検出対象としないセンサーとして抽出され、白抜きの丸印で示す第2センサー22yが検出対象とするセンサーとして抽出される。
Next, the light emission control unit is configured to make all the first sensors 21x or the second sensors 22y arranged in a direction orthogonal to the arrangement direction of the button images in the single row region image displayed on the display surface 11a non-operating. 25 and the light reception control unit 26 (step S52). In the example of FIG. 10B, all the first sensors 21x are set to the non-operating state.
Further, out of the first sensor 21x or the second sensor 22y that is not instructed to set the non-operating state, a sensor that does not detect a button image (button image region) as a touch operation detection target and a detection target sensor are extracted ( Step S53). In the example of FIG. 10B, among all the second sensors 22y, the second sensor 22y indicated by a halftone dot is extracted as a sensor not to be detected, and the second sensor 22y indicated by a white circle is displayed. Are extracted as sensors to be detected.

検出対象としないセンサーとして抽出された第1センサー21xまたは第2センサー22yを非動作状態に、検出対象とするセンサーとして抽出された第1センサー21xまたは第2センサー22yを動作状態にすることを、発光制御部25および受光制御部26に指示する(ステップS54)。
その後、タッチ位置検出機構20に対して駆動開始を指示する(ステップS55)。これにより、発光制御部25および受光制御部26は、タッチ位置検出機構20を、主制御部30によって指示された状態になるように制御して、タッチ位置検出機構20によるタッチ操作の検出を実行する。
The first sensor 21x or the second sensor 22y extracted as a sensor that is not a detection target is set in a non-operating state, and the first sensor 21x or the second sensor 22y that is extracted as a detection target sensor is set in an operating state. The light emission control unit 25 and the light reception control unit 26 are instructed (step S54).
Thereafter, the touch position detection mechanism 20 is instructed to start driving (step S55). As a result, the light emission control unit 25 and the light reception control unit 26 control the touch position detection mechanism 20 to be in a state instructed by the main control unit 30, and detect the touch operation by the touch position detection mechanism 20. To do.

この場合には、発光制御部25および受光制御部26は、非動作状態が指示された第1センサー21xまたは第2センサー22yの全てを非動作状態に制御する。従って、タッチ位置検出機構20の消費電力は、単列領域画像に変更される前の複数列領域画像が表示面11aに表示される場合よりも低減される。
その後、図5のステップS24に進み、タッチ操作画面におけるいずれかのボタン画像がタッチ操作されるまで待機状態になる。ステップS24以降の処理は前述した通りである。
In this case, the light emission control unit 25 and the light reception control unit 26 control all of the first sensor 21x or the second sensor 22y instructed to the non-operation state to the non-operation state. Therefore, the power consumption of the touch position detection mechanism 20 is reduced as compared with the case where the multi-row area image before being changed to the single-row area image is displayed on the display surface 11a.
Thereafter, the process proceeds to step S24 in FIG. 5 and enters a standby state until any button image on the touch operation screen is touch-operated. The processing after step S24 is as described above.

なお、複数列領域画像を単列領域画像に変更すると、図10(b)に示すように単列領域画像の一部が元々表示されていたボタン画像B2、B3の上に重なるようになるため、ユーザーによっては画面が見にくくなると感じる場合も生じ得る。しかし、ユーザーが省電力優先モードを選択していることから、タッチ位置検出機構20における消費電力の低減が優先されるようにしている。   Note that, when the multi-row area image is changed to the single-row area image, a part of the single-row area image is superimposed on the originally displayed button images B2 and B3 as shown in FIG. 10B. Some users may find it difficult to see the screen. However, since the user has selected the power saving priority mode, reduction of power consumption in the touch position detection mechanism 20 is given priority.

また、上記の単列領域表示処理では、ボタン画像B11〜B17をY方向に沿った1列に並び替えるとしたが、これに限られない。ボタンの数、形状、大きさによっては、例えばX方向に沿った1列に並び替えるとしても良い。いずれの方向に並び替えるかは予め決められる。
さらに、複数のボタン画像がX方向またはY方向に沿って2列に並んだ複数列領域画像について説明したが、単列領域表示処理の実行は、このような場合に限らない。例えば、ボタン画像がX方向またはY方向に沿って3列以上に並ぶ複数列領域画像に対しても、単列領域表示処理を実行する構成としてもよい。
In the single row region display process described above, the button images B11 to B17 are rearranged into one row along the Y direction, but the present invention is not limited to this. Depending on the number, shape, and size of the buttons, for example, the buttons may be rearranged in one row along the X direction. Which direction to rearrange is determined in advance.
Furthermore, although the description has been given of the multi-row region image in which a plurality of button images are arranged in two rows along the X direction or the Y direction, the execution of the single row region display processing is not limited to such a case. For example, the single row region display process may be executed for a plurality of row region images in which button images are arranged in three or more rows along the X direction or the Y direction.

また、複数のボタン画像が列状に並ぶ場合に限られず、例えば相互に間隔をおいて散在する構成でも、それらを1列に並べることにより、並べる前よりも、動作状態となる第1センサー21xおよび第2センサー22yの総数を減少できるのであれば、上記同様に単列領域表示処理を実行する構成をとることもできる。
<集中表示処理>
次に、図6に示すステップS32において、タッチ操作画面が複数列領域画像でない場合(ステップS32において「No」)におけるステップS35以降の処理について説明する。ステップS35以降の処理では、集中表示処理によりタッチ位置検出機構20における消費電力の低減が可能であるかを判断し(ステップS35)、集中表示処理が可能と判断されると、集中表示処理が実行される(ステップS36)。
In addition, the present invention is not limited to a case where a plurality of button images are arranged in a row. For example, even in a configuration in which the button images are spaced apart from each other, by arranging them in one row, the first sensor 21x that is in an operating state than before being arranged. As long as the total number of the second sensors 22y can be reduced, a configuration in which the single-row area display process is executed in the same manner as described above can be adopted.
<Centralized display processing>
Next, in step S32 shown in FIG. 6, processing after step S35 when the touch operation screen is not a multi-row region image (“No” in step S32) will be described. In the processing after step S35, it is determined whether the power consumption in the touch position detection mechanism 20 can be reduced by the centralized display processing (step S35), and when it is determined that the centralized display processing is possible, the centralized display processing is executed. (Step S36).

ここで、集中表示とは、表示が指示された全てのボタン画像を、表示面11aにおける任意の1個所に集中的に表示することである(図12(b)参照)。このような集中表示により、隣接するボタン画像同士は、相互に接した状態、あるいは、比較的小さな間隙が形成された状態とされる。
ステップS35では、表示が指示されたタッチ操作画面がボタン画像の集中表示が可能であるかを判断する。本実施の形態では、複数個のボタン画像が相互に間隔をあけて表示される1つのタッチ操作画面ごとに、予め集中表示可能な否かが決められており、その決められた可否の結果に基づき、集中表示の可否が判断される。
Here, the centralized display is to centrally display all button images for which display is instructed at an arbitrary position on the display surface 11a (see FIG. 12B). By such centralized display, adjacent button images are brought into contact with each other or a relatively small gap is formed.
In step S35, it is determined whether or not the touch operation screen instructed to display can be displayed in a concentrated manner. In the present embodiment, whether or not centralized display is possible is determined in advance for each touch operation screen on which a plurality of button images are displayed at intervals, and the result of the determined availability is determined. Based on this, it is determined whether or not centralized display is possible.

集中表示可能か否かの決定は、次のようにして行われる。
すなわち、図12(a)に示すようにタッチ操作画面には、複数個のボタン画像Biが表示面11aの全面にわたって分散状態で表示される画面が存在する。
このようなタッチ操作画面では、表示面11aにおいてX方向またはY方向の全域にわたって背景画像領域が存在しない場合が多く、各ボタン画像のボタン画像領域のタッチ操作を検出対象とする第1センサー21xおよび第2センサー22yの個数が多くなる。つまり、非動作状態に設定できる第1センサー21xおよび第2センサー22yの個数が少なくなる。
Determination of whether or not centralized display is possible is performed as follows.
That is, as shown in FIG. 12A, the touch operation screen includes a screen on which a plurality of button images Bi are displayed in a distributed state over the entire display surface 11a.
In such a touch operation screen, a background image area often does not exist over the entire area in the X direction or the Y direction on the display surface 11a, and the first sensor 21x and the first sensor 21x that detect the touch operation of the button image area of each button image and The number of second sensors 22y increases. That is, the number of first sensors 21x and second sensors 22y that can be set to the non-operating state is reduced.

図12(a)に示すタッチ操作画面の場合、10個のボタン画像Biのそれぞれのボタン画像領域のタッチ操作を検出するには、第1センサー21xおよび第2センサー22yの全てを動作状態に設定する必要が生じる。
タッチ位置検出機構20の消費電力を低減すべく、非動作状態に設定できる第1センサー21xおよび第2センサー22yの個数をより多くするには、表示面11aにおいてX方向またはY方向の全域にわたって背景画像領域が存在する部分、すなわちタッチ位置の検出をオフ状態にできる背景画像領域の面積ができるだけ増加するようにすれば良い。
In the case of the touch operation screen shown in FIG. 12A, in order to detect the touch operation of each button image area of the ten button images Bi, all of the first sensor 21x and the second sensor 22y are set to the operation state. Need to be done.
In order to increase the number of first sensors 21x and second sensors 22y that can be set to the non-operating state in order to reduce the power consumption of the touch position detection mechanism 20, the background over the entire area in the X direction or the Y direction on the display surface 11a. The area of the background image region where the image region exists, that is, the background image region where the detection of the touch position can be turned off may be increased as much as possible.

このようにする方法の一つとして、分散する複数個のボタン画像を表示面11aにおける任意の1点の周囲に集中して表示させる集中表示を実行する構成がとられている。
図12(b)は、図12(a)に示されたタッチ操作画面における全てのボタン画像Biを、表示面11a上における1個所(表示中心点)Paを中心として集中表示した画像(変更画像)を示している。
As one of the methods for doing this, a configuration is adopted in which concentrated display is performed in which a plurality of dispersed button images are displayed in a concentrated manner around an arbitrary point on the display surface 11a.
FIG. 12B shows an image (changed image) in which all the button images Bi on the touch operation screen shown in FIG. 12A are intensively displayed around one place (display center point) Pa on the display surface 11a. ).

ここで、各ボタン画像Biは、全てが同一の形状および大きさであり、各ボタン画像Biのそれぞれの表示位置が表示面11aにおけるボタン画像領域になっている。
ボタン画像のX方向に沿った長さは、それぞれ、表示面11aにおけるX方向に沿った長さの1/5であり、Y方向に沿った長さも、それぞれ、表示面11aにおけるY方向に沿った長さの1/5になっている。
Here, all the button images Bi have the same shape and size, and the display positions of the button images Bi are the button image areas on the display surface 11a.
The length along the X direction of the button image is 1/5 of the length along the X direction on the display surface 11a, and the length along the Y direction is also along the Y direction on the display surface 11a. It is 1/5 of the length.

また、表示中心点Paは、表示面11aの左端からX方向に表示面11aのX方向長さの1/5の長さの位置、かつ、表示面11aの上端からY方向に表示面11aのY方向長さの半分の長さの位置になっている。
集中表示は、これを行う前の図12(a)に示すタッチ操作画面における複数のボタン画像Biのうち、X方向の左側への移動可能なボタン画像Biの表示位置が、可能な限りX方向の左側へ移動することにより行われる。
Further, the display center point Pa is a position that is 1/5 of the X-direction length of the display surface 11a in the X direction from the left end of the display surface 11a and the display surface 11a in the Y direction from the upper end of the display surface 11a. The position is half the length in the Y direction.
In the concentrated display, the display position of the button image Bi that can be moved to the left in the X direction among the plurality of button images Bi on the touch operation screen shown in FIG. This is done by moving to the left side.

これにより、図12(b)のタッチ操作画面に示すように、全てのボタン画像Biが表示中心点Paの周囲に集中表示されて、表示面11aにおける左側の2/5の大きさの領域内に位置するようになる。
各ボタン画像Biが集中表示された図12(b)のタッチ操作画面において、各ボタン画像BiのX座標位置を検出するためには、表示面11aの左側の辺からX方向の全長の2/5の長さの範囲内に位置する第1センサー21x(白抜きの丸印)だけが動作状態であればよい。
As a result, as shown in the touch operation screen of FIG. 12B, all the button images Bi are concentratedly displayed around the display center point Pa, and within the left 2/5 size area on the display surface 11a. Will come to be located.
In order to detect the X coordinate position of each button image Bi on the touch operation screen shown in FIG. 12B in which the button images Bi are displayed in a concentrated manner, the 2 / Only the first sensor 21x (outlined circle) positioned within the length of 5 needs to be in the operating state.

つまり、各ボタン画像Biが集中表示されている領域に対して右側に確保された大きな面積の背景画像領域11zに対応する複数個の第1センサー21x(網点の丸印)を非動作状態に設定できる。
従って、図12(a)に示すタッチ操作画面における全てのボタン画像Bi(予め決められている表示態様)を、図12(b)に示すように表示中心点Paの周囲に集中表示すれば(異なる所定の表示態様に変更すれば)、背景画像領域のタッチ操作を検出対象とする第1センサー21xおよび第2センサー22yの個数を増加することができる。これにより、ボタン画像Biを検出対象とする第1センサー21xおよび第2センサー22yの個数が減少する。
In other words, the plurality of first sensors 21x (halftone dots) corresponding to the large background image region 11z secured on the right side with respect to the region where the button images Bi are displayed in a concentrated manner are brought into a non-operating state. Can be set.
Therefore, if all the button images Bi (predetermined display mode) on the touch operation screen shown in FIG. 12A are displayed in a concentrated manner around the display center point Pa as shown in FIG. If the display mode is changed to a different predetermined display mode, it is possible to increase the number of first sensors 21x and second sensors 22y whose detection targets are touch operations in the background image area. As a result, the number of first sensors 21x and second sensors 22y whose detection target is the button image Bi is reduced.

複数のタッチ操作画面ごとに、それぞれ集中表示を行った場合に動作状態になる第1センサー21xおよび第2センサー22yの総数が減少するタッチ操作画面については集中表示が可能、そうでないタッチ操作画面については集中表示が不可と予め決められる。この決定結果は、主制御部30に記憶される。この意味で、主制御部30は、ステップS35の処理を実行する際に、上記同様の領域増加判定手段として機能するといえる。   For a plurality of touch operation screens, a centralized display is possible for a touch operation screen in which the total number of the first sensor 21x and the second sensor 22y that are in an operating state when performing a centralized display is reduced. Is determined in advance that centralized display is not possible. The determination result is stored in the main control unit 30. In this sense, it can be said that the main control unit 30 functions as a region increase determination unit similar to the above when executing the processing of step S35.

図12では、表示面11a上において表示中心点Paを表示面11aの中心位置よりもX方向左寄りに位置する場合の例を示したが、これに限られず、例えば表示面11aの中心位置やこれよりも右寄りの位置などとすることもできる。
図13(a)は、表示中心点Paが表示面11aの中心位置に位置する場合の集中表示の例を示し、図13(b)は、表示中心点Paが表示面11aの中心位置よりも右寄りに位置する場合の集中表示の例を示している。
FIG. 12 shows an example in which the display center point Pa is located on the left side in the X direction with respect to the center position of the display surface 11a on the display surface 11a. However, the present invention is not limited to this. It is also possible to set the position to the right of the position.
FIG. 13A shows an example of concentrated display in the case where the display center point Pa is located at the center position of the display surface 11a, and FIG. 13B shows that the display center point Pa is more than the center position of the display surface 11a. The example of the concentrated display in the case of being located on the right side is shown.

図13(a)と図13(b)のそれぞれの集中表示の方法でも、図12(b)の集中表示の場合と同様に、動作状態になる第1センサー21xおよび第2センサー22yの総数を図12(a)に示す分散表示よりも減少させることができる。
表示中心点Paを図12(b)、図13(a)、図13(b)のいずれにするかは、後述のようにユーザーの最初のタッチ操作によるタッチ位置に基づき決めることができる。
In the centralized display methods of FIGS. 13A and 13B, the total number of first sensors 21x and second sensors 22y that are in the operating state is calculated as in the case of the centralized display of FIG. This can be reduced from the distributed display shown in FIG.
Whether the display center point Pa is set to any one of FIGS. 12B, 13A, and 13B can be determined based on the touch position by the first touch operation of the user as described later.

例えば、図13(a)に示すように表示面11aをX方向に左側のα、中央のβ、右側のγの各領域に略3等分して、中央領域β内のいずれかの位置がタッチ操作されると、図13(a)に示すように表示中心点Paを中央領域βの中央位置に決め、図13(a)に示す集中表示を選択する。
また、右側領域γ内のいずれかの位置がタッチ操作されると、図13(b)に示すように表示中心点Paを表示面11aの右端からX方向に表示面11aのX方向長さの1/5の長さの位置、かつ、表示面11aの上端からY方向に表示面11aのY方向長さの半分の長さの位置に決め、図13(b)に示す集中表示を選択する。
For example, as shown in FIG. 13A, the display surface 11a is divided into approximately three equal parts in the X direction on the left side α, the center β, and the right side γ, and any position in the center region β When the touch operation is performed, the display center point Pa is determined as the center position of the central region β as shown in FIG. 13A, and the concentrated display shown in FIG. 13A is selected.
When any position in the right region γ is touched, as shown in FIG. 13B, the display center point Pa is set to the X direction length of the display surface 11a from the right end of the display surface 11a in the X direction. A position having a length of 1/5 and a position that is half the length in the Y direction of the display surface 11a in the Y direction from the upper end of the display surface 11a is selected, and the concentrated display shown in FIG. 13B is selected. .

さらに、左側領域α内のいずれかの位置がタッチ操作されると、図12(b)に示す集中表示を選択することができる。
なお、上記では、複数個のボタン画像BiがY方向に沿って並ぶ列を2列で並列表示する場合の例を説明したが、これに限られず、例えばX方向に沿って並ぶ列を2列で並列表示する構成をとることできる。どの方向に沿う列にするかは予め決められる。
Furthermore, when any position in the left area α is touched, the concentrated display shown in FIG. 12B can be selected.
In the above description, an example has been described in which a plurality of button images Bi arranged in the Y direction are displayed in parallel in two rows. However, the present invention is not limited to this. For example, two columns arranged in the X direction are arranged in two rows. Can be configured to display in parallel. The direction along which the row is arranged is determined in advance.

図6に戻り、ステップS35において、表示が指示されたタッチ操作画面が集中表示不可と判断すると(ステップS35において「No」)、図5のステップS23に進み、ステップS23以降の処理を実行する。
一方、表示が指示されたタッチ操作画面が集中表示可能と判断すると(ステップS35において「Yes」)、ステップS36に進み、集中表示処理を実行する。
Returning to FIG. 6, when it is determined in step S35 that the touch operation screen instructed to be displayed cannot be centrally displayed (“No” in step S35), the process proceeds to step S23 in FIG. 5, and the processes after step S23 are executed.
On the other hand, when it is determined that the touch operation screen instructed to be displayed can be centrally displayed (“Yes” in step S35), the process proceeds to step S36, and the centralized display process is executed.

図14は、集中表示処理のサブルーチンを示すフローチャートである。
同図に示すように、まず、表示が指示されたタッチ操作画面(集中表示処理が実行されていないタッチ操作画面)の表示を表示制御部13に指示する(ステップS61)。これにより、集中表示が可能なタッチ操作画面が表示面11aに表示される。
次いで、第1センサー21xおよび第2センサー22yの全てを動作状態とすることを発光制御部25および受光制御部26に指示するとともに、タッチ位置の検出開始をタッチ位置検出機構20に指示する(ステップS62)。本実施形態では、タッチ操作画面が表示された後の最初のタッチ位置に基づいて表示中心点Paを決めるようにしている。このために、表示面11aにおける最初のタッチ位置を検出するために、第1センサー21xおよび第2センサー22yの全てを動作状態としている。
FIG. 14 is a flowchart showing a subroutine of centralized display processing.
As shown in the figure, first, the display control unit 13 is instructed to display a touch operation screen for which display is instructed (a touch operation screen for which centralized display processing is not executed) (step S61). Thereby, a touch operation screen capable of centralized display is displayed on the display surface 11a.
Next, the light emission control unit 25 and the light reception control unit 26 are instructed to set all of the first sensor 21x and the second sensor 22y to the operating state, and the touch position detection mechanism 20 is instructed to start detection of the touch position (step). S62). In the present embodiment, the display center point Pa is determined based on the first touch position after the touch operation screen is displayed. For this reason, in order to detect the first touch position on the display surface 11a, all of the first sensor 21x and the second sensor 22y are in an operating state.

そして、ユーザーの表示面11aへのタッチ操作によるタッチ位置が検出されるまで待機状態になる(ステップS63)。
その後、表示面11aのタッチ位置が検出されると(ステップS63において「Yes」)、タッチ位置を検出した第1センサー21xおよび第2センサー22yに基づいて表示中心点Paの座標位置を特定する(ステップS64)。ここでは、最初のタッチ位置が上記の図13(a)に示すα、β、γのいずれの領域内であるかを判断し、判断した領域がαであれば、図12(b)に示す表示中心点Paの座標位置が特定され、βであれば、図13(a)に示す表示中心点Paの座標位置が特定され、γであれば、図13(b)に示す表示中心点Paの座標位置が特定される。
And it will be in a standby state until the touch position by a user's touch operation to the display surface 11a is detected (step S63).
Thereafter, when the touch position of the display surface 11a is detected (“Yes” in step S63), the coordinate position of the display center point Pa is specified based on the first sensor 21x and the second sensor 22y that have detected the touch position ( Step S64). Here, it is determined whether the first touch position is in the α, β, or γ region shown in FIG. 13A, and if the determined region is α, it is shown in FIG. If the coordinate position of the display center point Pa is specified and is β, the coordinate position of the display center point Pa shown in FIG. 13A is specified, and if it is γ, the display center point Pa shown in FIG. The coordinate position of is specified.

次いで、表示中心点Paの周囲にボタン画像Biを集中して表示することを表示制御部13に指示する(ステップS65)。これにより、表示制御部13は、表示面11aにおける表示中心点Paの周囲に全てのボタン画像Biを集中的に表示する表示位置変更を行う。この場合には、表示中心点Paに接近する方向への移動可能なボタン画像Biが、表示中心点Paに接近する方向へ移動させる。これにより、表示中心点Paの周囲に、全てのボタン画像Biが集中表示された状態になる。   Next, the display control unit 13 is instructed to concentrate and display the button image Bi around the display center point Pa (step S65). Thereby, the display control part 13 performs the display position change which displays all the button images Bi intensively around the display center point Pa in the display surface 11a. In this case, the button image Bi that can move in the direction approaching the display center point Pa is moved in the direction approaching the display center point Pa. As a result, all the button images Bi are displayed in a concentrated manner around the display center point Pa.

なお、全てのボタン画像Biを集中表示する際には、相互に隣接するボタン画像Biは、相互に接した状態になっていてもよいが、比較的小さな間隙が形成された状態であってもよい。
その後、全てのボタン画像Bi以外の背景画像領域のタッチ操作を検出対象とする第1センサー21xおよび第2センサー22yの全てを非動作状態に、全てのボタン画像Biのボタン画像領域のタッチ操作を検出対象とする第1センサー21xおよび第2センサー22yの全てを動作状態にする指示を行う(ステップS66)。これにより、集中表示処理を終了して、図5のステップS24に進み、前述したように、いずれかのボタン画像Biのタッチ位置が検出されるまで待機状態になる。
When all the button images Bi are displayed in a concentrated manner, the adjacent button images Bi may be in contact with each other, but may be in a state in which a relatively small gap is formed. Good.
After that, all the first sensor 21x and the second sensor 22y whose detection targets are touch operations in the background image area other than all the button images Bi are set in a non-operating state, and the touch operations in the button image areas of all the button images Bi are performed. An instruction to set all of the first sensor 21x and the second sensor 22y to be detected as operating states is issued (step S66). As a result, the centralized display process is terminated, and the process proceeds to step S24 in FIG. 5 to enter a standby state until the touch position of any button image Bi is detected as described above.

以上の集中表示処理においても、タッチ位置検出機構20における消費電力を、第1センサー21xおよび第2センサー22yの全てを動作状態にする場合よりも低減することができる。
上記のような集中表示処理を行うと、元々、分散表示されていた各ボタン画像の表示位置が変わることになるため、ユーザーにとっては操作性が低下したと感じる場合も生じ得るが、省電力優先モードが選択されていることから、この操作性の低下よりも、タッチ位置検出機構20における消費電力の低減が優先されるようになっている。
Also in the above-described centralized display process, the power consumption in the touch position detection mechanism 20 can be reduced as compared with the case where all of the first sensor 21x and the second sensor 22y are in the operating state.
When the centralized display processing as described above is performed, the display position of each button image that was originally displayed in a distributed manner will change, so there may be cases where the user feels that operability has deteriorated. Since the mode is selected, the reduction in power consumption in the touch position detection mechanism 20 is prioritized over the reduction in operability.

なお、上記の集中表示処理の説明においては、表示中心点Paを、表示面11aおける最初のユーザーのタッチ位置に基づいて特定するとしたが、これに限られない。例えば、上記の構成に替えて、表示面11aにおける任意の位置を表示中心点Paとして予め設定しておいてもよい。この場合には、図14のステップS62〜S64の処理を実行することなく、ステップS65以降の処理が実行される。   In the above description of the concentrated display process, the display center point Pa is specified based on the touch position of the first user on the display surface 11a. However, the present invention is not limited to this. For example, instead of the above configuration, an arbitrary position on the display surface 11a may be set in advance as the display center point Pa. In this case, the processes after step S65 are executed without executing the processes of steps S62 to S64 of FIG.

<スライド操作省電力処理>
次に、図5のステップS13において実行されるスライド操作省電力処理について説明する。
図15および図16は、スライド操作省電力処理のサブルーチンを示すフローチャートである。スライド操作省電力処理では、スライド操作画面として、表示が指示されたシングルタッチ画面またはダブルタッチ画面を表示面11aに表示することを表示制御部13に指示する(図15のステップS70)。
<Slide operation power saving processing>
Next, the slide operation power saving process executed in step S13 of FIG. 5 will be described.
15 and 16 are flowcharts showing a subroutine of the slide operation power saving process. In the slide operation power saving process, the display control unit 13 is instructed to display the single touch screen or the double touch screen instructed to be displayed on the display surface 11a as the slide operation screen (step S70 in FIG. 15).

シングルタッチ画面は、例えば、フリック操作によって表示位置を変更できる画像を含んだ状態で表示面11aに表示される。また、ダブルタッチ画面は、例えば、ピンチアウト操作またはピンチイン操作によって拡大または縮小される画像を含んだ状態で、表示面11aに表示される。表示面11aにシングルタッチ画面およびダブルタッチ画面のいずれが表示されても、図15および図16のフローチャートに基づく処理が実行される。   For example, the single touch screen is displayed on the display surface 11a in a state including an image whose display position can be changed by a flick operation. The double touch screen is displayed on the display surface 11a in a state including an image that is enlarged or reduced by a pinch-out operation or a pinch-in operation, for example. Regardless of whether the single touch screen or the double touch screen is displayed on the display surface 11a, the processing based on the flowcharts of FIGS. 15 and 16 is executed.

スライド操作画面が表示面11aに表示されると、第1センサー21xおよび第2センサー22yの全てを動作状態にすることを、タッチ位置検出機構20に指示して、ユーザーのタッチ操作によるタッチ位置の検出開始を指示する(ステップS71)。
そして、タッチ位置が検出されるまで、待機状態になる(ステップS72)。
タッチ位置の検出は、上記のように、複数個の第1センサー21xおよび第2センサー22yのうち、受光素子21bおよび22bの出力電流が閾値電流よりも低下した状態になった第1センサー21xおよび第2センサー22yを特定し、特定した第1センサー21xおよび第2センサー22yのX、Y座標位置を検出することにより行われる。
When the slide operation screen is displayed on the display surface 11a, the touch position detection mechanism 20 is instructed to set all of the first sensor 21x and the second sensor 22y to the operating state, and the touch position by the user's touch operation is determined. An instruction to start detection is given (step S71).
And it will be in a standby state until a touch position is detected (step S72).
As described above, the touch position is detected by the first sensor 21x and the first sensor 21x and the second sensor 22y in which the output current of the light receiving elements 21b and 22b is lower than the threshold current. The second sensor 22y is specified, and the X and Y coordinate positions of the specified first sensor 21x and second sensor 22y are detected.

タッチ操作によるタッチ位置を検出すると(ステップS72において「Yes」)、タッチ位置を検出した第1センサー21xおよび第2センサー22yの全てをそれぞれ中核センサーSg1に設定する(ステップS73)。
そして、全ての中核センサーSg1のX座標位置およびY座標位置から、タッチ位置(領域)の中央のX座標およびY座標を求めて、求められたX座標およびY座標を現在のタッチ位置として記憶する(ステップS74)。
When the touch position by the touch operation is detected (“Yes” in step S72), all of the first sensor 21x and the second sensor 22y that have detected the touch position are set in the core sensor Sg1 (step S73).
Then, the center X coordinate and Y coordinate of the touch position (region) are obtained from the X coordinate position and Y coordinate position of all the core sensors Sg1, and the obtained X coordinate and Y coordinate are stored as the current touch position. (Step S74).

次いで、中核センサーSg1によって検出されたタッチ位置の周囲の領域のタッチ操作を検出対象とする第1センサー21xおよび第2センサー22yを、それぞれ周辺センサーSg2に設定する(ステップS75)。これにより、中核センサーSg1に対してX方向およびY方向のそれぞれの両側に隣接する第1センサー21xおよび第2センサー22yのそれぞれが周辺センサーSg2に設定される。   Next, the first sensor 21x and the second sensor 22y whose detection targets are touch operations in the area around the touch position detected by the core sensor Sg1 are set as the peripheral sensors Sg2 (step S75). Thereby, each of the first sensor 21x and the second sensor 22y adjacent to both sides in the X direction and the Y direction with respect to the core sensor Sg1 is set as the peripheral sensor Sg2.

中核センサーSg1および周辺センサーSg2が設定されると、中核センサーSg1および周辺センサーSg2以外の全ての第1センサー21xおよび第2センサー22yを非動作状態にすることをタッチ位置検出機構20に指示する(ステップS76)。
これにより、タッチ位置検出機構20は、表示面11aにおける現在のタッチ位置部分と当該タッチ位置部分の周辺部分とを除いた残りの部分に相当するX成分領域とY成分領域の検出をオフ状態とする。従って、タッチ位置検出機構20は、表示面11aにおける現在のタッチ位置部分と当該タッチ位置部分の周辺部分との両方に相当するX成分領域とY成分領域の検出だけを実行する。この状態を第1状態という。
When the core sensor Sg1 and the peripheral sensor Sg2 are set, the touch position detection mechanism 20 is instructed to deactivate all the first sensors 21x and the second sensors 22y other than the core sensor Sg1 and the peripheral sensor Sg2 ( Step S76).
As a result, the touch position detection mechanism 20 turns off detection of the X component area and the Y component area corresponding to the remaining portions excluding the current touch position portion and the peripheral portion of the touch position portion on the display surface 11a. To do. Therefore, the touch position detection mechanism 20 performs only the detection of the X component area and the Y component area corresponding to both the current touch position portion on the display surface 11a and the peripheral portion of the touch position portion. This state is referred to as a first state.

以上のステップS71〜S76の処理を、シングルタッチ画面が表示面11aに表示されている場合について説明する。
図17は、表示パネル10の表示面11aに表示されたシングルタッチ画面上でのユーザーによるタッチ位置がスライド操作される前の状態とスライド操作された後の状態を説明するための模式図である。
The process of the above steps S71-S76 is demonstrated about the case where the single touch screen is displayed on the display surface 11a.
FIG. 17 is a schematic diagram for explaining a state before and after the slide operation of the touch position by the user on the single touch screen displayed on the display surface 11 a of the display panel 10. .

スライド操作前の状態では、シングルタッチ画面が表示された表示面11aに対して、ユーザーが指等によって最初にタッチ操作した位置をタッチ位置Ptとして、タッチ位置Ptの領域が、X方向に連続する3個の第1センサー21xと、Y方向に連続する3個の第2センサー22yとによって検出されている。
従って、ステップS73では、これら3個の第1センサー21xおよび3個の第2センサー22yのそれぞれが中核センサーSg1に設定される。また、ステップS74では、3個の第1センサー21xおよび3個の第2センサー22yのそれぞれの中央に位置する第1センサー21xおよび第2センサー22yのX座標およびY座標が、現在のタッチ位置のX座標およびY座標として記憶される。
In the state before the slide operation, the position where the user first performs a touch operation with a finger or the like on the display surface 11a on which the single touch screen is displayed is the touch position Pt, and the region of the touch position Pt is continuous in the X direction. It is detected by three first sensors 21x and three second sensors 22y continuous in the Y direction.
Accordingly, in step S73, each of the three first sensors 21x and the three second sensors 22y is set as the core sensor Sg1. In step S74, the X and Y coordinates of the first sensor 21x and the second sensor 22y located at the center of each of the three first sensors 21x and the three second sensors 22y are the current touch positions. Stored as X and Y coordinates.

次のステップS75では、中核センサーSg1を構成する3個の第1センサー21xのX方向の両側に隣接する各1個の第1センサー21xと、3個の第2センサー22yのY方向の両側に隣接する各1個の第2センサー22yとが、それぞれ周辺センサーSg2に設定される。
次のステップS76では、中核センサーSg1および周辺センサーSg2に設定された5個の第1センサー21xおよび5個の第2センサー22y以外の全て第1センサー21xおよび第2センサー22yの非動作状態が、タッチ位置検出機構20に指示される。
In the next step S75, one first sensor 21x adjacent to both sides in the X direction of the three first sensors 21x constituting the core sensor Sg1 and both sides in the Y direction of the three second sensors 22y. Each one adjacent second sensor 22y is set as the peripheral sensor Sg2.
In the next step S76, all the first sensors 21x and the second sensors 22y other than the five first sensors 21x and the five second sensors 22y set in the core sensor Sg1 and the peripheral sensor Sg2 The touch position detection mechanism 20 is instructed.

以上のように、スライド操作前の状態では、シングルタッチ画面の場合、ステップS71〜S76の処理によって、白抜きの丸印で示す5個の第1センサー21xおよび5個の第2センサー22yが動作状態になり、これら以外の網点の丸印で示す第1センサー21xおよび第2センサー22yが非動作状態になる。
表示面11aにダブルタッチ画面が表示されている場合におけるステップS71〜S76の処理も、シングルタッチ画面が表示されている場合と同様である。但し、ピンチイン操作およびピンチアウト操作を実行する場合には、通常、ユーザーは、タッチ操作を2本の指によって行う。この場合、ピンチアウト操作を実行する際に、タッチ操作される2本の指同士が相互に接していると、表示面11aにおけるタッチ位置Ptは、2つの領域として検出されずに1つの領域として検出されることがある。
As described above, in the state before the slide operation, in the case of the single touch screen, the five first sensors 21x and the five second sensors 22y indicated by the white circles are operated by the processes in steps S71 to S76. The first sensor 21x and the second sensor 22y indicated by halftone dots other than these are inactivated.
The processing in steps S71 to S76 when the double touch screen is displayed on the display surface 11a is the same as that when the single touch screen is displayed. However, when performing a pinch-in operation and a pinch-out operation, the user usually performs a touch operation with two fingers. In this case, when performing the pinch-out operation, if the two fingers to be touched are in contact with each other, the touch position Pt on the display surface 11a is not detected as two areas but as one area. May be detected.

図18(a)は、表示パネル10の表示面11aに表示されたダブルタッチ画面をユーザーがピンチアウト操作を行うために、最初に表示面11aをタッチ操作した状態を説明するための模式図である。この場合には、タッチ位置Ptが1つの領域として検出されている。このタッチ位置Ptの面積は、シングルタッチ画面を1本の指でタッチ操作した場合のタッチ位置Ptの面積よりも若干大きくなっている。図18(a)においては、タッチ位置Ptが、6個の第1センサー21xおよび6個の第2センサー22yによってそれぞれ検出されている。   FIG. 18A is a schematic diagram for explaining a state in which the display surface 11a is first touch-operated in order to perform a pinch-out operation on the double touch screen displayed on the display surface 11a of the display panel 10. is there. In this case, the touch position Pt is detected as one area. The area of the touch position Pt is slightly larger than the area of the touch position Pt when the single touch screen is touched with one finger. In FIG. 18A, the touch position Pt is detected by the six first sensors 21x and the six second sensors 22y, respectively.

この場合も、図18(a)に示すように、タッチ位置Ptを検出した6個の第1センサー21xおよび6個の第2センサー22yのそれぞれが中核センサーSg1に設定される。また、中核センサーSg1に設定された第1センサー21xのX方向の両側と、第2センサー22yのY方向の両側とにそれぞれ隣接する各1個の第1センサー21xおよび第2センサー22yが周辺センサーSg2に設定される。   Also in this case, as shown in FIG. 18A, each of the six first sensors 21x and the six second sensors 22y that have detected the touch position Pt is set as the core sensor Sg1. Further, each of the first sensor 21x and the second sensor 22y adjacent to both sides in the X direction of the first sensor 21x set in the core sensor Sg1 and both sides in the Y direction of the second sensor 22y is a peripheral sensor. Set to Sg2.

なお、ダブルタッチ画面においてピンチイン操作を実行する場合には、タッチ操作される2本の指同士が相互に離間した状態になっているために、2か所のタッチ位置が検出される。この場合には、2か所のタッチ位置のそれぞれにおいて、図17で説明したスライド操作前の状態と同様に、中核センサーSg1および周辺センサーSg2のそれぞれが設定される。   When a pinch-in operation is performed on a double touch screen, two touch positions are detected because two fingers to be touched are separated from each other. In this case, the core sensor Sg1 and the peripheral sensor Sg2 are set at each of the two touch positions, as in the state before the slide operation described with reference to FIG.

そして、ステップS76において、中核センサーSg1および周辺センサーSg2以外の第1センサー21xおよび第2センサー22yの非動作状態がタッチ位置検出機構20に指示される。
これにより、ダブルタッチ画面の場合も、タッチ位置検出機構20は、表示面11aにおける現在のタッチ位置部分と当該タッチ位置部分の周辺部分とを除いた残りの部分に相当するX成分領域とY成分領域の検出をオフ状態とする。従って、タッチ位置検出機構20は、表示面11aにおける現在のタッチ位置部分と当該タッチ位置部分の周辺部分との両方に相当するX成分領域とY成分領域の検出だけを実行する。
In step S76, the non-operating state of the first sensor 21x and the second sensor 22y other than the core sensor Sg1 and the peripheral sensor Sg2 is instructed to the touch position detection mechanism 20.
Thereby, also in the case of a double touch screen, the touch position detection mechanism 20 causes the X component region and the Y component corresponding to the remaining portion excluding the current touch position portion and the peripheral portion of the touch position portion on the display surface 11a. Region detection is turned off. Therefore, the touch position detection mechanism 20 performs only the detection of the X component area and the Y component area corresponding to both the current touch position portion on the display surface 11a and the peripheral portion of the touch position portion.

次に、図16のステップS77以降の処理について説明する。ステップS77では、動作状態になったいずれかの周辺センサーSg2がタッチ操作を検出して反応するまで待機状態になる。
シングルタッチ画面およびダブルタッチ画面においては、通常、ユーザーは、表示面11aにタッチした指を、表示面11aにタッチした状態を維持してスライドさせる。これにより、周辺センサーSg2のいずれかの受光素子(第1受光素子21bまたは第2受光素子22b)の出力電流が閾値電流よりも低下した状態に反応する。このことから、ステップS77では、周辺センサーSg2のいずれかが反応すると(ステップS77において「Yes」)、タッチ位置がスライドされたものと判定し、ステップS78に進む。
Next, processing after step S77 in FIG. 16 will be described. In step S77, it will be in a standby state until any of the peripheral sensors Sg2 in the operating state detects a touch operation and reacts.
In the single touch screen and the double touch screen, the user normally slides the finger touching the display surface 11a while maintaining the state of touching the display surface 11a. Thereby, it reacts to the state where the output current of one of the light receiving elements (first light receiving element 21b or second light receiving element 22b) of the peripheral sensor Sg2 is lower than the threshold current. Therefore, in step S77, when any of the peripheral sensors Sg2 reacts (“Yes” in step S77), it is determined that the touch position has been slid, and the process proceeds to step S78.

ステップS78では、新たにタッチ位置を検出した第1センサー21xの全ておよび第2センサー22yの全てを、新たな中核センサーSg1に設定(更新)する。また、新たに中核センサーSg1に設定された第1センサー21xおよび第2センサー22yの両側にそれぞれ隣接する各1個の第1センサー21xおよび第2センサー22yのそれぞれを、新たな周辺センサーSg2に設定(更新)する(ステップS79)。   In step S78, all of the first sensors 21x and all of the second sensors 22y that have newly detected the touch position are set (updated) as new core sensors Sg1. In addition, each of the first sensor 21x and the second sensor 22y adjacent to both sides of the first sensor 21x and the second sensor 22y newly set as the core sensor Sg1 is set as a new peripheral sensor Sg2. (Update) (step S79).

中核センサーSg1および周辺センサーSg2が新たに設定されると、新たに設定された中核センサーSg1および周辺センサーSg2以外の全ての第1センサー21xおよび第2センサー22yが非動作状態(オフ状態)になり、かつ新たに設定された中核センサーSg1および周辺センサーSg2が動作状態になること(第1状態から第2状態への遷移)をタッチ位置検出機構20に指示する(ステップS80)。   When the core sensor Sg1 and the peripheral sensor Sg2 are newly set, all the first sensors 21x and the second sensors 22y other than the newly set core sensor Sg1 and the peripheral sensor Sg2 become inactive (off state). In addition, the touch position detection mechanism 20 is instructed that the newly set core sensor Sg1 and peripheral sensor Sg2 are in the operating state (transition from the first state to the second state) (step S80).

図17に示すシングルタッチ画面の例では、スライド操作前の状態のタッチ位置PtがX方向に沿って1個の第1センサー21xの幅分、右側にスライドした位置(以下、「スライド位置Ps」という。)に移動した状態がスライド操作後の状態になっている。
このスライド操作後の状態(第2状態)とは、スライド操作前の状態(第1状態)において中核センサーSg1に設定されていた3個の第1センサー21xに対してX方向の右側に隣接する周辺センサーSg2(第2センサー22y)が反応した瞬間(第2受光素子22bの出力電流が閾値電流よりも低下した瞬間)の状態のことである。
In the example of the single touch screen shown in FIG. 17, the touch position Pt in the state before the slide operation is slid to the right by the width of one first sensor 21x along the X direction (hereinafter, “slide position Ps”). The state moved to is the state after the slide operation.
The state after the sliding operation (second state) is adjacent to the right side in the X direction with respect to the three first sensors 21x set in the core sensor Sg1 in the state before the sliding operation (first state). This is the state at the moment when the peripheral sensor Sg2 (second sensor 22y) reacts (the moment when the output current of the second light receiving element 22b decreases below the threshold current).

図17の例に示すスライド操作後の状態では、スライド操作前のタッチ位置Ptに対して右側にスライドしたスライド位置Psを検出した3個の第1センサー21xおよび3個の第2センサー22yのそれぞれが新たに中核センサーSg1に設定されることになる。
そして、新たに設定された中核センサーSg1を構成する第1センサー21xおよび第2センサー22yに対してX方向およびY方向のそれぞれの両側に位置する各1個の第1センサー21xおよび第2センサー22yが、それぞれ新たな周辺センサーSg2に設定される。スライド前に既に周辺センサーSg2に設定されていた第1センサー21xおよび第2センサー22yがある場合でも、スライド後に周辺センサーSg2に該当するものについては新たに周辺センサーSg2に設定し直される。
In the state after the slide operation illustrated in the example of FIG. 17, each of the three first sensors 21x and the three second sensors 22y that have detected the slide position Ps slid to the right with respect to the touch position Pt before the slide operation. Is newly set to the core sensor Sg1.
Then, each of the first sensor 21x and the second sensor 22y located on both sides in the X direction and the Y direction with respect to the first sensor 21x and the second sensor 22y constituting the newly set core sensor Sg1. Are set to a new peripheral sensor Sg2. Even if there are the first sensor 21x and the second sensor 22y that have already been set as the peripheral sensor Sg2 before the slide, those corresponding to the peripheral sensor Sg2 after the slide are newly set as the peripheral sensor Sg2.

中核センサーSg1および周辺センサーSg2が新たに設定されると、次のステップS80では、中核センサーSg1および周辺センサーSg2以外のセンサーの非動作状態がタッチ位置検出機構20に指示される。
一方、ダブルタッチ画面では、ピンチイン操作またはピンチアウト操作が実行されると、通常、タッチ操作された2本の指が、相反する方向にスライドされる。このために、最初の1か所または2か所のタッチ位置Ptに対して、相反する方向にそれぞれ位置する周辺センサーSg2が反応する。この場合には、反応したそれぞれの周辺センサーSg2によって検出された2つのタッチ位置において、新たな中核センサーSg1および周辺センサーSg2がそれぞれ設定される。
When the core sensor Sg1 and the peripheral sensor Sg2 are newly set, in the next step S80, the non-operating state of sensors other than the core sensor Sg1 and the peripheral sensor Sg2 is instructed to the touch position detection mechanism 20.
On the other hand, on the double touch screen, when a pinch-in operation or a pinch-out operation is performed, normally, two touched fingers are slid in opposite directions. For this reason, the peripheral sensors Sg2 positioned in opposite directions react to the first one or two touch positions Pt. In this case, the new core sensor Sg1 and the peripheral sensor Sg2 are set at the two touch positions detected by the respective peripheral sensors Sg2 that have reacted.

図18(b)は、ダブルタッチ画面において、最初の1か所のタッチ位置Ptが検出された図18(a)に示す状態で、ピンチアウト操作を実行した場合を説明するための模式図である。ユーザーがピンチアウト操作を実行したときに、1つのタッチ位置Ptが、図18(b)に示すように2つに分離されて、それぞれが相互に離間するように相反する方向に向かって表示面11a上をスライドした場合の例を示している。   FIG. 18B is a schematic diagram for explaining a case where the pinch-out operation is executed in the state shown in FIG. 18A in which the first touch position Pt is detected on the double touch screen. is there. When the user performs a pinch-out operation, one touch position Pt is separated into two as shown in FIG. 18B, and the display surface faces in opposite directions so as to be separated from each other. An example of sliding on 11a is shown.

この例の場合、最初のタッチ位置Ptに対して相反する2つ方向のそれぞれに位置する周辺センサーSg2によってタッチ操作が検出され、スライド後の2か所のスライド位置Psのそれぞれを検出対象とする全ての第1センサー21xおよび第2センサー22y(図18(b)では、それぞれ3個ずつ)が新たに中核センサーSg1に設定される。
また、2か所のスライド位置Psのそれぞれにおいても、新たに設定された中核センサーSg1のそれぞれに対して周辺センサーSg2が新たに設定される。この場合も、中核センサーSg1を構成する第1センサー21xおよび第2センサー22yに対して、X方向およびY方向のそれぞれの両側に隣接する各1個の第1センサー21xおよび第2センサー22yが、それぞれ新たな周辺センサーSg2に設定される。
In this example, the touch operation is detected by the peripheral sensors Sg2 positioned in two opposite directions with respect to the first touch position Pt, and each of the two slide positions Ps after the slide is detected. All the first sensors 21x and the second sensors 22y (three each in FIG. 18B) are newly set as the core sensor Sg1.
In each of the two slide positions Ps, the peripheral sensor Sg2 is newly set for each of the newly set core sensors Sg1. Also in this case, with respect to the first sensor 21x and the second sensor 22y constituting the core sensor Sg1, each one of the first sensor 21x and the second sensor 22y adjacent to both sides in the X direction and the Y direction, Each is set to a new peripheral sensor Sg2.

なお、ダブルタッチ画面において、ピンチイン操作を実行する場合には、最初に、表示面11aにおける2か所の領域(タッチ位置)がタッチ操作される。このような状態で、ピンチイン操作を実行すると、2か所のタッチ位置が相互に接近するように、それぞれ相反する方向に向かって表示面11a上をスライドする。この場合も、ピンチアウト操作の場合と同様に、2か所のスライド位置Psのそれぞれにおいて、中核センサーSg1および周辺センサーSg2のそれぞれが新たに設定される。   When a pinch-in operation is performed on the double touch screen, first, two regions (touch positions) on the display surface 11a are touch-operated. When a pinch-in operation is performed in such a state, the display surface 11a slides in opposite directions so that the two touch positions approach each other. Also in this case, as in the case of the pinch-out operation, the core sensor Sg1 and the peripheral sensor Sg2 are newly set at each of the two slide positions Ps.

図16に戻って、ステップS81では、現在のタッチ位置における中央のX座標およびY座標をそれぞれ取得する。この取得は、現在、中核センサーSg1に設定されている全ての第1センサー21xおよび第2センサー22yの中央位置のX座標およびY座標のそれぞれを検出することにより行われる。
そして、新たな設定の前後にそれぞれ取得されたタッチ位置、具体的にはステップS74で取得されたタッチ位置とステップS81で取得されたタッチ位置の各座標に基づき、所定情報の入力を受け付ける(ステップS82)。
Returning to FIG. 16, in step S81, the central X coordinate and Y coordinate at the current touch position are acquired. This acquisition is performed by detecting the X and Y coordinates of the center positions of all the first sensors 21x and the second sensors 22y that are currently set in the core sensor Sg1.
Then, input of predetermined information is accepted based on the touch positions acquired before and after the new setting, specifically, the coordinates of the touch position acquired in step S74 and the touch position acquired in step S81 (step S81). S82).

例えば、シングルタッチ画面では、ステップS74による設定前のタッチ位置からステップS81による設定後のタッチ位置に向けて画像を移動することが指示されたものとして、その指示を受け付ける。
また、ダブルタッチ画面では、2本の指等による設定前のタッチ位置と、設定後の2つのタッチ位置との差分の大きさに基づいて、設定前のタッチ位置に表示された画像を拡大または縮小することが指示されたものとして、その指示を受け付ける。この場合、ピンチアウト操作では、設定前のタッチ位置に表示された画像を、スライド方向に沿って、スライド距離に対応した拡大率で拡大することが指示されたものとする。また、ピンチイン操作では、設定前のタッチ位置に表示された画像を、スライド方向に沿って、スライド距離に対応した縮小率で縮小することが指示されたものとする。
For example, on the single touch screen, the instruction is accepted as an instruction to move the image from the touch position before setting in step S74 toward the touch position after setting in step S81.
Also, on the double touch screen, based on the difference between the touch position before setting with two fingers or the like and the two touch positions after setting, the image displayed at the touch position before setting is enlarged or The instruction is accepted as an instruction to reduce. In this case, in the pinch-out operation, it is assumed that the image displayed at the touch position before setting is instructed to be enlarged along the slide direction at an enlargement rate corresponding to the slide distance. In the pinch-in operation, it is assumed that an image displayed at the touch position before setting is instructed to be reduced along the slide direction at a reduction rate corresponding to the slide distance.

続いて、いずれかの周辺センサーSg2がタッチ操作の検出により反応したか否かを判断する(ステップS83)。
ユーザーによるタッチ位置のスライドが継続されて、いずれかの周辺センサーSg2が反応すると(ステップS83において「Yes」)、ステップS78に戻って、ステップS78以降の処理が実行される。
Subsequently, it is determined whether any one of the peripheral sensors Sg2 has reacted by detecting the touch operation (step S83).
When the user continues to slide the touch position and any of the peripheral sensors Sg2 reacts (“Yes” in step S83), the process returns to step S78, and the processes after step S78 are executed.

タッチ位置が連続してスライドする場合には、周辺センサーSg2が反応する度に、ステップS78〜S83の処理が繰り返される。これにより、新たな中核センサーSg1と新たな周辺センサーSg2とが順次、設定(更新)されていくと共に、表示面11a上における画像もユーザーによるタッチ位置のスライド動作に追随するようにして移動、拡大等されることになる。   When the touch position slides continuously, the processes of steps S78 to S83 are repeated each time the peripheral sensor Sg2 reacts. As a result, the new core sensor Sg1 and the new peripheral sensor Sg2 are sequentially set (updated), and the image on the display surface 11a is moved and enlarged so as to follow the sliding operation of the touch position by the user. Will be equal.

なお、ステップS78〜S83の処理が2回以上繰り返される場合には、その回ごとに、ステップS82における所定情報の入力受付が、前回のステップS81で取得されたタッチ位置の座標を設定前のタッチ位置とし、今回のステップS81で取得したタッチ位置の座標を設定後の座標として行われる。
そして、タッチ位置Ptがスライドしなくなる状態、すなわちユーザーの指等によるスライドが停止した状態になり、周辺センサーSg2が反応しなくなったことを判断すると(ステップS83において「No」)、ステップS84に進む。
When the processes in steps S78 to S83 are repeated twice or more, the input reception of the predetermined information in step S82 is performed before the setting of the coordinates of the touch position acquired in the previous step S81. The coordinates of the touch position acquired in the current step S81 are set as the coordinates after setting.
Then, when it is determined that the touch position Pt does not slide, that is, the slide by the user's finger or the like is stopped and the peripheral sensor Sg2 stops responding (“No” in step S83), the process proceeds to step S84. .

ステップS84では、ユーザーによるタッチ操作が終了したかを判断する。
タッチ操作の終了は、ユーザーの指等が表示面11aから離間したこと、具体的には動作状態になった全ての第1センサー21xおよび第2センサー22yがタッチ位置を検出しない状態(全ての第1受光素子21bおよび第2受光素子22bの出力電流が閾値電流以上)に変化したことを検出することにより判定される。
In step S84, it is determined whether the touch operation by the user is finished.
The end of the touch operation is that the user's finger or the like has moved away from the display surface 11a. Specifically, all the first sensors 21x and the second sensors 22y that have entered the operating state do not detect the touch position (all the first positions It is determined by detecting that the output currents of the first light receiving element 21b and the second light receiving element 22b have changed to a threshold current or more.

ユーザーによるタッチ操作の終了が判断されない場合には(ステップS84において「No」)、ステップS83に戻る。
一方、タッチ操作の終了が判断された場合には(ステップS84において「Yes」)、表示面11aに表示されたスライド操作画面を、異なる入力操作画面(スライド操作画面に限らない)の表示に変更する必要があるかを判断する(ステップS85)。例えば、ユーザーが表示面11aに表示されたスライド操作画面における所定位置のタッチ操作に基づいて、他の入力操作画面への表示変更が必要であるかを判定する。
If the end of the touch operation by the user is not determined (“No” in step S84), the process returns to step S83.
On the other hand, when the end of the touch operation is determined (“Yes” in step S84), the slide operation screen displayed on the display surface 11a is changed to a display of a different input operation screen (not limited to the slide operation screen). It is determined whether it is necessary to do this (step S85). For example, based on a touch operation at a predetermined position on the slide operation screen displayed on the display surface 11a, the user determines whether display change to another input operation screen is necessary.

他の入力操作画面への表示変更が必要と判断されるまで待機状態になり、必要であることを判断すると(ステップS85において「Yes」)、図5に示すステップS11に戻り、ステップS11以降の処理を実行する。
以上のように、表示面11aにスライド操作画面が表示されている場合には、最初のタッチ操作の後は、タッチ位置およびその周辺を検出対象とする第1センサー21xおよび第2センサー22yだけが選択的に動作状態とされる。これにより、第1センサー21xおよび第2センサー22yの全てを動作状態とする場合よりも、タッチ位置検出機構20の消費電力を低減することができる。
The process waits until it is determined that a display change to another input operation screen is necessary. When it is determined that it is necessary (“Yes” in step S85), the process returns to step S11 shown in FIG. Execute the process.
As described above, when the slide operation screen is displayed on the display surface 11a, after the first touch operation, only the first sensor 21x and the second sensor 22y whose detection targets are the touch position and its periphery are displayed. It is selectively activated. Thereby, the power consumption of the touch position detection mechanism 20 can be reduced as compared with the case where all of the first sensor 21x and the second sensor 22y are in the operating state.

さらに、その後にタッチ位置のスライドが検出されると、スライド位置およびその周辺を検出対象とする第1センサー21xおよび第2センサー22yだけが、新たに動作状態とされる。
このように、動作状態になった第1センサー21xおよび第2センサー22yに基づいて、タッチ位置のスライド、スライド方向、スライド距離のそれぞれを取得することができる。従って、タッチ位置検出機構20の消費電力が低減された状態で、スライド操作画面における各種情報の入力を受け付けることができる。
Furthermore, when a slide at the touch position is detected thereafter, only the first sensor 21x and the second sensor 22y whose detection targets are the slide position and its periphery are newly set in an operating state.
Thus, based on the first sensor 21x and the second sensor 22y that are in the operating state, it is possible to acquire each of the slide at the touch position, the slide direction, and the slide distance. Therefore, it is possible to accept input of various information on the slide operation screen in a state where the power consumption of the touch position detection mechanism 20 is reduced.

なお、上記では、タッチ位置部分の周辺領域としての周辺部分に相当するX成分領域とY成分領域の検出を行う周辺センサーSg2を、中核センサーSg1に隣接するものだけとする例を説明したが、これに限られない。例えば、中核センサーSg1に隣接するセンサーと、さらにこれに隣接するセンサーを周辺センサーSg2に設定することもできる。中核センサーSg1を起点に、これに離れる方向に向かって何個目のセンサーまでを周辺センサーSg2に設定するかを予め決めておくことができる。   In the above description, the example has been described in which the peripheral sensor Sg2 that detects the X component region and the Y component region corresponding to the peripheral portion as the peripheral region of the touch position portion is only adjacent to the core sensor Sg1. It is not limited to this. For example, a sensor adjacent to the core sensor Sg1 and a sensor adjacent to the sensor can be set as the peripheral sensor Sg2. From the core sensor Sg1 as a starting point, it can be determined in advance how many sensors are set as the peripheral sensor Sg2 in a direction away from the core sensor Sg1.

[変形例]
上記の省電力制御は、図5〜図6のフローチャートで示すように、タッチ位置検出機構20が省電力状態になる複数の処理の実行が可能になっている。しかし、このような構成に限らず、タッチ位置検出機構20が省電力状態になるそれぞれの処理だけを単独で実行する構成、あるいは、2以上の処理を選択して実行する構成とすることもできる。
[Modification]
As shown in the flowcharts of FIGS. 5 to 6, the power saving control described above can execute a plurality of processes in which the touch position detection mechanism 20 enters a power saving state. However, the present invention is not limited to such a configuration, and a configuration in which only each process in which the touch position detection mechanism 20 enters the power saving state is executed alone or a configuration in which two or more processes are selected and executed may be employed. .

<変形例1>
例えば、タッチ操作省電力処理として、図5のフローチャートにおけるステップS17〜S20、S22を実行せずに、S15、S16で「Yes」の次にS21(背景画像領域に対する非動作設定)を実行して、その後、S23に進む構成としても良い。
この構成をとれば、ステップS18が実行されないので、複数個のボタン画像が1列に表示されていても、第1センサー21xまたは第2センサー22yの全てが非動作状態になることはなくなるが、全ての第1センサー21xおよび第2センサー22yを動作状態とする場合よりもタッチ位置検出機構20の消費電力を低減できる。この場合には、ステップS25において、タッチ操作の回数をカウントする必要がない。
<Modification 1>
For example, as the touch operation power saving process, steps S17 to S20 and S22 in the flowchart of FIG. 5 are not executed, but S21 (non-operation setting for the background image area) is executed after “Yes” in S15 and S16. Thereafter, the process may proceed to S23.
With this configuration, step S18 is not executed, and therefore, even if a plurality of button images are displayed in one row, all of the first sensor 21x or the second sensor 22y will not become inoperative. The power consumption of the touch position detection mechanism 20 can be reduced as compared with the case where all the first sensors 21x and the second sensors 22y are in the operating state. In this case, it is not necessary to count the number of touch operations in step S25.

また、ステップS15の次にS17を実行し、S17で「Yes」であれば、S21、S22(操作頻度基準処理)の順に実行する構成をとることもできる。
<変形例2>
上記では、複数個のボタン画像が1列に表示されている場合に操作頻度基準処理(ステップ22)を実行する構成としたが、これに限られず、複数個のボタン画像が1列に表示されていない場合でも、操作頻度基準処理を実行する構成とすることもできる。
Further, S17 is executed after step S15, and if “Yes” in S17, a configuration in which S21 and S22 (operation frequency reference process) are executed in this order may be employed.
<Modification 2>
In the above description, the operation frequency reference process (step 22) is executed when a plurality of button images are displayed in one row. However, the present invention is not limited to this, and a plurality of button images are displayed in one row. Even if not, the configuration may be such that the operation frequency reference process is executed.

例えば、図7に示すような入力操作画面においてボタン画像B6が低頻度であれば、ボタン画像B6を並び替えることなく(ステップS44を実行せず)、そのボタン画像領域のタッチ操作を検出するための第1センサー21xと第2センサー22yのそれぞれに対して、動作時間の短縮(ステップS45)と供給電力の低減(ステップS47)の少なくとも一方を実行することができる。   For example, if the button image B6 is infrequent on the input operation screen as shown in FIG. 7, the button image B6 is not rearranged (step S44 is not executed) in order to detect the touch operation of the button image area. For each of the first sensor 21x and the second sensor 22y, at least one of shortening the operation time (step S45) and reducing the supply power (step S47) can be executed.

この構成をとる場合、例えばステップS15、S21、S22の順に実行し、ステップS22では、ステップS43とS44を除く他の処理を実行するとすれば良い。
また、図7において、例えばボタン画像B8が低頻度であれば、そのボタン画像領域のタッチ操作を検出するための3つの第2センサー22yについてだけ、動作時間を短くしたり供給電力を低減したりすることができる。3つの第1センサー21xについては、ボタンB9の検出にも用いられるので、ボタンB9が低頻度でなければ、標準時間や標準電力のままとされる。
When adopting this configuration, for example, the processes are executed in the order of steps S15, S21, and S22. In step S22, other processes except for steps S43 and S44 may be executed.
In FIG. 7, for example, if the button image B8 is infrequent, only the three second sensors 22y for detecting the touch operation of the button image area can shorten the operation time or reduce the power supply. can do. Since the three first sensors 21x are also used for detecting the button B9, if the button B9 is not infrequent, the standard time and the standard power are maintained.

さらに、省電力優先モード、操作頻度基準処理、単列領域表示処理、集中表示処理のうち、いずれか1つだけを実行する構成または2以上を組み合わせて実行する構成をとるとしても良い。単列領域表示処理または集中表示処理だけを実行する場合には、図5のステップS15の次に図6のステップS32以降を実行する構成をとることができる。
また、表示面11aに表示されるボタン画像は、複数個に限られず、例えば1個の場合もあり得、従って、1以上のボタン画像が表示される場合に適用することができる。
Furthermore, a configuration in which only one of the power saving priority mode, the operation frequency reference process, the single row area display process, and the centralized display process is executed or a combination of two or more may be adopted. When only the single row region display process or the centralized display process is executed, a configuration in which step S32 and subsequent steps in FIG. 6 are executed after step S15 in FIG. 5 can be employed.
Further, the number of button images displayed on the display surface 11a is not limited to a plurality, and may be one, for example, and therefore can be applied when one or more button images are displayed.

<変形例3>
上記実施の形態では、隣り合う2つのボタン画像の間を背景画像として、この背景画像に対応する第1センサー21x(例えば、図3の発光素子21ajと受光素子21bj)を非動作状態としたが、これに限られず、動作状態に設定されるとしても良い。
例えば、複数個のボタン画像をまとめてこれらを取り囲む一つの領域をボタン画像領域と捉えれば、隣り合う2つのボタン画像の間の領域もボタン画像領域になるので、隣り合う2つのボタン画像の間の領域を検出対象とする第1センサー21xまたは第2センサー22y、例えば図3の発光素子21ajと受光素子21bjは、動作状態に設定される。
<Modification 3>
In the above embodiment, the background image is set between two adjacent button images, and the first sensor 21x (for example, the light emitting element 21aj and the light receiving element 21bj in FIG. 3) corresponding to the background image is set in a non-operating state. However, the present invention is not limited to this, and the operating state may be set.
For example, if a single area surrounding a plurality of button images is regarded as a button image area, the area between two adjacent button images is also a button image area. The first sensor 21x or the second sensor 22y, for example, the light emitting element 21aj and the light receiving element 21bj shown in FIG. 3 are set in an operating state.

このようにしても、第1センサー21xと第2センサー22yとの全てを動作状態に設定する構成よりもタッチ位置検出機構20の消費電力を低減できる。
つまり、表示面11a上におけるユーザーのタッチ操作を受け付けるための画像(第1領域)以外の背景画像領域(第2領域)の全体のうち、少なくとも一部の領域を検出対象とする第1センサー21xと第2センサー22yを非動作状態に設定、すなわちその一部の領域に相当するX成分領域とY成分領域のタッチ位置の検出をオフ状態に設定し、かつ、当該タッチ操作を受け付けるための画像が表示される領域に相当するX成分領域とY成分領域のタッチ位置の検出の実行を行う構成をとれば、全ての第1センサー21xと全ての第2センサー22yを動作状態に設定する構成よりもタッチ位置検出機構20の消費電力の低減に資することができる。
Even if it does in this way, the power consumption of the touch position detection mechanism 20 can be reduced rather than the structure which sets all the 1st sensor 21x and the 2nd sensor 22y to an operation state.
That is, the first sensor 21x that detects at least a part of the entire background image region (second region) other than the image (first region) for accepting the user's touch operation on the display surface 11a. And the second sensor 22y are set to a non-operating state, that is, the detection of the touch position of the X component area and the Y component area corresponding to a part of the second sensor 22y is set to the OFF state, and an image for receiving the touch operation If the configuration is such that the detection of the touch positions of the X component region and the Y component region corresponding to the region where is displayed, all the first sensors 21x and all the second sensors 22y are set to the operation state. Can also contribute to the reduction of the power consumption of the touch position detection mechanism 20.

なお、背景画像領域のどの部分を検出対象とする第1センサー21xと第2センサー22yを非動作状態に設定するかは、表示すべき全てのタッチ操作画面のそれぞれごとに予め決めておくことができる。
<変形例4>
上記の実施形態では、いわゆる光学方式のタッチ位置検出機構20において、それぞれの発光素子21aが個別に発光側スイッチ21cを介して発光側電力供給線21eと接続され、動作状態に設定された各発光素子21aに接続される発光側スイッチ21cを順番に1つずつだけがオンになるように切り替えていくことで、複数の発光素子21aのうち、発光素子列の並び順に1つだけが発光していく構成としたが、これに限られない。
Note that which part of the background image area to be set as the detection target for the first sensor 21x and the second sensor 22y may be determined in advance for each of all touch operation screens to be displayed. it can.
<Modification 4>
In the above-described embodiment, in the so-called optical touch position detection mechanism 20, each light emitting element 21a is individually connected to the light emitting side power supply line 21e via the light emitting side switch 21c, and each light emission set in the operating state. By switching the light emitting side switch 21c connected to the element 21a so that only one is turned on in order, only one of the plurality of light emitting elements 21a emits light in the arrangement order of the light emitting element rows. However, the present invention is not limited to this.

例えば、発光側スイッチ21cを設けずに、各発光素子21aを個別に発光と消灯の切り替えを制御する構成とすることもできる。この場合、各発光素子21aに対する供給電力を可変できるようにすれば標準電力と低電力を切り替えることもできる。
また、各発光素子21aを1つずつ順番に発光させることに限られず、例えば動作状態に設定された全ての発光素子21aを同時発光する構成とすることもできる。発光素子22aについても同様である。
For example, each light emitting element 21a can be configured to individually control switching between light emission and extinction without providing the light emission side switch 21c. In this case, the standard power and the low power can be switched if the power supplied to each light emitting element 21a can be varied.
Moreover, it is not restricted to light-emitting each light emitting element 21a one by one in order, For example, it can also be set as the structure which light-emits all the light emitting elements 21a set to the operation state simultaneously. The same applies to the light emitting element 22a.

動作状態に設定された発光素子にタッチ位置を検出するための電力が供給され、非動作状態(オフ状態)に設定された発光素子に電力が供給されないようにすることができる構成に適用できる。
また、光学方式以外の、例えば投影型静電方式のタッチ位置検出機構を用いる構成とすることもできる。
The present invention can be applied to a configuration in which power for detecting a touch position is supplied to a light emitting element set in an operating state and power is not supplied to a light emitting element set in a non-operating state (off state).
Further, a configuration using a touch position detection mechanism other than the optical method, for example, a projection electrostatic method can be used.

投影型静電方式の場合、異なるX座標位置においてY方向に沿った透明電極パターンによって第1センサーのそれぞれが構成される。また、異なるY座標位置においてX方向に沿って配置された透明電極パターンによって第2センサーのそれぞれが構成される。第1センサーと第2センサーの交差部のそれぞれでは相互に絶縁状態になっている。
上記の方式以外でも、表示面11a上におけるX−Y座標の異なる複数の領域のそれぞれごとに電力供給によるタッチ位置の検出をオン状態(可能)とオフ状態(不可)に切り替え可能な方式のタッチパネル一般に適用可能である。
In the case of the projection electrostatic method, each of the first sensors is configured by a transparent electrode pattern along the Y direction at different X coordinate positions. In addition, each of the second sensors is configured by a transparent electrode pattern arranged along the X direction at different Y coordinate positions. Each of the intersections of the first sensor and the second sensor is insulated from each other.
In addition to the above method, a touch panel that can switch the detection of the touch position by power supply between the on state (possible) and the off state (impossible) for each of a plurality of regions having different XY coordinates on the display surface 11a. Generally applicable.

上記の実施形態では、画像形成装置において使用されるタッチパネル入力装置について説明したが、これに限られない。例えば、パーソナルコンピューター、携帯情報端末装置、車載用情報端末装置等の各種電子機器において使用されるタッチパネル入力装置にも適用することができる。
また、上記実施の形態及び上記変形例の内容を可能な限りそれぞれ組み合わせるとしても良い。
In the above embodiment, the touch panel input device used in the image forming apparatus has been described. However, the present invention is not limited to this. For example, the present invention can be applied to a touch panel input device used in various electronic devices such as a personal computer, a portable information terminal device, and an in-vehicle information terminal device.
Further, the contents of the above embodiment and the above modification may be combined as much as possible.

本発明のタッチパネル入力装置は、消費電力を低減する技術として有用である。   The touch panel input device of the present invention is useful as a technique for reducing power consumption.

A 画像形成本体部
B タッチパネル入力装置
10 表示パネル
11 表示パネル本体
11a 表示面
13 表示制御部
20 タッチ位置検出機構
21M 第1発光素子列
21N 第1受光素子列
21a 第1発光素子
21b 第1受光素子
21x 第1センサー
22M 第2発光素子列
22N 第2受光素子列
22a 第2発光素子
22b 第2受光素子
22y 第2センサー
25 発光制御部
26 受光制御部
30 主制御部
B1〜B9、B11〜B17、Bi ボタン画像
A Image forming main body B Touch panel input device 10 Display panel 11 Display panel main body 11a Display surface 13 Display control unit 20 Touch position detection mechanism 21M First light emitting element array 21N First light receiving element array 21a First light emitting element 21b First light receiving element 21x 1st sensor 22M 2nd light emitting element row | line | column 22N 2nd light receiving element row | line | column 22a 2nd light emitting element 22b 2nd light receiving element 22y 2nd sensor 25 Light emission control part 26 Light reception control part 30 Main control part B1-B9, B11-B17, Bi button image

Claims (7)

表示面を有する表示パネルと、
前記表示パネルの表示面に所定の画面を表示する表示制御手段と、
前記表示パネルの表示面上における任意のタッチ位置をX−Y直交座標系の2成分として検出可能なタッチ位置検出機構と、
前記表示面上にユーザーのスライド操作を要求するスライド操作画面が表示されている場合において、前記タッチ位置検出機構によってタッチ位置が検出されると、検出されたタッチ位置部分と当該タッチ位置部分の周辺部分とを除いた前記表示面上の残りの部分に相当する直交座標系のX成分領域とY成分領域の検出をオフ状態にし、かつ前記タッチ位置部分および前記周辺部分に相当する直交座標系のX成分領域とY成分領域の検出を実行することを、前記タッチ位置検出機構に指示する検出指示手段と、
を備えることを特徴とするタッチパネル入力装置。
A display panel having a display surface;
Display control means for displaying a predetermined screen on the display surface of the display panel;
A touch position detection mechanism capable of detecting an arbitrary touch position on the display surface of the display panel as two components of an XY orthogonal coordinate system;
In a case where a slide operation screen requesting a user's slide operation is displayed on the display surface, when the touch position is detected by the touch position detection mechanism, the detected touch position portion and the periphery of the touch position portion are detected. The detection of the X component region and the Y component region of the orthogonal coordinate system corresponding to the remaining portion on the display surface excluding the portion is turned off, and the orthogonal coordinate system corresponding to the touch position portion and the peripheral portion is turned off. Detection instruction means for instructing the touch position detection mechanism to execute detection of the X component region and the Y component region;
A touch panel input device comprising:
前記検出指示手段は、
前記タッチ位置部分および前記周辺部分に相当する直交座標系のX成分領域とY成分領域の検出を実行中に、前記スライド操作に伴い、前記タッチ位置検出機構によって前記タッチ位置とは異なる新たなタッチ位置が検出されると、
前記表示面上における前記新たに検出されたタッチ位置部分と当該タッチ位置部分の周辺部分とを除いた残りの部分に相当する直交座標系のX成分領域とY成分領域の検出をオフ状態にし、かつ当該タッチ位置部分および周辺部分に相当する直交座標系のX成分領域とY成分領域の検出を実行する状態に遷移することを、前記タッチ位置検出機構に指示することを特徴とする請求項1に記載のタッチパネル入力装置。
The detection instruction means includes
A new touch that is different from the touch position by the touch position detection mechanism in accordance with the slide operation during detection of the X component area and the Y component area of the orthogonal coordinate system corresponding to the touch position portion and the peripheral portion. Once the position is detected,
The detection of the X component area and the Y component area of the orthogonal coordinate system corresponding to the remaining portion excluding the newly detected touch position portion and the peripheral portion of the touch position portion on the display surface is turned off, 2. The touch position detection mechanism is instructed to shift to a state in which detection of an X component area and a Y component area of an orthogonal coordinate system corresponding to the touch position portion and the peripheral portion is performed. Touch panel input device according to.
前記スライド操作画面は、
タッチ位置が前記表示面上を1方向にスライドされることによって所定の情報の入力を受け付けるシングルタッチ画面であることを特徴とする請求項1または2に記載のタッチパネル入力装置。
The slide operation screen is
The touch panel input device according to claim 1, wherein the touch position is a single touch screen that receives an input of predetermined information by sliding the touch position in one direction on the display surface.
前記スライド操作画面は、
タッチ位置が前記表示面上を異なる2方向にそれぞれスライドされることによって所定の情報の入力を受け付けるダブルタッチ画面であることを特徴とする請求項1または2に記載のタッチパネル入力装置。
The slide operation screen is
The touch panel input device according to claim 1, wherein the touch position is a double touch screen that receives input of predetermined information by sliding the touch position in two different directions on the display surface.
前記タッチ位置検出機構は、
前記表示パネルにおける表示面の周囲に、Y軸方向に対向する2辺の一方に複数の発光素子からなる第1発光素子列とその他方に複数の受光素子からなる第1受光素子列とが対向配置され、かつ、X軸方向に対向する2辺の一方に複数の発光素子からなる第2発光素子列とその他方に複数の受光素子からなる第2受光素子列とが対向配置されてなる検出光学系と、
前記それぞれの発光素子を制御する発光制御部と、
を備え、
前記検出指示手段は、
前記タッチ位置の検出をオフ状態にすべきX成分領域とY成分領域の検出に用いられる発光素子に電力を供給せず、前記タッチ位置部分および前記周辺部分に相当する直交座標系のX成分領域とY成分領域のタッチ位置の検出に用いられる発光素子にタッチ位置の検出のための電力を供給する指示を前記発光制御部に対して行うことを特徴とする請求項1〜4のいずれか一項に記載のタッチパネル入力装置。
The touch position detection mechanism is
Around the display surface of the display panel, a first light-emitting element array composed of a plurality of light-emitting elements on one of two sides facing in the Y-axis direction and a first light-receiving element array composed of a plurality of light-receiving elements on the other side face each other. Detection in which a second light-emitting element array composed of a plurality of light-emitting elements is arranged on one of two sides facing each other in the X-axis direction and a second light-receiving element array composed of a plurality of light-receiving elements is arranged opposite to each other Optical system,
A light emission control unit for controlling each of the light emitting elements;
With
The detection instruction means includes
The X component region of the orthogonal coordinate system corresponding to the touch position portion and the peripheral portion without supplying power to the light emitting elements used for detecting the X component region and the Y component region where detection of the touch position should be turned off 5. The light emission control unit is instructed to supply power for detecting the touch position to the light emitting element used to detect the touch position of the Y component region. 5. The touch panel input device according to item.
前記それぞれの発光素子は、
個別にスイッチを介して発光側の電力供給線に接続されており、
前記検出指示手段は、
前記タッチ位置の検出をオフ状態にすべきX成分領域とY成分領域の検出に用いられる発光素子に接続されたスイッチがオフ状態になり、前記タッチ位置部分および前記周辺部分に相当する直交座標系のX成分領域とY成分領域のタッチ位置の検出に用いられる発光素子に接続されるスイッチがオン状態になるように、各スイッチのオンとオフの切り替え制御の指示を前記発光制御部に対して行うことを特徴とする請求項5に記載のタッチパネル入力装置。
Each of the light emitting elements is
It is individually connected to the power supply line on the light emission side via a switch,
The detection instruction means includes
An orthogonal coordinate system corresponding to the touch position portion and the peripheral portion is turned off when a switch connected to a light emitting element used for detecting the X component region and the Y component region where detection of the touch position is to be turned off. Instruct the light emission control unit to turn on and off each switch so that the switch connected to the light emitting element used for detecting the touch position of the X component area and the Y component area of the The touch panel input device according to claim 5, wherein the touch panel input device performs the touch panel input device.
表示面を有する表示パネルと、前記表示パネルの表示面上における任意のタッチ位置をX−Y直交座標系の2成分として検出可能なタッチ位置検出機構を有するタッチパネル入力装置のコンピューターに、
前記表示パネルの表示面に所定の画面を表示する表示制御ステップと、
前記表示面上にユーザーのスライド操作を要求するスライド操作画面が表示されている場合において、前記タッチ位置検出機構によってタッチ位置が検出されると、検出されたタッチ位置部分と当該タッチ位置部分の周辺部分とを除いた前記表示面上の残りの部分に相当する直交座標系のX成分領域とY成分領域の検出をオフ状態にし、かつ前記タッチ位置部分および前記周辺部分に相当する直交座標系のX成分領域とY成分領域の検出を実行することを、前記タッチ位置検出機構に指示する検出指示ステップと、
を実行させるためのプログラム。
To a computer of a touch panel input device having a display panel having a display surface and a touch position detection mechanism capable of detecting an arbitrary touch position on the display surface of the display panel as two components of an XY orthogonal coordinate system,
A display control step of displaying a predetermined screen on the display surface of the display panel;
In a case where a slide operation screen requesting a user's slide operation is displayed on the display surface, when the touch position is detected by the touch position detection mechanism, the detected touch position portion and the periphery of the touch position portion are detected. The detection of the X component region and the Y component region of the orthogonal coordinate system corresponding to the remaining portion on the display surface excluding the portion is turned off, and the orthogonal coordinate system corresponding to the touch position portion and the peripheral portion is turned off. A detection instruction step for instructing the touch position detection mechanism to execute detection of the X component region and the Y component region;
A program for running
JP2016074633A 2016-04-01 2016-04-01 Touch panel input device and program Pending JP2016122471A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016074633A JP2016122471A (en) 2016-04-01 2016-04-01 Touch panel input device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016074633A JP2016122471A (en) 2016-04-01 2016-04-01 Touch panel input device and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014046682A Division JP5943021B2 (en) 2014-03-10 2014-03-10 Touch panel input device

Publications (1)

Publication Number Publication Date
JP2016122471A true JP2016122471A (en) 2016-07-07

Family

ID=56327454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016074633A Pending JP2016122471A (en) 2016-04-01 2016-04-01 Touch panel input device and program

Country Status (1)

Country Link
JP (1) JP2016122471A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10911619B2 (en) 2017-04-04 2021-02-02 Fuji Xerox Co., Ltd. Input device, image forming apparatus, and non-transitory computer readable medium for allocating a function to a visually unascertainable detection region

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11232024A (en) * 1998-02-13 1999-08-27 Alpine Electron Inc Optical position detector
JP2008250495A (en) * 2007-03-29 2008-10-16 Smk Corp Optical input device
JP2013168121A (en) * 2012-02-16 2013-08-29 Samsung Display Co Ltd Method for driving touch panel, touch panel and display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11232024A (en) * 1998-02-13 1999-08-27 Alpine Electron Inc Optical position detector
JP2008250495A (en) * 2007-03-29 2008-10-16 Smk Corp Optical input device
JP2013168121A (en) * 2012-02-16 2013-08-29 Samsung Display Co Ltd Method for driving touch panel, touch panel and display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10911619B2 (en) 2017-04-04 2021-02-02 Fuji Xerox Co., Ltd. Input device, image forming apparatus, and non-transitory computer readable medium for allocating a function to a visually unascertainable detection region

Similar Documents

Publication Publication Date Title
JP5943021B2 (en) Touch panel input device
JP4706985B2 (en) Content display device
US10063722B2 (en) Image forming apparatus configured to display function setting buttons and switch display mode between first display mode and second display mode and image recording medium
US20180213097A1 (en) Device
US20140104646A1 (en) Display processing apparatus, control method, and computer program
JP2009277177A (en) Image layout device, recording medium, and image layout method
JP2007293416A (en) Display controller, image processor, and display control method
US9495073B2 (en) Parameter input apparatus and image forming apparatus
JP2019185525A (en) Display device and image forming apparatus
JP2016212600A (en) Screen display device and program
US10616426B2 (en) Information processing in which setting item list is scrolled when selection gesture is performed on shortcut button
JP2010092340A (en) Image display/image detection apparatus, image display method, image display program, and recording medium with program recorded thereon
JP5516473B2 (en) Image forming apparatus, display method, and display program
JP2006201585A (en) Operation panel device
JP2009037427A (en) Display device and display method
JP2016122471A (en) Touch panel input device and program
JP2012074052A (en) Display controller, image processor, and display control method
JP2005050265A (en) Touch screen device
JP6654722B2 (en) Image display device and image display method
JP6522719B2 (en) Image display method
JP6253945B2 (en) Image display device
JP2010015501A (en) Image display device
JP2015210504A (en) Display device and display method
JP6665919B2 (en) Screen display device and program
US20220091727A1 (en) Display control device and display control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170627