JP2007140944A - Touch sense device and touch sense method - Google Patents

Touch sense device and touch sense method Download PDF

Info

Publication number
JP2007140944A
JP2007140944A JP2005334380A JP2005334380A JP2007140944A JP 2007140944 A JP2007140944 A JP 2007140944A JP 2005334380 A JP2005334380 A JP 2005334380A JP 2005334380 A JP2005334380 A JP 2005334380A JP 2007140944 A JP2007140944 A JP 2007140944A
Authority
JP
Japan
Prior art keywords
touch
axis
unit
display unit
pointing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005334380A
Other languages
Japanese (ja)
Inventor
Katsutoshi Kubo
勝稔 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005334380A priority Critical patent/JP2007140944A/en
Publication of JP2007140944A publication Critical patent/JP2007140944A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To allow high operability for pointing with a simple configuration. <P>SOLUTION: An X-axial touch-key 12 and a Y-axial touch-key 13 are arranged in an L shape. The touch operation of pointing in the X-direction of a display part 11 is detected by the X-axial touch-key 12 and the touch operation of pointing in the Y-direction of the display part 11 is detected by the Y-axial touch-key 13. Then a pointing processing means performs pointing processing in the display part 11 in response to the detected touch operations. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、タッチセンス方式によるキーをL字型に配置したタッチセンス装置及びタッチセンス方法に関する。   The present invention relates to a touch sense device and a touch sense method in which keys by a touch sense method are arranged in an L shape.

たとえば、ノートパソコンやディスクトップパソコンにおいては、CUI(Character User Interface)としての文字入力装置と、GUI(Graphical User Interface)としてのポインタ移動装置との二つの入力装置が必要である。文字入力装置としてはキーボードが用いられ、ポインタ移動装置としてはマウスが用いられることが多い。   For example, in a notebook personal computer or a desktop personal computer, two input devices, a character input device as a CUI (Character User Interface) and a pointer moving device as a GUI (Graphical User Interface), are necessary. A keyboard is often used as a character input device, and a mouse is often used as a pointer moving device.

これらの装置は、独立して存在するため、設置スペースが二つの装置分必要となってくるばかりか、マウスの場合は多くの作業スペースを必要とする。そこで、マウスに代わるものとして、トラックボール、グラインドポイント、タッチパネル等がある。   Since these devices exist independently, not only installation space is required for two devices, but a mouse requires a lot of work space. Therefore, there are a trackball, a grind point, a touch panel and the like as an alternative to a mouse.

これらのマウスに代わるポインタ移動装置を用いることで、マウスを用いる場合のような多くの作業スペースが不要となるばかりか、文字入力装置とポインタ移動装置との間の手の移動量も少なくなることにより作業スピードの向上が計れるようになった。ところが、これらの文字入力装置とポインタ移動装置とは、やはり配置スペースが二つ分必要であり、かつ手を二つの装置間で動かす必要がある。   By using these pointer moving devices instead of the mouse, not only a lot of work space is required as in the case of using a mouse, but also the movement of the hand between the character input device and the pointer moving device is reduced. The speed can be improved. However, these character input device and pointer moving device still require two arrangement spaces, and it is necessary to move the hand between the two devices.

このような不具合を解消するものとして、特許文献1では、キー配列又は画面情報を表示する表示部と、画面上のどの部分に触れたかを調べるタッチセンス部と、表示部にキー配列を表示し該当する場所を押すことにより文字入力を行える文字入力処理手段と、画面情報を表示し該当する場所を押すことによりポインタを移動するためのポインタ移動処理手段と、上記二つの機能を切り替えて使用するための機能切替手段とを備え、タッチセンス部の二点以上を同時にタッチすることにより機能切替を行い、同一装置上で上記二つの処理手段が使用できるようにした入力装置を提案している。
特開平10−228350号公報
In order to solve such problems, in Patent Document 1, a display unit that displays a key layout or screen information, a touch sense unit that checks which part of the screen is touched, and a key layout are displayed on the display unit. The above two functions are switched between character input processing means for inputting characters by pressing the corresponding place, pointer movement processing means for displaying screen information and moving the pointer by pressing the corresponding place The input device is provided with a function switching means for switching the functions by simultaneously touching two or more points of the touch sensing unit so that the two processing means can be used on the same device.
JP-A-10-228350

ところで、上述した特許文献1では、同一装置上で文字入力処理とポインタ移動処理とを行うことができるが、文字入力とポインタ移動とを行う場合、その都度、機能切替を行う必要があり、操作が煩雑であるという問題があった。そのほか、キー配列又は画面情報を表示する表示部と、画面上のどの部分に触れたかを調べるタッチセンス部は重なっているため、表示部を覆うタッチセンス部への汚れの付着による表示部の悪化や、タッチセンス部への操作による過重で表示部の故障が発生するという問題もあった。   By the way, in Patent Document 1 described above, character input processing and pointer movement processing can be performed on the same device. However, when character input and pointer movement are performed, it is necessary to switch functions each time. There is a problem that is complicated. In addition, since the display unit that displays the key layout or screen information and the touch sense unit that checks which part of the screen is touched overlap, the display unit deteriorates due to adhesion of dirt to the touch sense unit that covers the display unit In addition, there is a problem in that a failure of the display unit occurs due to an overload caused by an operation on the touch sense unit.

本発明は、このような状況に鑑みてなされたものであり、上記問題点を解決することができるタッチセンス装置及びタッチセンス方法を提供することを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to provide a touch sensing device and a touch sensing method capable of solving the above-described problems.

本発明のタッチセンス装置は、表示部におけるポインティングのタッチ入力を受け付けるタッチセンス装置であって、前記表示部のX方向のポインティングのタッチ操作を検知するX軸タッチ手段と、前記表示部のY方向のポインティングのタッチ操作を検知するY軸タッチ手段と、前記X軸タッチ手段又は前記Y軸タッチ手段によって検知されたタッチ操作に応じて前記表示部におけるポインティング処理を行うポインティング処理手段とを備え、前記X軸タッチ手段とY軸タッチ手段とがL字型に配置されていることを特徴とする。
また、前記X軸タッチ手段とY軸タッチ手段とは、前記表示部の周囲に配置されているようにすることができる。
また、前記X軸タッチ手段とY軸タッチ手段とは、前記表示部の周囲以外に配置されているようにすることができる。
また、前記ポインティング処理手段は、前記X軸タッチ手段又は前記Y軸タッチ手段によって検知された一定時間内のタッチ操作の回数に応じてポインティングの起点と終点とを定めるようにすることができる。
また、前記ポインティング処理手段は、前記X軸タッチ手段に対し前記表示部のX方向における情報をダイレクトに選択する機能を割り付け、前記Y軸タッチ手段に対し前記表示部のY方向における情報をダイレクトに選択する機能を割り付けるようにすることができる。
また、前記ポインティング処理手段は、前記X軸タッチ手段に対し前記表示部の画面をX方向にスライドさせる機能を割り付け、前記Y軸タッチ手段に対し前記表示部の画面をY方向にスライドさせる機能を割り付けるようにすることができる。
本発明のタッチセンス方法は、表示部におけるポインティングのタッチ入力を受け付けるタッチセンス方法であって、L字型の一方のX軸タッチ手段によって前記表示部のX方向のポインティングのタッチ操作を検知するステップと、L字型の他方のY軸タッチ手段によって前記表示部のY方向のポインティングのタッチ操作を検知するステップと、前記検知されたタッチ操作に応じて前記表示部におけるポインティング処理を行うステップとを有することを特徴とする。
また、前記X軸タッチ手段又は前記Y軸タッチ手段によって検知された一定時間内のタッチ操作の回数に応じてポインティングの起点と終点とを定めるステップを有するようにすることができる。
また、前記X軸タッチ手段に対し前記表示部のX方向における情報をダイレクトに選択する機能を割り付け、前記Y軸タッチ手段に対し前記表示部のY方向における情報をダイレクトに選択する機能を割り付けるステップを有するようにすることができる。
また、前記X軸タッチ手段に対し前記表示部の画面をX方向にスライドさせる機能を割り付け、前記Y軸タッチ手段に対し前記表示部の画面をY方向にスライドさせる機能を割り付けるステップを有するようにすることができる。
本発明のタッチセンス装置及びタッチセンス方法では、L字型の一方のX軸タッチ手段によって表示部のX方向のポインティングのタッチ操作を検知し、L字型の他方のY軸タッチ手段によって表示部のY方向のポインティングのタッチ操作を検知し、その検知されたタッチ操作に応じて表示部におけるポインティング処理が行われる。
The touch sense device of the present invention is a touch sense device that accepts a pointing touch input on a display unit, and detects an X direction pointing touch operation on the display unit, and a Y direction on the display unit. Y-axis touch means for detecting the pointing touch operation, and pointing processing means for performing a pointing process on the display unit in response to the touch operation detected by the X-axis touch means or the Y-axis touch means, The X-axis touch means and the Y-axis touch means are arranged in an L shape.
The X-axis touch unit and the Y-axis touch unit may be arranged around the display unit.
Further, the X-axis touch unit and the Y-axis touch unit may be arranged outside the periphery of the display unit.
Further, the pointing processing means may determine a starting point and an end point of pointing according to the number of touch operations detected by the X-axis touch means or the Y-axis touch means within a predetermined time.
In addition, the pointing processing unit assigns a function of directly selecting information in the X direction of the display unit to the X-axis touch unit, and directly transmits information in the Y direction of the display unit to the Y-axis touch unit. The function to be selected can be assigned.
The pointing processing unit assigns a function of sliding the screen of the display unit in the X direction with respect to the X-axis touch unit, and a function of sliding the screen of the display unit in the Y direction with respect to the Y-axis touch unit. Can be assigned.
The touch sensing method of the present invention is a touch sensing method for accepting a pointing touch input on a display unit, and detecting a pointing touch operation in the X direction on the display unit by one L-shaped X-axis touch means. And a step of detecting a pointing touch operation in the Y direction of the display unit by the other L-shaped Y-axis touch means, and a step of performing a pointing process in the display unit according to the detected touch operation. It is characterized by having.
Further, a step of determining a starting point and an ending point of pointing according to the number of touch operations detected within a predetermined time detected by the X-axis touch unit or the Y-axis touch unit can be provided.
A step of assigning a function of directly selecting information in the X direction of the display unit to the X-axis touch unit, and a function of directly selecting information of the display unit in the Y direction to the Y-axis touch unit; It can be made to have.
And a step of allocating a function of sliding the screen of the display unit in the X direction to the X-axis touch unit and a function of sliding a screen of the display unit in the Y direction to the Y-axis touch unit. can do.
In the touch sensing device and the touch sensing method of the present invention, a pointing touch operation in the X direction of the display unit is detected by one L-shaped X-axis touch unit, and the display unit is detected by the other L-shaped Y-axis touch unit. A pointing touch operation in the Y direction is detected, and a pointing process in the display unit is performed in accordance with the detected touch operation.

本発明のタッチセンス装置及びタッチセンス方法によれば、L字型の一方のX軸タッチ手段によって表示部のX方向のポインティングのタッチ操作を検知し、L字型の他方のY軸タッチ手段によって表示部のY方向のポインティングのタッチ操作を検知し、その検知されたタッチ操作に応じて表示部におけるポインティング処理が行われるようにしたので、簡単な構成で、ポインティングにおける操作性を高めることができる。また、X軸タッチ手段及びY軸タッチ手段を、表示部に重ならないように配置することができ、表示部の画面へのタッチを行うことがないことから、汚れの付着による表示部の悪化や、操作による過重で表示部の故障が発生するという問題を解消することもできる。   According to the touch sensing device and the touch sensing method of the present invention, the X-direction pointing touch operation of the display unit is detected by one L-shaped X-axis touch unit, and the other L-shaped Y-axis touch unit is used. Since the pointing touch operation in the Y direction of the display unit is detected and the pointing process in the display unit is performed according to the detected touch operation, the operability in pointing can be improved with a simple configuration. . In addition, since the X-axis touch unit and the Y-axis touch unit can be arranged so as not to overlap the display unit, and the screen of the display unit is not touched, the display unit may be deteriorated due to adhesion of dirt. In addition, it is possible to solve the problem that the display portion is broken due to excessive operation.

本実施形態では、X軸タッチ手段とY軸タッチ手段とをL字型に配置し、X軸タッチ手段によって表示部のX方向のポインティングのタッチ操作を検知し、Y軸タッチ手段によって表示部のY方向のポインティングのタッチ操作を検知し、ポインティング処理手段によりその検知されたタッチ操作に応じて表示部におけるポインティング処理が行われるようにし、簡単な構成で、ポインティングにおける操作性を高めるようにした。また、X軸タッチ手段及びY軸タッチ手段を、表示部に重ならないように配置することで、表示部の画面へのタッチを行うことがないようにし、汚れの付着による表示部の悪化や、操作による過重で表示部の故障が発生するという問題を解消するようにした。   In this embodiment, the X-axis touch unit and the Y-axis touch unit are arranged in an L shape, the X-axis touch unit detects a pointing touch operation in the X direction of the display unit, and the Y-axis touch unit detects the display unit. A pointing touch operation in the Y direction is detected, and a pointing process is performed on the display unit in accordance with the detected touch operation by the pointing processing means, thereby improving the operability in pointing with a simple configuration. Further, the X-axis touch unit and the Y-axis touch unit are arranged so as not to overlap the display unit, so that the screen of the display unit is not touched, the display unit is deteriorated due to adhesion of dirt, The problem of display failure due to excessive operation was solved.

以下、本発明の実施例の詳細について説明する。
図1は、本発明のタッチセンス装置の一実施例の概要を説明するための図である。
Details of the embodiments of the present invention will be described below.
FIG. 1 is a diagram for explaining an outline of an embodiment of the touch sensing device of the present invention.

同図に示すように、タッチセンス装置は、機器10のたとえば表示部11の周囲にL字型に配置されたX軸タッチ手段としてのX軸タッチキー12及びY軸タッチ手段としてのY軸タッチキー13を有している。X軸タッチキー12の座標としては、たとえば図中左側から順にX1,X2,X3,・・・Xnとなっている。Y軸タッチキー13の座標としては、たとえば図中下側から順にY1,Y2,Y3,・・・Ynとなっている。なお、X軸タッチキー12及びY軸タッチキー13の座標の順番においては、それぞれ逆になっていてもよい。   As shown in the figure, the touch sense device includes an X-axis touch key 12 as an X-axis touch means and an Y-axis touch as a Y-axis touch means arranged in an L shape around the display unit 11 of the device 10, for example. It has a key 13. The coordinates of the X-axis touch key 12 are, for example, X1, X2, X3,. The coordinates of the Y-axis touch key 13 are, for example, Y1, Y2, Y3,. Note that the order of the coordinates of the X-axis touch key 12 and the Y-axis touch key 13 may be reversed.

図2は、たとえばX軸タッチキー12を示すものであり、X1,X2,X3,・・・Xnの座標に対応させて指等による接触を検知するタッチセンサ12aが設けられている。同様に、Y軸タッチキー13側にもY1,Y2,Y3,・・・Ynの座標に対応させて指等による接触を検知するタッチセンサ12aが設けられている。   FIG. 2 shows an X-axis touch key 12, for example, which is provided with a touch sensor 12a for detecting contact with a finger or the like corresponding to the coordinates of X1, X2, X3,... Xn. Similarly, a touch sensor 12a that detects contact with a finger or the like is provided on the Y-axis touch key 13 side in correspondence with the coordinates of Y1, Y2, Y3,.

図3は、タッチセンス装置の制御系を示すものであり、X軸キーセンス部14、Y軸キーセンス部15、キーセンス判定部16、キーセンス処理部17、表示ドライバ18によって構成されている。X軸キーセンス部14は、X軸タッチキー12の指等による接触位置である座標を検知する。Y軸キーセンス部15は、Y軸タッチキー13の指等による接触位置である座標を検知する。   FIG. 3 shows a control system of the touch sense device, which is composed of an X-axis key sense unit 14, a Y-axis key sense unit 15, a key sense determination unit 16, a key sense processing unit 17, and a display driver 18. . The X-axis key sense unit 14 detects coordinates that are contact positions of the X-axis touch key 12 with a finger or the like. The Y-axis key sense unit 15 detects coordinates that are contact positions of the Y-axis touch key 13 with a finger or the like.

キーセンス判定部16は、 X軸キーセンス部14とY軸キーセンス部15とによって検知されたX,Yの座標を判定する。また、キーセンス判定部16は、 X,Yの座標を判定する際、図示しないタップ数カウンターやノイズチェックタイマを用いるようになっている。ポインティング処理手段としてのキーセンス処理部17は、キーセンス判定部16によって判定されたX,Yの座標に基づき、表示部11に表示されるポインティング位置や選択範囲等を制御するための表示制御信号を出力する。   The key sense determination unit 16 determines the X and Y coordinates detected by the X axis key sense unit 14 and the Y axis key sense unit 15. Further, the key sense determination unit 16 uses a tap number counter or a noise check timer (not shown) when determining the X and Y coordinates. A key sense processing unit 17 as a pointing processing means is a display control signal for controlling the pointing position, selection range, etc. displayed on the display unit 11 based on the X and Y coordinates determined by the key sense determination unit 16. Is output.

また、キーセンス処理部17は、後述の図11及び図12のように、X軸タッチキー12又はY軸タッチキー13によって検知された一定時間内のタッチ操作の回数に応じてポインティングの起点と終点とを定めることもできる。また、キーセンス処理部17は、後述の図13及び図14のように、X軸タッチキー12に対し表示部11のX方向における情報をダイレクトに選択する機能を割り付け、Y軸タッチキー13に対し表示部11のY方向における情報をダイレクトに選択する機能を割り付けることもできる。   Further, as shown in FIGS. 11 and 12 to be described later, the key sense processing unit 17 determines the starting point of pointing according to the number of touch operations detected by the X-axis touch key 12 or the Y-axis touch key 13 within a predetermined time. An end point can also be defined. The key sense processing unit 17 assigns a function for directly selecting information in the X direction of the display unit 11 to the X axis touch key 12 as shown in FIGS. On the other hand, it is possible to assign a function for directly selecting information in the Y direction of the display unit 11.

また、キーセンス処理部17は、後述の図15のように、X軸タッチキー12に対し表示部11の画面をX方向にスライドさせる機能を割り付け、Y軸タッチキー13に対し表示部11の画面をY方向にスライドさせる機能を割り付けることもできる。表示ドライバ18は、キーセンス処理部17からの表示制御信号に基づき、表示部11にポインティング位置や選択範囲等を表示させる。   Further, as shown in FIG. 15 to be described later, the key sense processing unit 17 assigns a function of sliding the screen of the display unit 11 in the X direction to the X-axis touch key 12 and sets the display unit 11 to the Y-axis touch key 13. A function of sliding the screen in the Y direction can also be assigned. The display driver 18 displays a pointing position, a selection range, and the like on the display unit 11 based on a display control signal from the key sense processing unit 17.

図4は、上述したX軸タッチキー12及びY軸タッチキー13をゲーム機やPDA等のモバイル機器10Aに設けた場合の例を示すものであり、表示部11aの周囲にX軸タッチキー12及びY軸タッチキー13がL字型に配置されている。なお、Y軸タッチキー13は、表示部11aの右側に配置されているが、表示部11aの左側に配置されていてもよい。この場合、左利きのユーザにとっての操作性が良くなる。また、X軸タッチキー12は、表示部11aの下側に配置されているが、表示部11aの上側に配置されていてもよい。また、図中符号19aは、その他のキーを示している。   FIG. 4 shows an example in which the above-described X-axis touch key 12 and Y-axis touch key 13 are provided in a mobile device 10A such as a game machine or PDA, and the X-axis touch key 12 is provided around the display unit 11a. The Y-axis touch key 13 is arranged in an L shape. The Y-axis touch key 13 is disposed on the right side of the display unit 11a, but may be disposed on the left side of the display unit 11a. In this case, operability for a left-handed user is improved. Further, the X-axis touch key 12 is disposed below the display unit 11a, but may be disposed above the display unit 11a. Reference numeral 19a in the figure indicates other keys.

図5は、上述したX軸タッチキー12及びY軸タッチキー13をテレビやPC等の機器10Bに設けた場合の例を示すものであり、表示部11bの周囲にX軸タッチキー12及びY軸タッチキー13がL字型に配置されている。なお、Y軸タッチキー13は、上記同様に、表示部11bの左側に配置されていてもよい。また、X軸タッチキー12は、上記同様に、表示部11aの上側に配置されていてもよい。また、図中符号19bは、その他のキーを示している。   FIG. 5 shows an example in which the above-described X-axis touch key 12 and Y-axis touch key 13 are provided in a device 10B such as a television or a PC. The X-axis touch key 12 and the Y-axis touch key 12 around the display unit 11b are shown. The axis touch key 13 is arranged in an L shape. Note that the Y-axis touch key 13 may be arranged on the left side of the display unit 11b as described above. Further, the X-axis touch key 12 may be arranged on the upper side of the display unit 11a as described above. Reference numeral 19b in the figure indicates other keys.

図6は、携帯電話10Cに設けた場合の例を示すものであり、表示部11cの周囲にX軸タッチキー12及びY軸タッチキー13がL字型に配置されている。なお、X軸タッチキー12及びY軸タッチキー13は、上記同様に、表示部11cの上側及び表示部11cの左側に配置されていてもよい。また、図中符号19cは、テンキーを示している。   FIG. 6 shows an example when the mobile phone 10C is provided, and the X-axis touch key 12 and the Y-axis touch key 13 are arranged in an L shape around the display unit 11c. Note that the X-axis touch key 12 and the Y-axis touch key 13 may be arranged on the upper side of the display unit 11c and on the left side of the display unit 11c as described above. Reference numeral 19c in the figure indicates a numeric keypad.

図7は、携帯電話10Cに設けた場合の他の例を示すものであり、テンキー19cの周囲にX軸タッチキー12及びY軸タッチキー13がL字型に配置されている。   FIG. 7 shows another example when the mobile phone 10C is provided. The X-axis touch key 12 and the Y-axis touch key 13 are arranged in an L shape around the numeric keypad 19c.

次に、タッチセンス方法について説明する。なお、以下に説明するタップとは、X軸タッチキー12及びY軸タッチキー13への指等による押し離しのことである。まず、図8に示すように、タップ数カウンターを0とし、センサOFF確定を通知した後、上述したX軸タッチキー12又はY軸タッチキー13のタッチセンサ12aがONであるか否かが判断される(ステップS1〜S3)。ここで、タッチセンサ12aがONでなければ後述のタップチェック終了か否かの判断(ステップS14)に移行する。   Next, a touch sensing method will be described. In addition, the tap demonstrated below is the press release by the finger | toe etc. to the X-axis touch key 12 and the Y-axis touch key 13. FIG. First, as shown in FIG. 8, after the tap number counter is set to 0 and sensor OFF confirmation is notified, it is determined whether or not the touch sensor 12a of the X-axis touch key 12 or the Y-axis touch key 13 described above is ON. (Steps S1 to S3). Here, if the touch sensor 12a is not ON, the process proceeds to a determination (step S14) as to whether or not a tap check to be described later has ended.

タッチセンサ12aがONである場合は、ノイズ等による誤検出を防止するために、ノイズチェックタイマが設定(=Tn)され(ステップS4)、その後、(ステップS5)において、タッチセンサ12aがONでなければ後述のタップチェック終了か否かの判断(ステップS14)に移行する。これに対し、タッチセンサ12aがONで、ノイズチェックタイマが0となると、タッチセンサ12aのONが確定されタップ数カウンターが+1とされる(ステップS5〜S7)。   When the touch sensor 12a is ON, a noise check timer is set (= Tn) in order to prevent erroneous detection due to noise or the like (step T4). Thereafter, in (step S5), the touch sensor 12a is ON. If not, the process proceeds to a determination (step S14) as to whether or not the tap check described below has been completed. On the other hand, when the touch sensor 12a is ON and the noise check timer becomes 0, the touch sensor 12a is turned ON and the tap number counter is set to +1 (steps S5 to S7).

すなわち、図9(a)に示すように、タッチセンサ12aのON時間≧ノイズチェックタイマ設定(=Tn)である場合にタッチセンサ12aのONが正常であると判定されることになる。これに対し、図9(b)に示すように、タッチセンサ12aのON時間<ノイズチェックタイマ設定(=Tn)である場合は、正常にタッチセンサ12aがONしないことであり、ノイズと判定されることになる。   That is, as shown in FIG. 9A, when the ON time of the touch sensor 12a ≧ the noise check timer setting (= Tn), it is determined that the touch sensor 12a is normally ON. On the other hand, as shown in FIG. 9B, when the ON time of the touch sensor 12a <the noise check timer setting (= Tn), it means that the touch sensor 12a is not normally turned on and it is determined as noise. Will be.

次いで、タップ数カウンターが+1とされ、センサON確定が通知された後、タッチセンサ12aがONでなければ(ステップS8,S9)、ノイズチェックタイマが設定(=Tn)され(ステップS10)、その後、タッチセンサ12aがOFFで(ステップS11)、ノイズチェックタイマが0となると(ステップS12)、タッチセンサ12aのOFFが確定される。   Next, after the tap number counter is set to +1 and the sensor ON confirmation is notified, if the touch sensor 12a is not ON (steps S8 and S9), the noise check timer is set (= Tn) (step S10), and thereafter When the touch sensor 12a is OFF (step S11) and the noise check timer is 0 (step S12), the touch sensor 12a is determined to be OFF.

すなわち、図9(c)に示すように、タッチセンサ12aのOFF時間≧ノイズチェックタイマ設定(=Tn)である場合は、正常にタッチセンサ12aがOFFしたと判定されることになる。これに対し、図9(d)に示すように、タッチセンサ12aのOFF時間<ノイズチェックタイマ設定(=Tn)である場合は、正常にタッチセンサ12aがOFFしないことであり、ノイズと判定されることになる。   That is, as shown in FIG. 9C, when the OFF time of the touch sensor 12a ≧ the noise check timer setting (= Tn), it is determined that the touch sensor 12a is normally turned OFF. On the other hand, as shown in FIG. 9D, when the OFF time of the touch sensor 12a <the noise check timer setting (= Tn), this means that the touch sensor 12a is not normally turned OFF and is determined as noise. Will be.

次いで、X軸タッチキー12及びY軸タッチキー13への指等による押し離しであるタップが連続して行われることを判定するために、複数タップチェックタイマがTtとされる(ステップS13)。すなわち、図9(e)に示すように、タッチセンサ12aのOFF時間≧ノイズチェックタイマ設定(=Tt)である場合は、連続タップの判定終了となり、タップ数が確定されることになる。   Next, a multi-tap check timer is set to Tt in order to determine that taps that are pressed and released by a finger or the like to the X-axis touch key 12 and the Y-axis touch key 13 are continuously performed (step S13). That is, as shown in FIG. 9E, when the OFF time of the touch sensor 12a ≧ the noise check timer setting (= Tt), the determination of the continuous tap is completed and the number of taps is determined.

これに対し、図9(f)に示すように、ノイズチェックタイマ設定(=Tt)>タッチセンサ12aのOFF時間≧ノイズチェックタイマ設定(=Tn)である場合は、連続タップの起動となり、新しいタップのチェック開始となる。ただし、ノイズチェックタイマ設定(=Tn)>タッチセンサ12aのOFF時間の場合は、ノイズとして判定されることになる。   On the other hand, as shown in FIG. 9F, when the noise check timer setting (= Tt)> the OFF time of the touch sensor 12a ≧ the noise check timer setting (= Tn), the continuous tap is activated, and the new Tap check starts. However, when the noise check timer setting (= Tn)> the OFF time of the touch sensor 12a, it is determined as noise.

次に、Tt=0のときにタップチェック終了か否かが判断され(ステップS14)、タップチェックが終了でなければ(ステップS2)に移行し、タッチセンサ12aのONの再チェックが行われる。タップチェックが終了である場合は、検出したタップ数を通知する(ステップS15)。   Next, it is determined whether or not the tap check is finished when Tt = 0 (step S14). If the tap check is not finished (step S2), the process proceeds to step S2, and the touch sensor 12a is rechecked. When the tap check is finished, the detected number of taps is notified (step S15).

次に、タッチセンス方法における具体例について説明する。まず、図10は、二次元のポインティングを行う場合を説明するため図であり、図10(a)に示すように、Y軸タッチキー13の”か”〜”こ”の文字に対応する個所を一回押し離しすると、その縦軸座標の位置が決定されて、たとえば”ね”の文字に位置しているカーソルが”け”の文字に移動する。ここで、図10(b)に示すように、X軸タッチキー12の”あ”〜”な”の文字に対応する個所を一回押し離しすると、その横軸座標の位置が決定されて、”け”の文字に位置しているカーソルが”か”の文字に移動する。   Next, a specific example in the touch sensing method will be described. First, FIG. 10 is a diagram for explaining a case where two-dimensional pointing is performed. As shown in FIG. 10A, the portions corresponding to the characters “K” to “K” of the Y-axis touch key 13 are shown. When is pressed and released once, the position of the vertical axis coordinate is determined, and for example, the cursor positioned at the character “Ne” moves to the character “K”. Here, as shown in FIG. 10B, when the position corresponding to the characters “A” to “N” on the X-axis touch key 12 is pressed and released once, the position of the horizontal axis coordinate is determined, The cursor located at the “K” character moves to the “K” character.

ここで、決定キー19dが設けられている場合は、その決定キー19dを押すことで、図10(c)に示すように、”か”の文字が決定され、文字入力欄11dに表示される。なお、決定キー19dが設けられていない場合は、たとえば”あ”〜”な”の文字に対応するX軸タッチキー12又は”か”〜“こ”の文字に対応するY軸タッチキー13を一定時間内に二回押すことで、”か”の文字が決定されるようにすることができる。   Here, in the case where the enter key 19d is provided, by pressing the enter key 19d, the character “ka” is determined and displayed in the character input field 11d as shown in FIG. 10C. . If the determination key 19d is not provided, for example, the X-axis touch key 12 corresponding to the characters “A” to “NA” or the Y-axis touch key 13 corresponding to the characters “KA” to “KO” is used. By pressing twice within a certain period of time, the character “ka” can be determined.

次に、図11は、選択範囲を指定する場合を説明するための図であり、図11(a)に示すように、たとえば”か”の文字を起点として設定するために、”あ”〜”は”の文字に対応するX軸タッチキー12を一定時間内に三回押し離しを行う。次いで、図11(b)に示すように、たとえば”け”の文字を終点として設定するために、”え”〜”へ”の文字に対応するX軸タッチキー12を一回押し離しする。これにより、”か”〜”け”の範囲の文字が選択され、決定キー19dを押すことで、”か”〜”け”の範囲の文字が決定される。なお、”え”〜”へ”の文字に対応するX軸タッチキー12を二回押し離しすることで、上記同様に、”か”〜”け”の文字が決定されるようにすることもできる。   Next, FIG. 11 is a diagram for explaining a case where a selection range is designated. As shown in FIG. 11A, for example, in order to set a character “ka” as a starting point, “a” ˜ The X-axis touch key 12 corresponding to the character “ha” is pressed and released three times within a predetermined time. Next, as shown in FIG. 11B, for example, in order to set the character “ke” as the end point, the X-axis touch key 12 corresponding to the characters “e” to “to” is pressed and released once. As a result, a character in the range of “K” to “K” is selected, and a character in the range of “K” to “K” is determined by pressing the enter key 19d. In addition, by pressing and releasing the X-axis touch key 12 corresponding to the characters “e” to “to” twice, the characters “ka” to “ke” may be determined as described above. it can.

さらに、図11(c)に示すように、図11(b)で”か”〜”く”の文字が選択された状態で、”さ”〜”そ”の文字に対応するY軸タッチキー13を一回押し離し、さらに決定キー19dを押すと、”か”〜”け”、”さ”〜”せ”の範囲の文字が決定されるようにすることができる。なお、決定キー19dを押さずに、”さ”〜”そ”に対応するY軸タッチキー13を二回押し離しすることで、上記同様に、”か”〜”け”、”さ”〜”せ”の範囲の文字が決定されるようにすることもできる。   Further, as shown in FIG. 11 (c), the Y-axis touch key corresponding to the characters “sa” to “so” in the state where the characters “ka” to “ku” are selected in FIG. 11 (b). By pressing 13 once and then pressing the enter key 19d, the characters in the range of “ka” to “ke” and “sa” to “se” can be determined. By pressing and releasing the Y-axis touch key 13 corresponding to “sa” to “so” twice without pressing the enter key 19d, “ka” to “ke”, “sa” to The characters in the “se” range can be determined.

また、図12(a)に示すように、曲目等が複数行で表示されている場合、たとえば一行目に対応するY軸タッチキー13を三回押し離して起点を設定し、図12(b)に示すように、四行目に対応するY軸タッチキー13を一回押し離して終点を設定することで、四行分の範囲を選択するようにすることもできる。この場合、上記同様に、決定キー19dを押すか、あるいは四行目に対応するY軸タッチキー13を二回押し離しすることで、四行分の範囲を決定することもできる。   Also, as shown in FIG. 12A, when a piece of music or the like is displayed in a plurality of lines, for example, the starting point is set by pressing and releasing the Y-axis touch key 13 corresponding to the first line three times, and FIG. As shown in (), the range for four lines can be selected by pressing and releasing the Y-axis touch key 13 corresponding to the fourth line once to set the end point. In this case, similarly to the above, the range for the four rows can be determined by pressing the enter key 19d or pressing and releasing the Y-axis touch key 13 corresponding to the fourth row twice.

また、図13に示すように、表示部11にオーディオプレーヤの早戻し、再生、早送り等の操作ボタン19eが表示されているものとし、曲目を選択して再生等を行う場合は、図13(a)に示すように、たとえば三行目の曲目を選択するとき、その三行目に対応するY軸タッチキー13を一回押し離しを行い、さらに図13(b)に示すように、再生の操作ボタン19eに対応するX軸タッチキー12を一回押し離しすることで、選択した曲目の再生指示を行うことができる。又は、三行目に対応するY軸タッチキー13を二回押し離しを行うことにより再生を決定することもできる。   As shown in FIG. 13, it is assumed that the operation button 19e for fast rewinding, playback, fast forward, etc. of the audio player is displayed on the display unit 11. As shown in a), for example, when selecting the music of the third row, the Y-axis touch key 13 corresponding to the third row is pressed once and then played back as shown in FIG. 13 (b). By pressing and releasing the X-axis touch key 12 corresponding to the operation button 19e once, it is possible to instruct the reproduction of the selected music piece. Alternatively, playback can be determined by pressing and releasing the Y-axis touch key 13 corresponding to the third row twice.

また、図14に示すように、表示部11に操作ボタン19fと選択ボタン19gとが表示されているようにしてもよい。ここで、操作ボタン19fは、たとえばフォルダー選択やプレーモード等のメニュー処理に関わるものであり、ダイレクトキーではなく、カーソルを移動して上述した決定キー19dを押して決定する場合を例示したものである。   Further, as shown in FIG. 14, an operation button 19 f and a selection button 19 g may be displayed on the display unit 11. Here, the operation button 19f relates to menu processing such as folder selection and play mode, for example, and exemplifies a case where determination is made by moving the cursor and pressing the above-described determination key 19d instead of a direct key. .

そして、操作ボタン19fのいずれかに対応するX軸タッチキー12を押し離しすることで操作ボタン19fのいずれかを選択でき、選択ボタン19gのいずれかに対応するY軸タッチキー13を押し離しすることで選択ボタン19gのいずれかを選択できるようにすることができる。   Then, one of the operation buttons 19f can be selected by pressing and releasing the X-axis touch key 12 corresponding to one of the operation buttons 19f, and the Y-axis touch key 13 corresponding to one of the selection buttons 19g is pressed and released. Thus, any of the selection buttons 19g can be selected.

図15は、表示部11の画面をスライドさせる場合を示すものであり、表示部11に横スライドバー19hと縦スライドバー19iとが表示されているものとする。ここで、図15(a)に示すように、移動させる横スライドバー19h又は縦スライドバー19iを選択する。その際、選択するモードと選択しないモードとを用意しておき、選択する場合は横スライドバー19h又は縦スライドバー19iによる操作とポインティングとが併用されるようにする。   FIG. 15 shows a case where the screen of the display unit 11 is slid, and it is assumed that a horizontal slide bar 19 h and a vertical slide bar 19 i are displayed on the display unit 11. Here, as shown in FIG. 15A, the horizontal slide bar 19h or the vertical slide bar 19i to be moved is selected. At that time, a mode to be selected and a mode not to be selected are prepared, and when selecting, the operation by the horizontal slide bar 19h or the vertical slide bar 19i and the pointing are used together.

そして、たとえば縦スライドバー19iを決定する場合、X軸タッチキー12を一回押し離しをするようにする。次いで、図15(b)に示すように、縦スライドバー19iに対応するY軸タッチキー13を押し、図15(c)に示すように、Y軸タッチキー13を押したまま指をY軸タッチキー13に沿って移動させる。この場合、Y軸タッチキー13に沿って移動させた指により、Y軸タッチキー13の座標が変更され、それによって表示部11の画面がスライドする。   For example, when determining the vertical slide bar 19i, the X-axis touch key 12 is pressed once and released. Next, as shown in FIG. 15B, the Y-axis touch key 13 corresponding to the vertical slide bar 19i is pressed, and as shown in FIG. 15C, the finger is held in the Y-axis while the Y-axis touch key 13 is pressed. Move along the touch key 13. In this case, the coordinate of the Y-axis touch key 13 is changed by the finger moved along the Y-axis touch key 13, and the screen of the display unit 11 is thereby slid.

このように、本実施例では、X軸タッチキー12とY軸タッチキー13とをL字型に配置し、X軸タッチキー12によって表示部11のX方向のポインティングのタッチ操作を検知し、Y軸タッチキー13によって表示部11のY方向のポインティングのタッチ操作を検知し、ポインティング処理手段としてのキーセンス処理部17によりその検知されたタッチ操作に応じて表示部11におけるポインティング処理が行われるようにしたので、簡単な構成で、ポインティングにおける操作性を高めることができる。   Thus, in this embodiment, the X-axis touch key 12 and the Y-axis touch key 13 are arranged in an L shape, and the X-axis touch key 12 detects a pointing touch operation in the X direction on the display unit 11. The Y-axis touch key 13 detects a pointing touch operation in the Y direction on the display unit 11, and the key sense processing unit 17 as a pointing processing unit performs pointing processing on the display unit 11 according to the detected touch operation. As described above, the operability in pointing can be improved with a simple configuration.

すなわち、X軸タッチキー12とY軸タッチキー13とをたとえば表示部11の周囲にL字型に配置することで、二次元でのポインティング操作を表示部11の内容を確認しながら行うことができるばかりか、十字キー等の操作ボタンを省くことができ、さらには省スペース化等を図ることができる。   That is, by arranging the X-axis touch key 12 and the Y-axis touch key 13 in, for example, an L shape around the display unit 11, a two-dimensional pointing operation can be performed while checking the contents of the display unit 11. In addition, the operation buttons such as the cross key can be omitted, and further space saving can be achieved.

また、本実施例では、X軸タッチキー12及びY軸タッチキー13を、表示部11に重ならないように配置することができ、表示部11の画面へのタッチを行うことがないことから、汚れの付着による表示部11の悪化や、操作による過重で表示部11の故障が発生するという問題を解消することもできる。   Further, in this embodiment, the X-axis touch key 12 and the Y-axis touch key 13 can be arranged so as not to overlap the display unit 11, and the screen of the display unit 11 is not touched. It is possible to solve the problem that the display unit 11 is deteriorated due to the adhesion of dirt, or the display unit 11 is broken due to excessive operation.

なお、X軸タッチキー12とY軸タッチキー13とを、図7に示したように、表示部11の周囲以外に配置した場合には、表示部11の周囲以外の空きスペースの有効利用を図ることができる。   If the X-axis touch key 12 and the Y-axis touch key 13 are arranged outside the periphery of the display unit 11 as shown in FIG. Can be planned.

また、キーセンス処理部17により、たとえば図11に示したように、X軸タッチキー12又はY軸タッチキー13によって検知された一定時間内のタッチ操作の回数に応じてポインティングの起点と終点とを定めることができ、たとえば範囲選択のための操作ボタンを省くことができ、さらには省スペース化等を図ることができる。   Further, as shown in FIG. 11, for example, the key sense processing unit 17 determines the starting and end points of pointing according to the number of touch operations detected within a predetermined time by the X-axis touch key 12 or the Y-axis touch key 13. For example, an operation button for selecting a range can be omitted, and further space saving can be achieved.

また、キーセンス処理部17により、X軸タッチキー12に対し表示部11のX方向における情報をダイレクトに選択する機能を割り付け、Y軸タッチキー13に対し表示部11のY方向における情報をダイレクトに選択する機能を割り付けるようにしたので、たとえば図13に示したように、曲目の選択と再生等とを専用のボタンを設けることなく指示することができる。   In addition, the key sense processing unit 17 assigns a function of directly selecting information in the X direction of the display unit 11 to the X axis touch key 12, and directs information in the Y direction of the display unit 11 to the Y axis touch key 13. Since the function to be selected is assigned to, the selection and reproduction of the music piece can be instructed without providing a dedicated button as shown in FIG. 13, for example.

また、キーセンス処理部17により、たとえば図15に示したように、X軸タッチキー12に対し表示部11の画面をX方向にスライドさせる機能を割り付け、Y軸タッチキー13に対し表示部11の画面をY方向にスライドさせる機能を割り付けるようにしたので、専用のスライドキーを用いることなく画面のスライドを容易に行わせることができる。   Further, for example, as shown in FIG. 15, the key sense processing unit 17 assigns a function of sliding the screen of the display unit 11 in the X direction to the X axis touch key 12, and the display unit 11 to the Y axis touch key 13. Since the function of sliding the screen in the Y direction is assigned, the screen can be easily slid without using a dedicated slide key.

情報入力や情報選択を行うあらゆる装置に適用可能である。   The present invention can be applied to any device that performs information input and information selection.

本発明のタッチセンス装置の一実施例の概要を説明するための図である。It is a figure for demonstrating the outline | summary of one Example of the touch sense apparatus of this invention. 図1のタッチキーを説明するための図である。It is a figure for demonstrating the touch key of FIG. 図1のタッチセンス装置の制御系を示すブロック図である。It is a block diagram which shows the control system of the touch sense apparatus of FIG. 図1のタッチキーをモバイル機器に設けた場合の例を示す図である。It is a figure which shows the example at the time of providing the touch key of FIG. 1 in a mobile device. 図1のタッチキーをテレビやPC等の機器に設けた場合の例を示す図である。It is a figure which shows the example at the time of providing the touch key of FIG. 1 in apparatuses, such as a television and PC. 図1のタッチキーを携帯電話に設けた場合の例を示す図である。It is a figure which shows the example at the time of providing the touch key of FIG. 1 in a mobile telephone. 図1のタッチキーを携帯電話に設けた場合の他の例を示す図である。It is a figure which shows the other example at the time of providing the touch key of FIG. 1 in a mobile telephone. 図1のタッチセンス装置によるタッチセンス方法を説明するためのフローチャートである。3 is a flowchart for explaining a touch sensing method by the touch sensing device of FIG. 1. 図1のタッチセンス装置によるタッチセンス方法を説明するための図である。It is a figure for demonstrating the touch sense method by the touch sense apparatus of FIG. 図1のタッチセンス装置によるタッチセンス方法の具体例について説明するための図である。It is a figure for demonstrating the specific example of the touch sense method by the touch sense apparatus of FIG. 図1のタッチセンス装置によるタッチセンス方法の具体例について説明するための図である。It is a figure for demonstrating the specific example of the touch sense method by the touch sense apparatus of FIG. 図1のタッチセンス装置によるタッチセンス方法の具体例について説明するための図である。It is a figure for demonstrating the specific example of the touch sense method by the touch sense apparatus of FIG. 図1のタッチセンス装置によるタッチセンス方法の具体例について説明するための図である。It is a figure for demonstrating the specific example of the touch sense method by the touch sense apparatus of FIG. 図1のタッチセンス装置によるタッチセンス方法の具体例について説明するための図である。It is a figure for demonstrating the specific example of the touch sense method by the touch sense apparatus of FIG. 図1のタッチセンス装置によるタッチセンス方法の具体例について説明するための図である。It is a figure for demonstrating the specific example of the touch sense method by the touch sense apparatus of FIG.

符号の説明Explanation of symbols

10,10B 機器
10A モバイル機器
10C 携帯電話
11,11a〜11c 表示部
12 X軸タッチキー(X軸タッチ手段)
12a タッチセンサ
13 Y軸タッチキー(Y軸タッチ手段)
14 X軸キーセンス部
15 Y軸キーセンス部
16 キーセンス判定部
17 キーセンス処理部(ポインティング処理手段)
18 表示ドライバ
10, 10B device 10A mobile device 10C mobile phone 11, 11a to 11c display unit 12 X-axis touch key (X-axis touch means)
12a Touch sensor 13 Y-axis touch key (Y-axis touch means)
14 X-axis key sense unit 15 Y-axis key sense unit 16 Key sense determination unit 17 Key sense processing unit (pointing processing means)
18 Display driver

Claims (10)

表示部におけるポインティングのタッチ入力を受け付けるタッチセンス装置であって、
前記表示部のX方向のポインティングのタッチ操作を検知するX軸タッチ手段と、
前記表示部のY方向のポインティングのタッチ操作を検知するY軸タッチ手段と、
前記X軸タッチ手段又は前記Y軸タッチ手段によって検知されたタッチ操作に応じて前記表示部におけるポインティング処理を行うポインティング処理手段とを備え、
前記X軸タッチ手段とY軸タッチ手段とがL字型に配置されている
ことを特徴とするタッチセンス装置。
A touch sensing device that accepts a pointing touch input on a display unit,
X-axis touch means for detecting a pointing touch operation in the X direction on the display unit;
Y-axis touch means for detecting a pointing touch operation in the Y direction of the display unit;
Pointing processing means for performing pointing processing in the display unit in response to a touch operation detected by the X-axis touch means or the Y-axis touch means;
The touch-sensing device, wherein the X-axis touch unit and the Y-axis touch unit are arranged in an L shape.
前記X軸タッチ手段とY軸タッチ手段とは、前記表示部の周囲に配置されていることを特徴とする請求項1に記載のタッチセンス装置。   The touch sensing apparatus according to claim 1, wherein the X-axis touch unit and the Y-axis touch unit are arranged around the display unit. 前記X軸タッチ手段とY軸タッチ手段とは、前記表示部の周囲以外に配置されていることを特徴とする請求項1に記載のタッチセンス装置。   The touch sensing device according to claim 1, wherein the X-axis touch unit and the Y-axis touch unit are arranged outside the periphery of the display unit. 前記ポインティング処理手段は、前記X軸タッチ手段又は前記Y軸タッチ手段によって検知された一定時間内のタッチ操作の回数に応じてポインティングの起点と終点とを定めることを特徴とする請求項1〜3のいずれかに記載のタッチセンス装置。   The pointing processing unit determines a starting point and an end point of pointing according to the number of touch operations detected by the X-axis touch unit or the Y-axis touch unit within a predetermined time. The touch sense device according to any one of the above. 前記ポインティング処理手段は、前記X軸タッチ手段に対し前記表示部のX方向における情報をダイレクトに選択する機能を割り付け、前記Y軸タッチ手段に対し前記表示部のY方向における情報をダイレクトに選択する機能を割り付けることを特徴とする請求項1〜3のいずれかに記載のタッチセンス装置。   The pointing processing unit assigns a function of directly selecting information in the X direction of the display unit to the X-axis touch unit, and directly selects information in the Y direction of the display unit to the Y-axis touch unit. The function is assigned, The touch sense apparatus in any one of Claims 1-3 characterized by the above-mentioned. 前記ポインティング処理手段は、前記X軸タッチ手段に対し前記表示部の画面をX方向にスライドさせる機能を割り付け、前記Y軸タッチ手段に対し前記表示部の画面をY方向にスライドさせる機能を割り付けることを特徴とする請求項1〜3のいずれかに記載のタッチセンス装置。     The pointing processing unit assigns a function of sliding the screen of the display unit in the X direction to the X-axis touch unit, and assigns a function of sliding the screen of the display unit in the Y direction to the Y-axis touch unit. The touch sense device according to claim 1, wherein: 表示部におけるポインティングのタッチ入力を受け付けるタッチセンス方法であって、
L字型の一方のX軸タッチ手段によって前記表示部のX方向のポインティングのタッチ操作を検知するステップと、
L字型の他方のY軸タッチ手段によって前記表示部のY方向のポインティングのタッチ操作を検知するステップと、
前記検知されたタッチ操作に応じて前記表示部におけるポインティング処理を行うステップとを有する
ことを特徴とするタッチセンス方法。
A touch sensing method for accepting a pointing touch input on a display unit,
Detecting a pointing touch operation in the X direction of the display unit by one L-shaped X-axis touch means;
Detecting a pointing touch operation in the Y direction of the display unit by the other L-shaped Y-axis touch means;
And a step of performing a pointing process on the display unit in response to the detected touch operation.
前記X軸タッチ手段又は前記Y軸タッチ手段によって検知された一定時間内のタッチ操作の回数に応じてポインティングの起点と終点とを定めるステップを有することを特徴とする請求項7に記載のタッチセンス方法。   The touch sense according to claim 7, further comprising a step of determining a starting point and an ending point of pointing according to the number of touch operations detected by the X-axis touch unit or the Y-axis touch unit within a predetermined time. Method. 前記X軸タッチ手段に対し前記表示部のX方向における情報をダイレクトに選択する機能を割り付け、前記Y軸タッチ手段に対し前記表示部のY方向における情報をダイレクトに選択する機能を割り付けるステップを有することを特徴とする請求項7に記載のタッチセンス方法。   A step of assigning a function of directly selecting information in the X direction of the display unit to the X-axis touch unit and a function of directly selecting information of the display unit in the Y direction to the Y-axis touch unit. The touch sense method according to claim 7. 前記X軸タッチ手段に対し前記表示部の画面をX方向にスライドさせる機能を割り付け、前記Y軸タッチ手段に対し前記表示部の画面をY方向にスライドさせる機能を割り付けるステップを有することを特徴とする請求項7に記載のタッチセンス方法。
Allocating a function of sliding the screen of the display unit in the X direction to the X-axis touch unit, and allocating a function of sliding the screen of the display unit in the Y direction to the Y-axis touch unit. The touch sensing method according to claim 7.
JP2005334380A 2005-11-18 2005-11-18 Touch sense device and touch sense method Pending JP2007140944A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005334380A JP2007140944A (en) 2005-11-18 2005-11-18 Touch sense device and touch sense method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005334380A JP2007140944A (en) 2005-11-18 2005-11-18 Touch sense device and touch sense method

Publications (1)

Publication Number Publication Date
JP2007140944A true JP2007140944A (en) 2007-06-07

Family

ID=38203714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005334380A Pending JP2007140944A (en) 2005-11-18 2005-11-18 Touch sense device and touch sense method

Country Status (1)

Country Link
JP (1) JP2007140944A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123170A (en) * 2007-11-19 2009-06-04 Toshiba Corp Electronic device and display control method
WO2011122093A1 (en) * 2010-03-31 2011-10-06 ブラザー工業株式会社 Display apparatus and display control program
WO2012035607A1 (en) * 2010-09-14 2012-03-22 Necディスプレイソリューションズ株式会社 Display device
JP2012146294A (en) * 2010-12-21 2012-08-02 Panasonic Corp Input device and information processor having the same
JP2013097763A (en) * 2011-11-07 2013-05-20 Fujitsu Ltd Information processor and input control program therefor
JP2014065275A (en) * 2012-09-27 2014-04-17 Brother Ind Ltd Printer
JP2018181083A (en) * 2017-04-18 2018-11-15 株式会社東芝 Electronic equipment, method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086709A (en) * 1994-06-21 1996-01-12 Mitsubishi Electric Corp Pointing device, information input device of information processor, and portable information processing terminal device
JP2002333951A (en) * 2001-05-08 2002-11-22 Matsushita Electric Ind Co Ltd Input device
JP2003140823A (en) * 2001-11-08 2003-05-16 Sony Computer Entertainment Inc Information input device and information processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086709A (en) * 1994-06-21 1996-01-12 Mitsubishi Electric Corp Pointing device, information input device of information processor, and portable information processing terminal device
JP2002333951A (en) * 2001-05-08 2002-11-22 Matsushita Electric Ind Co Ltd Input device
JP2003140823A (en) * 2001-11-08 2003-05-16 Sony Computer Entertainment Inc Information input device and information processing program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123170A (en) * 2007-11-19 2009-06-04 Toshiba Corp Electronic device and display control method
WO2011122093A1 (en) * 2010-03-31 2011-10-06 ブラザー工業株式会社 Display apparatus and display control program
WO2012035607A1 (en) * 2010-09-14 2012-03-22 Necディスプレイソリューションズ株式会社 Display device
JP2012146294A (en) * 2010-12-21 2012-08-02 Panasonic Corp Input device and information processor having the same
JP2013097763A (en) * 2011-11-07 2013-05-20 Fujitsu Ltd Information processor and input control program therefor
JP2014065275A (en) * 2012-09-27 2014-04-17 Brother Ind Ltd Printer
JP2018181083A (en) * 2017-04-18 2018-11-15 株式会社東芝 Electronic equipment, method and program

Similar Documents

Publication Publication Date Title
JP4372188B2 (en) Information processing apparatus and display control method
JP3630153B2 (en) Information display input device, information display input method, and information processing device
US8370772B2 (en) Touchpad controlling method and touch device using such method
JP4818036B2 (en) Touch panel control device and touch panel control method
US20080001928A1 (en) Driving method and input method, for touch panel
US20120092253A1 (en) Computer Input and Output Peripheral Device
JP2009104268A (en) Coordinate detection device and operation method using touch panel
US20060114225A1 (en) Cursor function switching method
JP2013131087A (en) Display device
JP2012123685A (en) Information processor, selection method of icons and program
JP2011028524A (en) Information processing apparatus, program and pointing method
JP2011034241A (en) Touch panel device, method, program, and recording medium
JP2009536385A (en) Multi-function key with scroll
JP2010086064A (en) Information processor, character input method, and program
JP2007140944A (en) Touch sense device and touch sense method
JP2008065504A (en) Touch panel control device and touch panel control method
JP2011257992A (en) Conversion device and program
JP2009276819A (en) Method for controlling pointing device, pointing device and computer program
US20090283341A1 (en) Input device and control method thereof
JP2009283013A (en) Information processing device and display control method
JP2015176160A (en) display control device
JP2000267808A (en) Input method linking touch panel input device with display device
JP5414134B1 (en) Touch-type input system and input control method
US20100201638A1 (en) Operation method of touch pad with multiple function modes, integration system thereof, and computer program product using the operation method
KR20160069909A (en) Electronic board device and recording media for thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100601