JP2010244132A - User interface device with touch panel, method and program for controlling user interface - Google Patents

User interface device with touch panel, method and program for controlling user interface Download PDF

Info

Publication number
JP2010244132A
JP2010244132A JP2009089344A JP2009089344A JP2010244132A JP 2010244132 A JP2010244132 A JP 2010244132A JP 2009089344 A JP2009089344 A JP 2009089344A JP 2009089344 A JP2009089344 A JP 2009089344A JP 2010244132 A JP2010244132 A JP 2010244132A
Authority
JP
Japan
Prior art keywords
finger
palm
application
touch panel
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009089344A
Other languages
Japanese (ja)
Inventor
Hiroyuki Washino
浩之 鷲野
Yuichi Okano
祐一 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009089344A priority Critical patent/JP2010244132A/en
Publication of JP2010244132A publication Critical patent/JP2010244132A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve operability of a function corresponding to an touch operation, in a user interface device having a touch panel. <P>SOLUTION: An object approach detection part 2 decides an approach state of an object to the touch panel 1 by use of a detection signal output from the touch panel 1. A finger/palm distinction part 3 distinguishes whether the object is a finger or a palm of a user when it is decided in the object approach detection part 2 that the object approaches, and outputs a distinction result. When it is distinguished in the finger/palm distinction part 3 that the object having approached is the finger, a coordinate detection part 4 detects approach position coordinates on the touch panel 1 of the approaching finger. An application selection part 5 selects an application to be executed based on the approach position coordinates of the coordinate detection part 4 and a distinction result of the finger/palm distinction part 3. A display part 6 performs proper screen display correspondingly to the application selected by the application selection part 5. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、静電タッチパネルへの指または掌の近接を判別して実行するアプリケーションを切り替えるユーザインタフェース装置、その制御方法および制御プログラムに関するものである。   The present invention relates to a user interface device that switches an application to be executed by determining the proximity of a finger or palm to an electrostatic touch panel, a control method thereof, and a control program.

近年、携帯電話やデジタルカメラをはじめとする情報処理端末に搭載されるコンテンツや機能は増加の一途をたどり、コンテンツを閲覧する場合または機能を操作する場合に、ユーザの操作が複雑化してきている。そこで、複雑なコンテンツや機能を簡単に、また直感的に操作可能なユーザインタフェースを実現することが課題となっている。
この課題に対して、例えば特許文献1の操作入力装置は、カメラで撮影した画像に基づいてユーザの手の形状および動きの方向を認識し、認識結果に対応した操作を選択したり、操作のための各種パラメータを変更したりしていた。
また、特許文献2のデータ入力装置は、手または指の部分ごとに異なる掌紋または指紋、その組み合わせを異なるデータに対応付けて格納しておき、掌紋または指紋を読み取ることが可能な画像読み取り手段を手または指の一部に装着して他の指または手の一部を読み取って、対応付けてあるデータに変換して入力を行っていた。
In recent years, content and functions installed in information processing terminals such as mobile phones and digital cameras have been increasing, and user operations have become complicated when browsing content or operating functions. . Therefore, it is an issue to realize a user interface that can easily and intuitively operate complicated contents and functions.
In response to this problem, for example, the operation input device of Patent Document 1 recognizes the shape of the user's hand and the direction of movement based on the image captured by the camera, selects an operation corresponding to the recognition result, For changing various parameters.
Further, the data input device disclosed in Patent Document 2 includes an image reading unit capable of storing palm prints or fingerprints, which are different for each hand or finger, and a combination thereof in association with different data, and capable of reading the palm prints or fingerprints. A part of a hand or finger is worn and another finger or part of the hand is read, converted into associated data and input.

特開2001−216069号公報JP 2001-216069 A 特開2000−242402号公報JP 2000-242402 A

従来のユーザインタフェース装置は以上のように構成されているので、特許文献1,2にはユーザの操作入力を認識するためにタッチパネルを用いることは開示されていなかった。このため、タッチパネルにユーザの指が近接したのか掌が近接したのかを判別して操作に結び付ける技術、および個人差に大きく依存する指紋および掌紋を用いずに指と掌を判別する技術について何ら開示も示唆もされておらず、タッチパネルを用いて複雑なコンテンツや機能を簡単に、直感的に操作させるユーザインタフェースを十分に実現することはできない課題があった。   Since the conventional user interface device is configured as described above, Patent Documents 1 and 2 do not disclose the use of a touch panel to recognize user operation input. For this reason, what is disclosed is a technique for discriminating whether a user's finger is close to the touch panel or a palm is closely linked to the operation, and a technique for determining a finger and a palm without using fingerprints and palm prints that greatly depend on individual differences. There is also a problem that it is not possible to sufficiently realize a user interface for easily and intuitively operating complicated contents and functions using a touch panel.

この発明は、上記のような課題を解決するためになされたもので、タッチパネルを有するユーザインタフェース装置において、タッチ操作に対応した機能の操作性を向上させることを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to improve the operability of a function corresponding to a touch operation in a user interface device having a touch panel.

この発明に係るタッチパネル付きユーザインタフェース装置は、タッチパネルの出力値を用いて、当該タッチパネルへの物体の近接状態を検知する物体近接検出部と、物体近接検出部が近接状態を検知した場合に、出力値から物体がユーザの指か掌かを判別する指/掌判別部と、指/掌判別部が物体を指と判別した場合に、当該指のタッチパネルにおける近接位置座標を検出する座標検出部と、指/掌判別部が判別した結果および座標検出部が検出した近接位置座標に従って、アプリケーションを選択するアプリケーション選択部と、アプリケーション選択部が選択したアプリケーションに対応した表示を行う表示部とを備えるようにしたものである。   The user interface device with a touch panel according to the present invention uses the output value of the touch panel to output an object proximity detection unit that detects the proximity state of the object to the touch panel and an object proximity detection unit that detects the proximity state. A finger / palm discriminating unit for discriminating whether the object is a user's finger or palm from the values, and a coordinate detecting unit for detecting a proximity position coordinate of the finger on the touch panel when the finger / palm discriminating unit discriminates the object as a finger; And an application selection unit that selects an application according to the result of determination by the finger / palm determination unit and the proximity position coordinates detected by the coordinate detection unit, and a display unit that performs display corresponding to the application selected by the application selection unit. It is a thing.

この発明に係るタッチパネル付きユーザインタフェース装置のユーザインタフェース制御方法は、タッチパネルの出力値を用いて、当該タッチパネルへの物体の近接状態を検知する物体近接検出ステップと、物体近接検出ステップで近接状態を検知した場合に、出力値から物体がユーザの指か掌かを判別する指/掌判別ステップと、指/掌判別ステップで物体を指と判別した場合に、当該指のタッチパネルにおける近接位置座標を検出する座標検出ステップと、指/掌判別ステップで判別した結果および座標検出ステップで検出した近接位置座標に従って、アプリケーションを選択するアプリケーション選択ステップと、アプリケーション選択ステップで選択したアプリケーションに対応した表示を行う表示ステップとを備えるようにしたものである。   A user interface control method for a user interface device with a touch panel according to the present invention uses an output value of a touch panel to detect a proximity state in an object proximity detection step for detecting the proximity state of an object to the touch panel, and an object proximity detection step. If the finger / palm determination step determines whether the object is the user's finger or palm from the output value, and the finger / palm determination step determines that the object is a finger, the proximity position coordinates of the finger on the touch panel are detected. A coordinate detection step, an application selection step for selecting an application according to a result determined in the finger / palm determination step and a proximity position coordinate detected in the coordinate detection step, and a display corresponding to the application selected in the application selection step With steps It is.

この発明に係るタッチパネル付きユーザインタフェース装置のユーザインタフェース制御プログラムは、コンピュータを、タッチパネルの出力値を用いて、当該タッチパネルへの物体の近接状態を検知する物体近接検出手段と、物体近接検出手段が近接状態を検知した場合に、出力値から物体がユーザの指か掌かを判別する指/掌判別手段と、指/掌判別手段が物体を指と判別した場合に、当該指のタッチパネルにおける近接位置座標を検出する座標検出手段と、指/掌判別手段が判別した結果および座標検出手段が検出した近接位置座標に従って、アプリケーションを選択するアプリケーション選択手段と、アプリケーション選択手段が選択したアプリケーションに対応した表示を行う表示手段として機能させるようにしたものである。   According to the user interface control program for a user interface device with a touch panel according to the present invention, an object proximity detection unit that detects a proximity state of an object to the touch panel using an output value of the touch panel and an object proximity detection unit When the state is detected, the finger / palm discriminating means for discriminating whether the object is the user's finger or palm from the output value, and the proximity position of the finger on the touch panel when the finger / palm discrimination means discriminates the object as the finger A coordinate detection unit that detects coordinates, an application selection unit that selects an application according to a result of determination by the finger / palm determination unit and a proximity position coordinate detected by the coordinate detection unit, and a display corresponding to the application selected by the application selection unit It is made to function as a display means for performing.

この発明によれば、タッチパネルの出力値から近接物体が指か掌かを判別してアプリケーションを選択するようにしたので、通常の指によるタッチ操作に加えて掌による操作も可能となり、タッチ操作に対応した機能の操作性を向上させることができる。また、掌による操作に特定のアプリケーションを対応付けておくことにより、表示画面からこのアプリケーション実行用ボタンを削除でき、画面を簡略化させることができる。   According to the present invention, since the application is selected by determining whether the proximity object is a finger or a palm from the output value of the touch panel, it is possible to perform a palm operation in addition to a normal finger touch operation. The operability of the corresponding function can be improved. Further, by associating a specific application with the palm operation, the application execution button can be deleted from the display screen, and the screen can be simplified.

この発明の実施の形態1に係るユーザインタフェース装置の構成を示すブロック図である。It is a block diagram which shows the structure of the user interface apparatus which concerns on Embodiment 1 of this invention. 実施の形態1に係るユーザインタフェース装置の動作を示すフローチャートである。4 is a flowchart illustrating an operation of the user interface device according to the first embodiment. 図1に示すタッチパネルの構成を示す模式図である。It is a schematic diagram which shows the structure of the touch panel shown in FIG. 図1に示す物体近接検出部がタッチパネルと物体の距離を検出する方法を示す説明図であり、タッチパネルと物体が近接した状態を図4(A)に示し、接触した状態を図4(B)に示す。It is explanatory drawing which shows the method in which the object proximity detection part shown in FIG. 1 detects the distance of a touch panel and an object, the state which the touch panel and the object approached is shown to FIG. 4 (A), and the state which contacted is FIG. 4 (B). Shown in 図1に示す指/掌判別部がタッチパネルに指が近接したことを判別する方法を説明する図であり、タッチパネルと指が近接した状態を図5(A)に示し、この状態の静電容量のグラフを図5(B)に示す。FIG. 5 is a diagram for explaining a method in which the finger / palm discriminating unit shown in FIG. 1 discriminates that a finger is in proximity to the touch panel, and FIG. This graph is shown in FIG. 図1に示す指/掌判別部がタッチパネルに掌が近接したことを判別する方法を説明する図であり、タッチパネルと掌が近接した状態を図6(A)に示し、この状態の静電容量のグラフを図6(B)に示す。FIG. 6 is a diagram for explaining how the finger / palm discriminating unit shown in FIG. 1 discriminates that the palm is close to the touch panel, and FIG. 6A shows a state where the touch panel and the palm are close to each other. This graph is shown in FIG. 図1に示すアプリケーション選択部が選択したアプリケーションの説明図であり、指が近接した場合のアプリケーションの例を図7(A)に示し、掌が近接した場合の例を図7(B)に示す。FIGS. 7A and 7B are explanatory diagrams of an application selected by the application selection unit shown in FIG. 1. FIG. 7A shows an example of an application when a finger is in proximity, and FIG. . この発明の実施の形態2に係るユーザインタフェース装置の構成を示すブロック図である。It is a block diagram which shows the structure of the user interface apparatus which concerns on Embodiment 2 of this invention. 実施の形態2に係るユーザインタフェース装置の動作を示すフローチャートである。10 is a flowchart illustrating an operation of the user interface device according to the second embodiment. 図8に示すメモリが保存しているセンサ電極の位置座標の情報の構造を示す説明図である。FIG. 9 is an explanatory diagram illustrating a structure of information on position coordinates of sensor electrodes stored in a memory illustrated in FIG. 8. タッチパネルに近接した掌の掌ジェスチャに応じた、メモリに保存されるセンサ電極の状態の例を示す説明図である。It is explanatory drawing which shows the example of the state of the sensor electrode preserve | saved at memory according to the palm gesture close | similar to a touch panel. 図8に示すアプリケーション選択部が選択したプリケーションの説明図であり、指ジェスチャによる操作の場合のアプリケーションの例を図12(A)に示し、掌ジェスチャによる操作の場合のアプリケーションの例を図12(B)に示す。It is explanatory drawing of the application which the application selection part shown in FIG. 8 shows, the example of the application in the case of operation by finger gesture is shown in FIG. 12 (A), and the example of the application in the case of operation by palm gesture is FIG. Shown in (B).

実施の形態1.
図1は、この発明の実施の形態1に係るユーザインタフェース装置の構成を示すブロック図である。図1に示すように、実施の形態1によるユーザインタフェース装置は、タッチパネル1、物体近接検出部2、指/掌判別部3、座標検出部4、アプリケーション選択部5、表示部6および制御部7から構成される。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of a user interface apparatus according to Embodiment 1 of the present invention. As shown in FIG. 1, the user interface device according to Embodiment 1 includes a touch panel 1, an object proximity detection unit 2, a finger / palm determination unit 3, a coordinate detection unit 4, an application selection unit 5, a display unit 6, and a control unit 7. Consists of

タッチパネル1は、ユーザの指または掌等、物体による入力を検知し、検知信号を物体近接検出部2へ出力する。物体近接検出部2は、タッチパネル1から出力される検知信号を用いて、物体のタッチパネル1への近接状態を判定する。指/掌判別部3は、物体近接検出部2において物体が近接したと判定された場合に、その物体が指であるか掌であるかを判別し、判別結果を出力する。座標検出部4は、指/掌判別部3において近接した物体が指であると判別された場合に、近接している指のタッチパネル1上の近接位置座標を検出する。アプリケーション選択部5は、指/掌判別部3の判別結果および座標検出部4の近接位置座標に基づいて、実行するアプリケーションを選択する。表示部6は、アプリケーション選択部5によって選択されたアプリケーションに対応して適切な画面表示を行う。制御部7は全体の動作を制御する。   The touch panel 1 detects an input by an object such as a user's finger or palm, and outputs a detection signal to the object proximity detection unit 2. The object proximity detection unit 2 uses the detection signal output from the touch panel 1 to determine the proximity state of the object to the touch panel 1. When the object proximity detection unit 2 determines that the object is close, the finger / palm determination unit 3 determines whether the object is a finger or a palm, and outputs a determination result. When the finger / palm discriminating unit 3 determines that the close object is a finger, the coordinate detecting unit 4 detects the close position coordinates on the touch panel 1 of the close finger. The application selection unit 5 selects an application to be executed based on the determination result of the finger / palm determination unit 3 and the close position coordinates of the coordinate detection unit 4. The display unit 6 displays an appropriate screen corresponding to the application selected by the application selection unit 5. The control unit 7 controls the overall operation.

次に、実施の形態1によるユーザインタフェース装置の動作を説明する。図2は、実施の形態1に係るユーザインタフェース装置の動作を示すフローチャートである。
先ず、物体近接検出部2が、タッチパネル1への物体の近接があったか否かを判定し(ステップST1)、物体の近接が検知されるまでステップST1の動作を行う。
Next, the operation of the user interface device according to the first embodiment will be described. FIG. 2 is a flowchart showing the operation of the user interface device according to the first embodiment.
First, the object proximity detection unit 2 determines whether or not an object has approached the touch panel 1 (step ST1), and performs the operation of step ST1 until the proximity of the object is detected.

図3は、タッチパネル1の構成を示す模式図である。本実施の形態では、タッチパネル1として、物体10とタッチパネル1との間の微弱な静電容量の変化を検出することで物体10のタッチパネル1への近接(および接触)を検出する静電容量方式の投射容量型タッチパネルを用いる。この他、タッチパネル1として静電容量方式の表面容量型タッチパネルを用いて、静電容量の変化量に従って物体10のタッチパネル1への近接を検出するようにしてもよい。   FIG. 3 is a schematic diagram showing the configuration of the touch panel 1. In the present embodiment, as the touch panel 1, a capacitance method that detects the proximity (and contact) of the object 10 to the touch panel 1 by detecting a weak change in capacitance between the object 10 and the touch panel 1. The projection capacitive touch panel is used. In addition, a capacitive surface capacitive touch panel may be used as the touch panel 1, and the proximity of the object 10 to the touch panel 1 may be detected according to the amount of change in capacitance.

投射容量型のタッチパネル1は、図3に示すように、x方向の座標値を検出するためにy方向と平行に配置された複数のx方向センサ電極11と、y方向の座標値を検出するためにx方向と平行に配置された複数のy方向センサ電極12とから構成される。物体近接検出部2はこれらセンサ電極11,12が出力する検知信号に基づいて、タッチパネル1へ物体10が近接または接触した場合に、x方向センサ電極11およびy方向センサ電極12のうち、x,y方向それぞれどのセンサ電極が反応しているかを検出することで、物体10のタッチパネル1上におけるx,y方向の位置(以下、それぞれx座標、y座標と呼ぶ)を検出することができる。   As shown in FIG. 3, the projection capacitive touch panel 1 detects a plurality of x-direction sensor electrodes 11 arranged in parallel to the y direction in order to detect a coordinate value in the x direction, and a coordinate value in the y direction. Therefore, it is composed of a plurality of y-direction sensor electrodes 12 arranged in parallel with the x-direction. Based on the detection signals output from the sensor electrodes 11 and 12, the object proximity detection unit 2 detects x, x, y, x, y, x, and x when the object 10 approaches or touches the touch panel 1. By detecting which sensor electrode is reacting in each of the y directions, the position of the object 10 in the x and y directions on the touch panel 1 (hereinafter, referred to as x coordinate and y coordinate, respectively) can be detected.

図4は、物体近接検出部2がタッチパネル1と物体10の距離を検出する方法を示す説明図であり、タッチパネル1と物体10の間の静電容量の変化量と距離との関係を示すグラフである。グラフに示すように、タッチパネル1と物体10との距離が近くなるにつれて、タッチパネル1と物体10の間の静電容量が大きくなる。
静電容量の変化の度合いはタッチパネル1と物体10との距離によって変化するため、物体近接検出部2は、タッチパネル1と物体10との間の静電容量の変化度合いから、物体10がタッチパネル1へ近接したか、または接触したかを判定することができる。具体的には、静電容量の変化量が所定の閾値Th1以上の場合(領域A)に物体10がタッチパネル1へ近接したと判定し(図4(A))、閾値Th1未満の場合に近接していないと判定する。さらに、静電容量の変化量が閾値Th2(>Th1)以上の場合(領域B)には、物体10がタッチパネル1に接触したと判定することができる(図4(B))。
FIG. 4 is an explanatory diagram showing how the object proximity detection unit 2 detects the distance between the touch panel 1 and the object 10, and is a graph showing the relationship between the amount of change in capacitance and the distance between the touch panel 1 and the object 10. It is. As shown in the graph, the capacitance between the touch panel 1 and the object 10 increases as the distance between the touch panel 1 and the object 10 decreases.
Since the degree of change in capacitance varies depending on the distance between the touch panel 1 and the object 10, the object proximity detection unit 2 determines that the object 10 is touched by the touch panel 1 based on the degree of change in capacitance between the touch panel 1 and the object 10. It can be determined whether it is close to or touched. Specifically, when the amount of change in capacitance is equal to or greater than a predetermined threshold Th1 (region A), it is determined that the object 10 has approached the touch panel 1 (FIG. 4 (A)), and proximity is reached when it is less than the threshold Th1. Judge that it is not. Furthermore, when the amount of change in capacitance is equal to or greater than the threshold Th2 (> Th1) (region B), it can be determined that the object 10 has touched the touch panel 1 (FIG. 4B).

説明を図2に戻す。物体近接検出部2において物体のタッチパネル1への近接が検出された場合(ステップST1“Yes”)、指/掌判別部3が、近接した物体が指であるか掌であるかを判別する(ステップST2)。   Returning to FIG. When the proximity of the object to the touch panel 1 is detected in the object proximity detection unit 2 (step ST1 “Yes”), the finger / palm determination unit 3 determines whether the adjacent object is a finger or a palm ( Step ST2).

図5は指/掌判別部3がタッチパネル1に指10aが近接したことを判別する方法を説明する図であり、図6は掌10bが近接したことを判別する方法を説明する図である。図5(A)に示すようにタッチパネル1に近接した物体が指10aである場合、x方向センサ電極11の静電容量変化の分布は、図5(B)に示すように最も変化の大きいセンサ電極の値を山として急峻な分布21になる。y方向センサ電極12の静電容量変化の分布も同様に急峻な分布になる。一方、図6(A)に示すようにタッチパネル1に近接した物体が掌10bである場合、x,y方向それぞれのセンサ電極11,12の静電容量変化の分布は、図6(B)に示すようになだらかな分布22になり、急峻な分布21のようにはならない。y方向センサ電極12の静電容量変化の分布も同様になだらかな分布になる。従って、指/掌判別部3は、静電容量変化の分布の山の急峻さに基づいて、タッチパネル1に近接した物体が指10aか掌10bかを判別する。   FIG. 5 is a diagram for explaining how the finger / palm discriminating unit 3 discriminates that the finger 10a is close to the touch panel 1, and FIG. 6 is a diagram for explaining how the palm 10b is proximate. When the object close to the touch panel 1 is the finger 10a as shown in FIG. 5A, the distribution of the capacitance change of the x-direction sensor electrode 11 is the sensor having the largest change as shown in FIG. A steep distribution 21 is obtained with the value of the electrode as a peak. The distribution of the capacitance change of the y-direction sensor electrode 12 is similarly steep. On the other hand, as shown in FIG. 6A, when the object close to the touch panel 1 is the palm 10b, the distribution of the capacitance change of the sensor electrodes 11 and 12 in the x and y directions is shown in FIG. As shown, the distribution 22 is gentle, and the distribution 21 is not steep. Similarly, the distribution of the capacitance change of the y-direction sensor electrode 12 is also a gentle distribution. Therefore, the finger / palm discrimination unit 3 discriminates whether the object close to the touch panel 1 is the finger 10a or the palm 10b based on the steepness of the peak of the distribution of the capacitance change.

なお、指/掌判別部3において、上述した静電容量変化の分布形状を指標に用いず簡易に判別する場合には、各センサ電極の静電容量の変化量21a,22aを指標に用いてもよい。具体的には、指/掌判別部3が、x方向センサ電極11のうち所定の閾値Th2以上の静電容量変化量になるセンサ電極の数を数え、この本数が閾値m未満の場合に指10aがタッチパネル1に近接したと判別し、閾値m以上の場合には掌10bが近接したと判別することで、タッチパネル1に近接した物体が指10aか掌10bかを判別する。指/掌判別部3は、y方向センサ電極12についても同様に判別する。   When the finger / palm discriminating unit 3 easily discriminates without using the above-described distribution shape of the capacitance change as an index, the capacitance change amounts 21a and 22a of each sensor electrode are used as the index. Also good. Specifically, the finger / palm discriminating unit 3 counts the number of sensor electrodes in the x-direction sensor electrode 11 that have a capacitance change amount equal to or greater than a predetermined threshold value Th2, and if this number is less than the threshold value m, It is determined that the object 10a is close to the touch panel 1, and if the palm 10b is close when the threshold value is equal to or greater than the threshold value m, it is determined whether the object close to the touch panel 1 is the finger 10a or the palm 10b. The finger / palm determination unit 3 determines the y-direction sensor electrode 12 in the same manner.

説明を図2に戻す。指/掌判別部3により近接物体が指と判別された場合(ステップST2“指”)、続くステップST3にて座標検出部4が指が近接したタッチパネル1上のx,y座標を検出する。座標検出部4による位置座標検出方法は、上記で図3を用いて説明したように、x方向センサ電極11およびy方向センサ電極12のうち、x,y方向それぞれ最も静電容量変化量の大きいセンサ電極を検出すればよい。このx,y座標が近接位置座標である。
続いて、アプリケーション選択部5が、座標検出部4で検出したx,y座標に基づいて実行するアプリケーションを選択する(ステップST4)。表示部6は、アプリケーション選択部5が選択したアプリケーションに対応して、適切な内容の画面表示を行う(ステップST5)。
Returning to FIG. When the proximity object is determined to be a finger by the finger / palm determination unit 3 (step ST2 “finger”), the coordinate detection unit 4 detects the x and y coordinates on the touch panel 1 where the finger has approached in the subsequent step ST3. As described above with reference to FIG. 3, the position coordinate detection method by the coordinate detection unit 4 has the largest capacitance change amount in the x and y directions of the x direction sensor electrode 11 and the y direction sensor electrode 12. What is necessary is just to detect a sensor electrode. These x and y coordinates are the proximity position coordinates.
Subsequently, the application selection unit 5 selects an application to be executed based on the x and y coordinates detected by the coordinate detection unit 4 (step ST4). The display unit 6 displays a screen with appropriate contents corresponding to the application selected by the application selection unit 5 (step ST5).

他方、近接物体が掌と判別された場合(ステップST2“掌”)、続くステップST4においてアプリケーション選択部5が、近接物体が掌である場合に実行するアプリケーションを選択する。表示部6は、アプリケーション選択部5が選択したアプリケーションに対応して、適切な内容の画面表示を行う(ステップST5)。   On the other hand, when the proximity object is determined to be a palm (step ST2 “palm”), in subsequent step ST4, the application selection unit 5 selects an application to be executed when the proximity object is a palm. The display unit 6 displays a screen with appropriate contents corresponding to the application selected by the application selection unit 5 (step ST5).

ステップST4においてアプリケーション選択部5が選択するアプリケーションは、指または掌の操作から連想できるようなアプリケーションであることが望ましい。図7(A)にタッチパネル1への近接が指10aの場合に実行するアプリケーションの一例を示し、図7(B)にタッチパネル1への近接が掌10bの場合に実行するアプリケーションの例を示す。なお、タッチパネル1は表示部6の前面に取り付けられて一体となっているものとし、座標検出部4が検出したx,y座標を、表示部6の表示領域中の位置座標として用いる。近接した物体が指10aである場合には、アプリケーション選択部5が、図7(A)のように指10aの位置座標に対応する画面位置に表示されている意味のある表示領域の一部(例えば、1つのアイコン等)を選択するアプリケーションを選択する。他方、近接した物体が掌10bである場合には、アプリケーション選択部5が、図7(B)のように表示領域全体(例えば、全てのアイコン等)を選択するアプリケーションを選択する。図7に示すように指=一部、掌=全体というメタファに則ってアプリケーション選択部5が選択するアプリケーションを指、掌の操作に関連付けておくことで、ユーザが直感的に操作可能なユーザインタフェースを実現することができる。   The application selected by the application selection unit 5 in step ST4 is preferably an application that can be associated with a finger or palm operation. FIG. 7A shows an example of an application executed when the proximity to the touch panel 1 is the finger 10a, and FIG. 7B shows an example of an application executed when the proximity to the touch panel 1 is the palm 10b. The touch panel 1 is attached to and integrated with the front surface of the display unit 6, and the x and y coordinates detected by the coordinate detection unit 4 are used as position coordinates in the display area of the display unit 6. When the adjacent object is the finger 10a, the application selection unit 5 displays a part of a meaningful display area displayed at the screen position corresponding to the position coordinate of the finger 10a as shown in FIG. For example, an application for selecting one icon or the like is selected. On the other hand, when the adjacent object is the palm 10b, the application selection unit 5 selects an application for selecting the entire display area (for example, all icons) as shown in FIG. 7B. As shown in FIG. 7, a user interface that can be operated intuitively by the user by associating the application selected by the application selection unit 5 with the finger and palm operations in accordance with the metaphor of finger = partial and palm = entire. Can be realized.

アプリケーション選択部5は、上記以外にも例えば、表示部6に複数ページ有するドキュメントの閲覧画面が表示されているとき、近接した物体が指10aである場合には1ページ戻る/進むアプリケーションを選択し、近接した物体が掌10bである場合には全ページ戻る/進むアプリケーションを選択するようにしてもよい。
また、掌による操作に、ユーザインタフェース装置の電源スイッチのオン/オフ切り替えを制御するアプリケーションを対応付ければ、アプリケーション選択部5は、近接した物体が指10aである場合には通常のアプリケーションを選択し、近接した物体が掌10bである場合には電源スイッチのオン/オフ切り替えを制御するアプリケーションを選択することもできる。
このように、掌による操作に特定のボタンのアプリケーションを対応付けておけば、表示画面内のボタン数を削減することができ、表示画面を簡略化することができる。
In addition to the above, the application selection unit 5 selects, for example, an application for returning / forwarding by one page when the close object is the finger 10a when a display screen of a document having a plurality of pages is displayed on the display unit 6. When the adjacent object is the palm 10b, an application for returning / forwarding all pages may be selected.
In addition, when an application for controlling on / off switching of the power switch of the user interface device is associated with the palm operation, the application selection unit 5 selects a normal application when the adjacent object is the finger 10a. When the adjacent object is the palm 10b, an application for controlling on / off switching of the power switch can be selected.
In this way, if an application of a specific button is associated with a palm operation, the number of buttons in the display screen can be reduced, and the display screen can be simplified.

以上のように、実施の形態1によれば、タッチパネル1への物体の近接状態を検知する物体近接検出部2、および物体がタッチパネル1に近接したと判別された場合に物体がユーザの指であるか掌であるかを判別する指/掌判別部3に加えて、指が近接したのか掌が近接したのかによって実行するアプリケーションを選択するアプリケーション選択部5を備えるように構成した。このため、通常の指によるタッチ操作に加えて、掌による操作も可能となり、タッチパネル1に対応した機能に対する操作性を向上させることができる。また、掌による操作に特定のアプリケーションを対応付けておくことにより、表示画面からこのアプリケーション実行用ボタンを削除でき、画面を簡略化させることもできる。   As described above, according to the first embodiment, the object proximity detection unit 2 that detects the proximity state of the object to the touch panel 1 and the object is the user's finger when it is determined that the object is close to the touch panel 1. In addition to the finger / palm discriminating unit 3 that discriminates whether there is a palm or not, an application selection unit 5 that selects an application to be executed depending on whether the finger is close or the palm is close is provided. Therefore, in addition to a normal finger touch operation, a palm operation is also possible, and the operability for functions corresponding to the touch panel 1 can be improved. Further, by associating a specific application with a palm operation, the application execution button can be deleted from the display screen, and the screen can be simplified.

実施の形態2.
上記実施の形態1のユーザインタフェース装置では、物体がタッチパネル1へ近接したことを検知し、さらに、近接した物体がユーザの指であるか掌であるかを判別し、判別結果によって実行するアプリケーションを切り替えることで、通常のタッチ操作に加えて掌による操作を実現した。本実施の形態2では、タッチパネル1に掌が近接したと判別した場合に、掌の動きの方向を認識することによってさらに操作性を向上させたユーザインタフェースを実現する。ここで、ユーザがタッチパネル1に近接させた掌を動かして操作することを掌ジェスチャと呼び、ユーザインタフェース装置がこの掌の動きを認識することを掌ジェスチャ認識と呼ぶ。実施の形態2では、掌ジェスチャを利用する構成のユーザインタフェース装置について述べる。
Embodiment 2. FIG.
In the user interface device according to the first embodiment, it is detected that an object is close to the touch panel 1, further determines whether the close object is a user's finger or palm, and executes an application to be executed based on the determination result. By switching, in addition to the normal touch operation, operation by palm was realized. In the second embodiment, when it is determined that the palm is close to the touch panel 1, a user interface with further improved operability is realized by recognizing the direction of movement of the palm. Here, when the user moves and operates the palm brought close to the touch panel 1, it is called palm gesture, and when the user interface device recognizes the movement of the palm is called palm gesture recognition. In the second embodiment, a user interface device configured to use a palm gesture will be described.

図8は、この発明の実施の形態2に係るユーザインタフェース装置の構成を示すブロック図であり、図1と同一または相当の部分については同一の符号を付す。実施の形態2のユーザインタフェース装置は、上記実施の形態1のユーザインタフェース装置の座標検出部4の後段に、掌ジェスチャを認識する掌ジェスチャ認識部8および掌ジェスチャを認識するための情報を保存しておくメモリ9を追加した点のみが異なる。従って、実施の形態2の説明は実施の形態1と異なる内容のみにとどめ、重複する内容については省略する。   FIG. 8 is a block diagram showing the configuration of the user interface apparatus according to Embodiment 2 of the present invention, and the same or corresponding parts as those in FIG. The user interface device according to the second embodiment stores a palm gesture recognition unit 8 for recognizing a palm gesture and information for recognizing the palm gesture at the subsequent stage of the coordinate detection unit 4 of the user interface device according to the first embodiment. The only difference is that a memory 9 is added. Therefore, the description of the second embodiment is limited to the contents different from the first embodiment, and the overlapping contents are omitted.

次に、実施の形態2によるユーザインタフェース装置の動作を説明する。図9は、実施の形態2に係るユーザインタフェース装置の動作を示すフローチャートである。図9に示すステップST1〜ステップST3の各動作は、図2のステップST1〜ステップST3の各動作と同一であるため、説明を省略する。
なお、ステップST1において、物体近接検出部2が、タッチパネル1への物体の近接を検知しない場合は(ステップST1“No”)、ステップST6にて掌ジェスチャ認識部8がメモリ9の保存する情報を全てクリアする。
Next, the operation of the user interface device according to the second embodiment will be described. FIG. 9 is a flowchart showing the operation of the user interface device according to the second embodiment. The operations in steps ST1 to ST3 shown in FIG. 9 are the same as the operations in steps ST1 to ST3 in FIG.
If the object proximity detection unit 2 does not detect the proximity of the object to the touch panel 1 in step ST1 (step ST1 “No”), the palm gesture recognition unit 8 stores information stored in the memory 9 in step ST6. Clear all.

指/掌判別部3によって近接物体が掌と判別された場合(ステップST2“掌”)、指/掌判別部3が判別の際に用いた、x,y方向それぞれ所定の閾値Th2以上の静電容量の変化量だったセンサ電極のインデックスを、掌ジェスチャ認識部8がメモリ9に保存する(ステップST7)。タッチパネル1に近接した状態で掌ジェスチャが行われれば、掌ジェスチャ中の各時刻のセンサ電極の状態がメモリ9に保存されていく。そして、掌ジェスチャ認識部8がメモリ9の情報を利用して、タッチパネル1上に近接した掌10bがどのように動いたか、即ち掌ジェスチャを認識する(ステップST8)。   When the proximity object is determined to be a palm by the finger / palm determination unit 3 (step ST2 “palm”), the static values of the x and y directions used for the determination by the finger / palm determination unit 3 are equal to or greater than a predetermined threshold Th2. The palm gesture recognition unit 8 stores the sensor electrode index, which is the amount of change in capacitance, in the memory 9 (step ST7). If the palm gesture is performed in the state of being close to the touch panel 1, the state of the sensor electrode at each time in the palm gesture is stored in the memory 9. Then, the palm gesture recognition unit 8 uses the information in the memory 9 to recognize how the palm 10b that has moved close to the touch panel 1 moves, that is, the palm gesture (step ST8).

図10は、メモリ9が保存しているセンサ電極の位置座標の情報の構造を示す説明図である。図10に示すように、メモリ9には、掌がタッチパネル1に近接した状態となったt−n時刻前から最新の時刻tまでのセンサ電極の状態が、全てまたは一部保存されている。xは、x方向センサ電極11のx座標原点側からのセンサ番号iを示し、yは、y方向センサ電極12のy座標原点側からのセンサ番号jを示す。掌ジェスチャ認識部8は、センサ電極の状態として、所定の閾値Th2以上の静電容量の変化量を示したセンサ電極に[1]を付与し、閾値Th2未満の静電容量の変化量を示したセンサ電極に[0]を付与して、メモリ9に保存する。 FIG. 10 is an explanatory diagram showing the structure of the sensor electrode position coordinate information stored in the memory 9. As shown in FIG. 10, the memory 9 stores all or part of the state of the sensor electrode from the time t−n before the palm becomes close to the touch panel 1 to the latest time t. x i represents the sensor number i from the x-coordinate origin side of the x-direction sensor electrode 11, and y j represents the sensor number j from the y-coordinate origin side of the y-direction sensor electrode 12. The palm gesture recognizing unit 8 gives [1] to the sensor electrode indicating the amount of change in the electrostatic capacitance greater than or equal to a predetermined threshold Th2 as the state of the sensor electrode, and indicates the amount of change in the electrostatic capacitance less than the threshold Th2. [0] is assigned to the sensor electrode and stored in the memory 9.

図11は、タッチパネル1に近接した掌10bの掌ジェスチャに応じたセンサ電極の状態の例を示す説明図である。図11では、掌10bがx方向と平行に動いた場合にメモリ9に保存される2時刻前(図11(A))、1時刻前(図11(B))、および最新(図11(C))のx方向センサ電極11の各状態を示す。例えば図11(A)においてセンサ番号i=12およびt=2のセンサ電極の状態x(2),x(2),・・・,x12(2)は[1,1,1,1,1,1,1,1,0,0,0,0]であり、掌10bの移動と共に、静電容量の変化量の大きい(即ちセンサ電極の状態[1])センサ電極がx方向に移り変わって、最新t=0のセンサ電極の状態x(0),x(0),・・・,x12(0)は[0,0,0,0,1,1,1,1,1,1,1,1]となる。従って、掌ジェスチャ認識部8は、静電容量の変化量の大きいセンサ電極の状態の移り変わりを利用すれば、掌10bがx方向に移動したことを認識できる。掌ジェスチャ認識部8は、この掌ジェスチャ認識処理をx方向センサ電極11およびy方向センサ電極12について行い、タッチパネル1上に近接した掌10bがどのように動いたか認識する。 FIG. 11 is an explanatory diagram illustrating an example of the state of the sensor electrode corresponding to the palm gesture of the palm 10 b close to the touch panel 1. In FIG. 11, two hours before (FIG. 11A), one hour before (FIG. 11B), and the latest (FIG. 11 (FIG. 11)) stored in the memory 9 when the palm 10b moves in parallel with the x direction. Each state of the x direction sensor electrode 11 of C)) is shown. For example, in FIG. 11A, sensor electrode states x 1 (2), x 2 (2),..., X 12 (2) of sensor numbers i = 12 and t = 2 are [1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0], and with the movement of the palm 10b, the amount of change in capacitance is large (that is, sensor electrode state [1]). , The latest t = 0 sensor electrode states x 1 (0), x 2 (0),..., X 12 (0) are [0, 0, 0, 0, 1, 1, 1 , 1,1,1,1,1]. Therefore, the palm gesture recognizing unit 8 can recognize that the palm 10b has moved in the x direction by using the change of the state of the sensor electrode having a large capacitance change amount. The palm gesture recognition unit 8 performs this palm gesture recognition processing on the x-direction sensor electrode 11 and the y-direction sensor electrode 12, and recognizes how the palm 10b that is close to the touch panel 1 has moved.

なお、ステップST6において、物体が近接していないと判別された場合にメモリ9の内容が全てクリアされているため、連続して近接している状態のみのセンサ電極の状態をメモリ9に保存しておくことができる。   In step ST6, when it is determined that the object is not close, the contents of the memory 9 are all cleared, and therefore the state of the sensor electrode only in the state of being close to each other is stored in the memory 9. I can keep it.

説明を図9に戻す。ステップST4において、アプリケーション選択部5は、指/掌判別部3の判別結果から近接物体が指の場合には座標検出部4で検出したx,y座標に基づいて、一方、近接物体が掌の場合には掌ジェスチャ認識部8の掌ジェスチャ認識の結果に基づいて、実行するアプリケーションを選択する。表示部6が、アプリケーション選択部5が選択したアプリケーションに対応して、適切な内容の画面表示を行う(ステップST5)。
なお、近接物体が指の場合、指のx,y座標の時間変化を利用することで、指のジェスチャについても認識することができる。例えば、ユーザインタフェース装置が指ジェスチャ認識部とメモリを備え、近接物体が指と判別された場合に座標検出部4が検出した各時刻のx,y座標をメモリに保存して、指ジェスチャ認識部がx,y座標の時間変化に基づいて指の移動を認識する構成にすればよい。
Returning to FIG. In step ST4, when the proximity object is a finger from the discrimination result of the finger / palm discrimination unit 3, the application selection unit 5 determines that the proximity object is a palm based on the x and y coordinates detected by the coordinate detection unit 4. In this case, an application to be executed is selected based on the result of palm gesture recognition by the palm gesture recognition unit 8. The display unit 6 displays a screen with appropriate contents corresponding to the application selected by the application selection unit 5 (step ST5).
When the proximity object is a finger, it is possible to recognize a finger gesture by using a temporal change in the x and y coordinates of the finger. For example, the user interface device includes a finger gesture recognition unit and a memory, and stores the x and y coordinates at each time detected by the coordinate detection unit 4 in the memory when the proximity object is determined to be a finger, and the finger gesture recognition unit May be configured to recognize the movement of the finger based on the time change of the x and y coordinates.

ステップST4においてアプリケーション選択部5が選択するアプリケーションは、指ジェスチャまたは掌ジェスチャの操作から連想できるようなアプリケーションであることが望ましい。図12(A)に指ジェスチャによる操作の場合に実行するアプリケーションの例を示し、図12(B)に掌ジェスチャによる操作の場合に実行するアプリケーションの例を示す。なお、タッチパネル1は表示部6の前面に取り付けられて一体となっているものとし、座標検出部4が検出したx,y座標を、表示部6の表示領域中の位置座標として用いる。近接した物体が指10aであり、かつ、x方向に移動する指ジェスチャの場合には、アプリケーション選択部5が、図12(A)のように複数ページ有するドキュメントの閲覧画面のページを1ページ戻る/進むアプリケーションを選択して、指ジェスチャの移動方向に応じたページめくりを実行する。他方、近接した物体が掌10bであり、かつ、x方向に移動する掌ジェスチャの場合には、アプリケーション選択部5が、図12(B)のように全ページ戻る/進むアプリケーションを選択して、掌ジェスチャの移動方向に応じたページめくりを実行する。図12に示すように指=一部、掌=全体というメタファに則ってアプリケーション選択部5が選択するアプリケーションを指ジェスチャ、掌ジェスチャに関連付けておくことで、ユーザが直感的に操作可能なユーザインタフェースを実現することができる。   The application selected by the application selection unit 5 in step ST4 is preferably an application that can be associated with the operation of the finger gesture or the palm gesture. FIG. 12A shows an example of an application executed in the case of an operation using a finger gesture, and FIG. 12B shows an example of an application executed in the case of an operation using a palm gesture. The touch panel 1 is attached to and integrated with the front surface of the display unit 6, and the x and y coordinates detected by the coordinate detection unit 4 are used as position coordinates in the display area of the display unit 6. When the adjacent object is the finger 10a and the finger gesture moves in the x direction, the application selection unit 5 returns one page of the document browsing screen page having a plurality of pages as shown in FIG. Select the forward application and perform page turning according to the movement direction of the finger gesture. On the other hand, in the case where the adjacent object is the palm 10b and the palm gesture moves in the x direction, the application selection unit 5 selects an application that returns / forwards all pages as shown in FIG. Performs page turning according to the direction of palm gesture movement. As shown in FIG. 12, a user interface that can be operated intuitively by the user by associating an application selected by the application selection unit 5 with a finger gesture and a palm gesture in accordance with a metaphor of finger = partial and palm = entire. Can be realized.

アプリケーション選択部5は、上記以外にも例えば、指ジェスチャである場合には通常のアプリケーションを選択し、掌ジェスチャの場合にはユーザインタフェース装置の電源スイッチのオン/オフ切り替えを制御するアプリケーションを選択するようにしてもよい。また、表示部6に複数の意味のある表示領域(例えばアイコン)が画面表示されているとき、アプリケーション選択部5は、指ジェスチャである場合には近接した位置座標の表示領域(1つのアイコン)を選択するアプリケーションを選択し、掌ジェスチャである場合には表示領域全体(全てのアイコン)を選択するアプリケーションを選択するようにしてもよい。さらに、掌ジェスチャ認識部8が掌の移動方向に加えて移動速度も認識するようにして(同様に指ジェスチャ認識部も指の移動速度を認識するようにして)、アプリケーション選択部5が移動の方向および速度に応じてアプリケーションを選択してもよい。
このように、掌ジェスチャによる操作に特定のボタンのアプリケーションを対応付けておけば、表示画面内のボタン数を削減することができ、表示画面を簡略化することができる。
In addition to the above, for example, the application selection unit 5 selects a normal application in the case of a finger gesture, and selects an application that controls on / off switching of the power switch of the user interface device in the case of a palm gesture. You may do it. When a plurality of meaningful display areas (for example, icons) are displayed on the screen of the display unit 6, the application selection unit 5 displays a display area (one icon) of adjacent position coordinates in the case of a finger gesture. In the case of a palm gesture, an application for selecting the entire display area (all icons) may be selected. Further, the palm gesture recognizing unit 8 recognizes the moving speed in addition to the moving direction of the palm (similarly, the finger gesture recognizing unit recognizes the moving speed of the finger), and the application selecting unit 5 moves. Applications may be selected depending on direction and speed.
In this way, if an application of a specific button is associated with an operation by a palm gesture, the number of buttons in the display screen can be reduced, and the display screen can be simplified.

以上のように、実施の形態2によれば、指/掌判別部3においてタッチパネル1への近接物体が掌であると判別された場合に、タッチパネル1の出力値を用いて掌の動きを認識する掌ジェスチャ認識部8を備えるようにした。このため、掌の近接を利用する上記実施の形態1のユーザインタフェースだけでなく、掌の動きを利用したユーザインタフェースを実現することができる。   As described above, according to the second embodiment, when the finger / palm discrimination unit 3 determines that the object close to the touch panel 1 is a palm, the palm movement is recognized using the output value of the touch panel 1. A palm gesture recognition unit 8 is provided. For this reason, not only the user interface of the first embodiment using the proximity of the palm but also a user interface using the movement of the palm can be realized.

なお、上記実施の形態1,2のユーザインタフェース装置を、タッチパネル1および表示部6を有するコンピュータで構成する場合、指/掌判別部3、座標検出部4、アプリケーション選択部5、制御部7、掌ジェスチャ認識部8の処理内容を記述しているプログラムをコンピュータの内部メモリに格納し、コンピュータのCPUが内部メモリに格納されているプログラムを実行するようにしてもよい。   When the user interface devices of the first and second embodiments are configured by a computer having the touch panel 1 and the display unit 6, the finger / palm determination unit 3, the coordinate detection unit 4, the application selection unit 5, the control unit 7, A program describing the processing contents of the palm gesture recognition unit 8 may be stored in an internal memory of a computer, and the CPU of the computer may execute the program stored in the internal memory.

また、上記実施の形態1,2のユーザインタフェース装置によれば、ユーザがタッチパネル1に触れることなく操作可能となるため、パネルの消耗が少なく、超寿命化の一助になる。   Further, according to the user interface devices of the first and second embodiments, the user can operate without touching the touch panel 1, so that the consumption of the panel is small and the life span is helped.

1 タッチパネル、2 物体近接検出部、3 指/掌判別部、4 座標検出部、5 アプリケーション選択部、6 表示部、7 制御部、8 掌ジェスチャ認識部、9 メモリ、10 物体、10a 指、10b 掌、11 x方向センサ電極、12 y方向センサ電極、21,22 静電容量変化の分布形状、21a,22a 静電容量の変化量。   DESCRIPTION OF SYMBOLS 1 Touch panel, 2 Object proximity detection part, 3 Finger / palm discrimination | determination part, 4 Coordinate detection part, 5 Application selection part, 6 Display part, 7 Control part, 8 Palm gesture recognition part, 9 Memory, 10 Object, 10a Finger, 10b Palm, 11 x direction sensor electrode, 12 y direction sensor electrode, 21, 22 Capacitance change distribution shape, 21a, 22a Capacitance change amount.

Claims (14)

タッチパネルの出力値を用いて、当該タッチパネルへの物体の近接状態を検知する物体近接検出部と、
前記物体近接検出部が近接状態を検知した場合に、前記出力値から前記物体がユーザの指か掌かを判別する指/掌判別部と、
前記指/掌判別部が前記物体を指と判別した場合に、当該指の前記タッチパネルにおける近接位置座標を検出する座標検出部と、
前記指/掌判別部が判別した結果および前記座標検出部が検出した近接位置座標に従って、アプリケーションを選択するアプリケーション選択部と、
前記アプリケーション選択部が選択したアプリケーションに対応した表示を行う表示部とを備えたタッチパネル付きユーザインタフェース装置。
Using the output value of the touch panel, an object proximity detection unit that detects the proximity state of the object to the touch panel;
A finger / palm determination unit that determines whether the object is a user's finger or palm from the output value when the object proximity detection unit detects a proximity state;
A coordinate detection unit for detecting a proximity position coordinate of the finger on the touch panel when the finger / palm determination unit determines the object as a finger;
An application selection unit that selects an application according to the determination result of the finger / palm determination unit and the proximity position coordinates detected by the coordinate detection unit;
A user interface device with a touch panel, comprising: a display unit that performs display corresponding to the application selected by the application selection unit.
タッチパネルの出力値から、近接状態の指または掌の動きを認識するジェスチャ認識部を備え、
アプリケーション選択部は、指/掌判別部が判別した結果および座標検出部が検出した近接位置座標に加え、前記ジェスチャ認識部が認識した結果に従って、アプリケーションを選択することを特徴とする請求項1記載のタッチパネル付きユーザインタフェース装置。
A gesture recognition unit that recognizes the movement of a finger or palm in the proximity state from the output value of the touch panel,
The application selecting unit selects an application according to a result recognized by the gesture recognizing unit in addition to a result determined by the finger / palm determining unit and a proximity position coordinate detected by the coordinate detecting unit. User interface device with touch panel.
タッチパネル付きユーザインタフェース装置のユーザインタフェース制御方法であって、
タッチパネルの出力値を用いて、当該タッチパネルへの物体の近接状態を検知する物体近接検出ステップと、
前記物体近接検出ステップで近接状態を検知した場合に、前記出力値から前記物体がユーザの指か掌かを判別する指/掌判別ステップと、
前記指/掌判別ステップで前記物体を指と判別した場合に、当該指の前記タッチパネルにおける近接位置座標を検出する座標検出ステップと、
前記指/掌判別ステップで判別した結果および前記座標検出ステップで検出した近接位置座標に従って、アプリケーションを選択するアプリケーション選択ステップと、
前記アプリケーション選択ステップで選択したアプリケーションに対応した表示を行う表示ステップとを備えたことを特徴とするユーザインタフェース制御方法。
A user interface control method for a user interface device with a touch panel,
Using an output value of the touch panel, an object proximity detection step of detecting a proximity state of the object to the touch panel;
A finger / palm determination step of determining whether the object is a user's finger or palm from the output value when a proximity state is detected in the object proximity detection step;
A coordinate detection step of detecting a proximity position coordinate of the finger on the touch panel when the object is determined to be a finger in the finger / palm determination step;
An application selection step of selecting an application according to the result of the determination in the finger / palm determination step and the proximity position coordinates detected in the coordinate detection step;
And a display step for performing display corresponding to the application selected in the application selection step.
タッチパネルの出力値から、近接状態の指または掌の動きを認識するジェスチャ認識ステップを備え、
アプリケーション選択ステップは、指/掌判別ステップで判別した結果および座標検出ステップで検出した近接位置座標に加え、前記ジェスチャ認識ステップで認識した結果に従って、アプリケーションを選択することを特徴とする請求項3記載のユーザインタフェース制御方法。
A gesture recognition step that recognizes the movement of a finger or palm in the proximity state from the output value of the touch panel,
4. The application selecting step selects an application according to a result recognized in the gesture recognition step in addition to a result determined in the finger / palm determination step and a proximity position coordinate detected in the coordinate detection step. User interface control method.
アプリケーション選択ステップでは、指/掌判別ステップで掌が近接したと判別された場合に、本装置の電源スイッチのオン/オフ切り替えを制御するアプリケーションを選択することを特徴とする請求項3または請求項4記載のユーザインタフェース制御方法。   The application selecting step selects an application for controlling on / off switching of the power switch of the apparatus when it is determined that the palm is close in the finger / palm determining step. 5. The user interface control method according to 4. アプリケーション選択ステップでは、指/掌判別ステップで掌が近接したと判別された場合に、表示されている全情報を一括して選択するアプリケーションを選択することを特徴とする請求項3または請求項4記載のユーザインタフェース制御方法。   5. The application selecting step selects an application for collectively selecting all displayed information when it is determined that the palm is close in the finger / palm determining step. The user interface control method described. アプリケーション選択ステップでは、指/掌判別ステップで指が近接したと判別された場合に、座標検出ステップで検出した近接位置座標に表示されている情報を選択するアプリケーションを選択することを特徴とする請求項3から請求項6のうちのいずれか1項記載のユーザインタフェース制御方法。   In the application selection step, when it is determined that the finger is close in the finger / palm determination step, an application for selecting information displayed in the close position coordinates detected in the coordinate detection step is selected. The user interface control method according to any one of claims 3 to 6. アプリケーション選択ステップでは、ドキュメント閲覧画面が表示されているとき、指/掌判別ステップで掌が近接したと判別された場合に当該ドキュメントの複数ページを一括してめくるアプリケーションを選択し、指が近接したと判別された場合に当該ドキュメントの一ページをめくるアプリケーションを選択することを特徴とする請求項3または請求項4記載のユーザインタフェース制御方法。   In the application selection step, when the document browsing screen is displayed, if the finger / palm determination step determines that the palm is close, select the application that turns multiple pages of the document at once, and the finger approaches 5. The user interface control method according to claim 3, wherein an application for turning one page of the document is selected when it is determined that the document is turned on. タッチパネル付きユーザインタフェース装置のユーザインタフェース制御プログラムであって、
コンピュータを、タッチパネルの出力値を用いて、当該タッチパネルへの物体の近接状態を検知する物体近接検出手段と、
前記物体近接検出手段が近接状態を検知した場合に、前記出力値から前記物体がユーザの指か掌かを判別する指/掌判別手段と、
前記指/掌判別手段が前記物体を指と判別した場合に、当該指の前記タッチパネルにおける近接位置座標を検出する座標検出手段と、
前記指/掌判別手段が判別した結果および前記座標検出手段が検出した近接位置座標に従って、アプリケーションを選択するアプリケーション選択手段と、
前記アプリケーション選択手段が選択したアプリケーションに対応した表示を行う表示手段として機能させるためのユーザインタフェース制御プログラム。
A user interface control program for a user interface device with a touch panel,
An object proximity detecting means for detecting a proximity state of the object to the touch panel using an output value of the touch panel;
A finger / palm discriminating unit for discriminating whether the object is a user's finger or palm from the output value when the object proximity detecting unit detects a proximity state;
A coordinate detection unit that detects a proximity position coordinate of the finger on the touch panel when the finger / palm determination unit determines the object as a finger;
Application selecting means for selecting an application according to the result of the determination by the finger / palm determining means and the proximity position coordinates detected by the coordinate detecting means;
A user interface control program for causing a function corresponding to display means for performing display corresponding to an application selected by the application selection means.
タッチパネルの出力値から、近接状態の指または掌の動きを認識するジェスチャ認識手段を備え、
アプリケーション選択手段は、指/掌判別手段が判別した結果および座標検出手段が検出した近接位置座標に加え、前記ジェスチャ認識手段が認識した結果に従って、アプリケーションを選択することを特徴とする請求項9記載のユーザインタフェース制御プログラム。
It has gesture recognition means that recognizes the movement of a finger or palm in the proximity state from the output value of the touch panel,
10. The application selecting unit selects an application according to a result recognized by the gesture recognizing unit in addition to a result determined by the finger / palm determining unit and a proximity position coordinate detected by the coordinate detecting unit. User interface control program.
アプリケーション選択手段は、指/掌判別手段で掌が近接したと判別された場合に、本装置の電源スイッチのオン/オフ切り替えを制御するアプリケーションを選択することを特徴とする請求項9または請求項10記載のユーザインタフェース制御プログラム。   The application selection unit selects an application for controlling on / off switching of the power switch of the apparatus when the finger / palm determination unit determines that the palm is in proximity. 10. The user interface control program according to 10. アプリケーション選択手段は、指/掌判別手段で掌が近接したと判別された場合に、表示されている全情報を一括して選択するアプリケーションを選択することを特徴とする請求項9または請求項10記載のユーザインタフェース制御プログラム。   11. The application selecting unit selects an application that selects all displayed information collectively when it is determined that the palm is close by the finger / palm determining unit. The user interface control program described. アプリケーション選択手段は、指/掌判別手段で指が近接したと判別された場合に、座標検出手段で検出した近接位置座標に表示されている情報を選択するアプリケーションを選択することを特徴とする請求項9から請求項12のうちのいずれか1項記載のユーザインタフェース制御プログラム。   The application selecting unit selects an application for selecting information displayed at the close position coordinates detected by the coordinate detecting unit when the finger / palm determining unit determines that the finger is close. The user interface control program according to any one of claims 9 to 12. アプリケーション選択手段は、ドキュメント閲覧画面が表示されているとき、指/掌判別手段で掌が近接したと判別された場合に当該ドキュメントの複数ページを一括してめくるアプリケーションを選択し、指が近接したと判別された場合に当該ドキュメントの一ページをめくるアプリケーションを選択することを特徴とする請求項9または請求項10記載のユーザインタフェース制御プログラム。   When the document browsing screen is displayed, the application selection unit selects an application that turns a plurality of pages of the document at once when the finger / palm determination unit determines that the palm is close, and the finger approaches The user interface control program according to claim 9 or 10, wherein an application for turning one page of the document is selected when it is determined.
JP2009089344A 2009-04-01 2009-04-01 User interface device with touch panel, method and program for controlling user interface Pending JP2010244132A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009089344A JP2010244132A (en) 2009-04-01 2009-04-01 User interface device with touch panel, method and program for controlling user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009089344A JP2010244132A (en) 2009-04-01 2009-04-01 User interface device with touch panel, method and program for controlling user interface

Publications (1)

Publication Number Publication Date
JP2010244132A true JP2010244132A (en) 2010-10-28

Family

ID=43097112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009089344A Pending JP2010244132A (en) 2009-04-01 2009-04-01 User interface device with touch panel, method and program for controlling user interface

Country Status (1)

Country Link
JP (1) JP2010244132A (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098929A (en) * 2010-11-02 2012-05-24 Canon Inc Display control device and display control method
JP2012133524A (en) * 2010-12-21 2012-07-12 Sony Corp Image display controller and image display control method
CN102650912A (en) * 2011-02-23 2012-08-29 安国国际科技股份有限公司 Signal processing method and system of touch panel
JP2012234317A (en) * 2011-04-28 2012-11-29 Ntt Docomo Inc Display device, control method for display device and program
JP2013097798A (en) * 2011-10-27 2013-05-20 Samsung Electronics Co Ltd System and method for identifying type of input to mobile device with touch panel
WO2013080425A1 (en) * 2011-12-01 2013-06-06 パナソニック株式会社 Input device, information terminal, input control method and input control program
US20130257796A1 (en) * 2012-03-29 2013-10-03 Brother Kogyo Kabushiki Kaisha Touch panel control device, touch panel control method and non-transitory computer-readable medium
US20130257764A1 (en) * 2012-03-29 2013-10-03 Brother Kogyo Kabushiki Kaisha Touch panel control device and non-transitory computer-readable medium
KR20130124138A (en) * 2012-11-21 2013-11-13 삼성전자주식회사 Control method of terminal by using spatial interaction
KR20130124139A (en) * 2012-11-21 2013-11-13 삼성전자주식회사 Control method of terminal by using spatial interaction
JP2013235588A (en) * 2012-05-04 2013-11-21 Samsung Electronics Co Ltd Method for controlling terminal based on spatial interaction, and corresponding terminal
WO2013179474A1 (en) * 2012-05-30 2013-12-05 シャープ株式会社 Touch sensor system
JP2014121854A (en) * 2012-12-21 2014-07-03 Konica Minolta Inc Image formation device and program
JP2014160473A (en) * 2012-04-19 2014-09-04 Panasonic Intellectual Property Corp Of America Portable electronic equipment
JP2015500545A (en) * 2011-12-14 2015-01-05 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated Capacitive proximity based gesture input system
JP2015041264A (en) * 2013-08-22 2015-03-02 シャープ株式会社 Information processing device, information processing method, and program
KR20150024571A (en) * 2013-08-27 2015-03-09 삼성전자주식회사 Electronic device with using an infrared sensor and operation method thereof
JP2015064799A (en) * 2013-09-25 2015-04-09 富士通コンポーネント株式会社 Combiner and operation detection device
US9052791B2 (en) 2011-12-16 2015-06-09 Panasonic Intellectual Property Corporation Of America Touch panel and electronic device
JP2015141425A (en) * 2014-01-27 2015-08-03 アルプス電気株式会社 Touch pad input device and touch pad control program
JP2016042383A (en) * 2015-11-25 2016-03-31 カシオ計算機株式会社 User operation processing apparatus, user operation processing method, and program
JP2016045931A (en) * 2014-08-21 2016-04-04 京セラドキュメントソリューションズ株式会社 Image processing apparatus
JP2017054226A (en) * 2015-09-08 2017-03-16 アルプス電気株式会社 Input device including electrostatic capacitance type touch panel, and manufacturing method of input device
WO2017047416A1 (en) * 2015-09-14 2017-03-23 株式会社東海理化電機製作所 Operation detection device
JP2017510879A (en) * 2014-01-28 2017-04-13 ▲華▼▲為▼終端有限公司Huawei Device Co., Ltd. Method and terminal device for processing a terminal device
US9846519B2 (en) 2014-12-22 2017-12-19 Alps Electric Co., Ltd. Input device, and method and program for controlling the same
JP2018120636A (en) * 2011-08-30 2018-08-02 三星電子株式会社Samsung Electronics Co.,Ltd. Mobile terminal having touch screen and method for providing user interface therein
KR20190019989A (en) * 2019-02-18 2019-02-27 삼성전자주식회사 Control method of terminal by using spatial interaction

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031799A (en) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc Control system and method
JP2008269208A (en) * 2007-04-19 2008-11-06 Calsonic Kansei Corp Operation detection system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031799A (en) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc Control system and method
JP2008269208A (en) * 2007-04-19 2008-11-06 Calsonic Kansei Corp Operation detection system

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098929A (en) * 2010-11-02 2012-05-24 Canon Inc Display control device and display control method
JP2012133524A (en) * 2010-12-21 2012-07-12 Sony Corp Image display controller and image display control method
US9703403B2 (en) 2010-12-21 2017-07-11 Sony Corporation Image display control apparatus and image display control method
CN102650912A (en) * 2011-02-23 2012-08-29 安国国际科技股份有限公司 Signal processing method and system of touch panel
JP2012234317A (en) * 2011-04-28 2012-11-29 Ntt Docomo Inc Display device, control method for display device and program
US10809844B2 (en) 2011-08-30 2020-10-20 Samsung Electronics Co., Ltd. Mobile terminal having a touch screen and method for providing a user interface therein
JP2018120636A (en) * 2011-08-30 2018-08-02 三星電子株式会社Samsung Electronics Co.,Ltd. Mobile terminal having touch screen and method for providing user interface therein
JP2020091912A (en) * 2011-08-30 2020-06-11 三星電子株式会社Samsung Electronics Co.,Ltd. Mobile terminal having touch screen and method for providing user interface therein
US11275466B2 (en) 2011-08-30 2022-03-15 Samsung Electronics Co., Ltd. Mobile terminal having a touch screen and method for providing a user interface therein
JP2013097798A (en) * 2011-10-27 2013-05-20 Samsung Electronics Co Ltd System and method for identifying type of input to mobile device with touch panel
US9495095B2 (en) 2011-10-27 2016-11-15 Samsung Electronics Co., Ltd. System and method for identifying inputs input to mobile device with touch panel
WO2013080425A1 (en) * 2011-12-01 2013-06-06 パナソニック株式会社 Input device, information terminal, input control method and input control program
JP2015500545A (en) * 2011-12-14 2015-01-05 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated Capacitive proximity based gesture input system
US9182870B2 (en) 2011-12-16 2015-11-10 Panasonic Intellectual Property Corporation Of America Touch panel and electronic device
US9052791B2 (en) 2011-12-16 2015-06-09 Panasonic Intellectual Property Corporation Of America Touch panel and electronic device
US9182869B2 (en) 2011-12-16 2015-11-10 Panasonic Intellectual Property Corporation Of America Touch panel and electronic device
US20130257796A1 (en) * 2012-03-29 2013-10-03 Brother Kogyo Kabushiki Kaisha Touch panel control device, touch panel control method and non-transitory computer-readable medium
US9195338B2 (en) 2012-03-29 2015-11-24 Brother Kogyo Kabushiki Kaisha Touch panel control device and non-transitory computer-readable medium
US20130257764A1 (en) * 2012-03-29 2013-10-03 Brother Kogyo Kabushiki Kaisha Touch panel control device and non-transitory computer-readable medium
US9164616B2 (en) 2012-03-29 2015-10-20 Brother Kogyo Kabushiki Kaisha Touch panel control device, touch panel control method and non-transitory computer-readable medium
US9298293B2 (en) 2012-04-19 2016-03-29 Panasonic Intellectual Property Corporation Of America Portable electronic apparatus
US9002419B2 (en) 2012-04-19 2015-04-07 Panasonic Intellectual Property Corporation Of America Portable electronic apparatus
JP2014160473A (en) * 2012-04-19 2014-09-04 Panasonic Intellectual Property Corp Of America Portable electronic equipment
JP2013235588A (en) * 2012-05-04 2013-11-21 Samsung Electronics Co Ltd Method for controlling terminal based on spatial interaction, and corresponding terminal
US8937609B2 (en) 2012-05-30 2015-01-20 Sharp Kabushiki Kaisha Touch sensor system
JP2013250596A (en) * 2012-05-30 2013-12-12 Sharp Corp Touch sensor system
WO2013179474A1 (en) * 2012-05-30 2013-12-05 シャープ株式会社 Touch sensor system
KR20130124139A (en) * 2012-11-21 2013-11-13 삼성전자주식회사 Control method of terminal by using spatial interaction
KR20130124138A (en) * 2012-11-21 2013-11-13 삼성전자주식회사 Control method of terminal by using spatial interaction
JP2014121854A (en) * 2012-12-21 2014-07-03 Konica Minolta Inc Image formation device and program
JP2015041264A (en) * 2013-08-22 2015-03-02 シャープ株式会社 Information processing device, information processing method, and program
KR20150024571A (en) * 2013-08-27 2015-03-09 삼성전자주식회사 Electronic device with using an infrared sensor and operation method thereof
KR102185204B1 (en) * 2013-08-27 2020-12-01 삼성전자주식회사 Electronic device with using an infrared sensor and operation method thereof
JP2015064799A (en) * 2013-09-25 2015-04-09 富士通コンポーネント株式会社 Combiner and operation detection device
US9939906B2 (en) 2013-09-25 2018-04-10 Fujitsu Component Limited Combiner and operation detection device
JP2015141425A (en) * 2014-01-27 2015-08-03 アルプス電気株式会社 Touch pad input device and touch pad control program
JP2017510879A (en) * 2014-01-28 2017-04-13 ▲華▼▲為▼終端有限公司Huawei Device Co., Ltd. Method and terminal device for processing a terminal device
JP2016045931A (en) * 2014-08-21 2016-04-04 京セラドキュメントソリューションズ株式会社 Image processing apparatus
US9846519B2 (en) 2014-12-22 2017-12-19 Alps Electric Co., Ltd. Input device, and method and program for controlling the same
JP2017054226A (en) * 2015-09-08 2017-03-16 アルプス電気株式会社 Input device including electrostatic capacitance type touch panel, and manufacturing method of input device
WO2017047416A1 (en) * 2015-09-14 2017-03-23 株式会社東海理化電機製作所 Operation detection device
JP2016042383A (en) * 2015-11-25 2016-03-31 カシオ計算機株式会社 User operation processing apparatus, user operation processing method, and program
KR20190019989A (en) * 2019-02-18 2019-02-27 삼성전자주식회사 Control method of terminal by using spatial interaction
KR102061254B1 (en) * 2019-02-18 2020-02-11 삼성전자 주식회사 Control method of terminal by using spatial interaction

Similar Documents

Publication Publication Date Title
JP2010244132A (en) User interface device with touch panel, method and program for controlling user interface
US9671893B2 (en) Information processing device having touch screen with varying sensitivity regions
US9250790B2 (en) Information processing device, method of processing information, and computer program storage device
JP4743267B2 (en) Information processing apparatus, information processing method, and program
JP5957834B2 (en) Portable information terminal, touch operation control method, and program
TWI514229B (en) Graphics editing method and electronic device using the same
JP5841590B2 (en) Information input device and information input method
US8581869B2 (en) Information processing apparatus, information processing method, and computer program
US9448714B2 (en) Touch and non touch based interaction of a user with a device
JP2010205050A (en) User interface device with touch panel, method, and program for controlling user interface
US20110157078A1 (en) Information processing apparatus, information processing method, and program
US9354780B2 (en) Gesture-based selection and movement of objects
JP2011014044A (en) Apparatus and method for controlling operation and computer program
JP2019109748A (en) Touch panel, air conditioning system comprising touch panel, and method for controlling touch panel
TWI389014B (en) Touchpad detection method
JP6123879B2 (en) Display device, display method, program thereof, and terminal device
JP2011134111A (en) Touch panel device, touch panel control method, program, and storage medium
CN107533394B (en) Touch screen device, operation method thereof and handheld device
US9477398B2 (en) Terminal and method for processing multi-point input
JP2012003404A (en) Information display device
JP2011134273A (en) Information processor, information processing method, and program
WO2012111227A1 (en) Touch input device, electronic apparatus, and input method
CN107621899B (en) Information processing apparatus, misoperation suppression method, and computer-readable storage medium
WO2013114499A1 (en) Input device, input control method, and input control program
US20150277649A1 (en) Method, circuit, and system for hover and gesture detection with a touch screen

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130604