JP2010117748A - Input device and input method - Google Patents

Input device and input method Download PDF

Info

Publication number
JP2010117748A
JP2010117748A JP2008288444A JP2008288444A JP2010117748A JP 2010117748 A JP2010117748 A JP 2010117748A JP 2008288444 A JP2008288444 A JP 2008288444A JP 2008288444 A JP2008288444 A JP 2008288444A JP 2010117748 A JP2010117748 A JP 2010117748A
Authority
JP
Japan
Prior art keywords
contact
contact information
point
unit
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008288444A
Other languages
Japanese (ja)
Inventor
Takuya Hirai
卓哉 平井
Atsushi Yamashita
敦士 山下
Tomohiro Terada
智裕 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008288444A priority Critical patent/JP2010117748A/en
Publication of JP2010117748A publication Critical patent/JP2010117748A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device and an input method for determining whether a right or left hand of a user is used using only a contact information detection part which can be operated by a plurality of fingers of the user. <P>SOLUTION: The input device configured to operate equipment with fingers placed on an operation face includes: a contact information detection part for detecting a plurality of coordinates of contact between the operation face and the plurality of fingers; a contact information history storage part for storing the detected contact coordinates; a related ID creation part for assigning ID to each stored contact coordinate; a gesture recognition part for recognizing a gesture on the basis of the history of each contact coordinate with the same ID assigned thereto; a right/left hand determination part for determining whether the finger placed on the operation face belongs to the right hand or the left hand on the basis of each contact coordinate stored in the contact information history storage part; and a command transmission part for transmitting a predetermined command to the equipment on the basis of the recognition result of the gesture recognition part and the determination result of the right/left hand determination part. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ユーザが機器に対して命令等を入力するための入力装置および入力方法に関し、より特定的には、ユーザがディスプレイ等に表示された情報に基づいて手等の身体部分を用いて、命令等を入力することのできる入力装置および入力方法に関する。   The present invention relates to an input device and an input method for a user to input a command or the like to a device, and more specifically, using a body part such as a hand based on information displayed on a display or the like by a user. The present invention relates to an input device and an input method capable of inputting commands and the like.

カーナビゲーションや携帯電話、パソコン、デジタルカメラ等の機器を操作するためのデバイスとして、ユーザが触った位置を検知するタッチパネルが一般的に普及している。近年では更に、接触している複数点を検知できるデバイスも徐々に様々な機器に搭載されてきている(例えば、特許文献1)
また、この中で、デジタルカメラにタッチパネルを搭載し、ユーザの左右の手を判別してタッチパネル上のメニュー位置を変更する装置がある(例えば、特許文献2参照)。
As a device for operating devices such as a car navigation system, a mobile phone, a personal computer, and a digital camera, a touch panel that detects a position touched by a user is generally widespread. In recent years, devices capable of detecting a plurality of touching points have been gradually installed in various devices (for example, Patent Document 1).
Among them, there is a device in which a touch panel is mounted on a digital camera, and the menu position on the touch panel is changed by discriminating the left and right hands of the user (see, for example, Patent Document 2).

これは、ユーザによって左右どちらの手を用いてもシャッターが切れ、かつシャッターに配置されたセンサーを用いて、どちらの手で操作しているかを判定し、タッチパネルを操作する際に、操作する手の近くにメニューが表示されるようになっている。
特公平7−82419号公報 特開2004−340991号公報
This is because the user can operate the touch panel by operating the touch panel by determining which hand is operated by the user using either the left hand or the right hand and using the sensor disposed on the shutter. The menu is displayed near.
Japanese Patent Publication No. 7-82419 JP 2004-340991 A

しかしながら、前記特許文献2の従来技術では、左右の手を判別するために別途センサーを設ける必要があり、コストがかかってしまうという問題があった。   However, the prior art of Patent Document 2 has a problem in that it is necessary to provide a separate sensor for discriminating the left and right hands, which increases costs.

本発明は、前記従来の問題を解決するためになされたもので、タッチパネルを操作する際に、タッチパネルへの接触情報のみで、ユーザの左右の手を特定することのできる入力装置および入力方法を提供することを目的とする。   The present invention has been made in order to solve the above-described conventional problems. An input device and an input method that can specify the left and right hands of a user only with contact information on the touch panel when operating the touch panel. The purpose is to provide.

本発明の第一の局面は、操作面におかれた指によって機器を操作する入力装置であって、操作面と複数の指との複数の接触座標を検知する接触情報検知部と、接触情報検知部で検知した接触座標を格納する接触情報履歴格納部と、接触情報履歴格納部に格納されている各接触座標に対してIDを付与する関連ID作成部と、関連ID作成部により同じIDを付与された各接触座標の履歴に基づいてジェスチャーを認識するジェスチャー認識部と、接触情報履歴格納部に格納されている各接触座標に基づいて、操作面に置かれた指が右手もしくは左手のものであるかを判定する左右手判定部と、ジェスチャー認識部による認識結果と左右手判定部の判定結果とに基づいて、予め決められたコマンドを前記機器に送信するコマンド送信部とを備える。   A first aspect of the present invention is an input device that operates a device with a finger placed on an operation surface, a contact information detection unit that detects a plurality of contact coordinates between the operation surface and the plurality of fingers, and contact information The contact information history storage unit that stores the contact coordinates detected by the detection unit, the related ID creation unit that assigns an ID to each contact coordinate stored in the contact information history storage unit, and the same ID by the related ID creation unit And a gesture recognition unit that recognizes a gesture based on the history of each contact coordinate, and a finger placed on the operation surface based on each contact coordinate stored in the contact information history storage unit A left and right hand determination unit that determines whether the object is a thing, and a command transmission unit that transmits a predetermined command to the device based on the recognition result by the gesture recognition unit and the determination result of the left and right hand determination unit .

また、左右手判定部は、複数の接触座標の相対的な位置関係に基づいて左右手を判定する。   The left and right hand determining unit determines the left and right hands based on the relative positional relationship of the plurality of contact coordinates.

また、接触情報検知部は操作面と複数の指との複数の接触座標に加えて接触面積を検知し、接触情報履歴格納部は接触情報検知部で検知した接触座標と接触面積を格納し、左右手判定部は接触情報履歴格納部に格納されている各接触座標の相対的な位置関係と接触面積に基づいて左右手を判定する。   Further, the contact information detection unit detects a contact area in addition to a plurality of contact coordinates between the operation surface and a plurality of fingers, and a contact information history storage unit stores the contact coordinates and the contact area detected by the contact information detection unit, The left and right hand determination unit determines the left and right hands based on the relative positional relationship and contact area of each contact coordinate stored in the contact information history storage unit.

また、ジェスチャー認識手段は、さらに、関連ID作成部により同じIDを付与された各接触座標の履歴に基づいて各接触座標の移動方向を算出し、左右手判定部は、ジェスチャー認識手段により算出された複数の接触座標の移動方向に基づいて左右手を判定する。   The gesture recognizing unit further calculates the movement direction of each contact coordinate based on the history of each contact coordinate given the same ID by the related ID creating unit, and the left and right hand determining unit is calculated by the gesture recognizing unit. The left and right hands are determined based on the movement direction of the plurality of contact coordinates.

また、ジェスチャー認識手段は、さらに、関連ID作成部により同じIDを付与された各接触座標の履歴に基づいて各接触座標の移動方向を算出し、左右手判定部は、ジェスチャー認識手段により算出された複数の接触座標の移動方向および複数の接触座標の相対的な位置関係に基づいて左右手を判定する。   The gesture recognizing unit further calculates the movement direction of each contact coordinate based on the history of each contact coordinate given the same ID by the related ID creating unit, and the left and right hand determining unit is calculated by the gesture recognizing unit. The left and right hands are determined based on the movement direction of the plurality of contact coordinates and the relative positional relationship of the plurality of contact coordinates.

また、左右手判定部は、さらに複数の接触座標の移動量を算出し、算出された複数の接触座標の移動方向と移動量に基づいて左右手を判定する。   The left and right hand determination unit further calculates the movement amounts of the plurality of contact coordinates, and determines the left and right hands based on the calculated movement directions and movement amounts of the plurality of contact coordinates.

また、接触情報検知部は操作面と複数の指との複数の接触座標に加えて接触面積を検知し、接触情報履歴格納部は接触情報検知部で検知した接触座標と接触面積を格納し、左右手判定部は、ジェスチャー認識手段により算出された複数の接触座標の移動方向と、接触情報履歴格納部に格納されている接触面積とに基づいて左右手を判定する。   Further, the contact information detection unit detects a contact area in addition to a plurality of contact coordinates between the operation surface and a plurality of fingers, and a contact information history storage unit stores the contact coordinates and the contact area detected by the contact information detection unit, The left and right hand determination unit determines the left and right hands based on the movement direction of the plurality of contact coordinates calculated by the gesture recognition unit and the contact area stored in the contact information history storage unit.

本発明の第2の局面は、操作面におかれた指によって機器を操作する入力方法に向けられている。そして、上記目的を達成させるために、本発明の入力方法は、操作面と複数の指との複数の接触座標を検知する接触情報検知ステップと、接触情報検知ステップで検知した接触座標を格納する接触情報履歴格納ステップと、接触情報履歴格納ステップで格納されてた各接触座標に対してIDを付与する関連ID作成ステップと、関連ID作成ステップにより同じIDを付与された各接触座標の履歴に基づいてジェスチャーを認識するジェスチャー認識ステップと、接触情報履歴格納ステップに格納されている各接触座標に基づいて、操作面に置かれた指が右手もしくは左手のものであるかを判定する左右手判定ステップと、ジェスチャー認識ステップによる認識結果と左右手判定ステップの判定結果とに基づいて、予め決められたコマンドを機器に送信するコマンド送信ステップとを備える。   The second aspect of the present invention is directed to an input method for operating a device with a finger placed on an operation surface. And in order to achieve the said objective, the input method of this invention stores the contact information detected by the contact information detection step which detects several contact coordinates of an operation surface and several fingers, and the contact information detection step. The contact information history storing step, the related ID creating step for assigning an ID to each contact coordinate stored in the contact information history storing step, and the history of each contact coordinate assigned with the same ID by the related ID creating step A gesture recognition step for recognizing a gesture based on the left hand and a left hand determination step for determining whether a finger placed on the operation surface is a right hand or a left hand based on each contact coordinate stored in the contact information history storage step And a predetermined command based on the recognition result in the gesture recognition step and the determination result in the left and right hand determination step. And a command transmission step of transmitting to the vessel.

本発明の入力装置および入力方法によれば、別途センサーを設けることなくユーザの左右手を判定することができるため、コストアップすることなく、左右の手に応じてアプリケーションを動作させることができるという効果を有する。   According to the input device and the input method of the present invention, it is possible to determine the left and right hands of the user without providing a separate sensor. Therefore, the application can be operated according to the left and right hands without increasing the cost. Have

以下、本発明の実施の形態の入力装置および入力方法について、図面を用いて説明する。   Hereinafter, an input device and an input method according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係る入力装置100のハードウエア構成例を示す図である。図1において、入力装置100は、接触情報検知部1と、演算部2とを備える。演算部2は、データの入出力を行うI/O11と、データやプログラム等を記憶するHDD(Hard Disk Drive)12と、BIOS等の基本プログラムを格納するROM13と、HDD12に記憶されたプログラム及びROM13に格納されたプログラムを実行するCPU14と、データを保持するRAM15と、画像データを処理する画像プロセッサ17と、画像データを保持するVRAM18と、これらの構成要素を接続するバス線16とを備える。   FIG. 1 is a diagram illustrating a hardware configuration example of an input device 100 according to an embodiment of the present invention. In FIG. 1, the input device 100 includes a contact information detection unit 1 and a calculation unit 2. The calculation unit 2 includes an I / O 11 that inputs and outputs data, an HDD (Hard Disk Drive) 12 that stores data, programs, and the like, a ROM 13 that stores basic programs such as BIOS, and programs and programs stored in the HDD 12. A CPU 14 that executes a program stored in the ROM 13, a RAM 15 that holds data, an image processor 17 that processes image data, a VRAM 18 that holds image data, and a bus line 16 that connects these components are provided. .

接触情報検知部1は、I/O11の入力側に接続され、ユーザの複数の指で接触した座標と面積(以後、座標と面積をあわせて接触情報とよぶ)を検知できるタッチパネルやタッチスクリーンであり、方式としては、静電容量式、抵抗膜式、光学式などを用いることができる。接触情報検知部1からI/O11の入力側に入力される接触情報は、RAM15に保持される。   The contact information detection unit 1 is connected to the input side of the I / O 11 and is a touch panel or touch screen that can detect the coordinates and area touched by a plurality of fingers of the user (hereinafter referred to as contact information by combining the coordinates and area). Yes, as a method, a capacitance type, a resistance film type, an optical type, or the like can be used. The contact information input from the contact information detection unit 1 to the input side of the I / O 11 is held in the RAM 15.

なお、接触情報検知部1が例えば光学式のタッチパネルの場合には、図2に示すようにX軸とY軸でそれぞれ独立に接触位置を判定するため、一意に接触座標を検知できない場合が存在する。これは、図2において、実際は点A(x1,y2)と点B(x2,y1)を接触しているにも関わらず、別の点C(x1,y1)と点D(x2,y2)が検出されるためである。このような場合、座標検知の際のサンプリングレートが十分(約20Hz以上)であれば、ユーザは意識的に同時に2点以上を接触させない限り時間差が生じるため、それぞれを区別して検知することができる。例えば、まず最初に点Aが接触し、次に点Bが接触されたとする。ここで、まず検知した座標(x1,y2)を点Aの座標として保存する。その後、次のタイミングでその他に新たに3点の座標である点B(x2,y1)、点C(x1,y1)、点D(x2,y2)が検知されるが、点Aの座標成分(x1,y2)を除いたものが新たにユーザの指の接触によって検知されるべき点と推定できる。それにより、(x2,y1)をユーザが接触した点Bの座標として保存する。このような処理を行うことで、簡易的に2点以上の座標が検知することができるようになる。   In the case where the contact information detection unit 1 is an optical touch panel, for example, as shown in FIG. 2, the contact position is independently determined on the X axis and the Y axis, and thus there may be cases where the contact coordinates cannot be detected uniquely. To do. This is because in FIG. 2, although the point A (x1, y2) and the point B (x2, y1) are actually touching, another point C (x1, y1) and point D (x2, y2) This is because is detected. In such a case, if the sampling rate at the time of coordinate detection is sufficient (about 20 Hz or more), the user can consciously detect each of them because a time difference occurs unless two or more points are consciously touched simultaneously. . For example, suppose that point A first touches and then point B touches. Here, first, the detected coordinates (x1, y2) are stored as the coordinates of the point A. After that, at the next timing, the points B (x2, y1), C (x1, y1), and D (x2, y2), which are three new coordinates, are detected. It can be estimated that the points except (x1, y2) should be newly detected by the touch of the user's finger. Thereby, (x2, y1) is stored as the coordinates of the point B where the user touches. By performing such processing, two or more coordinates can be easily detected.

図1に戻り、I/O11の出力側には、表示部3が接続される。表示部3は、画像データに対応する画像を表示するディスプレイである。また、I/O11の出力側には、入力装置100によって操作されるカーナビゲーション装置、オーディオ装置、エアコン等の操作対象機器4が接続される。演算部2は、接触情報検知部1で検知されたユーザの指示に基づいて、操作対象機器4に指示を出力する。   Returning to FIG. 1, the display unit 3 is connected to the output side of the I / O 11. The display unit 3 is a display that displays an image corresponding to the image data. Further, an operation target device 4 such as a car navigation device, an audio device, and an air conditioner operated by the input device 100 is connected to the output side of the I / O 11. The calculation unit 2 outputs an instruction to the operation target device 4 based on the user instruction detected by the contact information detection unit 1.

HDD12は、接触情報検知部1へのユーザの入力に基づいて操作対象機器4に送るコマンドを決定・送信したり、あるいは操作対象機器4を操作するためのGUIを表示部3に表示させるようにCPU14を機能させるための制御プログラム等を記憶している。   The HDD 12 determines and transmits a command to be sent to the operation target device 4 based on a user input to the contact information detection unit 1, or causes the display unit 3 to display a GUI for operating the operation target device 4. A control program for causing the CPU 14 to function is stored.

なお、入力装置100における制御は、ハードウエア、又はハードウエア及びソフトウエアの協働によって実行される。   Note that the control in the input device 100 is executed by hardware or the cooperation of hardware and software.

以下では、入力装置100の構成及び動作について、より詳しく説明する。まずは、入力装置100の構成から説明する。図3は、入力装置100の機能ブロックを示す図である。図3に示すように、入力装置100は、接触情報検知部1と、演算部130から構成される。   Hereinafter, the configuration and operation of the input device 100 will be described in more detail. First, the configuration of the input device 100 will be described. FIG. 3 is a diagram illustrating functional blocks of the input device 100. As illustrated in FIG. 3, the input device 100 includes a contact information detection unit 1 and a calculation unit 130.

演算部130は、関連ID作成部131と、接触情報履歴格納部132と、ジェスチャー認識部133と、左右手判定部134と、コマンド送信部135から構成される。   The calculation unit 130 includes a related ID creation unit 131, a contact information history storage unit 132, a gesture recognition unit 133, a left / right hand determination unit 134, and a command transmission unit 135.

関連ID作成部131は、過去の接触情報から現在取得した接触情報との関連性を算出し、各接触情報にIDを付与して、再度、接触情報履歴格納部132に現在の接触情報を格納する。この関連性とは、現在検知した接触情報が過去の接触情報のどの接触情報に対応するかを表したものである。   The related ID creation unit 131 calculates the relevance of the contact information currently acquired from the past contact information, assigns an ID to each contact information, and stores the current contact information in the contact information history storage unit 132 again. To do. This relationship indicates which contact information of the past contact information corresponds to the contact information detected at present.

接触情報履歴格納部132は、現在までの座標と接触面積の履歴を紐付けして保存している。   The contact information history storage unit 132 stores the coordinates up to the present and the history of the contact area in association with each other.

ジェスチャー認識部133は、接触情報履歴格納部132に格納されている接触情報履歴からユーザのジェスチャーを認識する。   The gesture recognition unit 133 recognizes the user's gesture from the contact information history stored in the contact information history storage unit 132.

左右手判定部134は、認識したジェスチャーからユーザが左右の手のどちらで操作したかを判別する。   The left and right hand determining unit 134 determines which of the left and right hands the user has operated from the recognized gesture.

コマンド送信部135は、左右手の判別結果から制御対象機器4に送信するコマンドを決定する。   The command transmission unit 135 determines a command to be transmitted to the control target device 4 from the discrimination result of the left and right hands.

次に、以上の様に構成される入力装置の全体の処理の流れを図4のフローチャートを用いて説明する。   Next, the overall processing flow of the input device configured as described above will be described with reference to the flowchart of FIG.

まず、ステップS101において、接触情報検知部1は、接触情報検知部1に触れたユーザの指の座標と面積(接触情報)を検知し、それらを出力する。接触情報検知部1の座標と面積の取得方法については、後述する。   First, in step S101, the contact information detection unit 1 detects the coordinates and area (contact information) of a user's finger that touches the contact information detection unit 1, and outputs them. A method for acquiring the coordinates and area of the contact information detection unit 1 will be described later.

次にステップS102において、関連ID作成部131は、接触情報検知部1が取得した接触情報と過去の接触情報と現在取得した接触情報との紐付けを行う。まず、関連ID作成部131は、接触情報履歴格納部132を参照し、過去の接触情報から取得した接触情報の関連性を算出する。この関連性の算出方法については後述する。次に、関連ID作成部131は、今回検知した接触情報に過去の接触情報との関連を表すIDを付与して、接触情報履歴格納部132に保存する。   Next, in step S <b> 102, the related ID creation unit 131 associates the contact information acquired by the contact information detection unit 1 with the past contact information and the currently acquired contact information. First, the related ID creation unit 131 refers to the contact information history storage unit 132 and calculates the relevance of the contact information acquired from the past contact information. A method for calculating this relationship will be described later. Next, the related ID creating unit 131 assigns an ID representing the relationship with the past contact information to the contact information detected this time, and stores it in the contact information history storage unit 132.

次にステップS103において、ジェスチャー認識部133は、複数の接触情報の履歴を接触情報履歴格納部132から参照し、接触情報履歴から各IDで関連付けられた各接触情報の移動方向や移動量や出現/消失パターンを用いて、各種ジェスチャーを認識する。このジェスチャーの認識方法については後述する。   Next, in step S103, the gesture recognition unit 133 refers to a plurality of contact information histories from the contact information history storage unit 132, and from the contact information history, the movement direction, movement amount, and appearance of each contact information associated with each ID. / Recognize various gestures using disappearance patterns. A method for recognizing this gesture will be described later.

次にステップS104において、左右手判定部134は、各IDによって関連付けられた接触情報の移動方向や移動量や出現/消失パターンなどからユーザの指による操作が右手、もしくは左手で操作されたものかを判定し、コマンド送信部135に判定結果を出力する。この左右手の判定方法については後述する。   Next, in step S104, the left / right hand determining unit 134 determines whether the operation by the user's finger is performed with the right hand or the left hand based on the moving direction, moving amount, appearance / disappearance pattern, etc. of the contact information associated with each ID. The determination result is output to the command transmission unit 135. This left and right hand determination method will be described later.

次にステップS105において、コマンド送信部135は、入力されたジェスチャーの結果と左右手の判定結果に基づいて、制御対象機器4に各種パラメータを送信する。   In step S <b> 105, the command transmission unit 135 transmits various parameters to the control target device 4 based on the input gesture result and the left and right hand determination results.

例えば、図5のように、親指と人指し指の2点を接触情報検知部1に接触させ、開いたり閉じたりするジェスチャーをジェスチャー認識部133が認識し、かつ左右手判定部134が右手による操作であることを判定した場合に、音量を変更するというコマンドが割り当てられているとする。その場合、接触している2点の座標の距離に応じて音量のパラメータを制御対象機器4に送信する。   For example, as shown in FIG. 5, the gesture recognition unit 133 recognizes the gesture of opening and closing two points of the thumb and the index finger with the contact information detection unit 1, and the right and left hand determination unit 134 is an operation with the right hand. Assume that a command for changing the sound volume is assigned. In this case, a volume parameter is transmitted to the control target device 4 according to the distance between the coordinates of the two points in contact.

また別の例として、車両運転の安全性確保のために走行中の運転者の制御対象機器4への入力を一部規制/制限するカーナビゲーション等において、接触情報検知部1が図6(a)のようにセンターコンソールの位置に取り付けられ、遠隔で操作するような形態で使用されるとする。その場合、運転席からの操作は必然的に左手で操作するようになり、また助手席からの操作は右手で操作するようになる。この性質を利用して、例えば図5のようなジェスチャーが、カーナビゲーションの地図の縮尺変更のコマンドに割り当てられており、かつこれを認識し、左右手判定部134が左手による操作であると判定した場合には、操作しているユーザが運転手であると推定する。そして、コマンド送信部135は、縮尺のパラメータを図5(a)の状態から図5(b)の状態になったときに、初めて縮尺のパラメータを変更する。   As another example, in car navigation or the like that partially restricts / limits the input to the control target device 4 of the driver who is traveling in order to ensure the safety of vehicle driving, the contact information detection unit 1 is shown in FIG. ) Is attached to the position of the center console as shown in FIG. In this case, the operation from the driver's seat is necessarily operated with the left hand, and the operation from the passenger seat is performed with the right hand. Utilizing this property, for example, a gesture as shown in FIG. 5 is assigned to a command for changing the scale of a map for car navigation, and this is recognized, and the left / right hand determining unit 134 determines that the operation is a left hand operation. In this case, it is estimated that the user who is operating is the driver. Then, the command transmission unit 135 changes the scale parameter for the first time when the scale parameter changes from the state of FIG. 5A to the state of FIG. 5B.

また、同様に右手を検出した場合は、助手席からの操作と推定し、接触している2点間の距離に応じてパラメータを細かく変更する。これにより、運転中に運転者が操作した場合、細かい操作を行うことがないため、運転操作に集中でき、安全に制御対象機器を操作することができるようになる。また、助手席の操作では1度のジェスチャーで細かい操作ができ、かつ直感的に操作することができるようになる。なお、右側の座席が助手席、左側の座席が運転席の場合は左右手の判定結果から制御対象機器4に出力するパラメータは反対になる。   Similarly, when the right hand is detected, it is presumed that the operation is from the passenger seat, and the parameter is finely changed according to the distance between the two touching points. As a result, when the driver operates during driving, no detailed operation is performed, so that the driver can concentrate on the driving operation and can safely operate the device to be controlled. Further, in the operation of the passenger seat, a fine operation can be performed with one gesture and an intuitive operation can be performed. When the right seat is the passenger seat and the left seat is the driver seat, the parameters output to the control target device 4 from the left and right hand judgment results are opposite.

なお、左右手判定部134が、左右手の判定が不能であった場合は、左右手の判定が不能であったことをユーザに伝えるために、ポップアップを用いた表示や、エラーを伝えるための音声などを出力しても良い。   If the left and right hand determination unit 134 cannot determine the left and right hands, a display using a pop-up or a voice for transmitting an error is used to notify the user that the determination of the left and right hands is impossible. It may be output.

また、本実施の形態では、接触情報検知部1に対して操作者がどの方向から手を進入させたかを知る必要がある。そのため、接触情報検知部1に対して操作者がどの方向から手を進入させるかは、予め分っているものとする。   In the present embodiment, it is necessary to know from which direction the operator has entered the hand with respect to the contact information detection unit 1. Therefore, it is assumed in advance from which direction the operator enters the hand with respect to the contact information detection unit 1.

図6は接触情報検知部1の車への設置位置の例を示している。図6(a)は車両のセンターコンソールに取り付けられた場合の一例を示す図である。図6(b)は、接触情報検知部1が車両のハンドルに取り付けられた場合の一例を示す図である。図6(c)は、接触情報検知部1が、カーナビゲーションなどのディスプレイに取り付けられた場合の一例を示す図である。図6(a)に示すような車両の位置に、接触情報検知部1を取り付けることで、ドライバであるユーザは接触情報検知部1に対して左手を矢印601の方向に進入させることは予め分る。また、図6(b)に示すような車両の位置に、取り付けることで、ドライバであるユーザは接触情報検知部1に対して左手を矢印602の方向に進入させることは予め分る。また、図6(c)に示すような車両位置に、取り付けることで、ドライバであるユーザは接触情報検知部1に対して左手を矢印603の方向に進入させることは予め分る。   FIG. 6 shows an example of the position where the contact information detector 1 is installed in the vehicle. FIG. 6A is a diagram showing an example when the vehicle is attached to the center console of the vehicle. FIG. 6B is a diagram illustrating an example when the contact information detection unit 1 is attached to the steering wheel of the vehicle. FIG.6 (c) is a figure which shows an example at the time of the contact information detection part 1 being attached to displays, such as a car navigation. By attaching the contact information detection unit 1 to the position of the vehicle as shown in FIG. 6A, it is known in advance that the user who is a driver makes the left hand enter the direction of the arrow 601 with respect to the contact information detection unit 1. The In addition, by attaching to the position of the vehicle as shown in FIG. 6B, it is known in advance that the user who is the driver makes the left hand enter the direction of the arrow 602 with respect to the contact information detection unit 1. In addition, by attaching to the vehicle position as shown in FIG. 6C, it is known in advance that the user who is a driver causes his / her left hand to enter the direction of the arrow 603 with respect to the contact information detection unit 1.

次に、以下では、図4を用いて説明した各ステップについて、詳細に説明する。   Next, each step described with reference to FIG. 4 will be described in detail.

図7は、図4のステップS101における接触情報検知部1の動作について説明するための図である。図7(a)は、接触情報検知部1の操作面に操作者の手か置かれた状態の一例を示す。図7(b)は、接触情報検知部1が検知した接触点群を黒丸群で表した図である。図7に示すように、接触情報検知部1は、図4のステップS101において、接触点(接触点群)を検知することによって、指の接触領域を検知する。   FIG. 7 is a diagram for explaining the operation of the contact information detection unit 1 in step S101 of FIG. FIG. 7A shows an example of a state where the operator's hand is placed on the operation surface of the contact information detection unit 1. FIG. 7B is a diagram illustrating the contact point group detected by the contact information detection unit 1 as a black circle group. As shown in FIG. 7, the contact information detection unit 1 detects a contact area of a finger by detecting a contact point (contact point group) in step S <b> 101 of FIG. 4.

図8は、図4のステップS101を詳細に説明するためのフローチャートである。図9は、図4のステップS101で取得される接触座標を説明するための図である。以下、図8および図9を用いて、図4のステップS101の処理を詳細に説明する。   FIG. 8 is a flowchart for explaining step S101 of FIG. 4 in detail. FIG. 9 is a diagram for explaining the contact coordinates acquired in step S101 of FIG. Hereinafter, the processing in step S101 in FIG. 4 will be described in detail with reference to FIGS.

まず、S101−1において、接触情報検知部1は、図7(b)を用いて説明した接触点群を示すデータを取得する。   First, in S101-1, the contact information detection part 1 acquires the data which show the contact point group demonstrated using FIG.7 (b).

次に、ステップS101−2において、接触情報検知部1は、接触点の位置関係に基づいて、図9の楕円で示す複数の領域を算出する。S101−2において複数の領域を算出する方法は、一般的な方法でよい。例えば、接触点の近傍に他の接触点が存在する場合はこれらの接触点を同一の領域とみなすことによって、複数の領域に区分する方法がある。   Next, in step S101-2, the contact information detection unit 1 calculates a plurality of regions indicated by ellipses in FIG. 9 based on the positional relationship between the contact points. A general method may be used as a method of calculating a plurality of regions in S101-2. For example, when there are other contact points in the vicinity of the contact point, there is a method of dividing these contact points into a plurality of regions by regarding them as the same region.

次に、ステップS101−3において、接触情報検知部1は、ステップS101−2で算出した各領域に対して、楕円フィッティング処理を行う。図9は、接触座標の算出方法について説明するための図ある。ステップS101−3において、接触情報検知部1は、図9(a)の楕円Aで示すように指の接触点群を楕円で囲む。その後、接触情報検知部1は、例えば、楕円Aの中心を接触座標とする(図9(b)を参照)。なお、接触座標は、他の方法を用い、また、他の位置に決定してもよい。   Next, in step S101-3, the contact information detection unit 1 performs an ellipse fitting process on each area calculated in step S101-2. FIG. 9 is a diagram for explaining a method of calculating contact coordinates. In step S101-3, the contact information detection unit 1 encloses the contact point group of the finger with an ellipse as indicated by an ellipse A in FIG. Thereafter, the contact information detection unit 1 uses, for example, the center of the ellipse A as the contact coordinates (see FIG. 9B). The contact coordinates may be determined at other positions using other methods.

接触座標を決定した後、接触座標について接触面積を求める。接触面積は、各指先が接触情報検知部1に接触している面積で、例えば、上記の様に接触座標を楕円フィッティングで求めた場合には楕円の面積を計算することで求めることができる。また、各領域内にある接触点の数を接触面積とすることもできる。   After determining the contact coordinates, the contact area is obtained for the contact coordinates. The contact area is an area where each fingertip is in contact with the contact information detection unit 1. For example, when the contact coordinates are obtained by ellipse fitting as described above, the contact area can be obtained by calculating the area of the ellipse. Further, the number of contact points in each region can be used as the contact area.

次に、ステップS101−4において、接触情報検知部1は、ステップS101−3で取得した接触座標と接触面積を接触情報履歴格納部132に保存する。図10は、図8のステップS101−3で取得された接触座標の位置の一例を示す図である。図10において、黒丸は接触座標1001、点線の楕円1002は接触面積の領域を示している。   Next, in step S101-4, the contact information detection unit 1 stores the contact coordinates and the contact area acquired in step S101-3 in the contact information history storage unit 132. FIG. 10 is a diagram illustrating an example of the position of the contact coordinates acquired in step S101-3 in FIG. In FIG. 10, black circles indicate contact coordinates 1001, and dotted ellipses 1002 indicate contact area regions.

図4のステップS102における関連ID作成部の処理の流れについて、図11と図12を用いて説明する。   The flow of processing of the related ID creation unit in step S102 in FIG. 4 will be described with reference to FIGS.

ここで、今回ステップS102の処理を、接触情報検知部1をユーザの片手全ての指先(5点)が接触した例を用いて説明する。   Here, the process of step S102 this time will be described using an example in which all the fingertips (5 points) of the user's one hand are in contact with the contact information detection unit 1.

図12(a)は、前回ユーザが接触情報検知部1に接触した状態を表しており、また、図12(b)は、このときの接触情報履歴格納部132に格納されている各点の情報を表している。つまり、図12(a)の各点(点A、点B、点C、点D、点E)は、点AがID“1”、点BがID“2”、点CがID“3”、点DがID“4”、点EがID“5”と関連付けて格納され、それぞれ同様のグループ名“10”を付与されていることを表している。このグループ名とは、同じタイミングで取得された各接触情報をグループ化したものであり、関連ID作成部131は、同じタイミングで取得された各接触情報に同様の名前、もしくは番号を付与し、グループ化する。   FIG. 12A shows a state in which the previous user has touched the contact information detection unit 1, and FIG. 12B shows each point stored in the contact information history storage unit 132 at this time. Represents information. That is, for each point (point A, point B, point C, point D, point E) in FIG. 12A, the point A is ID “1”, the point B is ID “2”, and the point C is ID “3”. ", Point D is stored in association with ID" 4 ", point E is associated with ID" 5 ", and the same group name" 10 "is assigned. This group name is a group of contact information acquired at the same timing, and the related ID creation unit 131 gives a similar name or number to each contact information acquired at the same timing, Group.

次に、前回、図12(b)のように接触情報履歴格納部132に各点の接触情報が格納されているとして、図11を用いてS102の処理の詳細な流れを説明する。   Next, assuming that contact information of each point is stored in the contact information history storage unit 132 as shown in FIG. 12B last time, a detailed flow of the processing of S102 will be described with reference to FIG.

まず、ステップS102−1において、関連ID作成部131は、接触情報検知部1から接触情報が入力されたかを判定する。接触情報が取得された場合にはステップS102−2に移行し、接触情報が1つも入力されていない場合(ユーザが接触情報検知部1にどの指も接触していない場合)は、ステップS102−13に移行し、関連ID作成部131は、グループ名のみを付与して接触情報履歴格納部132に保存する。これにより、接触していないことを表すことができる。   First, in step S102-1, the related ID creation unit 131 determines whether contact information is input from the contact information detection unit 1. When the contact information is acquired, the process proceeds to step S102-2, and when no contact information is input (when no finger is in contact with the contact information detection unit 1), the process proceeds to step S102-. 13, the related ID creation unit 131 assigns only the group name and stores it in the contact information history storage unit 132. Thereby, it can represent that it is not contacting.

次に、ステップS102−2とステップS102−3において、関連ID作成部131は、接触情報履歴格納部132に格納されている前回の各接触情報の座標値を参照し、前回のタイミングで各座標が接触情報履歴格納部132に格納されているかを確認する。図12(b)のように5点の接触情報が格納されている場合にはステップS102−4に移行し、前回ユーザが指を接触情報検知部1に接触していないため接触情報が格納されていない場合は、ステップS102−11に移行する。   Next, in step S102-2 and step S102-3, the related ID creation unit 131 refers to the coordinate value of each previous contact information stored in the contact information history storage unit 132, and each coordinate at the previous timing. Is stored in the contact information history storage unit 132. When contact information of 5 points is stored as shown in FIG. 12B, the process proceeds to step S102-4, and the contact information is stored because the previous user has not touched the contact information detection unit 1. If not, the process proceeds to step S102-11.

次に、ステップS102−4において、関連ID作成部131は、前回の各接触情報と今回検知した各接触情報の座標間の距離を算出する。例えば、図13(a)に示すように、前回検知した各点(点A、点B、点C、点D、点E)から、今回検知した各点(点A’、点B’、点C’、点D’、点E’)に移動する。ここで、今回検知した各点の接触情報を図13(b)に示す。このとき、例えば今回と前回取得した各点間の距離は、図13(c)に示すように算出される。   Next, in step S102-4, the related ID creation unit 131 calculates the distance between the coordinates of the previous contact information and the contact information detected this time. For example, as shown in FIG. 13A, each point (point A ′, point B ′, point E) detected this time from each point (point A, point B, point C, point D, point E) detected last time. C ′, point D ′, point E ′). Here, the contact information of each point detected this time is shown in FIG. At this time, for example, the distance between each point acquired this time and the previous time is calculated as shown in FIG.

次に、ステップS102−5において、関連ID作成部131は、S102−4で算出した座標間の距離のうち、最も距離が短くなった前回の接触情報を2つ1組としてそれぞれ抽出する。図13(c)のような結果の場合は、今回取得した点A’に対して一番距離の短い点は点Aになり、点B’は点B、点C’は点C、点D’は点D、点E’は点Eがお互いの組として抽出する。   Next, in step S102-5, the related ID creating unit 131 extracts the previous contact information with the shortest distance as a set of two distances among the coordinates calculated in S102-4. In the case of the result as shown in FIG. 13C, the point having the shortest distance from the currently acquired point A ′ is the point A, the point B ′ is the point B, the point C ′ is the point C, and the point D. 'Is point D and point E' is extracted as a pair of points E.

次に、ステップS102−6、S102−7において、関連ID作成部131は、前回と今回取得した接触情報の座標数を比較し、互いの座標数に応じて移行する処理を変更する。図13の場合は、前回は5点、今回も5点を接触情報検知部1で検知しているため、同じ数となり、ステップS102−8に移行する。その他の場合については後述する。   Next, in steps S102-6 and S102-7, the related ID creation unit 131 compares the number of coordinates of the contact information acquired last time and this time, and changes the process of shifting according to the number of coordinates. In the case of FIG. 13, since the contact information detection unit 1 has detected 5 points last time and 5 points this time, the number is the same, and the process proceeds to step S102-8. Other cases will be described later.

次に、ステップS102−8において、関連ID作成部131は、今回検知した接触情報に対応する前回の接触情報のIDを継承して接触情報履歴格納部132に保存する。つまり、ステップS102−5で抽出した組から、継承するIDを決定し、保存する。図13の場合、点A’に対応する前回の接触情報は点Aとなるため、点AのID“1”を点A’に継承する。その他の点についても同様にIDを継承する。   Next, in step S <b> 102-8, the related ID creation unit 131 inherits the previous contact information ID corresponding to the contact information detected this time and stores it in the contact information history storage unit 132. That is, the inherited ID is determined from the set extracted in step S102-5 and stored. In the case of FIG. 13, since the previous contact information corresponding to the point A ′ is the point A, the ID “1” of the point A is inherited to the point A ′. The ID is similarly inherited for other points.

次に、ステップS102−12において、関連ID作成部131は、今回取得した各接触情報に同一のグループ名を付与して、接触情報履歴格納部1に保存する。その後ステップS103に移行する。   Next, in step S <b> 102-12, the related ID creation unit 131 assigns the same group name to each contact information acquired this time and stores it in the contact information history storage unit 1. Thereafter, the process proceeds to step S103.

ステップS102−7において、接触情報検知部1が取得した今回の座標数が、前回取得した座標数に比べ少ない場合は、ステップS102−9に移行する。   In step S102-7, when the current number of coordinates acquired by the contact information detection unit 1 is smaller than the previously acquired number of coordinates, the process proceeds to step S102-9.

次に、ステップS102−9において、関連ID作成部131は、今回取得した各接触情報ごとに、距離が短くなる前回の接触情報を抽出し、前回の接触情報のIDを今回取得した接触情報のIDとして継承し、接触情報履歴格納部1に保存する。ここで、図14(a)のように、前回の接触情報が5点(点A、点B、点C、点D、点E)であり、今回入力された接触情報が4点(点A’、点B’、点D’、点E’)のときを例として説明する。前回と今回取得した各座標間の距離は図14(b)に示すような値であったとする。図14(b)において、点A’との距離が一番短くなるのは点Aであり、点B’は点B、点D’は点D、点E’は点Eとなる。そして、点A’については点AのIDを継承し、その他の点B’、点D’、点E’についても、対応するIDを継承し、接触情報履歴格納部132に保存する。その後ステップS102−12に移行する。   Next, in step S102-9, for each contact information acquired this time, the related ID creation unit 131 extracts the previous contact information for which the distance becomes shorter, and the ID of the previous contact information for the contact information acquired this time is extracted. It is inherited as an ID and stored in the contact information history storage unit 1. Here, as shown in FIG. 14A, the previous contact information is 5 points (point A, point B, point C, point D, point E), and the contact information input this time is 4 points (point A). ', Point B', point D ', point E') will be described as an example. It is assumed that the distance between each coordinate acquired last time and this time is a value as shown in FIG. In FIG. 14B, the distance from the point A ′ is the shortest at the point A, the point B ′ is the point B, the point D ′ is the point D, and the point E ′ is the point E. The point A ′ inherits the ID of the point A, and the other points B ′, D ′, and E ′ also inherit the corresponding IDs and store them in the contact information history storage unit 132. Thereafter, the process proceeds to step S102-12.

ステップS102−7において、接触情報検知部1が取得した今回の座標数が、前回取得した座標数に比べ多い場合は、ステップS102−10に移行する。   In step S102-7, when the current number of coordinates acquired by the contact information detection unit 1 is larger than the number of coordinates acquired last time, the process proceeds to step S102-10.

次に、ステップS102−10おいて、関連ID作成部131は、今回取得した各接触情報と、前回取得した各接触情報との距離が短い方から順に、前回の接触情報のIDを今回の接触情報に継承して接触情報履歴格納部132に保存する。ここで、図15(a)のように、前回の接触情報が4点(点A、点B、点D、点E)であり、今回入力された接触情報が5点(点A’、点B’、点C’、点D’、点E’)のときを例として説明する。前回と今回取得した各座標間の距離は図15(b)に示すような値であったとする。図15(b)に示すように一番短い2点間の距離は、“1”であり、点A’は点A、点E’は点Eの組を抽出し、点Aと点EのIDをそれぞれ点A’と点E’に継承し保存する。次に、短い距離としては“2”であり、点B’は点B、点D’は点DのIDをそれぞれ継承し保存する。   Next, in step S102-10, the related ID creation unit 131 sets the previous contact information ID for the current contact in order from the shortest distance between each contact information acquired this time and each contact information acquired last time. The information is inherited and stored in the contact information history storage unit 132. Here, as shown in FIG. 15A, the previous contact information is 4 points (point A, point B, point D, point E), and the contact information input this time is 5 points (point A ′, point A). A case of B ′, point C ′, point D ′, point E ′) will be described as an example. It is assumed that the distance between each coordinate acquired last time and this time is a value as shown in FIG. As shown in FIG. 15B, the shortest distance between two points is “1”, a point A ′ is a point A, a point E ′ is a point E, and a pair of points A and E is extracted. The ID is inherited and saved at points A ′ and E ′, respectively. Next, the short distance is “2”, the point B ′ inherits and stores the ID of the point B, and the point D ′ inherits the ID of the point D.

次に、ステップS102−11において、関連ID作成部131は、今回接触情報検知部1が検知した接触情報の中でIDが付与されていない接触情報に新規IDを付与して、接触情報履歴格納部132に保存する。図15の場合、ステップS102−10でIDが検証されていない接触情報は点C’となるため、関連ID作成部131は、点C’に新規IDを付与して保存する。その後、ステップS102−12に移行する。   Next, in step S102-11, the related ID creation unit 131 assigns a new ID to the contact information to which no ID is assigned among the contact information detected by the contact information detection unit 1 this time, and stores the contact information history. Stored in the unit 132. In the case of FIG. 15, since the contact information whose ID has not been verified in step S102-10 is the point C ', the related ID creation unit 131 assigns a new ID to the point C' and stores it. Thereafter, the process proceeds to step S102-12.

次に、ステップS103のジェスチャー認識の処理と、ステップS104の左右手判定の処理について詳細に説明する。ここで、これらの処理について、いくつかの方法に分けて、それぞれの方法についてフローチャート等を用いて説明する。   Next, the gesture recognition process in step S103 and the left and right hand determination process in step S104 will be described in detail. Here, these processes are divided into several methods, and each method will be described using a flowchart or the like.

(1)静的な相対位置から左右手を判別する場合
図16のフローチャートは、ユーザが接触情報検知部1に指を接触させたときに、接触情報の各座標の相対位置からユーザの左右手を判定する場合の処理の流れを示している。
(1) Case of discriminating left and right hands from static relative position The flowchart of FIG. 16 determines the user's left and right hands from the relative position of each coordinate of the contact information when the user touches the contact information detecting unit 1 with a finger. The flow of processing when doing this is shown.

まず、ステップS103−1aにおいて、ジェスチャー認識部133は、制御対象となる制御対象機器4から現在のモードを取得する。このモードとは、どのような画面を表示しているか、または、どのような機能を実行しているか、もしくはどのような機能を実行できるかを表すものである。例えば、制御対象機器4がカーナビゲーションで地図画面を表示している場合、地図のスクロールや縮尺の変更、目的地の設定等の機能を実行できる。ここで、図16における取得したモードは、地図画面上で地図の縮尺が変更できるモードとする。そして、この機能を実行するためには、図5のように、人指し指と親指を接触情報検知部1に接触し、互いの指を開いたり閉じたりすることで、縮尺を変更できることとする。   First, in step S103-1a, the gesture recognition unit 133 acquires the current mode from the control target device 4 to be controlled. This mode represents what screen is being displayed, what function is being executed, or what function can be executed. For example, when the control target device 4 displays a map screen by car navigation, functions such as map scrolling, scale change, and destination setting can be executed. Here, the acquired mode in FIG. 16 is a mode in which the scale of the map can be changed on the map screen. In order to execute this function, it is assumed that the scale can be changed by bringing the forefinger and the thumb into contact with the contact information detection unit 1 and opening and closing each other as shown in FIG.

次に、S103−2aにおいて、ジェスチャー認識部133は、接触情報履歴格納部132から各グループ名単位で、最新の接触情報から過去数個の接触情報を取得する。このとき取得する接触情報の数は、接触情報検知部1が接触情報を取得するサンプリングレートに依存する。例えば、接触情報検知部1のサンプリングレートが20Hzだとすると、1秒間に20回各接触情報を取得し、接触情報履歴格納部132にそれぞれ格納している。そのため、1秒間の接触情報を取得したい場合は、20個の接触情報を取得すればよいこととなる。   Next, in S103-2a, the gesture recognition unit 133 acquires the past several pieces of contact information from the latest contact information for each group name from the contact information history storage unit 132. The number of contact information acquired at this time depends on the sampling rate at which the contact information detection unit 1 acquires the contact information. For example, if the sampling rate of the contact information detection unit 1 is 20 Hz, each contact information is acquired 20 times per second and stored in the contact information history storage unit 132, respectively. Therefore, when it is desired to acquire contact information for one second, it is sufficient to acquire 20 pieces of contact information.

次に、S103−3aにおいて、ジェスチャー認識部133は、一定時間内に同数の接触情報が存在するかを判定する。例えば、接触情報履歴格納部1から10個のグループ(0.5秒間)を取得したとし、連続して1グループにつき2点の接触情報が存在しているかを判定する。このとき、1グループでも2点以外(1点や3点)が存在する場合は、ステップS101に処理を移行する。また、同数存在した場合は、ステップS103−4aに移行する。
次に、S103−4aにおいて、ジェスチャー認識部133は、各接触情報の移動量は閾値以内かを判定する。例えば、取得した10個のグループの各接触情報のIDを参照し、同じIDの接触情報の移動量が閾値以内であるかどうかを判定する。つまり、一定時間(本例の場合は0.5秒)の間、各座標が大きく動いていないかを判定する。ジェスチャー認識部133が、各座標が所定の閾値より大きく動いたと判定した場合は、ステップS101に処理を移行し、所定の閾値以内と判定した場合は、ステップS104−1aに移行する。
Next, in S103-3a, the gesture recognizing unit 133 determines whether or not the same number of contact information exists within a predetermined time. For example, assuming that 10 groups (0.5 seconds) have been acquired from the contact information history storage unit 1, it is determined whether two points of contact information exist continuously for each group. At this time, if there is a point other than 2 points (1 point or 3 points) in one group, the process proceeds to step S101. If the same number exists, the process proceeds to step S103-4a.
Next, in S103-4a, the gesture recognition unit 133 determines whether the movement amount of each contact information is within a threshold value. For example, referring to the IDs of the acquired contact information of the 10 groups, it is determined whether or not the movement amount of the contact information with the same ID is within a threshold. That is, it is determined whether or not each coordinate has moved significantly for a certain period of time (in this example, 0.5 seconds). When the gesture recognizing unit 133 determines that each coordinate has moved more than a predetermined threshold, the process proceeds to step S101, and when it is determined that the coordinate is within the predetermined threshold, the process proceeds to step S104-1a.

次に、ステップS104−1aにおいて、左右手判定部134は、取得した接触情報のうち一番新しく格納された接触情報の座標値を参照し、それぞれの相対位置から左右手を判定する。この相対位置の関係から左右手を判定する場合は、2点のうちのY座標が小さい(図17の座標系)方が親指であることに着目している。これは、図5のような動作を行う場合、通常、人指し指のY座標の値に比べ、親指のY座標の値の方が小さくなるためである。   Next, in step S104-1a, the left / right hand determining unit 134 refers to the coordinate value of the contact information stored most recently among the acquired contact information, and determines the left / right hand from each relative position. When the left and right hands are determined from the relationship between the relative positions, attention is paid to the fact that the Y coordinate of the two points (the coordinate system in FIG. 17) is the thumb. This is because when the operation as shown in FIG. 5 is performed, the Y coordinate value of the thumb is usually smaller than the Y coordinate value of the index finger.

次に、図17〜19を用いて左右手を判定する方法について説明する。   Next, a method for determining the left and right hands will be described with reference to FIGS.

図17(a)は、2点A、BのY座標を比較した結果、Y座標が小さい点AのX座標より、もう一方の点BのX座標が大きいことを表している。この場合、親指の右側(X座標が大きい)に他の点が接触情報として検知されているため、図5のような操作を行っている場合、左右手判定部134は右手と判定する。また、図17(b)は、Y座標が小さい点BのX座標より、もう一方の点AのX座標が小さいため、左右手判定部132は左手と判定する。なお、図18(a)に示すように2点のX座標が一致もしくはX座標同士の距離が閾値以下の場合や、図18(b)に示すように2点のY座標が一致もしくはY座標同士の距離が閾値以下の場合には、左右手の判定不能とする。   FIG. 17A shows that the X coordinate of the other point B is larger than the X coordinate of the point A having a small Y coordinate as a result of comparing the Y coordinates of the two points A and B. In this case, since another point is detected as contact information on the right side of the thumb (the X coordinate is large), the left / right hand determining unit 134 determines that the hand is a right hand when the operation shown in FIG. 5 is performed. In FIG. 17B, the X coordinate of the other point A is smaller than the X coordinate of the point B having a small Y coordinate, so the left / right hand determining unit 132 determines that the hand is a left hand. It should be noted that, as shown in FIG. 18 (a), when the X coordinates of the two points are coincident or the distance between the X coordinates is equal to or smaller than the threshold value, or when the Y coordinates of the two points are coincident or as shown in FIG. If the distance between the two is less than or equal to the threshold value, the left and right hands cannot be determined.

以上のように、接触情報検知部1に接触した状態で、指を動かさずに左右手を判別することによって、左右手を判別するために特別に指を動かさなくてよく、処理負荷もかからずに左右手を判別することが可能になる。   As described above, it is not necessary to move the finger specially in order to discriminate between the left and right hands by discriminating between the left and right hands without moving the fingers in the state of being in contact with the contact information detection unit 1, and processing load is not applied. It becomes possible to distinguish left and right hands.

また、図16の処理の流れにおいて、取得したモードが、ユーザの左右手を判別するためだけのモードであっても構わない。さらに、上記の例では、2点の接触情報の座標を用いた例で処理を説明したが、5点まで接触情報を用いても構わない。   Further, in the processing flow of FIG. 16, the acquired mode may be a mode only for determining the left and right hands of the user. Furthermore, in the above example, the processing has been described with an example using the coordinates of the contact information of two points, but the contact information may be used up to five points.

例えば、制御対象機器4が、左右手を判別するために、ユーザに全ての指を伸ばした状態で接触情報検知部1に各指先を接触することを促していた場合、左右手判定部134は、以下のように左右手を判別することができる。   For example, when the control target device 4 prompts the contact information detection unit 1 to touch each fingertip with all fingers extended in order to determine the left and right hands, the left and right hand determination unit 134 The left and right hands can be discriminated as follows.

この場合について、図19を用いて説明する。図19(a)に示すように、左右手判定部134は、5点の接触情報を用いて左右手を判定する場合、全ての点の中で最もX座標の座標値が小さい点(点A)のY座標が、その他の点(この場合、点B,点C,点D,点E)に比べて一番小さい場合、これを右手と判定する。また、図19(b)に示すように、全ての点の中で最もX座標の座標値が大きい点(点E)のY座標が、その他の点(この場合、点A,点B,点C,点D)に比べて一番小さい場合、これを左手と判定する。これは、通常指を伸ばした状態で接触情報検知部1に接触すると、親指が位置する座標は、他の指よりY座標が最も小さくなることに着目している。この性質より、Y座標が一番小さい点が他の座標の左側(X座標が最も小さい)に存在する場合は右手、右側(X座標が最も大きい)に存在する場合は左手の指が接触されていると考えられる。   This case will be described with reference to FIG. As shown in FIG. 19A, when the left and right hand determining unit 134 determines the left and right hands using the contact information of five points, the point (point A) having the smallest coordinate value of the X coordinate among all the points is selected. If the Y coordinate is the smallest compared to other points (in this case, point B, point C, point D, point E), this is determined to be the right hand. Further, as shown in FIG. 19B, the Y coordinate of the point (point E) having the largest X coordinate value among all the points is changed to other points (in this case, point A, point B, point If it is the smallest compared to C, point D), this is determined as the left hand. This is because the coordinates where the thumb is located are the smallest in the Y coordinate compared to the other fingers when the finger touches the contact information detection unit 1 with the finger extended. Due to this property, the right hand is touched when the point with the smallest Y coordinate is on the left side of the other coordinates (the smallest X coordinate), and the left hand finger is touched when the point is on the right side (the largest X coordinate). It is thought that.

(2)静的な相対位置+接触面積から左右手を判別する場合
図16のフローチャートには記述をしていないが、更に左右手の判定結果を確実にするために、各接触情報の接触面積を条件とあわせて用いることができる。これは、通常、人間の指が何かに接触したときには、接触面積が一番大きくなるのは親指であるということに着目している。このような処理を、ステップS104−1a、もしくはその後の処理にて、左右手判定部134は、各点の接触面積の比較を行い、左右手の判定を行う。
(2) Case of discriminating left and right hands from static relative position + contact area Although not described in the flowchart of FIG. 16, in order to further ensure the judgment result of left and right hands, the contact area of each contact information is defined as a condition. Can be used together. This focuses on the fact that when a human finger comes into contact with something, it is the thumb that has the largest contact area. In such processing, in step S104-1a or subsequent processing, the left and right hand determination unit 134 compares the contact area of each point and determines the left and right hands.

図19(a)の場合は親指に位置する点A、図19(b)の場合は点Eの接触面積が、その他の点の接触面積に比べ大きいかを判別し、左右手を判定する。それらの点の接触面積が大きい場合は、図19(a)の場合は右手、図19(b)の場合は左手と判定する。   In the case of FIG. 19A, it is determined whether the contact area of the point A located on the thumb, and in the case of FIG. 19B, the contact area of the point E is larger than the contact area of other points, and the left and right hands are determined. If the contact area of these points is large, the right hand is determined in FIG. 19A and the left hand is determined in FIG. 19B.

これにより、ユーザが左右手の判定を逆にしたい場合に、意図的に手を裏返して接触情報検知部1に接触すると、各接触情報の座標値の相対関係は左右が反対になるが、接触面積をあわせて判定条件として用いることで、これを防ぐことが可能になる。   Thereby, when the user wants to reverse the determination of the left and right hands, if the user intentionally turns over and touches the contact information detection unit 1, the relative relationship of the coordinate values of each contact information is reversed on the left and right, but the contact area It is possible to prevent this by using as a determination condition.

(3)移動方向から左右手を判別する場合
図20のフローチャートは、ユーザが接触情報検知部1に指を接触させた状態で、その指を動かした移動方向によってユーザの左右手を判定する場合の処理の流れを示している。この場合も、図16と同様に、制御対象機器4から取得するモードは、地図画面上で、地図の縮尺が変更できるモードとし、この機能を実行するためには、図5のように、ユーザが人指し指と親指を接触情報検知部1に接触し、互いの指を開いたり閉じたりすることで、縮尺を変更できることとする。このような例を用いて各処理のフローを説明する。
(3) When discriminating the left and right hands from the moving direction The flowchart in FIG. 20 is a process in which the user's left and right hands are determined based on the moving direction in which the user moves the finger in the state where the finger is in contact with the contact information detection unit 1. Shows the flow. Also in this case, as in FIG. 16, the mode acquired from the control target device 4 is a mode in which the scale of the map can be changed on the map screen. In order to execute this function, as shown in FIG. However, it is assumed that the scale can be changed by bringing the forefinger and the thumb into contact with the contact information detection unit 1 and opening and closing each other's fingers. The flow of each process will be described using such an example.

まず、ステップS103−1b〜S103−3bにおいて、ジェスチャー認識部133はステップS103−1a〜S103−3aと同様の処理を行う。   First, in steps S103-1b to S103-3b, the gesture recognition unit 133 performs the same processing as in steps S103-1a to S103-3a.

次に、ステップS103−4bにおいて、ジェスチャー認識部133は、各接触情報履歴から各座標の移動方向を算出する。この移動方向は、取得した接触情報のうち、過去の接触情報の座標値から最新の接触情報を引くことで算出することができる。   Next, in step S103-4b, the gesture recognition unit 133 calculates the movement direction of each coordinate from each contact information history. This moving direction can be calculated by subtracting the latest contact information from the coordinate values of the past contact information in the acquired contact information.

例えば、過去の2点(点Aと点B)の各接触情報が図21(a)に示すような状態で、最新の2点(点A’と点B’)の各接触情報が図21(b)に示すような状態であった場合、点Aから点A’へのX軸方向の移動方向は(x1’−x1)<0、Y軸方向の移動方向は(y1’−y1)<0となり、点Bから点B’へのX軸方向の移動方向は(x2’−x2)>0、Y軸方向の移動方向は(y2’−y2)>0となる。なお、ここでは点Aと点A’、点Bと点B’は同じIDを持っているものとする。   For example, the contact information of the past two points (point A and point B) is as shown in FIG. 21A, and the latest contact information of the two points (point A ′ and point B ′) is shown in FIG. In the state shown in (b), the movement direction in the X-axis direction from the point A to the point A ′ is (x1′−x1) <0, and the movement direction in the Y-axis direction is (y1′−y1). <0, the movement direction in the X-axis direction from the point B to the point B ′ is (x2′−x2)> 0, and the movement direction in the Y-axis direction is (y2′−y2)> 0. Here, it is assumed that point A and point A ', and point B and point B' have the same ID.

次に、ステップS103−5bにおいて、ジェスチャー認識部133は、パラメータの算出を行う。ここで、取得したモードが地図の縮尺を変更するモードの場合、接触情報検知部1に接触した親指と人指し指との間の距離の変化率を縮尺のパラメータとする。なお、最初に2点接触した座標間の距離を初期位置とし、そこから距離が長くなった場合は正のパラメータを持ち、さらに初期位置の距離と、現在の座標間の距離の変化率を算出してパラメータとして決定しても良い。   Next, in step S103-5b, the gesture recognition unit 133 calculates parameters. Here, when the acquired mode is a mode in which the scale of the map is changed, the change rate of the distance between the thumb that has touched the contact information detection unit 1 and the index finger is used as a scale parameter. Note that the initial distance is the distance between the coordinates at which the two points touched first, and if the distance increases from there, it has a positive parameter, and further calculates the change in the distance between the initial position and the current coordinates. Then, it may be determined as a parameter.

次に、ステップS104−1bにおいて、左右手判定部134は、各接触情報の移動方向から左右手を判定する。このときの判定方法を、図22を用いて説明する。   Next, in step S104-1b, the left and right hand determination unit 134 determines the left and right hands from the moving direction of each contact information. The determination method at this time will be described with reference to FIG.

図22は、接触情報検知部1に接触した任意の2点(点aと点b)がX及びY軸のいずれの方向に移動したかによって左右手を判定する条件を示す図である。ただし、座標系は図21に示した座標系とする。これは、通常、図6に記載されているのような取付位置に接触情報検知部1が設置されている場合、親指にあたる点がX軸方向へ移動しやすく、人指し指に当たる点がY軸方向に移動しやすいことに着目している。図21の場合は、状態aから状態bに移行した2点の内のいずれかの点を抽出する。仮に点Aを抽出すると、ステップS103−4bで算出されるX座標の移動方向は負の方向になる。次に、点BのY座標の移動方向は正方向になる。これらの結果を図22の一覧に当てはめて、左右手の判定を行う。   FIG. 22 is a diagram illustrating a condition for determining the left and right hands based on whether any two points (point a and point b) in contact with the contact information detection unit 1 have moved in the X or Y axis direction. However, the coordinate system is the coordinate system shown in FIG. Normally, when the contact information detection unit 1 is installed at the mounting position as shown in FIG. 6, the point corresponding to the thumb is easy to move in the X-axis direction, and the point corresponding to the index finger is in the Y-axis direction. We focus on being easy to move. In the case of FIG. 21, any one of the two points that have transitioned from state a to state b is extracted. If the point A is extracted, the moving direction of the X coordinate calculated in step S103-4b becomes a negative direction. Next, the movement direction of the Y coordinate of the point B becomes the positive direction. These results are applied to the list of FIG.

図22の判定条件は、右手で図5(a)から図5(b)に遷移する場合、1点のX座標は負方向へ、もう1点のY座標は正方向への移動し、左手では、1点のX座標は正方向へ、もう一点のY座標は正方向へ移動することに着目している。そのため、図22に示す、2点のX,Y座標の移動方向の組み合わせによって左右手を判定することができる。つまり図21場合は、右手と判定をする。   The determination condition of FIG. 22 is that when the right hand makes a transition from FIG. 5A to FIG. 5B, the X coordinate of one point moves in the negative direction, the Y coordinate of the other point moves in the positive direction, and the left hand Then, attention is paid to the fact that the X coordinate of one point moves in the positive direction and the Y coordinate of the other point moves in the positive direction. Therefore, the left and right hands can be determined by the combination of the moving directions of the two X and Y coordinates shown in FIG. That is, in the case of FIG. 21, the right hand is determined.

以上の様に、モードが機能を実行するジェスチャー(本例では、地図の縮尺変更を図5のような指の開閉で行う)を行っているときに左右手を判定することによって、ユーザが左右手を判定するためだけに何かしらのジェスチャーを行わなくてよく、利便性が非常に高い。   As described above, the user moves the left and right hands by determining the left and right hands while performing a gesture in which the mode performs a function (in this example, changing the scale of the map by opening and closing fingers as shown in FIG. 5). There is no need to perform any kind of gesture just to make a decision, which is very convenient.

なお、図21、22の場合は、2点の座標の移動方向で左右手を判定する例を用いて説明をしたが、3,4,5点の移動方向を用いて判定しても構わない。ここでは、5点の移動方向を用いて判定する例を説明する。   In the case of FIGS. 21 and 22, the example has been described in which the left and right hands are determined based on the movement direction of the coordinates of the two points. However, the determination may be performed using the movement directions of the third, fourth, and fifth points. Here, an example in which determination is performed using five moving directions will be described.

まず、図20のステップS103−1bにおいて、ジェスチャー認識部133は、制御対象機器4からモードを取得する。このとき取得したモードは、上記と同様に地図の縮尺を変更できるモードとする。そしてユーザが接触情報検知部1に、片手の全ての指先を集合させて接触させた状態から、接触させながら開くような状態になったとき(その逆でも構わない)に、縮尺を変更できることとする。図23に、そのときの接触情報検知部1が取得した各座標の位置を図示したものと、ユーザの手の動きと、各状態での接触情報履歴格納部132から取得した接触情報の一部の情報を示す。図23(a)の状態aは片手の全ての指先を集合させた状態を表しており、図23(b)の状態bは片手の全ての指を開いた状態を表している。   First, in step S103-1 b in FIG. 20, the gesture recognition unit 133 acquires a mode from the control target device 4. The mode acquired at this time is a mode in which the scale of the map can be changed as described above. The scale can be changed when the user enters the contact information detection unit 1 from the state in which all the fingertips of one hand are gathered and brought into contact with the contact information detection unit 1 and is opened while being brought into contact (or vice versa). To do. FIG. 23 illustrates the position of each coordinate acquired by the contact information detection unit 1 at that time, the movement of the user's hand, and part of the contact information acquired from the contact information history storage unit 132 in each state. Information. State a in FIG. 23A represents a state in which all fingertips of one hand are gathered, and state b in FIG. 23B represents a state in which all fingers of one hand are opened.

次に、ステップS103−2bとS103−3bにおいて、ジェスチャー認識部133は、図23に示す各接触情報の座標を取得し、一定時間内に同数(この場合は5点)の接触情報が存在するかを判定する。この処理は前述した処理と同様である。   Next, in steps S103-2b and S103-3b, the gesture recognizing unit 133 acquires the coordinates of each piece of contact information shown in FIG. 23, and the same number (in this case, five points) of contact information exists within a certain time. Determine whether. This process is the same as the process described above.

次に、ステップS103−4bにおいて、各座標の移動方向を算出する。算出方法は前述したものと同様であり、その結果を図24に示す。   Next, in step S103-4b, the movement direction of each coordinate is calculated. The calculation method is the same as that described above, and the result is shown in FIG.

次に、ステップS104−1bにおいて、左右手判定部134は、各接触情報の移動方向から左右手を判定する。図6に記載されているのような取付位置に接触情報検知部1が設置されている場合、図23に示すようなジェスチャーをすると、状態aから状態bに移行したときに、親指にあたる点がX軸方向へ移動しやすく、その他の指に当たる4点がY軸方向に移動しやすいことに着目している。その結果、図25に示す一覧のような移動方向のいずれかに該当するかを判別して、左右手を判定することができる。   Next, in step S104-1b, the left and right hand determination unit 134 determines the left and right hands from the moving direction of each contact information. When the contact information detection unit 1 is installed at the attachment position as shown in FIG. 6, if a gesture as shown in FIG. 23 is performed, the point hitting the thumb when the state a is changed to the state b is We focus on the fact that it is easy to move in the X-axis direction and that the four points hitting other fingers are easy to move in the Y-axis direction. As a result, it is possible to determine the left and right hands by determining which of the moving directions shown in the list of FIG.

図23の場合は、状態aから状態bに移行した5点のうちのいずれか1点を抽出する。仮に点Aを抽出した場合、この点Aから点A’に移行するまでのX軸方向の移動方向を参照する。図24の算出結果より、X軸の移動方向は負方向であることが分かる。その後、その他の4点(点B,点C,点D,点E)のY軸方向の移動方向を参照する。これも図24の算出結果より、Y軸の移動方向は全ての点に対して正方向であることが分かる。これは、図25に示すX座標の移動方向が負方向で、Y座標の移動方向が正方向である条件に当てはまるため、左右手判定部134は、右手と判定する。   In the case of FIG. 23, any one of the five points that have shifted from state a to state b is extracted. If the point A is extracted, the movement direction in the X-axis direction from the point A to the point A ′ is referred to. From the calculation result of FIG. 24, it can be seen that the moving direction of the X axis is a negative direction. Thereafter, the movement directions in the Y-axis direction of the other four points (point B, point C, point D, and point E) are referred to. Also from this calculation result of FIG. 24, it can be seen that the moving direction of the Y-axis is the positive direction with respect to all points. This applies to the condition shown in FIG. 25 in which the movement direction of the X coordinate is a negative direction and the movement direction of the Y coordinate is a positive direction, so the left / right hand determination unit 134 determines that the hand is a right hand.

また、今回は初めに抽出した1点が点Aであったため、一度で左右手の判別が行えたが、抽出した初めの1点が点A以外の場合は、図25の一覧に該当しない。このような場合は、全ての点に対して同様の処理を行い、左右手の判定を行うことができる。   In addition, since the first point extracted this time is the point A, the left and right hands can be discriminated at a time. However, when the first extracted point is other than the point A, it does not correspond to the list of FIG. In such a case, the same process can be performed for all points to determine the left and right hands.

(4)移動方向+相対位置から左右手を判別する場合(5本指、親指スライド)
5点の接触情報から移動方向を用いて左右手を判定する別の方法を以下で説明する。
(4) When discriminating left and right hands from the moving direction + relative position (five fingers, thumb slide)
Another method for determining the left and right hands from the five points of contact information using the moving direction will be described below.

図20のステップS103−1bにおいて、ジェスチャー認識部133は、制御対象機器4からモードを取得する。このとき取得したモードは、上記と同様に地図の縮尺を変更できるモードとする。そして、ユーザが接触情報検知部1に、片手の全ての指先を接触させた状態から、親指のみを接触させながら左右に動かすことで、縮尺を変更できることとする。図26に、そのときの接触情報検知部1が取得した各座標の位置を図示したものと、ユーザの手の動きと、各状態での接触情報履歴格納部132から取得した接触情報の一部の情報を示す。図26において、状態aは片手の全ての指を開いている状態、状態bは、状態aから親指のみを右に動かした状態を表している。   In step S103-1 b in FIG. 20, the gesture recognition unit 133 acquires a mode from the control target device 4. The mode acquired at this time is a mode in which the scale of the map can be changed as described above. Then, the scale can be changed by moving the user to the left and right while only contacting the thumb from the state where all the fingertips of one hand are in contact with the contact information detection unit 1. FIG. 26 illustrates the position of each coordinate acquired by the contact information detection unit 1 at that time, the movement of the user's hand, and part of the contact information acquired from the contact information history storage unit 132 in each state. Information. In FIG. 26, state a represents a state in which all fingers of one hand are open, and state b represents a state in which only the thumb has been moved to the right from state a.

次に、ステップS103−2bとS103−3bにおいて、ジェスチャー認識部133は、前述の5点のときの処理と同様の処理を行う。   Next, in steps S103-2b and S103-3b, the gesture recognizing unit 133 performs the same processing as the processing for the five points described above.

次に、ステップS103−4bにおいて、ジェスチャー認識部133は、各座標の移動方向を算出する。算出方法は前述したものと同様であり、その結果を図27の一覧に示す。図27においてX軸移動方向、Y軸移動方向の欄に「−」という記載があるが、これは、点が移動していない、もしくは、移動量が微少であったことを表している。親指のみ移動させるジェスチャーであるため、その他の指は移動しない。   Next, in step S103-4b, the gesture recognition unit 133 calculates the movement direction of each coordinate. The calculation method is the same as described above, and the result is shown in the list of FIG. In FIG. 27, “-” is described in the column of the X-axis movement direction and the Y-axis movement direction, which indicates that the point has not moved or the movement amount is very small. Since the gesture moves only the thumb, the other fingers do not move.

次に、ステップS104−1bにおいて、左右手判定部134は、各座標の移動方向と座標値から左右手を判定する。図6に記載されているのような取付位置に接触情報検知部を設置している場合、図26に示すようなジェスチャーをすると、状態aから状態bに移行したときに、親指にあたる点がX軸方向へ移動しやすいことに着目している。また、親指にあたる点のY座標はその他の点のY座標より小さいことに着目している。その結果、図28に示す一覧のような移動方向、及び各指先の接触座標の相対的な位置関係から、全ての条件を満たす場合に左右手の判定を行う。   Next, in step S104-1b, the left and right hand determination unit 134 determines the left and right hands from the movement direction and coordinate value of each coordinate. When the contact information detection unit is installed at the attachment position as shown in FIG. 6, when a gesture as shown in FIG. 26 is performed, the point corresponding to the thumb is X when the state a is changed to the state b. We focus on the ease of movement in the axial direction. Also, attention is paid to the fact that the Y coordinate of the point corresponding to the thumb is smaller than the Y coordinate of the other points. As a result, the left and right hands are determined when all the conditions are satisfied from the moving direction as shown in the list of FIG. 28 and the relative positional relationship of the contact coordinates of each fingertip.

図27に各点の算出結果と各軸方向への移動方向を示す。また、本例の場合は、移動方向に併せて各点の座標値を用いる。この座標値は、移動方向を算出した際の始点、もしくは終点で使用した座標値をそれぞれ用いる。まず、左右手判定部134は、取得した座標履歴のもっとも過去の5点(点A,点B,点C,点D,点E)のうち、X座標が最大と最小となる2点を抽出する。本例の場合は、点Aと点Eが抽出される。次に、最も最近の5点のうち、X座標が最大と最小となる2点を抽出する。本例の場合は、点B’と点E’が抽出される。   FIG. 27 shows the calculation result of each point and the moving direction in each axial direction. In the case of this example, the coordinate value of each point is used together with the moving direction. As the coordinate value, the coordinate value used at the start point or the end point when the movement direction is calculated is used. First, the left / right hand determining unit 134 extracts two points having the maximum and minimum X coordinates from the five past points (point A, point B, point C, point D, and point E) in the acquired coordinate history. . In this example, point A and point E are extracted. Next, out of the five most recent points, two points with the maximum and minimum X coordinates are extracted. In this example, point B 'and point E' are extracted.

次に、左右手判定部134は、同一IDの任意の1点を抽出し、仮に点Aを抽出したとする。このとき、先ほど抽出した点に含まれているかどうかを判定する。本例の場合は、始点時のX座標が、その他の座標に比べ最小であるため、次の処理に移行する。このとき、含まれていない場合は、その他の点について同様の処理を行う。   Next, it is assumed that the left and right hand determining unit 134 extracts an arbitrary point having the same ID and temporarily extracts a point A. At this time, it is determined whether it is included in the point extracted earlier. In the case of this example, since the X coordinate at the start point is minimum compared to other coordinates, the process proceeds to the next process. At this time, if not included, the same processing is performed for other points.

次に、左右手判定部134は、抽出した1点と他のY座標と比較し、その他の4点と比べてY座標が最小であるかを判定する。本例の場合は、点Aは図26から最小であることが分かる。次に、左右手判定部134は、抽出した点(点A)のX軸の移動方向を参照する。本例では、点AのX軸方向の移動方向は正方向であるため、この結果、図28に示す条件を全て満たすため、左右手の判定結果は右手となる。このように5点の接触情報から左右手を判定することも可能である。   Next, the left and right hand determination unit 134 compares the extracted one point with other Y coordinates, and determines whether the Y coordinate is minimum compared with the other four points. In the case of this example, it can be seen from FIG. Next, the left and right hand determining unit 134 refers to the X axis movement direction of the extracted point (point A). In this example, the movement direction of the point A in the X-axis direction is the positive direction, and as a result, all the conditions shown in FIG. 28 are satisfied, so the determination result of the left and right hands is the right hand. In this way, it is possible to determine the left and right hands from the contact information of five points.

(5)移動方向+移動量から左右手を判別する場合(2本指)
図29のフローチャートは、ユーザが接触情報検知部1に指を接触させた状態で、その指を動かした移動方向と移動量を算出し、これらを用いることによってユーザの左右手を判定する場合の処理の流れを示している。
(5) When discriminating left and right hands from the moving direction + moving amount (two fingers)
The flowchart of FIG. 29 is a process in the case where the user moves his / her finger in the state in which the finger is in contact with the contact information detection unit 1, calculates the moving direction and the moving amount, and uses these to determine the user's left and right hands. Shows the flow.

まず、ステップS103−1cにおいて、ジェスチャー認識部133は、制御対象機器4から現在のモードを取得する。本例におけるモードは、図20と同様に、地図画面上で、地図の縮尺が変更できるモードとする。そして、この機能を実行するためには、図5のように、人指し指と親指を接触情報検知部1に接触し、互いの指を開いたり閉じたりすることで、縮尺を変更できることとする。   First, in step S103-1c, the gesture recognition unit 133 acquires the current mode from the control target device 4. The mode in this example is a mode in which the scale of the map can be changed on the map screen, as in FIG. In order to execute this function, it is assumed that the scale can be changed by bringing the forefinger and the thumb into contact with the contact information detection unit 1 and opening and closing each other as shown in FIG.

次に、ステップS103−2cからステップS103−5cにおいて、ジェスチャー認識部133は、それぞれ図20のステップS103−2bからステップS103−5bと同様の処理を行う。   Next, in steps S103-2c to S103-5c, the gesture recognizing unit 133 performs the same processing as in steps S103-2b to S103-5b of FIG.

次に、ステップS104−1cにおいて、左右手判定部134は、各接触情報履歴から各接触情報の移動量を算出する。なお、この移動量の算出方法は、一般的な2点間の距離を算出する方法(三平方の定理)を用いればよいが、演算量を少なくするためにその他の近似値を算出する方法を用いて、その値を用いても構わない。   Next, in step S104-1c, the left and right hand determining unit 134 calculates the amount of movement of each contact information from each contact information history. As a method for calculating the amount of movement, a general method for calculating the distance between two points (three square theorem) may be used, but other approximate values may be calculated in order to reduce the amount of calculation. And the value may be used.

次に、ステップS104−2cにおいて、左右手判定部134は、各接触情報の移動方向と移動量から左右手を判定する。これは、人指し指と親指を用いて、開いたり閉じたりする際には、通常、親指は人指し指に比べ、指の長さが短く、かつ人指し指の方が動かしやすいことに着目している。そのため、親指の移動量の方が人指し指の移動量に比べ小さい。このときの一例を図30に示す。   Next, in step S104-2c, the left and right hand determining unit 134 determines the left and right hands from the moving direction and moving amount of each contact information. This is based on the fact that when the index finger and thumb are used for opening and closing, the thumb is usually shorter than the index finger and the index finger is easier to move. For this reason, the amount of movement of the thumb is smaller than the amount of movement of the index finger. An example at this time is shown in FIG.

図30では、状態aから状態bに遷移したときに、各接触情報(点Aから点A’、点Bから点B’)が、それぞれl1,l2(l1<l2)の長さを移動している様子を表している。このような場合、左右手判定部134は、移動距離l1の方が移動距離l2よりも短いため、点A(もしくは点A’)に対応する指が親指で、点B(もしくは点B’)に対応する指が人指し指と判定する。そして、ユーザの手が図6に示すようなの進入方向の場合は、これを右手での操作と判定する。   In FIG. 30, when the transition from the state a to the state b is made, the pieces of contact information (point A to point A ′, point B to point B ′) move the lengths of l1 and l2 (l1 <l2), respectively. It shows how it is. In such a case, the left and right hand determining unit 134 has a finger corresponding to the point A (or point A ′) as a thumb and a point B (or point B ′) because the moving distance 11 is shorter than the moving distance l2. The corresponding finger is determined to be an index finger. And when a user's hand is an approach direction as shown in FIG. 6, this is determined to be operation with a right hand.

上記のような方法で左右手を判定すれば、移動方向のみで検出できなかった図18の様な場合でも、左右手の判定を確実に行うことができる。   If the left and right hands are determined by the method as described above, the left and right hands can be reliably determined even in the case of FIG.

(6)移動方向+移動量から左右手を判別する場合(3点ピンチ操作)
図31のフローチャートは、ユーザが接触情報検知部1に2本の指とさらに他の指が接触している状態で、2本の指を動かした移動方向と移動量とその他の指との相対位置とを算出し、これらを用いることによってユーザの左右手を判定する場合の処理の流れを示している。
(6) When discriminating the left and right hands from the moving direction + moving amount (3-point pinch operation)
The flowchart of FIG. 31 shows the relative movement direction and amount of movement of the two fingers and the other fingers in a state where the user touches the contact information detection unit 1 with two fingers and another finger. The flow of a process in the case of determining a user's left and right hand by calculating a position and using these is shown.

まず、ステップS103−1dにおいて、ジェスチャー認識部133は、制御対象機器4から現在のモードを取得する。本例におけるモードは、図20と同様に、地図画面上で、地図の縮尺が変更できるモードとする。そして、この機能を実行するためには、図5のように、人指し指と親指を接触情報検知部1に接触した状態で、互いの指を開いたり閉じたりすることで、縮尺を変更できることとする。   First, in step S103-1d, the gesture recognition unit 133 acquires the current mode from the control target device 4. The mode in this example is a mode in which the scale of the map can be changed on the map screen, as in FIG. In order to execute this function, the scale can be changed by opening and closing each finger while the index finger and the thumb are in contact with the contact information detection unit 1 as shown in FIG. .

次に、ステップS103−2dとステップS103−3dまでの処理において、ジェスチャー認識部133は、ステップS103−2bとステップS103−2bと同様の処理を行う。   Next, in the processing up to step S103-2d and step S103-3d, the gesture recognition unit 133 performs the same processing as in step S103-2b and step S103-2b.

次に、ステップS103−4dにおいて、ジェスチャー認識部133は、各接触情報の移動量を算出する。これは、上述のステップS104−1cで用いた方法によって各接触情報の移動量を算出する。   Next, in step S103-4d, the gesture recognition unit 133 calculates the movement amount of each contact information. This calculates the movement amount of each contact information by the method used in step S104-1c described above.

次に、ステップS103−5dにおいて、ジェスチャー認識部133は、移動量が大きい上位2個の接触情報の移動方向を算出する。ここで、本処理を説明するために、図32の例を用いて説明する。   Next, in step S103-5d, the gesture recognizing unit 133 calculates the movement direction of the top two pieces of contact information with the large movement amount. Here, in order to explain this processing, it will be explained using the example of FIG.

図32は、状態aから状態bに遷移したときに、各接触情報(点Aから点A’、点Bから点B’)が、それぞれ移動している様子を表している。この際、点Aから点A’の移動距離をl1、点Bから点B’の移動距離をl2、点Cから点C’の移動距離をl3とし、それぞれの移動距離を算出した結果、l2>l1>l3だったとする。このような場合、ステップS103−5dにおいて、ジェスチャー認識部133は、l1とl2に対応する点となる点A(ID:1)と点B(ID:2)を抽出し、これらの移動方向を算出する。このときに移動方向の算出方法は図22の結果で示した方法と同様の処理を行う。   FIG. 32 shows a state in which each piece of contact information (from point A to point A ′ and from point B to point B ′) is moving when the state a is changed to the state b. At this time, the movement distance from the point A to the point A ′ is l1, the movement distance from the point B to the point B ′ is l2, and the movement distance from the point C to the point C ′ is l3. It is assumed that> l1> l3. In such a case, in step S103-5d, the gesture recognizing unit 133 extracts points A (ID: 1) and B (ID: 2), which are points corresponding to l1 and l2, and determines their moving directions. calculate. At this time, the calculation method of the moving direction performs the same processing as the method shown in the result of FIG.

次に、ステップS103−6dにおいて、ジェスチャー認識部133は、パラメータの算出を行う。これは図20のステップS103−5bと同様の処理を行う。   Next, in step S103-6d, the gesture recognition unit 133 performs parameter calculation. This performs the same processing as step S103-5b of FIG.

次に、ステップS104−1dにおいて、左右手判定部134は、各接触情報の相対位置を算出する。この相対関係とは、移動距離の大きい2点と、それ以外の点のX座標に着目し、算出する。図32の場合は、移動距離の大きい2点(点A(ID:1)と点B(ID:2))とそれ以外の点(点C、ID:3)のX座標に着目し、点CのX座標と、点Aと点BのX座標とを比較する。図32では、点CのX座標は点Aと点BのX座標より大きくなっている。   Next, in step S104-1d, the left and right hand determination unit 134 calculates the relative position of each piece of contact information. This relative relationship is calculated by paying attention to two points having a large moving distance and the X coordinates of other points. In the case of FIG. 32, paying attention to the X coordinates of two points (point A (ID: 1) and point B (ID: 2)) having a large moving distance and other points (point C, ID: 3), The X coordinate of C is compared with the X coordinates of point A and point B. In FIG. 32, the X coordinate of the point C is larger than the X coordinates of the point A and the point B.

次に、ステップS104−2dにおいて、左右手判定部134は、各接触情報の移動量と相対位置から左右手の判定を行う。   Next, in step S104-2d, the left and right hand determination unit 134 determines the left and right hands from the movement amount and relative position of each contact information.

図32の場合は、移動量の大きい2点(点A(ID:1)と点B(ID:2))とそれ以外の点(点C、ID:3)のX座標の相対位置関係は、移動量の小さい点Cが移動量の大きい点Aと点Bより大きくなっている。縮尺を変更するためのジェスチャーとして親指と人指し指を接触情報検知部1に接触させた状態で、開いたり閉じたりしていることに加え、その他の指は接触情報検知部1に接触している。通常、右手でこの操作を行っている場合は、その他の指は移動量が大きい2点(親指と人指し指)より右側(X座標が大きい)に位置する。左手でこの操作を行っている場合は左側(X座標が小さい)に位置することになる。つまり、図32の場合は、移動量の小さい点(点C)のX座標が他と比べて大きいため、左右手判定部134は、右手であると判定する。   In the case of FIG. 32, the relative positional relationship between the X coordinates of two points (point A (ID: 1) and point B (ID: 2)) with a large amount of movement and other points (point C, ID: 3) is The point C having a small movement amount is larger than the points A and B having a large movement amount. In addition to opening and closing the thumb and index finger in contact with the contact information detection unit 1 as a gesture for changing the scale, other fingers are in contact with the contact information detection unit 1. Normally, when this operation is performed with the right hand, the other fingers are positioned on the right side (the X coordinate is large) from two points (thumb and index finger) having a large movement amount. When this operation is performed with the left hand, it is positioned on the left side (X coordinate is small). That is, in the case of FIG. 32, since the X coordinate of the point (point C) with a small movement amount is larger than the other, the left / right hand determining unit 134 determines that the right hand is present.

このような処理を行うことによって、移動方向のみで検出できなかった図18(b)のような場合でも左右手の判定を確実に行うことができる。   By performing such processing, the left and right hands can be reliably determined even in the case of FIG. 18B that cannot be detected only in the moving direction.

(7)座標の相対位置と接触面積から左右手を判別する場合
図33のフローチャートは、ユーザが接触情報検知部に2本以上の指を接触させた状態から、ある特定の1本の指を用いてタップしたことによって、ユーザの左右手を判定する場合の処理の流れを示している。
(7) When discriminating the left and right hands from the relative position of the coordinates and the contact area The flowchart of FIG. 33 uses a specific one finger from a state in which the user makes two or more fingers contact the contact information detection unit. This shows the flow of processing when the left and right hands of the user are determined by tapping.

本例においては、制御対象機器4から取得するモードは、画面上にボタンが配置されており、そのボタンをタップすることで、特定の機能が実行されるモードとする。ここでのタップの方法としては、あらかじめ2本以上の指が接触情報検知部1に接触している状態から、1本の指(親指)でタップすることとする。このような例を用いて各処理のフローを説明する。   In this example, the mode acquired from the control target device 4 is a mode in which a button is arranged on the screen and a specific function is executed by tapping the button. As a tapping method here, tapping with one finger (thumb) from a state where two or more fingers are in contact with the contact information detection unit 1 in advance. The flow of each process will be described using such an example.

なお、タップとは、ノートパソコンなどに使われるポインティングデバイスであるタッチスクリーンを用いてボタン選択を行う際に用いられる動作を表す単語であり、その方法は、タッチスクリーンを短い時間の間に接触して、離すことである。   Note that a tap is a word representing an operation used when a button is selected using a touch screen, which is a pointing device used in a notebook computer or the like, and the method touches the touch screen for a short time. To release.

まず、ステップS103−1eとS103−2eにおいて、ジェスチャー認識部133は図16のステップS103−1aとS103−2aと同様の処理を行う。   First, in steps S103-1e and S103-2e, the gesture recognition unit 133 performs the same processing as steps S103-1a and S103-2a in FIG.

次に、ステップS103−3eにおいて、ジェスチャー認識部133は、接触情報履歴格納部132から取得した接触情報の内、最新の接触情報が1点以上存在するかを判定する。ここで、1点も接触情報が存在しない場合は、ステップS101に処理を移行し、存在する場合は、ステップS103−4eに移行する。   Next, in step S103-3e, the gesture recognizing unit 133 determines whether at least one piece of the latest contact information among the contact information acquired from the contact information history storage unit 132 exists. Here, if no contact information exists, the process proceeds to step S101, and if present, the process proceeds to step S103-4e.

次に、ステップS103−4eにおいて、ジェスチャー認識部133は、タップ検出を行う。このときのタップ検出の方法としては、一般的な方法を用いればよい。例えば、取得した接触情報の履歴を用いて、一定時間内の座標数の増減からタップを検出する方法などが考えられる。本例では、図34を用いて説明する。図34(c)の最新状態(状態c)の接触情報の座標数が4点で、例えば1秒間の間にタップ検出を行うとした場合、この間に接触情報の座標数が4個(図34(a)の状態a時)、5個(図34(b)の状態b時)、4個(図34(c)の状態c時)と遷移するように、現在の接触情報の個数より1個だけ増えていればこれをタップとして検出する。   Next, in step S103-4e, the gesture recognition unit 133 performs tap detection. A general method may be used as a tap detection method at this time. For example, a method of detecting a tap from an increase / decrease in the number of coordinates within a certain time using a history of acquired contact information can be considered. This example will be described with reference to FIG. When the number of coordinates of the contact information in the latest state (state c) in FIG. 34 (c) is four points, for example, when tap detection is performed during one second, the number of coordinates of the contact information is four (FIG. 34). (A) in state a), 5 (in state b in FIG. 34 (b)), 4 (in state c in FIG. 34 (c)), 1 from the number of current contact information. If it only increases, this is detected as a tap.

次に、ステップS103−5eにおいて、ジェスチャー認識部133は、ステップS103−4eでタップ検出がされていれば、ステップS104−1eに移行し、検出されなければステップS101に処理を移行する。   Next, in step S103-5e, the gesture recognizing unit 133 proceeds to step S104-1e if tap detection is performed in step S103-4e, and proceeds to step S101 if not detected.

次に、ステップS104−1eにおいて、左右手判定部134は、タップ時(接触している座標数が増加したタイミング)の各接触情報の接触面積を参照する。図34に示す例の場合は、図34(b)の状態bでの各接触情報の接触面積として、S1’、S2’、S3’、S4’、S5’を参照する。   Next, in step S104-1e, the left and right hand determining unit 134 refers to the contact area of each contact information at the time of tapping (timing at which the number of coordinates in contact increases). In the case of the example shown in FIG. 34, S1 ', S2', S3 ', S4', and S5 'are referred to as the contact area of each piece of contact information in the state b in FIG.

次に、ステップS104―2eにおいて、左右手判定部134は、タップを検出した根拠となった接触情報と、その他の接触情報の接触面積を比較して、タップを検出した根拠となった接触情報の接触面積が1番大きいかを判定する。これは、通常、人間の指が何かに接触したときに、接触面積が一番大きくなるのは親指であるということに着目している。   Next, in step S104-2e, the left and right hand determining unit 134 compares the contact information that is the basis for detecting the tap with the contact area of the other contact information, and determines the contact information that is the basis for detecting the tap. It is determined whether the contact area is the largest. This focuses on the fact that when a human finger comes into contact with something, it is the thumb that has the largest contact area.

図34に示す例の場合は、状態aから状態cにしたときに、点A’(ID:1)が座標数の増減に起因するため、点A’(ID:1)の接触面積(S1’)が、その他の点(点B’,点C’,点D’,点E’)の接触面積より大きいかを判定する。本例の場合は、状態bでの各接触情報の接触面積の大小は、S1’>S3’>S2’>S4’>S5’、としているため、ステップS104−3eに移行する。このとき、タップ検出に起因した接触情報の接触面積が一番大きくない場合は、ステップS101に処理を移行する。   In the case of the example shown in FIG. 34, when the state a is changed to the state c, the point A ′ (ID: 1) is caused by an increase or decrease in the number of coordinates. It is determined whether ') is larger than the contact area of other points (point B', point C ', point D', point E '). In the case of this example, the size of the contact area of each contact information in the state b is S1 '> S3'> S2 '> S4'> S5 ', so the process proceeds to step S104-3e. At this time, if the contact area of the contact information resulting from the tap detection is not the largest, the process proceeds to step S101.

次に、ステップS104−3eにおいて、左右手判定部134は、タップ検出時に検出するトリガーとなった接触情報の座標値と、その他の接触情報の座標値との相対位置関係により左右手を判定する。この相対関係とは、トリガーとなった接触情報の座標値のX座標が、その他の各接触情報の座標値に比べ、最も大きいか、もしくは最も小さいかのことを指している。これは、通常、検出した指の接触面積が他より大きく、かつその指が他の指の左側(X座標が小さい位置)にある場合は右手となり、また、他の指の右側(X座標が大きい位置)にある場合は左手になるということに着目している。   Next, in step S104-3e, the left and right hand determination unit 134 determines the left and right hands based on the relative positional relationship between the coordinate value of the contact information that is a trigger detected when the tap is detected and the coordinate value of the other contact information. This relative relationship indicates whether the X coordinate of the coordinate value of the contact information serving as a trigger is the largest or smallest compared to the coordinate values of the other contact information. This is usually a right hand when the detected contact area of the finger is larger than the other and the finger is on the left side of the other finger (position where the X coordinate is small), and the right side of the other finger (X coordinate is Focusing on the fact that it is in the left hand when in a large position.

図34の例の場合は、状態bにて点A’(ID:1)の出現がタップ検出のトリガーとなったため、状態bでの点A’とその他の各点(点B’、点C’、点D’,点E’)とのX座標の座標値の相対関係を参照すると、点A’は他の各点(点B’、点C’、点D’,点E’)のX座標と比べ最も小さい値を取っているため、この場合は、右手と判定する。   In the case of the example in FIG. 34, the appearance of the point A ′ (ID: 1) in the state b triggered the tap detection, so the point A ′ in the state b and the other points (point B ′, point C) Referring to the relative relationship of the coordinate value of the X coordinate with ', point D', point E '), point A' is the other point (point B ', point C', point D ', point E') In this case, it is determined to be the right hand because it takes the smallest value compared to the X coordinate.

なお、ステップS104−2eにおいて、接触面積の相対比較のみの判定を行ったが、一定の閾値を設けてから比較を行っても良い。また、ステップS104−3eにおいて、座標値の相対位置関係を算出するときに、X座標のみを用いていたが、通常、親指は他の指よりY座標が小さくなるため、左右手を判定する際にY座標を併せて用いても良い。   In step S104-2e, only the relative comparison of the contact areas is determined. However, the comparison may be performed after a certain threshold is provided. In step S104-3e, when calculating the relative positional relationship of coordinate values, only the X coordinate is used. Usually, the thumb has a smaller Y coordinate than other fingers, and therefore, when determining the left and right hands. The Y coordinate may be used together.

このように、他の接触情報と比べ、接触面積が大きく、かつX座標が最も小さい(もしくは大きい)親指の特性をいかすことで、タップという一般的な操作時に左右手を併せて判定することができるため、左右手判定のために別途モードを設ける必要が無い。そして、ユーザにとっても左右手を判定するために、特別な操作をする必要がない。   In this way, by utilizing the characteristics of the thumb having a large contact area and the smallest (or largest) X-coordinate compared to other contact information, it is possible to determine the left and right hands together during a general operation of tapping. Therefore, it is not necessary to provide a separate mode for left / right hand determination. Further, it is not necessary for the user to perform a special operation in order to determine the left and right hands.

(8)移動方向と接触面積から左右手を判別する場合(2本、座標変換)
図35のフローチャートは、ユーザが接触情報検知部1に2本の指を接触させた状態で、2本の指を動かした移動方向と、各接触情報の接触面積を用いることによってユーザの左右手を判定する場合の処理の流れを示している。
(8) When distinguishing left and right hands from the moving direction and contact area (two, coordinate conversion)
The flowchart of FIG. 35 shows the user's left and right hands by using the moving direction in which the two fingers are moved and the contact area of each contact information while the user is in contact with the contact information detecting unit 1. The flow of processing for determination is shown.

まず、ステップS103−1fからステップS103−5fにおいて、ジェスチャー認識部133は、図20におけるステップ103−1bからS103−5bまでの処理と同様の処理を行う。また、取得するモードと機能の実行方法についても同様である。   First, in steps S103-1f to S103-5f, the gesture recognition unit 133 performs the same processing as the processing from steps 103-1b to S103-5b in FIG. The same applies to the acquisition mode and the function execution method.

次に、ステップ104−1fとステップS104−2fにおいて、左右手判定部134は、各接触情報の接触面積を抽出し、左右手判定座標系を構築する。この処理について図36を用いて説明する。   Next, in Step 104-1f and Step S104-2f, the left and right hand determination unit 134 extracts the contact area of each contact information, and constructs a left and right hand determination coordinate system. This process will be described with reference to FIG.

図36(a)は、初めて接触情報検知部1で2点の接触情報を検知したときの様子を表している。このとき点A(ID:1)は、点B(ID:2)の接触面積より大きいとしている。次に、接触情報の中で最も接触面積が大きい接触情報(点A)の座標値(x1,y1)を左右手判定座標系の原点とし、接触面積が大きい接触情報の座標(x1,y1)から接触面積が小さい接触情報の座標(x2,y2)へのベクトル成分を算出する。その後、算出したベクトル成分から、原点(点A:O)を中心に右回りを正方向として、−45°回転させたベクトル成分をX’軸、+45°回転させたベクトル成分をY’軸と定義する。図36(a)の場合は、図36(b)に示す座標系が構築される。   FIG. 36A shows a state when the contact information detection unit 1 detects contact information of two points for the first time. At this time, the point A (ID: 1) is assumed to be larger than the contact area of the point B (ID: 2). Next, the coordinate value (x1, y1) of the contact information (point A) having the largest contact area among the contact information is set as the origin of the left and right hand determination coordinate system, and the coordinates (x1, y1) of the contact information having the large contact area are used. A vector component to the coordinates (x2, y2) of the contact information with a small contact area is calculated. Then, from the calculated vector component, the vector component rotated −45 ° with the clockwise direction around the origin (point A: O) as the positive direction is the X ′ axis, and the vector component rotated + 45 ° is the Y ′ axis. Define. In the case of FIG. 36 (a), the coordinate system shown in FIG. 36 (b) is constructed.

次に、ステップS104−3fとステップS104−4fにおいて、左右手判定部134は、左右手判定座標系における各接触情報の移動方向を算出し、移動方向から左右手の判定を行う。これは、通常、接触情報検知部1に接触させながら親指と人指し指での操作を行った場合、親指のほうが接触面積が大きくなり、また更に、親指と人指し指を開いたり閉じたりする動作をユーザが行った場合、親指と人指し指の指関節の可動範囲から、お互いの指は直交に近い軌跡を描くことに着目している。つまり、構築した左右手判定座標系は、親指を原点とし、2点を結ぶベクトル成分を45°ずつに成分を分配した座標系を用いて移動方向を算出し、左右手を判定することで、ユーザが接触情報検知部1に対して、どのような方向から手を進入させても確実に左右の手を判定することができる。   Next, in step S104-3f and step S104-4f, the left and right hand determining unit 134 calculates the moving direction of each contact information in the left and right hand determining coordinate system, and determines the left and right hands from the moving direction. Normally, when the operation with the thumb and the index finger is performed while making contact with the contact information detection unit 1, the contact area of the thumb becomes larger, and further, the user performs an operation of opening and closing the thumb and the index finger. When it does, it pays attention to drawing the locus | trajectory near each other's finger from the movable range of the finger joint of the thumb and the index finger. In other words, the constructed left / right hand determination coordinate system calculates the moving direction using a coordinate system in which the vector component connecting two points is distributed at 45 ° with the thumb as the origin, and the user determines the left / right hand, thereby allowing the user to Regardless of the direction in which the hand enters the contact information detection unit 1, the left and right hands can be reliably determined.

例えば、図36(c)において、点Aと点Bが、点A’と点B’に移動したとする。なお、左右手判定座標系としてはX’Y’座標系が構築されている。このときの各点の移動方向を算出したときに、点Aから点A’への移動方向は、X’軸方向には負方向((x’1−0)<0)、Y’軸方向には移動無し((y’1−0)=0)、点Bから点B’への移動方向は、X’軸方向には移動無し((x’2’−x’2)=0)、Y’軸方向には正方向((y’1’− y’2)>0)だったとする。このような場合、左右手判定部134は、図36(d)に従って、各点の移動方向から右手と判定する。   For example, in FIG. 36C, it is assumed that point A and point B have moved to point A 'and point B'. An X′Y ′ coordinate system is constructed as the left / right hand determination coordinate system. When the movement direction of each point at this time is calculated, the movement direction from the point A to the point A ′ is negative in the X′-axis direction ((x′1-0) <0) and Y′-axis direction. No movement ((y′1-0) = 0), the movement direction from the point B to the point B ′ is no movement in the X′-axis direction ((x′2′−x′2) = 0) It is assumed that the positive direction ((y′1′−y′2)> 0) in the Y′-axis direction. In such a case, the left and right hand determining unit 134 determines the right hand from the moving direction of each point according to FIG.

このような処理を行うことで、接触情報検知部1に対して任意の方向から操作した場合でも、左右の手を判別することが可能となる。   By performing such processing, the left and right hands can be distinguished even when the contact information detection unit 1 is operated from an arbitrary direction.

なお、移動方向の算出の際に、各接触情報の各成分(X’座標、Y’座標)の移動量を移動方向のパラメータとして利用することで、より高い精度で左右手の判定が行える。   When calculating the movement direction, the movement amount of each component (X ′ coordinate, Y ′ coordinate) of each contact information is used as a movement direction parameter, so that the left and right hands can be determined with higher accuracy.

なお、上記に様に(1)〜(8)に示したいくつかの方法を組み合わせ左右手を判定しても構わない。それにより、より確実な左右手判定が可能になる。   As described above, the left and right hands may be determined by combining some methods shown in (1) to (8). Thereby, more reliable left and right hand determination becomes possible.

以上のように、本発明にかかる入力装置および入力方法は、接触情報検知部のみを用いてユーザの左右手を判定することができるため、コストアップすることなく、左右の手に応じてアプリケーションを動作させることができる、という効果を有し、カーナビゲーション装置等の機器に対してユーザが命令等を入力するための入力装置および入力方法に利用できる。   As described above, since the input device and the input method according to the present invention can determine the left and right hands of the user using only the contact information detection unit, the application operates according to the left and right hands without increasing the cost. It can be used for an input device and an input method for a user to input a command or the like to a device such as a car navigation device.

本発明の実施の形態における入力装置100のハードウエア構成の一例を示す図The figure which shows an example of the hardware constitutions of the input device 100 in embodiment of this invention X軸とY軸でそれぞれ独立に接触位置を判定するタッチパネルで検出される接触位置を説明するための図The figure for demonstrating the contact position detected with the touch panel which determines a contact position each independently by the X-axis and a Y-axis 本発明の実施の形態における入力装置100の機能ブロック図Functional block diagram of input device 100 in an embodiment of the present invention 本発明の実施の形態における入力装置100の全体の処理の流れを示すフローチャートThe flowchart which shows the flow of the whole process of the input device 100 in embodiment of this invention. 接触情報検知部1に入力するユーザの操作の一例を示す図で、(a)親指と人指し指を閉じた状態を示す図、(b)親指と人指し指を開いた状態を示す図It is a figure which shows an example of a user's operation input into the contact information detection part 1, (a) The figure which shows the state which closed the thumb and the index finger, (b) The figure which shows the state which opened the thumb and the index finger 接触情報検知部1の車への設置位置の例を示す図で、(a)車両のセンターコンソールに取り付けられた場合の一例を示す図、(b)車両のハンドルに取り付けられた場合の一例を示す図、(c)カーナビゲーションなどのディスプレイに取り付けられた場合の一例を示す図It is a figure which shows the example of the installation position to the vehicle of the contact information detection part 1, (a) A figure which shows an example at the time of being attached to the center console of a vehicle, (b) An example at the time of being attached to the handle of a vehicle The figure to show, (c) The figure which shows an example at the time of attaching to displays, such as a car navigation 図4のステップS101における接触情報検知部1の動作について説明するための図で、(a)接触情報検知部1の操作面に操作者の手か置かれた状態の一例を示す図、(b)接触情報検知部1が検知した接触点群を黒丸群で表した図FIG. 5 is a diagram for explaining the operation of the contact information detection unit 1 in step S101 of FIG. 4, (a) a diagram illustrating an example of a state where an operator's hand is placed on the operation surface of the contact information detection unit 1; ) The contact point group detected by the contact information detection unit 1 is represented by a black circle group. 図4のステップS101を詳細に説明するためのフローチャートFlowchart for explaining step S101 in FIG. 4 in detail 図8のステップS101−2、S101−3の接触座標と接触面積の算出方法について説明するための図The figure for demonstrating the calculation method of the contact coordinate and contact area of step S101-2 of FIG. 8, S101-3 図8のステップS101−3で取得された接触座標の位置の一例を示す図The figure which shows an example of the position of the contact coordinate acquired by step S101-3 of FIG. 図4のステップS102を詳細に説明するためのフローチャートFlowchart for explaining step S102 in FIG. 4 in detail 接触情報履歴格納部132に格納されている情報を説明するための図で、(a)前回ユーザが接触情報検知部1に接触した状態を説明するための図、(b)接触情報履歴格納部132に格納されている各点の情報を示す図It is a figure for demonstrating the information stored in the contact information log | history storage part 132, (a) The figure for demonstrating the state which the user contacted the contact information detection part 1 last time, (b) The contact information log | history storage part The figure which shows the information of each point stored in 132 図11のステップS102−4の処理を説明するための図で、(a)前回の各接触情報(5点)と今回検知した各接触情報(5点)を説明するための図、(b)今回検知した接触情報を説明するための図、(c)前回(5点)と今回(5点)取得した各座標間の距離の一例を示す図FIG. 11 is a diagram for explaining the processing in step S102-4 in FIG. 11, (a) a diagram for explaining each previous contact information (5 points) and each contact information detected this time (5 points); The figure for demonstrating the contact information detected this time, (c) The figure which shows an example of the distance between each coordinate acquired last time (5 points) and this time (5 points) 図11のステップS102−9の処理を説明するための図で、(a)前回の各接触情報(5点)と今回検知した各接触情報(4点)を説明するための図、(b)前回(5点)と今回(4点)取得した各座標間の距離の一例を示す図It is a figure for demonstrating the process of step S102-9 of FIG. 11, (a) The figure for demonstrating each last contact information (5 points) and each contact information (4 points) detected this time, (b). The figure which shows an example of the distance between each coordinate acquired last time (5 points) and this time (4 points) 図11のステップS102−10の処理を説明するための図で、(a)前回の各接触情報(4点)と今回検知した各接触情報(5点)を説明するための図、(b)前回(4点)と今回(5点)取得した各座標間の距離の一例を示す図FIG. 11 is a diagram for explaining the processing in step S102-10 in FIG. 11; (a) a diagram for explaining each previous contact information (4 points) and each contact information detected this time (5 points); and (b). The figure which shows an example of the distance between each coordinate acquired last time (4 points) and this time (5 points) 図4のステップS103、S104において、ユーザが接触情報検知部1に指を接触させたときに、接触情報の各座標の相対位置からユーザの左右手を判定する場合の処理の流れを示すフローチャートIn steps S103 and S104 of FIG. 4, a flowchart showing a processing flow when the user's left and right hands are determined from the relative position of each coordinate of the contact information when the user touches the contact information detection unit 1 with a finger. 図16のステップS104−1aにおいて左右手を判定する方法を説明するための図で、(a)ユーザが右手で操作した場合を説明するための図、(b)ユーザが左手で操作した場合を説明するための図FIG. 17 is a diagram for explaining a method for determining left and right hands in step S104-1a in FIG. 16; (a) a diagram for explaining a case where the user operates with the right hand; and (b) a case where the user operates with the left hand. Figure to do 図16のステップS104−1aにおいて左右手の判定が不能になる一例を説明するための図で、(a)2点のX座標が一致もしくはX座標同士の距離が閾値以下の場合を示す図、(b)2点のY座標が一致もしくはY座標同士の距離が閾値以下の場合を示す図FIG. 17 is a diagram for explaining an example in which the determination of the left and right hands is impossible in step S104-1a in FIG. 16, (a) a diagram illustrating a case where the X coordinates of two points match or the distance between the X coordinates is equal to or less than a threshold value; b) A diagram showing a case where two points have the same Y coordinate or the distance between the Y coordinates is equal to or smaller than a threshold value. 図16のステップS104−1aにおいて5点の接触情報の各座標の相対位置から左右手を判定する方法を説明するための図で、(a)ユーザが右手で操作した場合を説明するための図、(b)ユーザが左手で操作した場合を説明するための図FIG. 17 is a diagram for explaining a method of determining the left and right hands from the relative positions of the coordinates of the five points of contact information in step S104-1a in FIG. 16, and (a) a diagram for explaining a case where the user operates with the right hand; (B) The figure for demonstrating the case where a user operates with the left hand 図4のステップS103、S104において、ユーザが接触情報検知部1に指を接触させた状態で、その指を動かした移動方向によってユーザの左右手を判定する場合の処理の流れを示すフローチャートIn steps S103 and S104 of FIG. 4, a flowchart showing a processing flow in a case where the user's left and right hands are determined based on the moving direction in which the user moves his / her finger in a state where the user contacts the contact information detection unit 1. 図20のステップS103−4bにおいて、各接触情報履歴から各座標の移動方向を算出する処理を説明するための図で、(a)親指と人指し指を閉じた状態aを示す図、(b)親指と人指し指を開いた状態bを示す図FIGS. 20A and 20B are diagrams for explaining a process of calculating a moving direction of each coordinate from each contact information history in step S103-4b of FIG. 20, (a) a diagram showing a state a with the thumb and index finger closed; and (b) a thumb. Showing state b with index finger open 図20のステップS104−1bにおいて、接触情報検知部1に接触した任意の2点(点aと点b)がX及びY軸のいずれの方向に移動したかによって左右手を判定する条件を示す図FIG. 20 is a diagram illustrating a condition for determining the left and right hands depending on which direction of the X and Y axes two arbitrary points (point a and point b) in contact with the contact information detection unit 1 are moved in step S104-1b in FIG. 図20のフローチャートにおいて、5点の移動方向を用いてユーザの左右手を判定する場合を説明するための図で、(a)片手の全ての指先を集合させた状態aの場合を示す図、(b)片手の全ての指を開いた状態bの場合を示す図FIG. 20 is a diagram for explaining a case where the left and right hands of a user are determined using five moving directions in the flowchart of FIG. 20, (a) a diagram showing a case of a state a in which all fingertips of one hand are gathered; b) The figure which shows the case of the state b which opened all the fingers of one hand 図20のステップS103−4bにおいて、5点の移動方向を用いてユーザの左右手を判定する場合の移動方向の算出式と移動方向を示す図The figure which shows the calculation formula and moving direction of a moving direction in the case of determining a user's left and right hand using 5 moving directions in step S103-4b of FIG. 図20のステップS104−1bにおいて、5点の移動方向を用いてユーザの左右手を判定する条件を示す図The figure which shows the conditions which determine a user's left and right hand using 5 points | pieces of moving directions in FIG.20 S104-1b. 図20のフローチャートにおいて、親指のみを左右に動かす操作により左右手を判定する方法を説明するための図で、(a)片手の全ての指を開いている状態aを示す図、(b)状態aから親指のみを右に動かした状態bを示す図In the flowchart of FIG. 20, it is a figure for demonstrating the method to determine a left and right hand by operation which moves only a thumb to the left and right, (a) The figure which shows the state a which has opened all the fingers of one hand, (b) State a The figure which shows the state b which moved only the thumb from right to right 図26の片手の全ての指を開いている状態aから親指のみを右に動かした状態bにした場合の各点の移動方向を示す図The figure which shows the moving direction of each point at the time of changing into the state b which moved only the thumb to the right from the state a which opened all the fingers of one hand of FIG. 図26の親指のみを左右に動かす操作をした場合、図20のステップS104−1bにおいて、移動方向を用いてユーザの左右手を判定する条件を示す図The figure which shows the conditions which determine a user's left and right hand using a moving direction in FIG.20 S104-1b when operation which moves only the thumb of FIG. 26 to right and left is carried out. 図4のステップS103、S104において、ユーザが接触情報検知部1に指を接触させた状態で、その指を動かした移動方向と移動量を算出し、これらを用いることによってユーザの左右手を判定する場合の処理の流れを示すフローチャートIn steps S103 and S104 of FIG. 4, the user moves his / her finger with the contact information detection unit 1 in contact, calculates the moving direction and moving amount, and uses these to determine the user's left and right hands. Flowchart showing the flow of processing 図5の人指し指と親指を用いて開いたり閉じたりする際の親指と人指し指の移動量を示す図The figure which shows the moving amount | distance of the thumb and the index finger at the time of opening and closing using the index finger and the thumb of FIG. 図4のステップS103、S104において、ユーザが接触情報検知部1に2本の指とさらに他の指が接触している状態で、2本の指を動かした移動方向と移動量とその他の指との相対位置とを算出し、これらを用いることによってユーザの左右手を判定する場合の処理の流れを示すフローチャートIn steps S103 and S104 of FIG. 4, the movement direction, movement amount, and other fingers of the two fingers moved while the user is in contact with the contact information detection unit 1 and two fingers. The flowchart which shows the flow of a process in the case of determining a user's left and right hand by calculating the relative position with and using these 図31のフローチャートにおいて、左右手を判定する方法を説明するための図で、(a)人指し指と親指を閉じた状態aを示す図、(b)人指し指と親指を開いた状態bを示す図、(c)各点の移動距離を示す図In the flowchart of FIG. 31, it is a figure for demonstrating the method to determine left and right hand, (a) The figure which shows the state a which closed the index finger and thumb, (b) The figure which shows the state b which opened the index finger and thumb, c) A diagram showing the moving distance of each point 図4のステップS103、S104において、ユーザが接触情報検知部に2本以上の指を接触させた状態から、ある特定の1本の指を用いてタップしたことによって、ユーザの左右手を判定する場合の処理の流れを示すフローチャートIn Steps S103 and S104 in FIG. 4, the user's left and right hands are determined by tapping with one specific finger from a state where two or more fingers are in contact with the contact information detection unit. Showing the flow of processing 図33のユーザが接触情報検知部に2本以上の指を接触させた状態から、ある特定の1本の指を用いてタップしたことによって、ユーザの左右手を判定する方法を説明するための図で、(a)接触情報の座標数が4個の状態aを示す図、(b)状態aから接触情報の座標数が5個に遷移した状態bを示す図、(c)状態bから接触情報の座標数が4個に遷移した状態cを示す図The figure for demonstrating the method of determining a user's right and left hand by tapping using the one specific one finger from the state which the user of FIG. 33 made the contact information detection part contact two or more fingers. (A) A diagram showing a state a with four contact information coordinates, (b) a diagram showing a state b in which the number of contact information coordinates has changed from five to five, and (c) a contact from the state b. The figure which shows the state c which the number of coordinates of information changed to four 図4のステップS103、S104において、ユーザが接触情報検知部1に2本の指を接触させた状態で、2本の指を動かした移動方向と、各接触情報の接触面積を用いることによってユーザの左右手を判定する場合の処理の流れを示すフローチャートIn steps S103 and S104 in FIG. 4, the user moves the two fingers while the two fingers are in contact with the contact information detection unit 1 and uses the contact area of each piece of contact information. Flowchart showing the flow of processing when determining left and right hands 図35のフローチャートにおいて、左右手を判定する方法を説明するための図で、(a)初めて接触情報検知部1で2点の接触情報を検知したときの様子を示す図、(b)各接触情報の接触面積を抽出して構築される左右手判定座標系を説明するための図、(c)左右手判定座標系における各接触情報の移動状態を示す図、(d)各点の移動方向から左右手を判定する条件を示す図35 is a diagram for explaining a method of determining the left and right hands in the flowchart of FIG. 35, (a) a diagram showing a state when the contact information detection unit 1 detects two points of contact information for the first time, and (b) each contact information. The figure for demonstrating the left-right hand determination coordinate system constructed | assembled by extracting the contact area of (c), the figure which shows the movement state of each contact information in a left-right hand determination coordinate system, (d) left-right hand from the moving direction of each point The figure which shows the condition which judges

符号の説明Explanation of symbols

1 接触情報検知部
2 演算部
3 表示部
4 操作対象機器
100 入力装置
131 関連ID作成部
132 接触情報履歴格納部
133 ジェスチャー認識部
134 左右手判別部
135 コマンド送信部
DESCRIPTION OF SYMBOLS 1 Contact information detection part 2 Calculation part 3 Display part 4 Operation object apparatus 100 Input device 131 Related ID preparation part 132 Contact information log | history storage part 133 Gesture recognition part 134 Left and right hand discrimination | determination part 135 Command transmission part

Claims (8)

操作面におかれた指によって機器を操作する入力装置であって、
前記操作面と複数の指との複数の接触座標を検知する接触情報検知部と、
前記接触情報検知部で検知した接触座標を格納する接触情報履歴格納部と、
前記接触情報履歴格納部に格納されている各接触座標に対してIDを付与する関連ID作成部と、
前記関連ID作成部により同じIDを付与された各接触座標の履歴に基づいてジェスチャーを認識するジェスチャー認識部と、
前記接触情報履歴格納部に格納されている各接触座標に基づいて、前記操作面に置かれた指が右手もしくは左手のものであるかを判定する左右手判定部と、
前記ジェスチャー認識部による認識結果と前記左右手判定部の判定結果とに基づいて、予め決められたコマンドを前記機器に送信するコマンド送信部とを備える入力装置。
An input device for operating a device with a finger placed on an operation surface,
A contact information detection unit that detects a plurality of contact coordinates between the operation surface and a plurality of fingers;
A contact information history storage unit for storing contact coordinates detected by the contact information detection unit;
An associated ID creation unit that assigns an ID to each contact coordinate stored in the contact information history storage unit;
A gesture recognition unit for recognizing a gesture based on a history of each contact coordinate given the same ID by the related ID creation unit;
A left and right hand determination unit that determines whether a finger placed on the operation surface is a right hand or a left hand based on each contact coordinate stored in the contact information history storage unit;
An input device comprising: a command transmission unit configured to transmit a predetermined command to the device based on a recognition result by the gesture recognition unit and a determination result of the left and right hand determination unit.
前記左右手判定部は、複数の前記接触座標の相対的な位置関係に基づいて左右手を判定することを特徴とする請求項1記載の入力装置。 The input device according to claim 1, wherein the left and right hand determining unit determines the left and right hands based on a relative positional relationship between the plurality of contact coordinates. 前記接触情報検知部は前記操作面と複数の指との複数の接触座標に加えて接触面積を検知し、
前記接触情報履歴格納部は前記接触情報検知部で検知した接触座標と接触面積を格納し、
前記左右手判定部は前記接触情報履歴格納部に格納されている各接触座標の相対的な位置関係と接触面積に基づいて左右手を判定することを特徴とする請求項2記載の入力装置。
The contact information detection unit detects a contact area in addition to a plurality of contact coordinates between the operation surface and a plurality of fingers,
The contact information history storage unit stores contact coordinates and a contact area detected by the contact information detection unit,
The input device according to claim 2, wherein the left and right hand determination unit determines the left and right hands based on a relative positional relationship and a contact area of each contact coordinate stored in the contact information history storage unit.
前記ジェスチャー認識手段は、さらに、前記関連ID作成部により同じIDを付与された各接触座標の履歴に基づいて各接触座標の移動方向を算出し、
前記左右手判定部は、前記ジェスチャー認識手段により算出された複数の前記接触座標の移動方向に基づいて左右手を判定することを特徴とする請求項1記載の入力装置。
The gesture recognition means further calculates a moving direction of each contact coordinate based on a history of each contact coordinate given the same ID by the related ID creation unit,
The input device according to claim 1, wherein the left and right hand determination unit determines a left and right hand based on a movement direction of the plurality of contact coordinates calculated by the gesture recognition unit.
前記ジェスチャー認識手段は、さらに、前記関連ID作成部により同じIDを付与された各接触座標の履歴に基づいて各接触座標の移動方向を算出し、
前記左右手判定部は、前記ジェスチャー認識手段により算出された複数の前記接触座標の移動方向および複数の前記接触座標の相対的な位置関係に基づいて左右手を判定することを特徴とする請求項1記載の入力装置。
The gesture recognition means further calculates a moving direction of each contact coordinate based on a history of each contact coordinate given the same ID by the related ID creation unit,
The left and right hand determination unit determines left and right hands based on a movement direction of the plurality of contact coordinates calculated by the gesture recognition unit and a relative positional relationship between the plurality of contact coordinates. Input device.
前記左右手判定部は、さらに複数の前記接触座標の移動量を算出し、算出された複数の前記接触座標の移動方向と移動量に基づいて左右手を判定することを特徴とする請求項4記載の入力装置。 The left and right hand determination unit further calculates a movement amount of the plurality of contact coordinates, and determines the left and right hands based on the calculated movement direction and movement amount of the plurality of contact coordinates. Input device. 前記接触情報検知部は前記操作面と複数の指との複数の接触座標に加えて接触面積を検知し、
前記接触情報履歴格納部は前記接触情報検知部で検知した接触座標と接触面積を格納し、
前記左右手判定部は、前記ジェスチャー認識手段により算出された複数の前記接触座標の移動方向と、前記接触情報履歴格納部に格納されている接触面積とに基づいて左右手を判定することを特徴とする請求項4記載の入力装置。
The contact information detection unit detects a contact area in addition to a plurality of contact coordinates between the operation surface and a plurality of fingers,
The contact information history storage unit stores contact coordinates and a contact area detected by the contact information detection unit,
The left and right hand determining unit determines a left and right hand based on a movement direction of the plurality of contact coordinates calculated by the gesture recognition unit and a contact area stored in the contact information history storage unit. The input device according to claim 4.
操作面におかれた指によって機器を操作する入力方法であって、
前記操作面と複数の指との複数の接触座標を検知する接触情報検知ステップと、
前記接触情報検知ステップで検知した接触座標を格納する接触情報履歴格納ステップと、
前記接触情報履歴格納ステップで格納されてた各接触座標に対してIDを付与する関連ID作成ステップと、
前記関連ID作成ステップにより同じIDを付与された各接触座標の履歴に基づいてジェスチャーを認識するジェスチャー認識ステップと、
前記接触情報履歴格納ステップに格納されている各接触座標に基づいて、前記操作面に置かれた指が右手もしくは左手のものであるかを判定する左右手判定ステップと、
前記ジェスチャー認識ステップによる認識結果と前記左右手判定ステップの判定結果とに基づいて、予め決められたコマンドを前記機器に送信するコマンド送信ステップとを備える、入力方法。
An input method for operating a device with a finger placed on an operation surface,
A contact information detection step of detecting a plurality of contact coordinates between the operation surface and a plurality of fingers;
A contact information history storage step for storing the contact coordinates detected in the contact information detection step;
A related ID creating step of giving an ID to each contact coordinate stored in the contact information history storing step;
A gesture recognition step for recognizing a gesture based on the history of each contact coordinate given the same ID by the related ID creation step;
Left and right hand determination step for determining whether a finger placed on the operation surface is a right hand or a left hand based on each contact coordinate stored in the contact information history storage step;
An input method comprising: a command transmission step of transmitting a predetermined command to the device based on a recognition result in the gesture recognition step and a determination result in the left and right hand determination step.
JP2008288444A 2008-11-11 2008-11-11 Input device and input method Pending JP2010117748A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008288444A JP2010117748A (en) 2008-11-11 2008-11-11 Input device and input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008288444A JP2010117748A (en) 2008-11-11 2008-11-11 Input device and input method

Publications (1)

Publication Number Publication Date
JP2010117748A true JP2010117748A (en) 2010-05-27

Family

ID=42305408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008288444A Pending JP2010117748A (en) 2008-11-11 2008-11-11 Input device and input method

Country Status (1)

Country Link
JP (1) JP2010117748A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012021A (en) * 2011-06-29 2013-01-17 Sony Corp Information processing apparatus, information processing method, program and remote operation system
JP2013045416A (en) * 2011-08-26 2013-03-04 Toshiba Alpine Automotive Technology Corp Driving support device
JP2013120434A (en) * 2011-12-06 2013-06-17 Denso It Laboratory Inc Operator identification device, method, and on-vehicle navigation apparatus
EP2879079A1 (en) * 2013-11-28 2015-06-03 Fujitsu Limited Biological information determination apparatus
JP2016119008A (en) * 2014-12-22 2016-06-30 アルプス電気株式会社 Input device, control method and program thereof
CN112603276A (en) * 2020-12-28 2021-04-06 中科彭州智慧产业创新中心有限公司 Rapid detection equipment and method for pulse waves of cun and kou of both hands

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012021A (en) * 2011-06-29 2013-01-17 Sony Corp Information processing apparatus, information processing method, program and remote operation system
JP2013045416A (en) * 2011-08-26 2013-03-04 Toshiba Alpine Automotive Technology Corp Driving support device
JP2013120434A (en) * 2011-12-06 2013-06-17 Denso It Laboratory Inc Operator identification device, method, and on-vehicle navigation apparatus
EP2879079A1 (en) * 2013-11-28 2015-06-03 Fujitsu Limited Biological information determination apparatus
JP2015106209A (en) * 2013-11-28 2015-06-08 富士通株式会社 Biological information determination apparatus and program
JP2016119008A (en) * 2014-12-22 2016-06-30 アルプス電気株式会社 Input device, control method and program thereof
CN112603276A (en) * 2020-12-28 2021-04-06 中科彭州智慧产业创新中心有限公司 Rapid detection equipment and method for pulse waves of cun and kou of both hands
CN112603276B (en) * 2020-12-28 2022-08-02 中科彭州智慧产业创新中心有限公司 Rapid detection equipment and method for pulse waves of cun and kou of both hands

Similar Documents

Publication Publication Date Title
EP3191929B1 (en) Disambiguation of keyboard input
JP5187280B2 (en) Operation control device and operation control method
EP2508964B1 (en) Touch operation determination device, and touch operation determination method and program
JP4743267B2 (en) Information processing apparatus, information processing method, and program
JP2016538780A (en) Method and apparatus for remotely controlling vehicle functions
US9448714B2 (en) Touch and non touch based interaction of a user with a device
US8456433B2 (en) Signal processing apparatus, signal processing method and selection method of user interface icon for multi-touch panel
EP2962175A1 (en) Delay warp gaze interaction
JP2010117748A (en) Input device and input method
WO2011045805A1 (en) Gesture processing
JP2016529640A (en) Multi-touch virtual mouse
US20150363037A1 (en) Control method of touch panel
CN107870705B (en) Method and device for changing icon position of application menu
JP2007287015A (en) Input device for selecting item described in a hierarchical structure, character input device, and input program
KR101154137B1 (en) User interface for controlling media using one finger gesture on touch pad
Jiang et al. Givs: fine-grained gesture control for mobile devices in driving environments
KR101809278B1 (en) Apparatus and method of inputting characters by sensing motion of user
US10338692B1 (en) Dual touchpad system
US11755124B1 (en) System for improving user input recognition on touch surfaces
TWI554938B (en) Control method for a touch device
KR20200019426A (en) Inferface method of smart touch pad and device therefor
CN103793157B (en) Turnover touch control method and device of mobile terminal
US20110205157A1 (en) System and Method for Information Handling System Touchpad Enablement
KR20190048109A (en) Touch recognizing method and apparatus
WO2015093005A1 (en) Display system