JP2010182135A - Input device and input method - Google Patents

Input device and input method Download PDF

Info

Publication number
JP2010182135A
JP2010182135A JP2009025746A JP2009025746A JP2010182135A JP 2010182135 A JP2010182135 A JP 2010182135A JP 2009025746 A JP2009025746 A JP 2009025746A JP 2009025746 A JP2009025746 A JP 2009025746A JP 2010182135 A JP2010182135 A JP 2010182135A
Authority
JP
Japan
Prior art keywords
coordinate
hand
coordinates
contact
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2009025746A
Other languages
Japanese (ja)
Inventor
Takuya Hirai
卓哉 平井
Atsushi Yamashita
敦士 山下
Tomohiro Terada
智裕 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009025746A priority Critical patent/JP2010182135A/en
Publication of JP2010182135A publication Critical patent/JP2010182135A/en
Ceased legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device and an input method, allowing correct extraction of subsequent contact coordinates even when Y coordinates or the like overlap each other by movement of respective points, in a touch panel. <P>SOLUTION: In this input device specifying a contact position of a hand of a user from a detection position on an operation face of the touch panel and performing input operation, coordinates on the operation face are represented by an X coordinate axis and a Y coordinate axis orthogonal to each other. When the coordinate detected on the Y coordinate axis is smaller than a coordinate number detected on the X coordinate axis with a direction corresponding to a long direction of the hand of the user as the Y coordinate axis, the coordinate number detected on the X coordinate axis is set as the number of contact points of the hand of the user. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ユーザが機器に対して命令等を入力するための入力装置および入力方法に関し、より特定的には、ユーザがディスプレイ等に表示された情報に基づいて手等の身体部分を用いて、命令等を入力することのできる入力装置および入力方法に関する。   The present invention relates to an input device and an input method for a user to input a command or the like to a device, and more specifically, using a body part such as a hand based on information displayed on a display or the like by a user. The present invention relates to an input device and an input method capable of inputting commands and the like.

近年の情報機器端末の多機能化に伴って、ユーザがより使い易いユーザインターフェイスが求められている。使い易いユーザインターフェイスの一例として、タッチパネルディスプレイがある。タッチパネルディスプレイは、ディスプレイに表示されるGUI(Graphical User Interface)パーツを押す操作をすることによって、ユーザが命令等を情報機器端末等に入力する装置である。このことから、タッチパネルディスプレイは、初心者でも直感的に操作できるインターフェイスと言える。   With the recent increase in functionality of information equipment terminals, user interfaces that are easier for users to use are required. An example of an easy-to-use user interface is a touch panel display. The touch panel display is a device in which a user inputs a command or the like to an information device terminal or the like by pressing a GUI (Graphical User Interface) part displayed on the display. From this, it can be said that the touch panel display is an interface that even a beginner can operate intuitively.

しかし、タッチパネルディスプレイにおいては、タッチを検知するデバイス(以下、操作部という)と表示部とが一体であるので、当該タッチパネルディスプレイがユーザの手元にないと操作できないという課題があった。   However, in a touch panel display, since a device for detecting a touch (hereinafter referred to as an operation unit) and a display unit are integrated, there is a problem that the touch panel display cannot be operated unless the user has it.

この課題を解決するために、特許文献1の技術は、操作部と表示部とを分離し、操作部に置かれた操作者の手を検知し、コンピュータグラフィック(以下、CGという)の手形状モデル(以下、単に、手モデルという)を、表示部に表示されるGUIに重畳して表示する。このことによって、ユーザは、表示部から離れている場合でも、タッチパネルディスプレイの直感的な操作感を維持した操作を行うことができる。
特開2006−72854号公報
In order to solve this problem, the technique of Patent Document 1 separates an operation unit and a display unit, detects an operator's hand placed on the operation unit, and forms a computer graphic (hereinafter referred to as CG) hand shape. A model (hereinafter simply referred to as a hand model) is displayed superimposed on a GUI displayed on the display unit. Thus, even when the user is away from the display unit, the user can perform an operation while maintaining an intuitive operational feeling of the touch panel display.
JP 2006-72854 A

しかしながら、上記した従来の技術は、複数の指の接触座標を検知するタッチパネルの種類によっては、初期段階で取得した接触座標と、操作中に移動した接触座標の座標同士の対応関係がとれなくなる場合が存在する。   However, according to the conventional technique described above, the correspondence between the contact coordinates acquired in the initial stage and the coordinates of the contact coordinates moved during the operation cannot be obtained depending on the type of the touch panel that detects the contact coordinates of a plurality of fingers. Exists.

例えば、タッチパネルの検知方式として、赤外線などの光を指で遮ることにより、座標を特定するという光学式が存在する。この光学式は、一般的にATMなどで多く用いられている。このような光学式で複数の指の接触を検知した場合、必ず接触した指の数より多くの座標の候補が抽出される。このときの例を図19に示す。   For example, as a touch panel detection method, there is an optical method in which coordinates are specified by blocking light such as infrared rays with a finger. This optical type is generally used in many ATMs. When contact of a plurality of fingers is detected by such an optical method, more coordinate candidates than the number of touched fingers are necessarily extracted. An example at this time is shown in FIG.

図19は、タッチパネル上で、実際は点A(x1,y2)と点B(x2,y1)を接触しているにも関わらず、別の点C(x1,y1)と点D(x2,y2)が検出されるという例である。これは、X座標とY座標が独立して検知されるために、各座標の組み合わせの数だけ交点が抽出される。   FIG. 19 shows another point C (x1, y1) and point D (x2, y2) on the touch panel even though the point A (x1, y2) and the point B (x2, y1) are actually in contact with each other. ) Is detected. In this case, since the X coordinate and the Y coordinate are detected independently, intersections are extracted by the number of combinations of the respective coordinates.

このような方式の場合、座標検知の際のサンプリングレートが十分(約20Hz以上)であれば、ユーザは意識的に同時に2点以上を接触させない限り時間差が生じるため、それぞれを区別して検知することができる。例えば、まず最初に点Aが接触し、次に点Bが接触されたとする。ここで、まず検知した座標(x1,y2)を点Aの座標として保存する。その後、次のタイミングでその他に新たに3点の座標である点B(x2,y1)、点C(x1,y1)、点D(x2,y2)が検知されるが、点Aの座標成分(x1,y2)を除いたものが新たにユーザの指の接触によって検知されるべき点と推定できる。それにより、(x2,y1)をユーザが接触した点Bの座標として保存する。このような処理を行うことで、簡易的に2点以上の座標が検知することができるようになる。   In the case of such a method, if the sampling rate at the time of coordinate detection is sufficient (about 20 Hz or more), the user will consciously detect each because there is a time difference unless two or more points are consciously touched simultaneously. Can do. For example, suppose that point A first touches and then point B touches. Here, first, the detected coordinates (x1, y2) are stored as the coordinates of the point A. After that, at the next timing, the points B (x2, y1), C (x1, y1), and D (x2, y2), which are three new coordinates, are detected. It can be estimated that the points except (x1, y2) should be newly detected by the touch of the user's finger. Thereby, (x2, y1) is stored as the coordinates of the point B where the user touches. By performing such processing, two or more coordinates can be easily detected.

しかしながら、図19のように初期段階で各点が検出できたとしても、各点が移動し、Y座標等が互いに重複した場合、その後の接触座標が正しく抽出できなくなる場合が存在する。この場合について、図20を用いて説明する。   However, even if each point can be detected in the initial stage as shown in FIG. 19, if each point moves and the Y coordinates and the like overlap each other, there are cases where subsequent contact coordinates cannot be extracted correctly. This case will be described with reference to FIG.

図20は、タッチパネルが検知した接触箇所(斜線部)と、実際に操作者がタッチパネルに接触した点(点Aと点B)の各状態と、そのときの各座標の抽出結果を表している。状態aでは、上記の方法により各点(点A、点B)の接触座標は検知できているものとする。次に、状態aから状態bに点が移動した場合、状態bでは、どちらの点のY座標が移動したかが分からなくなってしまうという課題が有った。   FIG. 20 shows each state of the contact location (shaded portion) detected by the touch panel, the point where the operator actually touched the touch panel (point A and point B), and the extraction result of each coordinate at that time. . In the state a, it is assumed that the contact coordinates of each point (point A, point B) can be detected by the above method. Next, when the point moves from the state a to the state b, in the state b, there is a problem that it becomes difficult to know which point the Y coordinate has moved.

本発明は、前記従来の課題を解決するもので、タッチパネルにおいて、各点が移動してY座標等が互いに重複した場合でも、その後の接触座標を正しく抽出できる入力装置および入力方法を提供することを目的とする。   The present invention solves the above-described conventional problems, and provides an input device and an input method capable of correctly extracting subsequent contact coordinates even when Y coordinates and the like overlap each other on a touch panel. With the goal.

前記従来の課題を解決するために、本発明の第一の局面は入力装置に向けられている。本発明は、タッチパネルの操作面上の検出位置からユーザの手の接触位置を特定して入力操作を行う入力装置であって、操作面上の座標を互いに直交するX座標軸とY座標軸により表し、ユーザの手の長手方向に対応する方向をY座標軸とすると、X座標軸上で検出される座標数よりY座標軸上で検出される座標が少ない場合に、X座標軸上で検出される座標数をユーザの手の接触点数とする。   In order to solve the above-described conventional problems, a first aspect of the present invention is directed to an input device. The present invention is an input device that performs an input operation by specifying a contact position of a user's hand from a detection position on an operation surface of a touch panel, and coordinates on the operation surface are represented by an X coordinate axis and a Y coordinate axis that are orthogonal to each other, Assuming that the direction corresponding to the longitudinal direction of the user's hand is the Y coordinate axis, when the number of coordinates detected on the Y coordinate axis is less than the number of coordinates detected on the X coordinate axis, the number of coordinates detected on the X coordinate axis is determined by the user. The number of contact points of the hand.

また、X座標軸上で検出される座標数よりY座標軸上で検出される座標数が1つ少ない場合に、Y座標軸上で新たな座標を検出すると、当該検出前後の検出位置のY座標の距離に基づいて、Y座標が重複していた2つの検出位置を特定し、当該検出前後の2つの検出位置のうちX座標の変化の大きい方の検出位置をユーザの手の接触位置として特定する。   Further, when the number of coordinates detected on the Y coordinate axis is one less than the number of coordinates detected on the X coordinate axis, when a new coordinate is detected on the Y coordinate axis, the distance of the Y coordinate of the detection position before and after the detection. Based on the above, the two detection positions where the Y coordinate is overlapped are specified, and the detection position with the larger change in the X coordinate is specified as the contact position of the user's hand among the two detection positions before and after the detection.

また、本発明の第二の局面は入力方法に向けられている。本発明は、タッチパネルの操作面上の検出位置からユーザの手の接触位置を特定して入力操作を行う入力方法であって、操作面上の座標を互いに直交するX座標軸とY座標軸により表し、ユーザの手の長手方向に対応する方向をY座標軸とすると、X座標軸上で検出される座標数よりY座標軸上で検出される座標数が少ない場合に、X座標軸上で検出される座標数をユーザの手の接触点数とするステップを含む。   The second aspect of the present invention is directed to an input method. The present invention is an input method for performing an input operation by specifying a contact position of a user's hand from a detection position on an operation surface of a touch panel, wherein coordinates on the operation surface are represented by an X coordinate axis and a Y coordinate axis that are orthogonal to each other, Assuming that the direction corresponding to the longitudinal direction of the user's hand is the Y coordinate axis, and the number of coordinates detected on the Y coordinate axis is smaller than the number of coordinates detected on the X coordinate axis, the number of coordinates detected on the X coordinate axis is A step of determining the number of contact points of the user's hand.

また、X座標軸上で検出される座標数より前記Y座標軸上で検出される座標数が1つ少ない場合に、Y座標軸上で新たな座標を検出すると、当該検出前後の検出位置のY座標の距離に基づいて、Y座標が重複していた2つの検出位置を特定するステップと、当該検出前後の2つの検出位置のうちX座標の変化の大きい方の検出位置をユーザの手の接触位置として特定するステップをさらに含む。   Further, when the number of coordinates detected on the Y coordinate axis is one less than the number of coordinates detected on the X coordinate axis, when a new coordinate is detected on the Y coordinate axis, the Y coordinate of the detection position before and after the detection is detected. Based on the distance, the step of identifying the two detection positions where the Y coordinate overlapped, and the detection position with the larger change in the X coordinate of the two detection positions before and after the detection as the contact position of the user's hand Further comprising the step of identifying.

本発明の入力装置および入力方法によれば、タッチパネルにおいて、各点が移動してY座標等が互いに重複した場合でも、その後の接触座標を正しく抽出できる。そのため、抽出した接触座標に基づいて手モデルを作成して表示部に表示する場合には、ユーザの手形状を手モデルに忠実に反映できる。この結果として、ユーザは、違和感を感じることなく操作を行うことができる。   According to the input device and the input method of the present invention, even when each point moves and the Y coordinate and the like overlap each other on the touch panel, the subsequent contact coordinates can be correctly extracted. Therefore, when a hand model is created based on the extracted contact coordinates and displayed on the display unit, the user's hand shape can be accurately reflected in the hand model. As a result, the user can perform an operation without feeling uncomfortable.

図1は、本発明の実施形態に係る入力装置の動作の概要を説明するための図である。以下では、図1を用いて、入力装置の動作について簡単に説明する。   FIG. 1 is a diagram for explaining the outline of the operation of the input device according to the embodiment of the present invention. Hereinafter, the operation of the input device will be briefly described with reference to FIG.

図1に示す通り、入力装置は、接触座標検知部1と演算部2とを備える。接触座標検知部1は、当該接触座標検知部1の操作面上に置いたユーザ(以下、操作者という)の手が接触した領域を検出し、検出した接触領域の情報(以下、単に、接触領域情報という)を演算部2に出力する。接触座標検知部1は、例えば、多点で接触を検知するタッチパネルである。なお、接触座標検知部1は、複数点の接触を検知できればよく、光学式、静電容量方式、感圧方式、抵抗膜方式等を用いる一般的なデバイスでよい。   As shown in FIG. 1, the input device includes a contact coordinate detection unit 1 and a calculation unit 2. The contact coordinate detection unit 1 detects an area touched by the user's hand (hereinafter referred to as an operator) placed on the operation surface of the contact coordinate detection unit 1, and detects information on the detected contact area (hereinafter simply referred to as contact). (Referred to as region information) is output to the calculation unit 2. The contact coordinate detection unit 1 is, for example, a touch panel that detects contact at multiple points. Note that the contact coordinate detection unit 1 only needs to be able to detect contact at a plurality of points, and may be a general device using an optical method, a capacitance method, a pressure-sensitive method, a resistance film method, or the like.

演算部2は、接触座標検知部1が検知した接触座標を用いて表示データを作成して表示部3に出力する。具体的には、演算部2は、接触座標を用いてCGの手モデルを作成し、当該手モデルをGUIに重畳した表示データを作成して表示部3に出力する。また、演算部2は、作成した手モデルとGUIパーツとの位置関係を用いて操作者が意図するコマンドを決定し、決定したコマンドを情報端末機器等である操作対象機器4に出力する。なお、演算部2は、一般的なパーソナルコンピュータ(以下、PCという)でもよいし、専用のグラフィックIC等を組み込んだ汎用性のない専用機でもよい。また、演算部2は、接触座標検知部1から入力される信号を受信するインターフェイスと、CPU、ROM、RAMと、各モジュール間を結ぶバスと、計算結果を映像として出力するインターフェイスとを含む。   The calculation unit 2 creates display data using the contact coordinates detected by the contact coordinate detection unit 1 and outputs the display data to the display unit 3. Specifically, the calculation unit 2 creates a CG hand model using the contact coordinates, creates display data in which the hand model is superimposed on the GUI, and outputs the display data to the display unit 3. Further, the calculation unit 2 determines a command intended by the operator using the positional relationship between the created hand model and the GUI part, and outputs the determined command to the operation target device 4 such as an information terminal device. Note that the arithmetic unit 2 may be a general personal computer (hereinafter referred to as a PC), or may be a general-purpose dedicated machine incorporating a dedicated graphic IC or the like. The calculation unit 2 includes an interface that receives a signal input from the contact coordinate detection unit 1, a CPU, a ROM, and a RAM, a bus that connects the modules, and an interface that outputs a calculation result as an image.

表示部3は、演算部2から入力された表示データを用いて表示を行う。表示部3は、例えば、液晶ディスプレイやCRT等のディスプレイである。操作対象機器4は、演算部2から入力されたコマンドを実行する。   The display unit 3 performs display using the display data input from the calculation unit 2. The display unit 3 is a display such as a liquid crystal display or a CRT, for example. The operation target device 4 executes the command input from the calculation unit 2.

以上の構成によって、操作者は、表示部3に表示されたGUIパーツ上に重畳された手モデルを目視しながら、接触座標検知部1の操作面上の手を動かして手モデルを操作することによって、操作対象機器4を操作することができる。   With the above configuration, the operator operates the hand model by moving the hand on the operation surface of the contact coordinate detection unit 1 while visually observing the hand model superimposed on the GUI part displayed on the display unit 3. Thus, the operation target device 4 can be operated.

なお、本実施の形態において、接触座標検知部1の設置位置の例として、車への設置位置として図2のような形態を想定している。図2(a)は車両のセンターコンソールに取り付けられた場合の一例を示す図である。図2(b)は、接触座標検知部1が車両のハンドルに取り付けられた場合の一例を示す図である。図2(c)は、接触座標検知部1が、車両のドアの操作部に取り付けられた場合の一例を示す図である。図2(a)に示すような車両の位置に、接触座標検知部1を取り付けることで、ドライバである操作者は接触座標検知部1に対して左手を矢印の方向に置くことは予め分る。   In the present embodiment, as an example of the installation position of the contact coordinate detection unit 1, a configuration as shown in FIG. 2 is assumed as the installation position on the car. FIG. 2A is a diagram illustrating an example when the vehicle is attached to the center console of the vehicle. FIG. 2B is a diagram illustrating an example when the contact coordinate detection unit 1 is attached to the handle of the vehicle. FIG.2 (c) is a figure which shows an example when the contact coordinate detection part 1 is attached to the operation part of the door of a vehicle. By attaching the contact coordinate detection unit 1 to the position of the vehicle as shown in FIG. 2A, it is known in advance that the operator who is a driver places his left hand in the direction of the arrow with respect to the contact coordinate detection unit 1. .

ここで、手の方向とは、後述する図6(a)を用いて説明すると、手の付け根を示す付け根点から中指の指先位置点に向う方向(手の長手方向)を意味する。図6(a)に示すように接触座標検知部1の操作面上の座標を互いに直交するX座標軸とY座標軸により表すと、ユーザの手の長手方向に対応する方向はY座標軸の方向となる。   Here, the direction of the hand means a direction (longitudinal direction of the hand) from the base point indicating the base of the hand toward the fingertip position point of the middle finger when described with reference to FIG. As shown in FIG. 6A, when the coordinates on the operation surface of the contact coordinate detection unit 1 are expressed by the X coordinate axis and the Y coordinate axis orthogonal to each other, the direction corresponding to the longitudinal direction of the user's hand is the direction of the Y coordinate axis. .

また、図2(b)に示すような車両の位置に、取り付けることで、ドライバである操作者は接触座標検知部1に対して左手または右手を矢印の方向に置くことは予め分る。また、図2(c)に示すような車両位置に、取り付けることで、ドライバである操作者は接触座標検知部1に対して右手を矢印の方向に置くことは予め分る。   In addition, by attaching to the position of the vehicle as shown in FIG. 2 (b), it is known in advance that the operator who is a driver places the left hand or the right hand in the direction of the arrow with respect to the contact coordinate detection unit 1. Further, by attaching to the vehicle position as shown in FIG. 2C, it is known in advance that the operator who is a driver places his right hand in the direction of the arrow with respect to the contact coordinate detection unit 1.

以下では、入力装置の構成および動作について詳しく説明する。図3は、入力装置100の機能ブロックを示す図である。図3に示すように、入力装置100は、接触座標検知部1と演算部2とを備える。演算部2は、接触座標算出部201と、関連ID作成部202と、移動量算出部203と、指曲り角度算出部204と、モデル形状決定部205と、座標履歴格納部206と、モデル保持部207と、GUIパーツ保持部208と、重畳画像作成部209と、衝突判定部210と、コマンド送信部211とを含む。   Hereinafter, the configuration and operation of the input device will be described in detail. FIG. 3 is a diagram illustrating functional blocks of the input device 100. As shown in FIG. 3, the input device 100 includes a contact coordinate detection unit 1 and a calculation unit 2. The calculation unit 2 includes a contact coordinate calculation unit 201, a related ID creation unit 202, a movement amount calculation unit 203, a finger bending angle calculation unit 204, a model shape determination unit 205, a coordinate history storage unit 206, and a model holding unit. Unit 207, GUI parts holding unit 208, superimposed image creation unit 209, collision determination unit 210, and command transmission unit 211.

図4は、入力装置の動作を説明するためのフローチャートである。操作者等によってスタートスイッチがオンにされると、入力装置は動作を開始する。   FIG. 4 is a flowchart for explaining the operation of the input device. When the start switch is turned on by an operator or the like, the input device starts operation.

まず、ステップS101において、接触座標検知部1は、当該接触座標検知部1の操作面上に操作者の手が置かれているか否かを判定する。操作者の手が置かれていない場合、接触座標検知部1は、処理待ち状態となり、操作者の手が置かれると、ステップS102に移る。なお、ステップS101における判定は、接触が検知されたか否かによって行うことができる。   First, in step S <b> 101, the contact coordinate detection unit 1 determines whether or not the operator's hand is placed on the operation surface of the contact coordinate detection unit 1. When the operator's hand is not placed, the contact coordinate detection unit 1 enters a process waiting state, and when the operator's hand is placed, the process proceeds to step S102. Note that the determination in step S101 can be made based on whether or not contact is detected.

次に、ステップS102において、接触座標算出部201は、当該接触座標検知部1が出力する互いに直交した2軸(X、Y座標)のそれぞれ独立した値を用いて、接触している操作者の4つの指先の位置を示す座標値(以下、指先位置点という)を算出する。なお、座標の算出方法は、後に詳細に説明する。   Next, in step S102, the contact coordinate calculation unit 201 uses the independent values of the two axes (X and Y coordinates) orthogonal to each other output from the contact coordinate detection unit 1 to determine the contact operator. A coordinate value indicating the positions of the four fingertips (hereinafter referred to as fingertip position points) is calculated. A method for calculating coordinates will be described in detail later.

次に、ステップS103において、関連ID作成部202は、接触座標算出部1によって算出された座標値に対してそれぞれIDを付与し、座標履歴格納部206に格納する。なお、IDの付与方法は、後に詳細に説明する。   Next, in step S <b> 103, the related ID creation unit 202 assigns IDs to the coordinate values calculated by the contact coordinate calculation unit 1, and stores them in the coordinate history storage unit 206. The ID assigning method will be described in detail later.

次に、ステップS104において、移動量算出部203は、4つの指先位置点を取得済みかを判定し、取得するとステップS105に移る。取得していない場合は、ステップS102に戻る。   Next, in step S104, the movement amount calculation unit 203 determines whether or not four fingertip position points have been acquired. If acquired, the process proceeds to step S105. If not acquired, the process returns to step S102.

次に、ステップS105において、移動量算出部203は、操作者が手を開いた状態(指を伸ばした状態)の指先位置点である初期位置点が取得済みか否かを判定する。初期位置点が取得済みの場合は、ステップS107に移る。初期位置点が取得済みでない場合は、ステップS106に移る。ここで、初期位置点が取得済みか否かの判定は、入力装置が今回起動した後に初期位置点を取得したか否かを判定するものである。   Next, in step S <b> 105, the movement amount calculation unit 203 determines whether or not an initial position point that is a fingertip position point in a state where the operator has opened his hand (a state where the finger is extended) has been acquired. If the initial position point has been acquired, the process proceeds to step S107. If the initial position point has not been acquired, the process proceeds to step S106. Here, the determination of whether or not the initial position point has been acquired is to determine whether or not the initial position point has been acquired after the input device has been activated this time.

ステップS106において、移動量算出部203は、操作者に接触座標検知部1に置いた手を開くように促すメッセージを通知して初期位置点を取得する。このメッセージは、例えば、表示部3に表示されて操作者に通知される。その後、移動量算出部203は、取得した初期位置点を用いて操作者が手を開いた状態の手モデル(以下、初期手モデルという)を作成する。ステップS106で取得された初期位置点および初期手モデルのデータは、モデル保持部207に保存される。その後、ステップS102に戻る。つまり、入力装置100は、起動後最初に操作者が手を接触座標検知部1に置いた時点で、初期位置点および初期手モデルを取得する。初期位置点および初期手モデルの取得方法は、後に詳細に説明する。   In step S <b> 106, the movement amount calculation unit 203 notifies the operator of a message that prompts the user to open the hand placed on the contact coordinate detection unit 1 and acquires the initial position point. This message is displayed on the display unit 3 and notified to the operator, for example. Thereafter, the movement amount calculation unit 203 uses the acquired initial position point to create a hand model in which the operator has opened his hand (hereinafter referred to as an initial hand model). The initial position point and initial hand model data acquired in step S106 are stored in the model holding unit 207. Thereafter, the process returns to step S102. That is, the input device 100 acquires the initial position point and the initial hand model when the operator places his hand on the contact coordinate detection unit 1 for the first time after activation. The method for acquiring the initial position point and the initial hand model will be described in detail later.

なお、操作者が交代した場合や、操作者の左右の手が入れ替わった場合には、既に取得済みの初期位置点および初期手モデルを破棄し、ステップS106の動作を再度行うことで初期位置点および初期手モデルを更新してもよい。また、初期位置点および初期手モデルを起動毎に取得せず、操作者の指示に応答してステップS106の動作を行うことによって、初期位置点および初期手モデルを新たに取得してもよい。また、ステップS101において接触座標検知部1が所定期間手の接触を検知しない場合には、既に取得済みの初期位置点および初期手モデルを破棄し、ステップS106の動作を再度行って新たな初期位置点および初期手モデルを取得してもよい。   When the operator changes or when the left and right hands of the operator are switched, the initial position point and the initial hand model that have already been acquired are discarded, and the operation of step S106 is performed again to perform the initial position point. And the initial hand model may be updated. In addition, the initial position point and the initial hand model may be newly acquired by performing the operation of step S106 in response to the operator's instruction without acquiring the initial position point and the initial hand model every time the computer is activated. If the contact coordinate detection unit 1 does not detect a hand contact for a predetermined period in step S101, the already acquired initial position point and initial hand model are discarded, and the operation in step S106 is performed again to obtain a new initial position. Point and initial hand models may be obtained.

ステップS107において、移動量算出部203は、指先位置点の初期位置点からの移動量を算出する。   In step S107, the movement amount calculation unit 203 calculates the movement amount of the fingertip position point from the initial position point.

次に、ステップS108において、指曲り角度算出部204は、ステップS107で取得した指先位置点の初期位置点からの移動量に基づいて、手モデルの指の曲り角度を決定する。この指曲り角度を決定する方法については、後に詳細に説明する。   Next, in step S108, the finger bending angle calculation unit 204 determines the bending angle of the finger of the hand model based on the amount of movement of the fingertip position point from the initial position point acquired in step S107. The method for determining the finger bending angle will be described in detail later.

次に、ステップS109において、モデル形状決定部205は、S108で決定された手モデルの各指関節の曲り角度を用いて、モデル保持部207に保持された手モデルを読出して変形を反映させる。ここで、モデル保持部207に初期手モデルが保持されている場合には、当該初期手モデルを読出して変形を反映させる。   Next, in step S109, the model shape determining unit 205 reads the hand model held in the model holding unit 207 using the bending angle of each finger joint of the hand model determined in S108 and reflects the deformation. Here, when the initial hand model is held in the model holding unit 207, the initial hand model is read to reflect the deformation.

なお、モデル保持部207に保持される手モデルは、一般的な骨格(以下、ボーン構造という)を持つCG(Computer Graphics)モデルであることが好ましい。モデル保持部207が保持する手モデルの一例を図5に示す。図5に示す手モデルは、複数のポリゴンとボーン構造を示すラインとから構成される。また、手モデルをモデル保持部207に保持するファイル形式は、一般的な形式でよい。一例として、ポリゴンの頂点座標を格納したファイル形式が挙げられる。また、手モデルは、併せてテクスチャ情報も保持し、手モデルの現実感を増幅させてもよい。   Note that the hand model held in the model holding unit 207 is preferably a CG (Computer Graphics) model having a general skeleton (hereinafter referred to as a bone structure). An example of a hand model held by the model holding unit 207 is shown in FIG. The hand model shown in FIG. 5 includes a plurality of polygons and lines indicating bone structures. The file format for holding the hand model in the model holding unit 207 may be a general format. As an example, there is a file format that stores the vertex coordinates of a polygon. The hand model may also hold texture information and amplify the realism of the hand model.

次に、ステップS110において、重畳画像作成部209は、GUIパーツ保持部208が予め保持しているGUIパーツを読み出し、読出したGUIパーツを配置した操作画像を作成する。ここで、GUIパーツとは、表示部3に表示される制御命令を割り当てたボタン等である。なお、GUIパーツおよびその配置方法は、一般的なものでよい。その後、重畳画像作成部209は、ステップS109で変形を反映された手モデルと、GUIパーツが配置された操作画像とを重畳して重畳画像を作成し、当該重畳画像を表示部に表示する。   Next, in step S110, the superimposed image creation unit 209 reads the GUI parts previously held by the GUI parts holding unit 208, and creates an operation image in which the read GUI parts are arranged. Here, the GUI part is a button or the like to which a control command displayed on the display unit 3 is assigned. The GUI parts and the arrangement method thereof may be general. After that, the superimposed image creation unit 209 creates a superimposed image by superimposing the hand model reflected in the deformation in step S109 and the operation image on which the GUI parts are arranged, and displays the superimposed image on the display unit.

次に、ステップS111において、衝突判定部210は、GUIパーツと手モデルの指先位置点との衝突の有無を判定する。この衝突判定の詳細は、後述する。衝突がないと判定されている場合は、ステップS101〜S111の処理が繰り返されて、操作者の手の動きに応じて重畳画像内の手モデルが変形する。衝突が有ると判定されると、衝突判定部210は、衝突が有ったGUIパーツに割当てられたコマンドをコマンド送信部211に通知し、ステップS112に移る。   Next, in step S111, the collision determination unit 210 determines whether or not there is a collision between the GUI part and the fingertip position point of the hand model. Details of the collision determination will be described later. If it is determined that there is no collision, the processes in steps S101 to S111 are repeated, and the hand model in the superimposed image is deformed according to the movement of the operator's hand. If it is determined that there is a collision, the collision determination unit 210 notifies the command transmission unit 211 of the command assigned to the GUI part with the collision, and the process proceeds to step S112.

ステップS112において、コマンド送信部211は、通知されたコマンドを操作対象機器4に送信し、ステップS101に戻る。操作対象機器4は、送信されたコマンドを受信して実行する。以上の処理が繰り返されることによって、入力装置100は、コマンドの送信を繰り返して操作対象機器4を操作する。なお、操作者等によってスタートスイッチがオフにされると処理は終了する。   In step S112, the command transmission unit 211 transmits the notified command to the operation target device 4, and the process returns to step S101. The operation target device 4 receives and executes the transmitted command. By repeating the above processing, the input device 100 operates the operation target device 4 by repeatedly transmitting a command. Note that the processing ends when the start switch is turned off by an operator or the like.

以上に説明した動作によって、操作者は、表示部に表示された重畳画像を目視しながら手を動かすことによって、重畳画像内の手モデルを操作できる。そして、操作者は、手モデルを操作して指先の位置をGUIパーツに重ね合わせることによって、操作対象機器4を操作できることとなる。   By the operation described above, the operator can operate the hand model in the superimposed image by moving his / her hand while viewing the superimposed image displayed on the display unit. Then, the operator can operate the operation target device 4 by operating the hand model and superimposing the position of the fingertip on the GUI part.

以下では、図4を用いて説明した各ステップについて、詳細に説明する。   Below, each step demonstrated using FIG. 4 is demonstrated in detail.

図6は、図4のステップS101における接触座標検知部1の動作について説明するための図である。図6(a)は、接触座標検知部1の操作面に操作者の手が置かれた状態の一例を示す。図6(b)は、接触座標検知部1が検知した互いに直交し、それぞれ独立に反応した座標(XY座標)を斜線で表した図である。接触座標検知部1は、図6(b)のように反応した座標を、X座標とY座標にして接触座標算出部201に出力する。   FIG. 6 is a diagram for explaining the operation of the contact coordinate detection unit 1 in step S101 of FIG. FIG. 6A shows an example of a state where the operator's hand is placed on the operation surface of the contact coordinate detection unit 1. FIG. 6B is a diagram in which coordinates (XY coordinates) detected by the contact coordinate detection unit 1 that are orthogonal to each other and reacted independently are represented by diagonal lines. The contact coordinate detection unit 1 outputs the coordinate that has reacted as shown in FIG. 6B to the contact coordinate calculation unit 201 as an X coordinate and a Y coordinate.

本実施形態では、図6のように操作者の指先位置点を検出する接触座標検知部1を想定している。これは、光学式や静電容量式などのタッチパネルやタッチスクリーンで数多く普及している。この光学式の原理を図6(c)の模式図を用いて説明する。   In the present embodiment, the contact coordinate detection unit 1 that detects the fingertip position point of the operator as shown in FIG. 6 is assumed. This is widely used in touch panels and touch screens such as optical type and electrostatic capacity type. The principle of this optical method will be described with reference to the schematic diagram of FIG.

図6(c)に示すように、光学式のタッチパネルは、操作面に水平、かつX座標軸と垂直な方向に光を発する多数のX発光部と、当該多数のX発光部が発した光を受光する多数のX受光部を備えている。多数のX発光部は多数のLEDの列や、1つのLEDから発光された光を分岐した光ファイバー列等で構成することができる。また、多数のX受光部は多数のX発光部に対向する位置に設置されており、多数のフォトダイオードの列により構成することができる。。光学式のタッチパネルは、同様に、操作面に水平、かつ(X座標軸と直交する)Y座標軸と垂直な方向に光を発する多数のY発光部と、当該多数のY発光部が発した光を受光する多数のY受光部とを備えている。   As shown in FIG. 6C, the optical touch panel has a number of X light emitting units that emit light in a direction that is horizontal to the operation surface and perpendicular to the X coordinate axis, and light emitted by the many X light emitting units. A large number of X light receiving portions for receiving light are provided. Many X light emission parts can be comprised with the row | line | column of many LED, the optical fiber row | line | column etc. which branched the light emitted from one LED. In addition, a large number of X light receiving portions are installed at positions facing the large number of X light emitting portions, and can be constituted by a large number of rows of photodiodes. . Similarly, the optical touch panel has a number of Y light emitting units that emit light in a direction that is horizontal to the operation surface and perpendicular to the Y coordinate axis (perpendicular to the X coordinate axis), and the light emitted by the many Y light emitting units. And a number of Y light-receiving portions that receive light.

この操作面上に操作者の指が、接触(または接近)することで、X発光部、Y発光部から発光している光を遮蔽すると、X受光部、Y受光部が影を検知する。この影は、X座標とY座標の両方に出現するため、操作者が接触した座標を特定することができる。ここで、指の接触により検出されるのは、図6(a)、(b)に示した様にある幅を持った領域としてである。その各領域は、幾つかのX受光部、Y受光部により検出される点群であって、接触座標検知部1はその点群から検出座標を出力する。検出座標としては、例えば点群で表される領域の重心の座標とすることができる。   When the finger of the operator touches (or approaches) on the operation surface to shield light emitted from the X light emitting unit and the Y light emitting unit, the X light receiving unit and the Y light receiving unit detect a shadow. Since this shadow appears in both the X coordinate and the Y coordinate, the coordinate touched by the operator can be specified. Here, what is detected by the contact of the finger is an area having a certain width as shown in FIGS. 6 (a) and 6 (b). Each area is a point group detected by several X light receiving units and Y light receiving units, and the contact coordinate detection unit 1 outputs detected coordinates from the point group. As detection coordinates, for example, the coordinates of the center of gravity of an area represented by a point group can be used.

しかし、このような方式の場合、2点以上の箇所を接触すると、接触していない箇所も接触座標の候補として検知することになる。このときの指先位置点が示す座標の特定方法については、図7を用いたステップS102とステップS103の詳細説明にて併せて説明する。   However, in the case of such a system, when two or more points are touched, a part that is not touched is also detected as a contact coordinate candidate. The method for specifying the coordinates indicated by the fingertip position point at this time will be described together in the detailed description of step S102 and step S103 using FIG.

図7は、図4のステップS102とステップS103を詳細に説明するためのフローチャートである。図8、図9、図10、図11は図7の各処理の詳細に説明するための図である。   FIG. 7 is a flowchart for explaining step S102 and step S103 in FIG. 4 in detail. 8, FIG. 9, FIG. 10, and FIG. 11 are diagrams for explaining the details of each process in FIG.

まず、ステップS123−1において、接触座標算出部201は、接触座標検知部1が検知したX座標とY座標をそれぞれ取得する。   First, in step S123-1, the contact coordinate calculation unit 201 acquires the X coordinate and the Y coordinate detected by the contact coordinate detection unit 1, respectively.

次に、ステップS123−2において、接触座標算出部201は、座標履歴格納部206に格納されている前回の座標値を読み出す。そして、ステップS123−3において、接触座標算出部201は、ステップS123−2で読み出した前回の座標値と、今回接触座標検知部1から取得した座標値とを比較し、新たにX座標が検知、消失したか、または変化がなかったかを判定する。   Next, in step S123-2, the contact coordinate calculation unit 201 reads the previous coordinate value stored in the coordinate history storage unit 206. In step S123-3, the contact coordinate calculation unit 201 compares the previous coordinate value read in step S123-2 with the coordinate value acquired from the current contact coordinate detection unit 1, and newly detects the X coordinate. Determine if disappeared or changed.

ここで、図8(c)を用いて座標履歴格納部206について説明する。グループ名とは、同じタイミングで取得された各接触情報をグループ化したものであり、関連ID作成部202は、同じタイミングで取得された各接触情報に同様の名前、もしくは番号を付与し、グループ化する。座標値とは、関連ID作成部202によって算出された指先位置点の座標値を表している。また、IDとは、座標値が操作面上で連続に移動した際に同様の点であることを示すためにタグ付けした番号のことであり、新規に座標値が出現した際には、異なるIDが関連ID作成部202によって付与され、座標履歴格納部206に格納される。   Here, the coordinate history storage unit 206 will be described with reference to FIG. The group name is a group of contact information acquired at the same timing, and the related ID creation unit 202 assigns a similar name or number to each contact information acquired at the same timing, and the group name Turn into. The coordinate value represents the coordinate value of the fingertip position point calculated by the related ID creation unit 202. The ID is a number tagged to indicate that the coordinate value is a similar point when continuously moved on the operation surface, and is different when a new coordinate value appears. An ID is assigned by the related ID creation unit 202 and stored in the coordinate history storage unit 206.

次に、ステップS123−3において、接触座標算出部201が、新たにX座標を検知した場合、ステップS123−4に処理を移行する。ステップS123−4において、接触座標算出部201は新規に出現したX座標、Y座標を接触座標とする。この場合について、図8を用いて説明する。   Next, when the contact coordinate calculation unit 201 newly detects an X coordinate in step S123-3, the process proceeds to step S123-4. In step S123-4, the contact coordinate calculation unit 201 sets the newly appearing X coordinate and Y coordinate as the contact coordinates. This case will be described with reference to FIG.

前回接触座標検知部1に検知された状態を図8(a)、この時に座標履歴格納部206に格納されている座標などの各情報を図8(c)に示す。また、今回接触座標検知部1に検知された状態を図8(b)に示す。   FIG. 8A shows a state detected by the previous contact coordinate detection unit 1, and FIG. 8C shows information such as coordinates stored in the coordinate history storage unit 206 at this time. FIG. 8B shows a state detected by the contact coordinate detection unit 1 this time.

図8(b)のような場合、接触座標検知部1が検知したX座標はx1,x2、Y座標はy1,y2となる。この場合、4通りの座標(x1,y1)、(x1,y2)、(x2,y1)、(x2,y2)が指先位置点の座標の候補として考えられる。ここで、座標履歴格納部206を参照し、前回の座標値(x1,y1)以外の座標を、今回取得した座標とする。つまり、本例においては、接触座標算出部201は、(x2,y2)を指先位置点の座標値とする。   In the case of FIG. 8B, the X coordinate detected by the contact coordinate detection unit 1 is x1, x2, and the Y coordinate is y1, y2. In this case, four kinds of coordinates (x1, y1), (x1, y2), (x2, y1), and (x2, y2) are considered as candidates for the coordinates of the fingertip position point. Here, the coordinate history storage unit 206 is referred to, and coordinates other than the previous coordinate value (x1, y1) are set as the coordinates acquired this time. That is, in this example, the contact coordinate calculation unit 201 sets (x2, y2) as the coordinate value of the fingertip position point.

なお、接触座標検知部1のサンプリングレートが十分(約20Hz程度以上)であれば、操作者は意識的に同時に2点以上の指を接触させない限り時間差が生じるため、それぞれを区別して検知することができ、各指先位置点の座標値を算出することが可能になる。   In addition, if the sampling rate of the contact coordinate detection unit 1 is sufficient (about 20 Hz or more), the operator will consciously detect each time because there is a time difference unless two or more fingers are consciously touched simultaneously. Thus, the coordinate value of each fingertip position point can be calculated.

次に、ステップS123−5において、関連ID作成部202は、今回算出した座標値に新規のIDを付与し、更に、その他の座標値と同様のグループ名を付与して座標履歴格納部206に格納する。図8(d)に、図8(b)における座標履歴格納部206に格納した各情報を示す。   Next, in step S123-5, the related ID creation unit 202 assigns a new ID to the coordinate value calculated this time, and further assigns a group name similar to other coordinate values to the coordinate history storage unit 206. Store. FIG. 8D shows information stored in the coordinate history storage unit 206 in FIG.

次に、ステップS123−3において、接触座標算出部201が、X座標が消失を検出した場合について説明する。この場合は、ステップS123−6に処理を移行する。   Next, the case where the contact coordinate calculation unit 201 detects the disappearance of the X coordinate in step S123-3 will be described. In this case, the process proceeds to step S123-6.

ステップS123−6において、接触座標算出部201は、消失したX座標に対応するY座標を抽出する。この場合について、図9を用いて説明する。   In step S123-6, the contact coordinate calculation unit 201 extracts a Y coordinate corresponding to the lost X coordinate. This case will be described with reference to FIG.

前回接触座標検知部1に検知された状態を図9(a)、この時に座標履歴格納部206に格納されている座標などの各情報を図9(c)、また、今回接触座標検知部1に検知された状態を図9(b)に示す。   FIG. 9A shows the state detected by the previous contact coordinate detection unit 1, FIG. 9C shows information such as the coordinates stored in the coordinate history storage unit 206 at this time, and the current contact coordinate detection unit 1 FIG. 9B shows the state detected in FIG.

図9(a)から図9(b)に変化した際に、図9(b)ではX座標のx4が消失している。このときに、接触座標算出部201は、座標履歴格納部206に格納されているx4に関連しているIDを抽出する。本例の場合は、図9(c)の座標履歴格納部206を参照して、ID:4を抽出する。   When changing from FIG. 9A to FIG. 9B, the x coordinate x4 disappears in FIG. 9B. At this time, the contact coordinate calculation unit 201 extracts an ID related to x4 stored in the coordinate history storage unit 206. In the case of this example, ID: 4 is extracted with reference to the coordinate history storage unit 206 in FIG.

次に、ステップS123−7において、関連ID作成部202は、抽出したIDに対応する情報を除き(削除し)、その他の座標値、グループ名、IDを更新して、座標履歴格納部206に格納する。図9(d)に、図9(b)における座標履歴格納部206に格納した各情報を示す。
なお、各IDと座標値の関連方法については、前回と今回の座標値間の距離を算出して、前回の座標値と最も距離が短くなった座標値に対して、前回のIDを継承することとするが、その他の方法を用いても構わない。
Next, in step S123-7, the related ID creation unit 202 removes (deletes) information corresponding to the extracted ID, updates other coordinate values, group names, and IDs, and stores them in the coordinate history storage unit 206. Store. FIG. 9D shows each piece of information stored in the coordinate history storage unit 206 in FIG.
As for the relation method between each ID and the coordinate value, the distance between the previous and current coordinate values is calculated, and the previous ID is inherited for the coordinate value having the shortest distance from the previous coordinate value. However, other methods may be used.

次に、ステップS123−3において、接触座標算出部201が、X座標の出現、及び消失を検出しなかった(変化が無かった)場合について説明する。この場合は、ステップS123−8に処理を移行する。   Next, a case will be described in which the contact coordinate calculation unit 201 did not detect the appearance and disappearance of the X coordinate (there was no change) in step S123-3. In this case, the process proceeds to step S123-8.

ステップS123−8において、接触座標算出部201は、さらに新規にY座標が出現したかを判定する。このときに、新規にY座標が出現した場合、ステップS123−9に処理を移行し、しなかった場合は、ステップS123−14に処理を移行する。まず、新規にY座標が出現しなかった場合について、図10を用いて説明する。   In step S123-8, the contact coordinate calculation unit 201 determines whether a new Y coordinate has appeared. At this time, if a new Y coordinate appears, the process proceeds to step S123-9, and if not, the process proceeds to step S123-14. First, a case where a new Y coordinate does not appear will be described with reference to FIG.

例えば、前回接触座標検知部1に検知された状態を図10(a)、この時に座標履歴格納部206に格納されている座標などの各情報を図10(c)、また、今回接触座標検知部1に検知された状態を図10(b)とした場合、X座標の数は変わらないが、Y座標の数が減っていることになる。   For example, FIG. 10A shows a state detected by the previous contact coordinate detection unit 1, FIG. 10C shows information such as coordinates stored in the coordinate history storage unit 206 at this time, and current contact coordinate detection. When the state detected by the unit 1 is shown in FIG. 10B, the number of X coordinates is not changed, but the number of Y coordinates is reduced.

このような場合、ステップS123−14において、接触座標算出部201は、前回の座標値と今回接触座標検知部1が検知した全座標候補の各距離を算出する。この全座標候補とは、図10(b)の場合は、検知した全X座標(x1’,x2’,x3’,x4’)と全Y座標(y2’,y3’,y4’)の全ての交点(12通り)のことを表している。この全ての交点と、図10(c)に示す前回の座標値((x1,y1)、(x2,y2)、(x3,y3)、(x4,y4))との距離を算出する。この算出結果の例を図10(e)に示す。   In such a case, in step S123-14, the contact coordinate calculation unit 201 calculates the distance between the previous coordinate value and all coordinate candidates detected by the current contact coordinate detection unit 1. In the case of FIG. 10B, all the coordinate candidates are all detected X coordinates (x1 ′, x2 ′, x3 ′, x4 ′) and all Y coordinates (y2 ′, y3 ′, y4 ′). It represents the intersection (12 ways). The distance between all the intersections and the previous coordinate values ((x1, y1), (x2, y2), (x3, y3), (x4, y4)) shown in FIG. 10C is calculated. An example of the calculation result is shown in FIG.

次に、ステップS123−15において、接触座標算出部201は、今回取得したX座標の座標数をカウントする。本例の場合は、取得したX座標はx1’、x2’、x3’、x4’となるため、4つになる。ここで、X座標軸上で検出される座標数をカウントして指先位置点数としているのは、図2の様に接触座標検知部1が設置されて予め手が置かれる方向が分っており、手の長手方向に対応する方向をY座標軸の方向としているため、Y座標は指先位置が近接しているために重なりやすいが、X座標値は手の指の並びから重なることはないためである。   Next, in step S123-15, the contact coordinate calculation unit 201 counts the number of coordinates of the X coordinate acquired this time. In the case of this example, the acquired X coordinates are x1 ', x2', x3 ', and x4', so there are four. Here, the number of coordinates detected on the X coordinate axis is counted as the number of fingertip positions, and the direction in which the hand is placed in advance is known as shown in FIG. This is because the direction corresponding to the longitudinal direction of the hand is the direction of the Y coordinate axis, and the Y coordinate is easy to overlap because the fingertip positions are close, but the X coordinate value does not overlap from the arrangement of the fingers of the hand. .

次に、ステップS123−16において、接触座標算出部201は、前回と今回の座標同士、最も座標間の距離が短くなる座標を上記カウント数だけ抽出する。図10の例の場合、4つの座標を抽出することとなり、前回の座標からの距離が最も短くなる座標は、図10(e)の算出結果から、(x1,y1)に対しては(x1’,y3’)、(x2,y2)に対しては(x2’,y2’)、(x3,y3)に対しては(x3’,y3’)、(x4,y4)に対しては(x4’,y4’)を抽出する。   Next, in step S123-16, the contact coordinate calculation unit 201 extracts the coordinates having the shortest distance between the previous and current coordinates by the count number. In the case of the example of FIG. 10, four coordinates are extracted, and the coordinate having the shortest distance from the previous coordinate is (x1) for (x1, y1) from the calculation result of FIG. ', Y3'), (x2, y2) for (x2 ', y2'), (x3, y3) for (x3 ', y3'), (x4, y4) for (x4, y4) x4 ′, y4 ′) are extracted.

次に、ステップS123−17において、関連ID作成部202は、前回の座標のIDをペアとなった座標値に継承し、グループ名を付与して座標履歴格納部206に格納する。つまり、図10の例の場合は、座標履歴格納部206に格納する各情報は、図10(d)に示す結果となる。   Next, in step S123-17, the related ID creation unit 202 inherits the previous coordinate ID to the paired coordinate values, assigns a group name, and stores the group name in the coordinate history storage unit 206. That is, in the case of the example in FIG. 10, each piece of information stored in the coordinate history storage unit 206 has the result shown in FIG.

次に、ステップS123−8において、接触座標算出部201が、新規にY座標が出現したと判定した場合について、図11を用いて説明する。   Next, a case where the contact coordinate calculation unit 201 determines in step S123-8 that a new Y coordinate has appeared will be described with reference to FIG.

例えば、前回接触座標検知部1に検知された状態を図11(a)、この時に座標履歴格納部206に格納されている座標などの各情報を図11(c)、また、今回接触座標検知部1に検知された状態を図11(b)とした場合、X座標の数は変わらないが、Y座標の数が増え、新規にY座標が出現したことになる。   For example, FIG. 11A shows the state detected by the previous contact coordinate detection unit 1, FIG. 11C shows information such as the coordinates stored in the coordinate history storage unit 206 at this time, and the current contact coordinate detection. When the state detected by the unit 1 is shown in FIG. 11B, the number of X coordinates does not change, but the number of Y coordinates increases and a new Y coordinate appears.

このような場合、ステップS123−9において、接触座標算出部201は、今回出現したY座標と前回取得した座標値のY座標間の距離を算出する。つまり、図11の例の場合は、図11(a)と図11(b)の差分から、新規に出現したY座標はy1’’であり、前回取得した座標のY座標は図11(c)から、y2’、y3’、y4’となる。このY座標の距離を算出結果の例を図11(e)に示す。なお、新規に出現したY座標の特定方法としては、前回取得した各Y座標と、今回取得した各Y座標同士の距離を算出し、前回取得したY座標を基準に最も距離が短くなるY座標を短い順に確定していく。そして、図11の例の場合は、前回のY座標の座標数が3であり、今回取得したY座標の座標数が4つであるため、最後に1つY座標があまることとなる。このY座標を新規に出現したY座標としている。   In such a case, in step S123-9, the contact coordinate calculation unit 201 calculates the distance between the Y coordinate that appears this time and the Y coordinate of the coordinate value acquired last time. That is, in the case of the example of FIG. 11, the newly appearing Y coordinate is y1 ″ from the difference between FIG. 11A and FIG. 11B, and the Y coordinate of the previously acquired coordinate is FIG. ) To y2 ′, y3 ′, and y4 ′. An example of the calculation result of the distance of the Y coordinate is shown in FIG. In addition, as a method for specifying a newly appearing Y coordinate, the distance between each Y coordinate acquired last time and each Y coordinate acquired this time is calculated, and the Y coordinate whose distance is the shortest based on the previously acquired Y coordinate Are determined in ascending order. In the case of the example in FIG. 11, the number of previous Y coordinates is 3, and the number of Y coordinates acquired this time is 4, so that one Y coordinate is finally added. This Y coordinate is a newly appearing Y coordinate.

次に、ステップS123−10において、接触座標算出部201は、前回取得した座標値の中で、最も距離が短くなるY座標に対応するX座標を、座標履歴格納部206を参照して抽出する。図11の例の場合は、図11(e)の各Y座標間の距離の算出結果より、y1’’と最も距離が短くなる前回のY座標はy3’であるため、図11(c)の座標履歴格納部206を参照し、y3’に対応するX座標としてID:1のx1’とID:3のx3’の2つを抽出する。   Next, in step S123-10, the contact coordinate calculation unit 201 extracts the X coordinate corresponding to the Y coordinate with the shortest distance from the previously acquired coordinate values with reference to the coordinate history storage unit 206. . In the case of the example of FIG. 11, since the previous Y coordinate having the shortest distance from y1 ″ is y3 ′ from the calculation result of the distance between the Y coordinates in FIG. 2 is extracted as X coordinates corresponding to y3 ′, that is, x1 ′ of ID: 1 and x3 ′ of ID: 3.

次に、ステップS123−11とステップS123−12において、接触座標算出部201は、抽出したX座標の前回の移動量を算出し、最も移動量の大きいX座標を新規に出現したY座標に対応する接触座標として抽出する。これは、図2に示すような設置位置に接触座標検知部1を設置することによって、接触座標検知部1に対して操作者の手が置かれる方向が予め分かっていることを前提としている。つまり、操作者が指をY軸方向に移動させた際に、手首を支点として指を動かすため、Y軸方向の移動のみならずX軸方向にも移動することに着目している。図11の例の場合、X座標の移動量の算出結果の例として図11(f)のようになった場合、ステップS123−9にて抽出したy1’’に対応するX座標はx1’’となる。それにより、接触座標算出部201は、(x1’’,y1’’)を接触座標として抽出する。   Next, in step S1233-1 and step S123-12, the contact coordinate calculation unit 201 calculates the previous movement amount of the extracted X coordinate, and the X coordinate having the largest movement amount corresponds to the newly appearing Y coordinate. To be extracted as contact coordinates. This presupposes that the direction in which the operator's hand is placed with respect to the contact coordinate detection unit 1 is known in advance by installing the contact coordinate detection unit 1 at the installation position as shown in FIG. That is, when the operator moves his / her finger in the Y-axis direction, attention is paid to the fact that the finger moves not only in the Y-axis direction but also in the X-axis direction in order to move the finger around the wrist. In the case of the example in FIG. 11, when the calculation result of the movement amount of the X coordinate is as shown in FIG. 11F, the X coordinate corresponding to y1 ″ extracted in step S123-9 is x1 ″. It becomes. Accordingly, the contact coordinate calculation unit 201 extracts (x1 ″, y1 ″) as the contact coordinates.

次に、ステップS123−13において、関連ID作成部202は、ステップS123−12で抽出したX座標に対応するIDを抽出した座標値に継承し、グループ名を付与して座標履歴格納部206に格納する。図11の例の場合は、x1’に対応するIDを図11(c)の座標履歴格納部206を参照して(x1’’,y1’’)に付与し、グループ名を付与して座標履歴格納部206に格納する。なお、その他の座標については、ステップS123−14からステップS123−17と同様の処理を行い、IDとグループ名を付与して座標履歴格納部206に格納する(図7には図示せず)。   Next, in step S123-13, the related ID creation unit 202 inherits the ID corresponding to the X coordinate extracted in step S123-12 to the extracted coordinate value, and assigns a group name to the coordinate history storage unit 206. Store. In the case of the example of FIG. 11, an ID corresponding to x1 ′ is assigned to (x1 ″, y1 ″) with reference to the coordinate history storage unit 206 of FIG. Stored in the history storage unit 206. For other coordinates, the same processing as in steps S123-14 to S123-17 is performed, and an ID and a group name are assigned and stored in the coordinate history storage unit 206 (not shown in FIG. 7).

このような処理を行うことによって、従来、接触座標検知部1がXY座標を独立で検知するような場合であっても、操作者の指先位置点に正確に追従した座標値を一位に特定することができ、さらには、後述する方法にて、操作者が指を曲げて操作した場合であっても、操作者の手形状を手モデルに忠実に反映できる。   By performing such processing, the coordinate value that accurately follows the fingertip position point of the operator is identified first even if the contact coordinate detection unit 1 conventionally detects the XY coordinates independently. In addition, even if the operator operates with the finger bent by the method described later, the hand shape of the operator can be faithfully reflected in the hand model.

図12は、図4のステップS106の処理を詳しく説明するためのフローチャートである。まず、ステップS106−1において、移動量算出部203は、操作者に接触座標検知部1の操作面上の手を開くように促すメッセージを通知して4つの初期位置点を取得する。   FIG. 12 is a flowchart for explaining in detail the processing in step S106 in FIG. First, in step S <b> 106-1, the movement amount calculation unit 203 notifies the operator of a message that prompts the user to open the hand on the operation surface of the contact coordinate detection unit 1 and acquires four initial position points.

次に、ステップS106−2において、移動量算出部203は、ステップS106−1で取得した初期位置点(指先位置点)と、モデル保持部207が当初から保持しているひな形であるひな形手モデルの対応する指先位置点とが重なるように、当該ひな形手モデルを変形して初期手モデルを作成する。ここで、4つの初期位置点は、それぞれ小指、薬指、中指、人差し指に対応する。操作者の操作が左手に限定される場合には、左手のひな形手モデルを使用して、左から小指、薬指、中指、人差し指の順番に初期位置点とが重なるように、当該ひな形手モデルを変形して初期手モデルを作成する。   Next, in step S106-2, the movement amount calculation unit 203 uses the initial position point (fingertip position point) acquired in step S106-1 and a model that is the model that the model holding unit 207 holds from the beginning. The initial model is created by deforming the model hand model so that the corresponding fingertip position point of the hand model overlaps. Here, the four initial position points correspond to the little finger, ring finger, middle finger, and index finger, respectively. If the operator's operation is limited to the left hand, use the left hand model hand model so that the initial position point overlaps with the little finger, ring finger, middle finger, and index finger in that order from the left. Deform the model to create an initial hand model.

ここで、初期手モデルを作成する際には、接触座標検知部1に対して操作者がどの方向に手を置いているかを知る必要がある。逆方向に手を置いた場合には、同じ4つの初期位置点であっても、初期手モデルが反対向きに作成されてしまう。そのため、接触座標検知部に対して操作者がどの方向から手を置いているかは、予め分っているものとする(図2を参照)。   Here, when creating the initial hand model, it is necessary to know in which direction the operator is placing his / her hand with respect to the contact coordinate detection unit 1. When the hand is placed in the opposite direction, the initial hand model is created in the opposite direction even at the same four initial position points. Therefore, it is assumed in advance from which direction the operator places his hand with respect to the contact coordinate detection unit (see FIG. 2).

その後、移動量算出部203は、作成した初期手モデルを、表示部3に表示する。この処理によって、移動量算出部203は、操作者の手の大きさを反映した初期手モデルを作成し、表示部3に表示できる。   Thereafter, the movement amount calculation unit 203 displays the created initial hand model on the display unit 3. By this processing, the movement amount calculation unit 203 can create an initial hand model reflecting the size of the operator's hand and display it on the display unit 3.

次に、ステップS106−3において、移動量算出部203は、ステップS106−1で取得した初期位置点の位置と、ステップS106−2で作成した初期手モデルとをモデル保持部207に保存し、ステップS102に戻る(図4を参照)。   Next, in step S106-3, the movement amount calculation unit 203 stores the position of the initial position point acquired in step S106-1 and the initial hand model created in step S106-2 in the model holding unit 207, The process returns to step S102 (see FIG. 4).

次に、図4のステップS108について詳細に説明する。ステップS108において、指曲り角度決定部204は、手モデルの付け根点と各指先位置点の座標値との距離を算出し、各指の各関節の曲がり角度を決定する。ここで、手モデルの付け根点は、手モデルの下部、中央の掌側の点であり、手モデルの基準位置となる。図13は、手モデル1301の付け根点1302から各指先位置点1311〜1314までの距離R1〜R4を示す図である。操作者は、手全体は移動させずに指を曲げたもしくは伸ばしたため、手モデルの付け根点1302は移動していない。図13に示すR1〜R4の長さの変化量は、それぞれ、指曲げにより生じる移動量である。   Next, step S108 in FIG. 4 will be described in detail. In step S108, the finger bending angle determination unit 204 calculates the distance between the base point of the hand model and the coordinate value of each fingertip position point, and determines the bending angle of each joint of each finger. Here, the base point of the hand model is a point on the lower palm side and the center of the hand model, which is a reference position of the hand model. FIG. 13 is a diagram illustrating distances R1 to R4 from the base point 1302 of the hand model 1301 to the fingertip position points 1311 to 1314. Since the operator bends or stretches the finger without moving the entire hand, the base point 1302 of the hand model is not moved. The amount of change in length of R1 to R4 shown in FIG. 13 is the amount of movement caused by finger bending.

この各指の指曲げによる指先位置点の移動量を用いて、指曲り角度算出部204は、各指の各関節の曲り角度を決定する。ここで、指先の変位から指関節の曲り角度を求める方法として、ロボット工学分野等で周知であるインバースキネマティクス(以下、IKという)技術がある。IK技術は、複数の可動部を持つアームの先端を目的位置に移動させるために用いられる。そして、アームが複数の可動部を持つ場合、IK技術を用いて目的位置にアームの先端を移動させるためには、可動部の曲り角度には複数の解が存在する。   Using the amount of movement of the fingertip position point due to finger bending of each finger, the finger bending angle calculation unit 204 determines the bending angle of each joint of each finger. Here, there is an inverse kinematics (hereinafter referred to as IK) technique known in the robot engineering field or the like as a method for obtaining the bending angle of the finger joint from the displacement of the fingertip. The IK technique is used to move the tip of an arm having a plurality of movable parts to a target position. When the arm has a plurality of movable parts, there are a plurality of solutions for the bending angle of the movable part in order to move the tip of the arm to the target position using the IK technique.

本発明においても、指には複数の関節があるので、指関節の曲り角度には複数の解が存在する。このため、本発明では、一例として、操作者の掌および指先は操作面上(同一平面上)に存在するという拘束条件と、各指関節の曲り角度は等しいという拘束条件とを用いて、解を一意に求める。   Also in the present invention, since the finger has a plurality of joints, there are a plurality of solutions for the bending angles of the finger joints. For this reason, in the present invention, as an example, using the constraint condition that the palm and fingertip of the operator exist on the operation surface (on the same plane) and the constraint condition that the bending angles of the finger joints are equal, Is uniquely determined.

図14(a)は、一例として、人差し指を曲げた場合の指先位置点の変位を示している。図14(b)は、図14(a)に示す曲げた状態の人差し指1400の手モデルを側面から見た図である。図14から分るように、通常、指を曲げると3つの指関節は同時に曲がるので、各指関節の曲り角度1401〜1403は等しいという拘束条件を用いて手モデルを変形すると、操作者は違和感無く操作を行うことができる。また、この様な拘束条件を用いて手モデルを変形すると、演算量が大幅に低減できるので、操作者の手の動きに瞬時に応答する手モデルの変形が可能である。   FIG. 14A shows the displacement of the fingertip position point when the index finger is bent as an example. FIG. 14B is a side view of the hand model of the index finger 1400 in the bent state shown in FIG. As can be seen from FIG. 14, normally, when the finger is bent, the three finger joints bend at the same time. Therefore, when the hand model is deformed using the constraint condition that the bending angles 1401 to 1403 of the finger joints are equal, the operator feels uncomfortable. The operation can be performed without. Further, when the hand model is deformed using such a constraint condition, the amount of calculation can be greatly reduced, and therefore the hand model that responds instantaneously to the movement of the operator's hand can be deformed.

なお、指関節の曲り角度を算出するための拘束条件は、これには限定されず、解を一意に求めらる拘束条件であればよい。しかし、上記したように、指関節の曲り角度を算出するための拘束条件は、操作者が違和感を感じない手モデルとなる拘束条件が好ましく、操作者の操作行為が自然に行える手モデルとなる拘束条件が好ましい。また、IK技術において目的位置からアーム可動部の曲り角度を求める方法として、ヤコビ行列を用いて繰り返し計算を行う方法や幾何学的に算出する方法等が知られているが、本発明においてはいずれを用いてもよい。   Note that the constraint condition for calculating the bending angle of the finger joint is not limited to this, and may be a constraint condition for uniquely obtaining a solution. However, as described above, the constraint condition for calculating the bending angle of the finger joint is preferably a constraint condition that is a hand model that does not cause the operator to feel uncomfortable, and is a hand model that allows the operator to act naturally. Restraint conditions are preferred. In addition, as a method for obtaining the bending angle of the arm movable portion from the target position in the IK technique, a method of repeatedly calculating using a Jacobian matrix, a method of calculating geometrically, and the like are known. May be used.

以上に説明した図4のステップS108の処理を行い、指曲り角度算出部204は各指関節の曲り角度を算出する。そして、指曲り角度算出部204は、算出した手モデルの各指先位置点の各指関節の曲り角度をモデル保持部207に保存する。   The processing in step S108 of FIG. 4 described above is performed, and the finger bending angle calculation unit 204 calculates the bending angle of each finger joint. The finger bending angle calculation unit 204 stores the calculated bending angle of each finger joint at each fingertip position point of the hand model in the model holding unit 207.

図15は、図4のステップS109における手モデルの変形の具体例を示す図である。図15(a)は、初期位置点(操作者が手を開いた状態の指先位置点)を示す。図15(b)は、図15(a)に示す初期位置点を用いて描画された初期手モデルである。図15(c)は、一例として、操作者が人差し指を曲げた場合の指先位置点を示す。図15(d)は、図15(c)に示す指先位置点を用いて変形された手モデルである。図16(a)、(b)はそれぞれ、図15(b)および(d)に示した手モデルを側面から見た図である。図15および図16に示すように、図4のステップS109において、手モデルは、操作者の手の変形に応じてリアルに変形する。   FIG. 15 is a diagram showing a specific example of the deformation of the hand model in step S109 of FIG. FIG. 15A shows an initial position point (a fingertip position point in a state where the operator opens his hand). FIG. 15B is an initial hand model drawn using the initial position points shown in FIG. FIG. 15C shows a fingertip position point when the operator bends the index finger as an example. FIG. 15D is a hand model deformed using the fingertip position points shown in FIG. FIGS. 16A and 16B are views of the hand model shown in FIGS. 15B and 15D as viewed from the side. As shown in FIGS. 15 and 16, in step S <b> 109 of FIG. 4, the hand model is deformed realistically according to the deformation of the operator's hand.

図17は、図4のステップS110の処理を説明するための図である。図17に示す通り、ステップS110において、重畳画像作成部209は、GUIパーツ1701を配置した操作画像1700と、変形された手モデル1710とを重畳して、重畳画像1720を作成し、表示部3に表示する。なお、重畳画像1720を作成する際、手モデル1710と重なるGUIパーツ1701を視認し易くするために、手モデル1710を半透過等にしてもよい。   FIG. 17 is a diagram for explaining the process of step S110 of FIG. As shown in FIG. 17, in step S110, the superimposed image creating unit 209 creates a superimposed image 1720 by superimposing the operation image 1700 on which the GUI parts 1701 are arranged and the deformed hand model 1710, and the display unit 3 To display. Note that when creating the superimposed image 1720, the hand model 1710 may be semi-transparent or the like so that the GUI part 1701 overlapping the hand model 1710 can be easily seen.

図18は、図4のステップS111の処理について説明するための図である。衝突判定部210は、重畳画像においてGUIパーツ1801〜1804と手モデル1810の指先位置点とが重なった場合には、当該GUIパーツと手モデル1810の指先位置点とが衝突したと判定する。図18の場合には、衝突判定部210は、矢印1820で示す衝突が判定されたGUIパーツ1802に割当てられたコマンドをコマンド送信部211に通知する。   FIG. 18 is a diagram for explaining the process of step S111 of FIG. When the GUI parts 1801 to 1804 and the fingertip position point of the hand model 1810 overlap in the superimposed image, the collision determination unit 210 determines that the GUI part and the fingertip position point of the hand model 1810 have collided. In the case of FIG. 18, the collision determination unit 210 notifies the command transmission unit 211 of the command assigned to the GUI part 1802 for which the collision indicated by the arrow 1820 is determined.

その後、ステップS112でコマンドが操作対象機器4に送信される。操作対象機器4は、受信したコマンドを実行する。   Thereafter, the command is transmitted to the operation target device 4 in step S112. The operation target device 4 executes the received command.

以上に説明したように、本発明に係る入力装置によれば、タッチパネルにおいて、各点が移動してY座標等が互いに重複した場合でも、その後の接触座標を正しく抽出できる。そのため、抽出した接触座標に基づいて手モデルを作成して表示部に表示する場合には、ユーザの手形状を手モデルに忠実に反映できる。この結果として、ユーザは、違和感を感じることなく操作を行うことができる。   As described above, according to the input device according to the present invention, even if each point moves and Y coordinates and the like overlap each other on the touch panel, the subsequent contact coordinates can be correctly extracted. Therefore, when a hand model is created based on the extracted contact coordinates and displayed on the display unit, the user's hand shape can be accurately reflected in the hand model. As a result, the user can perform an operation without feeling uncomfortable.

なお、本実施形態の図4のステップS104においては、4つの指先位置点を取得することとしたが、4つに限られることはない。右手か左手かが分っており、接触する指が特定できる場合には(例えば、人差し指で接触)、接触座標検知部1に対して手を置いている方向が分っていれば手モデルの位置を決定できるため、1〜3つの指先位置点を取得することにしてもよい。   In step S104 of FIG. 4 of the present embodiment, four fingertip position points are acquired, but the number is not limited to four. If the right hand or the left hand is known and the finger touching can be identified (for example, touching with the index finger), if the direction of placing the hand with respect to the contact coordinate detection unit 1 is known, the hand model Since the position can be determined, one to three fingertip position points may be acquired.

また、本実施形態においては指先位置点を一意に特定した後、手モデルを作成して表示部に表示する様にしたが、手モデルを作成・表示しない入力装置においても本発明は適応できる。例えば、各指に操作対象機器を操作するための命令が予め割り当てられており、操作者がそれら割り当てられている命令を覚えて操作する入力装置においては、手モデルを表示部に表示する必要はなく、入力装置が何指で操作されたかを一意に特定できていればよい。   In the present embodiment, the fingertip position point is uniquely specified, and then a hand model is created and displayed on the display unit. However, the present invention can also be applied to an input device that does not create / display a hand model. For example, in an input device in which an instruction for operating the operation target device is assigned to each finger in advance and the operator remembers and operates the assigned instruction, it is necessary to display the hand model on the display unit. It is only necessary to uniquely identify the number of fingers operated by the input device.

本発明の入力装置および入力方法によれば、タッチパネルにおいて、各点が移動してY座標等が互いに重複した場合でも、その後の接触座標を正しく抽出できるという効果を有し、カーナビゲーション装置等の各種機器を操作するための入力装置等として有用である。   According to the input device and the input method of the present invention, even if each point moves and the Y coordinate and the like overlap each other on the touch panel, the subsequent contact coordinates can be correctly extracted. It is useful as an input device for operating various devices.

本発明の実施形態に係る入力装置100の動作の概要を説明するための図The figure for demonstrating the outline | summary of operation | movement of the input device 100 which concerns on embodiment of this invention. 接触座標検知部1の車への設置位置の例を示す図で、(a)車両のセンターコンソールに取り付けられた場合の一例を示す図、(b)車両のハンドルに取り付けられた場合の一例を示す図、(c)車両のドアの操作部に取り付けられた場合の一例を示す図It is a figure which shows the example of the installation position to the vehicle of the contact coordinate detection part 1, (a) A figure which shows an example when it is attached to the center console of a vehicle, (b) An example when it is attached to the handle of a vehicle The figure to show, (c) The figure which shows an example at the time of being attached to the operation part of the door of a vehicle 本発明の実施形態に係る入力装置100の機能ブロック図Functional block diagram of input device 100 concerning an embodiment of the present invention 本発明の実施形態に係る入力装置100の動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the input device 100 which concerns on embodiment of this invention. モデル保持部207が保持する手モデルの一例を示す図The figure which shows an example of the hand model which the model holding part 207 hold | maintains 図4のステップS101における接触座標検知部1の動作について説明するための図で、(a)接触座標検知部1の操作面に操作者の手が置かれた状態の一例を示す図、(b)接触座標検知部1が検知した指先位置点を示す図、(c)光学式の接触座標検知部1の動作原理を説明するための模式図FIG. 5 is a diagram for explaining the operation of the contact coordinate detection unit 1 in step S <b> 101 of FIG. 4, (a) a diagram illustrating an example of a state where an operator's hand is placed on the operation surface of the contact coordinate detection unit 1; FIG. 4 is a diagram showing fingertip position points detected by the contact coordinate detection unit 1, and FIG. 4C is a schematic diagram for explaining the operation principle of the optical contact coordinate detection unit 1. 図4のステップS102、S103の処理を詳細に説明するためのフローチャートFlowchart for explaining in detail the processing of steps S102 and S103 in FIG. 図7のステップS123−4、S123−5の処理を説明するための図で、(a)前回接触座標検知部1に検知された状態を示す図、(b)今回接触座標検知部1に検知された状態を示す図、(c)前回の検知状態において座標履歴格納部206に格納されている各情報を示す図、(d)今回の検知状態において座標履歴格納部206に格納される各情報を示す図FIGS. 7A and 7B are diagrams for explaining the processing of steps S123-4 and S123-5 in FIG. 7, (a) a diagram showing a state detected by the previous contact coordinate detection unit 1, and (b) detection by the current contact coordinate detection unit 1; The figure which shows the state performed, (c) The figure which shows each information stored in the coordinate history storage part 206 in the last detection state, (d) Each information stored in the coordinate history storage part 206 in this detection state Figure showing 図7のステップS123−6、S123−7の処理を説明するための図で、(a)前回接触座標検知部1に検知された状態を示す図、(b)今回接触座標検知部1に検知された状態を示す図、(c)前回の検知状態において座標履歴格納部206に格納されている各情報を示す図、(d)今回の検知状態において座標履歴格納部206に格納される各情報を示す図FIGS. 7A and 7B are diagrams for explaining the processing of steps S123-6 and S123-7 in FIG. 7, (a) a diagram showing a state detected by the previous contact coordinate detection unit 1, and (b) detection by the current contact coordinate detection unit 1; The figure which shows the state performed, (c) The figure which shows each information stored in the coordinate history storage part 206 in the last detection state, (d) Each information stored in the coordinate history storage part 206 in this detection state Figure showing 図7のステップS123−14〜S123−17の処理を説明するための図で、(a)前回接触座標検知部1に検知された状態を示す図、(b)今回接触座標検知部1に検知された状態を示す図、(c)前回の検知状態において座標履歴格納部206に格納されている各情報を示す図、(d)今回の検知状態において座標履歴格納部206に格納される各情報を示す図、(e)前回の座標値と今回検知した全座標候補の各距離の算出結果の一例を示す図FIGS. 7A and 7B are diagrams for explaining the processing of steps S123-14 to S123-17 in FIG. 7, (a) a diagram showing a state detected by the previous contact coordinate detection unit 1, and (b) detection by the current contact coordinate detection unit 1; The figure which shows the state performed, (c) The figure which shows each information stored in the coordinate history storage part 206 in the last detection state, (d) Each information stored in the coordinate history storage part 206 in this detection state The figure which shows (e) The figure which shows an example of the calculation result of each distance of the previous coordinate value and all the coordinate candidates detected this time 図7のステップS123−9〜S123−13の処理を説明するための図で、(a)前回接触座標検知部1に検知された状態を示す図、(b)今回接触座標検知部1に検知された状態を示す図、(c)前回の検知状態において座標履歴格納部206に格納されている各情報を示す図、(d)今回の検知状態において座標履歴格納部206に格納される各情報を示す図、(e)今回新規に出現したY座標と前回取得したY座標間の距離の算出結果の一例を示す図、(f)抽出したX座標における前回と今回のX座標間の移動量の算出結果の一例を示す図FIGS. 7A and 7B are diagrams for explaining the processing of steps S123-9 to S123-13 in FIG. 7, (a) a diagram showing a state detected by the previous contact coordinate detection unit 1, and (b) detection by the current contact coordinate detection unit 1; The figure which shows the state performed, (c) The figure which shows each information stored in the coordinate history storage part 206 in the last detection state, (d) Each information stored in the coordinate history storage part 206 in this detection state The figure which shows (e) The figure which shows an example of the calculation result of the distance between the Y coordinate which newly appeared this time, and the Y coordinate acquired last time, (f) The movement amount between the last time and this time X coordinate in the extracted X coordinate Of an example of the calculation result 図4のステップS106の処理を詳細に説明するためのフローチャートFlowchart for explaining in detail the process of step S106 of FIG. 手モデル1301の付け根点1302から各指先位置点1311〜1314までの距離R1〜R4を示す図The figure which shows distance R1-R4 from the base point 1302 of the hand model 1301 to each fingertip position point 1311-1314 図4のステップS108において、手モデルの指曲り角度を算出する方法を説明するための図で、(a)人差し指1400を曲げた場合の指先位置点の変位を示す図、(b)曲げた状態の人差し指1400の手モデルを側面から見た図FIG. 5 is a diagram for explaining a method of calculating a finger bending angle of a hand model in step S108 of FIG. 4, (a) a diagram illustrating displacement of a fingertip position point when the index finger 1400 is bent, and (b) a bent state. View of hand model of index finger 1400 from the side 図4のステップS109における手モデルの変形の具体例を示す図で、(a)初期位置点を示す図、(b)初期位置点を用いて描画された初期手モデルを示す図、(c)操作者が人差し指を曲げた場合の指先位置点を示す図、(d)人差し指を曲げた時の指先位置点を用いて変形された手モデルを示す図FIG. 5 is a diagram illustrating a specific example of the hand model deformation in step S109 of FIG. 4, (a) a diagram illustrating an initial position point, (b) a diagram illustrating an initial hand model drawn using the initial position point, and (c). The figure which shows the fingertip position point when an operator bends the index finger, (d) The figure which shows the hand model deform | transformed using the fingertip position point when the index finger is bent 図15に示した手モデルを側面から見た図で、(a)図15bに示した手モデルを側面から見た図、(b)図15dに示した手モデルを側面から見た図15 is a view of the hand model shown in FIG. 15 viewed from the side, (a) a view of the hand model shown in FIG. 15b as viewed from the side, and (b) a view of the hand model shown in FIG. 15d as viewed from the side. 図4のステップS110の処理を説明するための図The figure for demonstrating the process of step S110 of FIG. 図4のステップS111の処理を説明するための図The figure for demonstrating the process of step S111 of FIG. 光学式のタッチパネルにおいて検知される座標の候補を説明する図The figure explaining the candidate of the coordinate detected in an optical touch panel 光学式のタッチパネルにおいて接触座標を特定できない場合の一例を説明するための図The figure for demonstrating an example when a contact coordinate cannot be specified in an optical touch panel

1 接触座標検知部
2 演算部
3 表示部
4 操作対象機器
100 入力装置
201 接触座標算出部
202 関連ID作成部
203 移動量算出部
204 指曲り角度算出部
205 モデル形状決定部
206 座標履歴格納部
207 モデル保持部
208 GUIパーツ保持部
209 重畳画像作成部
210 衝突判定部
211 コマンド送信部
1701、1801〜1804 GUIパーツ
1710、1810 手モデル
1720 重畳画像
DESCRIPTION OF SYMBOLS 1 Contact coordinate detection part 2 Operation part 3 Display part 4 Operation object apparatus 100 Input device 201 Contact coordinate calculation part 202 Related ID preparation part 203 Movement amount calculation part 204 Finger bending angle calculation part 205 Model shape determination part 206 Coordinate history storage part 207 Model holding unit 208 GUI part holding unit 209 Superimposed image creating unit 210 Collision determining unit 211 Command transmitting unit 1701, 1801-1804 GUI parts 1710, 1810 Hand model 1720 superimposed image

Claims (4)

タッチパネルの操作面上の検出位置からユーザの手の接触位置を特定して入力操作を行う入力装置であって、
前記操作面上の座標を互いに直交するX座標軸とY座標軸により表し、ユーザの手の長手方向に対応する方向をY座標軸とすると、X座標軸上で検出される座標数よりY座標軸上で検出される座標数が少ない場合に、X座標軸上で検出される座標数をユーザの手の接触点数とすることを特徴とする入力装置。
An input device that performs an input operation by specifying a contact position of a user's hand from a detection position on an operation surface of a touch panel,
When the coordinates on the operation surface are expressed by the X coordinate axis and the Y coordinate axis orthogonal to each other, and the direction corresponding to the longitudinal direction of the user's hand is the Y coordinate axis, the number of coordinates detected on the X coordinate axis is detected on the Y coordinate axis. An input device characterized in that the number of coordinates detected on the X coordinate axis is set as the number of contact points of the user's hand when the number of coordinates is small.
前記X座標軸上で検出される座標数より前記Y座標軸上で検出される座標数が1つ少ない場合に、Y座標軸上で新たな座標を検出すると、当該検出前後の検出位置のY座標の距離に基づいて、Y座標が重複していた2つの検出位置を特定し、当該検出前後の前記2つの検出位置のうちX座標の変化の大きい方の検出位置をユーザの手の接触位置として特定することを特徴とする請求項1記載の入力装置。 When the number of coordinates detected on the Y coordinate axis is one less than the number of coordinates detected on the X coordinate axis, if a new coordinate is detected on the Y coordinate axis, the distance of the Y coordinate of the detection position before and after the detection Based on the above, the two detection positions where the Y coordinate is overlapped are specified, and the detection position with the larger change in the X coordinate is specified as the contact position of the user's hand among the two detection positions before and after the detection. The input device according to claim 1. タッチパネルの操作面上の検出位置からユーザの手の接触位置を特定して入力操作を行う入力方法であって、
前記操作面上の座標を互いに直交するX座標軸とY座標軸により表し、ユーザの手の長手方向に対応する方向をY座標軸とすると、X座標軸上で検出される座標数よりY座標軸上で検出される座標数が少ない場合に、X座標軸上で検出される座標数をユーザの手の接触点数とするステップを含むことを特徴とする入力方法。
An input method for performing an input operation by specifying a contact position of a user's hand from a detection position on an operation surface of a touch panel,
When the coordinates on the operation surface are expressed by the X coordinate axis and the Y coordinate axis orthogonal to each other, and the direction corresponding to the longitudinal direction of the user's hand is the Y coordinate axis, the number of coordinates detected on the X coordinate axis is detected on the Y coordinate axis. An input method comprising the step of setting the number of coordinates detected on the X coordinate axis as the number of contact points of the user's hand when the number of coordinates to be detected is small.
前記X座標軸上で検出される座標数より前記Y座標軸上で検出される座標数が1つ少ない場合に、Y座標軸上で新たな座標を検出すると、当該検出前後の検出位置のY座標の距離に基づいて、Y座標が重複していた2つの検出位置を特定するステップと、当該検出前後の前記2つの検出位置のうちX座標の変化の大きい方の検出位置をユーザの手の接触位置として特定するステップをさらに含むことを特徴とする請求項3記載の入力方法。 When the number of coordinates detected on the Y coordinate axis is one less than the number of coordinates detected on the X coordinate axis, if a new coordinate is detected on the Y coordinate axis, the distance of the Y coordinate of the detection position before and after the detection Based on the above, the step of identifying two detection positions where the Y coordinate overlapped, and the detection position with the larger change in the X coordinate of the two detection positions before and after the detection as the contact position of the user's hand 4. The input method according to claim 3, further comprising a specifying step.
JP2009025746A 2009-02-06 2009-02-06 Input device and input method Ceased JP2010182135A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009025746A JP2010182135A (en) 2009-02-06 2009-02-06 Input device and input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009025746A JP2010182135A (en) 2009-02-06 2009-02-06 Input device and input method

Publications (1)

Publication Number Publication Date
JP2010182135A true JP2010182135A (en) 2010-08-19

Family

ID=42763691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009025746A Ceased JP2010182135A (en) 2009-02-06 2009-02-06 Input device and input method

Country Status (1)

Country Link
JP (1) JP2010182135A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016066254A (en) * 2014-09-25 2016-04-28 シャープ株式会社 Electronic device with touch detection apparatus
JP2016515742A (en) * 2013-04-15 2016-05-30 クアルコム,インコーポレイテッド Gesture touch geometry ID tracking

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS643722A (en) * 1987-06-26 1989-01-09 Nippon Denki Home Electronics Light beam touch panel device
JP2002055781A (en) * 2000-08-14 2002-02-20 Canon Inc Information processor and method for controlling the same and computer readable memory
JP2004206681A (en) * 2002-12-23 2004-07-22 Lg Phillips Lcd Co Ltd Driving method for touch panel
WO2008026280A1 (en) * 2006-08-31 2008-03-06 Pioneer Corporation Matrix touch panel device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS643722A (en) * 1987-06-26 1989-01-09 Nippon Denki Home Electronics Light beam touch panel device
JP2002055781A (en) * 2000-08-14 2002-02-20 Canon Inc Information processor and method for controlling the same and computer readable memory
JP2004206681A (en) * 2002-12-23 2004-07-22 Lg Phillips Lcd Co Ltd Driving method for touch panel
WO2008026280A1 (en) * 2006-08-31 2008-03-06 Pioneer Corporation Matrix touch panel device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016515742A (en) * 2013-04-15 2016-05-30 クアルコム,インコーポレイテッド Gesture touch geometry ID tracking
JP2016066254A (en) * 2014-09-25 2016-04-28 シャープ株式会社 Electronic device with touch detection apparatus

Similar Documents

Publication Publication Date Title
KR101652535B1 (en) Gesture-based control system for vehicle interfaces
Lee et al. Hand gesture-based tangible interactions for manipulating virtual objects in a mixed reality environment
JP6027328B2 (en) Display device and object display method thereof
CN108700957B (en) Electronic system and method for text entry in a virtual environment
CN103914138A (en) Identification and use of gestures in proximity to a sensor
CN102955568A (en) Input unit recognizing user&#39;s motion
CN110075519A (en) Information processing method and device, storage medium and electronic equipment in virtual reality
JP2015135572A (en) Information processing apparatus and control method of the same
JP2010182135A (en) Input device and input method
JP2009110135A (en) Object selecting device
JP4244202B2 (en) Operation input device and operation input method
JP4677941B2 (en) Touch panel input method
JP5062898B2 (en) User interface device
JP6966777B2 (en) Input system
JP6565878B2 (en) Display system
JP4962466B2 (en) Input device and input method
JP2016095795A (en) Recognition device, method, and program
JP4941450B2 (en) Input device and input method
JP5005585B2 (en) Operating device and method
JP2013120560A (en) Information processing system and information processing method
JP4922266B2 (en) Input device and input method
JP2012203497A (en) Display integrated coordinate input device and activation method of virtual keyboard function
JP4962467B2 (en) Input device and input method
KR20200034348A (en) Touchscreen device and method for controlling the same and display apparatus
WO2019032014A1 (en) A touch-based virtual-reality interaction system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110316

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20110413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120502

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20121030