JP2010097529A - Input device and input method - Google Patents

Input device and input method Download PDF

Info

Publication number
JP2010097529A
JP2010097529A JP2008269444A JP2008269444A JP2010097529A JP 2010097529 A JP2010097529 A JP 2010097529A JP 2008269444 A JP2008269444 A JP 2008269444A JP 2008269444 A JP2008269444 A JP 2008269444A JP 2010097529 A JP2010097529 A JP 2010097529A
Authority
JP
Japan
Prior art keywords
model
movement amount
finger
hand
contact area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008269444A
Other languages
Japanese (ja)
Other versions
JP4962466B2 (en
Inventor
Takuya Hirai
卓哉 平井
Atsushi Yamashita
敦士 山下
Tomohiro Terada
智裕 寺田
Akira Ishida
明 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008269444A priority Critical patent/JP4962466B2/en
Publication of JP2010097529A publication Critical patent/JP2010097529A/en
Application granted granted Critical
Publication of JP4962466B2 publication Critical patent/JP4962466B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device for faithfully reflecting a hand shape of a user on a hand model. <P>SOLUTION: The input device is configured to calculate a change of moving amounts of a contact region and the area of the contact region from an initial status that a user reaches the fingers, and to determine the parallel moving amounts of a CG model and the angle of bending of each finger joint on the basis of the change of the moving amounts of the contact region and the area of the contact region from the initial status, and to determine the deformed shape of the CG model according to the determined parallel moving amounts and angle of bending of each finger joint, and to create an image by superimposing the CG model whose deformed shape has been determined and held GUI parts, and to make a display part display the image, and to decide the collision of the GUI parts and the fingertips of the CG model, and to, when the collision is decided, transmit a command assigned to the GUI parts whose collision has been decided to the equipment. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ユーザが機器に対して命令等を入力するための入力装置および入力方法に関し、より特定的には、ユーザがディスプレイ等に表示された情報に基づいて手等の身体部分を用いて、命令等を入力することのできる入力装置および入力方法に関する。   The present invention relates to an input device and an input method for a user to input a command or the like to a device, and more specifically, using a body part such as a hand based on information displayed on a display or the like by a user. The present invention relates to an input device and an input method capable of inputting commands and the like.

近年の情報機器端末の多機能化に伴って、ユーザがより使い易いユーザインターフェイスが求められている。使い易いユーザインターフェイスの一例として、タッチパネルディスプレイがある。タッチパネルディスプレイは、ディスプレイに表示されるGUI(Graphical User Interface)パーツを押す操作をすることによって、ユーザが命令等を情報機器端末等に入力する装置である。このことから、タッチパネルディスプレイは、初心者でも直感的に操作できるインターフェイスと言える。   With the recent increase in functionality of information equipment terminals, user interfaces that are easier for users to use are required. An example of an easy-to-use user interface is a touch panel display. The touch panel display is a device in which a user inputs a command or the like to an information device terminal or the like by pressing a GUI (Graphical User Interface) part displayed on the display. From this, it can be said that the touch panel display is an interface that even a beginner can operate intuitively.

しかし、タッチパネルディスプレイにおいては、タッチを検知するデバイス(以下、操作部という)と表示部とが一体であるので、当該タッチパネルディスプレイがユーザの手元にないと操作できないという課題があった。   However, in a touch panel display, since a device for detecting a touch (hereinafter referred to as an operation unit) and a display unit are integrated, there is a problem that the touch panel display cannot be operated unless the user has it.

この課題を解決するために、特許文献1の技術は、操作部と表示部とを分離し、操作部に置かれた操作者の手を検知し、コンピュータグラフィック(以下、CGという)の手形状モデル(以下、単に、手モデルという)を、表示部に表示されるGUIに重畳して表示する。このことによって、ユーザは、表示部から離れている場合でも、タッチパネルディスプレイの直感的な操作感を維持した操作を行うことができる。
特開2006−72854号公報
In order to solve this problem, the technique of Patent Document 1 separates an operation unit and a display unit, detects an operator's hand placed on the operation unit, and forms a computer graphic (hereinafter referred to as CG) hand shape. A model (hereinafter simply referred to as a hand model) is displayed superimposed on a GUI displayed on the display unit. Thus, even when the user is away from the display unit, the user can perform an operation while maintaining an intuitive operational feeling of the touch panel display.
JP 2006-72854 A

しかしながら、上記した従来の技術は、操作者であるユーザの指の曲りを算出できないので、ユーザが指を曲げて操作を行った場合には、ユーザの手形状と大幅に異なる形状の
手モデルを表示部に表示する。この結果として、操作中にユーザが違和感を感じるという問題があった。
However, since the above-described conventional technology cannot calculate the bending of the finger of the user who is an operator, when the user performs an operation by bending his / her finger, a hand model having a shape significantly different from the shape of the user's hand is used. Display on the display. As a result, there is a problem that the user feels uncomfortable during the operation.

本発明は、操作面に置かれた手のCGモデルを表示部に表示して機器を操作する入力装置であって、操作面と前記手との複数の接触領域を検知する接触領域検知部と、手の指を伸ばした初期状態からの接触領域の移動量および前記接触領域の面積の変化を算出する移動量算出部と、初期状態からの接触領域の移動量および接触領域の面積の変化に基づいて、CGモデルの平行移動量、指曲げによる移動量を決定するモデル移動量決定部と、指曲げによる移動量に基づいて、CGモデルの各指関節の曲り角度を決定する指曲り角度決定部と、CGモデルの平行移動量および各指関節の曲り角度に従って、CGモデルの位置および変形形状を決定するモデル形状決定部と、機器に対するコマンドを割り当てたGUIパーツを保持するGUIパーツ保持部と、モデル形状決定部で形状が決定されたCGモデルとGUIパーツ保持部に保持されたGUIパーツとを重畳した画像を作成して表示部に表示させる重畳画像作成部と、GUIパーツとCGモデルの指先との衝突を判定する衝突判定部と、衝突判定部によって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを機器に送信するコマンド送信部とを備える。   The present invention is an input device for operating a device by displaying a CG model of a hand placed on an operation surface on a display unit, and a contact region detection unit for detecting a plurality of contact regions between the operation surface and the hand; A movement amount calculation unit for calculating the movement amount of the contact region and the change of the area of the contact region from the initial state where the finger of the hand is extended; and the movement amount of the contact region and the change of the area of the contact region from the initial state And a model movement amount determination unit for determining the amount of movement of the CG model based on the parallel movement and the amount of movement of the finger bending, and a finger bending angle determination for determining the bending angle of each finger joint of the CG model based on the movement amount of the finger bending. A model shape determining unit that determines a position and a deformed shape of the CG model according to a parallel movement amount of the CG model and a bending angle of each finger joint, and a GUI part that holds a GUI part to which a command for the device is assigned A holding part, a superimposed image creating part for creating a superimposed image of the CG model whose shape is determined by the model shape determining part and the GUI part held in the GUI part holding part and displaying the superimposed image on the display part; A collision determination unit that determines a collision with the fingertip of the CG model, and a command transmission unit that transmits a command assigned to the GUI part determined to have the collision to the device when the collision determination unit determines a collision. .

これにより、本発明の入力装置は、操作者の手の動きをCGモデルに反映させることができ、更に、操作者の各指の動きまでもCGモデルに反映させることができる。   Thereby, the input device of the present invention can reflect the movement of the operator's hand in the CG model, and can also reflect the movement of each finger of the operator in the CG model.

また、好ましくは、移動量算出部は、接触領域中の指先に対応する位置を示す指先位置点を決定し、当該指先位置点を用いて、指を伸ばした初期状態からの接触領域の移動量を算出する。   Preferably, the movement amount calculation unit determines a fingertip position point indicating a position corresponding to the fingertip in the contact area, and uses the fingertip position point to move the contact area from the initial state where the finger is extended. Is calculated.

これにより、本発明の入力装置は、より正確な手の動きを検出できるので、更に正確な手の動きをCGモデルに反映させることができる。   Thereby, since the input device of the present invention can detect a more accurate hand movement, a more accurate hand movement can be reflected in the CG model.

また、好ましくは、モデル移動量決定部は、初期状態からの接触領域の面積の変化率の絶対値が所定の閾値より小さい場合に、初期状態からの接触領域の移動量をCGモデルの平行移動量として決定し、初期状態からの接触領域の面積の変化率の絶対値が所定の閾値より大きい場合に、初期状態からの接触領域の移動量をCGモデルの指曲げによる移動量として決定する。   Preferably, the model movement amount determination unit determines the amount of movement of the contact region from the initial state when the absolute value of the change rate of the area of the contact region from the initial state is smaller than a predetermined threshold. When the absolute value of the rate of change of the area of the contact region from the initial state is greater than a predetermined threshold, the amount of movement of the contact region from the initial state is determined as the amount of movement due to finger bending of the CG model.

これにより、操作者が操作面上において手全体は動かさずに指を曲げたのか、手全体を下方に動かしたのかを判別でき、更に正確な手の動きをCGモデルに反映させることができる。   As a result, it is possible to determine whether the operator has bent the finger without moving the entire hand on the operation surface or moved the entire hand downward, and more accurate hand movement can be reflected in the CG model.

また、好ましくは、指曲り角度決定部は、CGモデルの同一の指の各指関節の曲り角度は一定という拘束条件を用いて、CGモデルの各指関節の曲り角度を決定する。   Preferably, the finger bending angle determination unit determines the bending angle of each finger joint of the CG model using a constraint condition that the bending angle of each finger joint of the same finger of the CG model is constant.

これにより、本発明の入力装置は、CGモデルの各指関節の曲り角度を決定するための計算の量を大幅に削減できるので、CGモデルの形状を迅速に変形でき、更に装置のコストを抑えることができる。   As a result, the input device of the present invention can greatly reduce the amount of calculation for determining the bending angle of each finger joint of the CG model, so that the shape of the CG model can be quickly transformed and the cost of the device can be further reduced. be able to.

また、接触領域検知部の操作面上の領域をX座標及びY座標で表すと、接触領域検知部は、接触領域のX座標とY座標とをそれぞれ独立に検知し、その交点を接触領域として検出するセンサを備え、モデル移動量決定部は、接触領域を示すY座標の領域の幅の初期状態からの変化率の絶対値が所定の閾値より小さい場合に、初期状態からの接触領域の移動量をCGモデルの平行移動量として決定し、接触領域を示すY座標の領域の幅の初期状態からの変化率の絶対値が所定の閾値より大きい場合に、初期状態からの接触領域の移動量を前記CGモデルの指曲げによる移動量として決定する。   In addition, when the area on the operation surface of the contact area detection unit is expressed by the X coordinate and the Y coordinate, the contact area detection unit detects the X coordinate and the Y coordinate of the contact area independently and uses the intersection as the contact area. The model movement amount determination unit includes a sensor that detects the movement of the contact area from the initial state when the absolute value of the change rate from the initial state of the width of the Y coordinate area indicating the contact area is smaller than a predetermined threshold. The amount of movement of the contact region from the initial state when the absolute value of the rate of change from the initial state of the width of the Y coordinate region indicating the contact region is greater than a predetermined threshold Is determined as the amount of movement of the CG model due to finger bending.

これにより、X座標軸方向とY座標軸方向との交点を接触領域として、光センサ、導電膜、静電容量等で検出するタッチパッドを接触領域検知部として用いた場合にも、操作者が操作面上において手全体は動かさずに指を曲げたのか、手全体を下方に動かしたのかを判別でき、更に正確な手の動きをCGモデルに反映させることができる。   As a result, even when an intersection between the X-coordinate axis direction and the Y-coordinate axis direction is used as a contact area and a touch pad that is detected by an optical sensor, a conductive film, a capacitance, or the like is used as a contact area detection unit, the operator can It is possible to determine whether the finger is bent without moving the entire hand or whether the entire hand is moved downward, and more accurate hand movement can be reflected in the CG model.

本発明は、操作面に置かれた手のCGモデルを表示部に表示して機器を操作する入力方法にも向けられている。そして、上記目的を達成させるために、本発明の入力方法は、操作面と手との複数の接触領域を検知する接触領域検知ステップと、手の指を伸ばした初期状態からの接触領域の移動量および接触領域の面積の変化を算出する移動量算出ステップと、初期状態からの接触領域の移動量および接触領域の面積の変化に基づいて、CGモデルの平行移動量、指曲げによる移動量を決定するモデル移動量決定ステップと、指曲げによる移動量に基づいて、CGモデルの各指関節の曲り角度を決定する指曲り角度決定ステップと、CGモデルの平行移動量および各指関節の曲り角度に従って、CGモデルの位置および変形形状を決定するモデル形状決定ステップと、モデル形状決定ステップで形状が決定されたCGモデルと、機器に対するコマンドを割り当てた予め保持されているGUIパーツとを重畳した画像を作成して前記表示部に表示させる重畳画像作成ステップと、GUIパーツと前記CGモデルの指先との衝突を判定する衝突判定ステップと、衝突判定ステップによって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを機器に送信するコマンド送信ステップとを備える。   The present invention is also directed to an input method for operating a device by displaying a CG model of a hand placed on an operation surface on a display unit. In order to achieve the above object, the input method of the present invention includes a contact region detection step for detecting a plurality of contact regions between the operation surface and the hand, and movement of the contact region from the initial state where the finger of the hand is extended. Based on the movement amount calculation step for calculating the amount and the change in the area of the contact region, and the movement amount of the contact region and the change in the area of the contact region from the initial state, the parallel movement amount of the CG model and the movement amount due to finger bending are calculated. A model movement amount determination step to determine; a finger bending angle determination step to determine a bending angle of each finger joint of the CG model based on a movement amount by finger bending; a parallel movement amount of the CG model and a bending angle of each finger joint; The model shape determining step for determining the position and deformation shape of the CG model, the CG model whose shape is determined in the model shape determining step, and the command for the device are allocated. A superimposed image creating step of creating an image in which a preliminarily held GUI part is superimposed and displaying the image on the display unit; a collision determining step of determining a collision between the GUI part and the fingertip of the CG model; When a collision is determined by the determination step, a command transmission step of transmitting a command assigned to the GUI part determined to have the collision to the device is provided.

これにより、本発明の入力方法は、操作者の手の動きをCGモデルに反映させることができ、更に、操作者の各指の動きまでもCGモデルに反映させることができる。   Thereby, the input method of the present invention can reflect the movement of the operator's hand in the CG model, and can also reflect the movement of each finger of the operator in the CG model.

本発明の入力装置および入力方法によれば、ユーザが指を曲げて操作した場合であっても、ユーザの手形状を手モデルに忠実に反映できる。この結果として、本発明の入力装置およびその方法によれば、ユーザは、違和感を感じることなく操作を行うことができる。   According to the input device and the input method of the present invention, even when the user operates by bending a finger, the user's hand shape can be accurately reflected in the hand model. As a result, according to the input device and method of the present invention, the user can perform an operation without feeling uncomfortable.

(実施の形態1)
図1は、本発明の第1の実施形態に係る入力装置100の動作の概要を説明するための図である。以下では、図1を用いて、入力装置100の動作について簡単に説明する。
(Embodiment 1)
FIG. 1 is a diagram for explaining an outline of the operation of the input device 100 according to the first embodiment of the present invention. Hereinafter, the operation of the input device 100 will be briefly described with reference to FIG.

図1に示す通り、入力装置100は、接触領域検知部1と演算部2とを備える。接触領域検知部1は、当該接触領域検知部1の操作面上に置いたユーザ(以下、操作者という)の手が接触した領域を検出し、検出した接触領域の情報(以下、単に、接触領域情報という)を演算部2に出力する。接触領域検知部1は、例えば、多点で接触を検知するタッチパッドである。なお、接触領域検知部1は、独立した多点で接触を検知できればよく、光学式、静電容量方式、感圧方式、抵抗膜方式等を用いる一般的なデバイスでよい。   As shown in FIG. 1, the input device 100 includes a contact area detection unit 1 and a calculation unit 2. The contact area detection unit 1 detects an area touched by a user (hereinafter referred to as an operator) placed on the operation surface of the contact area detection unit 1 and detects information on the detected contact area (hereinafter simply referred to as contact). (Referred to as region information) is output to the calculation unit 2. The contact area detection unit 1 is, for example, a touch pad that detects contact at multiple points. The contact area detection unit 1 may be a general device that uses an optical method, a capacitance method, a pressure-sensitive method, a resistance film method, or the like as long as it can detect contact at multiple independent points.

演算部2は、接触領域検知部1が検知した接触領域情報を用いて表示データを作成して表示部3に出力する。具体的には、演算部2は、接触領域情報を用いてCGの手モデルを作成し、当該手モデルをGUIに重畳した表示データを作成して表示部3に出力する。また、演算部2は、作成した手モデルとGUIパーツとの位置関係を用いて操作者が意図するコマンドを決定し、決定したコマンドを情報端末機器等である操作対象機器4に出力する。なお、演算部2は、一般的なパーソナルコンピュータ(以下、PCという)でもよいし、専用のグラフィックIC等を組み込んだ汎用性のない専用機でもよい。また、演算部2は、接触領域検知部1から入力される信号を受信するインターフェイスと、CPU、ROM、RAMと、各モジュール間を結ぶバスと、計算結果を映像として出力するインターフェイスとを含む。   The calculation unit 2 creates display data using the contact area information detected by the contact area detection unit 1 and outputs the display data to the display unit 3. Specifically, the calculation unit 2 creates a CG hand model using the contact area information, creates display data in which the hand model is superimposed on the GUI, and outputs the display data to the display unit 3. Further, the calculation unit 2 determines a command intended by the operator using the positional relationship between the created hand model and the GUI part, and outputs the determined command to the operation target device 4 such as an information terminal device. Note that the arithmetic unit 2 may be a general personal computer (hereinafter referred to as a PC), or may be a general-purpose dedicated machine incorporating a dedicated graphic IC or the like. The calculation unit 2 includes an interface that receives a signal input from the contact area detection unit 1, a CPU, a ROM, and a RAM, a bus that connects the modules, and an interface that outputs a calculation result as an image.

表示部3は、演算部2から入力された表示データを用いて表示を行う。表示部3は、例えば、液晶ディスプレイやCRT等のディスプレイである。操作対象機器4は、演算部2から入力されたコマンドを実行する。   The display unit 3 performs display using the display data input from the calculation unit 2. The display unit 3 is a display such as a liquid crystal display or a CRT, for example. The operation target device 4 executes the command input from the calculation unit 2.

以上の構成によって、操作者は、表示部3に表示されたGUIパーツ上に重畳された手モデルを目視しながら、接触領域検知部1の操作面上の手を動かして手モデルを操作することによって、操作対象機器4を操作することができる。   With the above configuration, the operator operates the hand model by moving the hand on the operation surface of the contact area detection unit 1 while visually observing the hand model superimposed on the GUI part displayed on the display unit 3. Thus, the operation target device 4 can be operated.

以下では、入力装置100の構成および動作について詳しく説明する。図2は、入力装置100の構成例を示す図である。図2に示すように、入力装置100は、接触領域検知部1と演算部2とを備える。演算部2は、移動量算出部12と、モデル移動量決定部13と、指曲り角度決定部14と、モデル保持部15と、モデル形状決定部16と、GUIパーツ保持部17と、重畳画像作成部18と、衝突判定部19と、コマンド送信部20とを含む。   Hereinafter, the configuration and operation of the input device 100 will be described in detail. FIG. 2 is a diagram illustrating a configuration example of the input device 100. As illustrated in FIG. 2, the input device 100 includes a contact area detection unit 1 and a calculation unit 2. The calculation unit 2 includes a movement amount calculation unit 12, a model movement amount determination unit 13, a finger bending angle determination unit 14, a model holding unit 15, a model shape determination unit 16, a GUI parts holding unit 17, and a superimposed image. A creation unit 18, a collision determination unit 19, and a command transmission unit 20 are included.

図3は、入力装置100の動作を説明するためのフローチャートである。操作者等によってスタートスイッチがオンにされると、入力装置100は動作を開始する。   FIG. 3 is a flowchart for explaining the operation of the input device 100. When the start switch is turned on by an operator or the like, the input device 100 starts operating.

まず、ステップS101において、接触領域検知部1は、当該接触領域検知部1の操作面上に操作者の手が置かれているか否かを判定する。操作者の手が置かれていない場合、接触領域検知部1は、処理待ち状態となり、操作者の手が置かれると、ステップS102に移る。なお、ステップS101における判定は、接触が検知されたか否かによって行うことができる。   First, in step S <b> 101, the contact area detection unit 1 determines whether or not the operator's hand is placed on the operation surface of the contact area detection unit 1. When the operator's hand is not placed, the contact area detection unit 1 enters a process waiting state, and when the operator's hand is placed, the process proceeds to step S102. Note that the determination in step S101 can be made based on whether or not contact is detected.

次に、ステップS102において、接触領域検知部1は、操作者の手が当該接触領域検知部1に接触している領域を点群(以下、接触点群という)として検知し、検知した接触点群のデータを移動量算出部12に出力する。移動量算出部12は、入力された接触点群のデータを用いて、操作者の4つの指先の位置を示す点(以下、指先位置点という)と接触面積を取得する。なお、指先位置点と接触面積を取得する方法は、後述する。   Next, in step S102, the contact area detection unit 1 detects an area where the operator's hand is in contact with the contact area detection unit 1 as a point group (hereinafter referred to as a contact point group), and detects the detected contact point. The group data is output to the movement amount calculation unit 12. The movement amount calculation unit 12 acquires a point indicating the position of the operator's four fingertips (hereinafter referred to as a fingertip position point) and a contact area using the input contact point group data. A method for acquiring the fingertip position point and the contact area will be described later.

次に、ステップS103において、移動量算出部12は、4つの指先位置点と接触面積を取得したか否かを判定し、取得した場合にはステップS104に進む。取得していない場合にはステップS102に戻る。   Next, in step S103, the movement amount calculation unit 12 determines whether or not four fingertip position points and a contact area have been acquired. If acquired, the process proceeds to step S104. If not, the process returns to step S102.

ステップS104において、移動量算出部12は、操作者が手を開いた状態(指を伸ばした状態)の指先位置点である初期位置点が取得済みか否かを判定する。初期位置点が取得済みの場合は、ステップS106に移る。初期位置点が取得済みでない場合は、ステップS105に移る。ここで、初期位置点が取得済みか否かの判定は、入力装置100が今回起動した後に初期位置点を取得したか否かを判定するものである。   In step S <b> 104, the movement amount calculation unit 12 determines whether or not an initial position point that is a fingertip position point in a state where the operator opens his hand (a state where the finger is extended) has been acquired. If the initial position point has been acquired, the process proceeds to step S106. If the initial position point has not been acquired, the process proceeds to step S105. Here, the determination of whether or not the initial position point has been acquired is to determine whether or not the initial position point has been acquired after the input device 100 is started this time.

ステップS105において、移動量算出部12は、操作者に接触領域検知部1に置いた手を開くように促すメッセージを通知して初期位置点と接触面積を取得する。このメッセージは、例えば、表示部3に表示されて操作者に通知される。その後、移動量算出部12は、取得した初期位置点を用いて操作者が手を開いた状態の手モデル(以下、初期手モデルという)を作成する。ステップS105で取得された初期位置点、接触面積および初期手モデルのデータは、モデル保持部15に保存される。その後、ステップS102に戻る。つまり、入力装置100は、起動後最初に操作者が手を接触領域検知部1に置いた時で、初期位置点、接触面積および初期手モデルを取得する。初期位置点、接触面積および初期手モデルの取得方法は、後述する。   In step S <b> 105, the movement amount calculation unit 12 notifies a message prompting the operator to open the hand placed on the contact area detection unit 1 and acquires the initial position point and the contact area. This message is displayed on the display unit 3 and notified to the operator, for example. Thereafter, the movement amount calculation unit 12 creates a hand model (hereinafter referred to as an initial hand model) in which the operator has opened his / her hand using the acquired initial position point. The data of the initial position point, contact area, and initial hand model acquired in step S105 are stored in the model holding unit 15. Thereafter, the process returns to step S102. That is, the input device 100 acquires the initial position point, the contact area, and the initial hand model when the operator places the hand on the contact area detection unit 1 for the first time after activation. A method for acquiring the initial position point, the contact area, and the initial hand model will be described later.

なお、操作者が交代した場合には、初期位置点、接触面積および初期手モデルを更新するために、後の操作者の指示に応答して既に取得済みの前の操作者の初期位置点、接触面積および初期手モデルを破棄し、ステップS105の動作を再度行うことで後の操作者の初期位置点、接触面積および初期手モデルを取得してもよい。また、初期位置点、接触面積および初期手モデルを起動毎に取得せず、操作者の指示に応答してステップS105の動作を行うことによって初期位置点、接触面積および初期手モデルを新たに取得してもよい。また、ステップS101において接触領域検知部1が所定期間手の接触を検知しない場合には、既に取得済みの初期位置点、接触面積および初期手モデルを破棄し、ステップS105の動作を再度行って新たな初期位置点、接触面積および初期モデルを取得してもよい。   In addition, when the operator changes, in order to update the initial position point, the contact area, and the initial hand model, the initial position point of the previous operator that has already been acquired in response to the instruction of the subsequent operator, The contact area and the initial hand model may be discarded, and the subsequent operator's initial position point, contact area, and initial hand model may be acquired by performing the operation in step S105 again. In addition, the initial position point, the contact area, and the initial hand model are not acquired every time it is activated, and the initial position point, the contact area, and the initial hand model are newly acquired by performing the operation of step S105 in response to the operator's instruction. May be. If the contact area detection unit 1 does not detect a hand contact for a predetermined period in step S101, the already acquired initial position point, contact area, and initial hand model are discarded, and the operation in step S105 is performed again to perform a new operation. Initial position points, contact area and initial model may be obtained.

ステップS106において、移動量算出部12は、指先位置点の初期位置点からの移動量と接触面積の変化を、それぞれ取得する。ここで、各点の移動量を取得するために、移動後の各点と移動前の各点との対応をとる方法は、一般的な手法でよい。   In step S106, the movement amount calculation unit 12 acquires the movement amount of the fingertip position point from the initial position point and the change in the contact area, respectively. Here, in order to obtain the movement amount of each point, a general method may be used as a method of taking correspondence between each point after movement and each point before movement.

次に、ステップS107において、モデル移動量決定部13は、ステップS106で取得した指先位置点の初期位置点からの移動量と接触面積の変化を用いて、手モデルの平行移動量、指曲げによる移動量を決定する。この平行移動量、指曲げによる移動量の決定方法は、後述する。   Next, in step S107, the model movement amount determination unit 13 uses the movement amount from the initial position point of the fingertip position point acquired in step S106 and the change in the contact area to change the translation amount of the hand model and finger bending. Determine the amount of movement. A method for determining the parallel movement amount and the movement amount by finger bending will be described later.

次に、ステップS108において、指曲り角度決定部14は、ステップS107で取得した指先位置点の初期位置点からの指曲げによる移動量を用いて、手モデルの各指関節の曲り角度を決定する。この各指関節の曲り角度を決定する方法は、後述する。   Next, in step S108, the finger bending angle determination unit 14 determines the bending angle of each finger joint of the hand model using the amount of movement of the fingertip position point acquired from step S107 by finger bending from the initial position point. . A method for determining the bending angle of each finger joint will be described later.

次に、ステップS109において、モデル形状決定部16は、ステップS107およびS108で決定された手モデルの平行移動量、各指関節の曲り角度を用いて、モデル保持部15に保持された手モデルを読出して変形を反映させる。ここで、モデル保持部15に初期手モデルが保持されている場合には、当該初期手モデルを読出して変形を反映させる。   Next, in step S109, the model shape determination unit 16 uses the parallel movement amount of the hand model determined in steps S107 and S108 and the bending angle of each finger joint to determine the hand model held in the model holding unit 15. Read to reflect the deformation. Here, when the initial hand model is held in the model holding unit 15, the initial hand model is read to reflect the deformation.

なお、モデル保持部15に保持される手モデルは、一般的な骨格(以下、ボーン構造という)を持つCGモデルであることが好ましい。モデル保持部15が保持する手モデルの一例を図4に示す。図4に示す手モデルは、複数のポリゴンとボーン構造を示すラインとから構成される。また、手モデルをモデル保持部15に保持するファイル形式は、一般的な形式でよい。一例として、ポリゴンの頂点座標を格納したファイル形式が挙げられる。また、手モデルは、併せてテクスチャ情報も保持し、手モデルの現実感を増幅させてもよい。   Note that the hand model held in the model holding unit 15 is preferably a CG model having a general skeleton (hereinafter referred to as a bone structure). An example of a hand model held by the model holding unit 15 is shown in FIG. The hand model shown in FIG. 4 includes a plurality of polygons and lines indicating bone structures. The file format for holding the hand model in the model holding unit 15 may be a general format. As an example, there is a file format that stores the vertex coordinates of a polygon. The hand model may also hold texture information and amplify the realism of the hand model.

次に、ステップS110において、重畳画像作成部18は、GUIパーツ保持部17が予め保持しているGUIパーツを読み出し、読出したGUIパーツを配置した操作画像を作成する。ここで、GUIパーツとは、表示部3に表示される制御命令を割り当てたボタン等である。なお、GUIパーツおよびその配置方法は、一般的なものでよい。その後、重畳画像作成部18は、ステップS109で変形を反映された手モデルと、GUIパーツが配置された操作画像とを重畳して重畳画像を作成し、当該重畳画像を表示部3に表示する。   Next, in step S110, the superimposed image creating unit 18 reads the GUI parts previously held by the GUI parts holding unit 17, and creates an operation image in which the read GUI parts are arranged. Here, the GUI part is a button or the like to which a control command displayed on the display unit 3 is assigned. The GUI parts and the arrangement method thereof may be general. Thereafter, the superimposed image creating unit 18 creates a superimposed image by superimposing the hand model reflected in the deformation in step S109 and the operation image on which the GUI parts are arranged, and displays the superimposed image on the display unit 3. .

次に、ステップS111において、衝突判定部19は、GUIパーツと手モデルの指先位置点との衝突の有無を判定する。この衝突判定の詳細は、後述する。衝突がないと判定されている場合は、ステップS101〜S111の処理が繰り返されて、操作者の手の動きに応じて重畳画像内の手モデルが変形する。衝突が有ると判定されると、衝突判定部19は、衝突が有ったGUIパーツに割当てられたコマンドをコマンド送信部20に通知し、ステップS112に移る。   Next, in step S111, the collision determination unit 19 determines whether or not there is a collision between the GUI part and the fingertip position point of the hand model. Details of the collision determination will be described later. If it is determined that there is no collision, the processes in steps S101 to S111 are repeated, and the hand model in the superimposed image is deformed according to the movement of the operator's hand. If it is determined that there is a collision, the collision determination unit 19 notifies the command transmission unit 20 of the command assigned to the GUI part that has the collision, and proceeds to step S112.

ステップS112において、コマンド送信部20は、通知されたコマンドを操作対象機器4に送信し、ステップS101に戻る。操作対象機器4は、送信されたコマンドを受信して実行する。以上の処理が繰り返されることによって、入力装置100は、コマンドの送信を繰り返して操作対象機器4を操作する。なお、操作者等によってスタートスイッチがオフにされると処理は終了する。   In step S112, the command transmission unit 20 transmits the notified command to the operation target device 4, and the process returns to step S101. The operation target device 4 receives and executes the transmitted command. By repeating the above processing, the input device 100 operates the operation target device 4 by repeatedly transmitting a command. Note that the processing ends when the start switch is turned off by an operator or the like.

以上に説明した動作によって、操作者は、表示部3に表示された重畳画像を目視しながら手を動かすことによって、重畳画像内の手モデルを操作できる。そして、操作者は、手モデルを操作して指先の位置をGUIパーツに重ね合わせることによって、操作対象機器4を操作できることとなる。   By the operation described above, the operator can operate the hand model in the superimposed image by moving his / her hand while viewing the superimposed image displayed on the display unit 3. Then, the operator can operate the operation target device 4 by operating the hand model and superimposing the position of the fingertip on the GUI part.

以下では、図3を用いて説明した各ステップについて、詳細に説明する。   Below, each step demonstrated using FIG. 3 is demonstrated in detail.

図5は、図3のステップS101およびS102における接触領域検知部1の動作について説明するための図である。図5(a)は、接触領域検知部1の操作面に操作者の手か置かれた状態の一例を示す。図5(b)は、接触領域検知部1が検知した接触点群を黒丸群で表した図である。図5に示すように、接触領域検知部1は、図3のステップS101およびS102において、接触点(接触点群)を検知することによって、手の接触領域を検知する。   FIG. 5 is a diagram for explaining the operation of the contact area detector 1 in steps S101 and S102 of FIG. FIG. 5A shows an example of a state where the operator's hand is placed on the operation surface of the contact area detection unit 1. FIG. 5B is a diagram showing the contact point group detected by the contact area detection unit 1 as a black circle group. As shown in FIG. 5, the contact area detection unit 1 detects a contact area of the hand by detecting a contact point (contact point group) in steps S <b> 101 and S <b> 102 of FIG. 3.

図6は、図3のステップS102を詳細に説明するためのフローチャートである。図7は、図3のステップS102で取得される指先位置点を説明するための図である。以下、図6および図7を用いて、図3のステップS102の処理を詳細に説明する。   FIG. 6 is a flowchart for explaining step S102 of FIG. 3 in detail. FIG. 7 is a diagram for explaining the fingertip position points acquired in step S102 of FIG. Hereinafter, the process of step S102 of FIG. 3 will be described in detail with reference to FIGS.

まず、S102−1において、移動量算出部12は、接触領域検知部1から図5(b)を用いて説明した接触点群を示すデータを取得する。   First, in S102-1, the movement amount calculation unit 12 acquires data indicating the contact point group described with reference to FIG.

次に、ステップS102−2において、移動量算出部12は、接触点の位置関係に基づいて、複数の領域を算出する。S102−2において複数の領域を算出する方法は、一般的な方法でよい。例えば、接触点の近傍に他の接触点が存在する場合はこれらの接触点を同一の領域とみなすことによって、複数の領域に区分する方法がある。   Next, in step S102-2, the movement amount calculation unit 12 calculates a plurality of regions based on the positional relationship between the contact points. A general method may be used as a method of calculating a plurality of regions in S102-2. For example, when there are other contact points in the vicinity of the contact point, there is a method of dividing these contact points into a plurality of regions by regarding them as the same region.

次に、ステップS102−3において、移動量算出部12は、ステップS102−2で算出した各領域に対して、楕円フィッティング処理を行う。図7は、指先位置点の算出方法について説明するための図ある。ステップS102−3において、移動量算出部12は、図7(a)の楕円Aで示すように指の接触点群を楕円で囲む。その後、移動量算出部12は、例えば、楕円Aの中心を指先位置点とする(図7(b)を参照)。なお、指先位置点は、他の方法を用い、また、他の位置に決定してもよい。   Next, in step S102-3, the movement amount calculation unit 12 performs an ellipse fitting process on each region calculated in step S102-2. FIG. 7 is a diagram for explaining a calculation method of fingertip position points. In step S102-3, the movement amount calculation unit 12 encloses the contact point group of the finger with an ellipse as indicated by an ellipse A in FIG. Thereafter, the movement amount calculation unit 12 sets, for example, the center of the ellipse A as the fingertip position point (see FIG. 7B). It should be noted that the fingertip position point may be determined by using another method or another position.

指先位置点を決定した後、各指先位置点について接触面積を求める。接触面積は、各指先が操作面に接触している面積で、例えば、上記の様に指先位置点を楕円フィッティングで求めた場合には楕円の面積を計算することで求めることができる。また、各領域内にある接触点の数を接触面積とすることもできる。   After determining the fingertip position points, the contact area is obtained for each fingertip position point. The contact area is an area where each fingertip is in contact with the operation surface. For example, when the fingertip position point is obtained by ellipse fitting as described above, it can be obtained by calculating the area of the ellipse. Further, the number of contact points in each region can be used as the contact area.

次に、ステップS102−4において、移動量算出部12は、ステップS102−3で取得した指先位置点の位置と接触面積を保持する。図8は、図6のステップS102−3で取得された指先位置点の位置の一例を示す図である。図8において、黒丸は指先位置点801、点線の楕円802は接触面積の領域を示している。   Next, in step S102-4, the movement amount calculation unit 12 holds the position and contact area of the fingertip position point acquired in step S102-3. FIG. 8 is a diagram illustrating an example of the position of the fingertip position point acquired in step S102-3 in FIG. In FIG. 8, a black circle indicates a fingertip position point 801, and a dotted ellipse 802 indicates a contact area region.

図9は、図3のステップS105の処理を詳しく説明するためのフローチャートである。まず、ステップS105−1において、移動量算出部12は、操作者に接触領域検知部1の操作面上の手を開くように促すメッセージを通知して4つの初期位置点および接触面積を取得する。   FIG. 9 is a flowchart for explaining in detail the processing in step S105 in FIG. First, in step S105-1, the movement amount calculation unit 12 notifies the operator to open a hand on the operation surface of the contact area detection unit 1, and acquires the four initial position points and the contact area. .

次に、ステップS105−2において、移動量算出部12は、ステップS105−1で取得した初期位置点(指先位置点)と、モデル保持部15が当初から保持しているひな形であるひな形手モデルの対応する指先位置点とが重なるように、当該ひな形手モデルを変形して初期手モデルを作成する。ここで、4つの初期位置点は、それぞれ小指、薬指、中指、人差し指に対応する。操作者の操作が左手に限定される場合には、左手のひな形手モデルを使用して、左から小指、薬指、中指、人差し指の順番に初期位置点とが重なるように、当該ひな形手モデルを変形して初期手モデルを作成する。   Next, in step S105-2, the movement amount calculation unit 12 uses the initial position point (fingertip position point) acquired in step S105-1 and the model that is the model that the model holding unit 15 holds from the beginning. The initial model is created by deforming the model hand model so that the corresponding fingertip position point of the hand model overlaps. Here, the four initial position points correspond to the little finger, ring finger, middle finger, and index finger, respectively. If the operator's operation is limited to the left hand, use the left hand model hand model so that the initial position point overlaps with the little finger, ring finger, middle finger, and index finger in that order from the left. Deform the model to create an initial hand model.

ここで、初期手モデルを作成する際には、接触領域検知部1に対して操作者がどの方向から手を進入させたかを知る必要がある。逆方向から手を進入させた場合には、同じ4つの初期位置点であっても、初期手モデルが反対向きに作成されてしまう。そのため、接触領域検知部1に対して操作者がどの方向から手を進入させるかは、予め分っているものとする。   Here, when creating the initial hand model, it is necessary to know from which direction the operator has entered the hand with respect to the contact area detection unit 1. When the hand is entered from the opposite direction, the initial hand model is created in the opposite direction even if the same four initial position points are used. Therefore, it is assumed in advance which direction the operator enters the hand with respect to the contact area detection unit 1.

図19は接触領域検知部1の車への設置位置の例を示している。図19(a)は車両のセンターコンソールに取り付けられた場合の一例を示す図である。図19(b)は、接触領域検知部1が車両のドアの操作部に取り付けられた場合の一例を示す図である。図19(c)は、接触領域検知部1が車両のハンドルに取り付けられた場合の一例を示す図である。図19(a)に示すような車両の位置に、接触領域検知部1を取り付けることで、ドライバである操作者は接触領域検知部1に対して左手を矢印1901の方向に進入させることは予め分る。また、図19(b)に示すような車両の位置に、接触領域検知部1を取り付けることで、ドライバである操作者は接触領域検知部1に対して右手を矢印1902の方向に進入させることは予め分る。図19(c)の場合には、ドライバである操作者は接触領域検知部1に対して手を矢印1903の方向に進入させることは予め分る。ただ、この場合には、操作者が右手で操作するか左手で操作するかは分らないため、事前に操作者の好みで右手もしくは左手で操作するかの情報を入力できる様にしておけばよい。   FIG. 19 shows an example of the position where the contact area detector 1 is installed in the vehicle. FIG. 19A is a diagram illustrating an example of a case where it is attached to the center console of the vehicle. FIG. 19B is a diagram illustrating an example when the contact area detection unit 1 is attached to the operation unit of the vehicle door. FIG. 19C is a diagram illustrating an example of the case where the contact area detection unit 1 is attached to a vehicle handle. By attaching the contact area detection unit 1 to the position of the vehicle as shown in FIG. 19A, it is possible that the operator as a driver causes the left hand to enter the direction of the arrow 1901 with respect to the contact area detection unit 1 in advance. I understand. Further, by attaching the contact area detection unit 1 to the position of the vehicle as shown in FIG. 19B, the operator as a driver causes the right hand to enter the direction of the arrow 1902 with respect to the contact area detection unit 1. Is known in advance. In the case of FIG. 19C, it is known in advance that the operator who is a driver causes his / her hand to enter the contact area detection unit 1 in the direction of the arrow 1903. However, in this case, since the operator does not know whether to operate with the right hand or the left hand, it is only necessary to be able to input information on whether to operate with the right hand or the left hand according to the operator's preference in advance. .

また、操作者が右手もしくは左手で操作する場合には、通常は小指は他の指と比較して小さく、操作面との接触面積も小さいため、ステップS105−1で取得した接触面積が最も小さい領域を小指と判断し、他の領域との位置関係から右手か左手かを特定することもできる。すなわち、小指と特定された領域が他の3つの領域より、最も左側に存在すれば左手と判断し、左手のひな形手モデルを変形する。逆に、小指と特定された領域が他の3つの領域より、最も右側に存在すれば右手と判断し、右手のひな形手モデルを変形する。   Further, when the operator operates with the right hand or the left hand, usually the little finger is smaller than the other fingers and the contact area with the operation surface is also small, so the contact area acquired in step S105-1 is the smallest. It is also possible to determine the region as a little finger and identify the right hand or the left hand from the positional relationship with other regions. That is, if the region specified as the little finger is located on the leftmost side from the other three regions, it is determined as the left hand, and the left hand template hand model is deformed. On the other hand, if the region specified as the little finger is located on the rightmost side from the other three regions, it is determined as the right hand, and the model hand model of the right hand is deformed.

図9に戻り、その後、移動量算出部12は、作成した初期手モデルを、表示部3に表示する。この処理によって、移動量算出部12は、操作者の手の大きさを反映した初期手モデルを作成し、表示部3に表示できる。   Returning to FIG. 9, thereafter, the movement amount calculation unit 12 displays the created initial hand model on the display unit 3. By this processing, the movement amount calculation unit 12 can create an initial hand model reflecting the size of the operator's hand and display it on the display unit 3.

次に、ステップS105−3において、移動量算出部12は、ステップS105−1で取得した初期位置点の位置、接触面積と、ステップS105−2で作成した初期手モデルとをモデル保持部15に保存し、ステップS102に戻る(図3を参照)。   Next, in step S105-3, the movement amount calculation unit 12 stores the position and contact area of the initial position point acquired in step S105-1 and the initial hand model created in step S105-2 in the model holding unit 15. Save and return to step S102 (see FIG. 3).

図10は、図3のステップS107およびS108の処理を説明するためのフローチャートである。図3のステップS107およびS108の処理は、一体となって行われる。従って、以下では、図10を参照して、図3のステップS107およびS108の処理を、同時に説明する。また、以下では、説明の都合上、図10の各ステップを実行する主体をモデル移動量決定部13又は指曲り角度決定部14としているが、ステップによってはこの主体は入れ替わってもよい。   FIG. 10 is a flowchart for explaining the processing of steps S107 and S108 of FIG. The processes in steps S107 and S108 in FIG. 3 are performed as a unit. Therefore, hereinafter, the processes of steps S107 and S108 of FIG. 3 will be described simultaneously with reference to FIG. In the following, for convenience of explanation, the subject that executes each step of FIG. 10 is referred to as the model movement amount determination unit 13 or the finger bending angle determination unit 14, but this subject may be replaced depending on the step.

まず、ステップS178−1において、モデル移動量決定部13は、ステップS106で取得された指先位置点の初期位置点からの移動量から、何れかの指先位置点が移動したか否かを判定する。何れの指先位置点も移動していない場合には、ステップS109へ進み、何れかの指先位置点が移動した場合には、ステップS178−2に進む。   First, in step S178-1, the model movement amount determination unit 13 determines whether any fingertip position point has moved from the movement amount from the initial position point of the fingertip position point acquired in step S106. . If any fingertip position point has not moved, the process proceeds to step S109, and if any fingertip position point has moved, the process proceeds to step S178-2.

次に、ステップS178−2では、モデル移動量決定部13は、4つ全ての指先位置点が同じ方向(図5で示す、上もしくは下の方向)に移動したか否かを判定する。4つ全ての指先位置点が同じ方向に移動した場合には、ステップS178−3へ進み、移動していない場合には、ステップS178−6に進む。   Next, in step S178-2, the model movement amount determination unit 13 determines whether or not all four fingertip position points have moved in the same direction (upward or downward direction shown in FIG. 5). If all four fingertip position points have moved in the same direction, the process proceeds to step S178-3. If not, the process proceeds to step S178-6.

次に、ステップS178−3では、モデル移動量決定部13は、ステップS106で取得した指先位置点の接触面積が、初期位置点の接触面積から変化したか否かを判定する。図11は操作者が接触領域検知部1の操作面上の手を動かした時の各指先位置点の接触面積の変化を示している。図11(a)は、操作者が手全体は動かさずに4つの指を曲げた場合を示しており、指を曲げることにより操作面と指との接触位置が、各指の腹の部分から、爪の方に移動するため、接触面積は小さくなる。逆に、指を曲げた状態から伸ばすと、その接触面積は大きくなる。図11(b)は、操作者が接触領域検知部1の操作面上の手全体を下方に動かした場合を示しており、操作面と指との接触位置は各指の腹の部分のままで、その接触面積はあまり変わらない。   Next, in step S178-3, the model movement amount determination unit 13 determines whether or not the contact area of the fingertip position point acquired in step S106 has changed from the contact area of the initial position point. FIG. 11 shows a change in the contact area of each fingertip position point when the operator moves the hand on the operation surface of the contact area detection unit 1. FIG. 11A shows a case where the operator bends four fingers without moving the entire hand, and the contact position between the operation surface and the finger is changed from the belly portion of each finger by bending the finger. Since it moves toward the nail, the contact area becomes small. Conversely, when the finger is extended from the bent state, the contact area increases. FIG. 11B shows a case where the operator moves the entire hand on the operation surface of the contact area detection unit 1 downward, and the contact position between the operation surface and the finger remains the belly part of each finger. The contact area does not change much.

指先位置点の移動だけでは両者を区別することはできないが、ステップS178−3では、この接触面積の変化の違いを利用して、両者を区別している。すなわち、ステップS106で取得した指先位置点の接触面積の変化が、初期位置点の接触面積からの減少を示している場合には、操作者が指を曲げたと判断して、指の曲り角度を算出する処理(ステップS178−6、S178−7)に進み、ステップS106で取得した指先位置点の接触面積の変化が、初期位置点の接触面積から変化していないことを示している場合には、操作者が接触領域検知部1の操作面上の手全体を下方もしくは上方に動かしたと判断して、手モデルを平行移動させる処理(ステップS178−4、S178−5)に進む。   Although the two cannot be distinguished from each other only by the movement of the fingertip position point, in step S178-3, the two are distinguished by utilizing the difference in the change in the contact area. That is, when the change in the contact area of the fingertip position point acquired in step S106 indicates a decrease from the contact area of the initial position point, it is determined that the operator has bent the finger, and the bending angle of the finger is determined. When the calculation process (steps S178-6 and S178-7) proceeds and the change in the contact area at the fingertip position point acquired in step S106 indicates that the contact area at the initial position point has not changed. Then, it is determined that the operator has moved the entire hand on the operation surface of the contact area detection unit 1 downward or upward, and the process proceeds to the process of translating the hand model (steps S178-4 and S178-5).

ここで、操作者の手の大きさや接触領域検知部1の操作面への指の押し付け方により、接触面積は多少変わるので、指先位置点の移動前後の接触面積の変化率について所定の閾値を予め設定しておき、接触面積の変化率(絶対値)が所定の閾値より大きい場合に接触面積が変化したと判断しても良い。また、接触面積の変化率の計算は、各指先位置点ごとに行っても良いし、4つの指先位置点に対応する接触面積の総和で変化率を計算しても良い。   Here, since the contact area slightly changes depending on the size of the operator's hand and how the finger is pressed against the operation surface of the contact area detection unit 1, a predetermined threshold is set for the rate of change of the contact area before and after the movement of the fingertip position point. It may be determined in advance that the contact area has changed when the rate of change (absolute value) of the contact area is greater than a predetermined threshold. Further, the change rate of the contact area may be calculated for each fingertip position point, or the change rate may be calculated by the sum of the contact areas corresponding to the four fingertip position points.

次に、ステップS178−4では、モデル移動量決定部13は、ステップS106で取得した指先位置点の初期位置からの移動量を、手モデルの平行移動量として決定し、ステップS178−5で、現在の指先位置点を手モデルの初期位置点として、モデル保持部15に保存する。   Next, in step S178-4, the model movement amount determination unit 13 determines the movement amount from the initial position of the fingertip position point acquired in step S106 as the parallel movement amount of the hand model, and in step S178-5, The current fingertip position point is stored in the model holding unit 15 as the initial position point of the hand model.

ステップS178−6では、モデル移動量決定部13は、手モデルの付け根点と各指先位置点との距離をそれぞれ算出する。ここで、手モデルの付け根点は、手モデルの下部、中央の掌側の点であり、手モデルの基準位置となる。図12は、手モデル1201の付け根点1202から各指先位置点1211〜1214までの距離R1〜R4を示す図である。操作者は、手全体は移動させずに指を曲げたもしくは伸ばしたため、手モデルの付け根点1202は移動していない。図12に示すR1〜R4の長さの変化量は、それぞれ、指曲げにより生じる移動量である。モデル移動量決定部13は、ステップS106で取得した指先位置点の初期位置からの移動量を、指曲げにより生じる移動量として決定する。   In step S178-6, the model movement amount determination unit 13 calculates the distance between the base point of the hand model and each fingertip position point. Here, the base point of the hand model is a point on the lower palm side and the center of the hand model, which is a reference position of the hand model. FIG. 12 is a diagram illustrating distances R1 to R4 from the base point 1202 of the hand model 1201 to the fingertip position points 1211 to 1214. Since the operator bends or stretches the finger without moving the entire hand, the base point 1202 of the hand model does not move. The amount of change in length of R1 to R4 shown in FIG. 12 is the amount of movement caused by finger bending, respectively. The model movement amount determination unit 13 determines the movement amount from the initial position of the fingertip position point acquired in step S106 as the movement amount generated by finger bending.

次に、ステップS178−7において、指曲り角度決定部14は、ステップS178−6で算出した指曲げによる移動量を用いて、各指の各関節の曲り角度を決定する。   Next, in step S178-7, the finger bending angle determination unit 14 determines the bending angle of each joint of each finger, using the movement amount by finger bending calculated in step S178-6.

ここで、指先の変位から指関節の曲り角度を求める方法として、ロボット工学分野等で周知であるインバースキネマティクス(以下、IKという)技術がある。IK技術は、複数の可動部を持つアームの先端を目的位置に移動させるために用いられる。そして、アームが複数の可動部を持つ場合、IK技術を用いて目的位置にアームの先端を移動させるためには、可動部の曲り角度には複数の解が存在する。   Here, there is an inverse kinematics (hereinafter referred to as IK) technique known in the robot engineering field or the like as a method for obtaining the bending angle of the finger joint from the displacement of the fingertip. The IK technique is used to move the tip of an arm having a plurality of movable parts to a target position. When the arm has a plurality of movable parts, there are a plurality of solutions for the bending angle of the movable part in order to move the tip of the arm to the target position using the IK technique.

本発明においても、指には複数の関節があるので、指関節の曲り角度には複数の解が存在する。このため、本発明では、一例として、操作者の掌および指先は操作面上(同一平面上)に存在するという拘束条件と、各指関節の曲り角度は等しいという拘束条件とを用いて、解を一意に求める。   Also in the present invention, since the finger has a plurality of joints, there are a plurality of solutions for the bending angles of the finger joints. For this reason, in the present invention, as an example, using the constraint condition that the palm and fingertip of the operator exist on the operation surface (on the same plane) and the constraint condition that the bending angles of the finger joints are equal, Is uniquely determined.

図13(a)は、一例として、人差し指を曲げた場合の指先位置点の変位を示している。図13(b)は、図13(a)に示す曲げた状態の人差し指1300の手モデルを側面から見た図である。図13から分るように、通常、指を曲げると3つの指関節は同時に曲がるので、各指関節の曲り角度1301〜1303は等しいという拘束条件を用いて手モデルを変形すると、操作者は違和感無く操作を行うことができる。また、この様な拘束条件を用いて手モデルを変形すると、演算量が大幅に低減できるので、操作者の手の動きに瞬時に応答する手モデルの変形が可能である。   FIG. 13A shows the displacement of the fingertip position point when the index finger is bent as an example. FIG. 13B is a side view of the hand model of the index finger 1300 in the bent state shown in FIG. As can be seen from FIG. 13, since the three finger joints usually bend at the same time when the fingers are bent, the operator feels uncomfortable when the hand model is deformed using the constraint that the bending angles 1301 to 1303 of the finger joints are equal. The operation can be performed without. Further, when the hand model is deformed using such a constraint condition, the amount of calculation can be greatly reduced, and therefore the hand model that responds instantaneously to the movement of the operator's hand can be deformed.

なお、指関節の曲り角度を算出するための拘束条件は、これには限定されず、解を一意に求めらる拘束条件であればよい。しかし、上記したように、指関節の曲り角度を算出するための拘束条件は、操作者が違和感を感じない手モデルとなる拘束条件が好ましく、操作者の操作行為が自然に行える手モデルとなる拘束条件が好ましい。また、IK技術において目的位置からアーム可動部の曲り角度を求める方法として、ヤコビ行列を用いて繰り返し計算を行う方法や幾何学的に算出する方法等が知られているが、本発明においてはいずれを用いてもよい。   Note that the constraint condition for calculating the bending angle of the finger joint is not limited to this, and may be a constraint condition for uniquely obtaining a solution. However, as described above, the constraint condition for calculating the bending angle of the finger joint is preferably a constraint condition that is a hand model that does not cause the operator to feel uncomfortable, and is a hand model that allows the operator to act naturally. Restraint conditions are preferred. In addition, as a method for obtaining the bending angle of the arm movable portion from the target position in the IK technique, a method of repeatedly calculating using a Jacobian matrix, a method of calculating geometrically, and the like are known. May be used.

以上に説明した一連の処理を行うことによって、モデル移動量決定部13および指曲り角度決定部14は、図3のステップS107およびS108の処理を行い、手モデルの平行移動量、各指関節の曲り角度を決定する。   By performing the series of processes described above, the model movement amount determination unit 13 and the finger bending angle determination unit 14 perform the processes of steps S107 and S108 in FIG. 3 to determine the parallel movement amount of the hand model and each finger joint. Determine the bend angle.

図14は、図3のステップS109の処理を説明するためのフローチャートである。図14のフローチャートの処理によって、ステップS107およびS108で決定された各値を用いて手モデルの変形形状が決定される。以下では、図14を参照して、図3のステップS109処理について詳しく説明する。   FIG. 14 is a flowchart for explaining the process of step S109 of FIG. By the processing of the flowchart of FIG. 14, the deformed shape of the hand model is determined using the values determined in steps S107 and S108. Hereinafter, with reference to FIG. 14, step S109 in FIG. 3 will be described in detail.

まず、ステップS109−1において、モデル形状決定部16は、ステップS107で決定された手モデルの平行移動量を用いて、手モデルの位置を決定する。   First, in step S109-1, the model shape determination unit 16 determines the position of the hand model using the parallel movement amount of the hand model determined in step S107.

次に、ステップS109−2において、モデル形状決定部16は、ステップS108で決定された各指関節の曲り角度を用いて、手モデルの変形形状を決定する。その後、ステップS110に移る。   Next, in step S109-2, the model shape determining unit 16 determines the deformed shape of the hand model using the bending angle of each finger joint determined in step S108. Thereafter, the process proceeds to step S110.

図15は、図3のステップS109における手モデルの変形の具体例を示す図である。図15(a)は、初期位置点(操作者が手を開いた状態の指先位置点)を示す。図15(b)は、図15(a)に示す初期位置点を用いて描画された初期手モデルである。図15(c)は、一例として、操作者が人差し指を曲げた場合の指先位置点を示す。図15(d)は、図15(c)に示す指先位置点を用いて変形された手モデルである。図16(a)、(b)はそれぞれ、図15(b)および(d)に示した手モデルを側面から見た図である。図15および図16に示すように、図3のステップS109において、手モデルは、操作者の手の変形に応じてリアルに変形する。   FIG. 15 is a diagram showing a specific example of the deformation of the hand model in step S109 of FIG. FIG. 15A shows an initial position point (a fingertip position point in a state where the operator opens his hand). FIG. 15B is an initial hand model drawn using the initial position points shown in FIG. FIG. 15C shows a fingertip position point when the operator bends the index finger as an example. FIG. 15D is a hand model deformed using the fingertip position points shown in FIG. FIGS. 16A and 16B are views of the hand model shown in FIGS. 15B and 15D as viewed from the side. As shown in FIGS. 15 and 16, in step S <b> 109 of FIG. 3, the hand model is deformed realistically according to the deformation of the operator's hand.

図17は、図3のステップS110の処理を説明するための図である。図17に示す通り、ステップS110において、重畳画像作成部18は、GUIパーツ1701を配置した操作画像1700と、変形された手モデル1710とを重畳して、重畳画像1720を作成し、表示部3に表示する。なお、重畳画像1720を作成する際、手モデルと重なるGUIパーツを視認し易くするために、手モデルを半透過等にしてもよい。   FIG. 17 is a diagram for explaining the process of step S110 of FIG. As shown in FIG. 17, in step S <b> 110, the superimposed image creating unit 18 creates a superimposed image 1720 by superimposing the operation image 1700 on which the GUI parts 1701 are arranged and the deformed hand model 1710, and the display unit 3. To display. Note that when the superimposed image 1720 is created, the hand model may be made semi-transparent or the like in order to make it easy to visually recognize the GUI part that overlaps the hand model.

図18は、図3のステップS111の処理について説明するための図である。衝突判定部19は、図18の矢印1820で示すように、ステップS110で作成された重畳画像においてGUIパーツ1801〜1804と手モデル1810の指先位置点とが重なった場合には、当該GUIパーツ1801〜1804と手モデル1810の指先位置点とが衝突したと判定する。図18の場合には、衝突判定部19は、衝突が判定されたGUIパーツ1802に割当てられたコマンドをコマンド送信部20に通知する。   FIG. 18 is a diagram for explaining the processing in step S111 in FIG. As indicated by an arrow 1820 in FIG. 18, when the GUI parts 1801 to 1804 and the fingertip position point of the hand model 1810 overlap each other, the collision determination unit 19 performs the GUI part 1801. ˜1804 and the fingertip position point of the hand model 1810 are determined to have collided. In the case of FIG. 18, the collision determination unit 19 notifies the command transmission unit 20 of the command assigned to the GUI part 1802 for which the collision is determined.

その後、ステップS112でコマンドが操作対象装置4に送信される。操作対象装置4は、受信したコマンドを実行する。   Thereafter, the command is transmitted to the operation target device 4 in step S112. The operation target device 4 executes the received command.

以上に説明したように、本発明に係る入力装置100によれば、操作者は、表示部3から離れている場合でも、タッチパネルディスプレイの直感的な操作感を維持した操作を行うことができる。また、本発明に係る入力装置100は、操作者の指の動きを忠実に再現した手モデルを表示部3に表示することができる。この結果として、本発明に係る入力装置100は、操作者に違和感の無い快適な操作感覚を提供することができる。   As described above, according to the input device 100 according to the present invention, even when the operator is away from the display unit 3, the operator can perform an operation while maintaining an intuitive operational feeling of the touch panel display. Further, the input device 100 according to the present invention can display a hand model that faithfully reproduces the movement of the operator's finger on the display unit 3. As a result, the input device 100 according to the present invention can provide the operator with a comfortable operation feeling without a sense of incongruity.

なお、本実施形態においては、4つの指先位置点と接触面積を取得することとしたが、4つに限られることはない。右手か左手かが分っており、接触する指が特定できる場合には(例えば、人差し指で接触)、手の進入方向が分っていれば手モデルの位置を決定できるため、1〜3つの指先位置点と接触面積を取得することにしてもよい。   In the present embodiment, four fingertip position points and contact areas are acquired, but the number is not limited to four. If the right hand or the left hand is known and the finger touching can be identified (for example, touching with the index finger), the position of the hand model can be determined if the hand approach direction is known. The fingertip position point and the contact area may be acquired.

(実施の形態2)
第2の実施形態に係る入力装置のハードウェア構成、及び機能ブロックについては、図1及び図2を援用して説明する。第2の実施形態に係る入力装置は、第1の実施形態に係る入力装置100と比較して、接触領域検知部の構成が異なる。第1の実施形態に係る接触領域検知部1は、各接触領域を独立して取得できるタッチパッドであったが、第2の実施形態に係る接触領域検知部は、図20に示すように、接触領域のX座標とY座標とをそれぞれ独立に検知し、その交点を接触領域として検出するセンサである。
(Embodiment 2)
The hardware configuration and functional blocks of the input device according to the second embodiment will be described with reference to FIGS. 1 and 2. The input device according to the second embodiment differs from the input device 100 according to the first embodiment in the configuration of the contact area detection unit. The contact area detection unit 1 according to the first embodiment is a touch pad that can acquire each contact area independently, but the contact area detection unit according to the second embodiment, as shown in FIG. The sensor detects the X coordinate and the Y coordinate of the contact area independently and detects the intersection as the contact area.

図20(a)は、本発明の第2の実施形態に係る接触領域検知部1aの構成例を示す図である。ただし、接触領域検知部1aの操作面上の領域をX座標とY座標とで表すものとする。また、操作者の手の長手方向をY座標軸の方向とし、Y座標軸と直交する方向をX座標軸の方向と定義する。   Fig.20 (a) is a figure which shows the structural example of the contact area | region detection part 1a which concerns on the 2nd Embodiment of this invention. However, an area on the operation surface of the contact area detection unit 1a is represented by an X coordinate and a Y coordinate. The longitudinal direction of the operator's hand is defined as the direction of the Y coordinate axis, and the direction orthogonal to the Y coordinate axis is defined as the direction of the X coordinate axis.

図20(a)において、接触領域検知部1aは、X座標軸と垂直な方向に光を発する多数の発光部と、多数の発光部が発した光を受光する多数の受光部とを備える。また、接触領域検知部1aは、Y座標軸と垂直な方向に光を発する多数の発光部と、当該多数の発光部が発した光を受光する多数の受光部とを備える。   In FIG. 20A, the contact area detection unit 1a includes a large number of light emitting units that emit light in a direction perpendicular to the X coordinate axis, and a large number of light receiving units that receive light emitted from the large number of light emitting units. The contact area detection unit 1a includes a large number of light emitting units that emit light in a direction perpendicular to the Y coordinate axis, and a large number of light receiving units that receive the light emitted by the large number of light emitting units.

例えば、接触領域検知部1aは、操作面の形状が長方形である場合、X座標軸と平行し、互いに対向する2辺のうち一辺に光を発する多数の発光部と、他の一辺に当該発光部が発した光を受光する多数の受光部とを備える。また、接触領域検知部1aは、Y座標軸と平行し、互いに対向する2辺のうち一辺に光を発する多数の発光部と、他の一辺に当該発光部が発した光を受光する多数の受光部とを備える。   For example, when the shape of the operation surface is a rectangle, the contact area detection unit 1a includes a plurality of light emitting units that emit light on one side of two sides that are parallel to the X coordinate axis and face each other, and the light emitting unit on the other side. And a large number of light receiving parts for receiving the light emitted by. In addition, the contact area detection unit 1a is parallel to the Y coordinate axis and has a large number of light emitting units that emit light on one side of two sides facing each other, and a large number of light receiving units that receive light emitted by the light emitting unit on the other side. A part.

操作面に操作者の手が接触した場合、多数の発光部から発した一部の光が、操作者の手によって遮られ、一部の受光部に届かなくなるために、接触領域検知部1aは、接触領域のX座標及びY座標を検知することができる。   When the operator's hand comes into contact with the operation surface, a part of the light emitted from the many light emitting units is blocked by the operator's hands and cannot reach some of the light receiving units. The X coordinate and Y coordinate of the contact area can be detected.

図20(b)は、本発明の第2の実施形態に係る接触領域検知部1bの構成例を示す図である。図20(b)において、接触領域検知部1bは、X座標方向にストライプ状に電流を流すストライプ状導電膜が形成された基板と、Y座標方向にストライプ状に電流を流すストライプ状導電膜が形成された基板とを、所定の空間を介して導電膜が対向するように上下に重ねて構成されている。この例では、X座標方向のストライブ状導電膜が上側に、Y座標方向のストライブ状導電膜が下側に重ねられている。操作面に手が接触した場合、通常は上下に離れているX座標方向のストライプ状導電膜とY座標方向のストライプ状導電膜が、接触した位置で通電し、接触領域検知部1bは、接触領域のX座標及びY座標を検知することができる。   FIG. 20B is a diagram illustrating a configuration example of the contact area detection unit 1b according to the second embodiment of the present invention. In FIG. 20B, the contact region detection unit 1b includes a substrate on which a striped conductive film that flows current in a stripe shape in the X coordinate direction and a striped conductive film that flows current in a stripe shape in the Y coordinate direction. The formed substrate is configured to overlap vertically so that the conductive films face each other through a predetermined space. In this example, the stripe-like conductive film in the X coordinate direction is overlaid on the upper side, and the stripe-like conductive film in the Y coordinate direction is overlaid on the lower side. When a hand touches the operation surface, the stripe-shaped conductive film in the X-coordinate direction and the stripe-shaped conductive film in the Y-coordinate direction that are normally separated from each other are energized at the contact position, and the contact area detection unit 1b The X coordinate and Y coordinate of the region can be detected.

その他、接触領域のX座標とY座標とをそれぞれ独立に検知し、その交点を接触領域として検出するセンサとしては、静電容量方式等も用いることができる。   In addition, a capacitance method or the like can also be used as a sensor that detects the X coordinate and the Y coordinate of the contact area independently and detects the intersection as the contact area.

しかしながら、これら検出方式のセンサを接触領域検知部に用いた場合には、以下のような課題がある。図21は、第2の実施形態に係る接触領域検知部の課題を説明する図である。ただし、X座標Y座標で表される領域を(X,Y)領域と記す。接触領域検知部の操作面上において、人間の左手の形状を想定して、操作者の指先が黒丸で示す点で接触している場合を想定する。接触領域検知部は、上記の様な検出方式であるために、(X1,Y2)領域2101、(X2,Y1)領域2102、(X3,Y1)領域2103、及び(X4、Y1)領域2104以外に、(X1,Y1)領域2111、(X2,Y2)領域2112、(X3,Y2)領域2113、(X4,Y2)領域2114の、実際には操作者の指先が接触していない領域を検出してしまう。また、(X2,Y1)領域2102、(X3,Y1)領域2103、及び(X4、Y1)領域2104のY座標が同じになってしまう。これは、例えば接触領域検知部1aで説明すると、薬指、中指、人指し指のY座標が近接しているので、発光部が発した光がこれら3本の指で遮られて、別個に特定できず、領域Y1という幅の広い領域内に有るということだけしか検出できないためである。   However, when these detection-type sensors are used in the contact area detection unit, there are the following problems. FIG. 21 is a diagram illustrating a problem of the contact area detection unit according to the second embodiment. However, an area represented by an X coordinate and a Y coordinate is referred to as an (X, Y) area. Assuming the shape of the human left hand on the operation surface of the contact area detection unit, it is assumed that the fingertip of the operator is in contact at a point indicated by a black circle. Since the contact area detection unit uses the detection method as described above, the area other than the (X1, Y2) area 2101, the (X2, Y1) area 2102, the (X3, Y1) area 2103, and the (X4, Y1) area 2104 In addition, the (X1, Y1) region 2111, (X2, Y2) region 2112, (X3, Y2) region 2113, (X4, Y2) region 2114 are detected when the operator's fingertip is not actually touching. Resulting in. In addition, the Y coordinates of the (X2, Y1) region 2102, (X3, Y1) region 2103, and (X4, Y1) region 2104 are the same. For example, in the case of the contact area detection unit 1a, since the Y coordinates of the ring finger, the middle finger, and the index finger are close to each other, the light emitted from the light emitting unit is blocked by these three fingers and cannot be specified separately. This is because it is only possible to detect that the area is within the wide area Y1.

上述したような課題に対して、第1の実施の形態の図3のステップS105で初期手モデルを作成する際に、操作者が接触領域検知部に各指を置く際の時間差を利用して、接触した領域を特定するなどの方法が考えられる。しかし、第1の実施の形態の図11において示したのと同様に、指先位置点の移動だけでは、操作者が手全体は動かさずに4つの指を曲げた場合と、操作者が接触領域検知部の操作面上の手全体を下方に動かした場合とを区別することはできないという課題がある。   In response to the problems described above, when creating the initial hand model in step S105 of FIG. 3 of the first embodiment, the time difference when the operator places each finger on the contact area detection unit is used. For example, a method of specifying a contact area can be considered. However, in the same way as shown in FIG. 11 of the first embodiment, the movement of the fingertip position point alone may cause the operator to bend four fingers without moving the entire hand, and There is a problem that it is impossible to distinguish the case where the entire hand on the operation surface of the detection unit is moved downward.

そこで、本実施形態においては、上述したような課題に対して、以下のように課題を解決する。図22は図20に示した接触位置検知部1aまたは1bを用いた場合の、両者を区別する方法を説明するための図である。図22(a)は図11(a)同様に操作者が手全体は動かさずに4つの指を曲げた場合を示す図で、図22(b)は図11(b)同様に操作者が接触領域検知部の操作面上の手全体を下方に動かした場合を示す図である。   Therefore, in the present embodiment, the problem is solved as follows with respect to the problem described above. FIG. 22 is a diagram for explaining a method of distinguishing between the contact position detection units 1a or 1b shown in FIG. FIG. 22A is a view showing a case where the operator bends four fingers without moving the entire hand as in FIG. 11A, and FIG. 22B is a view similar to FIG. It is a figure which shows the case where the whole hand on the operation surface of a contact area | region detection part is moved below.

図22(a)では、左から小指、薬指、中指、人差し指に対応する接触領域2201〜2204が、手全体は動かさずに4つの指を曲げたことにより接触領域2211〜2214に移動している。その際、指を曲げることにより操作面と指との接触位置が、各指の腹の部分から、爪の方に移動するため、接触領域の面積は小さくなる。そのため、接触領域検知部1aまたは1bを用いた場合に検出されるY座標の領域は、領域Y1から領域Y3へ、領域Y2から領域Y4へそれぞれ移動し、各領域の幅は小さくなる。   In FIG. 22A, contact areas 2201 to 2204 corresponding to the little finger, ring finger, middle finger, and index finger move from left to contact areas 2211 to 2214 by bending four fingers without moving the entire hand. . At this time, since the contact position between the operation surface and the finger is moved from the belly portion of each finger toward the nail by bending the finger, the area of the contact region is reduced. Therefore, the area of the Y coordinate detected when using the contact area detection unit 1a or 1b moves from the area Y1 to the area Y3 and from the area Y2 to the area Y4, and the width of each area becomes small.

図22(b)では、左から小指、薬指、中指、人差し指に対応する接触領域2201〜2204が、接触領域検知部の操作面上の手全体を下方に動かしたことにより接触領域2221〜2224に移動している。その際、操作面と指との接触位置は各指の腹の部分のままで、その接触面積はあまり変わらない。そのため、接触領域検知部1aまたは1bを用いた場合に検出されるY座標の領域は、領域Y1から領域Y5へ、領域Y2から領域Y6へそれぞれ移動し、各領域の幅はあまり変わらない。   In FIG. 22B, contact areas 2201 to 2204 corresponding to the little finger, ring finger, middle finger, and index finger from the left move to the contact areas 2221 to 2224 by moving the entire hand on the operation surface of the contact area detection unit downward. Has moved. At this time, the contact position between the operation surface and the finger remains the belly part of each finger, and the contact area does not change much. Therefore, the area of the Y coordinate detected when the contact area detection unit 1a or 1b is used moves from the area Y1 to the area Y5 and from the area Y2 to the area Y6, respectively, and the width of each area does not change much.

指先位置点の移動だけでは両者を区別することはできないが、このY座標の領域の幅の変化の違いを利用して、第1の実施の形態と同様に、両者を区別することができる。   Although the two cannot be distinguished from each other only by the movement of the fingertip position point, both can be distinguished from each other using the difference in the change in the width of the Y-coordinate region as in the first embodiment.

すなわち、本実施形態においては、第1の実施の形態の図3のステップS102においてモデル移動量決定部は、指先位置点の接触面積としてY座標の領域の幅を取得し、図10のステップS178−3において、モデル移動量決定部は、接触面積の変化としてY座標の領域の幅の変化を検出する。   That is, in the present embodiment, in step S102 of FIG. 3 of the first embodiment, the model movement amount determination unit acquires the width of the Y coordinate region as the contact area of the fingertip position point, and step S178 of FIG. In −3, the model movement amount determination unit detects a change in the width of the Y coordinate region as a change in the contact area.

モデル移動量決定部は、接触領域を示すY座標の領域の幅の初期状態からの変化率の絶対値が所定の閾値より小さい場合に、初期状態からの接触領域の移動量をCGモデルの平行移動量として決定し、接触領域を示すY座標の領域の幅の初期状態からの変化率の絶対値が所定の閾値より大きい場合に、初期状態からの接触領域の移動量をCGモデルの指曲げによる移動量として決定する。   When the absolute value of the rate of change from the initial state of the width of the Y coordinate area indicating the contact area is smaller than a predetermined threshold, the model movement amount determination unit determines the movement amount of the contact area from the initial state in parallel with the CG model. When the absolute value of the change rate from the initial state of the width of the Y-coordinate region indicating the contact region is larger than a predetermined threshold, the amount of movement of the contact region from the initial state is determined by the finger bending of the CG model. It is determined as the amount of movement.

本発明は、入力装置および入力方法等に利用可能であり、特に、操作者の手のCGモデルを操作者の手の動きに併せてよりリアルに変形させたい場合等に有用である。   The present invention can be used for an input device, an input method, and the like, and is particularly useful when a CG model of an operator's hand is more realistically deformed in accordance with the movement of the operator's hand.

本発明の実施形態に係る入力装置100の動作の概要を説明するための図The figure for demonstrating the outline | summary of operation | movement of the input device 100 which concerns on embodiment of this invention. 本発明の実施形態に係る入力装置100の構成例を示す図The figure which shows the structural example of the input device 100 which concerns on embodiment of this invention. 本発明の実施形態に係る入力装置100の動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the input device 100 which concerns on embodiment of this invention. モデル保持部15が保持する手モデルの一例を示す図The figure which shows an example of the hand model which the model holding part 15 hold | maintains 図3のステップS101およびS102における接触領域検知部1の動作について説明するための図で、(a)接触領域検知部1の操作面に操作者の手か置かれた状態の一例を示す図、(b)接触領域検知部1が検知した接触点群を黒丸群で表した図FIG. 4 is a diagram for explaining the operation of the contact area detection unit 1 in steps S101 and S102 of FIG. 3, (a) a diagram showing an example of a state where an operator's hand is placed on the operation surface of the contact area detection unit 1 (B) The contact point group detected by the contact area detector 1 is represented by a black circle group. 図3のステップS102を詳細に説明するためのフローチャートFlowchart for explaining step S102 in FIG. 3 in detail 図3のステップS102で取得される指先位置点を説明するための図で、(a)接触点群を楕円フィッティング処理した一例を示す図、(b)楕円から指先位置点を決定する一例を示す図FIGS. 3A and 3B are diagrams for explaining the fingertip position points acquired in step S102 of FIG. 3, and FIG. 3A shows an example in which a contact point group is subjected to ellipse fitting processing, and FIG. Figure 図6のステップS102−3で取得された指先位置点の位置の一例を示す図The figure which shows an example of the position of the fingertip position point acquired by step S102-3 of FIG. 図3のステップS105の処理を詳しく説明するためのフローチャートFlowchart for explaining in detail the process of step S105 in FIG. 図3のステップS107およびS108の処理を説明するためのフローチャートFlowchart for explaining the processing of steps S107 and S108 in FIG. 操作者が接触領域検知部1の操作面上の手を動かした時の各指先位置点の接触面積の変化を示す図で、(a)操作者が手全体は動かさずに4つの指を曲げた場合を示す図、(b)操作者が接触領域検知部1の操作面上の手全体を下方に動かした場合を示す図FIG. 4 is a diagram showing a change in contact area of each fingertip position point when the operator moves the hand on the operation surface of the contact area detection unit 1, and (a) the operator bends four fingers without moving the entire hand. (B) The figure which shows the case where the operator moves the whole hand on the operation surface of the contact area detection part 1 downward. 付け根点から各指先位置点までの距離R1〜R4を示す図The figure which shows distance R1-R4 from a base point to each fingertip position point 図3のステップS108において、手モデルの指曲り角度を決定する方法を説明するための図で、(a)人差し指1300を曲げた場合の指先位置点の変位を示す図、(b)曲げた状態の人差し指1300の手モデルを側面から見た図FIG. 3 is a diagram for explaining a method of determining a finger bending angle of a hand model in step S108 of FIG. 3, (a) a diagram showing displacement of a fingertip position point when the index finger 1300 is bent, and (b) a bent state. View of hand model of index finger 1300 from the side 図3のステップS109の処理を説明するためのフローチャートFlowchart for explaining the process of step S109 of FIG. 図3のステップS109における手モデルの変形の具体例を示す図で、(a)初期位置点を示す図、(b)初期位置点を用いて描画された初期手モデルを示す図、(c)操作者が人差し指を曲げた場合の指先位置点を示す図、(d)人差し指を曲げた時の指先位置点を用いて変形された手モデルを示す図FIGS. 3A and 3B are diagrams showing a specific example of deformation of the hand model in step S <b> 109 in FIG. 3, (a) a diagram showing an initial position point, (b) a diagram showing an initial hand model drawn using the initial position point, and (c). The figure which shows the fingertip position point when an operator bends the index finger, (d) The figure which shows the hand model deform | transformed using the fingertip position point when the index finger is bent 図15に示した手モデルを側面から見た図で、(a)図15bに示した手モデルを側面から見た図、(b)図15dに示した手モデルを側面から見た図15 is a view of the hand model shown in FIG. 15 viewed from the side, (a) a view of the hand model shown in FIG. 15b as viewed from the side, and (b) a view of the hand model shown in FIG. 15d as viewed from the side. 図3のステップS110の処理を説明するための図The figure for demonstrating the process of step S110 of FIG. 図3のステップS111の処理について説明するための図The figure for demonstrating the process of step S111 of FIG. 接触領域検知部1の車への設置位置の例を示す図で、(a)車両のセンターコンソールに取り付けられた場合の一例を示す図、(b)車両のドアの操作部に取り付けられた場合の一例を示す図、(c)車両のハンドルに取り付けられた場合の一例を示す図It is a figure which shows the example of the installation position to the vehicle of the contact region detection part 1, (a) A figure which shows an example at the time of being attached to the center console of a vehicle, (b) When it is attached to the operation part of the door of a vehicle The figure which shows an example, (c) The figure which shows an example at the time of attaching to the steering wheel of a vehicle 本発明の第2の実施形態に係る接触領域検知部の構成例を示す図で、(a)発光部と受光部により接触位置を検出する構成例を示す図、(b)ストライプ状導電膜により接触位置を検出する構成例を示す図It is a figure which shows the structural example of the contact area | region detection part which concerns on the 2nd Embodiment of this invention, (a) The figure which shows the structural example which detects a contact position with a light emission part and a light-receiving part, (b) By striped conductive film The figure which shows the structural example which detects a contact position 第2の実施形態に係る接触領域検知部の課題を説明する図The figure explaining the subject of the contact area detection part which concerns on 2nd Embodiment. 接触位置検知部1aまたは1bを用いた場合の、接触領域を示すY座標の領域の変化を示す図で、(a)操作者が手全体は動かさずに4つの指を曲げた場合を示す図、(b)操作者が接触領域検知部の操作面上の手全体を下方に動かした場合を示す図FIG. 6 is a diagram showing a change in a Y coordinate area indicating a contact area when the contact position detection unit 1a or 1b is used, and (a) a diagram showing a case where an operator bends four fingers without moving the entire hand. (B) The figure which shows the case where an operator moves the whole hand on the operation surface of a contact area detection part downward.

符号の説明Explanation of symbols

1、1a、1b 接触領域検知部
2 演算部
3 表示部
4 操作対象機器
12 移動量算出部
13 モデル移動量決定部
14 指曲り角度決定部
15 モデル保持部
16 モデル形状決定部
17 GUIパーツ保持部
18 重畳画像作成部
19 衝突判定部
20 コマンド送信部
100 入力装置
DESCRIPTION OF SYMBOLS 1, 1a, 1b Contact area | region detection part 2 Calculation part 3 Display part 4 Operation object apparatus 12 Movement amount calculation part 13 Model movement amount determination part 14 Finger bending angle determination part 15 Model holding part 16 Model shape determination part 17 GUI parts holding part DESCRIPTION OF SYMBOLS 18 Superimposed image preparation part 19 Collision determination part 20 Command transmission part 100 Input device

Claims (6)

操作面に置かれた手のCGモデルを表示部に表示して機器を操作する入力装置であって、
前記操作面と前記手との複数の接触領域を検知する接触領域検知部と、
前記手の指を伸ばした初期状態からの前記接触領域の移動量および前記接触領域の面積の変化を算出する移動量算出部と、
前記初期状態からの前記接触領域の移動量および前記接触領域の面積の変化に基づいて、前記CGモデルの平行移動量、指曲げによる移動量を決定するモデル移動量決定部と、
前記指曲げによる移動量に基づいて、前記CGモデルの各指関節の曲り角度を決定する指曲り角度決定部と、
前記CGモデルの平行移動量および各指関節の曲り角度に従って、前記CGモデルの位置および変形形状を決定するモデル形状決定部と、
前記機器に対するコマンドを割り当てたGUIパーツを保持するGUIパーツ保持部と、
前記モデル形状決定部で形状が決定された前記CGモデルと前記GUIパーツ保持部に保持されたGUIパーツとを重畳した画像を作成して前記表示部に表示させる重畳画像作成部と、
前記GUIパーツと前記CGモデルの指先との衝突を判定する衝突判定部と、
前記衝突判定部によって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを前記機器に送信するコマンド送信部とを備える、入力装置。
An input device for operating a device by displaying a CG model of a hand placed on an operation surface on a display unit,
A contact area detector that detects a plurality of contact areas between the operation surface and the hand;
A movement amount calculation unit for calculating a movement amount of the contact region and an area change of the contact region from an initial state in which the finger of the hand is extended;
A model movement amount determination unit that determines a movement amount of the CG model based on a movement amount of the contact region from the initial state and a change in the area of the contact region, and a movement amount by finger bending;
A finger bending angle determination unit that determines a bending angle of each finger joint of the CG model based on a movement amount by the finger bending;
A model shape determining unit that determines a position and a deformed shape of the CG model according to a parallel movement amount of the CG model and a bending angle of each finger joint;
A GUI parts holding unit for holding GUI parts to which commands for the device are assigned;
A superimposed image creating unit that creates an image in which the CG model whose shape is determined by the model shape determining unit and a GUI part held in the GUI part holding unit are superimposed and displayed on the display unit;
A collision determination unit that determines a collision between the GUI part and the fingertip of the CG model;
When a collision is determined by the collision determination unit, an input device includes a command transmission unit that transmits a command assigned to the GUI part for which the collision is determined to the device.
前記移動量算出部は、前記接触領域中の前記指先に対応する位置を示す指先位置点を決定し、当該指先位置点を用いて、前記指を伸ばした初期状態からの前記接触領域の移動量を算出することを特徴とする、請求項1に記載の入力装置。 The movement amount calculation unit determines a fingertip position point indicating a position corresponding to the fingertip in the contact area, and uses the fingertip position point to move the contact area from an initial state where the finger is extended. The input device according to claim 1, wherein the input device is calculated. 前記モデル移動量決定部は、前記初期状態からの前記接触領域の面積の変化率の絶対値が所定の閾値より小さい場合に、前記初期状態からの前記接触領域の移動量を前記CGモデルの平行移動量として決定し、前記初期状態からの前記接触領域の面積の変化率の絶対値が所定の閾値より大きい場合に、前記初期状態からの前記接触領域の移動量を前記CGモデルの指曲げによる移動量として決定することを特徴とする、請求項1に記載の入力装置。 The model movement amount determination unit determines the movement amount of the contact region from the initial state in parallel with the CG model when the absolute value of the change rate of the area of the contact region from the initial state is smaller than a predetermined threshold. When the absolute value of the change rate of the area of the contact region from the initial state is larger than a predetermined threshold, the amount of movement of the contact region from the initial state is determined by finger bending of the CG model. The input device according to claim 1, wherein the input device is determined as a movement amount. 前記指曲り角度決定部は、前記CGモデルの同一の指の各指関節の曲り角度は一定という拘束条件を用いて、前記CGモデルの各指関節の曲り角度を決定することを特徴とする、請求項1に記載の入力装置。 The finger bending angle determination unit determines a bending angle of each finger joint of the CG model using a constraint condition that a bending angle of each finger joint of the same finger of the CG model is constant. The input device according to claim 1. 前記接触領域検知部の操作面上の領域をX座標及びY座標で表すと、
前記接触領域検知部は、前記接触領域のX座標とY座標とをそれぞれ独立に検知し、その交点を接触領域として検出するセンサを備え、
前記モデル移動量決定部は、前記接触領域を示すY座標の領域の幅の前記初期状態からの変化率の絶対値が所定の閾値より小さい場合に、前記初期状態からの前記接触領域の移動量を前記CGモデルの平行移動量として決定し、前記接触領域を示すY座標の領域の幅の前記初期状態からの変化率の絶対値が所定の閾値より大きい場合に、前記初期状態からの前記接触領域の移動量を前記CGモデルの指曲げによる移動量として決定することを特徴とする、請求項1に記載の入力装置。
When the area on the operation surface of the contact area detection unit is represented by the X coordinate and the Y coordinate,
The contact area detection unit includes a sensor that detects the X coordinate and the Y coordinate of the contact area independently and detects the intersection as a contact area.
The model movement amount determination unit moves the contact area from the initial state when the absolute value of the rate of change from the initial state of the width of the Y coordinate area indicating the contact area is smaller than a predetermined threshold. When the absolute value of the rate of change from the initial state of the width of the Y-coordinate region indicating the contact region is larger than a predetermined threshold value, the contact from the initial state The input device according to claim 1, wherein the movement amount of the region is determined as a movement amount by finger bending of the CG model.
操作面に置かれた手のCGモデルを表示部に表示して機器を操作する入力方法であって、
前記操作面と前記手との複数の接触領域を検知する接触領域検知ステップと、
前記手の指を伸ばした初期状態からの前記接触領域の移動量および前記接触領域の面積の変化を算出する移動量算出ステップと、
前記初期状態からの前記接触領域の移動量および前記接触領域の面積の変化に基づいて、前記CGモデルの平行移動量、指曲げによる移動量を決定するモデル移動量決定ステップと、
前記指曲げによる移動量に基づいて、前記CGモデルの各指関節の曲り角度を決定する指曲り角度決定ステップと、
前記CGモデルの平行移動量および各指関節の曲り角度に従って、前記CGモデルの位置および変形形状を決定するモデル形状決定ステップと、
前記モデル形状決定ステップで形状が決定された前記CGモデルと、前記機器に対するコマンドを割り当てた予め保持されているGUIパーツとを重畳した画像を作成して前記表示部に表示させる重畳画像作成ステップと、
前記GUIパーツと前記CGモデルの指先との衝突を判定する衝突判定ステップと、
前記衝突判定ステップによって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを前記機器に送信するコマンド送信ステップとを備える、入力方法。
An input method for operating a device by displaying a CG model of a hand placed on an operation surface on a display unit,
A contact area detection step of detecting a plurality of contact areas between the operation surface and the hand;
A movement amount calculating step for calculating a movement amount of the contact region and an area change of the contact region from an initial state in which the finger of the hand is extended; and
A model movement amount determination step for determining a movement amount of the CG model based on a movement amount of the contact region from the initial state and a change in the area of the contact region, and a movement amount by finger bending;
A finger bending angle determination step for determining a bending angle of each finger joint of the CG model based on a movement amount by the finger bending;
A model shape determining step for determining a position and a deformed shape of the CG model according to a parallel movement amount of the CG model and a bending angle of each finger joint;
A superimposed image creating step of creating an image in which the CG model whose shape is determined in the model shape determining step and a GUI part that is held in advance to which a command for the device is assigned is superimposed and displayed on the display unit; ,
A collision determination step of determining a collision between the GUI part and the fingertip of the CG model;
When a collision is determined by the collision determination step, a command transmission step of transmitting a command assigned to the GUI part determined to have the collision to the device.
JP2008269444A 2008-10-20 2008-10-20 Input device and input method Expired - Fee Related JP4962466B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008269444A JP4962466B2 (en) 2008-10-20 2008-10-20 Input device and input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008269444A JP4962466B2 (en) 2008-10-20 2008-10-20 Input device and input method

Publications (2)

Publication Number Publication Date
JP2010097529A true JP2010097529A (en) 2010-04-30
JP4962466B2 JP4962466B2 (en) 2012-06-27

Family

ID=42259148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008269444A Expired - Fee Related JP4962466B2 (en) 2008-10-20 2008-10-20 Input device and input method

Country Status (1)

Country Link
JP (1) JP4962466B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015156096A (en) * 2014-02-20 2015-08-27 トヨタ自動車株式会社 input device and input acquisition method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100906A (en) * 1999-09-30 2001-04-13 Suzuki Motor Corp Three-dimensional data display device
JP2006072854A (en) * 2004-09-03 2006-03-16 Matsushita Electric Ind Co Ltd Input device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100906A (en) * 1999-09-30 2001-04-13 Suzuki Motor Corp Three-dimensional data display device
JP2006072854A (en) * 2004-09-03 2006-03-16 Matsushita Electric Ind Co Ltd Input device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015156096A (en) * 2014-02-20 2015-08-27 トヨタ自動車株式会社 input device and input acquisition method

Also Published As

Publication number Publication date
JP4962466B2 (en) 2012-06-27

Similar Documents

Publication Publication Date Title
JP4274997B2 (en) Operation input device and operation input method
US20170017393A1 (en) Method for controlling interactive objects from a touchpad of a computerized device
WO2006027924A1 (en) Input device
US9542032B2 (en) Method using a predicted finger location above a touchpad for controlling a computerized system
US20140240267A1 (en) Method Using a Finger Above a Touchpad for Controlling a Computerized System
US20130300659A1 (en) Recognizing Commands with a Depth Sensor
KR101019254B1 (en) apparatus having function of space projection and space touch and the controlling method thereof
US10191630B2 (en) Graphical interface and method for managing said graphical interface during the touch-selection of a displayed element
JP2008257629A (en) Touch type input device
US20140253515A1 (en) Method Using Finger Force Upon a Touchpad for Controlling a Computerized System
JP4085163B2 (en) Contact type information input device
JP4244202B2 (en) Operation input device and operation input method
JP2003122506A (en) Coordinate input and operational method directing device
JP4962466B2 (en) Input device and input method
JP6966777B2 (en) Input system
JP5005585B2 (en) Operating device and method
JP4941450B2 (en) Input device and input method
JP6565878B2 (en) Display system
JP2010182135A (en) Input device and input method
JP4962467B2 (en) Input device and input method
JP4922266B2 (en) Input device and input method
KR20120062053A (en) Touch screen control how the character of the virtual pet
KR102169236B1 (en) Touchscreen device and method for controlling the same and display apparatus
JP2013120560A (en) Information processing system and information processing method
JPS62150423A (en) Coordinate input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110315

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20110413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120312

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees