JP5005585B2 - Operating device and method - Google Patents

Operating device and method Download PDF

Info

Publication number
JP5005585B2
JP5005585B2 JP2008065440A JP2008065440A JP5005585B2 JP 5005585 B2 JP5005585 B2 JP 5005585B2 JP 2008065440 A JP2008065440 A JP 2008065440A JP 2008065440 A JP2008065440 A JP 2008065440A JP 5005585 B2 JP5005585 B2 JP 5005585B2
Authority
JP
Japan
Prior art keywords
model
finger
contact area
palm
movement amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008065440A
Other languages
Japanese (ja)
Other versions
JP2009223473A (en
Inventor
智裕 寺田
敦士 山下
卓哉 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008065440A priority Critical patent/JP5005585B2/en
Publication of JP2009223473A publication Critical patent/JP2009223473A/en
Application granted granted Critical
Publication of JP5005585B2 publication Critical patent/JP5005585B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ユーザが機器に対して命令等を入力するための操作装置に関し、より特定的には、ユーザがディスプレイ等に表示された情報に基づいて手等の身体部分を用いて、命令等を入力することのできる操作装置に関する。   The present invention relates to an operating device for a user to input a command or the like to a device, and more specifically, a command or the like using a body part such as a hand based on information displayed on a display or the like by a user. It is related with the operating device which can input.

近年の情報機器端末の多機能化に伴って、ユーザがより使い易いユーザインターフェイスが求められている。使い易いユーザインターフェイスの一例として、タッチパネルディスプレイがある。タッチパネルディスプレイは、ディスプレイに表示されるGUI(Graphical User Interface)パーツを押す操作をすることによって、ユーザが命令等を情報機器端末等に入力する装置である。このことから、タッチパネルディスプレイは、初心者でも直感的に操作できるインターフェイスと言える。   With the recent increase in functionality of information equipment terminals, user interfaces that are easier for users to use are required. An example of an easy-to-use user interface is a touch panel display. The touch panel display is a device in which a user inputs a command or the like to an information device terminal or the like by pressing a GUI (Graphical User Interface) part displayed on the display. From this, it can be said that the touch panel display is an interface that even a beginner can operate intuitively.

しかし、タッチパネルディスプレイにおいては、タッチを検知するデバイス(以下、操作部という)と表示部とが一体であるので、当該タッチパネルディスプレイがユーザの手元にないと操作できないという課題があった。   However, in a touch panel display, since a device for detecting a touch (hereinafter referred to as an operation unit) and a display unit are integrated, there is a problem that the touch panel display cannot be operated unless the user has it.

この課題を解決するために、特許文献1の技術は、操作部と表示部とを分離し、操作部に置かれた操作者の手を検知し、コンピュータグラフィック(以下、CGという)の手形状モデル(以下、単に、手モデルという)を、表示部に表示されるGUIに重畳して表示する。このことによって、ユーザは、表示部から離れている場合でも、タッチパネルディスプレイの直感的な操作感を維持した操作を行うことができる。
特開2006−72854号公報
In order to solve this problem, the technique of Patent Document 1 separates an operation unit and a display unit, detects an operator's hand placed on the operation unit, and forms a computer graphic (hereinafter referred to as CG) hand shape. A model (hereinafter simply referred to as a hand model) is displayed superimposed on a GUI displayed on the display unit. Thus, even when the user is away from the display unit, the user can perform an operation while maintaining an intuitive operational feeling of the touch panel display.
JP 2006-72854 A

しかしながら、上記した従来の技術は、操作者であるユーザの指の曲りを算出できないので、ユーザが指を曲げて操作を行った場合には、ユーザの手形状と大幅に異なる形状の手モデルを表示部に表示する。この結果として、操作中にユーザが違和感を感じるという問題があった。   However, since the above-described conventional technology cannot calculate the bending of the finger of the user who is an operator, when the user performs an operation by bending his / her finger, a hand model having a shape significantly different from the shape of the user's hand is used. Display on the display. As a result, there is a problem that the user feels uncomfortable during the operation.

本発明は、操作面に置かれた手のCGモデルを表示部に表示して機器を操作する操作装置に向けられている。そして、上記目的を達成させるために、本発明の操作装置は、操作面と手との複数の接触領域を検知する接触領域検知部と、複数の接触領域を、操作面と掌とが接触した掌接触領域と、操作面と指とが接触した指接触領域とに分け、指を伸ばした初期状態からの掌接触領域及び指接触領域の移動量を算出する移動量算出部と、初期状態からの掌接触領域及び指接触領域の移動量に基づいて、CGモデルの平行移動量及び回転量を決定するモデル移動量決定部と、初期状態からの掌接触領域及び指接触領域の移動量に基づいて、CGモデルの各指関節の曲がり角度を決定する指曲がり角度決定部と、CGモデルの平行移動量、回転量及び各指関節の曲がり角度に従って、CGモデルの変形形状を決定するモデル形状決定部と、機器に対するコマンドを割り当てたGUIパーツを保持するGUIパーツ保持部と、モデル形状決定部で形状が決定されたCGモデルとGUIパーツ保持部に保持されたGUIパーツとを重畳した画像を作成して表示部に表示させる重畳画像作成部と、GUIパーツとCGモデルの指先との衝突を判定する衝突判定部と、衝突判定部によって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを機器に送信するコマンド送信部とを備える。   The present invention is directed to an operation device for operating a device by displaying a CG model of a hand placed on an operation surface on a display unit. And in order to achieve the said objective, the operating device of this invention contacted the operation area | region and the palm, the contact area detection part which detects the some contact area of an operation surface and a hand, and a some contact area. A movement amount calculation unit that calculates a movement amount of the palm contact area and the finger contact area from the initial state in which the finger is extended; Based on the movement amount of the palm contact area and the finger contact area of the CG model, and based on the movement amount of the palm contact area and the finger contact area from the initial state Then, a finger bending angle determination unit that determines the bending angle of each finger joint of the CG model, and a model shape determination that determines the deformation shape of the CG model according to the parallel movement amount, the rotation amount, and the bending angle of each finger joint of the CG model. Parts and devices Create an image that superimposes the GUI parts holding unit that holds the GUI parts to which the model is assigned, the CG model whose shape is determined by the model shape determining unit, and the GUI parts held in the GUI part holding unit on the display unit A superimposed image creation unit to be displayed, a collision determination unit that determines a collision between the GUI part and the fingertip of the CG model, and a command assigned to the GUI part that is determined to have the collision when the collision determination unit determines a collision And a command transmission unit for transmitting to the device.

これにより、本発明の操作装置は、操作者の手の動きをCGモデルに反映させることができ、更に、操作者の各指の動きまでもCGモデルに反映させることができる。   Thereby, the operating device of the present invention can reflect the movement of the operator's hand in the CG model, and can also reflect the movement of each finger of the operator in the CG model.

また、好ましくは、移動量算出部は、掌接触領域中の所定の位置を示す掌位置点と指接触領域中の指の先端に対応する位置を示す指先位置点とを決定し、当該掌位置点と当該指先位置点とを用いて、指を伸ばした初期状態からの掌接触領域及び指接触領域の移動量を算出する。   Preferably, the movement amount calculation unit determines a palm position point indicating a predetermined position in the palm contact area and a fingertip position point indicating a position corresponding to the tip of the finger in the finger contact area, and the palm position Using the point and the fingertip position point, the palm contact area and the movement amount of the finger contact area from the initial state where the finger is extended are calculated.

これにより、本発明の操作装置は、より正確な手の動きを検出できるので、更に正確な手の動きをCGモデルに反映させることができる。   Thereby, since the operating device of the present invention can detect a more accurate hand movement, a more accurate hand movement can be reflected in the CG model.

また、好ましくは、モデル移動量決定部は、初期状態からの掌接触領域の移動量をCGモデルの平行移動量として決定する。   Preferably, the model movement amount determination unit determines the movement amount of the palm contact area from the initial state as the parallel movement amount of the CG model.

また、好ましくは、モデル移動量決定部は、掌接触領域中の所定の位置を中心とした指接触領域の回転量をそれぞれ算出し、算出した回転量の平均をCGモデルの回転量として決定する。   Preferably, the model movement amount determination unit calculates the rotation amount of the finger contact area around a predetermined position in the palm contact area, and determines the average of the calculated rotation amounts as the rotation amount of the CG model. .

また、好ましくは、指曲がり角度決定部は、掌接触領域と指接触領域との距離をそれぞれ算出し、算出した距離に基づいて、CGモデルの各指関節の曲がり角度を決定する。   Preferably, the finger bending angle determination unit calculates the distance between the palm contact area and the finger contact area, and determines the bending angle of each finger joint of the CG model based on the calculated distance.

また、好ましくは、指曲がり角度決定部は、CGモデルの同一の指の各指関節の曲がり角度は一定という拘束条件を用いて、CGモデルの各指関節の曲がり角度を決定する。   Preferably, the finger bending angle determination unit determines the bending angle of each finger joint of the CG model using a constraint condition that the bending angle of each finger joint of the same finger of the CG model is constant.

これにより、本発明の操作装置は、CGモデルの各指関節の曲がり角度を決定するための計算の量を大幅に削減できるので、CGモデルの形状を迅速に変形でき、更に装置のコストを抑えることができる。   As a result, the operation device of the present invention can greatly reduce the amount of calculation for determining the bending angle of each finger joint of the CG model, so that the shape of the CG model can be quickly transformed and the cost of the device can be further reduced. be able to.

また、好ましくは、指曲がり角度決定部は、掌接触領域及び各指接触領域は同一平面上に存在するという拘束条件を用いて、CGモデルの各指関節の曲がり角度を決定する。   Preferably, the finger bending angle determination unit determines a bending angle of each finger joint of the CG model using a constraint condition that the palm contact area and each finger contact area exist on the same plane.

これにより、本発明の操作装置は、CGモデルの各指関節の曲がり角度を決定するための計算の量を大幅に削減できるので、CGモデルの形状を迅速に変形でき、更に装置のコストを抑えることができる。   As a result, the operation device of the present invention can greatly reduce the amount of calculation for determining the bending angle of each finger joint of the CG model, so that the shape of the CG model can be quickly transformed and the cost of the device can be further reduced. be able to.

また、指曲がり角度決定部は、初期状態からの掌接触領域及び指接触領域の移動量に基づいて、掌に対する各指の向きを更に決定し、モデル形状決定部は、更に、指曲がり角度決定部が決定した掌に対する各指の向きに従って、CGモデルの変形形状を決定してもよい。   The finger bending angle determination unit further determines the orientation of each finger with respect to the palm based on the palm contact area and the movement amount of the finger contact area from the initial state, and the model shape determination unit further determines the finger bending angle. The deformed shape of the CG model may be determined according to the orientation of each finger with respect to the palm determined by the unit.

これにより、本発明の操作装置は、CGモデルの形状をよりリアルに変形することができる。   Thereby, the operating device of this invention can deform | transform the shape of CG model more realistically.

本発明は、操作面に置かれた手のCGモデルを表示部に表示して機器を操作する操作方法にも向けられている。そして、上記目的を達成させるために、本発明の操作方法は、操作面と手との複数の接触領域を検知する接触領域検知ステップと、複数の接触領域を、操作面と掌とが接触した掌接触領域と、操作面と指とが接触した指接触領域とに分け、指を伸ばした初期状態からの掌接触領域及び指接触領域の移動量を算出する移動量算出ステップと、初期状態からの掌接触領域及び指接触領域の移動量に基づいて、CGモデルの平行
移動量及び回転量を決定するモデル移動量決定ステップと、初期状態からの掌接触領域及び指接触領域の移動量に基づいて、CGモデルの各指関節の曲がり角度を決定する指曲がり角度決定ステップと、CGモデルの平行移動量、回転量及び各指関節の曲がり角度に従って、CGモデルの変形形状を決定するモデル形状決定ステップと、モデル形状決定ステップで形状が決定されたCGモデルと、機器に対するコマンドを割り当てた予め保持されているGUIパーツとを重畳した画像を作成して表示部に表示させる重畳画像作成ステップと、GUIパーツとCGモデルの指先との衝突を判定する衝突判定ステップと、衝突判定ステップによって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを機器に送信するコマンド送信ステップとを備える。
The present invention is also directed to an operation method for operating a device by displaying a CG model of a hand placed on an operation surface on a display unit. In order to achieve the above object, the operation method of the present invention includes a contact area detecting step for detecting a plurality of contact areas between the operation surface and the hand, and the operation surface and the palm contacting the plurality of contact areas. A movement amount calculation step for calculating a movement amount of the palm contact area and the finger contact area from the initial state in which the finger is extended, divided into a palm contact area and a finger contact area in which the operation surface and the finger are in contact, and from the initial state A model movement amount determination step for determining a parallel movement amount and a rotation amount of the CG model based on the movement amounts of the palm contact area and the finger contact area of the palm, and based on the movement amounts of the palm contact area and the finger contact area from the initial state. Then, a finger bending angle determination step for determining the bending angle of each finger joint of the CG model, and a model shape determination for determining the deformation shape of the CG model according to the parallel movement amount, the rotation amount of the CG model, and the bending angle of each finger joint. A superimposed image creating step of creating an image by superimposing a step, a CG model whose shape is determined in the model shape determining step, and a GUI part held in advance, to which a command for the device is assigned, and displaying the superimposed image on the display unit; A collision determination step for determining a collision between the GUI part and the fingertip of the CG model, and a command transmission step for transmitting a command assigned to the GUI part for which the collision is determined to the device when the collision is determined by the collision determination step. With.

これにより、本発明の操作方法は、操作者の手の動きをCGモデルに反映させることができ、更に、操作者の各指の動きまでもCGモデルに反映させることができる。   Accordingly, the operation method of the present invention can reflect the movement of the operator's hand in the CG model, and can also reflect the movement of each finger of the operator in the CG model.

本発明の手形状重畳表示型情報端末操作装置及びその方法によれば、ユーザは、表示部から離れている場合でも、タッチパネルディスプレイの直感的な操作感を維持した操作を行うことができる。また、ユーザが指を曲げて操作した場合であっても、ユーザの手形状を手モデルに忠実に反映できる。この結果として、本発明の手形状重畳表示型情報端末操作装置及びその方法によれば、ユーザは、違和感を感じることなく操作を行うことができる。   According to the hand shape superimposed display type information terminal operating device and the method of the present invention, even when the user is away from the display unit, the user can perform an operation while maintaining an intuitive operation feeling of the touch panel display. Further, even when the user operates by bending his / her finger, the user's hand shape can be faithfully reflected in the hand model. As a result, according to the hand shape superimposed display type information terminal operating device and method of the present invention, the user can operate without feeling uncomfortable.

(実施形態)
図1は、本発明の操作装置を実施するための最良の形態に係る手形状重畳表示型情報端末操作装置100の動作の概要を説明するための図である。以下では、図1を用いて、手形状重畳表示型情報端末操作装置100の動作について簡単に説明する。
(Embodiment)
FIG. 1 is a diagram for explaining the outline of the operation of the hand shape superimposed display type information terminal operating device 100 according to the best mode for carrying out the operating device of the present invention. Hereinafter, the operation of the hand-shaped superimposed display type information terminal operating device 100 will be briefly described with reference to FIG.

図1に示す通り、手形状重畳表示型情報端末操作装置100は、接触領域検知部1と演算部2とを備える。接触領域検知部1は、当該接触領域検知部1上に置いたユーザ(以下、操作者という)の手が接触した領域を検出し、検出した接触領域の情報(以下、単に、接触領域情報という)を演算部2に出力する。接触領域検知部1は、例えば、多点で接触を検知するタッチパッドである。なお、接触領域検知部1は、独立した多点で接触を検知できればよく、静電容量方式・感圧方式・抵抗膜方式等を用いる一般的なデバイスでよい。   As shown in FIG. 1, the hand shape superimposed display type information terminal operating device 100 includes a contact area detection unit 1 and a calculation unit 2. The contact area detection unit 1 detects an area in which the hand of a user (hereinafter referred to as an operator) placed on the contact area detection unit 1 is in contact, and information on the detected contact area (hereinafter simply referred to as contact area information). ) Is output to the calculation unit 2. The contact area detection unit 1 is, for example, a touch pad that detects contact at multiple points. Note that the contact region detection unit 1 only needs to be able to detect contact at independent multiple points, and may be a general device using a capacitance method, a pressure-sensitive method, a resistance film method, or the like.

演算部2は、接触領域検知部1が検知した接触領域情報を用いて表示データを作成して表示部3に出力する。具体的には、演算部2は、接触領域情報を用いてCGの手モデルを作成し、当該手モデルをGUIに重畳した表示データを作成して表示部3に出力する。また、演算部2は、作成した手モデルとGUIパーツとの位置関係を用いて操作者が意図するコマンドを決定し、決定したコマンドを情報端末機器等である操作対象機器4に出力する。なお、演算部2は、一般的なパーソナルコンピュータ(以下、PCという)でもよいし、専用のグラフィックIC等を組み込んだ汎用性のない専用機でもよい。また、演算部2は、接触領域検知部1から入力される信号を受信するインターフェイスと、CPU、ROM、RAMと、各モジュール間を結ぶバスと、計算結果を映像として出力するインターフェイスとを含む。   The calculation unit 2 creates display data using the contact area information detected by the contact area detection unit 1 and outputs the display data to the display unit 3. Specifically, the calculation unit 2 creates a CG hand model using the contact area information, creates display data in which the hand model is superimposed on the GUI, and outputs the display data to the display unit 3. Further, the calculation unit 2 determines a command intended by the operator using the positional relationship between the created hand model and the GUI part, and outputs the determined command to the operation target device 4 such as an information terminal device. Note that the arithmetic unit 2 may be a general personal computer (hereinafter referred to as a PC), or may be a general-purpose dedicated machine incorporating a dedicated graphic IC or the like. The calculation unit 2 includes an interface that receives a signal input from the contact area detection unit 1, a CPU, a ROM, and a RAM, a bus that connects the modules, and an interface that outputs a calculation result as an image.

表示部3は、演算部2から入力された表示データを用いて表示を行う。表示部3は、例えば、液晶ディスプレイやCRT等のディスプレイである。操作対象機器4は、演算部2から入力されたコマンドを実行する。   The display unit 3 performs display using the display data input from the calculation unit 2. The display unit 3 is a display such as a liquid crystal display or a CRT, for example. The operation target device 4 executes the command input from the calculation unit 2.

以上の構成によって、操作者は、表示部3に表示されたGUIパーツ上に重畳された手モデルを目視しながら、接触領域検知部1上の手を動かして手モデルを操作することによって、操作対象機器4を操作することができる。   With the above configuration, the operator operates the hand model by moving the hand on the contact area detection unit 1 while viewing the hand model superimposed on the GUI part displayed on the display unit 3. The target device 4 can be operated.

以下では、手形状重畳表示型情報端末操作装置100の構成及び動作について詳しく説明する。図2は、手形状重畳表示型情報端末操作装置100の構成例を示す図である。図2に示すように、手形状重畳表示型情報端末操作装置100は、接触領域検知部1と演算部2とを備える。演算部2は、移動量算出部12と、モデル移動量決定部13と、指曲り角度決定部14と、モデル保持部15と、モデル形状決定部16と、GUIパーツ保持部17と、重畳画像作成部18と、衝突判定部19と、コマンド送信部20とを含む。   Hereinafter, the configuration and operation of the hand shape superimposed display type information terminal operating device 100 will be described in detail. FIG. 2 is a diagram illustrating a configuration example of the hand shape superimposed display type information terminal operating device 100. As shown in FIG. 2, the hand shape superimposed display type information terminal operating device 100 includes a contact area detection unit 1 and a calculation unit 2. The calculation unit 2 includes a movement amount calculation unit 12, a model movement amount determination unit 13, a finger bending angle determination unit 14, a model holding unit 15, a model shape determination unit 16, a GUI parts holding unit 17, and a superimposed image. A creation unit 18, a collision determination unit 19, and a command transmission unit 20 are included.

図3は、手形状重畳表示型情報端末操作装置100の動作を説明するためのフローチャートである。   FIG. 3 is a flowchart for explaining the operation of the hand shape superimposed display type information terminal operating device 100.

操作者等によってスタートスイッチがオンにされると、手形状重畳表示型情報端末操作装置100は動作を開始する。   When the start switch is turned on by an operator or the like, the hand shape superimposed display type information terminal operating device 100 starts operating.

まず、ステップS101において、接触領域検知部1は、当該接触領域検知部1上に操作者の手が置かれているか否かを判定する。操作者の手が置かれていない場合、接触領域検知部1は、処理待ち状態となり、操作者の手が置かれると、ステップS102に移る。なお、ステップS101における判定は、接触が検知されたか否かによって行うことができる。   First, in step S <b> 101, the contact area detection unit 1 determines whether or not an operator's hand is placed on the contact area detection unit 1. When the operator's hand is not placed, the contact area detection unit 1 enters a process waiting state, and when the operator's hand is placed, the process proceeds to step S102. Note that the determination in step S101 can be made based on whether or not contact is detected.

次に、ステップS102において、接触領域検知部1は、操作者の手が当該接触領域検知部1に接触している領域を点群(以下、接触点群という)として検知し、検知した接触点群のデータを移動量算出部12に出力する。   Next, in step S102, the contact area detection unit 1 detects an area where the operator's hand is in contact with the contact area detection unit 1 as a point group (hereinafter referred to as a contact point group), and detects the detected contact point. The group data is output to the movement amount calculation unit 12.

次に、ステップS103において、移動量算出部12は、入力された接触点群のデータを用いて、操作者の5つの指先の位置を示す点(以下、指先位置点という)及び1つの掌の位置を示す点(以下、掌位置点という)を取得する。移動量算出部12は、5つの指先位置点及び1つの掌位置点を取得するまで待機し、取得するとステップS104に移る。なお、5つの指先位置点及び1つの掌位置点を取得する方法は、後述する。   Next, in step S103, the movement amount calculation unit 12 uses the input contact point group data to indicate a point indicating the position of the operator's five fingertips (hereinafter referred to as a fingertip position point) and one palm point. A point indicating the position (hereinafter referred to as a palm position point) is acquired. The movement amount calculation unit 12 stands by until five fingertip position points and one palm position point are acquired, and when acquired, the process proceeds to step S104. A method for acquiring five fingertip position points and one palm position point will be described later.

ステップS104において、移動量算出部12は、操作者が手を開いた状態(指を伸ばした状態)の指先位置点及び掌位置点(以下、初期位置点と総称する場合がある)が取得済みか否かを判定する。初期位置点が取得済みの場合は、ステップS106に移る。初期位置点が取得済みでない場合は、ステップS105に移る。ここで、初期位置点が取得済みか否かの判定は、手形状重畳表示型情報端末操作装置100が今回起動した後に初期位置点を取得したか否かを判定するものである。   In step S104, the movement amount calculation unit 12 has acquired the fingertip position point and palm position point (hereinafter, may be collectively referred to as an initial position point) in a state where the operator has opened his hand (a state where the finger is extended). It is determined whether or not. If the initial position point has been acquired, the process proceeds to step S106. If the initial position point has not been acquired, the process proceeds to step S105. Here, the determination of whether or not the initial position point has been acquired is to determine whether or not the initial position point has been acquired after the hand-shaped superimposed display type information terminal operating device 100 has been activated this time.

ステップS105において、移動量算出部12は、操作者に接触領域検知部1に置いた手を開くように促すメッセージを通知して初期位置点を取得する。このメッセージは、例えば、表示部3に表示されて操作者に通知される。その後、移動量算出部12は、取得した初期位置点を用いて操作者が手を開いた状態の手モデル(以下、初期手モデルという)を作成する。ステップS105で取得された初期位置点及び初期手モデルのデータは、モデル保持部15に保存される。その後、ステップS103に戻る。つまり、手形状重畳表示型情報端末操作装置100は、起動後最初に操作者が手を接触領域検知部1に置いた時で、初期位置点及び初期手モデルを取得する。初期位置点及び初期手モデルの取得方法は、後述する。   In step S <b> 105, the movement amount calculation unit 12 notifies the operator of a message that prompts the operator to open the hand placed on the contact area detection unit 1 and acquires the initial position point. This message is displayed on the display unit 3 and notified to the operator, for example. Thereafter, the movement amount calculation unit 12 creates a hand model (hereinafter referred to as an initial hand model) in which the operator has opened his / her hand using the acquired initial position point. The initial position point and the initial hand model data acquired in step S105 are stored in the model holding unit 15. Thereafter, the process returns to step S103. That is, the hand shape superimposed display type information terminal operating device 100 acquires the initial position point and the initial hand model when the operator places the hand on the contact area detection unit 1 for the first time after activation. A method for acquiring the initial position point and the initial hand model will be described later.

なお、操作者が交代した場合には、初期位置点及び初期手モデルを更新するために、後の操作者の指示に応答して既に取得済みの前の操作者の初期位置点及び初期手モデルを破棄し、ステップS105の動作を再度行うことで後の操作者の初期位置点及び初期手モデルを取得してもよい。また、初期位置点及び初期手モデルを起動毎に取得せず、操作者の指示に応答してステップS105の動作を行うことによって初期位置点及び初期手モデルを新たに取得してもよい。また、ステップS101において接触領域検知部1が所定期間手の接触を検知しない場合には、既に取得済みの初期位置点及び初期手モデルを破棄し、ステップS105の動作を再度行って新たな初期位置点及び初期手形状を取得してもよい。   When the operator changes, in order to update the initial position point and the initial hand model, the initial position point and the initial hand model of the previous operator already acquired in response to the instruction of the subsequent operator are updated. May be discarded, and the initial position point and initial hand model of the subsequent operator may be acquired by performing the operation of step S105 again. In addition, the initial position point and the initial hand model may be newly acquired by performing the operation in step S105 in response to the operator's instruction without acquiring the initial position point and the initial hand model each time the apparatus is activated. If the contact area detection unit 1 does not detect a hand contact for a predetermined period in step S101, the already acquired initial position point and initial hand model are discarded, and the operation in step S105 is performed again to obtain a new initial position. Points and initial hand shapes may be acquired.

ステップS106において、移動量算出部12は、指先位置点及び掌位置点の初期位置点からの変位を、それぞれ取得する。ここで、各点の変位を取得するために、変位後の各点と変位前の各点との対応をとる方法は、一般的な手法でよい。   In step S <b> 106, the movement amount calculation unit 12 acquires displacements of the fingertip position point and the palm position point from the initial position point, respectively. Here, in order to obtain the displacement of each point, a general method may be used as a method for taking correspondence between each point after displacement and each point before displacement.

次に、ステップS107において、モデル移動量決定部13は、ステップS106で取得した指先位置点及び掌位置点の初期位置点からの変位を用いて、手モデルの平行移動量及び回転量(回転角度)を決定する。この平行移動量及び回転量の決定方法は、後述する。   Next, in step S107, the model movement amount determination unit 13 uses the displacement from the initial position point of the fingertip position point and palm position point acquired in step S106, and translates and rotates the rotation amount (rotation angle) of the hand model. ). A method for determining the parallel movement amount and the rotation amount will be described later.

次に、ステップS108において、指曲り角度決定部14は、ステップS106で取得した指先位置点及び掌位置点の初期位置点からの変位を用いて、手モデルの各指の曲り角度を決定する。この各指の曲り角度を決定する方法は、後述する。   Next, in step S108, the finger bending angle determination unit 14 determines the bending angle of each finger of the hand model using the displacement of the fingertip position point and the palm position point from the initial position point acquired in step S106. A method for determining the bending angle of each finger will be described later.

次に、ステップS109において、モデル形状決定部16は、ステップS107及びS108で決定された手モデルの平行移動量、回転量、各指の曲り角度を用いて、モデル保持部15に保持された手モデルを読出して変形を反映させる。ここで、モデル保持部15に初期手モデルが保持されている場合には、当該初期手モデルを読出して変形を反映させる。   Next, in step S109, the model shape determining unit 16 uses the parallel movement amount, the rotation amount, and the bending angle of each finger determined in steps S107 and S108 to hold the hand held in the model holding unit 15. Read the model to reflect the deformation. Here, when the initial hand model is held in the model holding unit 15, the initial hand model is read to reflect the deformation.

なお、モデル保持部15に保持される手モデルは、一般的な骨格(以下、ボーン構造という)を持つCGモデルであることが好ましい。モデル保持部15が保持する手モデルの一例を図4に示す。図4に示す手モデルは、複数のポリゴンとボーン構造を示すラインとから構成される。また、手モデルをモデル保持部15に保持するファイル形式は、一般的な形式でよい。一例として、ポリゴンの頂点座標を格納したファイル形式が挙げられる。また、手モデルは、併せてテクスチャ情報も保持し、手モデルの現実感を増幅させてもよい。   Note that the hand model held in the model holding unit 15 is preferably a CG model having a general skeleton (hereinafter referred to as a bone structure). An example of a hand model held by the model holding unit 15 is shown in FIG. The hand model shown in FIG. 4 includes a plurality of polygons and lines indicating bone structures. The file format for holding the hand model in the model holding unit 15 may be a general format. As an example, there is a file format that stores the vertex coordinates of a polygon. The hand model may also hold texture information and amplify the realism of the hand model.

次に、ステップS110において、重畳画像作成部18は、GUIパーツ保持部17が予め保持しているGUIパーツを読み出し、読出したGUIパーツを配置した操作画像を作成する。ここで、GUIパーツとは、表示部3に表示される制御命令を割り当てたボタン等である。なお、GUIパーツ及びその配置方法は、一般的なものでよい。その後、重畳画像作成部18は、ステップS109で変形を反映された手モデルと、GUIパーツが配置された操作画像とを重畳して重畳画像を作成し、当該重畳画像を表示部3に表示する。   Next, in step S110, the superimposed image creating unit 18 reads the GUI parts previously held by the GUI parts holding unit 17, and creates an operation image in which the read GUI parts are arranged. Here, the GUI part is a button or the like to which a control command displayed on the display unit 3 is assigned. The GUI parts and the arrangement method thereof may be general. Thereafter, the superimposed image creating unit 18 creates a superimposed image by superimposing the hand model reflected in the deformation in step S109 and the operation image on which the GUI parts are arranged, and displays the superimposed image on the display unit 3. .

次に、ステップS111において、衝突判定部19は、GUIパーツと手モデルの指先位置点との衝突の有無を判定する。この衝突判定の詳細は、後述する。衝突がないと判定されている場合は、ステップS101〜S111の処理が繰り返されて、操作者の手の動きに応じて重畳画像内の手モデルが変形する。衝突が有ると判定されると、衝突判定部19は、衝突が有ったGUIパーツに割当てられたコマンドをコマンド送信部20に通知し
、ステップS112に移る。
Next, in step S111, the collision determination unit 19 determines whether or not there is a collision between the GUI part and the fingertip position point of the hand model. Details of the collision determination will be described later. If it is determined that there is no collision, the processes in steps S101 to S111 are repeated, and the hand model in the superimposed image is deformed according to the movement of the operator's hand. If it is determined that there is a collision, the collision determination unit 19 notifies the command transmission unit 20 of the command assigned to the GUI part that has the collision, and proceeds to step S112.

ステップS112において、コマンド送信部20は、通知されたコマンドを操作対象機器4に送信し、ステップS101に戻る。操作対象機器4は、送信されたコマンドを受信して実行する。以上の処理が繰り返されることによって、手形状重畳表示型情報端末操作装置100は、コマンドの送信を繰り返して操作対象機器4を操作する。なお、操作者等によってスタートスイッチがオフにされると処理は終了する。   In step S112, the command transmission unit 20 transmits the notified command to the operation target device 4, and the process returns to step S101. The operation target device 4 receives and executes the transmitted command. By repeating the above processing, the hand-shaped superimposed display information terminal operating device 100 operates the operation target device 4 by repeatedly transmitting a command. Note that the processing ends when the start switch is turned off by an operator or the like.

以上に説明した動作によって、操作者は、表示部3に表示された重畳画像を目視しながら手を動かすことによって、重畳画像内の手モデルを操作できる。そして、操作者は、手モデルを操作して指先の位置をGUIパーツに重ね合わせることによって、操作対象機器4を操作できることとなる。   By the operation described above, the operator can operate the hand model in the superimposed image by moving his / her hand while viewing the superimposed image displayed on the display unit 3. Then, the operator can operate the operation target device 4 by operating the hand model and superimposing the position of the fingertip on the GUI part.

以下では、図3を用いて説明した各ステップについて、詳細に説明する。   Below, each step demonstrated using FIG. 3 is demonstrated in detail.

図5は、図3のステップS101及びS102における接触領域検知部1の動作について説明するための図である。図5(a)は、接触領域検知部1の操作面に操作者の手か置かれた状態の一例を示す。図5(b)は、接触領域検知部1が検知した接触点群を黒丸群で表した図である。図5に示すように、接触領域検知部1は、図3のステップS101及びS102において、接触点(接触点群)を検知することによって、手の接触領域を検知する。   FIG. 5 is a diagram for explaining the operation of the contact area detection unit 1 in steps S101 and S102 of FIG. FIG. 5A shows an example of a state where the operator's hand is placed on the operation surface of the contact area detection unit 1. FIG. 5B is a diagram showing the contact point group detected by the contact area detection unit 1 as a black circle group. As shown in FIG. 5, the contact area detection unit 1 detects a contact area of the hand by detecting a contact point (contact point group) in steps S101 and S102 of FIG.

図6は、図3のステップS103を詳細に説明するためのフローチャートである。図7は、図3のステップS103で取得される指先位置点及び掌位置点を説明するための図である。以下、図6及び図7を用いて、図3のステップS103の処理を詳細に説明する。   FIG. 6 is a flowchart for explaining step S103 of FIG. 3 in detail. FIG. 7 is a diagram for explaining the fingertip position point and palm position point acquired in step S103 of FIG. Hereinafter, the processing in step S103 in FIG. 3 will be described in detail with reference to FIGS.

まず、S103−1において、移動量算出部12は、接触領域検知部1から図5(b)を用いて説明した接触点群を示すデータを取得する。   First, in S103-1, the movement amount calculation unit 12 acquires data indicating the contact point group described with reference to FIG.

次に、ステップS103−2において、移動量算出部12は、接触点の位置関係に基づいて、図7の楕円で示す複数の領域を算出する。S103−2において複数の領域を算出する方法は、一般的な方法でよい。例えば、接触点の4近傍に他の接触点が存在する場合はこれらの接触点を同一の領域とみなすことによって、複数の領域に区分する方法がある。なお、接触領域検知部1は指の接触及び掌の接触を検知するので、指の接触を検知する接触領域検知部1の操作面の上半分の領域算出方法と、掌の接触を検知する操作面の下半分の領域算出方法とを異なる方法としてもよい。例えば、指の接触を検知する操作面の上半分では、上記した4点近傍に加えて上下方向では2つ離れていても同一領域とみなし、掌を検知する操作面の下半分では、上記した4点近傍に加えて左右方向では2つ離れていても同一領域とみなしてもよい。これによって、指関節位部分のへこみや掌の盛上がり等による誤認識が低減され、指及び掌の接触の検出精度を向上させることができる。   Next, in step S103-2, the movement amount calculation unit 12 calculates a plurality of regions indicated by ellipses in FIG. 7 based on the positional relationship between the contact points. A general method may be used as a method of calculating a plurality of regions in S103-2. For example, when there are other contact points in the vicinity of 4 of the contact points, there is a method of dividing these contact points into a plurality of regions by regarding them as the same region. Since the contact area detection unit 1 detects finger contact and palm contact, the method of calculating the upper half of the operation surface of the contact area detection unit 1 for detecting finger contact and the operation for detecting palm contact. It is good also as a method different from the area | region calculation method of the lower half of a surface. For example, in the upper half of the operation surface that detects finger contact, in addition to the above-mentioned four points, the upper half of the operation surface is regarded as the same area even if they are two apart, and in the lower half of the operation surface that detects the palm, In addition to the vicinity of the four points, it may be regarded as the same region even if they are two apart in the left-right direction. As a result, misrecognition due to dents in the finger joint position, palm swell, and the like can be reduced, and detection accuracy of finger / palm contact can be improved.

次に、ステップS103−3において、移動量算出部12は、ステップS103−2で算出した各領域に対して、楕円フィッティング処理を行う。図7は、指先位置点及び掌位置点の算出方法について説明するための図ある。ステップS103−3において、移動量算出部12は、図7(a)の楕円Aで示すように指の接触点群を楕円で囲み、図7(a)の楕円Bで示すように掌の接触点群を楕円で囲む。ここで、移動量算出部12は、例えば、最も下に位置する接触点群(図7(a)を参照)を掌の接触点群と判断する。その後、移動量算出部12は、例えば、楕円Aの上方向の先端を指先位置点とし(図7(b)を参照)、楕円Bの重心を掌位置点とする(図7(c)を参照)。なお、指先位置点及び掌位置点は、他の方法を用い、また、他の位置に決定してもよい。   Next, in step S103-3, the movement amount calculation unit 12 performs an ellipse fitting process on each region calculated in step S103-2. FIG. 7 is a diagram for explaining a calculation method of the fingertip position point and the palm position point. In step S103-3, the movement amount calculation unit 12 surrounds the finger contact point group with an ellipse as shown by an ellipse A in FIG. 7A, and touches the palm as shown by an ellipse B in FIG. 7A. Enclose the point cloud with an ellipse. Here, the movement amount calculation unit 12 determines, for example, the lowest contact point group (see FIG. 7A) as the palm contact point group. Thereafter, the movement amount calculation unit 12 uses, for example, the upper end of the ellipse A as a fingertip position point (see FIG. 7B) and the center of gravity of the ellipse B as a palm position point (see FIG. 7C). reference). Note that the fingertip position point and the palm position point may be determined by using other methods or other positions.

次に、ステップS103−4において、移動量算出部12は、ステップS103−3で取得した指先位置点及び掌位置点の位置を保持する。図8は、図6のステップS103−3で取得された指先位置点及び掌位置点の位置の一例を示す図である。図8において、黒丸は指先位置点を示し、黒三角は掌位置点を示す。   Next, in step S103-4, the movement amount calculation unit 12 holds the positions of the fingertip position point and the palm position point acquired in step S103-3. FIG. 8 is a diagram illustrating an example of the positions of the fingertip position point and the palm position point acquired in step S103-3 in FIG. In FIG. 8, black circles indicate fingertip position points, and black triangles indicate palm position points.

次に、ステップS103−5において、移動量算出部12は、5つの指先位置点及び1つの掌位置点を取得するまで待機し、これらを取得するとステップS104(図3を参照)に移る。   Next, in step S103-5, the movement amount calculation unit 12 stands by until five fingertip position points and one palm position point are acquired, and when these are acquired, the process proceeds to step S104 (see FIG. 3).

図9は、図3のステップS105の処理を詳しく説明するためのフローチャートである。まず、ステップS105−1において、移動量算出部12は、操作者に接触領域検知部1の操作面上の手を開くように促すメッセージを通知して6つの初期位置点を取得する。   FIG. 9 is a flowchart for explaining in detail the processing in step S105 in FIG. First, in step S105-1, the movement amount calculation unit 12 notifies the operator to open a hand on the operation surface of the contact area detection unit 1, and obtains six initial position points.

次に、ステップS105−2において、移動量算出部12は、ステップS105−1で取得した初期位置点(指先位置点及び掌位置点)と、モデル保持部15が当初から保持しているひな形であるひな形手モデルの対応する指先位置点及び掌位置点とが重なるように、当該ひな形手モデルを変形して初期手モデルを作成する。その後、移動量算出部12は、作成した初期手モデルを、表示部3に表示する。この処理によって、移動量算出部12は、操作者の手の大きさを反映した初期手モデルを作成し、表示部3に表示できる。なお、移動量算出部12は、ひな形手モデルの指の長さを変えるのに併せて、掌の大きさも変えるのが好ましい。このことによって、よりリアルな初期手モデルを作成できる。   Next, in step S105-2, the movement amount calculation unit 12 uses the initial position point (fingertip position point and palm position point) acquired in step S105-1 and the model held by the model holding unit 15 from the beginning. The initial hand model is created by deforming the model hand model so that the corresponding fingertip position point and palm position point of the model hand model are. Thereafter, the movement amount calculation unit 12 displays the created initial hand model on the display unit 3. By this processing, the movement amount calculation unit 12 can create an initial hand model reflecting the size of the operator's hand and display it on the display unit 3. In addition, it is preferable that the movement amount calculation unit 12 also changes the size of the palm in accordance with changing the finger length of the model hand model. This makes it possible to create a more realistic initial hand model.

次に、ステップS105−3において、移動量算出部12は、ステップS105−1で取得した初期位置点の位置とステップS105−2で作成した初期手モデルとをモデル保持部15に保存し、ステップS103に戻る(図3を参照)。   Next, in step S105-3, the movement amount calculation unit 12 stores the position of the initial position point acquired in step S105-1 and the initial hand model created in step S105-2 in the model holding unit 15, and step The process returns to S103 (see FIG. 3).

図10は、図3のステップS107及びS108の処理を説明するためのフローチャートである。図3のステップS107及びS108の処理は、一体となって行われる。従って、以下では、図10を参照して、図3のステップS107及びS108の処理を、同時に説明する。また、以下では、説明の都合上、図10の各ステップを実行する主体をモデル移動量決定部13又は指曲り角度決定部14としているが、ステップによってはこの主体は入れ替わってもよい。   FIG. 10 is a flowchart for explaining the processing of steps S107 and S108 of FIG. The processes in steps S107 and S108 in FIG. 3 are performed as a unit. Therefore, hereinafter, the processes of steps S107 and S108 of FIG. 3 will be described simultaneously with reference to FIG. In the following, for convenience of explanation, the subject that executes each step of FIG. 10 is referred to as the model movement amount determination unit 13 or the finger bending angle determination unit 14, but this subject may be replaced depending on the step.

まず、ステップS178−1において、モデル移動量決定部13は、ステップS106で取得された掌位置点の初期位置点からの変位を手モデルの平行移動量として決定する。   First, in step S178-1, the model movement amount determination unit 13 determines the displacement of the palm position point acquired in step S106 from the initial position point as the parallel movement amount of the hand model.

次に、ステップS178−2において、指曲り角度決定部14は、ステップS106で取得された5つの指先位置点の初期位置点からの変位からステップS106で取得された1つの掌位置点の初期位置点からの変位を、それぞれ差引く。これにより、指曲り角度決定部14は、掌位置点と各指先位置点との距離をそれぞれ算出する。図11は、掌位置点から各指先位置点までの距離R1〜R5を示す図である。つまり、ステップS178−2において、指曲り角度決定部14は、図11に示すR1〜R5の長さをそれぞれ算出する。ここで、図11に示すR1〜R5の長さの変化量は、それぞれ、指が曲がることで生じる変化量である。   Next, in step S178-2, the finger bending angle determination unit 14 determines the initial position of one palm position point acquired in step S106 from the displacement of the five fingertip position points acquired in step S106 from the initial position point. Subtract the displacement from each point. Accordingly, the finger bending angle determination unit 14 calculates the distance between the palm position point and each fingertip position point. FIG. 11 is a diagram illustrating distances R1 to R5 from the palm position point to each fingertip position point. That is, in step S178-2, the finger bending angle determination unit 14 calculates the lengths R1 to R5 shown in FIG. Here, the amount of change in length of R1 to R5 shown in FIG. 11 is the amount of change caused by bending of the finger.

次に、ステップS178−3において、指曲り角度決定部14は、ステップS178−2で算出した掌位置点と各指先位置点との距離を用いて、各指の各関節の曲り角度を決定する。   Next, in step S178-3, the finger bending angle determination unit 14 determines the bending angle of each joint of each finger using the distance between the palm position point calculated in step S178-2 and each fingertip position point. .

次に、ステップS178−4において、モデル移動量決定部13は、掌位置点を中心とした回転によって生じる各指先位置点の回転量θを、それぞれ算出する。図12は、図10のステップS178−4で算出される回転量θを説明するための図である。図12では、一例として、指先位置点は初期位置Xから位置Yに移動している。ステップS178−4において、モデル移動量決定部13は、図12に例示した指先位置点の回転量θを、5つ指先位置点について算出する。   Next, in step S178-4, the model movement amount determination unit 13 calculates the rotation amount θ of each fingertip position point generated by the rotation about the palm position point. FIG. 12 is a diagram for explaining the rotation amount θ calculated in step S178-4 of FIG. In FIG. 12, as an example, the fingertip position point has moved from the initial position X to the position Y. In step S178-4, the model movement amount determination unit 13 calculates the rotation amount θ of the fingertip position points illustrated in FIG. 12 for the five fingertip position points.

次に、ステップS178−5において、モデル移動量決定部13は、ステップS78−4で取得した5つ指先位置点の回転量θを平均して平均回転量θ1 を算出する。そして、モデル移動量決定部13は、算出した平均回転量θ1 を手モデルの回転量として決定する。 Then, in step S178-5, the model movement amount determination unit 13 obtains the five rotation amount theta fingertip location points on average in step S78-4 calculates an average rotation amount theta 1. Then, the model movement amount determination unit 13 determines the calculated average rotation amount θ 1 as the rotation amount of the hand model.

次に、ステップS178−6において、指曲り角度決定部14は、ステップS178−4で算出された5つ指先位置点のそれぞれの回転量θと、ステップS178−5で算出された平均回転量θ1 とを用いて、各指の根本からの回転量γを算出する。各指の根本からの回転量γは、掌に対する各指の向きを示す値である。図13は、図10のステップS178−6の処理について説明するための図である。図13は、図12と同じ状態を示しており、図13には、ステップS178−4で算出された回転量θとステップS178−5で算出された平均回転量θ1 とが示されている。図13に示す通り、指曲り角度決定部14は、回転量θと平均回転量θ1 を用いて指の根本からの回転量γを算出する。 Next, in step S178-6, the finger bending angle determination unit 14 determines the rotation amounts θ of the five fingertip position points calculated in step S178-4 and the average rotation amount θ calculated in step S178-5. 1 is used to calculate the rotation amount γ from the base of each finger. The rotation amount γ from the base of each finger is a value indicating the direction of each finger with respect to the palm. FIG. 13 is a diagram for explaining the processing in step S178-6 in FIG. FIG. 13 shows the same state as FIG. 12, and FIG. 13 shows the rotation amount θ calculated in step S178-4 and the average rotation amount θ 1 calculated in step S178-5. . As illustrated in FIG. 13, the finger bending angle determination unit 14 calculates the rotation amount γ from the base of the finger using the rotation amount θ and the average rotation amount θ 1 .

以上に説明した一連の処理を行うことによって、モデル移動量決定部13及び指曲り角度決定部14は、図3のステップS107及びS108の処理を行い、手モデルの平行移動量、回転量、各指関節の曲り角度及び掌に対する各指の向きを決定する。   By performing the series of processes described above, the model movement amount determination unit 13 and the finger bending angle determination unit 14 perform the processes of steps S107 and S108 in FIG. Determine the bending angle of the knuckles and the orientation of each finger relative to the palm.

図14は、図3のステップS109の処理を説明するためのフローチャートである。図14のフローチャートの処理によって、ステップS107及びS108で決定された各値を用いて手モデルの変形形状が決定される。以下では、図14を参照して、図3のステップS109処理について詳しく説明する。   FIG. 14 is a flowchart for explaining the process of step S109 of FIG. By the processing of the flowchart of FIG. 14, the deformed shape of the hand model is determined using each value determined in steps S107 and S108. Hereinafter, with reference to FIG. 14, step S109 in FIG. 3 will be described in detail.

まず、ステップS109−1において、モデル形状決定部16は、ステップS107で決定された手モデルの移動量を用いて、手モデルの位置を決定する。   First, in step S109-1, the model shape determination unit 16 determines the position of the hand model using the movement amount of the hand model determined in step S107.

次に、ステップS109−2において、モデル形状決定部16は、ステップS107で算出された手モデルの回転量を用いて、手モデルの向きを決定する。   Next, in step S109-2, the model shape determining unit 16 determines the orientation of the hand model using the rotation amount of the hand model calculated in step S107.

次に、ステップS109−3において、モデル形状決定部16は、ステップS108で決定された各指関節の曲り角度及び掌に対する指の向き(図13を参照)を用いて、手モデルの変形形状が決定する。その後、ステップS110に移る。   Next, in step S109-3, the model shape determining unit 16 uses the bending angle of each finger joint determined in step S108 and the orientation of the finger with respect to the palm (see FIG. 13) to determine the deformed shape of the hand model. decide. Thereafter, the process proceeds to step S110.

図15は、図3のステップS109における手モデルの変形の具体例を示す図である。図15(a)は、初期位置点(操作者が手を開いた状態の指先位置点及び掌位置点)を示す。図15(b)は、図15(a)に示す初期位置点を用いて描画された初期手モデルである。図15(c)は、一例として、操作者が人指し指を曲げた場合の指先位置点及び掌位置点を示す。図15(d)は、図15(c)に示す指先位置点及び掌位置点を用いて変形された手モデルである。図16は、図15(b)及び(d)に示した手モデルを側面から視た図である。図15及び図16に示すように、図3のステップS109において、手モデルは、操作者の手の変形に応じてリアルに変形する。   FIG. 15 is a diagram showing a specific example of the deformation of the hand model in step S109 of FIG. FIG. 15A shows an initial position point (a fingertip position point and a palm position point in a state where the operator opens his hand). FIG. 15B is an initial hand model drawn using the initial position points shown in FIG. FIG. 15C shows the fingertip position point and palm position point when the operator bends the index finger as an example. FIG. 15D shows a hand model deformed using the fingertip position point and palm position point shown in FIG. FIG. 16 is a side view of the hand model shown in FIGS. 15B and 15D. As shown in FIGS. 15 and 16, in step S <b> 109 of FIG. 3, the hand model is deformed realistically according to the deformation of the operator's hand.

ここで、指先の変位から指関節の曲がり角度を求める方法として、ロボット工学分野等
で周知であるインバースキネマティクス(以下、IKという)技術がある。IK技術は、複数の可動部を持つアームの先端を目的位置に移動させるために用いられる。そして、アームが複数の可動部を持つ場合、IK技術を用いて目的位置にアームの先端を移動させるためには、可動部の曲り角度には複数の解が存在する。
Here, as a method for obtaining the bending angle of the finger joint from the fingertip displacement, there is an inverse kinematics (hereinafter referred to as IK) technique well known in the field of robot engineering or the like. The IK technique is used to move the tip of an arm having a plurality of movable parts to a target position. When the arm has a plurality of movable parts, there are a plurality of solutions for the bending angle of the movable part in order to move the tip of the arm to the target position using the IK technique.

本発明においても、指には複数の関節があるので、指関節の曲り角度には複数の解が存在する。このため、本発明では、一例として、操作者の掌及び指先は操作面上(同一平面上)に存在するという拘束条件と、各指関節の曲り角度は等しいという拘束条件とを用いて、解を一意に求める。つまり、図3のステップS108において、指曲り角度決定部14は、指先位置点及び掌位置点が同一平面上に存在するという拘束条件及び各指関節の曲り角度は等しいという拘束条件を用いて手モデルの変形形状を決定する。図17は、図3のステップS108において、指先位置点及び掌位置点が同一平面上に存在するという拘束条件及び各指関節の曲り角度は等しいという拘束条件を用いて変形した手モデルの一例を示す図である。図17(a)は、一例として、人指し指を曲げた場合の指先位置点の変位を示している。図17(b)は、図17(a)に示す曲げた状態の人指し指の手モデルを側面から視た図である。図17から解るように、通常、指を曲げると3つの指関節は同時に曲がるので、この様な拘束条件を用いて手モデルを変形すると、操作者は違和感無く操作を行うことができる。また、この様な拘束条件を用いて手モデルを変形すると、演算量が大幅に低減できるので、操作者の手の動きに瞬時に応答する手モデルの変形が可能である。   Also in the present invention, since the finger has a plurality of joints, there are a plurality of solutions for the bending angles of the finger joints. For this reason, in the present invention, as an example, using the constraint condition that the palm and fingertip of the operator exist on the operation surface (on the same plane) and the constraint condition that the bending angles of each finger joint are equal, Is uniquely determined. That is, in step S108 of FIG. 3, the finger bending angle determination unit 14 uses the constraint condition that the fingertip position point and the palm position point exist on the same plane and the constraint condition that the bending angle of each finger joint is equal. Determine the deformed shape of the model. FIG. 17 shows an example of the hand model deformed using the constraint condition that the fingertip position point and the palm position point exist on the same plane and the constraint condition that the bending angles of the finger joints are equal in step S108 of FIG. FIG. FIG. 17A shows the displacement of the fingertip position point when the index finger is bent as an example. FIG. 17B is a side view of the bent index finger hand model shown in FIG. As can be seen from FIG. 17, normally, when the finger is bent, the three finger joints bend at the same time. Therefore, if the hand model is deformed using such a constraint condition, the operator can perform an operation without feeling uncomfortable. Further, when the hand model is deformed using such a constraint condition, the amount of calculation can be greatly reduced, and therefore the hand model that responds instantaneously to the movement of the operator's hand can be deformed.

なお、指関節の曲り角度を算出するための拘束条件は、これには限定されず、解を一意に求めらる拘束条件であればよい。しかし、上記したように、指関節の曲り角度を算出するための拘束条件は、操作者が違和感を感じない手モデルとなる拘束条件が好ましく、操作者の操作行為が自然に行える手モデルとなる拘束条件が好ましい。また、IK技術において目的位置からアーム可動部の曲り角度を求める方法として、ヤコビ行列を用いて繰り返し計算を行う方法や幾何学的に算出する方法等が知られているが、本発明においてはいずれを用いてもよい。   Note that the constraint condition for calculating the bending angle of the finger joint is not limited to this, and may be a constraint condition for uniquely obtaining a solution. However, as described above, the constraint condition for calculating the bending angle of the finger joint is preferably a constraint condition that is a hand model that does not cause the operator to feel uncomfortable, and is a hand model that allows the operator to act naturally. Restraint conditions are preferred. In addition, as a method for obtaining the bending angle of the arm movable portion from the target position in the IK technique, a method of repeatedly calculating using a Jacobian matrix, a method of calculating geometrically, and the like are known. May be used.

図18は、図3のステップS110の処理を説明するための図である。図18において、Aは読出したGUIパーツを配置した操作画像の一例であり、BはステップS109で変形された手モデルの一例であり、CはAとBとが重畳された重畳画像の一例である。図18に示す通り、ステップS110において、重畳画像作成部18は、GUIパーツを配置した操作画像Aと変形された手モデルBとを重畳して、重畳画像Cを作成して表示部3に表示する。なお、重畳画像Cを作成する際、手モデルと重なるGUIパーツを視認し易くするために、手モデルを半透過等にしてもよい。   FIG. 18 is a diagram for explaining the process of step S110 of FIG. In FIG. 18, A is an example of the operation image in which the read GUI parts are arranged, B is an example of the hand model deformed in step S109, and C is an example of the superimposed image in which A and B are superimposed. is there. As shown in FIG. 18, in step S <b> 110, the superimposed image creating unit 18 creates a superimposed image C by superimposing the operation image A on which the GUI parts are arranged and the deformed hand model B, and displays them on the display unit 3. To do. Note that when the superimposed image C is created, the hand model may be made semi-transparent or the like in order to make it easy to visually recognize the GUI part that overlaps the hand model.

図19は、図3のステップS111の処理について説明するための図である。衝突判定部19は、図19(a)の矢印で示すように、ステップS110で作成された重畳画像においてGUIパーツと手モデルの指先位置点とが重なった場合には、当該GUIパーツと手モデルの指先位置点とが衝突したと判定する。この場合には、衝突判定部19は、衝突が判定されたGUIパーツに割当てられたコマンドをコマンド送信部20に通知する。   FIG. 19 is a diagram for explaining the processing in step S111 in FIG. When the GUI part and the fingertip position point of the hand model overlap each other in the superimposed image created in step S110, as shown by the arrow in FIG. 19A, the collision determination unit 19 performs the GUI part and the hand model. It is determined that the fingertip position point has collided. In this case, the collision determination unit 19 notifies the command transmission unit 20 of the command assigned to the GUI part for which the collision is determined.

なお、図19(a)では、ステップS111における衝突判定は、GUIパーツと手モデルの指先位置点との重なりによって行われた。しかし、ステップS111における衝突判定は、例えば、図19(b)の矢印で示すように、GUIパーツと手モデルの指先位置点とが重なり、且つ、重なった指先位置点を有する指の関節角度が所定値以上に曲がったことによって、行われてもよい。この場合には、操作者が誤ってGUIパーツに割当てられたコマンドを実行させることを低減できる。その他の方法としては、GUIパーツと手モデルの指先位置点とが重なり、且つ、該当するGUIパーツの位置でクリック操作がさ
れたことを検出することにより衝突判定が行なわれてもよい。さらに、クリック操作の代わりに、GUIパーツの位置で指の接触点群の領域が大きくなったことを検出することで、操作者の押圧操作を検出し、衝突判定が行われてもよい。
In FIG. 19A, the collision determination in step S111 is performed by the overlap between the GUI part and the fingertip position point of the hand model. However, in step S111, for example, as shown by the arrow in FIG. 19B, the GUI part and the fingertip position point of the hand model overlap, and the finger joint angle having the overlapping fingertip position point is This may be done by bending more than a predetermined value. In this case, it is possible to reduce the operator from executing the command assigned to the GUI part by mistake. As another method, the collision determination may be performed by detecting that the GUI part and the fingertip position point of the hand model overlap and the click operation is performed at the position of the corresponding GUI part. Furthermore, instead of the click operation, the operator's pressing operation may be detected by detecting that the area of the finger contact point group has increased at the position of the GUI part, and the collision determination may be performed.

その後、ステップS112でコマンドが操作対象機器4に送信される。操作対象機器4は、受信したコマンドを実行する。   Thereafter, the command is transmitted to the operation target device 4 in step S112. The operation target device 4 executes the received command.

以上に説明したように、本発明に係る手形状重畳表示型情報端末操作装置100によれば、ユーザは、表示部3から離れている場合でも、タッチパネルディスプレイの直感的な操作感を維持した操作を行うことができる。また、本発明に係る手形状重畳表示型情報端末操作装置100は、ユーザの指の動きを忠実に再現した手モデルを表示部3に表示することができる。この結果として、本発明に係る手形状重畳表示型情報端末操作装置100は、ユーザに違和感の無い快適な操作感覚を提供することができる。   As described above, according to the hand-shaped superimposed display type information terminal operating device 100 according to the present invention, even when the user is away from the display unit 3, the operation that maintains the intuitive operation feeling of the touch panel display. It can be performed. Moreover, the hand shape superimposed display type information terminal operating device 100 according to the present invention can display a hand model that faithfully reproduces the movement of the user's finger on the display unit 3. As a result, the hand-shaped superimposed display type information terminal operating device 100 according to the present invention can provide a comfortable operation feeling without a sense of incongruity to the user.

(変形例)
以上に説明した本発明の実施形態では、掌位置点を指先位置点と同様の方法で検知した。しかし、以下に説明する本発明の変形例のように、掌位置点を手首台を用いて検知してもよい。なお、以下の本発明の変形例の説明では、本発明の実施形態と異なる部分のみ説明を行う。
(Modification)
In the embodiment of the present invention described above, the palm position point is detected by the same method as the fingertip position point. However, the palm position point may be detected using a wrist stand, as in a modification of the present invention described below. In the following description of the modified example of the present invention, only portions different from the embodiment of the present invention will be described.

図20は、手首台を備える接触領域検知部50の一例を示す図である。図20(a)は、操作者が手を置いた状態の接触領域検知部50を側面から視た図である。図20(b)は、操作者が手を置いた状態の接触領域検知部50を上面から視た図である。図20(c)は、接触領域検知部50を上面及び後面から視た図である。   FIG. 20 is a diagram illustrating an example of a contact area detection unit 50 including a wrist base. FIG. 20A is a side view of the contact area detection unit 50 in a state where the operator places his hand. FIG. 20B is a view of the contact area detection unit 50 in a state where the operator places his hand, as viewed from above. FIG.20 (c) is the figure which looked at the contact area detection part 50 from the upper surface and the rear surface.

図20に示すように、操作者は、手首台に掌を置き、接触を検知する操作面に指を置いて操作を行う。手首台は、操作者の掌の縦横斜めの移動に追従してスライドし、操作者の掌の移動を検知する。このことによっって、接触領域検知部50は、掌位置点の変位を検知する。なお、操作者の掌が常に一定の位置に置かれるようにするために、手首台の掌を置く位置に、印又はくぼみを設けることが好ましい。また、手首台の機構は、操作者の掌の変位が検知できればよく、一般的な機構でよい。   As shown in FIG. 20, the operator performs an operation by placing a palm on the wrist stand and placing a finger on the operation surface for detecting contact. The wrist platform slides following the vertical and horizontal movements of the operator's palm, and detects the movement of the operator's palm. Thereby, the contact area detection unit 50 detects the displacement of the palm position point. In order to always place the palm of the operator at a certain position, it is preferable to provide a mark or a recess at the position where the palm of the wrist is placed. The wrist platform mechanism may be a general mechanism as long as the displacement of the operator's palm can be detected.

図21は、接触領域検知部50の操作面が検知する接触点群の一例と、移動量算出部12で取得される指先位置点の一例とを示す図である。図21(a)は、接触領域検知部50の操作面が検知する接触点群の一例である。図21(b)は、移動量算出部12で取得される指先位置点の一例である。図21(a)に示すように、接触領域検知部50の操作面は、接触領域検知部1の操作面と同様に接触点群を検知する。そして、図21(b)に示すように、移動量算出部12は、5つの指先位置点を取得する。ここで、移動量算出部12は、掌位置点を常に取得しているものとし、手首台から入力される掌の変位に応じた掌位置点の変位を用いて処理を行う。   FIG. 21 is a diagram illustrating an example of a contact point group detected by the operation surface of the contact area detection unit 50 and an example of a fingertip position point acquired by the movement amount calculation unit 12. FIG. 21A is an example of a contact point group detected by the operation surface of the contact area detection unit 50. FIG. 21B is an example of the fingertip position point acquired by the movement amount calculation unit 12. As shown in FIG. 21A, the operation surface of the contact area detection unit 50 detects a contact point group in the same manner as the operation surface of the contact area detection unit 1. Then, as illustrated in FIG. 21B, the movement amount calculation unit 12 acquires five fingertip position points. Here, the movement amount calculation unit 12 always acquires the palm position point, and performs processing using the displacement of the palm position point according to the displacement of the palm input from the wrist.

以上に説明したように、手首台を備える接触領域検知部50を用いた本発明の変形例によっても、本発明の実施形態で説明した効果と同様の効果を得ることができる。   As described above, the same effects as those described in the embodiment of the present invention can be obtained also by the modification of the present invention using the contact area detection unit 50 including the wrist stand.

なお、以上に説明した実施形態及び変形例では、図10〜図14を用いて説明した方法を用いて手モデルの移動量、回転量及び変形形状を決定した。しかし、以下に説明する方法を用いて手モデルの移動量、回転量及び変形形状を決定してもよい。式1は、x−y平面上の5点の重心位置(XG ,YG )を算出する式である。

Figure 0005005585
まず、式1を用いて5つの指先位置点の重心位置を求める。そして、求めた重心位置の変位量と各指先位置点の位置の変位量との差を、それぞれ求める。或る指先位置点について、求めた差の値が閾値より大きければ、当該指先位置点に対応する指は曲がっていると判断して、手モデルの指を変形させる。また、或る指先位置点について、求めた差の値が閾値より小さければ、当該指先位置点に対応する指は曲がっておらず手全体が移動又は回転していると判断して、手モデルを移動又は回転させる。この様にして、手モデルの移動、回転及び変形を決定してもよい。 In the embodiment and the modification described above, the movement amount, the rotation amount, and the deformation shape of the hand model are determined using the method described with reference to FIGS. However, the movement amount, the rotation amount, and the deformed shape of the hand model may be determined using the method described below. Expression 1 is an expression for calculating the centroid positions (X G , Y G ) of five points on the xy plane.
Figure 0005005585
First, the center-of-gravity positions of the five fingertip position points are obtained using Equation 1. Then, the difference between the obtained displacement amount of the center of gravity position and the displacement amount of each fingertip position point is obtained. If the calculated difference value is greater than the threshold value for a certain fingertip position point, it is determined that the finger corresponding to the fingertip position point is bent, and the finger of the hand model is deformed. If the calculated difference value is smaller than the threshold value for a certain fingertip position point, it is determined that the finger corresponding to the fingertip position point is not bent and the entire hand moves or rotates, and the hand model is Move or rotate. In this way, the movement, rotation and deformation of the hand model may be determined.

本発明は、手形状重畳表示型情報端末操作装置及びその方法等に利用可能であり、特に、操作者の手のCGモデルを操作者の手の動きに併せてよりリアルに変形させたい場合等に有用である。   INDUSTRIAL APPLICABILITY The present invention can be used for a hand shape superimposed display type information terminal operating device and method thereof, and particularly, when a CG model of an operator's hand is desired to be more realistically deformed in accordance with the movement of the operator's hand. Useful for.

本発明の実施形態に係る手形状重畳表示型情報端末操作装置100の動作の概要を説明するための図The figure for demonstrating the outline | summary of operation | movement of the hand shape superimposition display type information terminal operating device 100 which concerns on embodiment of this invention. 本発明の実施形態に係る手形状重畳表示型情報端末操作装置100の構成例を示す図The figure which shows the structural example of the hand shape superimposition display type information terminal operating device 100 which concerns on embodiment of this invention. 本発明の実施形態に係る手形状重畳表示型情報端末操作装置100の動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the hand shape superimposition display type information terminal operating device 100 which concerns on embodiment of this invention. モデル保持部15が保持する手モデルの一例を示す図The figure which shows an example of the hand model which the model holding part 15 hold | maintains 図3のステップS101及びS102における接触領域検知部1の動作について説明するための図The figure for demonstrating operation | movement of the contact area detection part 1 in step S101 and S102 of FIG. 図3のステップS103を詳細に説明するためのフローチャートFlowchart for explaining step S103 of FIG. 3 in detail 図3のステップS103で取得される指先位置点及び掌位置点を説明するための図The figure for demonstrating the fingertip position point and palm position point acquired by step S103 of FIG. 図6のステップS103−3で取得された指先位置点及び掌位置点の位置の一例を示す図The figure which shows an example of the position of the fingertip position point and palm position point which were acquired by step S103-3 of FIG. 図3のステップS105の処理を詳しく説明するためのフローチャートFlowchart for explaining in detail the process of step S105 in FIG. 図3のステップS107及びS108の処理を説明するためのフローチャートFlowchart for explaining the processing of steps S107 and S108 of FIG. 掌位置点から各指先位置点までの距離R1〜R5を示す図The figure which shows distance R1-R5 from palm position point to each fingertip position point 図10のステップS178−4で算出される回転量θを説明するための図The figure for demonstrating rotation amount (theta) calculated by step S178-4 of FIG. 図10のステップS178−6の処理について説明するための図The figure for demonstrating the process of step S178-6 of FIG. 図3のステップS109の処理を説明するためのフローチャートFlowchart for explaining the process of step S109 of FIG. 図3のステップS109における手モデルの変形の具体例を示す図The figure which shows the specific example of a deformation | transformation of the hand model in step S109 of FIG. 図15(b)及び(d)に示した手モデルを側面から視た図The figure which looked at the hand model shown in Drawing 15 (b) and (d) from the side 図3のステップS108において、指先位置点及び掌位置点が同一平面上に存在するという拘束条件及び各指関節の曲り角度は等しいという拘束条件を用いて変形した手モデルの一例を示す図The figure which shows an example of the hand model deform | transformed using the constraint condition that the fingertip position point and the palm position point exist on the same plane and the constraint condition that the bending angles of each finger joint are equal in step S108 of FIG. 図3のステップS110の処理を説明するための図The figure for demonstrating the process of step S110 of FIG. 図3のステップS111の処理について説明するための図The figure for demonstrating the process of step S111 of FIG. 手首台を備える接触領域検知部50の一例を示す図The figure which shows an example of the contact area | region detection part 50 provided with a wrist stand. 接触領域検知部50の操作面が検知する接触点群の一例と、移動量算出部12で取得される指先位置点の一例とを示す図The figure which shows an example of the contact point group which the operation surface of the contact area detection part 50 detects, and an example of the fingertip position point acquired by the movement amount calculation part 12

符号の説明Explanation of symbols

1、50 接触領域検知部
2 演算部
3 表示部
4 操作対象機器
12 移動量算出部
13 モデル移動量決定部
14 指曲り角度決定部
15 モデル保持部
16 モデル形状決定部
17 GUIパーツ保持部
18 重畳画像作成部
19 衝突判定部
20 コマンド送信部
100 手形状重畳表示型情報端末操作装置
DESCRIPTION OF SYMBOLS 1, 50 Contact area | region detection part 2 Calculation part 3 Display part 4 Operation object apparatus 12 Movement amount calculation part 13 Model movement amount determination part 14 Finger bending angle determination part 15 Model holding part 16 Model shape determination part 17 GUI parts holding part 18 Superimposition Image creation unit 19 Collision determination unit 20 Command transmission unit 100 Hand shape superimposed display type information terminal operating device

Claims (9)

操作面に置かれた手のCGモデルを表示部に表示して機器を操作する操作装置であって、
前記操作面と前記手との複数の接触領域を検知する接触領域検知部と、
前記複数の接触領域を、前記操作面と掌とが接触した掌接触領域と、前記操作面と指とが接触した指接触領域とに分け、前記指を伸ばした初期状態からの前記掌接触領域及び前記指接触領域の移動量を算出する移動量算出部と、
前記初期状態からの前記掌接触領域及び前記指接触領域の移動量に基づいて、前記CGモデルの平行移動量及び回転量を決定するモデル移動量決定部と、
前記初期状態からの前記掌接触領域及び前記指接触領域の移動量に基づいて、前記CGモデルの各指関節の曲がり角度を決定する指曲がり角度決定部と、
前記CGモデルの平行移動量、回転量及び各指関節の曲がり角度に従って、前記CGモデルの変形形状を決定するモデル形状決定部と、
前記機器に対するコマンドを割り当てたGUIパーツを保持するGUIパーツ保持部と、
前記モデル形状決定部で形状が決定された前記CGモデルと前記GUIパーツ保持部に保持されたGUIパーツとを重畳した画像を作成して前記表示部に表示させる重畳画像作成部と、
前記GUIパーツと前記CGモデルの指先との衝突を判定する衝突判定部と、
前記衝突判定部によって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを前記機器に送信するコマンド送信部とを備える、操作装置。
An operation device for operating a device by displaying a CG model of a hand placed on an operation surface on a display unit,
A contact area detector that detects a plurality of contact areas between the operation surface and the hand;
The plurality of contact areas are divided into a palm contact area where the operation surface and a palm are in contact with each other and a finger contact area where the operation surface and a finger are in contact with each other, and the palm contact area from an initial state where the fingers are extended. And a movement amount calculation unit for calculating a movement amount of the finger contact area;
A model movement amount determination unit that determines a parallel movement amount and a rotation amount of the CG model based on the movement amounts of the palm contact area and the finger contact area from the initial state;
A finger bending angle determination unit that determines a bending angle of each finger joint of the CG model based on the movement amount of the palm contact area and the finger contact area from the initial state;
A model shape determining unit that determines a deformed shape of the CG model according to a parallel movement amount, a rotation amount, and a bending angle of each finger joint of the CG model;
A GUI parts holding unit for holding GUI parts to which commands for the device are assigned;
A superimposed image creating unit that creates an image in which the CG model whose shape is determined by the model shape determining unit and a GUI part held in the GUI part holding unit are superimposed and displayed on the display unit;
A collision determination unit that determines a collision between the GUI part and the fingertip of the CG model;
An operation device comprising: a command transmission unit configured to transmit a command assigned to a GUI part for which a collision is determined to the device when a collision is determined by the collision determination unit.
前記移動量算出部は、前記掌接触領域中の所定の位置を示す掌位置点と前記指接触領域中の前記指の先端に対応する位置を示す指先位置点とを決定し、当該掌位置点と当該指先位置点とを用いて、前記指を伸ばした初期状態からの前記掌接触領域及び前記指接触領域の移動量を算出することを特徴とする、請求項1に記載の操作装置。   The movement amount calculation unit determines a palm position point indicating a predetermined position in the palm contact area and a fingertip position point indicating a position corresponding to the tip of the finger in the finger contact area, and the palm position point The operation device according to claim 1, wherein a movement amount of the palm contact region and the finger contact region from an initial state where the finger is extended is calculated using the fingertip position point. 前記モデル移動量決定部は、前記初期状態からの前記掌接触領域の移動量を前記CGモデルの平行移動量として決定することを特徴とする、請求項1に記載の操作装置。   The operating device according to claim 1, wherein the model movement amount determination unit determines a movement amount of the palm contact area from the initial state as a parallel movement amount of the CG model. 前記モデル移動量決定部は、前記掌接触領域中の所定の位置を中心とした前記指接触領域の回転量をそれぞれ算出し、算出した回転量の平均を前記CGモデルの回転量として決定することを特徴とする、請求項1に記載の操作装置。   The model movement amount determination unit calculates a rotation amount of the finger contact region around a predetermined position in the palm contact region, and determines an average of the calculated rotation amounts as a rotation amount of the CG model. The operating device according to claim 1, wherein: 前記指曲がり角度決定部は、前記掌接触領域と前記指接触領域との距離をそれぞれ算出し、算出した距離に基づいて、前記CGモデルの各指関節の曲がり角度を決定することを特徴とする、請求項1に記載の操作装置。   The finger bending angle determination unit calculates a distance between the palm contact area and the finger contact area, and determines a bending angle of each finger joint of the CG model based on the calculated distance. The operating device according to claim 1. 前記指曲がり角度決定部は、前記CGモデルの同一の指の各指関節の曲がり角度は一定という拘束条件を用いて、前記CGモデルの各指関節の曲がり角度を決定することを特徴とする、請求項5に記載の操作装置。   The finger bending angle determination unit determines a bending angle of each finger joint of the CG model using a constraint condition that a bending angle of each finger joint of the same finger of the CG model is constant. The operating device according to claim 5. 前記指曲がり角度決定部は、前記掌接触領域及び各前記指接触領域は同一平面上に存在するという拘束条件を用いて、前記CGモデルの各指関節の曲がり角度を決定することを特徴とする、請求項5に記載の操作装置。   The finger bending angle determination unit determines a bending angle of each finger joint of the CG model using a constraint condition that the palm contact area and each finger contact area exist on the same plane. The operating device according to claim 5. 前記指曲がり角度決定部は、前記初期状態からの前記掌接触領域及び前記指接触領域の移動量に基づいて、掌に対する各指の向きを更に決定し、
前記モデル形状決定部は、更に、前記指曲がり角度決定部が決定した掌に対する各指の
向きに従って、前記CGモデルの変形形状を決定することを特徴とする、請求項1に記載の操作装置。
The finger bending angle determination unit further determines the direction of each finger with respect to the palm based on the movement amount of the palm contact area and the finger contact area from the initial state,
2. The operating device according to claim 1, wherein the model shape determining unit further determines a deformed shape of the CG model according to a direction of each finger with respect to the palm determined by the finger bending angle determining unit.
操作面に置かれた手のCGモデルを表示部に表示して機器を操作する操作方法であって、
前記操作面と前記手との複数の接触領域を検知する接触領域検知ステップと、
前記複数の接触領域を、前記操作面と掌とが接触した掌接触領域と、前記操作面と指とが接触した指接触領域とに分け、前記指を伸ばした初期状態からの前記掌接触領域及び前記指接触領域の移動量を算出する移動量算出ステップと、
前記初期状態からの前記掌接触領域及び前記指接触領域の移動量に基づいて、前記CGモデルの平行移動量及び回転量を決定するモデル移動量決定ステップと、
前記初期状態からの前記掌接触領域及び前記指接触領域の移動量に基づいて、前記CGモデルの各指関節の曲がり角度を決定する指曲がり角度決定ステップと、
前記CGモデルの平行移動量、回転量及び各指関節の曲がり角度に従って、前記CGモデルの変形形状を決定するモデル形状決定ステップと、
前記モデル形状決定ステップで形状が決定された前記CGモデルと、前記機器に対するコマンドを割り当てた予め保持されているGUIパーツとを重畳した画像を作成して前記表示部に表示させる重畳画像作成ステップと、
前記GUIパーツと前記CGモデルの指先との衝突を判定する衝突判定ステップと、
前記衝突判定ステップによって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを前記機器に送信するコマンド送信ステップとを備える、操作方法。
An operation method for operating a device by displaying a CG model of a hand placed on an operation surface on a display unit,
A contact area detection step of detecting a plurality of contact areas between the operation surface and the hand;
The plurality of contact areas are divided into a palm contact area where the operation surface and a palm are in contact with each other and a finger contact area where the operation surface and a finger are in contact with each other, and the palm contact area from an initial state where the fingers are extended. And a movement amount calculating step for calculating a movement amount of the finger contact area;
A model movement amount determination step for determining a parallel movement amount and a rotation amount of the CG model based on the movement amounts of the palm contact area and the finger contact area from the initial state;
A finger bending angle determination step of determining a bending angle of each finger joint of the CG model based on the movement amount of the palm contact area and the finger contact area from the initial state;
A model shape determining step for determining a deformed shape of the CG model according to a parallel movement amount, a rotation amount of the CG model, and a bending angle of each finger joint;
A superimposed image creation step of creating an image in which the CG model whose shape has been determined in the model shape determination step and a GUI part that is held in advance and assigned a command to the device are superimposed and displayed on the display unit; ,
A collision determination step of determining a collision between the GUI part and the fingertip of the CG model;
When a collision is determined by the collision determination step, a command transmission step of transmitting a command assigned to the GUI part determined to have the collision to the device.
JP2008065440A 2008-03-14 2008-03-14 Operating device and method Expired - Fee Related JP5005585B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008065440A JP5005585B2 (en) 2008-03-14 2008-03-14 Operating device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008065440A JP5005585B2 (en) 2008-03-14 2008-03-14 Operating device and method

Publications (2)

Publication Number Publication Date
JP2009223473A JP2009223473A (en) 2009-10-01
JP5005585B2 true JP5005585B2 (en) 2012-08-22

Family

ID=41240208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008065440A Expired - Fee Related JP5005585B2 (en) 2008-03-14 2008-03-14 Operating device and method

Country Status (1)

Country Link
JP (1) JP5005585B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140306910A1 (en) * 2013-04-15 2014-10-16 Qualcomm Incorporated Id tracking of gesture touch geometry
CN110308817B (en) * 2019-06-10 2023-04-07 青岛小鸟看看科技有限公司 Touch action identification method and touch projection system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02132510A (en) * 1988-11-12 1990-05-22 Sony Corp Input device
JP2001100906A (en) * 1999-09-30 2001-04-13 Suzuki Motor Corp Three-dimensional data display device
JP4351599B2 (en) * 2004-09-03 2009-10-28 パナソニック株式会社 Input device
JP4915503B2 (en) * 2006-04-06 2012-04-11 株式会社デンソー Prompter type operation device

Also Published As

Publication number Publication date
JP2009223473A (en) 2009-10-01

Similar Documents

Publication Publication Date Title
CN110977931B (en) Robot control device and display device using augmented reality and mixed reality
US9962839B2 (en) Robot apparatus, method for controlling the same, and computer program
JP6116064B2 (en) Gesture reference control system for vehicle interface
JP4274997B2 (en) Operation input device and operation input method
KR101844390B1 (en) Systems and techniques for user interface control
US20190238755A1 (en) Method and apparatus for push interaction
NO339941B1 (en) System and method for a gesture-based management system
KR20140140095A (en) Enhanced virtual touchpad and touchscreen
WO2017021902A1 (en) System and method for gesture based measurement of virtual reality space
JPH08314621A (en) Method and device for image generation
JP7378232B2 (en) Image processing device and its control method
JP5005585B2 (en) Operating device and method
JP4085163B2 (en) Contact type information input device
JP4244202B2 (en) Operation input device and operation input method
JP6966777B2 (en) Input system
JP4962466B2 (en) Input device and input method
JP4962467B2 (en) Input device and input method
JP4941450B2 (en) Input device and input method
JP4922266B2 (en) Input device and input method
JP2013120560A (en) Information processing system and information processing method
JP2010182135A (en) Input device and input method
JP4676415B2 (en) Sectional image display device, sectional image display method, and sectional image display program
CN117784926A (en) Control device, control method, and computer-readable storage medium
JP2023090200A (en) Sign language learning device, sign language learning method and sign language learning program
JP2023156869A (en) Work supporting system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110314

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees