JP5005585B2 - Operating device and method - Google Patents
Operating device and method Download PDFInfo
- Publication number
- JP5005585B2 JP5005585B2 JP2008065440A JP2008065440A JP5005585B2 JP 5005585 B2 JP5005585 B2 JP 5005585B2 JP 2008065440 A JP2008065440 A JP 2008065440A JP 2008065440 A JP2008065440 A JP 2008065440A JP 5005585 B2 JP5005585 B2 JP 5005585B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- finger
- contact area
- palm
- movement amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、ユーザが機器に対して命令等を入力するための操作装置に関し、より特定的には、ユーザがディスプレイ等に表示された情報に基づいて手等の身体部分を用いて、命令等を入力することのできる操作装置に関する。 The present invention relates to an operating device for a user to input a command or the like to a device, and more specifically, a command or the like using a body part such as a hand based on information displayed on a display or the like by a user. It is related with the operating device which can input.
近年の情報機器端末の多機能化に伴って、ユーザがより使い易いユーザインターフェイスが求められている。使い易いユーザインターフェイスの一例として、タッチパネルディスプレイがある。タッチパネルディスプレイは、ディスプレイに表示されるGUI(Graphical User Interface)パーツを押す操作をすることによって、ユーザが命令等を情報機器端末等に入力する装置である。このことから、タッチパネルディスプレイは、初心者でも直感的に操作できるインターフェイスと言える。 With the recent increase in functionality of information equipment terminals, user interfaces that are easier for users to use are required. An example of an easy-to-use user interface is a touch panel display. The touch panel display is a device in which a user inputs a command or the like to an information device terminal or the like by pressing a GUI (Graphical User Interface) part displayed on the display. From this, it can be said that the touch panel display is an interface that even a beginner can operate intuitively.
しかし、タッチパネルディスプレイにおいては、タッチを検知するデバイス(以下、操作部という)と表示部とが一体であるので、当該タッチパネルディスプレイがユーザの手元にないと操作できないという課題があった。 However, in a touch panel display, since a device for detecting a touch (hereinafter referred to as an operation unit) and a display unit are integrated, there is a problem that the touch panel display cannot be operated unless the user has it.
この課題を解決するために、特許文献1の技術は、操作部と表示部とを分離し、操作部に置かれた操作者の手を検知し、コンピュータグラフィック(以下、CGという)の手形状モデル(以下、単に、手モデルという)を、表示部に表示されるGUIに重畳して表示する。このことによって、ユーザは、表示部から離れている場合でも、タッチパネルディスプレイの直感的な操作感を維持した操作を行うことができる。
しかしながら、上記した従来の技術は、操作者であるユーザの指の曲りを算出できないので、ユーザが指を曲げて操作を行った場合には、ユーザの手形状と大幅に異なる形状の手モデルを表示部に表示する。この結果として、操作中にユーザが違和感を感じるという問題があった。 However, since the above-described conventional technology cannot calculate the bending of the finger of the user who is an operator, when the user performs an operation by bending his / her finger, a hand model having a shape significantly different from the shape of the user's hand is used. Display on the display. As a result, there is a problem that the user feels uncomfortable during the operation.
本発明は、操作面に置かれた手のCGモデルを表示部に表示して機器を操作する操作装置に向けられている。そして、上記目的を達成させるために、本発明の操作装置は、操作面と手との複数の接触領域を検知する接触領域検知部と、複数の接触領域を、操作面と掌とが接触した掌接触領域と、操作面と指とが接触した指接触領域とに分け、指を伸ばした初期状態からの掌接触領域及び指接触領域の移動量を算出する移動量算出部と、初期状態からの掌接触領域及び指接触領域の移動量に基づいて、CGモデルの平行移動量及び回転量を決定するモデル移動量決定部と、初期状態からの掌接触領域及び指接触領域の移動量に基づいて、CGモデルの各指関節の曲がり角度を決定する指曲がり角度決定部と、CGモデルの平行移動量、回転量及び各指関節の曲がり角度に従って、CGモデルの変形形状を決定するモデル形状決定部と、機器に対するコマンドを割り当てたGUIパーツを保持するGUIパーツ保持部と、モデル形状決定部で形状が決定されたCGモデルとGUIパーツ保持部に保持されたGUIパーツとを重畳した画像を作成して表示部に表示させる重畳画像作成部と、GUIパーツとCGモデルの指先との衝突を判定する衝突判定部と、衝突判定部によって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを機器に送信するコマンド送信部とを備える。 The present invention is directed to an operation device for operating a device by displaying a CG model of a hand placed on an operation surface on a display unit. And in order to achieve the said objective, the operating device of this invention contacted the operation area | region and the palm, the contact area detection part which detects the some contact area of an operation surface and a hand, and a some contact area. A movement amount calculation unit that calculates a movement amount of the palm contact area and the finger contact area from the initial state in which the finger is extended; Based on the movement amount of the palm contact area and the finger contact area of the CG model, and based on the movement amount of the palm contact area and the finger contact area from the initial state Then, a finger bending angle determination unit that determines the bending angle of each finger joint of the CG model, and a model shape determination that determines the deformation shape of the CG model according to the parallel movement amount, the rotation amount, and the bending angle of each finger joint of the CG model. Parts and devices Create an image that superimposes the GUI parts holding unit that holds the GUI parts to which the model is assigned, the CG model whose shape is determined by the model shape determining unit, and the GUI parts held in the GUI part holding unit on the display unit A superimposed image creation unit to be displayed, a collision determination unit that determines a collision between the GUI part and the fingertip of the CG model, and a command assigned to the GUI part that is determined to have the collision when the collision determination unit determines a collision And a command transmission unit for transmitting to the device.
これにより、本発明の操作装置は、操作者の手の動きをCGモデルに反映させることができ、更に、操作者の各指の動きまでもCGモデルに反映させることができる。 Thereby, the operating device of the present invention can reflect the movement of the operator's hand in the CG model, and can also reflect the movement of each finger of the operator in the CG model.
また、好ましくは、移動量算出部は、掌接触領域中の所定の位置を示す掌位置点と指接触領域中の指の先端に対応する位置を示す指先位置点とを決定し、当該掌位置点と当該指先位置点とを用いて、指を伸ばした初期状態からの掌接触領域及び指接触領域の移動量を算出する。 Preferably, the movement amount calculation unit determines a palm position point indicating a predetermined position in the palm contact area and a fingertip position point indicating a position corresponding to the tip of the finger in the finger contact area, and the palm position Using the point and the fingertip position point, the palm contact area and the movement amount of the finger contact area from the initial state where the finger is extended are calculated.
これにより、本発明の操作装置は、より正確な手の動きを検出できるので、更に正確な手の動きをCGモデルに反映させることができる。 Thereby, since the operating device of the present invention can detect a more accurate hand movement, a more accurate hand movement can be reflected in the CG model.
また、好ましくは、モデル移動量決定部は、初期状態からの掌接触領域の移動量をCGモデルの平行移動量として決定する。 Preferably, the model movement amount determination unit determines the movement amount of the palm contact area from the initial state as the parallel movement amount of the CG model.
また、好ましくは、モデル移動量決定部は、掌接触領域中の所定の位置を中心とした指接触領域の回転量をそれぞれ算出し、算出した回転量の平均をCGモデルの回転量として決定する。 Preferably, the model movement amount determination unit calculates the rotation amount of the finger contact area around a predetermined position in the palm contact area, and determines the average of the calculated rotation amounts as the rotation amount of the CG model. .
また、好ましくは、指曲がり角度決定部は、掌接触領域と指接触領域との距離をそれぞれ算出し、算出した距離に基づいて、CGモデルの各指関節の曲がり角度を決定する。 Preferably, the finger bending angle determination unit calculates the distance between the palm contact area and the finger contact area, and determines the bending angle of each finger joint of the CG model based on the calculated distance.
また、好ましくは、指曲がり角度決定部は、CGモデルの同一の指の各指関節の曲がり角度は一定という拘束条件を用いて、CGモデルの各指関節の曲がり角度を決定する。 Preferably, the finger bending angle determination unit determines the bending angle of each finger joint of the CG model using a constraint condition that the bending angle of each finger joint of the same finger of the CG model is constant.
これにより、本発明の操作装置は、CGモデルの各指関節の曲がり角度を決定するための計算の量を大幅に削減できるので、CGモデルの形状を迅速に変形でき、更に装置のコストを抑えることができる。 As a result, the operation device of the present invention can greatly reduce the amount of calculation for determining the bending angle of each finger joint of the CG model, so that the shape of the CG model can be quickly transformed and the cost of the device can be further reduced. be able to.
また、好ましくは、指曲がり角度決定部は、掌接触領域及び各指接触領域は同一平面上に存在するという拘束条件を用いて、CGモデルの各指関節の曲がり角度を決定する。 Preferably, the finger bending angle determination unit determines a bending angle of each finger joint of the CG model using a constraint condition that the palm contact area and each finger contact area exist on the same plane.
これにより、本発明の操作装置は、CGモデルの各指関節の曲がり角度を決定するための計算の量を大幅に削減できるので、CGモデルの形状を迅速に変形でき、更に装置のコストを抑えることができる。 As a result, the operation device of the present invention can greatly reduce the amount of calculation for determining the bending angle of each finger joint of the CG model, so that the shape of the CG model can be quickly transformed and the cost of the device can be further reduced. be able to.
また、指曲がり角度決定部は、初期状態からの掌接触領域及び指接触領域の移動量に基づいて、掌に対する各指の向きを更に決定し、モデル形状決定部は、更に、指曲がり角度決定部が決定した掌に対する各指の向きに従って、CGモデルの変形形状を決定してもよい。 The finger bending angle determination unit further determines the orientation of each finger with respect to the palm based on the palm contact area and the movement amount of the finger contact area from the initial state, and the model shape determination unit further determines the finger bending angle. The deformed shape of the CG model may be determined according to the orientation of each finger with respect to the palm determined by the unit.
これにより、本発明の操作装置は、CGモデルの形状をよりリアルに変形することができる。 Thereby, the operating device of this invention can deform | transform the shape of CG model more realistically.
本発明は、操作面に置かれた手のCGモデルを表示部に表示して機器を操作する操作方法にも向けられている。そして、上記目的を達成させるために、本発明の操作方法は、操作面と手との複数の接触領域を検知する接触領域検知ステップと、複数の接触領域を、操作面と掌とが接触した掌接触領域と、操作面と指とが接触した指接触領域とに分け、指を伸ばした初期状態からの掌接触領域及び指接触領域の移動量を算出する移動量算出ステップと、初期状態からの掌接触領域及び指接触領域の移動量に基づいて、CGモデルの平行
移動量及び回転量を決定するモデル移動量決定ステップと、初期状態からの掌接触領域及び指接触領域の移動量に基づいて、CGモデルの各指関節の曲がり角度を決定する指曲がり角度決定ステップと、CGモデルの平行移動量、回転量及び各指関節の曲がり角度に従って、CGモデルの変形形状を決定するモデル形状決定ステップと、モデル形状決定ステップで形状が決定されたCGモデルと、機器に対するコマンドを割り当てた予め保持されているGUIパーツとを重畳した画像を作成して表示部に表示させる重畳画像作成ステップと、GUIパーツとCGモデルの指先との衝突を判定する衝突判定ステップと、衝突判定ステップによって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを機器に送信するコマンド送信ステップとを備える。
The present invention is also directed to an operation method for operating a device by displaying a CG model of a hand placed on an operation surface on a display unit. In order to achieve the above object, the operation method of the present invention includes a contact area detecting step for detecting a plurality of contact areas between the operation surface and the hand, and the operation surface and the palm contacting the plurality of contact areas. A movement amount calculation step for calculating a movement amount of the palm contact area and the finger contact area from the initial state in which the finger is extended, divided into a palm contact area and a finger contact area in which the operation surface and the finger are in contact, and from the initial state A model movement amount determination step for determining a parallel movement amount and a rotation amount of the CG model based on the movement amounts of the palm contact area and the finger contact area of the palm, and based on the movement amounts of the palm contact area and the finger contact area from the initial state. Then, a finger bending angle determination step for determining the bending angle of each finger joint of the CG model, and a model shape determination for determining the deformation shape of the CG model according to the parallel movement amount, the rotation amount of the CG model, and the bending angle of each finger joint. A superimposed image creating step of creating an image by superimposing a step, a CG model whose shape is determined in the model shape determining step, and a GUI part held in advance, to which a command for the device is assigned, and displaying the superimposed image on the display unit; A collision determination step for determining a collision between the GUI part and the fingertip of the CG model, and a command transmission step for transmitting a command assigned to the GUI part for which the collision is determined to the device when the collision is determined by the collision determination step. With.
これにより、本発明の操作方法は、操作者の手の動きをCGモデルに反映させることができ、更に、操作者の各指の動きまでもCGモデルに反映させることができる。 Accordingly, the operation method of the present invention can reflect the movement of the operator's hand in the CG model, and can also reflect the movement of each finger of the operator in the CG model.
本発明の手形状重畳表示型情報端末操作装置及びその方法によれば、ユーザは、表示部から離れている場合でも、タッチパネルディスプレイの直感的な操作感を維持した操作を行うことができる。また、ユーザが指を曲げて操作した場合であっても、ユーザの手形状を手モデルに忠実に反映できる。この結果として、本発明の手形状重畳表示型情報端末操作装置及びその方法によれば、ユーザは、違和感を感じることなく操作を行うことができる。 According to the hand shape superimposed display type information terminal operating device and the method of the present invention, even when the user is away from the display unit, the user can perform an operation while maintaining an intuitive operation feeling of the touch panel display. Further, even when the user operates by bending his / her finger, the user's hand shape can be faithfully reflected in the hand model. As a result, according to the hand shape superimposed display type information terminal operating device and method of the present invention, the user can operate without feeling uncomfortable.
(実施形態)
図1は、本発明の操作装置を実施するための最良の形態に係る手形状重畳表示型情報端末操作装置100の動作の概要を説明するための図である。以下では、図1を用いて、手形状重畳表示型情報端末操作装置100の動作について簡単に説明する。
(Embodiment)
FIG. 1 is a diagram for explaining the outline of the operation of the hand shape superimposed display type information
図1に示す通り、手形状重畳表示型情報端末操作装置100は、接触領域検知部1と演算部2とを備える。接触領域検知部1は、当該接触領域検知部1上に置いたユーザ(以下、操作者という)の手が接触した領域を検出し、検出した接触領域の情報(以下、単に、接触領域情報という)を演算部2に出力する。接触領域検知部1は、例えば、多点で接触を検知するタッチパッドである。なお、接触領域検知部1は、独立した多点で接触を検知できればよく、静電容量方式・感圧方式・抵抗膜方式等を用いる一般的なデバイスでよい。
As shown in FIG. 1, the hand shape superimposed display type information
演算部2は、接触領域検知部1が検知した接触領域情報を用いて表示データを作成して表示部3に出力する。具体的には、演算部2は、接触領域情報を用いてCGの手モデルを作成し、当該手モデルをGUIに重畳した表示データを作成して表示部3に出力する。また、演算部2は、作成した手モデルとGUIパーツとの位置関係を用いて操作者が意図するコマンドを決定し、決定したコマンドを情報端末機器等である操作対象機器4に出力する。なお、演算部2は、一般的なパーソナルコンピュータ(以下、PCという)でもよいし、専用のグラフィックIC等を組み込んだ汎用性のない専用機でもよい。また、演算部2は、接触領域検知部1から入力される信号を受信するインターフェイスと、CPU、ROM、RAMと、各モジュール間を結ぶバスと、計算結果を映像として出力するインターフェイスとを含む。
The
表示部3は、演算部2から入力された表示データを用いて表示を行う。表示部3は、例えば、液晶ディスプレイやCRT等のディスプレイである。操作対象機器4は、演算部2から入力されたコマンドを実行する。
The
以上の構成によって、操作者は、表示部3に表示されたGUIパーツ上に重畳された手モデルを目視しながら、接触領域検知部1上の手を動かして手モデルを操作することによって、操作対象機器4を操作することができる。
With the above configuration, the operator operates the hand model by moving the hand on the contact
以下では、手形状重畳表示型情報端末操作装置100の構成及び動作について詳しく説明する。図2は、手形状重畳表示型情報端末操作装置100の構成例を示す図である。図2に示すように、手形状重畳表示型情報端末操作装置100は、接触領域検知部1と演算部2とを備える。演算部2は、移動量算出部12と、モデル移動量決定部13と、指曲り角度決定部14と、モデル保持部15と、モデル形状決定部16と、GUIパーツ保持部17と、重畳画像作成部18と、衝突判定部19と、コマンド送信部20とを含む。
Hereinafter, the configuration and operation of the hand shape superimposed display type information
図3は、手形状重畳表示型情報端末操作装置100の動作を説明するためのフローチャートである。
FIG. 3 is a flowchart for explaining the operation of the hand shape superimposed display type information
操作者等によってスタートスイッチがオンにされると、手形状重畳表示型情報端末操作装置100は動作を開始する。
When the start switch is turned on by an operator or the like, the hand shape superimposed display type information
まず、ステップS101において、接触領域検知部1は、当該接触領域検知部1上に操作者の手が置かれているか否かを判定する。操作者の手が置かれていない場合、接触領域検知部1は、処理待ち状態となり、操作者の手が置かれると、ステップS102に移る。なお、ステップS101における判定は、接触が検知されたか否かによって行うことができる。
First, in step S <b> 101, the contact
次に、ステップS102において、接触領域検知部1は、操作者の手が当該接触領域検知部1に接触している領域を点群(以下、接触点群という)として検知し、検知した接触点群のデータを移動量算出部12に出力する。
Next, in step S102, the contact
次に、ステップS103において、移動量算出部12は、入力された接触点群のデータを用いて、操作者の5つの指先の位置を示す点(以下、指先位置点という)及び1つの掌の位置を示す点(以下、掌位置点という)を取得する。移動量算出部12は、5つの指先位置点及び1つの掌位置点を取得するまで待機し、取得するとステップS104に移る。なお、5つの指先位置点及び1つの掌位置点を取得する方法は、後述する。
Next, in step S103, the movement
ステップS104において、移動量算出部12は、操作者が手を開いた状態(指を伸ばした状態)の指先位置点及び掌位置点(以下、初期位置点と総称する場合がある)が取得済みか否かを判定する。初期位置点が取得済みの場合は、ステップS106に移る。初期位置点が取得済みでない場合は、ステップS105に移る。ここで、初期位置点が取得済みか否かの判定は、手形状重畳表示型情報端末操作装置100が今回起動した後に初期位置点を取得したか否かを判定するものである。
In step S104, the movement
ステップS105において、移動量算出部12は、操作者に接触領域検知部1に置いた手を開くように促すメッセージを通知して初期位置点を取得する。このメッセージは、例えば、表示部3に表示されて操作者に通知される。その後、移動量算出部12は、取得した初期位置点を用いて操作者が手を開いた状態の手モデル(以下、初期手モデルという)を作成する。ステップS105で取得された初期位置点及び初期手モデルのデータは、モデル保持部15に保存される。その後、ステップS103に戻る。つまり、手形状重畳表示型情報端末操作装置100は、起動後最初に操作者が手を接触領域検知部1に置いた時で、初期位置点及び初期手モデルを取得する。初期位置点及び初期手モデルの取得方法は、後述する。
In step S <b> 105, the movement
なお、操作者が交代した場合には、初期位置点及び初期手モデルを更新するために、後の操作者の指示に応答して既に取得済みの前の操作者の初期位置点及び初期手モデルを破棄し、ステップS105の動作を再度行うことで後の操作者の初期位置点及び初期手モデルを取得してもよい。また、初期位置点及び初期手モデルを起動毎に取得せず、操作者の指示に応答してステップS105の動作を行うことによって初期位置点及び初期手モデルを新たに取得してもよい。また、ステップS101において接触領域検知部1が所定期間手の接触を検知しない場合には、既に取得済みの初期位置点及び初期手モデルを破棄し、ステップS105の動作を再度行って新たな初期位置点及び初期手形状を取得してもよい。
When the operator changes, in order to update the initial position point and the initial hand model, the initial position point and the initial hand model of the previous operator already acquired in response to the instruction of the subsequent operator are updated. May be discarded, and the initial position point and initial hand model of the subsequent operator may be acquired by performing the operation of step S105 again. In addition, the initial position point and the initial hand model may be newly acquired by performing the operation in step S105 in response to the operator's instruction without acquiring the initial position point and the initial hand model each time the apparatus is activated. If the contact
ステップS106において、移動量算出部12は、指先位置点及び掌位置点の初期位置点からの変位を、それぞれ取得する。ここで、各点の変位を取得するために、変位後の各点と変位前の各点との対応をとる方法は、一般的な手法でよい。
In step S <b> 106, the movement
次に、ステップS107において、モデル移動量決定部13は、ステップS106で取得した指先位置点及び掌位置点の初期位置点からの変位を用いて、手モデルの平行移動量及び回転量(回転角度)を決定する。この平行移動量及び回転量の決定方法は、後述する。 Next, in step S107, the model movement amount determination unit 13 uses the displacement from the initial position point of the fingertip position point and palm position point acquired in step S106, and translates and rotates the rotation amount (rotation angle) of the hand model. ). A method for determining the parallel movement amount and the rotation amount will be described later.
次に、ステップS108において、指曲り角度決定部14は、ステップS106で取得した指先位置点及び掌位置点の初期位置点からの変位を用いて、手モデルの各指の曲り角度を決定する。この各指の曲り角度を決定する方法は、後述する。
Next, in step S108, the finger bending
次に、ステップS109において、モデル形状決定部16は、ステップS107及びS108で決定された手モデルの平行移動量、回転量、各指の曲り角度を用いて、モデル保持部15に保持された手モデルを読出して変形を反映させる。ここで、モデル保持部15に初期手モデルが保持されている場合には、当該初期手モデルを読出して変形を反映させる。
Next, in step S109, the model
なお、モデル保持部15に保持される手モデルは、一般的な骨格(以下、ボーン構造という)を持つCGモデルであることが好ましい。モデル保持部15が保持する手モデルの一例を図4に示す。図4に示す手モデルは、複数のポリゴンとボーン構造を示すラインとから構成される。また、手モデルをモデル保持部15に保持するファイル形式は、一般的な形式でよい。一例として、ポリゴンの頂点座標を格納したファイル形式が挙げられる。また、手モデルは、併せてテクスチャ情報も保持し、手モデルの現実感を増幅させてもよい。
Note that the hand model held in the
次に、ステップS110において、重畳画像作成部18は、GUIパーツ保持部17が予め保持しているGUIパーツを読み出し、読出したGUIパーツを配置した操作画像を作成する。ここで、GUIパーツとは、表示部3に表示される制御命令を割り当てたボタン等である。なお、GUIパーツ及びその配置方法は、一般的なものでよい。その後、重畳画像作成部18は、ステップS109で変形を反映された手モデルと、GUIパーツが配置された操作画像とを重畳して重畳画像を作成し、当該重畳画像を表示部3に表示する。
Next, in step S110, the superimposed
次に、ステップS111において、衝突判定部19は、GUIパーツと手モデルの指先位置点との衝突の有無を判定する。この衝突判定の詳細は、後述する。衝突がないと判定されている場合は、ステップS101〜S111の処理が繰り返されて、操作者の手の動きに応じて重畳画像内の手モデルが変形する。衝突が有ると判定されると、衝突判定部19は、衝突が有ったGUIパーツに割当てられたコマンドをコマンド送信部20に通知し
、ステップS112に移る。
Next, in step S111, the
ステップS112において、コマンド送信部20は、通知されたコマンドを操作対象機器4に送信し、ステップS101に戻る。操作対象機器4は、送信されたコマンドを受信して実行する。以上の処理が繰り返されることによって、手形状重畳表示型情報端末操作装置100は、コマンドの送信を繰り返して操作対象機器4を操作する。なお、操作者等によってスタートスイッチがオフにされると処理は終了する。
In step S112, the
以上に説明した動作によって、操作者は、表示部3に表示された重畳画像を目視しながら手を動かすことによって、重畳画像内の手モデルを操作できる。そして、操作者は、手モデルを操作して指先の位置をGUIパーツに重ね合わせることによって、操作対象機器4を操作できることとなる。
By the operation described above, the operator can operate the hand model in the superimposed image by moving his / her hand while viewing the superimposed image displayed on the
以下では、図3を用いて説明した各ステップについて、詳細に説明する。 Below, each step demonstrated using FIG. 3 is demonstrated in detail.
図5は、図3のステップS101及びS102における接触領域検知部1の動作について説明するための図である。図5(a)は、接触領域検知部1の操作面に操作者の手か置かれた状態の一例を示す。図5(b)は、接触領域検知部1が検知した接触点群を黒丸群で表した図である。図5に示すように、接触領域検知部1は、図3のステップS101及びS102において、接触点(接触点群)を検知することによって、手の接触領域を検知する。
FIG. 5 is a diagram for explaining the operation of the contact
図6は、図3のステップS103を詳細に説明するためのフローチャートである。図7は、図3のステップS103で取得される指先位置点及び掌位置点を説明するための図である。以下、図6及び図7を用いて、図3のステップS103の処理を詳細に説明する。 FIG. 6 is a flowchart for explaining step S103 of FIG. 3 in detail. FIG. 7 is a diagram for explaining the fingertip position point and palm position point acquired in step S103 of FIG. Hereinafter, the processing in step S103 in FIG. 3 will be described in detail with reference to FIGS.
まず、S103−1において、移動量算出部12は、接触領域検知部1から図5(b)を用いて説明した接触点群を示すデータを取得する。
First, in S103-1, the movement
次に、ステップS103−2において、移動量算出部12は、接触点の位置関係に基づいて、図7の楕円で示す複数の領域を算出する。S103−2において複数の領域を算出する方法は、一般的な方法でよい。例えば、接触点の4近傍に他の接触点が存在する場合はこれらの接触点を同一の領域とみなすことによって、複数の領域に区分する方法がある。なお、接触領域検知部1は指の接触及び掌の接触を検知するので、指の接触を検知する接触領域検知部1の操作面の上半分の領域算出方法と、掌の接触を検知する操作面の下半分の領域算出方法とを異なる方法としてもよい。例えば、指の接触を検知する操作面の上半分では、上記した4点近傍に加えて上下方向では2つ離れていても同一領域とみなし、掌を検知する操作面の下半分では、上記した4点近傍に加えて左右方向では2つ離れていても同一領域とみなしてもよい。これによって、指関節位部分のへこみや掌の盛上がり等による誤認識が低減され、指及び掌の接触の検出精度を向上させることができる。
Next, in step S103-2, the movement
次に、ステップS103−3において、移動量算出部12は、ステップS103−2で算出した各領域に対して、楕円フィッティング処理を行う。図7は、指先位置点及び掌位置点の算出方法について説明するための図ある。ステップS103−3において、移動量算出部12は、図7(a)の楕円Aで示すように指の接触点群を楕円で囲み、図7(a)の楕円Bで示すように掌の接触点群を楕円で囲む。ここで、移動量算出部12は、例えば、最も下に位置する接触点群(図7(a)を参照)を掌の接触点群と判断する。その後、移動量算出部12は、例えば、楕円Aの上方向の先端を指先位置点とし(図7(b)を参照)、楕円Bの重心を掌位置点とする(図7(c)を参照)。なお、指先位置点及び掌位置点は、他の方法を用い、また、他の位置に決定してもよい。
Next, in step S103-3, the movement
次に、ステップS103−4において、移動量算出部12は、ステップS103−3で取得した指先位置点及び掌位置点の位置を保持する。図8は、図6のステップS103−3で取得された指先位置点及び掌位置点の位置の一例を示す図である。図8において、黒丸は指先位置点を示し、黒三角は掌位置点を示す。
Next, in step S103-4, the movement
次に、ステップS103−5において、移動量算出部12は、5つの指先位置点及び1つの掌位置点を取得するまで待機し、これらを取得するとステップS104(図3を参照)に移る。
Next, in step S103-5, the movement
図9は、図3のステップS105の処理を詳しく説明するためのフローチャートである。まず、ステップS105−1において、移動量算出部12は、操作者に接触領域検知部1の操作面上の手を開くように促すメッセージを通知して6つの初期位置点を取得する。
FIG. 9 is a flowchart for explaining in detail the processing in step S105 in FIG. First, in step S105-1, the movement
次に、ステップS105−2において、移動量算出部12は、ステップS105−1で取得した初期位置点(指先位置点及び掌位置点)と、モデル保持部15が当初から保持しているひな形であるひな形手モデルの対応する指先位置点及び掌位置点とが重なるように、当該ひな形手モデルを変形して初期手モデルを作成する。その後、移動量算出部12は、作成した初期手モデルを、表示部3に表示する。この処理によって、移動量算出部12は、操作者の手の大きさを反映した初期手モデルを作成し、表示部3に表示できる。なお、移動量算出部12は、ひな形手モデルの指の長さを変えるのに併せて、掌の大きさも変えるのが好ましい。このことによって、よりリアルな初期手モデルを作成できる。
Next, in step S105-2, the movement
次に、ステップS105−3において、移動量算出部12は、ステップS105−1で取得した初期位置点の位置とステップS105−2で作成した初期手モデルとをモデル保持部15に保存し、ステップS103に戻る(図3を参照)。
Next, in step S105-3, the movement
図10は、図3のステップS107及びS108の処理を説明するためのフローチャートである。図3のステップS107及びS108の処理は、一体となって行われる。従って、以下では、図10を参照して、図3のステップS107及びS108の処理を、同時に説明する。また、以下では、説明の都合上、図10の各ステップを実行する主体をモデル移動量決定部13又は指曲り角度決定部14としているが、ステップによってはこの主体は入れ替わってもよい。
FIG. 10 is a flowchart for explaining the processing of steps S107 and S108 of FIG. The processes in steps S107 and S108 in FIG. 3 are performed as a unit. Therefore, hereinafter, the processes of steps S107 and S108 of FIG. 3 will be described simultaneously with reference to FIG. In the following, for convenience of explanation, the subject that executes each step of FIG. 10 is referred to as the model movement amount determination unit 13 or the finger bending
まず、ステップS178−1において、モデル移動量決定部13は、ステップS106で取得された掌位置点の初期位置点からの変位を手モデルの平行移動量として決定する。 First, in step S178-1, the model movement amount determination unit 13 determines the displacement of the palm position point acquired in step S106 from the initial position point as the parallel movement amount of the hand model.
次に、ステップS178−2において、指曲り角度決定部14は、ステップS106で取得された5つの指先位置点の初期位置点からの変位からステップS106で取得された1つの掌位置点の初期位置点からの変位を、それぞれ差引く。これにより、指曲り角度決定部14は、掌位置点と各指先位置点との距離をそれぞれ算出する。図11は、掌位置点から各指先位置点までの距離R1〜R5を示す図である。つまり、ステップS178−2において、指曲り角度決定部14は、図11に示すR1〜R5の長さをそれぞれ算出する。ここで、図11に示すR1〜R5の長さの変化量は、それぞれ、指が曲がることで生じる変化量である。
Next, in step S178-2, the finger bending
次に、ステップS178−3において、指曲り角度決定部14は、ステップS178−2で算出した掌位置点と各指先位置点との距離を用いて、各指の各関節の曲り角度を決定する。
Next, in step S178-3, the finger bending
次に、ステップS178−4において、モデル移動量決定部13は、掌位置点を中心とした回転によって生じる各指先位置点の回転量θを、それぞれ算出する。図12は、図10のステップS178−4で算出される回転量θを説明するための図である。図12では、一例として、指先位置点は初期位置Xから位置Yに移動している。ステップS178−4において、モデル移動量決定部13は、図12に例示した指先位置点の回転量θを、5つ指先位置点について算出する。 Next, in step S178-4, the model movement amount determination unit 13 calculates the rotation amount θ of each fingertip position point generated by the rotation about the palm position point. FIG. 12 is a diagram for explaining the rotation amount θ calculated in step S178-4 of FIG. In FIG. 12, as an example, the fingertip position point has moved from the initial position X to the position Y. In step S178-4, the model movement amount determination unit 13 calculates the rotation amount θ of the fingertip position points illustrated in FIG. 12 for the five fingertip position points.
次に、ステップS178−5において、モデル移動量決定部13は、ステップS78−4で取得した5つ指先位置点の回転量θを平均して平均回転量θ1 を算出する。そして、モデル移動量決定部13は、算出した平均回転量θ1 を手モデルの回転量として決定する。 Then, in step S178-5, the model movement amount determination unit 13 obtains the five rotation amount theta fingertip location points on average in step S78-4 calculates an average rotation amount theta 1. Then, the model movement amount determination unit 13 determines the calculated average rotation amount θ 1 as the rotation amount of the hand model.
次に、ステップS178−6において、指曲り角度決定部14は、ステップS178−4で算出された5つ指先位置点のそれぞれの回転量θと、ステップS178−5で算出された平均回転量θ1 とを用いて、各指の根本からの回転量γを算出する。各指の根本からの回転量γは、掌に対する各指の向きを示す値である。図13は、図10のステップS178−6の処理について説明するための図である。図13は、図12と同じ状態を示しており、図13には、ステップS178−4で算出された回転量θとステップS178−5で算出された平均回転量θ1 とが示されている。図13に示す通り、指曲り角度決定部14は、回転量θと平均回転量θ1 を用いて指の根本からの回転量γを算出する。
Next, in step S178-6, the finger bending
以上に説明した一連の処理を行うことによって、モデル移動量決定部13及び指曲り角度決定部14は、図3のステップS107及びS108の処理を行い、手モデルの平行移動量、回転量、各指関節の曲り角度及び掌に対する各指の向きを決定する。
By performing the series of processes described above, the model movement amount determination unit 13 and the finger bending
図14は、図3のステップS109の処理を説明するためのフローチャートである。図14のフローチャートの処理によって、ステップS107及びS108で決定された各値を用いて手モデルの変形形状が決定される。以下では、図14を参照して、図3のステップS109処理について詳しく説明する。 FIG. 14 is a flowchart for explaining the process of step S109 of FIG. By the processing of the flowchart of FIG. 14, the deformed shape of the hand model is determined using each value determined in steps S107 and S108. Hereinafter, with reference to FIG. 14, step S109 in FIG. 3 will be described in detail.
まず、ステップS109−1において、モデル形状決定部16は、ステップS107で決定された手モデルの移動量を用いて、手モデルの位置を決定する。
First, in step S109-1, the model
次に、ステップS109−2において、モデル形状決定部16は、ステップS107で算出された手モデルの回転量を用いて、手モデルの向きを決定する。
Next, in step S109-2, the model
次に、ステップS109−3において、モデル形状決定部16は、ステップS108で決定された各指関節の曲り角度及び掌に対する指の向き(図13を参照)を用いて、手モデルの変形形状が決定する。その後、ステップS110に移る。
Next, in step S109-3, the model
図15は、図3のステップS109における手モデルの変形の具体例を示す図である。図15(a)は、初期位置点(操作者が手を開いた状態の指先位置点及び掌位置点)を示す。図15(b)は、図15(a)に示す初期位置点を用いて描画された初期手モデルである。図15(c)は、一例として、操作者が人指し指を曲げた場合の指先位置点及び掌位置点を示す。図15(d)は、図15(c)に示す指先位置点及び掌位置点を用いて変形された手モデルである。図16は、図15(b)及び(d)に示した手モデルを側面から視た図である。図15及び図16に示すように、図3のステップS109において、手モデルは、操作者の手の変形に応じてリアルに変形する。 FIG. 15 is a diagram showing a specific example of the deformation of the hand model in step S109 of FIG. FIG. 15A shows an initial position point (a fingertip position point and a palm position point in a state where the operator opens his hand). FIG. 15B is an initial hand model drawn using the initial position points shown in FIG. FIG. 15C shows the fingertip position point and palm position point when the operator bends the index finger as an example. FIG. 15D shows a hand model deformed using the fingertip position point and palm position point shown in FIG. FIG. 16 is a side view of the hand model shown in FIGS. 15B and 15D. As shown in FIGS. 15 and 16, in step S <b> 109 of FIG. 3, the hand model is deformed realistically according to the deformation of the operator's hand.
ここで、指先の変位から指関節の曲がり角度を求める方法として、ロボット工学分野等
で周知であるインバースキネマティクス(以下、IKという)技術がある。IK技術は、複数の可動部を持つアームの先端を目的位置に移動させるために用いられる。そして、アームが複数の可動部を持つ場合、IK技術を用いて目的位置にアームの先端を移動させるためには、可動部の曲り角度には複数の解が存在する。
Here, as a method for obtaining the bending angle of the finger joint from the fingertip displacement, there is an inverse kinematics (hereinafter referred to as IK) technique well known in the field of robot engineering or the like. The IK technique is used to move the tip of an arm having a plurality of movable parts to a target position. When the arm has a plurality of movable parts, there are a plurality of solutions for the bending angle of the movable part in order to move the tip of the arm to the target position using the IK technique.
本発明においても、指には複数の関節があるので、指関節の曲り角度には複数の解が存在する。このため、本発明では、一例として、操作者の掌及び指先は操作面上(同一平面上)に存在するという拘束条件と、各指関節の曲り角度は等しいという拘束条件とを用いて、解を一意に求める。つまり、図3のステップS108において、指曲り角度決定部14は、指先位置点及び掌位置点が同一平面上に存在するという拘束条件及び各指関節の曲り角度は等しいという拘束条件を用いて手モデルの変形形状を決定する。図17は、図3のステップS108において、指先位置点及び掌位置点が同一平面上に存在するという拘束条件及び各指関節の曲り角度は等しいという拘束条件を用いて変形した手モデルの一例を示す図である。図17(a)は、一例として、人指し指を曲げた場合の指先位置点の変位を示している。図17(b)は、図17(a)に示す曲げた状態の人指し指の手モデルを側面から視た図である。図17から解るように、通常、指を曲げると3つの指関節は同時に曲がるので、この様な拘束条件を用いて手モデルを変形すると、操作者は違和感無く操作を行うことができる。また、この様な拘束条件を用いて手モデルを変形すると、演算量が大幅に低減できるので、操作者の手の動きに瞬時に応答する手モデルの変形が可能である。
Also in the present invention, since the finger has a plurality of joints, there are a plurality of solutions for the bending angles of the finger joints. For this reason, in the present invention, as an example, using the constraint condition that the palm and fingertip of the operator exist on the operation surface (on the same plane) and the constraint condition that the bending angles of each finger joint are equal, Is uniquely determined. That is, in step S108 of FIG. 3, the finger bending
なお、指関節の曲り角度を算出するための拘束条件は、これには限定されず、解を一意に求めらる拘束条件であればよい。しかし、上記したように、指関節の曲り角度を算出するための拘束条件は、操作者が違和感を感じない手モデルとなる拘束条件が好ましく、操作者の操作行為が自然に行える手モデルとなる拘束条件が好ましい。また、IK技術において目的位置からアーム可動部の曲り角度を求める方法として、ヤコビ行列を用いて繰り返し計算を行う方法や幾何学的に算出する方法等が知られているが、本発明においてはいずれを用いてもよい。 Note that the constraint condition for calculating the bending angle of the finger joint is not limited to this, and may be a constraint condition for uniquely obtaining a solution. However, as described above, the constraint condition for calculating the bending angle of the finger joint is preferably a constraint condition that is a hand model that does not cause the operator to feel uncomfortable, and is a hand model that allows the operator to act naturally. Restraint conditions are preferred. In addition, as a method for obtaining the bending angle of the arm movable portion from the target position in the IK technique, a method of repeatedly calculating using a Jacobian matrix, a method of calculating geometrically, and the like are known. May be used.
図18は、図3のステップS110の処理を説明するための図である。図18において、Aは読出したGUIパーツを配置した操作画像の一例であり、BはステップS109で変形された手モデルの一例であり、CはAとBとが重畳された重畳画像の一例である。図18に示す通り、ステップS110において、重畳画像作成部18は、GUIパーツを配置した操作画像Aと変形された手モデルBとを重畳して、重畳画像Cを作成して表示部3に表示する。なお、重畳画像Cを作成する際、手モデルと重なるGUIパーツを視認し易くするために、手モデルを半透過等にしてもよい。
FIG. 18 is a diagram for explaining the process of step S110 of FIG. In FIG. 18, A is an example of the operation image in which the read GUI parts are arranged, B is an example of the hand model deformed in step S109, and C is an example of the superimposed image in which A and B are superimposed. is there. As shown in FIG. 18, in step S <b> 110, the superimposed
図19は、図3のステップS111の処理について説明するための図である。衝突判定部19は、図19(a)の矢印で示すように、ステップS110で作成された重畳画像においてGUIパーツと手モデルの指先位置点とが重なった場合には、当該GUIパーツと手モデルの指先位置点とが衝突したと判定する。この場合には、衝突判定部19は、衝突が判定されたGUIパーツに割当てられたコマンドをコマンド送信部20に通知する。
FIG. 19 is a diagram for explaining the processing in step S111 in FIG. When the GUI part and the fingertip position point of the hand model overlap each other in the superimposed image created in step S110, as shown by the arrow in FIG. 19A, the
なお、図19(a)では、ステップS111における衝突判定は、GUIパーツと手モデルの指先位置点との重なりによって行われた。しかし、ステップS111における衝突判定は、例えば、図19(b)の矢印で示すように、GUIパーツと手モデルの指先位置点とが重なり、且つ、重なった指先位置点を有する指の関節角度が所定値以上に曲がったことによって、行われてもよい。この場合には、操作者が誤ってGUIパーツに割当てられたコマンドを実行させることを低減できる。その他の方法としては、GUIパーツと手モデルの指先位置点とが重なり、且つ、該当するGUIパーツの位置でクリック操作がさ
れたことを検出することにより衝突判定が行なわれてもよい。さらに、クリック操作の代わりに、GUIパーツの位置で指の接触点群の領域が大きくなったことを検出することで、操作者の押圧操作を検出し、衝突判定が行われてもよい。
In FIG. 19A, the collision determination in step S111 is performed by the overlap between the GUI part and the fingertip position point of the hand model. However, in step S111, for example, as shown by the arrow in FIG. 19B, the GUI part and the fingertip position point of the hand model overlap, and the finger joint angle having the overlapping fingertip position point is This may be done by bending more than a predetermined value. In this case, it is possible to reduce the operator from executing the command assigned to the GUI part by mistake. As another method, the collision determination may be performed by detecting that the GUI part and the fingertip position point of the hand model overlap and the click operation is performed at the position of the corresponding GUI part. Furthermore, instead of the click operation, the operator's pressing operation may be detected by detecting that the area of the finger contact point group has increased at the position of the GUI part, and the collision determination may be performed.
その後、ステップS112でコマンドが操作対象機器4に送信される。操作対象機器4は、受信したコマンドを実行する。 Thereafter, the command is transmitted to the operation target device 4 in step S112. The operation target device 4 executes the received command.
以上に説明したように、本発明に係る手形状重畳表示型情報端末操作装置100によれば、ユーザは、表示部3から離れている場合でも、タッチパネルディスプレイの直感的な操作感を維持した操作を行うことができる。また、本発明に係る手形状重畳表示型情報端末操作装置100は、ユーザの指の動きを忠実に再現した手モデルを表示部3に表示することができる。この結果として、本発明に係る手形状重畳表示型情報端末操作装置100は、ユーザに違和感の無い快適な操作感覚を提供することができる。
As described above, according to the hand-shaped superimposed display type information
(変形例)
以上に説明した本発明の実施形態では、掌位置点を指先位置点と同様の方法で検知した。しかし、以下に説明する本発明の変形例のように、掌位置点を手首台を用いて検知してもよい。なお、以下の本発明の変形例の説明では、本発明の実施形態と異なる部分のみ説明を行う。
(Modification)
In the embodiment of the present invention described above, the palm position point is detected by the same method as the fingertip position point. However, the palm position point may be detected using a wrist stand, as in a modification of the present invention described below. In the following description of the modified example of the present invention, only portions different from the embodiment of the present invention will be described.
図20は、手首台を備える接触領域検知部50の一例を示す図である。図20(a)は、操作者が手を置いた状態の接触領域検知部50を側面から視た図である。図20(b)は、操作者が手を置いた状態の接触領域検知部50を上面から視た図である。図20(c)は、接触領域検知部50を上面及び後面から視た図である。 FIG. 20 is a diagram illustrating an example of a contact area detection unit 50 including a wrist base. FIG. 20A is a side view of the contact area detection unit 50 in a state where the operator places his hand. FIG. 20B is a view of the contact area detection unit 50 in a state where the operator places his hand, as viewed from above. FIG.20 (c) is the figure which looked at the contact area detection part 50 from the upper surface and the rear surface.
図20に示すように、操作者は、手首台に掌を置き、接触を検知する操作面に指を置いて操作を行う。手首台は、操作者の掌の縦横斜めの移動に追従してスライドし、操作者の掌の移動を検知する。このことによっって、接触領域検知部50は、掌位置点の変位を検知する。なお、操作者の掌が常に一定の位置に置かれるようにするために、手首台の掌を置く位置に、印又はくぼみを設けることが好ましい。また、手首台の機構は、操作者の掌の変位が検知できればよく、一般的な機構でよい。 As shown in FIG. 20, the operator performs an operation by placing a palm on the wrist stand and placing a finger on the operation surface for detecting contact. The wrist platform slides following the vertical and horizontal movements of the operator's palm, and detects the movement of the operator's palm. Thereby, the contact area detection unit 50 detects the displacement of the palm position point. In order to always place the palm of the operator at a certain position, it is preferable to provide a mark or a recess at the position where the palm of the wrist is placed. The wrist platform mechanism may be a general mechanism as long as the displacement of the operator's palm can be detected.
図21は、接触領域検知部50の操作面が検知する接触点群の一例と、移動量算出部12で取得される指先位置点の一例とを示す図である。図21(a)は、接触領域検知部50の操作面が検知する接触点群の一例である。図21(b)は、移動量算出部12で取得される指先位置点の一例である。図21(a)に示すように、接触領域検知部50の操作面は、接触領域検知部1の操作面と同様に接触点群を検知する。そして、図21(b)に示すように、移動量算出部12は、5つの指先位置点を取得する。ここで、移動量算出部12は、掌位置点を常に取得しているものとし、手首台から入力される掌の変位に応じた掌位置点の変位を用いて処理を行う。
FIG. 21 is a diagram illustrating an example of a contact point group detected by the operation surface of the contact area detection unit 50 and an example of a fingertip position point acquired by the movement
以上に説明したように、手首台を備える接触領域検知部50を用いた本発明の変形例によっても、本発明の実施形態で説明した効果と同様の効果を得ることができる。 As described above, the same effects as those described in the embodiment of the present invention can be obtained also by the modification of the present invention using the contact area detection unit 50 including the wrist stand.
なお、以上に説明した実施形態及び変形例では、図10〜図14を用いて説明した方法を用いて手モデルの移動量、回転量及び変形形状を決定した。しかし、以下に説明する方法を用いて手モデルの移動量、回転量及び変形形状を決定してもよい。式1は、x−y平面上の5点の重心位置(XG ,YG )を算出する式である。
本発明は、手形状重畳表示型情報端末操作装置及びその方法等に利用可能であり、特に、操作者の手のCGモデルを操作者の手の動きに併せてよりリアルに変形させたい場合等に有用である。 INDUSTRIAL APPLICABILITY The present invention can be used for a hand shape superimposed display type information terminal operating device and method thereof, and particularly, when a CG model of an operator's hand is desired to be more realistically deformed in accordance with the movement of the operator's hand. Useful for.
1、50 接触領域検知部
2 演算部
3 表示部
4 操作対象機器
12 移動量算出部
13 モデル移動量決定部
14 指曲り角度決定部
15 モデル保持部
16 モデル形状決定部
17 GUIパーツ保持部
18 重畳画像作成部
19 衝突判定部
20 コマンド送信部
100 手形状重畳表示型情報端末操作装置
DESCRIPTION OF
Claims (9)
前記操作面と前記手との複数の接触領域を検知する接触領域検知部と、
前記複数の接触領域を、前記操作面と掌とが接触した掌接触領域と、前記操作面と指とが接触した指接触領域とに分け、前記指を伸ばした初期状態からの前記掌接触領域及び前記指接触領域の移動量を算出する移動量算出部と、
前記初期状態からの前記掌接触領域及び前記指接触領域の移動量に基づいて、前記CGモデルの平行移動量及び回転量を決定するモデル移動量決定部と、
前記初期状態からの前記掌接触領域及び前記指接触領域の移動量に基づいて、前記CGモデルの各指関節の曲がり角度を決定する指曲がり角度決定部と、
前記CGモデルの平行移動量、回転量及び各指関節の曲がり角度に従って、前記CGモデルの変形形状を決定するモデル形状決定部と、
前記機器に対するコマンドを割り当てたGUIパーツを保持するGUIパーツ保持部と、
前記モデル形状決定部で形状が決定された前記CGモデルと前記GUIパーツ保持部に保持されたGUIパーツとを重畳した画像を作成して前記表示部に表示させる重畳画像作成部と、
前記GUIパーツと前記CGモデルの指先との衝突を判定する衝突判定部と、
前記衝突判定部によって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを前記機器に送信するコマンド送信部とを備える、操作装置。 An operation device for operating a device by displaying a CG model of a hand placed on an operation surface on a display unit,
A contact area detector that detects a plurality of contact areas between the operation surface and the hand;
The plurality of contact areas are divided into a palm contact area where the operation surface and a palm are in contact with each other and a finger contact area where the operation surface and a finger are in contact with each other, and the palm contact area from an initial state where the fingers are extended. And a movement amount calculation unit for calculating a movement amount of the finger contact area;
A model movement amount determination unit that determines a parallel movement amount and a rotation amount of the CG model based on the movement amounts of the palm contact area and the finger contact area from the initial state;
A finger bending angle determination unit that determines a bending angle of each finger joint of the CG model based on the movement amount of the palm contact area and the finger contact area from the initial state;
A model shape determining unit that determines a deformed shape of the CG model according to a parallel movement amount, a rotation amount, and a bending angle of each finger joint of the CG model;
A GUI parts holding unit for holding GUI parts to which commands for the device are assigned;
A superimposed image creating unit that creates an image in which the CG model whose shape is determined by the model shape determining unit and a GUI part held in the GUI part holding unit are superimposed and displayed on the display unit;
A collision determination unit that determines a collision between the GUI part and the fingertip of the CG model;
An operation device comprising: a command transmission unit configured to transmit a command assigned to a GUI part for which a collision is determined to the device when a collision is determined by the collision determination unit.
前記モデル形状決定部は、更に、前記指曲がり角度決定部が決定した掌に対する各指の
向きに従って、前記CGモデルの変形形状を決定することを特徴とする、請求項1に記載の操作装置。 The finger bending angle determination unit further determines the direction of each finger with respect to the palm based on the movement amount of the palm contact area and the finger contact area from the initial state,
2. The operating device according to claim 1, wherein the model shape determining unit further determines a deformed shape of the CG model according to a direction of each finger with respect to the palm determined by the finger bending angle determining unit.
前記操作面と前記手との複数の接触領域を検知する接触領域検知ステップと、
前記複数の接触領域を、前記操作面と掌とが接触した掌接触領域と、前記操作面と指とが接触した指接触領域とに分け、前記指を伸ばした初期状態からの前記掌接触領域及び前記指接触領域の移動量を算出する移動量算出ステップと、
前記初期状態からの前記掌接触領域及び前記指接触領域の移動量に基づいて、前記CGモデルの平行移動量及び回転量を決定するモデル移動量決定ステップと、
前記初期状態からの前記掌接触領域及び前記指接触領域の移動量に基づいて、前記CGモデルの各指関節の曲がり角度を決定する指曲がり角度決定ステップと、
前記CGモデルの平行移動量、回転量及び各指関節の曲がり角度に従って、前記CGモデルの変形形状を決定するモデル形状決定ステップと、
前記モデル形状決定ステップで形状が決定された前記CGモデルと、前記機器に対するコマンドを割り当てた予め保持されているGUIパーツとを重畳した画像を作成して前記表示部に表示させる重畳画像作成ステップと、
前記GUIパーツと前記CGモデルの指先との衝突を判定する衝突判定ステップと、
前記衝突判定ステップによって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを前記機器に送信するコマンド送信ステップとを備える、操作方法。 An operation method for operating a device by displaying a CG model of a hand placed on an operation surface on a display unit,
A contact area detection step of detecting a plurality of contact areas between the operation surface and the hand;
The plurality of contact areas are divided into a palm contact area where the operation surface and a palm are in contact with each other and a finger contact area where the operation surface and a finger are in contact with each other, and the palm contact area from an initial state where the fingers are extended. And a movement amount calculating step for calculating a movement amount of the finger contact area;
A model movement amount determination step for determining a parallel movement amount and a rotation amount of the CG model based on the movement amounts of the palm contact area and the finger contact area from the initial state;
A finger bending angle determination step of determining a bending angle of each finger joint of the CG model based on the movement amount of the palm contact area and the finger contact area from the initial state;
A model shape determining step for determining a deformed shape of the CG model according to a parallel movement amount, a rotation amount of the CG model, and a bending angle of each finger joint;
A superimposed image creation step of creating an image in which the CG model whose shape has been determined in the model shape determination step and a GUI part that is held in advance and assigned a command to the device are superimposed and displayed on the display unit; ,
A collision determination step of determining a collision between the GUI part and the fingertip of the CG model;
When a collision is determined by the collision determination step, a command transmission step of transmitting a command assigned to the GUI part determined to have the collision to the device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008065440A JP5005585B2 (en) | 2008-03-14 | 2008-03-14 | Operating device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008065440A JP5005585B2 (en) | 2008-03-14 | 2008-03-14 | Operating device and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009223473A JP2009223473A (en) | 2009-10-01 |
JP5005585B2 true JP5005585B2 (en) | 2012-08-22 |
Family
ID=41240208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008065440A Expired - Fee Related JP5005585B2 (en) | 2008-03-14 | 2008-03-14 | Operating device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5005585B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140306910A1 (en) * | 2013-04-15 | 2014-10-16 | Qualcomm Incorporated | Id tracking of gesture touch geometry |
CN110308817B (en) * | 2019-06-10 | 2023-04-07 | 青岛小鸟看看科技有限公司 | Touch action identification method and touch projection system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02132510A (en) * | 1988-11-12 | 1990-05-22 | Sony Corp | Input device |
JP2001100906A (en) * | 1999-09-30 | 2001-04-13 | Suzuki Motor Corp | Three-dimensional data display device |
JP4351599B2 (en) * | 2004-09-03 | 2009-10-28 | パナソニック株式会社 | Input device |
JP4915503B2 (en) * | 2006-04-06 | 2012-04-11 | 株式会社デンソー | Prompter type operation device |
-
2008
- 2008-03-14 JP JP2008065440A patent/JP5005585B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009223473A (en) | 2009-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110977931B (en) | Robot control device and display device using augmented reality and mixed reality | |
US9962839B2 (en) | Robot apparatus, method for controlling the same, and computer program | |
JP6116064B2 (en) | Gesture reference control system for vehicle interface | |
JP4274997B2 (en) | Operation input device and operation input method | |
KR101844390B1 (en) | Systems and techniques for user interface control | |
US20190238755A1 (en) | Method and apparatus for push interaction | |
NO339941B1 (en) | System and method for a gesture-based management system | |
KR20140140095A (en) | Enhanced virtual touchpad and touchscreen | |
WO2017021902A1 (en) | System and method for gesture based measurement of virtual reality space | |
JPH08314621A (en) | Method and device for image generation | |
JP7378232B2 (en) | Image processing device and its control method | |
JP5005585B2 (en) | Operating device and method | |
JP4085163B2 (en) | Contact type information input device | |
JP4244202B2 (en) | Operation input device and operation input method | |
JP6966777B2 (en) | Input system | |
JP4962466B2 (en) | Input device and input method | |
JP4962467B2 (en) | Input device and input method | |
JP4941450B2 (en) | Input device and input method | |
JP4922266B2 (en) | Input device and input method | |
JP2013120560A (en) | Information processing system and information processing method | |
JP2010182135A (en) | Input device and input method | |
JP4676415B2 (en) | Sectional image display device, sectional image display method, and sectional image display program | |
CN117784926A (en) | Control device, control method, and computer-readable storage medium | |
JP2023090200A (en) | Sign language learning device, sign language learning method and sign language learning program | |
JP2023156869A (en) | Work supporting system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110314 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110826 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120508 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120523 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150601 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |