JP4941450B2 - 入力装置および入力方法 - Google Patents

入力装置および入力方法 Download PDF

Info

Publication number
JP4941450B2
JP4941450B2 JP2008269443A JP2008269443A JP4941450B2 JP 4941450 B2 JP4941450 B2 JP 4941450B2 JP 2008269443 A JP2008269443 A JP 2008269443A JP 2008269443 A JP2008269443 A JP 2008269443A JP 4941450 B2 JP4941450 B2 JP 4941450B2
Authority
JP
Japan
Prior art keywords
model
unit
hand
finger
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008269443A
Other languages
English (en)
Other versions
JP2010097528A (ja
Inventor
智裕 寺田
敦士 山下
卓哉 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008269443A priority Critical patent/JP4941450B2/ja
Publication of JP2010097528A publication Critical patent/JP2010097528A/ja
Application granted granted Critical
Publication of JP4941450B2 publication Critical patent/JP4941450B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザが機器に対して命令等を入力するための入力装置および入力方法に関し、より特定的には、ユーザがディスプレイ等に表示された情報に基づいて手等の身体部分を用いて、命令等を入力することのできる入力装置および入力方法に関する。
近年の情報機器端末の多機能化に伴って、ユーザがより使い易いユーザインターフェイスが求められている。使い易いユーザインターフェイスの一例として、タッチパネルディスプレイがある。タッチパネルディスプレイは、ディスプレイに表示されるGUI(Graphical User Interface)パーツを押す操作をすることによって、ユーザが命令等を情報機器端末等に入力する装置である。このことから、タッチパネルディスプレイは、初心者でも直感的に操作できるインターフェイスと言える。
しかし、タッチパネルディスプレイにおいては、タッチを検知するデバイス(以下、操作部という)と表示部とが一体であるので、当該タッチパネルディスプレイがユーザの手元にないと操作できないという課題があった。
この課題を解決するために、特許文献1の技術は、操作部と表示部とを分離し、操作部に置かれたユーザの手を検知し、コンピュータグラフィック(以下、CGという)の手形状モデル(以下、単に、手モデルという)を、表示部に表示されるGUIに重畳して表示する。このことによって、ユーザは、表示部から離れている場合でも、タッチパネルディスプレイの直感的な操作感を維持した操作を行うことができる。
特開2006−72854号公報
前記従来の技術において、操作部の位置検出分解能を向上させると、機構が複雑になる上、コストが上がってしまうため、位置検出分解能をなるべく低くしたい。しかしながら、位置検出分解能が低いと、複数の指が近いところに集中した場合に、検出される接触領域がつながってしまい、指先の数と位置を正しく特定できないという課題があった。
前記従来の課題を解決するために、本発明は、操作面に置かれた手のCGモデルを表示部に表示して機器を操作する入力装置であって、操作面と手との複数の接触点群を検知する接触領域検知部と、検知した接触点群から複数の領域を抽出し、抽出された領域の大きさに基づいて接触領域を特定する領域特定部と、手の指を伸ばした初期状態からの接触領域の移動量を算出する移動量算出部と、算出された移動量に基づいて、CGモデルの各指関節の曲り角度を決定する指曲り角度決定部と、CGモデルの各指関節の曲り角度に従って、CGモデルの変形形状を決定するモデル形状決定部と、機器に対するコマンドを割り当てたGUIパーツを保持するGUIパーツ保持部と、モデル形状決定部で形状が決定されたCGモデルとGUIパーツ保持部に保持されたGUIパーツとを重畳した画像を作成して表示部に表示させる重畳画像作成部と、GUIパーツとCGモデルの指先との衝突を判定する衝突判定部と、衝突判定部によって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを機器に送信するコマンド送信部とを備える。
また、好ましくは、接触領域検知部の操作面上の領域をX座標及びY座標で表し、操作面への手の進入方向をY座標軸方向とすると、領域特定部は、抽出された領域のX座標軸方向の幅が所定の閾値より大きい場合に、1領域となっている領域を複数の領域に分割する。
本発明は、操作面に置かれた手のCGモデルを表示部に表示して機器を操作する入力方法にも向けられている。そして、上記目的を達成させるために、本発明の入力方法は、操作面と手との複数の接触点群を検知する接触領域検知ステップと、検知した接触点群から複数の領域を抽出し、抽出された領域の大きさに基づいて接触領域を特定する領域特定ステップと、手の指を伸ばした初期状態からの接触領域の移動量を算出する移動量算出ステップと、算出された移動量に基づいて、CGモデルの各指関節の曲り角度を決定する指曲り角度決定ステップと、CGモデルの各指関節の曲り角度に従って、CGモデルの変形形状を決定するモデル形状決定ステップと、モデル形状決定ステップで形状が決定されたCGモデルと、機器に対するコマンドを割り当てた予め保持されているGUIパーツとを重畳した画像を作成して表示部に表示させる重畳画像作成ステップと、GUIパーツとCGモデルの指先との衝突を判定する衝突判定ステップと、衝突判定ステップによって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを機器に送信するコマンド送信ステップとを備える。
本発明の入力装置および入力方法によれば、位置検出分解能が低い操作部を用いても、ユーザが操作面に置いている指先の数と位置を正しく特定することができるため、操作している手形状を手モデルに忠実に反映させることができる。この結果として、本発明の入力装置および入力方法によれば、ユーザは、違和感を感じることなく操作を行うことができる。
以下、本発明の実施の形態にかかる入力装置について図面を参照しながら説明する。
図1は、本発明の第1の実施形態に係る入力装置100の動作の概要を説明するための図である。以下では、図1を用いて、入力装置100の動作について簡単に説明する。
図1に示す通り、入力装置100は、接触領域検知部1(操作部)と演算部2とを備える。接触領域検知部1は、当該接触領域検知部1の操作面上に置いたユーザ(以下、操作者という)の手が接触した領域を検出し、検出した接触領域の情報(以下、単に、接触領域情報という)を演算部2に出力する。接触領域検知部1は、例えば、多点で接触を検知するタッチパッドである。なお、接触領域検知部1は、独立した多点で接触を検知できればよく、光学式、静電容量方式、感圧方式、抵抗膜方式等を用いる一般的なデバイスでよい。なお、接触領域検知部1の詳細については、後述する。
演算部2は、接触領域検知部1が検知した接触領域情報を用いて表示データを作成して表示部3に出力する。具体的には、演算部2は、接触領域情報を用いてCGの手モデルを作成し、当該手モデルをGUIに重畳した表示データを作成して表示部3に出力する。また、演算部2は、作成した手モデルとGUIパーツとの位置関係を用いて操作者が意図するコマンドを決定し、決定したコマンドを情報端末機器等である操作対象機器4に出力する。なお、演算部2は、一般的なパーソナルコンピュータ(以下、PCという)でもよいし、専用のグラフィックIC等を組み込んだ汎用性のない専用機でもよい。また、演算部2は、接触領域検知部1から入力される信号を受信するインターフェイスと、CPU、ROM、RAMと、各モジュール間を結ぶバスと、計算結果を映像として出力するインターフェイスとを含む。
表示部3は、演算部2から入力された表示データを用いて表示を行う。表示部3は、例えば、液晶ディスプレイやCRT等のディスプレイである。操作対象機器4は、演算部2から入力されたコマンドを実行する。
以上の構成によって、操作者は、表示部3に表示されたGUIパーツ上に重畳された手モデルを目視しながら、接触領域検知部1の操作面上の手を動かして手モデルを操作することによって、操作対象機器4を操作することができる。
ここで、接触領域検知部1について詳細に説明する。一例として、抵抗膜検知方式のタッチパッドを用いた接触領域検知部1の構成を図2を用いて説明する。接触領域検知部1
は、タッチパッド210、電源側マルチプレクサ220、出力側マルチプレクサ230、電源240、A/Dコンバータ250、制御・演算IC260から構成される。
操作面を備えるタッチパッド210は、図3に示すように設置されている。操作者は接触領域検知1の操作面301にY軸方向から手302を進入させて操作する。なお、以下の説明において、XY座標を用いる際には、図3に示した座標系を用いることとする。タッチパッド210には、操作面301の上部基板に形成された抵抗膜線211と、下部基板に形成された抵抗膜線212とが格子状に並べられている。抵抗膜線211と抵抗膜線212とは、操作面301を押下したときのみ接触するようにドットスペーサで隙間が確保されている。
電源マルチプレクサ220のスキャン側には各抵抗膜線211が接続され、他端の固定側には電源240が接続されている。また、出力側マルチプレクサ230のスキャン側には各抵抗膜線212が接続され、固定側はグランドに接地されている。
操作者の指が操作面301に接触すると、接触領域において抵抗膜線211が、抵抗膜線212に接触して電流が流れる。一般的な一点検知方式のタッチパネルでは、各抵抗膜線を一斉にスキャンするため、一点以上の位置を正確に取得することは困難である。しかし、各抵抗膜線211を電源側マルチプレクサ220でスキャンし、各々の電源印加タイミングで抵抗膜線212を出力側マルチプレクサ230でスキャンすることで、複数の接触位置を取得することが可能となる。
制御・演算IC260は電源側マルチプレクサ220および出力側マルチプレクサ230のスキャンのタイミング制御を行う。なお、100×160の抵抗膜線数の場合、一般的なマルチプレクサでは約100ミリ秒の時間で操作面全面をスキャンできる。そのため、操作にストレスを与えるほどの遅延はない。
A/Dコンバータ250は出力側マルチプレクサ230から出力された信号をAD変換し、制御・演算IC260に出力する。制御・演算IC260は、A/Dコンバータからの入力信号に基づいて、電源側マルチプレクサ220および出力側マルチプレクサ230でスキャンした際のどの抵抗膜線で接触があったかを検出し、検出した抵抗膜線の位置からそのXY座標を特定して演算部2に出力する。
以下では、入力装置100の構成および動作について詳しく説明する。図4は、入力装置100の構成例を示す図である。図4に示すように、入力装置100は、接触領域検知部1と演算部2とを備える。演算部2は、領域特定部12と、移動量算出部13と、指曲り角度決定部14と、モデル保持部15と、モデル形状決定部16と、GUIパーツ保持部17と、重畳画像作成部18と、衝突判定部19と、コマンド送信部20とを含む。
図5は、入力装置100の動作を説明するためのフローチャートである。操作者等によってスタートスイッチがオンにされると、入力装置100は動作を開始する。
まず、ステップS101において、接触領域検知部1は、当該接触領域検知部1の操作面上に操作者の手が置かれているか否かを判定する。操作者の手が置かれていない場合、接触領域検知部1は、処理待ち状態となり、操作者の手が置かれると、ステップS102に移る。なお、ステップS101における判定は、接触が検知されたか否かによって行うことができる。
次に、ステップS102において、接触領域検知部1は、操作者の手が当該接触領域検知部1に接触している領域を点群(以下、接触点群という)として検知し、検知した接触点群のデータを領域特定部12に出力する。領域特定部12は、入力された接触点群のデータを用いて、操作者の指先の位置を示す点(以下、指先位置点という)を取得する。なお、指先位置点を取得する方法は、後述する。
次に、ステップS103において、領域特定部12は、4つの指先位置点を取得したか否かを判定し、取得した場合にはステップS104に進む。取得していない場合にはステップS102に戻る。
ステップS104において、領域特定部12は、操作者が手を開いた状態(指を伸ばした状態)の指先位置点である初期位置点が取得済みか否かを判定する。初期位置点が取得済みの場合は、ステップS106に移る。初期位置点が取得済みでない場合は、ステップS105に移る。ここで、初期位置点が取得済みか否かの判定は、入力装置100が今回起動した後に初期位置点を取得したか否かを判定するものである。
ステップS105において、領域特定部12は、操作者に接触領域検知部1に置いた手を開くように促すメッセージを通知して初期位置点を取得する。このメッセージは、例えば、表示部3に表示されて操作者に通知される。その後、領域特定部12は、取得した初期位置点を用いて操作者が手を開いた状態の手モデル(以下、初期手モデルという)を作成する。ステップS105で取得された初期位置点および初期手モデルのデータは、モデル保持部15に保存される。その後、ステップS102に戻る。つまり、入力装置100は、起動後最初に操作者が手を接触領域検知部1に置いた時点で、初期位置点および初期手モデルを取得する。初期位置点および初期手モデルの取得方法は、後述する。
なお、操作者が交代した場合には、初期位置点および初期手モデルを更新するために、後の操作者の指示に応答して既に取得済みの前の操作者の初期位置点および初期手モデルを破棄し、ステップS105の動作を再度行うことで後の操作者の初期位置点および初期手モデルを取得してもよい。また、初期位置点および初期手モデルを起動毎に取得せず、操作者の指示に応答してステップS105の動作を行うことによって初期位置点および初期手モデルを新たに取得してもよい。また、ステップS101において接触領域検知部1が所定期間手の接触を検知しない場合には、既に取得済みの初期位置点および初期手モデルを破棄し、ステップS105の動作を再度行って新たな初期位置点および初期モデルを取得してもよい。
ステップS106において、移動量算出部13は、指先位置点の初期位置点からの移動量を取得する。ここで、各点の移動量を取得するために、移動後の各点と移動前の各点との対応をとる方法は、一般的な手法でよい。
次に、ステップS107において、指曲り角度決定部14は、ステップS106で取得した指先位置点の初期位置点からの移動量を用いて、手モデルの各指関節の曲り角度を決定する。この各指関節の曲り角度を決定する方法は、後述する。
次に、ステップS108において、モデル形状決定部16は、S107で決定された手モデルの各指関節の曲り角度を用いて、モデル保持部15に保持された手モデルを読出して変形を反映させる。ここで、モデル保持部15に初期手モデルが保持されている場合には、当該初期手モデルを読出して変形を反映させる。
なお、モデル保持部15に保持される手モデルは、一般的な骨格(以下、ボーン構造という)を持つCG(Computer Graphics)モデルであることが好ましい。モデル保持部15が保持する手モデルの一例を図6に示す。図6に示す手モデルは、複数のポリゴンとボーン構造を示すラインとから構成される。また、手モデルをモデル保持部15に保持するファイル形式は、一般的な形式でよい。一例として、ポリゴンの頂点座標を格納したファイル形式が挙げられる。また、手モデルは、併せてテクスチャ情報も保持し、手モデルの現実感を増幅させてもよい。
次に、ステップS109において、重畳画像作成部18は、GUIパーツ保持部17が予め保持しているGUIパーツを読み出し、読出したGUIパーツを配置した操作画像を作成する。ここで、GUIパーツとは、表示部3に表示される制御命令を割り当てたボタン等である。なお、GUIパーツおよびその配置方法は、一般的なものでよい。その後、重畳画像作成部18は、ステップS108で変形を反映された手モデルと、GUIパーツが配置された操作画像とを重畳して重畳画像を作成し、当該重畳画像を表示部3に表示する。
次に、ステップS110において、衝突判定部19は、GUIパーツと手モデルの指先位置点との衝突の有無を判定する。この衝突判定の詳細は、後述する。衝突がないと判定されている場合は、ステップS101〜S110の処理が繰り返されて、操作者の手の動きに応じて重畳画像内の手モデルが変形する。衝突が有ると判定されると、衝突判定部19は、衝突が有ったGUIパーツに割当てられたコマンドをコマンド送信部20に通知し、ステップS111に移る。
ステップS111において、コマンド送信部20は、通知されたコマンドを操作対象機器4に送信し、ステップS101に戻る。操作対象機器4は、送信されたコマンドを受信して実行する。以上の処理が繰り返されることによって、入力装置100は、コマンドの送信を繰り返して操作対象機器4を操作する。なお、操作者等によってスタートスイッチがオフにされると処理は終了する。
以上に説明した動作によって、操作者は、表示部3に表示された重畳画像を目視しながら手を動かすことによって、重畳画像内の手モデルを操作できる。そして、操作者は、手モデルを操作して指先の位置をGUIパーツに重ね合わせることによって、操作対象機器4を操作できることとなる。
以下では、図5を用いて説明した各ステップについて、詳細に説明する。
図7は、図5のステップS101およびS102における接触領域検知部1の動作について説明するための図である。図7(a)は、接触領域検知部1の操作面に操作者の手か置かれた状態の一例を示す。図7(b)は、接触領域検知部1が検知した接触点群を黒丸群で表した図である。図7に示すように、接触領域検知部1は、図5のステップS101およびS102において、接触点(接触点群)を検知することによって、手の接触領域を検知する。
図8は、図5のステップS102を詳細に説明するためのフローチャートである。
まず、S102−1において、領域特定部12は、接触領域検知部1から図7(b)を用いて説明した接触点群を示すデータを取得する。
次に、ステップS102−2において、領域特定部12は、接触点の位置関係に基づいて複数の領域を抽出する。図9は、ステップS102−2において複数の領域を抽出する処理の詳細を示すフローチャートである。ステップS102−2−1において、領域特定部12は、接触領域検知部1から受信した接触点群からノイズ除去処理をおこなう。ノイズ処理の一例として、点群ではなく孤立した接触点等はノイズとして除去する方法がある。
次に、ステップS102−2−2において、領域特定部12は各接触点を結合して領域を抽出する。ここで、接触点を結合する処理において、一般に知られている4近傍連結方法を用い、図10(a)に示すように上下左右で接触点が隣接していれば同じ領域1001と判定する。
なお、同一の指によって押下されていると判断される領域を一つの領域で表したい。そのため、図10(b)、(c)に示すように領域の結合を行う。X座標軸方向には隣接する接触点を同じ領域とし、隣接していなければ別の領域とする。すなわち、図10(b)において領域1011と、領域1012、1013とは別の領域とする。Y座標軸方向については、本来の4近傍連結では、領域1011と領域1014は別の領域されるべきである。しかし、手の進入方向が矢印1020の方向であるとすると、指の方向はY座標軸方向に長いため、圧力不足により接触点として信号が検出されない箇所が発生する。そこで、Y座標軸方向には、1つの接触点分の隙間が空いていても、その次に接触点がある場合は、その間に接触点があるものと判定する。すなわち、図10(c)に示すように、領域1011と領域1014を結合して、領域1015とする。
以上のステップS102−2−2により、全ての領域が抽出されると、ステップS102−2−3において領域特定部12は、抽出された領域に領域IDを付与する。そして、ステップS102−2−4において領域特定部12は、抽出された領域数が5つ以上か、4つか、3つ以下かを判断する。
ステップS102−2−4において領域特定部12が、抽出された領域数が4つであると判断すると、ステップS102−2−8に進む。ステップS102−2−4において領域特定部12が、抽出された領域数が5つ以上であると判断すると、ステップS102−2−5に進み、抽出される領域数が多いためノイズ領域を除去して4つにする。その際、領域の面積が最少のものが除去すべきノイズ領域として選択される。その後、ステップS102−2−8に進む。
ステップS102−2−4において領域特定部12が、抽出された領域数が3つ以下であると判断すると、ステップS102−2−6に進み、各抽出された領域のX座標軸方向の幅が所定の閾値以上か否かを判定する。この処理により、先の領域結合処理(S102−2−2)により、本来は2本の指で押下されているにもかかわらず、指が近接していたために1つの領域として誤認識されてしまった領域があるか否かを判定する。
ステップS102−2−6で領域特定部12が、抽出された全ての領域のX座標軸方向の幅が所定の閾値未満であると判定すると、1つの領域として誤認識された領域はないことになるためステップS102−2−8に進む。ステップS102−2−6で領域特定部12が、抽出されたある領域のX座標軸方向の幅が所定の閾値以上であると判定すると、ステップS102−2−7に進み、その領域をX座標軸方向に2分割する位置で2つの領域に分ける。図11はX座標軸方向の幅が所定の閾値以上の領域1101を、領域1102、1103に2分割する処理を説明する概念図である。
ここで、分割によって総領域数が5以上になった場合には、2つ以上の領域を2分割したことになるため、X座標軸方向の幅が長い方の領域だけを分割することにより領域数を4つにすることが考えられる。また、領域の面積が他の領域よりかなり小さい領域がある場合には、ステップS102−2−5と同様のノイズ領域を除去する処理を行い、4つにすることもできる。その後、ステップS102−2−8に進む。
ステップS102−2−8では、ノイズ領域の除去処理(ステップS102−2−5)や、領域の分割処理(ステップS102−2−7)により領域数が増減したため、各領域を特定するために領域IDを付与しなおして、ステップS102−3へ進む。
なお、上記ステップS102−2−7では、1つの領域をその大きさに基づいて2分割する例について説明したが、2分割には限らない。3本の指が近接していた場合には、抽出された領域のX座標軸方向の幅が所定の閾値の3倍以上になることが考えられる。その場合は、3分割することになる。一例として、タッチパッド210の抵抗膜線間の幅が2mmの場合、一般の操作者の指1本の幅は約1cm程度であることから、閾値としては5本分のX座標軸方向の幅に設定することが好ましい。
図8に戻り、ステップS102−3において、領域特定部12は、ステップS102−2で特定した各領域に対して、指先位置点を算出する。図12は、指先位置点の算出方法について説明するための図ある。ステップS102−3において、領域特定部12は、図12(a)の各領域Aに対して、重心位置を算出して各指先位置点とする(図12(b)を参照)。なお、指先位置点は、他の方法を用い、また、他の位置に決定してもよい。
次に、ステップS102−4において、領域特定部12は、ステップS102−3で取得した指先位置点の位置を保持する。図13は、図8のステップS102−3で取得された指先位置点の位置の一例を示す図である。図13において、黒丸は指先位置点1301を示している。
図14は、図5のステップS105の処理を詳しく説明するためのフローチャートである。まず、ステップS105−1において、領域特定部12は、操作者に接触領域検知部1の操作面上の手を開くように促すメッセージを通知して4つの初期位置点を取得する。
次に、ステップS105−2において、領域特定部12は、ステップS105−1で取得した初期位置点(指先位置点)と、モデル保持部15が当初から保持しているひな形であるひな形手モデルの対応する指先位置点とが重なるように、当該ひな形手モデルを変形して初期手モデルを作成する。ここで、4つの初期位置点は、それぞれ小指、薬指、中指、人差し指に対応する。操作者の操作が左手に限定される場合には、左手のひな形手モデルを使用して、左から小指、薬指、中指、人差し指の順番に初期位置点とが重なるように、当該ひな形手モデルを変形して初期手モデルを作成する。
ここで、初期手モデルを作成する際には、接触領域検知部1に対して操作者がどの方向から手を進入させたかを知る必要がある。逆方向から手を進入させた場合には、同じ4つの初期位置点であっても、初期手モデルが反対向きに作成されてしまう。そのため、接触領域検知部1に対して操作者がどの方向から手を進入させるかは、予め分っているものとする。
図15は接触領域検知部1の車への設置位置の例を示している。図15(a)は車両のセンターコンソールに取り付けられた場合の一例を示す図である。図15(b)は、接触領域検知部1が車両のドアの操作部に取り付けられた場合の一例を示す図である。図15(c)は、接触領域検知部1が車両のハンドルに取り付けられた場合の一例を示す図である。図15(a)に示すような車両の位置に、接触領域検知部1を取り付けることで、ドライバである操作者は接触領域検知部1に対して左手を矢印1501の方向に進入させることは予め分る。また、図15(b)に示すような車両の位置に、接触領域検知部1を取り付けることで、ドライバである操作者は接触領域検知部1に対して右手を矢印1502の方向に進入させることは予め分る。図15(c)の場合には、ドライバである操作者は接触領域検知部1に対して手を矢印1503の方向に進入させることは予め分る。ただ、この場合には、操作者が右手で操作するか左手で操作するかは分らないため、事前に操作者の好みで右手もしくは左手で操作するかの情報を入力できる様にしておけばよい。
また、操作者が右手もしくは左手で操作する場合には、通常は小指は他の指と比較して小さく、操作面との接触面積も小さいため、ステップS105−1で取得した接触面積が最も小さい領域を小指と判断し、他の領域との位置関係から右手か左手かを特定することもできる。すなわち、小指と特定された領域が他の3つの領域より、最も左側に存在すれば左手と判断し、左手のひな形手モデルを変形する。逆に、小指と特定された領域が他の3つの領域より、最も右側に存在すれば右手と判断し、右手のひな形手モデルを変形する。
図14に戻り、その後、領域特定部12は、作成した初期手モデルを、表示部3に表示する。この処理によって、領域特定部12は、操作者の手の大きさを反映した初期手モデルを作成し、表示部3に表示できる。
次に、ステップS105−3において、領域特定部12は、ステップS105−1で取得した初期位置点の位置と、ステップS105−2で作成した初期手モデルとをモデル保持部15に保存し、ステップS102に戻る(図5を参照)。
次に、図5のステップS107の指曲り角度を決定する処理について説明する。ステップS107では、指曲り角度決定部14は、手モデルの付け根点と各指先位置点との距離をそれぞれ算出する。ここで、手モデルの付け根点は、手モデルの下部、中央の掌側の点であり、手モデルの基準位置となる。ここでは、ステップS105で決定した初期手モデルの付け根点と同じとする。図16は、手モデル1601の付け根点1602から各指先位置点1611〜1614までの距離R1〜R4を示す図である。図16に示すR1〜R4の長さの変化量は、それぞれ、指曲げにより生じる移動量である。指曲り角度決定部14は、ステップS106で取得した指先位置点の初期位置点からの移動量を、指曲げにより生じる移動量として決定する。
次に、指曲り角度決定部14は、指曲げによる移動量を用いて、各指の各関節の曲り角度を決定する。ここで、指先の変位から指関節の曲り角度を求める方法として、ロボット工学分野等で周知であるインバースキネマティクス(以下、IKという)技術がある。IK技術は、複数の可動部を持つアームの先端を目的位置に移動させるために用いられる。そして、アームが複数の可動部を持つ場合、IK技術を用いて目的位置にアームの先端を移動させるためには、可動部の曲り角度には複数の解が存在する。
本発明においても、指には複数の関節があるので、指関節の曲り角度には複数の解が存在する。このため、本発明では、一例として、操作者の掌および指先は操作面上(同一平面上)に存在するという拘束条件と、各指関節の曲り角度は等しいという拘束条件とを用いて、解を一意に求める。
図17(a)は、一例として、人差し指を曲げた場合の指先位置点の変位を示している。図17(b)は、図17(a)に示す曲げた状態の人差し指1700の手モデルを側面から見た図である。図17から分るように、通常、指を曲げると3つの指関節は同時に曲がるので、各指関節の曲り角度1701〜1703は等しいという拘束条件を用いて手モデルを変形すると、操作者は違和感無く操作を行うことができる。また、この様な拘束条件を用いて手モデルを変形すると、演算量が大幅に低減できるので、操作者の手の動きに瞬時に応答する手モデルの変形が可能である。
なお、指関節の曲り角度を算出するための拘束条件は、これには限定されず、解を一意に求めらる拘束条件であればよい。しかし、上記したように、指関節の曲り角度を算出するための拘束条件は、操作者が違和感を感じない手モデルとなる拘束条件が好ましく、操作者の操作行為が自然に行える手モデルとなる拘束条件が好ましい。また、IK技術において目的位置からアーム可動部の曲り角度を求める方法として、ヤコビ行列を用いて繰り返し計算を行う方法や幾何学的に算出する方法等が知られているが、本発明においてはいずれを用いてもよい。
以上に説明した一連の処理を行うことによって、指曲り角度決定部14は、図5のステップS107の処理を行い、手モデルの各指関節の曲り角度を決定する。
図18は、図5のステップS108における手モデルの変形の具体例を示す図である。図18(a)は、初期位置点(操作者が手を開いた状態の指先位置点)を示す。図18(b)は、図18(a)に示す初期位置点を用いて描画された初期手モデルである。図18(c)は、一例として、操作者が人差し指を曲げた場合の指先位置点を示す。図18(d)は、図18(c)に示す指先位置点を用いて変形された手モデルである。図19(a)、(b)はそれぞれ、図18(b)および(d)に示した手モデルを側面から見た図である。図18および図19に示すように、図5のステップS108において、手モデルは、操作者の手の変形に応じてリアルに変形する。
図20は、図5のステップS109の処理を説明するための図である。図20に示す通り、ステップS109において、重畳画像作成部18は、GUIパーツ2001を配置した操作画像2000と、変形された手モデル2010とを重畳して、重畳画像2020を作成し、表示部3に表示する。なお、重畳画像2020を作成する際、手モデルと重なるGUIパーツを視認し易くするために、手モデルを半透過等にしてもよい。
図21は、図5のステップS110の処理について説明するための図である。衝突判定部19は、図21の矢印2120で示すように、ステップS109で作成された重畳画像においてGUIパーツと手モデル2110の指先位置点とが重なった場合には、当該GUIパーツと手モデル2110の指先位置点とが衝突したと判定する。図21の場合には、衝突判定部19は、衝突が判定されたGUIパーツ2102に割当てられたコマンドをコマンド送信部20に通知する。
その後、ステップS111で、コマンド送信部20は通知されたコマンドを操作対象機器4に送信する。操作対象装置4は、受信したコマンドを実行する。
以上に説明したように、本発明に係る入力装置100によれば、操作者は、表示部3から離れている場合でも、タッチパネルディスプレイの直感的な操作感を維持した操作を行うことができる。また、本発明に係る入力装置100は、操作者の指の動きを忠実に再現した手モデルを表示部3に表示することができる。この結果として、本発明に係る入力装置100は、操作者に違和感の無い快適な操作感覚を提供することができる。
なお、本実施形態においては、4つの指先位置点を取得することとしたが、4つに限られることはない。右手か左手かが分っており、接触する指が特定できる場合には(例えば、人差し指で接触)、手の進入方向が分っていれば手モデルの位置を決定できるため、1〜3つの指先位置点を取得することにしてもよい。
また、本実施形態において、図9のステップS102−2−6、7で領域特定部12が、抽出された領域のX座標軸方向の幅が所定の閾値以上であると判定すると、その領域をX座標軸方向に2つの領域に分ける処理を説明した。ここで、指の大きさは操作者に依存するため、その場合の所定の閾値は、操作者に応じて変更してもよい。
本発明は、入力装置および入力方法等に利用可能であり、特に、操作者の手のCGモデルを操作者の手の動きに併せてよりリアルに変形させたい場合等に有用である。
本発明の実施形態に係る入力装置100の動作の概要を説明するための図 接触領域検知部1の構成の一例を示す図 タッチパッド210の操作を説明するための図 本発明の実施形態に係る入力装置100の構成例を示す図 本発明の実施形態に係る入力装置100の動作を説明するためのフローチャート モデル保持部15が保持する手モデルの一例を示す図 図5のステップS101およびS102における接触領域検知部1の動作について説明するための図で、(a)接触領域検知部1の操作面に操作者の手か置かれた状態の一例を示す図、(b)接触領域検知部1が検知した接触点群を黒丸群で表した図 図5のステップS102を詳細に説明するためのフローチャート 図8のステップS102−2を詳細に説明するためのフローチャート 図9のステップS102−2−2の接触点群から領域を抽出する処理を説明するための図で、(a)4近傍連結方法を説明する図、(b)Y座標軸方向の結合処理前の領域を示す図、(c)Y座標軸方向の結合処理後の領域を示す図 図9のステップS102−2−7のX座標軸方向の幅が所定の閾値以上の領域を2分割する処理を説明するための図 図8のステップS102−3で取得される指先位置点を説明するための図で、(a)接触点群から特定された領域の一例を示す図、(b)特定された領域から指先位置点を決定する一例を示す図 図8のステップS102−3で取得された指先位置点の位置の一例を示す図 図5のステップS105の処理を詳しく説明するためのフローチャート 接触領域検知部1の車への設置位置の例を示す図で、(a)車両のセンターコンソールに取り付けられた場合の一例を示す図、(b)車両のドアの操作部に取り付けられた場合の一例を示す図、(c)車両のハンドルに取り付けられた場合の一例を示す図 付け根点から各指先位置点までの距離R1〜R4を示す図 図5のステップS107において、手モデルの指曲り角度を決定する方法を説明するための図で、(a)人差し指1700を曲げた場合の指先位置点の変位を示す図、(b)曲げた状態の人差し指1700の手モデルを側面から見た図 図5のステップS108における手モデルの変形の具体例を示す図で、(a)初期位置点を示す図、(b)初期位置点を用いて描画された初期手モデルを示す図、(c)操作者が人差し指を曲げた場合の指先位置点を示す図、(d)人差し指を曲げた時の指先位置点を用いて変形された手モデルを示す図 図18に示した手モデルを側面から見た図で、(a)図18bに示した手モデルを側面から見た図、(b)図18dに示した手モデルを側面から見た図 図5のステップS109の処理を説明するための図 図5のステップS110の処理を説明するための図
符号の説明
1 接触領域検知部
2 演算部
3 表示部
4 操作対象機器
12 領域特定部
13 移動量算出部
14 指曲り角度決定部
15 モデル保持部
16 モデル形状決定部
17 GUIパーツ保持部
18 重畳画像作成部
19 衝突判定部
20 コマンド送信部
100 入力装置

Claims (3)

  1. 操作面に置かれた手のCGモデルを表示部に表示して機器を操作する入力装置であって、
    前記操作面と前記手との複数の接触点群を検知する接触領域検知部と、
    前記検知した接触点群から複数の領域を抽出し、抽出された領域の大きさに基づいて接触領域を特定する領域特定部と、
    前記手の指を伸ばした初期状態からの前記接触領域の移動量を算出する移動量算出部と、
    前記算出された移動量に基づいて、前記CGモデルの各指関節の曲り角度を決定する指曲り角度決定部と、
    前記CGモデルの各指関節の曲り角度に従って、前記CGモデルの変形形状を決定するモデル形状決定部と、
    前記機器に対するコマンドを割り当てたGUIパーツを保持するGUIパーツ保持部と、
    前記モデル形状決定部で形状が決定された前記CGモデルと前記GUIパーツ保持部に保持されたGUIパーツとを重畳した画像を作成して前記表示部に表示させる重畳画像作成部と、
    前記GUIパーツと前記CGモデルの指先との衝突を判定する衝突判定部と、
    前記衝突判定部によって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを前記機器に送信するコマンド送信部とを備える、入力装置。
  2. 前記接触領域検知部の操作面上の領域をX座標及びY座標で表し、前記操作面への前記手の進入方向をY座標軸方向とすると、
    前記領域特定部は、前記抽出された領域のX座標軸方向の幅が所定の閾値より大きい場合に、1領域となっている領域を複数の領域に分割することを特徴とする請求項1記載の入力装置。
  3. 操作面に置かれた手のCGモデルを表示部に表示して機器を操作する入力方法であって、
    前記操作面と前記手との複数の接触点群を検知する接触領域検知ステップと、
    前記検知した接触点群から複数の領域を抽出し、抽出された領域の大きさに基づいて接触領域を特定する領域特定ステップと、
    前記手の指を伸ばした初期状態からの前記接触領域の移動量を算出する移動量算出ステップと、
    前記算出された移動量に基づいて、前記CGモデルの各指関節の曲り角度を決定する指曲り角度決定ステップと、
    前記CGモデルの各指関節の曲り角度に従って、前記CGモデルの変形形状を決定するモデル形状決定ステップと、
    前記モデル形状決定ステップで形状が決定された前記CGモデルと、前記機器に対するコマンドを割り当てた予め保持されているGUIパーツとを重畳した画像を作成して前記表示部に表示させる重畳画像作成ステップと、
    前記GUIパーツと前記CGモデルの指先との衝突を判定する衝突判定ステップと、
    前記衝突判定ステップによって衝突が判定されると、当該衝突が判定されたGUIパーツに割当てられたコマンドを前記機器に送信するコマンド送信ステップとを備える、入力方法。
JP2008269443A 2008-10-20 2008-10-20 入力装置および入力方法 Expired - Fee Related JP4941450B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008269443A JP4941450B2 (ja) 2008-10-20 2008-10-20 入力装置および入力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008269443A JP4941450B2 (ja) 2008-10-20 2008-10-20 入力装置および入力方法

Publications (2)

Publication Number Publication Date
JP2010097528A JP2010097528A (ja) 2010-04-30
JP4941450B2 true JP4941450B2 (ja) 2012-05-30

Family

ID=42259147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008269443A Expired - Fee Related JP4941450B2 (ja) 2008-10-20 2008-10-20 入力装置および入力方法

Country Status (1)

Country Link
JP (1) JP4941450B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106445120A (zh) * 2016-09-05 2017-02-22 华为技术有限公司 触控操作的识别方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100906A (ja) * 1999-09-30 2001-04-13 Suzuki Motor Corp 三次元データ表示装置
JP4351599B2 (ja) * 2004-09-03 2009-10-28 パナソニック株式会社 入力装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106445120A (zh) * 2016-09-05 2017-02-22 华为技术有限公司 触控操作的识别方法及装置

Also Published As

Publication number Publication date
JP2010097528A (ja) 2010-04-30

Similar Documents

Publication Publication Date Title
US6803905B1 (en) Touch sensitive apparatus and method for improved visual feedback
JP4274997B2 (ja) 操作入力装置および操作入力方法
JP5921835B2 (ja) 入力装置
JP4356983B2 (ja) 画像処理方法、画像処理装置
US9542032B2 (en) Method using a predicted finger location above a touchpad for controlling a computerized system
WO2006027924A1 (ja) 入力装置
US10956030B2 (en) Multi-touch based drawing input method and apparatus
JP3744116B2 (ja) 表示入力装置
JP4924164B2 (ja) タッチ式入力装置
US20140253515A1 (en) Method Using Finger Force Upon a Touchpad for Controlling a Computerized System
US11644912B2 (en) Interface device and on-panel pad
JP2003122506A (ja) 座標入力及び操作方法指示装置
JP4941450B2 (ja) 入力装置および入力方法
JP2009110135A (ja) オブジェクト選択装置
JP4244202B2 (ja) 操作入力装置および操作入力方法
JP4962466B2 (ja) 入力装置および入力方法
JP6966777B2 (ja) 入力システム
JP5005585B2 (ja) 操作装置及びその方法
JP5575027B2 (ja) 表示一体型座標入力装置及び仮想キーボード機能の起動方法
JP2010182135A (ja) 入力装置および入力方法
JP4922266B2 (ja) 入力装置及び入力方法
JP4962467B2 (ja) 入力装置および入力方法
JP2013120560A (ja) 情報処理システム、及び情報処理方法
WO2015178893A1 (en) Method using finger force upon a touchpad for controlling a computerized system
JPS62150423A (ja) 表示制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110315

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20110413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120213

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150309

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees