JP4684745B2 - ユーザインタフェース装置及びユーザインタフェース方法 - Google Patents

ユーザインタフェース装置及びユーザインタフェース方法 Download PDF

Info

Publication number
JP4684745B2
JP4684745B2 JP2005155968A JP2005155968A JP4684745B2 JP 4684745 B2 JP4684745 B2 JP 4684745B2 JP 2005155968 A JP2005155968 A JP 2005155968A JP 2005155968 A JP2005155968 A JP 2005155968A JP 4684745 B2 JP4684745 B2 JP 4684745B2
Authority
JP
Japan
Prior art keywords
trajectory
gesture
user
guidance
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005155968A
Other languages
English (en)
Other versions
JP2006331210A (ja
Inventor
次郎 中洲
智輝 束田
博彦 樋口
剛 泉福
大介 飯澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005155968A priority Critical patent/JP4684745B2/ja
Publication of JP2006331210A publication Critical patent/JP2006331210A/ja
Application granted granted Critical
Publication of JP4684745B2 publication Critical patent/JP4684745B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

この発明は、ユーザの操作軌跡を解析して、その操作軌跡に対応するジェスチャーを特定し、そのジェスチャーに割り付けられているコマンドを呼び出すユーザインタフェース装置及びユーザインタフェース方法に関するものである。
従来のユーザインタフェース装置は、例えば、ユーザが指でタッチパネルに触れると、その触れられた位置の座標を入力する座標入力手段と、その座標入力手段により入力された座標の軌跡を認識する軌跡認識手段と、その軌跡認識手段により認識された軌跡を画面に表示する軌跡表示手段と、その軌跡認識手段により認識された軌跡に対応するジェスチャーを特定し、そのジェスチャーに割り付けられているコマンドを実行するコマンド実行手段とを備えている。
したがって、ユーザが予め記憶されているジェスチャーをタッチパネルに描けば、そのジェスチャーに割り付けられているコマンドを実行することができる(例えば、特許文献1参照)。
特開2001−202174号公報(段落番号[0006]から[0007]、図4)
従来のユーザインタフェース装置は以上のように構成されているので、ユーザが予め記憶されているジェスチャーをタッチパネルに描けば、そのジェスチャーに割り付けられているコマンドを実行することができる。しかし、そのジェスチャーを正確に覚えていない場合、そのジェスチャーを正確に描くことができず、そのジェスチャーに割り付けられているコマンドを実行することができないことがあるなどの課題があった。
この発明は上記のような課題を解決するためになされたもので、ジェスチャーを正確に覚えていない場合でも、そのジェスチャーに割り付けられているコマンドを呼び出すことができるユーザインタフェース装置及びユーザインタフェース方法を得ることを目的とする。
この発明に係るユーザインタフェース装置は、所定のコマンドが割り付けられているジェスチャーを記憶するとともに、そのジェスチャーを誘導する案内軌跡を記憶する記憶手段と、軌跡入力デバイスに対するユーザの操作軌跡を解析する軌跡解析手段と、軌跡解析手段がユーザの操作軌跡を解析する毎に、記憶手段に記憶されているジェスチャーの中から、その操作軌跡に基づき1以上のジェスチャーを検索するジェスチャー検索手段と、記憶手段からジェスチャー検索手段により検索されたジェスチャーの案内軌跡を取得して、その案内軌跡を表示する一方、ジェスチャー検索手段により前回検索されたジェスチャーがユーザの操作軌跡と合致しなくなると、表示している当該ジェスチャーの案内軌跡を消去する案内軌跡表示手段と、ジェスチャー検索手段により検索されたジェスチャーが1つに絞られると、そのジェスチャーに割り付けられているコマンドを呼び出すコマンド呼出手段とを備え、ジェスチャー検索手段は、軌跡解析手段により解析された操作軌跡と記憶手段に記憶されているジェスチャーを比較して、記憶手段に記憶されているジェスチャーの中から、その操作軌跡との誤差が許容範囲内のジェスチャーを検索し、案内軌跡表示手段は、ユーザの操作軌跡が、ジェスチャー検索手段により検索されたジェスチャーの案内軌跡全体の所定の割合以上であるかを判定し、所定の割合以上であれば記憶手段から該案内軌跡全体を呼び出すものである。
以上のように、この発明によれば、所定のコマンドが割り付けられているジェスチャーを記憶するとともに、そのジェスチャーを誘導する案内軌跡を記憶する記憶手段と、軌跡入力デバイスに対するユーザの操作軌跡を解析する軌跡解析手段と、軌跡解析手段がユーザの操作軌跡を解析する毎に、記憶手段に記憶されているジェスチャーの中から、その操作軌跡に基づき1以上のジェスチャーを検索するジェスチャー検索手段と、記憶手段からジェスチャー検索手段により検索されたジェスチャーの案内軌跡を取得して、その案内軌跡を表示する一方、ジェスチャー検索手段により前回検索されたジェスチャーがユーザの操作軌跡と合致しなくなると、表示している当該ジェスチャーの案内軌跡を消去する案内軌跡表示手段と、ジェスチャー検索手段により検索されたジェスチャーが1つに絞られると、そのジェスチャーに割り付けられているコマンドを呼び出すコマンド呼出手段とを備え、ジェスチャー検索手段は、軌跡解析手段により解析された操作軌跡と記憶手段に記憶されているジェスチャーを比較して、記憶手段に記憶されているジェスチャーの中から、その操作軌跡との誤差が許容範囲内のジェスチャーを検索し、案内軌跡表示手段は、ユーザの操作軌跡が、ジェスチャー検索手段により検索されたジェスチャーの案内軌跡全体の所定の割合以上であるかを判定し、所定の割合以上であれば記憶手段から該案内軌跡全体を呼び出すように構成したので、ジェスチャーを正確に覚えていない場合でも、そのジェスチャーに割り付けられているコマンドを呼び出すことができる効果がある。
実施の形態1.
図1はこの発明の実施の形態1によるユーザインタフェース装置を示す構成図であり、図において、ジェスチャー記憶部1は所定のコマンドが割り付けられているジェスチャー(ジェスチャーは、複数の特徴ベクトルから構成されている)の他、そのジェスチャーを誘導する案内軌跡などを記憶しているメモリである。なお、ジェスチャー記憶部1は記憶手段を構成している。
座標入力部2はタッチパネル8の背面に設置され、例えばユーザが指でタッチパネル8に触れると、その触れられた位置の座標を入力する処理を実施するポインティングデバイスである。
ここでは、ユーザが指でタッチパネル8に触れると、座標入力部2がその触れられた位置の座標を入力するものについて示しているが、例えば、赤外線検知やマウスなど、座標位置を取得することが可能なデバイスであればよく、タッチパネル8以外のデバイスを用いて座標を入力するようにしてもよい。
座標格納部3は座標入力部2により入力された座標を格納するメモリである。
軌跡解析部4は例えばマイコンなどが実装されている半導体集積回路から構成され、座標格納部3により格納された座標に基づいてタッチパネル8に対するユーザの操作軌跡を解析する解析処理を逐次実施する。
なお、座標入力部2、座標格納部3及び軌跡解析部4から軌跡解析手段が構成されている。
ジェスチャー検索部5は例えばマイコンなどが実装されている半導体集積回路から構成され、軌跡解析部4がユーザの操作軌跡を解析する毎に、ジェスチャー記憶部1に記憶されているジェスチャーの中から、軌跡解析部4により解析された操作軌跡に合致する1以上のジェスチャーを検索する処理を実施する。なお、ジェスチャー検索部5はジェスチャー検索手段を構成している。
軌跡表示部6は例えば3Dグラフィックスアクセラレータなどを搭載し、タッチパネル8の表示内容を制御する機能を有しており、ジェスチャー記憶部1からジェスチャー検索部5により検索されたジェスチャーの案内軌跡を取得して、その案内軌跡をタッチパネル8に表示する一方、ジェスチャー検索部5により前回検索されたジェスチャーがユーザの操作軌跡と合致しなくなると、そのタッチパネル8に表示されている当該ジェスチャーの案内軌跡を消去する処理を実施する。なお、軌跡表示部6は案内軌跡表示手段を構成している。
コマンド呼出部7は例えばマイコンなどが実装されている半導体集積回路から構成され、ジェスチャー検索部5により検索されたジェスチャーが1つに絞られ、かつ、ジェスチャー記憶部1の最後の特徴ベクトルであると、そのジェスチャーに割り付けられているコマンドの呼び出し処理を実施する。なお、コマンド呼出部7はコマンド呼出手段を構成している。
タッチパネル8はユーザの操作軌跡を入力する軌跡入力デバイスであると同時に、その操作軌跡や案内軌跡を表示する表示デバイスを兼ねている。
図2はこの発明の実施の形態1によるユーザインタフェース方法を示すフローチャートであり、図3はタッチパネルに表示される操作軌跡や案内軌跡を示す説明図である。
図1の例では、ユーザインタフェース装置の構成要素である軌跡解析部4、ジェスチャー検索部5、軌跡表示部6及びコマンド呼出部7が専用のハードウェアで構成されているものについて示しているが、ユーザインタフェース装置がコンピュータの一部を担う場合、あらかじめ、軌跡解析部4、ジェスチャー検索部5、軌跡表示部6及びコマンド呼出部7の処理内容が記述されているプログラムをコンピュータのメモリに記憶し、そのコンピュータのCPUがメモリに記憶されているプログラムを実行するようにしてもよい。
次に動作について説明する。
ジェスチャー記憶部1には、図4に示すように、所定のコマンドが割り付けられているジェスチャー(ジェスチャーは、複数の特徴ベクトルから構成されている)の他、そのジェスチャーを誘導する案内軌跡などが予め登録されている。
座標入力部2は、ジェスチャー記憶部1により記憶されている案内軌跡の木構造の階層を表すレベル(i)が“1”に設定されると(ステップST1)、定期的に入力信号の確認処理(例えば、ユーザが指でタッチパネル8に触れているか否かを確認する処理)を実施する(ステップST2)。
座標入力部2は、ユーザが指でタッチパネル8に触れていることを確認すると、その触れられた位置の座標(X,Y)を入力して、その座標(X,Y)を座標格納部3に格納する(ステップST3、ST4)。
なお、座標入力部2は、ユーザが指を移動すると、移動後の位置の座標も入力するが、座標の入力処理は一定時間毎に実施するので、座標入力部2により入力される位置は点列になる。
ただし、ユーザが異なる座標を触る毎に(ユーザが指を移動する毎)、新たな座標を入力するようにしてもよい。この場合には、座標入力部2により入力される位置は連続的になる。
軌跡解析部4は、座標入力部2が座標(X,Y)を座標格納部3に格納すると、その座標格納部3により格納されている複数の座標(X,Y)に基づいて、タッチパネル8に対するユーザの操作軌跡を解析する解析処理を逐次実施する。
即ち、軌跡解析部4は、座標入力部2が新たな座標(X,Y)を座標格納部3に格納する毎に、新たな座標(X,Y)と一定時間前に格納された座標(X,Y)から速度ベクトルを計算する(ステップST5、ST6)。
なお、ユーザの操作軌跡の解析処理は、このように速度ベクトルを計算する方法に限定するものではなく、例えば、特開平6−12493号公報に開示されている方法を使用してもよい。
ジェスチャー検索部5は、軌跡解析部4がユーザの操作軌跡を解析する毎に、ジェスチャー記憶部1に記憶されているジェスチャーの中から、軌跡解析部4により解析された操作軌跡に合致するジェスチャーを検索する処理を実施する。
即ち、ジェスチャー検索部5は、ジェスチャー記憶部1に記憶されているレベル(i)における全ての特徴ベクトルと、軌跡解析部4により計算された速度ベクトルとを比較して、その速度ベクトルと一致するレベル(i)の特徴ベクトルを検索する。例えば、レベル(i)の各特徴ベクトルと速度ベクトルのDPマッチングを実施して、ベクトル間の距離を計算し、ベクトル間の距離が予め設定されている基準距離(誤差の許容範囲を示す閾値)より小さいレベル(i)の特徴ベクトルを検索する。
軌跡表示部6は、ジェスチャー検索部5により速度ベクトルと一致するレベル(i)の特徴ベクトルが検索されない場合(ステップST7)、現在、タッチパネル8に表示されている全ての案内軌跡を消去して(ステップST8)、エラー画面をタッチパネル8に表示する(ステップST9)。または、メニュー画面をタッチパネル8に表示する。
また、軌跡表示部6は、ジェスチャー検索部5により速度ベクトルと一致するレベル(i)の特徴ベクトルが検索された場合(ステップST7)、その特徴ベクトルを案内軌跡としてタッチパネル8に表示する(ステップST10)。
例えば、ユーザが図3(a)のように案内軌跡が未表示の状態から右方向に線を描くと、“→”の特徴ベクトルが選択されるので(図4のレベル(1)を参照)、図3(b)に示すように、“→”の特徴ベクトルを案内軌跡としてタッチパネル8に表示する。
ただし、ジェスチャー検索部5により速度ベクトルと一致するレベル(i)の特徴ベクトルが複数検索された場合、その速度ベクトルに最も近い特徴ベクトルを選択し(ベクトル間の距離が最も小さい特徴ベクトルを選択する)、その特徴ベクトルを案内軌跡としてタッチパネル8に表示する。
軌跡表示部6は、後述するステップST13の処理において、複数の案内軌跡がタッチパネル8に表示されているとき、その後のユーザの操作によって、その操作軌跡と一致しなくなった案内軌跡が存在する場合、ユーザの操作軌跡と一致しなくなった案内軌跡を消去する処理を実施する(ステップST11)。
例えば、図3(c)に示すように、レベル(i)がレベル(3)まで進むことにより、斜め右上を示す特徴ベクトルと、“→”の特徴ベクトルとが案内軌跡として表示されているとき、ユーザが斜め右上方向に線を描くと、“→”の案内軌跡はユーザの操作軌跡と一致しなくなるので、図3(d)に示すように、“→”の案内軌跡を消去する。
逆に、ユーザが右方向に線を描くと、斜め右上を示す案内軌跡はユーザの操作軌跡と一致しなくなるので、図3(e)に示すように、斜め右上を示す案内軌跡を消去する。
軌跡表示部6は、ジェスチャー検索部5により検索されたレベル(i)の特徴ベクトルが、最後のレベルの特徴ベクトルであるか否かを判定する(ステップST12)。
即ち、そのレベル(i)の特徴ベクトルに続くレベル(i+1)の特徴ベクトルが存在するか否かを判定する。
例えば、レベル(i)がレベル(2)であるとき、“→”の特徴ベクトルが検索されていれば、レベル(3)において、斜め右上を示す特徴ベクトルと“→”の特徴ベクトルが存在するので、最後のレベルの特徴ベクトルではないと判定するが、レベル(i)がレベル(4)であるとき、“→”の特徴ベクトルが検索されていれば、レベル(5)には特徴ベクトルが存在しないので、最後のレベルの特徴ベクトルであると判定する。
軌跡表示部6は、ジェスチャー検索部5により検索されたレベル(i)の特徴ベクトルが、最後のレベルの特徴ベクトルではないと判定すると、次のレベルであるレベル(i+1)の特徴ベクトルを案内軌跡としてタッチパネル8に表示する(ステップST13)。
例えば、図3(d)に示すように、レベル(i)がレベル(4)まで進むことにより、“→”の案内軌跡が消去されて、斜め右上を示す案内軌跡のみが表示されている場合、次のレベルであるレベル(i+1)の特徴ベクトル、即ち、レベル(5)の特徴ベクトルは、“↑”の特徴ベクトルと斜め右上を示す特徴ベクトルであるので、図3(f)に示すように、“↑”の特徴ベクトルを案内軌跡としてタッチパネル8に表示するとともに、斜め右上を示す特徴ベクトルを案内軌跡としてタッチパネル8に表示する。
以後、案内軌跡の木構造の階層を表すレベル(i)に“1”を加算したのち(ステップST14)、ステップST2〜ST13の処理を繰り返し実行する。
コマンド呼出部7は、軌跡表示部6によりレベル(i)の特徴ベクトルが最後のレベルの特徴ベクトルであると判定されると、その特徴ベクトルに対応するコマンドを呼び出す処理を実施する(ステップST15)。
例えば、レベル(4)において、“→”の特徴ベクトルが最後のレベルの特徴ベクトルであると判定されると、画像をスライドするコマンドCMD−2を呼び出して、そのコマンドCMD−2を実行する。
この実施の形態1によれば、軌跡解析部4がユーザの操作軌跡を解析する毎に、ジェスチャー記憶部1に記憶されているジェスチャーの中から、その操作軌跡に合致する1以上のジェスチャーを検索するジェスチャー検索部5と、ジェスチャー記憶部1からジェスチャー検索部5により検索されたジェスチャーの案内軌跡を取得して、その案内軌跡をタッチパネル8に表示する一方、そのジェスチャー検索部5により前回検索されたジェスチャーがユーザの操作軌跡と合致しなくなると、そのタッチパネル8に表示されている当該ジェスチャーの案内軌跡を消去する軌跡表示部6とを設け、そのジェスチャー検索部5により検索されたジェスチャーが1つに絞られると、そのジェスチャーに割り付けられているコマンドを呼び出すように構成したので、ジェスチャーを正確に覚えていない場合でも、そのジェスチャーに割り付けられているコマンドを呼び出すことができる効果を奏する。
また、この実施の形態1によれば、軌跡解析部4により解析された操作軌跡とジェスチャー記憶部1に記憶されているジェスチャーを比較して、ジェスチャー記憶部1に記憶されているジェスチャーの中から、その操作軌跡との誤差が許容範囲内のジェスチャーを検索するように構成したので、ユーザが正確に軌跡を描かなくても、ある程度、類似している軌跡を描ければ、ジェスチャーの案内軌跡を表示することができる効果を奏する。
なお、この実施の形態1では、ジェスチャー検索部5により検索されたジェスチャーの案内軌跡を取得して、その案内軌跡をタッチパネル8に表示するものについて示したが、その案内軌跡の代わりに、操作メニューなどを表示して、正確な操作を促すようにしてもよい。
実施の形態2.
上記実施の形態1では、ユーザが操作軌跡を連続的に描くことを想定しているが、ユーザが所望のコマンドに対応するジェスチャーを描き終える途中で、ユーザがタッチパネル8から指を離してもよい。
即ち、ユーザが所望のコマンドに対応するジェスチャーを描き終える途中で、ユーザがタッチパネル8から指を離しても、座標格納部3に格納されている座標(指を離す前の操作軌跡に係る座標)が一定期間(例えば、30秒)保持されるようにしているので、指を離してから一定期間経過して、座標格納部3に格納されている座標が消去される前に、ユーザがタッチパネル8に再度触れれば、軌跡解析部4が指を離す前後の入力座標からユーザの操作軌跡を解析する。
このように、この実施の形態2によれば、ユーザがタッチパネル8から指を離しても、座標格納部3が指を離す前の操作軌跡を保持するように構成したので、例えば、ジェスチャーの案内軌跡がユーザの指で隠れている領域に表示されたことにより確認することができないような場合には、一旦、指をタッチパネル8から離して、ジェスチャーの案内軌跡を確認してから入力操作を再開することができる効果を奏する。
実施の形態3.
図5はこの発明の実施の形態3によるユーザインタフェース装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
ジェスチャー検索部11は例えばマイコンなどが実装されている半導体集積回路から構成され、ジェスチャー記憶部1に記憶されているジェスチャーの中から、軌跡解析部4により解析された操作軌跡に合致するジェスチャーを検索する処理を実施する。即ち、軌跡解析部4により解析された操作軌跡とジェスチャー記憶部1に記憶されているジェスチャーを比較して、ジェスチャー記憶部1に記憶されているジェスチャーの中で、その操作軌跡と最も類似しているジェスチャーを検索する処理を実施する。なお、ジェスチャー検索部11はジェスチャー検索手段を構成している。
コマンド実行部12はジェスチャー検索部11により検索されたジェスチャーに割り付けられているコマンドを呼び出し、軌跡解析部4により逐次解析される操作軌跡に応じて当該コマンドを実行する処理を実施する。なお、コマンド実行部12はコマンド実行手段を構成している。
図6及び図7はこの発明の実施の形態3によるユーザインタフェース方法を示すフローチャートであり、図8はタッチパネルに表示される操作軌跡や案内軌跡を示す説明図である。
図5の例では、ユーザインタフェース装置の構成要素である軌跡解析部4、ジェスチャー検索部11、軌跡表示部6及びコマンド実行部12が専用のハードウェアで構成されているものについて示しているが、ユーザインタフェース装置がコンピュータの一部を担う場合、あらかじめ、軌跡解析部4、ジェスチャー検索部11、軌跡表示部6及びコマンド実行部12の処理内容が記述されているプログラムをコンピュータのメモリに記憶し、そのコンピュータのCPUがメモリに記憶されているプログラムを実行するようにしてもよい。
次に動作について説明する。
座標入力部2は、ジェスチャー記憶部1により記憶されている案内軌跡の木構造の階層を表すレベル(i)が“1”に設定されると(ステップST1)、上記実施の形態1と同様に、定期的に入力信号の確認処理(例えば、ユーザが指でタッチパネル8に触れているか否かを確認する処理)を実施する(ステップST2)。
座標入力部2は、ユーザが指でタッチパネル8に触れていることを確認すると、その触れられた位置の座標(X,Y)を入力して、その座標(X,Y)を座標格納部3に格納する(ステップST3、ST4)。
なお、座標入力部2は、ユーザが指を移動すると、移動後の位置の座標も入力するが、座標の入力処理は一定時間毎に実施するので、座標入力部2により入力される位置は点列になる。
ただし、ユーザが異なる座標を触る毎に(ユーザが指を移動する毎)、新たな座標を入力するようにしてもよい。この場合には、座標入力部2により入力される位置は連続的になる。
軌跡解析部4は、座標入力部2が座標(X,Y)を座標格納部3に格納すると、上記実施の形態1と同様に、その座標格納部3により格納されている複数の座標(X,Y)に基づいて、タッチパネル8に対するユーザの操作軌跡を解析する解析処理を逐次実施する。
即ち、軌跡解析部4は、座標入力部2が新たな座標(X,Y)を座標格納部3に格納する毎に、新たな座標(X,Y)と一定時間前に格納された座標(X,Y)から速度ベクトルを計算する(ステップST5、ST6)。
ジェスチャー検索部11は、軌跡解析部4がユーザの操作軌跡を解析する毎に、ジェスチャー記憶部1に記憶されているジェスチャーの中から、軌跡解析部4により解析された操作軌跡に合致するジェスチャーを検索する処理を実施する。
即ち、ジェスチャー検索部11は、ジェスチャー記憶部1に記憶されているレベル(i)における全ての特徴ベクトルと、軌跡解析部4により計算された速度ベクトルとを比較して、その速度ベクトルと一致するレベル(i)の特徴ベクトルを検索する。例えば、各特徴ベクトルと速度ベクトルのDPマッチングを実施して、ベクトル間の距離を計算し、ベクトル間の距離が予め設定されている基準距離(誤差の許容範囲を示す閾値)より小さいレベル(i)の特徴ベクトルを検索する。
軌跡表示部6は、ジェスチャー検索部11により速度ベクトルと一致するレベル(i)の特徴ベクトルが検索されない場合(ステップST7)、上記実施の形態1と同様に、現在、タッチパネル8に表示されている全ての案内軌跡を消去して(ステップST8)、エラー画面をタッチパネル8に表示する(ステップST9)。または、メニュー画面をタッチパネル8に表示する。
また、軌跡表示部6は、ジェスチャー検索部5により速度ベクトルと一致するレベル(i)の特徴ベクトルが検索された場合(ステップST7)、上記実施の形態1と同様に、その特徴ベクトルを案内軌跡としてタッチパネル8に表示する(ステップST10)。
軌跡表示部6は、後述するステップST13の処理において、複数の案内軌跡がタッチパネル8に表示されているとき、その後のユーザの操作によって、その操作軌跡と一致しなくなった案内軌跡が存在する場合、上記実施の形態1と同様に、ユーザの操作軌跡と一致しなくなった案内軌跡を消去する処理を実施する(ステップST11)。
軌跡表示部6は、ジェスチャー検索部11により検索されたレベル(i)が、一連の木構造全体のX%を越えているか否かを判定する(ステップST21)。
例えば、画像をズームするコマンドCMD−3−1を実行するために、図8に示すように、ユーザが円を描く場合、円を100%描かなくても、例えば、半円ぐらい描けば、他のコマンドに該当する可能性が排除される。図4の例では、レベル(i)がレベル(5)ぐらいまで進めば、他のコマンドに該当する可能性が排除されて、コマンドCMD−3−1の実行を希望していることを推定することができる。
軌跡表示部6は、ジェスチャー検索部11により検索されたレベル(i)が、一連の木構造全体のX%を越えていない場合、上記実施の形態1と同様に、次のレベルであるレベル(i+1)の特徴ベクトルを案内軌跡としてタッチパネル8に表示する(ステップST13)。
以後、案内軌跡の木構造の階層を表すレベル(i)に“1”を加算したのち(ステップST14)、ステップST2〜ST13の処理を繰り返し実行する。
軌跡表示部6は、ジェスチャー検索部11により検索されたレベル(i)が、一連の木構造全体のX%を越えている場合、ジェスチャー記憶部1からレベル(i)の特徴ベクトルを含む一連の木構造全体の案内軌跡を呼び出し(ステップST22、ST31)、その案内軌跡をタッチパネル8に表示する(ステップST32)。
座標入力部2は、軌跡表示部6が案内軌跡をタッチパネル8に表示すると、定期的に入力信号の確認処理(例えば、ユーザが指でタッチパネル8に触れているか否かを確認する処理)を実施する(ステップST33)。
座標入力部2は、ユーザが指でタッチパネル8に触れていることを確認すると、その触れられた位置の座標(X,Y)を入力して、その座標(X,Y)を座標格納部3に格納する(ステップST34、ST35)。
軌跡解析部4は、座標入力部2が座標(X,Y)を座標格納部3に格納すると、その座標格納部3により格納されている複数の座標(X,Y)に基づいて、タッチパネル8に対するユーザの操作軌跡を解析する解析処理を逐次実施する。
即ち、軌跡解析部4は、座標入力部2が新たな座標(X,Y)を座標格納部3に格納する毎に、新たな座標(X,Y)と一定時間前に格納された座標(X,Y)から速度ベクトルを計算する(ステップST35、ST36)。
軌跡表示部6は、軌跡解析部4が速度ベクトルを計算すると、その速度ベクトルと軌跡表示部6により表示されている案内軌跡の特徴ベクトルが一致しているか否かを判定する(ステップST38)。
軌跡表示部6は、軌跡解析部4により計算された速度ベクトルと軌跡表示部6により表示されている案内軌跡の特徴ベクトルが一致しない場合、現在、タッチパネル8に表示されている案内軌跡を消去して(ステップST39)、エラー画面をタッチパネル8に表示する(ステップST40)。または、メニュー画面をタッチパネル8に表示する。
コマンド実行部12は、軌跡解析部4により計算された速度ベクトルと軌跡表示部6により表示されている案内軌跡の特徴ベクトルが一致する場合、軌跡表示部6により表示されている案内軌跡を構成している特徴ベクトルの中から、軌跡解析部4により計算された速度ベクトルと一致する特徴ベクトルを抽出する(ステップST41)。
そして、コマンド実行部12は、その速度ベクトルと一致する特徴ベクトルの方向に対応するコマンド(例えば、右方向ならば、背景画像を拡大するコマンド、左方向ならば、背景画像を縮小するコマンド)を呼び出して実行する(ステップST42)。
以後、ステップST33〜ST42の処理を繰り返し実行する。
以上で明らかなように、この実施の形態3によれば、ジェスチャー記憶部1に記憶されているジェスチャーの中から、軌跡解析部4により解析された操作軌跡に合致するジェスチャーを検索するジェスチャー検索部11と、ジェスチャー記憶部1からジェスチャー検索部11により検索されたジェスチャーの案内軌跡を取得して、その案内軌跡をタッチパネル8に表示する軌跡表示部6とを設け、そのジェスチャー検索部11により検索されたジェスチャーに割り付けられているコマンドを呼び出し、軌跡解析部4により逐次解析される操作軌跡に応じて当該コマンドを実行するように構成したので、ジェスチャーを正確に覚えていない場合でも、そのジェスチャーに割り付けられているコマンドを呼び出して実行することができる効果を奏する。
また、この実施の形態3によれば、軌跡解析部4により解析された操作軌跡とジェスチャー記憶部1に記憶されているジェスチャーを比較して、ジェスチャー記憶部1に記憶されているジェスチャーの中で、その操作軌跡と最も類似しているジェスチャーを検索するように構成したので、ユーザが正確に軌跡を描かなくても、ある程度、類似している軌跡を描ければ、ジェスチャーの案内軌跡を表示することができる効果を奏する。
実施の形態4.
上記実施の形態3では、ユーザが操作軌跡を描いて、ジェスチャーの案内軌跡が表示されたのち、ユーザがタッチパネル8から指を離すことなく、引き続き、案内軌跡に沿って操作軌跡を描くことを想定しているが、ジェスチャーの案内軌跡が表示されたのち、ユーザがタッチパネル8から指を離してもよい。
即ち、ジェスチャーの案内軌跡が表示されたのち、ユーザがタッチパネル8から指を離しても、軌跡表示部6がジェスチャーの案内軌跡の表示を維持するようにしてもよい。(図8(g)を参照)。
したがって、ユーザがジェスチャーの案内軌跡に再度触れれば、その後のユーザの操作軌跡に応じてコマンドを実行することができるようになる。
なお、図8の例では、ジェスチャーの案内軌跡が表示されている以外の領域に触れれば、ジェスチャーの案内軌跡が消去される(図8(h)を参照)。
このように、この実施の形態4によれば、ユーザがタッチパネル8から指を離しても、軌跡表示部6がジェスチャーの案内軌跡の表示を維持するように構成したので、例えば、ジェスチャーの案内軌跡がユーザの指で隠れている領域に表示されたことにより確認することができないような場合には、一旦、指をタッチパネル8から離して、ジェスチャーの案内軌跡を確認してから入力操作を再開することができる効果を奏する。
この発明の実施の形態1によるユーザインタフェース装置を示す構成図である。 この発明の実施の形態1によるユーザインタフェース方法を示すフローチャートである。 タッチパネルに表示される操作軌跡や案内軌跡を示す説明図である。 ジェスチャー記憶部の記憶内容を示す説明図である。 この発明の実施の形態3によるユーザインタフェース装置を示す構成図である。 この発明の実施の形態3によるユーザインタフェース方法を示すフローチャートである。 この発明の実施の形態3によるユーザインタフェース方法を示すフローチャートである。 タッチパネルに表示される操作軌跡や案内軌跡を示す説明図である。
符号の説明
1 ジェスチャー記憶部(記憶手段)、2 座標入力部(軌跡解析手段)、3 座標格納部(軌跡解析手段)、4 軌跡解析部(軌跡解析手段)、5 ジェスチャー検索部(ジェスチャー検索手段)、6 軌跡表示部(案内軌跡表示手段)、7 コマンド呼出部(コマンド呼出手段)、8 タッチパネル(軌跡入力デバイス)、11 ジェスチャー検索部(ジェスチャー検索手段)、12 コマンド実行部(コマンド実行手段)。

Claims (6)

  1. 所定のコマンドが割り付けられているジェスチャーを記憶するとともに、そのジェスチャーを誘導する案内軌跡を記憶する記憶手段と、
    軌跡入力デバイスに対するユーザの操作軌跡を解析する軌跡解析手段と、
    上記軌跡解析手段がユーザの操作軌跡を解析する毎に、上記記憶手段に記憶されているジェスチャーの中から、その操作軌跡に基づき1以上のジェスチャーを検索するジェスチャー検索手段と、
    上記記憶手段から上記ジェスチャー検索手段により検索されたジェスチャーの案内軌跡を取得して、その案内軌跡を表示する一方、上記ジェスチャー検索手段により前回検索されたジェスチャーがユーザの操作軌跡と合致しなくなると、表示している当該ジェスチャーの案内軌跡を消去する案内軌跡表示手段と、
    上記ジェスチャー検索手段により検索されたジェスチャーが1つに絞られると、そのジェスチャーに割り付けられているコマンドを呼び出すコマンド呼出手段とを備え、
    上記ジェスチャー検索手段は、上記軌跡解析手段により解析された操作軌跡と上記記憶手段に記憶されているジェスチャーを比較して、上記記憶手段に記憶されているジェスチャーの中から、その操作軌跡との誤差が許容範囲内のジェスチャーを検索し、
    上記案内軌跡表示手段は、上記ユーザの操作軌跡が、上記ジェスチャー検索手段により検索されたジェスチャーの案内軌跡全体の所定の割合以上であるかを判定し、所定の割合以上であれば上記記憶手段から該案内軌跡全体を呼び出すことを特徴とするユーザインタフェース装置。
  2. 軌跡解析手段は、ユーザが軌跡入力デバイスから指を離しても、指を離す前の操作軌跡を保持することを特徴とする請求項1記載のユーザインタフェース装置。
  3. 所定のコマンドが割り付けられているジェスチャーを記憶するとともに、そのジェスチャーを誘導する案内軌跡を記憶する記憶手段と、
    軌跡入力デバイスに対するユーザの操作軌跡を解析する軌跡解析手段と、
    上記記憶手段に記憶されているジェスチャーの中から、上記軌跡解析手段により解析された操作軌跡に基づきジェスチャーを検索するジェスチャー検索手段と、
    上記記憶手段から上記ジェスチャー検索手段により検索されたジェスチャーの案内軌跡を取得して、その案内軌跡を表示する案内軌跡表示手段と、
    上記ジェスチャー検索手段により検索されたジェスチャーに割り付けられているコマンドを呼び出し、上記軌跡解析手段により解析される操作軌跡に応じて当該コマンドを実行するコマンド実行手段とを備え、
    上記ジェスチャー検索手段は、上記軌跡解析手段により解析された操作軌跡と上記記憶手段に記憶されているジェスチャーを比較して、上記記憶手段に記憶されているジェスチャーの中で、その操作軌跡と最も類似しているジェスチャーを検索し、
    上記案内軌跡表示手段は、上記ユーザの操作軌跡が、上記ジェスチャー検索手段により検索されたジェスチャーの案内軌跡全体の所定の割合以上であるかを判定し、所定の割合以上であれば上記記憶手段から該案内軌跡全体を呼び出すことを特徴とするユーザインタフェース装置。
  4. 案内軌跡表示手段は、ユーザが軌跡入力デバイスから指を離しても、指を離す前に表示した案内軌跡の表示を維持することを特徴とする請求項3記載のユーザインタフェース装置。
  5. 軌跡入力デバイスに対するユーザの操作軌跡を解析する解析処理を実施し、ユーザの操作軌跡を解析する毎に、予め記憶されているジェスチャーの中から、その操作軌跡との誤差が許容範囲内の1以上のジェスチャーを検索して、そのジェスチャーの案内軌跡を表示し、上記ユーザの操作軌跡が、上記検索されたジェスチャーの案内軌跡全体の所定の割合以上である場合は、該案内軌跡全体を表示するとともに、一方、前回検索したジェスチャーがユーザの操作軌跡と合致しなくなると、表示している当該ジェスチャーの案内軌跡を消去し、そのジェスチャーの検索数が1つに絞られると、そのジェスチャーに割り付けられているコマンドを呼び出すユーザインタフェース方法。
  6. 軌跡入力デバイスに対するユーザの操作軌跡を解析する解析処理を実施し、予め記憶されているジェスチャーの中から、その操作軌跡と最も類似しているジェスチャーを検索して、そのジェスチャーの案内軌跡を表示し、上記ユーザの操作軌跡が、上記検索されたジェスチャーの案内軌跡全体の所定の割合以上である場合は、該案内軌跡全体を表示するとともに、そのジェスチャーに割り付けられているコマンドを呼び出し、その解析処理により解析される操作軌跡に応じて当該コマンドを実行するユーザインタフェース方法。
JP2005155968A 2005-05-27 2005-05-27 ユーザインタフェース装置及びユーザインタフェース方法 Expired - Fee Related JP4684745B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005155968A JP4684745B2 (ja) 2005-05-27 2005-05-27 ユーザインタフェース装置及びユーザインタフェース方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005155968A JP4684745B2 (ja) 2005-05-27 2005-05-27 ユーザインタフェース装置及びユーザインタフェース方法

Publications (2)

Publication Number Publication Date
JP2006331210A JP2006331210A (ja) 2006-12-07
JP4684745B2 true JP4684745B2 (ja) 2011-05-18

Family

ID=37552816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005155968A Expired - Fee Related JP4684745B2 (ja) 2005-05-27 2005-05-27 ユーザインタフェース装置及びユーザインタフェース方法

Country Status (1)

Country Link
JP (1) JP4684745B2 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169493A (ja) * 2008-01-11 2009-07-30 Ntt Docomo Inc タッチパネル表示制御システム、タッチパネル表示制御方法、タッチパネル表示制御プログラム
US9513704B2 (en) * 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
US20090327974A1 (en) * 2008-06-26 2009-12-31 Microsoft Corporation User interface for gestural control
JP2010015238A (ja) 2008-07-01 2010-01-21 Sony Corp 情報処理装置、及び補助情報の表示方法
JP4957750B2 (ja) * 2008-07-31 2012-06-20 ソニー株式会社 情報処理装置および方法、並びにプログラム
US9176663B2 (en) 2009-06-10 2015-11-03 Lenovo Innovations Limited (Hong Kong) Electronic device, gesture processing method and gesture processing program
JP5371626B2 (ja) * 2009-08-18 2013-12-18 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、プログラム及び記憶媒体
JP5306105B2 (ja) * 2009-08-18 2013-10-02 キヤノン株式会社 表示制御装置及び表示制御装置の制御方法、プログラム、記憶媒体
KR101660271B1 (ko) 2009-08-21 2016-10-11 삼성전자주식회사 메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법
JP5501715B2 (ja) * 2009-09-28 2014-05-28 Necパーソナルコンピュータ株式会社 ユーザインターフェース装置、ユーザインターフェース装置の制御方法、及びプログラム
JP5513957B2 (ja) 2010-04-02 2014-06-04 株式会社ジャパンディスプレイ 表示装置、認証方法、およびプログラム
JP2015038642A (ja) 2010-06-09 2015-02-26 株式会社東芝 表示処理装置及び表示処理方法
JP4754653B2 (ja) * 2010-12-06 2011-08-24 株式会社エヌ・ティ・ティ・ドコモ タッチパネル表示制御システム、タッチパネル表示制御方法、タッチパネル表示制御プログラム
JP5604279B2 (ja) * 2010-12-08 2014-10-08 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
AU2010366331B2 (en) * 2010-12-30 2016-07-14 Interdigital Ce Patent Holdings User interface, apparatus and method for gesture recognition
CN102902469B (zh) * 2011-07-25 2015-08-19 宸鸿光电科技股份有限公司 手势识别方法及触控系统
JP5756729B2 (ja) * 2011-10-05 2015-07-29 日本電信電話株式会社 ジェスチャ認識装置及びそのプログラム
JP5060651B2 (ja) * 2011-12-20 2012-10-31 株式会社東芝 表示処理装置、表示制御プログラム及び表示処理方法
CN102739873B (zh) * 2012-07-13 2017-01-18 上海触乐信息科技有限公司 便携式终端设备滑行操作辅助信息输入控制功能的系统及方法
JP5999579B2 (ja) * 2012-09-19 2016-09-28 ブラザー工業株式会社 電子機器及び操作端末の操作表示方法
JP2014215815A (ja) * 2013-04-25 2014-11-17 富士通株式会社 入力装置および入力制御プログラム
JP5486721B2 (ja) * 2013-06-18 2014-05-07 キヤノン株式会社 表示制御装置及び表示制御装置の制御方法、プログラム、記憶媒体
JP5979110B2 (ja) * 2013-09-30 2016-08-24 ブラザー工業株式会社 ヘッドマウントディスプレイ、及び、制御プログラム
JP6322029B2 (ja) * 2014-03-31 2018-05-09 株式会社メガチップス ジェスチャー検出装置、ジェスチャー検出装置の動作方法および制御プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127819A (ja) * 1991-10-31 1993-05-25 Nec Corp ストロークコマンド支援方式

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127819A (ja) * 1991-10-31 1993-05-25 Nec Corp ストロークコマンド支援方式

Also Published As

Publication number Publication date
JP2006331210A (ja) 2006-12-07

Similar Documents

Publication Publication Date Title
JP4684745B2 (ja) ユーザインタフェース装置及びユーザインタフェース方法
US7849421B2 (en) Virtual mouse driving apparatus and method using two-handed gestures
US9128526B2 (en) Operation control device, operation control method, and computer-readable recording medium for distinguishing an intended motion for gesture control
US8390577B2 (en) Continuous recognition of multi-touch gestures
TWI569171B (zh) 手勢辨識
US9665276B2 (en) Character deletion during keyboard gesture
US20110221666A1 (en) Methods and Apparatus For Gesture Recognition Mode Control
KR101094636B1 (ko) 제스처 기반 사용자 인터페이스 시스템 및 그 방법
KR20080104099A (ko) 입력 장치 및 그 입력 방법
JP2018515817A (ja) 視線追跡と音声認識とを組み合わせることにより制御を改善する方法
WO2002008881A2 (en) Human-computer interface
JP2002504722A (ja) ジェスチャーカテゴリー認識およびトレーニングの方法およびシステム
US20150186347A1 (en) Information processing device, information processing method, and computer program product
US10996843B2 (en) System and method for selecting graphical objects
JP2012123608A (ja) ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
US20170205888A1 (en) Gesture ambiguity determination and resolution
US20040001051A1 (en) Information processing apparatus and character input assisting method for use in the same
CN102426483B (zh) 一种面向触控设备的多通道精确目标定位方法
US11656733B2 (en) Position specifying method and program
JPH09237151A (ja) グラフィカルユーザインタフェース
JP2003140791A (ja) 情報処理装置及び情報処理装置の制御方法
KR101307062B1 (ko) 터치패드의 입력 정보 제어방법 및 장치
JPH08315167A (ja) 手書きによるストローク入力時における空白確保の方法
Greene et al. Initial ACT-R extensions for user modeling in the mobile touchscreen domain
JPH0659802A (ja) ペン入力制御装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080411

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110106

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4684745

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees