JPH0612493A - ジェスチャ認識方法およびユーザインタフェース方法 - Google Patents

ジェスチャ認識方法およびユーザインタフェース方法

Info

Publication number
JPH0612493A
JPH0612493A JP19172092A JP19172092A JPH0612493A JP H0612493 A JPH0612493 A JP H0612493A JP 19172092 A JP19172092 A JP 19172092A JP 19172092 A JP19172092 A JP 19172092A JP H0612493 A JPH0612493 A JP H0612493A
Authority
JP
Japan
Prior art keywords
gesture
standard
input
time
time series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP19172092A
Other languages
English (en)
Inventor
Shiyunsuke Akifuji
俊介 秋藤
Masahiro Oba
雅博 大場
Masanori Tamano
真紀 玉野
Tadashi Hirose
正 広瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP19172092A priority Critical patent/JPH0612493A/ja
Publication of JPH0612493A publication Critical patent/JPH0612493A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

(57)【要約】 【目的】 多量の学習データを与えず、利用者が設定し
たジェスチャを認識できるジェスチャ認識方法を提供す
ることにある。 【構成】 予め設定した標準ジェスチャを一定時間毎の
座標の時系列で表現し、該座標値の時系列から速度ベク
トル時系列を計算し(104)、該速度ベクトル時系列
に基づき角度変位時系列を求め(106)、該角度変位
時系列を貯蔵しておく。未知のジェスチャの座標値が入
力される度に、該座標値と予め設定した一定時間前の座
標値とから速度ベクトルを計算し(114)、該速度ベ
クトルと予め設定した一定時間前の速度ベクトルとから
角度変位を計算し(118)、全ての標準ジェスチャに
対して、入力したジェスチャと各標準ジェスチャの角度
変位時系列を特徴ベクトルとしてDPマッチングを行い
距離を計算し(120)、該距離が最小である標準ジェ
スチャを認識結果とする(122)。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ペンやマウスなどで入
力されたジェスチャと呼ばれる軌跡のパタンを認識し、
認識したジェスチャに対応するコマンドを実行させるコ
ンピュータのユーザインタフェースに係り、特に前記ジ
ェスチャの認識方法および該認識方法を用いたユーザイ
ンタフェース方法に関する。
【0002】
【従来の技術】コンピュータのユーザインタフェースの
新しい方法として、マウスでメニューを指したり、キー
ボードからコマンドを打ち込む代わりにジェスチャと呼
ばれるペンやマウスなどで描いた軌跡のパタンを認識
し、あらかじめ定義したジェスチャのパタンが現れたと
きに対応するコマンドを実行させるペンOSやペンシス
テムなどと呼ばれるものが開発されてきた。これらのシ
ステムで用いられる従来のジェスチャ認識方法として
は、例えば、特開平3−71322号公報に記載されて
いるように、座標入力装置から得た座標、移動速度、持
つ指の圧力をニューラルネットワークに与えパタン認識
を行い、ジェスチャのパタンに対応するコマンドを実行
するようになっていた。
【0003】
【発明が解決しようとする課題】前記従来技術では、ニ
ューラルネットワークを用いているので、重みを計算す
るためには多量の学習データを必要とする。また、座標
入力装置を持つ指の圧力、座標、移動速度を特徴量とし
ているので利用者にとっては同じジェスチャにもかかわ
らず速度や、動作の大きさによって希望した認識結果を
得られないことがある。本発明の目的は、多量の学習デ
ータを与えず、利用者が設定したジェスチャを認識でき
るジェスチャ認識方法を提供することにある。本発明の
他の目的は、ジェスチャの速度や大きさが変化した場合
も正しい認識結果を得ることが可能なジェスチャ認識方
法を提供することにある。本発明のさらに他の目的は、
上記ジェスチャ認識方法を用いたユーザインタフェース
方法を提供することにある。
【0004】
【課題を解決するための手段】上記目的達成のため、本
発明では、予め設定した標準ジェスチャを一定時間毎の
座標の時系列で表現し、該座標値の時系列から速度ベク
トル時系列を計算し、該速度ベクトル時系列中のあらか
じめ設定した一定時間間隔だけ離れた2個の速度ベクト
ルのなす角度を計算し、角度変位時系列を求め、該角度
変位時系列を貯蔵しておく。未知のジェスチャの座標値
が入力される度に、該座標値と予め設定した一定時間前
の座標値とから速度ベクトルを計算し、該速度ベクトル
と予め設定した一定時間前の速度ベクトルとから角度変
位を計算し、全ての標準ジェスチャに対して、入力した
ジェスチャと各標準ジェスチャの角度変位時系列を特徴
ベクトルとしてDPマッチングを行い距離を計算し、該
距離が最小である標準ジェスチャを認識結果とするよう
にしている。また、未知のジェスチャの座標値が入力さ
れる度に、前記速度ベクトルに代えて、入力した座標値
の時系列を曲線で補間し、一定時間間隔の各時点で該曲
線の接線ベクトルを計算し、該接線ベクトルから角度変
位を計算するようにしている。また、距離が最小である
標準ジェスチャを認識結果とすることに代えて、該距離
が最小である時間が予め定めた一定時間以上連続する標
準ジェスチャを認識結果とするようにしている。また、
距離が最小である標準ジェスチャを認識結果とすること
に代えて、未知のジェスチャの入力座標の個数が増加す
るにつれて、該距離が減少し、再び増加する標準ジェス
チャの中で該距離が最小であるものを認識結果とするよ
うにしたものである。また、距離が最小である標準ジェ
スチャを認識結果とすることに代えて、該距離が最小で
あり、かつ予め設定した値以下である標準ジェスチャを
認識結果とするようにしている。さらに、予め標準ジェ
スチャに対応するコマンドを貯蔵しておき、ジェスチャ
認識方法を用いて認識結果を得、該認識結果に対応する
コマンドを実行するようにしている。
【0005】
【作用】標準ジェスチャと入力したジェスチャの速度ベ
クトルから計算した角度変位時系列を特徴ベクトルとし
てDPマッチングを行い、求めた距離が最小である標準
ジェスチャを認識結果とするようにしたので、多量の学
習データを必要とせず、利用者が設定したジェスチャを
認識できる。また、角度変位はジェスチャの速度や大き
さが変化した場合も変化が少ないので、正しい認識結果
を得ることが可能である。また、入力された未知のジェ
スチャとの距離が最小である時間が予め定めた一定時間
以上連続する標準ジェスチャ、または未知のジェスチャ
の入力座標の個数が増加するにつれて、該距離が減少
し、再び増加する標準ジェスチャ、または、距離が最小
であり、かつ予め設定した値以下である標準ジェスチャ
を認識結果とするようにしたので、距離の絶対値よりさ
らに一層速度や大きさの影響が少なく、正しい認識結果
を得ることが可能である。さらに、上記認識結果が得ら
れたとき、該認識結果に対応するコマンドを実行するた
め、ユーザインタフェースを早く、容易にとることがで
きる。
【0006】
【実施例】以下、本発明の一実施例を図面に基づいて詳
細に説明する。図1は、本発明をワークステーションの
コマンド入力処理に適用した場合の処理手順の一実施例
を示すフローチャートであり、図2は、マウスを用いた
コマンド入力処理の一実施例に適用される装置の構成図
である。図3は、次頁表示を表す標準ジェスチャ、図4
は、前頁表示を表す標準ジェスチャ、図5は、処理終了
を表す標準ジェスチャであり、それぞれワークステーシ
ョンのコマンドである「次頁表示」、「前頁表示」、
「処理終了」に対応する。図6は速度ベクトルの計算方
法を説明するための図であり、図7は角度変位の計算方
法を説明するための図であり、図8は入力された未知の
ジェスチャを表す図である。図9と図10はDPマッチ
ングの処理手順の一例を示すフローチャートであり、図
11は入力時刻に対する入力ジェスチャと標準ジェスチ
ャ間の距離の推移を示す図であり、図12は、本発明の
ジェスチャ認識方法において認識結果が得られたときに
表示する認識結果の表示例である。
【0007】図2において、2はワークステーションの
コマンド入力処理を利用している利用者であり、4は、
利用者2が手に持ち、机の上を前後左右に移動したとき
に直行する2座標軸に沿った座標値を任意の時間に入力
するマウスである。6は、図3から5の標準ジェスチャ
の座標値、角度変位時系列、速度ベクトル、角度変位、
DPマッチングの途中結果を蓄える記憶部である。8は
マウス4から入力された座標値から速度ベクトルと角度
変位を計算し、入力されたジェスチャの速度ベクトルと
角度変位を得、記憶部6の標準ジェスチャの角度変位時
系列とマッチングを行い、標準ジェスチャと入力ジェス
チャの間の距離を計算し、認識結果を判定する計算部で
ある。10は、計算部で得られた結果の標準ジェスチャ
を表示する表示部であり、12は、一定時間間隔で割込
みを発生するタイマ、14は、コマンドを入力するキー
ボードである。
【0008】図3乃至図5は、本実施例を説明するため
の標準ジェスチャの座標とそれらを線分で結んだもので
あり、左から右向きにX座標、上から下向きにY座標と
する。図3において、30から39は次頁表示を指示す
るため予め定められた標準ジェスチャを一定時間毎の座
標の時系列で表現したときの座標であり、40から49
は、座標30から39を結んだ線分である。
【0009】図4において、50から59は前頁表示を
指示するため予め定められた標準ジェスチャを一定時間
毎の座標の時系列で表現したときの座標であり、60か
ら69は、座標50から59を結んだ線分である。図5
は70から79は処理終了を指示するため予め定められ
た標準ジェスチャを一定時間毎の座標の時系列で表現し
たときの座標であり、80から89は、座標70から7
9を結んだ線分である。
【0010】本実施例のコマンド入力処理は、標準ジェ
スチャに対応するコマンドを入力する以外はキーボード
やスイッチなどマウス以外の装置を操作する必要がない
ことを特徴とする。
【0011】以下、図1に示すフローチャートに基づき
実施例の動作を説明する。処理が開始される(ステップ
100)と、利用者2はマウス4を操作し、図3乃至図
5の3個の標準ジェスチャの座標を入力し、それら座標
値を入力された順に記憶部6に記憶し、対応させるコマ
ンドをキーボード12から入力し、コマンドを記憶部6
に記憶する(ステップ102)。ステップ102におい
て、表1乃至表3の座標値を入力したとする。表1乃至
表3において、時刻はタイマ12で数えた一定時間の経
過回数を示し、XとYは、それぞれ座標のX成分とY成
分である。
【0012】
【表1】
【0013】
【表2】
【0014】
【表3】
【0015】次に、計算部8は3個の標準ジェスチャの
座標値から速度ベクトル時系列を計算する(ステップ1
04)。
【0016】以下、速度ベクトル時系列の計算方法を図
6を用いて説明する。図6において、30から32と4
0から42はそれぞれ図3の座標30から33と線分4
0から43である。図6において座標30のX成分が
0、Y成分が0であり、座標31のX成分が65、Y成
分が−40であり、座標32のX成分が110、Y成分
が−13であるとする。ある時刻iの速度ベクトルの2
成分であるVXiとVYiは、それぞれ数1と数2を用
いて計算する。
【0017】
【数1】VXi=Xi−Xi-1 ‥‥‥(数1)
【0018】
【数2】VYi=Yi−Yi-1 ‥‥‥(数2) 例えば、図3の次頁表示を表す標準ジェスチャの時刻1
における速度ベクトルは、時刻1に対応する座標31の
X座標=65とY座標=−40と、時刻0に対応する座
標30のX座標=0とY座標=0を式1と2に代入して
VX=65、VY=−40となる。以上の処理を3個の
ジェスチャについて時刻0から9まで行い、速度ベクト
ル時系列を得る。ステップ104で得た結果を表4から
表6に示す。表4から6において時刻は表1から3の時
刻であり、VXとVYは、それぞれ速度ベクトルのX成
分とY成分である。
【0019】
【表4】
【0020】
【表5】
【0021】
【表6】
【0022】次に、速度ベクトル時系列から角度変位時
系列を計算する(ステップ106)。
【0023】以下、図7を用いて、角度変位時系列の計
算を説明する。図7において30から32は図3の座標
30から32であり、41と42は図3の線分41と4
2であり、700は座標32を通り線分41と平行な直
線で、702は座標30を通り線分42と平行な直線で
あり、704は線分41と直線702のなす角度であ
る。時刻iの角度変位は時刻iの速度ベクトルと時刻
(i−1)のなす角度とする。ここで、角度変位の絶対
値は数3に示すように速度ベクトルの内積の余弦の逆関
数から計算し、符号は数4に示す2個の速度ベクトルの
外積と等しくする。
【0024】
【数3】
【0025】
【数4】 角度変位の符号=VXi・VYi-1−VXi-1・VYi ‥‥(数4) 例えば、時刻2の角度変位は、次頁表示を表すジェスチ
ャの時刻2の速度ベクトルの2成分が、それぞれVX=
45とVY=27であり、時刻1の速度ベクトルの2成
分が、それぞれVX=65とVY=−40であるから、
これを数3に代入して角度の絶対値は1.092とな
り、数4から符号は、マイナスとなり、合わせて角度変
位は−1.092となる。
【0026】以上の処理を3個のジェスチャについて時
刻1から9まで行い、角度変位時系列を得る。ステップ
106で得た結果を表7から表9に示す。表7から9に
おいて時刻は表1から6の時刻であり、Tは角度変位で
ある。
【0027】
【表7】
【0028】
【表8】
【0029】
【表9】
【0030】以上の処理(ステップ102から106)
で得た結果は記憶部6に蓄える。
【0031】次に、タイマ12で時刻が1だけ経過する
度(ステップ108)に、利用者2が操作するマウス4
の座標値を1個だけ入力する(ステップ110)。ここ
で、座標の入力は時刻100から開始されるとする。ま
た、以下の処理において時刻100から時刻113の各
時点で入力するジェスチャを図8とし、その座標は表1
0であるとする。図8において、左から右向きにX座
標、上から下向きにY座標とし、1000から1013
は入力ジェスチャを一定時間毎の座標の時系列で表現し
た座標であり、1020から1033は、座標1000
から1013を結んだ線分である。
【0032】
【表10】
【0033】また、表10において時刻は一定時間の経
過回数を示し、XとYは、それぞれ入力ジェスチャの座
標のX成分とY成分である。
【0034】ステップ110で座標を入力すると、2個
以上の座標を入力したか否かを判定し、2個以上の座標
を入力したときはステップ114へ進み、そうでないと
き、つまり初めて入力ジェスチャの座標を入力したとき
はステップ108へ戻る(ステップ112)。ここで
は、時刻100で初めて入力ジェスチャの座標を入力し
たので、ステップ108へ戻る。次にステップ108で
時刻が1だけ経過して時刻101になったとし、ステッ
プ110で利用者2が操作するマウス4の座標値を1個
だけ入力する。するとステップ112ですでに1個以上
の座標を入力しているので、ステップ114へ進み速度
ベクトルを計算する。速度ベクトルはステップ104と
同様に、入力された座標値と、その時刻より1だけ以前
に入力された時刻の座標値を数1と数2に代入して得
る。例えば、時刻100の入力ジェスチャの座標のX成
分は60であり、Y成分は3であり、時刻101のX成
分は70であり、Y成分は23であるから、時刻101
の速度ベクトルのVXは60であり、VYは3となる。
次に、入力座標をすでに3個以上入力しているか否かを
判定し、3個以上入力しているならばステップ118へ
進み、そうでないならばステップ108へ戻る(ステッ
プ116)。ここでは、時刻100と101で2個だけ
入力しているのでステップ108へ戻る。再びステップ
108で時刻が1だけ経過して時刻102になったと
し、ステップ110で利用者2が操作するマウス4の座
標値を1個だけ入力し、ステップ112ですでに1個以
上の座標を入力しているので、ステップ114へ進み速
度ベクトルを計算し、ステップ116で3個座標を入力
しているのでステップ118へ進む。
【0035】ステップ118では、ステップ106と同
様の方法で速度ベクトルから角度変位を計算する。角度
変位の絶対値は数3を用いて計算し、符号は数4に示す
2個の速度ベクトルの外積と等しくする。例えば、時刻
102の角度変位は、時刻102の速度ベクトルのVX
が56であり、VYが38であり、時刻101のVX=
60であり、VYが3であるので、角度変位Tは−0.
546となる。次に、ステップ118で得えた角度変位
と記憶部6に蓄えた標準ジェスチャの角度変位時系列か
らDPマッチングを行い、各標準ジェスチャと入力した
ジェスチャ間の距離を計算する(ステップ120)。
【0036】DPマッチングは中川聖一著、「音声認識
における時系列パターン照合アルゴリズムの展開」 人
工知能学会誌、第3巻第4号(1988年)、411頁
から423頁 に記載されているように、入力した音声
とあらかじめ記憶した音声の比較において、両者をそれ
ぞれ一定時間間隔毎の特徴量の時系列であるパタンで表
してとき、時間軸に非線形な変換を施すことによりパタ
ーン長の差の影響をできるかぎり吸収した距離を計算し
ようとする方法である。以下、一般的なDPマッチング
を詳細に説明する。2つのパタンAとB間の距離を数5
に示すように成分ベクトル間の距離の荷重平均の最小値
で距離を定義する。
【0037】
【数5】
【0038】数5において、FはAとB両パタンの時間
の対応を表した点列であり、c(k)はFを構成する点
列のk番目の点であり、Kは点列Fを構成する点の数で
あり、d(c(k))は点c(k)に対応するパタンA
とBの要素の差の絶対値であり、w(k)は重み係数で
ある。また、分母は点列Fを構成する点の数によるパタ
ンAとB間の距離の差を補正するための正規化係数であ
る。2個のパタンの各成分の対応の選択によって最小値
は変化するので、最小値は、すべての対応について数5
の分子、分母を計算する必要がある。ここで、分母を系
列Fに依存しないようにすると数6のような加法的にな
るので、その最小化は動的計画法の手法で効率的に計算
できる。
【0039】
【数6】
【0040】数6においてNは数5の分母である。
【0041】以下、動的計画法を用いた数6の最小化に
ついて説明する。まず、部分点列に対する部分和g(c
(k))を考えると、数7のように記述できる。
【0042】
【数7】
【0043】数7において、i(k)は点c(k)のA
の要素番号であり、j(k)はc(k)のBの要素番号
であり、c(m)…c(k−1)はm番目からk−1番
目までのFを構成する部分点列を表す。さらに、数7を
変形すると数8のようになる。
【0044】
【数8】
【0045】ここで、w(k)を数9とすると、
【0046】
【数9】 w(k)={i(k)−i(k−1)}+{j(k)−j(j−1)} ‥‥(数9) 点列に対する単調連続性の条件、つまり常にiとjの少
なくともいずれか一方が1だけ増加することから、c
(k−1)は(i(k),j(k)−1)、(i(k)
−1,j(k))、(i(k)−1,j(k)−1)の
いずれかであるとすると、数8は3通りのc(k−1)
のうちg(c(k−1))とd(c(k))w(k)の
和が最小になるc(k−1)を選択して代入すれば良い
ので、数8は数10のようになる。
【0047】
【数10】
【0048】数10においてiとjは、それぞれi
(k)とj(k)である。従って、数6の最小化問題は
数10を繰り返し計算することによって解ける。AB両
パタンの距離D(A,B)は数11であるから、数10
を繰り返し計算すれば良い。
【0049】
【数11】 D(A,B)=g(I,J)/N ‥‥(数11) 数11において、IとJは、それぞれパタンAとBの特
徴ベクトルを構成する成分ベクトル最後の要素の番号、
つまりパタンの長さであり、Nは数6のNと同じであ
る。
【0050】数10の3個の式で1番の式が最小である
場合は、パタンAのi番目の要素に対してパタンBのj
番目とj−1番目の要素を対応させたこと、つまり1個
のAの要素に対してパタンBの2個の要素を対応させる
ことであり、同様に3番目の式が最小である場合は、1
個のパタンBの要素にパタンAの2個の要素を対応させ
るていることを示している。これはiとjを等時間間隔
で取った場合に時間軸に非線形な変換を行い、パターン
長の差の影響を吸収したときのパタンAとBの距離を求
めることに他ならない。本発明はこのDPマッチングを
標準ジェスチャと入力ジェスチャの両角度変位時系列間
の距離の計算に用いたものである。
【0051】以下、ステップ120で行うDPマッチン
グの計算手順を図9と図10に基づいて説明する。図9
と図10において、iとjはそれぞれ入力ジェスチャと
標準ジェスチャの角度変位の順番であり、0から開始す
る。i=0は、入力ジェスチャの時刻102に対応し、
j=0は、標準ジェスチャの時刻2に対応するとする。
また、iとjは角度変位の順番なので、それぞれ1ずつ
増加する毎に時刻も1ずつ増加する。また、gは距離を
計算するために用いる2次元配列であり、d(i,j)
は入力したジェスチャのi番目の角度変位と、ある一つ
の標準ジェスチャのj番目の角度変位の差の絶対値を表
す関数である。L(i,j)は計算途中での重みw
(k)に相当する値の和を記憶する2次元配列である。
なお、以下では表7で表される標準ジェスチャに対して
入力ジェスチャとの距離を求める処理を例とするが、他
の2個の標準ジェスチャについても同様の処理を行う。
【0052】処理が開始される(ステップ200)と初
期状態であるかを判定し、初期状態であるならば、ステ
ップ204へ進み、そうでないならば、ステップ220
へ進む(ステップ202)。ここでは、時刻102が初
期状態であるとする。このときiを0とする。初期状態
であるので、ステップ204へ進み、g(0,0)にd
(0,0)に2を乗じた値を代入し、L(0,0)に2
を代入する。ここでd(0,0)は、入力ジェスチャの
0番目の角度変位である−0.546と次頁表示を表す
標準ジェスチャの0番目の角度変位である−1.092
の差の絶対値0.546となり、g(0,0)は1.0
92となる。
【0053】次にjを1とし(ステップ206)、jが
標準ジェスチャの時刻の最大値から最小値を減じた値に
1を加えた標準ジェスチャ長であれば、ステップ214
へ進み、等しくなければステップ210へ進む(ステッ
プ208)。ここでは、j=1であり、標準ジェスチャ
長は9から2を減じた7に1を加えた8であるからステ
ップ210へ進み、g(0,j)へd(0,j)に2を
乗じた値とg(0,j−1)を代入し、L(0,j)に
L(0,j−1)に1だけ加えた値を代入する(ステッ
プ210)。ここで、iは0であり、jは1であり、g
(0,0)は時刻102の入力ジェスチャの角度変位で
ある−0.546と次頁表示を表わす標準ジェスチャ−
のj=1に対応する角度変位である−0.960の差の
絶対値0.414であるからg(0,1)には1.09
2と0.414の和、1.506を代入し、L(0,
1)に2と1の和である3を代入する。
【0054】次にjを1だけ増加し(ステップ21
2)、jが標準パタン長になるまでステップ208から
212を繰り返し、ステップ214へ進み、g(i、j
−1)をL(i,j−1)で除し、これを距離とする
(ステップ214)。ここで、iは0であり、jはステ
ップ212で1ずつ増加したので8であり、j−1は7
となり、ステップ210を繰り返すとg(0,7)は、
3.355となり、L(0,7)は、9となるから、距
離は0.373となる。
【0055】次に、iを1だけ増加させ(ステップ21
6)、終了し(ステップ218)、ステップ122へ進
む。ステップ122において、認識条件を満たすときは
ステップ124へ進み、満たさないときはステップ10
8へ戻る(ステップ122)。ここでは、距離が0.3
未満であった回数が連続して2回続くことを認識条件と
する。すると、距離は0.373であるので認識条件を
満たさず、ステップ108へ戻る。次にステップ108
で一定時間が経過したとし、その時刻を103とする。
ここで、ステップ110で時刻103の入力座標値とし
てX=148、Y=121を入力し、上述のようにステ
ップ114で速度ベクトルのVXを22とし、VYを6
0とし、ステップ118で角度変位−0.623を得た
とする。
【0056】次に、ステップ120からステップ200
へ進み、ステップ202において、初期状態でないの
で、ステップ220へ進み、DPマッチング2の処理
(図10)を行う。処理が開始すると(ステップ22
2)、変数d1にg(i−1,0)とd(i,0)の和
をL(i−1,0)に1を加えた値で除した値を代入
し、d2にd(i,0)に2を乗じた値を代入する(ス
テップ224)。ここで、iは1であり、g(0,0)
は、1.092であり、d(1,0)は0.469であ
り、L(0,0)は2であるから、d1は0.520と
なり、d2は0.938となる。次にd1とd2の大小
関係を判定し、d1がd2より小であるならば、ステッ
プ228へ進み、そうでないならばステップ230へ進
む(ステップ226)。ここでは、d1がd2より小さ
いのでステップ228へ進み、g(i,0)にg(i−
1,0)とd(i,0)の和を代入し、L(i,0)に
L(I−1,0)に1を加えた値を代入する。ここで、
iは1であり、g(0,0)は、1.092であり、d
(1,0)は0.469であるからg(1,0)は1.
561となり、L(0,0)は2であるから、L(1,
0)は3となる。
【0057】次に、jを1とし(ステップ232)、j
が標準パタン長であるならばステップ246へ進み、そ
うでないならばステップ236へ進む。ここではjが1
であるからステップ236へ進む。次に、d1にg(i
−1,j)とd(i,j)の和を代入し、d2にg(i
−1,j−1)とd(i,j)に2を乗じた値の和を代
入し、d3にg(i,j−1)とd(i,j)の和を代
入する(ステップ236)。ここではiとjは共に1で
あり、d(1,1)は表11からiが1に対応する時刻
103の角度変位は−0.623であり、表7からjが
1に対応する時刻3の次頁表示の標準ジェスチャの角度
変位は−0.960であり、g(0,1)は、1.50
6、g(0,0)は1.092、g(1,0)は1.5
61であったからd1は1.843となり、d2は1.
766となり、d3は1.893となる。
【0058】次にd1、d2、d3の中から最小値を求
め、d1が最小値であるときはステップ240へ進み、
d2が最小値であるときはステップ242へ進み、d3
が最小値であるときはステップ244へ進み(ステップ
238)、ステップ240へ進んだ場合はg(i,j)
にd1を代入し、L(i,j)には、L(i−1,j)
に1を加えた値を代入し、ステップ242へ進んだ場合
はg(i,j)にd2を代入し、L(i,j)には、L
(i−1,j−1)に2を加えた値を代入し、ステップ
244へ進んだ場合はg(i,j)にd3を代入し、L
(i,j)には、L(i,j−1)に1を加えた値を代
入する。ここではd2が最小値であるからステップ24
2へ進み、g(1,1)に1.766を代入し、L
(1,1)にL(0,0)+2、つまり4を代入する。
ステップ240、242、244いずれの場合も、次に
246へ進み、DPマッチング2の処理を終了し、ステ
ップ214へ進む。次に、上記と同様にステップ216
を経てステップ218へ進み、DPマッチングの処理を
終了しステップ122へ進む。
【0059】以上のステップ108から120を時刻1
09まで行ったとする。このときの速度ベクトルと角度
変位をそれぞれ表11と表12に示す。また、ステップ
214で得た各標準ジェスチャに対する距離の変化の様
子を図11に示す。表11において時刻は表10の時刻
であり、VXとVYは速度ベクトルの2成分であり、S
は角度変位である。図11において、横軸はiの増加す
る方向であり縦軸は入力ジェスチャと各標準ジェスチャ
との距離を表す。また、3種類の折線は、それぞれ次頁
表示と前頁表示と処理終了を表すジェスチャに対する距
理をプロットし、線分で結んだものである。
【0060】
【表11】
【0061】
【表12】
【0062】次にステップ122へ進み、次頁表示の時
刻108での距離が0.23であり、時刻109の距離
が0.24であるので、上述の認識条件を満たすので、
ステップ124へ進む。ステップ122では、既に得ら
れている速度ベクトルの大きさを調べ、その大きさが予
め定めた値を越えたときのみ認識結果を出力するように
してもよい。このようにすることにより、マウス操作者
の入力操作には関係のない手の小さな動きにより、不用
な認識結果が出力されることを防止することができる。
ステップ124では、距離が最小の標準ジェスチャを認
識結果とし、その座標値を曲線で結んだ線画を表示部1
0へ表示する。ここでは、次頁表示に対応する標準パタ
ンが認識結果となるので、図12に示す図形を表示す
る。図12において30から39は図3の座標30から
39であり、800は座標30から39を滑らかに結ん
だスプライン曲線である。認識結果が得られない場合に
は、標準パターンの表示は行なわない。また、各標準ジ
ェスチャの軌跡を貯蔵しておき、認識結果の標準ジェス
チャの軌跡を表示するようにしてもよい。次に、ステッ
プ126へ進み、次頁表示のコマンドを実行し、ステッ
プ108へ戻る。再び他のジェスチャを入力し、上述の
処理によって、それが処理終了を表すジェスチャである
と認識されるとステップ126で処理終了のコマンドが
実行されると処理を終了する。
【0063】上記実施例によれば、速度ベクトルの角度
変位を用いているのでジェスチャの大きさとマウスを動
かす速度よって認識結果が変化することが少なく、認識
率を高めるために多量のジェスチャデータを学習させる
必要がない。さらに、DPマッチングは局所的な距離が
最小になるように時間の伸縮を行っているのでジェスチ
ャの時間間隔が伸び縮みしても認識率が大きくは変化し
ない。また、本実施例では、ジェスチャの開始点や終了
点を入力する処理を行わないので、開始と終了を指示す
るためのボタンなどを備えた座標入力装置を用いる必要
がない。また、本実施例では、認識したとき標準ジェス
チャの軌跡を表示するので利用者は認識されたことを容
易に知ることができる。さらに、通常は軌跡を表示しな
いので人間の反応知覚に影響を与えず、利用者の動作が
遅くならない。また、ジェスチャの認識によってコマン
ドを実行するのでキーボードの操作やメニューの選択な
どの操作を少なくでき、操作性を向上することが可能で
ある。
【0064】以上の実施例では、ステップ122の認識
条件を認識条件を距離が0.3未満であった回数が連続
して2回続くこととし、この条件を満たした標準ジェス
チャを認識結果としたが、これに代えて入力ジェスチャ
の入力座標の個数が増加するにつれて距離が減少し、再
び増加する標準ジェスチャの中で該距離が最小のものを
認識結果としても良い。また、該距離が最小で、かつ予
め設定した値以下のものを認識結果としても良い。認識
条件をこのように代えると、例えば図11に示したよう
に、入力ジェスチャと3個の標準ジェスチャの距離は共
に時刻106まで減少し、時刻105で増加し、最小の
距離となる標準ジェスチャは次頁表示の表わす標準ジェ
スチャであるから、時刻105でステップ122の条件
を満たし、ステップ124へ進む。この実施例では、上
記の「0.3未満」のような認識条件として予め標準ジ
ェスチャが満たすべき距離を数値で設定する必要がな
い。また、認識条件を認識条件を距離が0.3未満であ
った回数が連続して2回続き、かつ入力ジェスチャの入
力座標の個数が増加するにつれて距離が減少し、再び増
加する標準ジェスチャが存在する場合としてもよいこと
はいうまでもない。この実施例では、距離が増加するこ
とは入力ジェスチャのパタンが標準ジェスチャのパタン
からずれはじめたことを意味し、入力ジェスチャの入力
途中にコマンドが実行されず、次の異なるジェスチャが
入力した場合にコマンドが実行されるようにできる。さ
らに、ステップ122の認識条件に速度ベクトルの絶対
値が予め設定した一定値以上であることを加えても良
い。速度ベクトルの絶対値は数12で計算する。
【0065】
【数12】
【0066】本実施例によれば、利用者の無意識の動作
では速度ベクトルの絶対値が小さく、意図したジェスチ
ャ以外で誤動作することがない。
【0067】以上の実施例では数1と数2で速度ベクト
ルを入力された時点と、それより1度だけ前に入力され
た座標から計算したが、数13と数14に示すように2
度前の時点で入力された座標を用いても良い。
【0068】
【数13】VXi=Xi−Xi-2 ‥‥(数13)
【0069】
【数14】VYi=Yi−Yi-2 ‥‥(数14) このとき速度ベクトルは入力ジェスチャの座標値を3個
以上入力した場合でないと計算できないので、ステップ
112では、すでに2個以上の座標を入力したか否かを
判定することに代えて、3個以上の座標を入力したか、
否かを判定するようにする。また、ステップ116でも
同様に3個以上の座標を入力したか否かを判定すること
に代えて、4個以上の座標を入力したか否かを判定する
ようにする。この場合、座標値の1個が他と大きく異な
るような場合にも角度変位は滑らかになるので、認識率
を高めることができる。
【0070】以上の実施例では、入力された座標値だけ
を用いて速度ベクトルと角度変位を計算したが、ステッ
プ112で入力した座標値から速度ベクトルを求めると
共に得た座標を曲線で補間し、時刻が連続する2個の座
標から等しい距離だけ離れた直線と曲線の交点での接線
を求め、その接線の方向ベクトルを速度ベクトルとして
も良い。以下、図13を用いてこの実施例を説明する。
図13において、30から32と41と42は、それぞ
れ図3および図6の座標30から32と41と42であ
る。また、900は座標30から32を通2次曲線であ
り、902は線分42を垂直に2分する直線であり、9
04は2次曲線900と直線902との交点であり、9
06は交点904で曲線900で接する接線の方向ベク
トルである。
【0071】まず、座標30から32の各X成分とY成
分を数15に代入し、これを解いて2次曲線900の3
個の係数a、b、cを得る。未知数がa、b、cの3個
で、連立方程式が3個であるからガウスの消去法などで
解くことができる。
【0072】
【数15】
【0073】例えば、座標30のX成分とY成分が、共
に0であり、座標31のX成分とY成分が、それぞれ6
5と−40であり、座標32のX成分とY成分が、それ
ぞれ110と−13であるので、aは0.01105、
bは−1.334、cは0となる。次に、座標のX成分
がX0でY成分がY0である点と座標のX成分がX1で
Y成分がY1である点を結んだ線分を垂直に2分する直
線902は数16のように表わすことができるので、座
標31と32の各X成分とY成分を数16に代入し、線
分42を垂直に2分する直線902を得る。ここで、数
16に座標31のX成分とY成分の値である、65と−
40と座標32のX成分とY成分の値である110と−
13を代入し、数17を得る。
【0074】
【数16】
【0075】
【数17】 Y=−1.667X+119.3 ‥‥(数17) 次に数15にa、b、cを代入し、この式と数17の連
立方程式を解き、交点の座標を得る。ここでは、aは
0.01105、bは−1.334、cは0であるから
数17は数18のようになり、連立方程式を解くとX成
分とY成分が89.92と−30.6である点と−12
0.1と319.4である点を得る。
【0076】
【数18】
【0077】得た点のうち数15にa、b、cを代入し
た曲線上で座標31と座標32の間に存在するものを二
次曲線900と直線902との交点904とする。ここ
では、X成分とY成分が89.92と−30.6である
点が交点904となる。次に、座標のX成分がX3でY
成分がY3である点で接する数15で表わされる曲線の
接線は数19で表わすことができる。この接線の方向ベ
クトルのX成分は数19の係数から数20で表わすこと
ができ、Y成分は1であるから、数20に上述の処理で
得たa、b、X3を代入して方向ベクトル906を得
る。
【0078】
【数19】 Y−Y3=(2a・X3+b)(X−X3) ‥‥(数19)
【0079】
【数20】 並行ベクトルのX成分=2a・X3+b ‥‥(数20) ここでは、X3は89.92であり、aは0.0110
5、bは−1.334、であるから方向ベクトル906
のX成分は0.6532となる。次に、得た方向ベクト
ル906を速度ベクトルとし、時刻的な順番を座標31
を入力したときの速度ベクトルと座標32を入力したと
きの速度ベクトルの間にする。この実施例によれば、座
標が入力された時刻における速度ベクトルだけでなく、
加えて入力した座標値の補間を行い、補間した点におけ
る速度ベクトルを求めるので、ステップ118で入力座
標数より多くの角度変位を計算でき、入力した座標の個
数が少ない場合でも認識を行うことができる。
【0080】
【発明の効果】本発明では、速度ベクトルの角度変位を
用いているのでジェスチャの大きさよって認識結果が変
化することが少ない。さらに、DPマッチングを用いて
いるのでジェスチャの時間間隔が伸び縮みしても認識率
が大きく変化しない。また、一定時間ごとに座標値を入
力し、その度にDPマッチングを行っているのでマッチ
ングに用いるデータ数を適切に設定すれば、データ数が
少ない短時間の動作やデータの変化が少ない長い動作は
異なった時系列データとなるので認識されず、利用者の
意図しない動作で誤動作することがない。また、ボタン
などの開始と終了を指示する装置を備えない座標入力装
置を用いた場合においても開始点と終了点を指示する必
要がない。さらに、入力した座標値の補間を行い、角度
変位を計算するので、入力した座標の個数が少ない場合
でも認識を行うことができる。また、認識したとき標準
ジェスチャの軌跡を表示するので利用者は認識されたこ
とを容易に知ることができる。さらに、標準ジェスチャ
を時間をパラメタとする関数で記述するので、標準ジェ
スチャを表示するときに装置にあわせた適当な倍率で表
示できる。さらに、通常は軌跡を表示しないので人間の
反応知覚に影響を与えず、利用者の動作が遅くならな
い。また、ジェスチャの認識によってコマンドを実行す
るのでキーボードの操作やメニューの選択などの操作を
少なくでき、操作性を向上することが可能である。
【図面の簡単な説明】
【図1】本発明の一実施例を示すフローチャートであ
る。
【図2】本発明の一実施例に適用される装置構成を説明
する図である。
【図3】次頁表示を表す標準ジェスチャの例を示す図で
ある。
【図4】前頁表示を表す標準ジェスチャの例を示す図で
ある。
【図5】処理終了を表す標準ジェスチャの例を示す図で
ある。
【図6】速度ベクトルの計算方法を説明するための図で
ある。
【図7】角速度の計算方法を説明するための図である。
【図8】入力するジェスチャの例を示す図である。
【図9】DPマッチングのフローチャートである。
【図10】DPマッチング2のフローチャートである。
【図11】入力時刻に対する入力ジェスチャと標準ジェ
スチャ間の距離の推移を示す図である。
【図12】認識結果の表示例を示す図である。
【図13】ジェスチャの補間を説明するための図であ
る。
【符号の説明】
2 利用者 4 マウス 6 記憶部 8 計算部 10 表示部 12 タイマ 14 キーボード
───────────────────────────────────────────────────── フロントページの続き (72)発明者 広瀬 正 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 ペンあるいはマウス等の入力手段から入
    力されたジェスチャを認識するためのジェスチャ認識方
    法において、 予め複数の標準ジェスチャを設定し、設定された各標準
    ジェスチャを一定時間毎の座標の時系列で表現し、該座
    標値の時系列から速度ベクトル時系列を計算し、該速度
    ベクトル時系列中のあらかじめ設定した一定時間間隔だ
    け離れた2個の速度ベクトルのなす角度を計算し、角度
    変位時系列を求め、該角度変位時系列を貯蔵し、 未知のジェスチャが入力されたとき、未知のジェスチャ
    の座標値が入力される度に、該座標値と予め設定した一
    定時間前の未知のジェスチャの座標値とから速度ベクト
    ルを計算し、該速度ベクトルと予め設定した一定時間前
    の速度ベクトルとから角度変位を計算し、全ての標準ジ
    ェスチャに対して、入力したジェスチャと各標準ジェス
    チャの角度変位時系列を特徴ベクトルとしてDPマッチ
    ング処理を行い距離を計算し、該距離が最小である標準
    ジェスチャを認識結果とすることを特徴とするジェスチ
    ャ認識方法。
  2. 【請求項2】 ペンあるいはマウス等の入力手段から入
    力されたジェスチャを認識するためのジェスチャ認識方
    法において、 予め複数の標準ジェスチャを設定し、設定された各標準
    ジェスチャを一定時間毎の座標の時系列で表現し、該座
    標値の時系列から速度ベクトル時系列を計算し、該速度
    ベクトル時系列中のあらかじめ設定した一定時間間隔だ
    け離れた2個の速度ベクトルのなす角度を計算し、角度
    変位時系列を求め、該角度変位時系列を貯蔵し、 未知のジェスチャが入力されたとき、入力した座標値の
    時系列を曲線で補間し、一定時間間隔の各時点で該曲線
    の接線ベクトルを計算し、該接線ベクトルから角度変位
    を計算し、全ての標準ジェスチャに対して、入力したジ
    ェスチャと各標準ジェスチャの角度変位時系列を特徴ベ
    クトルとしてDPマッチング処理を行い距離を計算し、
    該距離が最小である標準ジェスチャを認識結果とするこ
    とを特徴とするジェスチャ認識方法。
  3. 【請求項3】 請求項1または請求項2記載のジェスチ
    ャ認識方法において、前記距離が最小である標準ジェス
    チャを認識結果とすることに代えて、該距離が最小であ
    る時間が予め定めた一定時間以上連続する標準ジェスチ
    ャを認識結果とすることを特徴とするジェスチャ認識方
    法。
  4. 【請求項4】 請求項1または請求項2記載のジェスチ
    ャ認識方法において、前記距離が最小である標準ジェス
    チャを認識結果とすることに代えて、該距離が最小であ
    り、かつ予め設定した値以下である標準ジェスチャを認
    識結果とすることを特徴とするジェスチャ認識方法。
  5. 【請求項5】 請求項1または請求項2記載のジェスチ
    ャ認識方法において、前記距離が最小である標準ジェス
    チャを認識結果とすることに代えて、未知のジェスチャ
    の入力座標の個数が増加するにつれて、該距離が減少
    し、再び増加する標準ジェスチャの中で該距離が最小で
    あるものを認識結果とすることを特徴とするジェスチャ
    認識方法。
  6. 【請求項6】 請求項1または請求項2記載のジェスチ
    ャ認識方法において、前記距離が最小である標準ジェス
    チャを認識結果とすることに代えて、未知のジェスチャ
    の入力座標の個数が増加するにつれて、該距離が減少
    し、再び増加する標準ジェスチャの中で該距離が最小で
    かつ予め設定した値以下であるものを認識結果とするこ
    とを特徴とするジェスチャ認識方法。
  7. 【請求項7】 請求項1乃至請求項6のいずれかの請求
    項記載のジェスチャ認識方法において、前記速度ベクト
    ルあるいは接線ベクトルの大きさが予め定めた値を超え
    たときのみ認識結果を出力することを特徴とするジェス
    チャ認識方法。
  8. 【請求項8】 請求項1乃至請求項7のいずれかの請求
    項記載のジェスチャ認識方法において、認識結果を得た
    ときのみ入力したジェスチャに対応する標準ジェスチャ
    の座標値に基づく軌跡を表示することを特徴とするジェ
    スチャ認識方法。
  9. 【請求項9】 請求項1乃至請求項7のいずれかの請求
    項記載のジェスチャ認識方法において、予め各標準ジェ
    スチャの軌跡を貯蔵しておき、認識結果を得たときに該
    認識結果に対応する標準ジェスチャの軌跡を表示するこ
    とを特徴とするジェスチャ認識方法。
  10. 【請求項10】 予め標準ジェスチャに対応するコマン
    ドを貯蔵しておき、請求項1乃至請求項9のいずれかの
    ジェスチャ認識方法を用いて認識結果を得、該認識結果
    に対応するコマンドを実行することを特徴とするユーザ
    インタフェース方法。
JP19172092A 1992-06-25 1992-06-25 ジェスチャ認識方法およびユーザインタフェース方法 Pending JPH0612493A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19172092A JPH0612493A (ja) 1992-06-25 1992-06-25 ジェスチャ認識方法およびユーザインタフェース方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19172092A JPH0612493A (ja) 1992-06-25 1992-06-25 ジェスチャ認識方法およびユーザインタフェース方法

Publications (1)

Publication Number Publication Date
JPH0612493A true JPH0612493A (ja) 1994-01-21

Family

ID=16279362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19172092A Pending JPH0612493A (ja) 1992-06-25 1992-06-25 ジェスチャ認識方法およびユーザインタフェース方法

Country Status (1)

Country Link
JP (1) JPH0612493A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5903229A (en) * 1996-02-20 1999-05-11 Sharp Kabushiki Kaisha Jog dial emulation input device
US5995081A (en) * 1996-01-12 1999-11-30 Nec Corporation Handwriting type input display device
KR100301357B1 (ko) * 1998-02-25 2001-12-01 아끼구사 나오유끼 반도체장치및그제조방법및리드프레임의제조방법
JP2005346467A (ja) * 2004-06-03 2005-12-15 Nintendo Co Ltd 図形認識プログラム
US7650017B2 (en) 2004-06-08 2010-01-19 Kabushiki Kaisha Toshiba Gesture detecting method, gesture detecting apparatus, and recording medium
US7771279B2 (en) 2004-02-23 2010-08-10 Nintendo Co. Ltd. Game program and game machine for game character and target image processing
WO2011030581A1 (ja) * 2009-09-09 2011-03-17 シャープ株式会社 ジェスチャー判定装置およびその方法
EP2672374A1 (en) * 2012-06-05 2013-12-11 algoriddim GmbH Detection of circular motion in a two-dimensional space
CN103677642A (zh) * 2013-12-19 2014-03-26 深圳市汇顶科技股份有限公司 一种触摸屏终端及其手势识别方法、系统
JP2015535626A (ja) * 2013-06-24 2015-12-14 シャオミ・インコーポレイテッド ジェスチャーによる会話処理方法、装置、端末デバイス、プログラム、及び記録媒体
KR20160065822A (ko) * 2013-10-04 2016-06-09 마이크로칩 테크놀로지 인코포레이티드 센서 시스템을 위한 연속적인 원형 제스처 검출
KR20170096078A (ko) * 2016-02-15 2017-08-23 삼성전자주식회사 전자 장치 및 전자 장치의 필체 교정 기능 제공 방법
WO2017208619A1 (ja) * 2016-05-31 2017-12-07 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995081A (en) * 1996-01-12 1999-11-30 Nec Corporation Handwriting type input display device
US5903229A (en) * 1996-02-20 1999-05-11 Sharp Kabushiki Kaisha Jog dial emulation input device
KR100301357B1 (ko) * 1998-02-25 2001-12-01 아끼구사 나오유끼 반도체장치및그제조방법및리드프레임의제조방법
US7771279B2 (en) 2004-02-23 2010-08-10 Nintendo Co. Ltd. Game program and game machine for game character and target image processing
JP2005346467A (ja) * 2004-06-03 2005-12-15 Nintendo Co Ltd 図形認識プログラム
US7650017B2 (en) 2004-06-08 2010-01-19 Kabushiki Kaisha Toshiba Gesture detecting method, gesture detecting apparatus, and recording medium
WO2011030581A1 (ja) * 2009-09-09 2011-03-17 シャープ株式会社 ジェスチャー判定装置およびその方法
EP2672374A1 (en) * 2012-06-05 2013-12-11 algoriddim GmbH Detection of circular motion in a two-dimensional space
JP2015535626A (ja) * 2013-06-24 2015-12-14 シャオミ・インコーポレイテッド ジェスチャーによる会話処理方法、装置、端末デバイス、プログラム、及び記録媒体
KR20160065822A (ko) * 2013-10-04 2016-06-09 마이크로칩 테크놀로지 인코포레이티드 센서 시스템을 위한 연속적인 원형 제스처 검출
JP2016532179A (ja) * 2013-10-04 2016-10-13 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated センサシステムのための連続した円ジェスチャ検出
US10552026B2 (en) 2013-10-04 2020-02-04 Microchip Technology Incorporated Continuous circle gesture detection for a sensor system
CN103677642A (zh) * 2013-12-19 2014-03-26 深圳市汇顶科技股份有限公司 一种触摸屏终端及其手势识别方法、系统
KR20170096078A (ko) * 2016-02-15 2017-08-23 삼성전자주식회사 전자 장치 및 전자 장치의 필체 교정 기능 제공 방법
WO2017208619A1 (ja) * 2016-05-31 2017-12-07 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Similar Documents

Publication Publication Date Title
JPH0612493A (ja) ジェスチャ認識方法およびユーザインタフェース方法
JPH0668758B2 (ja) カーソル制御方法及び3次元図形表示装置
JPH09230993A (ja) ジョグダイアルの模擬入力装置
US9508177B2 (en) Method of controlling skeleton model, and recording medium therewith
JPH06110992A (ja) Cadシステムにおける形状変形入力操作方法
CN112000224A (zh) 一种手势交互方法及系统
US9892485B2 (en) System and method for mesh distance based geometry deformation
Pausch et al. Tailor: creating custom user interfaces based on gesture
JP6911772B2 (ja) 情報処理装置、情報処理方法及びプログラム
JPH08137608A (ja) 3次元座標入力装置
Althoff et al. Using multimodal interaction to navigate in arbitrary virtual VRML worlds
JP7207546B2 (ja) 情報処理装置、制御方法及びプログラム
JP3344499B2 (ja) オブジェクト操作支援装置
US6590575B1 (en) Method for designing three-dimensional free-form surface and apparatus for executing the same
CN111273802B (zh) 一种在屏幕上移动对象的方法及触摸显示装置
JP2004021866A (ja) オブジェクト形状変形装置
JPH05159036A (ja) 描画方法及びその装置
JPH08255173A (ja) クラスタリング装置
JP2571178B2 (ja) 3次元図形処理装置
JP2509860B2 (ja) パタ―ン生成装置
JP2000105665A (ja) 座標群湾曲化補正装置および座標群湾曲化補正方法
JP2013020446A (ja) マルチポインティングデバイスの制御方法及びプログラム
JPH0424774A (ja) 曲線描画機能を備えた情報処理装置および処理方法
JP2786098B2 (ja) 図形拡大編集方法
US5504498A (en) Control method for moving a specific portion of a graph