JP2016076103A - ジェスチャ入力時におけるノイズ除去方法 - Google Patents

ジェスチャ入力時におけるノイズ除去方法 Download PDF

Info

Publication number
JP2016076103A
JP2016076103A JP2014206353A JP2014206353A JP2016076103A JP 2016076103 A JP2016076103 A JP 2016076103A JP 2014206353 A JP2014206353 A JP 2014206353A JP 2014206353 A JP2014206353 A JP 2014206353A JP 2016076103 A JP2016076103 A JP 2016076103A
Authority
JP
Japan
Prior art keywords
coordinate
gesture input
information
point
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014206353A
Other languages
English (en)
Inventor
亮平 神谷
Ryohei Kamiya
亮平 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOGBAR Inc
Original Assignee
LOGBAR Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LOGBAR Inc filed Critical LOGBAR Inc
Priority to JP2014206353A priority Critical patent/JP2016076103A/ja
Priority to PCT/JP2015/054865 priority patent/WO2016056260A1/ja
Publication of JP2016076103A publication Critical patent/JP2016076103A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ジェスチャ入力時に発生するノイズを除去し、マッチングを行う際の認識性を高める。【解決手段】ジェスチャ入力動作を検出することで取得した複数の座標情報と、座標情報の検出順序に関する順序情報と、を有するジェスチャ入力情報のノイズ除去方法であって、順序情報に基づいて、連続した2座標点間の距離または3座標点を結ぶ辺が交点でなす角度のうちのいずれか一つを導出する座標情報加工ステップS1、S2と、導出した距離または角度に基づいて、除去する座標点を導出する導出ステップS3、S4と、座標点の除去を行う除去ステップS5と、を備える。【選択図】図4

Description

本発明は、ジェスチャによる入力を検出するジェスチャ入力装置における、ノイズの除去方法に関するものである。
近年、ウェアラブルコンピュータやウェアラブルデバイスといった、身に着けて利用する電子機器の開発が進んでいる。例えば腕時計型のコンピュータや、眼鏡型のコンピュータなどが有る。ユーザが常に身に着けている特性から、体調管理やライフログの記録など、これまでにない新たな機能を提供するものとして注目を集めている。
また、既存の入力デバイスに代わる新たな入力方法として、ユーザの動きや姿勢を検出することで入力を行う、ジェスチャ検出による入力方法が注目されている。
特許文献1には、ジャイロセンサを用いて手書き文字の検出を行う為の、手の指又は手に装着する装着体に関する技術が記載されている。この装着体を身に着けた状態で、空中や面上に文字を書き込むことで、手の角度変化を検出し、手書きの文字をコンピュータ上に出力することが可能である。この技術によって、キーボード等の入力装置によらない、新たな文字入力を行うことが可能となった。
また、特許文献2には、タッチパネルへの入力開始時及び入力終了時の座標点を座標点数の任意の割合削除することでノイズを除去する技術が記載されている。
特開2001−236174号公報 特開2001−306260号公報
特許文献1に記載の技術は、文字入力装置を装着した手の動作検出を行うことによって手書き文字を認識させ、コンピュータに対して出力を行うものである。ここで、動作検出を行う為の入力モードへの移行は、押しボタンを押下することによって行われている。
そのため、ジェスチャ入力開始時において、押しボタンを押してから認識させたい(意図した)動作を行うまでの間に、認識させたくない(意図しない)動作が含まれることとなる。また、入力終了時においても同様に、意図しない動作が検出される問題が生じる。即ち、ジェスチャ入力開始時及び終了時において、ジェスチャ入力の検出結果にノイズが生じることとなってしまっている。
また、特許文献2に記載の技術は、タッチパネル上における文字入力開始時のノイズの除去を行うものである。しかしながら、その除去方法は、始端側の任意の割合の座標点を削除する、といったものである。文字だけでなく、様々な記号、指さし、紋様等を入力する場合や、空中に手書きで行うジェスチャ動作を検出させる場合において、そこで発生するノイズにまで十分に対応可能な処理ではない。
本発明は、上記のような実状に鑑みてなされたものであり、ジェスチャ入力時に発生するノイズを除去し、マッチングを行う際の認識性を高めるためのノイズ除去方法を提供することを課題とする。
上記課題を解決するために、本発明は、ジェスチャ入力動作を検出することで取得した複数の座標情報と、前記座標情報の検出順序に関する順序情報と、を有するジェスチャ入力情報のノイズ除去方法であって、前記順序情報に基づいて、連続した2座標点間の距離または3座標点を結ぶ辺が交点でなす角度のうちのいずれか一方を少なくとも導出する座標情報加工ステップと、導出した前記距離または角度に基づいて、除去する座標点を導出する導出ステップと、座標点の除去を行う除去ステップと、を備えることを特徴とする。
このような構成とすることで、ジェスチャ入力動作から検出された、ジェスチャ入力情報中に含まれるノイズの除去を行うことができる。また、検出された座標点間の距離または辺のなす角度を用いて除去する座標点の導出を行うことによって、さまざまなジェスチャ入力に対応したノイズ除去方法を提供することが可能である。
本発明の好ましい形態では、前記ジェスチャ入力動作におけるジェスチャ動作の終了時は、ジェスチャ入力終了動作に起因して判別されること、を特徴とする。
ジェスチャ入力動作の終了は、ジェスチャ入力装置の計器に対するジェスチャ入力終了の動作や、スイッチなどの補助的な入力部に対する入力等に基づいて判別される。しかしながら、ジェスチャ入力動作が完了してから、ジェスチャ入力終了の動作を行うまでには経時的にずれが生じるため、意図しない動作や手振れなどをジェスチャ入力情報として検出してしまい、ノイズが生じてしまう。このような構成とすることで、特にジェスチャ入力の軌跡における終端側に生じるノイズを導出し、除去することができる。
本発明の好ましい形態では、前記ジェスチャ入力動作におけるジェスチャ動作の開始時は、ジェスチャ入力開始動作に起因して判別されること、を特徴とする。
ジェスチャ入力終了の動作と同様に、ジェスチャ入力開始の動作に起因して、ジェスチャ入力の軌跡における始端側にはノイズが発生しやすい。このような構成とすることで、特にジェスチャ入力の軌跡における始端側に生じるノイズを導出し、除去することができる。
本発明の好ましい形態では、前記導出ステップにおいて、除去する座標点に該当するか否かの判別は、前記順序情報に基づき座標点ごとに、ジェスチャ軌跡の始端点若しくは終端点から開始されること、を特徴とする。
このような構成とすることで、特にジェスチャ入力中においてノイズの発生しやすい始端側若しくは終端側について、ノイズを除去することができる。
本発明の好ましい形態では、前記導出ステップにおいて、除去対象として導出した座標点を候補点として記録しておき、前記除去ステップにおいて、予め決定された除去ルールに基づいて前記候補点の一部又は全部を除去すること、を特徴とする。
候補点として導出する条件を複数設定し、それらを組み合わせることによって、最終的に除去する座標点を多角的に導出することができる。このような構成とすることで、本来除去するべきではなかった座標点を誤って除去する可能性を減らし、より高精度にノイズ除去を行うことが可能である。
本発明の好ましい形態では、前記導出ステップにおける導出は、前記候補点が導出されなくなるまで、又は記録された除去候補数が最大数に達するまで行われること、を特徴とする。
本発明の好ましい形態では、前記座標情報加工ステップは、前記座標情報に基づいてジェスチャ軌跡を近似し、近似後の前記ジェスチャ軌跡を構成する座標点について前記距離を導出すること、を特徴とする。
このような構成とすることで、座標点数の圧縮を行うことができ、より効率的にノイズ検出を行うことが可能である。それにより、処理速度の向上や消費電力の低廉化を促すことができる。
本発明の好ましい形態では、前記導出ステップは、前記距離に基づいて除去する座標点を導出する距離導出ステップと、ある座標点上で交わる第1の直線及び第2の直線が、前記座標点を交点として成す角度に基づいて除去する座標点を導出する角度導出ステップと、を備えることを特徴とする。
このような構成とすることで、座標点間の距離に基づいた除去候補点の導出方法と、角度に基づいた除去候補点の導出方法と、の双方から除去候補点を導出しすることができる。
本発明の好ましい形態では、前記導出ステップにおいて、ある座標間の距離が、前記距離の集合において外れ値であるか否かを判別することにより、除去する座標点を導出すること、を特徴とする。
このような構成とすることで、統計的にある座標点間の距離が異常値であるのか否かを判別することができ、高い精度で除去する座標点を導出することができる。
本発明は、複数の座標情報と、前記座標情報の検出順序に関する順序情報と、を有するジェスチャ入力情報を検出するためのジェスチャ入力検出手段と、前記順序情報に基づいて、連続した2座標点間の距離情報または、3座標点を結ぶ辺が交点でなす角度情報のいずれか一方を少なくとも導出する座標情報加工手段と、前記距離情報または前記角度情報に基づいて、除去する座標点を導出する導出手段と、ノイズ座標点の除去を行ったジェスチャ入力情報を導出するノイズ除去手段と、を備えることを特徴とするジェスチャ入力装置である。
本発明は、ジェスチャ入力動作を検出することで取得した複数の座標情報と、前記座標情報の検出順序に関する順序情報と、を有するジェスチャ入力情報のノイズ除去を、コンピュータに行わせるためのノイズ除去プログラムであって、コンピュータを、前記順序情報に基づいて、連続した2座標点間の距離または3座標点を結ぶ辺が交点でなす角度のうちのいずれか一方を少なくとも導出する座標情報加工ステップと、導出した前記距離または角度に基づいて、除去する座標点を導出する導出ステップと、座標点の除去を行う除去ステップと、として機能させることを特徴とするノイズ除去プログラムである。
本発明は、ジェスチャ入力時に発生するノイズを除去し、マッチングを行う際の認識性を高めるためのノイズ除去方法を提供することができる。
本発明の実施形態1に係るジェスチャ入力を示す図である。 本発明の実施形態1に係るジェスチャ入力装置の機能ブロック図である。 本発明の実施形態1に係るジェスチャ入力の軌跡を示す図である。 本発明の実施形態1に係るノイズ除去方法を示すフローチャートである。 本発明の実施形態1に係る距離に基づくノイズ除去方法を示すフローチャートである。 本発明の実施形態1に係る角度に基づくノイズ除去方法を示すフローチャートである。 本発明の実施形態1に係るノイズ除去時のジェスチャ入力の軌跡を示す図である。 本発明の実施形態2に係るノイズ除去時のジェスチャ入力の軌跡を示す図である。 座標点間の長さの出現確率の分布を示す図である。
以下、本発明の実施形態について図1ないし図9を参照して説明する。以下実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。
<実施形態1>
図1〜7を用いて、ジェスチャ入力の軌跡中におけるノイズの除去方法について説明する。
1.1.ジェスチャ入力
本発明の実施形態1によれば、ジェスチャ入力の軌跡中に発生するノイズの除去を行うことができ、ジェスチャ入力の入力結果をより高精度に取得することが可能である。本実施形態において、ジェスチャ入力とは、ジェスチャ入力装置1を装着した四肢の動作によって文字や記号、方向指示等を入力する動作を示し、ジェスチャ入力の結果、ジェスチャ入力装置1によって検出されるジェスチャ入力に関する情報を、ジェスチャ入力情報とする。
検出されたジェスチャ入力情報は、外部の端末装置に出力されたり、ジェスチャ入力装置1上で利用されたりする。ジェスチャ入力情報は、ジェスチャ入力の軌跡を再現する用途でそのまま用いられたり、携帯情報端末やジェスチャ入力装置1、ウェブサーバ上、などに記録されたジェスチャ特定情報とマッチングを行うことで、ジェスチャ入力に対応する出力の特定に用いられたりする。
1.2.ジェスチャ入力装置
図1には、指輪型のジェスチャ入力装置1を右手2の人差し指に装着し、空中に手書きでジェスチャの入力を行う状態を示す。ジェスチャ入力装置1は、図2に示すように、指輪型デバイス1の動きを検出するセンサ部11と、ジェスチャ入力受付の開始の指示などを、物理ボタンやタッチセンサなどの任意の手段によって受け付ける補助入力部12と、ジェスチャ入力受付の開始、終了などを、光や振動、音などの任意の手段によってユーザへ伝達するフィードバック部13と、ジェスチャ入力処理に係る種々の演算を行う演算部14と、演算部14による演算の際に利用される揮発性メモリによる主記憶部15と、ジェスチャ入力処理に係る各種の設定情報などを記憶する、不揮発性メモリなどの補助記憶部16と、ジェスチャ入力によって取得した情報を、一般的なスマートフォン端末やタブレット端末、パーソナルコンピュータなどに送信する通信部17と、ここまでに挙げた指輪型デバイス1を構成する各要素へと電源を供給する電源部18と、を備える。
1.3.ジェスチャ入力情報の検出
ジェスチャ入力の検出は、ジェスチャ入力の開始動作に起因して開始される。ジェスチャ入力の開始動作とは、規定値以上の加速度を入力する動作や、ジェスチャ入力装置1に設けられた補助入力部12への入力等である。
ジェスチャ入力の検出は、ジェスチャ入力の終了動作に起因して終了される。ジェスチャ入力の終了動作とは、規定値以上の加速度を入力する動作や、ジェスチャ入力を行った面に対して略垂直となる軸方向への規定値以上の加速度の入力、一定時間の静止、ジェスチャ入力装置1に設けられた補助入力部12への入力等である。
ジェスチャ入力の検出を行うことによって、センサ部11によってm個の座標点p(1)〜p(m)と、各座標点の検出した順番を示す順位情報tp(1)〜tp(m)と、を備えたジェスチャ入力情報が検出される。このmは、予め任意に決定された数であってもよいし、0.1秒に1回など所定の時間間隔で検出したものであってもよい。本発明は、少なくとも、複数の座標の情報及び前記座標の検出順序に関する情報を備えたジェスチャ入力情報に対して、適用可能である。
1.4.ジェスチャ入力情報の圧縮
例えば、所定の時間間隔で座標点の検出を行った場合等、mの数が極めて大きくなる場合が考えられる。このm個の座標点を備えたジェスチャ入力情報をそのまま利用する場合、その情報量が膨大なものとなり、ノイズ除去を行う際やジェスチャ入力の利用を行う際などの処理時間、消費電力などを余分に消費してしまうこととなる。
特に、指輪型や腕時計型などのジェスチャ入力装置1は、装置の大きさが極めて小型であり、搭載可能な演算部14や主記憶部15、補助記憶部16、通信部17、電源部18などの大きさ、量に制限が加わる。そのため、座標点の数を減らし、扱いやすい情報量に加工を行う必要がある。この座標点数の減少は必ずしも行われる必要はなく、ジェスチャ入力検出時に取得する座標数を抑える処理を行なったり、m個の座標点をそのまま利用したりするような場合には、必要ない。
座標点数の減少は、座標点p(1)〜p(m)を連続する線分で近似した際に、前記線分の端点として現れる座標点p(1)〜p(n)を新たな座標点とすることで行われる。また、それ以外の方法で座標点数を減少させても構わない。本実施形態においては、座標点数の減少は、Ramer‐Douglas‐Peuckerアルゴリズムと呼ばれる曲線の線分近似法を用いて行われる。確率的に点をサンプリングするなど、その他の点のサンプリング方法または曲線の近似方法を利用しても構わない。
1.5.ノイズの除去
図3は、「a」の文字をジェスチャ入力した際のジェスチャ入力情報に基づく軌跡3を示す。この軌跡3を表すジェスチャ入力情報は、座標点p(1)〜p(17)を備えており、この座標の情報及び順序情報によって軌跡3が表現されている。また、順序的に連続する3点、p(i),p(i+1),p(i+2)を端点とする線分よってp(i+1)上に形成される角度を、∠p(i+1)と表現する。
図3における3(a)及び3(b)の部分は、ジェスチャ入力の始端及び終端におけるノイズである。また、ノイズ部分の部分拡大図によると、∠p(2)は、鋭角であるχ1の角度を、∠p(16)は、鋭角であるχ2の角度をとっている。
図4は、ジェスチャ入力情報のノイズ除去方法を示すフローチャートである。S1において、座標p(1)〜p(m)を有するジェスチャ入力情報を検出する。S1において検出されたジェスチャ入力情報は、前記ジェスチャ入力情報の圧縮を行うことによって、座標p(1)〜p(n)を有するジェスチャ入力情報に変換される(S2)。このジェスチャ入力情報の圧縮は必ずしも行われる必要はなく、ジェスチャ入力に基づいて検出された初期ジェスチャ入力情報に応じて適宜行われればよい。
1.6.除去候補点の導出
S2でジェスチャ入力情報が導出されたなら、隣接する座標間の距離に基づいたノイズ除去候補点Aの導出を行う(S3)。
図5は、隣接する座標間の距離に基づいてノイズ除去候補点Aを導出する際のフローチャートを示す。まず、S31において、座標点p(1)〜p(n)の内の隣り合う座標点間の距離d(1)〜d(n-1)を導出する。S31において導出された距離d(i)の内、始端(i=1)であるd(1)に対してまず検出を開始する(S32)。
S33では、d(i)に対して、Thompsonの棄却検定を行い、d(i)がd(1)〜d(n-1)の中における異常値であるかを判別する。d(i)が異常値である場合、ジェスチャ入力時における動作が、他の距離に比べて極めて小さい(又は極めて大きい)ことを意味し、座標点p(i)は、意図しないジェスチャ入力によって検出されたこととなる。
d(i)の出現率Pd(i)が、あらかじめ設定された危険率Δα以下である場合(S34でY)、p(i)を除去候補点Aに追加する(S35)。d(i)の出現率Pd(i)が、危険率Δαより大きい場合(S34でN)、S38に進む。
除去候補点(異常値)の導出を行う場合、両側検定であっても、片側検定であっても構わない。Pd(i)が、図9に示すような座標点間の長さの出現確率の分布PXにおいて、Δαによって決定される除去対象候補群PZに含まれる場合には、除去候補点として導出される。また、単に標本値d(i)からd(1)〜d(n-1)の平均値μを引き、標準偏差σで割った統計検定量τを導出して、μやσによって表される任意の優位点(例えばμ±2-3σ)の外側にあるか否かで判別を行うようにしても構わない。
S35において、p(i)が除去候補点Aに追加されたなら、iが予め設定した除去作業回数a(1≦a≦n)に達しているか判別を行い(S36)、達して良いない場合(S36でN)には、隣接する一つ他端側の座標点p(i+1)についてS33からの処理を行なう。
即ち、始端であるp(1)から除去候補点Aであるか否かの判別を開始し、除去候補点Aとして判別されなかった初めての座標点p(1≦k≦a)を導出する、若しくは予め設定された最大除去回数時の座標点p(a)まで判別を行った場合、始端側からの判別を終了する。そして終端側からも、S32をi=n-1、S36をi=n-1-a、S37をi=i-1、と読み替えて、同様の判別を行う(S38)。終端側での判別が終了したなら、座標間の距離に基づく除去候補点Aの導出を終了する。
ここで必ずしも除去候補点Aの導出は始端側から開始される必要はない。また、一端側からの判別の終了条件も適宜設定することができる。例えば、除去候補点Aとして判別されなかった2つ目の座標点を導出した時点で検出を終了したり、最大除去回数を設けないで除去候補点Aの導出を行ったりしても構わない。
S3において隣接する座標間の距離に基づいたノイズ除去候補点Aの導出が行われたなら、座標点上で交わる線分の成す角度に基づいたノイズ除去候補点Bの導出を行う(S4)。
図6は、座標点上で交わる線分の成す角度に基づいてノイズ除去候補点Bを導出する際のフローチャートを示す。まず、始端側から除去候補点Bの導出を行う(S41)。S42において、座標点p(i)及びp(i+1)を端点とする線分と、座標点p(i+1)及びp(i+2)を端点とする線分と、を導出する。p(i+1)上で交わる2本の線分が導出されたなら、それら線分が成す角∠p(i+1)の角度に基づいて、除去候補点Bに該当するか否かを判別する(S43)。
S43では、∠p(i+1)の角度に対して、任意の角度に含まれるか否かによって、p(i)が意図しないジェスチャ入力に起因する座標点あるかを判別する。本実施形態においては、∠p(i+1)の角度が鋭角である場合、その角を構成する線分に含まれる検出開始端側の座標点は、意図しないジェスチャ入力の検出によって生じた除去候補点であると判別している。
∠p(i+1)の角度が90度より小さい場合(S43でY)、p(i)を除去候補点Bに追加する(S44)。∠p(i+1)の角度が90度より大きい場合(S43でN)、S47に進む。
S44において、p(i)が除去候補点Bに追加されたなら、iが予め設定した除去作業回数b(1≦b≦n-2)に達しているか判別を行い(S45)、達していない場合(S45でN)には、隣接する一つ他端側の座標点∠p(i+2)についてS42からの処理を行なう。
即ち、始端であるp(1)から除去候補点Bであるか否かの判別を開始し、除去候補点Bとして判別されなかった初めての座標点p(1≦k≦b)を導出する、若しくは予め設定された最大除去回数時の座標点p(b)まで判別を行った場合、始端側からの判別を終了する。そして終端側からも同様の判別を行う(S47)。終端側での判別が終了したなら、座標点上で交わる線分の成す角度に基づいた除去候補点Bの導出を終了する。
ここで必ずしも除去候補点Bの導出は始端側から開始される必要はない。また、一端側からの判別の終了条件も適宜設定することができる。例えば、除去候補点Bとして判別されなかった2つ目の座標点を導出した時点で検出を終了したり、最大除去回数を設けないで除去候補点Bの導出を行ったりしても構わない。
1.7.ノイズ座標点の除去
S3及びS4において、除去候補点A及び除去候補点Bが導出されたなら、S5において、ノイズ座標点を決定し、ノイズ座標点の除去を行う。本実施形態において、ノイズ座標点とは、除去候補点A及び除去候補点Bの双方に該当する座標点である。除去候補点A及び除去候補点Bのどちらか一方にしか該当しない座標点は、ノイズ座標点には該当せず、除去されない。
ノイズ座標点への該当条件は、上記に限定されるものではなく、適宜変更可能である。例えば、除去候補点A及び除去候補点Bの何れかに該当する座標点をノイズ座標点としても構わない。
また、S4における導出をS3における導出の先に行っても構わないし、その他の除去候補点の導出方法に基づいて、除去候補点C〜を求めるように構成しても構わない。
更に、ノイズ除去を反復的に行う場合(S6でY)はS3に進み、ノイズ座標点が削除されたジェスチャ入力情報に関して、同様のノイズ除去候補点の導出作業を行う。ノイズ除去を反復的に行わない場合(S6でN)、終了する。
1.8.ノイズ除去
次いで、図3に示した軌跡3に関するジェスチャ入力情報について、前述のノイズ除去方法を実行する。
図7(a)は、軌跡3を示す図である。この軌跡3を示すジェスチャ入力情報は、p(1)〜p(17)の座標点を有している。ここで、前記S3及びS4における除去候補点の導出作業において、p(1)及びp(17)が、除去候補点A及び除去候補点Bの双方に選ばれた。そのため、S5においてp(1)及びp(17)はノイズ座標点zに該当し、除去対象となる。図7(b)には、ノイズ座標点z除去後のジェスチャ入力情報に基づく軌跡4を示す。
本実施形態によると、予期せぬジェスチャ入力によって生じるノイズの検出を行い、それらを削除することでよって、より精度の高いジェスチャ入力情報を提供することができる。
<実施形態2>
図8を用いて、ジェスチャ入力の軌跡中におけるノイズの除去方法について説明する。なお、上述した実施形態1と基本的に同一の構成要素については、同一の符号を付してその説明を簡略化する。
実施形態2は、実施形態1におけるノイズ除去方法の変形例である。実施形態1におけるノイズ除去方法との相違点は、ノイズ除去候補に隣接する除去対象外の点から、x-y平面内の直線距離が最も遠く離れた候補点以外の除去候補点を、ノイズ座標点zとして削除する点である。
図8(a)は、軌跡5を示す図である。軌跡5を示すジェスチャ入力情報は、p(1)〜p(19)の座標点を有している。ここで、前記S3における除去候補点の導出作業において、p(1)〜p(4)及びp(18),p(19)が、除去候補点Aとして選出される。
実施形態2では前述の相違点に基づいて、除去候補点の内、隣接する除去対象外の点からx-y平面内の直線距離が最も遠く離れた候補点以外の点がノイズ座標点zに該当し、除去対象となる。そのため、p(1)〜p(4)及びp(18),p(19)のうち、p(5)から最も遠い位置の候補点であるp(1)と、p(17)から最も遠い位置の候補点であるp(19)を除いた、p(2)〜p(4),p(18)がノイズ座標点zに該当する。図8(b)には、ノイズ座標点z除去後のジェスチャ入力情報に基づく軌跡6を示す。
本発明を用いることで、より高性能に、空中に手書きで行われたジェスチャ動作の検出を行うジェスチャ入力装置を提供することができる。
1 ジェスチャ入力装置
11 センサ部
12 補助入力部
13 フィードバック部
14 演算部
15 主記憶部
16 補助記憶部
17 通信部
18 電源部
2 手
3 軌跡
3(a) ノイズ(始端)
3(b) ノイズ(終端)
4 軌跡(ノイズ座標点除去後)
5 軌跡
6 軌跡(ノイズ座標点除去後)
p(1)〜p(17)、b(1)〜b(19) 座標点
z ノイズ座標点
χ 角度(鋭角)
Δα 危険率
PX 出現確率分布
PZ 除去対象候補群
μ 平均
σ 標準偏差
τ 統計検定量

Claims (10)

  1. ジェスチャ入力動作を検出することで取得した複数の座標情報と、前記座標情報の検出順序に関する順序情報と、を有するジェスチャ入力情報のノイズ除去方法であって、
    前記順序情報に基づいて、連続した2座標点間の距離または3座標点を結ぶ辺が交点でなす角度のうちのいずれか一方を少なくとも導出する座標情報加工ステップと、
    導出した前記距離または角度に基づいて、除去する座標点を導出する導出ステップと、
    座標点の除去を行う除去ステップと、を備えることを特徴とするノイズ除去方法。
  2. 前記ジェスチャ入力動作におけるジェスチャ動作の終了時は、ジェスチャ入力終了動作に起因して判別されること、を特徴とする請求項1に記載のノイズ除去方法。
  3. 前記ジェスチャ入力動作におけるジェスチャ動作の開始時は、ジェスチャ入力開始動作に起因して判別されること、を特徴とする請求項1又は請求項2に記載のノイズ除去方法。
  4. 前記導出ステップにおいて、除去する座標点に該当するか否かの判別は、前記順序情報に基づき座標点ごとに、ジェスチャ軌跡の始端点若しくは終端点から開始されること、を特徴とする請求項1〜3の何れかに記載のノイズ除去方法。
  5. 前記導出ステップにおいて、除去対象として導出した座標点を候補点として記録しておき、
    前記除去ステップにおいて、予め決定された除去ルールに基づいて前記候補点の一部又は全部を除去すること、を特徴とする請求項1〜4の何れかに記載のノイズ除去方法。
  6. 前記導出ステップにおける導出は、前記候補点が導出されなくなるまで、又は記録された除去候補数が最大数に達するまで行われること、を特徴とする請求項5に記載のノイズ除去方法。
  7. 前記座標情報加工ステップは、前記座標情報に基づいてジェスチャ軌跡を近似し、
    近似後の前記ジェスチャ軌跡を構成する座標点について前記距離を導出すること、を特徴とする請求項1〜6の何れかに記載のノイズ除去方法。
  8. 前記導出ステップにおいて、ある座標間の距離が、前記距離の集合において外れ値であるか否かを判別することにより、除去する座標点を導出すること、を特徴とする請求項1〜7の何れかに記載のノイズ除去方法。
  9. 複数の座標情報と、前記座標情報の検出順序に関する順序情報と、を有するジェスチャ入力情報を検出するためのジェスチャ入力検出手段と、
    前記順序情報に基づいて、連続した2座標点間の距離情報または、3座標点を結ぶ辺が交点でなす角度情報のいずれか一方を少なくとも導出する座標情報加工手段と、
    前記距離情報または前記角度情報に基づいて、除去する座標点を導出する導出手段と、
    ノイズ座標点の除去を行ったジェスチャ入力情報を導出するノイズ除去手段と、を備えることを特徴とするジェスチャ入力装置。
  10. ジェスチャ入力動作を検出することで取得した複数の座標情報と、前記座標情報の検出順序に関する順序情報と、を有するジェスチャ入力情報のノイズ除去を、コンピュータに行わせるためのノイズ除去プログラムであって、
    コンピュータを、前記順序情報に基づいて、連続した2座標点間の距離または3座標点を結ぶ辺が交点でなす角度のうちのいずれか一方を少なくとも導出する座標情報加工ステップと、
    導出した前記距離または角度に基づいて、除去する座標点を導出する導出ステップと、
    座標点の除去を行う除去ステップと、として機能させることを特徴とするノイズ除去プログラム。
JP2014206353A 2014-10-07 2014-10-07 ジェスチャ入力時におけるノイズ除去方法 Pending JP2016076103A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014206353A JP2016076103A (ja) 2014-10-07 2014-10-07 ジェスチャ入力時におけるノイズ除去方法
PCT/JP2015/054865 WO2016056260A1 (ja) 2014-10-07 2015-02-20 ジェスチャ入力時におけるノイズ除去方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014206353A JP2016076103A (ja) 2014-10-07 2014-10-07 ジェスチャ入力時におけるノイズ除去方法

Publications (1)

Publication Number Publication Date
JP2016076103A true JP2016076103A (ja) 2016-05-12

Family

ID=55652890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014206353A Pending JP2016076103A (ja) 2014-10-07 2014-10-07 ジェスチャ入力時におけるノイズ除去方法

Country Status (2)

Country Link
JP (1) JP2016076103A (ja)
WO (1) WO2016056260A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6958951B2 (ja) * 2018-03-02 2021-11-02 Necソリューションイノベータ株式会社 操作推定装置、操作推定方法、及びプログラム
CN109344793B (zh) * 2018-10-19 2021-03-16 北京百度网讯科技有限公司 用于识别空中手写的方法、装置、设备以及计算机可读存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5111512A (en) * 1991-05-14 1992-05-05 At&T Bell Laboratories Method for signature verification
JP2001236174A (ja) * 2000-02-25 2001-08-31 Fujitsu Ltd 手書き文字入力装置及び手書き文字認識方法
JP2001306260A (ja) * 2000-04-26 2001-11-02 Oki Electric Ind Co Ltd 認識装置のノイズ除去方法
JP4236962B2 (ja) * 2003-03-11 2009-03-11 株式会社リコー 手書き文字描画装置、手書き文字描画方法、および手書き文字描画方法をコンピュータに実行させるためのプログラム
KR20060099519A (ko) * 2003-10-27 2006-09-19 코닌클리즈케 필립스 일렉트로닉스 엔.브이. 제스처 신호 처리 장치 및 방법, 소프트웨어 프로그램,데이터 캐리어 및 핸드라이팅 인식 시스템

Also Published As

Publication number Publication date
WO2016056260A1 (ja) 2016-04-14

Similar Documents

Publication Publication Date Title
US8456436B2 (en) Input device and input method
KR101411569B1 (ko) 가상 키보드를 이용한 정보 처리 장치 및 방법
JP5270027B1 (ja) 情報処理装置および手書き文書検索方法
KR20210023680A (ko) 증강 현실 환경에서의 콘텐트 생성
WO2014045953A1 (ja) 情報処理装置および方法、並びにプログラム
US9378427B2 (en) Displaying handwritten strokes on a device according to a determined stroke direction matching the present direction of inclination of the device
JPWO2012011263A1 (ja) ジェスチャ入力装置およびジェスチャ入力方法
JP2014038527A (ja) 入力装置、入力方法、及びプログラム
US10521105B2 (en) Detecting primary hover point for multi-hover point device
JP6464504B2 (ja) 電子機器、処理方法およびプログラム
WO2017005207A1 (zh) 一种输入方法、输入装置、服务器和输入系统
US20160179239A1 (en) Information processing apparatus, input method and program
WO2016056260A1 (ja) ジェスチャ入力時におけるノイズ除去方法
US9021379B1 (en) Matching of gesture keyboard strokes with predefined stroke templates
CN111142663A (zh) 一种手势识别方法及手势识别系统
JP5735126B2 (ja) システムおよび筆跡検索方法
US10114469B2 (en) Input method touch device using the input method, gesture detecting device, computer-readable recording medium, and computer program product
CN111062360B (zh) 一种手部追踪系统及其追踪方法
Kim et al. Mo-Bi: Contextual mobile interfaces through bimanual posture sensing with Wrist-Worn devices
CN111665956B (zh) 候选字符串的处理方法、装置、电子设备及存储介质
TW201423453A (zh) 影像搜尋系統及方法
CN104049772B (zh) 一种输入方法、装置和系统
JP2013077180A (ja) 認識装置およびその制御方法
KR101348763B1 (ko) 손동작에 의한 인터페이스 조작 장치 및 방법, 그리고 컴퓨터로 읽을 수 있는 기록매체
CN112306242A (zh) 一种基于书空手势的交互方法和系统