JP5733656B2 - ジェスチャ認識装置及びジェスチャ認識方法 - Google Patents

ジェスチャ認識装置及びジェスチャ認識方法 Download PDF

Info

Publication number
JP5733656B2
JP5733656B2 JP2010262195A JP2010262195A JP5733656B2 JP 5733656 B2 JP5733656 B2 JP 5733656B2 JP 2010262195 A JP2010262195 A JP 2010262195A JP 2010262195 A JP2010262195 A JP 2010262195A JP 5733656 B2 JP5733656 B2 JP 5733656B2
Authority
JP
Japan
Prior art keywords
gesture
acceleration
gesture recognition
standard deviation
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010262195A
Other languages
English (en)
Other versions
JP2012113525A (ja
Inventor
雷 荊
雷 荊
子学 程
子学 程
軍波 王
軍波 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Aizu
Original Assignee
University of Aizu
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Aizu filed Critical University of Aizu
Priority to JP2010262195A priority Critical patent/JP5733656B2/ja
Publication of JP2012113525A publication Critical patent/JP2012113525A/ja
Application granted granted Critical
Publication of JP5733656B2 publication Critical patent/JP5733656B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、使用者によって行われるジェスチャを認識するための技術に関するものである。
使用者のジェスチャを認識する技術として、下記特許文献1〜5に記載のものがある。
例えば、特許文献1の技術では、複数の多軸加速度センサを使用者の身体に取り付ける。そして、一つの多軸加速度センサの出力を基準として、このセンサと他のセンサとの出力の差分を、各軸において算出する。ついで、この差分出力の時間変化のデータと辞書データとを照合する。辞書データでは、差分出力の時間変化のデータとジェスチャとが対応付けられているので、使用者のジェスチャを特定することができる。
ところで、この技術においては、特定の一つのセンサの出力を基準とするので、基準となるセンサの初期位置が重要になる。そして、基準センサが初期位置に正しく設置されないと、ジェスチャの認識精度が劣化すると考えられる。
また、他の各文献の技術でも、ジェスチャの認識動作が煩雑であるという問題があった。
特開平7−219703号公報 特開平4−257014号公報 特開平7−121294号公報 特開2008−112459号公報 特開2002−7030号公報
本発明は、前記の状況に鑑みてなされたものである。本発明は、ジェスチャの認識を簡便な手順で比較的正確に行うことが可能な技術を提供することを目的としている。
前記した課題を解決する手段は、以下の項目のように記載できる。
(項目1)
検出部と処理部とを備えており、
前記検出部は、3軸方向への加速度をそれぞれ検出できる構成となっており、
かつ、前記検出部は、使用者の動作に対応して三次元空間内を移動させられるものであり、
前記処理部は、前記3軸方向のうちの少なくとも一つの軸方向における前記加速度についての、既定時間内での標準偏差と、他の軸方向における前記加速度についての、既定時間内での標準偏差との大小関係を用いてジェスチャを認識する構成となっている
ジェスチャ認識装置。
検出部は、通常、使用者の身体、例えば指に取り付けられる。操作者は、検出部を三次元空間内で移動させることにより、各種の動作、すなわちジェスチャを行うことができる。ここで、三次元空間とは、空気中に限らず、例えば水中であってもよい。
(項目2)
前記処理部は、さらに、前記加速度の方向を判別することにより、前記ジェスチャの方向を特定する構成となっている
項目1に記載のジェスチャ認識装置。
(項目3)
前記処理部は、前記標準偏差どうしの大小関係を用いた木構造に基づいて前記ジェスチャを認識する構成となっている
項目1又は2に記載のジェスチャ認識装置。
(項目4)
前記検出部は、使用者の指に装着されるものである
項目1〜3のいずれか1項に記載のジェスチャ認識装置。
(項目5)
以下のステップを備えるジェスチャ認識方法:
(1)3軸方向のうちの少なくとも一つの軸方向における加速度についての、既定時間内での標準偏差と、他の軸方向における前記加速度についての、既定時間内での標準偏差とを算出するステップ;
(2)前記算出された標準偏差どうしの大小関係を用いた木構造に基づいてジェスチャを認識するステップ。
(項目6)
項目5に記載の各ステップをコンピュータで実行させるためのコンピュータプログラム。
(項目7)
以下のステップを備える、ジェスチャ認識のための木構造の生成方法:
(1)標準的なジェスチャについて、3軸方向における加速度についての、既定時間内での標準偏差を、各軸について算出するステップ;
(2)前記各軸における標準偏差の大小関係を用いて前記標準的なジェスチャに辿りつけるように、ジェスチャを特定するための木構造を決定するステップ。
本発明によれば、ジェスチャの認識を簡便な手順で比較的正確に行うことが可能になる。
本発明の一実施形態に係るジェスチャ認識装置の概要を説明するための説明図である。 図1のジェスチャ認識装置において用いる筐体の概略的な斜視図である。 本実施形態のジェスチャ認識方法の全体的な流れを説明するためのフローチャートである。 ジェスチャにおける特徴値を取得する手順を説明するための説明図である。 検出部を取り付ける指のモデルを示す説明図である。 三次元座標系の取り方を示す説明図である。 基本的なジェスチャにおける加速度の波形を示す説明図である。 各軸方向における加速度の標準偏差の状況を説明するための説明図である。 ジェスチャを認識するための決定木の一例を示す説明図である。 ジェスチャ認識動作を説明するためのフローチャートである。
以下、添付図面を参照しながら、本発明の実施形態に係るジェスチャ認識装置について説明する。
(本実施形態の構成)
本実施形態のジェスチャ認識装置は、検出部1と処理部2とを備えている(図1及び図2参照)。
(検出部)
検出部1は、3軸方向への加速度をそれぞれ検出できる構成となっている。さらに、検出部1は、使用者の動作に対応して三次元空間内を移動させられるものとなっている。
具体的には、この実施形態における検出部1は、加速度センサ11と、MPU(マイクロプロセッサ)ボード12と、パワーボード13と、電池14と、筐体15を備えている(図1及び図2参照)。
加速度センサ11は、3軸方向、すなわちX−Y−Z方向への加速度をそれぞれ測定することができる構成となっている。このような加速度センサは、一軸方向への加速度検出用の部品を互いに直交して配置することにより容易に得ることができる。
MPUボード12は、柔軟性のあるコネクタ部材を介して加速度センサ11に接続されており、加速度センサ11から出力される各軸方向での加速度値を取得することができるようになっている。また、MPUボード12は、チップアンテナ121を備えており、処理部2との間で無線通信を行うことができるようになっている。すなわち、MPUボード12は、無線を介して、処理部2に、検出された加速度値を送信できるようになっている。
パワーボード13は、柔軟性のあるコネクタ部材を介してMPUボード12に接続されており、電池14から供給される電力をMPUボード12に供給できるようになっている。
電池14としては、通常の一次電池あるいは再充電可能な二次電池(蓄電池)を用いることができる。ただし、電池14としては、なるべく小型軽量であることが好ましい。
筐体15は、この実施形態では,指に装着可能な指輪型の形状とされている。さらに、筐体15の内部には、前記した加速度センサ11等の各要素部材が収納されている。
(処理部)
処理部2は、通信I/F(インタフェース)部21と、記憶部22と、CPU(中央処理装置)23とを備えている(図1参照)。
通信I/F部21は、検出部1のMPUボード12に搭載されたチップアンテナ121と通信するためのインタフェースとなる部分である。また、通信I/F部21は、電波送受信用のアンテナ211を備えている。
記憶部22は、CPU23において実行されるコンピュータプログラムと、動作のために必要な各種のデータを格納している。
CPU23は、ジェスチャの認識を行うためのコンピュータプログラムを、記憶部22に記憶されたデータと、検出部1から送られた加速度とを用いて実行するように構成されている。CPU23で実行されるジェスチャ認識動作の詳細は後述する。
前記の構成により、本実施形態の処理部2は、3軸方向のうちの少なくとも一つの軸方向における加速度についての、既定時間内での標準偏差と、他の軸方向における加速度についての、既定時間内での標準偏差との大小関係を用いてジェスチャを認識する構成とされている。
(本実施形態の動作)
つぎに、本実施形態に係るジェスチャ認識装置を用いたジェスチャ認識方法を、図3〜図10をさらに参照して説明する。
(図3のステップSA−1)
まず、基本的なジェスチャに対応して、3軸方向における加速度の特徴値を取得する。このステップは、学習のためのステップである。ここで、本実施形態では、加速度の特徴値として、標準偏差の差分を用いる。以下、図4を参照しながら、詳しく説明する。
(サンプリング)
まず、説明の前提として、この実施形態における検出部1の装着状態を、図5に基づいて説明する。図5は、指をモデル化した図を示している。この例では、第1関節と第2関節との間に検出部1の筐体15を取り付けたと仮定している。ただし、他の部位に筐体15を取り付けることは可能である。また、手の指以外の箇所に検出部1を取り付けることも可能である。その場合は、筐体15の形状を、取り付け箇所に適合するように構成することが好ましい。
図5の状態におけるヨー、ロール、ピッチ等の動作の方向の取り方を、図6に示した。
サンプリング動作においては、基本的なジェスチャを実行し、そのときの各軸における加速度を測定する。図7の(a)〜(l)に、基本的な12種類のジェスチャと、そのときの各軸における加速度の値とを示す。図7の(a)〜(l)に示したグラフにおいて、縦軸は加速度値、横軸はサンプル点を示す。なお、この例では、50Hzでサンプリングを行った。つまり、1秒間あたり50個の加速度データを、各軸方向において取得した。また、図4においては、図6(c)に示すL-Shiftの動作(左方向に指先を動かす動作)での加速度値を記載してある。このサンプリングを複数回(例えば100回)行う。なお、この明細書では、特に言及しない限り、1回の動作に対する複数のサンプル点の取得の全体をサンプリングと称する。
(標準偏差の算出)
ついで、1回のサンプリングにおける標準偏差を下記のようにして算出する。まず、各軸における平均加速度を下記式により求める。
ここで、
N:各回の加速度サンプリングにおけるサンプル点の数(例えばN=50);
i:i番目のサンプル点における加速度値;
aバー:平均加速度。
求めた平均加速度aバーを用いて、各軸における標準偏差sdを下記式により求める。
この標準偏差sdを、各回のサンプリングについて求める。したがって、サンプリングを100回行った場合は、100個の標準偏差sdを、各軸について求めることができる。
L-Shiftという動作について、百回のサンプリングを行った結果を図8に示す。このグラフにおける縦軸は、X,Y,Zの各軸について前記の計算によって得た、加速度値の標準偏差である。このグラフの横軸は、各サンプリングの回数(何回目のサンプリングか)を示す。
この図から分かるように、各回の動作において、Y軸方向の標準偏差が、他の方向の標準偏差より大きい。また、第11回目のサンプリングにおけるジェスチャは、第35回目のサンプリングにおけるジェスチャよりもゆっくりした動作である。このため、加速度の絶対値として、第11回目のデータは、第35回目のデータよりも小さい。しかしながら、標準偏差に着目すると、いずれの場合でも、Y軸方向の標準偏差が、他の方向の標準偏差より大きいという特徴を維持している。したがって、標準偏差の大小という、比較的単純な判断を行うことにより、ジェスチャの判別が可能であることが分かる。すなわち、sdy>sdxかつsdy>sdzという特徴判定により、一つのジェスチャ判別が可能となる。
(図3のステップSA−2)
前記と同様な特徴抽出を、各ジェスチャについて行う。これにより、図9に示すように、標準偏差の比較を用いた決定木を作成することができる。すなわち、取得された特徴値に基づいて、ジェスチャ認識用の決定木を生成する。この決定木の生成は、通常、特徴値を見ながら作業者が行うことができる。
なお、この決定木では、ジェスチャの方向を決定するために、最大及び最小の加速度が得られたサンプル番号の大小をさらに比較している。例えば、図7の(c)に示す左への移動と、図7の(d)に示す右への移動は、前記した標準偏差の大小だけでは区別が難しい。しかしながら、Y軸方向への加速度の最大値と最小値が、それぞれ、どのサンプル値で発生したかという情報を追加的に用いると、ジェスチャの方向を決定することができる。例えば、図7(c)を見ると、Y方向加速度の最大値は、最小値よりも後のサンプル値番号で得られている。つまり、YmaxNo>YminNoとなる。一方、図7(d)の波形を見ると、逆にYmaxNo<YminNoとなっている。このようにサンプル番号を比較することにより、つまり、最大値と最小値の発生順序を比較することにより、ペアとなるジェスチャを区別することができる。
(図3のステップSA−3)
ついで、使用者は、実際のジェスチャを実行する。検出部1は、3軸方向での加速度を検出し、処理部2は、ジェスチャの認識を行う。このジェスチャ認識は、前記した決定木を用いて行われる。ジェスチャ認識動作の詳細を、図10をさらに参照しながら説明する。
(図10のステップSB−1)
まず、使用者は、検出部1の筐体15を指に取り付ける。この状態では、加速度センサ11と指との位置関係が固定される。
ついで、使用者は、既定の動作開始ジェスチャを行う。動作開始ジェスチャとは、ジェスチャ判定が容易な特別のジェスチャである。例えば、使用者は、指を水平方向に進めるジェスチャを行う。このとき、各軸の加速度センサの値としては、動作開始時に0以外であり、その後はほぼ0となる。このような加速度値は、処理部2に送られる。処理部2のCPU23は、記憶部22に格納されたデータを参照する。そして、前記のような特別な値の場合は、動作開始ジェスチャであると判定することができる。動作開始ジェスチャと判定した場合は、後述の処理が行われる。
(図10のステップSB−2)
前記した動作開始ジェスチャを行った後、使用者は、既定のジェスチャを行う。例えば、本実施形態では、図7に示した12種類のジェスチャのうちのいずれかを行う。このジェスチャによって発生した各軸方向での加速度は、検出部1によって検出され、処理部2に送られる。
(図10のステップSB−3)
ついで、使用者は、既定の動作終了ジェスチャを行う。この動作終了ジェスチャは、動作開始ジェスチャと同様に、ジェスチャ判定が容易な特別のジェスチャである。この実施形態では、既定時間の間動作を停止する(検出部1を動かさない)というジェスチャを行う。サンプリングを行う時間を1秒間とすると、1秒間の間、動作を停止させる。このようにすると、各軸方向での加速度値はほぼ0を維持するので、処理部2は、動作終了ジェスチャを判定することができる。
(図10のステップSB−4)
ついで、処理部2のCPU23は、記憶部22に格納されたコンピュータプログラムに従って、得られた加速度値を用いて、各軸方向での特徴値を計算する。つまり、各軸方向での加速度の標準偏差、加速度の最大値、加速度の最小値をそれぞれ算出する。また、加速度の最大値と最小値が得られたサンプル番号をそれぞれ特定する。
(図10のステップSB−5)
ついで、処理部2のCPU23は、算出された特徴値を、図9に一例として示す決定木に適用する。この決定木において&とあるのはアンド条件を示す。これにより、図9の四角枠で示すジェスチャを特定することができる。
(図10のステップSB−6)
前記ステップSB−5によりジェスチャを特定できた場合は、次のステップに進む。ジェスチャを特定できなかった場合は、処理部2は、適宜の手段(例えば警告音や警告表示)によりエラーメッセージを表示する。これにより、使用者に対して、再度の動作開始ジェスチャの実行を促すことができる。既定時間内に動作開始ジェスチャが行われた場合は、前記したSB−2からのステップを再度実行する。
(図10のステップSB−7)
ついで、処理部2は、特定したジェスチャに対応する命令を特定する。例えば、コンピュータ(図示せず)への特定の指令内容を特定する。この操作は、記憶部22に適宜な照合テーブルを備えることにより実行できる。
(図10のステップSB−8)
ついで、処理部2は、コンピュータ(図示せず)に対して、特定された命令を送信する。これにより、コンピュータは、使用者のジェスチャに対応する動作を行うことができる。
本実施形態では、前記したように、加速度の標準偏差の大小関係を用いて、ジェスチャ認識用決定木を生成することができる。このため、決定木が簡潔であるという利点がある。
また、本実施形態では、閾値最適化を行う必要がない。このため、人間によって、安定した決定木を簡単に生成できるという利点もある。
さらに、本実施形態では、ジェスチャ判定に必要な計算量が少ないという利点もある。例えば、従来の技術では、2つの信号シーケンスの間の類似度を測る認識手法(動的時間伸縮法 、隠れマルコフモデル)を用いるものがある。このような従来手法では、積分やマトリックス計算が必要となり、計算量が多い。これに対して、本実施形態では、前記した通り、少ない計算量でジェスチャの認識を行うことができる。
なお、本発明は、前記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変更を加え得るものである。例えば、前記した検出部における各機能要素は、ネットワークを介して分散配置されていてもよい。また、各機能要素が、複数のハードウエアの組み合わせによって実現されていてもよく、さらには、各機能要素が集合して一つのハードウエアを構成していてもよい。要するに、各機能要素は、必要な機能を実行できるように構成されていればよい。
1 検出部
11 加速度センサ
12 ボード
121 チップアンテナ
13 パワーボード
14 電池
15 筐体
2 処理部
21 通信I/F部
211 アンテナ
22 記憶部
23 CPU

Claims (7)

  1. 検出部と処理部とを備えており、
    前記検出部は、3軸方向への加速度をそれぞれ検出できる構成となっており、
    かつ、前記検出部は、使用者の動作に対応して三次元空間内を移動させられるものであり、
    前記処理部は、前記3軸方向のうちの少なくとも一つの軸方向における前記加速度についての、既定時間内での標準偏差と、他の一つ又は二つの軸方向における前記加速度についての、既定時間内での標準偏差との大小関係を異なる軸方向の間で判断するノードを有する木構造に基づいてジェスチャを認識する構成となっている
    ジェスチャ認識装置。
  2. 前記処理部は、さらに、前記加速度の方向を判別することにより、前記ジェスチャの方向を特定する構成となっている
    請求項1に記載のジェスチャ認識装置。
  3. 前記処理部は、特定の軸方向における加速度の最大値と最小値の発生順序を比較することにより、前記ジェスチャの方向を特定する構成となっている
    請求項1に記載のジェスチャ認識装置。
  4. 前記検出部は、使用者の指に装着されるものである
    請求項1〜3のいずれか1項に記載のジェスチャ認識装置。
  5. 以下のステップを備える、装置を用いるジェスチャ認識方法:
    (1)3軸方向のうちの少なくとも一つの軸方向における加速度についての、既定時間内での標準偏差と、他の一つ又は二つの軸方向における前記加速度についての、既定時間内での標準偏差とを算出するステップ;
    (2)前記算出された標準偏差どうしの大小関係を異なる軸方向の間で判断するノードを有する木構造に基づいてジェスチャを認識するステップ。
  6. 請求項5に記載の各ステップをコンピュータで実行させるためのコンピュータプログラム。
  7. 以下のステップを備える、ジェスチャ認識のための木構造の生成方法:
    (1)標準的なジェスチャについて、3軸方向における加速度についての、既定時間内での標準偏差を、各軸について算出するステップ;
    (2)前記各軸における標準偏差の大小関係を異なる軸方向の間で順次判断することにより前記標準的なジェスチャに辿りつけるように、ジェスチャを特定するための木構造を決定するステップ。
JP2010262195A 2010-11-25 2010-11-25 ジェスチャ認識装置及びジェスチャ認識方法 Active JP5733656B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010262195A JP5733656B2 (ja) 2010-11-25 2010-11-25 ジェスチャ認識装置及びジェスチャ認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010262195A JP5733656B2 (ja) 2010-11-25 2010-11-25 ジェスチャ認識装置及びジェスチャ認識方法

Publications (2)

Publication Number Publication Date
JP2012113525A JP2012113525A (ja) 2012-06-14
JP5733656B2 true JP5733656B2 (ja) 2015-06-10

Family

ID=46497670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010262195A Active JP5733656B2 (ja) 2010-11-25 2010-11-25 ジェスチャ認識装置及びジェスチャ認識方法

Country Status (1)

Country Link
JP (1) JP5733656B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2868158A4 (en) * 2012-06-29 2016-02-17 Intel Corp DEVICE, METHOD AND SYSTEM FOR SECURELY COMBINING MOVING COMMUNICATION DEVICES THROUGH MOTION
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
CN105612479A (zh) * 2013-10-14 2016-05-25 皇家飞利浦有限公司 手势控制设备、方法、系统和存储介质
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
WO2017013805A1 (ja) * 2015-07-23 2017-01-26 富士通株式会社 入力装置、入力支援方法および入力支援プログラム
WO2020026793A1 (ja) * 2018-07-30 2020-02-06 メタウォーター株式会社 情報処理システム、情報処理装置、プログラム、及び情報処理方法
WO2020153087A1 (ja) * 2019-01-23 2020-07-30 株式会社小糸製作所 車両用コミュニケーションシステム、車両用表示装置および車両
CN109737686A (zh) * 2019-01-28 2019-05-10 青岛海尔智能技术研发有限公司 一种冰箱开门控制方法
JP2023119599A (ja) * 2020-07-16 2023-08-29 アルプスアルパイン株式会社 ジェスチャ判定装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1131047A (ja) * 1997-07-10 1999-02-02 Rikagaku Kenkyusho 記号信号生成装置
JP2001236174A (ja) * 2000-02-25 2001-08-31 Fujitsu Ltd 手書き文字入力装置及び手書き文字認識方法
US8225343B2 (en) * 2008-01-11 2012-07-17 Sony Computer Entertainment America Llc Gesture cataloging and recognition

Also Published As

Publication number Publication date
JP2012113525A (ja) 2012-06-14

Similar Documents

Publication Publication Date Title
JP5733656B2 (ja) ジェスチャ認識装置及びジェスチャ認識方法
JP6064280B2 (ja) ジェスチャを認識するためのシステムおよび方法
US10055563B2 (en) Air writing and gesture system with interactive wearable device
KR101101091B1 (ko) 긴 물체의 자세에서 유도한 자세데이터를 처리하는 방법과장치
CN104254816B (zh) 数据输入装置
KR100465241B1 (ko) 가상 필기 평면을 이용한 모션 인식 시스템 및 그 인식방법
US10281994B2 (en) Smart wand device
CN107708555B (zh) 测量装置和测量方法
JP5857810B2 (ja) 血圧測定装置及びその制御方法
US9076256B2 (en) Information processing device, information processing method, and program
CN110785729B (zh) 用于产生模拟笔画且用于模拟笔画的数字存储的电子装置和用于使模拟记录数字化的输入系统及方法
CN113544935B (zh) 无线充电对准
KR102335738B1 (ko) 디바이스의 회전각 결정 방법 및 이를 위한 장치
JP6483556B2 (ja) 操作認識装置、操作認識方法及びプログラム
KR20060069985A (ko) 착용형 범용 3차원 입력 시스템
JP2009009280A (ja) 3次元署名認証システム
CN114550216B (zh) 姿态检测方法及装置、计算机可读介质和电子设备
EP2947549A1 (en) Apparartus and method for navigating through volume image
US10082885B2 (en) Information input and output apparatus and information input and output method
CN115293299B (zh) 人体姿态特征实时检测方法、装置、设备及介质
JP2025188268A (ja) コンピュータ、方法、及びプログラム
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
JP6448459B2 (ja) 回転状態算出装置
CN115008927A (zh) 矫正笔和矫正笔的矫正方法
US12210673B2 (en) Spatial positioning method of separate virtual system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150403

R150 Certificate of patent or registration of utility model

Ref document number: 5733656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250