JP6329469B2 - 認識装置、認識方法及び認識プログラム - Google Patents
認識装置、認識方法及び認識プログラム Download PDFInfo
- Publication number
- JP6329469B2 JP6329469B2 JP2014189472A JP2014189472A JP6329469B2 JP 6329469 B2 JP6329469 B2 JP 6329469B2 JP 2014189472 A JP2014189472 A JP 2014189472A JP 2014189472 A JP2014189472 A JP 2014189472A JP 6329469 B2 JP6329469 B2 JP 6329469B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- feature amount
- sensor
- change
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Description
本発明の別の実施形態によれば、取得部と、処理部と、を含む認識装置が提供される。前記取得部は、第1情報と第2情報とを取得する。前記第1情報は、前記身体の動作に応じて変化する第1信号に関する。前記第2情報は、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する。前記処理部は、前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する。前記第1特徴量は、前記第1部分の3次元空間内での位置に関する値を含む。前記第2特徴量は、前記第2部分の前記3次元空間内での位置に関する値を含む。
本発明の別の実施形態によれば、取得部と、処理部と、を含む認識装置が提供される。前記取得部は、第1情報と第2情報とを取得する。前記第1情報は、前記身体の動作に応じて変化する第1信号に関する。前記第2情報は、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する。前記処理部は、前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する。前記処理部は、前記取得部が操作受付状態であることを表す操作受付情報を取得したときに、前記身体の前記動作により操作される操作対象を移動させる移動ベクトルを、前記第1特徴量の変化の大きさ及び方向と、前記第2特徴量の変化の大きさ及び方向と、の少なくともいずれかに基づいて算出する。
本発明の別の実施形態によれば、身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する処理と、前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理と、を含む認識方法が提供される。前記第1特徴量は、前記第1部分の第1軸の3次元空間内での傾きに関する値を含む。前記第2特徴量は、前記第2部分の第2軸の前記3次元空間内での傾きに関する値を含む。
本発明の別の実施形態によれば、身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する処理と、前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理と、をコンピュータに実行させる認識プログラムが提供される。前記第1特徴量は、前記第1部分の第1軸の3次元空間内での傾きに関する値を含む。前記第2特徴量は、前記第2部分の第2軸の前記3次元空間内での傾きに関する値を含む。
なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
図1(a)及び図1(b)は、第1の実施形態に係る認識装置を例示するブロック図である。
図1(a)は、認識装置の構成の例を示す。図1(b)は、第1素子及び第2素子の例を示す。
認識装置100には、取得部30と、処理部40と、が設けられる。取得部30には、例えば、入出力端子が用いられる。取得部30は、有線または無線を介して外部と通信する入出力インターフェイスを含む。処理部40には、例えば、CPUやメモリなどを含む演算装置が用いられる。処理部40の各ブロックの一部、又は全部には、LSI(Large Scale Integration)等の集積回路またはIC(Integrated Circuit)チップセットを用いることができる。各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。
これらの図は、認識装置の使用状態を例示している。図2(a)は、ユーザによるジョイスティック動作の一例を示す。図2(b)は、ユーザによるタッチパッド動作の一例を示す。
第1センサ10d(第1素子10)、及び、第2センサ20d(第2素子20)は、ユーザの身体101の特定部分に装着して使用される。例えば、第1素子10は、第1部分10a(例えば手首)に装着される。第2素子20は、第2部分20a(例えば指)に装着される。認識装置100は、手首などの第1部分10aの動作を第1素子10で検知し、指などの第2部分20aの動作を第2素子20で検知する。認識装置100は、第1素子10及び第2素子20の検知結果に基づいて、身体101の動作の種類を認識する。身体101の動作の種類は、例えば、ジョイスティック動作及びタッチパッド動作などを含む。
図3の例において、例えば、手首に装着したセンサ301から加速度、角速度、地磁気の少なくともいずれかの値が取得される。これらの値に基づき、表示装置の画面302内のカーソル303を特定の位置に移動させる。例えば、画面302内に配置されたオブジェクト304上にカーソル303を移動させることで、そのオブジェクト304をポインティング(選択)する。また、センサ301を指に装着して指の移動軌跡を解析することにより、任意の場所(空中、手のひら、太もも、机など)に指で書いた文字を認識することもできる。
図4は、認識装置100を用いて、PC110の2つの動作モードを切り替え、ブラウザ画面を操作する場合の例を示す。
PC110のブラウザ画面51には、マウスカーソル52と、第1オブジェクト53と、第2オブジェクト54と、スクロールバー55と、が表示される。動作認識部42によりユーザの動作の種類が下向きへのジョイスティック動作と認識された場合(S1の場合)、処理実施部43は、PC110の動作モードをジョイスティックモードに切り替える。このジョイスティックモードでは例えばマウスカーソル52を移動させる。具体的には、ブラウザ画面51内に表示されているマウスカーソル52を下方向に移動させ、ブラウザ画面51aへと遷移させる。
図5は、認識装置100を用いて、PC110の2つの動作モードを切り替えて、画像閲覧画面を操作する場合の例を示す。
PC110の画像閲覧画面57には、文字Aが表示される。動作認識部42によりユーザの動作の種類が左向きへのジョイスティック動作と認識された場合(S3の場合)、処理実施部43は、PC110の動作モードをジョイスティックモードに切り替える。このジョイスティックモードでは表示領域全体を矢印58の向き(左向き)に移動させる。つまり、ユーザが指を所定角度以上傾けたまま維持すると、その角度を維持している間は指を傾けた方向に、文字Aを含む表示領域が移動し、画面外に隠れていた文字Bが表示され、画像閲覧画面57aへと遷移させる。
認識装置100の取得部30は、第1素子10から第1部分10a(手首)の第1情報14を取得し(ステップS11)、第2素子20から第2部分20a(指)の第2情報24を取得する(ステップS12)。
特徴量算出部41は、第1情報14に基づいて第1部分10aの第1特徴量を算出し、第2情報24に基づいて第2部分20aの第2特徴量を算出する。
動作認識部42は、第1特徴量の変化と、第2特徴量の変化とに基づいて、ユーザの動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識する(ステップS13)。
処理実施部43は、ステップS13で認識した動作の種類に対応した処理を、身体101の動作により操作される所定の操作対象に施す(ステップS14)。
なお、ステップS11〜ステップS14までの少なくとも一部の処理は、ソフトウェアである認識プログラムとして実施してもよい。なお、認識プログラムとは、認識装置100による動作認識処理を実施するためのプログラムである。
図7は、第1素子10を装着した第1部分10a(手首)の第1軸と、第2素子20を装着した第2部分20a(指)の第2軸との例を示す。
例えば、身体101の指先方向をZ軸、手の甲から垂直な方向をY軸、Y軸及びZ軸のそれぞれと互いに垂直な方向をX軸とする。第1素子10が第1部分10aに装着され、第2素子20が第2部分20aに装着される。基準軸60は、例えば、第1部分10a及び第2部分20aを曲げずに伸ばした状態において設定される。本例の場合、第1軸及び第2軸は同じ基準軸60として設定される。なお、第1軸と第2軸とは異なる軸でも良い。
図8は第1部分10a及び第2部分20aのピッチ角の傾きを示し、図9は第1部分10a及び第2部分20aのヨー角の傾きを示し、図10は第1部分10a及び第2部分20aのロール角の傾きを示す。
前述したように、第1部分10a及び第2部分20aの3次元的な傾きは、認識装置100から見て左右のX軸を軸とした上下方向のピッチ角θp(図8)と、上下のY軸を軸とした左右方向のヨー角θy(図9)と、前後のZ軸を軸としたロール角θr(図10)と、により表される。
図11は、タッチパッド動作における各部分の傾き変化の様子を示す。
図7〜図10に表したように、第1素子10が第1部分10a(手首)に装着され、第2素子20が第2部分20a(指)に装着される。第1部分10a及び第2部分20aを曲げずに伸ばした状態で基準軸60(図7)が設定される。基準軸60では第1部分10a及び第2部分20aが基準方向V0に向けられている。タッチパッド動作には、主に、肘を支点として手首から先はあまり動かさずに振るタッチパッド動作61と、手首を支点として手首から先を振るタッチパッド動作62と、肘を支点として手首から先も振るタッチパッド動作63と、が含まれる。
図12は、ジョイスティック動作における各部分の傾き変化の様子を示す。
図11と同様に、基準軸60は、第1部分10a及び第2部分20aを曲げずに伸ばした状態で設定される。基準軸60では第1部分10a及び第2部分20aが基準方向V0に向けられている。ジョイスティック動作64では、指先を支点として手首を動かす動作となる。
動作認識部42は、第1変化の第1絶対値と、第1変化の第1極性と、第2変化の第2絶対値と、第2変化の第2極性と、に基づいて、身体の動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識する。図11及び図12で説明したように、第1絶対値は角度|θ1|に相当し、第1極性は角度θ1の極性に相当する。同様に、第2絶対値は角度|θ2|に相当し、第2極性は角度θ2の極性に相当する。動作認識部42は、図13の認識条件に従って、身体の動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識する。具体的には以下のようになる。なお、本例では、第2閾値θt2は第1閾値θt1以上とする。
(2)角度|θ1|が第1閾値θt1以上であり、角度|θ2|が第2閾値θt2以上であり、角度θ1の極性が角度θ2の極性と同じである場合、タッチパッド動作と認識する。
(3)角度|θ1|が第1閾値θt1未満であり、角度|θ2|が第2閾値θt2未満となる場合、動作は任意とする。例えば、直前の動作を継続してもよい。すなわち、直前の動作がタッチパッド動作であれば、タッチパッド動作を継続する。直前の動作がジョイスティック動作であれば、ジョイスティック動作を継続する。また、動作に応じた操作を受け付けないようにしてもよい。
(4)上記(1)〜(3)以外の場合、タッチパッド動作と認識する。
図14は、第2の実施形態に係る認識装置を例示するブロック図である。
図14(a)は認識装置の全体的な構成を示し、図14(b)は第1素子及び第2素子の具体例を示す。
本実施形態の認識装置200には、取得部31と、処理部90と、が設けられる。処理部90は、特徴量算出部91と、動作認識部92と、処理実施部93とを含む。認識装置200は、さらに、第1部分10a(例えば手首)及び第2部分20a(例えば指)を撮像する撮像部94を含む。撮像部94は例えばPC111に設けられる。この場合、認識装置200についてもPC111に設けられることが好ましい。認識装置200は、第1素子70及び第2素子80を含んでいてもよい。
図15は、タッチパッド動作における各部分の位置変化の様子を示す。
本例では、第1素子70が第1部分10a(手首)に装着され、第2素子80が第2部分20a(指)に装着される。認識装置200は例えばPC111に設けられる。第1部分10a及び第2部分20aを曲げずに伸ばした状態を基準状態120とする。基準状態120では第1部分10a及び第2部分20aが基準位置L0にある。本例において、タッチパッド動作には、主に、肘を支点として手首から先はあまり動かさずに振るタッチパッド動作121と、手首を支点として手首から先を振るタッチパッド動作122と、肘を支点として手首から先も振るタッチパッド動作123と、が含まれる。
図16は、ジョイスティック動作における各部分の位置変化の様子を示す。
図15と同様に、第1部分10a及び第2部分20aを曲げずに伸ばした基準状態120では第1部分10a及び第2部分20aが基準位置L0にある。ジョイスティック動作124は、指先を支点として手首を動かす動作となる。
(2)第1距離|L1−L0|が第2距離|L2−L0|未満であり、第2距離|L2−L0|が第2閾距離Lt2以上である場合に、タッチパッド動作と認識する。
(3)上記(1)及び(2)以外の場合、動作は任意とする。例えば、直前の動作を継続してもよい。すなわち、直前の動作がタッチパッド動作であれば、タッチパッド動作を継続する。直前の動作がジョイスティック動作であれば、ジョイスティック動作を継続する。また、動作に応じた操作を受け付けないようにしてもよい。
図17は、第3の実施形態に係る認識装置を例示するブロック図である。
本実施形態の認識装置300には、取得部32と、処理部150と、が設けられる。処理部150は、特徴量算出部151と、動作認識部152と、移動ベクトル算出部153と、処理実施部154と、を含む。
認識装置300の取得部32は、操作受付情報156を取得する(ステップS21)。
取得部32は、第1素子130から第1部分10a(手首)の第1情報131を取得し(ステップS22)、第2素子140から第2部分20a(指)の第2情報141を取得する(ステップS23)。
動作認識部152は、第1特徴量の変化と、第2特徴量の変化とに基づいて、ユーザの動作の種類がジョイスティック動作及びタッチパッド動作のいずれであるかを認識する(ステップS24)。
なお、ステップS21〜ステップS26までの少なくとも一部の処理は、ソフトウェアである認識プログラムとして実施してもよい。
図19は、図18の詳細フローであり、第1部分10aの傾きと第2部分20aの傾きとを特徴量として、身体101の動作(ジェスチャ)を認識する場合について例示する。 認識装置300の取得部32は、操作受付情報156を取得する(ステップS31)。
このとき、取得部32は、第1素子130から第1部分10a(手首)の第1情報131を取得し、第2素子140から第2部分20a(指)の第2情報141を取得する。
なお、ステップS31〜ステップS37までの少なくとも一部の処理は、ソフトウェアである認識プログラムとして実施してもよい。
図20は、タッチパッド動作での移動ベクトルの例を示す図である。
本例において、第1素子130が第1部分10a(手首)に装着され、第2素子140が第2部分20a(指)に装着されている。ユーザは面310に対して第1部分10a及び第2部分20aが姿勢313の状態にある。ユーザは姿勢313からタッチパッド動作でX軸(図7)の正方向311に指先を移動させる。これにより、ユーザの姿勢は姿勢313から姿勢314に遷移する。このとき、PC160の画面上のオブジェクト161は、第2部分20aに装着した第2素子140の傾き変化のX軸成分に比例した大きさで、画面右向き(X軸方向を右向きとした場合)の移動ベクトル162だけ移動する。これに伴いPC160の画面表示が更新される。
図21は、ジョイスティック動作での移動ベクトルの例を示す図である。
本例において、図20と同様に、第1素子130が第1部分10a(手首)に装着され、第2素子140が第2部分20a(指)に装着されている。ユーザは面310に対して第1部分10a及び第2部分20aが姿勢318の状態にある。ユーザは姿勢318からジョイスティック動作でX軸(図7)の正方向316に指の付け根を移動させる。これにより、ユーザの姿勢は姿勢318から姿勢319に遷移する。このとき、PC160の画面上のオブジェクト164は、第2部分20aに装着した第2素子140の傾き変化のX軸成分に比例した大きさで、画面右向きの移動ベクトル165だけ移動する。これに伴いPC160の画面表示が更新される。
図22〜図26は、第4の実施形態に係る認識装置を例示する模式図である。
第1の実施形態では手首及び指にそれぞれセンサを装着する場合について示したが、それに限定されることはない。例えば、グローブ型センサとし、指の代わりに手の甲にセンサを装着しても同様の動作認識を実施できる。二の腕と手首にそれぞれセンサを装着してもよい。そのほか、手がふさがっているときに足でジェスチャをすることも可能である。例えば、足首とつま先にそれぞれセンサを装着してもよい。太ももと足首にそれぞれセンサを装着してもよい。この場合、例えば、車の運転中でハンドルを握っているときに空調操作やカーナビ操作などを行いたいときなどにも適用可能である。さらに、センサの装着部分は身体に限定されることはない。例えば、手首とペン等の手で保持できる部材とにそれぞれセンサを装着してもよい。
実施形態の認識装置を他の機器に応用してもよい。以下に例示する第1センサ及び第2センサは、第1の実施形態における第1センサ10d及び第2センサ20dと同様である。
図27は、第1応用例に係る認識装置を例示する模式図である。
本例では、実施形態の認識装置によりチャンネル操作が視聴者のジェスチャで行われる。視聴者の身体503には第1センサ501が手首に、第2センサ502が指にそれぞれ装着されている。
図28は、第2応用例に係る認識装置を例示する模式図である。
本例では、実施形態の認識装置によりウェブコンテンツや文書のスクロール操作がユーザのジェスチャで行われる。ユーザの身体513には第1センサ511が手首に、第2センサ512が指にそれぞれ装着されている。
図29は、第3応用例に係る認識装置を例示する模式図である。
本例では、実施形態の認識装置により患者に係る各種情報の提供が医者のジェスチャで行われる。医者の身体523には第1センサ521が手首に、第2センサ522が手の甲にそれぞれ装着されている。医者は手術中に手袋をはめるため、図22に例示したグローブ型が好ましい。また、各センサは手術の邪魔にならない位置に設けることが好ましい。情報端末524は、患者のモニタリング情報や検査結果等の情報提供を行う。
Claims (25)
- 身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する取得部と、
前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理部と、
を備え、
前記第1特徴量は、前記第1部分の第1軸の3次元空間内での傾きに関する値を含み、
前記第2特徴量は、前記第2部分の第2軸の前記3次元空間内での傾きに関する値を含む、認識装置。 - 前記第1軸の前記傾きに関する前記値は、第1〜第3角度を含み、
前記第1〜第3角度は、前記3次元空間内において互いに交差する3つの軸のそれぞれに対する前記第1軸の角度のそれぞれであり、
前記第2軸の前記傾きに関する前記値は、第4〜第6角度を含み、
前記第4〜第6角度は、前記3次元空間内において互いに交差する3つの軸のそれぞれに対する前記第2軸の角度のそれぞれである請求項1記載の認識装置。 - 前記第1特徴量の変化は、前記第1〜第3角度の少なくともいずれかの変化を含み、
前記第2特徴量の変化は、前記第4〜第6角度の少なくともいずれかの変化を含む請求項2記載の認識装置。 - 前記処理部は、
前記第1〜第3角度の前記少なくともいずれかの前記変化の第1絶対値と、
前記第1〜第3角度の前記少なくともいずれかの前記変化の第1極性と、
前記第4〜第6角度の前記少なくともいずれかの前記変化の第2絶対値と、
前記第4〜第6角度の前記少なくともいずれかの前記変化の第2極性と、
に基づいて、前記種類が第1動作及び第2動作のいずれであるかを認識する請求項3記載の認識装置。 - 前記処理部は、前記第1絶対値が第1閾値以上であり、前記第2絶対値が第2閾値以上であり、前記第1極性が前記第2極性と逆である場合に、前記種類が前記第1動作であると認識し、
前記処理部は、前記第1絶対値が前記第1閾値以上であり、前記第2絶対値が前記第2閾値以上であり、前記第1極性が前記第2極性と同じである場合に、前記種類が前記第2動作であると認識する請求項4記載の認識装置。 - 前記処理部は、前記第1絶対値が前記第1閾値以上であり、前記第2絶対値が前記第2閾値未満である場合に、前記種類が前記第2動作であると認識する請求項5記載の認識装置。
- 前記処理部は、前記第1絶対値が前記第1閾値未満であり、前記第2絶対値が前記第2閾値以上である場合に、前記種類が前記第2動作であると認識する請求項5記載の認識装置。
- 前記処理部は、前記第1特徴量の変化と前記第2特徴量の変化とを用いて、前記動作の種類を認識する請求項1〜7のいずれか1つに記載の認識装置。
- 前記第1素子は、前記動作に応じて変化する前記第1部分の前記状態を検知する第1センサを含み、
前記第1信号は、前記第1センサで生成される第1センサ信号を含み、
前記第2素子は、前記動作に応じて変化する前記第2部分の前記状態を検知する第2センサを含み、
前記第2信号は、前記第2センサで生成される第2センサ信号を含む、
請求項1〜8のいずれか1つに記載の認識装置。 - 前記第1センサは、第1角速度センサ、第1加速度センサ及び第1地磁気センサの少なくともいずれかを含み、
前記第2センサは、第2角速度センサ、第2加速度センサ及び第2地磁気センサの少なくともいずれかを含む請求項9記載の認識装置。 - 身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する取得部と、
前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理部と、
を備え、
前記第1特徴量は、前記第1部分の3次元空間内での位置に関する値を含み、
前記第2特徴量は、前記第2部分の前記3次元空間内での位置に関する値を含む、認識装置。 - 前記第1特徴量の変化は、前記3次元空間内に設けられた基準位置に対する前記第1部分の前記位置の変化を含み、
前記第2特徴量の変化は、前記基準位置に対する前記第2部分の前記位置の変化を含む請求項11記載の認識装置。 - 前記処理部は、前記第1部分の前記変化の第1距離と、前記第2部分の前記変化の第2距離と、に基づいて、前記種類が第1動作及び第2動作のいずれであるかを認識する請求項12記載の認識装置。
- 前記処理部は、前記第1距離が前記第2距離以上であり、前記第1距離が第1閾距離以上である場合に、前記種類が前記第1動作と認識し、
前記処理部は、前記第1距離が前記第2距離未満であり、前記第2距離が第2閾距離以上である場合に、前記種類が前記第2動作と認識する請求項13記載の認識装置。 - 前記第1部分及び前記第2部分を撮像する撮像部をさらに備え、
前記第1素子は、前記動作に応じて変化する前記第1部分の状態に応じ前記第1信号となる第1エネルギー線を出射する第1エネルギー線出射部を含み、
前記第1情報は、前記撮像部で撮像された前記第1エネルギー線の第1画像情報を含み、
前記第2素子は、前記動作に応じて変化する前記第2部分の状態に応じ前記第2信号となる第2エネルギー線を出射する第2エネルギー線出射部を含み、
前記第2情報は、前記撮像部で撮像された前記第2エネルギー線の第2画像情報を含む請求項11〜14のいずれか1つに記載の認識装置。 - 前記第1部分は、前記身体の手首を含み、
前記第2部分は、前記身体の指を含む請求項1〜15のいずれか1つに記載の認識装置。 - 前記第1部分は、前記身体の手首を含み、
前記第2部分は、前記身体の手で保持される部材を含む請求項1〜15のいずれか1つに記載の認識装置。 - 前記第1動作は、前記第2部分の端を支点として前記第2部分の別の部分を動かすことを含み、
前記第2動作は、前記第2部分の前記端と共に前記第2部分の別の部分を動かすことを含む請求項4または13に記載の認識装置。 - 前記処理部は、前記種類に応じた処理を、前記身体の前記動作により操作される操作対象に対してさらに実施する請求項1〜18のいずれか1つに記載の認識装置。
- 身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する取得部と、
前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理部と、
を備え、
前記処理部は、前記取得部が操作受付状態であることを表す操作受付情報を取得したときに、前記身体の前記動作により操作される操作対象を移動させる移動ベクトルを、前記第1特徴量の変化の大きさ及び方向と、前記第2特徴量の変化の大きさ及び方向と、の少なくともいずれかに基づいて算出する、認識装置。 - 前記処理部は、前記第1特徴量の前記変化の大きさ及び前記第2特徴量の前記変化の大きさの少なくともいずれかが所定値以上である状態が所定時間以上継続するときに、前記移動ベクトルの大きさを拡大する請求項20記載の認識装置。
- 前記処理部は、前記移動ベクトルに応じた処理を、前記操作対象に対して実施する請求項20または21に記載の認識装置。
- 前記第1素子と前記第2素子とをさらに備えた請求項1〜22のいずれか1つに記載の認識装置。
- 身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する処理と、
前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理と、
を含み、
前記第1特徴量は、前記第1部分の第1軸の3次元空間内での傾きに関する値を含み、
前記第2特徴量は、前記第2部分の第2軸の前記3次元空間内での傾きに関する値を含む、認識方法。 - 身体の第1部分に装着された第1素子で生成され、前記身体の動作に応じて変化する第1信号に関する第1情報と、前記第1部分との間の相対的な位置関係が前記動作に応じて変化する第2部分に装着された第2素子で生成され、前記動作に応じて変化する第2信号に関する第2情報と、を取得する処理と、
前記第1情報から算出した第1特徴量と前記第2情報から算出した第2特徴量との相対関係を用いて、前記動作の種類を認識する処理と、
をコンピュータに実行させ、
前記第1特徴量は、前記第1部分の第1軸の3次元空間内での傾きに関する値を含み、
前記第2特徴量は、前記第2部分の第2軸の前記3次元空間内での傾きに関する値を含む、認識プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014189472A JP6329469B2 (ja) | 2014-09-17 | 2014-09-17 | 認識装置、認識方法及び認識プログラム |
US14/853,124 US9916015B2 (en) | 2014-09-17 | 2015-09-14 | Recognition device, recognition method, and non-transitory recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014189472A JP6329469B2 (ja) | 2014-09-17 | 2014-09-17 | 認識装置、認識方法及び認識プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016062274A JP2016062274A (ja) | 2016-04-25 |
JP6329469B2 true JP6329469B2 (ja) | 2018-05-23 |
Family
ID=55454741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014189472A Active JP6329469B2 (ja) | 2014-09-17 | 2014-09-17 | 認識装置、認識方法及び認識プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9916015B2 (ja) |
JP (1) | JP6329469B2 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016095795A (ja) | 2014-11-17 | 2016-05-26 | 株式会社東芝 | 認識装置、方法、及びプログラム |
JP6483556B2 (ja) | 2015-07-15 | 2019-03-13 | 株式会社東芝 | 操作認識装置、操作認識方法及びプログラム |
US10509469B2 (en) * | 2016-04-21 | 2019-12-17 | Finch Technologies Ltd. | Devices for controlling computers based on motions and positions of hands |
WO2017208628A1 (ja) * | 2016-05-30 | 2017-12-07 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
EP3493011B1 (en) * | 2016-07-29 | 2022-09-14 | NEC Solution Innovators, Ltd. | Mobile body control system, control signal transmission system, mobile body control method, program, and recording medium |
WO2018020744A1 (ja) | 2016-07-29 | 2018-02-01 | Necソリューションイノベータ株式会社 | 移動体操縦システム、操縦シグナル送信システム、移動体操縦方法、プログラム、および記録媒体 |
US10705113B2 (en) | 2017-04-28 | 2020-07-07 | Finch Technologies Ltd. | Calibration of inertial measurement units attached to arms of a user to generate inputs for computer systems |
US10379613B2 (en) | 2017-05-16 | 2019-08-13 | Finch Technologies Ltd. | Tracking arm movements to generate inputs for computer systems |
US10540006B2 (en) | 2017-05-16 | 2020-01-21 | Finch Technologies Ltd. | Tracking torso orientation to generate inputs for computer systems |
US10521011B2 (en) | 2017-12-19 | 2019-12-31 | Finch Technologies Ltd. | Calibration of inertial measurement units attached to arms of a user and to a head mounted device |
US10509464B2 (en) | 2018-01-08 | 2019-12-17 | Finch Technologies Ltd. | Tracking torso leaning to generate inputs for computer systems |
US11016116B2 (en) | 2018-01-11 | 2021-05-25 | Finch Technologies Ltd. | Correction of accumulated errors in inertial measurement units attached to a user |
US10416755B1 (en) | 2018-06-01 | 2019-09-17 | Finch Technologies Ltd. | Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system |
US11474593B2 (en) | 2018-05-07 | 2022-10-18 | Finch Technologies Ltd. | Tracking user movements to control a skeleton model in a computer system |
US11009941B2 (en) | 2018-07-25 | 2021-05-18 | Finch Technologies Ltd. | Calibration of measurement units in alignment with a skeleton model to control a computer system |
JPWO2021038786A1 (ja) * | 2019-08-29 | 2021-03-04 | ||
KR102270424B1 (ko) * | 2019-09-26 | 2021-06-30 | 주식회사 팜캣 | 점과 각을 통한 동작인식 방법 및 시스템 |
US11531392B2 (en) * | 2019-12-02 | 2022-12-20 | Finchxr Ltd. | Tracking upper arm movements using sensor modules attached to the hand and forearm |
US20230054973A1 (en) * | 2020-02-06 | 2023-02-23 | Sony Group Corporation | Information processing apparatus, information processing method, and information processing program |
JP2023179927A (ja) * | 2022-06-08 | 2023-12-20 | 株式会社ジンズホールディングス | 情報処理方法、プログラム、及び情報処理装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5579033A (en) | 1992-05-20 | 1996-11-26 | International Business Machines Corporation | Pointing device for retrofitting onto the keyboard of an existing computer system |
CN1167996C (zh) * | 2002-07-11 | 2004-09-22 | 庄胜雄 | 可形成虚拟追踪球的手套滑鼠 |
JP4119187B2 (ja) | 2002-07-17 | 2008-07-16 | 国立大学法人金沢大学 | 入力装置 |
JP2005050159A (ja) | 2003-07-29 | 2005-02-24 | Tatsuto Fujie | 手首の動きでポインタを制御するポインティングデバイス |
US7042438B2 (en) | 2003-09-06 | 2006-05-09 | Mcrae Michael William | Hand manipulated data apparatus for computers and video games |
WO2009024971A2 (en) | 2007-08-19 | 2009-02-26 | Saar Shai | Finger-worn devices and related methods of use |
JP2009064053A (ja) * | 2007-09-04 | 2009-03-26 | Citizen Holdings Co Ltd | 操作入力装置 |
JP2009104429A (ja) * | 2007-10-24 | 2009-05-14 | Nikon Corp | ヘッドマウントディスプレイ装置及び携帯装置 |
JP2008135033A (ja) * | 2007-11-26 | 2008-06-12 | Olympus Corp | 手姿勢動作検出装置 |
US20110199303A1 (en) * | 2010-02-18 | 2011-08-18 | Simpson Samuel K | Dual wrist user input system |
JP2011170747A (ja) * | 2010-02-22 | 2011-09-01 | Brother Industries Ltd | 情報入力装置 |
JP2011175315A (ja) * | 2010-02-23 | 2011-09-08 | Ikutoku Gakuen | 加速度センサを利用した文字入力システムおよび方法 |
JP5547139B2 (ja) | 2011-07-29 | 2014-07-09 | 株式会社東芝 | 認識装置、方法及びプログラム |
JP5649535B2 (ja) * | 2011-08-05 | 2015-01-07 | 株式会社東芝 | コマンド発行装置、コマンド発行方法およびプログラム |
TW201325101A (zh) * | 2011-12-13 | 2013-06-16 | Askey Technology Jiangsu Ltd | 遠端多點遙控裝置及系統 |
US8743052B1 (en) * | 2012-11-24 | 2014-06-03 | Eric Jeffrey Keller | Computing interface system |
JP2014164428A (ja) * | 2013-02-22 | 2014-09-08 | Sharp Corp | ポインティング装置およびポインタ操作方法 |
US9226330B2 (en) * | 2013-09-10 | 2015-12-29 | Playtabase, LLC | Wireless motion activated user device with bi-modality communication |
JP2015099574A (ja) | 2013-11-20 | 2015-05-28 | 株式会社東芝 | 認識装置、認識方法、認識プログラム及び端末装置 |
-
2014
- 2014-09-17 JP JP2014189472A patent/JP6329469B2/ja active Active
-
2015
- 2015-09-14 US US14/853,124 patent/US9916015B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016062274A (ja) | 2016-04-25 |
US9916015B2 (en) | 2018-03-13 |
US20160077608A1 (en) | 2016-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6329469B2 (ja) | 認識装置、認識方法及び認識プログラム | |
KR101234111B1 (ko) | 비접촉 입력 인터페이싱 장치 및 이를 이용한 비접촉 입력 인터페이싱 방법 | |
CN101568896B (zh) | 信息处理装置、系统、方法和输入装置 | |
KR101666096B1 (ko) | 강화된 제스처 기반 상호작용 시스템 및 방법 | |
TWI428792B (zh) | 輸入設備,手持設備,及控制方法 | |
JP5802667B2 (ja) | ジェスチャ入力装置およびジェスチャ入力方法 | |
US8291346B2 (en) | 3D remote control system employing absolute and relative position detection | |
JP5263833B2 (ja) | ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法 | |
JP2012073830A (ja) | インターフェース装置 | |
TWI400630B (zh) | 選擇裝置及方法 | |
KR20090065040A (ko) | 동작과 터치를 이용한 이중 포인팅 장치 및 방법 | |
JP2011040003A (ja) | 操作入力システム、制御装置、ハンドヘルド装置及び操作入力方法 | |
KR102184243B1 (ko) | Imu 센서를 이용한 손가락 동작 기반 인터페이스 제어 시스템 | |
US9310851B2 (en) | Three-dimensional (3D) human-computer interaction system using computer mouse as a 3D pointing device and an operation method thereof | |
KR101365083B1 (ko) | 모션 인식을 통한 인터페이스 장치 및 이의 제어방법 | |
CN113867562B (zh) | 触摸屏报点的校正方法、装置和电子设备 | |
JP2017162054A (ja) | 情報処理装置及び出力装置 | |
WO2009093027A1 (en) | Wrist-mounted computer periferal | |
KR20120037739A (ko) | 손동작 기반 사용자 인터페이스 장치 및 그 방법 | |
JP2010086367A (ja) | 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置 | |
KR101588021B1 (ko) | 헤드 마우스 | |
JP5323018B2 (ja) | マウス装置 | |
KR20130129775A (ko) | 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치 | |
US8396300B2 (en) | Object-end positioning method and system | |
TWI461961B (zh) | 選擇裝置及用於對影像區域執行定位操作的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170612 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171127 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180126 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180420 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6329469 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |