JP2000149025A - ジェスチャ認識装置及び方法 - Google Patents

ジェスチャ認識装置及び方法

Info

Publication number
JP2000149025A
JP2000149025A JP10323039A JP32303998A JP2000149025A JP 2000149025 A JP2000149025 A JP 2000149025A JP 10323039 A JP10323039 A JP 10323039A JP 32303998 A JP32303998 A JP 32303998A JP 2000149025 A JP2000149025 A JP 2000149025A
Authority
JP
Japan
Prior art keywords
user
gesture
feature
estimating
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10323039A
Other languages
English (en)
Other versions
JP3144400B2 (ja
Inventor
Yuichi Nino
裕一 仁野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP32303998A priority Critical patent/JP3144400B2/ja
Publication of JP2000149025A publication Critical patent/JP2000149025A/ja
Application granted granted Critical
Publication of JP3144400B2 publication Critical patent/JP3144400B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

(57)【要約】 【課題】ユーザが位置/姿勢変化を行なう状況下でも高
速に認識可能なジェスチャ認識装置の提供。 【解決手段】人物の手足の動きの特徴を示す点の3次元
座標を計測する特徴点位置計測部1と、抽出された特徴
点のうち手以外の特徴点を利用しこれら3次元座標から
人物の3次元位置/姿勢を推定する人物位置姿勢推定部
3と、推定されたユーザの3次元位置を基準点としユー
ザ姿勢に応じて各座標軸が一意に定まるユーザ座標系を
構成しユーザの手足の特徴点を該ユーザ座標系に変換す
ることでユーザの位置/姿勢に依存しない特徴量を抽出
しその時系列変化を解析する人物動作解析部4と、その
時系列変化と予めジェスチャモデル記憶部6に格納した
ジェスチャモデルとのマッチングをとり、人物の行なっ
たジェスチャを推定するジェスチャ推定部5を備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ジェスチャ認識装
置に関し、特に、自由に位置/姿勢が変化するユーザの
ジェスチャを認識し、仮想空間内のCG(コンピュータ
グラフィック)物体の操作等に用いて好適とされるジェ
スチャ認識装置に関する。
【0002】
【従来の技術】ジェスチャ認識装置として、これまで、
いくつかの手法が提案・開発されており、このうち典型
的な手法について概説すると、例えば文献(1)(特開
平6−12493号公報)には、マウスやペンの時系列
の動きからDP(ダイナミックプログラミング;動的計
画法)マッチングを用いてジェスチャを検出し、該ジェ
スチャに対応したコマンドを実行させるコンピュータの
ユーザインタフェースが提案されており、また文献
(2)(特開平10−162151号公報)等には、被
写体のジェスチャーを撮像した画像から時間差分画像を
取得して2値化し、差分画像の特徴量から、連続DPを
用いて特徴パターン用の特徴ベクトルを取得する、ジェ
スチャ認識方法が提案されている。また文献(3)(電
子情報通信学会誌、1993年8月号、1805−18
12頁)には、石井らによる、ステレオ画像を用いて3
次元的な手の動きを抽出し、動作モデルとのマッチング
によりジェスチャを検出する方法が記載されている。
【0003】
【発明が解決しようとする課題】しかしながら、上記し
た従来の各種方法は、以下のような問題点を有してい
る。
【0004】すなわち、上記文献1(1)、(2)に記
載された方法は、手の2次元的な動きからジェスチャを
推定している。したがって、ジェスチャ認識には、ユー
ザと、ユーザを撮影するカメラと、の位置関係が限定
(拘束)されてしまうことになり、このため、ユーザは
自由に位置/姿勢を変化することができない。
【0005】また、上記文献(3)に記載された方法
は、ユーザが自由な位置及び姿勢変化を行なうことはで
きるものの、モデルが複雑すぎ、高速な処理が困難であ
る。
【0006】したがって本発明は、上記問題点に鑑みて
なされたものであって、その目的は、ユーザが位置及び
姿勢変化を行なっても、高速に認識可能なジェスチャ認
識装置及び方法を提供することにある。
【0007】
【課題を解決するための手段】前記目的を達成する本発
明のジェスチャ認識装置は、ユーザに装着したセンサの
出力、又は画像情報から、前記ユーザの手足の動きの特
徴を示す点の空間中の3次元座標を計測する特徴点位置
計測手段と、前記抽出された特徴点のうち前記ユーザの
手以外の特徴点の3次元座標から、前記ユーザの3次元
位置及び姿勢を推定する人物位置姿勢推定手段と、前記
推定された前記ユーザの3次元位置を基準点として、前
記ユーザの姿勢に応じて各座標軸が一意に定められるユ
ーザ座標系を構成し、前記ユーザの手足の特徴点を前記
ユーザ座標系に変換することにより、前記ユーザの位置
及び姿勢に依存しない特徴量を抽出し、前記ユーザの位
置及び姿勢に依存しない前記特徴量の時系列変化を解析
する人物動作解析手段と、前記時系列変化と、予め作成
されたジェスチャモデルを記憶するジェスチャモデル記
憶部に格納されたジェスチャモデルとのマッチングをと
り、前記ユーザの行なったジェスチャを推定するジェス
チャ推定手段と、を含む。本発明において、前記ジェス
チャ推定手段において、絶対値が同じであり、互いに逆
極性の2つの閾値を設け、前記特徴量の1つの時系列変
化について、その値が正の閾値よりも大きくなるフレー
ムと、負の閾値よりも小さくなるフレームとが交互に存
在し、前記フレームが、所定時間に、予め定められた所
定の割合よりも多く存在する場合に、反復動作のジェス
チャであると推定する、ように構成してもよい。
【0008】
【発明の実施の形態】本発明の実施の形態について以下
に説明する。本発明のジェスチャ認識装置は、その好ま
しい実施の形態において、特徴点位置計測手段(図1の
1)と、人物位置姿勢推定手段(図1の2)と、人物動
作解析手段(図1の3)と、ジェスチャ推定手段(図1
の4)と、ジェスチャモデル記憶手段(図1の5)と、
を備えて構成されている。このうち、特徴点位置計測手
段(図1の1)は、ユーザの手足などの特徴点の世界座
標系における位置を計測する。
【0009】人物位置姿勢推定手段(図1の2)は、ユ
ーザの手以外の、ある特徴点の3次元座標からユーザの
3次元位置/姿勢を推定する。
【0010】人物動作解析手段(図1の3)は、推定さ
れたユーザの3次元位置の一つの点を基準点とし、且
つ、ユーザ姿勢に応じて各座標軸が一意に定まるユーザ
座標系を構成し、ユーザの手足の特徴点をユーザ座標系
に変換することにより、ユーザの位置/姿勢に依存しな
い特徴量を抽出し、さらにその時系列変化を解析する。
【0011】ジェスチャ推定手段(図1の4)は、上記
特徴点の時系列変化と、事前に作成されジェスチャモデ
ル記憶手段(図1の5)に格納されているジェスチャモ
デルとのマッチングをとり、ユーザの行なったジェスチ
ャを推定する。
【0012】また、本発明のジェスチャ認識装置は、そ
の好ましい実施の形態において、ジェスチャ推定手段に
おいて、上記特徴量の1つの時系列変化を見たとき、そ
の値が非常に大きくなるフレームと非常に小さくなるフ
レームとが交互に存在し、フレームが短時間に多く存在
する場合に、反復動作のジェスチャであるものと推定す
る。
【0013】また本発明のジェスチャ認識方法は、以下
のステップよりなる。
【0014】ステップ1:ユーザに装着したセンサの出
力情報、又はユーザを撮像した画像情報から、ユーザの
手足の動きの特徴を示す点の空間中の3次元座標を計測
する。
【0015】ステップ2:前記抽出された特徴点のうち
前記ユーザの手以外の特徴点の3次元座標から、前記ユ
ーザの3次元位置及び姿勢を推定する。
【0016】ステップ3:前記推定された前記ユーザの
3次元位置の一つを基準点として、前記ユーザの姿勢に
応じて各座標軸が一意に定められるユーザ座標系を構成
し、前記ユーザの手足の特徴点を前記ユーザ座標系に変
換することにより、前記ユーザの位置及び姿勢に依存し
ない特徴量を抽出し、前記ユーザの位置及び姿勢に依存
しない前記特徴量の時系列変化を解析する。
【0017】ステップ4:前記時系列変化と、予め作成
されたジェスチャモデルを記憶するジェスチャモデル記
憶部に格納されたジェスチャモデルとのマッチングをと
り、前記ユーザの行なったジェスチャを推定する。
【0018】上記ステップ1〜5の各ステップは、デー
タ処理装置で実行されるプログラム制御によってその処
理機能を実現するようにしてもよく、これらの手段の機
能・処理を実現するプログラムを記憶した記憶媒体から
データ処理装置が、該プログラムを読み出して実行する
ことで、本発明を実施することができる。以下実施例に
即して詳説する。
【0019】
【実施例】図1は、本発明のジェスチャ認識装置の一実
施例の装置構成を示すブロック図である。図1を参照す
ると、本発明の一実施例は、特徴点位置計測部1と、人
物位置姿勢推定部2と、人物動作解析部3と、ジェスチ
ャ推定部4と、ジェスチャ記憶部5とを備えて構成され
ており、このうち特徴点位置計測部1では、人物の手/
足/胴体の特徴点の一部又は全てに装着した磁気センサ
を利用して、これらの特徴点について例えば計測機器に
よって決定される世界座標系における3次元座標を求め
る。
【0020】この場合、計測された特徴点の位置は、計
測機器の基準位置を原点とした世界座標系で記述された
め、ユーザが同一のジェスチャを行っても、ユーザの位
置/向きが異なると、計測される位置は、異なる値をと
ることになる。そこで、本発明の一実施例では、人物位
置姿勢推定部2において、ユーザの位置/姿勢を推定
し、人物動作解析部3において、ユーザの位置/姿勢に
影響しない特徴量を構成する。
【0021】まず、人物位置姿勢推定部2の動作を説明
するが、説明の前提として、ユーザの位置/姿勢の推定
においては、ユーザの手以外に、2つ以上の特徴点の世
界座標系における3次元位置が分かっている必要があ
る。これを、図2の説明図を用いて説明する。図2にお
いて、鉛直上向きが世界座標系でのある軸上と一致する
ことが前提とされており、姿勢は、鉛直上向きを軸(y
軸)と回転中心とした回転動作のみで表されるものとす
る。
【0022】図2に示した例では、ユーザ(人物)の位
置として、右膝の位置、姿勢は、右膝から左膝を結んだ
ベクトル(図のx軸方向)、および鉛直上向きへのベク
トル(図のy軸方向)に対して、垂直な方向ということ
で求まる。
【0023】人物動作解析部3において、ユーザの手足
の特徴点について、その位置をユーザの向き/位置に依
存しないユーザ座標系の値に変換する。この座標系は、
例えば図2に示すように、ユーザの右膝の3次元位置を
基準点とし、鉛直上向きをy軸の正方向、ユーザの向き
の反対方向(正面から背面方向)をz軸の正方向とした
左手系である。なお、これとは別に、右手系としてもよ
いが、説明の都合上、左手系で説明する。
【0024】このユーザ座標系で記述すると、例えば上
下左右の位置指示の動作が、x/yの座標のみから推定
することができ、ジェスチャの推定には、都合がよい。
さらにこのようにして変換した値の、時系列変化も求め
ておく。
【0025】その後、ジェスチャ推定部4では、ジェス
チャモデル記憶部5のジェスチャモデルの値を参照しな
がら、ジェスチャを推定する。
【0026】例えば、上下左右の指示動作の推定は、図
3に示すように、予めモデル化されたものを利用する。
【0027】図3において、PU(XU、YU)、PD
(XD、YD)、PL(XL、YL)、PR(XR、Y
R)は、それぞれ上、下、左、右の位置指示の基準とな
る点であり、PU、PD、PL、PRを中心とした4つ
の点線で囲んだ円は、各指示動作を推定する領域の範囲
である。
【0028】またrU、rD、rL、rRは、各領域を
円とみなした場合の円の半径である。
【0029】各フレームでは、人物動作解析部3で推定
される右手の位置と、各点とのユークリッド距離を計算
する。
【0030】そして、このユークリッド距離が、指示動
作を推定するための領域内に存在する場合、該当する指
示動作を行ったものと推定する。例えば、図2のユーザ
の右手と、図3におけるPUとのユークリッド距離をd
とすると、d<rUのとき、上指示動作を行なったもの
と推定する。
【0031】ただし、このままでは、ユーザが別の動作
をするときに、偶然、その領域を通過した場合にも、該
位置指示と誤認識されてしまうことから、この誤認識を
避けるために、予め定められた一定時間Tth以上右手
の位置が、各領域に留まった場合についてのみ、位置指
示を認識することとする。
【0032】そして、図3の、XU、YU、XD、Y
D、XL、YL、XR、YR、rU、rD、rL、r
R、Tthは、ユーザの手の長さ/感覚に依存する値で
あるため、ジェスチャモデル記憶部5に、事前に、ジェ
スチャの推定対象のユーザに応じた値を、設定記憶して
おき、ジェスチャモデル記憶部5の格納値を参照しなが
ら、ユーザのジェスチャを推定する。なお、右手でジェ
スチャを行なった例について説明したが、左手でのジェ
スチャも同様の処理で認識することができる。
【0033】次に本発明の第2の実施例について説明す
る。本発明の第2の実施例は、第1の実施例において、
特徴点位置計測部1が、ステレオ画像処理を行なうもの
である。この場合、ユーザは、図4に示すように、手足
4箇所に特殊な蛍光色をしたマーカーを装着する。蛍光
色を利用するのは、光のあたり具合/マーカーとカメラ
間の距離によって色の検出精度が落ちてしまうことを防
ぐためである。なお、このマーカーの色は色空間で離れ
た赤/青/黄/緑を使用すると効果的である。また、色
を使わない方法として、例えば文献(4)(特開平9−
243325号公報)に提案されているように、特殊光
を発光するマーカーなどを、上記位置に使用してもよ
い。
【0034】さらに、ステレオ画像処理を行なうにあた
り、被写体を撮像する左右2つののカメラの、相対的な
位置/姿勢を予め求めておく必要がある。ここでは、空
間中のそれぞれの相対位置が分かっている5点以上の点
の各画像中に撮影されている位置を利用して、例えば文
献(5)(Liu、「Determinationof
Camera Location from 2−D
to 3−D Line and Point Co
rrespondence」、IEEE Transa
ction PAMI(アイトリプルイ−トランザクシ
ョン パタンアナリシス アンド マシンインテリジェ
ンス)、1990年、第12号、第28−37頁)に記
載されている手法により、予め求めておく。なお、この
手法で求まるのは、左カメラのレンズ中心を原点として
光軸方向をZ軸とした左手系(図5(b)参照、以下、
この座標系を「左カメラ座標系」と呼ぶ)を基準とし
て、右カメラのレンズ中心を原点として光軸方向をz軸
とした左手系(図5(c)参照、以下、この座標系を
「右カメラ座標系」と呼ぶ)に変換する際の回転行列
R、並進ベクトルh ̄である。
【0035】ここでR、h ̄は以下のように表せる。
【0036】
【0037】なお便宜上、本実施例では、世界座標系を
左カメラ座標系としているが、世界座標系は右カメラ座
標系であってもよい。
【0038】以下では、具体的な処理内容について説明
する。まず、ユーザが撮影されたステレオ画像を入力す
る。そして、色情報によって、4種類のそれぞれのマー
カー領域を抽出する。
【0039】次に、それぞれのマーカー領域の重心位置
をそれぞれのステレオ画像において求める。各画像にお
いて重心位置を求め、その位置を基に、世界座標系での
各マーカーの3次元位置を計測する。
【0040】左右画像中のマーカーの重心位置をそれぞ
れPL(xl,yl)、PR(xr,yr)とすると、PL
の左カメラ座標系での位置ベクトルは、 xl ̄=(xl,yl,flT と表され、PRの右カメラ座標系での位置ベクトルは、 xl ̄=(xr,yr,frT と表される。但し肩のTは転置(Transpose)を表す。
【0041】ここで、注意すべき事項として、マーカー
の一部が身体で隠れてしまうので、左右画像においてマ
ーカーの撮影されている領域が異なってしまう。したが
って、マーカー領域の重心位置を示すPL、PRは、通
常、エピポーラー拘束を満たさない。ゆえに、直線CL
PLと直線CRPRは通常一点Mで交わらない。
【0042】したがって、図5(a)に拡大図として示
すように、Mを、直線CLLと直線CRRのいずれから
も等距離で、しかも、その距離が最小になる位置に、定
義する。
【0043】このとき、Mを通って、直線CLLと直線
RRに対する垂線の足をML、MRとし、CLL ̄=
txL ̄、CRR ̄=sxR ̄とすると、
【0044】
【0045】上式(2)、(3)の連立方程式を解く
と、
【0046】
【0047】そして、上式(4)により、t、sを求め
ると、世界座標系での点Mの位置ベクトルxM ̄は次式
(5)として求まる。
【0048】
【0049】以上が、フレーム画像処理を行う特徴点位
置計測部2の動作である。
【0050】なお、人物位置姿勢推定部2以降の動作
は、前記第1の実施例と同じである。
【0051】次に、本発明の第3の実施例について説明
する。本発明の第3の実施例は、前記第1の実施例のジ
ェスチャ推定部4において、「手招き」/「ばいばい」
などの反復動作の推定を行なうようにしたものである。
これは、人物動作解析部3の座標変換によって、「ばい
ばい」のような動作をユーザが行なった場合、該ユーザ
の手の特徴点の座標変化が、x軸方向に現れたり、「手
招き」のような動作をユーザが行なった場合手の特徴点
の座標変化がz軸方向に現れたりすることを利用してい
る。
【0052】図6は、反復動作の特徴をモデル化した図
であり、ユーザが「ばいばい」の動作をした場合の、フ
レーム番号と特徴点のユーザ座標系における座標変化の
関係を示す図である。以下、「ばいばい」について説明
するが、「手招き」の場合も同様である。
【0053】まず、認識にあたり、過去数フレームの情
報を記載した配列Pi[j](ただし、i=0、1、
j=0、…、nmax-1)を用意する。
【0054】このP0[j]、P1[j]は、それぞれ
「手招き」/「ばいばい」の認識に必要な情報を格納す
るためものであり、ジェスチャに応じて別々に用意す
る。
【0055】図6において、横軸のフレーム番号は、キ
ャプチャを始めてからの画像のフレーム数を示す。Pi
[j]は、初期設定ではすべてのインデクスi、jにつ
いて、値を0に設定しておき、フレーム番号をnmax
割った余りを、jの値にしながら、現在のフレームか
ら、nmaxフレーム前までの情報を記録する。
【0056】次に、毎フレームの処理では、まず座標変
換した各軸方向について座標変化の絶対値を求める。
【0057】そして、それらの座標変化のうち、x軸の
変化が予め定められた閾値TH0を超える場合、あるい
は、該閾値と極性を反転した負値である閾値−TH0を
下回る場合には、「ばいばい」の動作を一部おこなって
いるものとみなして、 P1[j0]=1(j0は当該フレームでのjの値) とする。
【0058】また、x軸の変化が閾値−TH0を下回る
場合は、 P1[j0]=−1(j0は当該フレームでのjの値) とする。
【0059】ただし、上記以外の場合は、P1[j]=
0とする。
【0060】同様に、z軸の変化が予め定められた閾値
TH1を超える場合、あるいは閾値−TH1を下回る場
合も、「手招き」の動作を一部おこなっているものとみ
なして、それぞれ、 P0[j]=1、 P0[j]=−1(ただし、jはフレーム番号) とする。それ以外の場合は、P0[j]=0とする。
【0061】このように、Pi[j]が書き換えられた
後、Pi[0]からPi[nmax-1]までのうち、1あ
るいは−1をとる値をとるものをカウントする。このカ
ウントされた値をd1とする。
【0062】また、Pi[0]からPi[nmax-1]の
総和を求め、その総和をd2とする。
【0063】d1が一定値mi(ただしi=0、1)を
超え、かつ、d2が0、1、−1のいずれかの値をとる
場合、そのジェスチャが行われたものと推定する。
【0064】d1がmi(ただしi=0、1)を超えた
ということは、特定軸において激しい移動が高頻度でお
こなわれたということを意味し、d2が0、1、−1の
いずれかの値をとったということは、その激しい運動の
向きが正負反対にほぼ同頻度で行われたことを意味して
いる。
【0065】ただし、TH0、TH1、nmax、miは、
システムの処理速度、ユーザの手を動かす速さに依存す
るものであることから、システムの処理速度、ユーザの
手を動かす速さに合った値を、予めジェスチャモデル記
憶部6に設定記憶しておき、毎フレームではその値を参
照することにする。
【0066】
【発明の効果】以上説明したように、本発明によれば下
記記載の効果を奏する。
【0067】本発明の第1の効果は、ユーザの位置/姿
勢に依存しないジェスチャ推定を行なうことができる、
ということである。
【0068】その理由は、本発明においては、ユーザの
特徴点を世界座標系から、ユーザ姿勢に対し一意でかつ
ユーザのある特徴点を基準としたユーザ座標系に変換す
る構成としたことによる。
【0069】本発明の第2の効果は、ユーザが行う反復
動作を高速に推定するできる、ということである。
【図面の簡単な説明】
【図1】本発明の一実施例の構成を示すブロック図であ
る。
【図2】本発明の一実施例を説明するための図であり、
ユーザ座標系を示す図である。
【図3】本発明の一実施例を説明するための図であり、
上下左右の指示動作の特徴をモデル化した図である。
【図4】本発明の一実施例を説明するための図であり、
ユーザのマーカー使用例を示した図である。
【図5】本発明の別の実施例を説明するための図であ
り、(a)はマーカー位置推定、(b)は左カメラ座標
系、(c)は右カメラ座標系を説明する図である。
【図6】本発明の別の実施例を説明するための図であ
り、反復動作の特徴をモデル化した図である。
【符号の説明】
1 特徴点位置計測部 2 人物位置姿勢推定部 3 人物動作解析部 4 ジェスチャ推定部 5 ジェスチャモデル記憶部
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA17 AA37 BB30 CC16 DD06 FF01 FF05 FF67 JJ03 JJ05 JJ19 JJ26 QQ06 QQ17 QQ38 RR03 2F112 AC06 BA05 CA12 FA38 5B057 BA02 BA06 CA01 CA02 CA12 CA13 CA16 CD03 CD20 DA20 DB02 DB05 DB06 DC08

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】ユーザに装着したセンサの出力情報、又は
    前記ユーザを撮像した画像情報から、前記ユーザの手足
    の動きの特徴を示す点の空間中の3次元座標を計測する
    特徴点位置計測手段と、 前記計測された特徴点のうち前記ユーザの手以外の特徴
    点の3次元座標から、前記ユーザの3次元位置及び姿勢
    を推定する人物位置姿勢推定手段と、 前記推定された前記ユーザの3次元位置点を基準点とし
    て、前記ユーザの姿勢に応じて各座標軸が一意に定めら
    れるユーザ座標系を構成し、前記ユーザの手足の特徴点
    を前記ユーザ座標系に変換することにより、前記ユーザ
    の位置及び姿勢に依存しない特徴量を抽出し、前記ユー
    ザの位置及び姿勢に依存しない前記特徴量の時系列変化
    を解析する人物動作解析手段と、 予め作成されたジェスチャモデルを記憶するジェスチャ
    モデル記憶手段と、 前記特徴量の時系列変化と、前記ジェスチャモデル記憶
    手段に記憶されているジェスチャモデルとのマッチング
    をとり、前記ユーザの行なったジェスチャを推定するジ
    ェスチャ推定手段と、 を含むことを特徴とするジェスチャ認識装置。
  2. 【請求項2】前記ジェスチャ推定手段において、絶対値
    が同じであり、互いに逆極性の2つの閾値を設け、前記
    特徴量の1つの時系列変化について、その値が正の前記
    閾値よりも大きくなるフレームと、負の前記閾値よりも
    小さくなるフレームとが交互に存在し、且つ、このよう
    なフレームが、予め定められた所定時間内に、予め定め
    られた所定の割合よりも多く存在する場合に、反復動作
    のジェスチャであるものと推定する、ことを特徴とする
    請求項1記載のジェスチャ認識装置。
  3. 【請求項3】前記ジェスチャ記憶手段には、ジェスチャ
    モデルとして、前記ユーザ座標における指示動作の基準
    点を含み各指示動作を推定するための領域の範囲が格納
    されており、 前記ジェスチャ推定手段は、前記人物動作解析手段で推
    定した特徴点が、前記指示動作を推定するための領域内
    に所定時間以上留まって存在する場合に、前記領域に対
    応する指示動作を行ったものと推定する、ことを特徴と
    する請求項1記載のジェスチャ認識装置。
  4. 【請求項4】指示動作を推定する対象に装着したセンサ
    の出力、又は前記対象を撮像した画像情報から、前記対
    象の1又は複数の所定の部位の動きの特徴を示す点の空
    間中での3次元座標を特徴点として計測する手段と、 前記計測された特徴点のうち前記対象のうち予め定めら
    れた所定部位の特徴点の3次元座標から、前記対象の3
    次元位置、及び、姿勢を推定する手段と、 前記推定された前記対象の特徴点の3次元位置の一つを
    基準点として、前記対象の姿勢に応じて各座標軸が一意
    に定められる座標系を構成し、前記対象の前記1又は複
    数の所定の部位の特徴点を、前記座標系に変換すること
    で、前記対象の位置及び姿勢に依存しない特徴量を抽出
    し、前記対象の位置及び姿勢に依存しない前記特徴量の
    時系列変化を解析する手段と、 前記特徴量について、その時系列変化と、予め記憶部に
    格納された動作モデルとのマッチングをとり、前記対象
    の指示動作を推定する手段と、 を含むことを特徴とする指示動作認識装置。
  5. 【請求項5】前記対象の指示動作を推定する手段が、前
    記特徴量の1つの時系列変化について、前記特徴量の値
    が、予め定められた互いに極性の異なる第1、第2の閾
    値を超えて交互に移動するフレームの出現頻度が所定値
    以上である場合、反復動作の指示動作であるものと推定
    する、ことを特徴とする請求項4記載の指示動作認識装
    置。
  6. 【請求項6】(a)ユーザに装着したセンサの出力情
    報、又は前記ユーザを撮像した画像情報から、前記ユー
    ザの手足の動きの特徴を示す点の空間中の3次元座標を
    計測するステップと、 (b)前記抽出された特徴点のうち前記ユーザの手以外
    の特徴点の3次元座標から、前記ユーザの3次元位置及
    び姿勢を推定するステップと、 (c)前記推定された前記ユーザの3次元位置の一つを
    基準点として、前記ユーザの姿勢に応じて各座標軸が一
    意に定められるユーザ座標系を構成し、前記ユーザの手
    足の特徴点を前記ユーザ座標系に変換することにより、
    前記ユーザの位置及び姿勢に依存しない特徴量を抽出
    し、前記ユーザの位置及び姿勢に依存しない前記特徴量
    の時系列変化を解析するステップと、 (d)前記時系列変化と、予め作成されたジェスチャモ
    デルを記憶するジェスチャモデル記憶部に格納されてい
    るジェスチャモデルとのマッチングをとり、前記ユーザ
    の行なったジェスチャを推定するステップと、 を含むことを特徴とするジェスチャ認識方法。
  7. 【請求項7】前記ステップ(d)において、絶対値が同
    じであり、互いに逆極性の2つの閾値を設け、前記特徴
    量の1つの時系列変化について、その値が正の閾値より
    も大きくなるフレームと、負の閾値よりも小さくなるフ
    レームとが交互に存在し、且つ、これらのフレームが、
    所定時間に、予め定められた所定の割合よりも多く存在
    する場合に、反復動作のジェスチャであると推定する、
    ことを特徴とする請求項3記載のジェスチャ認識方法。
  8. 【請求項8】前記センサとして磁気センサを用いること
    をことを特徴とする請求項1記載のジェスチャ認識装
    置。
  9. 【請求項9】前記特徴点位置計測手段が、二つのカメラ
    で撮像された画像情報から、ステレオ画像処理を行い、
    前記ユーザの手足の動きの特徴を示す点の空間中の3次
    元座標を計測することを特徴とする請求項1記載のジェ
    スチャ認識装置。
  10. 【請求項10】(a)ユーザに装着したセンサの出力情
    報、又は前記ユーザの画像情報から、前記ユーザの手足
    の動きの特徴を示す点の空間中の3次元座標を計測する
    処理と、 (b)前記抽出された特徴点のうち前記ユーザの手以外
    の特徴点の3次元座標から、前記ユーザの3次元位置及
    び姿勢を推定するステップと、 (c)前記推定された前記ユーザの3次元位置の一つを
    基準点として、前記ユーザの姿勢に応じて各座標軸が一
    意に定められるユーザ座標系を構成し、前記ユーザの手
    足の特徴点を前記ユーザ座標系に変換することにより、
    前記ユーザの位置及び姿勢に依存しない特徴量を抽出
    し、前記ユーザの位置及び姿勢に依存しない前記特徴量
    の時系列変化を解析する処理と、 (d)前記時系列変化と、予め作成されたジェスチャモ
    デルを記憶するジェスチャモデル記憶部に格納されてい
    るジェスチャモデルとのマッチングをとり、前記ユーザ
    の行なったジェスチャを推定する処理と、 の(a)〜(d)の各処理をコンピュータで実行させる
    ためのプログラムを記録した記録媒体。
JP32303998A 1998-11-13 1998-11-13 ジェスチャ認識装置及び方法 Expired - Fee Related JP3144400B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32303998A JP3144400B2 (ja) 1998-11-13 1998-11-13 ジェスチャ認識装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32303998A JP3144400B2 (ja) 1998-11-13 1998-11-13 ジェスチャ認識装置及び方法

Publications (2)

Publication Number Publication Date
JP2000149025A true JP2000149025A (ja) 2000-05-30
JP3144400B2 JP3144400B2 (ja) 2001-03-12

Family

ID=18150437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32303998A Expired - Fee Related JP3144400B2 (ja) 1998-11-13 1998-11-13 ジェスチャ認識装置及び方法

Country Status (1)

Country Link
JP (1) JP3144400B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7593552B2 (en) 2003-03-31 2009-09-22 Honda Motor Co., Ltd. Gesture recognition apparatus, gesture recognition method, and gesture recognition program
JP2010117230A (ja) * 2008-11-12 2010-05-27 Topcon Corp 建設機械
JP2011227679A (ja) * 2010-04-19 2011-11-10 Secom Co Ltd 通報装置
US20110296353A1 (en) * 2009-05-29 2011-12-01 Canesta, Inc. Method and system implementing user-centric gesture control
JP2014026566A (ja) * 2012-07-30 2014-02-06 Pioneer Electronic Corp ジェスチャ検出装置、ジェスチャ検出方法及びプログラム
US8667426B2 (en) 2008-09-29 2014-03-04 Hitachi Consumer Electronics Co., Ltd. Input apparatus
JP2014238727A (ja) * 2013-06-07 2014-12-18 キヤノン株式会社 情報処理装置およびその方法
EP2874045A1 (en) 2013-11-13 2015-05-20 Omron Corporation Gesture recognition device and control method for the same
EP2908219A1 (en) 2014-02-14 2015-08-19 Omron Corporation Gesture recognition apparatus and control method of gesture recognition apparatus
JP2017525937A (ja) * 2014-05-29 2017-09-07 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢並びに位置算出方法
JP2020098614A (ja) * 2015-06-10 2020-06-25 ブイタッチ・カンパニー・リミテッド ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
CN111898489A (zh) * 2020-07-15 2020-11-06 北京百度网讯科技有限公司 用于标注手掌位姿的方法、装置、电子设备及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107562366A (zh) * 2017-09-28 2018-01-09 珠海普林芯驰科技有限公司 手势识别方法、计算机装置及计算机可读存储介质

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7593552B2 (en) 2003-03-31 2009-09-22 Honda Motor Co., Ltd. Gesture recognition apparatus, gesture recognition method, and gesture recognition program
US8667426B2 (en) 2008-09-29 2014-03-04 Hitachi Consumer Electronics Co., Ltd. Input apparatus
JP2010117230A (ja) * 2008-11-12 2010-05-27 Topcon Corp 建設機械
US9569005B2 (en) 2009-05-29 2017-02-14 Microsoft Technology Licensing, Llc Method and system implementing user-centric gesture control
US20110296353A1 (en) * 2009-05-29 2011-12-01 Canesta, Inc. Method and system implementing user-centric gesture control
US8693724B2 (en) * 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
JP2011227679A (ja) * 2010-04-19 2011-11-10 Secom Co Ltd 通報装置
JP2014026566A (ja) * 2012-07-30 2014-02-06 Pioneer Electronic Corp ジェスチャ検出装置、ジェスチャ検出方法及びプログラム
JP2014238727A (ja) * 2013-06-07 2014-12-18 キヤノン株式会社 情報処理装置およびその方法
EP2874045A1 (en) 2013-11-13 2015-05-20 Omron Corporation Gesture recognition device and control method for the same
EP2908219A1 (en) 2014-02-14 2015-08-19 Omron Corporation Gesture recognition apparatus and control method of gesture recognition apparatus
JP2017525937A (ja) * 2014-05-29 2017-09-07 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びオプティカルトラッキングシステムのマーカー部の姿勢並びに位置算出方法
US10109066B2 (en) 2014-05-29 2018-10-23 Koh Young Technology Inc. Optical tracking system, and method for calculating posture and location of marker part in optical tracking system
JP2020098614A (ja) * 2015-06-10 2020-06-25 ブイタッチ・カンパニー・リミテッド ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
CN111898489A (zh) * 2020-07-15 2020-11-06 北京百度网讯科技有限公司 用于标注手掌位姿的方法、装置、电子设备及存储介质
CN111898489B (zh) * 2020-07-15 2023-08-08 北京百度网讯科技有限公司 用于标注手掌位姿的方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
JP3144400B2 (ja) 2001-03-12

Similar Documents

Publication Publication Date Title
CN109255813B (zh) 一种面向人机协作的手持物体位姿实时检测方法
JP5167248B2 (ja) 深度マップによるヒューマノイド形状のモデル化
Tjaden et al. Real-time monocular pose estimation of 3D objects using temporally consistent local color histograms
Bobick et al. The recognition of human movement using temporal templates
US9898651B2 (en) Upper-body skeleton extraction from depth maps
EP2751777B1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
Ye et al. Accurate 3d pose estimation from a single depth image
JP5211069B2 (ja) ラベル付けを用いた人体姿勢の推定および追跡
JP2009536731A5 (ja)
CN110363867A (zh) 虚拟装扮系统、方法、设备及介质
JP3144400B2 (ja) ジェスチャ認識装置及び方法
Yao et al. Real-time hand pose estimation from RGB-D sensor
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
Gall et al. Drift-free tracking of rigid and articulated objects
CN113487674A (zh) 一种人体位姿估计系统和方法
Iwasawa et al. Human body postures from trinocular camera images
CN117238031A (zh) 一种虚拟人的动作捕捉方法与系统
KR101447958B1 (ko) 신체 부분 검출 방법 및 장치
Zeng et al. Finger tracking for breast palpation quantification using color image features
JPH08212327A (ja) 身振り認識装置
Barros et al. Real-time monocular 6-dof head pose estimation from salient 2d points
JP6810442B2 (ja) カメラアセンブリ、そのカメラアセンブリを用いる手指形状検出システム、そのカメラアセンブリを用いる手指形状検出方法、その検出方法を実施するプログラム、及び、そのプログラムの記憶媒体
Frigola et al. Visual human machine interface by gestures
Jain et al. Human computer interaction–Hand gesture recognition
Wang et al. Markerless body motion capturing for 3d character animation based on multi-view cameras

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20001128

LAPS Cancellation because of no payment of annual fees