JP2015148706A - 手話単語分類情報生成装置およびそのプログラム、ならびに、手話単語検索装置およびそのプログラム - Google Patents
手話単語分類情報生成装置およびそのプログラム、ならびに、手話単語検索装置およびそのプログラム Download PDFInfo
- Publication number
- JP2015148706A JP2015148706A JP2014021253A JP2014021253A JP2015148706A JP 2015148706 A JP2015148706 A JP 2015148706A JP 2014021253 A JP2014021253 A JP 2014021253A JP 2014021253 A JP2014021253 A JP 2014021253A JP 2015148706 A JP2015148706 A JP 2015148706A
- Authority
- JP
- Japan
- Prior art keywords
- sign language
- hand
- language word
- search
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 167
- 238000001514 detection method Methods 0.000 claims abstract description 27
- 238000004364 calculation method Methods 0.000 claims description 36
- 210000000707 wrist Anatomy 0.000 claims description 34
- 210000003857 wrist joint Anatomy 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 4
- 210000003811 finger Anatomy 0.000 description 104
- 230000009471 action Effects 0.000 description 26
- 238000000034 method Methods 0.000 description 23
- 239000011159 matrix material Substances 0.000 description 15
- 230000009466 transformation Effects 0.000 description 12
- 239000013598 vector Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 210000001145 finger joint Anatomy 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000007429 general method Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 210000004935 right thumb Anatomy 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 210000002478 hand joint Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
Description
この手話辞書には、単語と手話動作の一連の画像とを対応付けた紙ベースの辞書、単語と手話動作の映像とを対応付けたDVD等の記録媒体等が存在する。
また、近年では、手話の動作をモーションキャプチャシステムにより、指先を含めた人体の動き(モーションデータ)として取得し、単語とモーションデータとを対応付けることで、単語から対応する手話を検索する技術が開示されている(特許文献1、非特許文献1参照)。このシステムによれば、単語を指定することで、手話のモーションデータをCGアニメーション化して提示することができる。
これらの手法(辞書、システム)は、単語から手話の動作を検索するものであって、実際の手話から単語を検索するものではない。
また、手話動作から単語(文字)を検索する技術として、手話動作を撮像した画像から、画像処理により、手の特徴情報を抽出し、手話動作における手の特徴情報を予めグループ化したデータベースから、グループに対応する文字を特定する技術が存在する(特許文献2参照)。
一方、実際の手話動作から単語を検索する手法には、多くの問題が存在する。
例えば、手話動作から単語を検索する辞書を作成するためには、辞書作成者が、手話を見て人手で手話の分類を行っているのが現状である。そのため、辞書の語彙数を多くしようとすれば、その作業量は膨大となってしまうという問題がある。
また、前記した画像処置によって、撮像画像から手話単語を特定する手法は、照明等の環境によって、撮像画像から手、指を検出できない場合がある。また、手話は、手の型(形)等により意味が異なる。そのため、平面の撮像画像から、手話単語で異なる多くの3次元の手型を特定すること、現実的には非常に困難である。
そして、手話単語分類情報生成装置は、手型分類手段によって、分類結果を、手話単語のモーションデータごとに分類情報の1つとして対応付ける。
これによって、手話単語分類情報生成装置は、手の型から手話単語を検索することが可能な分類情報を生成することができる。
そして、手話単語分類情報生成装置は、手位置分類手段によって、手首の関節の位置を、予め区分した位置で分類し、その分類結果を、代表フレームに対応する手話単語のモーションデータに分類情報の1つとして対応付ける。
これによって、手話単語分類情報生成装置は、手の位置から手話単語を検索することが可能な分類情報を生成することができる。
これによって、手話単語分類情報生成装置は、手の向き(手方向)から手話単語を検索することが可能な分類情報を生成することができる。
そして、手話単語検索装置は、手型指定手段、手位置指定手段および手方向指定手段によって、それぞれ、手型情報、手位置情報および手方向情報の指定を受け付ける。
そして、手話単語検索装置は、検索手段によって、指定された手型情報、手位置情報および手方向情報に合致する手話単語を記憶手段において検索する。
そして、手話単語検索装置は、検索結果表示手段によって、検索結果である手話単語を表示する。
これによって、手話単語検索装置は、手話動作時の手の特徴から、その意味を示す手話単語を検索することができる。
本発明によれば、モーションデータで規定された手話単語動作を、人手を介さずに、その動作の代表的な手の型、位置、向きによって分類することができる。
そして、本発明によって、手話単語動作の代表的な手の型、位置、向きによって、手話動作から、その手話動作が示す手話単語を検索することが可能になる。
これによって、本発明は、手話単語動作の学習効率を高めることができる。
〔手話単語モーションデータの概要〕
まず、本発明で使用する手話単語の動作を示すモーションデータ(手話単語モーションデータ)の構造について説明しておく。このモーションデータは、一般的なモーションキャプチャシステムを用いて、手話単語ごとに収録したデータである。ここでは、モーションデータとして、Biovision社が開発したファイルフォーマット(BVH〔BioVision Hierarchy〕形式)のデータを例に説明する。
図2にBVH形式で記述されたモーションデータの例を示す。
図2に示すように、BVH形式のモーションデータは、HIERARCHY部(1行目から28行目)と、MOTION部(29行目以降)とで構成される。
HIERARCHY部には、人体の関節を示す関節ノード(JOINT)が階層構造で定義され、初期姿勢における親関節ノードからの相対座標(OFFSET)と、当該関節ノードの移動量(Xposition,Yposition,Zposition)および回転量(Zrotation,Xrotation,Yrotation)の変数とを定義している。
MOTION部には、フレーム数(30行目)と、フレーム時間間隔(31行目)と、HIERARCHY部で定義してある移動量および回転量の変数に対する実際の値(32行目)を1フレームごとに1行ずつ記述している。
例えば、右手の関節ノード(RightIndex3)の位置および向きは、Hips、Chest1、Chest2、…、RightWrist、RightIndex0、…、RightIndex3と、図2に示したモーションデータの関節ノードの階層を辿っていくことで求めることができる。
なお、ここでは、XYZ座標系は、図3(a)に示すように、右手系を用いることとする。
以下、本発明の実施形態に係る手話単語分類情報生成装置の構成および動作を説明した後、手話単語検索装置の構成および動作について順に説明する。
最初に、図1を参照して、手話単語分類情報生成装置1の構成について説明する。
手話単語分類情報生成装置1は、手話単語の動作における手の形状特徴(手の型、位置、向き等)から、手話単語を検索するための検索条件となる分類情報を生成するものである。
ここでは、手話単語分類情報生成装置1は、各分類情報を生成するため、代表フレーム検出手段10と、型分類手段11と、位置方向分類手段12と、を備える。
ここでは、動き量算出手段100は、モーションデータDのあるフレームとその前のフレームとの間で、移動量(X移動量,Y移動量,Z移動量)および回転量(X回転量,Y回転量,Z回転量)の成分ごとの差の絶対値の総和、または、成分ごとの差の2乗和を求めることで、あるフレームにおける動き量を求める。同様に、動き量算出手段100は、順次、すべてのフレームについて動き量を求める。
すなわち、動き量算出手段100は、図2で説明したモーションデータDのMOTION部において、32行目以降で、1行単位に記載されているフレームの移動量および回転量から、フレーム間の動き量を求める。
そして、動き量算出手段100は、手話単語動作ごとに、フレーム単位の動き量を、動き量最少フレーム検出手段101に出力する。
ここでは、動き量最少フレーム検出手段101は、手話単語の動作が開始されたフレームと、手話単語の動作が終了したフレームとの間で、動き量が最少となるフレームを検出する。
図4は、ある手話単語動作のフレームごとの動き量をグラフ化したものである。横軸はフレーム番号、縦軸は動き量(単位なし)を示している。
図4に示すように、動き量最少フレーム検出手段101は、手話動作の最初のフレームから最後のフレームに向かって、予め定めた閾値の動き量を超過したフレームを動作の開始となる開始フレームFsとする。また、動き量最少フレーム検出手段101は、図4に示すように、手話動作の最後のフレームから最初のフレームに向かって、予め定めた閾値の動き量を超過したフレームを動作の終了となる終了フレームFeとする。
そして、動き量最少フレーム検出手段101は、開始フレームFsと終了フレームFeとの間で動き量が最少となるフレームを代表フレームFtとする。
この動き量最少フレーム検出手段101は、代表フレームを特定する情報(識別情報IDおよびフレーム番号)を、型分類手段11および位置方向分類手段12に出力する。
図1に戻って、手話単語分類情報生成装置1の構成について説明を続ける。
ここでは、型分類手段11は、クラスタリング手段110と、手型画像生成手段111と、を備える。
ここで、クラスタリング手段110は、手型を特定する情報として、モーションデータDの代表フレームにおける指部分の関節の回転量の組を用いる。
具体的には、クラスタリング手段110は、図3(b)に示した手(ここでは、例として、右手)の各指の先端を除く、親指の3個の関節ノード(RightThumb1〜RightThumb3)、人差し指の4個の関節ノード(RightIndex0〜RightIndex3)、中指の4個の関節ノード、薬指の4個の関節ノード、小指の4個の関節ノードの合計19個の関節ノードの回転量の組を1つのデータ単位とし、検出されたすべての代表フレームについてクラスタリングを行う。
すなわち、クラスタリング手段110は、代表フレーム検出手段10から、記憶手段2に記憶されているモーションデータDのすべての代表フレームが検出された段階で動作する。
K平均法を用いた場合、クラスタリング手段110は、代表フレーム数の指の関節ノードの回転量の組を、ランダムにK個のクラスタに割り当てる。なお、このクラスタリング数のKは、例えば、手話の手型として予め定められている個数とする。そして、クラスタリング手段110は、クラスタごとに重心(X回転量の平均、Y回転量の平均、Z回転量の平均)を求める。さらに、クラスタリング手段110は、K個のクラスタを先に求めた重心に近いクラスタに再度割り当てる。そして、クラスタリング手段110は、クラスタの割り当てが変化しなくなるまで、処理を繰り返す。
これによって、クラスタリング手段110は、代表フレームにおける手型をK個にクラスタリングすることができる。
また、クラスタリング手段110は、クラスタ固有の値とともに、モーションデータDを特定する情報(識別情報ID)を、手型画像生成手段111に出力する。
この手型画像生成手段111は、クラスタリング手段110から入力される識別情報IDに対応するモーションデータDから、CG(コンピュータグラフックス)により、手型画像Gを生成する。
そして、手型画像生成手段111は、クラスタリング手段110から入力されるクラスタ固有の値である手型情報に対応付けて、生成した手型画像Gを記憶手段2に書き込み記憶する。なお、手型画像生成手段111は、すでに同じ値の手型情報に対して手型画像Gが生成されている場合、手型画像の生成を行わないこととする。
このように生成された手型画像Gは、手話単語の検索を行う際の手型のサムネイル画像として使用される。
ここでは、位置方向分類手段12は、手位置方向算出手段120と、手位置分類手段121と、手方向分類手段122と、指方向算出手段123と、指方向分類手段124と、を備える。
この手位置方向算出手段120は、モーションデータDに記述されている基準位置(Hips)の関節ノードから、手首の関節ノードまでの階層関係(親子関係)により、代表フレームにおける移動量および回転量を、親関節ノードから子関節ノードに向かって座標変換することで、手首の位置および手のひらの方向を求める。
ここでは、手位置方向算出手段120は、以下の(手順1)から(手順3)の順で、目的とする手首の位置および方向を算出する。
手位置方向算出手段120は、ルート(Hips)から手首(Wrist〔ここでは、RightWristとする〕)までの関節ノードごとに、モーションデータDに記述されている代表フレームの移動量および回転量から、当該関節ノードにおける親関節ノードからの位置および向きを求める変換行列(同次変換行列)を生成する。
具体的には、手位置方向算出手段120は、関節ノードごとに、以下の式(1)に示す行列演算を行うことで、変換行列Aを生成する。
ここで、PxはXpositionに対応したX方向の移動量、PyはYpositionに対応したY方向の移動量、PzはZpositionに対応したZ方向の移動量である。また、θxはXrotationに対応したX軸周りの回転量、θyはYrotationに対応したY軸周りの回転量、θzはZrotationに対応したZ軸周りの回転量である。
そして、手位置方向算出手段120は、(手順1)で算出したルート(Hips)に対応する変換行列から手首(Wrist)に対応する変換行列までを順次乗算することで、ルートから手首までの全体の変換行列を生成する。
すなわち、関節ノードのHipsの変換行列をAHips、Chest1の変換行列をAChest1、…、RightWristの変換行列をARightWristとしたとき、手位置方向算出手段120は、以下の式(2)に示すように、それぞれの行列を順に乗算することで、ルートから手首までの変換行列Bを生成する。
そして、手位置方向算出手段120は、(手順2)で算出した変換行列Bの成分から、手首の位置および手のひらの方向を算出する。
すなわち、手位置方向算出手段120は、変換行列Bの平行移動の成分となる(LX,LY,LZ)を計算することで、代表フレームにおける手首位置の空間座標(Npx,Npy,Npz)を求める。
なお、初期姿勢における手首位置は、図2で説明したモーションデータ(手話単語モーションデータ)Dにおいて、ルート(ROOT)から、手首の関節ノードまでの相対座標(OFFSET)を加算した位置である。
なお、初期姿勢における手首の方向ベクトルは、予め手話動作の初期ポーズとして定めておくこととする。ここでは、手話動作の初期ポーズを、両手を横に広げ(Tポーズ)とし、手のひらを下向きにした姿勢とする。すなわち、初期姿勢では、手のひらの方向は、下向きであり、XYZ座標系における方向ベクトルは(0,−1,0)である。
このように、手位置方向算出手段120は、代表フレームにおいて、空間座標(XYZ座標)における手首の位置とその方向とを算出することができる。
そして、手位置方向算出手段120は、算出した手首の位置(空間座標)を手位置分類手段121に出力し、手首の方向(方向ベクトル)を手方向分類手段122に出力する。
この手位置分類手段121は、代表フレームにおいて、手首の位置がどこに存在するのかを大まかな区分で分類する。
ここでは、手位置分類手段121は、図6に示すように、代表フレームの画像をX方向(水平方向)に3分割、Y方向(垂直方向)に3分割した計9個の分割領域(UR,UC,UL,MR,MC,ML,DR,DC,DL)のどこに手首が位置しているのかを判定する。
なお、ここで、手位置分類手段121は、XY平面上で位置の分類を行ったが、手首位置のZ座標を加えて、3次元空間上で位置の分類を行ってもよい。
そして、手位置分類手段121は、手首が位置する分割領域を特定する固有の値を、分類情報Cの手位置情報として、記憶手段2において、識別情報IDで特定される手話単語(モーションデータD)に対応する管理情報に設定する。
この手方向分類手段122は、代表フレームにおいて、手のひらの方向がどの方向を向いているのかを大まかな区分で分類する。
ここでは、手位置方向算出手段120で算出された方向ベクトル(Nvx,Nvy,Nvz)のうちで、絶対値が最も大きい値となる軸の成分をその符号とともに、手のひらの方向として分類する。
なお、手方向分類手段122は、必ずしもXYZ方向のすべてについて方向を分類する必要はなく、例えば、Z軸方向のみに着目して、その正負によって分類を行うこととしてもよい。
そして、手方向分類手段122は、手のひらの方向を特定する固有の値を、分類情報Cの手方向情報として、記憶手段2において、識別情報IDで特定される手話単語(モーションデータD)に対応する管理情報に設定する。
この指方向算出手段123は、代表フレームのモーションデータDから、指の予め定めた2つの関節位置を求め、それぞれの関節の相対位置から、当該指が指し示す方向を算出する。
なお、これらの関節ノードの位置を求める手法は、手位置方向算出手段120で手首の関節ノード(RightWrist)を求める手法と同じである。
ただし、すでに、手位置方向算出手段120で、基準位置(Hips)の関節ノードから、手首の関節ノード(RightWrist)までの移動量および回転量は算出されているため、指方向算出手段123は、その移動量および回転量を用い、それ以降の指の関節ノードについて演算を行い、それぞれの空間座標を求めればよい。
そして、指方向算出手段123は、この指の方向ベクトルを指方向分類手段124に出力する。
この指方向分類手段124は、指方向算出手段123で算出された指の方向ベクトルの成分のうちで、その値の最も絶対値が大きい軸方向において、符号が正であればその軸の正方向、符号が負であればその軸の負方向に指が向いていると分類する。
なお、指方向分類手段124は、すべての指について方向を分類する必要はなく、例えば、人差し指のみ、親指、人差し指および中指の3本の指のみについて、分類を行うこととしてもよい。
そして、指方向分類手段124は、指の方向を特定する固有の値を、分類情報Cの指方向情報として、記憶手段2において、識別情報IDで特定される手話単語(モーションデータD)に対応する管理情報に設定する。
この分類情報を検索条件として用いることで、手型、手指の位置および向きから、手話動作が示す手話単語を検索することが可能になる。
なお、手話単語分類情報生成装置1は、コンピュータを、前記した各手段として機能させるための手話単語分類情報生成プログラムで動作させることができる。
次に、図9を参照(構成については適宜図1参照)して、手話単語分類情報生成装置1の動作について説明する。
まず、手話単語分類情報生成装置1は、代表フレーム検出手段10において、記憶手段2に記憶されている手話単語ごとのモーションデータDから、代表フレームを検出する。
すなわち、手話単語分類情報生成装置1は、代表フレーム検出手段10の動き量算出手段100によって、モーションデータDのあるフレームとその前のフレームと間で、移動量および回転量の成分ごとの差の絶対値の総和、または、成分ごとの差の2乗和を求めることで、フレーム単位の動き量を算出する(ステップS1)。
そして、手話単語分類情報生成装置1は、クラスタリング手段110によって、ステップS4でクラスタリングしたクラスタ固有の値を、分類情報Cの手型情報として、代表フレームに対応するモーションデータDに対応付けて記憶する(ステップS5)。
そして、手話単語分類情報生成装置1は、手型画像生成手段111によって、ステップS6で生成された手型画像を、手型情報に対応付けて記憶する(ステップS7)。
すなわち、手話単語分類情報生成装置1は、位置方向分類手段12の手位置方向算出手段120によって、モーションデータDに記述されている関節ノードの階層関係に基づく座標変換を行うことで、手(手首)の空間位置と手(手のひら)の方向とを算出する(ステップS8)。
そして、手話単語分類情報生成装置1は、位置方向分類手段12の手位置分類手段121によって、ステップS8で算出された手(手首)の位置を予め区分した位置で分類し、その分類した位置を特定する値を、分類情報Cの手位置情報として、代表フレームに対応するモーションデータDに対応付けて記憶する(ステップS9)。
そして、手話単語分類情報生成装置1は、位置方向分類手段12の指方向分類手段124によって、ステップS11で算出された指の方向を予め区分した方向で分類し、その分類した方向を特定する値を、分類情報Cの指方向情報として、代表フレームに対応するモーションデータDに対応付けて記憶する(ステップS12)。
そして、すべての代表フレームに対して、手の位置および手指の方向の分類が完了した段階(ステップS13でYes)、手話単語分類情報生成装置1は、動作を終了する。
また、手話単語分類情報生成装置1は、手型情報に対応付けて、検索用のサムネイル画像として手型画像を生成することができる。
次に、図10を参照して、手話単語検索装置3の構成について説明する。
手話単語検索装置3は、手話単語分類情報生成装置1(図1参照)で生成された分類情報を検索条件として、手話単語を検索するものである。なお、手話単語検索装置3は、モーションデータDに対して、予め手話単語分類情報生成装置1(図1参照)によって分類情報等が設定された記憶手段2を接続している。
ここでは、手話単語検索装置3は、検索画面表示制御手段30と、分類情報指定手段31と、検索実行手段32と、を備える。
この検索画面表示制御手段30は、記憶手段2に記憶されている分類情報C(手型情報、手位置情報、手方向情報、指方向情報)を、検索条件としてユーザが指定するための手話単語検索画面を生成し、表示装置Mの画面に表示する。
例えば、検索画面表示制御手段30は、図11に示すように、手型を検索条件として指定するためのプルダウンメニューのタイトル部分51と、手の方向(手のひらの向き)を検索条件として指定するためのプルダウンメニューのタイトル部分52と、指の方向を検索条件として指定するためのプルダウンメニューのタイトル部分53と、を検索条件の項目を選択するボタンとして含んだ検索画面50を表示する。
さらに、検索画面表示制御手段30は、図11に示すように、検索条件指定後に検索の実行を受け付ける検索ボタン55を画面上に表示する。
また、検索画面表示制御手段30は、タイトル部分52をマウス等の選択手段で選択されることで、後記する分類情報指定手段31の手方向指定手段311に制御を移す。
また、検索画面表示制御手段30は、タイトル部分53をマウス等の選択手段で選択されることで、後記する分類情報指定手段31の指方向指定手段312に制御を移す。
また、検索画面表示制御手段30は、領域指定画像54をマウス等の選択手段で選択されることで、後記する分類情報指定手段31の手位置指定手段313に制御を移す。
ここでは、分類情報指定手段31は、手型指定手段310と、手方向指定手段311と、指方向指定手段312と、手位置指定手段313と、を備える。
この手型指定手段310は、検索画面表示制御手段30から、検索画面において、手型を検索条件として指定された際に、記憶手段2に記憶されている手型画像Gをサムネイル画像として表示する。そして、手型指定手段310は、マウス等の選択手段でサムネイル画像を選択されることで、それに対応する手型情報を検索条件として特定する。
この手型指定手段310は、手型を選択され、検索条件の1つとして手型情報が特定された後、検索画面表示制御手段30に制御を移す。
なお、検索条件として指定された手型情報は、図示を省略したメモリ上に保持され、検索実行時に検索実行手段32によって参照される。
この手方向指定手段311は、検索画面表示制御手段30から、検索画面において、手の方向(手のひらの向き)を検索条件として指定された際に、記憶手段2に記憶されている手方向情報の分類項目を表示する。そして、手方向指定手段311は、マウス等の選択手段で項目を選択されることで、それに対応する手方向情報を検索条件として特定する。
この手方向指定手段311は、手の向きを選択され、検索条件の1つとして手方向情報が特定された後、検索画面表示制御手段30に制御を移す。
なお、検索条件として指定された手方向情報は、図示を省略したメモリ上に保持され、検索実行時に検索実行手段32によって参照される。
この指方向指定手段312は、検索画面表示制御手段30から、検索画面において、指の方向(人差し指の指し示す方向)を検索条件として指定された際に、記憶手段2に記憶されている指方向情報の分類項目を表示する。そして、指方向指定手段312は、マウス等の選択手段で項目を選択されることで、それに対応する指方向情報を検索条件として特定する。
この指方向指定手段312は、指の向きを選択され、検索条件の1つとして指方向情報が特定された後、検索画面表示制御手段30に制御を移す。
なお、検索条件として指定された指方向情報は、図示を省略したメモリ上に保持され、検索実行時に検索実行手段32によって参照される。
この手位置指定手段313は、検索画面表示制御手段30から、検索画面において、手の位置の指定されることで、それに対応する手位置情報を検索条件として特定する。
例えば、図15に示すように、検索画面50において、領域指定画像54の領域を指定されることで、手位置指定手段313は、ラジオボタン54aの色等を変えることで、領域が選択されたことを表す。
この手位置指定手段313は、手の位置を選択され、検索条件の1つとして手位置情報が特定された後、検索画面表示制御手段30に制御を移す。
なお、検索条件として指定された手位置情報は、図示を省略したメモリ上に保持され、検索実行時に検索実行手段32によって参照される。
ここでは、検索実行手段32は、検索手段320と、検索結果表示手段321と、手話動作表示手段322と、を備える。
この検索手段320は、検索画面表示制御手段30から、検索画面において、検索実行がされた指示(例えば、図11の検索画面50で検索ボタン55が押下された場合)、記憶手段2において、分類情報指定手段31で保持されている検索条件(手型情報、手位置情報、手方向情報、指方向情報)と合致する分類情報Cを有する手話単語のラベルLを検索する。
なお、検索手段320は、分類情報指定手段31で、すべての検索条件を指定される必要はなく、指定された検索条件のみが合致する分類情報Cを有する手話単語のラベルLを検索する。
そして、検索手段320は、検索結果であるラベルLを、検索結果表示手段321に出力する。
例えば、図16に示すように検索結果表示手段321は、検索結果の手話単語を検索結果単語領域60に表示する。なお、検索結果の手話単語が複数ある場合は、その複数の手話単語を列挙して表示する。
この手話動作表示手段322は、検索結果表示手段321で表示された手話単語を選択されることで、選択された手話単語に対応するモーションデータDを読み出して、CG動画として再生する。なお、このモーションデータDから、CGを生成する手法は、一般的な手法を用いればよい。
これによって、例えば、検索条件に合致する手話単語が複数存在しても、手話動作を確認することで、ユーザが所望の手話動作に対応する手話単語を検索することが可能になる。
なお、手話単語検索装置3は、コンピュータを、前記した各手段として機能させるための手話単語検索プログラムで動作させることができる。
次に、図18を参照(構成については適宜図10参照)して、手話単語検索装置3の動作について説明する。
まず、手話単語検索装置3は、検索画面表示制御手段30によって、図11に示すような手話単語の検索画面50を、表示装置Mに表示する(ステップS20)。
そして、手話単語検索装置3は、検索画面表示制御手段30によって、ユーザからマウス等の選択手段を介して選択される、検索画面50上の選択位置に応じて処理動作を分岐させる(ステップS21)。
以上の動作によって、手話単語検索装置3は、ユーザが選択する手話単語動作時の手の型、手指の位置および向きから、その手話動作が示す手話単語を検索することができる。
以上、本発明の実施形態に係る手話単語分類情報生成装置および手話単語検索装置の構成および動作について説明したが、本発明はこの実施形態に限定されるものではない。
例えば、ここでは、手話単語分類情報生成装置は、説明を分かり易くするため、特に右手の型、位置、向き、右手の指の方向で分類情報を生成することとした。
しかし、手話単語分類情報生成装置は、右手と同様に、左手の型、位置、向き、左手の指の方向でさらに分類情報を生成することとしてもよい。
その場合、手話単語検索装置も同様に、左手の分類情報をさらに検索条件として加えて、手話単語の検索を行えばよい。
その場合、予め分類した手型ごとに、既知の名称(例えば、テ型、ホ型等)を対応付けることとしてもよい。
しかし、手話単語分類情報生成装置は、必ずしも、これらすべての項目について分類情報を生成する必要はない。例えば、指の方向を分類した分類情報を省略して、簡易な構成としても構わない。
また、ここでは、手話単語検索装置は、手の型、位置、向きおよび指の方向をそれぞれ独立して扱った。
しかし、手話単語検索装置は、検索条件として、例えば、左右の手の型が同じ、左右の手の位置や方向が対称等を指定して、手話単語を検索することとしてもよい。
10 代表フレーム検出手段
100 動き量算出手段
101 動き量最少フレーム検出手段
11 型分類手段
110 クラスタリング手段
111 手型画像生成手段
12 位置方向分類手段
120 手位置方向算出手段
121 手位置分類手段
122 手方向分類手段
123 指方向算出手段
124 指方向分類手段
2 記憶手段
3 手話単語検索装置
30 検索画面表示制御手段
31 分類情報指定手段
310 手型指定手段
311 手方向指定手段
312 指方向指定手段
313 手位置指定手段
32 検索実行手段
320 検索手段
321 検索結果表示手段
322 手話動作表示手段
C 分類情報
D モーションデータ
G 手型画像
Claims (7)
- 手話単語の動作における手の型、位置および向きの特徴から前記手話単語を検索するための検索用の分類情報を生成する手話単語分類情報生成装置であって、
人体の関節の相対位置と画面の単位であるフレームごとの前記関節の移動量および回転量とで構成されるモーションデータにおいて、当該動作の開始から終了までの間で、動き量が最少となる代表フレームを前記手話単語ごとに検出する代表フレーム検出手段と、
この代表フレーム検出手段で検出された手話単語ごとの代表フレームにおける手指の関節の前記回転量の組をクラスタリングすることで前記手話単語を手の型で分類し、その分類結果を、前記手話単語のモーションデータごとに前記分類情報の1つとして対応付ける手型分類手段と、
前記代表フレームごとに、前記人体の予め定めた基準位置となる関節から手首の関節までの各関節の前記移動量および前記回転量により、前記手首の関節の位置および向きを算出する手位置方向算出手段と、
この手位置方向算出手段で算出された前記手首の関節の位置を、予め区分した位置で分類し、その分類結果を、前記代表フレームに対応する手話単語のモーションデータに前記分類情報の1つとして対応付ける手位置分類手段と、
前記手位置方向算出手段で算出された前記手首の関節の向きを、予め区分した方向で分類し、その分類結果を、前記代表フレームに対応する手話単語のモーションデータに前記分類情報の1つとして対応付ける手方向分類手段と、
を備えることを特徴とする手話単語分類情報生成装置。 - 前記代表フレームごとに、前記移動量および前記回転量により、指の予め定めた2つの関節位置を求め、それぞれの関節の相対位置から、当該指が指し示す方向を算出する指方向算出手段と、
この指方向算出手段で算出された指が指し示す方向を、予め区分した方向で分類し、その分類結果を、前記代表フレームに対応する手話単語のモーションデータに前記分類情報の1つとして対応付ける指方向分類手段と、
をさらに備えることを特徴とする請求項1に記載の手話単語分類情報生成装置。 - 前記手型分類手段で分類された手の型ごとに、当該手の型に分類された手話単語の代表フレームの1つから、CGにより、検索用のサムネイル画像となる手型画像を生成する手型画像生成手段を、さらに備えることを特徴とする請求項1または請求項2に記載の手話単語分類情報生成装置。
- コンピュータを、請求項1から請求項3のいずれか一項に記載の手話単語分類情報生成装置の各手段として機能させるための手話単語分類情報生成プログラム。
- 請求項1に記載の手話単語分類情報生成装置で生成された、人体の関節の相対位置とフレームごとの前記関節の移動量および回転量とで構成される手話単語の動作を示すモーションデータから生成された手の型、位置および向きを分類した分類情報から、前記手話単語を検索する手話単語検索装置であって、
前記手話単語ごとに、当該手話単語の動作を示す前記モーションデータと、前記手の型を分類した手型情報と、前記手の位置を分類した手位置情報と、前記手の向きを分類した手方向情報とを記憶する記憶手段と、
前記手型情報の指定を受け付ける手型指定手段と、
前記手位置情報の指定を受け付ける手位置指定手段と、
前記手方向情報の指定を受け付ける手方向指定手段と、
指定された前記手型情報、前記手位置情報および前記手方向情報に合致する手話単語を前記記憶手段において検索する検索手段と、
この検索手段の検索結果である手話単語を表示する検索結果表示手段と、
を備えることを特徴とする手話単語検索装置。 - 前記記憶手段には、前記モーションデータから生成された指が指し示す方向を分類した指方向情報がさらに記憶されており、
前記指方向情報の指定を受け付ける指方向指定手段を、さらに備え、
前記検索手段は、指定された前記手型情報、前記手位置情報、前記手方向情報および前記指方向情報に合致する手話単語を前記記憶手段において検索することを特徴とする請求項5に記載の手話単語検索装置。 - コンピュータを、請求項6または請求項7に記載の手話単語検索装置の各手段として機能させるための手話単語検索プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014021253A JP6353660B2 (ja) | 2014-02-06 | 2014-02-06 | 手話単語分類情報生成装置およびそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014021253A JP6353660B2 (ja) | 2014-02-06 | 2014-02-06 | 手話単語分類情報生成装置およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015148706A true JP2015148706A (ja) | 2015-08-20 |
JP6353660B2 JP6353660B2 (ja) | 2018-07-04 |
Family
ID=53892105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014021253A Active JP6353660B2 (ja) | 2014-02-06 | 2014-02-06 | 手話単語分類情報生成装置およびそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6353660B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020126144A (ja) * | 2019-02-05 | 2020-08-20 | ソフトバンク株式会社 | システム、サーバ装置及びプログラム |
JP2021518960A (ja) * | 2019-01-18 | 2021-08-05 | 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. | 画像処理方法及び装置、画像デバイス並びに記憶媒体 |
KR102543936B1 (ko) * | 2022-07-14 | 2023-06-16 | 남창환 | 수화 인식 장치 및 방법 |
JP7485454B2 (ja) | 2022-08-05 | 2024-05-16 | Necソリューションイノベータ株式会社 | 手話翻訳処理装置、手話翻訳処理システム、手話翻訳処理方法、プログラム、及び記録媒体 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102624226B1 (ko) * | 2021-06-29 | 2024-01-15 | 한국전자기술연구원 | 수어의 형태소 단위 분할 방법, 형태소 위치 예측 방법 및 데이터 증강 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0836586A (ja) * | 1994-07-22 | 1996-02-06 | Fujitsu Ltd | 手話検索システム |
JPH10161524A (ja) * | 1996-11-28 | 1998-06-19 | Hitachi Ltd | 手話単語パターン辞書作成システムおよび方法 |
-
2014
- 2014-02-06 JP JP2014021253A patent/JP6353660B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0836586A (ja) * | 1994-07-22 | 1996-02-06 | Fujitsu Ltd | 手話検索システム |
JPH10161524A (ja) * | 1996-11-28 | 1998-06-19 | Hitachi Ltd | 手話単語パターン辞書作成システムおよび方法 |
Non-Patent Citations (1)
Title |
---|
相本幸治、外3名: "手話認識のための動き特徴に基づく学習データの自動合成", 情報処理学会 電子図書館 「画像の認識・理解シンポジウム(MIRU)論文集」, JPN6017041474, 20 July 2011 (2011-07-20), JP, pages 710 - 717 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021518960A (ja) * | 2019-01-18 | 2021-08-05 | 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. | 画像処理方法及び装置、画像デバイス並びに記憶媒体 |
JP7001841B2 (ja) | 2019-01-18 | 2022-01-20 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | 画像処理方法及び装置、画像デバイス並びに記憶媒体 |
US11468612B2 (en) | 2019-01-18 | 2022-10-11 | Beijing Sensetime Technology Development Co., Ltd. | Controlling display of a model based on captured images and determined information |
US11538207B2 (en) | 2019-01-18 | 2022-12-27 | Beijing Sensetime Technology Development Co., Ltd. | Image processing method and apparatus, image device, and storage medium |
US11741629B2 (en) | 2019-01-18 | 2023-08-29 | Beijing Sensetime Technology Development Co., Ltd. | Controlling display of model derived from captured image |
JP2020126144A (ja) * | 2019-02-05 | 2020-08-20 | ソフトバンク株式会社 | システム、サーバ装置及びプログラム |
KR102543936B1 (ko) * | 2022-07-14 | 2023-06-16 | 남창환 | 수화 인식 장치 및 방법 |
JP7485454B2 (ja) | 2022-08-05 | 2024-05-16 | Necソリューションイノベータ株式会社 | 手話翻訳処理装置、手話翻訳処理システム、手話翻訳処理方法、プログラム、及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP6353660B2 (ja) | 2018-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107428004B (zh) | 对象数据的自动收集和标记 | |
Yao et al. | Contour model-based hand-gesture recognition using the Kinect sensor | |
JP6353660B2 (ja) | 手話単語分類情報生成装置およびそのプログラム | |
JP6583537B2 (ja) | 動作情報生成装置 | |
JP5403699B2 (ja) | 手指形状推定装置、手指形状の推定方法及びプログラム | |
KR101745406B1 (ko) | 깊이 영상 기반의 손 제스처 인식 장치 및 방법 | |
Wen et al. | A robust method of detecting hand gestures using depth sensors | |
KR101902192B1 (ko) | 3차원 기반의 유사 안무 검색 방법 및 이를 이용한 장치 | |
KR101563297B1 (ko) | 영상에서 행동을 인식하는 방법 및 장치 | |
JP2018116599A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6066093B2 (ja) | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム | |
Jang et al. | Metaphoric hand gestures for orientation-aware VR object manipulation with an egocentric viewpoint | |
Lewis et al. | Are discrete emotions useful in human-robot interaction? Feedback from motion capture analysis | |
Kumar et al. | 3D sign language recognition using spatio temporal graph kernels | |
CN115083015A (zh) | 一种3d人体姿态估计数据标注方式和对应的模型构建方法 | |
US11513607B2 (en) | Path recognition method using a combination of invariant positional data and attributes of variation, path recognition device, path recognition program, and path recognition program recording medium | |
Dhore et al. | Human Pose Estimation And Classification: A Review | |
KR101447958B1 (ko) | 신체 부분 검출 방법 및 장치 | |
Siam et al. | Human computer interaction using marker based hand gesture recognition | |
Rustagi et al. | Virtual Control Using Hand-Tracking | |
CN113807280A (zh) | 一种基于Kinect的虚拟船舶机舱系统与方法 | |
JP2006285685A (ja) | 3次元デザイン支援装置及び方法 | |
JP6739896B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
Huerta et al. | Hand Gesture Recognition With a Novel Particle Filter | |
Li et al. | Skeleton-based Approaches based on Machine Vision: A Survey |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180515 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180611 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6353660 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |