JP2015148706A - 手話単語分類情報生成装置およびそのプログラム、ならびに、手話単語検索装置およびそのプログラム - Google Patents

手話単語分類情報生成装置およびそのプログラム、ならびに、手話単語検索装置およびそのプログラム Download PDF

Info

Publication number
JP2015148706A
JP2015148706A JP2014021253A JP2014021253A JP2015148706A JP 2015148706 A JP2015148706 A JP 2015148706A JP 2014021253 A JP2014021253 A JP 2014021253A JP 2014021253 A JP2014021253 A JP 2014021253A JP 2015148706 A JP2015148706 A JP 2015148706A
Authority
JP
Japan
Prior art keywords
sign language
hand
language word
search
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014021253A
Other languages
English (en)
Other versions
JP6353660B2 (ja
Inventor
井上 誠喜
Seiki Inoue
誠喜 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2014021253A priority Critical patent/JP6353660B2/ja
Publication of JP2015148706A publication Critical patent/JP2015148706A/ja
Application granted granted Critical
Publication of JP6353660B2 publication Critical patent/JP6353660B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】手話単語の動作における手の型、位置および向きの特徴から手話単語を検索するための検索用の分類情報を生成する手話単語分類情報生成装置を提供する。【解決手段】手話単語分類情報生成装置1は、手話単語の動作を示すモーションデータから動き量が最少の代表フレームを検出する代表フレーム検出手段10と、モーションデータの手指の関節の回転量から手話単語を手型で分類する型分類手段11と、代表フレームごとに、手の関節の位置および向きを算出し、手の位置および手の向きを分類する位置方向分類手段12と、を備えることを特徴とする。【選択図】図1

Description

本発明は、手話単語を検索するための分類情報を生成する手話単語分類情報生成装置およびそのプログラム、ならびに、その分類情報から手話単語を検索する手話単語検索装置およびそのプログラムに関する。
近年、視覚障害者のための手話通訳や手話放送が急速に社会に浸透している。従来、その手話を学習するには、手話辞書を用いて学習する手法が一般的である。
この手話辞書には、単語と手話動作の一連の画像とを対応付けた紙ベースの辞書、単語と手話動作の映像とを対応付けたDVD等の記録媒体等が存在する。
また、近年では、手話の動作をモーションキャプチャシステムにより、指先を含めた人体の動き(モーションデータ)として取得し、単語とモーションデータとを対応付けることで、単語から対応する手話を検索する技術が開示されている(特許文献1、非特許文献1参照)。このシステムによれば、単語を指定することで、手話のモーションデータをCGアニメーション化して提示することができる。
これらの手法(辞書、システム)は、単語から手話の動作を検索するものであって、実際の手話から単語を検索するものではない。
一方、実際の手話動作から単語を検索するには、手の型から手話を検索する辞書を用いることができる(非特許文献2参照)。この辞書は、片手手話、両手同型手話、両手異型手話等の腕の動きを中心とした大きな分類、テ型、ホ型等の手型を中心とした小さな分類を、単語と対応付けている。
また、手話動作から単語(文字)を検索する技術として、手話動作を撮像した画像から、画像処理により、手の特徴情報を抽出し、手話動作における手の特徴情報を予めグループ化したデータベースから、グループに対応する文字を特定する技術が存在する(特許文献2参照)。
特開2011−112675号公報 特開2012−252581号公報
加藤直人,金子浩之,井上誠喜,清水俊宏,長嶋祐二:"日本語−手話対訳辞書の構築−日本語語彙の拡張−",電子情報通信学会HCG(Human Communication Group)シンポジウム,HCG2009-I-3,(2009). 竹村茂:"手話・日本語大辞典",廣済堂出版,1994年4月1日
前記した単語からその手話動作を検索する手法(辞書、システム)は、単語ごとに手話動作が対応付けられており、検索条件として、単語を指定するだけであるため、確実に単語から手話動作を検索することができる。
一方、実際の手話動作から単語を検索する手法には、多くの問題が存在する。
例えば、手話動作から単語を検索する辞書を作成するためには、辞書作成者が、手話を見て人手で手話の分類を行っているのが現状である。そのため、辞書の語彙数を多くしようとすれば、その作業量は膨大となってしまうという問題がある。
また、前記した画像処置によって、撮像画像から手話単語を特定する手法は、照明等の環境によって、撮像画像から手、指を検出できない場合がある。また、手話は、手の型(形)等により意味が異なる。そのため、平面の撮像画像から、手話単語で異なる多くの3次元の手型を特定すること、現実的には非常に困難である。
本発明は、このような問題に鑑みてなされたもので、手話動作から単語を検索するための分類情報を、人手を用いずに容易に生成する手話単語分類情報生成装置およびそのプログラム、ならびに、その分類情報から手話単語を検索する手話単語検索装置およびそのプログラムを提供することを課題とする。
前記課題を解決するため、本発明に係る手話単語分類情報生成装置は、手話単語の動作における手の型、位置および向きの特徴から前記手話単語を検索するための検索用の分類情報を生成する手話単語分類情報生成装置であって、代表フレーム検出手段と、手型分類手段と、手位置方向算出手段と、手位置分類手段と、手方向分類手段と、を備える。
かかる構成において、手話単語分類情報生成装置は、代表フレーム検出手段によって、人体の関節の相対位置と画面の単位であるフレームごとの関節の移動量および回転量とで構成されるモーションデータにおいて、動き量が最少となる代表フレームを検出する。これは、手動単語の動作が、その単語の典型的なポーズで一度静止することが多いためである。
そして、手話単語分類情報生成装置は、手型分類手段によって、手話単語ごとの代表フレームにおける手指の関節の回転量の組をクラスタリングする。このように、手指の関節の回転量に応じてクラスタリングすることで、大まかな手の形(型)で手話単語を分類することができる。
そして、手話単語分類情報生成装置は、手型分類手段によって、分類結果を、手話単語のモーションデータごとに分類情報の1つとして対応付ける。
これによって、手話単語分類情報生成装置は、手の型から手話単語を検索することが可能な分類情報を生成することができる。
また、手話単語分類情報生成装置は、手位置方向算出手段によって、代表フレームごとに、人体の予め定めた基準位置となる関節から手首の関節までの各関節の移動量および回転量により、手首の関節の位置および向きを算出する。
そして、手話単語分類情報生成装置は、手位置分類手段によって、手首の関節の位置を、予め区分した位置で分類し、その分類結果を、代表フレームに対応する手話単語のモーションデータに分類情報の1つとして対応付ける。
これによって、手話単語分類情報生成装置は、手の位置から手話単語を検索することが可能な分類情報を生成することができる。
そして、手話単語分類情報生成装置は、手方向分類手段によって、手首の関節の向きを、予め区分した方向で分類し、分類結果を、代表フレームに対応する手話単語のモーションデータに分類情報の1つとして対応付ける。
これによって、手話単語分類情報生成装置は、手の向き(手方向)から手話単語を検索することが可能な分類情報を生成することができる。
また、前記課題を解決するため、本発明に係る手話単語検索装置は、人体の関節の相対位置とフレームごとの前記関節の移動量および回転量とで構成される手話単語の動作を示すモーションデータから生成された手の型、位置および向きを分類した分類情報から、前記手話単語を検索する手話単語検索装置であって、記憶手段と、手型指定手段と、手位置指定手段と、手方向指定手段と、検索手段と、検索結果表示手段と、を備える。
かかる構成において、予め記憶手段に、手話単語ごとに、当該手話単語の動作を示すモーションデータと、手の型を分類した手型情報と、手の位置を分類した手位置情報と、手の向きを分類した手方向情報とを記憶しておく。
そして、手話単語検索装置は、手型指定手段、手位置指定手段および手方向指定手段によって、それぞれ、手型情報、手位置情報および手方向情報の指定を受け付ける。
そして、手話単語検索装置は、検索手段によって、指定された手型情報、手位置情報および手方向情報に合致する手話単語を記憶手段において検索する。
そして、手話単語検索装置は、検索結果表示手段によって、検索結果である手話単語を表示する。
これによって、手話単語検索装置は、手話動作時の手の特徴から、その意味を示す手話単語を検索することができる。
本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、モーションデータで規定された手話単語動作を、人手を介さずに、その動作の代表的な手の型、位置、向きによって分類することができる。
そして、本発明によって、手話単語動作の代表的な手の型、位置、向きによって、手話動作から、その手話動作が示す手話単語を検索することが可能になる。
これによって、本発明は、手話単語動作の学習効率を高めることができる。
本発明の実施形態に係る手話単語分類情報生成装置の構成を示すブロック構成図である。 モーションデータの一例を示すBVH形式のデータ構成図である。 モーションデータで規定される関節ノードを示す図であって、(a)は体全体の関節ノードの例、(b)は右手部分の関節ノードの例を示す。 図1の動き量最少フレーム検出手段で、代表フレームを検出する手法を説明するための図であって、フレームと動き量との関係を示すグラフ図である。 図1のクラスタリング手段で、統計処理ソフト「R」を用いてクラスタリングを行った際に生成される系統樹を示す図である。 図1の手位置分類手段で、手の位置を分類する領域を説明するための説明図である。 手のひらの向きが異なる手型の例を示す図であって、(a)は手の甲を正面に向けた図、(b)は手のひらを正面に向けた図である。 人差し指の向きが異なる例を示す図であって、(a)は人差し指を内側に向けた図、(b)は人差し指を下に向けた図である。 本発明の実施形態に係る手話単語分類情報生成装置の動作を示すフローチャートである。 本発明の実施形態に係る手話単語検索装置の構成を示すブロック構成図である。 手話単語の検索画面の例を示す図である。 手型を指定する画面例を示す図である。 手の向きを指定する画面例を示す図である。 指の向きを指定する画面例を示す図である。 手の位置を指定する画面例を示す図である。 検索結果の手話単語の候補を表示する画面例を示す図である。 検索結果の手話単語を選択することで、手話単語動作を表示する画面例を示す図である。 本発明の実施形態に係る手話単語検索装置の動作を示すフローチャートである。
本発明の実施形態について図面を参照して説明する。
〔手話単語モーションデータの概要〕
まず、本発明で使用する手話単語の動作を示すモーションデータ(手話単語モーションデータ)の構造について説明しておく。このモーションデータは、一般的なモーションキャプチャシステムを用いて、手話単語ごとに収録したデータである。ここでは、モーションデータとして、Biovision社が開発したファイルフォーマット(BVH〔BioVision Hierarchy〕形式)のデータを例に説明する。
モーションデータは、人体の関節の相対位置と手話動作を再生したときの画面の単位であるフレームごとの関節の移動量および回転量とで構成される。
図2にBVH形式で記述されたモーションデータの例を示す。
図2に示すように、BVH形式のモーションデータは、HIERARCHY部(1行目から28行目)と、MOTION部(29行目以降)とで構成される。
HIERARCHY部には、人体の関節を示す関節ノード(JOINT)が階層構造で定義され、初期姿勢における親関節ノードからの相対座標(OFFSET)と、当該関節ノードの移動量(Xposition,Yposition,Zposition)および回転量(Zrotation,Xrotation,Yrotation)の変数とを定義している。
MOTION部には、フレーム数(30行目)と、フレーム時間間隔(31行目)と、HIERARCHY部で定義してある移動量および回転量の変数に対する実際の値(32行目)を1フレームごとに1行ずつ記述している。
各関節ノード(JOINT)は、例えば、図3に示すように、予め定めた基準位置(ここでは、Hips)をルート(ROOT)として、連結している順に階層構造を有する。図3(a)は、人体の関節ノードの例を示している。また、図3(b)は、図3(a)の右手の手首(RightWrist)にさらに連結している指の関節ノードを示している。なお、図3(b)では、親指と人差し指以外の関節ノードの符号を省略している。
例えば、右手の関節ノード(RightIndex3)の位置および向きは、Hips、Chest1、Chest2、…、RightWrist、RightIndex0、…、RightIndex3と、図2に示したモーションデータの関節ノードの階層を辿っていくことで求めることができる。
なお、ここでは、XYZ座標系は、図3(a)に示すように、右手系を用いることとする。
以下、本発明の実施形態に係る手話単語分類情報生成装置の構成および動作を説明した後、手話単語検索装置の構成および動作について順に説明する。
〔手話単語分類情報生成装置の構成〕
最初に、図1を参照して、手話単語分類情報生成装置1の構成について説明する。
手話単語分類情報生成装置1は、手話単語の動作における手の形状特徴(手の型、位置、向き等)から、手話単語を検索するための検索条件となる分類情報を生成するものである。
この手話単語分類情報生成装置1は、手話単語ごとの動作を示すモーションデータから、当該データの代表フレームにおける手の型(手型)、手のひらの向き(手方向)、手の指(ここでは人差し指)の向き(指方向)、手首の位置(手位置)の各分類情報を生成する。
ここでは、手話単語分類情報生成装置1は、各分類情報を生成するため、代表フレーム検出手段10と、型分類手段11と、位置方向分類手段12と、を備える。
なお、モーションデータDは図2で説明したデータであって、予め記憶手段2に記憶されているものとし、手話単語動作ごとのモーションデータDには、管理情報として、少なくともファイル名、固有番号等の識別情報IDと、手話単語の意味(日本語の単語)を示すラベルLとが対応付けられているものとする。
代表フレーム検出手段10は、手話単語ごとのモーションデータDにおいて、時間経過で変化する各フレームの中で特徴的なフレームを代表フレームとして検出するものである。手話単語の動作は、その単語の典型的なポーズで一度静止することが多い。そこで、代表フレーム検出手段10は、手話単語ごとに、モーションデータDにおける動作の開始から終了までの間で、動き量が最少となるフレームを、代表フレームとして検出する。ここでは、代表フレーム検出手段10は、動き量算出手段100と、動き量最少フレーム検出手段101と、を備える。
動き量算出手段100は、手話単語ごとのモーションデータDにおいて、フレーム単位の動き量を算出するものである。
ここでは、動き量算出手段100は、モーションデータDのあるフレームとその前のフレームとの間で、移動量(X移動量,Y移動量,Z移動量)および回転量(X回転量,Y回転量,Z回転量)の成分ごとの差の絶対値の総和、または、成分ごとの差の2乗和を求めることで、あるフレームにおける動き量を求める。同様に、動き量算出手段100は、順次、すべてのフレームについて動き量を求める。
すなわち、動き量算出手段100は、図2で説明したモーションデータDのMOTION部において、32行目以降で、1行単位に記載されているフレームの移動量および回転量から、フレーム間の動き量を求める。
そして、動き量算出手段100は、手話単語動作ごとに、フレーム単位の動き量を、動き量最少フレーム検出手段101に出力する。
動き量最少フレーム検出手段101は、動き量算出手段100で算出された動き量に基づいて、手話単語動作において、動き量が最少となるフレームを検出するものである。
ここでは、動き量最少フレーム検出手段101は、手話単語の動作が開始されたフレームと、手話単語の動作が終了したフレームとの間で、動き量が最少となるフレームを検出する。
ここで、図4を参照して、動き量最少フレーム検出手段101のフレーム検出処理について説明する。
図4は、ある手話単語動作のフレームごとの動き量をグラフ化したものである。横軸はフレーム番号、縦軸は動き量(単位なし)を示している。
図4に示すように、動き量最少フレーム検出手段101は、手話動作の最初のフレームから最後のフレームに向かって、予め定めた閾値の動き量を超過したフレームを動作の開始となる開始フレームFsとする。また、動き量最少フレーム検出手段101は、図4に示すように、手話動作の最後のフレームから最初のフレームに向かって、予め定めた閾値の動き量を超過したフレームを動作の終了となる終了フレームFeとする。
そして、動き量最少フレーム検出手段101は、開始フレームFsと終了フレームFeとの間で動き量が最少となるフレームを代表フレームFtとする。
この動き量最少フレーム検出手段101は、代表フレームを特定する情報(識別情報IDおよびフレーム番号)を、型分類手段11および位置方向分類手段12に出力する。
図1に戻って、手話単語分類情報生成装置1の構成について説明を続ける。
型分類手段11は、代表フレーム検出手段10で検出された複数の手話単語動作ごとの代表フレームにおける手型をその形状で分類するものである。
ここでは、型分類手段11は、クラスタリング手段110と、手型画像生成手段111と、を備える。
クラスタリング手段110は、複数のモーションデータDの代表フレームの手型をクラスタリングするものである。
ここで、クラスタリング手段110は、手型を特定する情報として、モーションデータDの代表フレームにおける指部分の関節の回転量の組を用いる。
具体的には、クラスタリング手段110は、図3(b)に示した手(ここでは、例として、右手)の各指の先端を除く、親指の3個の関節ノード(RightThumb1〜RightThumb3)、人差し指の4個の関節ノード(RightIndex0〜RightIndex3)、中指の4個の関節ノード、薬指の4個の関節ノード、小指の4個の関節ノードの合計19個の関節ノードの回転量の組を1つのデータ単位とし、検出されたすべての代表フレームについてクラスタリングを行う。
すなわち、クラスタリング手段110は、代表フレーム検出手段10から、記憶手段2に記憶されているモーションデータDのすべての代表フレームが検出された段階で動作する。
なお、このクラスタリングには、一般的な手法を用いればよい。例えば、クラスタリング手段110は、K平均法を用いることができる。
K平均法を用いた場合、クラスタリング手段110は、代表フレーム数の指の関節ノードの回転量の組を、ランダムにK個のクラスタに割り当てる。なお、このクラスタリング数のKは、例えば、手話の手型として予め定められている個数とする。そして、クラスタリング手段110は、クラスタごとに重心(X回転量の平均、Y回転量の平均、Z回転量の平均)を求める。さらに、クラスタリング手段110は、K個のクラスタを先に求めた重心に近いクラスタに再度割り当てる。そして、クラスタリング手段110は、クラスタの割り当てが変化しなくなるまで、処理を繰り返す。
これによって、クラスタリング手段110は、代表フレームにおける手型をK個にクラスタリングすることができる。
また、例えば、クラスタリング手段110は、一般的な統計処理ソフト「R」を用いてクラスタリングを行ってもよい。統計処理ソフト「R」を用いた場合、クラスタリング手段110は、「R」のクラスタリング処理により、手型のクラスタリング結果を、図5に示したような系統樹で図示を省略した表示装置に表示する。そして、操作者は、その系統図における高さ(Height)により適当なクラスタ数をクラスタリング手段110に入力する。そして、クラスタリング手段110は、その系統図で区分された各手型を、クラスタ数に応じて分類する。
そして、クラスタリング手段110は、分類したクラスタ固有の値を、分類情報Cの手型情報として、記憶手段2に記憶されている代表フレームに対応するモーションデータDの管理情報に設定する。
また、クラスタリング手段110は、クラスタ固有の値とともに、モーションデータDを特定する情報(識別情報ID)を、手型画像生成手段111に出力する。
手型画像生成手段111は、クラスタリング手段110で分類された手型に対応する画像(手型画像)を生成するものである。
この手型画像生成手段111は、クラスタリング手段110から入力される識別情報IDに対応するモーションデータDから、CG(コンピュータグラフックス)により、手型画像Gを生成する。
そして、手型画像生成手段111は、クラスタリング手段110から入力されるクラスタ固有の値である手型情報に対応付けて、生成した手型画像Gを記憶手段2に書き込み記憶する。なお、手型画像生成手段111は、すでに同じ値の手型情報に対して手型画像Gが生成されている場合、手型画像の生成を行わないこととする。
このように生成された手型画像Gは、手話単語の検索を行う際の手型のサムネイル画像として使用される。
位置方向分類手段12は、代表フレーム検出手段10で検出された複数の手話単語動作ごとの代表フレームにおける手指の位置および向きを分類するものである。
ここでは、位置方向分類手段12は、手位置方向算出手段120と、手位置分類手段121と、手方向分類手段122と、指方向算出手段123と、指方向分類手段124と、を備える。
手位置方向算出手段120は、代表フレームで表されている手(手首)の空間位置と手(手のひら)の方向とを算出するものである。
この手位置方向算出手段120は、モーションデータDに記述されている基準位置(Hips)の関節ノードから、手首の関節ノードまでの階層関係(親子関係)により、代表フレームにおける移動量および回転量を、親関節ノードから子関節ノードに向かって座標変換することで、手首の位置および手のひらの方向を求める。
ここでは、手位置方向算出手段120は、以下の(手順1)から(手順3)の順で、目的とする手首の位置および方向を算出する。
(手順1)
手位置方向算出手段120は、ルート(Hips)から手首(Wrist〔ここでは、RightWristとする〕)までの関節ノードごとに、モーションデータDに記述されている代表フレームの移動量および回転量から、当該関節ノードにおける親関節ノードからの位置および向きを求める変換行列(同次変換行列)を生成する。
具体的には、手位置方向算出手段120は、関節ノードごとに、以下の式(1)に示す行列演算を行うことで、変換行列Aを生成する。
ここで、PはXpositionに対応したX方向の移動量、PはYpositionに対応したY方向の移動量、PはZpositionに対応したZ方向の移動量である。また、θはXrotationに対応したX軸周りの回転量、θはYrotationに対応したY軸周りの回転量、θはZrotationに対応したZ軸周りの回転量である。
(手順2)
そして、手位置方向算出手段120は、(手順1)で算出したルート(Hips)に対応する変換行列から手首(Wrist)に対応する変換行列までを順次乗算することで、ルートから手首までの全体の変換行列を生成する。
すなわち、関節ノードのHipsの変換行列をAHips、Chest1の変換行列をAChest1、…、RightWristの変換行列をARightWristとしたとき、手位置方向算出手段120は、以下の式(2)に示すように、それぞれの行列を順に乗算することで、ルートから手首までの変換行列Bを生成する。
(手順3)
そして、手位置方向算出手段120は、(手順2)で算出した変換行列Bの成分から、手首の位置および手のひらの方向を算出する。
すなわち、手位置方向算出手段120は、変換行列Bの平行移動の成分となる(LX,LY,LZ)を計算することで、代表フレームにおける手首位置の空間座標(Npx,Npy,Npz)を求める。
なお、初期姿勢における手首位置は、図2で説明したモーションデータ(手話単語モーションデータ)Dにおいて、ルート(ROOT)から、手首の関節ノードまでの相対座標(OFFSET)を加算した位置である。
また、手位置方向算出手段120は、手話単語動作の初期姿勢における手首の方向ベクトルに、変換行列Bの成分(XX,XY,XZ,YX,YY,YZ,ZX,ZY,ZZ)で構成される回転行列を乗算することで、代表フレームにおける手のひらの方向となる手首の方向ベクトル(Nvx,Nvy,Nvz)を求める。
なお、初期姿勢における手首の方向ベクトルは、予め手話動作の初期ポーズとして定めておくこととする。ここでは、手話動作の初期ポーズを、両手を横に広げ(Tポーズ)とし、手のひらを下向きにした姿勢とする。すなわち、初期姿勢では、手のひらの方向は、下向きであり、XYZ座標系における方向ベクトルは(0,−1,0)である。
このように、手位置方向算出手段120は、代表フレームにおいて、空間座標(XYZ座標)における手首の位置とその方向とを算出することができる。
そして、手位置方向算出手段120は、算出した手首の位置(空間座標)を手位置分類手段121に出力し、手首の方向(方向ベクトル)を手方向分類手段122に出力する。
手位置分類手段121は、手位置方向算出手段120で算出された手(手首)の位置を分類するものである。
この手位置分類手段121は、代表フレームにおいて、手首の位置がどこに存在するのかを大まかな区分で分類する。
ここでは、手位置分類手段121は、図6に示すように、代表フレームの画像をX方向(水平方向)に3分割、Y方向(垂直方向)に3分割した計9個の分割領域(UR,UC,UL,MR,MC,ML,DR,DC,DL)のどこに手首が位置しているのかを判定する。
すなわち、手位置分類手段121は、手位置方向算出手段120で算出された手首位置の空間座標(Npx,Npy,Npz)のうちのX座標Npx,Y座標Npyによって、手(手首)の位置を分類する。
なお、ここで、手位置分類手段121は、XY平面上で位置の分類を行ったが、手首位置のZ座標を加えて、3次元空間上で位置の分類を行ってもよい。
そして、手位置分類手段121は、手首が位置する分割領域を特定する固有の値を、分類情報Cの手位置情報として、記憶手段2において、識別情報IDで特定される手話単語(モーションデータD)に対応する管理情報に設定する。
手方向分類手段122は、手位置方向算出手段120で算出された手(手首)の方向を分類するものである。
この手方向分類手段122は、代表フレームにおいて、手のひらの方向がどの方向を向いているのかを大まかな区分で分類する。
ここでは、手位置方向算出手段120で算出された方向ベクトル(Nvx,Nvy,Nvz)のうちで、絶対値が最も大きい値となる軸の成分をその符号とともに、手のひらの方向として分類する。
例えば、図7(a)では、手話者が手の甲を正面に向けており、図7(b)では手のひらを正面に向けている。この場合、手首の方向ベクトル(Nvx,Nvy,Nvz)のうちで、Z軸成分Nvzの絶対値が最も大きくなり、手型が同じであっても、図7(a)、(b)をZ軸成分の符号によって、それぞれに分類することができる。
なお、手方向分類手段122は、必ずしもXYZ方向のすべてについて方向を分類する必要はなく、例えば、Z軸方向のみに着目して、その正負によって分類を行うこととしてもよい。
そして、手方向分類手段122は、手のひらの方向を特定する固有の値を、分類情報Cの手方向情報として、記憶手段2において、識別情報IDで特定される手話単語(モーションデータD)に対応する管理情報に設定する。
指方向算出手段123は、代表フレームで表されている手の指の方向を算出するものである。
この指方向算出手段123は、代表フレームのモーションデータDから、指の予め定めた2つの関節位置を求め、それぞれの関節の相対位置から、当該指が指し示す方向を算出する。
例えば、右手の人差し指の方向を求める場合、指方向算出手段123は、図3に示した関節ノードにおいて、人差し指の先端の関節ノード(RightIndexEff)の位置と、その指の根元の関節ノード(RightIndex1)の位置とを求める。
なお、これらの関節ノードの位置を求める手法は、手位置方向算出手段120で手首の関節ノード(RightWrist)を求める手法と同じである。
ただし、すでに、手位置方向算出手段120で、基準位置(Hips)の関節ノードから、手首の関節ノード(RightWrist)までの移動量および回転量は算出されているため、指方向算出手段123は、その移動量および回転量を用い、それ以降の指の関節ノードについて演算を行い、それぞれの空間座標を求めればよい。
そして、指方向算出手段123は、人差し指の先端の関節ノード(RightIndexEff)の位置を示す空間座標(Iex,Iey,Iez)から、根元の関節ノード(RightIndex1)の位置を示す空間座標(I1x,I1y,I1z)の各成分の差を計算する。この各成分の差は、各軸における指の方向を表す指標(方向ベクトル)となる。
そして、指方向算出手段123は、この指の方向ベクトルを指方向分類手段124に出力する。
指方向分類手段124は、指方向算出手段123で算出された指の方向を分類するものである。
この指方向分類手段124は、指方向算出手段123で算出された指の方向ベクトルの成分のうちで、その値の最も絶対値が大きい軸方向において、符号が正であればその軸の正方向、符号が負であればその軸の負方向に指が向いていると分類する。
例えば、図8(a)では、手話者が人差し指を内側(X軸正方向)に向けており、図8(b)では人差し指を下(Y軸負方向)に向けている。このように、手型が同じであっても、図8(a)、(b)を人差し指の方向によって、それぞれ異なる手話単語に分類することができる。
なお、指方向分類手段124は、すべての指について方向を分類する必要はなく、例えば、人差し指のみ、親指、人差し指および中指の3本の指のみについて、分類を行うこととしてもよい。
そして、指方向分類手段124は、指の方向を特定する固有の値を、分類情報Cの指方向情報として、記憶手段2において、識別情報IDで特定される手話単語(モーションデータD)に対応する管理情報に設定する。
以上説明したように手話単語分類情報生成装置1を構成することで、手話単語分類情報生成装置1は、手話単語動作を示すモーションデータから、手型、手指の位置方向による分類情報を生成することができる。
この分類情報を検索条件として用いることで、手型、手指の位置および向きから、手話動作が示す手話単語を検索することが可能になる。
なお、手話単語分類情報生成装置1は、コンピュータを、前記した各手段として機能させるための手話単語分類情報生成プログラムで動作させることができる。
〔手話単語分類情報生成装置の動作〕
次に、図9を参照(構成については適宜図1参照)して、手話単語分類情報生成装置1の動作について説明する。
まず、手話単語分類情報生成装置1は、代表フレーム検出手段10において、記憶手段2に記憶されている手話単語ごとのモーションデータDから、代表フレームを検出する。
すなわち、手話単語分類情報生成装置1は、代表フレーム検出手段10の動き量算出手段100によって、モーションデータDのあるフレームとその前のフレームと間で、移動量および回転量の成分ごとの差の絶対値の総和、または、成分ごとの差の2乗和を求めることで、フレーム単位の動き量を算出する(ステップS1)。
そして、手話単語分類情報生成装置1は、代表フレーム検出手段10の動き量最少フレーム検出手段101によって、手話単語の動作が開始されたフレームと、手話単語の動作が終了したフレームとの間で、ステップS1で算出された動き量が最少となるフレームを、代表フレームとして検出する(ステップS2)。
ここで、代表フレーム検出手段10は、記憶手段2に記憶されているすべてのモーションデータDについて代表フレームを検出していない場合(ステップS3でNo)、ステップS1に戻って、代表フレームの検出処理を繰り返す。一方、すべてのモーションデータDについて代表フレームの検出が完了した場合(ステップS3でYes)、代表フレーム検出手段10は、モーションデータDの識別情報IDと代表フレームのフレーム番号とを型分類手段11と、位置方向分類手段12とに通知して、それぞれの分類手段11,12に制御を移す(ステップとして図示せず)。
その後、手話単語分類情報生成装置1は、型分類手段11のクラスタリング手段110によって、代表フレームにおける指部分の関節の回転量の組を1つのデータ単位とし、すべての代表フレームについて手型のクラスタリングを行う(ステップS4)。
そして、手話単語分類情報生成装置1は、クラスタリング手段110によって、ステップS4でクラスタリングしたクラスタ固有の値を、分類情報Cの手型情報として、代表フレームに対応するモーションデータDに対応付けて記憶する(ステップS5)。
また、手話単語分類情報生成装置1は、型分類手段11の手型画像生成手段111によって、ステップS4でクラスタリングされた手型に対応する画像(手型画像)を生成する(ステップS6)。
そして、手話単語分類情報生成装置1は、手型画像生成手段111によって、ステップS6で生成された手型画像を、手型情報に対応付けて記憶する(ステップS7)。
また、手話単語分類情報生成装置1は、位置方向分類手段12によって、個々の代表フレームにおいて、手の位置および手指の方向の分類を行う。
すなわち、手話単語分類情報生成装置1は、位置方向分類手段12の手位置方向算出手段120によって、モーションデータDに記述されている関節ノードの階層関係に基づく座標変換を行うことで、手(手首)の空間位置と手(手のひら)の方向とを算出する(ステップS8)。
そして、手話単語分類情報生成装置1は、位置方向分類手段12の手位置分類手段121によって、ステップS8で算出された手(手首)の位置を予め区分した位置で分類し、その分類した位置を特定する値を、分類情報Cの手位置情報として、代表フレームに対応するモーションデータDに対応付けて記憶する(ステップS9)。
また、手話単語分類情報生成装置1は、位置方向分類手段12の手方向分類手段122によって、ステップS8で算出された手(手のひら)の方向を予め区分した方向で分類し、その分類した方向を特定する値を、分類情報Cの手方向情報として、代表フレームに対応するモーションデータDに対応付けて記憶する(ステップS10)。
さらに、手話単語分類情報生成装置1は、位置方向分類手段12の指方向算出手段123によって、モーションデータDに記述されている関節ノードの階層関係に基づく座標変換を行うことで、指(人差し指)の方向を算出する(ステップS11)。
そして、手話単語分類情報生成装置1は、位置方向分類手段12の指方向分類手段124によって、ステップS11で算出された指の方向を予め区分した方向で分類し、その分類した方向を特定する値を、分類情報Cの指方向情報として、代表フレームに対応するモーションデータDに対応付けて記憶する(ステップS12)。
ここで、位置方向分類手段12は、すべての代表フレームに対して、手の位置および手指の方向の分類が完了していない場合(ステップS13でNo)、ステップS8に戻って、分類処理を繰り返す。
そして、すべての代表フレームに対して、手の位置および手指の方向の分類が完了した段階(ステップS13でYes)、手話単語分類情報生成装置1は、動作を終了する。
以上の動作によって、手話単語分類情報生成装置1は、記憶手段2に記憶されているモーションデータDに対して、検索用の分類情報C(手型情報、手位置情報、手方向情報、指方向情報)を対応付けることができる。
また、手話単語分類情報生成装置1は、手型情報に対応付けて、検索用のサムネイル画像として手型画像を生成することができる。
〔手話単語検索装置の構成〕
次に、図10を参照して、手話単語検索装置3の構成について説明する。
手話単語検索装置3は、手話単語分類情報生成装置1(図1参照)で生成された分類情報を検索条件として、手話単語を検索するものである。なお、手話単語検索装置3は、モーションデータDに対して、予め手話単語分類情報生成装置1(図1参照)によって分類情報等が設定された記憶手段2を接続している。
ここでは、手話単語検索装置3は、検索画面表示制御手段30と、分類情報指定手段31と、検索実行手段32と、を備える。
検索画面表示制御手段30は、手話単語の検索条件を入力するための画面を表示するとともに、ユーザから検索条件を受け付けるユーザインタフェースとなる検索画面を制御するものである。
この検索画面表示制御手段30は、記憶手段2に記憶されている分類情報C(手型情報、手位置情報、手方向情報、指方向情報)を、検索条件としてユーザが指定するための手話単語検索画面を生成し、表示装置Mの画面に表示する。
例えば、検索画面表示制御手段30は、図11に示すように、手型を検索条件として指定するためのプルダウンメニューのタイトル部分51と、手の方向(手のひらの向き)を検索条件として指定するためのプルダウンメニューのタイトル部分52と、指の方向を検索条件として指定するためのプルダウンメニューのタイトル部分53と、を検索条件の項目を選択するボタンとして含んだ検索画面50を表示する。
また、検索画面表示制御手段30は、図11に示すように、手の位置を指定するためのチェック領域(ラジオボタン54a)を含んだ領域指定画像54を画面上に表示する。
さらに、検索画面表示制御手段30は、図11に示すように、検索条件指定後に検索の実行を受け付ける検索ボタン55を画面上に表示する。
この検索画面表示制御手段30は、タイトル部分51をマウス等の選択手段で選択されることで、後記する分類情報指定手段31の手型指定手段310に制御を移す。
また、検索画面表示制御手段30は、タイトル部分52をマウス等の選択手段で選択されることで、後記する分類情報指定手段31の手方向指定手段311に制御を移す。
また、検索画面表示制御手段30は、タイトル部分53をマウス等の選択手段で選択されることで、後記する分類情報指定手段31の指方向指定手段312に制御を移す。
また、検索画面表示制御手段30は、領域指定画像54をマウス等の選択手段で選択されることで、後記する分類情報指定手段31の手位置指定手段313に制御を移す。
分類情報指定手段31は、検索画面を介して、ユーザからの検索条件の指定を受け付けるものである。
ここでは、分類情報指定手段31は、手型指定手段310と、手方向指定手段311と、指方向指定手段312と、手位置指定手段313と、を備える。
手型指定手段310は、手型を検索条件として受け付けるものである。
この手型指定手段310は、検索画面表示制御手段30から、検索画面において、手型を検索条件として指定された際に、記憶手段2に記憶されている手型画像Gをサムネイル画像として表示する。そして、手型指定手段310は、マウス等の選択手段でサムネイル画像を選択されることで、それに対応する手型情報を検索条件として特定する。
例えば、図12に示すように、検索画面50において、タイトル部分51を選択されることで、手型指定手段310は、複数の手型を示すサムネイル画像51aを表示して、選択を受け付ける。
この手型指定手段310は、手型を選択され、検索条件の1つとして手型情報が特定された後、検索画面表示制御手段30に制御を移す。
なお、検索条件として指定された手型情報は、図示を省略したメモリ上に保持され、検索実行時に検索実行手段32によって参照される。
手方向指定手段311は、手(手のひら)の方向を検索条件として受け付けるものである。
この手方向指定手段311は、検索画面表示制御手段30から、検索画面において、手の方向(手のひらの向き)を検索条件として指定された際に、記憶手段2に記憶されている手方向情報の分類項目を表示する。そして、手方向指定手段311は、マウス等の選択手段で項目を選択されることで、それに対応する手方向情報を検索条件として特定する。
例えば、図13に示すように、検索画面50において、タイトル部分52を選択されることで、手方向指定手段311は、手の向きとして予め分類されている項目内容を表示して、選択を受け付ける。
この手方向指定手段311は、手の向きを選択され、検索条件の1つとして手方向情報が特定された後、検索画面表示制御手段30に制御を移す。
なお、検索条件として指定された手方向情報は、図示を省略したメモリ上に保持され、検索実行時に検索実行手段32によって参照される。
指方向指定手段312は、指の方向を検索条件として受け付けるものである。
この指方向指定手段312は、検索画面表示制御手段30から、検索画面において、指の方向(人差し指の指し示す方向)を検索条件として指定された際に、記憶手段2に記憶されている指方向情報の分類項目を表示する。そして、指方向指定手段312は、マウス等の選択手段で項目を選択されることで、それに対応する指方向情報を検索条件として特定する。
例えば、図14に示すように、検索画面50において、タイトル部分53を選択されることで、指方向指定手段312は、指の向きとして予め分類されている項目内容を表示して、選択を受け付ける。
この指方向指定手段312は、指の向きを選択され、検索条件の1つとして指方向情報が特定された後、検索画面表示制御手段30に制御を移す。
なお、検索条件として指定された指方向情報は、図示を省略したメモリ上に保持され、検索実行時に検索実行手段32によって参照される。
手位置指定手段313は、手の位置を検索条件として受け付けるものである。
この手位置指定手段313は、検索画面表示制御手段30から、検索画面において、手の位置の指定されることで、それに対応する手位置情報を検索条件として特定する。
例えば、図15に示すように、検索画面50において、領域指定画像54の領域を指定されることで、手位置指定手段313は、ラジオボタン54aの色等を変えることで、領域が選択されたことを表す。
この手位置指定手段313は、手の位置を選択され、検索条件の1つとして手位置情報が特定された後、検索画面表示制御手段30に制御を移す。
なお、検索条件として指定された手位置情報は、図示を省略したメモリ上に保持され、検索実行時に検索実行手段32によって参照される。
検索実行手段32は、検索画面を介して、ユーザからの検索実行の指示を受け付けるものである。
ここでは、検索実行手段32は、検索手段320と、検索結果表示手段321と、手話動作表示手段322と、を備える。
検索手段320は、分類情報指定手段31で指定された検索条件に合致する手話単語を検索するものである。
この検索手段320は、検索画面表示制御手段30から、検索画面において、検索実行がされた指示(例えば、図11の検索画面50で検索ボタン55が押下された場合)、記憶手段2において、分類情報指定手段31で保持されている検索条件(手型情報、手位置情報、手方向情報、指方向情報)と合致する分類情報Cを有する手話単語のラベルLを検索する。
なお、検索手段320は、分類情報指定手段31で、すべての検索条件を指定される必要はなく、指定された検索条件のみが合致する分類情報Cを有する手話単語のラベルLを検索する。
そして、検索手段320は、検索結果であるラベルLを、検索結果表示手段321に出力する。
検索結果表示手段321は、検索手段320で検索された結果である手話単語(ラベル)を表示するものである。
例えば、図16に示すように検索結果表示手段321は、検索結果の手話単語を検索結果単語領域60に表示する。なお、検索結果の手話単語が複数ある場合は、その複数の手話単語を列挙して表示する。
手話動作表示手段322は、検索結果表示手段321で表示された手話単語の動作をCGで表示するものである。
この手話動作表示手段322は、検索結果表示手段321で表示された手話単語を選択されることで、選択された手話単語に対応するモーションデータDを読み出して、CG動画として再生する。なお、このモーションデータDから、CGを生成する手法は、一般的な手法を用いればよい。
例えば、図17に示すように、検索結果として検索結果単語領域60に複数の手話単語の候補(単語A〜C)が表示され、その中の1つ(単語A)が選択された場合、手話動作表示手段322は、単語AをラベルLとするモーションデータDを記憶手段2から読み出し、CG描画領域62に手話単語動作をCGで再生する。
これによって、例えば、検索条件に合致する手話単語が複数存在しても、手話動作を確認することで、ユーザが所望の手話動作に対応する手話単語を検索することが可能になる。
以上説明したように手話単語検索装置3を構成することで、手話単語検索装置3は、手話単語動作時の手型、手指の位置および向きから、その手話動作が示す手話単語を検索することができる。
なお、手話単語検索装置3は、コンピュータを、前記した各手段として機能させるための手話単語検索プログラムで動作させることができる。
〔手話単語分類情報生成装置の動作〕
次に、図18を参照(構成については適宜図10参照)して、手話単語検索装置3の動作について説明する。
まず、手話単語検索装置3は、検索画面表示制御手段30によって、図11に示すような手話単語の検索画面50を、表示装置Mに表示する(ステップS20)。
そして、手話単語検索装置3は、検索画面表示制御手段30によって、ユーザからマウス等の選択手段を介して選択される、検索画面50上の選択位置に応じて処理動作を分岐させる(ステップS21)。
検索画面50上で、検索条件の項目として“手型”が選択された場合、手話単語検索装置3は、分類情報指定手段31の手型指定手段310によって、記憶手段2に記憶されている手型画像Gをサムネイル画像として表示する(図12参照;ステップS22)。そして、手型指定手段310は、検索画面表示制御手段30に制御を移す。
そして、検索画面50上で、手型の内容として、ステップS22で表示された手型(サムネイル画像)の1つが選択された場合、手話単語検索装置3は、分類情報指定手段31の手型指定手段310によって、選択された手型に対応する手型情報を検索条件として保持する(ステップS23)。そして、手型指定手段310は、検索画面表示制御手段30に制御を移す。
また、検索画面50上で、検索条件の項目として“手方向”が選択された場合、手話単語検索装置3は、分類情報指定手段31の手方向指定手段311によって、手方向情報の分類項目となる手のひらの向きの候補を表示する(図13参照;ステップS24)。そして、手方向指定手段311は、検索画面表示制御手段30に制御を移す。
そして、検索画面50上で、ステップS24で表示された手方向の候補の1つが選択された場合、手話単語検索装置3は、分類情報指定手段31の手方向指定手段311によって、選択された手方向に対応する手方向情報を検索条件として保持する(ステップS25)。そして、手方向指定手段311は、検索画面表示制御手段30に制御を移す。
また、検索画面50上で、検索条件の項目として“指方向”が選択された場合、手話単語検索装置3は、分類情報指定手段31の指方向指定手段312によって、指方向情報の分類項目となる指の向きの候補を表示する(図14参照;ステップS26)。そして、指方向指定手段312は、検索画面表示制御手段30に制御を移す。
そして、検索画面50上で、ステップS26で表示された指方向の候補の1つが選択された場合、手話単語検索装置3は、分類情報指定手段31の指方向指定手段312によって、選択された指方向に対応する指方向情報を検索条件として保持する(ステップS27)。そして、指方向指定手段312は、検索画面表示制御手段30に制御を移す。
また、検索画面50上で、検索条件として“手位置”の領域が選択された場合、手話単語検索装置3は、分類情報指定手段31の手位置指定手段313によって、選択された領域を表示し(図15参照)、選択された手位置に対応する手位置情報を検索条件として保持する(ステップS28)。そして、手位置指定手段313は、検索画面表示制御手段30に制御を移す。
そして、検索画面50上で、検索実行を指示する検索ボタン押下された場合、手話単語検索装置3は、検索実行手段32の検索手段320によって、必要に応じて、ステップS23、ステップS25、ステップS27、ステップS28で指定された検索条件に合致する手話単語を検索し、検索結果表示手段321によって、検索結果の手話単語を表示する(図16参照;ステップS29)。
さらに、ステップS29で表示された手話単語の候補が選択された場合、手話単語検索装置3は、検索実行手段32の手話動作表示手段322によって、選択された手話単語に対応するモーションデータDを読み出して、CG動画として手話単語動作を再生する(ステップS30)。
以上の動作によって、手話単語検索装置3は、ユーザが選択する手話単語動作時の手の型、手指の位置および向きから、その手話動作が示す手話単語を検索することができる。
〔変形例〕
以上、本発明の実施形態に係る手話単語分類情報生成装置および手話単語検索装置の構成および動作について説明したが、本発明はこの実施形態に限定されるものではない。
例えば、ここでは、手話単語分類情報生成装置は、説明を分かり易くするため、特に右手の型、位置、向き、右手の指の方向で分類情報を生成することとした。
しかし、手話単語分類情報生成装置は、右手と同様に、左手の型、位置、向き、左手の指の方向でさらに分類情報を生成することとしてもよい。
その場合、手話単語検索装置も同様に、左手の分類情報をさらに検索条件として加えて、手話単語の検索を行えばよい。
また、ここでは、手話単語分類情報生成装置は、手型を分類した際に、手型画像を生成することとしたが、必ずしも手型画像を生成する必要はない。
その場合、予め分類した手型ごとに、既知の名称(例えば、テ型、ホ型等)を対応付けることとしてもよい。
また、ここでは、手話単語分類情報生成装置は、手の型、位置、向きおよび指の方向を分類した分類情報を生成することとした。
しかし、手話単語分類情報生成装置は、必ずしも、これらすべての項目について分類情報を生成する必要はない。例えば、指の方向を分類した分類情報を省略して、簡易な構成としても構わない。
また、ここでは、手話単語分類情報生成装置は、手の位置を、手首の位置で特定したが、例えば、人差し指の先端の関節ノードで、位置を特定することとしてもよい。
また、ここでは、手話単語検索装置は、手の型、位置、向きおよび指の方向をそれぞれ独立して扱った。
しかし、手話単語検索装置は、検索条件として、例えば、左右の手の型が同じ、左右の手の位置や方向が対称等を指定して、手話単語を検索することとしてもよい。
1 手話単語分類情報生成装置
10 代表フレーム検出手段
100 動き量算出手段
101 動き量最少フレーム検出手段
11 型分類手段
110 クラスタリング手段
111 手型画像生成手段
12 位置方向分類手段
120 手位置方向算出手段
121 手位置分類手段
122 手方向分類手段
123 指方向算出手段
124 指方向分類手段
2 記憶手段
3 手話単語検索装置
30 検索画面表示制御手段
31 分類情報指定手段
310 手型指定手段
311 手方向指定手段
312 指方向指定手段
313 手位置指定手段
32 検索実行手段
320 検索手段
321 検索結果表示手段
322 手話動作表示手段
C 分類情報
D モーションデータ
G 手型画像

Claims (7)

  1. 手話単語の動作における手の型、位置および向きの特徴から前記手話単語を検索するための検索用の分類情報を生成する手話単語分類情報生成装置であって、
    人体の関節の相対位置と画面の単位であるフレームごとの前記関節の移動量および回転量とで構成されるモーションデータにおいて、当該動作の開始から終了までの間で、動き量が最少となる代表フレームを前記手話単語ごとに検出する代表フレーム検出手段と、
    この代表フレーム検出手段で検出された手話単語ごとの代表フレームにおける手指の関節の前記回転量の組をクラスタリングすることで前記手話単語を手の型で分類し、その分類結果を、前記手話単語のモーションデータごとに前記分類情報の1つとして対応付ける手型分類手段と、
    前記代表フレームごとに、前記人体の予め定めた基準位置となる関節から手首の関節までの各関節の前記移動量および前記回転量により、前記手首の関節の位置および向きを算出する手位置方向算出手段と、
    この手位置方向算出手段で算出された前記手首の関節の位置を、予め区分した位置で分類し、その分類結果を、前記代表フレームに対応する手話単語のモーションデータに前記分類情報の1つとして対応付ける手位置分類手段と、
    前記手位置方向算出手段で算出された前記手首の関節の向きを、予め区分した方向で分類し、その分類結果を、前記代表フレームに対応する手話単語のモーションデータに前記分類情報の1つとして対応付ける手方向分類手段と、
    を備えることを特徴とする手話単語分類情報生成装置。
  2. 前記代表フレームごとに、前記移動量および前記回転量により、指の予め定めた2つの関節位置を求め、それぞれの関節の相対位置から、当該指が指し示す方向を算出する指方向算出手段と、
    この指方向算出手段で算出された指が指し示す方向を、予め区分した方向で分類し、その分類結果を、前記代表フレームに対応する手話単語のモーションデータに前記分類情報の1つとして対応付ける指方向分類手段と、
    をさらに備えることを特徴とする請求項1に記載の手話単語分類情報生成装置。
  3. 前記手型分類手段で分類された手の型ごとに、当該手の型に分類された手話単語の代表フレームの1つから、CGにより、検索用のサムネイル画像となる手型画像を生成する手型画像生成手段を、さらに備えることを特徴とする請求項1または請求項2に記載の手話単語分類情報生成装置。
  4. コンピュータを、請求項1から請求項3のいずれか一項に記載の手話単語分類情報生成装置の各手段として機能させるための手話単語分類情報生成プログラム。
  5. 請求項1に記載の手話単語分類情報生成装置で生成された、人体の関節の相対位置とフレームごとの前記関節の移動量および回転量とで構成される手話単語の動作を示すモーションデータから生成された手の型、位置および向きを分類した分類情報から、前記手話単語を検索する手話単語検索装置であって、
    前記手話単語ごとに、当該手話単語の動作を示す前記モーションデータと、前記手の型を分類した手型情報と、前記手の位置を分類した手位置情報と、前記手の向きを分類した手方向情報とを記憶する記憶手段と、
    前記手型情報の指定を受け付ける手型指定手段と、
    前記手位置情報の指定を受け付ける手位置指定手段と、
    前記手方向情報の指定を受け付ける手方向指定手段と、
    指定された前記手型情報、前記手位置情報および前記手方向情報に合致する手話単語を前記記憶手段において検索する検索手段と、
    この検索手段の検索結果である手話単語を表示する検索結果表示手段と、
    を備えることを特徴とする手話単語検索装置。
  6. 前記記憶手段には、前記モーションデータから生成された指が指し示す方向を分類した指方向情報がさらに記憶されており、
    前記指方向情報の指定を受け付ける指方向指定手段を、さらに備え、
    前記検索手段は、指定された前記手型情報、前記手位置情報、前記手方向情報および前記指方向情報に合致する手話単語を前記記憶手段において検索することを特徴とする請求項5に記載の手話単語検索装置。
  7. コンピュータを、請求項6または請求項7に記載の手話単語検索装置の各手段として機能させるための手話単語検索プログラム。
JP2014021253A 2014-02-06 2014-02-06 手話単語分類情報生成装置およびそのプログラム Active JP6353660B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014021253A JP6353660B2 (ja) 2014-02-06 2014-02-06 手話単語分類情報生成装置およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014021253A JP6353660B2 (ja) 2014-02-06 2014-02-06 手話単語分類情報生成装置およびそのプログラム

Publications (2)

Publication Number Publication Date
JP2015148706A true JP2015148706A (ja) 2015-08-20
JP6353660B2 JP6353660B2 (ja) 2018-07-04

Family

ID=53892105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014021253A Active JP6353660B2 (ja) 2014-02-06 2014-02-06 手話単語分類情報生成装置およびそのプログラム

Country Status (1)

Country Link
JP (1) JP6353660B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126144A (ja) * 2019-02-05 2020-08-20 ソフトバンク株式会社 システム、サーバ装置及びプログラム
JP2021518960A (ja) * 2019-01-18 2021-08-05 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. 画像処理方法及び装置、画像デバイス並びに記憶媒体
KR102543936B1 (ko) * 2022-07-14 2023-06-16 남창환 수화 인식 장치 및 방법
JP7485454B2 (ja) 2022-08-05 2024-05-16 Necソリューションイノベータ株式会社 手話翻訳処理装置、手話翻訳処理システム、手話翻訳処理方法、プログラム、及び記録媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102624226B1 (ko) * 2021-06-29 2024-01-15 한국전자기술연구원 수어의 형태소 단위 분할 방법, 형태소 위치 예측 방법 및 데이터 증강 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0836586A (ja) * 1994-07-22 1996-02-06 Fujitsu Ltd 手話検索システム
JPH10161524A (ja) * 1996-11-28 1998-06-19 Hitachi Ltd 手話単語パターン辞書作成システムおよび方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0836586A (ja) * 1994-07-22 1996-02-06 Fujitsu Ltd 手話検索システム
JPH10161524A (ja) * 1996-11-28 1998-06-19 Hitachi Ltd 手話単語パターン辞書作成システムおよび方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
相本幸治、外3名: "手話認識のための動き特徴に基づく学習データの自動合成", 情報処理学会 電子図書館 「画像の認識・理解シンポジウム(MIRU)論文集」, JPN6017041474, 20 July 2011 (2011-07-20), JP, pages 710 - 717 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021518960A (ja) * 2019-01-18 2021-08-05 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. 画像処理方法及び装置、画像デバイス並びに記憶媒体
JP7001841B2 (ja) 2019-01-18 2022-01-20 北京市商▲湯▼科技▲開▼▲發▼有限公司 画像処理方法及び装置、画像デバイス並びに記憶媒体
US11468612B2 (en) 2019-01-18 2022-10-11 Beijing Sensetime Technology Development Co., Ltd. Controlling display of a model based on captured images and determined information
US11538207B2 (en) 2019-01-18 2022-12-27 Beijing Sensetime Technology Development Co., Ltd. Image processing method and apparatus, image device, and storage medium
US11741629B2 (en) 2019-01-18 2023-08-29 Beijing Sensetime Technology Development Co., Ltd. Controlling display of model derived from captured image
JP2020126144A (ja) * 2019-02-05 2020-08-20 ソフトバンク株式会社 システム、サーバ装置及びプログラム
KR102543936B1 (ko) * 2022-07-14 2023-06-16 남창환 수화 인식 장치 및 방법
JP7485454B2 (ja) 2022-08-05 2024-05-16 Necソリューションイノベータ株式会社 手話翻訳処理装置、手話翻訳処理システム、手話翻訳処理方法、プログラム、及び記録媒体

Also Published As

Publication number Publication date
JP6353660B2 (ja) 2018-07-04

Similar Documents

Publication Publication Date Title
CN107428004B (zh) 对象数据的自动收集和标记
Yao et al. Contour model-based hand-gesture recognition using the Kinect sensor
JP6353660B2 (ja) 手話単語分類情報生成装置およびそのプログラム
JP6583537B2 (ja) 動作情報生成装置
JP5403699B2 (ja) 手指形状推定装置、手指形状の推定方法及びプログラム
KR101745406B1 (ko) 깊이 영상 기반의 손 제스처 인식 장치 및 방법
Wen et al. A robust method of detecting hand gestures using depth sensors
KR101902192B1 (ko) 3차원 기반의 유사 안무 검색 방법 및 이를 이용한 장치
KR101563297B1 (ko) 영상에서 행동을 인식하는 방법 및 장치
JP2018116599A (ja) 情報処理装置、情報処理方法およびプログラム
JP6066093B2 (ja) 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム
Jang et al. Metaphoric hand gestures for orientation-aware VR object manipulation with an egocentric viewpoint
Lewis et al. Are discrete emotions useful in human-robot interaction? Feedback from motion capture analysis
Kumar et al. 3D sign language recognition using spatio temporal graph kernels
CN115083015A (zh) 一种3d人体姿态估计数据标注方式和对应的模型构建方法
US11513607B2 (en) Path recognition method using a combination of invariant positional data and attributes of variation, path recognition device, path recognition program, and path recognition program recording medium
Dhore et al. Human Pose Estimation And Classification: A Review
KR101447958B1 (ko) 신체 부분 검출 방법 및 장치
Siam et al. Human computer interaction using marker based hand gesture recognition
Rustagi et al. Virtual Control Using Hand-Tracking
CN113807280A (zh) 一种基于Kinect的虚拟船舶机舱系统与方法
JP2006285685A (ja) 3次元デザイン支援装置及び方法
JP6739896B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
Huerta et al. Hand Gesture Recognition With a Novel Particle Filter
Li et al. Skeleton-based Approaches based on Machine Vision: A Survey

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180611

R150 Certificate of patent or registration of utility model

Ref document number: 6353660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250