JP2015203860A - 手話動作生成装置及び手話動作生成プログラム - Google Patents

手話動作生成装置及び手話動作生成プログラム Download PDF

Info

Publication number
JP2015203860A
JP2015203860A JP2014084891A JP2014084891A JP2015203860A JP 2015203860 A JP2015203860 A JP 2015203860A JP 2014084891 A JP2014084891 A JP 2014084891A JP 2014084891 A JP2014084891 A JP 2014084891A JP 2015203860 A JP2015203860 A JP 2015203860A
Authority
JP
Japan
Prior art keywords
sign language
action
pointing
motion
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014084891A
Other languages
English (en)
Other versions
JP6313640B2 (ja
Inventor
太郎 宮▲崎▼
Taro Miyazaki
太郎 宮▲崎▼
井上 誠喜
Seiki Inoue
誠喜 井上
伸行 比留間
Nobuyuki Hiruma
伸行 比留間
加藤 直人
Naoto Kato
直人 加藤
清水 俊宏
Toshihiro Shimizu
俊宏 清水
道家 守
Mamoru Doke
守 道家
修一 梅田
Shuichi Umeda
修一 梅田
真希子 東
Makiko Azuma
真希子 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2014084891A priority Critical patent/JP6313640B2/ja
Publication of JP2015203860A publication Critical patent/JP2015203860A/ja
Application granted granted Critical
Publication of JP6313640B2 publication Critical patent/JP6313640B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】手話に必要な指さしを正しく表現した手話動作データを生成する。
【解決手段】入力データに対する手話動作を生成する手話動作生成装置において、前記入力データに対応する動作データを読み込む動作データ読み込み手段と、前記動作データ読み込み手段により読み込まれた動作データに含まれるCGキャラクタの手の位置を解析する動作データ解析手段と、前記動作データ解析手段により得られる前記手の位置に対応する各関節の位置及び回転角からなるパラメータを用いて、前記手の位置の重心を算出する動作重心算出手段と、前記動作重心算出手段により得られる前記手の重心に対応させて、前記動作データによる手話動作を行った位置に指さし動作を行う動作データを生成する指さし動作生成手段と、前記手話動作と前記指さし動作との間の動作を補間する動作補間手段とを有することにより、上記課題を解決する。
【選択図】図1

Description

本願は、手話動作生成装置及び手話動作生成プログラムに係り、特に、手話に必要な指さしを正しく表現したCG(Computer Graphics)を生成するための手話動作生成装置及び手話動作生成プログラムに関する。
従来では、多くの手話単語の動作データがモーションキャプチャデータとして蓄積されており、その手話単語の動作データをつなぎ合わせ、CGキャラクタ等をその動作通りに動かすことで手話CGを生成する手法等が用いられている。例えば、手、肩、背中、腰、首、頭等の姿勢、表情等を検索条件として予め登録されている辞書を参照し、手話単語の動作データを取得する手法が存在する(例えば、特許文献1及び2参照)。
特許第4379146号公報 特開2005−99977号公報
ここで、手話特有の表現方法として「ポインティング(指さし)」と呼ばれる表現がある。これは、例えば「那覇は雨でしょう」という文章(日本語)を手話で表現する場合に、予め登録されている機械翻訳辞書等から「那覇」「(那覇の手話単語を指さし)」「雨」「夢」という手話単語列で表現される。なお、「夢」という手話単語は、未来のことを表現する際に使われる。この場合には「でしょう」の部分の翻訳に相当する。この指さし動作は、助詞的な扱いとなり、例えば「那覇雨」という単語が存在するかのような誤解を防ぎ、文章を理解しやすくするという効果がある。
しかしながら、例えば「那覇」の手話単語を指さす場合に、従来手法では、そのモーションキャプチャデータをつなぎ合わせるのが非常に困難である。実際のモーションキャプチャした通りの動作をさせると、従来手法では、「那覇」を示した単語の位置を指さすことができず、単に予め設定された座標位置(例えば、右手の基本位置)で指さし動作を行うだけである。そのため、従来手法では、手話全体として意味が正しく伝わらない恐れがあった。
本発明は、高精度な手話翻訳を実現するための手話動作生成装置及び手話動作生成プログラムを提供することを目的とする。
上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。
本発明の一態様における手話動作生成装置は、入力データに対する手話動作を生成する手話動作生成装置において、前記入力データに対応する動作データを読み込む動作データ読み込み手段と、前記動作データ読み込み手段により読み込まれた動作データに含まれるCGキャラクタの手の位置を解析する動作データ解析手段と、前記動作データ解析手段により得られる前記手の位置に対応する各関節の位置及び回転角からなるパラメータを用いて、前記手の位置の重心を算出する動作重心算出手段と、前記動作重心算出手段により得られる前記手の重心に対応させて、前記動作データによる手話動作を行った位置に指さし動作を行う動作データを生成する指さし動作生成手段と、前記手話動作と前記指さし動作との間の動作を補間する動作補間手段とを有することを特徴とする。
また、本発明の一態様における手話動作生成プログラムは、コンピュータを、上述した手話動作生成装置として機能させるための手話動作生成プログラムである。
本発明は、手話に必要な指さしを正しく表現した手話動作データを生成することができる。
手話動作生成装置の機能構成の一例を示す図である。 手話動作生成処理の一例を示すフローチャートである。 モーションキャプチャデータの一例を示す図(その1)である。 モーションキャプチャデータの一例を示す図(その2)である。 指さし動作時における補間処理の具体例を示す図である。 指さし動作の具体例を示す図である。 複数単語の指さし動作の一例を示す図である。
<本実施形態について>
本実施形態では、例えばCGキャラクタを用いた手話において、ある単語を指さす場合に、指さしされる対象となる単語(例えば、上述した「那覇」)の位置を正しく指さすようにモーションキャプチャデータの一部を修正することで、手話に必要な指さしを正しく表現したCGを生成する。
例えば、本実施形態では、指さしされる対象となる単語を解析し、その単語の動作を行う所定の手(例えば、右手)の肩から先の動作の軌跡を取得し、その重心部分を指さしの際の右手の位置として指さしを行う。その場合に、本実施形態では、右手の手首から先の動作には、予め用意されている指さしのモーションデータの手首から先の動作を挿入又は置換することで、正しい位置を自然な動作で指さすことが可能となる。
以下に、手話動作生成装置及び手話動作生成プログラムを好適に実施した形態について、図面を用いて詳細に説明する。
<手話動作生成装置の機能構成例>
図1は、手話動作生成装置の機能構成の一例を示す図である。図1における手話動作生成装置10は、手話単語入力手段11と、動作データ読み込み手段12と、動作データ解析手段13と、動作重心算出手段14と、指さし動作生成手段15と、指さし動作データ入力手段16と、動作補間手段17と、データ出力手段18とを有するよう構成されている。
手話単語入力手段11は、入力データとして、手話で表現する単語(手話単語)Iを入力する。なお、手話単語入力手段11は、手話で表現する文章(複数の単語からなる単語列)を入力してもよい。本実施形態では、例えば手話単語入力手段11には、「那覇」という日本語の単語、又は「那覇は雨でしょう」という日本語等の文章が入力されるが、これに限定されるものではない。
また、手話単語入力手段11は、機械翻訳辞書20等を用いて、上述した日本語から手話への翻訳結果を取得する。例えば「那覇は雨でしょう」という文章が、入力された場合に、機械翻訳辞書20を用いて「那覇」「(那覇の手話単語を指さし)」「雨」「夢」という翻訳結果を得ることができる。手話単語入力手段11は、翻訳結果を動作データ読み込み手段12に出力する。
なお、機械翻訳辞書20としては、例えば予め複数の手話単語と、それに対応する日本語ラベル(日本語見出し)、ラベルの読み仮名(カタカナ表記)、及び単語ID等とを含む手話単語辞書等を用いることができるが、これに限定されるものではない。単語IDとは、例えば単語に対応する手話映像(モーションキャプチャデータ)を識別するための識別情報である。本実施形態では、指さし動作に関するIDも設定されている。
動作データ読み込み手段12は、手話単語入力手段11で取得した翻訳結果に基づいて、予め設定されたモーションキャプチャデータ21の中から、対応するモーションキャプチャデータ(動作データ)を読み込む。例えば、動作データ読み込み手段12は、「那覇」「(那覇の手話単語を指さし)」「雨」「夢」のそれぞれの単語ID((那覇の手話単語を指さし)の場合は、単に指さし動作に対応するID)に対応するモーションキャプチャデータ(動作)を読み込む。
なお、モーションキャプチャデータ21は、手話動作毎に、例えばBVHファイル等により構成されている。BVHファイルは、例えばCGキャラクタが手話動作を行う場合に、その動作に伴う体の各関節(例えば、肩、肘、手首、手、指、首、腰等)の三次元位置や角度(方向)を示す各種パラメータ等が設定されている。各関節は、その関節がつながる元の関節からの相対値で記載される。また、モーションキャプチャデータ21は、各動作の映像に対して複数のフレーム(画像)が存在するため、各フレームに対して上述したように、各関節の位置や角度が設定される。モーションキャプチャデータ21の最初と最後の数フレームには、CGキャラクタが何も動作を行っていない姿勢(例えば、両手をまっすぐ下ろした、いわゆる「気をつけ」の姿勢)の情報が含まれる。
本実施形態では、上述したようなBVHファイルの構成を用いることで、例えば動作の一部(例えば、関節のある部分から先の動作)だけ、他のBVHファイルの動作を取ってきて置換したり、動作を挿入するという作業が容易になる。なお、モーションキャプチャデータ(動作データ)21は、BVHファイルに限定されるものではない。
動作データ解析手段13は、読み込んだモーションキャプチャデータを解析し、どの順番でどの関節の記述をしているかの情報を取得し、モーションキャプチャデータに含まれる動作データのうちのどの部分について,重心取得の処理を行えばよいかを決定する。なお、モーションキャプチャデータは,手話単語動作を表現する前後の部分(いわゆる「気をつけ」の姿勢)が含まれている。そのため、動作データ解析手段13は、動作データ読み込み手段12において得られるモーションキャプチャデータに対して指さしを行う手話単語(上述の例では、「那覇」)に対してin点からout点までの動作を解析する。in点とは、モーションキャプチャデータに含まれる複数フレームの情報のうち、対象の手話動作の開始点(開始フレーム)を示し、out点とは、対象の手話動作の終了点(終了フレーム)を示すが、これに限定されるものではない。なお、動作データ解析手段13は、ユーザ等により指定された指さしされる手話単語(例えば「那覇」)のin点/out点を登録することもできる。
動作重心算出手段14では、手話単語の動作の重心を算出する。ここでは、指さし動作を想定し、右肩から先の動作データについてのin点からout点の間の期間の各関節の位置と角度について、平均を求めることで重心としているが、算出手法は、これに限定されるものではない。
例えば、動作重心算出手段14は、上述したBVHファイルに含まれる右手に対応する各関節(例えば、右肩、右肘、右手首、右手の指関節等)のin点からout点までの各フレームの三次元位置(Xposition,Yposition,Zposition)と、回転方向(Xrotation,Yrotation,Zrotation)とにおける各パラメータの平均を算出し、その算出結果から重心を取得する。
指さし動作生成手段15は、モーションキャプチャデータ21から得られる指さし動作又は指さし動作データ入力手段16によりユーザ等から入力される指さし動作データを用いて手話単語に対応する指さし動作を生成する。例えば、指さし動作生成手段15は、動作重心算出手段14により解析された右手の位置(重心)に対応させて、モーションキャプチャデータ(動作データ)による手話動作を行った位置に指さし動作を行う動作データを生成する。
例えば、指さし動作生成手段15は、右手の肩から手首までは、in点からout点までの動作の平均を用いて指さし動作を生成する。
また、指さし動作生成手段15は、手首から先を指さし動作データ入力手段16により入力された指さし動作データに置換する。例えば、指さし動作生成手段15は、CGキャラクタ等により指さしされる対象となる単語(例えば、上述した「那覇」)の解析結果に基づき、右手の肩から先(例えば、肘、手首等)の動作の軌跡を作成し、その重心部分を指さしの際の右手の位置として指さし動作を生成する。その際、指さし動作生成手段15は、手首から先の形には、予め用意している指さしのモーションデータ又は指さし動作データ入力手段16から入力された指さし動作データから得られた手の形をつなげて指さし動作を生成する。これにより、正しい位置を自然な手の動作で指さすことが可能となる。
なお、上述した指さし動作の手の形をつなげる処理は、例えば動作データ(モーションキャプチャデータ)のBVHファイル内に含まれる手首から先の各関節の位置情報は、回転方向等のパラメータを、指さし動作用のパラメータに置換したり、新たに指さし動作用のパラメータを挿入することで、指さし動作をつなげることができるが、これに限定されるものではない。
指さし動作データ入力手段16は、指さし動作生成手段15により生成される指さし動作の元となる指さし動作データの入力をユーザ等から受け付ける。また、指さし動作データ入力手段16は、指さし動作に対するin点及びout点の値を入力してもよい。これにより、例えば指さし動作に、手首から先の関節を振りかざす動作がある場合にも、その指さし動作間(in点からout点まで)の情報のみを用いて、指さし動作を生成することができる。例えば、指さし動作生成手段15は、手話動作を行った位置を基準として、指さし動作のin点からout点までの間で手首の振りかぶり動作を含む指さし動作を生成することができる。
動作補間手段17は、各単語間において、ある動作から次の動作までの「わたり動作」に対して、線形補間等により滑らかにつながるように補間を行う。例えば、動作補間手段17は、ある動作のout点から次の動作のin点までの関節毎の三次元位置と方向の移動量(変化量)を算出し、その移動量分の関節の移動を数フレーム分の動作データを挿入すること動作させる。なお、フレーム数は、例えば10フレーム程度等であるが、これに限定されるものではなく、例えばユーザ等の設定によりフレーム数を任意に増減させてもよく、モーションの内容(例えば、動作距離)に応じてフレーム数を調整してもよい。
また、動作補間手段17では、指さし動作生成手段15で生成された指さし動作の姿勢と、指さしされる対象の手話単語動作データのout点での形の間を線形補間で補間し、滑らかな動作データにする。
データ出力手段18は、動作補間手段17による補間処理により生成された動作データ(1又は複数の単語列)を出力する。例えば、データ出力手段18は、単語を生成してから指さしまでの一連の動作を出力する。
なお、データ出力手段18は、手話動作生成装置10内又は外部に設けられたディスプレイ等の表示部に動作データを表示してもよく、手話動作生成装置10内又は外部に設けられた記憶部に動作データ(例えば、BVHファイル等)を記憶してもよい。
このように本実施形態では、手話翻訳において、指さしを正しく表現することで、指さし対象や単語の意味等の誤解を防止することが防ぐことができる。また、従来手法では、前の単語に関係なく、同じ位置を指さしする動作しかできなかったため、その動作を見ても前の単語を指さしているとは捉えてもらえない恐れがあるが、本実施形態では、ある単語を指さす際に、指さしされる対象となる単語(例えば、日本全体を手話で示した後の「那覇」の位置)等を正しく指さすようにモーションキャプチャデータの一部を修正することで、手話に必要な指さしを正しく表現した手話動作CGを生成することができる。
<手話動作生成処理の一例>
次に、上述した手話動作生成装置10の一例について、フローチャートを用いて説明する。図2は、手話動作生成処理の一例を示すフローチャートである。なお、以下の説明では、右手により指さし動作を行う例を示すが、本実施形態においては、これに限定されるものではなく、同様の手法で左手を用いて指さし動作を行ってもよく、両手を用いて異なる位置又は同位置に指さし動作を行ってもよい。
図2の例において、手話動作生成装置10は、入力データとして手話単語(又は文章)を入力すると(S01)、機械翻訳辞書による機械翻訳を行い(S02)、その翻訳結果等に対応するモーションキャプチャデータの読み込みを行う(S03)。
次に、手話動作生成装置10は、機械翻訳結果に指さし動作を含んでいるか否かを判断し(S04)、指さし動作を含んでいる場合(S04において、YES)、指さしされる対象となる単語のin点からout点までの動作の平均を算出することで、右手の各関節の平均から、各関節の位置の重心を算出する(S05)。次に、手話動作生成装置10は、予め設定された指さし動作データを入力し、CGキャラクタ等が行う指さし動作を生成する(S06)。
次に、手話動作生成装置10は、S06の処理後、又はS04の処理において、指さし動作を含んでいない場合(S05において、NO)、各単語動作間を補間して連結し(S07)、生成された手話動作データをCG動画として画面に表示出力したり、記憶部等に出力する(S08)。
ここで、手話動作生成装置10は、次の手話動作データを生成するか否かを判断し(S09)、次の動作が存在する場合(S09において、YES)、S01の処理に戻る。また、S09の処理において、次の手話動作データを生成しない場合(S09において、NO)、処理を終了する。
<モーションキャプチャデータの具体例>
次に、上述したモーションキャプチャデータの具体例について、図を用いて説明する。図3,図4は、モーションキャプチャデータの一例を示す図(その1,その2)である。なお、図3,図4の例では、説明の便宜上、行番号(1)〜(74)を付して説明している。また、図3,図4の例では、1つの手話単語に対するBVHファイルの一例を示している。つまり、本実施形態では、手話単語毎に対応するBVHファイルが存在する。
ここで、BVHファイル形式とは、Biovision社が提唱したモーションキャプチャデータのファイルフォーマットである。例えば、「Alias Motion Builder」や、「3ds MAX(登録商標)」の「Character studio(登録商標)」,「Poser」等の様々な商用3Dキャラクタアニメーションソフトでもサポートされている。BVHファイルは、テキスト形式で記述することができ、座標系は右手系を用いている。また、XYZ各軸の扱い(どの軸が鉛直方向に対応するか等)については、任意に設定することができる。また、BVHファイルは、関節ノードに関する情報を記述し、関節回転はオイラー角で記述する。
また、BVHファイルは、例えば、CGキャラクタのスケルトン階層構造を記述するHIERARCHY部((1)〜(68)行目)と、動作データを記述するMOTION部((69)〜(74)行目)の2つの部から構成される。
図3の例において、最初の部分「ROOT Hips」((2)行目)で、CGキャラクタの大本となる身体のパーツがHipsという名前で定義される。その2行下のOFFSET((4)行目)で、Hipsの位置を座標(絶対座標)で定義する。その次の行((5)行目)で、Hipsは、6つのパラメータを持つことを表している(CHANNELS 6)。ここでは、三次元(X,Y,Z)方向の絶対位置(Xposition,Yposition,Zposition)と、それぞれの回転角(曲がり角度)(Xrotation,Yrotation,Zrotation)を示す。OFFSETで定義しているのは、X,Y,Zの絶対位置の初期値で、回転角は、全て0を初期値としている。その次の行の「JOINT RIGHTHip」で、Hipsから連結する次の関節「RightHip」を定義している。
その2行下のOFFSET((9)行目)では、連結元であるHipからの相対位置を定義している。また、その次の行で、「RightHip」もHipsと同じ6つのパラメータを持つことを定義している。
以下、「RightHip」と同様の設定方法で、体中の関節について定義する。例えば、手話では、CGキャラクタを112個の関節を持つデータとして定義しており、図3,図4の例では、右の肩((27)行目)、肘((31)行目)、前腕((35)行目))、手首((39)行目)、指(親指の根本、第1関節、第2関節、指先)((43)〜(61)行目)等の各関節に対する設定例が示されている。
また、図4の(69)行目以降に示すように、後半部分は、「MOTION」という記述から始まる。(70)行目のFrames:321は、これ以降、1つの単語を手話で表現するための321フレーム分の動作データがあることを示している。また、(71)行目のFrame Timeは、各フレームの持続時間を表す。図4の例では、0.0166667という値が設定されているが、これは1/60秒の値に相当し、1秒間に60コマのモーションデータを持っていることを表している。
それ以降の行では、前半部分で定義した全てのパラメータの1フレーム毎の値を格納している。各行が関節数×各関節の持つパラメータ数の要素を有する。例えば、関節数が112あり、各関節が6つのパラメータを持つ場合には、112×6=672のパラメータ数を有することになる。
各パラメータは、スペース区切りの各数値が、それぞれ先頭からHipsのXposition,HipsのYposition,HipsのZposition,HipsのXrotation,HipsのYrotation,HipsのZrotation,RightHipのXposition,RightHipのYposition,RightHipのZposition・・・と並ぶことになる。なお、モーションデータファイルの例としては、これに限定されるものではない。
なお、本実施形態では、指さし動作を行う場合(例えば、上述した「那覇」の手話動作の後に「(那覇の手話単語を指さし)」を行う場合)、「那覇」のBVHファイルを用いて、右手部分の各関節(例えば、右肩、右肘、右手首)のパラメータの平均を算出して重心を取得し、その重心を基準に手首から先の動作のパラメータの値を、指さし動作のBVHファイルの手首から先の動作モーションデータから取得したパラメータの値に置換する。手首から先の位置情報や回転角(方向)のパラメータは、上述したように連結元の関節位置や回転角からの相対位置であるため、違和感なく連結することができる。したがって、手話に必要な指さしを正しく表現した手話動作データを生成することができる。なお、本実施形態においては、手首から先の動作モーションデータから取得したパラメータの値を置換するだけでなく、新たに数フレーム分の動作データを挿入してもよい。
<指さし動作で手首を振りかぶる場合について>
本実施形態では、指さし動作を行う場合に、単純に指さし動作のin点及びout点(in点/out点)を入力する部分を追加するだけで、指さし時に振りかぶる動作を追加することもできる。図5は、指さし動作時における補間処理の具体例を示す図である。なお、図5(A)は、指さし動作時に手首の振りかぶり動作を入れない場合の例を示し、図5(B)は、指さし動作時に手首の振りかぶり動作を入れる場合の例を示している。
図5(A)の例では、指さし動作において、例えば右手以外の動作では、ある手話単語(例えば、手話単語1)のout点の形に位置付けられている(図5(A)の(a))。一方、右手の肩から手首の動作は、手話単語1の重心の形(動きなし)となっている(図5(A)の(b))。また、右手の手首から先の動作では、指さし単語の指定フレームの形で動きがないため、そのまま連結することができる。(図5(A)の(c))。
また、指さし動作で手首を振りかぶる場合には、設定されたin点からout点までの動作を読み込み、図5(B)に示すような形で手話動作を補間・生成する。例えば、図5(B)に示すように、右手以外の動作では、例えば、手話単語1のout点の形に位置付けられている(図5(B)の(a))。
一方、右手の肩から手首の動作は、手話単語1の重心の形(動きなし)となっている(図5(B)の(b))。ここまでは、図5(A)の(a)、(b)と同様である。そして、右手の手首から先の動作では、例えば手話単語1の手話動作を行った位置を基準として、指さし単語のin点からout点までの動作(動きあり)を用いて動作補間を行って連結を行う(図5(B)の(c))。これにより、指さし動作のBVHファイルに記述されたとおりに指を振りかぶるような動作を再現することができる。
図6は、指さし動作の具体例を示す図である。例えば、「名古屋と那覇では」のようなフレーズを手話で表現する場合には、手話単語「那覇」は、図6(A)の画面31に示すように、手話話者(CGキャラクタ40)から見た左下(手話を見る人にとっての右下)で表現される。これは、手話話者が目の前に日本地図を思い浮かべ、日本地図上の那覇の位置に相当する空間で「那覇」の手話単語を表現するためである。
従来では、この「那覇」を指さしする場合に、単純にモーションキャプチャしたデータを使用すると、手話話者(CGキャラクタ40)は、図6(B)の画面32のような動きをする。これでは、手話単語「那覇」を指さししているようには見えず、意味が伝わらない。そこで、本実施形態では、指さし対象の手話単語である「那覇」の動作データを解析し、「那覇」を表出した位置に指さしを合わせることで、手話単語の位置に相当する指さしが実現可能になる。
図6(C)の画面33の画像は、実際に本実施形態を用いた手話動作生成処理で得られた「那覇」の位置の指さしの様子を示しているが、手話話者(CGキャラクタ40)が実際の手話単語「那覇」の位置を指さすことができているのが分かる。
なお、他の実施形態として、例えば指さし動作を行う手話単語のBVHファイルとCGキャラクタのモデルファイルとを対応させて解析し、手話単語の動作の全ての時間の全ての関節の絶対位置を取得し、取得した絶対位置を基準にして指さし動作を生成するようにしてもよい。
<複数単語の指さしを連続して行う場合>
本実施形態において、指さし動作生成手段15は、入力データに含まれる連続する複数の単語毎に指さし動作を付加する場合に、連続する複数の単語に対する手話動作を行った後に、複数の単語に対応する指さし動作を行う動作データを生成する。ここで、複数単語(2つ以上)の単語の指さしを連続して行う場合の動作生成例について、図を用いて説明する。
図7は、複数単語の指さし動作の一例を示す図である。図7の例では、2つの指さしされる単語が連続する例を示している。2つの指さしされる単語とは、例えば入力データとして「名古屋と那覇では」といった手話単語の両方の位置を指さす場合等である。
このような場合には、動作データ読み込み手段12において、それぞれの単語(例えば、名古屋(手話単語1)、那覇(手話単語2))に対応して読み込まれたモーションキャプチャデータを用いて、それぞれの重心を算出し、その後に、指さし動作生成手段15において、それぞれの重心を基準にした指さし動作を生成する。そして、本実施形態では、動作補間手段17において、単語に対する手話動作及び指さし動作を図7に示すような順序で連続してつなげることで目的の動作データを生成することができる。図7の例では、名古屋(手話単語1)、那覇(手話単語2)、「名古屋(手話単語1)への指さし」、「那覇(手話単語2)への指さし」の順序で、各動作単語間が線形補間して連結されている。
なお、本実施形態における複数単語の指さし動作については、これに限定されるものではなく、例えば入力データである「名古屋と那覇では」に対し、機械翻訳の結果として「名古屋」「名古屋への指さし」「那覇」「那覇への指さし」が出力された場合には、出力された語順通りに手話動作データが連結されることになる。
また、本実施形態では、指さしの振りかぶり動作を追加することも可能である。その場合には、指さし動作のin点からout点までの情報を追加し、上述した図7に示す「手話単語1への指さし」、「手話単語2への指さし」をそれぞれ動きありのものに変更することで対応することができる。なお、本実施形態では、3単語以上の場合にも適用することができるが、単語動作と指さし動作の間隔が離れると、指さし対象がわかりにくくなる。そのため、本実施形態では、単語数に予め閾値を設定しておき、閾値以上になった場合には、その単語数で区切って上述した手話動作生成処理を行ってもよい。
<実行プログラム>
ここで、上述した手話動作生成装置10は、例えばCPU(Central Processing Unit)、RAM(Random Access Memory)等の揮発性の記憶装置(格納装置)、ROM(Read Only Memory)等の不揮発性の記憶装置(格納装置)、マウスやキーボード、ポインティングデバイス等の入力装置、画像やデータ等を表示する表示装置、並びに外部と通信するためのインタフェース装置を備えたコンピュータによって構成することができる。
したがって、手話動作生成装置10が有する上述した各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現可能となる。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記録媒体に格納して頒布することもできる。
つまり、上述した各構成における処理をコンピュータに実行させるための実行プログラム(手話動作生成プログラム)を生成し、例えば汎用のパーソナルコンピュータやサーバ等にそのプログラムをインストールすることにより、上述した手話動作生成処理を実現することができる。なお、本実施形態における実行プログラムによる処理については、これに限定されるものではない。
上述したように本実施形態によれば、手話に必要な指さしを正しく表現した手話動作データを生成することができる。例えば、本実施形態では、指さしされる対象となる単語を解析し、右手の肩から先の動作の軌跡を作成し、その重心部分を指さしの際の右手の位置として指さしを行う。その際に、手首から先の動作には、予め用意している指さしのモーションデータを置換又は挿入することで正しい位置を自然な手の形で指さすことが可能となる。したがって、本実施形態によれば、指さしの動作を正しい位置で行うことにより、手話の意味表現をより正確に行うことができる。
以上、本発明の好ましい実施形態について詳述したが、開示の技術は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。また、上述した各実施例の構成要素の全部又は一部を組み合わせることも可能である。
10 手話動作生成装置
11 手話単語入力手段
12 動作データ読み込み手段
13 動作データ解析手段
14 動作重心算出手段
15 指さし動作生成手段
16 指さし動作データ入力手段
17 動作補間手段
18 データ出力手段
20 機械翻訳辞書
21 モーションキャプチャデータ
31〜33 画面
40 CGキャラクタ

Claims (5)

  1. 入力データに対する手話動作を生成する手話動作生成装置において、
    前記入力データに対応する動作データを読み込む動作データ読み込み手段と、
    前記動作データ読み込み手段により読み込まれた動作データに含まれるCGキャラクタの手の位置を解析する動作データ解析手段と、
    前記動作データ解析手段により得られる前記手の位置に対応する各関節の位置及び回転角からなるパラメータを用いて、前記手の位置の重心を算出する動作重心算出手段と、
    前記動作重心算出手段により得られる前記手の重心に対応させて、前記動作データによる手話動作を行った位置に指さし動作を行う動作データを生成する指さし動作生成手段と、
    前記手話動作と前記指さし動作との間の動作を補間する動作補間手段とを有することを特徴とする手話動作生成装置。
  2. 前記動作データ解析手段は、
    指さしされる対象の手話単語の動作における開始点から終了点までの前記各関節の位置及び回転角からなるパラメータを用いて、前記手の位置を解析することを特徴とする請求項1に記載の手話動作生成装置。
  3. 前記指さし動作生成手段は、
    前記動作重心算出手段により得られた前記手の重心を基準に、手首から先の指さし動作をつなげて指さし動作を生成することを特徴とする請求項1又は2に記載の手話動作生成装置。
  4. 前記指さし動作生成手段は、
    前記手話動作を行った位置を基準として、前記指さし動作の開始点から終了点までの間で手首の振りかぶり動作を含む指さし動作を生成することを特徴とする請求項1乃至3の何れか1項に記載の手話動作生成装置。
  5. コンピュータを、請求項1乃至4のうち何れか1項に記載の手話動作生成装置として機能させるための手話動作生成プログラム。
JP2014084891A 2014-04-16 2014-04-16 手話動作生成装置及び手話動作生成プログラム Active JP6313640B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014084891A JP6313640B2 (ja) 2014-04-16 2014-04-16 手話動作生成装置及び手話動作生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014084891A JP6313640B2 (ja) 2014-04-16 2014-04-16 手話動作生成装置及び手話動作生成プログラム

Publications (2)

Publication Number Publication Date
JP2015203860A true JP2015203860A (ja) 2015-11-16
JP6313640B2 JP6313640B2 (ja) 2018-04-18

Family

ID=54597324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014084891A Active JP6313640B2 (ja) 2014-04-16 2014-04-16 手話動作生成装置及び手話動作生成プログラム

Country Status (1)

Country Link
JP (1) JP6313640B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128947A (ja) * 2017-02-10 2018-08-16 日本放送協会 Cg生成装置、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110491250A (zh) * 2019-08-02 2019-11-22 安徽易百互联科技有限公司 一种聋哑人教学系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011175598A (ja) * 2010-02-25 2011-09-08 Nippon Hoso Kyokai <Nhk> 手話アニメーション生成装置及び手話アニメーション生成プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011175598A (ja) * 2010-02-25 2011-09-08 Nippon Hoso Kyokai <Nhk> 手話アニメーション生成装置及び手話アニメーション生成プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
松本 忠博,他: "手話の表記法とテキストレベルの日本語−手話機械翻訳システムの試みについて", 電子情報通信学会技術研究報告, vol. 104, no. 316, JPN6018006018, 10 September 2004 (2004-09-10), JP, pages 7 - 11, ISSN: 0003743841 *
金子 浩之,他: "手話アニメーション生成エディタの開発", 電子情報通信学会技術研究報告, vol. 111, no. 174, JPN6018006019, 28 July 2011 (2011-07-28), JP, pages 17 - 20, ISSN: 0003743842 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128947A (ja) * 2017-02-10 2018-08-16 日本放送協会 Cg生成装置、及びプログラム

Also Published As

Publication number Publication date
JP6313640B2 (ja) 2018-04-18

Similar Documents

Publication Publication Date Title
Jörg et al. Data-driven finger motion synthesis for gesturing characters
Seol et al. Creature features: online motion puppetry for non-human characters
US11836843B2 (en) Enhanced pose generation based on conditional modeling of inverse kinematics
JP4489825B2 (ja) ジェスチャ入力システム、方法及びプログラム
US11648480B2 (en) Enhanced pose generation based on generative modeling
Zhang et al. BodyAvatar: creating freeform 3D avatars using first-person body gestures
US20140267312A1 (en) Method and system for directly manipulating the constrained model of a computer-generated character
JP2019028509A (ja) 検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム
CN115797851B (zh) 一种动漫视频处理方法及系统
JP2017037424A (ja) 学習装置、認識装置、学習プログラム、及び認識プログラム
CN113763518A (zh) 基于虚拟数字人的多模态无限表情合成方法及装置
JP6313640B2 (ja) 手話動作生成装置及び手話動作生成プログラム
JP6353660B2 (ja) 手話単語分類情報生成装置およびそのプログラム
US7057618B2 (en) Patch picking methods and apparatus
US8237719B1 (en) Pose-structured animation interface
KR101815995B1 (ko) 표정 제어점을 이용한 아바타 제어 장치 및 방법
JP2008015713A (ja) 動作変形システム及びその方法
Kennaway Avatar-independent scripting for real-time gesture animation
Mao et al. A sketch-based gesture interface for rough 3D stick figure animation
JP2011215709A (ja) 漫画作成支援装置、漫画作成支援方法及びプログラム
CN114432703A (zh) 基于嵌套骨骼分离运动的角色模型自定义方法
Lu et al. Learning a vector-based model of American Sign Language inflecting verbs from motion-capture data
JP5162512B2 (ja) 多次元時系列データ分析装置及び多次元時系列データ分析プログラム
JPH06251123A (ja) 手話生成装置
JP6059614B2 (ja) 仕草生成装置、仕草生成システム、仕草生成方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180323

R150 Certificate of patent or registration of utility model

Ref document number: 6313640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250