JP6424050B2 - 多関節骨格モデル処理装置及びプログラム - Google Patents

多関節骨格モデル処理装置及びプログラム Download PDF

Info

Publication number
JP6424050B2
JP6424050B2 JP2014192202A JP2014192202A JP6424050B2 JP 6424050 B2 JP6424050 B2 JP 6424050B2 JP 2014192202 A JP2014192202 A JP 2014192202A JP 2014192202 A JP2014192202 A JP 2014192202A JP 6424050 B2 JP6424050 B2 JP 6424050B2
Authority
JP
Japan
Prior art keywords
data
motion path
sign language
word
wrist
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014192202A
Other languages
English (en)
Other versions
JP2016062528A (ja
Inventor
修一 梅田
修一 梅田
伸行 比留間
伸行 比留間
清水 俊宏
俊宏 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2014192202A priority Critical patent/JP6424050B2/ja
Publication of JP2016062528A publication Critical patent/JP2016062528A/ja
Application granted granted Critical
Publication of JP6424050B2 publication Critical patent/JP6424050B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、日本語文章のテキストを複数の単語に変換し、日本語文章のテキストに対応する多関節骨格モデルの動きを表したCG(Computer Graphics:コンピュータグラフィックス)等にて再生する多関節骨格モデル処理装置及びプログラムに関する。
従来、多関節骨格モデルを用いて、所定の動きを表す制御データを生成し、制御データに基づいてCGを再生したり、ロボットアームを動かしたりするシステムの開発が進められている。このシステムでは、CG及びロボットアーム等により、人間に近い動きが求められる。このような多関節骨格モデルを用いて人間に近い動きを実現する技術は、例えば、手話動作をCGにて再生する場合に用いられる。
従来、日本国内において、手話を母語とする聴覚障害者の中には、「日本手話」を最も理解しやすい言語とする者がいる。「日本手話」は、日本語とは違う独自の文法をもつ言語である(例えば、非特許文献1を参照)。また、テレビで放送する日本語を日本手話に翻訳して欲しいという要望もあり、その要望に対応した手話ニュース等の放送が実施されている。しかし、話者(手話通訳士)が対応可能な範囲には限度があり、テレビで放送する日本語を日本手話に自動的に翻訳するシステムの実現が求められている。
手話を、話者の力を借りることなく機械で表現するためには、話者の手指の動きを画像として再現する必要がある。この動きの画像を記録するために、モーションキャプチャの技術が用いられる。モーションキャプチャの技術により、精度の高い記録が可能となる。
このように、現在までに実現されている技術を用いることで、日本語文章を丸ごと手指の動きのデータとしてモーションキャプチャし、得られた関節の位置情報からCGにてキャラクタの動きを再現することで、手話の手指動作として自然な動作を表現することができる。
しかしながら、表現すべき全てのパターンの文章を予めモーションキャプチャすることは、実質的に不可能である。このため、実際には、翻訳したい日本語文章を単語等の細かい単位に区切ってモーションキャプチャする。そして、一連の日本語文章を手話の手指動作として再生する際に、日本語文章を構成するモーションキャプチャのデータ(単語等の細かい単位のデータ)を複数接続する。このような再生処理においては、単語と単語の接続手法(2つの単語のモーションキャプチャのデータを接続する手法)が重要となる。
例えば、単語A(単語Aのモーションキャプチャのデータ)と単語B(単語Bのモーションキャプチャのデータ)とを接続する場合、単語Aの終わり部分と単語Bの始め部分とを円滑に繋ぐことにより、日本語文章に対応した自然な手話の動きを実現することができる。
従来の手話翻訳システムにより生成されるCGは、キャラクタの手の動きを複数のジョイント(人間の“関節”にあたる箇所)の角度変化で表現し、スキン(人間の“肌”)と呼ばれるポリゴン(CGにおいて、最低3点の位置で表される平面)を張り付けることにより、人間の表面形状を表現する。
一般に、人間の姿勢及び動きをCGで表現するために、姿勢情報を記述することが行われる。代表的な記述手法には、FK(フォワードキネマティクス)及びIK(インバースキネマティクス)がある。
図12は、FK及びIKによる関節位置の計算順序を示す図である。図12において、片側矢印の方向が計算を進める方向である。FKでは、腰を基準として、背骨を経由して頭部及び手足の指先の末端へ向けてジョイントの角度が記述される。腰を基点として、全ての骨の長さ及びジョイント角度が記述されることにより、計算により全ての関節位置を求めることができるから、CGキャラクタの姿勢を一意に決めることができる。つまり、FKでは、腰を基準として、末端へ向けた関節の位置を求め、その関節にアニメーションを付けることにより、人間の姿勢及び動きをCGで表現する。FK形式のデータのうち代表的なものがBVH形式のデータである。BVH形式のデータでは、連続するジョイント角度を記述することにより、アニメーションを表現することができる。
これに対し、IKでは、FKの計算順序とは逆に計算を行い、部分的に末端から起点方向(腰)へ向けて計算が進められる。例えば、手の位置を決めてから、肘の位置が計算される。手の位置を先に決めて肘の位置を後に決めるようなIKの手法を用いるのは、人間の動作において、肘の位置よりも手の位置の方が重要な意味を持つ場合が多いからである。このIKの手法を手話に適用することにより、一層自然な手指動作を実現できることが期待される。
このようなFKまたはIKの手法を用いて、人間の姿勢及び動きをCGで表現する際に、2つの単語を接続する必要がある。2つの単語を接続するためには、一般に、ジョイントの角度を単純に変化させる線形補間する手法が用いられる。
このように、2つの単語を接続する際に、線形補間法を用いることにより、簡易な計算にて2つの単語の手指動作間のギャップをなくすことができる。
安ケ平雄太他、「日本手話の手話発話速度の違いによる手動作変化の分析」、手話学研究、2008年、第17巻、p.57−68
しかしながら、2つの単語を接続する際に、FKに基づいて関節角度を補間する手法を用いる場合には、実際の人間の関節の制約条件が全く考慮されず、2つの手指動作を機械的に接続するに過ぎないことから、その動作を見ている人には、ロボットのような不自然な動きであるとの印象を与えることが多い。
FKに基づいて関節角度を補間する手法には、前述の線形補間法に加え、スプライン補間法等がある。しかし、これらの補間法を用いたとしても、FKに基づいた補間法である限り、手指動作は不自然な動きになってしまう。
また、手話翻訳システムでは、単語と単語を自動的に接続(補間)するために、簡易な計算で済むFKに基づく線形補間法が用いられることが多い。しかし、前述のとおり、FKに基づいている限り、動きが不自然になってしまうから、関節をもつキャラクタをリアルなアニメーションで表現する場合には、FKに基づく線形補間法以外の手法を用いるべきである。
図11(1)は、肩関節における肩−肘軸の回転のみが異なる2つの単語を接続する際に、FKに基づく線形補間法を用いた場合について説明する図であり、FKを適用して肩角度を線形補間した例を示す。図11(1)に示すように、2つの単語をFKに基づく線形補間法にて接続した場合、肘は動かずに、手首は肘を中心とした弧を描く。この動作では、ロボットのような印象を受け、人間の動きとしては不自然である。
このように、2つの単語を接続し、CGによる手話キャラクタの手指動作を再生する際に、FKに基づく補間法を用いる従来技術では、接続箇所に動きの不自然さが見られる。そこで、一連の日本語文章を全てモーションキャプチャして再生する場合と同様に、CGによる手話キャラクタにて、手話の自然な動きを実現する接続手法が所望されていた。また、CGによる手話キャラクタにて、手話の更なる自然な動き及び柔軟な表現を実現するために、2つの単語を接続した後に、再生速度等を調整したり、動作を修正したりすることも所望されていた。
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、2つの単語を接続し、CGによる手話キャラクタ等にて多関節の動作を再生する際に、自然な動きを実現することが可能な多関節骨格モデル処理装置及びプログラムを提供することにある。
前記目的を達成するために、本発明による多関節骨格モデル処理装置は、日本語文章テキストを複数の単語に変換し、前記複数の単語に基づいて、前記日本語文章テキストに対応する多関節骨格モデルの動きを表した制御データを生成する多関節骨格モデル処理装置において、前記日本語文章テキストを、複数の単語に対応するそれぞれのFK(フォワードキネマティクス)形式のデータに変換する変換機と、前記変換機により変換された単語毎のFK形式のデータをIK(インバースキネマティクス)形式のデータに変換し、単語毎のIK形式のデータを補間して接続し、前記日本語文章テキストのIK形式のデータを生成し、前記日本語文章テキストのIK形式のデータをFK形式のデータに変換するIKデータ処理部と、前記IKデータ処理部により変換されたFK形式のデータに基づいて、前記日本語文章テキストに対応する多関節骨格モデルの動きを表した制御データを生成する制御データ生成部と、を備えたことを特徴とする。
また、本発明による多関節骨格モデル処理装置は、日本語文章テキストを手話に翻訳し、多関節骨格モデルのCG(コンピュータグラフィックス)にて再生するためのCGデータを生成する多関節骨格モデル処理装置において、前記日本語文章テキストを、複数の手話単語に対応するそれぞれのFK形式のデータに変換する手話翻訳機と、前記手話翻訳機により変換された手話単語毎のFK形式のデータをIK形式のデータに変換し、手話単語毎のIK形式のデータを補間して接続し、前記日本語文章テキストのIK形式のデータを生成し、前記日本語文章テキストのIK形式のデータをFK形式のデータに変換するIKデータ処理部と、前記IKデータ処理部により変換されたFK形式のデータに基づいて、前記日本語文章テキストに対応する手話の動きのCGデータを生成するレンダラと、を備え、前記IKデータ処理部が、前記手話翻訳機により変換された手話単語毎のFK形式のデータを、手話単語毎のIK形式のデータにそれぞれ変換するFK−IK変換部と、前記FK−IK変換部により変換された手話単語毎のIK形式のデータに対し、前記日本語文章テキストにおける時間軸上で前後する第1のIK形式のデータと第2のIK形式のデータとの間の接続箇所を補間することで、前記第1のIK形式のデータと前記第2のIK形式のデータとを接続し、前記日本語文章テキストのIK形式のデータを生成する単語補間部と、前記単語補間部により生成された前記日本語文章テキストのIK形式のデータをFK形式のデータに変換するIK−FK変換部と、を備えたことを特徴とする。
また、本発明による多関節骨格モデル処理装置は、前記FK形式のデータをBVH形式のデータとし、前記IK形式のデータを、モーションパスを表すモーションパスデータ、及び手首、肘及び肩の動きの制約条件が設定されたIKソルバとし、前記FK−IK変換部が、前記手話単語毎のBVH形式のデータから、手首の位置を抽出して制御点に設定し、前記制御点に基づいて、前記手首の動きを表すモーションパスの曲線を生成し、前記曲線上に所定のキーを打つことで、前記曲線からキーフレームを抽出し、前記手話単語毎に、前記制御点及び前記キーフレームを含む手首のモーションパスデータを生成すると共に、前記IKソルバを生成し、前記手話単語毎のBVH形式のデータから、肘の位置を抽出して制御点に設定し、前記制御点に基づいて、前記肘の動きを表すモーションパスの曲線を生成し、前記曲線上に所定のキーを打つことで、前記曲線から前記キーフレームを抽出し、前記手話単語毎に、前記制御点及び前記キーフレームを含む肘のモーションパスデータを生成し、前記単語補間部が、前記FK−IK変換部により変換された手話単語毎の手首及び肘のモーションパスデータのそれぞれに対し、前記日本語文章テキストにおける時間軸上で前後する第1のモーションパスと第2のモーションパスとの間で重複する接続箇所を設定し、前記第1のモーションパスの制御点のうち、前記第2のモーションパスへの移行を開始する時点までの制御点を抽出すると共に、前記第2のモーションパスの制御点のうち、前記第1のモーションパスからの移行が完了する時点より後の制御点を抽出し、前記抽出した前記第1のモーションパスの制御点、及び前記抽出した前記第2のモーションパスの制御点に基づいて、前記接続箇所を補間したモーションパスの曲線を生成し、前記曲線上に所定のキーを打つことで、前記曲線からキーフレームを抽出し、前記日本語文章テキストにおける、前記制御点及び前記キーフレームを含むモーションパスデータを、前記手首及び肘についてそれぞれ生成し、前記IK−FK変換部が、前記単語補間部により生成された前記日本語文章テキストの手首及び肘のモーションパスデータ、及び前記IKソルバを、BVH形式のデータに変換する、ことを特徴とする。
また、本発明による多関節骨格モデル処理装置は、前記FK形式のデータをBVH形式のデータとし、前記IK形式のデータを、モーションパスを表すモーションパスデータ、及び手首、肘及び肩の動きの制約条件が設定されたIKソルバとし、前記FK−IK変換部が、前記手話単語毎のBVH形式のデータから、手首の位置を抽出して制御点に設定し、前記制御点に基づいて、前記手首の動きを表すモーションパスの曲線を生成し、前記曲線上に所定のキーを打つことで、前記曲線からキーフレームを抽出し、前記手話単語毎に、前記制御点及び前記キーフレームを含む手首のモーションパスデータを生成すると共に、前記IKソルバを生成し、前記単語補間部が、前記FK−IK変換部により変換された手話単語毎の手首のモーションパスデータに対し、前記日本語文章テキストにおける時間軸上で前後する第1のモーションパスと第2のモーションパスとの間で重複する接続箇所を設定し、前記第1のモーションパスの制御点のうち、前記第2のモーションパスへの移行を開始する時点までの制御点を抽出すると共に、前記第2のモーションパスの制御点のうち、前記第1のモーションパスからの移行が完了する時点より後の制御点を抽出し、前記抽出した前記第1のモーションパスの制御点、及び前記抽出した前記第2のモーションパスの制御点に基づいて、前記接続箇所を補間したモーションパスの曲線を生成し、前記曲線上に所定のキーを打つことで、前記曲線からキーフレームを抽出し、前記日本語文章テキストにおける、前記制御点及び前記キーフレームを含む手首のモーションパスデータを生成し、前記IK−FK変換部が、前記単語補間部により生成された前記日本語文章テキストの手首のモーションパスデータ、及び前記IKソルバを、BVH形式のデータに変換する、ことを特徴とする。
また、本発明による多関節骨格モデル処理装置は、前記IKデータ処理部が、さらに、手話の再生時間を変更する調整部を備え、前記調整部が、前記単語補間部により生成されたモーションパスデータに含まれる前記キーフレームを変更することで、モーションパスのスケールを変化させ、新たなモーションパスデータを生成する、ことを特徴とする。
また、本発明による多関節骨格モデル処理装置は、前記調整部に代わる新たな調整部が、前記単語補間部により生成されたモーションパスデータに含まれる前記キーフレームを変更することで、モーションパスのスケールを変化させ、前記モーションパスデータに含まれる制御点を所定数分減らし、新たなモーションパスデータを生成する、ことを特徴とする。
また、本発明による多関節骨格モデル処理装置は、前記IKデータ処理部が、さらに、モーションパスの形状を修正する修正部を備え、前記修正部が、ユーザの操作に従って、前記単語補間部により生成されたモーションパスデータにおけるモーションパスの形状を修正する、ことを特徴とする。
さらに、本発明によるプログラムは、コンピュータを、前記多関節骨格モデル処理装置として機能させることを特徴とする。
以上のように、本発明によれば、2つの単語を接続し、CGによる手話キャラクタ等にて多関節の動作を再生する際に、自然な動きを実現することが可能となる。
本発明の実施形態による手話CG翻訳装置の構成を示すブロック図である。 IKデータ処理部の構成を示すブロック図である。 FK−IK変換部の処理を示すフローチャートである。 FK−IK変換部の処理を説明する図である。 手話単語のモーションパスの例を示す図である。 単語補間部の処理を示すフローチャートである。 単語補間部の処理を説明する図である。 自動調整部において、手首の軌道の長さを自動調整する例を説明する図である。 自動調整部において、制御点を減らして粗いカーブのモーションパスに修正する例を説明する図である。 手動修正部において、手首のモーションパスの制御点を選択して指先方向を修正する例を説明する図である。 肩関節における肩−肘軸の回転のみが異なる2つの単語を接続する際に、(1)は、FK及び線形補間法を用いた場合の動きを説明する図であり、(2)は、IK及びモーションパスの手法を用いた本発明の実施形態による動きを説明する図である。 FK及びIKによる関節位置の計算順序を示す図である。
以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明は、日本語文章のテキスト(以下、日本語文章テキストという。)を、単語を羅列させた複数の単語に変換(翻訳)し、日本語文章テキストに対応する多関節骨格モデルの動きを表した制御データを生成する多関節骨格モデル処理装置において、単語を羅列させたデータであるFK形式のデータ(以下、FKデータという。)をIK形式のデータ(以下、IKデータという。)に変換し、時間軸上で前後する第1のIKデータと第2のIKデータとの間の接続箇所を補間することを特徴とする。
以下、多関節骨格モデル処理装置の一例として、手話CG翻訳装置を例に挙げて説明する。手話CG翻訳装置は、日本語文章テキストを手話に翻訳し、多関節骨格モデルのCGにて再生するためのCGデータを生成する。
〔手話CG翻訳装置〕
まず、手話CG翻訳装置の構成について説明する。図1は、本発明の実施形態による手話CG翻訳装置(多関節骨格モデル処理装置)の構成を示すブロック図である。この手話CG翻訳装置1は、DB(データベース)2、手話翻訳機3、IKデータ処理部4及びレンダラ(制御データ生成部)5を備えている。
DB2には、複数のジョイントからなる骨格構造の情報(骨格構造情報)、並びに、スキン形状及び色等のマテリアル情報のベースモデルが格納されている。
手話翻訳機3は、当該手話CG翻訳装置1が手話CGとして再生する日本語文章テキストを入力し、日本語文章テキストを、統計翻訳及び用例翻訳等の手法を用いて、手話単語を羅列させた複数の手話単語に変換(翻訳)する。手話単語を羅列させた複数の手話単語は、日本語文章テキストに対応する手話単語を時系列に並べたものである。例えば、日本語文章テキストが「明日は雨でしょう」の場合、この日本語文章テキストは、複数の手話単語「明日は」「雨」「でしょう」に変換される。
手話翻訳機3は、日本語文章テキストに対応する複数の手話単語を、予め保持しているBVH形式のデータ(モーションキャプチャにより生成されたデータ、以下、BVHデータという。)群から抽出することで、BVHデータにそれぞれ変換し、日本語文章テキストの順番に並べる。BVHデータは、FKデータの代表的なデータであり、各ジョイントの角度アニメーションを実現するデータであって、関節の角度が定義されたデータである。BVHデータを用いて、後述するレンダラ5において、FKにより手話の動きのCGデータが生成される。
ここで、FKデータは、その手話単語に対応する動きが定義されたデータであり、関節の角度のみが設定されている。FKデータを用いることにより、中心(腰)から末端(手首)へ向けて、順番に関節の角度計算が行われ、手話単語に対応する手話の動きのCGデータが生成される。また、後述するIKデータは、その手話単語に対応する動きが定義されたデータであり、手首の位置等が設定されている。IKデータを用いることにより、末端方向から中心方向へ逆向きに計算され、手話単語に対応する手話の動きのCGデータが生成される。また、IKデータは、日本語文章テキストに対応する複数の手話単語を補間したり、修正したりすることが容易な形式のデータでもある。
IKデータ処理部4は、手話翻訳機3により変換された手話単語毎のBVHデータを入力し、手話単語毎に、FKデータであるBVHデータをIKデータに変換する。そして、IKデータ処理部4は、手話単語毎のIKデータを用いて手話単語間の補間を行い、日本語文章テキストのIKデータを生成し、日本語文章テキストのIKデータを用いて、手指動作の再生時間を自動調整し、指さし方向等の手首が動く軌道の形状を手動にて修正し、調整及び/または修正後のIKデータをBVHデータであるFKデータに変換する。IKデータ処理部4の詳細については後述する。尚、本実施形態において、IKデータの対象は、全身のうちの一部分(手首、肘及び肩)のみである。
レンダラ5は、IKデータ処理部4からBVHデータを入力すると共に、DB2から骨格構造情報等のベースモデルの情報を読み出し、FKによりこれらを統合することで、日本語文章テキストに対応する多関節骨格モデルの動きを表した制御データとして、手話の動きのCGデータを生成し、CGキャラクタとして画面表示する。
このように、日本語文章テキストに対応する複数の手話単語について、手話単語毎にBVHデータであるFKデータをIKデータに変換し、IKデータを用いて手話単語間の補間を行うようにした。これにより、IKデータはそもそもスムーズな接続を実現する形式のデータであるから、自然でスムーズな手指動作を実現するCGデータを生成することができる。
〔IKデータ処理部〕
次に、図1に示したIKデータ処理部4について詳細に説明する。図2は、IKデータ処理部4の構成を示すブロック図である。このIKデータ処理部4は、FK−IK変換部6、単語補間部7、自動調整部8、手動修正部9及びIK−FK変換部10を備えている。以下、手首及び肘の具体的な位置を決定する手法として、モーションパスを例に挙げて説明する。以下、モーションパスを表すデータをモーションパスデータという。
(FK−IK変換部)
まず、FK−IK変換部6について説明する。FK−IK変換部6は、手話翻訳機3から手話単語毎のBVHデータを入力し、手話単語毎に、FKデータであるBVHデータをIKデータに変換する。この場合、FK−IK変換部6は、関節の角度が定義され、FKにて動作するBVHデータを、IKにて動作するIKデータに変換する際に、BVHデータを、手首及び肘の関節についてのモーションパスデータに変換すると共に、IKソルバに変換する。このモーションパスデータ及びIKソルバにより、手首及び肘の関節の位置が決定される。
IKソルバは、手首、肘及び肩の動きの制約条件が設定されたデータ(例えば、腕の骨の長さは一定に保たれること、肘の動きは1軸方向のみであることが定義されたデータ)であり、予め設定される。また、IKソルバは、後述する単語補間部7及び自動調整部8、手動修正部9及びIK−FK変換部10において、IKソルバが示す制約条件を満たすように処理が行われる。以下、IKソルバについては省略する。
一般に、IKでは、末端にある手首の関節位置の動きを先に指定し、肘及び肩の位置を求めるため、FKで用いるジョイントの角度とは別に、肘の関節位置を指定するための記述が必要となる。モーションパスは、IKの最も代表的な記述手法であり、CGアニメーションでよく使用されている。モーションパスでは、予め3次元空間内に描いたパス(曲線)に沿って物体を配置し、時間軸上で曲線にキーを打つことにより、物体を曲線に沿って動かすことができる。ここで、滑らかな動きを表現するためには、例えばNURBS(ナーブス)曲線、ベジエ曲線が用いられる。
図3は、FK−IK変換部6の処理を示すフローチャートであり、手首のモーションパスデータを生成する例を示している。まず、FK−IK変換部6は、手話翻訳機3から手話単語毎のBVHデータを入力し(ステップS301)、BVHデータから時系列の手首の位置(の座標)を抽出する(ステップS302)。
FK−IK変換部6は、抽出した手首の位置(の座標)を制御点(の座標)に設定し(ステップS303)、制御点及び予め設定された次数に基づいて、制御点を近似する等して、手首の動きを表すモーションパスの曲線(例えばNURBS曲線)を生成する(ステップS304)。生成されたモーションパスの曲線は、必ずしも全ての制御点を通過するとは限らない。
図5は、手話単語のモーションパスをNURBS曲線で表した例を示す図である。手首及び肘等の骨格モデルにおいて、NURBS曲線α1,α2,β1,β2が表されている。図5の骨格モデルにおいて、手先、頭部等の本発明と直接関係しない箇所については、略してある。後述する図8、図9、図10についても同様である。
図5(1)に示すような手首の動きの軌跡であるモーションパスは、NURBS曲線で表現され、このモーションパスのNURBS曲線α1,α2は、時系列の手首の位置を示す制御点及び予め設定された次数に基づいて生成される。尚、図5(2)に示すように、手首の動きを表すモーションパスのNURBS曲線α1,α2に加え、後述する肘の動きを表すモーションパスのNURBS曲線β1,β2も、時系列の肘の位置を示す制御点及び予め設定された次数に基づいて生成される。
図3に戻って、FK−IK変換部6は、ステップS304にて生成した手首の動きを表すモーションパスの曲線上に、所定のキーを打つ(ステップS305)。具体的には、FK−IK変換部6は、手首の動きを表すモーションパスの曲線から、所定時間毎のデータを抽出する。以下、抽出した所定時間毎の時系列のデータをキーフレームのデータ(以下、「キーフレーム」)という。手首の動きを表すモーションパスの曲線は、時系列のデータの集まりであるから、このモーションパスの曲線から時系列のキーフレームを抽出することができる。
FK−IK変換部6は、ステップS303にて設定した制御点の集まり、ステップS304にて使用した次数、ステップS305にて抽出したキーフレームの集まり等を手首のモーションパスデータとして生成し、手首のモーションパスデータを単語補間部7に出力する(ステップS306)。
図4は、FK−IK変換部6の処理を説明する図である。図4において、設定された手首の位置の制御点をc1〜c6とし、これらの制御点c1〜c6及び予め設定された次数に基づいて生成されたモーションパスの曲線をlとする。この曲線lにキーを打つことにより、キーフレームf(t)〜f(t10)が抽出される。キーフレームf(t)〜f(t10)は、曲線l上の時系列のデータであり、t〜t10は時刻を示す。
図4に示すように、FK−IK変換部6により、時系列のキーフレームf(t)〜f(t10)が抽出され、これらのキーフレームf(t)〜f(t10)等がモーションパスデータとして生成される。尚、モーションパスは既知であるから、ここでは詳細な説明を省略する。
このように、FK−IK変換部6は、手話単語毎にステップS301〜ステップS306の処理にて、手話単語毎の手首のモーションパスデータを生成して単語補間部7に出力する。
同様に、FK−IK変換部6は、手話単語毎の肘のモーションパスデータを生成するために、手話単語毎にステップS301〜ステップS306の処理を行う。つまり、FK−IK変換部6は、ステップS302において、BVHデータから肘の位置を抽出し、ステップS303において、抽出した肘の位置を制御点に設定し、ステップS304において、肘の動きを表すモーションパスの曲線を生成し、ステップS305において、肘の動きを表すモーションパスの曲線から時系列のキーフレームを抽出し、ステップS306において、制御点の集まり、次数及びキーフレームの集まり等を肘のモーションパスデータとして生成し、肘のモーションパスデータを単語補間部7に出力する。
手首のモーションパスデータ及び肘のモーションパスデータは、右腕及び左腕のそれぞれについて生成される。図5(2)に示したように、合計4本のモーションパスを表すモーションパスデータが生成され、単語補間部7に出力される。
尚、FK−IK変換部6により生成される手話単語のモーションパスデータは、そのモーションパスの曲線を特定することが可能なキーフレームの位置及び数からなり、制御点の位置及び数、並びに曲線の次数も含まれる。後述する単語補間部7により生成される日本語文章テキストのモーションパスデータについても同様である。
(単語補間部)
次に、図2に示した単語補間部7について説明する。単語補間部7は、FK−IK変換部6から手話単語毎の手首及び肘のモーションパスデータ(手話単語毎の合計4本のモーションパスを表すモーションパスデータ)を入力し、前後の手話単語におけるモーションパスの接続箇所を補間することで、前後の手話単語を接続し、手首及び肘の合計4本のモーションパスのそれぞれに対応して、日本語文章テキストのモーションパスデータ(日本語文章テキストの合計4本のモーションパスを表すモーションパスデータ)を生成する。
図6は、単語補間部7の処理を示すフローチャートであり、日本語文章テキストの手首のモーションパスデータを生成する例を示している。まず、単語補間部7は、FK−IK変換部6から手話単語毎のモーションパスデータを入力する(ステップS601)。そして、単語補間部7は、日本語文章テキストに対応する複数の手話単語のモーションパスを時系列に並べた場合に、前後の手話単語のモーションパスをずらすことで、重複する接続箇所を設定し、それぞれの手話単語のモーションパスを時間軸上に配置する(ステップS602)。
図7は、単語補間部7の処理を説明する図である。図7には、日本語文章テキストに対応する複数の手話単語1〜nのモーションパスについて、時間軸上で重複する箇所が存在するように示されている。それぞれの手話単語1〜nのモーションパスは、実際の形状ではなく、説明しやすいように、直線として表してある。横軸は時間tとする。手話単語1,2における時間軸上の時点T1〜T2、手話単語2,3における時間軸上の時点T3〜T4等が、時間軸上で重複する接続箇所である。
図6に戻って、単語補間部7は、ステップS602の後に、前の手話単語におけるモーションパスの制御点のうち、後の手話単語への移行を開始する時点までの制御点を抽出する(ステップS603)。図7の例では、手話単語1におけるモーションパスの制御点(開始の時点T0から終了の時点T2までの間の制御点)のうち、開始の時点T0から手話単語2におけるモーションパスの開始の時点T1(接続箇所の開始の時点T1)までの間の制御点が抽出される。また、手話単語2におけるモーションパスの制御点(開始の時点T1から終了の時点T4までの間の制御点)のうち、開始の時点T1から手話単語3におけるモーションパスの開始の時点T3(接続箇所の開始の時点T3)までの間の制御点が抽出される。また、手話単語3におけるモーションパスの制御点(開始の時点T3から終了の時点T6までの間の制御点)のうち、開始の時点T3から手話単語4におけるモーションパスの開始の時点T5(接続箇所の開始の時点T5)までの間の制御点が抽出される。
単語補間部7は、後の手話単語におけるモーションパスの制御点のうち、前の手話単語からの移行が完了する時点より後の制御点を抽出する(ステップS604)。図7の例では、手話単語2におけるモーションパスの制御点(開始の時点T1から終了の時点T4までの間の制御点)のうち、手話単語1からの移行が完了する時点T2(手話単語1におけるモーションパスの終了の時点T2)より後の制御点である時点T2から終了の時点T4までの間の制御点が抽出される。また、手話単語3におけるモーションパスの制御点(開始の時点T3から終了の時点T6までの間の制御点)のうち、手話単語2からの移行が完了する時点T4(手話単語2におけるモーションパスの終了の時点T4)より後の制御点である時点T4から終了の時点T6までの間の制御点が抽出される。
単語補間部7は、前後の手話単語のモーションパスにおいて、ステップS603にて抽出した前の手話単語におけるモーションパスの制御点、及び、ステップS604にて抽出した後の手話単語におけるモーションパスの制御点、並びに予め設定された次数に基づいて、制御点を近似する等して、前後の手話単語におけるモーションパスの接続箇所を補間し、手首の動きを表すモーションパスの曲線(例えばNURBS曲線)を生成する(ステップS605)。単語補間部7は、全ての手話単語についてステップS602〜ステップS605の処理を行い、日本語文章テキストにおける手首の動きを表すモーションパスの曲線を生成する。前述のとおり、生成されたモーションパスの曲線は、必ずしも全ての制御点を通過するとは限らない。
尚、単語補間部7は、ステップS605において、図3のステップS304にて使用した同じ次数を用いるようにしてもよいし、異なる次数を用いるようにしてもよい。
図7の例では、手話単語1におけるモーションパスの時点T0から時点T1までの間の制御点、手話単語2におけるモーションパスの時点T2から時点T4までの間の制御点、並びに予め設定された次数に基づいて、手話単語1,2におけるモーションパスの時点T1から時点T2までの間の接続箇所が補間される。また、手話単語2におけるモーションパスの時点T1から時点T3までの間の制御点、手話単語3におけるモーションパスの時点T4から時点T6までの間の制御点、並びに予め設定された次数に基づいて、手話単語2,3におけるモーションパスの時点T3から時点T4までの間の接続箇所が補間される。このようにして、日本語文章テキストにおける(複数の手話単語1〜nにおける)手首の動きを表す1本のモーションパスの曲線が生成される。
単語補間部7は、ステップS605にて生成したモーションパスの曲線上に、所定のキーを打つ(ステップS606)。具体的には、単語補間部7は、手首の動きを表すモーションパスの曲線から、所定時間毎のデータを時系列のキーフレームとして抽出する。
単語補間部7は、ステップS603及びステップS604にて抽出された制御点の集まり、ステップS605にて使用した次数、ステップS606にて抽出したキーフレームの集まり等を、日本語文章テキストの手首のモーションパスデータとして生成し、日本語文章テキストの手首のモーションパスデータを自動調整部8に出力する(ステップS607)。
このように、単語補間部7は、ステップS601〜ステップS607の処理にて、前後の手話単語の接続箇所を補間し、日本語文章テキストの手首のモーションパスデータを生成して自動調整部8に出力する。
同様に、単語補間部7は、日本語文章テキストの肘のモーションパスデータを生成するために、手話単語毎の肘のモーションパスデータを用いて、ステップS601〜ステップS607の処理を行う。つまり、単語補間部7は、ステップS601において、FK−IK変換部6から手話単語毎の肘のモーションパスデータを入力し、ステップS602〜ステップS604の処理の後に、ステップS605において、前の手話単語におけるモーションパスの制御点、及び、後の手話単語におけるモーションパスの制御点、並びに予め設定された次数に基づいて、制御点を近似する等して、前後の手話単語におけるモーションパスの接続箇所を補間し、日本語文章テキストにおける肘の動きを表すモーションパスの曲線を生成し、ステップS606において、時系列のキーフレームを抽出し、ステップS607において、ステップS603及びステップS604にて抽出した制御点の集まり、ステップS605にて使用した次数、ステップS606にて抽出したキーフレームの集まり等を、日本語文章テキストの肘のモーションパスデータとして生成し、自動調整部8に出力する。
日本語文章テキストの手首のモーションパスデータ及び肘のモーションパスデータは、右腕及び左腕のそれぞれについて生成される。つまり、日本語文章テキストの合計4本のモーションパスデータが生成され、自動調整部8に出力される。
このように、単語補間部7により、日本語文章テキストに対応する複数の手話単語におけるモーションパスの接続箇所が補間され、日本語文章テキストの1本のモーションパスが生成される。これにより、日本語文章テキストのモーションパスに沿って手首及び肘を動かすことにより、一連の日本語文章テキストに対応する複数の手話単語の動作を再生することができる。この場合、モーションパスデータを用いて手話単語が接続されるから、CGによる手話キャラクタの手指動作を再生する際に、スムーズかつ自然な動きを実現することができる。
(自動調整部)
次に、図2に示した自動調整部8について説明する。自動調整部8は、単語補間部7から日本語文章テキストの手首及び肘のモーションパスデータを入力し、手指動作の再生時間を調整し、モーションパスを修正する。
日本語文章テキストの手話がCGによって再生された場合、そのCGを見る者は、通常の手話の再生速度では速過ぎると感じたり、手話を習熟中だったりすることがあり得る。また、強調したい部分のみを大きくゆっくりとした動きに変更したいこともあり得る。手話を理解しやすくするためには、全体の手話の再生速度を遅くする必要がある。一方、通常の手話の再生速度では遅過ぎると感じた場合には、全体の手話の再生速度を速くする必要がある。
手話の再生速度は、動画のフレームレートを変えることにより変更することができる。しかし、動画のフレームレートを変えるのみでは、不自然な手指動作の映像になってしまう。
一方で、実際の手指動作を解析した結果、再生時間を変える場合には、手首を動かす速度を変えることに加え、手首の軌道(ストローク)を変える必要があることが知られている。したがって、再生時間を短くするためには、手首の軌道を短くする必要があり、再生時間を長くするためには、手首の軌道を長くする必要がある。
そこで、自動調整部8は、手話の再生時間を短くする場合、モーションパスのスケールを小さくすることで、手首等の軌道を短くする。一方、自動調整部8は、手話の再生時間を長くする場合、モーションパスのスケールを大きくすることで、手首等の軌道を長くする。ただし、制御点の数は増減させない。
具体的には、自動調整部8は、単語補間部7から入力した日本語文章テキストの手首のモーションパスデータに対し、モーションパスのスケールを変化させるため(モーションパスの大きさ及び形状を変化させるため)、制御点及びキーフレームが示すx軸のデータ、y軸のデータ若しくはz軸のデータ、または、x,y,z軸のデータに、変化後のモーションパスの大きさ及び形状が反映されたそれぞれの値を乗算することで、新たな制御点及びキーフレームを求める。
これにより、手首の軌道は、モーションパスの大きさ及び形状のスケールが反映された所定値に応じた長さとなる。例えば、所定値に応じて、モーションパスのスケールを小さくして手首の軌道を短くすることができ、また、モーションパスのスケールを大きくして手首の軌道を長くすることができる。したがって、スケールが反映された所定値に応じて手首の軌跡の長さが変化するから、モーションパスを所望の長さに変えることができ、単に動画のフレームレートを変える手法よりも、自然な動きを実現することができる。
図8は、自動調整部8において、手首の軌道の長さを自動調整する例を説明する図である。図8(1)の曲線α1,β1の軌道は、通常の再生時間の場合のモーションパス、すなわち自動調整部8により再生時間が変更されていないモーションパスを示している。図8(2)の曲線α2,β2の起動は、再生時間を短くした場合(通常の再生時間×0.8の場合)のモーションパス、すなわち自動調整部8により再生時間が短くなるように変更されたモーションパスを示している。
図8(1)(2)から、軌道の長さは、図8(2)の方が図8(1)よりも短いことがわかる。自動調整部8は、図8(1)に示す手首の曲線α1,β1にスケールが反映された値(0.8)を掛けることで、図8(2)に示すように、手首の軌道を短くし、再生時間を短くすることができる。同様に、スケールに応じて手首の軌道を長くすることもでき、手首の軌道の長さを自動的に調整することが可能となる。
また、自動調整部8は、再生時間を短くする処理の後、モーションパスデータに含まれる制御点を所定数分減らす(間引く)ことで、制御点を削除する。例えば、短くした再生時間に比例する数の制御点を減らす。尚、自動調整部8は、再生時間を長くする処理の後、制御点を削除する処理は行わない。
これにより、制御点を所定数分減らすことで、元のモーションパスよりも粗いモーションパスを生成することができ、実際の手話の手首が動く軌道に近づけることができ、手首の自然な動きを一層実現することができる。
図9は、自動調整部8において、制御点を減らして粗いカーブのモーションパスに修正する例を説明する図である。図9(1)は、通常の再生時間の場合の曲線α1の軌道に対し、複数の制御点が示されている。図9(2)は、再生時間を短くした場合の曲線α2の軌道に対し、図9(1)よりも少ない数の制御点が示されている。
図9(1)(2)から、制御点の分布は、図9(2)の方が図9(1)よりも粗いことがわかる。自動調整部8は、図9(1)における制御点のデータに、スケールが反映された所定値を乗算することで、軌道を短くした後、モーションパスデータに含まれる制御点を所定数分減らすことで、制御点を削除する。これにより、図9(2)に示す数の制御点によるモーションパスとなる。
尚、制御点の数を変更する処理としては、曲線の形状を変えないように、制御点の位置及び数を決定するための逆計算を行う「リビルド」の処理が行われる。「リビルド」の処理は既知であるから、ここでは詳細な説明は省略する。
また、日本語文章テキストの手首のモーションパスデータに対する処理について説明したが、日本語文章テキストの肘のモーションパスデータに対する処理についても同様である。自動調整部8は、単語補間部7から入力した日本語文章テキストの手首及び肘のモーションパスデータに対し、手指動作の再生時間を調整し、モーションパスを修正する処理を行い、再生時間を調整しモーションパスを修正した日本語文章テキストの手首及び肘のモーションパスデータを、手動修正部9に出力する。
(手動修正部)
次に、図2に示した手動修正部9について説明する。手動修正部9は、自動調整部8から、再生時間が調整されモーションパスが修正された日本語文章テキストの手首及び肘のモーションパスデータを入力し、モーションパスの形状を手動にて修正する。つまり、手動修正部9は、指先方向等の手首が動く軌道の形状を、手動にて修正する。
具体的には、手動修正部9は、ユーザの操作に従って、手首または肘のモーションパスにおける1つまたは複数の制御点を選択し、選択した1つまたは複数の制御点の位置を変更することで、手首及び肘のモーションパスの形状を変更する。そして、手動修正部9は、モーションパスの形状を修正した日本語文章テキストの手首及び肘のモーションパスデータを、IK−FK変換部10に出力する。
図10は、手動修正部9において、手首のモーションパスの制御点を選択して指先方向を修正する例を説明する図である。図10(1)は、指先を左方向へ修正する例であり、図10(2)は、指先を右方向へ修正する例であり、図10(3)は、指先を左上方向へ修正する例であり、図10(4)は、指先を左下方向へ修正する例である。
図10(1)を参照して、手動修正部9は、ユーザの操作に従って、手首のモーションパスの曲線αにおける1つの制御点cを選択し、選択した制御点cの位置を左方向の位置(制御点c1の位置)に変更する。これにより、手首のモーションパスの形状は、曲線αから曲線α1に変更され、指先は、左方向へ修正される。
図10(2)を参照して、手動修正部9は、ユーザの操作に従って、手首のモーションパスの曲線αにおける1つの制御点cを選択し、選択した制御点cの位置を右方向の位置(制御点c2の位置)に変更する。これにより、手首のモーションパスの形状は、曲線αから曲線α2に変更され、指先は、右方向へ修正される。
図10(3)を参照して、手動修正部9は、ユーザの操作に従って、手首のモーションパスの曲線αにおける1つの制御点cを選択し、選択した制御点cの位置を左上方向の位置(制御点c3の位置)に変更する。これにより、手首のモーションパスの形状は、曲線αから曲線α3に変更され、指先は、左上方向へ修正される。
図10(4)を参照して、手動修正部9は、ユーザの操作に従って、手首のモーションパスの曲線αにおける1つの制御点cを選択し、選択した制御点cの位置を左下方向の位置(制御点c4の位置)に変更する。これにより、手首のモーションパスの形状は、曲線αから曲線α4に変更され、指先は、左下方向へ修正される。
これにより、手首及び肘のモーションパスは、自然な動きを維持したまま修正することができ、修正結果はリアルタイムに再生中に反映することができ、インタラクティブな修正が可能となる。
(IK−FK変換部)
次に、図2に示したIK−FK変換部10について説明する。IK−FK変換部10は、手動修正部9から、モーションパスの形状が修正された日本語文章テキストの手首及び肘のモーションパスデータを入力し、日本語文章テキストの手首及び肘のモーションパスデータが反映され、IKにて動作するIKデータ(手首及び肘の関節について、モーションパスに従って動かすことが可能なIKデータ)を、関節の角度が定義され、FKにて動作するBVHデータに変換する。
具体的には、IK−FK変換部10は、日本語文章テキストの手首及び肘のモーションパスデータに含まれる制御点及びキーフレーム等に基づいて、手首及び肘の関節の角度を求め、関節の角度が定義された日本語文章テキストのBVHデータを生成する。そして、IK−FK変換部10は、日本語文章テキストのBVHデータをレンダラ5に出力する。
これにより、レンダラ5によるレンダリング処理のために、IK形式のモーションパスデータは、元のFK形式のBVHデータに戻され、FKを用いて、日本語文章テキストに対応する手話の動きのCGデータを生成することができる。つまり、レンダラ5は、IK−FK変換部10から日本語文章テキストのBVHデータを入力すると共に、DB2から骨格構造情報等のベースモデルの情報を読み出し、FKによりこれらを統合することで、日本語文章テキストに対応する手話の動きのCGデータを生成し、CGキャラクタとして画面表示する。
尚、IKデータ処理部4は、FK−IK変換部6、単語補間部7、自動調整部8、手動修正部9及びIK−FK変換部10を備えるようにしたが、FK−IK変換部6、単語補間部7及びIK−FK変換部10のみを備えるようにしてもよい。この場合、自動調整部8による手指動作の再生時間の調整処理及びモーションパスの修正処理、並びに、手動修正部9によるモーションパスの形状の修正処理は行われない。また、IKデータ処理部4は、FK−IK変換部6、単語補間部7、自動調整部8及びIK−FK変換部10のみを備えるようにしてもよいし、FK−IK変換部6、単語補間部7、手動修正部9及びIK−FK変換部10のみを備えるようにしてもよい。
以上のように、本発明の実施形態による手話CG翻訳装置1によれば、IKデータ処理部4のFK−IK変換部6は、手話翻訳機3により日本語文章テキストが翻訳された手話単語毎のBVHデータを入力し、手話単語毎に、FKデータであるBVHデータを手首及び肘のモーションパスデータに変換するようにした。
具体的には、FK−IK変換部6は、手話単語毎に、BVHデータから手首の位置を抽出して制御点に設定し、制御点及び予め設定された次数に基づいて、手首の動きを表す曲線を生成し、曲線上に所定のキーを打つことで、曲線から時系列のキーフレームを抽出し、制御点及びキーフレーム等を手首のモーションパスデータとして生成し、同様に、肘のモーションパスデータも生成する。
そして、単語補間部7は、FK−IK変換部6により変換された手話単語毎の手首及び肘のモーションパスデータを入力し、前後の手話単語の接続箇所を補間して接続し、日本語文章テキストの手首及び肘のモーションパスデータを生成するようにした。
具体的には、単語補間部7は、手話単語毎の手首のモーションパスを接続する際に、前後の手話単語のモーションパスに対し、時間軸上で重複する接続箇所が存在するように所定時間ずらし、前の手話単語におけるモーションパスの制御点のうち、後の手話単語への移行を開始する時点までの制御点を抽出すると共に、後の手話単語におけるモーションパスの制御点のうち、前の手話単語からの移行が完了する時点より後の制御点を抽出する。そして、単語補間部7は、抽出したこれらの制御点及び予め設定された次数に基づいて、制御点を近似する等して、前後の手話単語における接続箇所を補間し、手首の動きを表す曲線を生成し、曲線上に所定のキーを打つことで、曲線から時系列のキーフレームを抽出する。そして、単語補間部7は、制御点及びキーフレーム等を日本語文章テキストの手首のモーションパスデータとして生成する。単語補間部7は、同様に、日本語文章テキストの肘のモーションパスデータも生成する。
そして、IK−FK変換部10は、単語補間部7により生成された日本語文章テキストの手首及び肘のモーションパスデータをBVHデータに変換し、レンダラ5は、日本語文章テキストのBVHデータ、及び骨格構造情報等のベースモデルの情報を用いて、FKによりこれらを統合することで、日本語文章テキストに対応する手話の動きのCGデータを生成し、CGキャラクタとして画面表示するようにした。
これにより、モーションパスデータを用いて手話単語間を補間し接続するようにしたから、2つの手話単語を接続してCGによる手話キャラクタの手指動作を再生する際に、ジョイント角度等を線形補間する従来の手法に比べ、動きの機械的な不自然さを軽減し、自然かつ柔軟な動きを実現することができる。
図11(2)は、肩関節における肩−肘軸の回転のみが異なる2つの単語を接続する際に、IK及びモーションパスの手法を用いた本発明の実施形態による動きを説明する図である。図11(2)に示すように、本発明の実施形態において、肘は移動しながら元の位置に戻るから、図11(1)に示した従来技術に比べ、手首の位置は直線的でスムーズな動きとなる。
また、本発明の実施形態による手話CG翻訳装置1によれば、IKデータ処理部4の自動調整部8は、日本語文章テキストの手首及び肘のモーションパスデータに対し、手指動作の再生時間を調整し、手首及び肘のモーションパスを修正するようにした。
これにより、CGによる手話キャラクタの手指動作を再生する際に、自然な動きのままで、手話の速度等に自動的な調整を加えることができ、手首の自然な動きを実現することができる。
また、本発明の実施形態による手話CG翻訳装置1によれば、IKデータ処理部4の手動修正部9は、ユーザの操作に従って、日本語文章テキストの手首及び肘のモーションパスデータに対し、手首及び肘のモーションパスの形状を手動にて修正するようにした。
これにより、CGによる手話キャラクタの手指動作を再生する際に、ユーザは、手首及び肘の動く軌道を、画面を見ながら手動にて修正することで、自然な動きを維持した修正を実現することができ、修正結果をリアルタイムに再生中に反映することができる。
尚、本発明の実施形態による手話CG翻訳装置1のハードウェア構成としては、通常のコンピュータを使用することができる。手話CG翻訳装置1は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。手話CG翻訳装置1に備えた手話翻訳機3、IKデータ処理部4(FK−IK変換部6、単語補間部7、自動調整部8、手動修正部9及びIK−FK変換部10)及びレンダラ5の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。
以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。前記実施形態では、IKデータ処理部4のFK−IK変換部6は、FKデータを、手首のモーションパスデータ及び肘のモーションパスデータに変換し、単語補間部7、自動調整部8、手動修正部9及びIK−FK変換部10は、手首のモーションパスデータ及び肘のモーションパスデータを処理対象とするようにした。
これに対し、IKデータ処理部4のFK−IK変換部6は、FKデータを、手首のモーションパスデータ及びIKソルバに変換し、肘のモーションパスデータに変換しないようにしてもよい。
この場合、単語補間部7は、FK−IK変換部6から手首のモーションパスデータ及びIKソルバを入力し、IKソルバが示す制約条件を満たすように、前後の手話単語における手首のモーションパスの接続箇所を補間して接続し、日本語文章テキストの手首のモーションパスデータを生成する。また、自動調整部8は、日本語文章テキストの手首のモーションパスデータ及びIKソルバを用いて、IKソルバが示す制約条件を満たすように、手指動作の再生時間を調整し、手首のモーションパスを修正する。また、手動修正部9は、ユーザの操作に従って、日本語文章テキストの手首のモーションパスデータ及びIKソルバを用いて、IKソルバが示す制約条件を満たすように、手首のモーションパスの形状を手動にて修正する。また、IK−FK変換部10は、日本語文章テキストの手首のモーションパスデータ及び前記IKソルバをBVHデータに変換する。
また、前記実施形態では、多関節骨格モデル処理装置の一例として手話CG翻訳装置1を挙げて説明したが、本発明はこれに限定されるものではなく、例えば、多関節骨格モデルの動きを実現するロボットアームを制御する装置(ロボットアーム制御装置)にも適用がある。
この場合、ロボットアーム制御装置は、DB2、手話翻訳機3、IKデータ処理部4及び制御データ生成部を備え、制御データ生成部は、IKデータ処理部4により生成された日本語文章テキストのBVHデータ、及び、DB2に格納された骨格構造情報等のベースモデルの情報を用いて、FKによりこれらを統合することで、日本語文章テキストに対応する多関節の手指動作を表した制御データを生成する。これにより、制御データに基づいた動作指令により、サーボモータ等を用いてロボットアームを動作させることができる。したがって、ロボットアームによる多関節の手指動作を再生する際に、手話CG翻訳装置1と同様に、動きの不自然さを軽減し、自然かつ柔軟な動きを実現することができる。
また、前記実施形態では、手話CG翻訳装置1において手首及び肘の関節に着目して説明したが、本発明はこれに限定されるものではなく、例えば足首及び膝の関節にも適用がある。また、前記実施形態では、手話CG翻訳装置1において人間の動作に着目して説明したが、本発明は、多関節骨格モデルを適用可能な人間以外の動物等の動作、並びに、人間及び動物等の動きを模したロボットの動作にも適用がある。
1 手話CG翻訳装置
2 DB
3 手話翻訳機
4 IKデータ処理部
5 レンダラ
6 FK−IK変換部
7 単語補間部
8 自動調整部
9 手動修正部
10 IK−FK変換部

Claims (8)

  1. 日本語文章テキストを複数の単語に変換し、前記複数の単語に基づいて、前記日本語文章テキストに対応する多関節骨格モデルの動きを表した制御データを生成する多関節骨格モデル処理装置において、
    前記日本語文章テキストを、複数の単語に対応するそれぞれのFK(フォワードキネマティクス)形式のデータに変換する変換機と、
    前記変換機により変換された単語毎のFK形式のデータをIK(インバースキネマティクス)形式のデータに変換し、単語毎のIK形式のデータを補間して接続し、前記日本語文章テキストのIK形式のデータを生成し、前記日本語文章テキストのIK形式のデータをFK形式のデータに変換するIKデータ処理部と、
    前記IKデータ処理部により変換されたFK形式のデータに基づいて、前記日本語文章テキストに対応する多関節骨格モデルの動きを表した制御データを生成する制御データ生成部と、
    を備えたことを特徴とする多関節骨格モデル処理装置。
  2. 日本語文章テキストを手話に翻訳し、多関節骨格モデルのCG(コンピュータグラフィックス)にて再生するためのCGデータを生成する多関節骨格モデル処理装置において、
    前記日本語文章テキストを、複数の手話単語に対応するそれぞれのFK形式のデータに変換する手話翻訳機と、
    前記手話翻訳機により変換された手話単語毎のFK形式のデータをIK形式のデータに変換し、手話単語毎のIK形式のデータを補間して接続し、前記日本語文章テキストのIK形式のデータを生成し、前記日本語文章テキストのIK形式のデータをFK形式のデータに変換するIKデータ処理部と、
    前記IKデータ処理部により変換されたFK形式のデータに基づいて、前記日本語文章テキストに対応する手話の動きのCGデータを生成するレンダラと、を備え、
    前記IKデータ処理部は、
    前記手話翻訳機により変換された手話単語毎のFK形式のデータを、手話単語毎のIK形式のデータにそれぞれ変換するFK−IK変換部と、
    前記FK−IK変換部により変換された手話単語毎のIK形式のデータに対し、前記日本語文章テキストにおける時間軸上で前後する第1のIK形式のデータと第2のIK形式のデータとの間の接続箇所を補間することで、前記第1のIK形式のデータと前記第2のIK形式のデータとを接続し、前記日本語文章テキストのIK形式のデータを生成する単語補間部と、
    前記単語補間部により生成された前記日本語文章テキストのIK形式のデータをFK形式のデータに変換するIK−FK変換部と、を備えたことを特徴とする多関節骨格モデル処理装置。
  3. 請求項2に記載の多関節骨格モデル処理装置において、
    前記FK形式のデータをBVH形式のデータとし、前記IK形式のデータを、モーションパスを表すモーションパスデータ、及び手首、肘及び肩の動きの制約条件が設定されたIKソルバとし、
    前記FK−IK変換部は、
    前記手話単語毎のBVH形式のデータから、手首の位置を抽出して制御点に設定し、前記制御点に基づいて、前記手首の動きを表すモーションパスの曲線を生成し、前記曲線上に所定のキーを打つことで、前記曲線からキーフレームを抽出し、前記手話単語毎に、前記制御点及び前記キーフレームを含む手首のモーションパスデータを生成すると共に、前記IKソルバを生成し、
    前記手話単語毎のBVH形式のデータから、肘の位置を抽出して制御点に設定し、前記制御点に基づいて、前記肘の動きを表すモーションパスの曲線を生成し、前記曲線上に所定のキーを打つことで、前記曲線から前記キーフレームを抽出し、前記手話単語毎に、前記制御点及び前記キーフレームを含む肘のモーションパスデータを生成し、
    前記単語補間部は、
    前記FK−IK変換部により変換された手話単語毎の手首及び肘のモーションパスデータのそれぞれに対し、前記日本語文章テキストにおける時間軸上で前後する第1のモーションパスと第2のモーションパスとの間で重複する接続箇所を設定し、前記第1のモーションパスの制御点のうち、前記第2のモーションパスへの移行を開始する時点までの制御点を抽出すると共に、前記第2のモーションパスの制御点のうち、前記第1のモーションパスからの移行が完了する時点より後の制御点を抽出し、前記抽出した前記第1のモーションパスの制御点、及び前記抽出した前記第2のモーションパスの制御点に基づいて、前記接続箇所を補間したモーションパスの曲線を生成し、前記曲線上に所定のキーを打つことで、前記曲線からキーフレームを抽出し、前記日本語文章テキストにおける、前記制御点及び前記キーフレームを含むモーションパスデータを、前記手首及び肘についてそれぞれ生成し、
    前記IK−FK変換部は、
    前記単語補間部により生成された前記日本語文章テキストの手首及び肘のモーションパスデータ、及び前記IKソルバを、BVH形式のデータに変換する、ことを特徴とする多関節骨格モデル処理装置。
  4. 請求項2に記載の多関節骨格モデル処理装置において、
    前記FK形式のデータをBVH形式のデータとし、前記IK形式のデータを、モーションパスを表すモーションパスデータ、及び手首、肘及び肩の動きの制約条件が設定されたIKソルバとし、
    前記FK−IK変換部は、
    前記手話単語毎のBVH形式のデータから、手首の位置を抽出して制御点に設定し、前記制御点に基づいて、前記手首の動きを表すモーションパスの曲線を生成し、前記曲線上に所定のキーを打つことで、前記曲線からキーフレームを抽出し、前記手話単語毎に、前記制御点及び前記キーフレームを含む手首のモーションパスデータを生成すると共に、前記IKソルバを生成し、
    前記単語補間部は、
    前記FK−IK変換部により変換された手話単語毎の手首のモーションパスデータに対し、前記日本語文章テキストにおける時間軸上で前後する第1のモーションパスと第2のモーションパスとの間で重複する接続箇所を設定し、前記第1のモーションパスの制御点のうち、前記第2のモーションパスへの移行を開始する時点までの制御点を抽出すると共に、前記第2のモーションパスの制御点のうち、前記第1のモーションパスからの移行が完了する時点より後の制御点を抽出し、前記抽出した前記第1のモーションパスの制御点、及び前記抽出した前記第2のモーションパスの制御点に基づいて、前記接続箇所を補間したモーションパスの曲線を生成し、前記曲線上に所定のキーを打つことで、前記曲線からキーフレームを抽出し、前記日本語文章テキストにおける、前記制御点及び前記キーフレームを含む手首のモーションパスデータを生成し、
    前記IK−FK変換部は、
    前記単語補間部により生成された前記日本語文章テキストの手首のモーションパスデータ、及び前記IKソルバを、BVH形式のデータに変換する、ことを特徴とする多関節骨格モデル処理装置。
  5. 請求項3または4に記載の多関節骨格モデル処理装置において、
    前記IKデータ処理部は、さらに、手話の再生時間を変更する調整部を備え、
    前記調整部は、
    前記単語補間部により生成されたモーションパスデータに含まれる前記キーフレームを変更することで、モーションパスのスケールを変化させ、新たなモーションパスデータを生成する、ことを特徴とする多関節骨格モデル処理装置。
  6. 請求項5に記載の多関節骨格モデル処理装置において、
    前記調整部に代わる新たな調整部は、
    前記単語補間部により生成されたモーションパスデータに含まれる前記キーフレームを変更することで、モーションパスのスケールを変化させ、前記モーションパスデータに含まれる制御点を所定数分減らし、新たなモーションパスデータを生成する、ことを特徴とする多関節骨格モデル処理装置。
  7. 請求項3または4に記載の多関節骨格モデル処理装置において、
    前記IKデータ処理部は、さらに、モーションパスの形状を修正する修正部を備え、
    前記修正部は、ユーザの操作に従って、前記単語補間部により生成されたモーションパスデータにおけるモーションパスの形状を修正する、ことを特徴とする多関節骨格モデル処理装置。
  8. コンピュータを、請求項1から7までのいずれか一項に記載の多関節骨格モデル処理装置として機能させるためのプログラム。
JP2014192202A 2014-09-22 2014-09-22 多関節骨格モデル処理装置及びプログラム Active JP6424050B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014192202A JP6424050B2 (ja) 2014-09-22 2014-09-22 多関節骨格モデル処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014192202A JP6424050B2 (ja) 2014-09-22 2014-09-22 多関節骨格モデル処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2016062528A JP2016062528A (ja) 2016-04-25
JP6424050B2 true JP6424050B2 (ja) 2018-11-14

Family

ID=55797994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014192202A Active JP6424050B2 (ja) 2014-09-22 2014-09-22 多関節骨格モデル処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6424050B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3324366A1 (en) * 2016-11-22 2018-05-23 Dassault Systèmes Computer-implemented method for simulating a body taking a posture
JP6827337B2 (ja) * 2017-02-10 2021-02-10 日本放送協会 手話cg生成装置及びプログラム
JP7150306B2 (ja) * 2018-07-02 2022-10-11 国立研究開発法人産業技術総合研究所 運動生成方法、装置及びプログラム
KR102098734B1 (ko) 2019-08-06 2020-04-08 전자부품연구원 대화 상대의 외형을 반영한 수어 영상 제공 방법, 장치 및 단말
CN110941990B (zh) * 2019-10-22 2023-06-16 泰康保险集团股份有限公司 基于骨骼关键点进行人体动作评估的方法和装置
CN113610949B (zh) * 2021-08-25 2023-06-16 腾讯科技(深圳)有限公司 虚拟手臂骨骼的蒙皮方法、装置、设备以及存储介质
US20240203017A1 (en) * 2021-10-29 2024-06-20 Kara Technologies Limited Method for generating animated sentences for sign language translation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109988A (ja) * 2012-12-04 2014-06-12 Nippon Hoso Kyokai <Nhk> モーション映像生成装置及びモーション映像生成プログラム

Also Published As

Publication number Publication date
JP2016062528A (ja) 2016-04-25

Similar Documents

Publication Publication Date Title
JP6424050B2 (ja) 多関節骨格モデル処理装置及びプログラム
US20020024519A1 (en) System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character
JP5344358B2 (ja) 演技から作り出される顔アニメーション
JP2023545642A (ja) 目標対象の動作駆動方法、装置、機器及びコンピュータプログラム
US9431027B2 (en) Synchronized gesture and speech production for humanoid robots using random numbers
Kennaway Experience with and requirements for a gesture description language for synthetic animation
KR102137326B1 (ko) 리깅 캐릭터를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법
JP2011175598A (ja) 手話アニメーション生成装置及び手話アニメーション生成プログラム
KR20170086317A (ko) 타이밍 변환을 이용한 3차원 캐릭터 동작 생성 장치 및 방법
Kaneko et al. Sign language animation using TVML
JP2017042896A (ja) データ変換装置、ロボット、プログラム及び情報処理方法
CN110189404B (zh) 基于真实人脸图像的虚拟面部建模方法
KR20150075909A (ko) 3차원 캐릭터 동작 편집방법 및 그 장치
Kalberer et al. Realistic face animation for speech
JP4631077B2 (ja) アニメーション作成装置
Wampler et al. Dynamic, expressive speech animation from a single mesh
JP7049173B2 (ja) 手話cg翻訳編集装置及びプログラム
JP3169727B2 (ja) 手話生成装置
JP4357155B2 (ja) アニメーション画像の生成プログラム
Kennaway Avatar-independent scripting for real-time gesture animation
JP6767128B2 (ja) 手話cg生成装置及びプログラム
JP6827337B2 (ja) 手話cg生成装置及びプログラム
JP2015141441A (ja) 手話cg合成装置及びそのプログラム
JP7201984B2 (ja) アンドロイドのジェスチャ生成装置及びコンピュータプログラム
Yotsukura et al. Model-based talking face synthesis for anthropomorphic spoken dialog agent system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181022

R150 Certificate of patent or registration of utility model

Ref document number: 6424050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250