JP6291265B2 - 手話cg合成装置及びそのプログラム - Google Patents

手話cg合成装置及びそのプログラム Download PDF

Info

Publication number
JP6291265B2
JP6291265B2 JP2014012246A JP2014012246A JP6291265B2 JP 6291265 B2 JP6291265 B2 JP 6291265B2 JP 2014012246 A JP2014012246 A JP 2014012246A JP 2014012246 A JP2014012246 A JP 2014012246A JP 6291265 B2 JP6291265 B2 JP 6291265B2
Authority
JP
Japan
Prior art keywords
sign language
dimensional
texture image
face
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014012246A
Other languages
English (en)
Other versions
JP2015141441A (ja
Inventor
修一 梅田
修一 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2014012246A priority Critical patent/JP6291265B2/ja
Publication of JP2015141441A publication Critical patent/JP2015141441A/ja
Application granted granted Critical
Publication of JP6291265B2 publication Critical patent/JP6291265B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本願発明は、手話を行っている人物の手指動作を表現した三次元モデルと、その人物の非手指動作を表現した二次元顔テクスチャ画像とを合成する手話CG合成装置及びそのプログラムに関する。
日本国内において、手話を母語とする聴覚障害者の中には、「日本手話」を最も理解しやすい言語とする方がいる。日本手話は、手指の動きだけでなく、視線、口型及び表情といった非手指動作が重要であり、日本語とは違う独自の文法をもつ言語である。
ここで、放送局は、放送番組の日本語音声を日本手話に通訳して欲しいとの要望に応えるため、手話通訳士が通訳を行う手話ニュース等の番組を放送している。だが、手話通訳士が対応できるのは限度があり、自動的に日本手話を翻訳できるシステムの実現が求められている。
日本手話を表現するためには、話者の手指の動きを再現する必要があるため、日本語を日本手話に翻訳して、CG(Computer Graphics)キャラクタの動きに変換して表示させる発明が提案されている(特許文献1,2)。特許文献1,2に記載の発明は、三次元のCGキャラクタの身体モデルで手指の動きを表現している。
これまで研究されてきた手話翻訳器は、図12のように、文字情報(例えば、気象情報)を、顔と体が一体で表現された三次元CGキャラクタが動作する合成映像に変換する。この手話翻訳器は、手指動作及び口型を独立に翻訳することができず、再生時にも手と顔を独立に動かすことができない。
現在までに、手指の動きをCGキャラクタの身体モデルで表現して、翻訳した単語の羅列に従って再生する手話言語表現技術は、完成度が高まっている。この理由としては、予め日本手話の単語を記録するモーションキャプチャの精度が向上したなどの理由により、手指動作の表現力が高くなったと考えられる。
特開2011−175598号公報 特開2013−33316号公報
しかし、従来技術では、手指動作の表現力が高くなったのとは対照的に、顔の表情や口型(非手指動作)の表現力の低さが問題となっている。すなわち、日本手話では、手指動作だけでなく非手指動作も大きな役割を果たしており、CGキャラクタの表現技術が向上したことで、相対的に非手指動作の表現力の低さが目立ってきている。
日本手話のCGに限らず、精緻でリアルな三次元モデルで人間の顔を表現すると、違和感を与えてしまう「不気味の谷」という現象が知られており、顔の不自然さを無くすことが困難である。この点、日本手話に限らず他言語の手話でも同様である。
そこで、手話言語表現技術において、非手指動作(顔及び頭部)を二次元テクスチャで表現し、この非手指動作と、CGキャラクタの動きで表現された手指動作(胴体)とを、不自然さをできるだけ抑えて合成することを検討する。これまでの手話言語表現技術では、顔を含む体全体を1体の三次元CGモデルで表現することが一般的である。多くの場合、手指動作は、高い完成度で違和感がない。一方、非手指動作は、手指動作に比較して、不自然さを少なくするのが困難である。その理由としては、以下の2点が考えられる。
理由1)眉間のしわやほうれい線のように、三次元のCGモデルで再現の難しい細かい部分が感情表現に大きく寄与する。
理由2)人間同士が会話しているとき、通常、聞き手は話者の顔近辺を見る。手話においても同様で、受け手の視線はほとんど話者の顔から離れない。また、多くの場合、個人を特定するために顔を見る。このように、人間にとって顔の重要性が手などの他の部分に比較して大きいため、非手指動作の表現力が厳しく評価される。
以上より、手話をCGキャラクタで再現する場合、非手指動作の顔部分と、手指動作の胴体部分とを独立させてそれぞれの特性に応じた表示方式を採用することが、自然な手話言語表現技術の実現に効果的である。
そこで、本願発明は、前記した問題を解決し、自然な手話CGを生成する手話CG合成装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本願発明に係る手話CG合成装置は、手話における手指動作の順番を表す手指動作情報と、手指動作に対応した非手指動作を行っている人物の二次元顔テクスチャ画像とを用いて、手話CGを合成する手話CG合成装置であって、モデル生成手段と、合成手段と、を備えることを特徴とする。
かかる構成によれば、手話CG合成装置は、モデル生成手段によって、手指動作情報が入力され、入力された手指動作情報を用いた三次元モデリングにより、手指動作を行っている人物の顔部分の位置情報が含まれる三次元モデルを生成する。
また、手話CG合成装置は、合成手段によって、二次元顔テクスチャ画像が入力され、入力された二次元顔テクスチャ画像を、三次元モデルの位置情報に基づいて、三次元モデルの顔部分に合成する。さらに、合成手段は、三次元モデルの位置情報に基づいて、三次元モデルの胴体部分を表す最背面レイヤの前面に、二次元顔テクスチャ画像を表す中間レイヤを重ね、最背面レイヤ及び中間レイヤの前面に、三次元モデルから抽出した手指部分を表す最前面レイヤを重ねる。
このように、手話CG合成装置は、二次元テクスチャで表現された顔部分と、三次元モデルの胴体部分とを正しい位置関係を保った状態で合成するので、非手指動作の表現力を向上させることができる。
本願発明によれば、以下のような優れた効果を奏する。
本願発明に係る手話CG合成装置は、二次元テクスチャで表現された顔部分と、三次元モデルの胴体部分とを正しい位置関係を保った状態で合成する。これによって、手話CG合成装置は、非手指動作の表現力を向上させて、自然な手話CGを生成することができる。
本願発明の各実施形態に係る手話翻訳装置の構成を示すブロック図である。 図1の手話翻訳手段における手話翻訳を示す概念図である。 図1の二次元顔テクスチャ画像生成手段における二次元顔テクスチャ画像の生成を説明する説明図である。 図1の二次元顔テクスチャ画像生成手段における二次元顔テクスチャ画像の生成を説明する説明図である。 図1の二次元顔テクスチャ画像生成手段における二次元顔テクスチャ画像の生成を説明する説明図である。 図1の胴体部分CG生成手段で生成された三次元モデルの概念図である。 図1の顔・胴体合成手段における三次元モデルの合成を示す概念図である。 図1の顔・胴体合成手段で合成された手話画像を説明する説明図である。 図1の手話翻訳装置の動作を示すフローチャートである。 本願発明の第2実施形態において、三次元モデルの合成を示す概念図である。 本願発明の変形例に係る手話翻訳装置の構成を示すブロック図である。 従来技術の概念図である。
以下、本願発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。
(第1実施形態)
図1を参照し、本願発明の第1実施形態に係る手話翻訳装置1について、説明する。
手話翻訳装置1は、CGキャラクタの顔部分を二次元的な画像処理で生成し、胴体部分を三次元CGで生成し、両者を合成する。ここで、顔部分と胴体部分とを別の系統でレンダリングしているために、両者の間に質感や動きの不整合があれば不自然さを生み出す要因となる。
そこで、手話翻訳装置1は、前者の質感の不整合を解消すべく、シームレスに制作した顔部分と胴体部分とをアルファマスクとの積を求めてから重ね合わせることで、ピクセル単位での合成を可能とする。具体的には、手話翻訳装置1は、顔のテクスチャに可能な限り質感が合うように胴体の三次元モデルを生成する。
また、手話翻訳装置1は、後者の動きの不一致を解消すべく、三次元モデルの顔部分の位置情報を、顔・胴体合成手段(合成手段)23にリアルタイムで出力して合成に利用することで、顔部分と胴体部分とを連動させる。
[手話翻訳装置の構成]
以下、手話翻訳装置1の構成を具体的に説明する。
手話翻訳装置1は、入力された文字情報を手話に翻訳するものであり、手話翻訳手段11と、二次元顔テクスチャ画像生成手段13と、手話CG合成装置2とを備える。
手話翻訳手段11は、入力された文字情報から、手話における手指動作の順番を表す手指シーケンス(手指動作情報)と、この手指動作に対応した非手指シーケンス(表情シーケンス、口型シーケンス、視線シーケンス)とを生成するものである。つまり、手話翻訳手段11は、入力された文字情報を、手話動作及び非手指動作に変換する。
文字情報とは、手話翻訳の対象となる音声を文字(テキスト)で表した情報である。図2のように、文字情報は、例えば、気象情報の音声や原稿から生成したテキストである。
手指シーケンスとは、手話で手指を変化させる順番を表した時系列データである。例えば、手指シーケンスは、人間の骨格のような“ボーン”と呼ばれる骨構造の長さや関節の動きを表すBVH形式(モーションキャプチャ形式)のデータである。
表情シーケンスとは、手話で表情を変化させる順番を表した時系列データである。
口型シーケンスとは、手話で口型を変化させる順番を表した時系列データである。
視線シーケンスとは、手話で視線を変化させる順番を表した時系列データである。
ここで、手話翻訳手段11は、下記の参考文献1に記載の手話翻訳技術を用いて、手指動作と独立して表情、口型、視線等の非手指動作も翻訳し、同期制御する。例えば、非手指動作として、手話で「寒い」を表現するとき、眉間にシワをよせるといった寒く、辛そうな表情をする。また、例えば、非手指動作として、手話で「東京」を表すとき、「トウキョウ」と口を動かす。
参考文献1:Margriet Verlinden,“Sign language on the WWW”,Proceedings of 18th International Symposium on Human Factors in Telecommunication (HFT 2001) in Bergen,Norway,5-7 November,2001
そして、手話翻訳手段11は、生成した非手指シーケンスを二次元顔テクスチャ画像生成手段13に出力する。また、手話翻訳手段11は、生成した手指シーケンスを手話CG合成装置2(胴体部分CG生成手段21)に出力する。
二次元顔テクスチャ画像生成手段13は、手話翻訳手段11から入力された非手指シーケンスを用いて、二次元顔テクスチャ画像を生成するものである。つまり、二次元顔テクスチャ画像生成手段13は、表情、口型及び視線のパラメータから、二次元の画像変換により、顔部分のレンダリングを行う。
具体的には、二次元顔テクスチャ画像生成手段13は、図3のように顔を二次元テクスチャで表現した後、図4のように表情変化(例えば、視線の変化)を表現した画像を生成する。例えば、二次元顔テクスチャ画像生成手段13は、下記の参考文献2〜4に記載の表情変化技術を用いることができる。
参考文献2:[online]、顔シェーディング、[平成26年1月15日検索]、インターネット<http://www.nintendo.co.jp/3ds/software/built-in/face/>
参考文献3:[online]、モーションポートレート、[平成26年1月15日検索]、インターネット<http://www.motionportrait.com/>
参考文献4:[online]、Live2D、[平成26年1月15日検索]、インターネット<http://www.live2d.com/>
なお、手話の顔表情は、通常の顔表情と比べて、多少大げさな印象を与えることが多い。このため、二次元顔テクスチャ画像生成手段13は、手話に特化した2Dテクスチャ作成エンジンを用いることで、より自然な手話CGを生成してもよい。
そして、二次元顔テクスチャ画像生成手段13は、表情変化が表現された画像から、アルファマスクを用いて顔領域を切り出して、二次元顔テクスチャ画像を生成する。図5のように、手指動作に対応した非手指動作を表しているため、時刻t=1,2,3…の経過に従って、顔の輪郭や位置が微妙に変化する。従って、二次元顔テクスチャ画像生成手段13は、この変化に対応したアルファマスクを用いて、ハッチングで図示した顔領域を切り出している。このように、二次元顔テクスチャ画像生成手段13は、アルファマスクをテクスチャマッピングに用いるため、顔部分以外の不要な背景を切り捨てることができる。その後、二次元顔テクスチャ画像生成手段13は、切り出した顔領域の画像を、二次元顔テクスチャ画像として、手話CG合成装置2(顔・胴体合成手段23)に出力する。
手話CG合成装置2は、手話翻訳手段11から入力された手指シーケンスと、二次元顔テクスチャ画像生成手段13から入力された二次元顔テクスチャ画像とを用いて、手話CGを合成するものである。図1に示すように、手話CG合成装置2は、胴体部分CG生成手段(モデル生成手段)21と、顔・胴体合成手段(合成手段)23とを備える。
胴体部分CG生成手段21は、手話翻訳手段11からの手指シーケンスを用いた三次元モデリングによって、手指動作を行っている人物の三次元モデルを生成するものである。つまり、胴体部分CG生成手段21は、手指動作を表現するための胴体部分を三次元モデルで再現し、仮想的なカメラ位置から得られる画像をレンダリングする。この三次元モデルには、顔、胴体、手指等の各部分について、仮想三次元空間内の位置情報を有している。そして、胴体部分CG生成手段21は、生成した三次元モデルを顔・胴体合成手段23に出力する。
顔・胴体合成手段23は、胴体部分CG生成手段21から入力された三次元モデルの位置情報に基づいて、二次元顔テクスチャ画像生成手段13からの二次元顔テクスチャ画像を、三次元モデルの顔部分に合成するものである。そして、顔・胴体合成手段23は、二次元顔テクスチャ画像が合成された手話画像を外部に出力する。
<三次元モデルの合成:第1例>
図6〜図8を参照し、顔・胴体合成手段23における三次元モデルの合成を説明する(適宜図1参照)。
図6には、仮想三次元空間90に配置された三次元モデル91と、仮想カメラ92とを図示した。
三次元モデル91は、手指動作を行っている人物の三次元モデルである。図6のように、三次元モデル91は、頭、胴体、手指等の各部分で構成されている。
仮想カメラ92は、CGレンダリング用の仮想カメラである。例えば、仮想カメラ92は、三次元モデル91の胴体部分91aが正面に位置するように、仮想三次元空間90に配置される。
なお、図6では、背景をドットで図示した。
まず、顔・胴体合成手段23は、図7のように、二次元顔テクスチャ画像93が三次元モデル91の胴体部分91aに接合するように、平面に二次元顔テクスチャ画像93が描画された1枚の板オブジェクト94を設定する。つまり、顔・胴体合成手段23は、テクスチャマッピングしたとき、二次元顔テクスチャ画像93と三次元モデル91の胴体部分91aとが違和感なく接続されるように、板オブジェクト94の位置及び大きさを設定する。
板オブジェクト94の設定は、テクスチャの素材となる画像の中で顔部分がどう写っているかに依存する。例えば、顔・胴体合成手段23は、二次元顔テクスチャ画像93の頭頂部から顎までの長さが、胴体部分91aの1/7位になるように、板オブジェクト94の大きさを設定する。この場合、合成後の手話画像は、八頭身の人物を表す。
また、前記したように、三次元モデル91が各部分の位置情報を有している。このため、顔・胴体合成手段23は、三次元モデル91の位置情報に基づいて、二次元顔テクスチャ画像93が三次元モデル91の胴体部分91aに接合するように、板オブジェクト94の位置を設定する。板オブジェクト94は、顔部分の動きに連動するため、その位置を整合させることができる。
そして、顔・胴体合成手段23は、位置及び大きさが設定された板オブジェクト94を三次元モデル91の前面に配置する。これにより、顔・胴体合成手段23は、図8のように、二次元顔テクスチャ画像93と、三次元モデル91の胴体部分91aとを、正しい位置関係を保った状態で合成することができる。図8の手話画像では、連続した手指動作を行っている胴体部分91aに、この手指動作に対応した非手指動作を行っている二次元顔テクスチャ画像93が合成されている。
[手話翻訳装置の動作]
図9を参照し、図1の手話翻訳装置1の動作について、説明する(適宜図1参照)。
手話翻訳装置1は、手話翻訳手段11によって、入力された文字情報から、手指シーケンスと、この手指動作に対応した非手指シーケンス(表情シーケンス、口型シーケンス、視線シーケンス)とを生成する(ステップS1)。
手話翻訳装置1は、二次元顔テクスチャ画像生成手段13によって、ステップS1で生成した非手指シーケンスを用いて、二次元顔テクスチャ画像を生成する(ステップS2)。
手話翻訳装置1は、胴体部分CG生成手段21によって、ステップS1で生成した手指シーケンスを用いて、手指動作を行っている人物の三次元モデルを生成する(ステップS3)。
なお、ステップS2,S3は、並列で処理することができる。
手話翻訳装置1は、顔・胴体合成手段23によって、ステップS3で生成した三次元モデルの位置情報に基づいて、ステップS2で生成した二次元顔テクスチャ画像を、三次元モデルの顔部分に合成する(ステップS4)。
(第2実施形態)
図1に戻り、本願発明の第2実施形態に係る手話翻訳装置1Bについて、第1実施形態と異なる点を説明する。
第2実施形態では、3つのレイヤを合成して手話画像を生成する点が、第1実施形態と異なる。
図1のように、手話翻訳装置1Bは、手話翻訳手段11と、二次元顔テクスチャ画像生成手段13と、手話CG合成装置2Bとを備える。
また、手話CG合成装置2Bは、胴体部分CG生成手段21と、顔・胴体合成手段23Bとを備える。
なお、手話翻訳手段11、二次元顔テクスチャ画像生成手段13及び胴体部分CG生成手段21は、第1実施形態と同様のため、説明を省略する。
<三次元モデルの合成:第2例>
図10を参照し、顔・胴体合成手段23Bにおける三次元モデルの合成を説明する(適宜図1参照)。
図10のように、顔・胴体合成手段23Bは、三次元モデル91の位置情報に基づいて、胴体部分91aを表す最背面レイヤLOの前面に、二次元顔テクスチャ画像93を表す中間レイヤLMを重ね、最背面レイヤLO及び中間レイヤLMの前面に、手指部分91bを表す最前面レイヤLIを重ねるものである。
顔・胴体合成手段23Bは、胴体部分CG生成手段21から入力された三次元モデル91が含まれる最背面レイヤLOを生成する。このとき、顔・胴体合成手段23Bは、三次元モデル91における顔部分91cの位置情報を利用して、中間レイヤLMを重ねるための頭部位置検出マーカMKを、最背面レイヤLOに付加する。三次元モデル91を正面視した際、頭部位置検出マーカMKは、三次元モデル91の顔部分91cを囲う矩形領域の4隅に位置する。
また、顔・胴体合成手段23Bは、二次元顔テクスチャ画像生成手段13からの二次元顔テクスチャ画像93が含まれる中間レイヤLMを生成する。例えば、顔・胴体合成手段23Bは、部位置検出マーカMKで囲われた矩形領域のサイズに合わせて、二次元顔テクスチャ画像93が中央に位置するように矩形状の中間レイヤLMを生成する。そして、顔・胴体合成手段23Bは、部位置検出マーカMKと中間レイヤLMの4隅との位置が一致するように、最背面レイヤLOの前面に中間レイヤLMを重ねる。
ここで、最背面レイヤLOが中間レイヤLMに隠れることがある。このため、顔・胴体合成手段23Bは、手指部分91bが含まれる最前面レイヤLIを生成する。この場合、胴体部分CG生成手段21では、前記した三次元モデル91と同一の形状で、手指部分の色のみを代えた最前面レイヤ用三次元モデル(不図示)を、三次元モデル91と同時にレンダリングしておく。例えば、最前面レイヤ用三次元モデルは、手指部分91bのみを手指の色(例えば、白)、他の部分を胴体の色(例えば、黒)で塗った三次元モデルとなる。そして、顔・胴体合成手段23Bは、最前面レイヤ用三次元モデルの手指部分91bが含まれる最前面レイヤLIを生成する。さらに、顔・胴体合成手段23Bは、三次元モデル91の位置情報に基づいて、最背面レイヤLO及び中間レイヤLMの前面に最前面レイヤLIを重ねる。
[作用・効果]
以上のように、本願発明の第1,2実施形態に係る手話翻訳装置1,1Bは、二次元テクスチャで表現された顔部分と、三次元モデルの胴体部分とを正しい位置関係を保った状態で合成する。これによって、手話翻訳装置1,1Bは、非手指動作の表現力を向上させて、自然な手話CGを生成することができる。
すなわち、手話翻訳装置1,1Bは、顔部分を一旦二次元の画像として表現することで、人間の顔を精緻に表現可能とし、人間の体全体を自然に表現できる。これによって、手話翻訳装置1は、受け手にとって抵抗の少ない手話画像を表示できる(可能性がある)。
また、三次元モデルは、一度製作するとその修正が困難であり、汎用性に乏しい。一方、二次元画像は、精緻な顔表情に限らず、原画像をデフォルメすることや、クリーチャやアニメキャラクタにも適用可能であり、柔軟に修正、加工できる。つまり、手話翻訳装置1,1Bは、二次元画像の顔部分と、三次元モデルの胴体部分とを合成するので、修正が容易なため、手話画像の汎用性が向上する。例えば、手話翻訳装置1,1Bは、受け手の身近な人物の顔画像を入力として、その顔画像に非手指動作を反映させた手話画像を生成することができる。
(変形例)
本願発明に係る手話翻訳装置は、前記した実施形態に限定されず、その趣旨を逸脱しない範囲で変形を加えることができる。
図11のように、手話翻訳装置1Cは、手話翻訳手段11と、二次元顔テクスチャ画像生成手段13と、手話CG合成装置2Cとを備える。
また、手話CG合成装置2Cは、胴体部分CG生成手段21と、顔・胴体合成手段23と、フィルタ手段(第1のフィルタ手段)25と、フィルタ手段(第2のフィルタ手段)27とを備える。
なお、手話翻訳手段11、二次元顔テクスチャ画像生成手段13、胴体部分CG生成手段21及び顔・胴体合成手段23は、第1実施形態と同様のため、説明を省略する。
フィルタ手段25は、胴体部分CG生成手段21から入力された三次元モデルに、一般的なトゥーンフィルタを施すものである。このトゥーンフィルタは、フィルタの対象となる三次元モデルを漫画調に変換するフィルタである。そして、フィルタ手段25は、トゥーンフィルタが施された三次元モデルを、顔・胴体合成手段23に出力する。
フィルタ手段27は、二次元顔テクスチャ画像生成手段13から入力された二次元顔テクスチャ画像に、前記したトゥーンフィルタを施すものである。そして、フィルタ手段27は、トゥーンフィルタが施された二次元顔テクスチャ画像を、顔・胴体合成手段23に出力する。
これによって、手話翻訳装置1Cは、胴体部分と顔部分との立体感を近づけることができ、より自然な手話CGを生成することができる。
なお、トゥーンフィルタは、第1実施形態だけでなく、第2実施形態にも適用することができる。
前記した実施形態では、手話翻訳装置を独立したハードウェアとして説明したが、本願発明は、これに限定されない。例えば、手話翻訳装置は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させる手話翻訳プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
本願発明は、手話翻訳技術として、テレビ、携帯端末、広告などの広い産業で利用することができる。また、本願発明は、CGによる説明員(バーチャルコンシェルジュ)を、より親しみのある表現方法で実現することもできる。
1,1B,1C 手話翻訳装置
11 手話翻訳手段
13 二次元顔テクスチャ画像生成手段
2,2B,2C 手話CG合成装置
21 胴体部分CG生成手段(モデル生成手段)
23,23B 顔・胴体合成手段(合成手段)
25 フィルタ手段(第1のフィルタ手段)
27 フィルタ手段(第2のフィルタ手段)

Claims (4)

  1. 手話における手指動作の順番を表す手指動作情報と、前記手指動作に対応した非手指動作を行っている人物の二次元顔テクスチャ画像とを用いて、手話CGを合成する手話CG合成装置であって、
    前記手指動作情報が入力され、入力された前記手指動作情報を用いた三次元モデリングによって、前記手指動作を行っている人物の顔部分の位置情報が含まれる三次元モデルを生成するモデル生成手段と、
    前記二次元顔テクスチャ画像が入力され、前記三次元モデルの位置情報に基づいて、入力された前記二次元顔テクスチャ画像を、前記三次元モデルの顔部分に合成する合成手段と、
    を備え
    前記合成手段は、前記三次元モデルの位置情報に基づいて、前記三次元モデルの胴体部分を表す最背面レイヤの前面に、前記二次元顔テクスチャ画像を表す中間レイヤを重ね、前記最背面レイヤ及び前記中間レイヤの前面に、前記三次元モデルから抽出した手指部分を表す最前面レイヤを重ねることを特徴とする手話CG合成装置。
  2. 前記モデル生成手段が生成した三次元モデルに、トゥーンフィルタを施す第1のフィルタ手段と、
    入力された前記二次元顔テクスチャ画像に、トゥーンフィルタを施す第2のフィルタ手段と、をさらに備え、
    前記合成手段は、トゥーンフィルタが施された前記二次元顔テクスチャ画像を、トゥーンフィルタが施された前記三次元モデルに合成することを特徴とする請求項1に記載の手話CG合成装置。
  3. 手話における手指動作の順番を表す手指動作情報と、前記手指動作に対応した非手指動作を行っている人物の二次元顔テクスチャ画像とを用いて、手話CGを合成する手話CG合成装置であって、
    前記手指動作情報が入力され、入力された前記手指動作情報を用いた三次元モデリングによって、前記手指動作を行っている人物の顔部分の位置情報が含まれる三次元モデルを生成するモデル生成手段と、
    前記モデル生成手段が生成した三次元モデルに、トゥーンフィルタを施す第1のフィルタ手段と、
    入力された前記二次元顔テクスチャ画像に、トゥーンフィルタを施す第2のフィルタ手段と、
    前記二次元顔テクスチャ画像が入力され、前記三次元モデルの位置情報に基づいて、入力された前記二次元顔テクスチャ画像を、前記三次元モデルの顔部分に合成する合成手段と、
    を備え、
    前記合成手段は、トゥーンフィルタが施された前記二次元顔テクスチャ画像を、トゥーンフィルタが施された前記三次元モデルに合成することを特徴とする手話CG合成装置。
  4. コンピュータを、請求項1から請求項の何れか一項に記載の手話CG合成装置として機能させるための手話CG合成プログラム。
JP2014012246A 2014-01-27 2014-01-27 手話cg合成装置及びそのプログラム Active JP6291265B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014012246A JP6291265B2 (ja) 2014-01-27 2014-01-27 手話cg合成装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014012246A JP6291265B2 (ja) 2014-01-27 2014-01-27 手話cg合成装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2015141441A JP2015141441A (ja) 2015-08-03
JP6291265B2 true JP6291265B2 (ja) 2018-03-14

Family

ID=53771785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014012246A Active JP6291265B2 (ja) 2014-01-27 2014-01-27 手話cg合成装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6291265B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102098734B1 (ko) * 2019-08-06 2020-04-08 전자부품연구원 대화 상대의 외형을 반영한 수어 영상 제공 방법, 장치 및 단말

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113496168B (zh) * 2020-04-02 2023-07-25 百度在线网络技术(北京)有限公司 手语数据采集方法、设备、存储介质
JP2023082998A (ja) * 2021-12-03 2023-06-15 株式会社アイシン 表示制御装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184370A (ja) * 1997-04-17 1999-07-09 Matsushita Electric Ind Co Ltd 手話情報提示装置
JP2004178036A (ja) * 2002-11-25 2004-06-24 Hitachi Ltd 遠隔者の映像を伴う仮想空間の提示装置
JP2011175598A (ja) * 2010-02-25 2011-09-08 Nippon Hoso Kyokai <Nhk> 手話アニメーション生成装置及び手話アニメーション生成プログラム
JP2013033316A (ja) * 2011-08-01 2013-02-14 Nippon Hoso Kyokai <Nhk> Cgキャラクタ生成装置及びcgキャラクタ生成プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102098734B1 (ko) * 2019-08-06 2020-04-08 전자부품연구원 대화 상대의 외형을 반영한 수어 영상 제공 방법, 장치 및 단말
US11482134B2 (en) 2019-08-06 2022-10-25 Korea Electronics Technology Institute Method, apparatus, and terminal for providing sign language video reflecting appearance of conversation partner

Also Published As

Publication number Publication date
JP2015141441A (ja) 2015-08-03

Similar Documents

Publication Publication Date Title
US10540817B2 (en) System and method for creating a full head 3D morphable model
JP2021193599A (ja) 仮想オブジェクトのフィギュア合成方法、装置、電子機器、記憶媒体
JP7504968B2 (ja) アバター表示装置、アバター生成装置及びプログラム
CN106157359B (zh) 一种虚拟场景体验系统的设计方法
CN114615486B (zh) 用于生成合成流的方法、系统和计算机可读存储介质
CN113272870A (zh) 用于逼真的实时人像动画的系统和方法
US11003898B2 (en) Creating videos with facial expressions
US20100007665A1 (en) Do-It-Yourself Photo Realistic Talking Head Creation System and Method
TW517210B (en) A method for generating speaking expression variation without distortion in 2D picture using polygon computation
JP2010154422A (ja) 画像処理装置
CN115004236A (zh) 来自音频的照片级逼真说话面部
JP6291265B2 (ja) 手話cg合成装置及びそのプログラム
CN115797851A (zh) 一种动漫视频处理方法及系统
JP3538263B2 (ja) 画像生成方法
JP2017111719A (ja) 映像処理装置、映像処理方法、及び映像処理プログラム
JP2020064592A (ja) 画像生成装置、画像生成システム、画像生成方法、およびプログラム
JP2014071871A (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
CN116524087A (zh) 融合神经辐射场的音频驱动的说话人视频合成方法及系统
KR20150001580A (ko) 실제 객체를 증강하는 방법, 장치 및 컴퓨터 프로그램 제품
JP7161200B2 (ja) カラオケ演出システム
JPH11149285A (ja) 映像音響システム
JP5898036B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
KR102649818B1 (ko) 3d 립싱크 비디오 생성 장치 및 방법
US10139780B2 (en) Motion communication system and method
WO2022202700A1 (ja) 画像を3次元的に表示するための方法、プログラムおよびシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180209

R150 Certificate of patent or registration of utility model

Ref document number: 6291265

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250