JP2002133445A - 画像処理装置、画像処理方法および情報記憶媒体 - Google Patents
画像処理装置、画像処理方法および情報記憶媒体Info
- Publication number
- JP2002133445A JP2002133445A JP2000330425A JP2000330425A JP2002133445A JP 2002133445 A JP2002133445 A JP 2002133445A JP 2000330425 A JP2000330425 A JP 2000330425A JP 2000330425 A JP2000330425 A JP 2000330425A JP 2002133445 A JP2002133445 A JP 2002133445A
- Authority
- JP
- Japan
- Prior art keywords
- data
- shape
- mouth
- basic
- weighting coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
軽減することができる画像処理装置、画像処理方法およ
び情報記憶媒体を提供すること。 【解決手段】 ゲーム演算部110内の頭部形状算出部
114は、データ格納部120から複数の基本形状に対
応する基本形状データ130の各座標データと、これら
を合成する際の混合の重み付け係数としてのブレンド率
データ126を読み出して、これら2種類のデータを用
いた積和演算を行うことにより、口を動かした状態に対
応するポリゴンの頂点座標が算出される。口を上下、左
右、前後に開いた状態に対する複数の基本形状を用意し
ておくことにより、簡単に任意の口形状を再現すること
ができる。
Description
いて出力音声に合わせてキャラクタの口形状を動かす画
像処理装置、画像処理方法および情報記憶媒体に関す
る。
おいては、登場人物の表情をリアルに表現するために、
登場人物の音声に合わせて口の動きを描く必要がある。
例えば、アニメーション画像の場合には、口の動きを表
現する手法として、原画の作成者が、そのアニメーショ
ン画像の表示と同時に出力される音声を耳で聞いて、聞
き取った音声を「あ」、「い」、「う」、「え」、
「お」等の母音に振り分けて、手作業でそれらの母音に
対応するキーフレームの画像を作成していた。したがっ
て、多くのキーポーズ(唇形状のバリエーション)を用
意することにより、表情の豊かな登場人物の画像を実現
していた。
作業によって登場人物の口やその周辺の形状を決定する
手法では、作業者の経験や勘などの各作業者毎の熟練度
や能力に左右されるため、作業効率が悪く、少なくとも
各キーフレーム毎に口形状を決定するために必要な画像
データが作成されることになるため、自然な表情の顔形
状の画像を生成しようとすると、この生成に使用される
データ量が膨大になるという問題があった。また、隣接
するキーフレームの間隔や隣接する口形状の組合せが複
雑になるため、各キーフレームの間に挿入される各フレ
ームに対応する口形状を求める演算処理の負担が大きい
という問題があった。
たものであり、その目的は、データ量の削減が可能であ
り、処理の負担を軽減することができる画像処理装置、
画像処理方法および情報記憶媒体を提供することにあ
る。
ために、本発明の画像処理装置は、基本形状データ格納
手段、重み付け係数格納手段、口形状算出手段、画像生
成手段を備えている。基本形状データ格納手段は、口お
よびその周辺に関する複数の基本形状を特定する基本形
状データを格納する。重み付け係数格納手段は、複数の
基本形状を合成する際の重み付け係数の値を示す複数の
重み付け係数データを格納する。口形状算出手段は、基
本形状データと重み付け係数データとを用いて複数の基
本形状を合成することにより、口およびその周辺の形状
を算出する。画像生成手段は、口形状算出手段によって
算出された口およびその周辺の形状が反映された画像を
生成する。あらかじめ特徴のある複数の基本形状を用意
しておいて、重み付け係数データを用いてこれらを合成
することにより口形状が決まるため、重み付けデータの
内容を変えるだけで口形状を変化させることができ、口
を動かすために必要なデータ量を削減することができる
とともに、処理の負担を軽減することができる。
は、画像生成手段による画像の生成間隔に対応して読み
出される複数組の重み付け係数データを格納しておくこ
とが望ましい。画像の生成間隔に合わせて重み付け係数
データを読み出して口形状が決定され、この決定された
口形状が各画像の生成に反映されるため、画像の生成間
隔に合わせて口形状を自然に動かすことができる。
準形状の他にこの基準形状に対する差分情報で特定され
る複数の参照形状が含まれている場合に、複数の基本形
状データに、基準形状を特定するために必要な第1の座
標データと、複数の参照形状を特定するために必要な第
2の座標データと第1の座標データとの差分を示す差分
座標データとを含ませることが望ましい。一の基準形状
に対応する第1の座標データと、それ以外の参照形状に
対応する差分データとを用いることにより、複数の基本
形状のぞれぞれの座標データを格納しておく場合に比べ
てデータ量を削減することができる。
横に大きく開いた状態に対応する第1の形態と、口を上
下に大きく開いた状態に対応する第2の形態と、口を前
に突き出した状態に対応する第3の形態を含ませておく
ことが望ましい。これらの各形態を組み合わせることに
より、任意の複雑な口形状を実現することができる。
の少なくとも一に対応して設けられた補正データを補正
データ格納手段に格納しておいて、口形状算出手段によ
って、重み付け係数データによって示される重み付けの
値をこの補正データを用いて変更して口およびその周辺
の形状の算出を行うことが望ましい。重み付け係数が同
じであっても補正データの内容を変えるだけで口形状を
変化させることができるため、表情に変化を持たせるこ
とができる。
容に応じた値を設定しておくことにより、補正データの
値を可変に設定することにより、感情を表現することが
望ましい。一般には感情の種類や程度に応じて口形状が
変化するため、各感情に対応して現れれる口形状の変化
の様子を上述した補正データの値を可変して表すことに
より、感情を表現することが可能になる。
際に発声された音声を周波数分析して得られた複数の周
波数成分毎の音圧レベルに基づいて生成することが望ま
しい。実際に発声した音声に対する周波数分析を行うこ
とにより、自動的に重み付け係数データを生成すること
ができるため、データ生成に要する手間や時間を大幅に
低減することができる。
その周辺に関する複数の基本形状を特定する基本形状デ
ータを読み出す第1のステップと、複数の基本形状を合
成する際の重み付け係数の値を示す複数の重み付け係数
データを読み出す第2のステップと、基本形状データと
重み付け係数データを用いて複数の基本形状を合成する
ことにより口およびその周辺の形状を算出する第3のス
テップと、第3のステップにおいて算出された口および
その周辺の形状が反映された画像を生成する第4のステ
ップとを有している。また、本発明の情報記憶媒体は、
これらの各ステップを実行するプログラムを含んでい
る。
り、あるいは本発明の情報記憶媒体に格納されたプログ
ラムを実行することにより、複数の基本形状を用意して
おいて、重み付け係数データを用いてこれらを合成する
ことにより口形状が決まるため、重み付けデータの内容
を変えるだけで口形状を変化させることができ、口を動
かすために必要なデータ量を削減することができるとと
もに、処理の負担を軽減することができる。
の少なくとも一に対応して設けられた補正データを読み
出す第5のステップを追加するとともに、第3のステッ
プで行われる合成動作において、重み付け係数データに
よって示される重み付けの値をこの補正データを用いて
変更することが望ましい。重み付け係数が同じであって
も補正データの内容を変えるだけで口形状を変化させる
ことができるため、表情に変化を持たせることができ
る。
態のゲーム装置について、図面を参照しながら詳細に説
明する。図1は、一実施形態のゲーム装置の構成を示す
図である。図1に示すように、本実施形態のゲーム装置
は、CD−ROM190に記憶されているゲームプログ
ラムを実行することにより所定のゲーム処理を行ってゲ
ーム画面の映像信号や各種の効果音等の音声信号を出力
するゲーム装置本体100と、このゲーム装置本体10
0に接続されるテレビモニタ装置200と、プレーヤが
手元で操作するコントローラ300とを含んで構成され
ている。
体100から入力される映像信号に基づいてゲーム画面
をディスプレイ画面上に表示する表示部210と、ゲー
ム装置本体100から入力される音声信号を音声に変換
するスピーカ220とを備えている。表示部210は、
例えばCRT(陰極線管)やLCD(液晶表示装置)や
液晶プロジェクタ等により構成される。また、コントロ
ーラ300は、任意の方向を指し示す際に押下される十
字キーや、必要に応じて選択的に押下される複数の押し
ボタンスイッチとを備えている。
10、データ格納部120、画像生成部140、映像出
力部150、音声出力部160、ディスク読取部170
を備えている。ゲーム演算部110は、ゲームに登場す
るキャラクタの口形状を出力音声に合わせて動かす演算
処理やその他のゲーム演算を行う。ゲーム演算部110
は、例えばCPU、ROMおよびRAMを用いてゲーム
プログラムを実行することにより実現される。
出部112および頭部形状算出部114を含んでいる。
音声データ読出部112は、登場キャラクタの発声に対
応する音声データの読み出しを行う。頭部形状算出部1
14は、登場キャラクタの口形状をそのときの発声音声
に合わせて計算する。口形状に関する演算処理について
は後述する。
0によるゲーム演算に必要な各種のデータを格納するも
のであり、例えばRAMによって実現されている。デー
タ格納部120には、ポリゴンデータ122、テクスチ
ャデータ124、ブレンド率データ126、補正データ
128、基本形状データ130、音声データ132が格
納されている。
る各種の三次元オブジェクトを構成する各ポリゴンの頂
点座標データである。テクスチャデータ124は、各ポ
リゴンに貼り付けるテクスチャの内容を示すデータであ
る。音声データ132は、登場キャラクタの発声音声を
特定するために必要なデータであり、ゲーム演算部11
0内の音声データ読出部112によって読み出される。
なお、データ格納部120に格納されているそれ以外の
ブレンド率データ126、補正データ128、基本形状
データ130の詳細については後述する。
による演算結果に基づいて、三次元ゲーム空間に対応し
た三次元画像の画像データを表示画素単位で計算する。
この画像生成部140は、透視投影変換部142、テク
スチャマッピング部144、描画メモリ146を含んで
構成されている。
10によって設定された所定の視点位置を基準とした透
視投影変換を行う。これにより、仮想的な三次元ゲーム
空間内に配置された三次元オブジェクトを視点位置から
見た二次元画像(擬似三次元画像)が得られる。テクス
チャマッピング部144は、透視投影変換部142によ
って得られた二次元画像に含まれる各ポリゴンにテクス
チャの画像を対応させるテクスチャマッピング処理およ
びシェーディング処理を行う。テクスチャマッピング処
理およびシェーディング処理が行われた後の二次元画像
は描画メモリ146に格納される。
よって生成されて描画メモリ146に格納された画像デ
ータを走査順に読み出してNTSC信号に変換すること
により、テレビモニタ装置200の表示部210に向け
て映像信号を出力する。また、音声出力部160は、ゲ
ーム演算部110内の音声データ読出部112によって
読み出された音声データをアナログの音声に変換して、
テレビモニタ装置200内のスピーカ220に向けて出
力する。
CD−ROM190に記憶されている各種のデータやゲ
ームプログラムを読み取るためのものである。CD−R
OM190には、ゲームに登場する三次元あるいは二次
元の各種のオブジェクトを特定するために必要な画像デ
ータ、ゲームに登場するキャラクタが発声する音声を生
成するために必要な音声データ、一連のゲーム処理を行
うために必要なゲームプログラム等が記憶されている。
上述したポリゴンデータ122、テクスチャデータ12
4、ブレンド率データ126、補正データ128、基本
形状データ130、音声データ132のそれぞれは、ゲ
ーム装置本体100の電源スイッチ(図示せず)が投入
された際、あるいは電源スイッチ投入後に新たなCD−
ROM190がディスク読取部170に装填され、ゲー
ムの進行に伴ってステージ等を変更する際に、CD−R
OM190から読み出されてデータ格納部120に格納
される。また、ゲーム装置本体100の電源スイッチ
(図示せず)が投入された際に、CD−ROM190に
記憶されているゲームプログラムが読み出されて実行さ
れ、ゲーム演算部110によるゲーム処理が開始され
る。
手段に、データ格納部120が基本形状データ格納手
段、重み付け係数格納手段、補正データ格納手段に、画
像生成部140が画像生成手段にそれぞれ対応する。本
実施形態のゲーム装置はこのような構成を有しており、
次に、登場キャラクタの口形状を動かす動作を説明す
る。
を動かすために、4つの口形状に対応した4種類の基本
形状が用意されており、それらの基本形状を所定の重み
付け係数を用いて合成することにより、任意の口形状を
実現している。図2〜図5は、任意の口形状を算出する
ために用いられる基本形状を示す図である。図2
(A)、(B)には、口を閉じた場合の頭部の形態が示
されている。また、図3(A)、(B)には口を上下に
大きく開けた場合の頭部の形態が示されている。図4
(A)、(B)には口を左右に大きく広げた場合の頭部
の形態が示されている。図5(A)、(B)には、口を
前に突き出した場合の頭部の形態が示されている。
するために用いられる基本形状データの具体例を示す図
である。同図において、「形状データ1」が図2に示し
た口を閉じた状態に、「形状データ2」が図3に示した
口を上下に大きく開けた状態に、「形状データ3」が図
4に示した口を左右に大きく広げた状態に、「形状デー
タ4」が図5に示した口を前に突き出した状態にそれぞ
れ対応している。
クタの頭部に対応する三次元オブジェクトを構成する各
ポリゴンの頂点座標を示しており、1から順番に通し番
号が付されている。例えば、図7に示すような複数のポ
リゴンによって頭部の三次元オブジェクトが構成されて
いる。
データには、図6に示したように、4種類の基本形状を
特定するために必要な各ポリゴンの頂点座標が含まれて
いる。なお、本実施形態では、4種類の基本形状のそれ
ぞれに対応する各頂点座標のデータを格納する代わり
に、一の基本形状(基準形状)については各頂点座標の
データを格納し、それ以外の3つの基本形状(参照形
状)についてはこの基準形状との差分値で示される各頂
点座標のデータを格納しており、データ量の削減を図っ
ている。
状データ1を基準としたときの形状データ2を差分値で
示したものである。例えば、頂点1に対応する形状デー
タ1の座標値をW11(=(x11,y11,z11))、形状
データ2の座標値をW21(=(x21,y21,z21))と
すると、形状データ2Aの差分座標値W21’はW21−W
11(=(x21−x11(=x21’),y21−y11(=y2
1’),z21−z11(=z21’)))となる。「形状デ
ータ3A」、「形状データ4A」についても同様であ
り、基準形状に対して動きの少ない部位の頂点座標につ
いては、この差分座標値が0に近い値となる。
毎)に口形状を動かすために行うポリゴン座標の修正処
理の動作手順を示す流れ図である。まず、ゲーム演算部
110内の頭部形状算出部114は、口形状を動かすキ
ャラクタの三次元オブジェクトに対応するブレンド率デ
ータを一組分取得する(ステップ100)。
率の内容を示す図であり、データ格納部120に格納さ
れたブレンド率データ126の具体例が示されている。
図9において、「フレーム」は1/60秒間隔で表示さ
れる各表示フレームを示している。上述したステップ1
00では、まずフレーム1に対応させて格納されている
一組のブレンド率R11、R21、R31、R41が読み出され
る。
ブジェクトの一の頂点に対応する4種類の基本形状デー
タをデータ格納部120から取得する(ステップ10
1)。例えば、まず、図6に示した頂点1に対応した4
種類の形状データ1、2A、3A、4Aが読み出され
る。
101で取得した4種類の形状データのそれぞれに、ス
テップ100で取得した各ブレンド率を乗算する(ステ
ップ102)。上述した頂点1に対応する基本形状デー
タとフレーム1に対応するブレンド率を例にとると、 R11×W11 R21×W21’ R31×W31’ R41×W41’ で示されるそれぞれの乗算処理が行われる。
つの乗算値を加算する(ステップ103)。上述した例
では、R11×W11+R21×W21’+R31×W31’+R41
×W41’(=T)の演算が行われる。この演算によって
得られる加算値Tは、口形状を動かした場合の着目頂点
の座標そのものを示している。例えば、ブレンド率とし
てR11=1、R21=1、R31=0、R41=0が設定され
ている場合には、 T=1×W11+1×W21’ =W11+(W21−W11) =W21 となる。すなわち、図3に示した基本形状そのものの口
形状に対応した頂点座標が得られる。また、ブレンド率
R11、R21、R31、R41を0や1以外の中間値に設定す
ることにより、図3〜図5に示した3種類の基本形状を
合成した頭部形状に対応した頂点座標が得られる。
の頂点の座標が得られると、頭部形状算出部114は、
この座標値を、描画処理に必要な他の情報とともに画像
生成部140に送る(ステップ104)。その後、頭部
形状算出部114は、三次元オブジェクトの全ての頂点
に対して処理が終了したか否かを判定する(ステップ1
05)。例えば、頂点1だけについて処理が終了した場
合には否定判断が行われ、2番目以降の各頂点について
上述したステップ101以降の処理が繰り返される。ま
た、全ての頂点について処理が終了した場合には、ステ
ップ105の判定において肯定判断が行われ、次に、画
像生成部140による画像の生成処理が行われて、着目
しているフレームの画像がテレビモニタ装置200の表
示部210に表示される(ステップ106)。このよう
にして、一のフレームに対応する表示が行われた後、再
びステップ100に戻って、次のフレームに対応する処
理が開始される。
は、複数の基本形状の各頂点座標を示す基本形状データ
を用意しておいて、ブレンド率(重み付け係数)を用い
てこれらを合成することにより任意の口形状を設定する
ことができる。特に、基本形状データは、キャラクタの
頭部形状に合わせて固定的に用意されたものを用いるこ
とができ、各表示フレームに対応した一組のブレンド率
を用意しておくだけで任意の口形状を実現することがで
きるため、口形状を動かすために必要なデータ量を削減
することができる。また、ブレンド率の内容を可変する
ことにより、複雑な口形状を容易に実現することができ
るため、ゲーム演算部110における処理の負担を軽減
することができる。
法によって実際に生成した画像の具体例を示す図であ
る。図10は、図2に示した基本形状に対応した頭部画
像であり、ブレンド率の値を、R11=1、R21=0、R
31=0、R41=0とした場合に対応している。図11
は、図3に示した基本形状に対応した頭部画像であり、
ブレンド率の値を、R11=1、R21=1、R31=0、R
41=0とした場合に対応している。図12は、図4に示
した基本形状に対応した頭部画像であり、ブレンド率の
値を、R11=1、R21=0、R31=1、R41=0とした
場合に対応している。図13は、図5に示した基本形状
に対応した頭部画像であり、ブレンド率の値を、R11=
1、R21=0、R31=0、R41=1とした場合に対応し
ている。
の口形状を表現した頭部画像であり、ブレンド率の値
を、R11=1、R21=0.3、R31=0.4、R41=
0.5とした場合に対応している。図15は、「ムゥ」
と発声した場合の口形状を表現した頭部画像であり、ブ
レンド率の値を、R11=1、R21=0.1、R31=0.
2、R41=1とした場合に対応している。図16は、
「フォ」と発声した場合の口形状を表現した頭部画像で
あり、ブレンド率の値を、R11=1、R21=0.6、R
31=0、R41=1とした場合に対応している。
を用いて合成することにより、自然な口形状を有する画
像を生成することができる。ところで、上述した口形状
の設定に用いられるブレンド率データは、登場キャラク
タの発声音声に合わせて各値が設定されるが、例えば、
同じ言葉を発声した場合であっても、登場キャラクタの
感情等によっては、口形状を変化させて臨場感を持たせ
ることが望ましい。例えば、ゲームの進行内容によって
は、同じ言葉を発声する場合であっても、登場キャラク
タが怒っている設定がなされている場合や、悲しんだり
困ったりしている設定がなされている場合では、異なる
口形状を設定する方がリアルなゲーム演出が可能にな
る。あるいは、ゲーム開発時等において、上述した一連
の処理によって実現した口形状の動きを、この口形状に
対応して出力される音声を聞きながら確認したときに、
多少の不自然さが残るような場合に、口形状を補正する
必要がある。データ格納部120に格納された補正デー
タ128は、このような場合に、必要に応じて口形状を
変形するために用意されたものである。
る。図17に示すように、補正データは、各フレーム毎
に用意されている。例えば、フレーム1に着目した場合
には、4つの補正データH11、H21、H31、H41が用意
されている。この中で、補正データH11は、ブレンド率
データR11に対応して設けられている。同様に、補正デ
ータH21はブレンド率データR21に、補正データH31は
ブレンド率データR31に、補正データH41はブレンド率
データR41にそれぞれ対応して設けられている。
ることにより、補正データを用いた口形状の設定処理を
行うことができる。具体的には、図8に示したステップ
100の処理を、ブレンド率データと補正データを一組
取得するステップ100Aの処理に置き換えるととも
に、ステップ102の処理を、4種類の形状データのそ
れぞれにブレンド率データと補正データとを乗算するス
テップ102Aの処理に置き換える。
ータと、図17に示したフレーム1に対応するブレンド
率データおよび補正データを例にとると、上述したステ
ップ102Aにおいて、 H11×R11×W11 H21×R21×W21’ H31×R31×W31’ H41×R41×W41’ で示される各乗算処理が行われる。そして、次のステッ
プ103において、これら4つの乗算結果が加算され
る。
等を単独で用いる代わりに、各ブレンド率データR11等
に補正データH11等を乗算することにより、発声する言
葉が同じである場合には唯一のブレンド値を対応させる
ことができるため、口形状を動かすために用いられるブ
レンド率データの作成が容易になるとともに、各ブレン
ド率データに乗算する補正データの内容を変えることに
より口形状の補正が可能になる。
するとともに、横方向と前方向に対応する動きを抑制す
ることにより、登場キャラクタが怒っている表情を表現
することができる。したがって、図3に示した基本形状
に対応するブレンド率データに乗算される補正データ
(フレーム1については補正データH21)を1よりも大
きな値に設定し、図4および図5に示した基本形状に対
応するブレンド率データに乗算される補正データ(フレ
ーム1については補正データH31、H41)を1より若干
小さな値に設定することにより、怒ったときの口形状を
実現することができる。なお、補正データH11の値はほ
ぼ1に設定される。
とともに、上下方向の動きを抑制することにより、登場
キャラクタが悲しんでいる表情を表現することができ
る。したがって、図3に示した基本形状に対応するブレ
ンド率データに乗算される補正データ(フレーム1につ
いては補正データH21)を1よりも小さな値に設定する
とともに、図4に示した基本形状に対応するブレンド率
データに乗算される補正データ(フレーム1については
補正データH31)を1より大きな値に設定することによ
り、悲しんでいる口形状を実現することができる。な
お、補正データH11、H41の値はほぼ1に設定される。
て実際に生成した画像の具体例を示す図である。図18
は、補正前の頭部画像であり、ブレンド率データの値
を、R11=1、R21=0.928865、R31=1.3
7175、R41=0.902236とした場合に対応し
ている。また、図19は怒っている口形状を表現するた
めに、補正データの値を、H11=1、H21=1.25、
H31=0.25、H41=0.3とした場合に対応してい
る。これらの図に示すように、補正データを適切な値に
設定することにより、ブレンド率データを変更すること
なく、怒っている場合の口形状を再現することができ
る。
れるブレンド率データは、実際に任意の台詞等を発声し
た音声を周波数分析することにより、簡単に生成するこ
とができる。次に、ブレンド率データを生成する具体的
な手法について説明する。図20は、ブレンド率データ
生成装置の構成を示す図である。図20に示すブレンド
率生成装置400は、アナログ−デジタル(A/D)変
換部410、周波数分析部412、ブレンド率データ生
成部414を含んで構成されている。
ら出力されるアナログの音声信号が入力され、この音声
信号を所定のサンプリング周波数でサンプリングするこ
とにより、所定間隔でデジタルの音声データを出力す
る。周波数分析部412は、A/D変換部410から入
力される音声データに基づいて、入力音声の周波数分析
を行う。例えば、周波数分析部412は、可聴周波数帯
域を64分割し、それぞれの分割領域毎に入力音声の音
圧レベルを検出する。
分析部412による周波数分析結果に基づいて、頭部に
含まれる口およびその周辺の形状を決定するために必要
な口形状パラメータの値を設定する。例えば、ブレンド
率データを生成するために、以下に示す3つの口形状パ
ラメータPa、Pb、Peが用いられる。
応関係を示す図である。パラメータPaは、上唇位置p
1の上方向の変化量を示している。パラメータPbは、
上唇位置p1の前方向の変化量を示している。パラメー
タPeは、口角位置p4の横方向の変化量を示してい
る。
結果を示す図である。図22は母音「ア」を発声した場
合の周波数分析結果を、図23は母音「イ」を発声した
場合の周波数分析結果を、図24は母音「ウ」を発声し
た場合の周波数分析結果をそれぞれ示している。これら
の図において、横軸が周波数に対応しており、ほぼ可聴
帯域を64分割した場合の各周波数帯域毎の音声レベル
が示されている。
の母音「ア」、「イ」、「ウ」を発声したときの周波数
分布をみると、特徴的な変化の様子を示す3つの山が存
在することがわかる。これら3つの山が存在する周波数
帯域を低域側から順に領域A、B、Cとする。
数分布をみると、領域Aおよび領域Bに対応する音声レ
ベルが大きく、領域Cに対応する音声レベルが小さいこ
とがわかる。また、図22に示した母音「イ」の周波数
分布をみると、領域Aおよび領域Cに対応する音声レベ
ルが大きく、領域Bに対応する音声レベルが小さいこと
がわかる。さらに、図24に示した母音「ウ」の周波数
分布をみると、領域Aに対応する音声レベルが非常に大
きく、領域Bおよび領域Cに対応する音声レベルが小さ
いことがわかる。
よると、各母音は、3つの周波数帯域A、B、Cの各音
圧レベルが互いに異なる傾向を示しているため、各音圧
レベルの値を用いて上唇の位置、下唇の位置、口角部の
横方向位置のそれぞれを求める計算式を定義することが
できれば、任意の音に対応する各周波数帯域の音圧レベ
ルの値に基づいて上唇の位置、下唇の位置、口角部の横
方向位置を計算し、これにより口形状を決定することが
できることになる。
24に示した3つの周波数帯域の音圧レベルを低域側か
ら順番にL1、L2、L3としたときに、ブレンド率デ
ータ生成部414によって、上述した3つのパラメータ
Pa、Pb、Peの値を以下の関係式を用いて計算す
る。なお、各音圧レベルL1、L2、L3は、それぞれ
の周波数帯域に含まれる64分割領域毎の音圧レベルの
値を累積することにより求めることができるが、この累
積値の代わりに平均値を用いるようにしてもよい。
Pa:図21に示す上唇位置p1の上方向の変化量を示
すパラメータPaは、 Pa=A×L2 …(1) の関係式を用いて計算することができる。ここで、Aは
適当な係数であり、例えばA=0.5に設定されてい
る。
Pb:図21に示す上唇位置p1の前方向の変化量を示
すパラメータPbは、 Pb=B×L1−C×L2−D×L3 …(2) の関係式を用いて計算することができる。ここで、B、
C、Dは適当な係数であり、例えばB=1.0、C=
1.0、D=1.0に設定されている。
Pe:図21に示す口角位置p4の横方向の変化量を示
すパラメータPeは、 Pe=I×L3−J×L1 …(3) の関係式を用いて計算することができる。ここで、I、
Jは適当な係数であり、例えばI=3.0、J=2.0
に設定されている。
方向の変化量を示すパラメータであるため、口を上下に
大きく開いた口形状(例えば図3(A)、(B)に示し
た口形状)をこのパラメータの値が大きな場合に対応さ
せる。例えば、口形状パラメータPaを正規化したパラ
メータPa’を考えた場合に、この値が1の場合に、図
3(A)、(B)に示した口形状が設定されるものとす
る。
方向の変化量を示すパラメータであるため、口を前に大
きく突き出した口形状(例えば図5(A)、(B)に示
した口形状)をこのパラメータの値が大きな場合に対応
させる。例えば、口形状パラメータPbを正規化したパ
ラメータPb’を考えた場合に、この値が1の場合に、
図5(A)、(B)に示した口形状が設定されるものと
する。
向の変化量を示すパラメータであるため、口を横に大き
く開いた口形状(例えば図4(A)、(B)に示した口
形状)をこのパラメータの値が大きな場合に対応させ
る。例えば、口形状パラメータPeを正規化したパラメ
ータPe’を考えた場合に、この値が1の場合に、図4
(A)、(B)に示した口形状が設定されるものとす
る。
Pb’、Pe’のそれぞれに、代表的な口形状を対応さ
せておいて、入力音声に対応して実際にこれら3つのパ
ラメータの値が計算されたときに、各パラメータの値を
重み付け係数として考慮した画像の合成を行うことによ
り、任意の口形状を設定することができる。
点をQとする。図2(A)、(B)に示した口を閉じた
状態に対応する頂点Qの位置ベクトルをB、図3
(A)、(B)に示した口を上下に大きく開いた状態に
対応する頂点Qの位置ベクトルをXa、図4(A)、
(B)に示した口を横に大きく開いた状態に対応する頂
点Qの位置ベクトルをXe、図5(A)、(B)に示し
た口を前に大きく突き出した状態に対応する頂点Qの位
置ベクトルをXbと定義する。
を用いると、入力音声に対応させて口形状を変化させた
後の頂点Qの位置ベクトルは、 Pa’・Xa+Pe’・Xe+Pb’・Xb の式を使って計算することができる。ところで、本実施
形態では、基準形状に対する差分値を用いて任意の口形
状の演算を行っている。上述した式を変形して、 Pa’・Xa+Pe’・Xe+Pb’・Xb=Pa’・
(B+(Xa−B))+Pe’・(B−(Xe−B))
+Pb’・(B−(Xb−B))=(Pa’+Pe’+
Pb’)B+Pa’・(Xa−B)+Pe’・(Xe−
B)+Pb’・(Xb−B) を得る。したがって、この式に用いられている各ベクト
ルの4つの係数(Pa’+Pe’+Pb’)、Pa’、
Pe’、Pb’をブレンド率データR1m、R2m、R4m、
R3m(フレームmの場合)として用いることができる。
なお、上述したブレンド率データの生成方法は一例であ
って、実際にはこのようにして生成された各ブレンド率
データに対して所定の固定値を加算したり、乗算したり
して加工した結果を用いることが考えられる。したがっ
て、基本形状に対応するブレンド率データR1mはそれ以
外の3つのブレンド率データR2m、R4m、R3mの値を合
計した結果と必ずしも一致させる必要はなく、適宜これ
らの関係を変更してもよい。
ものではなく、本発明の要旨の範囲内で種々の変形実施
が可能である。上述した実施形態では、登場キャラクタ
の三次元オブジェクトの口形状を動かす場合について説
明したが、登場キャラクタに瞼の開閉動作を同時に行わ
せるようにしてもよい。この場合には、目の周りの所定
範囲の頂点について、上述した口形状を動かす場合と同
等の処理を行えばよい。すなわち、瞼を閉じた第1の基
本形状と瞼を開いた第2の基本形状の各座標データを基
本形状データ130に含ませておくとともに、これら2
つの基本形状を合成するためのブレンド率をブレンド率
データ126に含ませておく。頭部形状算出部114
は、瞼についても基本形状データとブレンド率データの
積和演算を行うことにより、目の周辺について各頂点座
標を算出する。この算出結果も用いて画像生成部140
による画像生成を行うことにより、フレーム単位で目の
開閉状態が変化する画像を表示することが可能になる。
同様に、瞼に関するブレンド率データ126に対応する
補正値を補正データ128に含ませておいて、登場キャ
ラクタの感情の起伏等に応じて瞼の動きを可変するよう
にしてもよい。
て実際に生成した画像の具体例を示す図である。同図に
示すように、例えば補正データを1より大きな値に設定
することにより、目を通常よりも大きく開けた状態を表
現することができるため、怒ったときの口形状にこのよ
うな目の動きを組み合わせることにより、登場キャラク
タのさらに自然な表情を表現することができる。
ーム装置に適用した場合について説明したが、それ以外
の画像処理装置、例えばアニメーション画像を生成する
装置等に本発明を適用するようにしてもよい。
の基本形状を用意しておいて、重み付け係数データを用
いてこれらを合成することにより口形状が決まるため、
重み付けデータの内容を変えるだけで口形状を変化させ
ることができ、口を動かすために必要なデータ量を削減
することができるとともに、処理の負担を軽減すること
ができる。
る。
形状を示す図である。
形状を示す図である。
形状を示す図である。
形状を示す図である。
を示す図である。
処理の動作手順を示す流れ図である。
容を示す図である。
体例を示す図である。
体例を示す図である。
ある。
係を示す図である。
画像の具体例を示す図である。
Claims (11)
- 【請求項1】 口およびその周辺に関する複数の基本形
状を特定する基本形状データを格納する基本形状データ
格納手段と、 前記複数の基本形状を合成する際の重み付け係数の値を
示す複数の重み付け係数データを格納する重み付け係数
格納手段と、 前記基本形状データと前記重み付け係数データとを用い
て前記複数の基本形状を合成することにより、口および
その周辺の形状を算出する口形状算出手段と、前記口形
状算出手段によって算出された前記口およびその周辺の
形状が反映された画像を生成する画像生成手段と、 を備えることを特徴とする画像処理装置。 - 【請求項2】 請求項1において、 前記重み付け係数格納手段には、前記画像生成手段によ
る前記画像の生成間隔に対応して読み出される複数組の
前記重み付け係数データが格納されていることを特徴と
する画像処理装置。 - 【請求項3】 請求項1または2において、 前記複数の基本形状には、一の基準形状の他にこの基準
形状に対する差分情報で特定される複数の参照形状が含
まれており、 前記複数の基本形状データには、前記基準形状を特定す
るために必要な第1の座標データと、前記複数の参照形
状を特定するために必要な第2の座標データと前記第1
の座標データとの差分を示す差分座標データとが含まれ
ていることを特徴とする画像処理装置。 - 【請求項4】 請求項3において、 前記複数の参照形状には、口を横に大きく開いた状態に
対応する第1の形態と、口を上下に大きく開いた状態に
対応する第2の形態と、口を前に突き出した状態に対応
する第3の形態が含まれていることを特徴とする画像処
理装置。 - 【請求項5】 請求項1〜4のいずれかにおいて、 前記複数の重み付け係数データの少なくとも一に対応し
て設けられた補正データを格納する補正データ格納手段
をさらに備えており、 前記口形状算出手段は、前記重み付け係数データによっ
て示される前記重み付けの値を前記補正データを用いて
変更して、前記口およびその周辺の形状の算出を行うこ
とを特徴とする画像処理装置。 - 【請求項6】 請求項5において、 前記補正データは、感情の内容に応じた値が設定されて
おり、 前記補正データの値を可変に設定することにより、感情
を表現することを特徴とする画像処理装置。 - 【請求項7】 請求項1〜6のいずれかにおいて、 前記重み付け係数データは、実際に発声された音声を周
波数分析して得られた複数の周波数成分毎の音圧レベル
に基づいて生成されることを特徴とする画像処理装置。 - 【請求項8】 口およびその周辺に関する複数の基本形
状を特定する基本形状データを読み出す第1のステップ
と、 前記複数の基本形状を合成する際の重み付け係数の値を
示す複数の重み付け係数データを読み出す第2のステッ
プと、 前記基本形状データと前記重み付け係数データを用いて
前記複数の基本形状を合成することにより、口およびそ
の周辺の形状を算出する第3のステップと、 前記第3のステップにおいて算出された前記口およびそ
の周辺の形状が反映された画像を生成する第4のステッ
プと、 を有する画像処理方法。 - 【請求項9】 請求項8において、 前記複数の重み付け係数データの少なくとも一に対応し
て設けられた補正データを読み出す第5のステップと、 前記第3のステップで行われる合成動作において、前記
重み付け係数データによって示される前記重み付けの値
を前記補正データを用いて変更することを特徴とする画
像処理方法。 - 【請求項10】 口およびその周辺に関する複数の基本
形状を特定する基本形状データを読み出す第1のステッ
プと、 前記複数の基本形状を合成する際の重み付け係数の値を
示す複数の重み付け係数データを読み出す第2のステッ
プと、 前記基本形状データと前記重み付け係数データを用いて
前記複数の基本形状を合成することにより、口およびそ
の周辺の形状を算出する第3のステップと、 前記第3のステップにおいて算出された前記口およびそ
の周辺の形状が反映された画像を生成する第4のステッ
プと、 を実行するプログラムを含むことを特徴とする情報記憶
媒体。 - 【請求項11】 請求項10において、 前記複数の重み付け係数データの少なくとも一に対応し
て設けられた補正データを読み出す第5のステップを実
行するとともに、 前記第3のステップで行われる合成動作において、前記
重み付け係数データによって示される前記重み付けの値
を前記補正データを用いて変更する動作を実行するプロ
グラムを含むことを特徴とする情報記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000330425A JP2002133445A (ja) | 2000-10-30 | 2000-10-30 | 画像処理装置、画像処理方法および情報記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000330425A JP2002133445A (ja) | 2000-10-30 | 2000-10-30 | 画像処理装置、画像処理方法および情報記憶媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002133445A true JP2002133445A (ja) | 2002-05-10 |
Family
ID=18806949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000330425A Pending JP2002133445A (ja) | 2000-10-30 | 2000-10-30 | 画像処理装置、画像処理方法および情報記憶媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002133445A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004070685A (ja) * | 2002-08-07 | 2004-03-04 | Hudson Soft Co Ltd | 電子装置、および似顔絵付き電子メールの受信再生方法 |
JP2006350986A (ja) * | 2005-06-17 | 2006-12-28 | Tokyo Institute Of Technology | 顔写真付きメールを送受信できる携帯電話機 |
JP2007299300A (ja) * | 2006-05-02 | 2007-11-15 | Advanced Telecommunication Research Institute International | アニメーション作成装置 |
JP2008305066A (ja) * | 2007-06-06 | 2008-12-18 | Konami Digital Entertainment:Kk | 画像処理装置、画像処理方法及びプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0676044A (ja) * | 1992-07-17 | 1994-03-18 | Masashige Furukawa | 表情コードの再生表示及び情緒・表情の加工・発生装置 |
JPH06162166A (ja) * | 1992-10-20 | 1994-06-10 | Sony Corp | 画像作成装置 |
JPH06348811A (ja) * | 1993-06-07 | 1994-12-22 | Sharp Corp | 動画像表示装置 |
JPH08123977A (ja) * | 1994-10-24 | 1996-05-17 | Imeeji Rinku:Kk | アニメーションシステム |
JPH08161465A (ja) * | 1994-12-02 | 1996-06-21 | Sony Corp | 画像データファイル作成方法、記録媒体及び画像作成方法 |
WO1998059321A2 (en) * | 1997-06-25 | 1998-12-30 | Haptek, Inc. | Methods and apparatuses for controlling transformation of two and three-dimensional images |
JPH11242751A (ja) * | 1998-02-24 | 1999-09-07 | Canon Inc | アニメーション制御装置及び方法及び文読み上げ装置 |
-
2000
- 2000-10-30 JP JP2000330425A patent/JP2002133445A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0676044A (ja) * | 1992-07-17 | 1994-03-18 | Masashige Furukawa | 表情コードの再生表示及び情緒・表情の加工・発生装置 |
JPH06162166A (ja) * | 1992-10-20 | 1994-06-10 | Sony Corp | 画像作成装置 |
JPH06348811A (ja) * | 1993-06-07 | 1994-12-22 | Sharp Corp | 動画像表示装置 |
JPH08123977A (ja) * | 1994-10-24 | 1996-05-17 | Imeeji Rinku:Kk | アニメーションシステム |
JPH08161465A (ja) * | 1994-12-02 | 1996-06-21 | Sony Corp | 画像データファイル作成方法、記録媒体及び画像作成方法 |
WO1998059321A2 (en) * | 1997-06-25 | 1998-12-30 | Haptek, Inc. | Methods and apparatuses for controlling transformation of two and three-dimensional images |
JPH11242751A (ja) * | 1998-02-24 | 1999-09-07 | Canon Inc | アニメーション制御装置及び方法及び文読み上げ装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004070685A (ja) * | 2002-08-07 | 2004-03-04 | Hudson Soft Co Ltd | 電子装置、および似顔絵付き電子メールの受信再生方法 |
JP2006350986A (ja) * | 2005-06-17 | 2006-12-28 | Tokyo Institute Of Technology | 顔写真付きメールを送受信できる携帯電話機 |
JP2007299300A (ja) * | 2006-05-02 | 2007-11-15 | Advanced Telecommunication Research Institute International | アニメーション作成装置 |
JP4631077B2 (ja) * | 2006-05-02 | 2011-02-16 | 株式会社国際電気通信基礎技術研究所 | アニメーション作成装置 |
JP2008305066A (ja) * | 2007-06-06 | 2008-12-18 | Konami Digital Entertainment:Kk | 画像処理装置、画像処理方法及びプログラム |
JP4567027B2 (ja) * | 2007-06-06 | 2010-10-20 | 株式会社コナミデジタルエンタテインメント | 画像処理装置、画像処理方法及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110874557B (zh) | 一种语音驱动虚拟人脸的视频生成方法以及装置 | |
KR100826443B1 (ko) | 이미지 처리 방법 및 시스템 | |
CN101156175B (zh) | 3d对象的基于深度图像呈现方法和使用该方法的建模方法和设备以及渲染方法和设备 | |
JP4443012B2 (ja) | 画像生成装置、方法および記録媒体 | |
US20020024519A1 (en) | System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character | |
US20080259085A1 (en) | Method for Animating an Image Using Speech Data | |
CN111161392B (zh) | 一种视频的生成方法、装置及计算机系统 | |
US20150215249A1 (en) | Animated delivery of electronic messages | |
US10616157B2 (en) | Animated delivery of electronic messages | |
JP3702269B2 (ja) | 画像処理装置、コンピュータの制御方法及びプログラム | |
US20090262139A1 (en) | Video image display device and video image display method | |
RU2487412C2 (ru) | Способ и устройство для создания видеоанимации | |
WO2010016189A1 (ja) | ゲームプログラムおよびゲーム装置 | |
WO2005116932A1 (en) | Animation systems | |
JP2002133445A (ja) | 画像処理装置、画像処理方法および情報記憶媒体 | |
CN116225234A (zh) | 交互方法和云服务器 | |
JP2020091909A (ja) | 表情制御プログラム、記録媒体、表情制御装置、表情制御方法 | |
JP2011215709A (ja) | 漫画作成支援装置、漫画作成支援方法及びプログラム | |
JP4459415B2 (ja) | 画像処理装置、画像処理方法およびコンピュータ読み取り可能な情報記憶媒体 | |
JP7161200B2 (ja) | カラオケ演出システム | |
JP2723070B2 (ja) | 人物像表示によるユーザインタフェース装置 | |
JP4086002B2 (ja) | プログラム、画像処理装置及び方法、並びに記録媒体 | |
WO2024004609A1 (ja) | 情報処理装置、情報処理方法、および記録媒体 | |
JP2001222722A (ja) | 画像表示装置、画像補正方法、及び画像補正プログラムを記録した記録媒体 | |
Czap et al. | Multimodality in a Speech Aid System [J] |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071029 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100105 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100305 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100608 |