JP5097636B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP5097636B2
JP5097636B2 JP2008192614A JP2008192614A JP5097636B2 JP 5097636 B2 JP5097636 B2 JP 5097636B2 JP 2008192614 A JP2008192614 A JP 2008192614A JP 2008192614 A JP2008192614 A JP 2008192614A JP 5097636 B2 JP5097636 B2 JP 5097636B2
Authority
JP
Japan
Prior art keywords
data
basic
feature point
face
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008192614A
Other languages
English (en)
Other versions
JP2010033187A (ja
Inventor
文人 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2008192614A priority Critical patent/JP5097636B2/ja
Publication of JP2010033187A publication Critical patent/JP2010033187A/ja
Application granted granted Critical
Publication of JP5097636B2 publication Critical patent/JP5097636B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
コンピュータグラフィックス(CG)に関する様々な技術が存在する。例えば、仮想三次元空間内に配置されたキャラクタの顔などを示す三次元形状データを視線方向に垂直な投影面に投影することによって生成される画像を、ディスプレイなどに表示する技術が存在する。このような技術を用いることで、例えば、ディスプレイなどに表示されるキャラクタの顔などを示す画像を仮想三次元空間内における視線方向に応じて変化させることができる。
また、CGに関する別の技術として、所定の形状から別の形状へ徐々に変化していく様子を動画で表現するために、変化の途中を補うモーフィング技術が存在する。例えば、特許文献1に示されているように、モーフィング技術を用いると、キャラクタの顔の表情をスムーズに変化させることができる。
米国特許出願公開第2001/0036860号明細書
三次元形状データを投影することなどによって生成される画像をディスプレイなどに表示する技術では、表示される画像の基礎となるオブジェクトが三次元形状データとしてモデリングされている必要がある。そして、三次元形状データと、仮想三次元空間内における視線方向と、の関係によって、表示される画像が決定されてしまう。そのため、視線方向に対応する所望の画像がディスプレイなどに表示されるようユーザが制御することは困難であった。
本発明は、上記課題に鑑みてなされたものであって、仮想三次元空間内における視線方向に対応する所望の画像を容易に表示することができる画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
上記課題を解決するために、本発明に係る画像処理装置は、複数の基礎特徴点それぞれの位置を示す基礎特徴点群位置データと、当該基礎特徴点群位置データと仮想三次元空間内における視線方向との関係を示す基礎視線方向関係データと、を含む基礎データを複数記憶する基礎データ記憶手段と、前記仮想三次元空間内における視線方向を示す受付視線方向データを受け付ける視線方向データ受付手段と、前記受付視線方向データと前記各基礎視線方向関係データとの関係、及び、前記基礎データ記憶手段に記憶されている基礎特徴点群位置データのうちの複数に基づく、互いに対応する基礎特徴点同士の位置関係に基づいて、複数の算出特徴点の位置を算出する特徴点位置算出手段と、前記特徴点位置算出手段により算出される複数の算出特徴点の位置に基づいて、画像を生成する画像生成手段と、を含むことを特徴とする。
また、本発明に係る画像処理方法は、複数の基礎特徴点それぞれの位置を示す基礎特徴点群位置データと、当該基礎特徴点群位置データと仮想三次元空間内における視線方向との関係を示す基礎視線方向関係データと、を含む基礎データを複数、基礎データ記憶手段に記憶させるステップと、前記仮想三次元空間内における視線方向を示す受付視線方向データを受け付ける視線方向データ受付ステップと、前記受付視線方向データと前記各基礎視線方向関係データとの関係、及び、前記基礎データ記憶手段に記憶されている基礎特徴点群位置データのうちの複数に基づく、互いに対応する基礎特徴点同士の位置関係に基づいて、複数の算出特徴点の位置を算出する特徴点位置算出ステップと、前記特徴点位置算出ステップにより算出される複数の算出特徴点の位置に基づいて、画像を生成する画像生成ステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、複数の基礎特徴点それぞれの位置を示す基礎特徴点群位置データと、当該基礎特徴点群位置データと仮想三次元空間内における視線方向との関係を示す基礎視線方向関係データと、を含む基礎データを複数、基礎データ記憶手段に記憶させる手段、前記仮想三次元空間内における視線方向を示す受付視線方向データを受け付ける視線方向データ受付手段、前記受付視線方向データと前記各基礎視線方向関係データとの関係、及び、前記基礎データ記憶手段に記憶されている基礎特徴点群位置データのうちの複数に基づく、互いに対応する基礎特徴点同士の位置関係に基づいて、複数の算出特徴点の位置を算出する特徴点位置算出手段、前記特徴点位置算出手段により算出される複数の算出特徴点の位置に基づいて、画像を生成する画像生成手段、としてコンピュータを機能させることを特徴とする。
また、上記のプログラムはコンピュータ読み取り可能な情報記憶媒体に格納することもできる。
本発明によると、仮想三次元空間内における視線方向に関連付けられる基礎特徴点群位置データに基づいて、受付視線方向データが示す視線方向に応じた画像が生成されるので、仮想三次元空間内における視線方向に対応する所望の画像を容易に表示することができる。
本発明の一態様では、前記画像生成手段による画像生成の単位であるターゲットの前記仮想三次元空間内における方向を示すターゲット方向データと、前記受付視線方向データと、の関係に基づいて、前記複数の算出特徴点の位置を算出することを特徴とする。こうすれば、ターゲット方向データが示す方向に基づく算出特徴点の位置の算出が可能となる。
また、本発明の一態様では、前記受付視線方向データと前記各基礎視線方向関係データとの関係に基づいて、前記基礎データ記憶手段に記憶されている基礎データのうちの複数について、当該基礎データに関連付けられる重みを示す重み係数を算出する重み係数算出手段、をさらに含み、前記特徴点位置算出手段が、前記重み係数が示す重みに基づいて、前記複数の算出特徴点の位置を算出することを特徴とする。こうすれば、重み係数に基づいて算出特徴点の位置が算出されるので、算出特徴点の位置を容易に算出することができる。
また、本発明の一態様では、基礎データ記憶手段に記憶されている基礎データのうちから、前記受付視線方向データと前記各基礎視線方向関係データとの関係に基づいて、複数の基礎データを選択する基礎データ選択手段、をさらに含み、前記特徴点位置算出手段が、前記基礎データ選択手段により選択される基礎データに含まれる基礎特徴点群位置データに基づく、互いに対応する基礎特徴点同士の位置関係に基づいて、複数の算出特徴点の位置を算出することを特徴とする。こうすれば、選択される基礎データに含まれる基礎特徴点群位置データに基づいて、算出特徴点の位置が算出されるので、算出特徴点を算出する処理の負荷を低減することができる。
以下、本発明の一実施形態について図面に基づき詳細に説明する。
図1は、本実施形態に係る画像処理装置10のハードウェア構成を示す図である。
画像処理装置10は、制御部12、記憶部14、ユーザインタフェース(UI)部16を含んで構成される。制御部12、記憶部14、UI部16は、バスを介して接続される。
制御部12はCentral Processing Unit(CPU)等のプログラム制御デバイスであり、記憶部14に格納されたプログラムに従って動作する。
記憶部14は、Random Access Memory(RAM)等の記憶素子やハードディスクなどである。記憶部14には、制御部12によって実行されるプログラムなどが格納される。また、制御部12のワークメモリとしても動作する。
UI部16は、ディスプレイ、キーボード、マウス、ゲームパッドなどであり、画像処理装置10のユーザが行った操作の内容を制御部12に出力する。また、このUI部16は、制御部12から入力される指示に従って情報を表示する。
本実施形態では、画像処理装置10は、仮想三次元空間18内の視点20から、視線方向22を見た様子を示す画像(以下、表示画像24という。)をディスプレイなどのUI部16に表示する(図2及び図3参照)。図2に仮想三次元空間18の一例を示す。図3に、表示画像24の一例を示す。なお、図2に示されているターゲット代表点26(顔代表点26a及び胴体代表点26b)、ターゲット方向27(顔方向27a及び胴体方向27b)の詳細については後述する。
本実施形態において、表示画像24は、ターゲット画像28を含んでいる。ここで、ターゲット画像28は、後述する画像生成部42による画像生成処理の単位となる画像をいう。具体的には、例えば、図3に示す表示画像24には、2つのターゲット画像28(顔画像28a及び胴体画像28b)が含まれている。なお、表示画像24に含まれるターゲット画像28の数はもちろん2つに限定されない。
そして、画像処理装置10のユーザは、マウスなどのUI部16を操作することによって、視点20の位置や視線方向22を自由に移動することができる。
図4は、本発明の一実施形態に係る画像処理装置10の機能ブロック図である。図4に示すように、本発明の一実施形態に係る画像処理装置10は、機能的には、ターゲットデータ記憶部30、基礎データ記憶部32、視点データ受付部34、基礎データ選択部36、重み係数算出部38、特徴点位置算出部40、画像生成部42、を含むものとして機能する。これらの要素のうち、ターゲットデータ記憶部30、基礎データ記憶部32は、記憶部14を主として実現されており、視点データ受付部34、基礎データ選択部36、重み係数算出部38、特徴点位置算出部40、画像生成部42は、制御部12を主として実現されている。そして、視点データ受付部34は、視点位置データ受付部34a、視線方向データ受付部34b、を含む。
これらの要素は、コンピュータである画像処理装置10にインストールされたプログラムを、画像処理装置10が備える制御部12で実行することにより実現されている。なお、このプログラムは、例えば、CD−ROM、DVD−ROM等の情報伝達媒体を介して、あるいは、インターネット等の通信ネットワークを介して画像処理装置10に供給される。
ターゲットデータ記憶部30は、ターゲットデータ44を記憶する(図5参照)。図5は、ターゲットデータ44のデータ構造の一例を示す図である。図5に示すように、ターゲットデータ44は、ターゲットID46と、ターゲット位置データ48と、ターゲット方向データ49と、を含んでいる。
ターゲットID46は、各ターゲット画像28(本実施形態では、顔画像28aや胴体画像28b)に対応するIDを示す。すなわち、ターゲットデータ44はターゲット画像28に対応する。ターゲット位置データ48は、仮想三次元空間18内におけるターゲット代表点26の位置を示す。ターゲット方向データ49は、仮想三次元空間18内におけるターゲット代表点26に関連付けられる方向を示す。なお、図2に示すように、本実施形態では、ターゲット代表点26の位置及びターゲット方向データ49が示す方向は、ワールド座標系(Xw、Yw、Zw)により表現されている。
基礎データ記憶部32は、各ターゲットデータ44について、そのターゲットデータ44に関連付けられる基礎データ50を複数記憶する(図6参照)。図6は、基礎データ50のデータ構造の一例を示す図である。図6に示すように、基礎データ50は、ターゲットID46と、基礎データID52と、基礎形状データ54と、基礎視線方向関係データ56と、を含む。
ターゲットID46は、上述のとおり、各ターゲット画像28に対応するIDを示す。基礎データID52は、基礎データ50のIDを示す。そして、ターゲットID46によって、ターゲットデータ44と基礎データ50とは関連付けられている。このようにして、ターゲット画像28と複数の基礎データ50とが関連づけられる。本実施形態では、顔画像28aに対応するターゲットデータ44(顔ターゲットデータ)は、6つの基礎データ50(第n顔基礎データ50a−n(n=1,2,3,4,5,6))に関連付けられている。そして、第n顔基礎データ50a−nには、第n顔基礎形状データ54a−nと、第n顔基礎視線方向関係データ56a−nと、が少なくとも含まれる。
そして、胴体画像28bに対応するターゲットデータ44(胴体ターゲットデータ)は、4つの基礎データ50に関連付けられている。このように、各ターゲットデータ44に関連付けられている基礎データ50の数が異なっていても構わない。
基礎形状データ54は、ターゲット画像28の形状の基礎となる基礎形状58(例えば、顔基礎形状58a)を示している(図7A〜図7F参照)。そして、基礎視線方向関係データ56は、基礎形状データ54が示す基礎形状58と視線方向22との関係を示している。本実施形態では、具体的には、基礎視線方向関係データ56は、基礎形状58に関連付けられる、視点20を原点とする視点座標系におけるターゲット方向データ49が示す方向に対応するベクトルを示している。
図7Aに、第1顔基礎形状データ54a−1が示す第1顔基礎形状58a−1の一例を表現した図を示す。図7Bに、第2顔基礎形状データ54a−2が示す第2顔基礎形状58a−2の一例を表現した図を示す。図7Cに、第3顔基礎形状データ54a−3が示す第3顔基礎形状58a−3の一例を表現した図を示す。図7Dに、第4顔基礎形状データ54a−4が示す第4顔基礎形状58a−4の一例を表現した図を示す。図7Eに、第5顔基礎形状データ54a−5が示す第5顔基礎形状58a−5の一例を表現した図を示す。図7Fに、第6顔基礎形状データ54a−6が示す第6顔基礎形状58a−6の一例を表現した図を示す。
基礎形状データ54は、本実施形態では、具体的には、例えば、目や口などの基礎形状58を特徴付ける、複数の三角形のポリゴン(基礎ポリゴン60)を示す基礎ポリゴンデータ62を複数含む。そして、本実施形態では、各基礎ポリゴンデータ62は、基礎ポリゴン60を構成する三角形の頂点を示す3つの基礎特徴点64それぞれの位置を示す基礎特徴点群位置データ66を含む(図7A〜図7F、及び、図8参照)。なお、基礎形状58が、上述のデータ構造とは異なるデータ構造によって表現されていても構わない。本実施形態においては、基礎特徴点群位置データ66が示す各基礎特徴点60の位置は、それぞれの基礎形状58について、ローカル座標系((Xl1,Yl1,Zl1)乃至(Xl6,Yl6,Zl6))における三次元位置座標で表現されている。
図7Aに示す第1顔基礎形状58a−1には、第1顔基礎ポリゴン60a−1がl個含まれている(60a−1−1,60a−1−2,・・・,60a−1−l)。図7Bに示す第2顔基礎形状58a−2には、第2顔基礎ポリゴン60a−2がl個含まれている(60a−2−1,60a−2−2,・・・,60a−2−l)。図7Cに示す第3顔基礎形状58a−3には、第3顔基礎ポリゴン60a−3がl個含まれている(60a−3−1,60a−3−2,・・・,60a−3−l)。図7Dに示す第4顔基礎形状58a−4には、第4顔基礎ポリゴン60a−4がl個含まれている(60a−4−1,60a−4−2,・・・,60a−4−l)。図7Eに示す第5顔基礎形状58a−5には、第5顔基礎ポリゴン60a−5がl個含まれている(60a−5−1,60a−5−2,・・・,60a−5−l)。図7Fに示す第6顔基礎形状58a−6には、第6顔基礎ポリゴン60a−6がl個含まれている(60a−6−1,60a−6−2,・・・,60a−6−l)。そして、本実施形態では第1顔基礎ポリゴン60a−1−p、第2顔基礎ポリゴン60a−2−p、第3顔基礎ポリゴン60a−3−p、第4顔基礎ポリゴン60a−4−p、第5顔基礎ポリゴン60a−5−p、第6顔基礎ポリゴン60a−6−p(p=1,2,・・・,l)は互いに対応づけられている。なお、それぞれの基礎形状58に含まれる基礎ポリゴン60の数は異なっていてもよい。
そして、本実施形態では、各顔基礎形状58aには、各顔基礎ポリゴン60aの頂点である顔基礎特徴点64aがm個含まれている。そして、本実施形態では、顔基礎特徴点64a同士も互いに対応付けられている。具体的には、例えば、第1顔基礎形状58a−1に含まれる第1顔基礎特徴点64a−1−q(図7A参照)、第2顔基礎形状58a−2に含まれる第2顔基礎特徴点64a−2−q(図7B参照)、第3顔基礎特徴点64a−3−q(図7C参照)、第4顔基礎特徴点64a−4−q(図7D参照)、第5顔基礎特徴点64a−5−q(図7E参照)、第6顔基礎特徴点64a−6−q(図7F参照)(q=1,2,・・・,m)は互いに対応づけられている。なお、それぞれの基礎形状58に含まれる基礎特徴点64の数は異なっていてもよい。
本実施形態では、それぞれの顔基礎形状58aは、板状の形状をしている。そして、本実施形態では、それぞれの基礎ポリゴン60の前後関係が、絶対値の比較的小さなZ座標値の大小によって表現されている。例えば、図7Eに示す例では、左目の形状を示す第5顔基礎特徴点64a−5−7などのZ座標値が、顔を構成する第5顔基礎ポリゴン60a−5(例えば、第5顔基礎ポリゴン60a−5−1)の頂点の各第5顔基礎特徴点64a−5のZ座標値よりも大きく設定されており、目の形状が表示されないようになっている。
図8に、基礎形状データ54のデータ構造の一例を示す。本実施形態では、図8に示すように、基礎形状データ54は、ポリゴンID68と、基礎特徴点群位置データ66(第1基礎特徴点位置データ70−1乃至第3基礎特徴点位置データ70−3)と、を少なくとも含む基礎ポリゴンデータ62を複数含んでいる。なお、各基礎ポリゴンデータ62は、後述する属性データを含んでいてもよい。ポリゴンID68は、基礎ポリゴン60のIDであり、各基礎データ50に含まれる基礎形状データ54について、互いに対応する基礎ポリゴン60には共通するポリゴンID68が設定されている。基礎特徴点位置データ70は、基礎形状58に含まれる基礎ポリゴン60の頂点である基礎特徴点64の位置を示す。本実施形態では、図7A〜図7Fに示すように、基礎特徴点位置データ70が示す基礎特徴点64の位置は、ローカル座標系((Xl1,Yl1,Zl1)乃至(Xl6,Yl6,Zl6))における三次元位置座標で表現されている。このように、本実施形態では、顔基礎形状58aを構成する各顔基礎ポリゴン60aは三角形である。
各顔基礎視線方向関係データ56a−1は、視点20を原点とする視点座標系におけるターゲット方向データ49が示す方向に対応するベクトルを示している。具体的には、第1顔基礎視線方向関係データ56a−1は、視点20を原点とする視点座標系におけるX軸正方向に対応するベクトルを示している。第2顔基礎視線方向関係データ56a−2は、視点20を原点とする視点座標系におけるX軸負方向に対応するベクトルを示している。第3顔基礎視線方向関係データ56a−3は、視点20を原点とする視点座標系におけるY軸正方向に対応するベクトルを示している。第4顔基礎視線方向関係データ56a−4は、視点20を原点とする視点座標系におけるY軸負方向に対応するベクトルを示している。第5顔基礎視線方向関係データ56a−5は、視点20を原点とする視点座標系におけるZ軸正方向に対応するベクトルを示している。第6顔基礎視線方向関係データ56a−6は、視点20を原点とする視点座標系におけるZ軸負方向に対応するベクトルを示している。このように、各顔基礎データ50aは、ターゲット方向データ49が示す方向が、視線方向22に対して上下左右前後それぞれの方向である場合それぞれに関連付けられている。なお、本実施形態では、各胴体基礎データ50bは、ターゲット方向データ49が示す方向が、視線方向22に対して左右前後それぞれの方向である場合それぞれに関連付けられており、ターゲット方向データ49が示す方向が、視線方向22に対して上向き、あるいは、下向きである場合には関連付けられていない。
視点データ受付部34は、仮想三次元空間18内における視点20の位置及び視線方向22を示す受付視点データ72を受け付ける(図9参照)。より具体的には、視点位置データ受付部34aが、仮想三次元空間18内における視点20の位置を示す受付視点位置データ72aを受け付ける。そして、視線方向データ受付部34bが、仮想三次元空間18内における視線方向22を示す受付視線方向データ72bを受け付ける。本実施形態では、視点データ受付部34は、画像処理装置10のユーザが、UI部16を操作することによって設定される、視点20の位置を示す受付視点位置データ72a、及び、視線方向22を示す受付視線方向データ72b、を含む受付視点データ72を、所定時間(例えば1/60秒)ごとに受け付ける。
図9に、受付視点データ72のデータ構造の一例を示す。図9に示すように、本実施形態における受付視点データ72は、受付視点位置データ72aと、受付視線方向データ72bと、を含む。本実施形態では、受付視点位置データは、図2に示す仮想三次元空間16内における視点20の位置は、ワールド座標系(Xw,Yw,Zw)における三次元位置座標で表現されており、受付視線方向データ72bは、図2に示す仮想三次元空間16内における視線方向22は、ワールド座標系(Xw,Yw,Zw)おける三次元ベクトルで表現されている。
基礎データ選択部36は、基礎データ記憶部32に記憶されている基礎データ50のうちから、受付視線方向データ72bと各基礎視線方向関係データ56との関係に基づいて、複数の基礎データ50を選択する。
具体的には、例えば、本実施形態では、視点データ受付部34が受け付ける受付視線方向データ72bに基づいて算出される視点20を原点とする視点座標系における、ターゲット方向データ49が示す方向に対応するベクトル(ターゲットベクトル)が(Vx,Vy,Vz)である際に、基礎データ選択部36は、Vxの値に基づいて、第1顔基礎データ50a−1と、第2顔基礎データ50a−2のうちのいずれを選択するかを判断する。具体的には、Vx>0の場合は、基礎データ選択部36は、第1顔基礎データ50a−1を選択する。そして、Vx<0の場合は、基礎データ選択部36は、第2顔基礎データ50a−2を選択する。なお、Vx=0の場合は、基礎データ選択部36は、第1顔基礎データ50a−1も第2顔基礎データ50a−2も選択しない。
また、本実施形態では、基礎データ選択部36は、Vyの値に基づいて、第3顔基礎データ50a−3と、第4顔基礎データ50a−4のうちのいずれを選択するかを判断する。具体的には、Vy>0の場合は、基礎データ選択部36は、第3顔基礎データ50a−3を選択する。そして、Vy<0の場合は、基礎データ選択部36は、第4顔基礎データ50a−4を選択する。なお、Vy=0の場合は、基礎データ選択部36は、第3顔基礎データ50a−3も第4顔基礎データ50a−4も選択しない。
また、本実施形態では、基礎データ選択部36は、Vzの値に基づいて、第5顔基礎データ50a−5と、第6顔基礎データ50a−6のうちのいずれを選択するかを判断する。具体的には、Vz>0の場合は、基礎データ選択部36は、第5顔基礎データ50a−5を選択する。そして、Vz<0の場合は、基礎データ選択部36は、第6顔基礎データ50a−6を選択する。なお、Vz=0の場合は、基礎データ選択部36は、第5顔基礎データ50a−5も第6顔基礎データ50a−6も選択しない。
このようにして、本実施形態では、基礎データ選択部36は、最大3つの顔基礎データ50aを選択する。
なお、基礎データ選択部36が、基礎データ50を選択する方法は上述の方法に限定されない。例えば、基礎データ選択部36が、ターゲットベクトル(Vx,Vy,Vz)と、各基礎データ50に含まれる基礎視線方向関係データ56が示すベクトルと、がなす角が小さいものから順に、所定数の基礎データ50を選択するようにしてもよい。また、基礎データ選択部36が、ターゲットベクトル(Vx,Vy,Vz)と、各基礎データ50に含まれる基礎視線方向関係データ56が示すベクトルと、がなす角が所定値以下である基礎データ50を選択するようにしてもよい。
また、基礎データ選択部36が、受付視点位置データ72aが示す位置を始点として、ターゲット位置データ48が示す位置を終点とするベクトルを示す位置関係データを生成し、位置関係データが示すベクトル及び受付視線方向データ72bが示すベクトルを、XZ平面に、YZ平面、ZY平面のそれぞれに投影した際における、各平面についての、それぞれのベクトルがなす角の組合せと、選択されるべき基礎データ50の組合せと、の対応関係を示す対応関係テーブルなどを記憶部14が予め記憶していてもよい。そして、基礎データ選択部36が、位置関係データが示すベクトル及び受付視線方向データ72bが示すベクトルを、XZ平面に、YZ平面、ZY平面のそれぞれに投影した際における、各平面についての、それぞれのベクトルがなす角の組合せを算出して、算出された、なす角の組合せと、記憶部14に記憶されている対応関係テーブルと、に基づいて、基礎データ50を選択するようにしてもよい。
重み係数算出部38は、本実施形態では、基礎データ選択部36により選択された複数の基礎データ50について、基礎データ50に関連付けられる重みを示す重み係数wを算出する。このとき、重み係数算出部38は、受付視線方向データ72bと各基礎視線方向関係データ56との関係に基づいて、重み係数wを算出する。
具体的には、例えば、重み係数算出部38は、基礎データ選択部36により選択される基礎データ50に含まれる基礎視線方向関係データ56が示すベクトルと、ターゲットベクトル(Vx,Vy,Vz)と、の関係に基づいて、その基礎データ50に関連付けられる重み係数wを算出する。なお、本実施形態では、重み係数wは、0以上1以下の値をとる。
より具体的には、例えば、Vx>0であり、基礎データ選択部36が第1顔基礎データ50a−1を選択する場合に、重み係数算出部38は、ターゲットベクトル(Vx,Vy,Vz)が示す方向と、視点20を原点とする視点座標系におけるX軸正方向とが対応する場合は、第1顔基礎データ50a−1に関連付けられる重み係数(第1重み係数w1)を、1と算出する。そして、ターゲットベクトル(Vx,Vy,Vz)が示す方向とベクトルと、視点20を原点とする視点座標系におけるX軸正方向に対応するベクトルと、がなす角の絶対値が増加するに従って、第1重み係数w1が減少するよう、重み係数算出部38は、第1重み係数w1を算出する。さらに具体的には、例えば、重み係数算出部38は、ターゲットベクトル(Vx,Vy,Vz)が示す方向と、視点20を原点とする視点座標系におけるX軸正方向が示すベクトルとがなす角の絶対値が、θ度である場合における第1重み係数w1が、w1=1−θ/90の関係となるよう第1重み係数w1を算出する。
同様にして、重み係数算出部38は、基礎データ選択部36により選択される基礎データ50に関連付けられる重み係数wの値を算出する。なお、重み係数算出部38は、算出される重み係数wの値の和が1となるように、各重み係数wを算出してもよい。また、重み係数算出部38が、各重み係数wを算出してから、その総和が1となるよう正規化するようにしてもよい。
なお、基礎データ選択部36により、基礎データ50を選択せず、重み係数算出部38が、すべての基礎データ50のそれぞれについて、基礎データ50に関連付けられる重み係数wを算出するようにしてもよい。
特徴点位置算出部40は、基礎データ選択部36により選択される基礎データ50に含まれる基礎特徴点群位置データ66に基づいて、算出特徴点74の位置を算出する(図10参照)。図10は、算出特徴点74の位置の一例を示す図である。
具体的には、例えば、基礎データ選択部36が、第1顔基礎データ50a−1、第4顔基礎データ50a−4、第5顔基礎データ50a−5を選択し、重み係数算出部38が、第1顔重み係数w1、第4顔重み係数w4、第5顔重み係数w5を算出している場合は、特徴点位置算出部40は、第1顔基礎データ50aに含まれる基礎特徴点群位置データ66(第1顔基礎特徴点群位置データ66a−1)、第4顔基礎データ50aに含まれる基礎特徴点群位置データ66(第4顔基礎特徴点群位置データ66a−4)、第5顔基礎データ50aに含まれる基礎特徴点群位置データ66(第5顔基礎特徴点群位置データ66a−5)を取得する。
そして、特徴点位置算出部40が、互いに対応するすべての基礎ポリゴン60の、互いに対応する頂点である、すべての基礎特徴点64それぞれについて、その基礎特徴点64の位置を示す基礎特徴点位置データ70に基づいて、その基礎特徴点64に対応する算出特徴点74の位置(具体的には、例えば、ローカル座標系(Xlc,Ylc,Zlc)における三次元位置座標)を算出する。そして、特徴点位置算出部40が、算出特徴点74の位置を示す算出特徴点位置データと、算出特徴点74を頂点とする三角形の算出ポリゴン75を示す算出ポリゴンデータと、を含む算出形状データを生成する。図11に、算出形状データが示す算出形状76(本実施形態では、顔算出形状76a)の一例を示す。
例えば、図10に示すように、特徴点位置算出部40は、第1顔基礎特徴点64a−1−1、第4顔基礎特徴点64a−4−1、及び、第5顔基礎特徴点64a−5−1の位置により構成される三角形の内部の、これらの顔基礎特徴点64aに対応する顔算出特徴点74aの位置を算出する。このとき、特徴点位置算出部40は、関連付けられている重み係数wが示す値が大きな顔基礎特徴点64aほど、顔算出特徴点74aとの距離が短くなるように、顔算出特徴点74aの位置を算出するようにしてもよい。本実施形態では、特徴点位置算出部40は、顔算出特徴点74aの、ローカル座標系(Xlc,Ylc,Zlc)におけるX座標及びY座標だけではなく、Z座標についても算出する。そのため、視線方向22が変化するにつれて、各算出ポリゴン75の前後関係が変化していく。このようにして、視線方向22に応じて、例えば、左目の形状を示す顔算出特徴点74a−7などのZ座標値が、顔を構成する顔算出ポリゴン75a(例えば、顔算出ポリゴン75a−1)の頂点の各顔算出特徴点74aのZ座標値よりも大きくなったり、小さくなったりする。
なお、特徴点位置算出部40は、重み係数wが示す値に基づいて、三角形を線形的に内分したり、非線形的に内分したりすることにより、算出特徴点74の位置を算出してもよい。
なお、上述の方法は算出特徴点74の位置を算出する方法の一例にすぎず、特徴点位置算出部40は、例えば、公知のモーフィング技術などを用いて、基礎形状58に含まれる互いに対応する基礎特徴点64の位置関係に基づいて、算出特徴点74の位置を算出してもよい。例えば、特徴点位置算出部40は、基礎特徴点64の位置を補間することによって、算出特徴点74の位置を算出してもよい。
また、基礎特徴点位置算出部40は、上述の例のように、3つの基礎特徴点64の位置関係に基づいて、算出特徴点74の位置を算出する必要はなく、1つの基礎特徴点64の位置、2つの基礎特徴点64の位置関係、あるいは、4つ以上の基礎特徴点64の位置関係などに基づいて、算出特徴点74の位置を算出してもよい。
また、特徴点位置算出部40は、重み係数wを用いて算出特徴点74の算出する必要はなく、基礎特徴点64同士の位置関係に基づいて、算出特徴点74の位置を算出すればよい。特徴点位置算出部40は、例えば、ターゲット方向データ49と、受付視線方向データ72bと、の関係に基づいて、算出特徴点74の位置を算出してもよい。
また、基礎データ選択部36による基礎データ50の選択を行わずに、特徴点位置算出部40が基礎特徴点群位置データ66に基づいて算出特徴点74の位置を算出するようにしてもよい。
画像生成部42は、特徴点位置算出部40により算出される複数の算出特徴点74の位置に基づいて、画像を生成する。本実施形態では、画像生成部42は、例えば、算出形状データに基づいて、図3に示す顔画像28aが含まれる表示画像24を生成する。
本実施形態では、画像生成部42が、ターゲット位置データ48が示す位置と、ローカル座標系(Xlc,Ylc,Zlc)の原点と、が対応し、視点20を原点とする視点座標系と、ローカル座標系(Xlc,Ylc,Zlc)とが対応するようにして、算出形状データが示す各算出ポリゴン75を仮想三次元空間16内に配置する。具体的には、例えば、画像生成部42は、顔算出形状76aに表されている顔が視点20に対して正対するよう、各顔算出ポリゴン75aを仮想三次元空間16内に配置する。
そして、画像生成部42が、受付視点位置データ72aが示す視点20の位置から、受付視線方向データ72bが示す視線方向22に向かって形成されるビューボリューム内の、受付視線方向データ72bが示す視線方向22に垂直な投影面に対して、各顔算出ポリゴン75aを投影して、顔画像28aを含む表示画像24を生成する。
本実施形態では、上述のとおり、特徴点位置算出部40は、顔算出特徴点74aの、ローカル座標系(Xlc,Ylc,Zlc)におけるX座標及びY座標だけではなく、Z座標についても算出しているので、視点20から見て、ある算出ポリゴン75の裏側に配置される算出ポリゴン75は表示画像24には表示されない。このようにして、目の形状など、顔を構成する各パーツが表示されるか否かが制御される。
そして、本実施形態では、画像生成部42は、胴体ターゲットデータに関連付けられている4つの基礎データ50に対して、上述の方法を同様に適用して、図3に示す胴体画像28bが含まれる表示画像を生成する。このように、表示画像24に含まれる複数のターゲット画像28について、各ターゲット画像28が独立に生成される。
なお、画像生成部42が、表示画像24を生成する方法は上述の方法に限定されない。例えば、画像生成部42が、受付視点位置データ72aが示す視点20の位置から、受付視線方向データ72bが示す視線方向22に向かって形成されるビューボリューム内の、受付視線方向データ72bが示す視線方向22に垂直な投影面に対して、ターゲット位置データ48が示す位置を投影させた位置である、表示画像内ターゲット位置を算出してもよい。そして、画像生成部42が、表示画像内ターゲット位置と、ローカル座標系(Xlc,Ylc,Zlc)における顔画像28aの原点とが対応するようにして、特徴点位置算出部40が生成する算出形状データが示す算出形状76(本実施形態では、顔算出形状76a)を、ローカル座標系(Xlc,Ylc,Zlc)におけるZ軸に沿って見た様子を示す顔画像28aや胴体画像28bを、図3に示すように、表示画像24内に配置してもよい。そして、画像生成部42が、表示画像24内における、顔画像28aの大きさを、受付視点位置データ72aが示す視点20の位置と、顔画像28aに対応するターゲット位置データ48が示す位置との距離に基づいて決定してもよい。このとき、画像生成部42が、受付視点位置データ72aが示す視点20の位置と、顔画像28aに対応するターゲット位置データ48が示す位置との距離が短くなるほど、表示画像24内における、顔画像28aの大きさが大きくなるようにしてもよい。
なお、基礎ポリゴンデータ62や基礎特徴点位置データ70が、色を示す値(例えば、RGB値)を示す色属性データを含んでいてもよい。すなわち、基礎ポリゴン60や基礎特徴点64が、色属性データが示す色に関連付けられていてもよい。
そして、特徴点位置算出部40が、互いに対応する基礎特徴点位置データ70に含まれる色属性データが示す色を内挿して、算出特徴点位置データに対応する算出特徴点74に関連付けられる色を示す色属性データを生成してもよい。また、特徴点位置算出部40が、互いに対応する基礎ポリゴンデータ62に含まれる色属性データが示す色を内挿して、算出ポリゴンデータが示す算出ポリゴン75に関連付けられる色を示す色属性データを生成してもよい。そして、画像生成部42が、表示画像24内に表示される点やポリゴンの色が色属性データに対応する色となるよう表示画像24を生成してもよい。
また、基礎特徴点位置データ70が、二次元テクスチャ画像(図示せず)内の位置座標(X,Y)を示すテクスチャ座標属性データを含んでいてもよい。そして、特徴点位置算出部40が、互いに対応する基礎特徴点位置データ70に含まれるテクスチャ座標属性データが示す位置座標(X,Y)を内挿して、算出特徴点位置データに対応する算出特徴点74に関連付けられるテクスチャ画像内の位置座標(X,Y)を示すテクスチャ座標属性データを算出するようにしてもよい。そして、特徴点位置算出部40が、算出ポリゴンの各頂点に対応するテクスチャ画像内の位置座標(X,Y)により切り出されるテクスチャ画像を、算出ポリゴンに貼ってもよい。そして、画像生成部42が、算出ポリゴンに貼られたテクスチャ画像を含む表示画像24を生成してもよい。
また、基礎特徴点位置データ70が、二次元テクスチャ画像(図示せず)内の位置座標(X,Y)を示すテクスチャ座標属性データを含む場合に、特徴点位置算出部40が、互いに対応する基礎特徴点位置データ70に含まれるテクスチャ座標属性データが示す位置座標(X,Y)に対応するテクスチャ画像の画素の色を示す値(例えば、RGB値)を内挿して、算出特徴点位置データに対応する算出特徴点74に関連付けられる色を示す色属性データを生成してもよい。そして、画像生成部42が、表示画像24内に表示される点やポリゴンの色が色属性データに対応する色となるよう表示画像24を生成してもよい。
もちろん、算出特徴点74や算出ポリゴン75に関連付けられる属性は上述のものには限定されない。また、上述の属性算出方法を複数組み合わせて、画像生成部42が、表示画像24内の各画素の色を決定するようにしてもよい。
なお、本実施形態では、算出ポリゴン75の前後関係が、Z座標値の大小によって表現され、Z座標値に基づいて、算出ポリゴン75が表示画像24内に表示されるか否かが決定されているが、算出ポリゴン75が表示画像42内に表示されるか否かを決定する方法は、上述の方法に限定されない。
具体的には、例えば、画像生成部42が、三角形である算出ポリゴン75の頂点である3つの算出特徴点74の並びが、視点20から見て反時計回りである場合に、この算出ポリゴン75を表示画像42内に表示し、視点20から見て時計回りである場合には、この算出ポリゴン75を表示画像42内に表示しないようにしてもよい。すなわち、算出ポリゴン75の頂点の並びに基づいて決定されるポリゴン法線ベクトルの方向と、視線方向22との関係に基づいて、算出ポリゴン75を表示画像24内に表示するか否かを決定するようにしてもよい。
また、例えば、仮想三次元空間18内に光源が配置されていてもよい。そして、各基礎特徴点位置データ70に、法線ベクトルを示す基礎特徴点法線ベクトルデータが関連付けられていてもよい。そして、特徴点位置算出部40が、各基礎特徴点法線ベクトルデータが示す法線ベクトルと、その基礎部分形状データを含む基礎データ50に関連付けられる重み係数wと、に基づいて、基礎特徴点位置データ70に対応する算出特徴点位置データに関連付けられる算出特徴点法線ベクトルを示す算出特徴点法線ベクトルデータを生成してもよい。なお、特徴点位置算出部40は、重み係数wを用いずに、算出特徴点法線ベクトルデータを生成してもよい。そして、画像生成部42が、、算出法線ベクトルデータが示すベクトルと、光源との位置関係に基づいて、バンプマッピングなどの方法を用いてシェーディング処理が施されたターゲット画像28が含まれる表示画像24を生成してもよい。
また、基礎形状データ54や、算出形状データは、点やポリゴンを示すデータには限定されない。具体的には、例えば、リンクを示すデータを含んでいても構わない。
次に、画像処理装置10において所定時間(例えば、1/60秒)毎に実行される処理のうち、本実施形態に関連する処理の一例を、図12に示すフロー図を参照しながら説明する。ここで、ターゲットデータ記憶部30には、顔画像28aに対応するターゲットデータ44及び胴体画像28bに対応するターゲットデータ44が予め記憶されていることとする。また、基礎データ記憶部32には、顔ターゲットデータに関連付けられる6つの顔基礎データ50a、及び、胴体ターゲットデータに関連付けられる4つの胴体基礎データ50bが予め記憶されていることとする。
まず、視点データ受付部34が、受付視点データ72を受け付ける(S101)。そして、基礎データ選択部36が、視点20を原点とする視点座標系における、ターゲット方向データ49が示す方向に対応するベクトルに基づいて、6つの顔基礎データ50aから少なくとも1つの顔基礎データ50aを選択する。そして、基礎データ選択部36が、視点20を原点とする視点座標系における、ターゲット方向データ49が示す方向に対応するベクトルに基づいて、4つの胴体基礎データ50bのうちから少なくとも1つの胴体基礎データ50bを選択する(S102)。
そして、重み係数算出部38が、S102に示す処理で選択された各顔基礎データ50aに含まれる顔基礎視線方向関係データ56aが示すベクトルと、受付視線方向データ72bに基づいて算出される視点20を原点とする視点座標系における、ターゲット方向データ49が示す方向に対応するベクトルと、の関係に基づいて、S102に示す処理で選択された顔基礎データ50aそれぞれに関連付けられる重み係数wを算出する。そして、重み係数算出部38が、S102に示す処理で選択された各胴体基礎データ50bに含まれる胴体基礎視線方向関係データ56bが示すベクトルと、受付視線方向データ72bに基づいて算出される視点20を原点とする視点座標系における、ターゲット方向データ49が示す方向に対応するベクトルと、に基づいて、S102に示す処理で選択された胴体基礎データ50bそれぞれに関連付けられる重み係数wを算出する(S103)。
そして、特徴点位置算出部40が、S102に示す処理で選択された顔基礎データ50aに含まれる顔基礎形状データ54aと、S103に示す処理で算出された顔基礎データ50aに関連付けられる重み係数wと、に基づいて、顔算出ポリゴンデータを含む顔算出形状データを生成する。そして、特徴点位置算出部40が、S102に示す処理で選択された胴体基礎データ50bに含まれる胴体基礎形状データ54bと、S103に示す処理で算出された胴体基礎データ50bに関連付けられる重み係数wと、に基づいて、胴体算出ポリゴンデータを含む胴体算出形状データを生成する(S104)。
そして、画像生成部42が、算出ポリゴンデータが示す各顔算出ポリゴン75aと、胴体算出ポリゴンデータが示す各胴体算出ポリゴンと、を、ターゲット位置データ48が示す位置と、ローカル座標系(Xlc,Ylc,Zlc)の原点と、が対応し、視点20を原点とする視点座標系と、ローカル座標系(Xlc,Ylc,Zlc)とが対応するようにして、仮想三次元空間16内に配置する。(S105)。
そして、画像生成部42は、受付視点位置データ72aが示す視点20の位置から、受付視線方向データ72bが示す視線方向22に向かって形成されるビューボリューム内の、受付視線方向データ72bが示す視線方向22に垂直な投影面に対して、各顔算出ポリゴン75a及び各胴体算出ポリゴンを投影して、顔画像28a及び胴体画像28bが含まれる表示画像24を生成して、ディスプレイなどのUI部16に表示する(S106)。
本実施形態によれば、視線方向22に対応づけられる基礎特徴点64に基づいて、受付視線方向データ72bが示す視線方向に応じた表示画像24が生成されるので、仮想三次元空間18内における視線方向22に対応する所望の画像を容易に表示することができる。
そして、本実施形態では、顔基礎形状58aに含まれる目や鼻や口などの顔のパーツを形成する顔基礎特徴点64aの位置は、各顔基礎形状58aによって大きく異なっているので、表示画像24に含まれる顔画像28a内における、目や鼻や口などの顔のパーツの相対的な位置は、受付視線方向データ72bが示すベクトルの変化に応じて大きく変化する。一方、顔基礎形状58aに含まれる顔の輪郭を形成する顔基礎特徴点64aの位置(例えば、第1顔基礎特徴点64a−1−8や第1顔基礎特徴点64a−1−9など)は、各顔基礎形状58aについて大きな差異がないので、表示画像24にふくまれる顔画像28a内における、顔の輪郭の相対的な位置は、受付視線方向データ72bが示すベクトルの変化に応じてそれほど変化しない。このように、本実施形態によれば、基礎形状58を構成するそれぞれのパーツ(部分形状)について、受付視線方向データ72bが示すベクトルの変化に応じて異なった変化を示すようにすることができる。
なお、本発明は上記実施形態に限定されるものではない。
例えば、基礎視線方向関係データ56が示すデータは上述のデータに限定されない。例えば、基礎視線方向関係データ56は、ワールド座標系(Xw、Yw、Zw)における視線方向22を示すデータであってもよい。
また、例えば、仮想三次元空間18において、ユーザが、マウスなどのUI部16を操作することによって、ターゲット位置データ48が示す位置、及び、ターゲット方向データ49が示す方向について操作できるようにして、それぞれのターゲット位置データ48が示す位置、及び、ターゲット方向データ49が示す方向に基づいて、表示画像24に含まれる顔画像28aや胴体画像28bの形状が決定されるようにしてもよい。こうすれば、例えば、キャラクタの体がひねられた際の動きなど、複数のパーツをそれぞれ異なる方向から見た様子を一つの表示画像24内に容易に表現することができる。
また、例えば、画像生成部42が、表示画像42内の所定の位置にターゲット画像28が含まれるように、表示画像42を生成してもよい。また、画像生成部42が、表示画像42内に所定の大きさでターゲット画像28が含まれるように、表示画像42を生成してもよい。
また、例えば、基礎データ記憶部32が、ターゲット位置データ48が示す位置と受付視点位置データ72aが示す視点20の位置との距離に応じた、基礎データ50の組合せである、基礎データ集合を複数記憶してもよい。そして、基礎データ記憶部32が、ターゲット位置データ48が示す位置と受付視点位置データ72aが示す視点20の位置との距離が短くなるほど、基礎データ集合に含まれる基礎データ50の数を多くするようにしてもよい。
そして、基礎データ選択部36が、ターゲット位置データ48が示す位置と受付視点位置データ72aが示す視点20の位置との距離に基づいて、基礎データ集合を選択してから、この基礎データ集合に含まれる基礎データ50を選択してもよい。
また、画像生成部42は、複数の基礎画像(ビットマップ画像など)それぞれに対し、ユーザが予め複数の基礎特徴点64を設定し、モーフィング技術を用いて、ターゲット画像28が含まれる表示画像24を生成するようにしてもよい。
また、上述の実施形態では、基礎形状データ54が示す形状は板状の形状であったが、基礎形状データ54が示す形状は、二次元座標系における平面形状や、三次元座標系における三次元形状であってもよい。
本発明の一実施形態に係る画像処理装置のハードウェア構成の一例を示す図である。 仮想三次元空間の一例を示す図である。 表示画像の一例を示す図である。 本発明の一実施形態に係る画像処理装置の機能の一例を示す機能ブロック図である。 ターゲットデータのデータ構造の一例を示す図である。 基礎データのデータ構造の一例を示す図である。 顔基礎形状の一例を表現した図である。 顔基礎形状の一例を表現した図である。 顔基礎形状の一例を表現した図である。 顔基礎形状の一例を表現した図である。 顔基礎形状の一例を表現した図である。 顔基礎形状の一例を表現した図である。 基礎形状データのデータ構造の一例を示す図である。 受付視点データのデータ構造の一例を示す図である。 算出特徴点の位置の一例を示す図である。 算出形状の一例を示す図である。 本実施形態に係る画像処理装置で行われる処理のフローの一例を示す図である。
符号の説明
10 画像処理装置、12 制御部、14 記憶部、16 ユーザインタフェース(UI)部、18 仮想三次元空間、20 視点、22 視線方向、24 表示画像、26 ターゲット代表点、26a 顔代表点、26b 胴体代表点、27 ターゲット方向、27a 顔方向、27b 胴体方向、28 ターゲット画像、28a 顔画像、28b 胴体画像、30 ターゲットデータ記憶部、32 基礎データ記憶部、34 視点データ受付部、34a 視点位置データ受付部、34b 視線方向データ受付部、36 基礎データ選択部、38 重み係数算出部、40 特徴点位置算出部、42 画像生成部、44 ターゲットデータ、46 ターゲットID、48 ターゲット位置データ、49 ターゲット方向データ、50 基礎データ、50a 顔基礎データ、52 基礎データID、54 基礎形状データ、54a 顔基礎形状データ、56 基礎視線方向関係データ、56a 顔基礎視線方向関係データ、58 基礎形状、58a 顔基礎形状、60 基礎ポリゴン、60a 顔基礎ポリゴン、62 基礎ポリゴンデータ、64 基礎特徴点、64a 顔基礎特徴点、66 基礎特徴点群位置データ、68 ポリゴンID、70 基礎特徴点位置データ、72 受付視点データ、72a 受付視点位置データ、72b 受付視線方向データ、74 算出特徴点、74a 顔算出特徴点、75 算出ポリゴン、75a 顔算出ポリゴン、76 算出形状、76a 顔算出形状。

Claims (6)

  1. 複数の基礎特徴点それぞれの位置を示す基礎特徴点群位置データと、当該基礎特徴点群位置データと仮想三次元空間内における視線方向との関係を示す基礎視線方向関係データと、を含む基礎データを複数記憶する基礎データ記憶手段と、
    前記仮想三次元空間内における視線方向を示す受付視線方向データを受け付ける視線方向データ受付手段と、
    画像生成の単位であるターゲットの前記仮想三次元空間内における位置又は方向を示すデータと、前記受付視線方向データと、に基づいて、前記基礎データ記憶手段に記憶されている複数の基礎データのうちから複数を選択する基礎データ選択手段と、
    前記基礎データ選択手段により選択される基礎データに含まれる基礎特徴点群位置データに基づく、互いに対応する基礎特徴点同士の位置関係に基づいて、複数の算出特徴点の位置を算出する特徴点位置算出手段と、
    前記特徴点位置算出手段により算出される複数の算出特徴点の位置に基づいて、画像を生成する画像生成手段と、
    を含むことを特徴とする画像処理装置。
  2. 前記特徴点位置算出手段が、前記画像生成手段による画像生成の単位であるターゲットの前記仮想三次元空間内における方向を示すターゲット方向データと、前記受付視線方向データと、の関係に基づいて、前記複数の算出特徴点の位置を算出する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記受付視線方向データと前記各基礎視線方向関係データとの関係に基づいて、前記基礎データ記憶手段に記憶されている基礎データのうちの複数について、当該基礎データに関連付けられる重みを示す重み係数を算出する重み係数算出手段、をさらに含み、
    前記特徴点位置算出手段が、前記重み係数が示す重みに基づいて、前記複数の算出特徴点の位置を算出する、
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 複数の基礎特徴点それぞれの位置を示す基礎特徴点群位置データと、当該基礎特徴点群位置データと仮想三次元空間内における視線方向との関係を示す基礎視線方向関係データと、を含む基礎データを複数、基礎データ記憶手段に記憶させるステップと、
    前記仮想三次元空間内における視線方向を示す受付視線方向データを受け付ける視線方向データ受付ステップと、
    画像生成の単位であるターゲットの前記仮想三次元空間内における位置又は方向を示すデータと、前記受付視線方向データと、に基づいて、前記基礎データ記憶手段に記憶されている複数の基礎データのうちから複数を選択する基礎データ選択ステップと、
    前記基礎データ選択ステップにより選択される基礎データに含まれる基礎特徴点群位置データに基づく、互いに対応する基礎特徴点同士の位置関係に基づいて、複数の算出特徴点の位置を算出する特徴点位置算出ステップと、
    前記特徴点位置算出ステップにより算出される複数の算出特徴点の位置に基づいて、画像を生成する画像生成ステップと、
    を含むことを特徴とする画像処理方法。
  5. 複数の基礎特徴点それぞれの位置を示す基礎特徴点群位置データと、当該基礎特徴点群位置データと仮想三次元空間内における視線方向との関係を示す基礎視線方向関係データと、を含む基礎データを複数、基礎データ記憶手段に記憶させる手段、
    前記仮想三次元空間内における視線方向を示す受付視線方向データを受け付ける受付手段、
    画像生成の単位であるターゲットの前記仮想三次元空間内における位置又は方向を示すデータと、前記受付視線方向データと、に基づいて、前記基礎データ記憶手段に記憶されている複数の基礎データのうちから複数を選択する基礎データ選択手段、
    前記基礎データ選択手段により選択される基礎データに含まれる基礎特徴点群位置データに基づく、互いに対応する基礎特徴点同士の位置関係に基づいて、複数の算出特徴点の位置を算出する特徴点位置算出手段、
    前記特徴点位置算出手段により算出される複数の算出特徴点の位置に基づいて、画像を生成する画像生成手段、
    としてコンピュータを機能させることを特徴とするプログラム。
  6. 請求項に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。
JP2008192614A 2008-07-25 2008-07-25 画像処理装置、画像処理方法及びプログラム Active JP5097636B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008192614A JP5097636B2 (ja) 2008-07-25 2008-07-25 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008192614A JP5097636B2 (ja) 2008-07-25 2008-07-25 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2010033187A JP2010033187A (ja) 2010-02-12
JP5097636B2 true JP5097636B2 (ja) 2012-12-12

Family

ID=41737613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008192614A Active JP5097636B2 (ja) 2008-07-25 2008-07-25 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5097636B2 (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268594A (ja) * 2000-03-15 2001-09-28 Infiniteface.Com Inc 三次元ビューティーシミュレーション用クライアントサーバシステム

Also Published As

Publication number Publication date
JP2010033187A (ja) 2010-02-12

Similar Documents

Publication Publication Date Title
US8154544B1 (en) User specified contact deformations for computer graphics
JP5357685B2 (ja) 3次元オブジェクト処理装置、3次元オブジェクト処理方法、プログラム、及び情報記憶媒体
US9881417B2 (en) Multi-view drawing apparatus of three-dimensional objects, and method
TW201401224A (zh) 二維角色表現三維動作之系統及方法
EP1505546B1 (en) Method for drawing a three-dimensional image by modeling a second object connected to a first object
JP5657099B2 (ja) テクスチャマッピング装置
KR100381817B1 (ko) 제트버퍼를 이용한 입체영상 생성방법 및 기록매체
JP3748451B1 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP4125251B2 (ja) 情報処理方法および装置
JP4749198B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP3760341B2 (ja) プログラム、記録媒体、画像生成装置及び画像生成方法
JP4754384B2 (ja) プログラム、情報記録媒体および画像生成システム
JP5097636B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101227155B1 (ko) 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법
JPH06274653A (ja) グラフィック表示装置
JP5063022B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP2005251118A (ja) 画像処理方法、画像処理装置
JP6503098B1 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
JP6473215B1 (ja) プログラム、記録媒体及び描画方法
JP6473214B1 (ja) プログラム、記録媒体及び描画方法
JP2012098951A (ja) 図形描画処理装置、図形描画処理方法、及びコンピュータプログラム
JP4754385B2 (ja) プログラム、情報記録媒体および画像生成システム
JP4662260B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP7319635B2 (ja) コンピュータプログラム、仮想空間表示装置、及び仮想空間表示方法
JP7353418B1 (ja) 画像を生成するためのプログラム、方法、画像生成装置、及びゲームシステム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101124

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120924

R150 Certificate of patent or registration of utility model

Ref document number: 5097636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250