JP2022020509A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2022020509A
JP2022020509A JP2020124046A JP2020124046A JP2022020509A JP 2022020509 A JP2022020509 A JP 2022020509A JP 2020124046 A JP2020124046 A JP 2020124046A JP 2020124046 A JP2020124046 A JP 2020124046A JP 2022020509 A JP2022020509 A JP 2022020509A
Authority
JP
Japan
Prior art keywords
model
jawbone
information
soft tissue
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020124046A
Other languages
English (en)
Inventor
アンキット シャラマ
Sharma Ankit
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2020124046A priority Critical patent/JP2022020509A/ja
Priority to US18/005,049 priority patent/US20230260234A1/en
Priority to PCT/JP2021/026158 priority patent/WO2022019168A1/ja
Publication of JP2022020509A publication Critical patent/JP2022020509A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】顔モデルと調和した口腔モデルを生成する情報処理装置、情報処理方法およびプログラムを提供する。【解決手段】キャラクタ生成システム1において、記憶装置20接続する処理装置10は、情報取得部11、フィッティング部12及びモデル統合部13を有する。情報取得部11は、顔モデル、顎骨モデル、口腔モデル、深度分布情報を取得し、フィッティング部12は骸骨モデルを顔モデルにフィッティングし、モデル統合部13は、顎骨を覆う軟部組織の深度分布情報に基づいてキャラクタの顔モデルに顎骨モデルや口腔モデルを変形して組み込む。【選択図】図11

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。
写真から被写体の3次元モデルを生成する技術が開発されている。例えば、Pinscreen(非特許文献1)、loom.ai(非特許文献2)、Bellus3D(非特許文献3)およびAvatar SDK(非特許文献4)は、スマートフォンで撮影された写真に基づいて簡易な顔モデルを生成する技術を提供している。写真には口腔が写されていない場合がある。そのため、写真からは顔面の3次元モデル(顔モデル)だけが生成される。口腔には、別途用意された口腔モデル(歯や舌などのモデル)が組み込まれる。
[online],Pinscreen,[令和2年6月25日検索],インターネット<URL: https://www.pinscreen.com/avatarsdk/> [online],loom.ai,[令和2年6月25日検索],インターネット<URL: https://loomai.com/> [online],Bellus3D,[令和2年6月25日検索],インターネット<URL: https://www.bellus3d.com/> [online],Avatar SDK,[令和2年6月25日検索],インターネット<URL: https://avatarsdk.com/> Wu, C. and Bradley, D. and Garrido, P. and Zollhofer, M. and Theobalt, C. and Gross, M. and Beeler, T. Model-Based Teeth Reconstruction. ACM Transactions on Graphics (TOG) volume 35 number 6, year 2016 Gaspard Zoss, Thabo Beeler, Markus Gross, Derek Bradley. Accurate Markerless Jaw Tracking for Facial Performance Capture. ACM Transactions on Graphics (Proceedings of SIGGRAPH). 2019. (Los Angeles, USA)
しかし、非特許文献1ないし4の技術では、形状および大きさが固定された口腔モデルがそのまま顔モデルに組み込まれる。そのため、顔モデルに対して口腔モデルが調和せず、見た目が不自然に感じられる場合がある。
一方、映画やゲームなどの分野では、クリエイタが手作業で口腔モデルを配置するのが一般的である。最近、Disney Research(非特許文献5)から、高精細な顔モデルおよび口腔モデルの生成技術が発表された。しかし、この手法では複数のカメラが同時に撮影できる環境が必要で、処理時間も長くなる。さらに、予めに取得された複数人の口腔モデルのデータベースが必要である。
機械学習を利用して顎骨の動きを人物の映像から推定する技術も発表されている(非特許文献6)。この手法では顔モデルと顎骨モデルとの位置関係が確立される。ここでは、演者の歯の間に特殊なキャリブレーションデバイスを挟むこと、演者の顔にマーカーを付けること、および、数ヵ箇所から撮影を行うことで、正確な顎骨の位置と顔面の形状が取得される。取得したデータベースに基づいた回帰関数を訓練して顔面の動きから顎の動きが計算される。非特許文献5の手法と同様に、非特許文献6の手法でも、長時間かかる処理、事前訓練、および、特殊なデバイスを用いたデータベースの生成などが必要となる。
そこで、本開示では、顔モデルと調和した口腔の3次元モデルを容易に生成することが可能な情報処理装置、情報処理方法およびプログラムを提案する。
本開示によれば、顎骨を覆う軟部組織の深度分布情報に基づいてキャラクタの顔モデルに顎骨モデルを変形して組み込むモデル統合部を有する情報処理装置が提供される。また、本開示によれば、前記情報処理装置の情報処理がコンピュータにより実行される情報処理方法、ならびに、前記情報処理装置の情報処理をコンピュータに実現させるプログラムが提供される。
キャラクタモデルの生成処理の概要を説明する図である。 顔モデルの一例を示す図である。 顎骨モデルの一例を示す図である。 顎骨モデルの一例を示す図である。 口腔モデルの一例を示す図である。 顎骨モデルに口腔モデルを組み込んだ状態を示す図である。 軟部組織特徴点のタイプおよび深度情報を示す図である。 深度情報を規定するための座標系を示す図である。 深度方向の規定方法を説明する図である。 深度方向の規定方法を説明する図である。 キャラクタ生成システムの概略図である。 ベースモデルに顎骨モデルを組み込む処理を示す図である。 ベースモデルに顎骨モデルを組み込む処理を示す図である。 ベースモデルに顎骨モデルを組み込む処理を示す図である。 ベースモデルに顎骨モデルを組み込む処理を示す図である。 ベースモデルに顎骨モデルを組み込む処理を示す図である。 ベースモデルと補正顎骨モデルとの相対位置に関する情報の一例を示す図である。 非ベースモデルに顎骨モデルを組み込む処理を示す図である。 非ベースモデルに顎骨モデルを組み込む処理を示す図である。 非ベースモデルに顎骨モデルを組み込む処理を示す図である。 非ベースモデルに顎骨モデルを組み込む処理を示す図である。 非ベースモデルに顎骨モデルを組み込む処理を示す図である。 顔モデルと特異軟部組織特徴点との関係を示す図である。 顔モデルと特異軟部組織特徴点との関係を示す図である。 軟部組織特徴点の選択がフィッティングに与える影響を示す図である。 フィッティングが適切に行われなかった例を示す図である。 フィッティングが適切に行われなかった他の例を示す図である。 ベースモデルを用いたキャラクタモデルの生成フローを示す図である。 非ベースモデルを用いたキャラクタモデルの生成フローを示す図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
なお、説明は以下の順序で行われる。
[1.キャラクタ生成システムの概要]
[2.モデルの説明]
[2-1.顔モデル]
[2-2.顎骨モデル]
[2-3.口腔モデル]
[3.軟部組織特徴点の説明]
[4.キャラクタ生成システムの構成]
[5.ユーザインタフェース]
[5-1.ベースモデルへの顎骨モデルの組み込み]
[5-2.非ベースモデルへの顎骨モデルの組み込み]
[5-3.フィッティングに用いられる軟部組織特徴点]
[5-4.フィッティングの修正]
[6.情報処理方法]
[6-1.ベースモデルを用いたキャラクタモデルの生成フロー]
[6-2.非ベースモデルを用いたキャラクタモデルの生成フロー]
[7.効果]
[1.キャラクタ生成処理の概要]
図1は、キャラクタモデルCM(キャラクタの3次元モデル)の生成処理の概要を説明する図である。
キャラクタモデルCMは、顔モデルFMに顎骨モデルJBMおよび口腔モデルOMを組み込むことにより生成される。顔モデルFM、顎骨モデルJBMおよび口腔モデルOMは、一般的なCGソフトウェアによって作成される。顔モデルFM、顎骨モデルJBMおよび口腔モデルOMは、ポリゴンモデルとして生成される。ポリゴンモデルは、複数の頂点と、隣接する頂点を結んで得られる複数の辺および複数の面と、を含むポリゴンメッシュによって構成される。
顎骨モデルJBMおよび口腔モデルOMは、標準的な形状および大きさを有するジェネリックなモデルである。顔モデルFMは、キャラクタごとに生成される個別のモデルである。そのため、ジェネリックな顎骨モデルJBMは、顎骨を覆う軟部組織の深度分布情報22(図7参照)に基づいて、顔モデルFMに変形して組み込まれる。口腔モデルOMは、変形後の顎骨モデルJBM(補正顎骨モデルCJBM)に変形して組み込まれる。これにより、見た目が自然な位置に口腔の3次元モデルが生成される。
[2.モデルの説明]
[2-1.顔モデル]
図2は、顔モデルFMの一例を示す図である。
顔モデルFMは、キャラクタの顔面の3次元モデルである。顔モデルFMは、例えば、特定人物の顔の写真を用いて生成される。顔の写真は、例えば、Kinect(登録商標)などの、被写体の奥行情報を取得可能なカメラを用いて撮影される。
顔面は軟部組織によって構成される。軟部組織は、筋肉や皮膚などの、骨格以外の支持組織を意味する。顎骨を覆う軟部組織には、複数の軟部組織特徴点Cが設定されている。軟部組織特徴点Cには、軟部組織の深度および深度方向に関する情報が設定されている。
軟部組織特徴点Cは、軟部組織特徴点Cの深度方向において対向する一組の特徴点(顎骨特徴点C_Jおよび顔面特徴点C_F)によって特定される。顎骨特徴点C_Jは、軟部組織特徴点Cを深度方向に沿って顎骨上に投影した点である。顔面特徴点C_Fは、軟部組織特徴点Cを深度方向に沿って顔面上に投影した点である。顎骨特徴点C_Jおよび顔面特徴点C_Fは、それぞれ軟部組織特徴点Cと1対1に対応する。
以下、複数の軟部組織特徴点Cには、軟部組織特徴点どうしを区別するために、番号が付される場合がある。同一の軟部組織特徴点Cに関連付けられた特徴点には同じ番号が付される。矢状面を挟んで左右の対称な位置に配置された同一種類の軟部組織特徴点Cには、同じ番号が付され、符号L(左側)および符号R(右側)によって両者が区別される。例えば、図2の例では、20種類の軟部組織特徴点Cが顔面に設定されている。
[2-2.顎骨モデル]
図3および図4は、顎骨モデルJBMの一例を示す図である。
顎骨モデルJBMは、標準的な顎骨の形状および大きさを有するジェネリックな顎骨の3次元モデルである。図3に示すように、顎骨モデルJBM上には複数の顎骨特徴点C_Jが設定されている。図4に示すように、顎骨モデルJBMは、上顎骨UJBと下顎骨LJBとを有する。下顎骨LJBは、回転軸(蝶番軸)RAを中心として回転することができる。下顎骨LJBは、上顎骨UJBに対して回転軸RAと平行な方向に相対移動することができる。
[2-3.口腔モデル]
図5は、口腔モデルOMの一例を示す図である。図6は、顎骨モデルJBMに口腔モデルOMを組み込んだ状態を示す図である。
口腔モデルOMは、標準的な口腔の構造(口腔内に配置される歯、歯肉および舌などの形状、大きさおよび位置など)を有するジェネリックな口腔の3次元モデルである。口腔モデルOMは、所定の拡大率で拡大または縮小することにより顎骨モデルJBMに結合させることができる。図6の例では、口腔モデルOMは顎骨モデルJBMに合致した形状(拡大率は1)のモデルとして提示されている。そのため、口腔モデルOMは、変形せずにそのまま顎骨モデルJBMに組み込むことができる。
[3.軟部組織特徴点の説明]
顎骨を覆う軟部組織には複数の軟部組織特徴点Cが設定されている。それぞれの軟部組織特徴点Cは、顎骨特徴点C_Jおよび顔面特徴点C_Fに基づいて、以下のように定義される。
・軟部組織特徴点C1(ar_L/R)
顎骨特徴点C1_J:側頭骨に最も近い下顎骨の端にある点。
顔面特徴点C1_F:顎骨特徴点C1_Jから水平方向(回転軸RAと平行な方向)に延ばした位置にある点。
・軟部組織特徴点C2(sM2_L/R)
顎骨特徴点C2_J:上顎第二大臼歯の歯冠の上にある上顎歯槽堤の先端。
顔面特徴点C2_F:顎骨特徴点C2_Jから特定方向(図7参照)に延ばした位置にある点。
・軟部組織特徴点C3(mr_L/R)
顎骨特徴点C3_J:下顎枝の中心点。
顔面特徴点C3_F:顎骨特徴点C3_Jから特定方向(図7参照)に延ばした位置にある点。
・軟部組織特徴点C4(sC_L/R)
顎骨特徴点C4_J:上顎犬歯の歯冠の上にある上顎歯槽堤の先端。
顔面特徴点C4_F:顎骨特徴点C4_Jから特定方向(図7参照)に延ばした位置にある点。
・軟部組織特徴点C5(iM2_L/R)
顎骨特徴点C5_J:下顎第二大臼歯の歯冠の下にある下顎歯槽堤の先端。
顔面特徴点C5_F:顎骨特徴点C5_Jから特定方向(図7参照)に延ばした位置にある点。
・軟部組織特徴点C6(iC_L/R)
顎骨特徴点C6_J:下顎犬歯の歯冠の下にある下顎歯槽堤の先端。
顔面特徴点C6_F:顎骨特徴点C6_Jから特定方向(図7参照)に延ばした位置にある点。
・軟部組織特徴点C7(mmb)
顎骨特徴点C7_J:下顎骨の正中線から横方向に縁までの間の中心点。
顔面特徴点C7_F:顎骨特徴点C7_Jから特定方向(図7参照)に延ばした位置にある点。
・軟部組織特徴点C8(mentale)
顎骨特徴点C8_J:オトガイ孔。
顔面特徴点C8_F:顎骨特徴点C8_Jから特定方向(図7参照)に延ばした位置にある点。
・軟部組織特徴点C9(nasion)
顎骨特徴点C9_J:前頭鼻骨縫合との中心点。
顔面特徴点C9_F:顔の正中線で鼻と御凸の間にある窪みの一番深い点。
・軟部組織特徴点C10(nasion_L/R)
顎骨特徴点C10_J:鼻骨の正中線から横5mmの最も下の点。
顔面特徴点C10_F:顎骨特徴点C9_Jの10mm下の鼻の正中線から横5mmの位置にある点。
・軟部組織特徴点C11(ch_L/R)
顎骨特徴点C11_J:眼窩下孔。
顔面特徴点C11_F:顎骨特徴点C11_Jから特定方向(図7参照)に延ばした位置にある点。
・軟部組織特徴点C12(acp_L/R)
顎骨特徴点C12_J:鼻孔の横の点。
顔面特徴点C12_F:顎骨特徴点C12_Jから特定方向(図7参照)に延ばした位置にある点。
・軟部組織特徴点C13(sn)
顎骨特徴点C13_J:上顎骨の正中線での前鼻棘の点。
顔面特徴点C13_F:中隔と上唇が結合するところの顔面上で最も深い点。
・軟部組織特徴点C14(mp)
顎骨特徴点C14_J:上顎骨の正中線上で顎骨特徴点C13_Jと顎骨特徴点C15_Jの中間の点。
顔面特徴点C14_F:顔面の正中線上で顔面特徴点C13_Fと顔面特徴点C15_Fの中間の点。
・軟部組織特徴点C15(ls)
顎骨特徴点C15_J:上顎骨歯槽堤の正中線で最前端の点。
顔面特徴点C15_F:上唇の正中線で、上部の朱色の境界線上の点。
・軟部組織特徴点C16(li)
顎骨特徴点C16_J:下顎骨歯槽堤の正中線で最前端の点。
顔面特徴点C16_F:下唇の正中線で、下部の朱色の境界線上の点。
・軟部組織特徴点C17(mls)
顎骨特徴点C17_J:下顎骨の正中線でオトガイ隆起の上にある窪みの一番深い点。
顔面特徴点C17_F:顎の正中線で顔面特徴点C16_Fと顔面特徴点C18_Fの間にある顎の窪みの一番深い点。
・軟部組織特徴点C18(pg)
顎骨特徴点C18_J:下顎骨の隆起(オトガイ隆起)の最も前方の正中線上の点。
顔面特徴点C18_F:顎の軟部組織の隆起で最も前方の正中線上の点。
・軟部組織特徴点C19(gn)
顎骨特徴点C19_J:下顎骨の正中線で顎骨特徴点C18_Jと顎骨特徴点C20_Jの中間の点。
顔面特徴点C19_F:顎骨特徴点C19_Jから特定方向(図7参照)に延ばした位置にある点。
・軟部組織特徴点C20(m)
顎骨特徴点C20_J:下顎結合での正中線の最も下の点。
顔面特徴点C20_F:顎骨特徴点C19_Jから特定方向(図7参照)に延ばした位置にある点。
図7は、軟部組織特徴点Cのタイプおよび深度情報を示す図である。図8は、深度情報を規定するための座標系を示す図である。図9および図10は、深度方向の規定方法を説明する図である。
図7に示すように、複数の軟部組織特徴点Cは、タイプPとタイプDに分類される。タイプPは、顔面特徴点C_Fが顔面の特徴的な構造に基づいて定義されるタイプである。タイプDは、顔面特徴点C_Fが、顔面の特徴的な構造ではなく、顎骨特徴点C_Jからの方位(深度方向)によって定義されるタイプである。なお、顎骨特徴点C_Jは、タイプPおよびタイプDのいずれにおいても、顎骨の特徴的な構造に基づいて定義される。
深度情報は、例えば、軟部組織の深度方向、深度の平均(標準深度)および深度の標準偏差に関する情報を含む。図8に示すように、深度方向は、例えば、咬合平面をXZ平面とし、矢状面をYZ平面とし、冠状面をXY平面とするXYZ座標系に基づいて設定される。下顎骨から上顎骨に向かう方向はY軸の正方向であり、後頭部から前頭部に向かう方向はZ軸の正方向である。軟部組織の深度方向および標準深度は、図3において、顎骨特徴点C_Jに付された棒線DBの方向および長さによって示されている。
図7において、「y(角度a)」は、(-1,0,0)の方向を(0,-1,0)の方向に向けてZ軸の周りに角度aだけ回転した方向を意味する。「角度b anterior」は、(-1,0,0)の方向を(0,0,1)の方向に向けてY軸の周りに角度bだけ回転した方向を意味する。「y(角度a) 角度b anterior」は、(-1,0,0)の方向を(0,-1,0)の方向に向けてZ軸の周りに角度aだけ回転し、さらに、(0,0,1)の方向に向けてY軸の周りに角度bだけ回転した方向を意味する。図9は、y(-15deg) 20deg anterior」で規定される方向を示す。
図10に示すように、軟部組織特徴点C20の深度方向は、顎骨特徴点C20_Jにおける顎骨の曲率を二等分する方向(顎骨の接線に垂直な方向)である。標準的な顎骨(図10の左側の顎骨)では、(0,―1,0)の方向である。
上述した軟部組織特徴点C1~C7、C9、C12~C20の位置情報および深度情報は、下記文献に記載された情報に基づく。下記文献のデータは、約1500人の軟部組織の深度データの平均と標準偏差を計算して作られている。
Stephan, CN and Simpson, EK (2008) Facial Soft Tissue Depths in Craniofacial Identification (Part I): An Analytical Review of the Published Adult Data. Journal of Forensic Sciences 53(6): 1257-1272
上記文献に記載された軟部組織特徴点Cは、矢状面(YZ平面)に配置されるものが多い。そのため、これらの軟部組織特徴点Cのみを用いて顎骨モデルJBMを顔モデルFMにフィッティングすると、顎骨モデルJBMの回転量および並進移動量が精度よく算出されず、顎骨モデルJBMが顔モデルFMに対して左右に傾いた位置に配置される可能性がある。そのため、矢状面とは異なる位置に配置される軟部組織特徴点C8,C11,C12が、本発明者によって追加されている。
[4.キャラクタ生成システムの構成]
図11は、キャラクタ生成システム1の概略図である。
キャラクタ生成システム1は、キャラクタモデルCMを生成するための情報処理システムである。キャラクタ生成システム1は、処理装置10と、記憶装置20と、入力装置30と、表示装置40と、を有する。
処理装置10は、情報取得部11と、フィッティング部12と、モデル統合部13と、相対位置算出部14と、補正部15と、を有する。処理装置10は、各種情報を処理する情報処理装置である。
情報取得部11は、例えば、記憶装置20に記憶されたモデル情報21、深度分布情報22および相対位置情報23を取得する。情報取得部11は、入力装置30を介してユーザが入力した各種情報を取得する。入力装置30は、タッチパネル、キーボードおよびマウスなどの公知の入力装置である。
モデル情報21は、顔モデルFM、顎骨モデルJBMおよび口腔モデルOMを構成するポリゴンメッシュの座標情報を含む。モデル情報21には、同一キャラクタの複数の顔モデルFMの情報が含まれる。複数の顔モデルFMには、1つのベースモデルBM(図12参照)と複数の非ベースモデルNBM(図18参照)とが含まれる。ベースモデルBMは、例えば、無表情を示す顔モデルFMである。無表情の状態では、全ての顔の筋肉がリラックスしている。非ベースモデルNBMは、ベースモデルBMとは異なる、特定の表情を示す顔モデルFMである。表情は、情動などに応じて顔に表出される変化である。情動は、明確な原因によって引き起こされる強い感情である。無表情以外の状態では、顔の一部の筋肉が収縮している。非ベースモデルNBMの表情としては、例えば、笑顔、怒り顔および泣き顔など、互いに性質の異なる複数の表情が用いられる。
深度分布情報22は、顎骨を覆う軟部組織の深度分布を示す情報である。深度分布情報22は、例えば、複数の軟部組織特徴点Cの位置情報と、軟部組織特徴点Cごとの深度情報と、を含む。位置情報は、軟部組織特徴点C(顎骨特徴点C_Jおよび顔面特徴点C_F)の位置を特定する情報を含む。深度情報は、例えば、軟部組織の深度方向(顎骨特徴点C_Jと顔面特徴点C_Fとを結ぶ直線の延在方向)、標準深度および深度の標準偏差に関する情報を含む。深度情報は、ベースモデルBMに対応する顔面状態(無表情)における深度情報として規定されている。
相対位置情報23は、顔モデルFMに合わせて変形された顎骨モデルJBM(補正顎骨モデルCJBM)と顔モデルFMとの相対位置に関する情報である。補正顎骨モデルCJBMと顔モデルFMとの相対位置は、例えば、軟部組織特徴点Cごとの、顎骨特徴点C_Jと顔面特徴点C_Fとの相対位置に基づいて規定される。
相対位置情報23は、例えば、位置パラメータPOおよび変形パラメータSに関する情報を含む。位置パラメータPOは、補正顎骨モデルCJBMを顔モデルFMに組み込む位置を示すパラメータである。位置パラメータPOは、例えば、X軸、Y軸およびZ軸を中心とした上顎骨UJBおよび下顎骨LJBの回転量Rと、X軸方向、Y軸方向およびZ軸方向における上顎骨UJBおよび下顎骨LJBの並進移動量Tと、を含む。位置パラメータPOは上顎骨UJBと下顎骨LJBに対して独立に設定される。変形パラメータSは、顎骨モデルJBMを顔モデルFMに合わせて変形する際の顎骨モデルJBMの変形量を示すパラメータである。変形パラメータSは、例えば、顎骨モデルJBMのX軸方向、Y軸方向およびZ軸方向の拡大率を示す。
フィッティング部12は、深度分布情報22に基づいて顎骨モデルJBMを顔モデルFMにフィッティングする。フィッティング部12は、フィッティング結果に基づいて、顎骨モデルJBMの変形パラメータSおよび位置パラメータPOを算出する。フィッティング部12は、複数の軟部組織特徴点C1~C20の中から、フィッティングに用いる複数の軟部組織特徴点Cを選択する。フィッティングには、選択された複数の軟部組織特徴点Cの深度情報が用いられる。例えば、フィッティング部12は、軟部組織特徴点Cの位置情報に基づいて、モデル情報21から、フィッティングに用いられる複数の軟部組織特徴点Cに対応した複数の顎骨特徴点C_Jおよび複数の顔面特徴点C_Fの座標を抽出する。顔面特徴点C_Fの座標は、対応する顎骨特徴点C_Jの座標と、変形パラメータSおよび位置パラメータPO(回転量R、並進移動量T)を用いて算出される。
フィッティング部12は、複数の軟部組織特徴点C1~C20から選択された複数の軟部組織特徴点Cについて、それぞれ軟部組織の深度を確率変数とする確率密度関数を算出する。フィッティング部12は、選択された全ての軟部組織特徴点Cの確率密度関数の総和が最大化されるような解を最適解とする数式モデル(下記式(1)参照)に基づいて変形パラメータSおよび位置パラメータPO(回転量R、並進移動量T)を算出する。
Figure 2022020509000002
式(1)において、「i」は軟部組織特徴点Cの番号を示す。「σ」は軟部組織特徴点Ciにおける軟部組織の深度の標準偏差を示す。「μ」は軟部組織特徴点Ciにおける軟部組織の深度の平均(標準深度)を示す。「J」は、軟部組織特徴点Ciに対応する顎骨特徴点Ci_Jの座標を示す。「F」は、軟部組織特徴点Ciに対応する顔面特徴点Ci_Fの座標を示す。「dist(J,F)」は、顎骨特徴点Ci_Jと顔面特徴点Ci_Fとの相対距離(深度)を示す。
フィッティングに用いられる軟部組織特徴点Cは、ベースモデルBMに対するフィッティングを行う場合と非ベースモデルBMに対するフィッティングを行う場合とで異なる。
例えば、ベースモデルBMに対するフィッティングを行う場合には、複数の軟部組織特徴点C1~C20のうち、全ての軟部組織特徴点C1~C20がフィッティングに用いられる。フィッティング部12は、全ての軟部組織特徴点C1~C20の深度情報に基づいて、顎骨モデルJBMをベースモデルBMにフィッティングする。フィッティング部12は、このフィッティング結果に基づいて、顎骨モデルJBMの変形パラメータSおよび位置パラメータPOを算出する。これにより、同一キャラクタの全ての顔モデルFMにおいて共用される顎骨モデルJBMの変形パラメータSが確定する。
別の顔モデルFM(非ベースモデルNBM)に対するフィッティングを行う場合には、複数の軟部組織特徴点C1~C20のうち、前述の顔モデルFM(ベースモデルBM)から別の顔モデル(非ベースモデルNBM)への顔面形状の変化によって深度情報が変化しない複数の特異軟部組織特徴点PC(図23、図24参照)がフィッティングに用いられる。フィッティング部12は、変形パラメータSを維持したまま、選択された全ての特異軟部組織特徴点PCの深度情報に基づいて、顎骨モデルJBMを別の顔モデルFMにフィッティングする。フィッティング部12は、このフィッティング結果に基づいて、補正顎骨モデルCJBMを別の顔モデルFMに組み込むための位置パラメータPOを算出する。
例えば、フィッティング部12は、複数の軟部組織特徴点C1~C20のうち、フィッティングの対象となる顔モデルFMの表情に応じて選択された複数の特異軟部組織特徴点PCについて、それぞれ軟部組織の深度を確率変数とする確率密度関数を算出する。フィッティング部12は、選択された全ての特異軟部組織特徴点PCの確率密度関数の総和が最大化されるような解を最適解とする数式モデル(上式(1))に基づいて位置パラメータPOを算出する。
位置パラメータPOは、例えば、第1位置パラメータP1と第2位置パラメータP2とを含む。第1位置パラメータP1は、上顎骨UJBと顔モデルFMとの相対位置を示す。第2位置パラメータP2は、下顎骨LJBと上顎骨UJBとの相対位置を示す。フィッティング部12は、まず、複数の軟部組織特徴点C1~C20から選択された複数の軟部組織特徴点Cの深度情報に基づいて、顎骨モデルJBMを顔モデルFMにフィッティングし、第1位置パラメータP1を算出する。選択された複数の軟部組織特徴点Cには、上顎骨UJBを覆う軟部組織に設定された複数の特異軟部組織特徴点PCが含まれる。次に、フィッティング部12は、下顎骨LJBを覆う軟部組織に設定された複数の特異軟部組織特徴点PCの深度情報に基づいて、顎骨モデルJBMを顔モデルFMにフィッティングし、第2位置パラメータP2を算出する。
モデル統合部13は、顔モデルFMにジェネリックな顎骨モデルJBMおよび口腔モデルOMを変形して組み込んでキャラクタモデルCMを生成する。
モデル統合部13は、まず、深度分布情報22に基づいてキャラクタの顔モデルFMにジェネリックな顎骨モデルJBMを変形して組み込む。例えば、モデル統合部13は、フィッティング結果から得られた変形パラメータに基づいて顎骨モデルJBMを変形する。モデル統合部13は、位置パラメータPOに基づいて、変形された顎骨モデルJBM(補正顎骨モデルCJBM)を顔モデルFMに組み込む位置を決定する。モデル統合部13は、決定された位置に補正顎骨モデルCJBMを配置して顔モデルFMと統合する。
次に、モデル統合部13は、補正顎骨モデルCJBMにジェネリックな口腔モデルOMを変形して組み込む。まず、モデル統合部13は、顎骨モデルJBMと口腔モデルOMの座標情報に基づいて、口腔モデルOMを顎骨モデルJBMに組み込むための拡大率を算出する。歯と顎の相対位置は不変である。そのため、顎骨モデルJBMの変形パラメータSおよび位置パラメータPOは口腔モデルOMの変形パラメータおよび位置パラメータとして流用される。モデル統合部13は、算出された拡大率と顎骨モデルJBMの変形パラメータSとに基づいて、口腔モデルOMの変形パラメータを算出する。モデル統合部13は、算出された変形パラメータに基づいて口腔モデルOMを変形する。モデル統合部13は、顎骨モデルJBMの位置パラメータPOに基づいて、変形された口腔モデルOMを補正顎骨モデルCJBMに組み込み、補正顎骨モデルCJBMと統合する。
モデル統合部13は、統合作業中の各種モデルの座標情報およびパラメータ情報を逐次表示装置40に出力する。表示装置40は、LCD(Liquid Crystal Display)やOLED(Organic Light Emitting Diode)などの公知の表示装置である。表示装置40に出力される座標情報には、顔モデルFMに顎骨モデルJBMおよび口腔モデルOMを組み込む前および後の顔モデルFM、顎骨モデルJBMおよび口腔モデルOMの座標情報が含まれる。パラメータ情報には、顔モデルFMに顎骨モデルJBMおよび口腔モデルOMを組み込んだときの顎骨モデルJBMおよび口腔モデルOMの変形パラメータおよび位置パラメータの情報が含まれる。表示装置40は、モデル統合部13から出力された情報に基づいて、統合作業中の各種モデルの画像、および、各種パラメータの値を表示する。
ユーザは、表示装置40に表示されたプレビュー画像に基づいて、顔モデルFM、補正顎骨モデルCJBMおよび補正口腔モデルCOMの相対位置を補正するための補正情報を入力することができる。補正情報には、例えば、パラメータ補正情報および深度分布補正情報が含まれる。パラメータ補正情報は、顎骨モデルJBMの変形パラメータSおよび位置パラメータPOを補正する情報である。深度分布補正情報は、深度分布情報22を補正する情報である。情報取得部11は、入力装置30を介してユーザから入力された補正情報を取得する。フィッティング部12は、情報取得部11が深度分布補正情報を取得したことに応答して、深度分布情報22を深度分布補正情報に基づいて補正する。フィッティング部12は、補正された深度分布情報(補正深度分布情報)に基づいてフィッティングを行う。
相対位置算出部14は、顔モデルFMごとに、顔モデルFMと補正顎骨モデルCJBMと補正口腔モデルCOMとの相対位置を算出する。例えば、相対位置算出部14は、軟部組織特徴点Cごとに、補正顎骨モデルCJBM上の顎骨特徴点C_J(補正顎骨特徴点C_CJ)と顔面特徴点C_Fとの相対位置を算出する。相対位置算出部14は、軟部組織特徴点Cごとの補正顎骨特徴点C_CJと顔面特徴点C_Fとの相対位置に関する情報を、顔モデルFMと補正顎骨モデルCJBMとの相対位置を示す情報として算出する。相対位置算出部14は、例えば、歯槽窩と歯との位置関係に基づいて、補正顎骨モデルCJBMと補正口腔モデルCOMとの相対位置に関する情報を算出する。相対位置算出部14は、顔モデルFMと補正顎骨モデルCJBMとの相対位置、補正顎骨モデルCJBMと補正口腔モデルCOMとの相対位置、顎骨モデルJBMの変形パラメータSおよび口腔モデルOMの変形パラメータに関する情報を相対位置情報23として出力する。
補正部15は、相対位置情報23に含まれる変形パラメータSおよび位置パラメータPOの情報をパラメータ補正情報に基づいて補正する。補正部15は、パラメータ補正情報に基づいて補正された相対位置情報23を記憶装置20に出力する。
記憶装置20は、例えば、処理装置10が実行するプログラム24と、モデル情報21と、深度分布情報22と、相対位置情報23と、を記憶する。プログラム24は、本実施形態に係る情報処理をコンピュータに実行させるプログラムである。処理装置10は、記憶装置20に記憶されているプログラム24にしたがって各種の処理を行う。記憶装置20は、処理装置10の処理結果を一時的に記憶する作業領域として利用されてもよい。記憶装置20は、例えば、半導体記憶媒体および磁気記憶媒体などの任意の非一過的な記憶媒体を含む。記憶装置20は、例えば、光ディスク、光磁気ディスクまたはフラッシュメモリを含んで構成される。プログラム24は、例えば、コンピュータにより読み取り可能な非一過的な記憶媒体に記憶されている。
処理装置10は、例えば、プロセッサとメモリとで構成されるコンピュータである。処理装置10のメモリには、RAM(Random Access Memory)およびROM(Read Only Memory)が含まれる。処理装置10は、プログラム24を実行することにより、情報取得部11、フィッティング部12、モデル統合部13、相対位置算出部14および補正部15として機能する。
[5.ユーザインタフェース]
以下、図12ないし図29を用いてキャラクタ生成システム1のユーザインタフェースUIの一例を説明する。ユーザは、表示装置40に表示されるユーザインタフェースUIを用いてキャラクタモデルCMを生成する。
[5-1.ベースモデルへの顎骨モデルの組み込み]
図12ないし図16は、ベースモデルBMに顎骨モデルJBMを組み込む処理を示す図である。
図12に示すように、表示装置40には、コマンド入力フィールドCIF、プレビューフィールドMDFおよびパラメータ表示フィールドPDFが表示される。コマンド入力フィールドCIFには、各種コマンドを入力するためのボタンが表示される。プレビューフィールドMDFには、各種モデル、および、モデルの統合作業中のプレビュー画像が表示される。
図12には、モデル情報21からベースモデルBMを読み出してプレビューフィールドMDFに表示させた状態が示されている。ベースモデルBMには、複数の顔面特徴点C_Fが表示されている。パラメータ表示フィールドPDFには、モデル統合作業中の各種パラメータの値が表示される。図12の例では、ベースモデルBMのパラメータを表示するためのパラメータ表示フィールドPDFと、顎骨モデルJBMのパラメータを表示するためのパラメータ表示フィールドPDFと、が表示画面右側の上部と下部にわかれて表示されている。
図13には、モデル情報21から顎骨モデルJBMを読み出してプレビューフィールドMDFに表示させた状態が示されている。顎骨モデルJBMには、複数の顎骨特徴点C_Jが表示されている。顎骨特徴点C_Jには、顎骨特徴点C_Jに対応した軟部組織特徴点Cの深度情報が棒線DBによって表示されている。棒線DBの向きおよび長さは、軟部組織特徴点Cにおける軟部組織の深度方向および標準深度を表す。
図14には、顎骨モデルJBMとベースモデルBMとをプレビューフィールドMDFに表示させた状態が示されている。この状態で、ユーザが、コマンド入力フィールドCIFに表示された第1フィッターボタンを押すと、ベースモデルBMに対する顎骨モデルJBMのフィッティングが開始される。図15には、フィッティングによってベースモデルBMに補正顎骨モデルCJBMが組み込まれた状態が示されている。図16に示すように、プレビュー画像の視点はユーザによって任意に設定することができる。
プレビューフィールドMDFには、顎骨モデルJBMの形状および位置をベースモデルBMに合わせて調整した補正顎骨モデルCJBMと、補正顎骨モデルCJBM上に設定された複数の補正顎骨特徴点C_CJと、が表示される。顎骨モデルJBM用のパラメータ表示フィールドPDFには、顎骨モデルJBMの変形パラメータSおよび位置パラメータPOを表示させることができる。パラメータ表示フィールドPDFには、上顎骨UJBの変形パラメータおよび第1位置パラメータP1と、下顎骨LJBの変形パラメータおよび第2位置パラメータP2と、が切り替えボタンによって切り替えて表示される。
補正顎骨特徴点C_CJには、深度分布情報22に規定された深度情報が棒線DBで表示される。棒線DBの長さ(標準深度)は、フィッティングによって得られた補正顎骨特徴点C_CJと顔特徴点C_Fとの相対距離とは必ずしも一致しない。プレビューフィールドMDFには、フィッティングによって得られた相対距離と標準深度とのずれが標準偏差σに基づいて色分けして表示される。例えば、ずれがσ以下であれば棒線DBは緑色で表示される。ずれがσよりも大きく2σ以下であれば棒線DBは黄色で表示される。ユーザは、緑色の棒線DBが付された補正顎骨特徴点C_CJの数によって、フィッティングが適切に行われたか判断することができる。
図17は、相対位置算出部14で算出されるベースモデルBMと補正顎骨モデルCJBMとの相対位置に関する情報の一例を示す図である。
図17において、「顎骨」は、軟部組織特徴点Cが設定された軟部組織が覆う顎骨の部分を示す。「1」は上顎骨を示し、「2」は下顎骨を示す。「タイプ」は、軟部組織特徴点Cのタイプを示す。「1」はタイプPを示し、「2」はタイプDを示す。「深度」は、補正顎骨特徴点C_CJと顔面特徴点C_Fとの相対距離を示す。「頂点(顔)」は、顔モデルFMを構成するポリゴンメッシュの頂点のうち、軟部組織特徴点Cに最も近い頂点の番号を示す。「頂点(顎骨)」は、補正顎骨モデルを構成するポリゴンメッシュの頂点のうち、軟部組織特徴点Cに最も近い頂点の番号を示す。「方向」は、軟部組織の深度方向(補正顎骨特徴点C_CJと顔面特徴点C_Fとを結ぶ直線の延在方向)を示す。
ユーザは、プレビュー画像に基づいて、フィッティングが適切に行われたと判断した場合には、コマンド入力フィールドCIFに設けられた保存ボタンによってフィッティング結果を保存する。この操作により、相対位置算出部14で算出されたベースモデルBMと補正顎骨モデルCJBMとの相対位置に関する情報が記憶装置20に出力され、相対位置情報23として記憶装置20に記憶される。
[5-2.非ベースモデルへの顎骨モデルの組み込み]
図18ないし図22は、非ベースモデルNBMに顎骨モデルJBMを組み込む処理を示す図である。
図18には、モデル情報21から読み出された非ベースモデルNBMと、ベースモデルBMに関する相対位置情報23に基づいて生成された補正顎骨モデルCJBMと、をプレビューフィールドMDFに表示させた状態が示されている。図18の補正顎骨モデルCJBMは、ベースモデルBMに顎骨モデルJBMをフィッティングして得られた変形パラメータSおよび位置パラメータPOに基づいて生成されたものである。そのため、上顎骨UJBおよび下顎骨LJBの位置は、非ベースモデルNBMに適したものではない。
図18の状態で、ユーザが、コマンド入力フィールドCIFに表示された第2フィッターボタンを押すと、非ベースモデルNBMに対する補正顎骨モデルCJBMのフィッティングが開始される。図19には、フィッティングによって非ベースモデルNBMに補正顎骨モデルCJBMが組み込まれた状態が示されている。図20には、視点を顔の正面に配置したときのプレビュー画像が表示されている。
プレビューフィールドMDFには、非ベースモデルNBMに合わせて位置が調整された補正顎骨モデルCJBMと、補正顎骨モデルCJBM上に設定された複数の補正顎骨特徴点C_CJと、が表示される。顎骨モデルJBM用のパラメータ表示フィールドPDFには、顎骨モデルJBMの変形パラメータSおよび位置パラメータPOを表示させることができる。
補正顎骨特徴点C_CJには、深度分布情報22に規定された深度情報が棒線DBで表示される。プレビューフィールドMDFには、フィッティングによって得られた補正顎骨特徴点C_CJと顔特徴点C_Fとの相対距離と、標準深度と、のずれが標準偏差σに基づいて色分けして表示される。ユーザは、色分けされた棒線DBの情報に基づいて、フィッティングが適切に行われたか判断することができる。
図20の状態で、記憶装置20から口腔モデルOMを読み出し、フィッティングのフォームとして、顎骨モデルJBMを非ベースモデルNBMにフィッティングしたときの相対位置情報23を読み込む。すると、図21に示すように、口腔モデルOMが、顎骨モデルJBMの変形パラメータSおよび位置パラメータPOに基づいて、補正顎骨モデルCJBMに変形して組み込まれる。これにより、キャラクタモデルCMが生成される。図22は、キャラクタモデルCMをワイヤフレーム画像からテクスチャ画像に変換した図が示されている。
[5-3.フィッティングに用いられる軟部組織特徴点]
深度分布情報22は、無表情の顔(ベースモデルBM)の深度データに基づいて作成されている。表情を変えると、いくつかの軟部組織特徴点Cにおいて軟部組織の深度が、深度分布情報22に規定された値からずれる。誤った深度に基づいてフィッティングに用いると、フィッティング結果に誤差が生じる。よって、非ベースモデルNBMについてフィッティングを行う場合には、ベースモデルBMから非ベースモデルNBMへの表情の変化によって深度情報が変化しない複数の軟部組織特徴点C(特異軟部組織特徴点PC)を用いてフィッティングが行われる。
図23および図24は、顔モデルFMと、フィッティングに用いる特異軟部組織特徴点PCと、の関係を示す図である。図23は、口が開く顔モデルFMの例を示す図であり、図24は、口が開かない顔モデルFMの例を示す図である。
特異軟部組織特徴点PCの種類は、表情ごとに異なる。これは、表情によって動かす筋肉が異なるためである。例えば、口を大きく開けた場合には、頬の筋肉が収縮し、頬の近傍の軟部組織の深度は小さくなる。そのため、頬の近傍にある軟部組織特徴点Cはフィッティングに用いられない。表情に応じた軟部組織の深度の変化は予め予測することができる。モデル情報21には、この予測結果に基づいて、顔モデルFMとフィッティングに用いられる特異軟部組織特徴点PCとの対応関係が規定されている。なお、図23および図24に示した9種類の表情は、キャラクタの基本表情であり、他の表情はこの9種類の基本表情の組み合わせによって表現される。
図25は、軟部組織特徴点Cの選択がフィッティングに与える影響を示す図である。
図25の上段は、軟部組織特徴点C9,C10L,C10R,C12L,C12R,C13,C14,C15,C16,C17,C18,C19,C20をフィッティングに用いた例である。図25の下段は、軟部組織特徴点C9,C10L,C10R,C12L,C12R,C13をフィッティングに用いた例である。上段の例と下段の例とでは、フィッティング結果が異なる。上段の例では、下段の例に比べて、下顎骨LJBの回転量が大きく、補正口腔モデルCOMを組み込んだときに、上歯と下歯との間に隙間が生じる。フィッティングに用いる軟部組織特徴点Cの選択を誤ると、生成される口腔の構造が顔モデルFMの表情に合致せず、違和感を生じさせる。
[5-4.フィッティングの修正]
図26は、フィッティングが適切に行われなかった例を示す図である。
図26の例では、上顎骨UJBの位置が顔の中心CEよりも左側にずれている。ユーザは、入力装置30を介して、上顎骨UJBの変形パラメータおよび第1位置パラメータP1を補正するパラメータ補正情報を入力することができる。パラメータ補正情報は、例えば、パラメータ表示フィールドPDFに表示された上顎骨UJBの変形パラメータおよび第1位置パラメータP1を上書きする態様で入力することができる。
ユーザによりパラメータ補正情報が入力されると、モデル統合部13は、パラメータ補正情報によって補正された上顎骨UJBの変形パラメータおよび第1位置パラメータP1に基づいて、プレビュー画像における補正顎骨モデルJBMの位置を修正する。補正部15は、パラメータ補正情報によって補正された変形パラメータおよび位置パラメータに基づいて、相対位置情報23を補正する。ユーザは、プレビュー画像で補正顎骨モデルCJBMの位置を確認する。補正顎骨モデルCJBMが適切な位置に組み込まれている場合には、ユーザは、コマンド入力フィールドCIFの保存ボタンにより保存操作を行う。この操作により、補正部15で補正された相対位置情報23が記憶装置20に出力され、記憶装置20に記憶される。
図27は、フィッティングが適切に行われなかった他の例を示す図である。
図27の上段の例では、補正顎骨モデルCJBMの幅が顔モデルFMに合っていない。ユーザは、色分けされた棒線DBの情報に基づいて、標準深度から大きくずれた軟部組織特徴点Cを特定する。ユーザは、入力装置30を介して、特定された軟部組織特徴点Cの深度情報を補正する深度分布補正情報を入力することができる。例えば、ユーザがマウスなどで特定の棒線DBを選択すると、棒線DBに対応する軟部組織特徴点Cの深度情報を表示するパラメータ表示フィールドPDFが表示画面に現れる。このパラメータ表示フィールドPDFには、標準深度の値を調節するためのスライダSLが表示される。ユーザはスライダSLを操作することにより、軟部組織特徴点Cの標準深度を補正する深度分布補正情報を入力することができる。例えば、図27の上段の例では、顎骨を横方向に拡大するために、頬の部分の軟部組織特徴点Cの標準深度を小さく設定することができる。
ユーザにより深度分布補正情報が入力されると、フィッティング部12は、深度分布補正情報に基づいて深度分布情報22を補正する。フィッティング部12は、補正された深度分布情報(補正深度分布情報)に基づいて、顎骨モデルJBMを顔モデルFMにフィッティングする。モデル統合部13は、フィッティングによって得られた顎骨モデルJBMの変形パラメータSおよび位置パラメータPOに基づいて、顎骨モデルJBMを顔モデルFMに変形して組み込む。ユーザは、プレビュー画像で、深度分布情報22を補正する前と後のフィッティング結果(補正顎骨モデルCJBMの形状および位置)を比較する。補正深度分布情報を用いたフィッティングにより、補正顎骨モデルCJBMが適切な形状および位置で顔モデルFMに組み込まれている場合には、ユーザは、コマンド入力フィールドCIFの保存ボタンにより保存操作を行う。この操作により、補正深度分布情報に基づいて算出された相対位置情報23が記憶装置20に出力され、記憶装置20に記憶される。
[6.情報処理方法]
図28および図29は、処理装置10の情報処理方法の一例を示すフローチャートである。
[6-1.ベースモデルを用いたキャラクタモデルの生成フロー]
図28は、ベースモデルBMを用いたキャラクタモデルCMの生成フローを示す図である。
ステップS1において、情報取得部11は、記憶装置20から、ベースモデルBM、顎骨モデルJBM、口腔モデルOMおよび深度分布情報22を取得する。
ステップS2において、モデル統合部13は、表示装置40にベースモデルBMおよび顎骨モデルJBMを表示させる。ベースモデルBMには、複数の軟部組織特徴点Cに対応した複数の顔面特徴点C_Fが付される。顎骨モデルJBMには、複数の軟部組織特徴点Cに対応した複数の顎骨特徴点C_Jが付される。
ステップS3において、情報取得部11は、深度分布補正情報を取得したか判定する。ステップS3において、深度分布補正情報が取得されたと判定された場合には(ステップS3:Yes)、ステップS4に進む。ステップS4において補正部15は、深度分布補正情報に基づいて深度分布情報22を補正する。そして、ステップS5に進む。ステップS3において、深度分布補正情報が取得されたと判定されない場合には(ステップS3:No)、ステップS5に進む。
ステップS5において、フィッティング部12は、深度分布情報22に基づいて顎骨モデルJBMをベースモデルBMにフィッティングする。フィッティング部12は、フィッティング結果に基づいて、顎骨モデルJBMの変形パラメータSおよび位置パラメータPOを算出する。
ステップS6において、モデル統合部13は、表示装置40にフィッティング結果を表示させる。表示装置40には、顎骨モデルJBMを変形パラメータSによって変形した補正顎骨モデルCJBMが、位置パラメータPOに基づいてベースモデルBMに組み込まれた状態がプレビュー画像として表示される。
ステップS7において、情報取得部11は、パラメータ補正情報を取得したか判定する。ステップS7において、パラメータ補正情報が取得されたと判定された場合には(ステップS7:Yes)、ステップS8に進む。ステップS8において、モデル統合部13は、パラメータ補正情報に基づいて顎骨モデルJBMの変形パラメータSおよび位置パラメータPOを補正する。モデル統合部13は、補正後の変形パラメータSおよび位置パラメータPOに基づいて補正顎骨モデルCJBMの形状および位置が補正されたプレビュー画像を表示装置40に表示させる。そして、ステップS7に戻る。
ステップS7において、パラメータ補正情報が取得されたと判定されない場合には(ステップS7:No)、ステップS9に進む。ステップS9において、相対位置算出部14は、補正顎骨モデルCJBMとベースモデルBMとの相対位置を算出する。相対位置算出部14は、補正顎骨モデルCJBMとベースモデルBMとの相対位置に関する情報を相対位置情報23として記憶装置20に出力する。
ステップS10において、顎骨モデルJBMの変形パラメータSおよび位置パラメータPOに基づいて、補正顎骨モデルCJBMに口腔モデルOMを変形して組み込む。
なお、図28では、ステップS5のフィッティングの前に深度分布補正情報の取得判定処理(ステップS3)および深度分布情報の補正処理(ステップSS4)が行われた。しかし、これらの補正処理は、フィッティング結果が表示された後(ステップS6以降)に行われてもよい。
[6-2.非ベースモデルを用いたキャラクタモデルの生成フロー]
図29は、非ベースモデルNBMを用いたキャラクタモデルCMの生成フローを示す図である。図29のフローは、図28のフローの後に実施される。
ステップS21において、情報取得部11は、記憶装置20から、非ベースモデルNBM、顎骨モデルJBM、口腔モデルOM、深度分布情報22および相対位置情報23を取得する。
ステップS22において、モデル統合部13は、表示装置40に非ベースモデルNBMおよび補正顎骨モデルCJBMを表示させる。非ベースモデルNBMには、複数の軟部組織特徴点Cに対応した複数の顔面特徴点C_Fが付される。補正顎骨モデルCJBMには、複数の軟部組織特徴点Cに対応した複数の補正顎骨特徴点C_CJが付される。
ステップS23において、情報取得部11は、深度分布補正情報を取得したか判定する。ステップS23において、深度分布補正情報が取得されたと判定された場合には(ステップS23:Yes)、ステップS24に進む。ステップS24において補正部15は、深度分布補正情報に基づいて深度分布情報22を補正する。そして、ステップS25に進む。ステップS23において、深度分布補正情報が取得されたと判定されない場合には(ステップS23:No)、ステップS25に進む。
ステップS25において、フィッティング部12は、深度分布情報22から、非ベースモデルNBMに関連付けられた複数の特異軟部組織特徴点PCの深度情報を抽出する。フィッティング部12は、複数の特異軟部組織特徴点PCの深度情報に基づいて、補正顎骨モデルCJBMの上顎骨UJBを非ベースモデルNBMにフィッティングする。例えば、フィッティング部12は、軟部組織特徴点C1L,C1R,C2L,C2R,C3L,C3R,C4L,C4R,C9,C10L,C10R,C11L,C11R,C12L,C12R,C13,C14,C15の中から選択された複数の特異軟部組織特徴点PCの深度情報を式(1)に当てはめて、上顎骨UJBの第1位置パラメータP1を算出する。なお、非ベースモデルNBMは、ベースモデルBMと同一のキャラクタの顔モデルFMである。そのため、補正顎骨モデルCJBMの形状は変更されない。よって、フィッティングでは、相対位置情報に規定された顎骨モデルJBMの変形パラメータSは維持される。
ステップS26において、フィッティング部12は、複数の特異軟部組織特徴点PCの深度情報に基づいて、補正顎骨モデルCJBMの下顎骨LJBを非ベースモデルNBMにフィッティングする。例えば、フィッティング部12は、軟部組織特徴点C5L,C5R,C6L,C6R,C7L,C7R,C8L,C8R,C9,C16,C17,C18,C19,C20の中から選択された複数の特異軟部組織特徴点PCの深度情報を式(1)に当てはめて、下顎骨LJBの第2位置パラメータP2を算出する。フィッティングでは、相対位置情報に規定された顎骨モデルJBMの変形パラメータSは維持される。
ステップS27において、モデル統合部13は、表示装置40にフィッティング結果を表示させる。表示装置40には、補正顎骨モデルCJBMが、位置パラメータPO(第1位置パラメータP1、第2位置パラメータP2)に基づいて非ベースモデルNBMに組み込まれた状態がプレビュー画像として表示される。
ステップS28において、情報取得部11は、パラメータ補正情報を取得したか判定する。ステップS28において、パラメータ補正情報が取得されたと判定された場合には(ステップS28:Yes)、ステップS29に進む。ステップS29において、モデル統合部13は、パラメータ補正情報に基づいて補正顎骨モデルCJBMの位置パラメータPOを補正する。モデル統合部13は、補正後の位置パラメータPOに基づいて補正顎骨モデルCJBMの位置が補正されたプレビュー画像を表示装置40に表示させる。そして、ステップS28に戻る。
ステップS28において、パラメータ補正情報が取得されたと判定されない場合には(ステップS28:No)、ステップS30に進む。ステップS30において、相対位置算出部14は、補正顎骨モデルCJBMと非ベースモデルNBMとの相対位置を算出する。そして、ステップS31において、モデル統合部13は、相対位置情報に規定された変形パラメータSによって口腔モデルOMを変形する。モデル統合部13は、変形された口腔モデルOM(補正口腔モデルCOM)を、補正顎骨モデルCJBMの位置パラメータPOに基づいて、補正顎骨モデルCJBMに組み込む。
なお、図29では、ステップS25のフィッティングの前に深度分布補正情報の取得判定処理(ステップS23)および深度分布情報の補正処理(ステップS24)が行われた。しかし、これらの補正処理は、フィッティング結果が表示された後(ステップS27以降)に行われてもよい。
[7.効果]
処理装置10は、モデル統合部13を有する。モデル統合部13は、顎骨を覆う軟部組織の深度分布情報22に基づいてキャラクタの顔モデルFMに顎骨モデルJBMを変形して組み込む。本実施形態の情報処理方法は、上述した処理装置10の情報処理がコンピュータにより実行される。本実施形態のプログラム24は、上述した処理装置10の情報処理をコンピュータに実現させる。
この構成によれば、顔モデルFMに合わせた適切な形状を有する補正顎骨モデルCJBMが生成される。補正顎骨モデルCJBMに口腔モデルOMを組み合わせることで、顔モデルFMと調和した口腔の3次元モデルが容易に生成される。
処理装置10は、フィッティング部12を有する。フィッティング部12は、深度分布情報22に基づいて顎骨モデルJBMを顔モデルFMにフィッティングし、変形パラメータSおよび位置パラメータPOを算出する。変形パラメータSは、顎骨モデルJBMの変形量を示す。位置パラメータPOは、顎骨モデルJBMを顔モデルFMに組み込む位置を示す。
この構成によれば、補正顎骨モデルCJBMの形状および位置が適切に設定される。
フィッティング部12は、変形パラメータSを維持したまま、深度分布情報22に基づいて顎骨モデルJBMを同一キャラクタの別の顔モデルFMにフィッティンする。フィッティング部12は、このフィッティングにより、顎骨モデルJBMを別の顔モデルFMに組み込むための位置パラメータPOを算出する。
この構成によれば、既知の変形パラメータSを用いて位置パラメータPOが算出される。そのため、位置パラメータPOの演算が容易になる。同一のキャラクタについては顎骨の形状および大きさは不変である。そのため、変形パラメータSを改めて算出する必要はない。変形パラメータSを固定することで、演算量が減り、顔モデルFMが変化しても顎骨モデルJBMを素早く適切な位置に配置することができる。
深度分布情報22は、軟部組織に設定された複数の軟部組織特徴点Cの位置情報と、軟部組織特徴点Cごとの深度情報と、を含む。フィッティング部12は、複数の軟部組織特徴点Cのうち、前述の顔モデルFM(ベースモデルBM)から別の顔モデルFM(非ベースモデルNBM)への顔面形状の変化によって深度情報が変化しない複数の特異軟部組織特徴点PCの深度情報に基づいて、顎骨モデルJBMを別の顔モデルFMにフィッティングする。
軟部組織の深度情報は表情(顔モデルFM)によって変化する場合がある。フィッティングは、入力された深度分布情報22に基づいて行われるため、軟部組織特徴点Cの深度が深度分布情報22に規定されたものからずれると、フィッティング結果に誤差が生じる。深度情報が不変の軟部組織特徴点Cのみを用いてフィッティングを行った場合には、深度情報の変化に起因した誤差が生じず、適切なフィッティング結果が得られる。
位置パラメータPOは、第1位置パラメータP1と第2位置パラメータP2とを含む。第1位置パラメータP1は、顎骨モデルJBMの上顎骨UJBと別の顔モデルFMとの相対位置を示す。第2位置パラメータP2は、顎骨モデルJBMの下顎骨LJBと上顎骨UJBとの相対位置を示す。フィッティング部12は、上顎骨UJBを覆う軟部組織に設定された複数の特異軟部組織特徴点PCの深度情報に基づいて第1位置パラメータP1を算出する。フィッティング部12は、下顎骨LJBを覆う軟部組織に設定された複数の特異軟部組織特徴点PCの深度情報に基づいて第2位置パラメータP2を算出する。
この構成によれば、上顎骨UJBのフィッティングと下顎骨LJBのフィッティングとが分離して行われる。そのため、個々のフィッティングの演算が容易になり、演算精度も高まる。
深度情報は、軟部組織の深度方向、深度の平均(標準深度)および深度の標準偏差に関する情報を含む。フィッティング部12は、複数の軟部組織特徴点Cのうち、フィッティングの対象となる顔モデルFMの表情に応じて選択された複数の特異軟部組織特徴点PCについて、それぞれ軟部組織の深度を確率変数とする確率密度関数を算出する。フィッティング部12は、選択された全ての特異軟部組織特徴点PCの確率密度関数の総和が最大化されるような解を最適解とする数式モデルに基づいて位置パラメータPOを算出する。
この構成によれば、軟部組織の深度に個人差があっても、適切にフィッティングを行うことができる。
処理装置10は、情報取得部11を有する。情報取得部11は、変形パラメータSおよび位置パラメータPOを補正するパラメータ補正情報を取得する。
この構成によれば、フィッティング結果が適切でない場合に、手動で変形パラメータSおよび位置パラメータPOを修正することができる。
情報取得部11は、深度分布情報22を補正する深度分布補正情報を取得する。フィッティング部12は、深度分布補正情報によって補正された深度分布情報22に基づいて顎骨モデルJBMを顔モデルFMにフィッティングする。
この構成によれば、軟部組織の深度の個人差が大きくてフィッティングがうまく行えない場合でも、補正された深度分布情報22に基づいて適切なフィッティング結果が得られる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
顎骨を覆う軟部組織の深度分布情報に基づいてキャラクタの顔モデルに顎骨モデルを変形して組み込むモデル統合部を有する情報処理装置。
(2)
前記深度分布情報に基づいて前記顎骨モデルを前記顔モデルにフィッティングし、前記顎骨モデルの変形量を示す変形パラメータ、および、前記顎骨モデルを前記顔モデルに組み込む位置を示す位置パラメータを算出するフィッティング部を有する
上記(1)に記載の情報処理装置。
(3)
前記フィッティング部は、前記変形パラメータを維持したまま、前記深度分布情報に基づいて前記顎骨モデルを同一キャラクタの別の顔モデルにフィッティングし、前記顎骨モデルを前記別の顔モデルに組み込むための前記位置パラメータを算出する
上記(2)に記載の情報処理装置。
(4)
前記深度分布情報は、前記軟部組織に設定された複数の軟部組織特徴点の位置情報と、軟部組織特徴点ごとの深度情報と、を含み、
前記フィッティング部は、前記複数の軟部組織特徴点のうち、前記顔モデルから前記別の顔モデルへの顔面形状の変化によって前記深度情報が変化しない複数の特異軟部組織特徴点の前記深度情報に基づいて、前記顎骨モデルを前記別の顔モデルにフィッティングする
上記(3)に記載の情報処理装置。
(5)
前記位置パラメータは、前記顎骨モデルの上顎骨と前記別の顔モデルとの相対位置を示す第1位置パラメータと、前記顎骨モデルの下顎骨と前記上顎骨との相対位置を示す第2位置パラメータと、を含み、
前記フィッティング部は、前記上顎骨を覆う前記軟部組織に設定された複数の特異軟部組織特徴点の前記深度情報に基づいて前記第1位置パラメータを算出し、
前記フィッティング部は、前記下顎骨を覆う前記軟部組織に設定された複数の特異軟部組織特徴点の前記深度情報に基づいて前記第2位置パラメータを算出する
上記(4)に記載の情報処理装置。
(6)
前記深度情報は、前記軟部組織の深度方向、深度の平均および深度の標準偏差に関する情報を含み、
前記フィッティング部は、前記複数の軟部組織特徴点のうち、フィッティングの対象となる顔モデルの表情に応じて選択された前記複数の特異軟部組織特徴点について、それぞれ前記軟部組織の深度を確率変数とする確率密度関数を算出し、選択された全ての特異軟部組織特徴点の確率密度関数の総和が最大化されるような解を最適解とする数式モデルに基づいて前記位置パラメータを算出する
上記(4)または(5)に記載の情報処理装置。
(7)
前記変形パラメータおよび前記位置パラメータを補正するパラメータ補正情報を取得する情報取得部を有する
上記(2)ないし(6)のいずれか1つに記載の情報処理装置。
(8)
前記情報取得部は、前記深度分布情報を補正する深度分布補正情報を取得し、
前記フィッティング部は、前記深度分布補正情報によって補正された前記深度分布情報に基づいて前記顎骨モデルを前記顔モデルにフィッティングする
上記(7)に記載の情報処理装置。
(9)
顎骨を覆う軟部組織の深度分布情報に基づいてキャラクタの顔モデルに顎骨モデルを変形して組み込むことを有する、コンピュータにより実行される情報処理方法。
(10)
顎骨を覆う軟部組織の深度分布情報に基づいてキャラクタの顔モデルに顎骨モデルを変形して組み込むことをコンピュータに実現させるプログラム。
10 処理装置(情報処理装置)
11 情報取得部
12 フィッティング部
13 モデル統合部
22 深度分布情報
24 プログラム
C 軟部組織特徴点
FM 顔モデル
JBM 顎骨モデル
LJB 下顎骨
PO 位置パラメータ
P1 第1位置パラメータ
P2 第2位置パラメータ
PC 特異軟部組織特徴点
S 変形パラメータ
UJB 上顎骨

Claims (10)

  1. 顎骨を覆う軟部組織の深度分布情報に基づいてキャラクタの顔モデルに顎骨モデルを変形して組み込むモデル統合部を有する情報処理装置。
  2. 前記深度分布情報に基づいて前記顎骨モデルを前記顔モデルにフィッティングし、前記顎骨モデルの変形量を示す変形パラメータ、および、前記顎骨モデルを前記顔モデルに組み込む位置を示す位置パラメータを算出するフィッティング部を有する
    請求項1に記載の情報処理装置。
  3. 前記フィッティング部は、前記変形パラメータを維持したまま、前記深度分布情報に基づいて前記顎骨モデルを同一キャラクタの別の顔モデルにフィッティングし、前記顎骨モデルを前記別の顔モデルに組み込むための前記位置パラメータを算出する
    請求項2に記載の情報処理装置。
  4. 前記深度分布情報は、前記軟部組織に設定された複数の軟部組織特徴点の位置情報と、軟部組織特徴点ごとの深度情報と、を含み、
    前記フィッティング部は、前記複数の軟部組織特徴点のうち、前記顔モデルから前記別の顔モデルへの顔面形状の変化によって前記深度情報が変化しない複数の特異軟部組織特徴点の前記深度情報に基づいて、前記顎骨モデルを前記別の顔モデルにフィッティングする
    請求項3に記載の情報処理装置。
  5. 前記位置パラメータは、前記顎骨モデルの上顎骨と前記別の顔モデルとの相対位置を示す第1位置パラメータと、前記顎骨モデルの下顎骨と前記上顎骨との相対位置を示す第2位置パラメータと、を含み、
    前記フィッティング部は、前記上顎骨を覆う前記軟部組織に設定された複数の特異軟部組織特徴点の前記深度情報に基づいて前記第1位置パラメータを算出し、
    前記フィッティング部は、前記下顎骨を覆う前記軟部組織に設定された複数の特異軟部組織特徴点の前記深度情報に基づいて前記第2位置パラメータを算出する
    請求項4に記載の情報処理装置。
  6. 前記深度情報は、前記軟部組織の深度方向、深度の平均および深度の標準偏差に関する情報を含み、
    前記フィッティング部は、前記複数の軟部組織特徴点のうち、フィッティングの対象となる顔モデルの表情に応じて選択された前記複数の特異軟部組織特徴点について、それぞれ前記軟部組織の深度を確率変数とする確率密度関数を算出し、選択された全ての特異軟部組織特徴点の確率密度関数の総和が最大化されるような解を最適解とする数式モデルに基づいて前記位置パラメータを算出する
    請求項4に記載の情報処理装置。
  7. 前記変形パラメータおよび前記位置パラメータを補正するパラメータ補正情報を取得する情報取得部を有する
    請求項2に記載の情報処理装置。
  8. 前記情報取得部は、前記深度分布情報を補正する深度分布補正情報を取得し、
    前記フィッティング部は、前記深度分布補正情報によって補正された前記深度分布情報に基づいて前記顎骨モデルを前記顔モデルにフィッティングする
    請求項7に記載の情報処理装置。
  9. 顎骨を覆う軟部組織の深度分布情報に基づいてキャラクタの顔モデルに顎骨モデルを変形して組み込むことを有する、コンピュータにより実行される情報処理方法。
  10. 顎骨を覆う軟部組織の深度分布情報に基づいてキャラクタの顔モデルに顎骨モデルを変形して組み込むことをコンピュータに実現させるプログラム。
JP2020124046A 2020-07-20 2020-07-20 情報処理装置、情報処理方法およびプログラム Pending JP2022020509A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020124046A JP2022020509A (ja) 2020-07-20 2020-07-20 情報処理装置、情報処理方法およびプログラム
US18/005,049 US20230260234A1 (en) 2020-07-20 2021-07-12 Information processing device, information processing method, and program
PCT/JP2021/026158 WO2022019168A1 (ja) 2020-07-20 2021-07-12 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020124046A JP2022020509A (ja) 2020-07-20 2020-07-20 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2022020509A true JP2022020509A (ja) 2022-02-01

Family

ID=79728712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020124046A Pending JP2022020509A (ja) 2020-07-20 2020-07-20 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US20230260234A1 (ja)
JP (1) JP2022020509A (ja)
WO (1) WO2022019168A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053345A1 (ja) * 2022-09-05 2024-03-14 ソニーグループ株式会社 情報処理装置、情報処理方法、および、コンピュータ読み取り可能な非一時的記憶媒体

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113223140A (zh) * 2020-01-20 2021-08-06 杭州朝厚信息科技有限公司 利用人工神经网络生成牙科正畸治疗效果的图像的方法
US20230377135A1 (en) * 2022-05-20 2023-11-23 Sharesmile Biotech Co., Ltd. System, method, and computer program of automatically recognizing malocclusion class

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044873A (ja) * 2001-08-01 2003-02-14 Univ Waseda 顔の3次元モデルの作成方法及びその変形方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053345A1 (ja) * 2022-09-05 2024-03-14 ソニーグループ株式会社 情報処理装置、情報処理方法、および、コンピュータ読み取り可能な非一時的記憶媒体

Also Published As

Publication number Publication date
WO2022019168A1 (ja) 2022-01-27
US20230260234A1 (en) 2023-08-17

Similar Documents

Publication Publication Date Title
WO2022019168A1 (ja) 情報処理装置、情報処理方法およびプログラム
US11151802B2 (en) Method and system for providing a face adjustment image
US12064311B2 (en) Visual presentation of gingival line generated based on 3D tooth model
Valenzano et al. Shape analysis of female facial attractiveness
US10980422B2 (en) Method for visualizing a tooth situation
EP3790495B1 (en) Simulated orthodontic treatment via augmented visualization in real-time
US8711178B2 (en) System and method for generating profile morphing using cephalometric tracing data
KR101799878B1 (ko) 2d 영상 장치
CN115135277A (zh) 使用手机摄像头在家跟踪进度
US20180085201A1 (en) Model-based teeth reconstruction
Jiang et al. Registration technology of augmented reality in oral medicine: A review
US20220233287A1 (en) Dental restoration assessment using virtual model
US20160224690A1 (en) System and Method for Adding Surface Detail to Digital Crown Models Created Using Statistical Techniques
CN113260335B (zh) 用于测量牙周袋深度的系统
JP5751865B2 (ja) 顔画像処理装置
JP2021514232A (ja) 患者の歯列の3次元モデルをカメラによって記録された患者の顔の画像に整合させるための方法
KR101856907B1 (ko) 틀니 교정 장치 및 이에 의한 틀니 교정 방법
JP2005074136A (ja) 顔形状のモデリング方法及び顔形状モデリング用プログラム
WO2022173055A1 (ja) 骨格推定方法、装置、プログラム、システム、学習済みモデル生成方法、および学習済みモデル
KR102672239B1 (ko) 랜드마크를 이용한 교정 진단 이미지 표시 방법, 디바이스 및 그 기록매체
WO2024053345A1 (ja) 情報処理装置、情報処理方法、および、コンピュータ読み取り可能な非一時的記憶媒体
US20240350229A1 (en) Visual presentation of gingival line generated based on 3d tooth model
WO2023203385A1 (en) Systems, methods, and devices for facial and oral static and dynamic analysis
US20140180643A1 (en) Computer implemented method for selecting a dental prosthetic
Kowalski Realistic modelling of facial expressions using vol ume morphing