JPWO2018221092A1 - 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、画像処理システム、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JPWO2018221092A1
JPWO2018221092A1 JP2019522035A JP2019522035A JPWO2018221092A1 JP WO2018221092 A1 JPWO2018221092 A1 JP WO2018221092A1 JP 2019522035 A JP2019522035 A JP 2019522035A JP 2019522035 A JP2019522035 A JP 2019522035A JP WO2018221092 A1 JPWO2018221092 A1 JP WO2018221092A1
Authority
JP
Japan
Prior art keywords
image
image processing
subject
unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019522035A
Other languages
English (en)
Inventor
岡田 良平
良平 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018221092A1 publication Critical patent/JPWO2018221092A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)

Abstract

リアルタイムでの入力画像に基づく3D画像生成を可能とした装置、方法を提供する。入力画像の各画像フレームに対する加工処理を実行して3次元画像を生成する。入力画像の被写体の属性情報と3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して3次元画像を生成する。テンプレートデータベースは、人物の顔の構成要素単位のマテリアルが記録されており、画像処理部は、顔の構成要素単位のマスク画像を適用して、各構成要素に対するマテリアルをテンプレートデータベースから取得して、顔の構成要素単位でのマテリアル設定を実行する。

Description

本開示は、画像処理装置、画像処理システム、および画像処理方法、並びにプログラムに関する。さらに詳細には、3次元(3D)画像のレンダリングを実行する画像処理装置、画像処理システム、および画像処理方法、並びにプログラムに関する。
近年、コンピュータ・グラフィクス(CG:Computer Graphics)技術を用いた3次元(3D)画像生成技術が、映画やゲームなど様々な分野で利用されている。
例えば、特許文献1(特開2012−185624号公報)には、低い計算コストで高品質な人物の顔を描画する3次元顔モデルデータ生成装置が開示されている。
この特許文献1には、顔の表情データを取得した後に人物の顔の部分のみを切り出し、表情に応じて変形させた顔形状対応のテクスチャを貼り付ける処理を行うことで、高品質で違和感のない3次元顔画像を生成して表示する装置が開示されている。
さらに、特許文献2(特開2010−113548号公報)には、テクスチャマッピング手法を採用したポリゴン3次元グラフィックス描画装置が記載されている。
物体の反射に関わる係数をテクスチャデータに持たせることにより、1つのポリゴン内において複数の異なる反射を表現することを可能とし、より少ないモデルデータでさらに高度な物体の質感表現を可能とする装置を開示している。
特開2012−185624号公報 特開2010−113548号公報
しかしながら、特許文献1に記載の技術は、人物映像から切り出した顔テクスチャを顔モデルに貼り付けてレンダリングする処理について記載しているが、例えば,特性の異なる部位ごとに反射特性を変更させるなどの考慮がされていないため、撮影時の照明環境と異なる条件下で表示した場合には,不自然な3D画像となる場合がある。
一方、特許文献2に記載の技術は、テクスチャデータに反射係数等の物体の材質を示すマテリアルパラメータを保持させ、それらを活用したレンダリングを行うことで、きめ細かい質感表現を実現している。
しかし、この特許文献2に記載の構成は、予めテクスチャデータに一つのマテリアルパラメータを対応付けて記録する構成であり、そのため、各テクスチャに対して一意な質感しか表現できないという問題がある。具体的には、例えば光源方向に応じた最適な質感表現ができないといった問題がある。
本開示は、例えば上述の問題点に鑑みてなされたものであり、より自然なリアリティのある3次元(3D)画像の表示処理を実現する画像処理装置、画像処理システム、および画像処理方法、並びにプログラムを提供するものである。
本開示の一実施例は、表示対象となる人物の撮影画像を入力し、その入力撮影画像(テクスチャ)から、人物の性別や年齢などの属性を分析し、さらに顔器官、肌領域、体部位、髪、衣服などの特徴量検出を行う。さらに、事前に用意されたテンプレートデータベースから被写体に適したマテリアル設定用のテクスチャマップと、マテリアルの適用範囲を指定するマスク画像を自動生成することで、任意の人物3D画像モデルデータに対し、適切なマテリアルをリアルタイムに自動設定し、リアリティのあるレンダリングを実現することを可能としている。
また、本開示の一実施例は、人物の3次元(3D)画像の表示処理において、事前にユーザからどのようなCG効果を与えたいかのカスタマイズ情報を取得し、入力されたテクスチャ(撮影画像)から、顔器官、肌領域、体部位、髪、衣服などの特徴量検出を行う。その後、ユーザ選択に紐付くテンプレートデータベースからマテリアル設定用のテクスチャマップと、マテリアルの適用範囲を指定するマスク画像を自動生成することで、任意の人物3D画像モデルデータに対し、適切なマテリアルをリアルタイムに自動設定し、ユーザの好むレンダリングを実現することを可能としている。
本開示の第1の側面は、
入力画像に基づく3次元画像生成処理を実行する画像処理部を有し、
前記画像処理部は、
前記入力画像の被写体の属性情報と、3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して3次元画像の生成処理を実行する画像処理装置にある。
さらに、本開示の第2の側面は、
画像を送信する送信装置と、
前記送信装置からの入力画像に対する加工処理を実行して、3次元画像を生成して表示部に表示する受信装置を有し、
前記受信装置の画像処理部は、
前記入力画像の被写体の属性情報と、3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して前記3次元画像の生成処理を実行する画像処理システムにある。
さらに、本開示の第3の側面は、
画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、
入力画像に基づく3次元画像生成処理を実行する画像処理部を有し、
前記画像処理部が、
前記入力画像の被写体の属性情報と、3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して3次元画像の生成処理を実行する画像処理方法にある。
さらに、本開示の第4の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
前記画像処理装置は、
入力画像に基づく3次元画像生成処理を実行する画像処理部を有し、
前記プログラムは、前記画像処理部に、
前記入力画像の被写体の属性情報と、3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して3次元画像の生成処理を実行させるプログラムにある。
なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、画像処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本開示の一実施例の構成によれば、リアルタイムでの入力画像に基づく3D画像生成を可能とした装置、方法が実現される。
具体的には、例えば、入力画像の各画像フレームに対する加工処理を実行して3次元画像を生成する。入力画像の被写体の属性情報と3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して3次元画像を生成する。テンプレートデータベースは、人物の顔の構成要素単位のマテリアルが記録されており、画像処理部は、顔の構成要素単位のマスク画像を適用して、各構成要素に対するマテリアルをテンプレートデータベースから取得して、顔の構成要素単位でのマテリアル設定を実行する。
本構成により、リアルタイムでの入力画像に基づく3D画像生成を可能とした装置、方法が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
3D画像のレンダリング処理とマテリアルについて説明する図である。 テクスチャマップについて説明する図である。 本開示の画像処理システムの構成例と処理例について説明する図である。 本開示の画像処理システムの構成例と処理例について説明する図である。 本開示の画像処理システムの構成例と処理例について説明する図である。 画像処理装置の構成例について説明する図である。 記憶部に格納されるデータとテンプレートデータベースの例について説明する図である。 記憶部に格納されるデータとテンプレートデータベースの例について説明する図である。 本開示の画像処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 特徴点について説明する図である。 マスク画像の例について説明する図である。 マスク画像の生成処理例について説明する図である。 マスク画像の生成処理例について説明する図である。 マスク画像の生成処理例について説明する図である。 マスク画像の生成処理例について説明する図である。 マスク画像の生成処理例について説明する図である。 マスク画像の生成処理例について説明する図である。 記憶部に格納されるデータとテンプレートデータベースの例について説明する図である。 記憶部に格納されるデータとテンプレートデータベースの例について説明する図である。 本開示の画像処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 画像処理装置多のハードウェア構成例について説明する図である。
以下、図面を参照しながら本開示の画像処理装置、画像処理システム、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
1.コンピュータ・グラフィクス(CG)処理の概要について
2.画像処理システムの構成例について
3.画像処理装置の構成例について
4.画像処理装置の実行する処理について
5.ユーザ入力情報に基づくカスタマイズを行った3D画像を生成する処理例について
6.画像処理装置のハードウェア構成例について
7.本開示の構成のまとめ
[1.コンピュータ・グラフィクス(CG)処理の概要について]
まず、コンピュータ・グラフィクス(CG:Computer Graphics)処理の概要について説明する。
前述したように、近年、コンピュータ・グラフィクス(CG:Computer Graphics)技術を用いた3次元(3D)画像生成技術が、映画やゲームなど様々な分野で利用されている。
3次元画像の描画処理として行われるレンダリングは、3次元モデルの分割領域である「メッシュ」に対する「マテリアル」の設定処理によって行われる。
メッシュは、3次元モデルの細かな分割領域である三角形や四角形等の多角形領域である。
このメッシュにマテリアルを設定することで、3次元画像の描画処理、レンダリングが行われる。
「マテリアル」は、一般的には、物体の素材、材質のことであるが、3次元画像描画処理として行われるコンピュータ・グラフィックス(CG)においては、物体の特性としての光学的特性、材質感の定義情報であり、オブジェクトに設定する材質の意味を持つ。
例えば、人物をレンダリングする場合、レンダリング対象となる要素には、人の肌、眼球、口、髪、衣服などがある。これらの各要素は、特性が異なる部位ごとに複数のメッシュに分割され、各メッシュに最適なマテリアルを設定、すなわち最適な光学的特性、材質感を設定することで、リアリティのある3次元モデルデータを生成することができる。
なお、後段で説明する本開示の画像処理装置は、例えばネットワークを介して受信する被写体、例えば人物を撮影した映像に基づいてCG加工した3D画像を生成して表示する。
この場合、人物の撮影映像は、毎フレームごとに撮影画像とメッシュが更新される。
このフレーム単位で更新されるデータに対して,肌,眼球,唇,髪,衣服などの部位に適切なマテリアルを設定する処理を行ってリアルタイムでの3D画像の生成、表示を行う。
例えば、動く人物に対するメッシュ設定処理として、統計的人体形状モデルであるSCAPE(Shape Completion and Animation of People)モデルを被写体画像にフィティングさせてメッシュ作成を行う方法が知られている。このメッシュ作成方式では,顔器官の位置等はベースモデルから取得され、ベースモデルに対応した3D画像が生成される。
しかし、得られる情報がスクリーンスペースの画像である撮影画像(テクスチャ画像)とメッシュだけの場合は,フレームごとに様々なマテリアルを適用させる位置を推定する必要がある。本開示の処理では、スクリーンスペースの撮影画像から顔器官検出,特徴点検出,セマンティックセグメンテーション等を実行して,設定する各マテリアル単位のマスク画像を生成し,マテリアルの適用範囲を決定した上でマテリアルの設定処理を実行する。
この本開示の具体的処理については後段で詳細に説明する。
上述したように、「マテリアル」は、物体の特性としての光学的特性、材質感の定義情報である。
「マテリアル」は、3次元モデルの各メッシュを構成するオブジェクト(物体)に設定する材質に相当する。例えば、
3次元モデルが、金属、木材、人の肌、髪等の異なる物質によって構成されている場合、メッシュは、これらの物質単位で区分することが必要であり、各物質内のメッシュには、その物質の材質に一致する「マテリアル」を設定することが必要である。
図1に示すように、「マテリアル」の要素として、「テクスチャ」と、「シェーダ」がある。
「テクスチャ」は、メッシュに貼り付ける画像であり、
「シェーダ」は、物体に光を当てたときに物体表面上に生じる明暗、即ち反射光の強度を計算するアルゴリズムであり、設定する光源やマテリアルに基づいて、メッシュ内の画素(ピクセル)ごとの描画色を計算するアルゴリズムである。
基本的なシェーダとして、ランバートシェーダ、フォンシェーダ、ブリンシェーダなどがある。
また、人物表現を対象としたシェーダに、肌シェーダ、髪シェーダ、眼球シェーダなどがある。
3次元モデルの構成要素となるメッシュに対して、そのメッシュの実際の材質に近いマテリアル、具体的には、テクスチャやシェーダを設定することで、リアリティのある3次元モデルデータを生成することができる。
テクスチャは、各々が異なる効果を持つ複数のテクスチャマップを合成して生成することが可能な画像データである。
図2に、示すように、テクスチャマップには、例えば、以下の種類がある。
(1)ベースカラーマップ(Base color map)
(2)シャイニネスマップ(Shininess map)
(3)ノーマルマップ(Normal map)
(4)キャビティマップ(Cavity map)
(5)メタリックマップ(Metallic map)
各テクスチャマップの効果、表現について、図2を参照して説明する。
(1)ベースカラーマップ(Base color map)は、基礎(絵柄)となる色情報である。
(2)シャイニネスマップ(Shininess map)は、物質の滑らかさを制御するテクスチャマップであり、輝度が高い箇所ほどスペキュラ(鏡面反射)が鋭くなる。黒(0,0)が完全拡散反射であり、白(1,0)が完全鏡面反射である。
具体的には、光沢度であり、例えば、顔の部位ごとの照りの差を表現することができる。
(3)ノーマルマップ(Normal map)は、微細凹凸を表現するテクスチャマップであり、皺、ホクロなど顔の細かい凹凸を表現することができる。
(4)キャビティマップ(Cavity map)は、スペキュラ(鏡面反射)の強さを抑制したいときに用いる。例えば、毛穴やシミなど微小な陰を生成することができる。
(5)メタリックマップ(Metallic map)は、金属度合いの制御を行う場合に利用されるテクスチャマップであり、黒(0,0)が非金属、白(1,0)が金属に相当する。例えば、金具部分に適用すると金属の質感を表現することができる。
このように、テクスチャは、各々が異なる効果を持つ複数のテクスチャマップを合成して生成することが可能な画像データである。
図1、図2を参照して説明したように、3次元画像を描画(レンダリング)する場合、例えばポリゴン等の三角形や四角形等の多角形領域によって構成されるメッシュ単位で最適なマテリアルを設定することが必要となる。
「マテリアル」の要素として、「テクスチャ」と、「シェーダ」があり、これらの「テクスチャ」と、「シェーダ」を、3次元モデルの構成要素単位の材質、さらに光源方向等を考慮して決定することで、現実感のある3次元画像の描画処理(レンダリング)を行うことができる。
例えば、3次元画像として人の顔の肌の描画(レンダリング)を行う場合、顔の肌領域に対応するメッシュ領域に、人の肌特性に応じた最適なマテリアルを設定する。
一般的には、このレンダリング処理において、どのテクスチャマップを使用して、どのようなCG効果を与えるかは、デザイナーが事前に様々な検討を行ってレンダリングを行う。
最近のレンダリングエンジンの多くが物理ベース(PBR)なので、各マテリアルの設定は定量的に正しい値を設定することが可能であり、多くの3次元モデルをより現実に近い質感で再現できる。特に、金属系の表現は、本物と比較しても全く遜色はない。
しかし、人物表現となると、肌の反射率一つ取っても部位によって変化し、正しい値を取得し設定することは非常に困難である。また、PBRの理念からは逸脱するが,正しい値を設定するだけでは、見栄えとして自然な表現を再現できないケースも存在するため、これらマテリアル設定の工夫が、3D表現の品質を大きく左右することになる。
レンダリング処理に時間をかけ、様々なテクスチャ、シェーダを持つ様々なマテリアルを設定してみるといった試行錯誤を繰り返せば、より現実に近い3次元モデル画像の描画を行うことはできる。
しかし、例えばネットワークを介して受信する映像に対して、リアルタイムでコンピュータ・グラフィック(CG)効果を付与した3次元画像モデルを描画しようとすると、各メッシュに設定するマテリアルの設定を極めて短時間で実行する必要があり、十分な検討を行うことができない。この結果、マテリアル設定が不適切となり、不自然な3D画像になってしまう場合が多い。
本開示の処理は、このような問題を解決するものである。
すなわち、例えばネットワークを介して受信する映像に対して、リアルタイムでコンピュータ・グラフィック(CG)効果を付与した3次元画像モデルを描画する場合に、リアリティの高い現実感のある自然な画像を生成することを可能とするものである。
また、例えば、自身の顔に基づく3次元画像を表示部に表示して、この表示画像に対してコンピュータ・グラフィック(CG)効果を施すバーチャルメークアップ(Virtual Makeup)を可能とするものである。
以下、本開示の構成について説明する。
[2.画像処理システムの構成例について]
次に、本開示の画像処理システムの構成例について説明する。
なお、以下においては、システム構成例として、以下の2つの例について説明する。
(a)送信装置側で撮影画像に基づく3Dモデルを生成して受信装置に送信し、受信装置側で3Dモデルを適用して表示用の3D画像を生成して表示するシステム構成
(b)送信装置から撮影画像とデプスデータを受信装置に送信し、受信装置側で3Dモデルを生成して、生成した3Dモデルを適用して表示用の3D画像を生成して表示するシステム構成
まず、図3を参照して、
(a)送信装置側で撮影画像に基づく3Dモデルを生成して受信装置に送信し、受信装置側で3Dモデルを適用して表示用の3D画像を生成して表示するシステム構成について説明する。
図3に示す画像処理システムは、送信装置110側で、複数のカメラ(マルチカメラ)で画像を撮影し、デプスデータ(距離情報)を生成し、撮影画像とデプスデータを利用して、撮影フレームごとに3Dモデリング処理を実行してテクスチャ付き3Dモデルを生成する構成である。
送信装置110は、生成したフレームごとの3Dモデルを受信装置120に送信する。
受信装置120は、受信した3Dモデルを利用して表示用の3D画像を生成して表示する。
図3に示す画像処理システムの構成と処理について説明する。
図3に示す画像処理システムは、送信装置110と、受信装置120を有する。
送信装置110は撮影した被写体画像から3Dモデルを生成し、ネットワーク30を介して受信装置120に送信する。
受信装置120は、送信装置110から受信する被写体画像に対して、コンピュータ・グラフィックス(CG)処理を施した3次元(3D)画像を生成して表示部124に3D画像30を表示する。
送信装置110においては、カメラを有する画像取得部111が、被写体10の入力映像を撮影する。
画像取得部111は複数のカメラ(RGB,デプス)によって構成され、被写体10を様々な角度から撮影したRGB画像,デプス画像を取得する。
すなわち、被写体10の3次元画像を生成するために必要となる様々な角度から画像を撮影する。
画像取得部111の撮影画像は、3次元モデル情報生成部113、送信情報生成部114に入力される。
3次元モデル情報生成部113は、被写体10の撮影画像に基づいて、被写体の3次元モデル情報を生成する。
3次元モデル情報生成部113の生成する3次元モデル情報には、図3中に送信データ130として示すデータ中の、メッシュデータ131、テクスチャ情報132、UVマップ133が含まれる。
メッシュデータ131は、先に説明したように、3次元モデルの細かな分割領域である三角形や四角形等の多角形領域である。
このメッシュにマテリアルを設定することで、3次元画像の描画処理、レンダリングが行われる。
テクスチャ情報132は、メッシュデータ131に貼り付けるテクスチャの素材情報である。
UVマップ133は、メッシュデータにテクスチャを貼り付ける処理、いわゆるテクスチャマッビングを行う際に必要となる座標情報である。
送信情報生成部114は、3次元モデル情報生成部113の生成する3次元モデル情報(メッシュデータ131、テクスチャ情報132、UVマップ133)の他、被写体10の属性情報134、特徴点情報135を生成して、通信部115を介して送信する。
属性情報134は、具体的には、例えば性別、年齢、人種、肌質、構成パーツ(口、眼、鼻等)の情報である。なお、これらの属性情報は画像解析によって行うことも可能であるが、送信装置110においてユーザが入力した情報を用いてもよい。
特徴点情報135は、例えば被写体10の目、鼻、頬、衣服等の顔器官等の部位を示す特徴点等である。これは、特徴点抽出は、画像取得部111の撮影画像に基づいて実行される。
このように、送信情報生成部114は、3次元モデル情報生成部113の生成する3次元モデル情報(メッシュデータ131、テクスチャ情報132、UVマップ133)の他、被写体10の属性情報134、特徴点情報135を、通信部115、ネットワーク20を介して受信装置120に送信する。
なお、属性情報134については、被写体10が同一である場合は、一度のみの送信でよい。その他の情報は、画像フレームの送信ごとに逐次送信する。
受信装置120は、送信装置110から、上記の各データを受信して、画像処理部122において、受信データを適用して、送信装置110から受信する被写体10の画像(テクスチャ)に対して、コンピュータ・グラフィックス(CG)処理による加工処理を施した3次元画像を生成して表示部124に3D画像30を表示する。
なお、受信装置120における3次元画像のリアルタイム表示処理を行う場合、その事前処理として、被写体10の基本となる3次元画像の生成やデータベース123に対する格納処理等を行う。
この事前処理において、リアルタイム処理に必要となる様々なデータが、データベース123に格納された後、リアルタイム処理による3次元画像表示処理を行う。
リアルタイム処理では、送信装置110から受信する被写体画像に対して、リアルタイムでコンピュータ・グラフィックス(CG)処理による加工処理を施した3次元画像を生成して表示部に3D画像30を表示する処理が行われる。
このリアルタイム処理では、例えば被写体の属性情報に応じた最適なマテリアルの設定行い、より自然な3次元画像を生成して表示する。
なお、図3に示す本開示の画像処理システムの構成例は、送信装置110側において、3次元モデル情報(メッシュデータ131、テクスチャ情報132、UVマップ133)を生成して、受信装置120に送信する構成であるが、3次元モデル情報の生成処理を受信装置120側において実行するシステム構成としてもよい。
図4を参照して、
(b)送信装置から撮影画像とデプスデータを受信装置に送信し、受信装置側で3Dモデルを生成して、生成した3Dモデルを適用して表示用の3D画像を生成して表示するシステム構成
について説明する。
図4に示す画像処理システムは、送信装置110側で、複数のカメラ(マルチカメラ)で画像(RGB、デプス)を撮影し、撮影フレームごとに撮影画像とデプスデータを受信装置120に送信する。
受信装置120は、受信した撮影画像とデプスデータを利用して、撮影フレームごとに3Dモデリング処理を実行してテクスチャ付き3Dモデルを生成する。
さらに、受信装置120は、生成した3Dモデルを利用して表示用の3D画像を生成して表示する。
図4に示す画像処理システムの構成と処理について説明する。
図4に示す画像処理システムは、送信装置110と、受信装置120を有する。
送信装置110は被写体画像を撮影し、ネットワーク30を介して受信装置120に送信する。
受信装置120は、送信装置110から受信する被写体画像に対して、コンピュータ・グラフィックス(CG)処理を施した3次元(3D)画像を生成して表示部124に3D画像30を表示する。
送信装置110においては、カメラを有する画像取得部111が、被写体10の入力映像を撮影する。
画像取得部111は複数のカメラによって構成され、被写体10を様々な角度から撮影した画像を取得する。
すなわち、被写体10の3次元画像を生成するために必要となる様々な角度から画像を撮影する。
画像取得部111の撮影画像は、送信情報生成部114に入力される。
送信情報生成部114は、画像取得部111の取得した撮影画像情報137、デプス情報136、さらに、被写体10の属性情報134、特徴点情報135を生成して、通信部115を介して送信する。
なお、属性情報134については、被写体10が同一である場合は、一度のみの送信でよい。その他の情報は、画像フレームの送信ごとに逐次送信する。
受信装置120は、送信装置110から、上記の各データを受信して、画像処理部122において、受信データを適用して、送信装置110から受信する被写体10の画像(テクスチャ)に対して、コンピュータ・グラフィックス(CG)処理による加工処理を施した3次元画像を生成して表示部124に3D画像30を表示する。
図4に示す構成において、受信装置120の画像処理部122は、3次元モデル情報生成部を含む構成である。すなわち、画像処理部122は、被写体10の撮影画像に基づいて、被写体の3次元モデル情報を生成する。
画像処理部122の生成する3次元モデル情報には、先に図3を参照して説明したメッシュデータ、テクスチャ情報、UVマップが含まれる。
メッシュデータ131は、先に説明したように、3次元モデルの細かな分割領域で
ある三角形や四角形等の多角形領域である。
このメッシュにマテリアルを設定することで、3次元画像の描画処理、レンダリングが行われる。
なお、受信装置120における3次元画像のリアルタイム表示処理を行う場合、その事前処理として、被写体10の基本となる3次元画像の生成やデータベース123に対する格納処理等を行う。
この事前処理において、リアルタイム処理に必要となる様々なデータが、データベース123に格納された後、リアルタイム処理による3次元画像表示処理を行う。
リアルタイム処理では、送信装置110から受信する被写体画像に対して、リアルタイムでコンピュータ・グラフィックス(CG)処理による加工処理を施した3次元画像を生成して表示部に3D画像30を表示する処理が行われる。
このリアルタイム処理では、例えば被写体の属性情報に応じた最適なマテリアルの設定行い、より自然な3次元画像を生成して表示する。
図4に示す受信装置120側の画像処理部122に、3次元モデル情報生成部を設定した構成を適用した具体的な処理例について、図5を参照して説明する。
なお、以下では、受信装置120側の画像処理部122に3次元モデル情報生成部を設定した構成を適用した処理例について説明するが、以下で説明する処理は、図3を参照して説明した送信装置110側に3Dモデル情報生成部を設けた構成例においても、処理の実行主体が異なるのみであり、同様の処理が適用可能である。
図5に示すように、受信装置120は、送信装置110から、
撮影画像情報137、
デプス情報136、
属性情報134、
特徴点情報135、
これらの情報を入力する。
画像処理部122は、例えば以下の処理を実行する。
(a1)3次元(3D)モデルの生成、修正(影(Shadow)や反射(Specular)の除去等)
(a2)マスクイメージ生成
(a3)被写体属性情報取得
(a4)被写体属性対応テンプレートデータベースの作成
画像処理部122は、例えば上記の処理を実行する。
(a1)3Dモデルの生成、修正(影(Shadow)や反射(Specular)の除去等)とは、送信装置110から受信する被写体10の撮影画像に基づいて、被写体の3次元モデル情報を生成し、テクスチャ情報を修正する処理である。
生成する3次元モデル情報には、メッシュデータ、テクスチャ情報、UVマップが含まれる。
メッシュデータは、先に説明したように、3次元モデルの細かな分割領域である三角形や四角形等の多角形領域である。
このメッシュにマテリアルを設定することで、3次元画像の描画処理、レンダリングが行われる。
テクスチャ情報132は、メッシュデータ131に貼り付けるテクスチャの素材情報である。
UVマップは、メッシュデータにテクスチャを貼り付ける処理、いわゆるテクスチャマッビングを行う際に必要となる座標情報である。
さらに、画像処理部122は、必要に応じて、生成したテクスチャ情報の修正(影(Shadow)や反射(Specular)の除去等)を行う。
受信装置120は、生成した3Dモデルに対して、メッシュ単位のマテリアルの設定、すなわちメッシュ単位のテクスチャの貼り付けやシェーダによる画素値設定等のCG処理を施して表示用の3D画像を生成する。
しかし、受信装置から入力する撮影画像に基づいて生成されたテクスチャ画像は、被写体10の撮影時の環境光による影や反射等が含まれる場合がある。このような余分な濃淡情報が含まれる画像をベースとしてマテリアル設定、すなわちテクスチャ貼り付け等のCG加工を行うと撮影時の影や反射が反映されてしまい、不自然な画像が生成されとしまう場合がある。
このような問題が発生するのを防止する処理として、テクスチャ画像の修正が行われる。
(a2)マスクイメージ生成は、メッシュ単位のマテリアル設定を行う場合のマテリアル設定対象以外の領域を隠すためのマスクイメージの生成処理である。
例えば人物の3D画像モデルをCG処理によって生成する場合、人物の肌、髪等、パーツ単位で異なるマテリアルを設定することが必要となる。
このようなマテリアル設定範囲を規定するためのマスクイメージを生成する。
具体的なマスクイメージの例とマテリアル設定例については後述する。
(a3)被写体属性情報取得処理は、送信装置110において撮影された被写体の属性情報を取得する処理である。
具体的な属性情報は、例えば性別、年齢、人種、肌質、構成パーツ(口、眼、鼻等)の情報である。なお、これらの属性情報は画像解析によって行うことも可能であるが、送信装置110においてユーザが入力した情報を用いてもよい。
(a4)被写体属性対応テンプレートデータベースの作成処理は、上述した被写体の属性情報とテクスチャ等のマテリアル情報を対応付けたデータベースである。
このテンプレートデータベースを、送信装置120のデータベース123内に格納することで、リアルタイムでの3D画像モデルの生成処理を高速に行うことができる。
具体的なテンプレートデータベースの例については後述する。
このように、図5に示す受信装置120の画像処理部122は、以下の処理を行う。
(a1)3Dモデルの生成、テクスチャ画像の修正(影(Shadow)や反射(Specular)の除去等)
(a2)マスクイメージ生成
(a3)被写体属性情報取得
(a4)被写体属性対応テンプレートデータベースの作成
画像処理部122による上記処理の結果として生成されるデータは、記憶部としてデータベース123に格納される。
図5に示すように、データベース123には、以下の各情報が格納される。
(b1)マスクイメージ
(b2)被写体属性情報
(b3)被写体属性対応テンプレートデータベース
これらのデータは、図5に示す受信装置120の画像処理部122が、送信装置110から受信するデータに基づいて生成したデータである。
データベースに所定のデータが格納されると、リアルタイム処理、すなわち、送信装置110から送信される被写体画像等のデータを受信装置120が受信し、その受信データに対してリアルタイムでCG処理を施して表示用の3D画像を生成して表示部に表示するリアルタイム処理が実行される。
リアルタイム処理では、送信装置110側の画像取得部111が、被写体10のリアルタイム画像を撮影する。
画像取得部111の撮影画像は、送信情報生成部114に入力される。
送信情報生成部114は、
撮影画像情報137、
デプス情報136、
属性情報134、
特徴点情報135、
これらの情報を通信部115、ネットワーク20を介して受信装置120に送信する。
なお、前述したように、属性情報134は、被写体10の変更がない場合は、一度のみの送信でよい。
受信装置120は、送信装置110からに有力する上記情報を用いて、表示部124に表示する出力映像である3D画像を生成して表示する。
なお、リアルタイム処理では、被写体の現在の撮影画像を利用して、事前処理において取得しデータベース123に格納済みの情報を適用して、CG加工した3D画像を生成して表示する処理を行う。
[3.画像処理装置の構成例について]
次に、3D画像生成処理を行う画像処理装置、すなわち、図5に示す受信装置120の具体的な構成について、図6以下を参照して説明する。
図6は、画像処理装置、すなわち図5に示す受信装置120に相当する画像処理装置200の構成例を示す図である。
図6に示すように、画像処理装置200は、画像入力部(通信部)201、ユーザ入力部(ユーザIF)202、画像処理部203、記憶部(DB)204、表示部205を有する。
画像入力部(通信部)201は、図4、図5に示す受信装置120の通信部121に相当する。
ユーザ入力部(ユーザIF)202は、図4、図5に示す受信装置120には示されていないが、受信装置120に構成された入力部である。
画像処理部203は、図4、図5に示す受信装置120の画像処理部122に相当する。
記憶部(DB)204は、図4、図5に示す受信装置120のデータベース123に相当する。
表示部205は、図4、図5に示す受信装置120の表示部124に相当する。
図6に示すように、画像処理部203は、画像情報解析部211、メッシュ編集部212、マテリアル適用部213、レンダリング部214を有する。
画像情報解析部211には、特徴量抽出部211a、属性解析部211bが含まれる。
メッシュ編集部212には、メッシュ取得部212a、メッシュ分割部212b、モデル追加部212cが含まれる。
マテリアル適用部213には、マスク画像生成部213a、テクスチャマップ生成部213bが含まれる。
記憶部(DB)204には、先に図4を参照して説明した事前処理によって送信装置110から取得したデータや画像処理部203の処理によって生成されたデータが格納される。さらに、図5を参照して説明したリアルタイム処理において、画像処理部203が生成するデータも格納される。
記憶部(DB)204の格納データの例を図7に示す。
図7に示すように、記憶部(DB)204には、マスク画像222、被写体属性情報223、テンプレートデータベース224等が格納される。
マスク画像222は、リアルタイム処理において適用するメッシュ対応のマテリアル設定処理において、マテリアル設定領域以外のその他の領域をマスキングするためのマスク画像である。
本開示の処理では、送信装置110から受信する毎フレーム異なる撮影画像の各々から、目、鼻、頬、衣服等の顔器官等の部位の検出や,特徴点検出等を実行して,各部位に設定するマテリアル単位のマスク画像を生成し,マテリアルの適用範囲を決定した上で、各部位に対するマテリアル設定処理を実行する。
マスク画像222は、各被写体構成要素単位(部位単位)のマスキングに適用する画像である。
具体的なマスク画像の例と適用処理については後段で説明する。
被写体属性情報223は、先に図5を参照して説明した処理において取得される情報である。
具体的な属性情報は、例えば性別、年齢、人種、肌質、構成パーツ(口、眼、鼻等)の情報である。なお、これらの属性情報は画像解析によって行うことも可能であるが、送信装置110、あるいは受信装置120においてユーザが入力した情報を用いてもよい。
テンプレートデータベース224は、図7に示すように、
属性情報と、マテリアルとの対応データである。
属性情報には、被写体属性情報と、部位属性情報が含まれる。
マテリアルは、テクスチャマップによって構成される。
被写体属性情報は、例えば、「性別」、「年齢」、「人種」、「肌質」等の被写体である人物の属性情報である。
部位属性情報は、例えば、目、鼻、眉毛、頬(チーク)等の人の顔の各部位の識別情報となる属性情報である。
これらの属性情報は、事前処理、またはリアルタイム処理において、送信装置110から受信する画像データに基づいて取得可能であり、また、ユーザ入力情報に基づいて取得してもよい。
このテンプレートデータベースは、属性情報とマテリアルとの対応データである。
画像処理装置200の画像処理部203が、リアルタイム処理によりCG効果を施した3D画像を生成する処理を行う場合、画像処理部203は、このテンプレートデータベースを参照して、送信装置110から受信する被写体画像、例えば人物の撮影画像から検出された人の目、鼻、頬(チーク)等の部位に設定すべきマテリアルを即座に取得することができる。
すなわち、このテンプレートデータベースを利用することで、送信装置110から送信される被写体映像を構成するフレーム単位で、被写体構成要素単位(部位単位)の最適なマテリアル設定を短時間で行うことが可能となり、3D画像生成をリアルタイム処理として実行することができる。
なお、図7に示すテンプレートデータベース224の構成では、マテリアルとしてテクスチャマップのみを記録しており、シェーダについては記録していない。
シェーダは、前述したように、メッシュ内の画素(ピクセル)ごとの描画色を計算するアルゴリズムである。図7に示す設定のテンプレートデータベースを利用した処理を行う場合、テクスチャはテンプレートデータベースから取得し、シェーダについては、フレーム単位でその都度計算処理を実行してメッシュ内のピクセル単位の描画色の決定処理を行うことになる。
図7に示すテンプレートデータベース224と異なる設定としたテンプレートデータベース204の構成例を図8に示す。
図8に示すテンプレートデータベース224は、マテリアルとしてテクスチャマップとシェーダを記録している。
図8に示す設定のテンプレートデータベースを利用すれば、テクスチャに併せてシェーダの情報もテンプレートデータベースから取得することが可能であり、フレーム単位、被写体構成要素単位(部位単位)でメッシュ内のテクスチャ、ピクセルごとの描画色の決定が可能となる。
[4.画像処理装置の実行する処理について]
次に、リアルタイムでの3D画像生成処理を行う画像処理装置、すなわち、図6を参照して説明した構成を有する画像処理装置200(=図5の受信装置120)の実行する具体的な処理について、図9以下を参照して説明する。
図9は、画像処理装置、すなわち、図6に示す画像処理装置200(=図5の受信装置120)の実行する処理のシーケンスを説明するフローチャートである。
以下、このフローチャートに従って、図6に示す画像処理装置200(=図5の受信装置120)の実行する処理の具体例について説明する。
なお、図9に示すフローチャートに従った処理は、例えば、画像処理装置の記憶部に格納されたプログラムに従って、プログラム実行機能を持つCPU等を備えたコントローラからなるデータ処理部の制御の下に実行される。
図9に示すフローの各ステップの処理について、順次、説明する。
(ステップS101)
まず、画像処理装置200の画像入力部201が、3D画像の生成元となる撮影画像情報137,デプス情報を入力する。
なお、このフローに示すステップS101〜S109の処理は、例えば図5に示す送信装置110から送信される被写体の撮影映像を構成する画像フレームごとに実行される。
すなわち、最終的なステップS109では、送信装置110から送信される画像フレーム単位でCG効果を付与した3D画像のレンダリングが行われることになる。
(ステップS102)
次に、ステップS102において、画像情報解析部211の属性解析部211bが、入力撮影画像に基づいて、被写体の人物の属性(性別、年齢、肌質等)を分析する。
なお、この処理は、事前に行っておくことも可能であり、リアルタイム処理として行ってもよい。
先に説明したように、属性情報取得処理は、送信装置110から送信される撮影画像情報137や、3Dモデル情報を解析して行う。
具体的な属性情報には、例えば性別、年齢、人種、肌質、構成パーツ(口、眼、鼻等)の情報等が含まれる。なお、これらの属性情報は画像解析によって行うことも可能であるが、ユーザ入力情報を用いてもよい。
(ステップS103)
次に、ステップS103において、特徴量抽出部211aが、ステップS101で入力した撮影画像の特徴量に基づいて、被写体(人)の各部位(顔器官である目、鼻口、眉や、肌領域、体部位、髪、衣服等)対応の区分領域を設定する。
図10に顔器官である目、鼻口、眉等の特徴点の例を示す。
図10に示す例において、特徴点1〜17は顔輪郭を示す特徴点であり、
特徴点18〜22、23〜27が眉を示す特徴点である。
特徴点28〜36が鼻を示す特徴点である。
特徴点37〜48が目を示す特徴点である。
特徴点49〜68が口を示す特徴点である。
例えば画像からこれらの特徴点を検出して、各部位(顔器官である目、鼻口、眉や、肌領域、体部位、髪、衣服等)対応の区分領域を設定する。
なお、区分領域の設定には、上記の特徴点に基づく処理の他、従来から知られるセマンティックセグメンテーション(Semantic Segmentation)も利用可能である。
例えば、顔領域、手、髪、衣服等の領域検出や区分領域の設定にはセマンティックセグメンテーション(Semantic Segmentation)の利用が可能である。
(ステップS104)
次に、ステップS104において、マスク画像生成部213aが、特徴量に基づく区分領域単位のマテリアル設定を行うために適用するマスク画像を生成する。
前述したように、マスク画像は、リアルタイム処理において適用するメッシュ対応のマテリアル設定処理において、マテリアル設定領域以外のその他の領域をマスキングするためのマスク画像である。
本開示の処理では、送信装置110から受信する毎フレーム異なる撮影画像の各々から、目、鼻、頬、衣服等の顔器官等の部位の検出や,特徴点検出等を実行して,各部位に設定するマテリアル単位のマスク画像を生成し,マテリアルの適用範囲を決定した上で、各部位に対するマテリアル設定処理を実行する。
マスク画像は、被写体構成要素単位(部位単位)のマスキングに適用する画像である。
マスク画像の例について図11を参照して説明する。
図11には、以下の各図を示している。
(A)入力画像
(1)〜(8)各区分領域単位のマスク画像
例えば、(1)顔マスクは、被写体画像中の顔領域に対するマテリアル設定時に適用するマスクである。この顔マスクにより、顔領域以外の画像領域は、マスキングされることになる。この顔マスクを利用したマテリアル設定処理を行うことで、マテリアルは顔領域のみに適用され、その他の領域には適用されない。
同様に、(2)手マスクは、被写体画像中の手領域に対するマテリアル設定時に適用するマスクである。この手マスクにより、手領域以外の画像領域は、マスキングされることになる。この手マスクを利用したマテリアル設定処理を行うことで、マテリアルは手領域のみに適用され、その他の領域には適用されない。
以下、(3)髪マスク、(4)衣服マスク、(5)目マスク、(6)鼻マスク、(7)口マスク、(8)頬(チーク)マスクについても同様であり、各マスクは、マイリアル設定対象領域以外の画像領域を全てマスキングする構成を持つマスク画像である。
ステップS104では、マスク画像生成部213aが、特徴量に基づく区分領域単位のマテリアル設定を行うために適用するマスク画像、すなわち例えば図11に示すようなマスク画像を生成する。
なお、図11に示すマスク画像は一例であり、その他、被写体に応じて様々なマスク画像を生成する。
マスク画像の生成処理には、テンプレート画像を利用する構成としてもよい。例えば、図11に示す(1)顔マスク、(2)手マスク、(3)髪マスク、(4)衣服マスク、(5)目マスク、(6)鼻マスク、(7)口マスク、(8)頬(チーク)マスク、これらの各マスク画像のテンプレート画像を予め記憶部204に格納しておき、このテンプレートマスク画像を、送信装置から入力する被写体画像に応じて修正して、入力画像に適合したマスク画像を生成することができる。
テンプレート画像を適用した目マスク画像の生成処理例について、図12を参照して説明する。
例えば、図12(1)に示すような目に適用するためのテンプレートマスク画像が予め記憶部204に格納されている。
マスク画像生成部213aは、画像入力部201を介して入力した被写体の撮影画像内の特徴点から目の領域付近の特徴点を使用特徴点として選択する。図12(2)使用特徴点は、被写体画像の左目領域近傍の特徴点である。
この特徴点は、先に図10を参照して説明した特徴点に対応する。
この特徴点に基づいて、(1)に示すテンプレートマスク画像を、撮影画像の目の領域に適合させる回転処理と、リサイズ処理を行う。
図12(3)が回転処理であり、(4)がリサイズ処理を示している。
図12(3)に示すように、特徴点{17,29}のラインに基づいて、テンプレート画像の回転角度を算出する。
さらに、図12(4)に示すように、特徴点{17,23,24,25,26,27,29}の領域のテンプレート画像を入力画像に適合するようにリサイズする。本例では、X方向(水平方向)に0.9倍、Y方向(垂直方向)に1.0倍のリサイズを行う。
このような処理を行うことで、(1)に示すテンプレートマスク画像を利用して、撮影画像の目の領域に適合した目マスク画像を生成することができる。
図13は、テンプレート画像を適用した鼻マスク画像の生成処理例について説明する図である。
例えば、図13(1)に示すような鼻に適用するためのテンプレートマスク画像が予め記憶部204に格納されている。
マスク画像生成部213aは、画像入力部201を介して入力した被写体の撮影画像内の特徴点から鼻の領域付近の特徴点を使用特徴点として選択する。図13(2)使用特徴点は、被写体画像の鼻領域近傍の特徴点である。
この特徴点は、先に図10を参照して説明した特徴点に対応する。
この特徴点に基づいて、(1)に示すテンプレートマスク画像を、撮影画像の鼻領域に適合させる回転処理と、リサイズ処理を行う。
図13(3)が回転処理であり、(4)がリサイズ処理を示している。
図13(3)に示すように、特徴点{37,46}のラインに基づいて、テンプレート画像の回転角度を算出する。
さらに、図13(4)に示すように、特徴点{28,29,30,31,40,43}の領域のテンプレート画像を入力画像に適合するようにリサイズする。本例では、X方向(水平方向)に0.7倍、Y方向(垂直方向)に1.1倍のリサイズを行う。
このような処理を行うことで、(1)に示すテンプレートマスク画像を利用して、撮影画像の鼻領域に適合した鼻マスク画像を生成することができる。
図14は、テンプレート画像を適用した頬(チーク)マスク画像の生成処理例について説明する図である。
例えば、図14(1)に示すような頬(チーク)に適用するためのテンプレートマスク画像が予め記憶部204に格納されている。
マスク画像生成部213aは、画像入力部201を介して入力した被写体の撮影画像内の特徴点から頬(チーク)の領域付近の特徴点を使用特徴点として選択する。図14(2)使用特徴点は、被写体画像の頬(チーク)領域近傍の特徴点である。
この特徴点は、先に図10を参照して説明した特徴点に対応する。
この特徴点に基づいて、(1)に示すテンプレートマスク画像を、撮影画像の頬(チーク)領域に適合させる回転処理と、リサイズ処理を行う。
図14(3)が回転処理であり、(4)がリサイズ処理を示している。
図14(3)に示すように、特徴点{17,29}のラインに基づいて、テンプレート画像の回転角度を算出する。
さらに、図14(4)に示すように、特徴点{17,29,55}の領域のテンプレート画像を入力画像に適合するようにリサイズする。本例では、X方向(水平方向)に0.8倍、Y方向(垂直方向)に1.0倍のリサイズを行う。
このような処理を行うことで、(1)に示すテンプレートマスク画像を利用して、撮影画像の頬(チーク)領域に適合した頬(チーク)マスク画像を生成することができる。
図15は、テンプレート画像を適用した口周りマスク画像の生成処理例について説明する図である。
例えば、図15(1)に示すような口周りに適用するためのテンプレートマスク画像が予め記憶部204に格納されている。
マスク画像生成部213aは、画像入力部201を介して入力した被写体の撮影画像内の特徴点から口周りの領域付近の特徴点を使用特徴点として選択する。図15(2)使用特徴点は、被写体画像の口周り領域近傍の特徴点である。
この特徴点は、先に図10を参照して説明した特徴点に対応する。
この特徴点に基づいて、(1)に示すテンプレートマスク画像を、撮影画像の口周り領域に適合させる回転処理と、リサイズ処理を行う。
図15(3)が回転処理であり、(4)がリサイズ処理を示している。
図15(3)に示すように、特徴点{49,55}のラインに基づいて、テンプレート画像の回転角度を算出する。
さらに、図15(4)に示すように、特徴点{9,31,49,55}の領域のテンプレート画像を入力画像に適合するようにリサイズする。本例では、X方向(水平方向)に1.3倍、Y方向(垂直方向)に0.9倍のリサイズを行う。
このような処理を行うことで、(1)に示すテンプレートマスク画像を利用して、撮影画像の口周り領域に適合した口周りマスク画像を生成することができる。
また、テンプレート画像を利用しないマスク画像生成処理も可能である。
図16は、テンプレート画像を利用せずに唇マスク画像を生成する処理例について説明する図である。
マスク画像生成部213aは、画像入力部201を介して入力した被写体の撮影画像内の特徴点から唇領域付近の特徴点を使用特徴点として選択する。図16(2)使用特徴点は、被写体画像の唇領域近傍の特徴点である。
この特徴点は、先に図10を参照して説明した特徴点に対応する。
この特徴点に基づいて、唇マスク画像を生成する。
図16(3)が上唇マスク画像の生成処理であり、(4)が下唇マスク画像の生成処理を示している。
図16(3)に示すように、上唇マスク画像の生成処理においては、特徴点{49,50,51,52,53,54,55,65,64,63,62,61}の輪郭に基づいて、上唇マスク画像を生成する。
また、図16(4)に示すように、下唇マスク画像の生成処理においては、特徴点{49,60,59,58,57,56,55,65,64,63,62,61}の輪郭に基づいて、下唇マスク画像を生成する。
このような処理を行うことで、テンプレートマスク画像を利用することなく、撮影画像の唇領域に適合した唇マスク画像を生成することができる。
図17は、テンプレート画像を利用せずに口の中マスク画像を生成する処理例について説明する図である。
マスク画像生成部213aは、画像入力部201を介して入力した被写体の撮影画像内の特徴点から口の中領域付近の特徴点を使用特徴点として選択する。図17(2)使用特徴点は、被写体画像の口の中領域近傍の特徴点である。
この特徴点は、先に図10を参照して説明した特徴点に対応する。
この特徴点に基づいて、口の中マスク画像を生成する。
図17(3)が口の中唇マスク画像の生成処理を示している。
図17(3)に示すように、口の中マスク画像の生成処理においては、特徴点{61,62,63,64,65,66,67,68}の輪郭に基づいて、口の中マスク画像を生成する。
このような処理を行うことで、テンプレートマスク画像を利用することなく、撮影画像の口の中領域に適合した口の中マスク画像を生成することができる。
その他の(1)顔マスク、(2)手マスク、(3)髪マスク、(4)衣服マスク等、これらの各マスク画像についても、テンプレート画像を利用、または利用せずに被写体画像に応じたマスク画像を生成することができる。
このように、図9に示すフローのステップS104では、例えば、上述した処理によってマスク画像生成処理が実行される。
図9のフローチャートのステップS105以下の処理について説明する。
(ステップS105)
ステップS105において、メッシュ取得部212aが、撮影画像対応の3Dモデルにメッシュを設定し、メッシュ分割部212bが、マスク画像に応じたメッシュ分割処理を実行する。
前述したように、メッシュは、3次元モデルの細かな分割領域である三角形や四角形等の多角形領域である。
このメッシュにマテリアルを設定することで、3次元画像の描画処理、レンダリングが行われる。3次元画像を描画(レンダリング)する場合、メッシュ単位で最適なマテリアルを設定することが必要となる。
3次元モデルの構成要素となるメッシュに対して、そのメッシュの実際の材質に近いマテリアル、具体的には、テクスチャやシェーダを設定することで、リアリティのある3次元モデルデータを生成することができる。
メッシュは、送信装置から入力される撮影画像と、先に図4を参照して説明した事前処理においてデータベースに格納された被写体の3次元モデルデータを利用して、既定のアルゴリズムを適用して取得することができる。なお、レンダリング処理によって生成する最終的なCG効果付与3次元画像の設定、例えば光源位置の設定条件等を考慮してメッシュ設定を行うことが好ましい。
ステップS105では、まず、メッシュ取得部212aが、入力撮影画像に対応する3次元モデル上にメッシュを設定し、さらにメッシュ分割部212bが、ステップS104で生成したマスク画像に応じたメッシュ分割処理を実行する。
マスク画像には、先に図11を参照して説明したように、例えば、(1)顔マスク〜(8)頬マスク等、様々なマスク画像がある。これらは、各部位に対するマテリアル適用処理において利用するマスクである。
しかし、マスク画像が既定する各部位の領域と、メッシュによって規定される区分領域は、多くの場合一致しない。
例えば1つの三角形領域である1つのメッシュ領域が、目マスクによってマスクされない目の領域(=目対応のマテリアル適用領域)と、目マスクによってマスクされる目以外の領域(=目対応のマテリアル非適用領域)の両方に広がっているといったことがある。
マテリアル設定は、メッシュ単位で実行するので、このようなメッシュが存在すると、目の領域と目以外の領域に同じマテリアルの設定処理がなされてしまう。
このような事態を防止するため、メッシュをマスク画像に応じて再分割して、マスク画像よってマスクされないマテリアル適用領域と、マスク画像よってマスクされるマテリアル非適用領域とを分割した新たなメッシュ設定を行うことが必要となる。
この処理を、メッシュ分割部212bが実行する。
すなわち、ステップS104で生成したマスク画像に応じたメッシュ分割処理を実行する。
(ステップS106)
次に、ステップS106において、モデル追加部212cが、特徴量情報に基づいて、記憶部(DB)204に格納された3次元モデルを設置する。例えば、眼球の前に角膜モデルを設置する処理などを実行する。
3次元画像の生成処理は、基本的にはメッシュに対してマテリアルを設定する処理として実行するが、例えば、眼球等の特殊な部位については、予め容易された3次元モデルを貼り付ける処理を行った方がリアリティを増すことができる。
ステップS106では、このような3次元モデル追加処理を行う。
なお、3次元モデルは、記憶部(DB)204に予め格納されている。例えば事前処理において、送信装置110から受信した3次元モデル情報を利用することが可能である。
例えば、眼球の前に角膜モデルを設置する処理を行う場合は、黒目の中に白いハイライト領域を設定したモデルを設定することで、視線方向が設定される。
黒目内の適切な位置にハイライト部分を設定するためには、例えば送信装置から受信する撮影画像の視線方向を検出し、検出した視線方向に基づいてハイライト領域設定位置を決定することが好ましい。
また、レンダリングによって生成した3D画像内の顔画像の黒目内のハイライト領域と、表示した3D画像の光源位置とが対応するように、光源位置は、顔画像の前方に設定することが好ましい。
(ステップS107)
次に、ステップS107において、テクスチャマップ生成部213bが、各マテリアルに必要なテクスチャマップ(ベースカラー、シャイニネス、キャビティ、ノーマル等)を、属性解析結果と、テンプレートデータベースに従って生成する。
先に説明したように、3次元画像の生成処理を行う場合、3次元画像の構成要素であるメッシュに対して、そのメッシュの実際の材質に近いマテリアル、具体的には、テクスチャやシェーダを設定する。このマテリアル設定処理によりリアリティのある3次元画像を生成することができる。
テクスチャは、各々が異なる効果を持つ複数のテクスチャマップを合成して生成することが可能な画像データである。
先に図2を参照して説明したように、テクスチャマップには、例えば、以下の種類がある。
(1)ベースカラーマップ(Base color map)
(2)シャイニネスマップ(Shininess map)
(3)ノーマルマップ(Normal map)
(4)キャビティマップ(Cavity map)
(5)メタリックマップ(Metallic map)
(1)ベースカラーマップ(Base color map)は、基礎(絵柄)となる色情報である。
(2)シャイニネスマップ(Shininess map)は、物質の滑らかさを制御するテクスチャマップであり、輝度が高い箇所ほどスペキュラ(鏡面反射)が鋭くなる。黒(0,0)が完全拡散反射であり、白(1,0)が完全鏡面反射である。
具体的には、光沢度であり、例えば、顔の部位ごとの照りの差を表現することができる。
(3)ノーマルマップ(Normal map)は、微細凹凸を表現するテクスチャマップであり、皺、ホクロなど顔の細かい凹凸を表現することができる。
(4)キャビティマップ(Cavity map)は、スペキュラ(鏡面反射)の強さを抑制したいときに用いる。例えば、毛穴やシミなど微小な陰を生成することができる。
(5)メタリックマップ(Metallic map)は、金属度合いの制御を行う場合に利用されるテクスチャマップであり、黒(0,0)が非金属、白(1,0)が金属に相当する。例えば、金具部分に適用すると金属の質感を表現することができる。
このように、テクスチャは、各々が異なる効果を持つ複数のテクスチャマップを合成して生成することが可能な画像データである。
ステップS107では、レンダリングによって生成する3次元画像の各メッシュに設定するマテリアルの要素であるテクスチャを決定する。
このテクスチャの決定処理には、記憶部(DB)204に格納されたテンプレートデータベース224を利用する。
テンプレートデータベース224は、先に図7を参照して説明したように、
属性情報と、マテリアルとの対応データである。
属性情報には、被写体属性情報と、部位属性情報が含まれる。
マテリアルは、テクスチャマップによって構成される。
被写体属性情報は、例えば、「性別」、「年齢」、「人種」、「肌質」等の被写体である人物の属性情報である。
部位属性情報は、例えば、目、鼻、眉毛、頬(チーク)等の人の顔の各部位の識別情報となる属性情報である。
これらの属性情報は、ステップS102において取得される情報である。例えば、先に図4を参照して説明した事前処理、図5を参照して説明したリアルタイム処理において、送信装置110から受信する画像データに基づいて取得可能であり、また、ユーザ入力情報に基づいて取得してもよい。
図7に示すようにテンプレートデータベースは、属性情報とマテリアルとの対応データである。
画像処理装置200の画像処理部203が、リアルタイム処理によりCG効果を施した3D画像を生成する処理を行う場合、画像処理部203は、このテンプレートデータベースを参照して、送信装置110から受信する被写体画像、例えば人物の撮影画像から検出された人の目、鼻、頬(チーク)等の部位に設定すべきマテリアルを即座に取得することができる。
図7に示すテンプレートデータベース224の構成では、マテリアルとしてテクスチャマップを記録している。
すなわち、属性情報(被写体属性と部位属性)に応じて適用するテクスチャマップの設定が記録されている。
具体的には、例えば、20〜35才の白人女性の普通肌という被写体属性の
(a)目の周りの領域のメッシュに貼り付けるテクスチャマップの設定、
(b)鼻筋の領域のメッシュに貼り付けるテクスチャマップの設定、
(c)眉毛の領域のメッシュに貼り付けるテクスチャマップの設定、
(d)頬(チーク)の領域のメッシュに貼り付けるテクスチャマップの設定、
・・・・・
これら被写体属性と部位属性に対応して適用すべきテクスチャマップが登録されている。
このテンプレートデータベースを利用することで、送信装置110から送信される被写体映像を構成するフレーム単位で、被写体構成要素単位(部位単位)の最適なマテリアル設定を短時間で行うことが可能となり、3D画像生成をリアルタイム処理として実行することができる。
なお、図7に示す設定のテンプレートデータベースを利用した処理を行う場合、テクスチャはテンプレートデータベースから取得し、シェーダについては、フレーム単位でその都度計算処理を実行してメッシュ内のピクセル単位の描画色の決定処理を行うことになる。
前述したように、図8に示すテンプレートデータベース224は、マテリアルとしてテクスチャマップとシェーダを記録している。
図8に示す設定のテンプレートデータベースを利用すれば、テクスチャに併せてシェーダの情報もテンプレートデータベースから取得することが可能であり、フレーム単位、被写体構成要素単位(部位単位)でメッシュ内のテクスチャ、ピクセルごとの描画色の決定が可能となる。
なお、図7や図8に示すテンプレートデータベースを利用したマテリアル設定を行う場合、ユーザの好みに応じたテンプレートデータベースの設定変更を行うことも可能である。
例えば、鼻領域に設定するマテリアルとして、予めデフォルトデータとして設定されたマテリアルを利用する構成も可能であるが、例えば鼻筋をより強調したテクスチャを持つマテリアルを設定するように変更するといった処理を行うことも可能である。
あるいは頬(チーク)に設定するマテリアルとして、例えば、より滑らかな肌質に見えるテクスチャを持つマテリアルを設定するように変更するといった処理を行うことも可能である。
(ステップS108)
ステップS108では、レンダリング部214が、3Dモデルに対して、マテリアルを適用させるレンダリングを実行する。
この処理は、ステップS107において、テンプレートデータベース224から取得される属性情報(被写体属性と部位属性)対応のテクスチャマップを利用して、各部位のメッシュにマテリアル設定、すなわちテクスチャの貼り付けを行う。さらに、ピクセル単位の描画色の決定アルゴリズムであるシェーダを適用してピクセル単位の描画色の決定処理を行う。
なお、図8に示すテンプレートデータベース224を利用した場合は、テクスチャに併せてシェーダの情報もテンプレートデータベースから取得可能であり、フレーム単位、被写体構成要素単位(部位単位)でメッシュ内のテクスチャ、ピクセルごとの描画色の決定が可能となる。
(ステップS109)
最後に、ステップS109において、表示部205がステップS108で生成したレンダリング結果を表示する。
なお、ステップS101〜S109の処理は、画像入力部201が入力する画像フレームごとに実行する。
この処理は、リアルタイム処理として実行され、例えば、図5に示す送信装置110側で撮影された画像が、リアルタイムで、受信装置120側でCG効果の施された3次元画像として表示されることになる。
このリアルタイム処理を実現可能としている一つの大きな要素は、テンプレートデータベースである。
すなわち、被写体属性と部位属性に対応して適用すべきテクスチャマップが登録されたテンプレートデータベースを利用することで、送信装置110から送信される被写体映像を構成するフレーム単位で、被写体構成要素単位(部位単位)の最適なマテリアル設定を短時間で行うことが可能となり、3D画像生成をリアルタイム処理として実行することができる。
[5.ユーザ入力情報に基づくカスタマイズを行った3D画像を生成する処理例について]
次に、ユーザ入力情報に基づくカスタマイズを行った3D画像を生成する処理例について説明する。
図6に示す画像処理装置200は、ユーザ入力部202を介して、レンダリングによって生成する3次元画像のカスタマイズ情報を入力することが可能である。
例えば、顔の化粧設定情報、具体的には、口紅の色、頬紅の色、塗布領域、眉の設定等の様々な設定情報をカスタマイズ情報として入力可能である。
画像処理装置200の画像処理部203は、ユーザ入力部202を介して入力されるカスタマイズ情報を利用して表示部205に表示する3次元画像のレンダリングを行うことができる。
例えば、画像入力部201を撮像部として設定し、撮像部の撮影した自分の顔画像に対して、メーキャップを施した3D画像を生成して表示部205に表示するといった処理を行うことが可能である。
このような処理において、被写体をリアルに再現した3D画像ではなく、自分の理想となる肌質や、メイクになるようなマテリアルを適用することで、プリクラの美肌や、バーチャルメーキャップの効果を反映した3D画像を生成して表示するといった処理が可能となる。
本実施例では、様々なカスタマイズ(修正、変更)を許容した属性情報−マテリアル対応データであるテンプレートデータベースを利用した処理を行う。
本実施例において適用するテンプレートデータベースの例について、図18を参照して説明する。
テンプレートデータベース224は、図18に示すように、
ユーザによる修正、変更可能な情報であるカスタマイズ可能な属性情報と、マテリアルとの対応データである。
カスタマイズ可能な属性情報には、被写体属性情報と、部位属性情報が含まれる。
カスタマイズ可能なマテリアルは、テクスチャマップによって構成される。
被写体属性情報は、例えば、「性別」、「年齢」、「人種」、「肌質」等の被写体である人物のカスタマイズ可能な属性情報である。
部位属性情報は、例えば、目、鼻、眉毛、頬(チーク)等の人の顔の各部位の識別情報となるカスタマイズ可能な情報である。
帆編実施例において、属性情報とマテリアルとの対応関係は、ユーザ入力部202から入力するユーザ入力情報に基づいて設定、変更が可能である。
画像処理装置200の画像処理部203が、リアルタイム処理によりCG効果を施した3D画像を生成する処理を行う場合、画像処理部203は、このテンプレートデータベースを参照して、送信装置110から受信する被写体画像、例えば人物の撮影画像から検出された人の目、鼻、頬(チーク)等の部位に設定すべきマテリアルを即座に取得することができる。
すなわち、このテンプレートデータベースを利用することで、画像入力部201を介して入力する被写体映像を構成するフレーム単位で、被写体構成要素単位(部位単位)の最適なマテリアル設定を短時間で行うことが可能となり、3D画像生成をリアルタイム処理として実行することができる。
なお、図18に示すテンプレートデータベース224の構成では、マテリアルとしてテクスチャマップのみを記録しており、シェーダについては記録していない。
シェーダは、前述したように、メッシュ内の画素(ピクセル)ごとの描画色を計算するアルゴリズムである。図18に示す設定のテンプレートデータベースを利用した処理を行う場合、テクスチャはテンプレートデータベースから取得し、シェーダについては、フレーム単位でその都度計算処理を実行してメッシュ内のピクセル単位の描画色の決定処理を行うことになる。
図18に示すテンプレートデータベース224と異なる設定としたテンプレートデータベース204の構成例を図19に示す。
図19に示すテンプレートデータベース224は、マテリアルとしてテクスチャマップとシェーダを記録している。
図19に示す設定のテンプレートデータベースを利用すれば、テクスチャに併せてシェーダの情報もテンプレートデータベースから取得することが可能であり、フレーム単位、被写体構成要素単位(部位単位)でメッシュ内のテクスチャ、ピクセルごとの描画色の決定が可能となる。
本実施例では、このように様々なカスタマイズ可能な属性情報とマテリアルとを対応付けたテンプレートデータベースを利用した処理を行う。
このように、様々なカスタマイズ可能な属性情報とマテリアルとを対応付けたテンプレートデータベースを利用することで、例えば、被写体をリアルに再現した3D画像ではなく、自分の理想となる肌質や、メイクになるようなマテリアルの適用が可能であり、バーチャルメーキャップの効果を反映した3D画像を生成して表示することが可能となる。
図20に示すフローチャートは、ユーザ入力部202を介して入力されるカスタマイズ情報を利用して表示部205に表示する3次元画像のレンダリングを行う処理シーケンスを説明するフローチャートである。
以下、このフローチャートに従って、図6に示す画像処理装置200(=図5の受信装置120)の実行するユーザ入力情報を反映した3次元画像生成処理の具体例について説明する。
なお、図20に示すフローチャートに従った処理は、例えば、画像処理装置の記憶部に格納されたプログラムに従って、プログラム実行機能を持つCPU等を備えたコントローラからなるデータ処理部の制御の下に実行される。
図20に示すフローの各ステップの処理について、順次、説明する。
(ステップS201)
まず、ステップS201において、画像処理装置200のユーザ入力部202を介して入力されるユーザ入力情報から、ユーザの希望するカスタマイズ情報(CG効果等)を取得する。
(ステップS202)
次に、画像処理装置200の画像入力部201が、3D画像の生成元となる撮影画像(テクスチャ)を入力する。
なお、このフローに示すステップS202〜S209の処理は、画像入力部201から入力する被写体の撮影映像を構成する画像フレームごとに実行される。
すなわち、最終的なステップS209では、入力画像フレーム単位でCG効果を付与した3D画像のレンダリングが行われることになる。
(ステップS203〜S206)
次のステップS203〜S206の処理は、先に図9に示すフローチャートを参照して説明したステップS103〜S106の処理と同様の処理である。
すなわち、以下の処理を実行する。
ステップS203において、特徴量抽出部211aが、ステップS202で入力した撮影画像の特徴量に基づいて、被写体(人)の各部位(顔器官である目、鼻口、眉や、肌領域、体部位、髪、衣服等)対応の区分領域を設定する。
例えば、先に図10を参照して説明した顔器官である目、鼻口、眉等の特徴点に基づいて、各部位(顔器官である目、鼻口、眉や、肌領域、体部位、髪、衣服等)対応の区分領域を設定する。
次に、ステップS204において、マスク画像生成部213aが、特徴量に基づく区分領域単位のマテリアル設定を行うために適用するマスク画像を生成する。
例えば、先に図11を参照して説明した様々な部位対応のマスク画像を生成する。
さらに、ステップS205において、メッシュ取得部212aが、撮影画像対応の3Dモデルにメッシュを設定し、メッシュ分割部212bが、マスク画像に応じたメッシュ分割処理を実行する。
前述したように、メッシュは、3次元モデルの細かな分割領域である三角形や四角形等の多角形領域である。
このメッシュにマテリアルを設定することで、3次元画像の描画処理、レンダリングが行われる。3次元画像を描画(レンダリング)する場合、メッシュ単位で最適なマテリアルを設定することが必要となる。
3次元モデルの構成要素となるメッシュに対して、そのメッシュの実際の材質に近いマテリアル、具体的には、テクスチャやシェーダを設定することで、リアリティのある3次元モデルデータを生成することができる。
ステップS205では、まず、メッシュ取得部212aが、入力撮影画像に対応する3次元モデル上にメッシュを設定し、さらにメッシュ分割部212bが、ステップS204で生成したマスク画像に応じたメッシュ分割処理を実行する。
次に、ステップS206において、モデル追加部212cが、特徴量情報に基づいて、記憶部(DB)204に格納された3次元モデルを設置する。例えば、眼球の前に角膜モデルを設置する処理などを実行する。
なお、3次元モデルは、記憶部(DB)204に予め格納されている。
(ステップS207)
次に、ステップS207において、テクスチャマップ生成部213bが、各マテリアルに必要なテクスチャマップ(ベースカラー、シャイニネス、キャビティ、ノーマル等)を、図18、図19を参照して説明したカスタマイズ可能なテンプレートデータベースに従って生成する。
図18、図19を参照して説明したカスタマイズ可能なテンプレートデータベースを利用することで、画像入力部201を介して入力する被写体映像を構成するフレーム単位で、部位単位の最適なマテリアル設定を短時間で行うことが可能となり、3D画像生成をリアルタイム処理として実行することができる。
ステップS207では、レンダリングによって生成する3次元画像の各メッシュに設定するマテリアルの要素であるテクスチャを決定する。
このテクスチャの決定処理には、記憶部(DB)204に格納されたテンプレートデータベース224、すなわちカスタマイズ可能な属性情報と、マテリアルとの対応データを利用する。
カスタマイズ情報は、ステップS201において取得されるユーザ入力情報が適用可能である。
例えば、図18に示すテンプレートデータベース224の構成では、マテリアルとしてテクスチャマップを記録している。
すなわち、カスタマイズ可能な属性情報に応じて適用するテクスチャマップの設定が記録されている。
具体的には、例えば、20〜35才の白人女性の普通肌というカスタマイズ情報を適用した場合、そのカスタマイズ情報に対応する、
(a)目の周りの領域のメッシュに貼り付けるテクスチャマップの設定、
(b)鼻筋の領域のメッシュに貼り付けるテクスチャマップの設定、
(c)眉毛の領域のメッシュに貼り付けるテクスチャマップの設定、
(d)頬(チーク)の領域のメッシュに貼り付けるテクスチャマップの設定、
・・・・・
これらのカスタマイズされた属性情報対応のテクスチャマップが登録されている。
このテンプレートデータベースを利用することで、画像入力部から入力する被写体映像を構成するフレーム単位で、部位単位の最適なマテリアル設定を短時間で行うことが可能となり、3D画像生成をリアルタイム処理として実行することができる。
なお、図18に示す設定のテンプレートデータベースを利用した処理を行う場合、テクスチャはテンプレートデータベースから取得し、シェーダについては、フレーム単位でその都度計算処理を実行してメッシュ内のピクセル単位の描画色の決定処理を行うことになる。
前述したように、図19に示すテンプレートデータベース224は、マテリアルとしてテクスチャマップとシェーダを記録している。
図19に示す設定のテンプレートデータベースを利用すれば、テクスチャに併せてシェーダの情報もテンプレートデータベースから取得することが可能であり、フレーム単位、部位単位でメッシュ内のテクスチャ、ピクセルごとの描画色の決定が可能となる。
(ステップS208)
ステップS208では、レンダリング部214が、3Dモデルに対して、マテリアルを適用させるレンダリングを実行する。
この処理は、ステップS207において、テンプレートデータベース224から取得されるカスタマイズされた属性情報対応のテクスチャマップを利用して、各部位のメッシュにマテリアル設定、すなわちテクスチャの貼り付けを行う。さらに、ピクセル単位の描画色の決定アルゴリズムであるシェーダを適用してピクセル単位の描画色の決定処理を行う。
(ステップS209)
最後に、ステップS209において、表示部205がステップS208で生成したレンダリング結果を表示する。
なお、ステップS201〜S209の処理は、画像入力部201が入力する画像フレームごとに実行する。
この処理は、リアルタイム処理として実行される。
このリアルタイム処理を実現可能としている一つの大きな要素は、テンプレートデータベースである。
すなわち、様々なユーザ要求によって修正、変更(カスタマイズ)可能な属性情報対応のテクスチャマップが登録されたテンプレートデータベースを利用することで、画像入力部201から入力する被写体映像を構成するフレーム単位で、被写体構成要素単位の最適なマテリアル設定を短時間で行うことが可能となり、3D画像生成をリアルタイム処理として実行することができる。
[6.画像処理装置のハードウェア構成例について]
次に、図21を参照して図6に示す画像処理装置200や、図3〜図5に示す送信装置110、受信装置120のハードウェア構成例について説明する。
図21は、図6に示す画像処理装置200や、図3〜図5に示す送信装置110、受信装置120に相当する画像処理装置300のハードウェア構成例を示している。
画像処理装置300は、例えば、具体的には、PC(Personal Computer)、タブレットPC、スマートフォン、タブレット端末等の情報処理装置であってもよい。
同図において、画像処理装置100は、コントローラ301、ROM(Read Only Memory)302、RAM(Random Access Memory)303、入出力インタフェース305、および、これらを互いに接続するバス304を備える。
コントローラ301は、必要に応じてRAM303等に適宜アクセスし、各種演算処理を行いながら画像処理装置300の各ブロック全体を統括的に制御する。コントローラ301は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等であってもよい。ROM302は、コントローラ301に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている不揮発性のメモリである。RAM303は、コントローラ301の作業用領域等として用いられ、OS、実行中の各種アプリケーション、処理中の各種データを一時的に保持する。
入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、および、リムーバブルメディア311を装着可能なたドライブ310等が接続される。
なお、入出力インタフェース105は、これらの各要素の他、USB(Universal Serial Bus)端子やIEEE端子等を介して外部周辺機器と接続可能に構成されてもよい。
入力部306は、例えば、図6に示す画像処理装置200の画像入力部201、ユーザ入力部202等を含む入力部である。画像入力部は、例えば撮像部等によって構成可能である。
入力部306には、例えばマウス等のポインティングデバイス、キーボード、タッチパネル、その他の入力装置も含まれる。
出力部307は、図6に示す画像処理装置200の表示部205によって構成される。
記憶部308は、図6に示す画像処理装置200の記憶部(DB)204に相当する。例えばHDD(Hard Disk Drive)や、フラッシュメモリ(SSD;Solid State Drive)、その他の固体メモリ等の不揮発性メモリである。記憶部308には、OSや各種アプリケーション、各種データが記憶される。記憶部308は、また、入力画像や、画像情報、生成した出力画像群等の記憶領域としても利用される。
通信部309は、例えばEthernet(登録商標)用のNIC(Network Interface Card)であり、ネットワークを介した通信処理を担う。
ドライブ310は、リムーバブルメディア311を利用したデータ記録、再生処理に利用される。
リムーバブルメディア311は、例えばBD、DVD、CD、HDD、フラッシュメモリ等によって構成される。
[7.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) 入力画像に基づく3次元画像生成処理を実行する画像処理部を有し、
前記画像処理部は、
前記入力画像の被写体の属性情報と、3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して3次元画像の生成処理を実行する画像処理装置。
(2) 前記入力画像は、動画像データであり、
前記画像処理部は、
前記動画像データを構成する画像フレームごとに新たな3次元画像の生成処理を実行する(1)に記載の画像処理装置。
(3) 前記入力画像は、動画像データであり、
前記画像処理部は、
前記動画像データを構成する画像フレームごとに、3次元画像の構成単位であるメッシュと、マテリアルの設定を更新して新たな3次元画像の生成処理を実行するゅぬょまたは(2)に記載の画像処理装置。
(4) 前記テンプレートデータベースは、
前記被写体の構成要素単位のマテリアルが記録されているデータベースであり、
前記画像処理部は、
前記構成要素単位のマスク画像を適用して、各構成要素に対するマテリアルを前記テンプレートデータベースから取得して構成要素単位のマテリアル設定を実行する(1)〜(3)いずれかに記載の画像処理装置。
(5) 前記入力画像は人物の顔画像を含み、
前記テンプレートデータベースは、
前記入力画像に含まれる人物の顔の構成要素単位のマテリアルが記録されているデータベースであり、
前記画像処理部は、
前記入力画像に含まれる人物の顔の構成要素単位のマスク画像を適用して、各構成要素に対するマテリアルを前記テンプレートデータベースから取得して、顔の構成要素単位のマテリアル設定を実行する(1)〜(4)いずれかに記載の画像処理装置。
(6) 前記テンプレートデータベースは、
前記マテリアルとしてテクスチャを含み、
前記画像処理部は、
前記テンプレートデータベースから、被写体属性に応じたテクスチャを選択して3次元画像の生成処理を実行する(1)〜(5)いずれかに記載の画像処理装置。
(7) 前記テンプレートデータベースは、
前記マテリアルとしてテクスチャとシェーダを含み、
前記画像処理部は、
前記テンプレートデータベースから、被写体属性に応じたテクスチャとシェーダを選択して3次元画像の生成処理を実行する(1)〜(6)いずれかに記載の画像処理装置。
(8) 前記画像処理部は、
前記入力画像から特徴量を抽出する特徴量抽出部を有し、
特徴量抽出部の抽出した特徴量に基づいて、被写体の構成要素を識別し、
識別された構成要素単位のマテリアル設定を行う(1)〜(7)いずれかに記載の画像処理装置。
(9) 前記画像処理部は、
前記入力画像から特徴量を抽出する特徴量抽出部を有し、
特徴量抽出部の抽出した特徴量に基づいて、被写体の構成要素を識別し、
識別された構成要素単位のマスク画像生成処理を行う(1)〜(8)いずれかに記載の画像処理装置。
(10) 前記画像処理部は、
被写体の構成要素に併せて、マテリアル設定単位となるメッシュの分割処理を実行するメッシュ分割部を有する(1)〜(9)いずれかに記載の画像処理装置。
(11) 前記被写体の属性情報は、
性別、年齢、人種、肌質の少なくともいずれかを含む(1)〜(10)いずれかに記載の画像処理装置。
(12) 前記被写体の属性情報は、
前記入力画像の解析処理によって取得される属性情報、またはユーザ入力によって取得される属性情報である(1)〜(11)いずれかに記載の画像処理装置。
(13) 前記テンプレートデータベースに格納された属性情報とマテリアルとの対応データは、ユーザによるカスタマイズ可能なデータであり、
ユーザ入力部を介して入力される入力情報に応じて、属性情報とマテリアルとの対応データを変更することができる構成を有する(1)〜(12)いずれかに記載の画像処理装置。
(14) 前記入力画像は、
ネットワークを介して受信する画像である(1)〜(13)いずれかに記載の画像処理装置。
(15) 画像を送信する送信装置と、
前記送信装置からの入力画像に対する加工処理を実行して、3次元画像を生成して表示部に表示する受信装置を有し、
前記受信装置の画像処理部は、
前記入力画像の被写体の属性情報と、3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して前記3次元画像の生成処理を実行する画像処理システム。
(16) 前記画像は、動画像データであり、
前記受信装置の画像処理部は、
前記動画像データを構成する画像フレームごとに、3次元画像の構成単位であるメッシュと、マテリアルの設定を更新して新たな3次元画像の生成処理を実行する(15)に記載の画像処理システム。
(17) 前記テンプレートデータベースは、
前記被写体の構成要素単位のマテリアルが記録されているデータベースであり、
前記受信装置の画像処理部は、
前記構成要素単位のマスク画像を適用して、各構成要素に対するマテリアルを前記テンプレートデータベースから取得して構成要素単位のマテリアル設定を実行する(15)または(16)に記載の画像処理システム。
(18) 前記入力画像は人物の顔画像を含み、
前記テンプレートデータベースは、
人物の顔の構成要素単位のマテリアルが記録されているデータベースであり、
前記画像処理部は、
前記入力画像に含まれる人物の顔の構成要素単位のマスク画像を適用して、各構成要素に対するマテリアルを前記テンプレートデータベースから取得して、顔の構成要素単位のマテリアル設定を実行する(15)〜(17)いずれかに記載の画像処理システム。
(19) 画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、
入力画像に基づく3次元画像生成処理を実行する画像処理部を有し、
前記画像処理部が、
前記入力画像の被写体の属性情報と、3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して3次元画像の生成処理を実行する画像処理方法。
(20) 画像処理装置において画像処理を実行させるプログラムであり、
前記画像処理装置は、
入力画像に基づく3次元画像生成処理を実行する画像処理部を有し、
前記プログラムは、前記画像処理部に、
前記入力画像の被写体の属性情報と、3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して3次元画像の生成処理を実行させるプログラム。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本開示の一実施例の構成によれば、リアルタイムでの入力画像に基づく3D画像生成を可能とした装置、方法が実現される。
具体的には、例えば、入力画像の各画像フレームに対する加工処理を実行して3次元画像を生成する。入力画像の被写体の属性情報と3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して3次元画像を生成する。テンプレートデータベースは、人物の顔の構成要素単位のマテリアルが記録されており、画像処理部は、顔の構成要素単位のマスク画像を適用して、各構成要素に対するマテリアルをテンプレートデータベースから取得して、顔の構成要素単位でのマテリアル設定を実行する。
本構成により、リアルタイムでの入力画像に基づく3D画像生成を可能とした装置、方法が実現される。
110 送信装置
111 画像取得部
113 3次元モデル情報生成部
114 送信情報生成部
115 通信部
120 受信装置
121 通信部
122 画像処理部
123 データベース
124 表示部
200 画像処理装置
201 画像入力部
202 ユーザ入力部
203 画像処理部
204 記憶部
205 表示部
211 画像情報解析部
211a 特徴量抽出部
211b 属性解析部
212 メッシュ編集部
212a メッシュ取得部
212b メッシュ分割部
212c モデル追加部
213 マテリアル適用部
213a マスク画像生成部
213b テクスチャマップ生成部
214 レンダリング部
222 マスク画像
223 被写体属性情報
224 テンプレートデータベース
301 コントローラ
302 ROM
303 RAM
304 バス
305 入出力インタフェース
306 入力部
307 出力部
308 記憶部
309 通信部
310 ドライブ
311 リムーバブルメディア

Claims (20)

  1. 入力画像に基づく3次元画像生成処理を実行する画像処理部を有し、
    前記画像処理部は、
    前記入力画像の被写体の属性情報と、3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して3次元画像の生成処理を実行する画像処理装置。
  2. 前記入力画像は、動画像データであり、
    前記画像処理部は、
    前記動画像データを構成する画像フレームごとに新たな3次元画像の生成処理を実行する請求項1に記載の画像処理装置。
  3. 前記入力画像は、動画像データであり、
    前記画像処理部は、
    前記動画像データを構成する画像フレームごとに、3次元画像の構成単位であるメッシュと、マテリアルの設定を更新して新たな3次元画像の生成処理を実行する請求項1に記載の画像処理装置。
  4. 前記テンプレートデータベースは、
    前記被写体の構成要素単位のマテリアルが記録されているデータベースであり、
    前記画像処理部は、
    前記構成要素単位のマスク画像を適用して、各構成要素に対するマテリアルを前記テンプレートデータベースから取得して構成要素単位のマテリアル設定を実行する請求項1に記載の画像処理装置。
  5. 前記入力画像は人物の顔画像を含み、
    前記テンプレートデータベースは、
    前記入力画像に含まれる人物の顔の構成要素単位のマテリアルが記録されているデータベースであり、
    前記画像処理部は、
    前記入力画像に含まれる人物の顔の構成要素単位のマスク画像を適用して、各構成要素に対するマテリアルを前記テンプレートデータベースから取得して、顔の構成要素単位のマテリアル設定を実行する請求項1に記載の画像処理装置。
  6. 前記テンプレートデータベースは、
    前記マテリアルとしてテクスチャを含み、
    前記画像処理部は、
    前記テンプレートデータベースから、被写体属性に応じたテクスチャを選択して3次元画像の生成処理を実行する請求項1に記載の画像処理装置。
  7. 前記テンプレートデータベースは、
    前記マテリアルとしてテクスチャとシェーダを含み、
    前記画像処理部は、
    前記テンプレートデータベースから、被写体属性に応じたテクスチャとシェーダを選択して3次元画像の生成処理を実行する請求項1に記載の画像処理装置。
  8. 前記画像処理部は、
    前記入力画像から特徴量を抽出する特徴量抽出部を有し、
    特徴量抽出部の抽出した特徴量に基づいて、被写体の構成要素を識別し、
    識別された構成要素単位のマテリアル設定を行う請求項1に記載の画像処理装置。
  9. 前記画像処理部は、
    前記入力画像から特徴量を抽出する特徴量抽出部を有し、
    特徴量抽出部の抽出した特徴量に基づいて、被写体の構成要素を識別し、
    識別された構成要素単位のマスク画像生成処理を行う請求項1に記載の画像処理装置。
  10. 前記画像処理部は、
    被写体の構成要素に併せて、マテリアル設定単位となるメッシュの分割処理を実行するメッシュ分割部を有する請求項1に記載の画像処理装置。
  11. 前記被写体の属性情報は、
    性別、年齢、人種、肌質の少なくともいずれかを含む請求項1に記載の画像処理装置。
  12. 前記被写体の属性情報は、
    前記入力画像の解析処理によって取得される属性情報、またはユーザ入力によって取得される属性情報である請求項1に記載の画像処理装置。
  13. 前記テンプレートデータベースに格納された属性情報とマテリアルとの対応データは、ユーザによるカスタマイズ可能なデータであり、
    ユーザ入力部を介して入力される入力情報に応じて、属性情報とマテリアルとの対応データを変更することができる構成を有する請求項1に記載の画像処理装置。
  14. 前記入力画像は、
    ネットワークを介して受信する画像である請求項1に記載の画像処理装置。
  15. 画像を送信する送信装置と、
    前記送信装置からの入力画像に対する加工処理を実行して、3次元画像を生成して表示部に表示する受信装置を有し、
    前記受信装置の画像処理部は、
    前記入力画像の被写体の属性情報と、3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して前記3次元画像の生成処理を実行する画像処理システム。
  16. 前記画像は、動画像データであり、
    前記受信装置の画像処理部は、
    前記動画像データを構成する画像フレームごとに、3次元画像の構成単位であるメッシュと、マテリアルの設定を更新して新たな3次元画像の生成処理を実行する請求項15に記載の画像処理システム。
  17. 前記テンプレートデータベースは、
    前記被写体の構成要素単位のマテリアルが記録されているデータベースであり、
    前記受信装置の画像処理部は、
    前記構成要素単位のマスク画像を適用して、各構成要素に対するマテリアルを前記テンプレートデータベースから取得して構成要素単位のマテリアル設定を実行する請求項15に記載の画像処理システム。
  18. 前記入力画像は人物の顔画像を含み、
    前記テンプレートデータベースは、
    人物の顔の構成要素単位のマテリアルが記録されているデータベースであり、
    前記画像処理部は、
    前記入力画像に含まれる人物の顔の構成要素単位のマスク画像を適用して、各構成要素に対するマテリアルを前記テンプレートデータベースから取得して、顔の構成要素単位のマテリアル設定を実行する請求項15に記載の画像処理システム。
  19. 画像処理装置において実行する画像処理方法であり、
    前記画像処理装置は、
    入力画像に基づく3次元画像生成処理を実行する画像処理部を有し、
    前記画像処理部が、
    前記入力画像の被写体の属性情報と、3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して3次元画像の生成処理を実行する画像処理方法。
  20. 画像処理装置において画像処理を実行させるプログラムであり、
    前記画像処理装置は、
    入力画像に基づく3次元画像生成処理を実行する画像処理部を有し、
    前記プログラムは、前記画像処理部に、
    前記入力画像の被写体の属性情報と、3次元画像のレンダリング要素であるマテリアルとの対応データであるテンプレートデータベースを参照して被写体属性に応じたマテリアルを選択して3次元画像の生成処理を実行させるプログラム。
JP2019522035A 2017-05-31 2018-04-25 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム Pending JPWO2018221092A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017107471 2017-05-31
JP2017107471 2017-05-31
PCT/JP2018/016827 WO2018221092A1 (ja) 2017-05-31 2018-04-25 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JPWO2018221092A1 true JPWO2018221092A1 (ja) 2020-04-02

Family

ID=64455981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019522035A Pending JPWO2018221092A1 (ja) 2017-05-31 2018-04-25 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム

Country Status (6)

Country Link
US (1) US20200082595A1 (ja)
EP (1) EP3633624A4 (ja)
JP (1) JPWO2018221092A1 (ja)
KR (1) KR20200014280A (ja)
CN (1) CN110663066A (ja)
WO (1) WO2018221092A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10534962B2 (en) * 2017-06-17 2020-01-14 Matterport, Inc. Automated classification based on photo-realistic image/model mappings
US11250612B1 (en) 2018-07-12 2022-02-15 Nevermind Capital Llc Methods and apparatus rendering images using point clouds representing one or more objects
CN109949237A (zh) 2019-03-06 2019-06-28 北京市商汤科技开发有限公司 图像处理方法及装置、图像设备及存储介质
WO2021150880A1 (en) * 2020-01-22 2021-07-29 Stayhealthy, Inc. Augmented reality custom face filter
KR20210119743A (ko) * 2020-03-25 2021-10-06 건국대학교 산학협력단 인공 지능 기반 가상 현실 유괴범 캐릭터 생성 방법 및 장치
CN111489311B (zh) * 2020-04-09 2023-08-08 北京百度网讯科技有限公司 一种人脸美化方法、装置、电子设备及存储介质
JP7183414B2 (ja) * 2020-04-29 2022-12-05 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 画像処理の方法及び装置
CN111861954A (zh) * 2020-06-22 2020-10-30 北京百度网讯科技有限公司 编辑人脸的方法、装置、电子设备和可读存储介质
CN111881850A (zh) * 2020-07-30 2020-11-03 云知声智能科技股份有限公司 口红试色方法、装置及设备
US11887241B2 (en) * 2020-12-23 2024-01-30 Adobe Inc. Learning 2D texture mapping in volumetric neural rendering
CN112712580A (zh) * 2020-12-31 2021-04-27 北京居理科技有限公司 一种物体渲染方法
US11403831B1 (en) * 2021-01-14 2022-08-02 Microsoft Technology Licensing, Llc Efficient color theming of background images in web-based mixed reality environments
US11354860B1 (en) * 2021-01-26 2022-06-07 Qualcomm Incorporated Object reconstruction using media data
CN113223131B (zh) * 2021-04-16 2022-05-31 完美世界(北京)软件科技发展有限公司 一种模型的渲染方法、装置、存储介质以及计算设备
KR102592890B1 (ko) * 2023-06-13 2023-10-24 (주)디오비스튜디오 이미지 재구성을 위한 인공지능 학습 모델 학습 방법 및 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3076428B2 (ja) * 1991-12-16 2000-08-14 株式会社日立製作所 立体形状モデリング方法
JP3441804B2 (ja) * 1994-09-13 2003-09-02 キヤノン株式会社 画像処理装置及び方法
JP4755779B2 (ja) * 2001-07-31 2011-08-24 株式会社アマダ 板金加工製品の3次元検査・利用方法及びそのシステム
JP2008234199A (ja) * 2007-03-19 2008-10-02 Micronet Co Ltd 3次元コンピュータ図形生成装置及び3次元コンピュータ図形生成プログラム
JP2010113548A (ja) 2008-11-06 2010-05-20 Fujitsu Ltd グラフィックス装置
KR20100138648A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 영상 처리 장치 및 방법
JP2012185624A (ja) 2011-03-04 2012-09-27 Nippon Telegr & Teleph Corp <Ntt> 三次元顔モデルデータ生成装置
US10796480B2 (en) * 2015-08-14 2020-10-06 Metail Limited Methods of generating personalized 3D head models or 3D body models

Also Published As

Publication number Publication date
EP3633624A1 (en) 2020-04-08
EP3633624A4 (en) 2020-05-20
CN110663066A (zh) 2020-01-07
US20200082595A1 (en) 2020-03-12
KR20200014280A (ko) 2020-02-10
WO2018221092A1 (ja) 2018-12-06

Similar Documents

Publication Publication Date Title
JPWO2018221092A1 (ja) 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
US9552668B2 (en) Generation of a three-dimensional representation of a user
JP5463866B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
CN112669447B (zh) 一种模型头像创建方法、装置、电子设备和存储介质
US9058765B1 (en) System and method for creating and sharing personalized virtual makeovers
US20200020173A1 (en) Methods and systems for constructing an animated 3d facial model from a 2d facial image
CN110390632B (zh) 基于妆容模板的图像处理方法、装置、存储介质及终端
JP4753025B2 (ja) メイクアップシミュレーション方法
CN113628327B (zh) 一种头部三维重建方法及设备
KR102390252B1 (ko) 이미지 데이터에 가상 조명 조정들을 제공하기 위한 기술
JP2024500896A (ja) 3d頭部変形モデルを生成するための方法、システム及び方法
JP2005216131A (ja) 化粧シミュレーション装置、化粧シミュレーション方法、化粧シミュレーションプログラム
WO2014076744A1 (ja) 画像処理装置および画像処理方法
CN110580733A (zh) 一种数据处理方法、装置和用于数据处理的装置
JP7463774B2 (ja) メイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラム
JP2024503794A (ja) 2次元(2d)顔画像から色を抽出するための方法、システム及びコンピュータプログラム
Borges et al. A virtual makeup augmented reality system
US10803677B2 (en) Method and system of automated facial morphing for eyebrow hair and face color detection
JP5526239B2 (ja) デジタルピクチャを生成するための方法、デバイス、およびコンピュータ可読媒体
US20220157030A1 (en) High Quality AR Cosmetics Simulation via Image Filtering Techniques
JP2023540434A (ja) 操作順序変形エンジンを用いたコンピュータアニメーションのためのシステム及び方法
KR20200080577A (ko) 이미지 편집 애플리케이션 제공 장치 및 상기 장치에 의해 수행되는 이미지 내 얼굴 변형 방법
US20230101374A1 (en) Augmented reality cosmetic design filters
WO2023056333A1 (en) Augmented reality cosmetic design filters
CN117994395A (zh) 数字人面部资产生成方法、装置、电子设备及存储介质