JP7293277B2 - 画像のレンダリング方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム - Google Patents

画像のレンダリング方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム Download PDF

Info

Publication number
JP7293277B2
JP7293277B2 JP2021053898A JP2021053898A JP7293277B2 JP 7293277 B2 JP7293277 B2 JP 7293277B2 JP 2021053898 A JP2021053898 A JP 2021053898A JP 2021053898 A JP2021053898 A JP 2021053898A JP 7293277 B2 JP7293277 B2 JP 7293277B2
Authority
JP
Japan
Prior art keywords
image
lighting
parameter
parameters
parameter information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021053898A
Other languages
English (en)
Other versions
JP2022036319A (ja
Inventor
ルイジー チェン,
シンハン ヤン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022036319A publication Critical patent/JP2022036319A/ja
Application granted granted Critical
Publication of JP7293277B2 publication Critical patent/JP7293277B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本願は、コンピュータ技術分野に関し、具体的に特徴認識技術分野に関し、画像レンダリング技術分野及び深層学習技術分野に関し、特に画像のレンダリング方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラムに関する。
インターネットソーシャルネットワーキングの台頭により、ますます多くのユーザーがソーシャルソフトウェアを使用して他のユーザーと対話し、社会的ニーズを満たすようになっている。ユーザーのソーシャルインタラクションエクスペリエンスを更に強化するために、仮想三次元ヘッドモデルのインタラクティブなゲームプレイは、ライブブロードキャスト、短いビデオなどのシーンで一般的なゲームプレイになり、このゲームプレイでは、ホストまたはブロガーが漫画、動物などの頭部モデルをロードして自分の実際の頭部画像をカバーし、合成された画像を通じて他の視聴者と交流することができる。この方法は、ビデオの関心を高めるだけでなく、アンカーのアウトバウンド負担を軽減することができる。
従来の技術では、表示された仮想ヘッドモデルの効果はすべて所定の固定照明で実現され、具体的な照明背景と大きな偏差を有し、顕著な違反感を有する。
本願は画像のレンダリング方法、装置、電子デバイス及び記憶媒体を提供する。
第1態様によれば、本願の実施例は画像のレンダリング方法を提供し、顔画像領域を含む実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得するステップと、該実際の色パラメータと該顔の肌色パラメータに基づいて、照明パラメータ情報を決定するステップと、該実際のユーザー画像に基づいて得られたレンダリング対象画像を取得するステップと、該照明パラメータ情報に従ってテクスチャパラメータを生成し、該テクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するステップと、を含む。
第2態様によれば、本願の実施例は画像のレンダリング装置を提供し、顔画像領域を含む実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得するように構成される画像パラメータ取得ユニットと、該実際の色パラメータと該顔の肌色パラメータに基づいて、照明パラメータ情報を決定するように構成される照明パラメータ情報決定ユニットと、該実際のユーザー画像に基づいて得られたレンダリング対象画像を取得するように構成されるレンダリング対象画像取得ユニットと、該照明パラメータ情報に従ってテクスチャパラメータを生成し、該テクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するように構成される画像レンダリングユニットと、を備える。
第3態様によれば、本願の実施例は電子デバイスを提供し、少なくとも1つのプロセッサと、上記少なくとも1つのプロセッサに通信接続されるメモリと、を備え、上記メモリに上記少なくとも1つのプロセッサによって実行可能な命令が記憶され、上記命令は上記少なくとも1つのプロセッサによって実行され、上記少なくとも1つのプロセッサに第1態様のいずれかに記載の画像のレンダリング方法を実行させることができる。
第4態様によれば、本願の実施例はコンピュータ命令が記憶された非一時的なコンピュータ読み取り可能な記憶媒体を提供し、該コンピュータ命令は、該コンピュータに第1態様のいずれかに記載の画像のレンダリング方法を実行させるために使用される。
第5態様によれば、本願の実施例はコンピュータプログラムを提供し、該コンピュータプログラムは、プロセッサにより実行されると、第1態様のいずれかに記載の画像のレンダリング方法を実行させるために使用される。
本願は、顔画像領域を含む実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得した後、該実際の色パラメータと該顔の肌色パラメータに基づいて、照明パラメータ情報を決定し、該実際のユーザー画像に基づいて得られたレンダリング対象画像を取得し、該照明パラメータ情報に従ってテクスチャパラメータを生成し、且つ該テクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得し、実画像における肌色情報によって照明パラメータ情報を動的に決定し、且つ対応するテクスチャパラメータを生成し、レンダリング画像を動的にレンダリングすることを実現し、レンダリング画像の違反感を減少させ、画質を向上させる。
なお、この部分で説明する内容は、本願の実施例の肝心なまたは重要な特徴を特定することを意図するものではなく、本願の範囲を限定することを意図するものでもない。本願の他の特徴は以下の明細書を通じて容易に理解される。
図面は本手段をよりよく理解するためのものであり、本願を制限するものではない。
本願の実施例を適用できる例示的なシステムアーキテクチャである。 本願による画像のレンダリング方法の一実施例を示すフローチャートである。 本願による画像のレンダリング方法の一実施例における球面高調波照明アルゴリズムを使用して照明パラメータ情報を決定する一実現形態を示すフローチャートである。 本願による画像のレンダリング方法の他の実施例を示すフローチャートである。 本願による画像のレンダリング方法の他の実施例を示す効果模式図である。 601aは、本願による画像のレンダリング方法の1つのアプリケーションシナリオでの実際の顔画像の模式図である。 601bは、本願による画像のレンダリング方法の1つのアプリケーションシナリオで601aに対応する効果模式図である。 601cは、本願による画像のレンダリング方法の1つのアプリケーションシナリオで601aに対応する効果模式図である。 602aは、本願による画像のレンダリング方法の1つのアプリケーションシナリオでの実際の顔画像の模式図である。 602bは、本願による画像のレンダリング方法の1つのアプリケーションシナリオで602aに対応する効果模式図である。 602cは、本願による画像のレンダリング方法の1つのアプリケーションシナリオで602aに対応する効果模式図である。 603aは、本願による画像のレンダリング方法の1つのアプリケーションシナリオでの実際の顔画像の模式図である。 603bは、本願による画像のレンダリング方法の1つのアプリケーションシナリオで603aに対応する効果模式図である。 603cは、本願による画像のレンダリング方法の1つのアプリケーションシナリオで603aに対応する効果模式図である。 本願の画像のレンダリング装置による一実施例を示す構造模式図である。 本願の実施例による画像的レンダリングを実現するのに適する電子デバイスを示すブロック図である。
以下、図面を参照して、本願の例示的な実施例を説明し、理解に役に立つように、本願の実施例の様々な細部を示すが、単に例示的なものと見なされる。従って、当業者は、本願の範囲と精神から逸脱せずに、ここで説明する実施例に様々な変更と修正を加えることができることを認識すべきである。同様に、明確かつ簡潔にするために、以下の説明では、既知の機能と構造の説明を省略する。
説明する必要があるのは、衝突しない場合、本願における実施例及び実施例における特徴を組み合わせることができる。以下、図面を参照して実施例を組み合わせて本願を詳細に説明する。
図1は本願の画像のレンダリング方法、装置、電子デバイス及びコンピュータ読み取り可能な記憶媒体を適用できる実施例を示す例示的なシステムアーキテクチャ100である。
図1に示すように、システムアーキテクチャ100は、端末デバイス101、102、103、ネットワーク104及びサーバ105を備えてもよい。ネットワーク104は、端末デバイス101、102、103及びサーバ105の間に通信リンクを提供する媒体である。ネットワーク104は、様々な接続タイプ、例えば有線、無線通信リンクまたは光ファイバケーブルなどを含んでもよい。
ユーザーは、端末デバイス101、102、103を使用してネットワーク104を介してサーバ105と対話でき、レンダリング画像またはレンダリング画像に基づいて生成されたデータストリームを送信するなどの目的を実現する。端末デバイス101、102、103には、画像処理アプリケーション、ライブブロードキャストアプリケーション、ビデオ録画アプリケーションなどの画像キャプチャ機能を提供できるアプリケーションをインストールすることができる。
端末デバイス101、102、103は、ハードウェアであってもよいし、ソフトウェアであってもよい。ハードウェアである場合、ディスプレイを有する様々な電子デバイスであってもよく、スマート端末、タブレットコンピュータ、ラップトップコンピュータ、デスクトップコンピュータなどを含むが、これらに制限されない。当端末デバイス101、102、103はソフトウェアである場合、上記で挙げられた電子デバイスにインストールすることができる。複数のソフトウェアまたはソフトウェアモジュール(例えば実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得するなど)として実現されてもよいし、単一のソフトウェアまたはソフトウェアモジュールとして実現されてもよい。ここで具体的に限定されない。
端末デバイス101、102、103は様々なサービスを提供する端末デバイスであってもよく、例えばサーバ105のためにレンダリング画像またはレンダリング画像に基づいて生成されたデータストリームを提供する端末デバイスである。例えば顔画像領域を含む実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得した後、該実際の色パラメータと該顔の肌色パラメータに基づいて、照明パラメータ情報を決定し、該実際のユーザー画像に基づいて得られたレンダリング対象画像を取得し、該照明パラメータ情報に従ってテクスチャパラメータを生成し、且つ該テクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得する。
説明する必要があるのは、本願の実施例による画像のレンダリング方法は、一般的に端末デバイス101、102、103により実行し、それと対応して、画像のレンダリング装置は一般的に端末デバイス101、102、103に設けられる。この時、例示的なシステムアーキテクチャ100はサーバ105とネットワーク104を備えなくてもよい。
説明する必要があるのは、サーバは、ハードウェアであってもよいし、ソフトウェアであってもよい。サーバはハードウェアである場合、複数のサーバからなる分散サーバクラスターとして実現されてもよいし、単一のサーバとして実現されてもよい。サーバはソフトウェアである場合、例えば分散サービスを提供するために使用される複数のソフトウェアまたはソフトウェアモジュールとして実現されてもよいし、単一のソフトウェアまたはソフトウェアモジュールとして実現されてもよい。ここで具体的に制限さない。
なお、画像のレンダリング方法もサーバ105により実行し、それと対応して、画像のレンダリング装置もサーバ105に設けられてもよい。この時、例示的なシステムアーキテクチャ100にサーバ105とネットワーク104が含まれる。
理解すべきなのは、図1における端末デバイス、ネットワーク及びサーバの数は例示的なものでしかない。実現の必要に応じて、任意の数の端末デバイス、ネットワーク及びサーバを備えることができる。
図2を参照し続けると、本願による画像のレンダリング方法の一実施例を示すフロー200である。該画像のレンダリング方法は、以下のステップを含む。
ステップ201:実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得する。
本実施例において、画像のレンダリング方法の実行主体(例えば図1に示すような端末101、102、103)はローカルの撮影デバイスから、或いはローカル、非ローカルの人間とコンピュータの対話デバイス(例えば図1に示すようなサーバ105)から顔画像領域を含むユーザー実画像を取得することができ、実際のユーザー画像とは、通常、上記実行主体のカメラなどの画像キャプチャデバイスによって収集されたユーザーのライブブロードキャストプロセス中の三次元画像を指し、次に、該ユーザーの実画像に基づいて実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得する。
実際の色パラメータと顔の肌色パラメータとは、実際のユーザー画像における実色のピクセルカラーRGB値と顔の肌色のピクセルカラーRGB値を指し、ユーザーの実画像を取得した後、光予測器、光予測モデルなどの方法を使用して実際のユーザー画像からピクセル領域に対応するピクセルカラーRGB値、即ち実際の色パラメータと顔の肌色のピクセルカラーRGB値を抽出する。
理解すべきなのは、上記実行主体もローカル、非ローカルの人間とコンピュータの対話デバイスから顔画像領域を含む実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを直接取得することができる。
ステップ202:該実際の色パラメータと該顔の肌色パラメータに基づいて、照明パラメータ情報を決定する。
本実施例において、上記ステップ201で決定された実際の色パラメータと顔の肌色パラメータの上で、実際の色パラメータと顔の肌色パラメータに従って照明パラメータ情報を決定するには、双方向反射分布関数(Bidirectional Reflectance Distribution Function、BRDFと略称)モデル或いは球面高調波照明アルゴリズムなどの方法を使用して実際の色パラメータと顔の肌色パラメータに基づいてパラメータ照明、即ち実際のユーザー画像からフィードバックされた実際の照明状況を推定し、実際のユーザー画像における照明パラメータ情報を取得するようにする。
理解すべきなのは、本願において、実際のユーザー画像は三次元状況に基づいて得られたものであり、好ましくは、球面高調波照明アルゴリズムによって画像を前処理した後、対応する処理結果を取得して記憶し、次に、これらの記憶された情報に基づいて高品質のレンダリング及びシャドウ効果を生成し、このプロセスにおいて、従来の照明方程式を置き換えるために新しい照明方程式を使用し、且つ球面高調波基底関数を使用して該方程式における関連情報を周波数空間に投影し、係数で示され、一定の方法で記憶される必要がある。
具体的に、球面高調波照明アルゴリズムを使用して照明パラメータ情報を決定するプロセスは図3に示すように、球面高調波照明アルゴリズムを使用して三次元画像における点Pから二次元画像点Qに対応するピクセルカラーRGB値を決定する実現形態のフロー300を説明し、この点の法線ベクトルはnx、ny、nzであり、この点に対応するテクスチャカラーRGBはそれぞれ(T、T、T)であり、この時周囲光の球面高調波係数も知られ、L0、L1、L2、…L8であり、レンダリングされた画像上の三次元空間点Pの対応するレンダリングされたピクセル結果は二次元画像点Qであり、二次元画像点Qに対応するピクセルカラーRGB値(Q、Q、Q)を取得する具体的なステップは以下のステップを含む。
ステップ301:9つの計算定数を導入する。
具体的に、以下である。
Figure 0007293277000001
ステップ302:曲面の法線ベクトルに従って中間係数を計算する。
具体的に、P点での法線ベクトルは(nx,ny,nz)であり、以下の計算式に代入し、中間係数sh0~sh8を取得する。即ち、
sh0=a
sh1=b×nx
sh2=c×ny
sh3=d×nz
sh4=e×(3.0×nz×nz-1.0)
sh5=f×ny×nz
sh6=g×nx×nz
sh7=h×nx×ny
sh8=i×(nx×nx-ny×ny)。
ステップ303:球面関数拡散反射式に従ってQに対応するピクセルカラーRGB値を取得する。
具体的に、以下の球面関数拡散反射計算式に従ってQに対応するピクセルカラーRGB値を取得する。即ち、
=T×(sh0×L0+sh1×L1+…+sh9×L9)
=T×(sh0×L0+sh1×L1+…+sh9×L9)
=T×(sh0×L0+sh1×L1+…+sh9×L9)。
Qに対応するピクセルカラーRGB値を決定した後、実際の色パラメータと顔の肌色パラメータに基づいて、照明パラメータ情報を決定するステップ304を含んでもよい。
具体的に、Q、Pに対応するピクセルRGB値を取得した後、球面高調波照明アルゴリズムに基づいて実際の色パラメータ、顔の肌色パラメータ及び照明パラメータ情報の変換関係:
Figure 0007293277000002
を構築し、QColorは、実際の色パラメータのRGB値であり、PColorは、顔の肌色パラメータのRGB値であり、Lは照明パラメータ情報である。
レンダリングプロセスでは、球形高調波変換の特性及びこれらの予め記憶された係数情報を組み合わせて元の照明方程式を復元してシーンに色を付け、特に、三次元モデルに対して内容に基づく特徴分析と変換を実行する場合、動的な照明レンダリング効果を実現し、レンダリング効果を提供する。
ステップ203:該実際のユーザー画像に基づいて得られたレンダリング対象画像を取得する。
本実施例において、該実際のユーザー画像に基づいて得られたレンダリング対象画像は合成画像であってもよく、例えば実際のユーザー画像を取得した後、テンプレート画像を取得し、実際のユーザー画像の中の特定の位置に該テンプレート画像を追加した後にレンダリング対象画像を取得し、即ち実際のユーザー画像に含まれる顔画像の位置にテンプレート画像における内容の画像を対応的に置き換え、例えばライブブロードキャスト中の顔画像を犬のアバター、スケルトンのアバターなどに置き換えた後に得られる画像である。
理解すべきなのは、該実際のユーザー画像に基づいて得られたレンダリング画像は実際のユーザー画像に従って変形、伸びなどの方法によって決定される画像或いは従来の技術における実際のユーザー画像を使用する必要があり、編集して生成された画像であってもよく、本願は制限がない。
ステップ204:該照明パラメータ情報に従ってテクスチャパラメータを生成し、且つ該テクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得する。
本実施例において、上記ステップ202で得られた照明パラメータ情報を取得した後、例えばOpenGL工具或いはCCRenderTextureインターフェース等の方法を使用して、該照明パラメータ情報を上記ステップ203で得られたレンダリング対象画像を照明レンダリングすることに使用できるテクスチャパラメータに変換し、次に、該テクスチャパラメータに基づいてレンダリング対象画像をレンダリングして、レンダリング画像を取得する。
本願の実施例による画像のレンダリング方法は、顔画像領域を含む実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得した後、該実際の色パラメータと該顔の肌色パラメータに基づいて、照明パラメータ情報を決定し、該実際のユーザー画像に基づいて得られたレンダリング対象画像を取得し、該照明パラメータ情報に従ってテクスチャパラメータを生成し、且つ該テクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得し、実画像における肌色情報によって照明パラメータ情報を動的に決定し、且つ対応するテクスチャパラメータを生成し、レンダリング画像を動的にレンダリングすることを実現し、レンダリング画像の違反感を減少させ、画質を向上させる。
図4を参照し続けると、本願による画像のレンダリング方法の他の実施例を示すフロー400であり、具体的に、球面高調波照明アルゴリズムを使用して本願の画像のレンダリング方法を実現し、以下のステップを含む。
ステップ401:実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得する。
ステップ402:該実際の色パラメータと該顔の肌色パラメータに基づいて、照明パラメータ情報を決定する。
ステップ403:歴史的な実際のユーザー画像に基づいて推定変換係数を決定する。
本実施例において、異なる歴史的な実際のユーザー画像における異なる顔の部分の法線ベクトルを参照として、上記図3に示すような実現形態におけるステップ304での実際の色パラメータ、顔の肌色パラメータ及び照明パラメータ情報の変換関係の中のSH(nx,ny,nz)値を決定し、変換係数を推定する。
理解すべきなのは、推定変換係数SH(nx,ny,nz)値は、顔の部分、実際の色パラメータ、顔の肌色パラメータ及び照明パラメータ情報の違いによって動的に変化する値であり、異なる条件で決定された推定変換係数の値を推定変換係数セットとして対応的に生成することができ、後で該推定変換係数セットに従って異なる状況での推定変換係数を取得するようにする。
ステップ404:該推定変換係数、該実際の色パラメータ及び該顔の肌色パラメータに基づいて該照明パラメータ情報に関連する球面高調波照明方程式を構築する。
本実施例において、上記図3に示すような実現形態における同様な方法を使用し、照明パラメータ情報に関連する球面高調波照明方程式を構築する。即ち、
Figure 0007293277000003
であり、QColorは実際の色パラメータのRGB値であり、PColorは顔の肌色パラメータのRGB値であり、Lは照明パラメータ情報である。
ステップ405:該球面高調波照明方程式に基づいて該照明パラメータ情報を決定する。
本実施例において、ステップ404で決定された球面高調波照明方程式に基づいて、照明パラメータ情報Lを取得する。
ステップ406:該実際のユーザー画像とテンプレート画像により得られたレンダリング対象画像を取得する。
ステップ407:該照明パラメータ情報に従ってテクスチャパラメータを生成し、且つ該テクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得する。
本実施例において、上記ステップ406で得られたレンダリング対象画像を取得した後、ステップ405における照明パラメータ情報に基づいて対応するレンダリングテクスチャパラメータを生成し、該レンダリングテクスチャパラメータは、上記球面高調波照明方程式を使用して、照明パラメータ情報Lと再決定された推定変換係数SH(nx,ny,nz)に従って取得されたP1Colorであってもよく、該P1Colorをテクスチャパラメータとしてレンダリング対象画像を照明レンダリングし、レンダリング画像を取得する。
本実施例のいくつかの選択可能な実現形態において、この該テクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するステップは、該テクスチャパラメータを更新された顔の肌色パラメータとして使用するステップと、該実際の色パラメータと該更新された顔の肌色パラメータに基づいて、更新された照明パラメータ情報を決定するステップと、該更新された照明パラメータ情報に基づいて更新されたテクスチャパラメータを決定し、該更新されたテクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するステップと、を含む。
具体的に、得られたテクスチャパラメータを更新された顔の肌色パラメータとして使用でき、次に、本実施例のステップ404で構築された球面高調波照明方程式に基づいて更新された照明パラメータ情報を決定でき、次に、同様に上記ステップ405~407における方法を使用して更新されたテクスチャパラメータを決定し、且つ該更新されたテクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングして、レンダリング画像を取得し、反復法によってテクスチャパラメータを最適化し、照明レンダリングの品質を更に向上させる。
本実施例のいくつかの選択可能な実現形態において、この該更新された照明パラメータ情報に基づいて更新されたテクスチャパラメータを決定し、該更新されたテクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するステップは、該更新されたテクスチャパラメータを該更新された顔の肌色パラメータとして再決定し、該実際の色パラメータと該更新された顔の肌色パラメータに基づいて、更新された照明パラメータ情報を決定することを実行するのにジャンプするステップと、ジャンプ実行の回数が予め決定された閾値条件を満たすのに応答して、最終的な更新されたテクスチャパラメータを決定し、該最終的な更新されたテクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するステップと、を含む。
具体的に、上記実施例の同様な状況に基づいて、更新されたテクスチャパラメータを決定した後、再び更新されたテクスチャパラメータを更新された顔の肌色パラメータとして決定し、更新された照明パラメータを対応的に再決定し、該操作を複数回繰り返して実行し、繰り返し実行の回数が予め決定された回数に達する場合、最終的な更新されたテクスチャパラメータを決定し、該繰り返し方法によって反復更新を実現し、且つ最終的な更新されたテクスチャパラメータを決定し、実際のユーザー画像での照明状況に近づくようにし、該最終的な更新されたテクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングして、レンダリング画像を取得し、実際のユーザー画像での周囲の照明のレンダリングにより近づくようにする。該プロセスは図5を参照でき、予め決定された回数が10回で、次に、上記繰り返し方法に基づいて反復更新を実現した後、最終的にレンダリング画像を取得する実施効果模式図を例示的に示す。
本実施例のいくつかの選択可能な実現形態において、実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得するステップは、実際のユーザー画像における実際の色パラメータと予め決定された顔の肌色パラメータを取得するステップを含む。
具体的に、反復法は実際のユーザー画像での照明パラメータに無限に近づくことができるため、歴史的な実際のユーザー画像に基づいて1つの標準の顔の肌色パラメータRGB値を予め決定することができ、複数回の反復によって実際のユーザー画像での照明パラメータに近づき、顔の肌色パラメータを正確に取得できない場合の代替手段を提供し、顔の肌色パラメータの不正確な取得によって画像のレンダリング品質に影響を与えることを避ける。
例として、PColor、即ち顔の肌色パラメータのRGB値を(240,183,155)として予め設定することができ、計算によって照明パラメータ情報を取得した後、反復更新し、最終的なテクスチャパラメータを決定する。
本実施例において、ステップ401~402、ステップ406はそれぞれ上記図2に示すような実施例におけるステップ201~202及び203と同様であるため、これを繰り返して説明しない。本実施例において、球面高調波照明アルゴリズムを使用して実画像の肌色情報によって照明パラメータ情報を動的に決定し、対応するテクスチャパラメータを生成し、レンダリング画像を動的にレンダリングすることを実現し、レンダリング画像の違反感を減少させ、画質を向上させる。
よりよく理解するために、本願は具体的なアプリケーションシナリオを組み合わせ、本願による画像のレンダリング方法を説明するように、具体的な実現手段を提案し、具体的に以下の内容を含む。
図601a、602a、603aを参考にし、顔の領域を含む3つの異なる実際のユーザー画像を示し、顔画像領域を含む実際のユーザー画像における実際の色パラメータA11、A21、A31と顔の肌色パラメータB1、B2、B3をそれぞれ取得する。
歴史的な実際のユーザー画像における異なる顔の部分の法線ベクトルを取得して推定変換係数SH(nx,ny,nz)を求め、実際のユーザー画像601aを例として(実際のユーザー画像602a、603aの処理プロセスは実際のユーザー画像601aと同様であり、繰り返して説明しない)、顔の肌色パラメータB1と実際の顔パラメータA11に従って、構築された球面高調波照明方程式は、
A11=B1×SH(nx,ny,nz)×L
である。
その中の照明パラメータ情報Lを求め、次に、Lと異なる推定変換係数に基づいて異なる顔の肌色パラメータB11(実際のユーザー画像602aに対応する異なる顔の肌色パラメータはB21であり、実際のユーザー画像603aに対応する異なる顔の肌色パラメータはB31である)を求め、該B11を上記球面高調波照明に代入し、更新された照明パラメータLA11(実際のユーザー画像602aに対応する更新された照明パラメータLA21であり、実際のユーザー画像603aに対応する異なる顔の肌色パラメータはLA31である)を決定する。
肌色パラメータB11、B21、B31に基づいて実際のユーザー画像601a、602a、603aをレンダリングする場合、実際のユーザー画像601a、602a、603aに対応するレンダリング効果図を図601b、602b、603bに示す。
次に、更新された照明パラメータLA11、LA21、LA31に基づいて更新された顔の肌色パラメータB12、B22、B32を更新されたテクスチャパラメータB12、B22、B32として決定し、更新されたテクスチャパラメータB12、B22、B32を使用してレンダリング対象画像を照明レンダリングし、レンダリング画像を取得する。
更新されたテクスチャパラメータB12、B22、B32によって実際のユーザー画像601a、602a、603aをレンダリングする場合、実際のユーザー画像601a、602a、603aに対応するレンダリング効果図を図601c、602c、603cに示す。
このアプリケーションシナリオから分かるように、本願における画像のレンダリング方法は、実際の色パラメータと顔の肌色パラメータに従って照明パラメータ情報を決定した後、照明パラメータ情報を使用してテクスチャパラメータ(即ち再決定された顔の肌色パラメータ)を取得し、次に、該テクスチャパラメータを使用してレンダリング対象画像を照明レンダリングし、レンダリング画像を取得する。
図7に示すように、本実施例の画像のレンダリング装置700は、顔画像領域を含む実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得するように構成される画像パラメータ取得ユニット701と、該実際の色パラメータと該顔の肌色パラメータに基づいて、照明パラメータ情報を決定するように構成される照明パラメータ情報決定ユニット702と、該実際のユーザー画像に基づいて得られたレンダリング対象画像を取得するように構成されるレンダリング対象画像取得ユニット703と、該融合した顔画像を該テンプレート顔画像に追加し、該ユーザーを表すためのレンダリング画像を取得するように構成される画像レンダリングユニット704と、を備えてもよい。
本実施例のいくつかの選択可能な実現形態において、該照明パラメータ情報決定ユニット702では、該実際の色パラメータと該顔の肌色パラメータに基づいて、照明パラメータ情報を決定するステップは、球面高調波照明アルゴリズムを使用して該実際の色パラメータと該顔の肌色パラメータに基づいて、照明パラメータ情報を決定するステップを含む。
本実施例のいくつかの選択可能な実現形態において、該照明パラメータ情報決定ユニット702では、球面高調波照明アルゴリズムを使用して該実際の色パラメータと該顔の肌色パラメータに基づいて、照明パラメータ情報を決定するステップは、歴史的な実際のユーザー画像に基づいて推定変換係数を決定するステップと、該推定変換係数、該実際の色パラメータ及び該顔の肌色パラメータに基づいて該照明パラメータ情報に関連する球面高調波照明方程式を構築するステップと、該球面高調波照明方程式に基づいて該照明パラメータ情報を決定するステップと、を含む。
本実施例のいくつかの選択可能な実現形態において、該画像レンダリングユニット704には、該テクスチャパラメータを更新された顔の肌色パラメータとして使用し、該実際の色パラメータと該更新された顔の肌色パラメータに基づいて、更新された照明パラメータ情報を決定するように構成されるテクスチャパラメータ更新サブユニットが備えられ、該画像レンダリングユニットはさらに、該更新された照明パラメータ情報に基づいて更新されたテクスチャパラメータを決定し、該更新されたテクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するように構成される。
本実施例のいくつかの選択可能な実現形態において、該画像レンダリングユニット704には、さらに、該更新されたテクスチャパラメータを該更新された顔の肌色パラメータとして再決定し、該実際の色パラメータと該更新された顔の肌色パラメータに基づいて、更新された照明パラメータ情報を決定することを実行するのにジャンプするように構成される該テクスチャパラメータ更新サブユニットが備えられ、該画像レンダリングユニットはさらに、ジャンプ実行の回数が予め決定された閾値条件を満たすのに応答して、最終的な更新されたテクスチャパラメータを決定し、該最終的な更新されたテクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するように構成される。
本実施例のいくつかの選択可能な実現形態において、該画像パラメータ取得ユニット701では、実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得するステップは、実際のユーザー画像における実際の色パラメータと予め決定された顔の肌色パラメータを取得するステップを含む。
本実施例は上記の方法実施例に対応する装置実施例として存在し、同じ内容が上記方法実施例の説明を参照し、繰り返して説明しない。本願の実施例による画像のレンダリング装置によれば、実画像における肌色情報によって照明パラメータ情報を動的に決定し、且つ対応するテクスチャパラメータを生成し、レンダリング画像を動的にレンダリングすることを実現し、レンダリング画像の違反感を減少させ、画質を向上させる。
本願の実施例によれば、本願は電子デバイスと読み取り可能な記憶媒体をさらに提供する。
図8は、本願の実施例による画像のレンダリング方法の電子デバイスのブロック図である。電子デバイスは、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレーム、その他の適切なコンピュータなどのさまざまな態様のデジタルコンピュータを表すことを意図とする。電子デバイスは、パーソナルデジタル処理、セルラー方式の携帯電話、スマートフォン、ウェアラブルデバイス、及び他の同様のコンピューティング装置などのさまざまな態様のモバイル装置を表すこともできる。本文に示されるコンポーネント、それらの接続及び関係、ならびにそれらの機能は、単なる例であり、本文に記載されるおよび/または主張される本願の実現を限定することを意図しない。
図8に示すように、該電子デバイスは、1つまたは複数のプロセッサ801、メモリ802、及び高速インターフェース及び低速インターフェースを備える各コンポーネントを接続するためのインターフェースを備える。各コンポーネントは、異なるバスで相互に接続されており、共通のマザーボードにインストールしてもよいし、ニーズに応じて、他の方法でインストールしてもよい。プロセッサは、GUIのグラフィック情報を外部入/出力装置(インターフェースに結合されたディスプレイデバイスなど)に表示できるように、メモリ内またはメモリ上に記憶された命令を含む電子デバイスで実行された命令を処理でき、他の実施例では、必要に応じて、複数のプロセッサおよび/または複数のバスを、複数のメモリ及び複数のメモリと共に使用することができる。同様に、複数の電子デバイスを接続でき、各デバイスはいくつかの必要なオペレーティングを提供する(例えば、サーバアレイ、ブレードサーバグループ、またはマルチプロセッサシステムとする)。図8では、1つのプロセッサ801を例にする。
メモリ802は、即ち、本願による非一時的なコンピュータ可読記憶媒体である。ただし、前記メモリは、少なくとも1つのプロセッサによって実行可能な命令を記憶するので、前記少なくとも1つのプロセッサに本願による画像のレンダリング方法を実行させる。本願の非一時的なコンピュータ可読記憶媒体は、コンピュータに本願による画像のレンダリング方法を実行させるためのコンピュータ命令を記憶する。
メモリ802は非一時的なコンピュータ可読記憶媒体として、非一時的なソフトウェアプログラム、非一時的なコンピュータによって実行可能なプログラム、及びモジュールを記憶することに用いられ、例えば本願の実施例における画像のレンダリング方法に対応するプログラム命令/モジュール(例えば、図7に示すような画像パラメータ取得ユニット701、照明パラメータ情報決定ユニット702、レンダリング対象画像取得ユニット703、画像レンダリングユニット704)である。プロセッサ801は、メモリ802に記憶された非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アプリケーション及びデータ処理を実行し、即ち、上記方法の実施例の画像のレンダリング方法を実現する。
メモリ802は、記憶プログラム領域と記憶データ領域を含んでもよく、ただし、記憶プログラム領域は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶してもよく、記憶データ領域は、該電子デバイスが画像のレンダリング方法を実行する時に作成された様々なデータなどを記憶することができ、また、メモリ802は、高速ランダムアクセスメモリを含んでもよく、さらに非一時的なメモリを含んでもよく、例えば、少なくとも1つの磁気ディスク記憶デバイス、フラッシュメモリデバイス、または他の非一時的なソリッドステートストレージデバイスなどの非一時的なメモリを含んでもよく、いくつかの実施例では、メモリ802は、任意選択で、プロセッサ801に対してリモートで設定されたメモリを含み、これらのリモートメモリは、ネットワークを介して画像のレンダリング電子デバイスに接続することができる。上記のネットワークの実施例は、インターネット、企業イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びそれらの組み合わせなどを含むが、これらに限定されない。
画像のレンダリング方法の電子デバイスは、入力装置803と出力装置804を備えてもよい。プロセッサ801、メモリ802、入力装置803及び出力装置804は、バスまたは他の方法で接続されてもよいが、図8ではバスによる接続を例にする。
入力装置803は、入力デジタルまたは文字情報を受信し、画像のレンダリング方法の電子デバイスのユーザー設定及び機能制御に関連するキー信号入力を生成することができる。例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、1つ以上のマウスボタン、トラックボール、ジョイスティック、その他の入力装置が挙げられる。出力装置804は、ディスプレイデバイス、補助照明装置(例えば、LED)、触覚フィードバック装置(例えば、振動モーター)などを備えてもよい。該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを備えてもよい。いくつかの実施例では、ディスプレイデバイスはタッチスクリーンであってもよい。
ここでは説明されるシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせにおいて実現できる。これらの様々な実施例形態は、以下を含んでもよい。1つまたは複数のコンピュータプログラムに実施され、該1つまたは複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行および/または解釈されてもよく、該プログラマブルプロセッサは、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータと命令を受信し、そのデータと命令をストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置に送信できる専用または汎用のプログラマブルプロセッサであってもよい。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、高レベルのプロセス及び/またはオブジェクト指向プログラミング言語、及び/またはアセンブリ/機械言語を利用してこれらのコンピュータプログラムを実施することができる。本文で使用されるように、「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」という用語は、プログラマブルプロセッサに機械命令および/またはデータを提供するために用いられる任意のコンピュータプログラム製品、デバイス、および/または装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジック装置(PLD))を指す。機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、プログラマブルプロセッサに機械命令および/またはデータを提供するために用いられる任意の信号を指す。
ユーザーとの対話を提供するために、コンピュータにここで説明されるシステム及び技術を実施してもよく、該コンピュータは、ユーザーに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニター)、及びキーボードとポインティング装置(マウスやトラックボールなど)を備え、ユーザーが該キーボードとポインティング装置を介してコンピュータに入力を提供することができる。他のタイプの装置もユーザーとの対話を提供するために用いられ、例えば、ユーザーに提供されるフィードバックは、任意の形式の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、任意の形式(音入力、音声入力、または触覚入力を含み)でユーザーからの入力を受信することができる。
ここで説明されるシステムと技術は、バックエンドコンポーネント(例えば、データサーバ)を含むコンピュータシステム、ミドルウェアコンポーネント(例えば、アプリケーションサーバ)を含むコンピュータシステム、またはフロントエンドコンポーネントを含むコンピュータシステム(例えば、グラフィカルユーザーインターフェースまたはWebブラウザーを備え、ユーザーが該ラフィカルユーザーインターフェースまたはWebブラウザーでシステムと技術の実施例と対話できるユーザーのコンピュータ)、またはそのようなバックエンドコンポーネント、ミドルウェアコンポーネント、またはフロントエンドコンポーネントを含む任意の組み合わせに実施してもよく、システムのコンポーネントは、任意の形式または媒体のデジタルデータ通信(通信ネットワークなど)を介して相互に接続してもよい。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、インターネット、ブロックチェーンネットワークが挙げられる。
コンピュータシステムは、クライアント及びサーバを含んでもよい。クライアントとサーバは、一般的に互いに離れており、通常は通信ネットワークを介して対話する。対応するコンピュータ上で、互いにクライアント/サーバ関係を持つコンピュータプログラムを実行することによりクライアントとサーバの関係を生成する。サーバは、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれるクラウドサーバにすることができ、クラウドコンピューティングサービスシステムのホスト製品であり、従来の物理ホストおよびVPSサービス(「Virtual Private Server」、または「VPS」と略称)の管理が困難でビジネスのスケーラビリティが弱いという欠点を解決する
本願の実施例による技術手段によれば、顔画像領域を含む実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得した後、該実際の色パラメータと該顔の肌色パラメータに基づいて、照明パラメータ情報を決定し、該実際のユーザー画像に基づいて得られたレンダリング対象画像を取得し、該照明パラメータ情報に従ってテクスチャパラメータを生成し、且つ該テクスチャパラメータを使用して該レンダリング対象画像を照明レンダリングし、レンダリング画像を取得し、実画像における肌色情報によって照明パラメータ情報を動的に決定し、且つ対応するテクスチャパラメータを生成し、レンダリング画像を動的にレンダリングすることを実現し、レンダリング画像の違反感を減少させ、画質を向上させる。
なお、上記に示される様々な形態のプロセスを使用してソートし、ステップを追加し、削除できる。例えば、本願に記載される各ステップは、本願に開示される技術的解決手段の所望の結果を達成できる限り、並列、順次、または異なる順序で実行されてもよく、ここでは本文に限定されない。
上記の具体的な実施形態は、本願の特許範囲を限定するものではない。当業者は、設計要件及び他の要因に応じて、様々な修正、組み合わせ、サブ組み合わせ、及び置換を行うことができると理解すべきである。本願の精神及び原則を逸脱せずに行われる補正、等価置換、改良などはすべて本願の特許範囲に含まれるべきである。

Claims (13)

  1. 画像のレンダリング方法であって、
    顔画像領域を含む実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得するステップと、
    前記実際の色パラメータと前記顔の肌色パラメータに基づいて、照明パラメータ情報を決定する照明パラメータ情報決定処理を実行するステップと、
    前記実際のユーザー画像に基づいて得られたレンダリング対象画像を取得するステップと、
    前記照明パラメータ情報に従ってテクスチャパラメータを生成し、前記テクスチャパラメータを使用して前記レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するステップと、を含み、
    前記テクスチャパラメータを使用して前記レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するステップは、
    前記テクスチャパラメータを更新された顔の肌色パラメータとして使用するステップと、
    前記実際の色パラメータと前記更新された顔の肌色パラメータに基づいて、更新された照明パラメータ情報を決定するステップと、
    前記更新された照明パラメータ情報に基づいて更新されたテクスチャパラメータを決定し、前記更新されたテクスチャパラメータを使用して前記レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するステップと、を含む画像のレンダリング方法。
  2. 前記実際の色パラメータと前記顔の肌色パラメータに基づいて、照明パラメータ情報を決定するステップは、
    球面高調波照明アルゴリズムを使用して前記実際の色パラメータと前記顔の肌色パラメータに基づいて、照明パラメータ情報を決定するステップを含む請求項1に記載の方法。
  3. 前記球面高調波照明アルゴリズムを使用して前記実際の色パラメータと前記顔の肌色パラメータに基づいて、照明パラメータ情報を決定するステップは、
    過去の実際のユーザー画像に基づいて推定変換係数を決定するステップと、
    前記推定変換係数、前記実際の色パラメータ及び前記顔の肌色パラメータに基づいて前記照明パラメータ情報に関連する球面高調波照明方程式を構築するステップと、
    前記球面高調波照明方程式に基づいて前記照明パラメータ情報を決定するステップと、を含む請求項2に記載の方法。
  4. 前記更新された照明パラメータ情報に基づいて更新されたテクスチャパラメータを決定し、前記更新されたテクスチャパラメータを使用して前記レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するステップは、
    前記更新されたテクスチャパラメータを前記更新された顔の肌色パラメータとして再決定し、前記照明パラメータ情報決定処理に移行することにより、前記実際の色パラメータと前記更新された顔の肌色パラメータに基づいて、更新された照明パラメータ情報を決定する処理を実行するステップと、
    前記移行の回数が予め決定された閾値条件を満たすのに応答して、最終的な更新されたテクスチャパラメータを決定し、前記最終的な更新されたテクスチャパラメータを使用して前記レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するステップと、を含む請求項に記載の方法。
  5. 前記実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得するステップは、
    実際のユーザー画像における実際の色パラメータと予め決定された顔の肌色パラメータを取得するステップを含む請求項に記載の方法。
  6. 画像のレンダリング装置であって、
    顔画像領域を含む実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得するように構成される画像パラメータ取得ユニットと、
    前記実際の色パラメータと前記顔の肌色パラメータに基づいて、照明パラメータ情報を決定する照明パラメータ情報決定処理を実行するように構成される照明パラメータ情報決定ユニットと、
    前記実際のユーザー画像に基づいて得られたレンダリング対象画像を取得するように構成されるレンダリング対象画像取得ユニットと、
    前記照明パラメータ情報に従ってテクスチャパラメータを生成し、前記テクスチャパラメータを使用して前記レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するように構成される画像レンダリングユニットと、を備え
    前記画像レンダリングユニットには、
    前記テクスチャパラメータを更新された顔の肌色パラメータとして使用し、前記実際の色パラメータと前記更新された顔の肌色パラメータに基づいて、更新された照明パラメータ情報を決定するように構成されるテクスチャパラメータ更新サブユニットがさらに備えられ
    前記画像レンダリングユニットはさらに、前記更新された照明パラメータ情報に基づいて更新されたテクスチャパラメータを決定し、前記更新されたテクスチャパラメータを使用して前記レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するように構成される、画像のレンダリング装置。
  7. 前記照明パラメータ情報決定ユニットでは、前記実際の色パラメータと前記顔の肌色パラメータに基づいて、照明パラメータ情報を決定するステップは、
    球面高調波照明アルゴリズムを使用して前記実際の色パラメータと前記顔の肌色パラメータに基づいて、照明パラメータ情報を決定するステップを含む請求項に記載の装置。
  8. 前記照明パラメータ情報決定ユニットでは、前記球面高調波照明アルゴリズムを使用して前記実際の色パラメータと前記顔の肌色パラメータに基づいて、照明パラメータ情報を決定するステップは、
    過去の実際のユーザー画像に基づいて推定変換係数を決定するステップと、
    前記推定変換係数、前記実際の色パラメータ及び前記顔の肌色パラメータに基づいて前記照明パラメータ情報に関連する球面高調波照明方程式を構築するステップと、
    前記球面高調波照明方程式に基づいて前記照明パラメータ情報を決定するステップと、を含む請求項に記載の装置。
  9. 前記画像レンダリングユニットには、
    さらに、前記更新されたテクスチャパラメータを前記更新された顔の肌色パラメータとして再決定し、前記照明パラメータ情報決定ユニットによる照明パラメータ情報決定処理に移行することにより、前記実際の色パラメータと前記更新された顔の肌色パラメータに基づいて、更新された照明パラメータ情報を決定する処理前記照明パラメータ情報決定ユニットに実行させるように構成される前記テクスチャパラメータ更新サブユニットが備えられ、
    前記画像レンダリングユニットはさらに、前記移行の回数が予め決定された閾値条件を満たすのに応答して、最終的な更新されたテクスチャパラメータを決定し、前記最終的な更新されたテクスチャパラメータを使用して前記レンダリング対象画像を照明レンダリングし、レンダリング画像を取得するように構成される請求項に記載の装置。
  10. 前記画像パラメータ取得ユニットでは、前記実際のユーザー画像における実際の色パラメータと顔の肌色パラメータを取得するステップは、
    実際のユーザー画像における実際の色パラメータと予め決定された顔の肌色パラメータを取得するステップを含む請求項に記載の装置。
  11. 電子デバイスであって、
    少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信接続されるメモリと、を備え、
    前記メモリに前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は前記少なくとも1つのプロセッサによって実行され、前記少なくとも1つのプロセッサに請求項1~のいずれかに記載の方法を実行させることができる電子デバイス。
  12. コンピュータ命令が記憶された非一時的なコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、前記コンピュータに請求項1~のいずれかに記載の方法を実行させるために使用されることを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
  13. コンピュータプログラムであって、前記コンピュータプログラムは、プロセッサにより実行されると、請求項1~のいずれかに記載の方法を実行させるために使用されることを特徴とするコンピュータプログラム。
JP2021053898A 2020-09-27 2021-03-26 画像のレンダリング方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム Active JP7293277B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011033517.2A CN112102462B (zh) 2020-09-27 2020-09-27 图像的渲染方法、装置
CN202011033517.2 2020-09-27

Publications (2)

Publication Number Publication Date
JP2022036319A JP2022036319A (ja) 2022-03-07
JP7293277B2 true JP7293277B2 (ja) 2023-06-19

Family

ID=73782417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021053898A Active JP7293277B2 (ja) 2020-09-27 2021-03-26 画像のレンダリング方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11636646B2 (ja)
EP (1) EP3836094A3 (ja)
JP (1) JP7293277B2 (ja)
KR (1) KR102552532B1 (ja)
CN (1) CN112102462B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112669404B (zh) * 2020-12-28 2023-11-14 北京达佳互联信息技术有限公司 一种图像处理方法、装置、电子设备和存储介质
CN113379884B (zh) * 2021-07-05 2023-11-17 北京百度网讯科技有限公司 地图渲染方法、装置、电子设备、存储介质以及车辆
CN113421335B (zh) * 2021-07-21 2022-04-26 北京百度网讯科技有限公司 图像处理方法、图像处理装置、电子设备和存储介质
CN113870404B (zh) * 2021-09-23 2024-05-07 聚好看科技股份有限公司 一种3d模型的皮肤渲染方法及显示设备
CN114120062B (zh) * 2021-11-26 2023-07-28 北京百度网讯科技有限公司 样本生成方法及装置
CN116127587B (zh) * 2023-04-17 2023-06-16 矩阵纵横设计股份有限公司 室内设计中的渲染方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008530628A (ja) 2005-02-14 2008-08-07 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 画像における主光源の方向を求めるための方法
WO2010087162A1 (ja) 2009-01-27 2010-08-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置および記録媒体
US20180174348A1 (en) 2016-06-23 2018-06-21 LoomAi, Inc. Systems and Methods for Animating Models from Audio Data

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8031936B2 (en) * 2006-03-20 2011-10-04 Accenture Global Services Limited Image processing system for skin detection and localization
CN101763636B (zh) * 2009-09-23 2012-07-04 中国科学院自动化研究所 视频序列中的三维人脸位置和姿态跟踪的方法
US9288374B1 (en) * 2012-09-10 2016-03-15 Amazon Technologies, Inc. Systems and methods for updating camera characteristics using a remote computing device
FR3053509B1 (fr) 2016-06-30 2019-08-16 Fittingbox Procede d’occultation d’un objet dans une image ou une video et procede de realite augmentee associe
CN111445582A (zh) * 2019-01-16 2020-07-24 南京大学 一种基于光照先验的单张图像人脸三维重建方法
CN111192223B (zh) * 2020-01-07 2022-09-30 腾讯科技(深圳)有限公司 人脸纹理图像的处理方法、装置、设备及存储介质
CN111695471B (zh) * 2020-06-02 2023-06-27 北京百度网讯科技有限公司 虚拟形象生成方法、装置、设备以及存储介质
US11615587B2 (en) * 2020-06-13 2023-03-28 Qualcomm Incorporated Object reconstruction with texture parsing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008530628A (ja) 2005-02-14 2008-08-07 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 画像における主光源の方向を求めるための方法
WO2010087162A1 (ja) 2009-01-27 2010-08-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置および記録媒体
US20180174348A1 (en) 2016-06-23 2018-06-21 LoomAi, Inc. Systems and Methods for Animating Models from Audio Data

Also Published As

Publication number Publication date
CN112102462A (zh) 2020-12-18
EP3836094A2 (en) 2021-06-16
US11636646B2 (en) 2023-04-25
JP2022036319A (ja) 2022-03-07
US20210209837A1 (en) 2021-07-08
KR20210045371A (ko) 2021-04-26
KR102552532B1 (ko) 2023-07-05
EP3836094A3 (en) 2023-03-22
CN112102462B (zh) 2023-07-21

Similar Documents

Publication Publication Date Title
JP7293277B2 (ja) 画像のレンダリング方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム
US11854118B2 (en) Method for training generative network, method for generating near-infrared image and device
JP7373554B2 (ja) クロスドメイン画像変換
US8935611B2 (en) Network-based rendering and steering of visual effects
JP7135143B2 (ja) キーポイント学習モデルを構築するための方法、装置、電子デバイス及びコンピュータ可読記憶媒体
WO2021218040A1 (zh) 图像处理的方法及装置
WO2019114328A1 (zh) 一种基于增强现实的视频处理方法及其装置
CN110766776A (zh) 生成表情动画的方法及装置
WO2019227429A1 (zh) 多媒体内容生成方法、装置和设备/终端/服务器
CN111654746A (zh) 视频的插帧方法、装置、电子设备和存储介质
KR20210157878A (ko) 이미지 편집 모델 구축 방법 및 장치
CN114187405B (zh) 确定虚拟形象的方法及装置、设备、介质和产品
JP2023029984A (ja) 仮想イメージを生成するための方法、装置、電子機器及び可読記憶媒体
CN111539897A (zh) 用于生成图像转换模型的方法和装置
JP7393388B2 (ja) 顔編集方法、装置、電子デバイス及び可読記憶媒体
JP2023001336A (ja) 画像表示方法、画像表示装置、電子機器、記憶媒体及びコンピュータプログラム
CN115187706A (zh) 一种人脸风格迁移的轻量化方法、系统、存储介质和电子设备
CN109445573A (zh) 一种用于虚拟化身形象互动的方法与装置
CN110288523B (zh) 图像生成方法和装置
US11704885B2 (en) Augmented reality (AR) visual display to save
CN113223128B (zh) 用于生成图像的方法和装置
CN114140560A (zh) 动画生成方法、装置、设备和存储介质
US11068145B2 (en) Techniques for creative review of 3D content in a production environment
CN113327311A (zh) 基于虚拟角色的显示方法、装置、设备、存储介质
CN111986083A (zh) 一种图像自动组合的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230607

R150 Certificate of patent or registration of utility model

Ref document number: 7293277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150