JP7376006B2 - 駆動可能3dキャラクター生成方法、装置、電子機器、及び記憶媒体 - Google Patents

駆動可能3dキャラクター生成方法、装置、電子機器、及び記憶媒体 Download PDF

Info

Publication number
JP7376006B2
JP7376006B2 JP2022543546A JP2022543546A JP7376006B2 JP 7376006 B2 JP7376006 B2 JP 7376006B2 JP 2022543546 A JP2022543546 A JP 2022543546A JP 2022543546 A JP2022543546 A JP 2022543546A JP 7376006 B2 JP7376006 B2 JP 7376006B2
Authority
JP
Japan
Prior art keywords
human body
drivable
mesh model
body mesh
action sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022543546A
Other languages
English (en)
Other versions
JP2023533404A (ja
Inventor
チェン、ク
イエ、シャオキン
タン、シャオ
スン、ハオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2023533404A publication Critical patent/JP2023533404A/ja
Application granted granted Critical
Publication of JP7376006B2 publication Critical patent/JP7376006B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、出願日が2021年06月01日であり、出願番号が202110609318.Xであり、発明の名称が「駆動可能3Dキャラクター生成方法、装置、電子機器、及び記憶媒体」である中国特許出願の優先権を主張する。
本開示は、人工知能技術の分野に関し、特に、コンピュータビジョンとディープラーニングなどの分野の駆動可能3Dキャラクター生成方法、装置、電子機器、及び記憶媒体に関する。
現在、1枚の2D(2D、2Dimension)画像に基づいて駆動可能な3D(3D、3Dimension)キャラクターを生成し、すなわち2D画像に基づく3Dキャラクター駆動(Image-based 3D animation)を実現することができる。
駆動可能な3Dキャラクターを取得するために、通常、以下の実現方式を使用する。エンドツーエンドのトレーニングの方式に基づいて、任意の2D画像について、予めトレーニングされたネットワークモデルを使用して駆動可能な3D人体メッシュ(mesh)モデルを直接生成し、すなわち予めトレーニングされたセマンティック空間、セマンティック変形場、及び表面暗黙関数などによって、駆動可能な3D人体メッシュモデルを生成することができる。しかし、このような方式のモデルトレーニングは複雑で、大量のトレーニングリソースなどを費やす必要がある。
本開示は、駆動可能3Dキャラクター生成方法、装置、電子機器、及び記憶媒体を提供する。
駆動可能3Dキャラクター生成方法であって、
処理対象の2D画像に対応する3D人体メッシュモデルを取得するステップと、
前記3D人体メッシュモデルに対して骨格埋め込みを行うステップと、
骨格埋め込みを行った後の3D人体メッシュモデルに対して皮膚バインドを行って、駆動可能3D人体メッシュモデルを取得するステップと、を含む。
駆動可能3Dキャラクター生成装置であって、第1の処理モジュール、第2の処理モジュール、及び第3の処理モジュールを含み、
前記第1の処理モジュールは、処理対象の2D画像に対応する3D人体メッシュモデルを取得するために用いられ、
前記第2の処理モジュールは、前記3D人体メッシュモデルに対して骨格埋め込みを行うために用いられ、
前記第3の処理モジュールは、骨格埋め込みを行った後の3D人体メッシュモデルに対して皮膚バインドを行って、駆動可能な3D人体メッシュモデルを取得するために用いられる。
電子機器であって、
少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサに通信接続されたメモリと、を含み、
前記メモリに前記少なくとも一つのプロセッサにより実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサにより実行されると、前記少なくとも一つのプロセッサが上記の方法を実行させる。
コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、前記コンピュータに上記の方法を実行させる。
コンピュータプログラム製品であって、コンピュータプログラムを含み、前記コンピュータプログラムがプロセッサによって実行される時に上記の方法を実現する。
上記の開示の1つの実施例は、以下の利点又は有益な効果を備え、従来の方式のように予めトレーニングされたネットワークモデルを直接使用して駆動可能な3D人体メッシュモデルを生成することではなく、まず、処理対象の2D画像に対応する3D人体メッシュモデルを取得し、その後、取得された3D人体メッシュモデルに基づいて骨格埋め込みと皮膚バインド処理を行って、駆動可能な3D人体メッシュモデルを取得することができ、リソースの消費などを削減することができる。
本明細書で説明された内容は、本開示の実施例のキー又は重要な特徴を特定することを意図しておらず、本開示の範囲を制限するためにも使用されないことを理解されたい。本開示の他の特徴は、以下の明細書を通じて容易に理解できる。
図面は、本開示をより良く理解するためのものであり、本開示を限定しない。
本開示による駆動可能な3Dキャラクター生成方法の第1の実施例のフローチャートである。 本開示による駆動可能な3Dキャラクター生成方法の第2の実施例のフローチャートである。 本開示による3D人体アニメーションの概略図である。 本開示による駆動可能な3Dキャラクター生成装置400の実施例の構成の概略構造図である。 本開示の実施例を実施できるための例示的な電子機器500の概略ブロック図を示す。
以下、図面に基づいて、本開示の例示的な実施例を説明する。理解を容易にするために、本開示の実施例の様々な詳細が含まれており、それらは単なる例示と見なされるべきである。従って、当業者は、本開示の範囲及び精神から逸脱することなく、本明細書に記載の実施形態に対して様々な変更及び修正を行うことができることを認識するはずである。同様に、簡明のために、以下の説明では、よく知られた機能と構造の説明は省略される。
また、本明細書の用語「及び/又は」は、関連対象の関連関係のみを説明するものであり、3種類の関係が存在可能であることを表し、例えば、A及び/又はBは、Aのみが存在するか、A及びBが同時に存在するか、Bのみが存在するという3つの場合を表すことができる。符号「/」は、一般的に前後の関連対象が「又は」の関係であることを表すことを理解されたい。
図1は本開示による駆動可能3Dキャラクター生成方法の第1の実施例のフローチャートである。図1に示すように、以下の具体的な実現方式を含む。
ステップ101では、処理対象の2D画像に対応する3D人体メッシュモデルを取得する。
ステップ102では、3D人体メッシュモデルに対して骨格埋め込みを行う。
ステップ103では、骨格埋め込みを行った後の3D人体メッシュモデルに対して皮膚バインドを行って、駆動可能な3D人体メッシュモデルを取得する。
上記の方法の実施例に記載の解決策では、従来の方式のように予めトレーニングされたネットワークモデルを直接使用して駆動可能な3D人体メッシュモデルを生成することではなく、まず、処理対象の2D画像に対応する3D人体メッシュモデルを取得し、その後、取得された3D人体メッシュモデルに基づいて骨格埋め込みと皮膚バインド処理を行って、駆動可能な3D人体メッシュモデルを取得することができ、リソースの消費などを削減することができる。
その中、どのように処理対象の2D画像に対応する3D人体メッシュモデルを取得するのは、限定しない。例えば、ピクセル整列暗黙関数(PIFu、Pixel-Aligned Implicit Function)又は高解像度3D人体デジタル化のためのマルチレベルピクセル整列暗黙関数(PIFuHD、Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization)などのアルゴリズムを使用して、約20万(w)頂点と40万パッチを含む3D人体メッシュモデルなどの、処理対象の2D画像に対応する3D人体メッシュモデルを取得することができる。
取得された3D人体メッシュモデルについて、それに対して後続の処理を直接に行うことができ、例えば、それに対して骨格埋め込みなどを行う。好ましくは、まず、取得された3D人体メッシュモデルに対してダウンサンプリング処理を行い、さらに、ダウンサンプリング処理後の3D人体メッシュモデルに対して骨格埋め込みなどを行うこともできる。
ダウンサンプリング処理によって、頂点とパッチ数がより少ない3D人体メッシュモデルを取得することができ、後続の処理に要する時間を削減し、処理効率などを向上させることができる。
前記ダウンサンプリングの具体的な値は、実際のニーズに応じて決定することができ、例えば、実際のリソースニーズに応じて決定することができる。また、どのようにダウンサンプリングするかは限定しない。例えば、エッジ崩壊(edge collapse)、2次誤差簡略化(quadric error simplification)、又は等方性再メッシュ(isotropic remeshing)などのアルゴリズムを使用して取得された3D人体メッシュモデルに対してダウンサンプリング処理を行うことができる。
その後、順次にダウンサンプリング処理後の3D人体メッシュモデルに対して骨格埋め込みと皮膚バインド処理を行うことができる。
その中、予め構築されたN個の頂点の骨格ツリーを使用して、3D人体メッシュモデルに対して骨格埋め込みを行うことができ、Nは1より大きい正の整数であり、具体的な値は、実際のニーズに応じて決定することができる。
骨格ツリーの本質は、複数のグループのxyz座標であり、N個の頂点の骨格ツリーをどのように定義するかは既存の技術である。また、どのように骨格ツリーを使用して3D人体メッシュモデルに対して骨格埋め込みを行うかは、限定せず、例えば、予めトレーニングされたネットワークモデルを使用して前記骨格埋め込みを実現することができ、すなわち予め構築されたN個の頂点の骨格ツリー及び3D人体メッシュモデルを入力とし、ネットワークモデルによって出力された骨格埋め込みを行った後の3D人体メッシュモデルを取得することができる。
構築された骨格ツリーによって、上記の方式で骨格埋め込みを行った後の3D人体メッシュモデルを正確かつ効率的に取得し、後続の処理に良好な基礎を築くことができる。
骨格埋め込みを行った後の3D人体メッシュモデルについて、さらに、それに対して皮膚バインド処理を行うことができ、すなわち前記N個の頂点に骨格位置に対する1つの重みをそれぞれ付与して、駆動可能な3D人体メッシュモデルを取得することもできる。
重みの割り当てが正確である場合、後続の骨格が移動する時に皮膚が深刻な引き裂き又は変形などが発生することなく、より自然に見える。
どのように3D人体メッシュモデルに対して皮膚バインドを行うかは同様に限定せず、例えば、予めトレーニングされたネットワークモデルを使用して前記皮膚バインドを実現することができる。
上記の一連の処理後に、すなわち必要な駆動可能な3D人体メッシュモデルを取得することができる。好ましくは、取得された駆動可能な3D人体メッシュモデルに基づいて、さらに、3D人体アニメーションを生成することもできる。
これに応じて、図2は本開示による駆動可能3Dキャラクター生成方法の第2の実施例のフローチャートである。図2に示すように、以下の具体的な実現方式を含む。
ステップ201では、処理対象の2D画像に対応する3D人体メッシュモデルを取得する。
例えば、PIFu又はPIFuHDなどのアルゴリズムを使用して、処理対象の2D画像について、対応する3D人体メッシュモデルを生成することができる。
ステップ202では、3D人体メッシュモデルに対して骨格埋め込みを行う。
ステップ201で取得された3D人体メッシュモデルについて、それに対して後続の処理を直接に行うことができ、例えば、骨格埋め込みを行う。
又は、まず、ステップ201で取得された3D人体メッシュモデルに対してダウンサンプリング処理を行うこともでき、さらに、ダウンサンプリング処理後の3D人体メッシュモデルに対して骨格埋め込みを行うことができる。
その中、予め構築されたN個の頂点の骨格ツリーを使用して、3D人体メッシュモデルに対して骨格埋め込みを行うことができ、Nは1より大きい正の整数である。
ステップ203では、骨格埋め込みを行った後の3D人体メッシュモデルに対して皮膚バインドを行って、駆動可能な3D人体メッシュモデルを取得する。
骨格埋め込みと皮膚バインド処理を順次に完了した後、すなわち駆動可能な3D人体メッシュモデルを取得することができる。取得された駆動可能な3D人体メッシュモデルに基づいて、さらに、3D人体アニメーションを生成することができる。
ステップ204では、アクションシーケンスを取得する。
好ましくは、前記アクションシーケンスは、皮膚多人線形モデル(SMPL、Skinned Multi-Person Linear Model)アクションシーケンスであってもよい。
どのようにSMPLアクションシーケンスを生成するかは、既存の技術である。
ステップ205では、アクションシーケンスと駆動可能な3D人体メッシュモデルに基づいて3D人体アニメーションを生成する。
具体的には、まず、SMPLアクションシーケンスを移行して、N個のキーポイントのアクションシーケンスを取得することができ、N個のキーポイントは、骨格ツリー内のN個の頂点であり、その後、N個のキーポイントのアクションシーケンスを使用して駆動可能な3D人体メッシュモデルを駆動して、必要な3D人体アニメーションを取得することができる。
標準化されたSMPLアクションシーケンスは、通常、24個のキーポイントに対応し、Nの値は通常24ではなく、例えば、17であると、SMPLアクションシーケンスを移行して、N個の頂点(キーポイント)の骨格ツリーに移行して、N個のキーポイントのアクションシーケンスを取得する必要がある。
なお、Nの値が24である場合、上記の移行処理を行う必要がない。
どのようにN個のキーポイントのアクションシーケンスを取得するかは、限定せず、例えば、既存のさまざまなアクション移行方法を使用することができるか、又は、予めトレーニングされたネットワークモデルを使用することができ、入力はSMPLアクションシーケンスであり、出力はN個のキーポイントのアクションシーケンスである。
その中、ネットワークモデルをトレーニングする時、損失関数は対応するキーポイントの3D空間におけるユークリッド距離として定義することができ、対応するキーポイントとは、マッチングされたキーポイントを指し、例えば、SMPLアクションシーケンスに対応する24個のキーポイント内の、17(Nの値)個のキーポイントが骨格ツリー内のN個のキーポイントにマッチングし、そうすると、残りの7個のキーポイントはマッチングされないキーポイントであり、マッチングされないキーポイントについて、その位置差異の重みを下げるか、又は0に直接に設置することができる。
N個のキーポイントのアクションシーケンスを取得した後、N個のキーポイントのアクションシーケンスによって駆動する前に取得された駆動可能な3D人体メッシュモデルを使用して、3D人体アニメーションを取得することができる。図3に示すように、図3は本開示による3D人体アニメーションの概略図である。
上記の説明から分かるように、本開示に記載された駆動可能な3D人体メッシュモデルは、標準化されたSMPLアクションシーケンスを互換することができ、駆動可能な3D人体メッシュモデルとSMPLアクションシーケンスに基づいて対応する3D人体アニメーションを正確かつ効率的に生成することができる。
要するに、本開示に記載された方法では1つのパイプライン(pipeline)を構築し、入力された任意の2D画像及びSMPLアクションシーケンスについて、駆動可能な3D人体メッシュモデル及び3D人体アニメーションを生成することができ、いくつかのネットワークモデルを使用する可能性もあるが、これらのネットワークモデルは相対的にすべて比較的簡単であり、既存の技術でトレーニング取得されたネットワークモデルを直接に使用して駆動可能な3D人体メッシュモデルを生成する方式と比較して、リソースに対する消費を削減し、任意の服を着る人体及び任意のアクションシーケンスに適用されることができ、広範な適用性などがある。
なお、前述の各方法の実施例について、簡単な説明のために、それをすべて一連の動作の組み合わせとして記載するが、本開示は、本開示に従って、いくつかのステップが他の順序を使用することができるか、又は同時に行うことができるため、説明する動作順序によって制限されないことを当業者は認識すべきである。次に、本明細書に記載される実施例はいずれも好ましい実施例に属し、関連する動作及びモジュールは必ずしも本開示に必須ではない。ある実施例においては、詳細には記載されていないが、他の実施例の説明を参照することができる。
以上は、方法の実施例について説明したが、以下は、装置の実施例によって、本開示に記載される解決策をさらに説明する。
図4は本開示による駆動可能3Dキャラクター生成装置400の実施例の構成の概略構造図である。図4に示すように、第1の処理モジュール401、第2の処理モジュール402、及び第3の処理モジュール403を含む。
第1の処理モジュール401は、処理対象の2D画像に対応する3D人体メッシュモデルを取得するために用いられる。
第2の処理モジュール402は、取得された3D人体メッシュモデルに対して骨格埋め込みを行うために用いられる。
第3の処理モジュール403は、骨格埋め込みを行った後の3D人体メッシュモデルに対して皮膚バインドを行って、駆動可能な3D人体メッシュモデルを取得するために用いられる。
その中、第1の処理モジュール401がどのように処理対象の2D画像に対応する3D人体メッシュモデルを取得するのは、限定しない。例えば、PIFu又はPIFuHDなどのアルゴリズムを使用して、処理対象の2D画像に対応する3D人体メッシュモデルを取得することができる。
取得された3D人体メッシュモデルについて、第2の処理モジュール402はそれに対して後続の処理を直接に行うことができ、例えば、それに対して骨格埋め込みなどを行う。好ましくは、第2の処理モジュール402は、まず、取得された3D人体メッシュモデルに対してダウンサンプリング処理を行うこともでき、その後、ダウンサンプリング処理後の3D人体メッシュモデルに対して骨格埋め込みなどを行うことができる。
どのようにダウンサンプリングするかは同様に限定しない。例えば、edge collapse、quadric error simplification又はisotropic remeshingなどのアルゴリズムを使用して取得された3D人体メッシュモデルに対してダウンサンプリング処理を行うことができる。
また、第2の処理モジュール402は予め構築されたN個の頂点の骨格ツリーを使用して、3D人体メッシュモデルに対して骨格埋め込みを行うことができ、Nは1より大きい正の整数である。
どのように骨格ツリーを使用して3D人体メッシュモデルに対して骨格埋め込みを行うかは、限定せず、例えば、予めトレーニングされたネットワークモデルを使用して前記骨格埋め込みを実現することができ、すなわち予め構築されたN個の頂点の骨格ツリー及び3D人体メッシュモデルを入力とし、ネットワークモデルによって出力された骨格埋め込みを行った後の3D人体メッシュモデルを取得することができる。
骨格埋め込みを行った後の3D人体メッシュモデルについて、第3の処理モジュール403は、さらに、それに対して皮膚バインド処理を行うことができ、すなわち前記N個の頂点に骨格位置に対する1つの重みをそれぞれ付与して、駆動可能な3D人体メッシュモデルを取得することもできる。どのように3D人体メッシュモデルに対して皮膚バインドを行うかは、同様に限定せず、例えば、予めトレーニングされたネットワークモデルを使用して前記皮膚バインドを実現することができる。
上記の一連の処理後に、すなわち必要な駆動可能な3D人体メッシュモデルを取得することができる。好ましくは、取得された駆動可能な3D人体メッシュモデルに基づいて、さらに、3D人体アニメーションを生成することもできる。
これに応じて、第3の処理モジュール403は、さらに、アクションシーケンスを取得し、取得されたアクションシーケンスと駆動可能な3D人体メッシュモデルに基づいて3D人体アニメーションを生成するために用いられる。
その中、前記アクションシーケンスはSMPLアクションシーケンスであってもよい。
SMPLアクションシーケンスについて、第3の処理モジュール403は、まず、それを移行して、N個のキーポイントのアクションシーケンスを取得することができ、N個のキーポイントは、すなわち骨格ツリー内のN個の頂点であり、その後、N個のキーポイントのアクションシーケンスを使用して駆動可能な3D人体メッシュモデルを駆動して、必要な3D人体アニメーションを取得することができる。
標準化されたSMPLアクションシーケンスは、通常、24個のキーポイントに対応し、Nの値は通常24ではなく、例えば、17であると、SMPLアクションシーケンスを移行して、N個の頂点(キーポイント)の骨格ツリーに移行して、N個のキーポイントのアクションシーケンスを取得する必要がある。
N個のキーポイントのアクションシーケンスを取得した後、すなわちN個のキーポイントのアクションシーケンスによって駆動する前に取得された駆動可能な3D人体メッシュモデルを使用して、最終の必要な3D人体アニメーションを取得することができる。
図4に示す装置の実施例の具体的な作業プロセスは、前述の方法の実施例の関連説明を参照することができ、詳細に説明しない。
要するに、本開示の装置の実施例に記載された解決策を使用して、入力された任意の2D画像及びSMPLアクションシーケンスについて、駆動可能な3D人体メッシュモデル及び3D人体アニメーションを生成することができ、いくつかのネットワークモデルを使用する可能性もあるが、これらのネットワークモデルは相対的にすべて比較的簡単であり、既存の技術でトレーニング取得されたネットワークモデルを直接に使用して駆動可能な3D人体メッシュモデルを生成する方式と比較して、リソースに対する消費を削減し、任意の服を着る人体及び任意のアクションシーケンスに適用されることができ、広範な適用性などがある。
本開示に記載された解決策は人工知能の分野に適用されることができ、特にコンピュータビジョンとディープラーニングなどの分野に関する。
人工知能は、人間のある思考プロセスと知能行為(たとえば、学習、推理、思考、計画など)をコンピュータでシミュレートすることを研究する学科であり、ハードウェアレベルの技術もソフトウェアレベルの技術もあり、人工知能ハードウェア技術は、一般的に、たとえば、センサー、専用の人工知能チップ、クラウドコンピューティング、分散ストレージ、ビッグデータ処理などの技術を含み、人工知能ソフトウェア技術は、主に、コンピュータビジョン技術、音声認識技術、自然言語処理技術及び機械学習/ディープラーニング、ビッグデータ処理技術、知識グラフ技術などのいくつかの方向を含む。
本開示の実施例によれば、本開示は、電子機器、読み取り可能な記憶媒体、コンピュータプログラム製品をさらに提供する。
図5に示すように、本開示の実施例に係るインテリジェント交通路網取得方法を実現できる例示的な電子機器500の概略ブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様の計算デバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本開示の実現を制限することを意図したものではない。
図5に示すように、機器500は計算ユニット501を含み、計算ユニット501は、読み取り専用メモリ(ROM)502に記憶されているコンピュータプログラム又は記憶ユニット508からランダムアクセスメモリ(RAM)503にロードされたコンピュータプログラムに基づいて、様々な適切な動作と処理を実行することができる。RAM503には、機器500が動作するに必要な様々なプログラムとデータも記憶することができる。計算ユニット501、ROM502、及びRAM503は、バス504を介してお互いに接続される。入出力(I/O)インターフェース505もバス504に接続される。
機器500内の複数のコンポーネントは、I/Oインターフェース505に接続されており、キーボード、マウスなどの入力ユニット506と、様々なタイプのディスプレイ、スピーカなどの出力ユニット507と、ディスク、光ディスクなどの記憶ユニット508と、及びネットワークカード、モデム、無線通信トランシーバなどの通信ユニット509と、を含む。通信ユニット509は、機器500が、インターネットなどのコンピュータネットワーク、及び/又は様々な電気通信ネットワークを介して他の機器と情報/データを交換することを可能にする。
計算ユニット501は、様々な処理と計算能力を備える汎用及び/又は専用の処理コンポーネントである。計算ユニット501のいくつかの例は、中央処理装置(CPU)、グラフィックス処理ユニット(GPU)、様々な専用の人工知能(AI)計算チップ、様々な機械学習モデルアルゴリズムを実行する計算ユニット、デジタル信号プロセッサ(DSP)、及び任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット501は、本発明に記載される方法などの上記の様々な方法と処理を実行する。例えば、いくつかの実施例では、本発明に記載される方法は、記憶ユニット508などの機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現することができる。例えば、いくつかの実施例では、コンピュータプログラムの一部又は全部は、ROM502及び/又は通信ユニット509を介して機器500にロード及び/又はインストールされる。コンピュータプログラムがRAM503にロードされて計算ユニット501によって実行される場合、上記の本発明に記載される方法の一つ又は複数のステップを実行することができる。代替的に、他の実施例では、計算ユニット501は、他の任意の適切な方式(例えば、ファームウェアによって)を介して本発明に記載される方法を実行するように構成されることができる。
本明細書で説明されるシステムと技術の様々な実施方式は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップシステム(SOC)、ロードプログラマブルロジックデバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施方式は、一つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該一つ又は複数のコンピュータプログラムは、少なくとも一つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも一つの入力装置、及び少なくとも一つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも一つの入力装置、及び当該少なくとも一つの出力装置に伝送することができる。
本開示の方法を実施するためのプログラムコードは、一つ又は複数のプログラミング言語の任意の組み合わせを使用して作成することができる。これらのプログラムコードは、プログラムコードがプロセッサ又はコントローラによって実行される時にフローチャート及び/又はブロック図に規定された機能/動作が実施されるように、汎用コンピュータ、専用コンピュータ、又は他のプログラム可能なデータ処理装置のプロセッサ又はコントローラに提供することができる。プログラムコードは、完全に機械上で実行されたり、部分的に機械上で実行されたり、独立したソフトウェアパッケージとして部分的に機械上で実行され、部分的にリモート機械上実行されたり、又は完全にリモート機械又はサーバ上で実行されたりすることができる。
本開示の文脈において、機械読み取り可能な媒体は、命令実行システム、装置、又は機器の使用、又は命令実行システム、装置又は機器と組み合わせて使用するプログラムを含むか、又は記憶することができる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体又は機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子、磁気、光学、電磁気、赤外線、又は半導体システム、装置又は機器、又は上記の内容の任意の適切な組み合わせを含むが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、一つ又は複数のワイヤに基づく電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM 又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶装置、磁気記憶装置、又は上記の内容の任意の適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、コンピュータ上でここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供するために用いられることもでき、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施方式とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続されることができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークと、を含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバは、クラウドサーバであってもよく、クラウド計算又はクラウドホストとも呼ばれ、クラウド計算サービスシステムの中の一つのホスト製品であり、従来の物理ホストとVPSサーバ(VPS)に、存在する管理困難度が高く、業務拡張性が弱い欠陥を解決する。サーバは、分散システムのサーバであってもよく、又はブロックチェーンを組み合わせるサーバであってもよい。クラウドコンピューティングとは、ネットワークを介して柔軟で拡張可能な共有物理又は仮想リソースプールにアクセスし、リソースが、サーバ、操作システム、ネットワーク、ソフトウェア、アプリケーション及び記憶デバイスなどを含むことができ、必要に応じてセルフサービスの方式でリソースを配置及び管理できる技術体系を指す。クラウドコンピューティング技術によって、人工知能、ブロックチェーンなどの技術の適用、モデルトレーニングに効率的で強力なデータ処理能力を提供することができる。
上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本開示に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本開示で開示されている技術案が所望の結果を実現することができれば、本明細書では限定されない。
上記の具体的な実施方式は、本開示に対する保護範囲の制限を構成するものではない。当業者は、設計要求と他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。任意の本開示の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本開示の保護範囲内に含まれなければならない。

Claims (15)

  1. 駆動可能3Dキャラクター生成方法であって、
    処理対象の2D画像に対応する3D人体メッシュモデルを取得するステップと、
    前記3D人体メッシュモデルに対して骨格埋め込みを行うステップと、
    骨格埋め込みを行った後の3D人体メッシュモデルに対して皮膚バインドを行って、駆動可能な3D人体メッシュモデルを取得するステップと、を含む、
    駆動可能3Dキャラクター生成方法。
  2. 前記3D人体メッシュモデルに対してダウンサンプリング処理を行うステップと、
    ダウンサンプリング処理後の3D人体メッシュモデルに対して骨格埋め込みを行うステップと、をさらに含む、
    請求項1に記載の駆動可能3Dキャラクター生成方法。
  3. 前記3D人体メッシュモデルに対して骨格埋め込みを行うステップは、
    予め構築されたN(Nは1より大きい正の整数である)個の頂点の骨格ツリーを使用して、前記3D人体メッシュモデルに対して骨格埋め込みを行うステップを含む、
    請求項1又は2に記載の駆動可能3Dキャラクター生成方法。
  4. アクションシーケンスを取得するステップと、
    前記アクションシーケンスと前記駆動可能な3D人体メッシュモデルに基づいて3D人体アニメーションを生成するステップと、をさらに含む、
    請求項3に記載の駆動可能3Dキャラクター生成方法。
  5. 前記アクションシーケンスは、皮膚多人線形モデルのSMPLアクションシーケンスを含む、
    請求項4に記載の駆動可能3Dキャラクター生成方法。
  6. 前記アクションシーケンスと前記駆動可能な3D人体メッシュモデルに基づいて3D人体アニメーションを生成するステップは、
    前記SMPLアクションシーケンスを移行して、N個のキーポイントのアクションシーケンスを取得するステップであって、前記N個のキーポイントは、前記骨格ツリー内のN個の頂点であるステップと、
    前記N個のキーポイントのアクションシーケンスを使用して前記駆動可能な3D人体メッシュモデルを駆動して、前記3D人体アニメーションを取得するステップと、を含む、
    請求項5に記載の駆動可能3Dキャラクター生成方法。
  7. 駆動可能3Dキャラクター生成装置であって、
    第1の処理モジュール、第2の処理モジュール、及び第3の処理モジュールを含み、
    前記第1の処理モジュールは、処理対象の2D画像に対応する3D人体メッシュモデルを取得するために用いられ、
    前記第2の処理モジュールは、前記3D人体メッシュモデルに対して骨格埋め込みを行うために用いられ、
    前記第3の処理モジュールは、骨格埋め込みを行った後の3D人体メッシュモデルに対して皮膚バインドを行って、駆動可能な3D人体メッシュモデルを取得するために用いられる、
    駆動可能3Dキャラクター生成装置。
  8. 前記第2の処理モジュールは、さらに、前記3D人体メッシュモデルに対してダウンサンプリング処理を行い、ダウンサンプリング処理後の3D人体メッシュモデルに対して骨格埋め込みを行うために用いられる、
    請求項7に記載の駆動可能3Dキャラクター生成装置。
  9. 前記第2の処理モジュールは、予め構築されたN(Nは1より大きい正の整数である)個の頂点の骨格ツリーを使用して、前記3D人体メッシュモデルに対して骨格埋め込みを行う、
    請求項7又は8に記載の駆動可能3Dキャラクター生成装置。
  10. 前記第3の処理モジュールは、さらに、アクションシーケンスを取得し、前記アクションシーケンスと前記駆動可能な3D人体メッシュモデルに基づいて3D人体アニメーションを生成するために用いられる、
    請求項9に記載の駆動可能3Dキャラクター生成装置。
  11. 前記アクションシーケンスは、皮膚多人線形モデルのSMPLアクションシーケンスを含む、
    請求項10に記載の駆動可能3Dキャラクター生成装置。
  12. 前記第3の処理モジュールは、前記SMPLアクションシーケンスを移行して、N個のキーポイントのアクションシーケンスを取得し、前記N個のキーポイントは、前記骨格ツリー内のN個の頂点であり、前記N個のキーポイントのアクションシーケンスを使用して前記駆動可能な3D人体メッシュモデルを駆動して、前記3D人体アニメーションを取得する、
    請求項11に記載の駆動可能3Dキャラクター生成装置。
  13. 電子機器であって、
    少なくとも一つのプロセッサと、
    前記少なくとも一つのプロセッサに通信接続されたメモリと、を含み、
    前記メモリに前記少なくとも一つのプロセッサにより実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサにより実行されると、前記少なくとも一つのプロセッサが請求項1~6のいずれかの一つに記載の駆動可能3Dキャラクター生成方法を実行する、
    電子機器。
  14. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令は、コンピュータに請求項1~6のいずれかの一つに記載の駆動可能3Dキャラクター生成方法を実行させる、
    コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体。
  15. プロセッサによって実行される時に請求項1~6のいずれかの一つに記載の駆動可能3Dキャラクター生成方法を実現する、
    コンピュータプログラム。
JP2022543546A 2021-06-01 2022-01-29 駆動可能3dキャラクター生成方法、装置、電子機器、及び記憶媒体 Active JP7376006B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110609318.XA CN113409430B (zh) 2021-06-01 2021-06-01 可驱动三维人物生成方法、装置、电子设备及存储介质
CN202110609318.X 2021-06-01
PCT/CN2022/075024 WO2022252674A1 (zh) 2021-06-01 2022-01-29 可驱动三维人物生成方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
JP2023533404A JP2023533404A (ja) 2023-08-03
JP7376006B2 true JP7376006B2 (ja) 2023-11-08

Family

ID=77675758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022543546A Active JP7376006B2 (ja) 2021-06-01 2022-01-29 駆動可能3dキャラクター生成方法、装置、電子機器、及び記憶媒体

Country Status (5)

Country Link
US (1) US20240144570A1 (ja)
JP (1) JP7376006B2 (ja)
KR (1) KR20220163930A (ja)
CN (1) CN113409430B (ja)
WO (1) WO2022252674A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113409430B (zh) * 2021-06-01 2023-06-23 北京百度网讯科技有限公司 可驱动三维人物生成方法、装置、电子设备及存储介质
CN113781658B (zh) * 2021-08-16 2024-05-14 长沙眸瑞网络科技有限公司 一种流式处理3d模型数据的方法及装置
CN117576280B (zh) * 2023-07-12 2024-04-19 杭州雪爪文化科技有限公司 一种基于3d数字人的智能端云一体化生成方法及系统
CN116912433B (zh) * 2023-09-15 2023-12-19 摩尔线程智能科技(北京)有限责任公司 三维模型骨骼绑定方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111445561A (zh) 2020-03-25 2020-07-24 北京百度网讯科技有限公司 虚拟对象的处理方法、装置、设备及存储介质
US20200306640A1 (en) 2019-03-27 2020-10-01 Electronic Arts Inc. Virtual character generation from image or video data
CN112330805A (zh) 2020-11-25 2021-02-05 北京百度网讯科技有限公司 人脸3d模型生成方法、装置、设备及可读存储介质
US20210158616A1 (en) 2019-11-21 2021-05-27 Beijing Sensetime Technology Development Co., Ltd. Method and device for processing image, and storage medium

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101197049B (zh) * 2007-12-21 2010-12-01 西北工业大学 基于三维运动参数的三维运动模型全自动驱动方法
US11127163B2 (en) * 2015-06-24 2021-09-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Skinned multi-infant linear body model
CN108597015A (zh) * 2018-01-08 2018-09-28 江苏辰锐网络科技有限公司 三维生物模型骨骼自动绑定系统、方法、设备及计算机程序产品
CN109785415A (zh) * 2018-12-18 2019-05-21 武汉西山艺创文化有限公司 一种基于外骨骼技术的动作采集系统及其方法
CN109993819B (zh) * 2019-04-09 2023-06-20 网易(杭州)网络有限公司 虚拟角色的蒙皮方法及装置、电子设备
EP3983996A1 (en) * 2019-06-17 2022-04-20 Ariel Ai, Inc. Scene reconstruction in three-dimensions from two-dimensional images
US11263443B2 (en) * 2019-07-19 2022-03-01 Sri International Centimeter human skeleton pose estimation
CN110660017A (zh) * 2019-09-02 2020-01-07 北京航空航天大学 一种基于三维姿态识别的舞谱记录与演示方法
CN110992454B (zh) * 2019-11-29 2020-07-17 南京甄视智能科技有限公司 基于深度学习的实时动作捕捉和三维动画生成方法与装置
CN111462274A (zh) * 2020-05-18 2020-07-28 南京大学 一种基于smpl模型的人体图像合成方法及系统
CN112652057B (zh) * 2020-12-30 2024-05-07 北京百度网讯科技有限公司 生成人体三维模型的方法、装置、设备以及存储介质
CN112598773B (zh) * 2020-12-31 2024-10-18 珠海金山数字网络科技有限公司 骨骼蒙皮动画的实现方法及装置
WO2022180176A2 (en) * 2021-02-27 2022-09-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d scene description data, scene rendering apparatus for rendering a scene from 3d scene description data, and apparatus for encoding a scene into 3d scene description data
CN113409430B (zh) * 2021-06-01 2023-06-23 北京百度网讯科技有限公司 可驱动三维人物生成方法、装置、电子设备及存储介质
CN113379932B (zh) * 2021-06-28 2024-01-09 北京百度网讯科技有限公司 人体三维模型的生成方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200306640A1 (en) 2019-03-27 2020-10-01 Electronic Arts Inc. Virtual character generation from image or video data
US20210158616A1 (en) 2019-11-21 2021-05-27 Beijing Sensetime Technology Development Co., Ltd. Method and device for processing image, and storage medium
CN111445561A (zh) 2020-03-25 2020-07-24 北京百度网讯科技有限公司 虚拟对象的处理方法、装置、设备及存储介质
CN112330805A (zh) 2020-11-25 2021-02-05 北京百度网讯科技有限公司 人脸3d模型生成方法、装置、设备及可读存储介质

Also Published As

Publication number Publication date
CN113409430A (zh) 2021-09-17
CN113409430B (zh) 2023-06-23
WO2022252674A1 (zh) 2022-12-08
US20240144570A1 (en) 2024-05-02
JP2023533404A (ja) 2023-08-03
KR20220163930A (ko) 2022-12-12

Similar Documents

Publication Publication Date Title
JP7376006B2 (ja) 駆動可能3dキャラクター生成方法、装置、電子機器、及び記憶媒体
JP7395686B2 (ja) 画像処理方法、画像処理モデルのトレーニング方法、装置及び記憶媒体
CN113643412B (zh) 虚拟形象的生成方法、装置、电子设备及存储介质
CN115345980B (zh) 个性化纹理贴图的生成方法及装置
CN114842123B (zh) 三维人脸重建模型训练和三维人脸形象生成方法及装置
CN113963110B (zh) 纹理图生成方法、装置、电子设备及存储介质
EP3876197A2 (en) Portrait extracting method and apparatus, electronic device and storage medium
CN112581573B (zh) 虚拟形象驱动方法、装置、设备、介质和程序产品
CN112785493B (zh) 模型的训练方法、风格迁移方法、装置、设备及存储介质
CN113393371B (zh) 一种图像处理方法、装置及电子设备
CN112580666A (zh) 图像特征的提取方法、训练方法、装置、电子设备及介质
CN115170703A (zh) 虚拟形象驱动方法、装置、电子设备及存储介质
CN114792355A (zh) 虚拟形象生成方法、装置、电子设备和存储介质
CN114266937A (zh) 模型训练、图像处理方法,装置,设备以及存储介质
CN113344213A (zh) 知识蒸馏方法、装置、电子设备及计算机可读存储介质
CN113657411A (zh) 神经网络模型的训练方法、图像特征提取方法及相关装置
CN116402914B (zh) 用于确定风格化图像生成模型的方法、装置及产品
CN113327194A (zh) 图像风格迁移方法、装置、设备和存储介质
EP4155670A1 (en) Intersection vertex height value acquisition method and apparatus, electronic device and storage medium
CN113240780B (zh) 生成动画的方法和装置
CN113408304B (zh) 文本翻译方法、装置、电子设备及存储介质
CN114219694A (zh) 目标全连接子图的采样方法、装置及电子设备
CN113947146A (zh) 样本数据生成方法、模型训练方法、图像检测方法及装置
CN111680623A (zh) 姿态转换方法及装置、电子设备、存储介质
CN115169530B (zh) 数据处理方法、装置、电子设备和可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231011

R150 Certificate of patent or registration of utility model

Ref document number: 7376006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150