JP7403534B2 - 人間の3d再構成を生成するための方法とシステム - Google Patents

人間の3d再構成を生成するための方法とシステム Download PDF

Info

Publication number
JP7403534B2
JP7403534B2 JP2021510696A JP2021510696A JP7403534B2 JP 7403534 B2 JP7403534 B2 JP 7403534B2 JP 2021510696 A JP2021510696 A JP 2021510696A JP 2021510696 A JP2021510696 A JP 2021510696A JP 7403534 B2 JP7403534 B2 JP 7403534B2
Authority
JP
Japan
Prior art keywords
human body
image
point cloud
reconstruction
color image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021510696A
Other languages
English (en)
Other versions
JP2021536613A (ja
Inventor
カッペロ、ファビオ
ジョン ウィリアムズ、ナイジェル
グプタ、ラジーブ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2021536613A publication Critical patent/JP2021536613A/ja
Application granted granted Critical
Publication of JP7403534B2 publication Critical patent/JP7403534B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本開示は、3Dで人間を再構成するための方法およびシステムに関する。
人間を3次元でグラフィカルに表現することが望ましいアプリケーションは数多くある。一例では、これは、ビデオゲームでプレーヤーのアバターを生成することを含むことができる。アバターの物理的外観は、プレーヤーの実際の物理的外観、現実世界に対応する。プレーヤーとアバターとの類似性は、ゲーム内でのプレーヤーの存在感を向上させるとともに、プレーヤーとの個人的なつながりを提供し得る。
たとえば、プレーヤーが友人とリモートでプレイしているマルチプレーヤービデオゲームでは、友人のアバターと友人の実際の物理的な外観との類似性は、両方のプレーヤーが物理的に存在しているように感じさせるように機能し得る。これは特に、たとえば、両方のプレーヤーが仮想現実で表されているプレーヤーの動きと表情とともに仮想現実で表されている場合に当てはまる。仮想現実アプリケーションは、ユーザが現実の外の世界から完全に切り離されているため、反社会的であると批判されることがよくある。
人間を3Dで再構成するための現在の方法は、点群を形成するためのカラー及びデプス画像のキャプチャを含む。点群は、人間を表すメッシュを生成するために使用され、それに表面テクスチャが追加される。点群の生成は多くの細部を保持する一方で、キャプチャされたカラー及びデプス画像において遮られた人間の部分によってカラー及び/又はデプスの情報が欠落している場合などに問題が発生し得る。
3Dで人間を再構成するための他の既知の方法は、変形可能なモデルフィッティングの使用を含む。これらの方法では、人間の一般的な形状を表すパラメータ化されたモデルが、キャプチャされたカラー画像内の人間に対応するようにモーフィング(morph)される。典型的には、これは、キャプチャされたカラー画像内の複数の特徴点を識別し、識別された特徴点に基づいてモデルをモーフィングすることを含む。しかしながら、これらの方法では、例えば、髪の毛や衣服によって遮られた人間の任意の部分は変形可能なモデルを使用して表現することができないため、細部が失われる。
本発明は、これらの問題を低減することを目的とする。
本明細書に開示される第1の態様によれば、請求項1に記載の方法が提供される。
本明細書に開示される第2の態様によれば、請求項12に記載のシステムが提供される。
本開示の理解を支援し、実施形態がどのように実施され得るかを示すために、以下の添付の図面を例として参照する。
人間の対象の点群の例を概略的に示す図である。 人間の対象の3D再構成を生成するためのフローチャートを示す。 差し引き操作後の、人間の対象の点群の例を概略的に示す図である。 人間の対象を表す調整されたパラメトリックモデルの例を概略的に示す図である。 複数の項目の3D表現と組み合わされた再構成された人間の対象の例を概略的に示す図である。 本開示に係るシステムの例を概略的に示す図である。
図1は、各々の視点からの点群100の例を概略的に示す。
図1では、点群の対象は、正面から見た人間102に対応する。図1において、点群は、人間102が実線の輪郭を有するように見えるように十分な密度であることが理解されよう。他の例では、点群はまばらである場合があり、したがって、明確なエッジのない複数の別個の点として現れる。
図1では、人間は顔104を有し、その少なくとも一部は髪106によって遮られていることが分かる。人間の体はまた、少なくとも部分的に衣服108によって遮られているように示されている。腕110および脚112などの人間の身体の他の部分は、衣服によって遮られていないものとして示されている。図1では、マグカップ114を保持している右手(人間の対象の視点から)が示されている。
図1では、カラー及びデプスの情報(及びそのため点群内のそれぞれの点)が欠落している領域116が存在することが分かる。この情報は、人間の対象をキャプチャした少なくとも1つのカラー及びデプス画像でこれらの部分が遮られているために欠落している可能性がある。このオクルージョンは、カラー及びデプス画像をキャプチャするために使用されるカメラの位置及び向きの結果として発生した可能性がある。例えば、カメラの高さが人間に対して低くなるにつれて、人間の脚のより少ない部分がドレス108によって遮られる。それぞれの異なるカメラアングルからより多くの画像をキャプチャすることによってこれを修正することは、人間の3D表現を再構成しようとする開発者またはエンジニアにとってやや厄介なプロセスになり得る。場合によっては、点群が生成されるまで、これらの部分のカラー情報が欠落していることが明らかでないことさえある。
次に、遮られた部分を含む対象の再構成(reconstruction)を生成する方法を、図2に関連して説明することになる。
この方法の第1のステップS201において、場面の少なくとも1つのカラー画像および対応するデプス画像がそれぞれの視点について取得される。少なくとも1つのカラー画像および対応するデプス画像は、それぞれカラーカメラおよびデプスカメラによってキャプチャされ得る。いくつかの例では、これらのカメラは、例えば、マイクロソフトキネクト(登録商標)デバイスなどの単一のデバイスに含まれ得る。カラーカメラ及びデプスカメラによってキャプチャされた画像は、たとえばRGB-D画像に対応し得る。好ましい例では、それぞれのカラーカメラおよびデプスカメラによってキャプチャされた場面の部分の間に実質的な重複がある。場合によっては、カラー画像は、デプス画像でキャプチャされた場面の範囲に一致するようにトリミングされることがある(またはその逆もある)。
いくつかの実施形態では、別個のデプスカメラがなくてもよく、カラーカメラが立体画像をキャプチャするように構成されてもよい。次に、この立体画像からデプス画像が取得され得る。立体画像からデプス画像を生成するための技術は、当技術分野で知られており(例えば、三角測量を使用する)、本明細書でさらに説明する必要はない。
ソニー(登録商標)のプレイステーション4(登録商標)などのデバイスは、このような接続されたカメラから、またはオプションで以前にキャプチャした1つまたは複数の同じカメラ若しくは電話などの別のデバイスからの画像などの別のソースから、この少なくとも1つのカラー画像に対応するデプス画像、または(適切な処理によってデプス画像が取得され得る)ステレオ画像を取得する。
場面は、少なくとも1つのカラー及びデプス画像の対象を形成する人間の対象を含む。人間の対象は、図1で前に示した人間の対象に対応し得る。一般に、人間の対象は、取得したカラー及びデプス画像で少なくとも部分的に遮られることが予想される。このオクルージョンは、人間が持っているアイテム、人間が着ている衣服や宝飾品、ユーザの顔や体上の髪、ユーザとカメラとの間に位置付けられた場面における家具などに対応する場合があります。カラー及びデプスの情報が得られていない人間の体(および顔)の部分があるという意味で、人間は遮られていると言える。
好ましい実施形態では、場面の複数のカラー及びデプス画像が取得され、各カラー及びデプス画像のペアは、異なるそれぞれの視点に対して取得される。より多くのカラー及びデプス画像を取得する(例えば、キャプチャする)ことが望ましい。これは、より多くのカラー及びデプス情報が対象を3Dでグラフィカルに再構成する際に使用可能であることを意味するからである。一般に、対象の360度をカバーする3つまたは4つのカラー及びデプス画像を取得すると、本手法で使用するのに十分な量のカラー及びデプスの情報が得られる。これらのカラー及びデプス画像は、対象の周りを移動し、異なるそれぞれの位置で対象のカラー及びデプス画像をキャプチャすることによって取得され得る。
ステップS202で、対象の遮られていない部分に対応する少なくとも1つのカラー画像内の領域が識別される。人間の対象を遮る1つまたは複数のアイテムに対応する領域も識別され得る。この場合も、これらのアイテムは、人間の対象の髪の毛、人間対象が保持または携帯しているアイテム、場面に存在する家具などに対応し得る。画像の様々な領域は、画像セグメンテーション(image segmentation)を使用して識別され得る。
画像セグメンテーションは、深層学習を使用して実行され得る。一例では、畳み込みまたは完全畳み込みニューラルネットワーク(CNNまたはFCNN)などのニューラルネットワークは、人間に対応するカラー画像内の領域を識別するように訓練され得る。ニューラルネットワークは、人間に対応する領域がラベル付けされたカラー画像で訓練され得る。いくつかの例では、ニューラルネットワークは、人間の対象を遮る1つまたは複数のアイテムに対応する少なくとも1つのカラー画像内の領域を識別するように訓練されている場合もある。この場合も、ニューラルネットワークは、人間の対象に対応する領域がラベル付けされるとともに、人間の対象を遮る1つまたは複数のアイテムもラベル付けされる(すなわち、教師あり学習)カラー画像で訓練され得る。いずれの場合も、十分に訓練されると、ニューラルネットワークを使用して画像セグメンテーションを実行し得る。画像セグメンテーションを実行する既知のディープネットワークの例には、「AlexNet」、「VGG-16」、「GoogLeNet」、「ResNet」などがある。
他の例では、画像セグメンテーションは、クラスタリング分析を使用して実行され得る。例えば、K-meansアルゴリズムを使用して、人間の対象に対応する少なくとも1つのカラー画像内の領域、および人間の対象を遮る1つまたは複数のアイテムに対応する領域を識別することができる。これらのそれぞれの領域は、例えば、色の相対的な均一性(relative homogeneity)に基づいて識別され得る。画像セグメンテーションを実行するための他の方法もまた、非限定的な例として、テンプレートマッチングなどのように、本方法で使用され得る。
複数のカラー画像がキャプチャされる実施形態では、画像セグメンテーションは、キャプチャされたカラー画像の全てではないにしても、少なくともいくつかに対して実行され得る。カラー画像(または複数の画像)の異なる領域をセグメント化する理由は、以下でさらに説明するステップから明らかになるであろう。
画像セグメンテーションはまた、背景に対応する、すなわち人間の対象ではないカラー及びデプス画像内の領域を識別するために使用され得る。これらの領域は、場面の点群を生成する前に削除され得る。これにより、後で必要になる点群の処理量が減る可能性がある。他の実施形態では、点群が生成された後(後述する減算ステップの一部として)、背景に対応する領域が削除され得る。
ステップS203において、場面の点群(人間の対象を含む)は、少なくとも1つのカラー画像および対応するデプス画像を使用している。点群は、カラー及びデプス画像に逆投影(inverse projection)を適用することによって生成され得る。ここでの「逆(inverse)」という用語は、2Dカラーおよびデプス画像の点(つまりピクセル)の3D座標系の点へのマッピングを表す(一方で、従来、カメラマトリックスは3D現実世界の点を2D画像平面に変換するために使用される)。
逆投影は、カラー及びデプス画像のカラー及びデプスのピクセル値、およびカラー及びデプスのカメラの外因性及び内因性のパラメータを使用して決定され得る。RGB-D画像から点群を生成するための技術は、当技術分野で一般に知られており、これらのいずれかを本開示で使用することができる。デプスカメラが使用されていない場合(前述のとおり)、逆投影は、カラーカメラのパラメータを使用して決定されることができ、この場合、立体画像をキャプチャするように構成されるであろう。
複数のカラー及びデプス画像のペアがキャプチャされた場合、つまりそれぞれの異なる視点からキャプチャされた場合、逆マッピングを使用して、各画像の各ピクセルが共通の3D座標系の点にマッピングされる。場合によっては、場面内の同じ点が、カラー画像及びデプス画像の異なる視点から複数回キャプチャされることがある。したがって、逆投影を適用する前に、点群内の対応する点が特定のカラー及びデプスのピクセルのセットに既に存在するかどうかを確認することが望ましい場合がある。点群に既存の点がある場合、マッピングは、点群に既存の点がないカラー及びデプスのピクセルのみに制限される場合がある。
ステップS204において、人間の対象を遮る1つまたは複数のアイテムに対応すると識別された点は点群からディスカウントされる(discount)。点のディスカウントは、点群から点を差し引くこと(subtract)、または人間の対象に対応する点群内の点とは異なるものとして点を識別することを含み得る。これらの点は、例えば、人間の対象が保持している物体、人間の対象が着用している装飾品、人間の対象の髪などに対応し得る。これらの点は、前述の画像セグメンテーションを使用して識別され得る。
ディスカウント後に点群に残る可能性のある点の例を図3に示す(正面から)。図3に見られるように、顔から髪の毛304、腕110、手、下肢112、および対象の衣服108を差し引いたものに対応する対象の部分のみが、点群内の点によって表される。
いくつかの例では、衣服のいくつかは、人間の対象の輪郭に寄与していないと識別される場合がある。例えば、トップス308Aおよびスカート308Bは別個の領域として識別され、スカートは人間対象の体の全体的な形状に対応しないものとして識別され得る。このような場合、スカート308Bに対応する点は、点群から削除され得る。(たとえば、よりタイトにフィットしている)トップス308Aに対応する点は、人間の対象の体格を表すものとして保持され得る。他の例では、対象の体を遮っていると識別された全ての点が点群から削除され得る。これらの例では、対象の体の露出部分に対応する点のみが保持されるであろう。
任意選択で、ユーザは、例えば、図3に見られるものと同様のセグメント化された方法で示されるときに、ユーザがアイテムを承認または不承認することを可能にすることによって、衣類のアイテムが自分の体格を表すかどうかを指定することができる。さらに任意選択で、人間の対象の体格から閾値を超えて逸脱するように識別されたアイテムは、そのような承認/選択から除外され得る。
また、ユーザのモデルの生成に関連付けられたデータは、ユーザのアカウントに関連付けられ得るため、服を着たモデルの全部または一部が自分の体格を表すことをユーザが示すとき、これは、ユーザにとって現在の最良のデータとして保存され得ることも理解されよう。これは、より体にフィットする、または体型にぴったり合う衣服に対応する点群がより緩い衣服に基づく点群よりも同じユーザについてより小さい見かけの体積を占有することに基づいて、自動的に行うこともできる。したがって、ユーザの服を着た体の一部の見かけの体積を以前に保存された表現と比較し、現在の体積が小さい場合(キャプチャ時の条件などによるスケーリングが正規化された後)、保存されたデータが置き換えられ得る。
場合によっては、差し引きの結果として、人間の対象の点群にギャップが生じることがある。たとえば、点群が例えばマグカップを持っているかまたは帽子をかぶっている人間の対象を含む場合、これらの点の削除は、対象の一部が物体(マグカップの場合は手、帽子の場合は頭の頂部など)によって遮られた「穴」を発生することになる。このような場合、これらの穴はデプス補完法(depth completion method)を使用して埋められ得る。これは、点群の既知の部分の間の表面(たとえば、点の層)を補間する(interpolating)、および/または男性または女性のベースラインモデルの一部またはすべてを使用する、それをスケーリングする、又はモデルパラメータを調整して既知の点とモデルの表面との間の距離を最小化し、モデルの一部を点群の対応する欠落領域にマッピングするという形をとることがある。代替的には、または加えて、本明細書に記載の技法に従って生成されたユーザのモデルを、この段階でより洗練されたモデルを反復するためのベースラインモデルとして使用することができる。一例では、デプス補完法(depth completion method)は、バイラテラルフィルタリングを含み得る。追加または代替の例では、デプス補完は、参照により本明細書に組み込まれる参照により本明細書に組み込まれるY.Zhang、T.Funkhouser、石川宏、プリンストン大学、1-11ページの「単一RGB-D画像のディープデプス補完」で概説されているように、ディープネットワークを使用してキャプチャされたカラーおよびデプス画像の表面法線とオクルージョン境界を識別することを含み得る。
ステップS205において、点群の遮られていない部分に対応する点群の領域は、パラメトリックモデルの1つまたは複数のパラメータを調整するために使用される。パラメトリックモデルは、一般的な人間の3Dパラメータ化された形状を定義する。パラメータは、モデルをモーフィングして、所望の人間の対象により密接に対応するように調整され得る。
1つまたは複数のパラメータの調整は、ディスカウント後の点群の処理に基づくことができる。処理は、例えば、人間の対象を一意に識別する点群から複数の特徴点を抽出し、モデルが抽出された特徴点を示すように、パラメトリックモデルの1つまたは複数のパラメータを調整することを含み得る。抽出された特徴点は、例えば、人間の対象の目、鼻、口、顎の(3Dにおける)相対的な位置、およびユーザの肘、膝、手首などの関節の相対的な位置を含み得る。
図1に関連して前述したように、オクルージョンのためにカラー及びデプスの情報が欠落している対象の部分が存在する場合がある。これらの部分は、カラー及びデプス画像がキャプチャされたそれぞれの視点の結果として遮られる場合がある。たとえば、図1では、カラー及びデプス画像がキャプチャされた相対的な高さの結果として、対象の脚のギャップ(領域116の欠落)が発生する可能性があることが示された。これらの種類のオクルージョンは、たとえば、人間の対象を遮っていると(目で)容易に識別できる人間の対象の髪や衣服と比較して、予測するのが難しい場合がある。場合によっては、そのようなオクルージョンが、カラー及びデプス画像、またはそこから生成された点群を確認した後にのみ発生したことが明らかになることがある。
調整されたパラメトリックモデルは、対象の完全な3D表現を提供する。図1の脚の上部など、以前に遮られていた部分は、代わりにパラメトリックモデルを使用して推定され得る。これは、たとえば、元の点群から抽出された対象の膝、足首、腰などの相対的な場所を考慮する一方でこれらの部分を表し得る。つまり、調整されたパラメトリックモデルは、少なくとも1つのカラー及びデプス画像で遮られた対象の部分の少なくとも一部(すべてではないにしても)に対応する点群内の点の推定値を提供する。調整されたパラメトリックモデルは、対象の体(顔を含む)を表すテクスチャのないメッシュになり得る。このようなテクスチャのないメッシュ402の例を図4に示す。
上記のように、任意選択で、パラメトリックモデルを繰り返し使用して、対象の部分的な点群のギャップを埋めることができ、それによって点群、続いてパラメトリックモデルを改良することができる。
場合によっては、調整されたパラメトリックモデルは、衣服によって遮られた人体の領域に関する精度を欠く可能性がある。これは、パラメトリックモデルを調整する前に、これらの領域が点群から差し引かれた結果である可能性があり、これらの領域に対応するようにパラメトリックモデルをモーフィングするためのデータがほとんど使用可能ではなかったことを意味する。代替的には、衣服に対応する点を使用してパラメトリックモデルを調整したため、この精度の欠如が発生する可能性があり、したがって、人体の形状は、衣服の形状を使用して推定され、人間の対象の体の形状を表していない可能性がある。いずれの場合も、以下に説明するように、人間の対象の髪、衣服、装飾品などを個別に再構成し、人間の対象の再構成と組み合わせることができるため、この精度の欠如は実際の問題を引き起こすことはない。
ステップS206で、(調整されたパラメトリックモデルから生じる)人間の対象のテクスチャ化されていないメッシュがテクスチャ化される。これは、たとえば、人間の対象の肌に対応すると識別されたカラー画像の領域からボディテクスチャマップを生成することを含み得る。衣服に対応すると識別された領域については、インペインティング(in-painting)操作が実行され得る。インペインティング操作は、衣服で遮られた領域での人間の対象の皮膚のカラーの値の推定に対応し得る。人間の対象の皮膚及び衣服に対応する領域は、前述のセグメンテーションを使用して識別され得る。生成されると、ボディテクスチャマップは、テクスチャのないメッシュの表面に適用され得る。
インペインティングは、衣服が始まる境界に近い、対象の体のピクセル値に基づいて実行され得る。場合によっては、インペインティングは、単に、人間の対象の平均的な肌の色調を推定することと、衣服によって遮られたテクスチャのないメッシュの領域を対応する色で塗りつぶすことを含み得る。一般的に、人体のこれらの部分は衣服で覆われることが予想されるため、細部及びカラーの観点で信じられないほど正確である必要はない。
ステップS207で、人間の対象の3D再構成は、1つまたは複数のアイテムの3D表現と組み合わされる。1つまたは複数のアイテムは、人間の対象のテクスチャメッシュ表現に別個のメッシュとして追加され得る。代替的には、1つまたは複数のアイテムは点として追加され得る。点は、人間の対象の点群に追加され得る(この場合、調整されたパラメトリックモデルを表す)。3D表現は、人間の対象を遮っていると識別された1つまたは複数のアイテムのものであり得る。代替的には、3D表現は異なるアイテムのものであり得る。いずれの場合も、これらのアイテムは、たとえば、衣類、装飾品、持ち物、髪の毛などを含み得る。
3D表現が人体を遮っていると識別されたアイテムのものである場合、このアイテムの3D表現は、そのアイテムに対応すると識別されたカラー及びデプス情報を使用して生成され得る(得られたカラー及びデプス画像において)。これは、たとえば、このアイテムに対応する点群からディスカウントされた点を識別し、これらの点からアイテムを表すメッシュを生成することを含み得る。次に、対応するカラー画像のカラー情報を使用して、このメッシュに適用するためのテクスチャを生成することができる。このようにして、カラーおよびデプス画像を取得するユーザにアイテムが現れたのと実質的に同じ形状およびカラーを有するように、遮っているアイテムを3Dで再構成することができる。人間の3D再構成を生成する前に点群からこれらの点(遮っているアイテムに対応)を差し引くことは役立ち得る。その結果、これらのアイテムを考慮に入れて3D再構成が生成されないようになる。これは、たとえば、3D再構成がそのアイテムに対応する形状を既に持っていなくても、3D表現を3D再構成の上にオーバーレイできることを意味する。いくつかの例では、3D表現は、カラー及びデプス画像のキャプチャ中に人間の対象が着ていた衣服のものであり得る。前に説明したように、衣服に対応する領域は、セグメンテーションを介してカラー画像で識別され得る。これらの領域に関連付けられたカラー及びデプスの情報は、衣服の3D再構成を生成するために使用され得る。次に、衣服の再構成は、テクスチャメッシュの上にオーバーレイされ得る。それにより、(前述の理由により)精度が不足している可能性のあるテクスチャメッシュの任意の部分を隠すことができる。これらの実施形態では、衣服の3D表現を生成するために、元のカラー及びデプスの情報が保持され得る。場合によっては、衣類の少なくとも一部(またはより一般的にはアイテム)のカラー及びデプス情報が欠落している可能性があるため、これらの部分のカラー及びデプス情報は、既存のカラー及びデプス情報を使用して推定する必要があり得る。
いくつかの例では、人間の対象が手の込んだ衣服を着ている場合があり、これを3Dで再構成する試みは計算コストがかかり過ぎるであろう。このような場合、人間の対象の衣服は、「革のジャケット」または「長袖のドレス」などの特定の種類の衣服に対応するものとして識別される場合がある。その衣服の事前に決定された3D表現は、人間の対象の3D再構成との組み合わせのために選択され得る。場合によっては、この事前に決定された3D表現は、例えば、対象のカラー画像で検出された衣服の色と一致するように適合され得る。
いくつかの例では、人間の対象の再構成は、カラー及びデプス画像のキャプチャプロセス中に人間の対象が着ていた衣服とは異なる衣服の3D表現と組み合わせられ得る。これは、たとえば、自分自身の3D再構成を表示している人が、別の衣服でどのように見えるかを確認したい場合に望ましい場合がある。この衣服は、視聴者が購入することに興味を持っている衣服、または単に例えば人間の対象を表現するビデオゲームに関連する衣服に対応し得る。この衣服の3D表現は、ユーザが自分自身のテクスチャメッシュ表現をインポート(または生成)できるアプリケーションまたはビデオゲームを通じて利用できるようにされ得る。つまり、この衣服の3D表現は、人間の対象の3D再構成を生成する前に、アプリまたはビデオゲームの開発者によって生成され得る。
追加または代替の例では、カラー及びデプス画像のキャプチャ中に人間の対象が保持していた任意のオブジェクトも3Dで再構成され得る。図1に示す例では、これは、マグカップの3D表現を生成することと、マグカップを保持するようにテクスチャメッシュ表現をモーフィングすることとを含み得る。より単純な例では、マグカップは、3D表現が既に存在する複数の所定のオブジェクトのうちの1つに対応するものとして識別され得る。したがって、人間の対象の3D再構成は、検出されたオブジェクトの対応する既存の3D表現と組み合わせられ得る。
さらに別の例では、アプリケーションまたはビデオゲームは、3D表現が存在する複数の所定のアイテムをユーザに提供することができ、ユーザは、自分自身の再構成により、3Dで表現されるこれらの1つまたは複数を選択することができる場合がある。
人間の対象の髪の毛は、カラー及びデプス画像から取得したカラー及びデプスの情報を使用して再構成するのが非常に難しい場合がある。代わりに、テクスチャストリップが髪の毛を生成するために使用され得る。テクスチャストリップは、少なくとも1つのカラー画像で検出された人間の髪の毛のカラーおよび形状に対応するように選択され、(例えば、ゲームアーティストによって)人間の対象の3D再構成の頭部に適用され得る。代替的には、ユーザは、自分自身の3D再構成と組み合わせるために、ヘアスタイルの事前に決定された3D表現を選択するか、又は独自の表現を作成することができる。髪の毛を(グラフィカルに)3Dで表現するための方法は当技術分野で知られており、これらのいずれも本方法で使用することができる。
いくつかの例では、例えばネックレスなどのアイテムは、元のカラー及びデプスの情報を使用して、3Dで再構成するには小さすぎるか又は薄すぎると識別される場合がある。これらの場合、アイテムに関連付けられた事前に決定された3D表現を使用するか(たとえば、より太いチェーン、ブローチ、またはラフ(ruff))、又はアイテムを再構成プロセスから単純に省略できる。
一方、ユーザがそれらの前にビデオゲームコントローラなどのアイテムを持っている可能性が非常に高く、それによって少なくとも部分的に手や胴体(または他の体の部分)が塞がれる。任意選択で、ビデオゲームコントローラは、ビデオゲームコントローラに関連付けられた事前に決定された3D表現に置き換えられ得る。これは、コントローラ自体の適切な複製、またはコントローラがゲーム内で概念的に表すオブジェクト(剣、電話、銃、操舵ハンドルなど)であり得る。
ステップS208で、人間の対象の3D再構成および1つまたは複数のアイテムの3D表現は、表示のためにレンダリングされる。この例を図5に示す。ここでは、人間の対象502の3D再構成が、サイズ、形状、および外観において図1に示す表現に対応していることがわかる。しかしながら、図5では、人間の対象の脚の上部が失われなくなったことがわかる。さらに、図4に示されているテクスチャのないメッシュと比較して、人間の対象は、カラーおよびデプス画像でキャプチャされたものに対応する髪と衣服で示される。図5では、髪506、衣服508、およびマグカップ514は、人間の対象の3D再構成に適用された3D表現に対応している。
いくつかの実施形態では、(例えば、テクスチャメッシュの形態における)人間の対象の3D再構成は、ゲームコンソールに格納される。代替的には、またはそれに加えて、テクスチャメッシュは、オンライン、例えばサーバで保存されることができ、インターネットなどの通信ネットワークを介してゲームコンソールで利用可能にされ得る。次に、人間の対象の3D再構成は、ゲームコンソールで実行されている特定のビデオゲームまたはアプリケーションにインポートされることができ、そのアプリケーションまたはゲームで人間の対象のアバターを生成(およびその後にレンダリング)するために使用される。ここで、ゲームコンソールという用語は、アプリケーションまたはゲームプログラムを実行することができ、ゲームプログラムの実行専用のデバイスに限定される必要のないデバイスを指す場合がある。
ビデオゲームまたはアプリケーションは、複数の異なる3Dオブジェクトを提供することができ、これらは、次に、人間の対象の再構成と組み合わせられ得る。一例では、これは、例えば、プレーヤーの3D再構成に追加できる鎧及び武器を含むことができる。他の例では、カラー及びデプス画像のキャプチャプロセス中に人間の対象が着ていた衣服などの3D表現も保存され、プレーヤーのアバターの一部としてアプリケーションまたはビデオゲームにインポートされ得る。
任意選択で、人間の対象の再構成は、人間以外のアバター(たとえば、ユーザの特徴が平均モデルからどのように逸脱するかをマッピングして、人間以外のアバターの平均モデルからの逸脱を促進し、ユーザに類似性を与える)、または外観や服装が大幅に異なる人間のアバターにマッピングされ得る。この場合、ユーザの衣服、髪の毛、またはその他のアイテムが事前に決定された3D表現に置き換えられると、前述のように、この表現は対象のアバターの外観で保持され得る。したがって、例えば、ユーザがネックレスを着用している場合、これは、対象のアバターに応じて、ドッグタグ、鉄の首輪、メダリオン、ラフ、胸のタトゥーまたは他のアイテムと置き換えられ得る。一方、ネックレスを着用していない場合、そのようなオプションのアイテムは、対象のアバターに含まれない場合がある。
同様に、任意選択で、Tシャツ、フルスリーブシャツ、ショーツ、ズボン、スカート、靴下、靴、時計、ブレスレット、ヘアバンド、およびイヤリングなどの他のアイテムは、識別可能であり、対象のアバターに対して適切な異なる関連表現を有することができる。このように、ユーザは、アバターがユーザ自身の直接の類似性を意図していない場合や、衣服やその他のアイテムの直接の類似性を維持することを意図していない場合でも、服装によってアバターの外観に影響を与えることができる。したがって、たとえば、Tシャツとショートパンツは軽い鎧に対応し、セーターとズボンは騎士の重い鎧に対応し、ユーザはゲームでのそれぞれの鎧の選択と同様の物理的な結果を感じるようになる。
いくつかの例では、プレーヤーの顔の表情および手足の動きは、ビデオゲームまたはアプリケーションのプレイ中または使用中に追跡され得る。これらの動きと表現の変化は、テクスチャメッシュ表現にマッピングされ、プレーヤーの実際の動きに対応するように表現をモーフィングするために使用され得る。これは、ビデオゲームまたはアプリケーション内の「存在感」を改善するのに役立つ場合がある。
図6は、前述の方法を実行するためのシステム600の例を示す。このシステムは、入力部602、画像プロセッサ604、点群生成部606、減算部608、モーフィング部610、および画像生成部612を備える。
入力部602は、場面の少なくとも1つのカラー画像および対応するデプス画像を取得するように構成される。前述のように、少なくとも1つのカラー画像およびデプス画像は、それぞれのカラーおよびデプスカメラによってキャプチャされ得る。このような場合、これらの画像は、カラーカメラおよびデプスカメラから入力部で受信され得る。代替的には、少なくとも1つのデプス画像は、立体画像から取得され得る。図6では、カラー画像及び対応するデプス画像が、入力部へのそれぞれの入力RGBおよびDとして示される。場面の少なくとも1つのカラーおよび対応するデプス画像は、1つまたは複数のアイテムによって少なくとも部分的に遮られている人間の対象を含む。
少なくとも1つのカラー画像は、画像プロセッサ604への入力として提供される。画像プロセッサ604は、人間の対象の遮られていない部分に対応する少なくとも1つのカラー画像内のそれぞれの領域を識別するように構成される。画像プロセッサ604はまた、人間の対象および任意の例えば人間の対象の背景にある壁又は表面などの背景領域を遮る1つまたは複数のアイテムに対応する少なくとも1つのカラー画像内の領域を識別するように構成され得る。
画像プロセッサ604は、画像内の他のピクセルから人間の対象に対応するピクセルをセグメント化するように訓練されたニューラルネットワークに少なくとも1つのカラー画像を入力するように構成され得る。追加的または代替的に、画像プロセッサ604は、前述のように、クラスター分析を使用して画像セグメンテーションを実行するように構成され得る。
少なくとも1つのカラー画像およびデプス画像は、点群生成部606への入力として提供される。点群生成部606は、少なくとも1つのカラー及びデプス画像に含まれるカラーピクセルおよびデプスピクセルから点群を生成するように構成される。ステップS203(図2)に関連して前述したように、これは、逆投影を決定することと、少なくとも1つのカラー及びデプス画像のカラー及びデプスピクセルに逆投影を適用することとを含み得る。
生成された点群は、ディスカウント部608への入力として提供され得る。ディスカウント部608は、人間の対象を遮っていると識別された1つまたは複数のアイテムに対応する点群内の点を識別するように構成される。いくつかの例では、ディスカウント部608は、これらの点を点群から除去する(すなわち、それらを差し引く)ように構成される。1つまたは複数のアイテム点に対応する点は、画像プロセッサ604で実行される識別に基づいて識別され得る。例えば、画像プロセッサ604によって識別されたピクセルの領域と点群内の対応する点との間のマッピングが知られ得る。このマッピングを使用して、1つまたは複数の遮っているアイテムに対応する点を識別する(および任意選択で削除する)ことができる。画像プロセッサ604は、識別された(すなわち、互いにセグメント化された)少なくとも1つのカラー画像内のそれぞれの領域の表示をディスカウント部608に提供するように構成され得る。ディスカウント部608はまた、背景領域に対応すると識別された点を除去するように構成され得る。この場合も、これは、画像プロセッサ604によるそれらの領域の識別に基づくことができる。
前に説明したように、人間の対象に対応する点群の部分である程度のデプス補完を実行することが望ましいが、デプス情報が欠落している場合がある。前述のデプス補完のいずれかは、例えば、デプス補完部(図示せず)によって使用され得る。デプス補完部は、人間の対象に対応する点群を受け取り、その上でデプス補完を実行するように構成され得る。
人間の対象の遮られていない部分に対応する点群内の点は、モーフィング部610に提供される。すなわち、1つまたは複数のアイテムに対応すると識別された点は、モーフィング部610に提供される点からディスカウントされる。モーフィング部610に提供される点は、人間の対象を遮る1つまたは複数のアイテムに対応すると識別された点を差し引いた後、点群に残っている点に対応し得る。モーフィング部610は、人間の対象の遮られていない部分に対応する点群内の点に基づいて、パラメトリックモデルの1つまたは複数のパラメータを調整するように構成される。ステップS205(図2)に関連して前述したように、パラメトリックモデルは、人間のパラメータ化された形状を定義することができる。人間の形状を定義するパラメータは、対象の体の形状(顔や顔の特徴を含む)により密接に対応するようにモデルをモーフィングするように調整され得る。モーフィング部610は、人間の対象の遮られていない部分に対応すると識別された点群内の点から、人間の対象の1つまたは複数の主要な特徴点を識別または抽出するように動作可能であり得る。次に、モーフィング部は、これらを使用してパラメトリックモデルのパラメータを調整し得る。
(少なくとも1つのカラー及びデプス画像において人間の対象により密接に対応するようにモーフィングされた人間の一般的な表現に対応する)調整されたパラメトリックモデルが画像生成部612に提供される。画像生成部612は、調整されたパラメトリックモデルを使用して、人間の対象の3D再構成を生成するように構成される。
前に説明したように(図2のステップS206に関連して)、人間の対象の3D再構成は、更なるテクスチャリングを必要とするテクスチャリングされていないメッシュに対応し得る。いくつかの例では、システムは、テクスチャリングされていないメッシュに適用するためのテクスチャマップを生成するように構成されたテクスチャマップ生成部(図示せず)をさらに含み得る。テクスチャマップ生成部は、入力部602で受信された少なくとも1つのカラー画像に含まれるカラー情報を使用してテクスチャマップを生成するように構成され得る。テクスチャマップは、図2に関連して前述した任意の方法で生成され得る。画像生成部612は、生成されたテクスチャマップを画像生成部612によって生成された3D再構成に適用するように構成され得る。
画像生成部612は、少なくとも1つのカラー及びデプス画像を受信し、画像プロセッサによって識別された1つまたは複数のアイテムの3D表現を生成し、それらのアイテムの3D表現を生成するようにさらに構成され得る。いくつかの例では、1つまたは複数のアイテムの3D表現は、ディスカウント部608によって点群からディスカウントされた点を使用して生成され得る。3D表現は、カラー及びデプス画像からそれらが有するように検出されたおおよその形状および色を有する1つまたは複数のアイテムを表すことができる。図6では、これは、画像生成部612で入力として受信される少なくとも1つのカラー及びデプス画像で示される。
場合によっては、識別されたアイテムの少なくとも一部のカラー及びデプスの情報が不完全である可能性があるため、インペインティング操作が必要になり得る。たとえば、人間の対象の衣服のカラー及びデプスの情報をキャプチャできない部分があったため、これらの部分を埋めるために既存のカラー及びデプスの情報を使用する必要があり得る。画像生成部612は、例えば、このインペインティングを実行するように構成され得る。
画像生成部612は、1つまたは複数のアイテムの3D表現を人間の対象の3D再構成と組み合わせるように構成され得る。これは、人間の対象の3D再構成に、3Dで表される1つまたは複数のアイテムを着用または保持させることに対応し得る。次に、3D再構成と3D表現とのその後の組み合わせが、表示装置での表示のために出力され得る。3D再構成と3D表現の組み合わせは、コンピューティングデバイスで実行されているアプリケーションまたはビデオゲーム(前述のように)における人間の対象を表すアバターとして表示され得る。
前述のように、人間の対象の3D再構成は、最初にキャプチャされたカラー及びデプス画像には存在しなかった1つまたは複数のアイテムと組み合わせられ得る。したがって、いくつかの実施形態では、画像生成部612は、これらの3D表現を別々に(例えば、アプリケーションまたはビデオゲームから)受信し、これらのアイテムを着用および/または保持している人間の対象の3D再構成を出力するように構成され得る。図6では、これらの3D表現は、画像生成部612の入力として示されるより細かく破線の矢印によって表されている。
本明細書に記載の技術は、必要に応じて、ハードウェア、ソフトウェア、またはその2つの組み合わせで実装することができる。実施形態の1つまたは複数の特徴を実施するためにソフトウェア制御のデータ処理装置が使用される場合、そのようなソフトウェア、およびそのようなソフトウェアが提供される非一時的な機械可読記憶媒体などの記憶媒体または伝達媒体は、本開示の実施形態としても考慮される。
本明細書に記載の例は、本発明の実施形態の例示的な例として理解されるべきである。さらなる実施形態および例が想定される。任意の1つの例または実施形態に関連して説明される任意の特徴は、単独で、または他の特徴と組み合わせて使用され得る。さらに、任意の1つの例または実施形態に関連して説明される任意の特徴はまた、他の任意の例または実施形態の1つまたは複数の特徴、または他の任意の実施例または実施形態の任意の組み合わせと組み合わせて使用され得る。さらに、本明細書に記載されていない同等物および改変もまた、特許請求の範囲で定義される本発明の範囲内で使用され得る。

Claims (17)

  1. 人間の三次元(3D)再構成を生成する方法であって、前記方法は、
    場面の少なくとも1つのカラー画像および対応するデプス画像を取得するステップであって、前記少なくとも1つのカラー画像および対応するデプス画像は、1つまたは複数のアイテムによって少なくとも部分的に遮られている人体を含む、ステップと、
    前記少なくとも1つのカラー画像において、前記人体の遮られていない部分に対応する領域を識別するステップと、
    前記場面の前記少なくとも1つのカラー画像および対応するデプス画像に基づいて場面の点群を生成するステップであって、前記点群は、前記少なくとも1つのカラー画像において、前記人体の前記遮られていない部分に対応するように識別された領域に対応する領域を含む、ステップと、
    前記人体の前記遮られていない部分に対応する点群の領域に基づいてパラメトリックモデルの1つまたは複数のパラメータを調整するステップであって、前記調整されたパラメトリックモデルは、前記人体の前記少なくとも部分的に遮られた部分に対応する点群内の点の推定値を提供し、前記パラメトリックモデルは、人間の3Dパラメータ化された形状を定義し、前記1つまたは複数のパラメータを調整するステップは、前記パラメトリックモデルが前記人体により密接に対応するようにモーフィングされるようにする、ステップと、
    前記調整されたパラメトリックモデルに基づいて前記人体の3D再構成を生成するステップと、
    を含む、方法。
  2. 前記少なくとも1つのカラー画像において、前記人体を遮っている1つまたは複数のアイテムに対応する領域を識別するステップと、
    前記点群から、前記人体を遮っていると識別された前記1つまたは複数のアイテムに対応する点をディスカウントするステップと、
    を含む、請求項1に記載の方法。
  3. 前記カラー画像において識別される前記1つまたは複数のアイテムは、
    i. 前記人体によって着用されている衣服と、
    ii. 前記人体によって保持されているオブジェクトと、
    iii. 前記人体の顔及び/又は体上の髪の毛と、
    のうちの少なくとも1つに対応する、請求項2に記載の方法。
  4. 前記識別されたアイテムの少なくとも1つの3D表現を生成するステップと、
    前記少なくとも1つの識別されたアイテムの前記3D表現を前記人体の前記3D再構成と組み合わせるステップと、
    を含む、請求項2又は3に記載の方法。
  5. 前記少なくとも1つの識別されたアイテムの前記3D表現は、前記点群からディスカウントされた前記点の少なくともいくつかを使用して生成される、請求項4に記載の方法。
  6. 前記少なくとも1つの識別されたアイテムの前記3D表現を生成するステップは、
    前記少なくとも1つの識別されたアイテムに関連付けられた事前に決定された3D表現を識別するステップと、
    前記人体の前記3D再構成と組み合わせるための前記事前に決定された3D表現を選択するステップと、
    を含む、請求項4に記載の方法。
  7. 表示のために、前記人体の前記3D再構成と、前記少なくとも1つのアイテムに関連付けられた前記3D表現との組み合わせをレンダリングするステップを含む、請求項4から6のいずれかに記載の方法。
  8. 前記人体を遮っていると識別された前記1つまたは複数のアイテムに対応する前記点をディスカウントした後、前記人体の少なくともいくつかに関するデプス情報を推定するステップを含む、請求項2から7のいずれかに記載の方法。
  9. 前記人体の前記3D再構成は、前記人体のテクスチャ化されていないメッシュ表現を含み、
    前記方法は、
    前記人体の前記遮られていない部分に対応すると識別された前記少なくとも1つのカラー画像内の領域に基づいて、前記人体のテクスチャマップを生成するステップと、
    前記生成されたテクスチャマップを前記人体の前記3D再構成に適用するステップと、
    を含む、請求項1から8のいずれか1項に記載の方法。
  10. 前記カラー画像において前記人体および1つまたは複数のアイテムを識別するステップは、
    i. 前記人体の画像のセグメンテーションを実行するように訓練されたニューラルネットワークに前記カラー画像を入力するステップと、
    ii. 前記少なくとも1つのカラー画像でクラスター分析を実行するステップと、
    のうちの少なくとも1つを含む、請求項1から9のいずれか1項に記載の方法。
  11. コンピュータ上で実行されると、前記コンピュータに請求項1から10のいずれか1項の方法を実装させる、コンピュータ実装命令を含むコンピュータプログラム。
  12. 人間の三次元再構成を生成するためのシステムであって、前記システムは、
    場面の少なくとも1つのカラー画像および対応するデプス画像を取得するように構成された入力部であって、前記少なくとも1つのカラー画像および対応するデプス画像は、1つまたは複数のアイテムによって少なくとも部分的に遮られた人体を含む、入力部と、
    前記少なくとも1つのカラー画像において、前記人体の遮られていない部分に対応する個々の領域を識別するように動作可能な画像プロセッサと、
    前記少なくとも1つのカラー画像および対応するデプス画像を受信し、それに基づいて、前記場面の点群を生成する点群生成部であって、前記点群は、前記少なくとも1つのカラー画像において、前記人体の前記遮られていない部分に対応すると識別された領域に対応する領域を含む、点群生成部と、
    前記人体の前記遮られていない部分に対応する前記点群の領域に基づいてパラメトリックモデルの1つまたは複数のパラメータを調整するように構成されたモーフィング部であって、前記パラメトリックモデルは、人体の3Dパラメータ化された形状を定義し、前記調整されたパラメトリックモデルは、前記人体の前記少なくとも部分的に遮られた部分に対応する前記点群内の点の推定値を提供する、モーフィング部と、
    前記調整されたパラメトリックモデルに基づいて、前記人体の3D再構成を生成するように動作可能な画像生成部と、
    を含む、システム。
  13. 前記人体を遮っている前記1つまたは複数のアイテムに対応する前記点群内の点を識別し、前記識別された点を前記点群からディスカウントするように構成されたディスカウント部を含み、
    前記画像生成部は、前記点群からディスカウントされた前記点の少なくともいくつかに基づいて、前記人体を遮っていると識別された前記1つまたは複数のアイテムの3D表現を生成するように構成される、請求項12に記載のシステム。
  14. 前記画像生成部は、前記1つまたは複数のアイテムの前記3D表現を前記人体の前記3D再構成と組み合わせるように構成され、
    前記画像生成部は、表示のために前記1つまたは複数のアイテムの前記3D表現および前記人体の前記3D再構成を出力するように構成される請求項13に記載のシステム。
  15. 前記人体の前記3D再構成に適用するためのテクスチャマップを生成するように動作可能なテクスチャマップ生成部であって、前記テクスチャマップは、前記少なくとも1つのカラー画像において前記人体の前記遮られていない部分に対応すると識別された前記領域に基づいて生成される、テクスチャマップ生成部を含む、請求項12から14のいずれかに記載のシステム。
  16. 前記画像生成部は、前記人体の前記3D再構成と組み合わせるために、複数の事前に定められた3D表現のうちの1つを選択するように構成される、請求項12から14のいずれかに記載のシステム。
  17. 前記画像プロセッサは、人体に対応するピクセルを人体の画像内の他のピクセルからセグメント化するように訓練されたニューラルネットワークに前記少なくとも1つのカラー画像を入力するように構成される、請求項12から16のいずれかに記載のシステム。
JP2021510696A 2018-09-12 2019-09-04 人間の3d再構成を生成するための方法とシステム Active JP7403534B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1814835.3 2018-09-12
GB1814835.3A GB2583687B (en) 2018-09-12 2018-09-12 Method and system for generating a 3D reconstruction of a human
PCT/GB2019/052457 WO2020053551A1 (en) 2018-09-12 2019-09-04 Method and system for generating a 3d reconstruction of a human

Publications (2)

Publication Number Publication Date
JP2021536613A JP2021536613A (ja) 2021-12-27
JP7403534B2 true JP7403534B2 (ja) 2023-12-22

Family

ID=63921330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021510696A Active JP7403534B2 (ja) 2018-09-12 2019-09-04 人間の3d再構成を生成するための方法とシステム

Country Status (5)

Country Link
US (1) US11941772B2 (ja)
EP (1) EP3850588A1 (ja)
JP (1) JP7403534B2 (ja)
GB (1) GB2583687B (ja)
WO (1) WO2020053551A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11276244B2 (en) * 2018-09-18 2022-03-15 AB Strategies SEZC Ltd. Fixing holes in a computer generated model of a real-world environment
CN113785331A (zh) * 2019-06-14 2021-12-10 富士胶片株式会社 点云数据处理装置、点云数据处理方法以及程序
TWI766218B (zh) * 2019-12-27 2022-06-01 財團法人工業技術研究院 三維平面重建方法、三維平面重建系統與計算裝置
US12034785B2 (en) 2020-08-28 2024-07-09 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
US20220070236A1 (en) * 2020-08-28 2022-03-03 Tmrw Foundation Ip S. À R.L. Graphical representation-based user authentication system and method
US11398079B2 (en) * 2020-09-23 2022-07-26 Shopify Inc. Systems and methods for generating augmented reality content based on distorted three-dimensional models
WO2022096105A1 (en) * 2020-11-05 2022-05-12 Huawei Technologies Co., Ltd. 3d tongue reconstruction from single images
CN112330813A (zh) * 2020-11-12 2021-02-05 首都师范大学 一种基于单目深度摄像头的着装下三维人体模型重建方法
CN113096249B (zh) * 2021-03-30 2023-02-17 Oppo广东移动通信有限公司 训练顶点重建模型的方法、图像重建方法及电子设备
CN113192206B (zh) * 2021-04-28 2023-04-07 华南理工大学 基于目标检测和背景去除的三维模型实时重建方法及装置
CN113837053B (zh) * 2021-09-18 2024-03-15 福建库克智能科技有限公司 生物面部对齐模型训练方法、生物面部对齐方法和装置
CN113902854A (zh) * 2021-10-18 2022-01-07 深圳追一科技有限公司 三维人脸模型重建方法、装置、电子设备及存储介质
CN114821675B (zh) * 2022-06-29 2022-11-15 阿里巴巴达摩院(杭州)科技有限公司 对象的处理方法、系统和处理器
KR102547323B1 (ko) * 2023-03-16 2023-06-22 이채영 3d 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치 및 그 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100111370A1 (en) 2008-08-15 2010-05-06 Black Michael J Method and apparatus for estimating body shape
JP2015015021A (ja) 2013-06-21 2015-01-22 株式会社東芝 被写体の三次元表現を生成する方法およびシステム
JP2017146957A (ja) 2016-02-19 2017-08-24 トヨタ自動車株式会社 深層畳み込みニューラルネットワークによるレイヤベースの物体検出の強化

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9165199B2 (en) * 2007-12-21 2015-10-20 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
WO2010099035A1 (en) * 2009-02-25 2010-09-02 Honda Motor Co., Ltd. Body feature detection and human pose estimation using inner distance shape contexts
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8639020B1 (en) * 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US9310981B2 (en) * 2013-02-13 2016-04-12 Dropbox, Inc. Seamless editing and saving of online content items using applications
US9792406B2 (en) * 2014-02-10 2017-10-17 Neuronetics, Inc. Head modeling for a therapeutic or diagnostic procedure
US10515259B2 (en) * 2015-02-26 2019-12-24 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining 3D object poses and landmark points using surface patches
US9715016B2 (en) * 2015-03-11 2017-07-25 The Boeing Company Real time multi dimensional image fusing
US10529137B1 (en) * 2016-11-29 2020-01-07 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Machine learning systems and methods for augmenting images
US11461630B1 (en) * 2017-03-06 2022-10-04 Max-Planck-Gesellschaft zur Förderung der Wisenschaften e.V. Machine learning systems and methods for extracting user body shape from behavioral data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100111370A1 (en) 2008-08-15 2010-05-06 Black Michael J Method and apparatus for estimating body shape
JP2015015021A (ja) 2013-06-21 2015-01-22 株式会社東芝 被写体の三次元表現を生成する方法およびシステム
JP2017146957A (ja) 2016-02-19 2017-08-24 トヨタ自動車株式会社 深層畳み込みニューラルネットワークによるレイヤベースの物体検出の強化

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Federica Bogo, Michael J. Black, Matthew Loper, Javier Romero,Detailed Full-Body Reconstructions of Moving People from Monocular RGB-D Sequences,IEEE International Conference on Computer Vision,IEEE,2015年,2300頁-2308頁

Also Published As

Publication number Publication date
GB2583687A (en) 2020-11-11
WO2020053551A1 (en) 2020-03-19
GB201814835D0 (en) 2018-10-24
GB2583687B (en) 2022-07-20
JP2021536613A (ja) 2021-12-27
US20210256776A1 (en) 2021-08-19
EP3850588A1 (en) 2021-07-21
US11941772B2 (en) 2024-03-26

Similar Documents

Publication Publication Date Title
JP7403534B2 (ja) 人間の3d再構成を生成するための方法とシステム
Achenbach et al. Fast generation of realistic virtual humans
Tome et al. xr-egopose: Egocentric 3d human pose from an hmd camera
Zhang et al. Detailed, accurate, human shape estimation from clothed 3D scan sequences
US9147207B2 (en) System and method for generating image data for on-line shopping
Mueller et al. Real-time hand tracking under occlusion from an egocentric rgb-d sensor
CN110609617B (zh) 虚拟镜子的装置、系统和方法
CN105354876B (zh) 一种基于移动终端的实时立体试衣方法
CN109427007B (zh) 基于多视角的虚拟试衣方法
KR101251701B1 (ko) 게임용 스테레오 비디오에 대하여 장치가 프로세스를실행할 수 있게 하는 정보를 저장하는 하나 이상의 컴퓨터판독가능 매체
Hasler et al. Multilinear pose and body shape estimation of dressed subjects from image sets
US20200151963A1 (en) Training data set generation apparatus and method for machine learning
Zhao et al. 3-D reconstruction of human body shape from a single commodity depth camera
KR101560508B1 (ko) 3차원 이미지 모델 조정을 위한 방법 및 장치
US9224245B2 (en) Mesh animation
Hauswiesner et al. Free viewpoint virtual try-on with commodity depth cameras
Wenninger et al. Realistic virtual humans from smartphone videos
Yang et al. A virtual try-on system in augmented reality using RGB-D cameras for footwear personalization
WO2014081394A1 (en) Method, apparatus and system for virtual clothes modelling
CN114821675B (zh) 对象的处理方法、系统和处理器
WO2021240848A1 (ja) 3次元アバター生成装置、3次元アバター生成方法及び3次元アバター生成プログラム
CN114445601A (zh) 一种图像处理方法、装置、设备和存储介质
KR101696007B1 (ko) 3d 몽타주 생성 장치 및 방법
CN107622428A (zh) 一种实现虚拟试穿的方法及装置
EP3796644A1 (en) A method for capturing and rendering a video stream

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7403534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150