JP6704238B2 - 画像から自動化されたテクスチャリングマッピングおよびアニメーション - Google Patents

画像から自動化されたテクスチャリングマッピングおよびアニメーション Download PDF

Info

Publication number
JP6704238B2
JP6704238B2 JP2015212133A JP2015212133A JP6704238B2 JP 6704238 B2 JP6704238 B2 JP 6704238B2 JP 2015212133 A JP2015212133 A JP 2015212133A JP 2015212133 A JP2015212133 A JP 2015212133A JP 6704238 B2 JP6704238 B2 JP 6704238B2
Authority
JP
Japan
Prior art keywords
image
target object
reflective
view
reflection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015212133A
Other languages
English (en)
Other versions
JP2016091553A (ja
Inventor
グリモー ジャン−ジャック
グリモー ジャン−ジャック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dassault Systemes SE
Original Assignee
Dassault Systemes SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dassault Systemes SE filed Critical Dassault Systemes SE
Publication of JP2016091553A publication Critical patent/JP2016091553A/ja
Application granted granted Critical
Publication of JP6704238B2 publication Critical patent/JP6704238B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Description

本発明の技術分野は、ターゲットオブジェクトの写真から物理的オブジェクトの3Dモデル表現のテクスチャマップを作成することに関する。
多くの消費者製品は、箱型、円筒形など、限られた数の汎用可能な形状に分類することができる、比較的単純な形状を有する。汎用形の消費者製品を所与とすると、その製品またはオブジェクトのデジタル表現は、対応するサイズ、形状、および外観に作成することができる。特に、デジタル表現は、(i)目的とする汎用形の形状を成す3Dモデルの1または複数の次元をスケールすること、および(ii)消費者製品の外面の画像を3Dモデルの表面に適用することによって作成される。このような3Dモデルをオブジェクトの較正された2D画像から生成する自動化された方法は、米国特許第8,570,343号明細書に開示されている。
消費者製品の一般的なサイズおよび形状とは異なり、製品のテクスチャおよび外観は、典型的には、個別の製品が他の製品とその個別の製品を見分けるのに十分固有である。製品の正確なデジタル表現を作成するために、製品のテクスチャをキャプチャして、対応する3Dモデルに適用する、テクスチャマッピングとして知られるプロセスを行わなければならない。典型的には、オブジェクト(製品)のテクスチャマップを生成するために、オブジェクトの画像は、異なる角度からキャプチャされ、その後ステッチされて、対応する3Dモデルの表面にマッチする形状をとる2Dテクスチャマップを形成する。消費財の多くの小売り業者が100万個以上に上る固有の製品を有することを所与とすると、それらの在庫のデジタル表現の作成は、製品毎にテクスチャマップを取得して生成することを伴う、多大な労力を要する可能性のあるタスクである。オブジェクトの3D表現が低コストで大容量となるように、現実世界のオブジェクト(製品)のテクスチャマップを取得して、デジタル化する必要がある。
米国特許第8,570,343号明細書
本発明の実施形態は、オブジェクトの画像からオブジェクトの3Dモデルのテクスチャマップを作成するための方法および装置を提供する。テクスチャマッピングされる3Dモデルは、限定されるわけではないが、オンラインショッピング/ビューイングおよびビデオゲーミングを含む、3D Interactive Experiences and 3D Interactive Simulationsのコンテンツ作成を可能にすることができる。
本発明の例示的な実施形態は、ターゲットオブジェクトを見る視野(a field of view)の画像をキャプチャすることを備える方法である。キャプチャされた画像は、(i)ターゲットオブジェクトのダイレクトビュー(direct view)、および(ii)少なくとも1つの反射面からターゲットオブジェクトの1または複数の反射ビュー(reflected views)を作り出す少なくとも1つの反射(反射像)(reflection)を有する。キャプチャされた画像のダイレクトビューは、ターゲットオブジェクトのダイレクト画像(direct image)と呼ばれ、反射ビューは、ターゲットオブジェクトの反射画像(reflected image)と呼ばれる。方法はさらに、キャプチャされる画像のターゲットオブジェクトのダイレクト画像から反射画像を分離すること、反射画像の歪みを低減して少なくとも1つの歪みが低減された反射画像(distortion-reduced reflected image)を提供すること、ターゲットオブジェクトのダイレクト画像およびターゲットオブジェクトの歪みが低減された反射画像から少なくとも1つのテクスチャマップを生成すること、およびターゲットオブジェクトを表す3Dモデルにテクスチャマップを投影することも含む。
反射画像の歪みを低減することは、反射画像をターゲットオブジェクトのサイズでスケールすること、反射画像の射影歪みを補正すること、および少なくとも1つの反射面の(ターゲットオブジェクトの視野の)位置およびターゲットオブジェクトの形状に基づいて反射画像を再形成することのうちの少なくとも1つを含むことができる。
方法は、ターゲットオブジェクトが第1の位置から第2の位置に移動するときにターゲットオブジェクトの複数の画像(恐らく、異なる視野)をキャプチャすること、および複数の画像から複数のテクスチャマップを生成することをさらに含むことができる。
いくつかの実施形態において、ターゲットオブジェクトのダイレクト画像と反射画像との間、および第1の反射画像と第2の反射画像との間のオーバーラップを検出することをさらに含むことができる。いくつかの実施形態において、方法は、検出されたオーバーラップをキャプチャされた画像から除去することをさらに含むことができる。
別の実施形態において、方法は、ターゲットオブジェクトの動きを検出すること、ターゲットオブジェクトの検出された動きを3Dモデルと相関させて3Dモデルの対応する動きを生成すること、および3Dモデルの対応する動きに基づいて、3Dモデルを対応する第1の位置から対応する第2の位置までのアニメーションにすることを含む。
いくつかの実施形態において、キャプチャされる画像のターゲットオブジェクトの反射画像を分離することは、キャプチャされる画像の歪みの領域を検出すること、および検出される領域をターゲットオブジェクトの反射画像とするフラグを立てることを含む。
一実施形態において、反射面は、ターゲットオブジェクトの第1の反射面と第2の反射面、および対応する第1と第2の反射ビューを含む。反射画像は、第1の反射ビュー(第1の反射画像と呼ばれる)と第2の反射ビュー(第2の反射画像と呼ばれる)を含む。いくつかの実施形態において、ターゲットオブジェクトの第1と第2の反射ビューおよびダイレクトビューは、ターゲットオブジェクトの少なくとも周囲(circumference)の一部を観察する。
別の実施形態において、反射面は、第1の反射面、第2の反射面、および第3の反射面を含む。少なくとも1つの反射は、第1の反射面からのターゲットオブジェクトの第1の反射ビュー、第2の反射面からのターゲットオブジェクトの第2の反射ビュー、および第3の反射面からのターゲットオブジェクトの第3の反射ビューを含む。反射画像は、第1の反射ビューの第1の反射画像、第2の反射ビューの第2の反射画像、および第3の反射ビューの第3の反射画像を含む。いくつかの実施形態において、第3の反射ビューがターゲットオブジェクトの上面または底面を画像形成する(image)間に、ターゲットオブジェクトの第1と第2との反射ビューおよびダイレクトビューがターゲットオブジェクトの少なくとも周囲の一部を観察する。
別の例示的な実施形態は、単一の画像のターゲットオブジェクトから3Dモデルのテクスチャマップを生成するためのシステムである。システムは、(視野を有する)カメラ、カメラの視野の1または複数の反射面、および画像処理デバイスを備える。1または複数の反射面は、ターゲットオブジェクトの1または複数の反射面がカメラに映るように位置付けされる。カメラは、(i)ターゲットオブジェクトのダイレクト画像、および(ii)ターゲットオブジェクト反射画像(複数)を有する単一の画像をキャプチャする。画像処理デバイスは、キャプチャされた画像のターゲットオブジェクトの1または複数の反射画像を分離し、1または複数の反射画像の歪みを低減し、およびターゲットオブジェクトの形状、ダイレクト画像および歪みが低減された1または複数の反射画像に基づいて、テクスチャマップを生成する。1または複数の反射画像の歪みを低減することは、視野のターゲットオブジェクトのサイズに対応するように反射画像をスケールすることを含むことができる。画像処理は、ダイレクト画像から歪みを除去できる。
キャプチャされる画像のターゲットオブジェクトのダイレクト画像から1または複数の反射画像を分離することは、キャプチャされる画像の歪みの1または複数の領域を検出すること、および検出される領域をターゲットオブジェクトの反射画像とするフラグを立てることを含むことができる。
一実施形態において、画像処理デバイスは、ダイレクト画像のいずれかと反射画像との間のオーバーラップを検出し、そして検出されたオーバーラップをキャプチャされた画像から除去する。
いくつかの実施形態において、カメラは、ターゲットオブジェクトが第1の位置から第2の位置に移動するときに視野の複数のキャプチャされる画像を生成し、そして画像処理デバイスは、複数の画像から複数のテクスチャマップを生成する。
いくつかの実施形態において、画像処理デバイスは、ターゲットオブジェクトの動きを検出し、ターゲットオブジェクトの検出された動きを3Dモデルと相関させて3Dモデルの対応する動きを生成し、そして3Dモデルの対応する動きに基づいて、3Dモデルを対応する第1の位置から対応する第2の位置までのアニメーションにする。
前述の説明は、同種の参照符号が異なる図にわたって同種の部分に相当する、添付図面で説明されるように、発明の例示的な実施形態のより詳細な説明によって明らかとなる。
図面は、必ずしも原寸に比例したものではなく、本発明の実施形態を図示することに重点を置いている。
開示された実施形態の態様による本発明の3ミラー画像キャプチャシステムを示す概略図である。 開示された実施形態の態様によるバッフルを有する画像キャプチャシステムを示す概略図である。 開示された実施形態の態様によるオブジェクトおよび3ミラー画像キャプチャシステムによってキャプチャされた結果として生じる画像の図である。 開示された実施形態の態様によるオブジェクトおよび3ミラー画像キャプチャシステムによってキャプチャされた結果として生じる画像の図である。 開示された実施形態の態様による図3のキャプチャされた画像におけるキーストーンの検出および除去の図である。 開示された実施形態の態様による図3のキャプチャされた画像におけるキーストーンの検出および除去の図である。 、開示された実施形態の態様によるミラーのサイズおよび位置を使用して反射画像セグメントをスケールする図である。 開示された実施形態の態様によるミラーのサイズおよび位置を使用して反射画像セグメントをスケールする図である。 開示された実施形態の態様による反射セグメントをオブジェクトサイズでスケールする図である。 開示された実施形態の態様による反射セグメントをオブジェクトサイズでスケールする図である。 開示された実施形態の態様によるスケーリングおよび位置合わせされる画像セグメントの図である。 開示された実施形態の態様によるスケーリングおよび位置合わせされる画像セグメントの図である。 開示された実施形態の態様によるターゲットオブジェクトの共通領域の2つの反射の図である。 2つのミラーおよびそれらの交線の概略図である。 開示された実施形態の態様によるターゲットオブジェクトの共通領域の2つの反射の図である。 開示された実施形態の態様によるターゲットオブジェクトの共通領域の2つの反射の図である。 開示された実施形態の態様による共通表面を作成するためのオーバーラップ消去の図である。 開示された実施形態の態様による共通表面を作成するためのオーバーラップ消去の図である。 開示された実施形態の態様による共通表面を作成するためのオーバーラップ消去の図である。 開示された実施形態の態様による図7Bのスケーリングされ、位置合わせされる反射セグメントと図9Cのマージされる共通境界とを含む画像の図である。 開示された実施形態の態様による図10Aの画像から作成されるテクスチャマップの図である。 開示された実施形態の態様による円筒形のオブジェクトの図である。 本発明の実施形態によって作成される、図11Aの円筒形のオブジェクトを画像形成するテクスチャマップの図である。 本発明の3ミラー実施形態の態様による移動オブジェクトの複数の画像キャプチャのうちの1つの図である。 開示された実施形態の態様による図12Aの移動オブジェクトの画像から生成されるテクスチャマップおよび関連するベクトルである。 開示された実施形態の態様による図12Aの移動オブジェクトの3Dモデルおよび関連する並進および回転ベクトルである。 開示された実施形態の態様による画像からテクスチャマップを生成するフローチャートである。 開示された実施形態の態様による画像からテクスチャマップを生成するフローチャートである。 本発明の実施形態を実施する例示的なコンピュータネットワークの図である。 本発明の実施形態を実施する例示的なコンピュータネットワークの図である。
発明の例示的な実施形態の説明は、以下の通りである。
本明細書に記載の全ての特許、公開された出願および引用文献の技術は、その全てが参照により組み込まれる。
コンピュータ3Dモデリング技術は、店内を双方向の、3Dシミュレーションで表示するための3Dパッケージ化された商品を構築するために使用されている。特に、3Dモデリングは、エンドユーザが製品およびその/シェルフのコンテキストを見る仮想体験、および製品包装の文字をオンラインで見て読むために製品を「手に取る(picking up)」仮想体験を実装するために使用されている。
店内で表示するためにパッケージ化された商品の3Dモデルが構築されるアプリケーションにおいて、3Dモデルコンテンツおよびテクスチャマップシェルフまたはパッケージ化された商品を構築する2つのストラテジーが使用されている。
第1のストラテジーは、周知の汎用モデリングアプリケーションを使用して写真および製品測定情報から3Dモデルの手動作成を使用した。より多い数の3Dモデルを系統的に作り出すワークフローが計画されて編成され得るが、作業単位はなおも、形状の手動モデリングおよびテクスチャマップの手動作成に基づく。
第2のストラテジーは、汎用の写真ベースの3Dモデリングアプリケーションを使用した。物理的オブジェクトから3Dモデルを作成する一般的な問題を解決するさまざまな市販のソフトウェアおよび手法が存在する。標準のデジタルカメラを使用した、既存の手法は、現実世界のオブジェクトを完全にテクスチャ化された3Dモデルとしてキャプチャする。
製品(パッケージ化された商品)の汎用写真モデリングは、少数の製品モデルを作り出すのに適している。この技術の主な制約は、複数のデジタル写真から作成された3Dモデルが欠陥を補正してオンライン3Dアプリケーションで使用される形状を再スケールするためにかなりの手作業を要することである。既存の解決策の制約は、コンピュータアプリケーションで使用される3Dモデルを処理するために必要な手動による(専門の3D技術者の)仕事量に基づく。各モデルは、(複雑な、汎用3Dモデリングアプリケーションにおいて)部分的または全てを手で作成されなければならないので、このプロセスに基づく任意のモデリングワークフローは、スケーラブルでない。
写真モデリングシステムに基づく3Dモデルで観察される第2の問題は、幾何学的メッシュの不規則性である。不規則なメッシュは、モデルのダウンストリームリサイジング/処理を難しくし、そのワークフローをモデルコンテンツの後の手動編集および手動調整のサイクルの中に組み込ませる(lock)。
先行技術の不利な点は、コンテンツ制作プロセスにおける3Dモデルのダウンストリーム編集への依存である。これは、入力データが新しい画像に連続的に更新され、そして出力仕様がオンライン買い物客の体験アプリケーションの新しい要件/改善によりシフトし得るため問題である。手動編集への依存は、コンテンツ制作を連続した手編集のサイクルの中に組み込ませる。
先行技術のこのような欠陥に対処する1つのストラテジーは、標準化された3Dモデルを利用することである。同様のタイプの異なる製品における広範な類似性を所与とすると、汎用3Dモデルを製品の多くの異なるカテゴリの形状に近似するように作成することである。これらの汎用3Dモデルは、現実世界の製品の較正画像に基づいてスケールされることができ、そして個別のテクスチャマップをスケールされるモデルに適用して製品を表すことができる。
現実世界のオブジェクトからテクスチャマップを作成する先行技術のデバイスおよび方法は、典型的には、オブジェクトの複数の写真を取得し、そのオブジェクトは、複数の写真が3Dモデルの表面にマッチするようにステッチされるときにオブジェクトの完全なテクスチャマップを作成するために各写真間で再配置される。2つの写真を使用する先行技術のシステムが最も単純であり、平板のような、いくつかのオブジェクトは、2つの側だけで効率的に撮影することができる。体積を有するオブジェクトは、2つの写真がステッチされる領域の歪みの理由で、現実世界のオブジェクトと2つの画像のみから作成されるテクスチャマップされた3Dモデルとの間の不一致が発生する。2つの写真(two-photograph)を用いたシステムにおいて、カメラとオブジェクトの表面との間の浅い角度から生じる歪みは最大になる。また、立方体のような、現実世界のオブジェクトの一定の形状は、例えば、面に垂直であり、2つの画像システムがオブジェクトの周辺部の半分を観察することを阻む、特定の方向を有する。オブジェクトが単一の主垂直軸を有する場合および水平断面が円形または凸状を有する場合、2つの画像を使用する先行技術のシステムは、歪んだ結果となる。このようなシステムは、前方の画像と後方の画像を使用する。典型的には、前方画像と後方画像が接合するモデルの左領域と右領域が継ぎ目となる、3Dモデルのテクスチャは、歪曲する。
現実世界のオブジェクトの付加的な写真は、全ての表面が画像形成されるようにできることによって、および個別の画像間のオーバーラップを増加させることにより画像の継ぎ目の歪みを減少させることによって、デジタル表現を改善する。他の先行技術システムは、ターゲットオブジェクトの複数の画像を正確にキャプチャするために回転テーブルまたは回転テーブルの付いた伸縮式アームを用いる。しかしながら、このような回転テーブルシステムは、ターゲットオブジェクトをテーブルの中央に配置するために高度な精度が要求され、それによりそのようなシステムの時間および複雑度が増す。単一のカメラから撮られ、およびターゲットオブジェクトをカメラの視野に正確に配置する必要なく撮られた単一の画像からオブジェクトのテクスチャマップを作成するテクスチャマッピングシステムの必要性が存在する。
出願人によって本明細書で開示される本システムおよび対応する方法は、単一のカメラを用いて単一の画像のターゲットオブジェクトの複数のビューをキャプチャして、ターゲットオブジェクトの形状と同様の形状を有する3Dモデルのテクスチャマップを作成する。
図1は、本発明の3ミラー画像キャプチャシステム(three-mirror image capture system)の実施形態を示す概略図である。画像キャプチャシステム100は、カメラ110、ミラー120a、b、c、および画像プロセッサ150を含む。図1は、カメラ110の視野111およびその中(カメラ110の視野111内)に位置付けされる3つのミラー120a、b、cを示している。より詳細には、ターゲットオブジェクト130は、カメラの視野111に位置付けされ、そして2つのミラー120a,bは、カメラの視野111のターゲットオブジェクト130の両側に位置付けされる。第3のミラー120cは、ターゲットオブジェクト130の上方に位置付けされる。この構成を用いて、カメラ110は、ターゲットオブジェクト130の単一画像の前方ビュー、上部ビュー、および周辺部ビュー(複数)をキャプチャする。ターゲットオブジェクト130の底面は、キャプチャされない。
ミラー120a−bは、カメラの視野111の中に視界122a−bを加える(結びつける)。各ミラー120a−bは、ターゲットオブジェクト130の周辺部の一部をカメラ110に映す。上部ミラー120cは、オブジェクト130の上面を含むビューがカメラ110に映るように位置付けされる。
動作において、カメラの視野111は、カメラ110がオブジェクト130の前方画像と、ミラー120aおよび120bからのオブジェクト130の2つの反射画像121a−bとを一緒にキャプチャするようにさせる。第3の反射画像(図示せず)は、上部ミラー120cによってカメラ110に提供されることによって、オブジェクト130の上面がカメラの視野111において可視となるようにできる。従って、カメラ110は、(視野111の)単一のデジタル画像のオブジェクト130のダイレクトビューとオブジェクト130の3つの反射ビューをキャプチャする。
画像プロセッサ150は、カメラ110からデジタル画像を受信するために結合されている。キャプチャされたデジタル画像(即ち、視野111の画像)は、カメラ110によって出力され、そして入力として画像プロセッサ150によって受信される。その後、図3−11で詳述するように、画像プロセッサ150は、オブジェクト130のテクスチャマップを作成する。
図2は、バッフルを有する画像キャプチャシステムを示す概略図である。図2は、ターゲットオブジェクト230の前方ビューおよび反射ビュー225a−bを含む単一の画像(図3Bの300)を作成するために、カメラ210の視野211の2つのミラー220a−bを用いる画像キャプチャシステム200を示している。図示された画像キャプチャシステム200において、カメラ210は、テクスチャ化されるターゲットオブジェクト230に正面を向けている。ターゲットオブジェクト230は、表面202に配置され得る。2つのミラー220a−bは、既知の角度でターゲットオブジェクト230の後ろの表面202に位置付けされてもよく、各ミラー220a−bは、ターゲットオブジェクト230の前方のダイレクトビューが視野211のカメラ210において可視であることを妨げずに、ターゲットオブジェクト230の反射ビュー225a−bをカメラ210に送信する。各反射ビュー225a、bは、ターゲットオブジェクト230の後方の一部および両側をカメラ210に提供する。カメラ210は、視野211の画像(図3Bに示す)をキャプチャして、その画像をオブジェクト230のテクスチャマップを作成する画像プロセッサ250に提供する。
ミラー220a−bがターゲットオブジェクト230の反射ビュー225a−bよりも広いビューを反射するので、破線(ビュー222a−bのミラー視野として示す)は、各ミラー220a−bの最大反射角度(したがって、全体のビュー)を表す。2つの白いバッフル240a−bは、カメラ210によって画像形成された視野211を簡素化する。第3のミラー(図示せず)がオブジェクト230の上部より上の後方で使用されると、第3のミラーは、ターゲットオブジェクト230の前方画像を妨げることなく、ターゲットオブジェクト230の上部と後方の一部の画像を反射する。2つのバッフル240a−bは、ミラー220a−bの視野222a−bに位置付けされて、カメラ210の視野211のミラー220a−bの反射ビュー225a−bの周りの背景を作成する。バッフル240a−bは、例えば、ターゲットオブジェクト230に見られるどの色とも異なる同一色の特徴のない表面を提供することによって、視野211の反射ビュー225a−bの検出を改善する。さらに、これによって、画像プロセッサ250がカメラ210からキャプチャされた画像のターゲットオブジェクト230を容易に特定できるようになる。
ミラー220a−bに対するカメラ210の位置が固定されて既知であるので、カメラ210によってキャプチャされる画像の各ピクセルは、例えば、反射ビュー225a−bの、ターゲットオブジェクト230からミラー220a−bまでの既知の入射光またはターゲットオブジェクト230の表面のいずれかに位置付けされるポイントに対応する。ターゲットオブジェクト230の一部が2つの反射ビュー225a−bの接合部において2倍に表されるような、ミラー220a−bの画像間のオーバーラップ270がある。これによって、ターゲットオブジェクト230のテクスチャが同様の形状の対応する3Dモデルを連続的にラッピングするようにできる。さらに、ミラー220a−bがターゲットオブジェクト230の投影しか見ないので、オーバーラップ270は、必ずしも存在するわけではないエッジを示す傾向がある。ミラー220a−bの2つの反射ビュー225a−b間のオーバーラップ領域270のターゲットオブジェクト230の表面は、これら2つのミラー220a−bへの入射光の交差点にある。画像プロセッサ250は、オーバーラップ270を判定することができ、最適に定義されたオーバーラップがテクスチャマップに選択され得る。カメラ220とミラー220a−bの位置が固定されることによって、ターゲットオブジェクト230の3Dの形状がオーバーラップ領域270において判定されるようにできる。この検出された3Dの形状を使用してスケールし、そしてターゲットオブジェクト230の対応する汎用3Dモデルの形状からアフィン関数を適用できる。被写界深度のどのような問題も、ターゲットオブジェクト230とミラー220a−bの視野211の反射ビュー225a−bとの両方に焦点を合わせるのに絞りを十分小さく設定したカメラレンズ(図示せず)を使用することによって対処される。
ターゲットオブジェクト230からカメラまでの距離は、その距離がオブジェクトの高さまたは幅など、オブジェクトの既知の測定から推定することができるので、重要ではない。言い換えれば、カメラ210に対するターゲットオブジェクト230の位置は、既知の測定から近似することができる。さらに、カメラ210に対するターゲットオブジェクト230の方向は、重要ではない。なぜならば、画像プロセッサ250は、生成されたテクスチャマップを対応する汎用3Dモデルの表面に基づいて調整するからである。有利には、オブジェクトが回転テーブルのちょうど中央に位置付けられることを要求する回転テーブルを用いる先行技術のシステムと比べて、図示された画像キャプチャシステム200は、ターゲットオブジェクト230の偏心配置の耐性がかなり高い。
図3A−図3Bは、開示された実施形態の態様によるターゲットオブジェクト330および3ミラー画像キャプチャシステムによってキャプチャされた結果として生じる画像300の図である。図3Aは、可視の前面(F)、右面(R)および上面(T)と、不可視の左面(L)および後面(B)を含む直方体の形状を有するターゲットオブジェクト330を示している。オブジェクト330は、例えば、消費者製品を包含する箱または6つの側面を有する同様の形状の任意の汎用消費者包装を表す。図3Bは、図1および図2に示したシステムと同様である画像キャプチャシステム100、200を用いて撮られた、ミラーに正面を向けている付加的な上部を有するターゲットオブジェクト330のデジタル画像300である。デジタル画像300は、オブジェクト330の前方正面Fの同一背景311およびダイレクトビュー312を含む。画像300において、右のミラー反射325a、左のミラー反射325b、および上部のミラー反射325cは、オブジェクトのダイレクトビュー312の周囲に存在する。ミラー反射325a−cのロケーションは、カメラの視野のミラーの物理的ロケーションに対応する。右のミラー反射325aは、ターゲットオブジェクト330の右(R)および後面に対する右の反射ビュー330aを含む。左のミラー反射325bは、ターゲットオブジェクト330の左(L)および後面に対する左の反射ビュー330bを含む。上部のミラー反射325cは、ターゲットオブジェクト330の上部(T)および後面に対する上部の反射ビュー330cを含む。前方ビュー312と比べて、ターゲットオブジェクトの反射ビュー330a−cは、ミラーの角度による射影歪みおよび長さ圧縮を含み、そしてカメラまでの距離の増加によるスケーリング効果を含む。
図4A−図4Bは、開示された実施形態の態様による図3Bの例示的なキャプチャされた画像300を使用する射影補正およびミラーリングの図である。図4Aは、図3Bに示したキャプチャされた画像300と同様のデジタル画像400を示しているが、ターゲットオブジェクト330の前方正面のダイレクトビュー(図3Bの312)を除いている。それぞれがアウトラインで描かれたミラー反射325a−cのターゲットオブジェクトの反射ビュー330a−cは、キーストーン歪みまたは射影歪みとしても既知である、負のキーストーン効果を含む。この効果は、説明目的のために図3Bおよび4Aにおいて非常に誇張されている。画像処理の前に、画像プロセッサ150、250は、キャプチャされた画像400の背景311を削除して除去し、ターゲットオブジェクトの反射ビュー330a−cとターゲットオブジェクトのダイレクトビュー(図示せず)のみを残すようにする。
ミラー反射325a−cおよび反射ビュー330a−c(または各ミラーによって反射されるオブジェクトの画像)に存在するキーストーン効果は、カメラに対する各ミラーの角度の結果である。そのミラーとカメラの角度 (mirror-camera angles)は、カメラのレンズによって受信されるときにオブジェクトの歪曲した反射をもたらす。例えば、カメラ110、210に対してある角度をなして位置付けされるミラー120、220による正方形オブジェクトの反射(反射画像121a−b、225a−b)は、台形の形状をしている。画像プロセッサ150、250は、反射画像121a−b、225a−bの短い側、即ち、ミラー反射325a−cのエッジまたはカメラから最も遠い反射ビュー330a−cを拡大することによって、または反射画像121a−b、225a−bの長い側、即ち、ミラー反射325a−cのエッジまたはカメラから最も近い反射ビュー330a−cを縮小することによって、このような射影歪みを消す。図4Bの例において、画像プロセッサ150、250は、射影補正を反射画像ビュー330a−cに適用した結果、作業デジタル画像401の射影歪みのない画像431a−cが生じる。射影歪みを取り消した後、画像プロセッサ150、250は、ターゲットオブジェクト330の歪みのない画像431a−c、例えば、右側のミラー反射426(図4B)の右と左を反転させる。結果として、画像プロセッサ150、250は、作業画像401にターゲットオブジェクト330の適正なテクスチャおよびアウトラインを生成する。
図5A−図5Bは、開示された実施形態の態様によるミラーの位置を使用して反射画像セグメントをスケールする画像プロセッサ150、250の図である。図5Aは、射影補正およびミラーリングが適用された(図4Bの)作業画像401を示している。ミラー反射426は、ターゲットオブジェクト330に対して関連するミラーの位置のため、ターゲットオブジェクト330の後ろの位置からオブジェクトの右正面ビュー431aを反射する。従って、ターゲットオブジェクトの後面は、右正面ビュー431aにおいて可視の状態にある。図5Aのミラー反射426の座標499で示すように、ミラー反射426は、(i)カメラの視野の中心線に平行であるミラー反射426の視野と、(ii)カメラの視野の中心線に垂直なX−Y平面を用いて方向付けられる。任意選択で、X軸、Y軸およびZ軸に対してミラー反射426の既知の位置を所与とすると、ミラー位置の調整は、Y−Z平面のターゲットオブジェクトの表面の補正形を近似してターゲットオブジェクトの反射ビューを形成することができる。ミラーの既知の位置を使用する同様の補正は、ターゲットオブジェクトの全ての反射ビュー431a−cに適用され得る。作業画像401に関して、ミラー位置の補正は、適切である。なぜならば、例えば、ターゲットオブジェクトの右正面は、Y−Z平面599におよそ平行であることが既知であるからである。
図5Bは、図5Aの作業画像401に対応するデジタル画像501を示しているが、ミラー位置の調整補正がターゲットオブジェクトの上面、右面、および左面の反射ビュー532a−cに適用されている。この補正は、各反射ビュー532a−cのターゲットオブジェクトの後方の反射ビューを不正解に歪曲しているが、ターゲットオブジェクトの右表面、上表面、および左表面の反射ビュー532a−cは現在、およそ正しい形状である。さらに、3D空間ロケーションの任意のオーバーラップ領域の表面、例えば、ターゲットオブジェクトの後面は、画像プロセッサ150、250によって正確に判定されることができ、それらの領域のどの歪みもプロセスの後の段階で補正することができる。
図6A−図6Bは、開示された実施形態の態様による画像をオブジェクトサイズでスケールする画像プロセッサ150、250の図である。図6Aは、ミラー位置で補正された反射ビュー532a−cを有する図5Bのデジタル画像501を示しており、さらに図3Bからのダイレクト前方ビュー312を包含する。反射ビュー532a−cは、光が反射面からカメラまでの距離をさらに進むことにより、ダイレクト前方ビュー312よりも小さいビューとしてデジタル画像501に存在する。
図6Bは、(図6Aの)反射ビュー532a−cと隣接前方ビュー312のエッジ検出に基づいて画像プロセッサ150、250のスケーリング動作を表す対応するデジタル画像601を示している。検出される3つの隣接エッジ662a−cは、532a−cから632a−cまでの反射ビューをダイレクト前方ビュー312の隣接エッジのサイズでスケールするために使用される。この動作は、ダイレクト前方ビュー312と隣接反射ビュー532a−cとの間でオーバーラップ領域が検出されない場合、適切である。オーバーラップ領域が存在しないことにより、ターゲットオブジェクトは正しく、エッジペア662a−cを包含し、そうでない場合、結果として生じる反射ビュー632a−cとダイレクト前方ビュー312との間でギャップが存在する。しかしながら、ギャップの存在は、ターゲットオブジェクトの実際のエッジを表現している可能性が高いことおよび反射ビュー632a−cが、図示されているように、ダイレクト前方ビュー312の隣接エッジ662aのサイズで適正にスケールされるよりも、エッジペア662a−cの類似度、即ち、エッジペア662aの要素(members)が同様であり、位置が合っているかどうかを比較することによって判定することができる。
図7A−図7Bは、開示された実施形態の態様による作業画像501、601において画像プロセッサ150、250によりスケーリングおよび位置合わせされた反射ビューを図示している。図7Aは、画像プロセッサ150、250によるオーバーラップ検出処理を用いた図6Bのデジタル画像601を示している。画像プロセッサ150、250は、(図6Bの)エッジペア662a−cを図7Aの共通領域ライン760a−cとして検出する。共通領域ラインは、異なるスケーリングおよび歪みを有する場合もあるが、2以上の画像セグメントのターゲットオブジェクトの同一部分(ターゲットオブジェクトの反射ビュー632a−cとダイレクトビュー312とも呼ばれる)を表すために現れる、恐らくわずか1ピクセルの太さの画像セグメントである。それに従って、上部反射ビュー632cの既知の位置を所与とすると、画像プロセッサ150、250は、垂直な共通領域ライン760d−eを検出する。右反射ビュー632aと左反射ビュー632bは、ターゲットオブジェクト770a−bの後方の反射ビューを包含し、これらの領域において、画像プロセッサ150、250は、以下の図8Aおよび図8Bでさらに説明されるように、共通領域761a−bの対応するペアを検出する。検出された共通領域761a−bの存在により、周囲の画像セグメント/反射ビュー632a−bを、トリミングが必要になり得るオーバーラップ可能な領域とするフラグが立つ。
図7Bは、画像プロセッサ150、250がターゲットオブジェクトのダイレクト前方ビュー312を用いて(作業画像601の反射ビュー632a−cからの)反射ビュー733a−cの位置合わせをするためにオーバーラップエッジ760a−cを使用するデジタル画像701を示している。画像プロセッサ150、250は、反射ビュー733a−cとダイレクト前方ビュー312をそれらの共通エッジ760a−cに沿ってステッチして、単一の作業画像701を作成する。結果として生じる作業画像701は、デジタル画像において可視であるターゲットオブジェクトの全体を表すが、各領域が2以上の両視点(both of two or more perspectives)から見られるターゲットオブジェクトの同じ領域のビューを反射する、共通領域761a−bを包含する。
図8Aは、開示された実施形態の態様によるターゲットオブジェクトの共通領域の2つの反射の図である。オーバーラップの消去は、開示された画像処理技術によって自動的に処理される。ミラー(図1の120a−b)に対するカメラ(図1の110)およびカメラのセンサの相対的な位置は、固定されて既知であり、カメラに対する各ミラーのヨーとピッチを含む。カメラの位置および反射ミラーの位置および方向は、ターゲットオブジェクトとは無関係に設定される。所与のミラーに対し、カメラ110の(図1の)視野111内の任意のポイントは、(図1の)オブジェクト130からミラーへの(図1の)入射光122a−bに位置付けされるポイントに対応する。その入射光の位置および方向は、カメラ110およびミラー120a−bの位置が固定されているため、既知である。関連するミラーを使用してカメラからミラーまでの(図1の)反射光121a−bが反射されると、入射光122a−bの光は、関連するミラーに対するカメラの位置および方向で完全に定義される。(図1の)カメラ110のCCDのピクセルから開始してレンズを通る光線は、単一の一意に定義された入射光を反射する関連するミラー120a−bにぶつかる。これは、カメラの視野の各特定のミラーからの反射画像(121a−b)の各ピクセルに対して当てはまる。
任意の2つのミラー220a−b間の(図2の)潜在的なオーバーラップ領域は、固定され、カメラまたはミラー位置の幾何学的制約によって判定される。2つのミラーの(図2の)反射ビュー225a−bがオブジェクトのカバレッジでオーバーラップすると、オーバーラップ270のオブジェクトの表面に対応する画像ポイントは、2つのミラーへの入射光の交差点である。以下の2つの事例が起こり得る。
図8Aに示した、第1の交差点の事例において、2つのミラー820a−bは、反射827a−bを有し、各反射は、オブジェクト830の表面の共通領域861a−bの反射ビュー832a−bを包含する。言い換えれば、ミラー820a−bの反射は、カメラ(図示せず)に可視であるターゲットオブジェクト830の表面の少なくとも1つのポイントで交差する。交点の3D空間の位置は、上記で説明したように、第2のミラー820bが第1のミラー820aと同じポイントの一部を反射する、幾何学的制約によって判定可能である。
そして第2の交差点の事例において、2以上のミラーは、例えば、ミラーのうちの1つが、そのミラーが他のミラーによって見られる同じポイントを見ることを阻むオブジェクトの凹凸によって塞がれると、オブジェクトの表面のどの共通のポイントも反射しない。ミラーの視野光線は、交差する場合もあるが、オブジェクトの表面では交差しない。
結果として、2以上のミラー間のオーバーラップ領域は、2つの可能なタイプの領域を有する。第1の領域タイプの、共通領域861a−bは、第1の交差事例から作成される。第1の領域タイプは、2つのミラー820a−bが、カメラの視点から、同じポイントを反射するか、またはターゲットオブジェクト830の表面から、共通領域861a−bを反射する領域である。共通領域861a−bは、ターゲットオブジェクト830の表面のポイントで完全に作成され、上記で説明したように、第1の交差事例を満たす。ターゲットオブジェクト830の3Dの形状および共通領域861a−bの3Dの形状は、正確に判定可能である。共通領域861a−bは、オブジェクトの対応する3Dモデルの汎用形をスケールしてアフィン関数を適用するのに役立つことができる。さらに、ターゲットオブジェクト830のオーバーラップ領域870a−bの反射ビュー832a−bのうちの1つのみがテクスチャマップに選択され得る。典型的には、画像プロセッサ150、250は、共通領域861a−bのより大きい画像が可視のオブジェクト表面のより高い解像度ビューを表すため、2つの表現のうちより大きい方を選択する。いくつかの事例において、図9Aで後に示すように、共通領域861a−bの一部は、解像度に基づいて両方の反射ビュー832a−bから選択される。
第2の領域タイプの、オーバーラップ領域870a−bは、ミラーA820aの視野821aの一部がミラーB820bの視野821bで見られるものと同じ領域の対応する一部とは異なるビューを包含する場合に作成される。この状況は、例えば、オブジェクトの表面に存在する反射、遮蔽、2つのミラー820a−b間の角度差、またはオブジェクトの表面領域が異なるミラー位置から見られるものと同じ表面であると検出されることを阻止する他の状況から生じ得る。一般的に、オーバーラップ領域870a−bは、両方のミラー820a−bによって反射されるターゲットオブジェクト830のエリアであるが、共通領域861a−bとして検出されないエリアである。画像プロセッサ150、250は、2つのミラー820a−bのうちの1つのみからのオーバーラップ領域870a−bをテクスチャマップ用に保持できる。画像プロセッサ150、250は、以下で説明されるように、ミラー交差点に対するオーバーラップ領域870a−bのロケーションか、または結果として生じるテクスチャマップの品質を改善できる他のパラメータ、例えば、反射または照明によるハイライトを消去するパラメータに基づいてこの選択を行うことができる。
図8Bは、2つのミラーとそれらの交線の図である。図8Bは、2つのミラーの投影890a−bの交差点において交差してミラーの交線891を定義する2つのミラー投影890a−bを図示している。この例において、ミラー投影890a−bおよびそれらの交線891は、例えば、カメラの視野のミラーの方向(図示せず)に従って、2D投影と表される。2つのミラー投影890a−bは、3次元方法で交差することができるが、固定された平面に対するそれらの交差点の任意の2Dスライスの方向、例えば、カメラの視野は一定である。カメラの視野のミラー交線891の方向は、図8Cおよび図8Dに示すように、後続の画像処理の複雑度を低減するために、ターゲットオブジェクト830の複数の反射ビュー832a−bから、(図8Aの)オーバーラップ領域870a−bをトリムするために使用され得る。
概略的に、オーバーラップの消去、マージングおよびステッチングの2つの例示的な実施形態が、それぞれ図8Cと図8Dに示されている。図8Cは、オーバーラップ領域870a−bと共通領域861a−bとの両方を有するターゲットオブジェクト830の2つのミラー反射(画像)827a−bを示している。2つのトリミングラインV1、V2は、共通領域861a−bの反対側に配置されて、ミラー交線(図示せず)付近に方向付けられる。画像プロセッサ150、250は、テクスチャマップに統合して後続の画像処理の複雑度を低減するために、反射ビュー832a−bのトリミングラインV1、V2の外側の画像データを削除または保持(消えかかった線として示す)できる。トリミングラインV1、V2間の画像データに対し、画像プロセッサ150、250は、共通領域861a−bを、それらの判定可能な3Dパラメータによって2つの等しいサイズの領域に再形成し、その後にそれらの画像品質、解像度、または他のパラメータに基づいてそのリサイズされた領域をマージする。定義上オーバーラップ領域870a−bは、それらの3Dパラメータを判定した状態にすることはできないが、それでも図8Dに示される第3のトリミングラインV3によって選択的にトリムされ得る。画像プロセッサ150、250は、オーバーラップ領域870a−bを、それらの画像品質、または、例えば、反射の存在など、他のパラメータに基づいて選択的にトリムする。
図8Dは、オーバーラップ領域870a−bと共通領域861a−bとの両方を有するターゲットオブジェクト830の2つのミラー反射画像827a−bを示している。共通領域861a−bを二等分する単一のトリミングラインV3が配置される。共通領域861a−bの判定可能な3Dパラメータを使用して、画像プロセッサ150、250は、トリミングラインV3を両方の反射画像827a−bの同じ位置に配置することができる。画像プロセッサ150、250は、重複を避けるためにトリミングラインV3の外側の画像データを削除し、そのトリミングラインV3の配置は、例えば、共通領域861a−bまたはオーバーラップ領域870a−bの解像度または画像品質、または他のパラメータに基づくことができる。
より複雑なターゲットオブジェクトの表面の反射は、共通領域861a−bよりも多く包含するオーバーラップ領域を有することもあり、従って、(図8Cの)オーバーラップ領域870a−b単独が、共通領域861a−bを完全には包含しないトリミングラインV1、V2間に存在することが起こり得る。テクスチャマップのオーバーラップ領域870a−bからの保持データは、図8Dに示すように、単一のトリミングラインを使用して判定され得る。
図9A−図9Cは、開示された実施形態の態様による接合表面を作成するためのオーバーラップ消去を図示している。図9Aは、共通領域761a−bを反射するミラーの交差点に平行に方向付けられた2つのトリミングラインV1、V2を有する、図7Bで検出された共通領域761a−bを示している。トリミングラインV1、V2は、共通領域761a−bの反対側に配置されて、共通領域761a−bを処理するために周囲の画像データが除去されている場所を示す。図7Bに示したように、オーバーラップ領域770a−bは、ターゲットオブジェクトの立方形の結果として完全に共通領域761a−bで構成されている。図9Aを続けて、トリミングラインV1、V2の外側の画像データは、図示されたように、共通領域761a−bをマージする複雑度を低減するために、画像プロセッサ150、250によって除去され得る。共通領域761a−bにおいて、比較的高い解像度の領域962a−bが検出されて保持用のフラグが立てられ得る。カメラおよびミラーの既知の位置によって、画像プロセッサ150、250が共通領域761a−bの3次元表面を判定し、そして図9Bに示すように、共通領域761a−bを任意の軸付近に近似に補正する幾何学的投影に変換できるようにする。
図9Bは、図9Aの共通領域761a−bの補正共通領域971a−bを示している。補正共通領域971a−bは、図9Aの共通領域761a−bの判定されたサイズおよび形状によって補正される(図3A−図3Bに示したターゲットオブジェクト330の後面になるように補正される)。それに従って、上記で説明したように、補正されるより高い解像度のセグメント963a−bは、補正共通領域971a−bに保持され、そして画像プロセッサ150、250によって接合されて、図9Cの完全な共通領域を形成する。図9Cは、合成画像セクション934を形成するためにステッチされた補正共通領域(図9Bの971a−b)を示している。結果として生じる合成画像セクション934は、(デジタル画像300および反射325a−bとして図3Bに示した)オリジナルデジタル画像の左反射と右反射に可視であるターゲットオブジェクト830の後方正面の一部を表す。
図10Aは、開示された実施形態の態様による図7Bのスケールされ、位置合わせされる反射セグメントと図9Cのマージされる共通境界とを有する画像の図である。図10Aは、補正されて位置合わせされた右、上部、および左の反射733aをダイレクト前方反射312とマージし、そして図9Cからの合成オーバーラップ領域934を包含するデジタル画像1000を示している。ターゲットオブジェクトの既知の形状、例えば、(図3Aの330に示すような)立方体、および対応する3Dモデルの形状が与えられると、デジタル画像1000の画像セグメントは、対応する3Dモデルの表面を表すテクスチャマップに組み立てられる。図10Bは、図10Aの作業画像1000から作成されて、ターゲットオブジェクト(図3Aの330)を表す立方体の5つの側面を有するテクスチャマップ1001の図である。
図11Aは、対応する3Dモデルの対応するテクスチャマップ1101を作成するために本発明の方法が上記のように適用される円筒形のオブジェクト1130を示している。図11Bは、本発明の実施形態によって作成される、図11Aの円筒形のオブジェクト1130を画像形成するテクスチャマップ1101の図である。(図1に示したように)3ミラーシステムの実施形態を所与とすると、テクスチャマップ1101は、ダイレクト前方ビュー1111、処理された左、右、および上部の反射ビュー1125a−c、および4つのオーバーラップ領域1170a−dから作成される。第1のオーバーラップ領域1170aは、ダイレクト前方ビュー1111と右反射ビュー1125aとの間であり、第2のオーバーラップ領域1170bは、ダイレクト前方ビュー1111と左反射ビュー1125bとの間である。第3のオーバーラップ領域1170cは、右ビュー1125aからの画像セグメントが保持される、右ビュー1125aと左ビュー1125bとの間のオーバーラップの一部を表す。第4のオーバーラップ領域1170dは、左ビュー1125bが保持される、右ビュー1125aと左ビュー1125bとの間のオーバーラップ領域の残りの半分を表す。
図12Aは、開示された実施形態の態様による移動オブジェクトの3ミラーシステムによる複数の画像キャプチャのうちの1つの図である。アニメートされるオブジェクトまたは人物に適用される場合、上記の方法は、リアルタイムに与えられる十分な計算リソースにおいて使用され、結果として生じるモデルは、リモートロケーションに転送されることができる。この方法は、アニメートされるオブジェクトができるだけ長く空間的に連続するようにそれらのオブジェクトをサポートする。それらのオブジェクトが、例えば、画像が別のロケーションの画像にジャンプするなど、不連続であるならば、各オブジェクトの特質のより複雑な判定が要求される。例えば、地図(atlases)とも呼ばれる、オブジェクトの較正されたテクスチャマップが異なるのであれば、どれがどれかを認識する方法が考えられる。それどころか、オブジェクトの地図が同一であれば、どれがどれかを見分けることが不可能になり得る。人物の事例において、人物の対応する3Dモデルを選択することができる。対応する3Dモデルが、例えば、短かすぎるまたは幅が広すぎるなど、適正な形状を有していなければ、その3Dモデルは、カメラによってキャプチャされる画像にスケールされ得る。次に、実オブジェクトのテクスチャをできるだけ多く、理想的には、全てエクスポーズする較正が行われ得る。その後、3Dモデルは、現実世界のオブジェクトを周知の動きで移動させて、結果として生じるデジタル画像をキャプチャし、そして、それらの画像を所定の動きと関連付けることによって移動する現実世界のオブジェクトに較正され得る。3Dモデルの較正およびスケーリングが完了した後、実オブジェクトの新しい動きを観察して3Dモデルをアニメーションすることができる。
図12Aは、立方体状のターゲットオブジェクト(図3Aの立方体状のターゲットオブジェクト330)のデジタル画像1200を示している。ターゲットオブジェクトのテクスチャマップ(図10Bの1001)が作成されて対応する3Dモデル(図示せず)と関連付けられた後、本発明の実施形態は、カメラの視野の移動ターゲットオブジェクトの複数のデジタル画像1200をキャプチャすることによって対応する3Dモデルをアニメートする。各デジタル画像1200において、カメラの位置に基づいて既知の座標集合が前方ビュー1212およびそれぞれの反射1225a−cに存在する。複数のキャプチャされたデジタル画像1200のうちの2以上が解析されて、ターゲットオブジェクトのダイレクトビュー1212に対し、およびそれぞれの反射ビュー1230a−cに対して並進および回転のベクトルを判定する。例えば、ダイレクト前方ビュー1212において、Y方向とX方向の並進が判定されて、Z軸の回転が判定される。
図12Bは、図12Aの移動オブジェクトの複数の画像キャプチャのうちの少なくとも2つから生成される、テクスチャマップ1201および関連するベクトル1290、1291、1293である。図12Bは、図12Aの各作業デジタル画像1200に対応するテクスチャマップ1201を示している。デジタル画像の各画像セグメント(前方、右、上部、左、後方)に対し、当業者には周知であるベクトル演算操作を使用して対応する並進および回転ベクトル1290、1291、1293が計算される。図12Cは、図12Aの移動オブジェクトの3Dモデル1231および関連する並進および回転ベクトル1294を示している。ターゲットオブジェクトから撮られた画像1200の所与のシーケンスから、対応する並進および回転ベクトル1290、1291、1293を対応するテクスチャマップに適用して、結果として図12Cに示すように、対応する3Dモデルを並進および回転の3つの軸1294でアニメートすることができる。
図13A−図13Bは、開示された実施形態の態様による画像からテクスチャマップを生成する方法のフローチャートである。図13Aは、ビューの単一画像から3Dテクスチャマップを生成する例示的な方法のフローチャート1300である。ステップ1310において、視野の画像がカメラによってキャプチャされる。視野は、ターゲットオブジェクトのダイレクトビューおよび反射面からのターゲットオブジェクトの反射ビューを有する。次に、ステップ1320において、ターゲットオブジェクトの反射ビューは、キャプチャされた画像のターゲットオブジェクトのダイレクトビューから分離される。次に、ステップ1330において、反射ビューは、歪みを除去することによって補正される。次に、ステップ1340において、キャプチャされた画像のビューのいずれかの間のオーバーラップは、任意に検出されて除去される。ステップ1350において、ターゲットオブジェクトの3Dモデル表現のテクスチャマップは、ダイレクトビューと補正された反射ビューを組み合わせることによって生成される。最後に、ステップ1360において、テクスチャマップは、ターゲットオブジェクトの3Dモデル表現に投影される。
図13Bは、キャプチャされた画像が少なくとも2つの反射ビューを含む場合に、ステップ1310のキャプチャされた画像のビューのいずれかの間のオーバーラップを検出することおよび除去することを含む、ステップ1340の例示的な方法のフローチャート1301である。ステップ1341において、ダイレクトビューのいずれかと第1および第2の反射ビューとの間のオーバーラップが検出され、そしてビューのいずれかに存在する任意の共通領域が特定される。次に、ステップ1342において、検出された共通領域は、それらの対応するビューから分離されるか、または除去される。次に、ステップ1343において、任意の共通領域の3D空間(またはターゲットオブジェクト)のサイズおよび形状は、第1および第2の反射面の既知の位置を使用して計算される。次に、ステップ1344において、分離された共通領域のサイズおよび形状は、ステップ1343の計算によって補正されて、共通領域に存在するターゲットオブジェクトの表面の一部を表す。次に、ステップ1345において、各検出された共通領域の画像品質が判定されて、その共通領域は、それらの画像品質の関数として単一のマージされる領域にマージされる。最後に、ステップ1346において、マージされた共通領域は、ステップ1350において使用されて、その共通領域に対応するターゲットオブジェクトの領域のテクスチャマップを生成する。
図14Aは、本発明の実施形態が展開され得るコンピュータネットワークまたは同様のデジタル処理環境を図示している。クライアントコンピュータ(複数)/デバイス1450およびサーバコンピュータ(複数)1460は、処理、格納、および入力/出力デバイスが実行するアプリケーションプログラムなどを提供する。クライアントコンピュータ(複数)/デバイス1450はまた、通信ネットワーク1470を通じて、他のクライアントデバイス/プロセッサ1460およびサーバコンピュータ(複数)1450を含む、他のコンピューティングデバイスにリンクされることができる。通信ネットワーク1470は、リモートアクセスネットワーク、グローバルネットワーク(例えば、インターネット)、世界規模のコンピュータ群、ローカルエリアまたはワイドエリアネットワーク、および現在それぞれのプロトコル(TCP/IP、Bluetooth(登録商標)など)を使用して互いに通信するゲートウェイの部分となることができる。
図14Bは、図13A−図13Bの例示的な方法/コンピュータルーチン1300、1301および図1−図2の例示的な画像処理装置150、250などの、本発明のさまざまな実施形態が実装され得る、コンピュータ(例えば、図14Aのクライアントプロセッサ/デバイス1450またはサーバコンピュータ1460)の内部構造のブロック図である。各コンピュータ1450、1460は、バスがコンピュータまたは処理システムのコンポーネント間のデータ転送に使用されるハードウェアラインのセットであるシステムバス1479を包含する。バス1479は、本質的に、要素間の情報の転送を可能にするコンピュータシステム(例えば、プロセッサ、ディスクストレージ、メモリ、入力/出力ポート、ネットワークポートなど)の異なる要素を接続する共有のコンジットである。システムバス1479に取り付けられるのは、さまざまな入力および出力デバイス(例えば、キーボード、マウス、ディスプレイ、プリンタ、スピーカなど)をコンピュータ1450、1460に接続するためのI/Oデバイスインタフェース1482である。ネットワークインタフェース1486は、コンピュータがネットワーク(例えば、図14Aのネットワーク1470)に取り付けられたさまざまな他のデバイスに接続できるようにさせる。メモリ1490は、上記に詳述した方法/ルーチン1300、1301、および画像システムプロセッサ150、250を実装するために使用されるコンピュータソフトウェア命令1492およびデータ1494用の揮発性ストレージを提供する。ディスクストレージ1495は、本発明の実施形態を実装するために使用されるコンピュータソフトウェア命令1492およびデータ1494用の不揮発性ストレージを提供する。中央処理装置1484もシステムバス1479に取り付けられて、コンピュータ命令の実行を提供する。
一実施形態において、プロセッサルーチン1492およびデータ1494は、本発明システムのソフトウェア命令の少なくとも一部を提供するコンピュータ可読媒体(1または複数のDVD−ROM、CD−ROM、ディスケット、テープ他など、リムーバブルストレージ媒体)を含む、コンピュータプログラム製品(概して、符号1492により参照される)である。コンピュータプログラム製品1492は、当業者には周知であるように、適した任意のソフトウェアインストール手順によってインストールされることができる。別の実施形態において、ソフトウェア命令の少なくとも一部はまた、ケーブル、通信および/またはワイヤレス接続を介してダウンロードされ得る。他の実施形態において、本発明のプログラムは、伝搬媒体(例えば、インターネットなど、グローバルネットワーク、または他のネットワーク(複数)を介して伝搬される無線波、赤外線波、レーザー波、音波、または電波)で伝搬される信号に具体化されるコンピュータプログラムが伝搬される信号製品1471である。このような搬送媒体または信号は、本発明のルーチン/プログラム1492のソフトウェア命令の少なくとも一部を提供する。
代替的実施形態において、伝搬信号は、伝搬媒体で搬送されるアナログ搬送波またはデジタル信号である。例えば、伝搬信号は、グローバルネットワーク(例えば、インターネット)、電気通信ネットワーク、または他のネットワークを介して伝搬されるデジタル化した信号であってよい。一実施形態において、伝搬信号は、ミリ秒、秒、分、またはもっと長い期間にわたってネットワークを介してパケットで送出されるソフトウェアアプリケーションの命令など、ある期間にわたって伝搬媒体を介して送信される信号である。別の実施形態において、コンピュータプログラム製品1492のコンピュータ可読媒体は、コンピュータプログラムが伝搬される信号製品について上述したような、コンピュータシステム1460が、伝搬媒体を受信し、そして伝搬媒体に具体化される伝搬信号を特定することなどによって、受信して読み取ることができる伝搬媒体である。
一般的に言えば、用語「搬送媒体」または「遷移搬送波」は、前述の遷移信号、伝搬信号、搬送媒体、ストレージ媒体などを含む。
さらに、本発明は、さまざまなコンピュータアーキテクチャに実装され得る。図14Aおよび図14Bのコンピュータは、説明を目的とするものであり、本発明を限定するものではない。
ブロック図およびフローチャートは、要素を増やしても減らしてもよく、異なって配置されてもよく、または異なって表現されてもよいことを理解されたい。実装は、本発明の実施形態の実行を図示するブロック/フロー/ネットワーク図およびブロック/フロー/ネットワーク図の数を決定してよいことを理解されたい。
上述したブロック図およびフローチャートの要素は、ソフトウェア、ハードウェア、またはファームウェアに実装されてよいことを理解されたい。さらに、上述したブロック/フロー/ネットワーク図の要素は、ソフトウェア、ハードウェア、またはファームウェアにおいて任意の方法で組み合わされまたは分けられてもよい。ソフトウェアに実装されるのであれば、そのソフトウェアは、本明細書で説明された実施形態をサポートすることができる任意の言語で書き込まれてよい。ソフトウェアは、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、コンパクトディスクリードオンリーメモリ(CD−ROM)その他など、コンピュータ可読媒体の任意の形式で格納されてよい。動作において、汎用またはアプリケーション専用プロセッサは、当業者によく知られている方法でソフトウェアをロードして実行する。
この発明は、発明の例示的な実施形態に関して詳細に図示されて説明されているが、添付の特許請求の範囲に含まれる本発明の範囲から逸脱しない範囲において形式および詳細のさまざまな変更が行われてよいことが当業者には理解されよう。

Claims (22)

  1. 視野の画像をキャプチャするステップであって、前記視野は、ターゲットオブジェクトのダイレクトビュー、および少なくとも1つの反射面からの前記ターゲットオブジェクトの少なくとも1つの反射ビューを有し、前記キャプチャされた画像は、前記ダイレクトビューのダイレクト画像、および前記ターゲットオブジェクトの前記少なくとも1つの反射ビューの少なくとも1つの反射画像を有することと、
    前記キャプチャされた画像の前記ダイレクト画像から少なくとも1つの反射画像を分離するステップと、
    少なくとも1つの歪みが低減された反射画像を提供するために、前記分離した反射画像から歪みを低減するステップと、
    前記ダイレクト画像、および前記少なくとも1つの歪みが低減された反射画像からテクスチャマップを生成するステップと、
    前記ターゲットオブジェクトを表す3Dモデルに前記生成されたテクスチャマップを投影するステップと、
    前記キャプチャされた画像のビューのいずれかの間のオーバーラップを検出するステップと
    を備えたことを特徴とする方法。
  2. 前記少なくとも1つの反射面は、第1の反射面および第2の反射面を含み、
    前記少なくとも1つの反射ビューは、前記第1の反射面からの前記ターゲットオブジェクトの第1の反射ビュー、および前記第2の反射面からの前記ターゲットオブジェクトの第2の反射ビューを含み、
    前記少なくとも1つの反射画像は、前記第1の反射ビューからの第1の反射画像、および前記第2の反射ビューからの第2の反射画像を含むことを特徴とする請求項1に記載の方法。
  3. 前記第1の反射ビューと第2の反射ビューおよび前記ターゲットオブジェクトの前記ダイレクトビューは、前記ターゲットオブジェクトの周囲の少なくとも一部を観察することを特徴とする請求項2に記載の方法。
  4. 前記少なくとも1つの反射面は、第1の反射面、第2の反射面、および第3の反射面を含み、
    前記少なくとも1つの反射ビューは、前記第1の反射面からの前記ターゲットオブジェクトの第1の反射ビュー、前記第2の反射面からの前記ターゲットオブジェクトの第2の反射ビュー、および前記第3の反射面からの前記ターゲットオブジェクトの第3の反射ビューを含み、
    前記少なくとも1つの反射画像は、各々、前記第1の反射ビューの第1の反射画像、前記第2の反射ビューの第2の反射画像、および前記第3の反射ビューの第3の反射画像を含むことを特徴とする請求項1に記載の方法。
  5. 前記第1の反射ビューおよび第2の反射ビューならびに前記ダイレクトビューは、前記ターゲットオブジェクトの少なくとも周囲の一部を観察し、
    前記第3の反射ビューは、前記ターゲットオブジェクトの上面または底面を観察することを特徴とする請求項4に記載の方法。
  6. 前記ターゲットオブジェクトの前記ダイレクト画像、前記第1の反射画像、および前記第2の反射画像の少なくとも2つの画像との間のオーバーラップを検出するステップと、
    前記少なくとも1つの画像から前記検出されたオーバーラップを除去するステップと
    をさらに含むことを特徴とする請求項2に記載の方法。
  7. 前記オーバーラップを検出するステップは、
    前記検出されたオーバーラップを有する、少なくとも2つの前記画像の各々において共通領域を検出するステップと、
    前記検出されたオーバーラップを有する、前記少なくとも2つの前記画像の各々から前記共通領域を除去するステップと、
    前記第1および第2の反射面の既知の位置を用いて、前記共通領域のサイズおよび形状を計算するステップと、
    前記計算された、前記ターゲットオブジェクトの表面の一部を示すために、前記共通領域を補正するステップと、
    各々の補正共通領域の画像品質を判定し、前記判定された画像品質を用いて、前記補正された共通領域をマージされる領域にマージするステップと、
    前記少なくとも1つのテクスチャマップを生成する際に接合領域を用いるステップと
    をさらに含むことを特徴とする請求項6に記載の方法。
  8. 前記キャプチャされた画像において、前記ターゲットオブジェクトの前記ダイレクト画像から少なくとも1つの反射画像を分離するステップは、
    前記キャプチャされた画像において領域の歪みを検出するステップと、
    前記ターゲットオブジェクトの前記少なくとも1つの反射画像として、前記検出された領域にフラグを立てるステップと
    を含むことを特徴とする請求項1に記載の方法。
  9. 前記少なくとも1つの反射画像から歪みを低減するステップは、
    前記ターゲットオブジェクトのサイズにより前記少なくとも1つの反射画像をスケーリングするステップと、
    前記少なくとも1つの反射画像において射影歪みを補正するステップと、
    前記少なくとも1つの反射面の位置および前記ターゲットオブジェクトの形状に基づいて、前記少なくとも1つの反射画像を再形成するステップと
    のうちの少なくとも1つのステップを含むことを特徴とする請求項1に記載の方法。
  10. 前記ターゲットオブジェクトが第1の位置から第2の位置に移動するときに、前記ターゲットオブジェクトを有する、前記視野の複数のキャプチャされる画像を生成するステップと、
    前記複数の画像から複数のテクスチャマップを生成するステップと
    をさらに含むことを特徴とする請求項1に記載の方法。
  11. 前記ターゲットオブジェクトの動きを検出するステップと、
    前記3Dモデルの対応する動きを生成するために、前記ターゲットオブジェクトの前記検出された動きを前記3Dモデルと相関させるステップと、
    前記3Dモデルの対応する動きに基づいて、前記3Dモデルを対応する第1の位置から対応する第2の位置までのアニメーションにするステップと
    をさらに含むことを特徴とする請求項10に記載の方法。
  12. 単一の画像のターゲットオブジェクトから3Dモデルのテクスチャマップを生成するためのシステムであって、
    視野を有するカメラであって、前記カメラは前記視野の画像をキャプチャし、前記キャプチャされた画像はターゲットオブジェクトのダイレクト画像を含む、カメラと、
    前記カメラの前記視野の1または複数の反射面であって、前記1または複数の反射面が、前記ターゲットオブジェクトの1または複数の反射ビューがカメラに映るように位置付けされ、前記キャプチャされた画像は、前記1または複数の反射ビューの1または複数の反射画像を含む、反射面と、
    前記キャプチャされた画像を受信する画像プロセッシングデバイスであって、前記ダイレクト画像から前記1または複数の反射画像を分離し、前記1または複数の反射画像の歪みを低減し、ダイレクト画像および前記1または複数の分離された反射画像に基づいて、テクスチャマップを生成する、画像プロセッシングデバイスと
    を備え、
    前記画像プロセッシングデバイスは、前記キャプチャされた画像のビューのいずれかの間のオーバーラップを検出することを含むことを特徴とするシステム。
  13. 前記1または複数の反射面は第1の反射面および第2の反射面を含み、前記ターゲットオブジェクトの前記1または複数の反射画像は第1の反射画像および第2の反射画像を含むことを特徴とする請求項12に記載のシステム。
  14. 前記ターゲットオブジェクトの前記第1の反射画像と第2の反射画像および前記ダイレクト画像は、実質的に、前記ターゲットオブジェクトの周囲のすべてを画像形成することを特徴とする請求項13に記載のシステム。
  15. 前記視野は、さらに、第3の反射面、および前記ターゲットオブジェクトの第3の反射画像を含む、前記1または複数の反射ビューを含むことを特徴とする請求項13に記載のシステム。
  16. 前記第1の反射画像と第2の反射画像および前記ダイレクト画像は、前記ターゲットオブジェクトの周囲のすべてを実質的に観察し、前記第3の反射画像は、前記ターゲットオブジェクトの上面または底面を観察することを特徴とする請求項15に記載のシステム。
  17. 前記画像プロセッシングデバイスは、前記ターゲットオブジェクトの前記ダイレクト画像、前記第1の反射画像、および前記第2の反射画像の少なくとも2つの画像との間のオーバーラップを検出し、前記キャプチャされた画像から前記検出されたオーバーラップを除去することをさらに含むことを特徴とする請求項13に記載のシステム。
  18. 前記オーバーラップを検出する前記画像プロセッシングデバイスは、さらに、
    前記検出されたオーバーラップを有する、少なくとも2つの前記画像の各々において共通領域を検出し、
    前記検出されたオーバーラップを有する、前記少なくとも2つの前記画像の各々から前記共通領域を除去し、
    前記第1および第2の反射面の既知の位置を用いて、前記共通領域のサイズおよび形状を計算し、
    前記ターゲットオブジェクトの前記計算された表面の一部を示すように、前記共通領域を補正し、
    各々の補正共通領域の画像品質を判定し、前記判定された画像品質を用いて、前記補正された共通領域をマージされる領域にマージし、
    前記少なくとも1つのテクスチャマップを生成する際に接合領域を用い
    ことを含むこと特徴とする請求項17に記載のシステム。
  19. 前記画像プロセッシングデバイスが、前記キャプチャされた画像において、前記ターゲットオブジェクトから前記1または複数の反射ビューを分離することは、前記キャプチャされた画像において、キーストーン歪みの1または複数の領域を検出し、検出された領域に前記少なくとも1つの反射ビューとするフラグを立てることを含むことを特徴とする請求項12に記載のシステム。
  20. 前記画像プロセッシングデバイスが前記1または複数の反射ビューにおいて歪みを低減することは、前記ターゲットオブジェクトのサイズに対応する前記少なくとも1または複数の反射ビューをスケーリングすることを含むことを特徴とする請求項12に記載のシステム。
  21. 前記カメラは、前記ターゲットオブジェクトが第1の位置から第2の位置に移動するときに、前記視野の複数の画像をキャプチャし、前記画像プロセッシングデバイスは、前記複数のキャプチャされた画像を受信し、複数のテクスチャマップを生成することを特徴とする請求項12に記載のシステム。
  22. 前記画像プロセッシングデバイスは、前記ターゲットオブジェクトの動きを検出し、前記3Dモデルの対応する動きを生成するために、前記ターゲットオブジェクトの前記検出された動きを前記3Dモデルと相関させ、前記3Dモデルの対応する動きに基づいて、前記3Dモデルを対応する第1の位置から対応する第2の位置までのアニメーションにすることを特徴とする請求項21に記載のシステム。
JP2015212133A 2014-11-04 2015-10-28 画像から自動化されたテクスチャリングマッピングおよびアニメーション Active JP6704238B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/532,683 US20160125638A1 (en) 2014-11-04 2014-11-04 Automated Texturing Mapping and Animation from Images
US14/532,683 2014-11-04

Publications (2)

Publication Number Publication Date
JP2016091553A JP2016091553A (ja) 2016-05-23
JP6704238B2 true JP6704238B2 (ja) 2020-06-03

Family

ID=54477855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015212133A Active JP6704238B2 (ja) 2014-11-04 2015-10-28 画像から自動化されたテクスチャリングマッピングおよびアニメーション

Country Status (6)

Country Link
US (1) US20160125638A1 (ja)
EP (1) EP3018632B1 (ja)
JP (1) JP6704238B2 (ja)
KR (1) KR20160052441A (ja)
CN (1) CN105574921B (ja)
CA (1) CA2910649A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
AU2013219966B2 (en) 2012-02-15 2015-04-02 Apple Inc. Scanning depth engine
US9525863B2 (en) * 2015-04-29 2016-12-20 Apple Inc. Time-of-flight depth mapping with flexible scan pattern
US10070080B2 (en) * 2015-05-18 2018-09-04 The Boeing Company Multi-directional, multi-spectral star tracker with a common aperture and common camera
US10447999B2 (en) * 2015-10-20 2019-10-15 Hewlett-Packard Development Company, L.P. Alignment of images of a three-dimensional object
US9727957B2 (en) 2015-12-18 2017-08-08 Ebay Inc. Source image providing multiple item views
RU2736008C1 (ru) * 2017-07-13 2020-11-11 Девар Энтертеймент Лимитед Способ формирования среды дополненной реальности
CN110473294B (zh) * 2018-05-11 2023-09-01 杭州海康威视数字技术股份有限公司 一种基于三维模型的纹理映射方法、装置及设备
EP3706076B1 (en) * 2019-03-07 2021-02-24 Siemens Healthcare GmbH Method and device to determine the dimensions and distance of a number of objects in an environment
CN111028338B (zh) * 2019-12-06 2023-08-08 珠海金山数字网络科技有限公司 一种基于Unity3D的图像绘制方法及装置
US11120638B2 (en) * 2019-12-26 2021-09-14 TCL Research America Inc. Director hint based auto-cinematography
CN111192223B (zh) * 2020-01-07 2022-09-30 腾讯科技(深圳)有限公司 人脸纹理图像的处理方法、装置、设备及存储介质
KR102366695B1 (ko) * 2020-06-25 2022-02-22 동서대학교 산학협력단 Center Pivot 지정을 통한 Mirror Pose 생성기법
CN113112407B (zh) * 2021-06-11 2021-09-03 上海英立视电子有限公司 基于电视的照镜视野生成方法、系统、设备及介质
EP4124014A1 (en) * 2021-07-20 2023-01-25 Spiideo AB Devices and methods for wide field of view image capture

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100419890B1 (ko) * 2003-03-08 2004-02-26 박배억 가상 현실 구현을 위한 실사 이미지 촬영용 광학 튜브 조립체 및 이를 이용한 실사 이미지 합성 방법
US20080246759A1 (en) * 2005-02-23 2008-10-09 Craig Summers Automatic Scene Modeling for the 3D Camera and 3D Video
US20070139408A1 (en) * 2005-12-19 2007-06-21 Nokia Corporation Reflective image objects
DE102006014902B4 (de) * 2006-03-30 2009-07-23 Siemens Ag Bildverarbeitungseinrichtung zur erweiterten Darstellung von dreidimensionalen Bilddatensätzen
DE102006042311B4 (de) * 2006-09-06 2013-12-05 3D-Shape Gmbh Dreidimensionale Vermessung von Objekten in einem erweiterten Winkelbereich
US20080298674A1 (en) * 2007-05-29 2008-12-04 Image Masters Inc. Stereoscopic Panoramic imaging system
CN102132091B (zh) * 2007-09-21 2013-10-16 皇家飞利浦电子股份有限公司 借助投影仪以3d对象的更改的2d图像来照明该3d对象的方法,以及适合于执行该方法的投影仪
US8350932B2 (en) * 2008-07-30 2013-01-08 Panasonic Corporation Image generation device and image generation method for generating a high-quality image by using information from a low-quality image
US8933884B2 (en) * 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8570343B2 (en) 2010-04-20 2013-10-29 Dassault Systemes Automatic generation of 3D models from packaged goods product images
US8963927B2 (en) * 2010-12-15 2015-02-24 Microsoft Technology Licensing, Llc Vertex-baked three-dimensional animation augmentation
US9100587B2 (en) * 2011-07-22 2015-08-04 Naturalpoint, Inc. Hosted camera remote control
TWI456987B (zh) * 2011-11-09 2014-10-11 Inst Information Industry 植栽影像擷取裝置及其影像擷取方法
CN103258344A (zh) * 2013-04-10 2013-08-21 山东华戎信息产业有限公司 一种植物三维重建中纹理的自动提取方法
US20150228106A1 (en) * 2014-02-13 2015-08-13 Vixs Systems Inc. Low latency video texture mapping via tight integration of codec engine with 3d graphics engine
US20150279075A1 (en) * 2014-03-27 2015-10-01 Knockout Concepts, Llc Recording animation of rigid objects using a single 3d scanner

Also Published As

Publication number Publication date
EP3018632A1 (en) 2016-05-11
JP2016091553A (ja) 2016-05-23
CA2910649A1 (en) 2016-05-04
US20160125638A1 (en) 2016-05-05
CN105574921A (zh) 2016-05-11
CN105574921B (zh) 2021-06-08
EP3018632B1 (en) 2021-05-12
KR20160052441A (ko) 2016-05-12

Similar Documents

Publication Publication Date Title
JP6704238B2 (ja) 画像から自動化されたテクスチャリングマッピングおよびアニメーション
US11616919B2 (en) Three-dimensional stabilized 360-degree composite image capture
US10893250B2 (en) Free-viewpoint photorealistic view synthesis from casually captured video
US10102639B2 (en) Building a three-dimensional composite scene
Delaunoy et al. Photometric bundle adjustment for dense multi-view 3d modeling
US9378584B2 (en) Systems and methods for rendering virtual try-on products
EP2272050B1 (en) Using photo collections for three dimensional modeling
RU2642167C2 (ru) Устройство, способ и система для реконструкции 3d-модели объекта
KR20180059836A (ko) 3d 재구성에서 구조 특징들을 검출하고 결합하기 위한 방법들 및 시스템들
JP2018515825A (ja) Lidarステレオ融合実写3dモデルバーチャルリアリティビデオ
WO2010004466A1 (en) Three dimensional mesh modeling
CN110191326A (zh) 一种投影系统分辨率扩展方法、装置和投影系统
JP2012190299A (ja) 画像処理装置および方法、並びにプログラム
US20200234398A1 (en) Extraction of standardized images from a single view or multi-view capture
US9147279B1 (en) Systems and methods for merging textures
US20160005221A1 (en) Photometric optimization with t-splines
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
US20030090496A1 (en) Method and system for panoramic image morphing
JP3643511B2 (ja) 3次元画像処理方法,3次元モデリング方法および3次元画像処理プログラムを記録した記録媒体
Thormählen et al. 3D-modeling by ortho-image generation from image sequences
JP7394566B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
FR3013492A1 (fr) Procede utilisant des donnees de geometrie 3d pour une presentation et une commande d'image de realite virtuelle dans un espace 3d
JP2003323639A (ja) 画像の三次元モデル復元装置及び三次元モデル復元方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200512

R150 Certificate of patent or registration of utility model

Ref document number: 6704238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250