JP2024506763A - 3次元仮想モデル提供方法およびそのための3次元仮想モデル提供システム - Google Patents

3次元仮想モデル提供方法およびそのための3次元仮想モデル提供システム Download PDF

Info

Publication number
JP2024506763A
JP2024506763A JP2022564794A JP2022564794A JP2024506763A JP 2024506763 A JP2024506763 A JP 2024506763A JP 2022564794 A JP2022564794 A JP 2022564794A JP 2022564794 A JP2022564794 A JP 2022564794A JP 2024506763 A JP2024506763 A JP 2024506763A
Authority
JP
Japan
Prior art keywords
point
shooting
user terminal
generated
hue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022564794A
Other languages
English (en)
Inventor
キム、ケン
ウク ジョン、ジ
ルスタム ウクリ フダイベルガノブ、パルホド
イ、ミハイル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3I Inc
Original Assignee
3I Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3I Inc filed Critical 3I Inc
Publication of JP2024506763A publication Critical patent/JP2024506763A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Abstract

ユーザ端末およびサーバーを含み、ユーザ端末は、現実室内空間内の複数の撮影地点の各地点で、以前の撮影地点から該当撮影地点までの相対的移動情報を導き出して該当撮影地点に対する位置情報を生成し、該当撮影地点を基準として生成された360度色相イメージおよび360度深度マップイメージを生成して該当撮影地点に対する撮影データセットを生成する。サーバーは、ユーザ端末から現実室内空間内の複数の撮影地点それぞれに対する複数の撮影データセットを受信し、複数の撮影地点の各撮影地点で生成された360度色相イメージと360度深度マップイメージを単位ピクセルの位置別に関連させて、各単位ピクセル別に距離値および色相値を設定してポイントグループを生成する。ポイントグループはそれぞれの撮影地点ごとに個別的に生成され、サーバーは、複数の撮影地点ごとにそれぞれ個別的に生成された複数のポイントグループを位置情報を基準として位置的に関連させて一つの統合ポイントグループを形成し、統合ポイントグループに基づいて3次元仮想モデルを生成する。【選択図】図9

Description

本出願は3次元仮想モデル提供方法およびそのための3次元仮想モデル提供システムに関する。
最近では、実際の空間に対応するオンライン上の仮想空間が提供されることによって、ユーザが直接実際の空間に訪問せずとも実際の空間にあるような体験が可能な仮想空間具現技術が開発されている。
デジタルツインまたはメタバス(metaverse)はこのように現実空間を基盤として仮想空間を提供する技術に基礎とする。
このような現実空間に対応する仮想空間を具現するためには、具現しようとする実際の空間に対するイメージ情報および距離情報に基づいて立体的な仮想イメージである仮想の3次元モデルを生成することが必要である。
従来の場合、このような3次元モデルを生成するために、室内空間の多くの撮影地点で撮影された360度イメージを獲得し、これらを利用して3次元モデルを生成した。
ただし、従来の場合、室内空間の多くの撮影地点に対する位置情報を確認することが難しいため、各撮影地点で撮影されたイメージに基づいて多くの撮影地点の位置を逆算する方式などを使っていたが、これは撮影位置を決定するのに高いリソースが要求され、その処理が遅い限界を有している。
本出願の一技術的側面は前記の従来技術の問題点を解決するためのものであり、室内空間での多くの撮影地点で収集された撮影データセットに基づいて室内空間に対応する3次元仮想空間を提供することを目的とする。
本出願に開示される一実施例によると、360度回転可能な駆動型補助据え置き装置を利用して、スマートフォンのような一般的なスマート機器を利用しても容易に3次元仮想モデルを生成できる環境を提供することを目的とする。
本出願に開示される一実施例によると、室内空間での多くの撮影地点間の距離情報を効率的かつ正確に算出することによって、3次元仮想モデルの正確度を向上させることができることを目的とする。
本出願の課題は以上で言及した課題に制限されず、言及されていないさらに他の課題は下記の記載から当業者に明確に理解され得る。
本出願の一技術的側面は3次元仮想モデル提供システムを提案する。前記3次元仮想モデル提供システムは、ユーザ端末およびサーバーを含む。前記ユーザ端末は、現実室内空間内の複数の撮影地点の各地点で、以前の撮影地点から該当撮影地点までの相対的移動情報を導き出して該当撮影地点に対する位置情報を生成し、該当撮影地点を基準として生成された360度色相イメージおよび360度深度マップイメージを生成して該当撮影地点に対する撮影データセットを生成する。前記サーバーは、前記ユーザ端末から前記現実室内空間内の複数の撮影地点それぞれに対する複数の撮影データセットを受信し、前記複数の撮影地点の各撮影地点で生成された360度色相イメージと360度深度マップイメージを単位ピクセルの位置別に関連させて、各単位ピクセル別に距離値および色相値を設定してポイントグループを生成する。前記ポイントグループはそれぞれの撮影地点ごとに個別的に生成され、前記サーバーは、前記複数の撮影地点ごとにそれぞれ個別的に生成された複数のポイントグループを前記位置情報を基準として位置的に関連させて一つの統合ポイントグループを形成し、前記統合ポイントグループに基づいて3次元仮想モデルを生成する。
本出願の他の技術的側面は3次元モデル生成方法を提案する。前記3次元モデル生成方法は、ユーザ端末および前記ユーザ端末と連動して現実室内空間に対応する仮想の3次元モデルを提供するサーバーを含むシステムで遂行される3次元モデル生成方法であって、前記ユーザ端末が、前記現実室内空間内の複数の撮影地点それぞれで複数の撮影データセット-撮影データセットは、前記複数の撮影地点のうちいずれか一撮影地点を基準として生成された360度色相イメージ、前記いずれか一撮影地点を基準として生成された360度深度マップイメージおよび以前の撮影地点から前記いずれか一撮影地点までの相対的移動情報に基づいて導き出される位置情報を含む-を生成して前記サーバーに提供する段階、前記サーバーが、前記複数の撮影地点の各撮影地点で生成された360度色相イメージと360度深度マップイメージを単位ピクセルの位置別に関連させて、各単位ピクセル別に距離値および色相値を設定してポイントグループを生成-前記ポイントグループはそれぞれの撮影地点ごとに個別的に生成される-する段階および前記サーバーが、前記複数の撮影地点ごとに個別的に生成された複数のポイントグループを前記位置情報を基準として位置的に関連させて一つの統合ポイントグループを形成する段階を含む。
前記の課題の解決手段は、本出願の特徴をすべて列挙したものではない。本出願の課題解決のための多様な手段は以下の詳細な説明の具体的な実施形態を参照してより詳細に理解され得る。
本出願によると、次のような効果が一つあるいはそれ以上ある。
本出願に開示される一実施例によると、室内空間での多くの撮影地点で収集された撮影データセットを利用して、室内空間に対応する3次元仮想空間を正確に提供できる効果がある。
本出願に開示される一実施例によると、360度回転可能な駆動型補助据え置き装置を利用することによって、スマートフォンのような一般的なスマート機器を利用しても容易に3次元仮想モデルを生成できる環境を提供する効果がある。
本出願に開示される一実施例によると、室内空間での多くの撮影地点間の距離情報を効率的かつ正確に算出することによって、3次元仮想モデルの正確度を向上させることができる効果がある。
本出願の効果は以上で言及した効果に制限されず、言及されていないさらに他の効果は請求範囲の記載から当業者に明確に理解され得る。
本出願に開示される一実施例に係る3次元仮想モデル提供システムを例示する図面である。 本出願に開示される一実施例に係るユーザ端末および駆動型補助装置の一使用例を図示する図面である。 本出願に開示される一実施例に係る駆動型補助装置を説明するブロック構成図である。 本出願に開示される一実施例に係るユーザ端末を説明するブロック構成図である。 室内空間内の複数の撮影地点での撮影例を説明するための図面である。 本出願に開示される一実施例に係るユーザ端末で遂行される制御方法の一例を説明する図面である。 本出願に開示される一実施例に係るユーザ端末で遂行される制御方法の他の一例を説明する図面である。 本出願に開示される一実施例に係るサーバーを説明するブロック構成図である。 本出願に開示される一実施例に係るサーバーで遂行される制御方法の一例を説明する図面である。 本出願に開示される一実施例に係るサーバーで遂行される制御方法の他の一例を説明する図面である。 本出願に開示される一実施例に係るサーバーで遂行されるテクスチャリング方法を説明する図面である。 本出願に開示される一実施例に係るサーバーで遂行されるテクスチャリング方法を説明する図面である。 本出願に開示される一実施例に係るサーバーで遂行されるテクスチャリング方法を説明する図面である。 本出願に開示される一実施例に係るサーバーで遂行されるテクスチャリング方法を説明する図面である。 本出願に開示される一実施例に係るサーバーで遂行されるテクスチャリング方法を説明する図面である。 本出願に開示される一実施例に係るサーバーで遂行されるテクスチャリング方法を説明する図面である。 本出願に開示される一実施例に係るサーバーで遂行されるテクスチャリング方法を説明する図面である。
以下、添付された図面を参照して本出願の好ましい実施形態を説明する。
しかし、これは特定の実施形態に対して範囲を限定しようとするものではなく、本開示の実施例の多様な変更(modifications)、均等物(equivalents)、および/または代替物(alternatives)を含む。
本開示を説明するにおいて、関連した公知機能あるいは構成に対する具体的な説明が本開示の要旨を不要に曖昧にさせ得る恐れがあると判断される場合、それに対する詳細な説明は省略する。
本開示で使った用語は単に特定の実施例を説明するために使われたものであり、権利範囲を限定しようとする意図ではない。単数の表現は文脈上明白に異なるように意味しない限り、複数の表現を含む。
本開示で、「有する」、「有することができる」、「含む」、または「含むことができる」等の表現は該当特徴(例:数値、機能、動作、または部品などの構成要素)の存在を示し、追加的な特徴の存在を排除しない。
図面の説明と関連して、類似するまたは関連した構成要素に対しては類似する参照符号が使われ得る。アイテムに対応する名詞の単数形は関連した文脈上明白に異なって指示しない限り、前記アイテム一つまたは複数個を含むことができる。本出願で、「AまたはB」、「AおよびBのうち少なくとも一つ」、「AまたはBのうち少なくとも一つ」、「A、BまたはC」、「A、BおよびCのうち少なくとも一つ」および「A、B、またはCのうち少なくとも一つ」のような文面それぞれは、その文面のうち該当する文面に共に羅列された項目のうちいずれか一つ、またはそれらのすべての可能な組み合わせを含むことができる。
「第1」、「第2」、または「最初」または「二番目」のような用語は、単純に該当構成要素を他の該当構成要素と区分するために使われ得、該当構成要素を他の側面(例えば、重要性または順序)で限定しない。
或る(例えば、第1)構成要素が他の(例えば、第2)構成要素に、「機能的に」または「通信的に」という用語とともに、またはこのような用語なしに、「カップルド」、「コネクテッド」または「連結された」と言及された場合、それは前記或る構成要素が前記他の構成要素に直接的に、または第3構成要素を通じて連結され得るということを意味する。
本開示で使われた表現「~するように構成された(または設定された)(configured to)」は状況によって、例えば、「~に適合な(suitable for)」、「~する能力を有する(having the capacity to)」、「~するように設計された(designed to)」、「~するように変更された(adapted to)」、「~するように作られた(made to)」、または「~ができる(capable of)」と変えて使われ得る。用語「~するように構成された(または設定された)」はハードウェア的に「特別に設計された(specifically designed to)」ことのみを必ずしm意味するものではない。
実施例において「モジュール」あるいは「部」は少なくとも一つの機能や動作を遂行し、ハードウェアまたはソフトウェアで具現されるかハードウェアとソフトウェアの結合で具現され得る。また、複数の「モジュール」あるいは複数の「部」は特定のハードウェアで具現される必要がある「モジュール」あるいは「部」を除いては少なくとも一つのモジュールで一体化されて、少なくとも一つのプロセッサで具現され得る
本出願の多様な実施例は機器(machine)により読み取り可能な保存媒体(storage medium)に保存された一つ以上の命令語を含むソフトウェア(例えば、プログラム)で具現され得る。例えば、プロセッサ301は、保存媒体から保存された一つ以上の命令語のうち少なくとも一つの命令を呼び出し、それを実行することができる。これは装置が前記呼び出された少なくとも一つの命令語により少なくとも一つの機能を遂行するように運営されることを可能にする。前記一つ以上の命令語はコンパイラによって生成されたコードまたはインタープリタによって実行され得るコードを含むことができる。機器で読み取り可能な保存媒体は、非一時的(non-transitory)保存媒体の形態で提供され得る。ここで、「非一時的」は保存媒体が実在(tangible)する装置であり、信号(signal)(例えば、電磁波)を含まないことを意味するだけであり、この用語はデータが保存媒体に半永久的に保存される場合と臨時的に保存される場合を区分しない。
本出願の実施形態を説明するために多様なフローチャートが開示されているが、これは各段階または動作の説明の便宜のためのものであり、必ずしもフローチャートの順序により各段階が遂行されるものではない。すなわち、フローチャートでの各段階は、互いに同時に遂行されたり、フローチャートによる順で遂行されたり、またはフローチャートでの順序と反対の順序でも遂行され得る。
図1は、本出願に開示される一実施例に係る3次元仮想モデル提供システムを例示する図面である。
3次元仮想モデル提供システムはユーザ端末200、駆動型撮影補助装置200およびサーバー300を含むことができる。
ユーザ端末200は室内空間の各撮影地点で撮影データセットを生成するための電子機器であって、カメラおよび距離測定センサを含む携帯型電子機器である。
例えば、ユーザ端末200はスマートフォン(smart phone)、タブレットPC(tablet PC)、ノートパソコン(laptop computer)、PDA(personal digital assistants)、PMP(portable multimedia player)、ウォッチ型端末機(smartwatch)やグラス型端末(smart glass)等のウェアラブルデバイス(wearable device)であり得る。
ユーザ端末200は色で表現される色相イメージを生成することができる。本出願明細書で、色相イメージは色で表現されるイメージをすべて包括するものであり、特定の表現方式に制限するものではない。したがって、色相イメージはRGB(Red Green Blue)で表現されるRGBイメージだけでなく、CMYK(Cyan Magenta Yellow Key)で表現されるCMYKイメージなどの多様な標準で適用可能である。
ユーザ端末200は深度情報を生成して深度マップイメージを生成できる装置である。本出願明細書で、深度マップイメージは被写空間に対して深度情報を含むイメージである。例えば、深度マップイメージでの各ピクセルは、撮像地点で撮影された被写空間の各地点-各ピクセルに対応する地点-までの距離情報であり得る。
ユーザ端末200は、室内に位置する複数の撮影地点でそれぞれ360度色相イメージと360度深度マップイメージを生成することができる。また、ユーザ端末200はそのような複数の撮影地点それぞれに対する位置情報を生成することができる。
ユーザ端末200は室内に位置する複数の撮影地点の各地点に対して、撮影データセットを個別的に生成することができる。ここで、撮影データセットは該当撮影地点での360度色相イメージ、360度深度マップイメージおよび該当撮影地点に対する位置情報を含むことができる。
一実施例で、各地点の位置情報は、以前の地点を基準として生成される相対的な位置情報を基礎にすることができる。これは、室内空間に対してはGPS(Global Positioning System)のような絶対的な位置情報を算出することが難しいので、ユーザ端末200は映像認識および慣性測定データの変化に基づいて相対的な移動情報を生成し、これに基づいて位置情報を設定することができる。
一実施例で、ユーザ端末200は駆動型撮影補助装置200に固定され、駆動型撮影補助装置200の駆動を制御することによって360度撮影が可能であるようにすることができる。これは、ユーザ端末200自体は回転駆動が不可能であるので、このシステムではユーザ端末200の制御により駆動する駆動型撮影補助装置200を含むことによって、ユーザ端末200が円滑に360度撮影-すなわち、360度色相イメージおよび360度深度マップイメージの生成-が可能であるようにすることができる。
サーバー300はユーザ端末200から室内の多くの撮影地点でそれぞれ生成された複数の撮影データセットを受信することができる。サーバー300は複数の撮影データセット、すなわち、室内の多様な地点でそれぞれ生成された色相イメージと深度マップイメージを利用して、室内空間に対応する3次元仮想空間である3次元仮想モデルを生成することができる。
一例として、サーバー300はユーザ端末から現実室内空間内の複数の撮影地点それぞれに対する複数の撮影データセットを受信し、複数の撮影地点の各撮影地点で生成された360度色相イメージと360度深度マップイメージを単位ピクセルの位置別に関連させて、各単位ピクセル別に距離値および色相値を設定してポイントグループを生成することができる。ここで、ポイントグループはそれぞれの撮影地点ごとに個別的に生成され得る。サーバー300は複数の撮影地点ごとにそれぞれ個別的に生成された複数のポイントグループを、位置情報を基準として位置的に関連させて一つの統合ポイントグループを形成することができる。サーバー300は、統合ポイントグループに基づいて3次元仮想モデルを生成することができる。
サーバー300はユーザ端末200またはその他の端末に3次元仮想モデルを提供することによって、現実空間に対応する3次元仮想空間を提供することができる。
図2は、本出願に開示される一実施例に係るユーザ端末および駆動型補助装置の一使用例を図示する図面である。
ユーザ端末200は駆動型補助装置100の上部に固定され得、駆動型補助装置100はユーザ端末200が据え置かれた回転部を回転させることによって、ユーザ端末200が360度撮影可能なように動作することができる。
駆動型補助装置100はトリポッド101等の高さ補完部材を利用することができ、このような高さ補完部材を反映したカメラの撮影高さHCに対する情報は、ユーザに入力されるかまたは事前に設定された高さ-規格化された高さ補完部材を使って事前に設定される-でサーバー300に提供され得る。
図3は、本出願に開示される一実施例に係る駆動型補助装置を説明するブロック構成図である。
端末据置台100は回転部110および本体部120を含むことができる。
回転部110にはユーザ端末200が据え置かれ、モータ部121の動作によって回転され得る。回転部110の回転によりユーザ端末200の撮影方向が変更され得る。また、回転部110の回転方向および回転速度はモータ部121の駆動により変更され得る。
一例として、回転部110は固定台、絞りおよび回転台を含むことができる。固定台および絞りは回転台上に配置され得る。固定台と絞りはユーザ端末200を固定することができる。回転台はモータ部121の動作により回転することができ、このために回転台はモータ部121と機械的に連結され得る。
本体部120はモータ部121、制御部122および通信部123を含むことができる。制御部122は本体部120の構成要素を制御して端末据置台100の動作を制御することができる。
通信部123はユーザ端末200と通信の連結を遂行し、ユーザ端末200から端末据置台100を駆動させるための制御信号が提供され得る。一例として、通信部123は近距離通信モジュールまたは有線通信のうち少なくとも一つを利用してユーザ端末200と通信の連結を形成することができる。
制御部122は通信部123を通じて受信された制御信号に対応して、モータ部121を駆動して、回転部110の駆動を制御することができる。
図4は、本出願に開示される一実施例に係るユーザ端末を説明するブロック構成図である。
図4を参照すると、ユーザ端末200はカメラ210、距離測定センサ220、測定センサ230、通信モジュール240、プロセッサ250およびメモリ260を含む。
図示してはいないが、ユーザ端末200の構成は前記羅列された構成や各構成要素の名称に制限されない。例えば、ユーザ端末200に電源を供給するためのバッテリーなどがユーザ端末200に含まれてもよい。
以下で、ユーザ端末200またはプロセッサ250をアプリケーションを駆動して制御、指示または機能の主体として表現するが、これは、プロセッサ250がメモリ260に保存されたインストラクションまたはアプリケーションを駆動して動作することを意味する。
カメラ210は少なくとも一つのカメラを含むことができる。カメラ210は一つ以上のレンズ、イメージセンサ、イメージシグナルプロセッサ、またはフラッシュを含むことができる。
カメラ210はユーザ端末200の前方映像を撮影することができる。一例として、駆動型撮影補助装置100の回転駆動によって、カメラ210の撮影方向が回転することができ、これを通じて360度撮影が可能である。カメラ210の360度撮影は実施例により多様に具現可能であり、例えば、所定角度ごとにイメージを撮影し、プロセッサ250はこれらを整合して360度色相イメージを生成することができる。実施例により、360度撮影のために360度回転を通じて所定角度ごとに前方イメージを撮影し、これらをサーバー300に提供し、サーバー300でこれらを整合して360度イメージを生成してもよい。
距離測定センサ220はユーザ端末200から被写体の距離を測定することができる。例えば、このような距離測定センサ220としては、ライダ(LiDAR)センサ、赤外線センサ、超音波センサなどが使われ得る。
実施例によっては、距離測定センサ220の代わりに距離情報を測定できるステレオカメラ(stereo camera)、ステレオスコピックカメラ(stereoscopic camera)、3D深度カメラ(3D、depth camera)で具現されてもよい。
駆動型撮影補助装置100の回転駆動によって、距離測定センサ220の測定方向が回転することができ、これを通じて360度測定が可能である。距離測定センサ220の測定に基づいて深度マップイメージが生成され得る。深度マップイメージは、被写空間に対して深度情報を含むイメージである。例えば、深度マップイメージでの各ピクセルは、撮像地点で撮影された被写空間の各地点-各ピクセルに対応する地点-までの距離情報であり得る。
一実施例で、360度色相イメージおよび360度深度マップイメージは、360度をカバーするために適合なパノラマイメージ、例えば、等長方形投影パノラマイメージであり得る。
慣性測定センサ230はユーザ端末200の慣性的特徴を感知し、感知された状態に対応する電気信号またはデータ値を生成することができる。
一例として、慣性測定センサ230はジャイロセンサおよび加速度センサを含むことができる。慣性測定センサ230によって測定されたデータを以下、慣性センシングデータと称する。
通信モジュール240は、ユーザ端末200と駆動型撮影補助装置100の間、またはユーザ端末200とサーバー300の間の通信を可能にする一つ以上のモジュールを含むことができる。このような通信モジュール240は移動通信モジュール、無線インターネットモジュールおよび近距離通信モジュールのうち少なくとも一つを含むことができる。
プロセッサ250はメモリ260に保存されたアプリケーション、すなわち、アプリケーションを駆動するために、図3で図示された構成要素のうち少なくとも一部を制御することができる。ひいては、プロセッサ250は前記アプリケーションの駆動のために、モバイル端末100に含まれた構成要素のうち少なくとも二つ以上を互いに組み合わせて動作させることができる。プロセッサ250はメモリ260に保存されたインストラクション(instructions)を実行してアプリケーションを駆動することができる。
プロセッサ250は前記アプリケーションに関連した動作の他にも、通常的にユーザ端末200の全般的な動作を制御する。プロセッサ250は前記で詳擦した構成要素を通じて入力または出力される信号、データ、情報などを処理したり、メモリ260に保存されたアプリケーションを駆動することによって、ユーザに適切な情報または機能を提供または処理することができる。プロセッサ250は一つのプロセッサまたは複数のプロセッサで具現可能である。
プロセッサ250は前方映像の変化および慣性センシングデータの変化量を利用して、全方位イメージが獲得された室内地点に対する相対的位置情報を生成することができる。例えば、プロセッサ250は室内空間の多くの撮影地点のそれぞれに対して、以前の撮影地点から該当撮影地点までの前方映像の変化および慣性センシングデータの変化量に基づいて、以前の撮影地点から該当撮影地点までの相対的な位置変化を生成して相対的移動情報として設定することができる。
一例として、プロセッサ250は、前方映像で少なくとも一つの特徴点を抽出し、抽出された前記少なくとも一つの特徴点の変化に基づいてモバイル端末の視覚的移動情報-前記視覚的移動情報は移動方向および移動距離のうち少なくとも一つを含む-を生成することができる。
一例として、プロセッサ250は、慣性センシングデータの変化量を利用して、モバイル端末の慣性的移動情報-前記慣性的移動情報は移動方向および移動距離のうち少なくとも一つを含む-を生成し、慣性的移動情報に基づいて視覚的移動情報を検証して前記相対的位置情報を生成することができる。
一例として、プロセッサ250は、視覚的移動情報で予め設定された臨界値-前記臨界値は方向転換の臨界値および移動距離の臨界値のうち少なくとも一つを含む-を超過する異常値データが発生すれば、視覚的移動情報の異常値データに対応する慣性的移動情報のデータを異常値データと比較して、異常値データの適用の有無を判断することができる。
プロセッサ250は駆動型撮影補助装置100の駆動を制御して駆動型撮影補助装置100の回転部が360度回転するように制御することができる。図7はユーザ端末で遂行される制御方法の一例を説明する図面であり、図7をさらに参照して説明する。プロセッサ250は通信モジュール240を制御して駆動型撮影補助装置100との通信連結、例えば、近距離無線通信を連結することができる(S701)。プロセッサ250は、360度色相イメージを撮影するために、撮影補助装置の回転動作を制御するとともに、カメラを撮影制御して360度撮影をするようにすることができる(S702)。また、プロセッサ250は360度深度マップイメージを撮影するために、撮影補助装置の回転動作を制御するとともに、距離測定センサ220の駆動を制御して360度測定をするようにすることができる(S703)。
プロセッサ250はカメラ210で撮像されたイメージに基づいて360度色相イメージを生成し、距離測定センサ220の測定データに基づいて360度深度マップイメージを生成することができる。ただし、実施例により、このような360度色相イメージまたは360度深度マップイメージの生成は、サーバー300で遂行されてもよい。
一実施例で、プロセッサ250は駆動型撮影補助装置100による第1回転時にカメラの撮影を制御して360度撮影を遂行し、第2回転時に距離測定センサ220の感知を制御して360度感知を遂行できる。例えば、プロセッサ250は、室内空間のいずれか一撮影地点で、駆動型撮影補助装置100の動作を制御してユーザ端末の撮影方向が360度で第1回転するように制御して、いずれか一撮影地点での360度色相イメージを生成することができる。プロセッサ250は、駆動型撮影補助装置100の動作を制御してユーザ端末の撮影方向が360度で第2回転するように制御して、いずれか一撮影地点での360度テプスメプイメージを生成することができる。
プロセッサ250は室内空間のそれぞれの地点に対する相対的距離情報、360度色相イメージ-またはこれらを生成するための複数の色相イメージ-および360度深度マップイメージ-またはこれらを生成するための複数の深度マップイメージ-を一つのデータセット、すなわち、撮影データセットで保存し、これをサーバー300に提供することができる。
図5は室内空間内の複数の撮影地点での撮影例を説明するための図面であり、図6は本出願に開示される一実施例に係るユーザ端末で遂行される制御方法の一例を説明する図面である。
図5および図6を参照して、ユーザ端末で遂行される撮影データセット生成方法について説明する。
図5の室内空間では総4回の撮影がなされたことが分かり、このような撮影地点の移動はユーザによって遂行され得る。
図6を参照すると、ユーザはスタート撮影地点SPで360度撮影を遂行できる。例えば、ユーザはユーザ端末200に表示される平面図でスタート撮影地点SPを設定することができる(S601)。
ユーザはユーザ端末200に設置されたソフトウェアを通じて撮影命令を入力することができ、ユーザ端末200は駆動型撮影補助装置100の動作を制御して360度撮影および感知を遂行できる(S602)。
ユーザ端末200は設定されたスタート撮影地点SPの位置情報およびその位置で撮影された360度色相イメージおよび360度深くイメージを含んでスタート撮影地点SPに対する撮影データセットを生成することができる(S603)。
以後、ユーザはスタート撮影地点SPから第1撮影地点P1に移動することができ、このような移動の間にユーザ端末200のカメラ210は移動中映像を撮影することができる。ユーザ端末200は移動中映像に対する映像変化と、慣性センシングデータの変化量に基づいて、スタート撮影地点SPから第1撮影地点P1までの相対的な位置変化を生成し、これを相対的移動情報として設定することができる(S604)。
ユーザは第1撮影地点P1で360度撮影およびセンシングを遂行するようにして、第1撮影地点SP1に対する360度色相イメージおよび360度深くイメージを生成するようにすることができる(S605)。
ユーザ端末200は生成された360度色相イメージおよび360度深くイメージに、相対的位置情報を含んで第1撮影地点P1に対する撮影データセットを生成することができる(S606)。
このような過程は、第2撮影地点および第3撮影地点でも引き続き遂行され、ユーザによって撮影終了が設定される地点-図示された例では、第3撮影地点-ですべての撮影データセットの生成が終了され得る。ユーザ端末200は生成したすべての撮影データセットをサーバー300に送信することができる。
以下、図8~図15を参照して、サーバー300の多様な実施例について説明する。
図8は、本出願に開示される一実施例に係るサーバーを説明するブロック構成図である。図8を参照すると、サーバー300は通信モジュール310、メモリ320およびプロセッサ330を含むことができる。しかし、このような構成は例示的なものであり、本開示を実施するにおいて、このような構成に加えて新しい構成が追加されたり一部の構成が省略され得ることは言うまでもない。
通信モジュール310はユーザ端末200との通信を遂行できる。例えば、プロセッサ330は通信モジュール310を通じて連結されたユーザ端末200から各種データまたは情報を受信することができ、外部装置に各種データまたは情報を伝送してもよい。通信モジュール310は多様な通信モジュールが適用可能であり、有線通信または無線通信を支援することができる。
メモリ320には電子装置300に関する少なくとも一つの命令が保存され得る。メモリ320には電子装置300を駆動させるためのO/S(Operating System)が保存され得る。また、メモリ320には本開示の多様な実施例によりサーバー300が動作するための各種ソフトウェアプログラムやアプリケーションが保存されてもよい。そして、メモリ320はフラッシュメモリ(Flash Memory)などのような半導体メモリやハードディスク(HardDisk)などのような磁気保存媒体などを含むことができる。
具体的には、メモリ320には本開示の多様な実施例によりサーバー300が動作するための各種ソフトウェアモジュールが保存され得、プロセッサ330はメモリ320に保存された各種ソフトウェアモジュールを実行してサーバー300の動作を制御することができる。すなわち、メモリ320はプロセッサ330によりアクセスされ、プロセッサ330によるデータの読み取り/記録/修正/削除/更新などが遂行され得る。
その他にも本開示の目的を達成するための範囲内で必要な多様な情報がメモリ320に保存され得、メモリ320に保存された情報は外部装置から受信されたりユーザによって入力されることによって更新されてもよい。
プロセッサ330は電子装置300の全般的な動作を制御する。具体的には、プロセッサ330は前述したような通信モジュール310およびメモリ320を含む電子装置300の他の構成と電気的に連結され、メモリ320に保存された少なくとも一つの命令を実行してサーバー300の動作を全般的に制御することができる。
プロセッサ330は多様な方式で具現され得る。例えば、プロセッサ330は特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)、エンベデッドプロセッサ、マイクロプロセッサ、ハードウェアコントロールロジック、ハードウェア有限状態機械(hardware Finite State Machine、FSM)、デジタル信号プロセッサ(Digital Signal Processor、DSP)のうち少なくとも一つで具現され得る。一方、本開示でプロセッサ330という用語はCPU(Central Processing Unit)、GPU(Graphic Processing Unit)およびMPU(Main Processing Unit)等を含む意味で使われ得る。
図9は本出願に開示される一実施例に係るサーバーで遂行される制御方法の一例を説明する図面であり、図9を参照してプロセッサ330の仮想の3次元モデルを生成する動作について説明する。
プロセッサ330はユーザ端末200から現実室内空間内の複数の撮影地点それぞれに対する複数の撮影データセットを受信することができる(S901)。
プロセッサ330は複数の撮影地点の各撮影地点で生成された360度色相イメージと360度テプスメプイメージを単位ピクセルの位置別に関連させて、各単位ピクセル別に距離値および色相値を設定してポイントグループを生成することができる(S902)。
ここで、ポイントグループはそれぞれの撮影地点ごとに個別的に生成され得る。
例えば、複数のポイントグループはそれぞれの撮影地点ごとに個別的に独立座標系を基準として生成され得る。すなわち、プロセッサ330はそれぞれの撮影地点で生成された360度色相イメージと360度テプスマップイメージを単位ピクセルの位置別に関連させて、それぞれの距離値と色相値を有するポイントを生成してポイントグループを生成することができる。このようなポイントグループは撮影地点別に個別で一つずつ生成され、カメラの位置が一軸上に位置する3次元絶対座標系に基づいて生成され得る。
プロセッサ330はそれぞれ独立座標系を基準として生成された複数のポイントグループに対して位置を反映して一つの座標系に反映して、一つの統合ポイントグループを形成することができる。例えば、プロセッサ330はそれぞれ独立座標系を基準として生成された複数のポイントグループそれぞれに対する位置情報、すなわち、相対的位置情報に基づいて一つの統合的な絶対座標系に配置して統合ポイントグループを形成することができる(S903)。
図5の例を挙げると、スタート撮影地点SPを、統合的な絶対座標系、例えば、統合3軸座標系の基準位置として設定し、スタート撮影地点SPから第1撮影地点P1までの相対的距離情報を反映して統合3軸座標系での第1撮影地点P1の絶対座標位置を設定することができる。一例として、相対的距離情報は絶対座標系での水平平面(例えば、X-Y平面)の位置を設定するのに使われ、高さ情報(例えば、Z軸値)はカメラ高さHcにすべて同一に設定され得る。
プロセッサ330は統合ポイントグループに基づいて3次元仮想モデルを生成することができる。例えば、プロセッサ330は統合ポイントグループに基づいてメッシュネットワークを生成することができる(S904)。
メッシュネットワークは統合ポイントグループに基づいて設定され、統合ポイントグループを単位空間で区画し、単位空間ごとに一つのメッシュポイントを生成し、このようなメッシュポイントを隣接したメッシュポイントと連結することによって生成され得る。一例として、メッシュポイントは単位空間を代表する-例えば、単位空間の平均に最も近い-単位空間内のいずれか一つのポイントで設定され得る。他の例として、メッシュポイントは単位空間内に存在する複数のポイントの平均的な値-例えば、位置値および色相値-を算出して設定され得る。
プロセッサ330は生成されたメッシュネットワークに基づいて、複数のメッシュポイントを頂点とするフェースを多数個設定して3次元メッシュモデルを生成することができる。例えば、隣接した3個のメッシュポイントを連結して三角形の形状のフェースを複数個生成することによって、3次元メッシュモデルを生成することができる。
プロセッサ330は、生成されたメッシュネットワーク、すなわち、3次元メッシュモデルに含まれた複数のフェースそれぞれに対して、360度色相イメージを利用してテクスチャリングして3次元仮想モデルを生成することができる(S905)。
このようなテクスチャリングの遂行時、カメラの死角地帯にある領域に対してはテクスチャリングが遂行されなくてもよい。このような場合、テクスチャリングが遂行されていないフェースはホール(Hole)として残っており、プロセッサ330はこのようなホールを満たす過程を遂行できる。例えば、プロセッサ330は、メッシュネットワーク、すなわち、3次元メッシュモデルに含まれた複数のフェースの中で360度色相イメージに対応しないためホール(Hole)として残っている少なくとも一つのフェースに対して、ポイントグループのポイント色相に基づいて色相を設定することができる。
ここで、ポイントグループに含まれるポイントは前述した通り、360度色相イメージに基づいて色相値を有するので、このような色相値を利用してフェースの色相を設定することができる。例えば、ポイントグループ内のポイントに基づいてメッシュポイントの色相を決定することができ、単独で表現されるフェースはそのようなフェースを構成する複数の頂点メッシュポイントを有する。したがって、ホールフェースの複数の頂点メッシュポイントの色相に基づいて色相を拡張して-例えば、三角系フェースの場合、各頂点の色相に基づいてフェースへの色相を拡張して-フェースの色相を決定することができる。このような色相の拡張は互いに異なる色を有する二点の間でグラデーションの形態で中間色を含むように変化すること等で設定され得る。
図10は本出願に開示される一実施例に係るサーバーで遂行される制御方法の他の一例を説明する図面であり、図10はサーバーで遂行されるテクスチャリング方法の一実施例を説明し、図11~図15の例を参照して以下で説明する。
プロセッサ330は、3次元メッシュモデルに含まれた複数のフェースのうちいずれか一つである第1フェースを選択し、第1フェースに関連した複数の360度色相イメージ(以下、色相イメージと通称する)の中で第1フェースに適合ないずれか一つの第1色相イメージを選択することができる(S1001)。
ここで、第1フェースに関連した色相イメージを選定するにおいて、プロセッサ330は、第1フェースに垂直な単位ベクトルを算出し、これに基づいて該当単位ベクトルに対応する撮影角度を有する少なくとも一つの色相イメージを、該当フェースに関連した色相イメージとして選定することができる。これは、色相イメージの撮影時、該当色相イメージの撮影角度に対する情報が共に生成されるので、色相イメージに対する撮影高さおよび撮影角度情報に基づいて第1フェースに関連した、すなわち、第1フェースが写っている色相イメージを選定することができる。例えば、プロセッサ330は第1フェースに垂直な単位ベクトルと、それに所定角度内で対向する、すなわち、所定角度内で互いに対向する撮影角度を有する色相イメージを、該当フェースに関連した色相イメージとして選定することができる。
プロセッサ330はフェースに関連した色相イメージの中で、該当フェースに適合ないずれか一つの色相イメージを選別することができる。例えば、プロセッサ330は関連した色相イメージそれぞれに対して複数の加重値要素を算出した後、これに基づいて加重値を算定した後、加重値に基づいていずれか一つの色相イメージを選択することができる。
一例として、第1フェースにマッチングされる第1色相イメージは、3次元メッシュモデルに関連した複数の色相イメージの中で第1フェースに対する撮影方向、解像度およびカラーノイズを基準として評価して選別され得る。
プロセッサ330は選択されたいずれか一つの選択されたいずれか一つの色相イメージで、第1フェースに対応するローカル領域を選択して第1フェースにマッピングしてテクスチャリングを遂行できる(S1002)。
プロセッサ330はそれぞれの色相イメージの撮影位置に対する情報を有しているので、それぞれの色相イメージでの各客体と3Dメッシュモデルの各客体を互いに投影してマッピングすることができる。したがって、このような2次元色相イメージと3次元メッシュモデルの投影マッピングに基づいて、該当フェースに対応する2次元色相イメージでのローカル領域を選択することができる。
プロセッサ330は3次元メッシュモデルのすべてのフェースに対して、前述した段階S1001~S1002を繰り返して、各フェースに対して色相情報を生成してテクスチャリングを遂行できる(S1003)。このように生成された3Dモデルは各色相イメージ間の色相補正がなされていない状態であるので、同一の面に対してもムラが発生し得る。これは前述した通り、室内の各撮影地点での撮影環境が異なるためである。
プロセッサ330は、このような室内の各撮影地点での撮影環境による色相差を補正するために、カラー調整を遂行できる(S1004)。
図11は、一例として、室内空間内の六面体被写体、これに対して室内の第1撮影地点PP1と第2撮影地点PP2を図示する斜視図である。図12aは第1撮影地点PP1で撮影された色相イメージの一例を、図12bは第2撮影地点PP2で撮影された色相イメージの一例を図示する。
図12aおよび図12bは同一の被写体に撮影したが、図12bでは陰影による色相変化が発生した例を図示している。
プロセッサ330は、3次元メッシュモデルの第1フェースに対する基準ベクトル、すなわち、第1フェースに垂直な第1方向ベクトルVfc1を設定することができる。
プロセッサ330は第1フェースに関連した複数の色相イメージに対して、第1方向ベクトルと方向的関連性を有する第1加重値要素をそれぞれ算定することができる。
プロセッサ330は第1フェースに関連した複数の色相イメージの撮影方向を確認し、第1フェースの第1方向ベクトルと前記撮影方向間の方向的関連性に基づいて第1加重値要素を算定することができる。例えば、第1フェースの第1方向ベクトルと撮影方向間の角度が少ないほどより高い加重値要素が算定され得る。
プロセッサ330は第1フェースに関連した複数の色相イメージに対して、解像度に対する第2加重値要素をそれぞれ算定することができる。
一例として、プロセッサ330は前記複数の色相イメージ自体に対する解像度を確認し、これに基づいて第2加重値要素を算定することができる。すなわち、高い解像度を有するほど高い第2加重値要素を有するように算定することができる。
他の例として、プロセッサ330はテクスチャリングの対象となる客体または該当客体の一部であるフェースを識別し、識別された客体またはフェースの解像度に基づいて第2加重値要素を算定することができる。このような客体またはフェースに対する解像度は撮影地点での客体間の距離に反比例して設定されるので、距離上有利な色相イメージに高い第2加重値が付与される。
プロセッサ330は第1フェースに関連した複数の色相イメージに対して、カラーノイズに対する第3加重値要素をそれぞれ算定することができる。
プロセッサ330は各色相イメージに対してカラーノイズを算出することができる。カラーノイズを算出するために、DCGAN(Deep Convolutional Generative Adversarial Network)を利用した教師なし学習、Enlighten GANを利用した方法など、多様な方法論が適用され得る。
プロセッサ330はカラーノイズが少ないほど高い第3加重値要素が付与されるようにすることができる。
プロセッサ330は第1加重値要素~第3加重値要素を反映して、前記複数の色相イメージそれぞれに対して加重値を算出することができる。プロセッサ330は最も高い加重値を有する一つの色相イメージを、第1フェースとマッピングされる第1イメージとして選定することができる。
第1加重値要素~第3加重値要素の反映には多様なアルゴリズムが適用可能である。例えば、プロセッサ330は第1加重値要素~第3加重値要素を単純合算したり、またはこれらの平均を導き出すなどの多様な方式で加重値を算定することができる。
前述した例では第1加重値要素~第3加重値要素をすべて反映するものを例示したが、これに限定されるものではない。したがって、第1加重値要素と第2加重値要素に基づいて加重値を算定したり、または第1加重値要素と第3加重値要素に基づいて加重値を算定するなどの変形実施が可能である。ただし、このような変形においても、第1加重値要素を含むことがより高い性能を提供する要素である。
図13は、六面体のうち第1フェース(Fc1)に垂直な第1方向ベクトルを設定する例を図示している。図13と図11に図示された例を参照すると、第1撮影地点PP1が、第2撮影地点PP2より高い第1加重値を有することが分かる。
図14aは第1撮影地点PP1での色相イメージで第1フェースに対応するローカル領域(P1Fc1)を、図14bは第2撮影地点PP2での色相イメージで第1フェースに対応するローカル領域(P2Fc1)を例示している。
図14aに図示された、第1撮影地点PP1での色相イメージが、図14bに図示された、第2撮影地点PP2での色相イメージより高い解像度を有するので、第2加重値要素がさらに高いことが分かる。このような解像度は該当フェースの大きさに基づいて設定され得る。
カラーノイズは図14bに図示された第2撮影地点PP2での色相イメージでより高く設定されるであろうため、したがって、図14aに図示された第1撮影地点PP1がさらに高い第3加重値要素を有するであろう。
したがって、第1フェースに対しては第1撮影地点PP1での色相イメージが選択されるであり、第1撮影地点PP1での色相イメージでのローカル領域(P1Fc1)を第1フェースにマッチングして第1フェースに対してテクスチャリングが遂行されたものを図15で図示している。
以上で説明した本出願は前述した実施例および添付された図面によって限定されるものではなく、後述する特許請求の範囲によって限定され、本出願の構成は本出願の技術的思想を逸脱しない範囲内でその構成を多様に変更および改造できることが、本出願が属する技術分野で通常の知識を有した者は容易に分かる。
本発明はユーザ端末およびサーバーを含む3次元仮想モデル提供システムに関し、室内空間での多くの撮影地点で収集された撮影データセットを利用して室内空間に対応する3次元仮想空間を正確に提供することができ、360度回転可能な駆動型補助据え置き装置を利用することによって、スマートフォンのような一般的なスマート機器を利用しても容易に3次元仮想モデルを生成できる環境を提供することができ、室内空間での多くの撮影地点間の距離情報を効率的かつ正確に算出することによって、3次元仮想モデルの正確度を向上させることができるため、産業上の利用可能性が高い。
100:駆動方撮影補助装置
110:回転部
120:本体部
121:モータ部
122:制御部
123:通信部
200:ユーザ端末
210:カメラ
220:距離測定センサ
230:慣性測定センサ
240:通信モジュール
250:プロセッサ
260:メモリ
300:サーバー
310:通信モジュール
320:プロセッサ
330:メモリ

Claims (14)

  1. 現実室内空間内の複数の撮影地点の各地点で、以前の撮影地点から該当撮影地点までの相対的移動情報を導き出して該当撮影地点に対する位置情報を生成し、該当撮影地点を基準として生成された360度色相イメージおよび360度深度マップイメージを生成して該当撮影地点に対する撮影データセットを生成するユーザ端末;および
    前記ユーザ端末から前記現実室内空間内の複数の撮影地点それぞれに対する複数の撮影データセットを受信し、前記複数の撮影地点の各撮影地点で生成された360度色相イメージと360度深度マップイメージを単位ピクセルの位置別に関連させて、各単位ピクセル別に距離値および色相値を設定してポイントグループを生成するサーバー;を含み、
    前記ポイントグループはそれぞれの撮影地点ごとに個別的に生成され、
    前記サーバーは、前記複数の撮影地点ごとにそれぞれ個別的に生成された複数のポイントグループを前記位置情報を基準として位置的に関連させて一つの統合ポイントグループを形成し、前記統合ポイントグループに基づいて3次元仮想モデルを生成する
    ことを特徴とする3次元仮想モデル提供システム。
  2. 前記3次元仮想モデル提供システムは、
    前記ユーザ端末が据え置かれ、前記ユーザ端末の制御により動作して前記ユーザ端末の撮影方向を360度で回転させる駆動型撮影補助装置;をさらに含む
    請求項1に記載の3次元仮想モデル提供システム。
  3. 前記ユーザ端末は、
    いずれか一撮影地点で、前記駆動型撮影補助装置の動作を制御して前記ユーザ端末の撮影方向が360度で第1回転するように制御して前記いずれか一撮影地点での360度色相イメージを生成し、
    前記駆動型撮影補助装置の動作を制御して前記ユーザ端末の撮影方向が360度で第2回転するように制御して前記いずれか一撮影地点での360度深度マップイメージを生成する
    請求項2に記載の3次元仮想モデル提供システム。
  4. 前記ユーザ端末は、
    前記以前の撮影地点から前記該当撮影地点までの前方映像の変化および慣性センシングデータの変化量に基づいて、前記以前の撮影地点から前記該当撮影地点までの相対的な位置変化を生成して前記相対的移動情報として設定する
    請求項2に記載の3次元仮想モデル提供システム。
  5. 前記複数のポイントグループは
    それぞれの撮影地点ごとに個別的に独立座標系を基準として生成され、
    前記サーバーは、
    それぞれ独立座標系を基準として生成された前記複数のポイントグループを前記位置情報に基づいて一つの統合的な絶対座標系に配置して前記統合ポイントグループを形成する
    請求項1に記載の3次元仮想モデル提供システム。
  6. 前記サーバーは、
    前記統合ポイントグループに基づいて3次元メッシュモデルを生成し、生成された3次元メッシュモデルに含まれた複数のフェースそれぞれを360度色相イメージを利用してテクスチャリングして前記3次元仮想モデルを生成する
    請求項1に記載の3次元仮想モデル提供システム。
  7. 前記サーバーは、
    前記3次元メッシュモデルに含まれた複数のフェースのうち360度色相イメージに対応しないためホール(Hole)として残っている少なくとも一つのフェースに対して、前記ポイントグループのポイント色相に基づいて色相を設定する
    請求項6に記載の3次元仮想モデル提供システム。
  8. ユーザ端末および前記ユーザ端末と連動して現実室内空間に対応する仮想の3次元モデルを提供するサーバーを含むシステムで遂行される3次元モデル生成方法であって、
    前記ユーザ端末が、前記現実室内空間内の複数の撮影地点それぞれで複数の撮影データセットを生成して前記サーバーに提供する段階;
    -撮影データセットは、前記複数の撮影地点のうちいずれか一撮影地点を基準として生成された360度色相イメージ、前記いずれか一撮影地点を基準として生成された360度深度マップイメージおよび以前の撮影地点から前記いずれか一撮影地点までの相対的移動情報に基づいて導き出される位置情報を含む-
    前記サーバーが、前記複数の撮影地点の各撮影地点で生成された360度色相イメージと360度深度マップイメージを単位ピクセルの位置別に関連させて、各単位ピクセル別に距離値および色相値を設定してポイントグループを生成-前記ポイントグループはそれぞれの撮影地点ごとに個別的に生成される-する段階;および
    前記サーバーが、前記複数の撮影地点ごとに個別的に生成された複数のポイントグループを前記位置情報を基準として位置的に関連させて一つの統合ポイントグループを形成する段階;を含む
    ことを特徴とする3次元モデル生成方法。
  9. 前記システムは、
    前記ユーザ端末が据え置かれ、前記ユーザ端末の制御により動作して前記ユーザ端末の撮影方向を360度で回転させる駆動型撮影補助装置;をさらに含む
    請求項8に記載の3次元モデル生成方法。
  10. 前記ユーザ端末が前記現実室内空間内の複数の撮影地点それぞれで複数の撮影データセットを生成して前記サーバーに提供する段階は、
    前記ユーザ端末が、いずれか一撮影地点で、前記駆動型撮影補助装置の動作を制御して前記ユーザ端末の撮影方向が360度で第1回転するように制御して前記いずれか一撮影地点での360度色相イメージを生成する段階;および
    前記ユーザ端末が、前記駆動型撮影補助装置の動作を制御して前記ユーザ端末の撮影方向が360度で第2回転するように制御して前記いずれか一撮影地点での360度深度マップイメージを生成する段階;を含む
    請求項9に記載の3次元モデル生成方法。
  11. 前記ユーザ端末が前記現実室内空間内の複数の撮影地点それぞれで複数の撮影データセットを生成して前記サーバーに提供する段階は、
    前記以前の撮影地点から前記該当撮影地点までの前方映像の変化および慣性センシングデータの変化量に基づいて、前記以前の撮影地点から前記該当撮影地点までの相対的な位置変化を生成して前記相対的移動情報として設定する段階;をさらに含む
    請求項10に記載の3次元モデル生成方法。
  12. 前記複数のポイントグループは
    それぞれの撮影地点ごとに個別的に独立座標系を基準として生成され、
    前記サーバーは、
    それぞれ独立座標系を基準として生成された前記複数のポイントグループを前記位置情報に基づいて一つの統合的な絶対座標系に配置して前記統合ポイントグループを形成する
    請求項7に記載の3次元モデル生成方法。
  13. 前記3次元モデル生成方法は、
    前記サーバーが、前記統合ポイントグループに基づいて3次元メッシュモデルを生成し、生成された3次元メッシュモデルに含まれた複数のフェースそれぞれを360度色相イメージを利用してテクスチャリングして前記3次元仮想モデルを生成する段階;をさらに含む
    請求項7に記載の3次元モデル生成方法。
  14. 前記3次元モデル生成方法は、
    前記3次元メッシュモデルに含まれた複数のフェースのうち360度色相イメージに対応しないためホール(Hole)として残っている少なくとも一つのフェースに対して、前記ポイントグループのポイント色相に基づいて色相を設定する段階;をさらに含む
    請求項13に記載の3次元モデル生成方法。
JP2022564794A 2021-12-31 2022-07-20 3次元仮想モデル提供方法およびそのための3次元仮想モデル提供システム Pending JP2024506763A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2021-0193635 2021-12-31
KR1020210193635A KR102600420B1 (ko) 2021-12-31 2021-12-31 3차원 가상모델 제공 방법 및 그를 위한 3차원 가상모델 제공 시스템
PCT/KR2022/010580 WO2023128100A1 (ko) 2021-12-31 2022-07-20 3차원 가상모델 제공 방법 및 그를 위한 3차원 가상모델 제공 시스템

Publications (1)

Publication Number Publication Date
JP2024506763A true JP2024506763A (ja) 2024-02-15

Family

ID=86999461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022564794A Pending JP2024506763A (ja) 2021-12-31 2022-07-20 3次元仮想モデル提供方法およびそのための3次元仮想モデル提供システム

Country Status (4)

Country Link
US (1) US20240221313A1 (ja)
JP (1) JP2024506763A (ja)
KR (2) KR102600420B1 (ja)
WO (1) WO2023128100A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006053694A (ja) * 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
KR101835434B1 (ko) * 2015-07-08 2018-03-09 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
KR102526700B1 (ko) * 2018-12-12 2023-04-28 삼성전자주식회사 전자 장치 및 그의 3d 이미지 표시 방법
KR20200082441A (ko) * 2018-12-28 2020-07-08 주식회사 시스템팩토리 촬영영상을 이용한 실내공간 실측 시스템
KR20210050366A (ko) * 2019-10-28 2021-05-07 에스케이텔레콤 주식회사 촬영 위치 결정 장치 및 방법

Also Published As

Publication number Publication date
KR102600420B1 (ko) 2023-11-09
WO2023128100A1 (ko) 2023-07-06
US20240221313A1 (en) 2024-07-04
KR20230157275A (ko) 2023-11-16
KR20230103054A (ko) 2023-07-07

Similar Documents

Publication Publication Date Title
TWI782332B (zh) 一種擴增實境資料呈現方法、設備及儲存媒體
US9736451B1 (en) Efficient dense stereo computation
WO2019049421A1 (ja) キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法
JP5093053B2 (ja) 電子カメラ
CN111862179A (zh) 三维对象建模方法与设备、图像处理装置及介质
US8803880B2 (en) Image-based lighting simulation for objects
CN111161336B (zh) 三维重建方法、三维重建装置和计算机可读存储介质
CN111145294B (zh) 二维户型图构建方法及装置、存储介质
EP2807629A1 (en) Mobile device configured to compute 3d models based on motion sensor data
US8509522B2 (en) Camera translation using rotation from device
CN107077719B (zh) 数码照片中基于深度图的透视校正
Yeh et al. 3D reconstruction and visual SLAM of indoor scenes for augmented reality application
Nyland et al. The impact of dense range data on computer graphics
CN113129346B (zh) 深度信息获取方法和装置、电子设备和存储介质
JP4896762B2 (ja) 画像処理装置および画像処理プログラム
JP2024506763A (ja) 3次元仮想モデル提供方法およびそのための3次元仮想モデル提供システム
KR101963449B1 (ko) 360°비디오 생성 시스템 및 방법
EP3882846B1 (en) Method and device for collecting images of a scene for generating virtual reality data
JP7415496B2 (ja) 画像処理装置、プログラム及び画像処理システム
US11315346B2 (en) Method for producing augmented reality image
JP7498517B2 (ja) 3次元仮想モデル生成のためのテクスチャリング方法およびそのためのコンピューティング装置
JP2017162192A (ja) 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法
JP2020204973A (ja) 情報処理装置、プログラム及び情報処理システム
KR20240045736A (ko) 3차원 가상모델 생성 방법 및 그를 위한 컴퓨팅 장치
KR20230103198A (ko) 3차원 가상모델 생성을 위한 텍스처링 방법 및 그를 위한 컴퓨팅 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240626