JP7489736B2 - 仮想世界生成方法、装置及び方法を遂行するプログラム - Google Patents

仮想世界生成方法、装置及び方法を遂行するプログラム Download PDF

Info

Publication number
JP7489736B2
JP7489736B2 JP2023034374A JP2023034374A JP7489736B2 JP 7489736 B2 JP7489736 B2 JP 7489736B2 JP 2023034374 A JP2023034374 A JP 2023034374A JP 2023034374 A JP2023034374 A JP 2023034374A JP 7489736 B2 JP7489736 B2 JP 7489736B2
Authority
JP
Japan
Prior art keywords
real space
virtual
edges
real
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023034374A
Other languages
English (en)
Other versions
JP2024036278A (ja
Inventor
ミ チェ,ス
ウォン イ,ジョン
サン カン,ホ
Original Assignee
インダストリー アカデミー コーオペレイション ファウンデーション オブ セジョン ユニバーシティ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インダストリー アカデミー コーオペレイション ファウンデーション オブ セジョン ユニバーシティ filed Critical インダストリー アカデミー コーオペレイション ファウンデーション オブ セジョン ユニバーシティ
Publication of JP2024036278A publication Critical patent/JP2024036278A/ja
Application granted granted Critical
Publication of JP7489736B2 publication Critical patent/JP7489736B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three-dimensional [3D] modelling for computer graphics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating three-dimensional [3D] models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)

Description

本発明は、仮想世界生成方法および装置に係り、より詳細には、実世界に対する映像を入力として容易に仮想世界を生成することができる方法および装置に関する。
近年、メタバースの発展により、仮想/拡張/混合現実への関心が高まり、リモートビデオ会議、面接、新入生オリエンテーション、エンターテイメントなどの数多くの分野でコンテンツが活発に研究されている。
このような傾向に合わせて商業的に活用するために様々な分野でメタバースの導入を試みているが、ソフトウェア開発の参入障壁が高いだけでなく、専門家の不足現象も重なり、導入が難しくなっている。
メタバースプラットフォームの一つである「Gather.town」は、オンラインにて2Dグラフィックで仮想空間とユーザーキャラクターを利用してビデオ会議を行うソフトウェアである。このような2D形式の仮想空間はビデオ会議とメタバースを融合した形態であり、コンテンツ開発の参入障壁は高くないが、実際に会議を行うのと比べると存在感が非常に低い。
一方、3D形式のメタバースプラットフォームは、ほとんどHMD(Head-Mounted Display)を着用して、両眼で直接空間とオブジェクトを感じて相互作用しながらコンテンツを利用する。このような3D形式のコンテンツを開発するためには、3D開発ツールを使用しなければならず、代表的にはUnity(登録商標)ソフトウェアとアンリアルエンジンソフトウェアがある。Unityは、3D仮想現実および建築物の可視化と2Dビデオゲームの開発環境を提供するゲームエンジンである。アンリアルエンジンもUnityと類似しているが、サポート可能なプラットフォームと開発時に要求されるプログラミング言語が異なる。
現在、仮想/拡張および混合現実ベースのオーサリング(Authoring)は、ほとんどがデスクトップで事前にプログラミングする形態で進行されており、開発のためのソフトウェアはほとんど前記のUnityとアンリアルエンジンを採用している。これを使用するには、ソフトウェアを扱うことができる専門家が必要である。
大韓民国登録特許10-2134423号公報
前記の従来技術の問題を解決するために、本発明は、複雑なオーサリングソフトウェアを使用しなくても便利に仮想世界を生成することができる仮想世界生成方法および装置を提案する。
前記の目的を達成するために、本発明の一実施形態によれば、仮想世界生成装置であって、プロセッサと、前記プロセッサに連結されるメモリと、を含み、前記メモリは、ステレオカメラを備える装置を介して実空間に対する映像の入力を受け、前記映像を介して前記実空間および前記実空間内に存在するオブジェクトに対するメッシュデータを収集し、前記実空間に対するメッシュデータから前記実空間の第1のエッジに対する座標を決定し、前記実空間に対して予め設定された多角形のエッジよりも前記実空間の第1のエッジが多い場合、所定方向を向く複数の第2のエッジそれぞれによって定義される仮想空間の面積に基づいて前記複数の第2のエッジのうち1つを選択し、前記第1のエッジのうち一部および前記選択された1つの第2のエッジによって定義される仮想空間および前記実空間で認識されたオブジェクトに対する拡張された画像を出力するように、前記プロセッサによって実行されるプログラム命令語を格納した仮想世界生成装置が提供される。
前記装置は、ヘッドマウントディスプレイであり、前記プログラム命令語は、前記実空間内に配置された少なくとも2つの追跡装置を介して、前記実空間内で前記ヘッドマウントディスプレイの位置を追跡して前記第1のエッジに対する座標を決定することができる。
前記プログラム命令語は、前記実空間での中央で前記ヘッドマウントディスプレイの3次元初期座標が原点に設定され、前記3次元初期座標におけるy座標は、ユーザーによって予め設定されることができる。
前記実空間の境界は、前記3次元初期座標を基準に前記実空間の第1のエッジのうち少なくとも一部のxおよびz座標で定義されることができる。
前記予め設定された多角形の各エッジは、x軸およびy軸、前記x軸およびz軸で分割される象限の1つに配置され、前記プログラム命令語は、同一軸または同一象限内で所定角度範囲内に位置する前記複数の第2のエッジそれぞれによって定義される仮想空間の面積を計算し、前記計算された面積が最も大きい1つの前記第2のエッジを選択することができる。
前記プログラム命令語は、ディープラーニングモデルを介して前記実空間で認識された実オブジェクトを詳細に分類し、詳細に分類された実オブジェクトの拡張された画像を出力することができる。
前記プログラム命令語は、前記仮想空間に予め設定された仮想シミュレーションに対応する画像を出力することができる。
本発明の他の態様によれば、プロセッサおよびメモリを含むコンピューティングデバイスで仮想世界を生成する方法であって、ステレオカメラを備える装置を介して実空間に対する映像の入力を受けるステップと、前記映像を介して前記実空間および前記実空間内に存在するオブジェクトに対するメッシュデータを収集するステップと、前記実空間に対するメッシュデータから前記実空間の第1のエッジに対する座標を決定するステップと、前記実空間に対して予め設定された多角形のエッジよりも前記実空間の第1のエッジが多い場合、所定方向を向く複数の第2のエッジそれぞれによって定義される仮想空間の面積に基づいて前記複数の第2のエッジのうち1つを選択するステップと、前記第1のエッジのうち一部および前記選択された1つの第2のエッジによって定義される仮想空間および前記実空間で認識された実オブジェクトに相応する仮想オブジェクトを出力するステップと、を含む仮想世界生成方法が提供される。
本発明の他の態様によれば、前記の方法を遂行するコンピュータ読み取り可能な記録媒体に格納されたプログラムが提供される。
本発明によれば、非専門家も容易に仮想空間と仮想オブジェクトをインテリジェントに生成できるという利点がある。
本発明の好ましい一実施形態に係る仮想世界生成システムを図示した図面である。 本実施形態に係るヘッドマウントディスプレイと仮想世界生成装置の詳細構成を図示した図面である。 本実施形態に係る実世界とこれを介して具現される仮想世界を図示した図面である。 本実施形態に係る実空間および実オブジェクトに対するメッシュデータ収集過程を示した図面である。 実空間を4つのエッジを有する四角形に設定した場合に仮想空間を定義するためのエッジを選択する過程を図示した図面である。 実空間を4つのエッジを有する四角形に設定した場合に仮想空間を定義するためのエッジを選択する過程を図示した図面である。 本実施形態に係る仮想空間を決定するための擬似コード(Pseudocode)を示したものである。 五角形、六角形の形態と座標軸を含む象限分割を示したものである。 本実施形態に係る仮想オブジェクトの生成過程を図示した図面である。 本実施形態に係る仮想空間における火災状況を簡単に示したものである。
本発明は、様々な変更を加えることができ、様々な実施形態を有することができるので、特定の実施形態を図面に例示し、詳細な説明に詳しく説明する。しかし、これは本発明を特定の実施形態に限定するためのものではなく、本発明の思想および技術の範囲に含まれるすべての変更、均等物ないし代替物を含むものとして理解されなければならない。
本明細書において使用する用語は、単に特定の実施形態を説明するために使用するものであり、本発明を限定する意図のものではない。単数の表現は、文脈上明らかに異なるように意味しない限り、複数の表現を含む。本明細書において、「含む」または「有する」などの用語は、本明細書に記載された特徴、数字、ステップ、動作、構成要素、部品、またはこれらを組み合わせたものが存在することを指定するためのものであって、1つまたはそれ以上の異なる特徴や数字、ステップ、動作、構成要素、部品、またはこれらを組み合わせたものの存在または付加可能性を予め排除しないものとして理解されなければならない。
また、各図面を参照して説明する実施形態の構成要素は、その実施形態にのみ限定的に適用されるものではなく、本発明の技術的思想が維持される範囲内で他の実施形態に含まれるように具現されることができ、また別途の説明が省略されても複数の実施形態が統合された1つの実施形態に再度具現されることができることも当然である。
また、添付図面を参照しての説明において、図面符号に関係なく同じ構成要素は同一または関連する参照符号を付与し、これに対する重複する説明は省略する。本発明の説明において、関連する公知技術の具体的な説明が本発明の要旨を不必要に曖昧にする可能性があると判断される場合には、その詳細な説明は省略する。
図1は、本発明の好ましい一実施形態に係る仮想世界生成システムを図示した図面である。
本実施形態に係る仮想世界生成システムは、仮想世界生成装置100およびヘッドマウントディスプレイ(HMD)102を含む。
本実施形態に係る仮想世界生成装置100は、プロセッサおよびメモリを含むことができる。
プロセッサは、コンピュータプログラムを実行できるCPU(central processing unit)やその他の仮想マシンなどを含むことができる。
メモリは、固定式ハードドライブまたは着脱式記憶装置などの不揮発性記憶装置を含むことができる。着脱式記憶装置は、コンパクトフラッシュ(登録商標)ユニット、USBメモリースティックなどを含むことができる。メモリは、各種ランダムアクセスメモリのような揮発性メモリも含むことができる。
本実施形態に係るプログラム命令語は、実空間(実世界)に対する映像情報を入力として、実空間に対応する仮想空間と実空間内に配置される実オブジェクトに対する拡張された画像(augmented image,仮想オブジェクト)を生成する。
図2は、本実施形態に係るヘッドマウントディスプレイと仮想世界生成装置の詳細構成を図示した図面である。
図2に図示したように、本実施形態に係るヘッドマウントディスプレイ102は、ステレオカメラ(Dual Camera)200を含み、これにより実空間に対する映像を撮影する。
図2に図示したように、本実施形態に係る仮想世界生成装置100は、パススルーモジュール(Pass-Through、210)、デプスモジュール(Depth、212)、メッシュデータ(Mesh Data)収集モジュール、3次元再構成モジュール(3D Reconstruction、214)およびAIビジョンモジュール(AI vision、216)を含むことができる。
ステレオカメラデータを利用してパススルーモジュール210が活性化されると、ヘッドマウントディスプレイ102を着用した状態で実世界を見ることができ、さらに材質や質感効果を知ることもできる。
デプスモジュール212は、実空間および実空間に配置される実オブジェクトに対する深度を推定する。
本実施形態では、互いに離隔されたステレオカメラ200間の視点不一致を利用して深度を推定する。
メッシュデータ収集モジュールは、深度情報を利用して実空間および実空間内に配置された実オブジェクトのメッシュデータを収集する。
収集されたメッシュデータは、仮想空間生成モジュール(Create Virtual Space)230に入力される。
仮想空間生成モジュール230は、メッシュデータを選択し、予め設定されたアルゴリズムを介して仮想空間を生成する。
図3は、本実施形態に係る実世界とこれを介して具現される仮想世界を図示した図面である。
図3に図示したように、実空間にはヘッドマウントディスプレイ102の位置を追跡することができる装置300が配置され、これにより実空間内でヘッドマウントディスプレイ102の位置を把握することができる。
本実施形態に係るヘッドマウントディスプレイ102は、専門家用VRのためのVIVE PROであることができ、位置追跡装置は、VIVE PROと連動するベースステーションであることができるが、必ずしもこれに限定されるものではない。
本実施形態に係る位置追跡装置300は、実空間内に少なくとも2つ設けられることができ、垂直および水平で所定角度(例えば、垂直110度/水平150度)の認識範囲を有することができ、互いに所定距離以内に設けられることができる。
仮想空間生成モジュール230は、収集されたメッシュデータおよび位置追跡装置300を介してヘッドマウントディスプレイ102の現在位置を介して仮想空間を生成する。
図4は、本実施形態に係る実空間および実オブジェクトに対するメッシュデータ収集過程を示した図面である。
図4に図示したように、実空間の壁と床がメッシュデータ形式で構築される。
ここで、メッシュデータは、一定間隔で配置されたデータの数列および他の要素を有する非構造化グリッドを意味し、メッシュデータを構成する図形は、三角形、四角形、六角形などを多様に含むことができる。
本実施形態によれば、仮想化する場所の形態に応じて、ユーザーが実空間の中央からスタートして実空間のエッジ(edge)部分(実空間の境界を決定できる部分)を見ながらメッシュデータを収集する。
初期に、実空間の中間位置(中央)にヘッドマウントディスプレイ102を位置させ、このとき、ヘッドマウントディスプレイ102の3次元座標x、y、z=(0、y、0)に設定する。
ここで、yは、ユーザーの立っている位置において地面からの高さであって、予め設定されることができ、ヘッドマウントディスプレイ102が動いても変わらないように設定される。
本実施形態によれば、実空間を所定数のエッジ(edge)を有する多角形(四角形、五角形、六角形など)であると予め設定して仮想空間を生成する。
仮想世界生成モジュール230は、前述したように収集された実空間に対するメッシュデータから実空間のエッジに対する座標を決定する。
前述したように、ヘッドマウントディスプレイ102は、初期に実空間の中央に位置して実空間周辺に対する映像を撮影し、実空間に対するメッシュデータを収集する場合、実空間の境界を定義することができるエッジ(第1のエッジ)の座標を決定することができる。
実空間がユーザーの設定した多角形にマッチングされる場合には特に問題がないが、図5のように不規則な形状を有する場合には仮想空間を定義するためのエッジを選択しなければならない。
図5~図6は、実空間を4つのエッジを有する四角形に設定した場合に仮想空間を定義するためのエッジを選択する過程を図示した図面である。
図5~図6を参照すると、x軸とz軸を決定するステップにおいてアルゴリズムは4つのエッジを4つの象限でそれぞれ探索して最大値を求め、これを仮想空間の境界として決定する。
各象限のエッジの初期値は原点に設定されており、左上の第2象限を除く第1、3、4象限は四角形の形態で位置を決定することに難しさがない。
空間を探索して求めた全体のメッシュデータのうち、1つのメッシュデータは3つのVector3座標をつなぐ形の三角形形状であることを考慮すると、探索されたVector3のxとz座標の両方とも、既存の探索したエッジの値よりも大きい場合には、これを空間の最大値と見做して優先的に更新する。
もしxとz座標のうち一つでも大きくない場合、または両方とも大きくない場合には、ベクトル値を比較してエッジを決定する。
図5~図6のベクトル(1)とベクトル(2)の頂点部分は、第2象限の探索中にx座標とz座標の両方とも大きいという条件を満たさない可能性があるが空間のエッジに分類され得る場合である。
もしベクトル(1)のエッジで仮想空間を生成すると、図6(a)のような四角形形態の仮想空間が生成され、ベクトル(2)のエッジで仮想空間を生成すると、図6(b)のような面積の仮想空間が生成される。
ユーザーが設定した四角形形態の仮想空間生成において最大限適切な面積の仮想空間を生成するためには、ベクトル値がより大きい図6(a)形状のように生成されなければならない。
図7は、前記過程に関する擬似コード(Pseudocode)を示したものである。
再度説明すると、図5~図6のように、実空間に対して予め設定された多角形のエッジよりも前記実空間の第1のエッジが多い場合、本実施形態に係る仮想世界生成装置100は、所定方向を向く複数の第2のエッジ(ベクトル(1)、ベクトル(2))それぞれによって定義される仮想空間の面積に基づいて、前記複数の第2のエッジのうち1つを選択する。
四角形の場合、4つのエッジが第1~第4象限上にそれぞれ位置する。
前述したように、x、y、z座標のうちyは固定されるので、象限はxおよびz軸に定義されることができる。
図5のように第2象限に2つのエッジが存在する場合、2つのエッジのうち1つを選択しなければならない。
前述したように、仮想世界生成装置100は、ベクトル(1)のエッジとベクトル(2)のエッジのそれぞれによって定義される仮想空間の面積を計算し、面積の大きさがより大きいベクトル(1)のエッジを選択して四角形の仮想空間を生成する。
図8は、五角形、六角形の形態と座標軸を含む象限分割を示したものである。
図8(a)~図8(b)を参照すると、五角形と六角形の形態において、エッジは象限だけでなく軸方向にも配置されるため、仮想世界生成装置100は、同一軸または同一象限内で所定角度範囲内に位置する複数のエッジそれぞれによって定義される仮想空間の面積を計算し、計算された面積が最も大きい1つのエッジを選択して仮想空間を生成する。
再度図2を参照すると、メッシュデータの収集が完了すると、3次元再構成モジュール214は、メッシュデータと色相、質感、物理的衝突および平面感知などの作業を遂行して3次元画像を再構成する。このとき、3次元画像は拡張者がOBJのファイルで格納されることができる。
また、本実施形態によれば、AIビジョンモジュール216は、3次元再構成モジュール214で再構成された3次元画像を利用して実空間内に配置された実オブジェクト(例えば、机、椅子など)に対する学習を遂行する。
前述したように、再構成された3次元画像に対してデフォルトタグが付与される。
本実施形態によれば、ディープラーニング基盤でオブジェクトに対する詳細分類過程が遂行されることができ、これによりタグが変更されることができる。
オブジェクトの詳細分類のために、本実施形態による仮想世界生成装置100は、仮想オブジェクト生成モジュール(Create Object)240を含む。
仮想オブジェクト生成モジュール240は、メッシュデータ基盤でディープラーニング(Deep Learning)技法を適用して特定の実オブジェクトを認識して仮想オブジェクトを生成する。
既存のVIVE PROのSRWorksが提供するオブジェクト認識の場合は、3次元再構成モジュール214およびAIビジョンモジュール216のデータ交流を通じて特定の実オブジェクトを認識し、各実オブジェクトに対するメッシュデータを分離して提供する。
例えば、背もたれのある椅子と背もたれのない椅子の2つの異なる椅子をVIVE PRO SRWorksを使用してスキャンすると、2つの椅子を一度にスキャンした1つのメッシュデータの塊を収集する。これを前述したSRWorksの機能で分析すると、一つの塊であった椅子のメッシュデータを各椅子のメッシュデータに分けると同時に「Chair」というタグ(Tag)を入力して分離させる。このとき、既存のメッシュデータの塊は消滅するのではなく、タグ付きの椅子のメッシュデータ2つが複製されて新たに生成される方式である。
これは他の実オブジェクトは分類することができるが、図9(a)のような同じ種類の実オブジェクト(例えば、背もたれのある椅子とない椅子)を分類することはできない。
そこで、本実施形態においては、図9(b)のように認識された実オブジェクトに対するディープラーニングを介して画像分類作業を通じてデフォルトタグを詳細に分類されたタグに変更する。
すなわち、本実施形態に係る仮想オブジェクト生成モジュール240は、ディープラーニングモデルを介して前記実空間で認識されたオブジェクトを詳細に分類し、詳細に分類されたオブジェクトの拡張された画像を出力する。
前述したように、仮想空間および仮想オブジェクトを生成すれば、現実ではできない各種の訓練および災害状況を演出することができる。
図10は、本実施形態に係る仮想空間における火災状況を簡単に示したものである。
図10を参照すると、仮想空間に火災状況のような仮想シミュレーションに対応する画像を表現することによって、消火器または非常口の位置を探す訓練を仮想で遂行することもできる。
前述した本発明の実施形態は例示の目的のために開示されたものであり、本発明に対する通常の知識を有する当業者であれば、本発明の思想と範囲内で様々な修正、変更、付加が可能であり、このような修正、変更および付加は下記の特許請求の範囲に属するものとみなすべきである。
100 仮想世界生成装置
102 ヘッドマウントディスプレイ
200 ステレオカメラ
210 パススルーモジュール
212 デプスモジュール
214 3次元再構成モジュール
216 AIビジョンモジュール
230 仮想空間生成モジュール
240 仮想オブジェクト生成モジュール

Claims (10)

  1. 仮想世界生成装置であって、
    プロセッサと、
    前記プロセッサに連結されるメモリと、を含み、
    前記メモリは、
    ステレオカメラを備える装置を介して実空間に対する映像の入力を受け、
    前記映像を介して前記実空間および前記実空間内に存在するオブジェクトに対するメッシュデータを収集し、
    前記実空間に対するメッシュデータから前記実空間の第1のエッジに対する座標を決定し、
    前記実空間に対して予め設定された多角形のエッジよりも前記実空間の第1のエッジが多い場合、所定方向を向く複数の第2のエッジそれぞれによって定義される仮想空間の面積に基づいて前記複数の第2のエッジのうち1つを選択し、
    前記第1のエッジのうち一部および前記選択された1つの第2のエッジによって定義される仮想空間および前記実空間で認識された実オブジェクトに相応する仮想オブジェクトを出力するように、前記プロセッサによって実行されるプログラム命令語を格納した、ことを特徴とする仮想世界生成装置。
  2. 前記装置は、ヘッドマウントディスプレイであり、
    前記プログラム命令語は、
    前記実空間内に配置された少なくとも2つの追跡装置を介して、前記実空間内で前記ヘッドマウントディスプレイの位置を追跡して前記第1のエッジに対する座標を決定する、ことを特徴とする請求項1に記載の仮想世界生成装置。
  3. 前記プログラム命令語は、
    前記実空間での中央で前記ヘッドマウントディスプレイの3次元初期座標が原点に設定され、前記3次元初期座標におけるy座標は、ユーザーによって予め設定される、ことを特徴とする請求項2に記載の仮想世界生成装置。
  4. 前記実空間の境界は、前記3次元初期座標を基準に前記実空間の第1のエッジのうち少なくとも一部のxおよびz座標で定義される、ことを特徴とする請求項3に記載の仮想世界生成装置。
  5. 前記予め設定された多角形の各エッジは、x軸およびy軸、前記x軸およびz軸で分割される象限の1つに配置され、
    前記プログラム命令語は、
    同一軸または同一象限内で所定角度範囲内に位置する前記複数の第2のエッジそれぞれによって定義される仮想空間の面積を計算し、
    前記計算された面積が最も大きい1つの前記第2のエッジを選択する、ことを特徴とする請求項4に記載の仮想世界生成装置。
  6. 前記プログラム命令語は、
    ディープラーニングモデルを介して前記実空間で認識された実オブジェクトを詳細に分類し、詳細に分類された実オブジェクトに相応する仮想オブジェクトを出力する、ことを特徴とする請求項1に記載の仮想世界生成装置。
  7. 前記プログラム命令語は、
    前記仮想空間に予め設定された仮想シミュレーションに対応する画像を出力する、ことを特徴とする請求項1に記載の仮想世界生成装置。
  8. プロセッサおよびメモリを含むコンピューティングデバイスで仮想世界を生成する方法であって、
    ステレオカメラを備える装置を介して実空間に対する映像の入力を受けるステップと、
    前記映像を介して前記実空間および前記実空間内に存在するオブジェクトに対するメッシュデータを収集するステップと、
    前記実空間に対するメッシュデータから前記実空間の第1のエッジに対する座標を決定するステップと、
    前記実空間に対して予め設定された多角形のエッジよりも前記実空間の第1のエッジが多い場合、所定方向を向く複数の第2のエッジそれぞれによって定義される仮想空間の面積に基づいて前記複数の第2のエッジのうち1つを選択するステップと、
    前記第1のエッジのうち一部および前記選択された1つの第2のエッジによって定義される仮想空間および前記実空間で認識された実オブジェクトに相応する仮想オブジェクトを出力するステップと、を含む、ことを特徴とする仮想世界生成方法。
  9. 前記実空間での中央で前記ステレオカメラを備える装置の3次元初期座標が原点に設定され、前記3次元初期座標におけるy座標は、ユーザーによって予め設定され、
    前記選択するステップは、前記実空間の境界を、前記3次元初期座標を基準に前記実空間の第1のエッジのうち少なくとも一部のxおよびz座標で定義するステップを含む、ことを特徴とする請求項8に記載の仮想世界生成方法。
  10. 請求項8に記載の方法をコンピュータに実行させるコンピュータ読み取り可能な記録媒体に格納された、ことを特徴とするプログラム。
JP2023034374A 2022-09-05 2023-03-07 仮想世界生成方法、装置及び方法を遂行するプログラム Active JP7489736B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0111872 2022-09-05
KR1020220111872A KR102524149B1 (ko) 2022-09-05 2022-09-05 가상세계 생성 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2024036278A JP2024036278A (ja) 2024-03-15
JP7489736B2 true JP7489736B2 (ja) 2024-05-24

Family

ID=85511173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023034374A Active JP7489736B2 (ja) 2022-09-05 2023-03-07 仮想世界生成方法、装置及び方法を遂行するプログラム

Country Status (4)

Country Link
US (1) US12225175B2 (ja)
EP (1) EP4332907A1 (ja)
JP (1) JP7489736B2 (ja)
KR (1) KR102524149B1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102524149B1 (ko) * 2022-09-05 2023-04-20 세종대학교산학협력단 가상세계 생성 방법 및 장치
KR20240178845A (ko) * 2023-06-23 2024-12-31 주식회사 셀버스 가상 공간 제작 솔루션 제공장치 및 방법
US12530829B2 (en) * 2023-09-20 2026-01-20 Google Llc Systems and methods for generating animations for 3D objects using machine learning

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020155121A (ja) 2019-03-19 2020-09-24 株式会社ソニー・インタラクティブエンタテインメント 画像を生成するための方法およびシステム
WO2021133465A1 (en) 2019-12-26 2021-07-01 Facebook Technologies, Llc Artificial reality system with varifocal display of artificial reality content

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9401044B1 (en) * 2011-09-26 2016-07-26 The Research Foundation For The State University Of New York Method for conformal visualization
US9786097B2 (en) * 2012-06-22 2017-10-10 Matterport, Inc. Multi-modal method for interacting with 3D models
US10586385B2 (en) * 2015-03-05 2020-03-10 Commonwealth Scientific And Industrial Research Organisation Structure modelling
KR102434406B1 (ko) * 2016-01-05 2022-08-22 한국전자통신연구원 공간 구조 인식을 통한 증강 현실 장치 및 그 방법
JP6201024B1 (ja) * 2016-10-12 2017-09-20 株式会社コロプラ ヘッドマウントデバイスを用いてコンテンツを提供するアプリケーションへの入力を支援するための方法、当該方法をコンピュータに実行させるためのプログラム、およびコンテンツ表示装置
US20180190022A1 (en) * 2016-12-30 2018-07-05 Nadav Zamir Dynamic depth-based content creation in virtual reality environments
KR102114496B1 (ko) * 2018-09-05 2020-06-02 전남대학교산학협력단 혼합 현실에서 작업 지원 정보를 제공하는 방법, 단말 및 작업 지원 서버
US10725308B1 (en) * 2018-10-08 2020-07-28 Facebook Technologies, Llc Dynamic attenuator for combining real world and virtual content
US11024079B1 (en) * 2019-03-11 2021-06-01 Amazon Technologies, Inc. Three-dimensional room model generation using panorama paths and photogrammetry
US11361513B2 (en) * 2019-04-23 2022-06-14 Valve Corporation Head-mounted display with pass-through imaging
KR102134423B1 (ko) 2019-11-28 2020-07-21 주식회사 케이티 재난안전 공간 모델을 생성하는 시스템 및 방법
US11393176B2 (en) * 2020-02-07 2022-07-19 Krikey, Inc. Video tools for mobile rendered augmented reality game
US11830150B1 (en) * 2020-04-27 2023-11-28 State Farm Mutual Automobile Insurance Company Systems and methods for visualization of utility lines
US11676351B1 (en) * 2022-02-16 2023-06-13 International Business Machines Corporation Automated refinement of augmented reality virtual object annotations
US20230377300A1 (en) * 2022-05-17 2023-11-23 Apple Inc. Systems, methods, and user interfaces for generating a three-dimensional virtual representation of an object
US20230401805A1 (en) * 2022-06-08 2023-12-14 Apple Inc. Merged 3D Spaces During Communication Sessions
KR102524149B1 (ko) * 2022-09-05 2023-04-20 세종대학교산학협력단 가상세계 생성 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020155121A (ja) 2019-03-19 2020-09-24 株式会社ソニー・インタラクティブエンタテインメント 画像を生成するための方法およびシステム
WO2021133465A1 (en) 2019-12-26 2021-07-01 Facebook Technologies, Llc Artificial reality system with varifocal display of artificial reality content

Also Published As

Publication number Publication date
US12225175B2 (en) 2025-02-11
JP2024036278A (ja) 2024-03-15
EP4332907A1 (en) 2024-03-06
KR102524149B1 (ko) 2023-04-20
US20240080427A1 (en) 2024-03-07

Similar Documents

Publication Publication Date Title
JP7489736B2 (ja) 仮想世界生成方法、装置及び方法を遂行するプログラム
CN111325823B (zh) 人脸纹理图像的获取方法、装置、设备及存储介质
US10417812B2 (en) Systems and methods for data visualization using three-dimensional displays
AU2017340609B2 (en) Surface modeling systems and methods
JP7775563B2 (ja) 単眼カメラからのフル骨格3d姿勢復元のための方法、装置及びシステム
US12100098B2 (en) Simple environment solver using planar extraction
JP2021125258A5 (ja)
KR101723823B1 (ko) 인터랙티브 공간증강 체험전시를 위한 동적 객체와 가상 객체 간의 인터랙션 구현 장치
CN111710036A (zh) 三维人脸模型的构建方法、装置、设备及存储介质
US9519988B2 (en) Subspace clothing simulation using adaptive bases
JP2009116856A (ja) 画像処理装置、画像処理方法
KR20210105484A (ko) 문화유적복원 실감 장치
US9117104B2 (en) Object recognition for 3D models and 2D drawings
US10546406B2 (en) User generated character animation
US12444136B2 (en) Scene understanding using occupancy grids
CN113962979B (zh) 一种基于深度图像的布料碰撞仿真增强呈现方法及装置
Zhang et al. Unified approach to mesh saliency: Evaluating textured and non-textured meshes through vr and multifunctional prediction
Yang et al. Life-Sketch-A Framework for Sketch-Based Modelling and Animation of 3D Objects.
US20220335675A1 (en) Physical phenomena expressing method for expressing the physical phenomeana in mixed reality, and mixed reality apparatus that performs the method
Zhang et al. Mavr: Multi-functional point cloud annotations using virtual reality
Komulainen et al. Navigation and tools in a virtual crime scene
KR102743855B1 (ko) 가상 객체를 관리하는 장치, 방법 및 컴퓨터 프로그램
PI et al. Development of a nationally competitive program in computer vision technologies for effective human-computer interaction in virtual environments
Khoo et al. Automated Body Structure Extraction from Arbitrary 3D Mesh
CHARDONNET et al. Reducing Cybersickness by Geometry Deformation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240507

R150 Certificate of patent or registration of utility model

Ref document number: 7489736

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150