JP7489736B2 - 仮想世界生成方法、装置及び方法を遂行するプログラム - Google Patents
仮想世界生成方法、装置及び方法を遂行するプログラム Download PDFInfo
- Publication number
- JP7489736B2 JP7489736B2 JP2023034374A JP2023034374A JP7489736B2 JP 7489736 B2 JP7489736 B2 JP 7489736B2 JP 2023034374 A JP2023034374 A JP 2023034374A JP 2023034374 A JP2023034374 A JP 2023034374A JP 7489736 B2 JP7489736 B2 JP 7489736B2
- Authority
- JP
- Japan
- Prior art keywords
- real space
- virtual
- edges
- real
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three-dimensional [3D] modelling for computer graphics
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating three-dimensional [3D] models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Optics & Photonics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
Description
このような傾向に合わせて商業的に活用するために様々な分野でメタバースの導入を試みているが、ソフトウェア開発の参入障壁が高いだけでなく、専門家の不足現象も重なり、導入が難しくなっている。
本実施形態に係る仮想世界生成システムは、仮想世界生成装置100およびヘッドマウントディスプレイ(HMD)102を含む。
本実施形態に係る仮想世界生成装置100は、プロセッサおよびメモリを含むことができる。
メモリは、固定式ハードドライブまたは着脱式記憶装置などの不揮発性記憶装置を含むことができる。着脱式記憶装置は、コンパクトフラッシュ(登録商標)ユニット、USBメモリースティックなどを含むことができる。メモリは、各種ランダムアクセスメモリのような揮発性メモリも含むことができる。
図2に図示したように、本実施形態に係るヘッドマウントディスプレイ102は、ステレオカメラ(Dual Camera)200を含み、これにより実空間に対する映像を撮影する。
図2に図示したように、本実施形態に係る仮想世界生成装置100は、パススルーモジュール(Pass-Through、210)、デプスモジュール(Depth、212)、メッシュデータ(Mesh Data)収集モジュール、3次元再構成モジュール(3D Reconstruction、214)およびAIビジョンモジュール(AI vision、216)を含むことができる。
本実施形態では、互いに離隔されたステレオカメラ200間の視点不一致を利用して深度を推定する。
収集されたメッシュデータは、仮想空間生成モジュール(Create Virtual Space)230に入力される。
仮想空間生成モジュール230は、メッシュデータを選択し、予め設定されたアルゴリズムを介して仮想空間を生成する。
図3に図示したように、実空間にはヘッドマウントディスプレイ102の位置を追跡することができる装置300が配置され、これにより実空間内でヘッドマウントディスプレイ102の位置を把握することができる。
本実施形態に係るヘッドマウントディスプレイ102は、専門家用VRのためのVIVE PROであることができ、位置追跡装置は、VIVE PROと連動するベースステーションであることができるが、必ずしもこれに限定されるものではない。
図4に図示したように、実空間の壁と床がメッシュデータ形式で構築される。
ここで、メッシュデータは、一定間隔で配置されたデータの数列および他の要素を有する非構造化グリッドを意味し、メッシュデータを構成する図形は、三角形、四角形、六角形などを多様に含むことができる。
ここで、yは、ユーザーの立っている位置において地面からの高さであって、予め設定されることができ、ヘッドマウントディスプレイ102が動いても変わらないように設定される。
図5~図6を参照すると、x軸とz軸を決定するステップにおいてアルゴリズムは4つのエッジを4つの象限でそれぞれ探索して最大値を求め、これを仮想空間の境界として決定する。
空間を探索して求めた全体のメッシュデータのうち、1つのメッシュデータは3つのVector3座標をつなぐ形の三角形形状であることを考慮すると、探索されたVector3のxとz座標の両方とも、既存の探索したエッジの値よりも大きい場合には、これを空間の最大値と見做して優先的に更新する。
もしxとz座標のうち一つでも大きくない場合、または両方とも大きくない場合には、ベクトル値を比較してエッジを決定する。
再度説明すると、図5~図6のように、実空間に対して予め設定された多角形のエッジよりも前記実空間の第1のエッジが多い場合、本実施形態に係る仮想世界生成装置100は、所定方向を向く複数の第2のエッジ(ベクトル(1)、ベクトル(2))それぞれによって定義される仮想空間の面積に基づいて、前記複数の第2のエッジのうち1つを選択する。
前述したように、x、y、z座標のうちyは固定されるので、象限はxおよびz軸に定義されることができる。
前述したように、仮想世界生成装置100は、ベクトル(1)のエッジとベクトル(2)のエッジのそれぞれによって定義される仮想空間の面積を計算し、面積の大きさがより大きいベクトル(1)のエッジを選択して四角形の仮想空間を生成する。
図8(a)~図8(b)を参照すると、五角形と六角形の形態において、エッジは象限だけでなく軸方向にも配置されるため、仮想世界生成装置100は、同一軸または同一象限内で所定角度範囲内に位置する複数のエッジそれぞれによって定義される仮想空間の面積を計算し、計算された面積が最も大きい1つのエッジを選択して仮想空間を生成する。
前述したように、再構成された3次元画像に対してデフォルトタグが付与される。
オブジェクトの詳細分類のために、本実施形態による仮想世界生成装置100は、仮想オブジェクト生成モジュール(Create Object)240を含む。
前述したように、仮想空間および仮想オブジェクトを生成すれば、現実ではできない各種の訓練および災害状況を演出することができる。
図10を参照すると、仮想空間に火災状況のような仮想シミュレーションに対応する画像を表現することによって、消火器または非常口の位置を探す訓練を仮想で遂行することもできる。
102 ヘッドマウントディスプレイ
200 ステレオカメラ
210 パススルーモジュール
212 デプスモジュール
214 3次元再構成モジュール
216 AIビジョンモジュール
230 仮想空間生成モジュール
240 仮想オブジェクト生成モジュール
Claims (10)
- 仮想世界生成装置であって、
プロセッサと、
前記プロセッサに連結されるメモリと、を含み、
前記メモリは、
ステレオカメラを備える装置を介して実空間に対する映像の入力を受け、
前記映像を介して前記実空間および前記実空間内に存在するオブジェクトに対するメッシュデータを収集し、
前記実空間に対するメッシュデータから前記実空間の第1のエッジに対する座標を決定し、
前記実空間に対して予め設定された多角形のエッジよりも前記実空間の第1のエッジが多い場合、所定方向を向く複数の第2のエッジそれぞれによって定義される仮想空間の面積に基づいて前記複数の第2のエッジのうち1つを選択し、
前記第1のエッジのうち一部および前記選択された1つの第2のエッジによって定義される仮想空間および前記実空間で認識された実オブジェクトに相応する仮想オブジェクトを出力するように、前記プロセッサによって実行されるプログラム命令語を格納した、ことを特徴とする仮想世界生成装置。 - 前記装置は、ヘッドマウントディスプレイであり、
前記プログラム命令語は、
前記実空間内に配置された少なくとも2つの追跡装置を介して、前記実空間内で前記ヘッドマウントディスプレイの位置を追跡して前記第1のエッジに対する座標を決定する、ことを特徴とする請求項1に記載の仮想世界生成装置。 - 前記プログラム命令語は、
前記実空間での中央で前記ヘッドマウントディスプレイの3次元初期座標が原点に設定され、前記3次元初期座標におけるy座標は、ユーザーによって予め設定される、ことを特徴とする請求項2に記載の仮想世界生成装置。 - 前記実空間の境界は、前記3次元初期座標を基準に前記実空間の第1のエッジのうち少なくとも一部のxおよびz座標で定義される、ことを特徴とする請求項3に記載の仮想世界生成装置。
- 前記予め設定された多角形の各エッジは、x軸およびy軸、前記x軸およびz軸で分割される象限の1つに配置され、
前記プログラム命令語は、
同一軸または同一象限内で所定角度範囲内に位置する前記複数の第2のエッジそれぞれによって定義される仮想空間の面積を計算し、
前記計算された面積が最も大きい1つの前記第2のエッジを選択する、ことを特徴とする請求項4に記載の仮想世界生成装置。 - 前記プログラム命令語は、
ディープラーニングモデルを介して前記実空間で認識された実オブジェクトを詳細に分類し、詳細に分類された実オブジェクトに相応する仮想オブジェクトを出力する、ことを特徴とする請求項1に記載の仮想世界生成装置。 - 前記プログラム命令語は、
前記仮想空間に予め設定された仮想シミュレーションに対応する画像を出力する、ことを特徴とする請求項1に記載の仮想世界生成装置。 - プロセッサおよびメモリを含むコンピューティングデバイスで仮想世界を生成する方法であって、
ステレオカメラを備える装置を介して実空間に対する映像の入力を受けるステップと、
前記映像を介して前記実空間および前記実空間内に存在するオブジェクトに対するメッシュデータを収集するステップと、
前記実空間に対するメッシュデータから前記実空間の第1のエッジに対する座標を決定するステップと、
前記実空間に対して予め設定された多角形のエッジよりも前記実空間の第1のエッジが多い場合、所定方向を向く複数の第2のエッジそれぞれによって定義される仮想空間の面積に基づいて前記複数の第2のエッジのうち1つを選択するステップと、
前記第1のエッジのうち一部および前記選択された1つの第2のエッジによって定義される仮想空間および前記実空間で認識された実オブジェクトに相応する仮想オブジェクトを出力するステップと、を含む、ことを特徴とする仮想世界生成方法。 - 前記実空間での中央で前記ステレオカメラを備える装置の3次元初期座標が原点に設定され、前記3次元初期座標におけるy座標は、ユーザーによって予め設定され、
前記選択するステップは、前記実空間の境界を、前記3次元初期座標を基準に前記実空間の第1のエッジのうち少なくとも一部のxおよびz座標で定義するステップを含む、ことを特徴とする請求項8に記載の仮想世界生成方法。 - 請求項8に記載の方法をコンピュータに実行させるコンピュータ読み取り可能な記録媒体に格納された、ことを特徴とするプログラム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2022-0111872 | 2022-09-05 | ||
| KR1020220111872A KR102524149B1 (ko) | 2022-09-05 | 2022-09-05 | 가상세계 생성 방법 및 장치 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2024036278A JP2024036278A (ja) | 2024-03-15 |
| JP7489736B2 true JP7489736B2 (ja) | 2024-05-24 |
Family
ID=85511173
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023034374A Active JP7489736B2 (ja) | 2022-09-05 | 2023-03-07 | 仮想世界生成方法、装置及び方法を遂行するプログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US12225175B2 (ja) |
| EP (1) | EP4332907A1 (ja) |
| JP (1) | JP7489736B2 (ja) |
| KR (1) | KR102524149B1 (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102524149B1 (ko) * | 2022-09-05 | 2023-04-20 | 세종대학교산학협력단 | 가상세계 생성 방법 및 장치 |
| KR20240178845A (ko) * | 2023-06-23 | 2024-12-31 | 주식회사 셀버스 | 가상 공간 제작 솔루션 제공장치 및 방법 |
| US12530829B2 (en) * | 2023-09-20 | 2026-01-20 | Google Llc | Systems and methods for generating animations for 3D objects using machine learning |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020155121A (ja) | 2019-03-19 | 2020-09-24 | 株式会社ソニー・インタラクティブエンタテインメント | 画像を生成するための方法およびシステム |
| WO2021133465A1 (en) | 2019-12-26 | 2021-07-01 | Facebook Technologies, Llc | Artificial reality system with varifocal display of artificial reality content |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9401044B1 (en) * | 2011-09-26 | 2016-07-26 | The Research Foundation For The State University Of New York | Method for conformal visualization |
| US9786097B2 (en) * | 2012-06-22 | 2017-10-10 | Matterport, Inc. | Multi-modal method for interacting with 3D models |
| US10586385B2 (en) * | 2015-03-05 | 2020-03-10 | Commonwealth Scientific And Industrial Research Organisation | Structure modelling |
| KR102434406B1 (ko) * | 2016-01-05 | 2022-08-22 | 한국전자통신연구원 | 공간 구조 인식을 통한 증강 현실 장치 및 그 방법 |
| JP6201024B1 (ja) * | 2016-10-12 | 2017-09-20 | 株式会社コロプラ | ヘッドマウントデバイスを用いてコンテンツを提供するアプリケーションへの入力を支援するための方法、当該方法をコンピュータに実行させるためのプログラム、およびコンテンツ表示装置 |
| US20180190022A1 (en) * | 2016-12-30 | 2018-07-05 | Nadav Zamir | Dynamic depth-based content creation in virtual reality environments |
| KR102114496B1 (ko) * | 2018-09-05 | 2020-06-02 | 전남대학교산학협력단 | 혼합 현실에서 작업 지원 정보를 제공하는 방법, 단말 및 작업 지원 서버 |
| US10725308B1 (en) * | 2018-10-08 | 2020-07-28 | Facebook Technologies, Llc | Dynamic attenuator for combining real world and virtual content |
| US11024079B1 (en) * | 2019-03-11 | 2021-06-01 | Amazon Technologies, Inc. | Three-dimensional room model generation using panorama paths and photogrammetry |
| US11361513B2 (en) * | 2019-04-23 | 2022-06-14 | Valve Corporation | Head-mounted display with pass-through imaging |
| KR102134423B1 (ko) | 2019-11-28 | 2020-07-21 | 주식회사 케이티 | 재난안전 공간 모델을 생성하는 시스템 및 방법 |
| US11393176B2 (en) * | 2020-02-07 | 2022-07-19 | Krikey, Inc. | Video tools for mobile rendered augmented reality game |
| US11830150B1 (en) * | 2020-04-27 | 2023-11-28 | State Farm Mutual Automobile Insurance Company | Systems and methods for visualization of utility lines |
| US11676351B1 (en) * | 2022-02-16 | 2023-06-13 | International Business Machines Corporation | Automated refinement of augmented reality virtual object annotations |
| US20230377300A1 (en) * | 2022-05-17 | 2023-11-23 | Apple Inc. | Systems, methods, and user interfaces for generating a three-dimensional virtual representation of an object |
| US20230401805A1 (en) * | 2022-06-08 | 2023-12-14 | Apple Inc. | Merged 3D Spaces During Communication Sessions |
| KR102524149B1 (ko) * | 2022-09-05 | 2023-04-20 | 세종대학교산학협력단 | 가상세계 생성 방법 및 장치 |
-
2022
- 2022-09-05 KR KR1020220111872A patent/KR102524149B1/ko active Active
- 2022-10-27 US US18/050,448 patent/US12225175B2/en active Active
-
2023
- 2023-03-07 EP EP23160498.4A patent/EP4332907A1/en active Pending
- 2023-03-07 JP JP2023034374A patent/JP7489736B2/ja active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020155121A (ja) | 2019-03-19 | 2020-09-24 | 株式会社ソニー・インタラクティブエンタテインメント | 画像を生成するための方法およびシステム |
| WO2021133465A1 (en) | 2019-12-26 | 2021-07-01 | Facebook Technologies, Llc | Artificial reality system with varifocal display of artificial reality content |
Also Published As
| Publication number | Publication date |
|---|---|
| US12225175B2 (en) | 2025-02-11 |
| JP2024036278A (ja) | 2024-03-15 |
| EP4332907A1 (en) | 2024-03-06 |
| KR102524149B1 (ko) | 2023-04-20 |
| US20240080427A1 (en) | 2024-03-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7489736B2 (ja) | 仮想世界生成方法、装置及び方法を遂行するプログラム | |
| CN111325823B (zh) | 人脸纹理图像的获取方法、装置、设备及存储介质 | |
| US10417812B2 (en) | Systems and methods for data visualization using three-dimensional displays | |
| AU2017340609B2 (en) | Surface modeling systems and methods | |
| JP7775563B2 (ja) | 単眼カメラからのフル骨格3d姿勢復元のための方法、装置及びシステム | |
| US12100098B2 (en) | Simple environment solver using planar extraction | |
| JP2021125258A5 (ja) | ||
| KR101723823B1 (ko) | 인터랙티브 공간증강 체험전시를 위한 동적 객체와 가상 객체 간의 인터랙션 구현 장치 | |
| CN111710036A (zh) | 三维人脸模型的构建方法、装置、设备及存储介质 | |
| US9519988B2 (en) | Subspace clothing simulation using adaptive bases | |
| JP2009116856A (ja) | 画像処理装置、画像処理方法 | |
| KR20210105484A (ko) | 문화유적복원 실감 장치 | |
| US9117104B2 (en) | Object recognition for 3D models and 2D drawings | |
| US10546406B2 (en) | User generated character animation | |
| US12444136B2 (en) | Scene understanding using occupancy grids | |
| CN113962979B (zh) | 一种基于深度图像的布料碰撞仿真增强呈现方法及装置 | |
| Zhang et al. | Unified approach to mesh saliency: Evaluating textured and non-textured meshes through vr and multifunctional prediction | |
| Yang et al. | Life-Sketch-A Framework for Sketch-Based Modelling and Animation of 3D Objects. | |
| US20220335675A1 (en) | Physical phenomena expressing method for expressing the physical phenomeana in mixed reality, and mixed reality apparatus that performs the method | |
| Zhang et al. | Mavr: Multi-functional point cloud annotations using virtual reality | |
| Komulainen et al. | Navigation and tools in a virtual crime scene | |
| KR102743855B1 (ko) | 가상 객체를 관리하는 장치, 방법 및 컴퓨터 프로그램 | |
| PI et al. | Development of a nationally competitive program in computer vision technologies for effective human-computer interaction in virtual environments | |
| Khoo et al. | Automated Body Structure Extraction from Arbitrary 3D Mesh | |
| CHARDONNET et al. | Reducing Cybersickness by Geometry Deformation |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230307 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240116 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240415 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240430 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240507 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7489736 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |