JP2018535477A - バーチャルリアリティ画像を調整する方法及び装置 - Google Patents

バーチャルリアリティ画像を調整する方法及び装置 Download PDF

Info

Publication number
JP2018535477A
JP2018535477A JP2018516785A JP2018516785A JP2018535477A JP 2018535477 A JP2018535477 A JP 2018535477A JP 2018516785 A JP2018516785 A JP 2018516785A JP 2018516785 A JP2018516785 A JP 2018516785A JP 2018535477 A JP2018535477 A JP 2018535477A
Authority
JP
Japan
Prior art keywords
coordinate system
orientation
target
projection
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018516785A
Other languages
English (en)
Other versions
JP6622395B2 (ja
Inventor
チャン,ダウェイ
ロン,ショウルン
リ,ガン
チャン,フェンシュエ
シャオン,シュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Dlodlo Technologies Co Ltd
Original Assignee
Shenzhen Dlodlo Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Dlodlo Technologies Co Ltd filed Critical Shenzhen Dlodlo Technologies Co Ltd
Publication of JP2018535477A publication Critical patent/JP2018535477A/ja
Application granted granted Critical
Publication of JP6622395B2 publication Critical patent/JP6622395B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Architecture (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

バーチャルリアリティ画像を調整する方法及び装置が開示される。この方法は測位コンポーネントの第1の3次元座標及び第1の姿勢の向きを取得し(101)、第1の3次元座標を第2の3次元座標に変換し第1の姿勢の向きを第2の姿勢の向きに変換し(102)、第2の3次元座標を仮想空間内の目標の3次元座標に変換し第2の姿勢の向きを仮想空間内の目標の姿勢の向きに変換し(103)、仮想空間内の投影面を決定し(104)、仮想空間内の仮想物体を2次元画像を生成するために投影面内の撮像領域に透視投影し(105)、表示モジュールの表示画面上に2次元画像を表示する(106)。この方法及び装置によれば現実空間おけるバーチャルリアリティ装置の位置、姿勢の向き及び生成される2次元画像に基づいて投影面を決定することができ、それにより該位置及び姿勢の変化に応じてバーチャルリアリティ装置が提供するバーチャルリアリティ画像が変化する。【選択図】図1

Description

本出願は、2015年9月30日に出願された中国出願第201510638940.8号の「バーチャルリアリティ画像を調整する方法及び装置」の利益を主張するものであり、参照によりその全体が本明細書に組み込まれる。
本発明は、バーチャルリアリティ技術の分野に関し、特に、バーチャルリアリティ画像(virtual reality image)を決定する方法及び装置に関する。
バーチャルリアリティ(略してVR)技術は、電子機器を介して仮想空間を構築し、その仮想空間に基づいてユーザに視覚や聴覚等の感覚的なシミュレーションを提供する技術である。VR技術により、ユーザは仮想空間内の仮想物体と対話し、現場の視覚体験、聴覚体験及びタッチ体験などをユーザに提供することができる。
仮想空間の現実感を強化し、ユーザに現場の視覚体験を提供するために、バーチャルリアリティ装置は、ユーザが自分の姿勢を調整するときに、異なる画像をユーザに提供する必要があることが多い。例えば、VRグラスでは、ユーザがVRグラスを頭部に装着すると、VRグラスの位置及び姿勢の向きは、ユーザが頭部の姿勢を動かしたり姿勢を変えたりすると変化し、VRグラスによって提供される画像コンテンツもまた変化させられる必要がある。例えば、ユーザが前方に歩く場合、VRグラスは、ユーザが前方に歩く距離及び速度に従ってVRグラスによって提供される画像を調整する必要があり、ユーザが頭や体などを回転させると、VRグラスは、VRグラスによって提供される画像を、動作の方向及び程度に応じて調節して、ユーザに現場の視覚体験を提供する必要がある。
したがって、現実空間におけるバーチャルリアリティ装置の位置及び姿勢の変化に応じて、バーチャルリアリティ装置が提供するバーチャルリアリティ画像を調整する方法が必要である。
本発明の実施形態は、バーチャルリアリティ画像を調整する方法及び装置を提供し、それにより、現実空間におけるバーチャルリアリティ装置の位置及び姿勢の向きの変化に従って、バーチャルリアリティ装置によって提供されるバーチャルリアリティ画像を調整する技術的な要求を満たす。
第1の態様では、本発明の一実施形態は、バーチャルリアリティ画像を調整する方法であって、現実空間における特定点を原点とする3次元座標系である現実空間座標系におけるバーチャルリアリティ装置の測位コンポーネントの第1の3次元座標及び第1の姿勢の向きを取得することと、予め設定された第1の変換関係に従って、前記第1の3次元座標を、前記現実空間座標系における前記バーチャルリアリティ装置の表示モジュールの焦点の座標である第2の3次元座標に変換し、前記第1の姿勢の向きを、前記現実空間座標系における前記表示モジュールの姿勢の向きである第2の姿勢の向きに変換することと、予め設定された第2の変換関係に従って前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記仮想空間における目標の姿勢の向きに変換することと、前記仮想空間内の任意の座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定することと、前記仮想空間における仮想物体を、2次元画像を生成するために前記投影面内の撮像領域に透視投影することと、前記表示モジュールの表示画面上に前記2次元画像を表示することと、を備える。
第1の態様に関連して、第1の態様の第1の可能な実施態様において、前記予め設定された第2の変換関係に従って前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記仮想空間における目標の姿勢の向きに変換することは、前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記目標の姿勢と一致させたままとすることを含み、前記仮想空間内の任意の指定された座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定することは、前記第2の姿勢の向きの前記表示モジュールの視線方向に対応する次元の第1の寸法値を取得することと、前記透視投影方向に対応する次元の寸法値を前記第1の寸法値として設定することと、前記3次元座標が示す点を前記投影中心とし、前記透視投影方向に応じて前記投影面を決定することと、を含み、前記現実空間座標系は、前記現実空間における特定点を原点とし、重力方向を第1の座標軸方向とし、バーチャルリアリティ装置を介して観察者が前記仮想空間を見ることにより設定された現実世界の水平面内の右方向を第2の座標軸方向とした3次元座標系であり、前記指定された座標系は前記仮想空間におけるワールド座標系である。
第1の態様に関連して、第1の態様の第2の可能な実施態様において、前記予め設定された第2の変換関係に従って前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記仮想空間における目標の姿勢の向きに変換することは、前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記目標の姿勢の向きと一致させたままにすることを含み、前記仮想空間内の任意の指定された座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定することは、前記第2の姿勢の向きの前記表示モジュールの視線方向に対応する次元の第2の寸法値を取得することと、前記透視投影方向に対応する次元の寸法値を第2の寸法値として設定することと、前記目標の3次元座標が示す点を前記投影中心とし、前記透視投影方向に応じて前記投影面を決定することと、を含み、前記現実空間座標系と現実空間基準座標系との変換関係は、仮想空間における前記指定された座標系とワールド座標系との変換関係と同じであり、前記現実空間基準座標系は、前記現実空間における特定点を原点とし、前記現実空間における重力方向を第1の座標軸方向とし、前記現実空間における南方向または北方向を第2の座標軸方向とする第2座標系とした3次元座標現実空間である。
第1の態様の第2の可能な実施態様に関連して、第1の態様の第3の可能な実施態様において、前記変換関係と基準変換関係との間の差は、指定された期間において固定された値であり、前記基準変換関係は、前記現実空間座標系と、前記バーチャルリアリティ装置を介して前記仮想空間を見るときに基準観察者が使用する前記現実空間基準座標系との変換関係である。
第1の態様の第3の可能な実施態様に関連して、第1の態様の第4の可能な実施態様において、前記指定された座標系の原点は、前記基準観察者が前記バーチャルリアリティ装置を介して前記仮想空間を見るときの仮想空間における位置である。
第1の態様に関連して、第1の態様の第5の可能な実施態様において、前記仮想空間内の任意の指定された座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定することは、基準観察者によって設定された基準投影点を決定することと、特定の時刻の前記基準投影点と前記投影中心との位置の差を算出することと、前記位置の差に応じて前記指定された座標系を基準座標系に変換することと、前記基準座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定することと、を備える。
第2の態様では、本発明の一実施形態は、バーチャルリアリティ画像を調整する装置であって、現実空間における特定点を原点とする3次元座標系である現実空間座標系におけるバーチャルリアリティ装置の測位コンポーネントの第1の3次元座標及び第1の姿勢の向きを取得する取得部と、予め設定された第1の変換関係に従って、前記第1の3次元座標を、前記現実空間座標系における前記バーチャルリアリティ装置の表示モジュールの焦点の座標である第2の3次元座標に変換し、前記第1の姿勢の向きを、前記現実空間座標系における前記表示モジュールの姿勢の向きである第2の姿勢の向きに変換する第1の変換部と、予め設定された第2の変換関係に従って前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記仮想空間における目標の姿勢の向きに変換する第2の変換部と、前記仮想空間内の任意の座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定する投影面決定部と、前記仮想空間における仮想物体を、2次元画像を生成するために前記投影面内の撮像領域に透視投影する投影部と、前記表示モジュールの表示画面上に前記2次元画像を表示する表示部と、を備える。
第2の態様の第1の可能な実施形態では、前記第2の変換部は、具体的には、前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記目標の姿勢と一致させたままとし、前記投影面決定部は、前記第2の姿勢の向きの前記表示モジュールの視線方向に対応する次元の第1の寸法値を取得する第1の寸法値取得手段と、前記透視投影方向に対応する次元の寸法値を前記第1の寸法値として設定する第1の投影方向決定手段と、前記3次元座標が示す点を前記投影中心とし、前記透視投影方向に応じて前記投影面を決定する第1の投影面決定手段と、を含み、前記現実空間座標系は、前記現実空間における特定点を原点とし、重力方向を第1の座標軸方向とし、バーチャルリアリティ装置を介して観察者が前記仮想空間を見ることにより設定された現実世界の水平面内の右方向を第2の座標軸方向とし、指定された座標系は仮想空間におけるワールド座標系である。
第2の態様の第2の可能な実施形態では、前記第2の変換部は、前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記目標の姿勢の向きと一致させたままとし、前記投影面決定部は、前記第2の姿勢の向きの前記表示モジュールの視線方向に対応する次元の第2の寸法値を取得する第2の寸法値決定手段と、前記透視投影方向に対応する次元の寸法値を前記第2の寸法値として設定する第1の投影方向決定手段と、前記目標の3次元座標が示す点を前記投影中心とし、前記透視投影方向に応じて前記投影面を決定する第2の投影面決定手段と、を含み、前記現実空間座標系と現実空間基準座標系との変換関係は、仮想空間における指定された座標系とワールド座標系との変換関係と同じであり、前記現実空間基準座標系は、前記現実空間における特定点を原点とし、前記現実空間における重力方向を第1の座標軸方向とし、前記現実空間における南方向または北方向を第2の座標軸方向とする。
第2の態様の第3の可能な実施形態では、前記投影面決定部は、基準観察者によって設定された基準投影点を決定する投影点決定手段と、特定の時刻の前記基準投影点と前記投影中心との位置の差を算出する差算出手段と、前記位置の差に応じて指定された座標系を基準座標系に変換する座標系変換手段と、前記基準座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定する第3の投影面決定手段と、を備える。
本発明の実施形態では、現実空間座標系におけるバーチャルリアリティ装置の第1の3次元座標及び第1の姿勢の向きが取得され、現実空間座標系は、現実空間における特定点を原点とする3次元座標系であり、予め設定された第1の変換関係に従って第1の3次元座標は第2の3次元座標に変換され、第1の姿勢の向きは、第2の姿勢の向きに変換され、第2の3次元座標は、現実空間座標系におけるバーチャルリアリティ装置の表示モジュールの焦点の座標であり、第2姿勢の向きは、現実空間座標系における表示モジュールの姿勢の向きであり、第2の3次元座標は、予め設定された第2の変換関係に従って仮想空間における目標の3次元座標に変換され、第2の姿勢の向きは仮想空間における目標の姿勢の向きに変換され、仮想空間における任意の座標系における目標の3次元座標によって示される点が投影中心とされ、仮想空間における投影面は、目標の姿勢の向きに応じて決定され、2次元画像を生成するために仮想空間における仮想物体が投影面内の撮像領域に透視投影され、2次元画像が表示モジュールの表示画面に表示される。本発明に係る方法及び装置によれば、現実空間におけるVR装置の位置及び姿勢の向きに応じて投影面が決定され、2次元画像が生成され、そのためVR装置は、その位置または姿勢の向きが変化したときに生成される2次元画像を調整することができる。したがって、現実空間におけるバーチャルリアリティ装置の位置及び姿勢の向きの変化に応じて、バーチャルリアリティ装置が提供するバーチャルリアリティ画像を調整することができる。
本発明の実施形態または従来技術の技術的解決策をより明確に示すために、実施形態または従来技術の説明に必要な図面を以下に簡単に紹介する。明らかに、以下の説明における図面は、本発明の一部の実施形態に過ぎず、他の図面もまた、これらの図面に従った当業者によって創造的な作業なしに得られてもよい。
本発明によるバーチャルリアリティ画像を調整する方法の一実施形態を示す概略フローチャートである。 は、本発明によるバーチャルリアリティ画像を調整する装置の一実施形態の構造表現である。
本発明の実施形態における技術的解決策は、本発明の実施形態における図面と併せて以下で明確にかつ完全に記載される。明らかに、記載された実施形態は、全実施形態ではなく、本発明の実施形態の一部に過ぎない。本発明の実施形態に基づく当業者が創造的な作業を行うことなく得られる他のすべての実施形態は、本発明の保護範囲に関係する。
図1を参照すると、本発明によるバーチャルリアリティ画像を調整する方法の一実施形態を示す概略フローチャートである。この方法は、バーチャルリアリティ(略してVR)装置で行われ、VR装置はVRグラスやVRヘルメットなどであり、バーチャルリアリティ装置の測位コンポーネントは、現実空間における位置及び姿勢の向きを取得して伝える能力を有する装置であってもよい。この方法は、以下のステップを含む。
ステップ101:現実空間座標系におけるバーチャルリアリティ装置の測位コンポーネントの第1の3次元座標及び第1の姿勢の向きを取得する。
現実空間におけるVR装置の測位コンポーネントの位置及び姿勢の向きは、現実にはVR装置の姿勢の向きを反映しているため、VR装置は、まず、現実空間座標系における第1の3次元座標及び第1の姿勢の向きを取得してもよい。ここで、現実空間座標系は、現実空間における特定点を原点とする3次元座標系である。通常の状況では、第1の3次元座標は現実空間座標系におけるVR装置の座標であり、第1の姿勢の向きは現実空間座標系におけるVR装置の姿勢を反映してもよい。
ステップ102:予め設定された第1の変換関係に従って第1の3次元座標を第2の3次元座標に変換し、前記第1の姿勢の向きを第2の姿勢の向きに変換する。
VR装置では、測位コンポーネントの位置と表示モジュールの位置が比較的固定されているので、測位コンポーネントの位置と表示モジュールの焦点の位置も比較的固定されている。同様に、測位コンポーネントの姿勢の向き及び表示モジュールの姿勢の方向もまた比較的固定されている。したがって、第1の3次元座標は、予め設定された第1の変換関係に従って第2の3次元座標に変換されてもよく、第1の姿勢の向きは第2の姿勢の向きに変換されてもよい。第2の3次元座標は、現実空間座標系におけるバーチャルリアリティ装置の表示モジュールの焦点位置であり、第2姿勢の向きは現実空間座標系における表示モジュールの姿勢の向きである。現実空間における表示モジュールの姿勢は、第2の姿勢の向きに応じて決定され、現実空間における表示モジュールの焦点位置は、第2の3次元座標に応じて決定されてもよい。ここで、表示モジュールは、表示画面と光学部品とから構成されてもよいことに留意する必要がある。
ステップ103:予め設定された第2の変換関係に従って前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記仮想空間における目標の姿勢の向きに変換する。
表示モジュールの姿勢の向きと表示モジュールの焦点の第2の3次元座標とが決定された後、第2の3次元座標は予め設定された第2の変換関係に従って仮想空間における目標の3次元座標に変換されてもよく、第2の姿勢の向きは仮想空間における目標の姿勢の向きに変換されてもよい。
第2の変換関係は、必要に応じて設定されてもよい。例えば、第2の3次元座標の座標値が直接、目標の3次元座標の座標値とされてもよいし、同時に、第2の姿勢の向きが目標の姿勢の向きと一致してもよく、または、前記第2の3次元座標が予め設定された座標変換関係に従って前記目標の3次元座標に変換され、前記第2の姿勢の向きが予め設定された姿勢の向きの変換関係に従って前記目標の姿勢の向きに変換されてもよい。
ステップ104:前記仮想空間内の任意の座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定する。
目標の3次元座標及び目標の姿勢の向きが決定された後、仮想空間における投影面が、目標の3次元座標及び目標の姿勢の向きに応じて決定されてもよい。
必要に応じて、VR装置は、第2の姿勢の向きの表示モジュールの視線方向に対応する次元の第1寸法値を取得し、透視投影方向に対応する寸法の寸法値を第1の寸法値として設定し、次に、目標の3次元座標が示す点を投影中心とし、透視投影方向に応じて投影面を決定してもよい。現実空間座標系は、現実空間における特定点を原点とし、重力方向を第1の座標軸方向とし、バーチャルリアリティ装置を介して観察者が仮想空間を見ることにより設定された現実世界の水平面内の右方向を第2の座標軸方向とした3次元座標系であり、指定された座標系は仮想空間におけるワールド座標系である。
必要に応じて、VR装置は、第2の姿勢の向きの表示モジュールの視覚方向に対応する次元の第2の寸法値を取得し、透視投影方向に対応する次元の寸法値を第2の寸法値として設定し、次に、目標の3次元座標が示す点を投影中心とし、そして、透視投影方向に応じて投影面を決定する。現実空間座標系と現実空間基準座標系との変換関係は、仮想空間における指定された座標系とワールド座標系との変換関係と同じであり、現実空間基準座標系は、現実空間における特定点を原点とし、現実空間における重力方向を第1の座標軸方向とし、現実空間における南方向または北方向を第2座標軸とする3次元座標系である。変換関係と基準変換関係との間の差は、指定された期間において固定された値であり、基準変換関係は、現実空間座標系と、バーチャルリアリティ装置を介して仮想空間を見るときに基準観察者が使用する現実空間基準座標系との変換関係であるであってもよい。指定された座標系の原点は、前記基準観察者が前記バーチャルリアリティ装置を介して前記仮想空間を見るときの仮想空間における位置であってもよい。変換関係と基準変換関係との差は、指定された期間内の固定値であり、それは指定された期間内に基準変換関係を固定変換モードで変換関係に変換することができることを意味する。
必要に応じて、VR装置は、最初に基準観察者によって設定された基準投影点を決定し、特定の時刻の基準投影点と投影中心との位置の差を算出し、次に、指定された座標系を該位置の差に応じた基準座標系に変換し、最終的に基準座標系における目標の3次元座標が示す点を投影中心として仮想空間における投影面を目標の姿勢の向きに応じて決定してもよい。
VR装置は、投影中心と透視投影方向とに応じて投影面を決定する場合、仮想空間における投影方向に垂直な面を投影面として選択し、投影面から投影面までの距離投影中心を、表示モジュールの焦点から表示モジュールまでの距離に等しいか、または比例するようにしてもよい。
ステップ105:前記仮想空間における仮想物体を、2次元画像を生成するために前記投影面内の撮像領域に透視投影する。
投影点、投影方向、及び投影面がすべて決定された後、VR装置は、2次元画像を生成するために、仮想空間における仮想物体を投影面内の撮像領域に透視投影してもよい。透視投影の原理及び実施形態については、先行技術を参照してよく、ここではこれ以上説明しない。
ステップ106:前記表示モジュールの表示画面上に前記2次元画像を表示する。
透視投影によって2次元画像が生成された後、2次元画像は、表示モジュールの表示画面上に表示されてもよい。
本実施形態を採用することにより、VR装置は、現実空間におけるVR装置の位置及び姿勢の向きに応じて投影面を決定し、2次元画像を生成し、そのためVR装置は、その位置または姿勢の向きが変化したときに生成される2次元画像を調整することができる。したがって、現実空間におけるバーチャルリアリティ装置の位置及び姿勢の変化に応じて、バーチャルリアリティ装置が提供するバーチャルリアリティ画像を調整することができる。
図2を参照すると、本発明によるバーチャルリアリティ画像を調整する装置の一実施形態の構造表現である。
図2に示すように、取得部201と、第1の変換部202と、第2の変換部203と、投影面決定部204と、投影部205と、表示部206とを備えていてもよい。
ここで、取得部201は、現実空間における特定点を原点とする3次元座標系である現実空間座標系におけるバーチャルリアリティ装置の測位コンポーネントの第1の3次元座標及び第1の姿勢の向きを取得する。
第1の変換部202は、予め設定された第1の変換関係に従って、前記第1の3次元座標を、前記現実空間座標系における前記バーチャルリアリティ装置の表示モジュールの焦点の座標である第2の3次元座標に変換し、前記第1の姿勢の向きを、前記現実空間座標系における前記表示モジュールの姿勢の向きである第2の姿勢の向きに変換する。
第2の変換部203は、予め設定された第2の変換関係に従って前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記仮想空間における目標の姿勢の向きに変換する。
投影面決定部204は、前記仮想空間内の任意の座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定する。
投影部205は、前記仮想空間における仮想物体を、2次元画像を生成するために前記投影面内の撮像領域に透視投影する。
表示部206は、前記表示モジュールの表示画面上に前記2次元画像を表示する。
必要に応じて、第2の変換部203は、具体的には、前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記目標の姿勢と一致させたままとする。
必要に応じて、投影面決定部204は、前記第2の姿勢の向きの前記表示モジュールの視線方向に対応する次元の第1の寸法値を取得する第1の寸法値取得手段と、前記透視投影方向に対応する次元の寸法値を前記第1の寸法値として設定する第1の投影方向決定手段と、前記目標の3次元座標が示す点を前記投影中心とし、前記透視投影方向に応じて前記投影面を決定する第1の投影面決定手段とを備え、前記現実空間座標系は、前記現実空間における特定点を原点とし、重力方向を第1の座標軸方向とし、バーチャルリアリティ装置を介して観察者が前記仮想空間を見ることにより設定された現実世界の水平面内の右方向を第2の座標軸方向とした3次元座標系で、指定された座標系は仮想空間におけるワールド座標系である。
必要に応じて、投影面決定部204は、前記第2の姿勢の向きの前記表示モジュールの視線方向に対応する次元の第2の寸法値を取得する第2の寸法値決定手段と、前記透視投影方向に対応する次元の寸法値を前記第2の寸法値として設定する第1の投影方向決定手段と、前記目標の3次元座標が示す点を前記投影中心とし、前記透視投影方向に応じて前記投影面を決定する第2の投影面決定手段とを備え、前記現実空間座標系と現実空間基準座標系との変換関係は、仮想空間における指定された座標系とワールド座標系との変換関係と同じであり、前記現実空間基準座標系は、前記現実空間における特定点を原点とし、前記現実空間における重力方向を第1の座標軸方向とし、前記現実空間における南方向または北方向を第2の座標軸方向とする3次元座標系方向である。
必要に応じて、投影面決定部204は、基準観察者によって設定された基準投影点を決定する投影点決定手段と、特定の時刻の前記基準投影点と前記投影中心との位置の差を算出する差算出手段と、前記位置の差に応じて指定された座標系を基準座標系に変換する座標系変換手段と、前記基準座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定する第3の投影面決定手段とを備える。
本実施形態を採用することにより、VR装置は、現実空間におけるVR装置の位置及び姿勢の向きに応じて投影面を決定し、2次元画像を生成し、そのためVR装置は、その位置または姿勢の向きが変化したときに生成される2次元画像を調整することができる。
当業者は、本発明が、ソフトウェア及び必要な汎用ハードウェアプラットフォームの助けによって実施され得ることを明らかに理解することができる。このような理解に基づいて、本発明の実施形態における技術的解決策の本質的部分、すなわち先行技術に寄与する部分は、ストレージに格納されるソフトウェア製品の形態で具体化することができるROM/RAM、磁気ディスクまたはコンパクトディスクなどの媒体を含み、コンピュータ装置(パーソナルコンピュータ、サーバまたはネットワーク装置などであってもよい)を、本発明の各実施形態またはその一部に適用することができる。
本明細書における各実施形態は、ステップ状に記載されている。各実施形態間の同一または同様の部分については、相互に参照することができ、各実施形態は他の実施形態との相違点に焦点を合わせる特に、装置またはシステムの実施形態では、方法の実施形態と基本的に同様であるため、その説明は簡単であり、関連する部分についての方法の実施形態の図の部分を参照することができる。
上記の説明は、本発明のいくつかの特定の実施形態を示しているに過ぎない。 当業者であれば、本発明の原理から逸脱することなく、いくつかの改良及び改変を行うことができ、これらの改良及び改変はすべて、本発明の保護範囲に入るとみなされるべきであることを指摘しておく。

Claims (10)

  1. バーチャルリアリティ画像を調整する方法であって、
    現実空間における特定点を原点とする3次元座標系である現実空間座標系におけるバーチャルリアリティ装置の測位コンポーネントの第1の3次元座標及び第1の姿勢の向きを取得することと、
    予め設定された第1の変換関係に従って、前記第1の3次元座標を、前記現実空間座標系における前記バーチャルリアリティ装置の表示モジュールの焦点の座標である第2の3次元座標に変換し、前記第1の姿勢の向きを、前記現実空間座標系における前記表示モジュールの姿勢の向きである第2の姿勢の向きに変換することと、
    予め設定された第2の変換関係に従って前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記仮想空間における目標の姿勢の向きに変換することと、
    前記仮想空間内の任意の座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定することと、
    前記仮想空間における仮想物体を、2次元画像を生成するために前記投影面内の撮像領域に透視投影することと、
    前記表示モジュールの表示画面上に前記2次元画像を表示することと、
    を備える方法。
  2. 前記予め設定された第2の変換関係に従って前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記仮想空間における目標の姿勢の向きに変換することは、
    前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記目標の姿勢と一致させたままとすることを含み、
    前記仮想空間内の任意の指定された座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定することは、
    前記第2の姿勢の向きの前記表示モジュールの視線方向に対応する次元の第1の寸法値を取得することと、
    前記透視投影方向に対応する次元の寸法値を前記第1の寸法値として設定することと、
    前記3次元座標が示す点を前記投影中心とし、前記透視投影方向に応じて前記投影面を決定することと、を含み、
    前記現実空間座標系は、前記現実空間における特定点を原点とし、重力方向を第1の座標軸方向とし、バーチャルリアリティ装置を介して観察者が前記仮想空間を見ることにより設定された現実世界の水平面内の右方向を第2の座標軸方向とした3次元座標系であり、前記指定された座標系は前記仮想空間におけるワールド座標系である、
    請求項1に記載の方法。
  3. 前記予め設定された第2の変換関係に従って前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記仮想空間における目標の姿勢の向きに変換することは、
    前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記目標の姿勢の向きと一致させたままにすることを含み、
    前記仮想空間内の任意の指定された座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定することは、
    前記第2の姿勢の向きの前記表示モジュールの視線方向に対応する次元の第2の寸法値を取得することと、
    前記透視投影方向に対応する次元の寸法値を第2の寸法値として設定することと、
    前記目標の3次元座標が示す点を前記投影中心とし、前記透視投影方向に応じて前記投影面を決定することと、を含み、
    前記現実空間座標系と現実空間基準座標系との変換関係は、仮想空間における前記指定された座標系とワールド座標系との変換関係と同じであり、前記現実空間基準座標系は、前記現実空間における特定点を原点とし、前記現実空間における重力方向を第1の座標軸方向とし、前記現実空間における南方向または北方向を第2の座標軸方向とする第2座標系とした3次元座標現実空間である、請求項1に記載の方法。
  4. 前記変換関係と基準変換関係との間の差は、指定された期間において固定された値であり、
    前記基準変換関係は、前記現実空間座標系と、前記バーチャルリアリティ装置を介して前記仮想空間を見るときに基準観察者が使用する前記現実空間基準座標系との変換関係である請求項3に記載の方法。
  5. 前記指定された座標系の原点は、前記基準観察者が前記バーチャルリアリティ装置を介して前記仮想空間を見るときの仮想空間における位置である請求項4に記載の方法。
  6. 前記仮想空間内の任意の指定された座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定することは、
    基準観察者によって設定された基準投影点を決定することと、
    特定の時刻の前記基準投影点と前記投影中心との位置の差を算出することと、
    前記位置の差に応じて前記指定された座標系を基準座標系に変換することと、
    前記基準座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定することと、
    を備える請求項1に記載の方法。
  7. バーチャルリアリティ画像を調整する装置であって、
    現実空間における特定点を原点とする3次元座標系である現実空間座標系におけるバーチャルリアリティ装置の測位コンポーネントの第1の3次元座標及び第1の姿勢の向きを取得する取得部と、
    予め設定された第1の変換関係に従って、前記第1の3次元座標を、前記現実空間座標系における前記バーチャルリアリティ装置の表示モジュールの焦点の座標である第2の3次元座標に変換し、前記第1の姿勢の向きを、前記現実空間座標系における前記表示モジュールの姿勢の向きである第2の姿勢の向きに変換する第1の変換部と、
    予め設定された第2の変換関係に従って前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記仮想空間における目標の姿勢の向きに変換する第2の変換部と、
    前記仮想空間内の任意の座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定する投影面決定部と、
    前記仮想空間における仮想物体を、2次元画像を生成するために前記投影面内の撮像領域に透視投影する投影部と、
    前記表示モジュールの表示画面上に前記2次元画像を表示する表示部と、
    を備える装置。
  8. 前記第2の変換部は、具体的には、前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記目標の姿勢と一致させたままとし、
    前記投影面決定部は、
    前記第2の姿勢の向きの前記表示モジュールの視線方向に対応する次元の第1の寸法値を取得する第1の寸法値取得手段と、
    前記透視投影方向に対応する次元の寸法値を前記第1の寸法値として設定する第1の投影方向決定手段と、
    前記目標の3次元座標が示す点を前記投影中心とし、前記透視投影方向に応じて前記投影面を決定する第1の投影面決定手段と、を含み、
    前記現実空間座標系は、前記現実空間における特定点を原点とし、重力方向を第1の座標軸方向とし、バーチャルリアリティ装置を介して観察者が前記仮想空間を見ることにより設定された現実世界の水平面内の右方向を第2の座標軸方向とする、
    請求項7に記載の装置。
  9. 前記第2の変換部は、前記第2の3次元座標を仮想空間における目標の3次元座標に変換し、前記第2の姿勢の向きを前記目標の姿勢の向きと一致させたままとし、
    前記投影面決定部は、
    前記第2の姿勢の向きの前記表示モジュールの視線方向に対応する次元の第2の寸法値を取得する第2の寸法値決定手段と、
    前記透視投影方向に対応する次元の寸法値を前記第2の寸法値として設定する第1の投影方向決定手段と、
    前記目標の3次元座標が示す点を前記投影中心とし、前記透視投影方向に応じて前記投影面を決定する第2の投影面決定手段と、を含み、
    前記現実空間座標系と現実空間基準座標系との変換関係は、仮想空間における指定された座標系とワールド座標系との変換関係と同じであり、前記現実空間基準座標系は、前記現実空間における特定点を原点とし、前記現実空間における重力方向を第1の座標軸方向とし、前記現実空間における南方向または北方向を第2の座標軸方向とする、請求項7に記載の装置。
  10. 前記投影面決定部は、
    基準観察者によって設定された基準投影点を決定する投影点決定手段と、
    特定の時刻の前記基準投影点と前記投影中心との位置の差を算出する差算出手段と、
    前記位置の差に応じて指定された座標系を基準座標系に変換する座標系変換手段と、
    前記基準座標系における前記目標の3次元座標が示す点を投影中心とし、前記仮想空間における投影面を前記目標の姿勢の向きに応じて決定する第3の投影面決定手段と、
    を備える請求項7に記載の装置。
JP2018516785A 2015-09-30 2016-03-16 バーチャルリアリティ画像を調整する方法及び装置 Active JP6622395B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510638940.8 2015-09-30
CN201510638940.8A CN105354820B (zh) 2015-09-30 2015-09-30 调整虚拟现实图像的方法及装置
PCT/CN2016/076543 WO2017054421A1 (zh) 2015-09-30 2016-03-16 调整虚拟现实图像的方法及装置

Publications (2)

Publication Number Publication Date
JP2018535477A true JP2018535477A (ja) 2018-11-29
JP6622395B2 JP6622395B2 (ja) 2019-12-18

Family

ID=55330787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018516785A Active JP6622395B2 (ja) 2015-09-30 2016-03-16 バーチャルリアリティ画像を調整する方法及び装置

Country Status (6)

Country Link
US (1) US11151790B2 (ja)
EP (1) EP3358524A4 (ja)
JP (1) JP6622395B2 (ja)
KR (1) KR102068801B1 (ja)
CN (1) CN105354820B (ja)
WO (1) WO2017054421A1 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354820B (zh) 2015-09-30 2018-05-22 深圳多新哆技术有限责任公司 调整虚拟现实图像的方法及装置
CN105930044A (zh) * 2016-04-20 2016-09-07 乐视控股(北京)有限公司 一种显示页面定位的方法和系统
CN106095102A (zh) * 2016-06-16 2016-11-09 深圳市金立通信设备有限公司 一种虚拟现实显示界面处理的方法及终端
CN106454311B (zh) * 2016-09-29 2019-09-27 北京德火新媒体技术有限公司 一种led三维成像系统及方法
CN106598277B (zh) * 2016-12-19 2019-09-17 网易(杭州)网络有限公司 虚拟现实交互系统
CN106814856B (zh) * 2017-01-20 2020-10-13 凤阳凤辰电子科技有限公司 一种通过虚拟眼镜将商品在虚拟空间展示的方法和系统
CN107170024A (zh) * 2017-04-01 2017-09-15 武汉市真意境文化科技有限公司 一种基于vr环境二维视图生成方法及系统
CN107134000B (zh) * 2017-05-23 2020-10-23 张照亮 一种融合现实的三维动态图像生成方法及系统
CN107239333B (zh) * 2017-05-24 2020-10-09 歌尔科技有限公司 应用切换处理方法和装置
EP3460394B1 (en) * 2017-09-26 2020-06-03 Hexagon Technology Center GmbH Surveying instrument, augmented reality (ar)-system and method for referencing an ar-device relative to a reference system
TWI642903B (zh) * 2017-10-13 2018-12-01 緯創資通股份有限公司 用於頭戴式顯示裝置的定位方法、定位器以及定位系統
CN109102571B (zh) * 2018-07-16 2023-05-12 深圳超多维科技有限公司 一种虚拟影像的控制方法、装置、设备及其存储介质
CN109085931A (zh) * 2018-07-25 2018-12-25 南京禹步信息科技有限公司 一种虚实结合的交互式输入方法、装置和存储介质
CN109669602B (zh) * 2018-11-13 2020-04-24 宁波视睿迪光电有限公司 虚拟现实的数据交互方法、装置及系统
CN109710056A (zh) * 2018-11-13 2019-05-03 宁波视睿迪光电有限公司 虚拟现实交互装置的显示方法及装置
WO2020101197A1 (ko) * 2018-11-15 2020-05-22 유엔젤주식회사 증강현실 콘텐츠 공유 방법 및 시스템
CN109785392B (zh) * 2018-12-17 2022-07-29 中国航空工业集团公司洛阳电光设备研究所 一种用于桌面级虚拟现实系统的标定装置及方法
CN109657387B (zh) * 2018-12-27 2022-12-23 重庆上丞科技有限公司 一种基于混合现实场景的家居模型定位放置方法
CN109920519B (zh) * 2019-02-20 2023-05-02 东软医疗系统股份有限公司 处理影像数据的方法、装置及设备
CN110196638B (zh) * 2019-05-17 2023-10-13 中电海康集团有限公司 基于目标检测和空间投影的移动端增强现实方法和系统
CN110322484B (zh) * 2019-05-29 2023-09-08 武汉幻石佳德数码科技有限公司 多设备共享的增强现实虚拟空间的校准方法及系统
CN110688002B (zh) * 2019-09-06 2023-12-19 广东虚拟现实科技有限公司 虚拟内容的调整方法、装置、终端设备及存储介质
CN110675313A (zh) * 2019-09-27 2020-01-10 珠海金山网络游戏科技有限公司 一种二维平面中的定位方法及装置
CN110766752B (zh) * 2019-10-09 2023-03-10 中国航空工业集团公司洛阳电光设备研究所 一种带反光标志点的虚拟现实交互眼镜及空间定位方法
CN110689624B (zh) * 2019-10-11 2023-03-03 北京华宁全视科技有限公司 一种将混合现实场景中虚拟模型与实物配准的方法
CN111739169A (zh) * 2019-10-31 2020-10-02 北京京东尚科信息技术有限公司 基于增强现实的产品展示方法、系统、介质及电子设备
CN111127661B (zh) * 2019-12-17 2023-08-29 北京超图软件股份有限公司 一种数据处理方法、装置及电子设备
CN111476876B (zh) * 2020-04-02 2024-01-16 北京七维视觉传媒科技有限公司 一种三维影像渲染方法、装置、设备及可读存储介质
CN113763520A (zh) * 2020-06-01 2021-12-07 北京沃东天骏信息技术有限公司 一种指示三维模型方位的方法和装置
CN112642141B (zh) * 2020-12-02 2022-02-25 北京利亚德装备技术有限公司 模拟射击系统及其坐标转换方法
CN113160421B (zh) * 2021-01-22 2024-05-31 杭州师范大学 一种基于投影的空间式实物交互虚拟实验方法
CN112817453A (zh) * 2021-01-29 2021-05-18 聚好看科技股份有限公司 虚拟现实设备和虚拟现实场景中物体的视线跟随方法
US11551402B1 (en) 2021-07-20 2023-01-10 Fmr Llc Systems and methods for data visualization in virtual reality environments
CN113438463B (zh) * 2021-07-30 2022-08-19 贝壳找房(北京)科技有限公司 正交相机图像的模拟方法和装置、存储介质、电子设备
CN114627270B (zh) * 2022-03-16 2023-02-03 深圳市博乐信息技术有限公司 一种基于ar/vr技术的虚拟空间共享方法及系统
US20230377223A1 (en) * 2022-05-18 2023-11-23 Snap Inc. Hand-tracked text selection and modification
CN116433826B (zh) * 2023-06-08 2023-09-29 北京百度网讯科技有限公司 虚拟形象驱动方法、装置、设备和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004151085A (ja) * 2002-09-27 2004-05-27 Canon Inc 情報処理方法及び情報処理装置
JP2012068481A (ja) * 2010-09-24 2012-04-05 Asia Air Survey Co Ltd 拡張現実表現システムおよび方法
JP2012252661A (ja) * 2011-06-06 2012-12-20 Nintendo Co Ltd 画像生成プログラム、画像生成方法、画像生成装置及び画像生成システム
JP2013545510A (ja) * 2010-10-12 2013-12-26 株式会社ソニー・コンピュータエンタテインメント 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2040273C (en) * 1990-04-13 1995-07-18 Kazu Horiuchi Image displaying system
JP3944019B2 (ja) * 2002-07-31 2007-07-11 キヤノン株式会社 情報処理装置および方法
CN102023700B (zh) * 2009-09-23 2012-06-06 吴健康 一种三维人机交互系统
CN102314682B (zh) * 2011-07-11 2014-07-02 深圳超多维光电子有限公司 一种标定摄像头的方法、装置和系统
JP6287849B2 (ja) * 2013-02-22 2018-03-07 ソニー株式会社 ヘッドマウントディスプレイ、画像表示装置及び画像表示方法
CN103226838A (zh) * 2013-04-10 2013-07-31 福州林景行信息技术有限公司 地理场景中移动监控目标的实时空间定位方法
CN104375626B (zh) * 2013-08-14 2017-10-17 华为技术有限公司 显示指示标识的处理方法、装置和系统
CN104427230B (zh) * 2013-08-28 2017-08-25 北京大学 增强现实的方法和增强现实的系统
CN104134235B (zh) * 2014-07-25 2017-10-10 深圳超多维光电子有限公司 真实空间和虚拟空间的融合方法和融合系统
JP6417797B2 (ja) * 2014-09-03 2018-11-07 株式会社リコー 情報端末装置、情報処理方法、システムおよびプログラム
JP6505556B2 (ja) * 2015-09-07 2019-04-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
CN105354820B (zh) * 2015-09-30 2018-05-22 深圳多新哆技术有限责任公司 调整虚拟现实图像的方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004151085A (ja) * 2002-09-27 2004-05-27 Canon Inc 情報処理方法及び情報処理装置
JP2012068481A (ja) * 2010-09-24 2012-04-05 Asia Air Survey Co Ltd 拡張現実表現システムおよび方法
JP2013545510A (ja) * 2010-10-12 2013-12-26 株式会社ソニー・コンピュータエンタテインメント 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム
JP2012252661A (ja) * 2011-06-06 2012-12-20 Nintendo Co Ltd 画像生成プログラム、画像生成方法、画像生成装置及び画像生成システム

Also Published As

Publication number Publication date
EP3358524A1 (en) 2018-08-08
US20180276897A1 (en) 2018-09-27
EP3358524A4 (en) 2019-01-02
KR20180061274A (ko) 2018-06-07
WO2017054421A1 (zh) 2017-04-06
KR102068801B1 (ko) 2020-01-21
US11151790B2 (en) 2021-10-19
CN105354820B (zh) 2018-05-22
CN105354820A (zh) 2016-02-24
JP6622395B2 (ja) 2019-12-18

Similar Documents

Publication Publication Date Title
JP6622395B2 (ja) バーチャルリアリティ画像を調整する方法及び装置
CN113168007B (zh) 用于增强现实的系统和方法
US11796309B2 (en) Information processing apparatus, information processing method, and recording medium
CN110908503B (zh) 跟踪设备的位置的方法
RU2638776C1 (ru) Устройство генерирования изображения и способ
EP3195105B1 (en) Management of content in a 3d holographic environment
US9728010B2 (en) Virtual representations of real-world objects
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
KR20160149252A (ko) 시선 위치에 기초한 안정 평면 결정
KR20160147735A (ko) 헤드부 위치 검출 장치 및 헤드부 위치 검출 방법, 화상 처리 장치 및 화상 처리 방법, 표시 장치, 및 컴퓨터 프로그램
WO2013191120A1 (ja) 画像処理装置、方法、プログラム、および記録媒体
US20170185147A1 (en) A method and apparatus for displaying a virtual object in three-dimensional (3d) space
CN110895433B (zh) 用于增强现实中用户交互的方法和装置
JP2018007180A (ja) 映像表示装置、映像表示方法及び映像表示プログラム
WO2021075113A1 (ja) 情報処理装置、情報処理方法及びプログラム
KR20180050126A (ko) 양안식 증강현실 뷰어에서 증강현실 제공방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191121

R150 Certificate of patent or registration of utility model

Ref document number: 6622395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250