CN116185170A - 头戴显示装置、其控制方法及非暂态电脑可读取储存介质 - Google Patents

头戴显示装置、其控制方法及非暂态电脑可读取储存介质 Download PDF

Info

Publication number
CN116185170A
CN116185170A CN202211451152.4A CN202211451152A CN116185170A CN 116185170 A CN116185170 A CN 116185170A CN 202211451152 A CN202211451152 A CN 202211451152A CN 116185170 A CN116185170 A CN 116185170A
Authority
CN
China
Prior art keywords
coordinates
processor
projection
specific image
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211451152.4A
Other languages
English (en)
Inventor
陈冠维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HTC Corp
Original Assignee
HTC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HTC Corp filed Critical HTC Corp
Publication of CN116185170A publication Critical patent/CN116185170A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种头戴显示装置,包含一相机、一处理器以及一显示器。该相机用以撷取一环境中的一特定物件的一特定影像。该处理器耦接该相机,用以执行以下操作:取得该特定影像的多个特征点,所述多个特征点各自包含一世界坐标;根据所述多个特征点各自的该世界坐标产生一视点坐标;以及根据所述多个特征点各自的该视点坐标,产生该环境的一投影坐标。该显示器耦接该处理器,用以显示包含一转换后特定影像的一虚拟影像。本公开所提供的控制技术,通过显示该虚拟影像,让使用者可看见以真实尺寸呈现的多个真实物件。

Description

头戴显示装置、其控制方法及非暂态电脑可读取储存介质
技术领域
本公开有关于一种头戴显示装置(head-mounted display device;HMD device)、其控制方法及非暂态电脑可读取储存介质。具体而言,本发明是有关于一种于虚拟现实(virtual reality;VR)环境中显示真实世界物件的头戴显示装置、其控制方法及非暂态电脑可读取储存介质。
背景技术
在虚拟现实产业中,如何在穿戴虚拟现实装置的同时与真实世界环境互动,是最具挑战性的课题之一。其中透视(pass-through)技术是一习知的解决方案,其可让使用者在不须取下头戴显示装置的情况下,仍可看见真实世界的物件。现今市面上几乎所有虚拟现实厂商皆支持此技术。而如何使真实物件在虚拟环境中看起来和真实世界中具有同样的尺寸(比例),是开发透视技术的最大挑战之一。
其困难之处在于环境中的深度资讯是未知的。时至今日,仍未有可利用立体影像进行三维重建(3D reconstruction)的高效能的演算法被提出。被提出的演算法中,部分演算法产生的影像具有肉眼可见的失真伪影(distortion artifacts)。此外,现有的透视技术的另一个缺陷是使用者无法选择其所想看见的画面,而透视技术所产生的画面占据了整个视野。如此一来,其限制了使用者在虚拟现实中与真实世界互动的方式。
发明内容
本公开提供一种头戴显示装置,包含一相机、一处理器以及一显示器。该相机用以撷取一环境中的一特定物件的一特定影像。该处理器耦接该相机,用以执行以下操作:取得该特定影像的多个特征点,所述多个特征点各自包含一世界坐标;根据所述多个特征点各自的该世界坐标产生一视点坐标;以及根据该视点坐标,产生该环境的一投影坐标。该显示器耦接该处理器,用以显示包含一转换后特定影像的一虚拟影像,其中该转换后特定影像根据所述多个特征点各自的该投影坐标从该特定影像转换所得出。
本公开还提供一种控制方法,用于一头戴显示装置,该头戴显示装置包含一相机、一处理器以及一显示器。该控制方法包含以下步骤:以该处理器取得在一环境中的一特定物件的一特定影像的多个特征点;以该处理器取得所述多个特征点的多个世界坐标;以该处理器产生所述多个特征点的所述多个世界坐标的多个视点坐标;以及以该处理器产生该环境的所述多个视点坐标的多个投影坐标,以使该显示器显示包含一转换后特定影像的一虚拟影像,其中该转换后特定影像根据所述多个投影坐标从该特定影像转换所得出。
本公开还提供一种非暂态电脑可读取储存介质,其具有储存于其上的一电脑程序,该电脑程序用以执行前述的该控制方法,该控制方法包含以下步骤:以一处理器取得在一环境中的一特定物件的一特定影像的多个特征点;以该处理器取得所述多个特征点的多个世界坐标;以该处理器产生所述多个世界坐标的多个视点坐标;以及以该处理器产生该环境的所述多个视点坐标的多个投影坐标,以使一显示器显示包含一转换后特定影像的一虚拟影像,其中该转换后特定影像根据所述多个投影坐标从该特定影像转换所得出。
在本发明的一实施方式中,其中所述多个特征点各自包含该特定物件的一本地坐标系统的一本地坐标,其中该世界坐标根据该本地坐标所产生。
在本发明的一实施方式中,其中该投影坐标根据下列一算式所产生:
c=Mprojection×Mview×Mmodel×v
其中v为该本地坐标,Mmodel将该本地坐标转换为该世界坐标,Mview将该世界坐标转换为该视点坐标,Mprojection将该视点坐标转换为该投影坐标,以及c为该投影坐标。
在本发明的一实施方式中,其中该相机进一步包含一视野参数,以及该处理器进一步用以根据该视点坐标和该视野参数产生该投影坐标。
在本发明的一实施方式中,其中该处理器进一步用以根据该特定物件的一网格模组取得所述多个特征点。
在本发明的一实施方式中,其中该处理器进一步以一视点转换阵列将该世界坐标转换为该视点坐标;以及以一投影转换阵列将该视点坐标转换为该投影坐标。
在本发明的一实施方式中,其中该投影坐标为该显示器所显示的一显示画面中,自该视点坐标投影至一使用者的一使用者坐标的一投影点。
在本发明的一实施方式中,其中该世界坐标根据一世界坐标系统所产生,以及该视点坐标根据一使用者坐标系统所产生。
应该理解的是,前述的一般性描述和下列具体说明仅仅是示例性和解释性的,并旨在提供所要求的本公开的进一步说明。
附图说明
为让本公开的上述和其他目的、特征、优点与实施例能更明显易懂,所附附图的说明如下:
图1为本公开部分实施例中使用者操作虚拟现实系统的头戴显示装置的环境的示意图;
图2为本公开部分实施例中头戴显示装置的示意图;
图3为本公开部分实施例中控制方法的流程图;
图4为本公开部分实施例中图1所示的环境的特定影像的示意图;
图5为本公开部分实施例中图1所示的特定物件的网格模组的示意图;
图6为本公开部分实施例中图1所示的特定物件的示意图;
图7为本公开部分实施例中转换视点坐标为投影坐标的示意图;以及
图8为本公开部分实施例中虚拟影像的示意图。
符号说明:
E:环境
S:特定物件
U:使用者
100:头戴显示装置
110:相机
130:处理器
150:显示器
170:储存器
300:控制方法
S310~S370:步骤
SP:特定影像
a1~a4:特征点
A1~A4:特征点
B:原点
B1~B4:视点坐标
C1~C4:投影坐标
800:虚拟影像
ST:转换后特定影像
具体实施方式
为了使本公开的叙述更加详尽与完备,可参照所附的附图及以下所述各种实施例,附图中相同的号码代表相同或相似的元件。
请参照图1,其为本公开部分实施例中使用者U操作一虚拟现实系统的一头戴显示装置的环境E的示意图。如图1所示,使用者U穿戴着头戴显示装置100。环境E为使用者U操作头戴显示装置100的一环境。环境E中包含特定物件S,特定物件S为使用者U欲与其互动的一真实物件。在一实施例中,该头戴显示装置的该系统可为一混合现实(mixed reality;MR)系统或一扩增现实(augmented reality;AR)系统,本公开对此并未有限制。
在一些实施例中,如图1所示,特定物件S为一电脑屏幕,惟本公开的实施例并不限于此。在一些其他实施例中,特定物件S可为一鼠标、一控制器、一手机或其他任何使用者U欲与其互动的真实物件。
在一些实施例中,使用者U通过该虚拟现实系统或该控制器(未示出于图中)设定欲与其互动的真实物件。
请参考图2。图2为本公开部分实施例中头戴显示装置100的示意图。如图2所示,头戴显示装置100包含相机110、处理器130以及显示器150。其连接关系为相机110耦接处理器130,以及显示器150耦接处理器130。
请参考图3。图3为本公开部分实施例中控制方法300的流程图。控制方法300可被图2所示的头戴显示装置100所执行。控制方法300包含步骤S310至S370。
在步骤S310中,以一处理器取得一特定物件的一特定影像的多个特征点。在一些实施例中,步骤S310由图2所示的处理器130所执行。
请一并参考图4。图4为本公开部分实施例中图1所示的环境E的一特定影像的示意图。在一些实施例中,由图2所示的相机110于图1所示的环境E中撷取特定物件S的特定影像SP。
如图4所示,归因于图2所示的相机110与图1所示的特定物件S之间的方向与角度,特定影像SP呈现一梯形而非一长方形。
在相机110取得图4所示的特定影像SP后,图2所示的处理器130取得特定影像SP的所述多个特征点。
在一些实施例中,图2所示的头戴显示装置100进一步包含存储器170。在连接关系上,存储器170耦接图2所示的处理器130。在一些实施例中,存储器170包含图1所示的特定物件S的一网格模组(mesh module)。
请参考图5。图5为本公开部分实施例中图1所示的特定物件S的网格模组500的示意图。如图5所示,图1所示的特定物件S的该网格模组为一电脑屏幕,并且被分为两个三角形以及四个特征点A1至A4。
在一些实施例中,存储器170储存多个特定物件的多个网格模组。举例而言,所述多个特定物件像是一鼠标、一控制器及一手机,存储器170储存所述多个特定物件各自对应的一网格模组。在一些实施例中,该网格模组包含接近该特定物件形状的多个三角形。
在一些实施例中,所述多个网格模组被预先储存于存储器170。在一些实施例中,所述多个网格模组由图1所示的使用者U所设定。
请再一次参考图4。如图4所示,图2所示的处理器130根据图5所示的网格模组500,取得特定影像SP的特征点a1至a4。
请再一次参考图3。在步骤S330中,以该处理器取得所述多个特征点的多个世界坐标。在一些实施例中,步骤S330由图2所示的处理器130所执行。
在一些实施例中,图4所示的特征点a1至a4各自包含该特定物件的一本地坐标系统的一本地坐标。
在一些实施例中,图1所示的特定物件S包含一追踪器(未示出于图中),该追踪器传送特征点a1至a4的所述多个本地坐标至图2所示的头戴显示装置100。
请一并参考图6。图6为本公开部分实施例中图1所示的特定物件S的示意图。以该本地坐标系统中的一原点B为例,原点B通常为特定物件S的一中心点,同时也是该本地坐标系统的一原点(0,0,0)。在由X轴、Y轴及Z轴构成的三维空间中,特征点a1至a4各自包含一本地坐标,所述多个本地坐标根据特征点a1至a4及原点B之间的一相对位置和一距离得出。举例而言,特征点a1的该本地坐标为(X1,Y1,Z1),特征点a2的该本地坐标为(X2,Y2,Z2),特征点a3的该本地坐标为(X3,Y3,Z3),以及特征点a4的该本地坐标为(X4,Y4,Z4)。
在一些实施例中,图2所示的处理器130根据特征点a1至a4的所述多个本地坐标产生特征点a1至a4的多个世界坐标。所述多个世界坐标根据一世界坐标系统所产生。该世界坐标系统,又称作世界坐标空间或全球坐标空间,特征点a1至a4的所述多个世界坐标用以指示该世界坐标空间(未示出于图中)中特征点a1至a4及原点B之间的该相对位置和该距离。
在一些实施例中,图2所示的处理器130以一模型转换阵列Mmodel将该本地坐标转换为该世界坐标。在本公开中,该本地坐标和该世界坐标之间的转换阵列Mmodel亦可以多种不同的转换阵列实现。
请再次参考图3。步骤S350中,该处理器产生所述多个世界坐标的多个视点坐标。在一些实施例中,所述多个视点坐标根据对应一使用者视点的一使用者坐标系统所产生。在一些实施例中,步骤S350由图2所示的处理器130所执行。
在一些实施例中,该使用者坐标系统对应该使用者视点,亦称作一视点空间,该使用者坐标系统将该世界坐标转换为图1所示的使用者U视野前方多个坐标的结果。
在一些实施例中,图2所示的处理器130以一视点阵列Mview将该世界坐标转换为该视点坐标。在本公开中,该世界坐标和该视点坐标之间的转换阵列Mview亦可以多种不同的转换阵列实现。
请再次参考图3。步骤S370中,该处理器产生所述多个视点坐标的多个投影坐标,以使该显示器显示包含一转换后特定影像的一虚拟影像。在一些实施例中,该转换后特定影像根据所述多个投影坐标从该特定影像转换所得出。
在一些实施例中,步骤S370由图2所示的处理器130所执行。在一些实施例中,图2所示的相机110包含一视野参数(field of view parameter),并且该投影坐标根据所述多个视点坐标和该视野参数所产生。在一些实施例中,处理器130以一投影转换阵列Mprojection将所述多个视点坐标转换为该投影坐标。
请参考图7及图8。图7为本公开部分实施例中将该视点坐标转换为该投影坐标的示意图。图8为本公开部分实施例中虚拟影像800的示意图。如图7所示,相机110的该视野参数决定了相机110的一视角。虚拟影像800由图2所示的显示器150所显示。如图7所示,投影坐标C1至C4为显示器150所显示的一显示画面中,自视点坐标B1至B4投影至图1所示的使用者U的一使用者坐标(由于使用者U穿戴着包含相机110的头戴显示装置100,因此亦可为相机110的该视点坐标)的多个投影点。需要注意的是,视点坐标B1至B4为不存在真实世界中的多个虚拟坐标。
经过投影后,如图7所示,视点坐标B1被转换为投影坐标C1,视点坐标B2被转换为投影坐标C2,视点坐标B3被转换为投影坐标C3,以及视点坐标B4被转换为投影坐标C4。
在一些实施例中,使用者U的该使用者坐标为该使用者坐标系统的该原点。在一些实施例中,虚拟影像800显示于图2所示的显示器150的该显示画面。如图8所示,转换后特定影像ST根据投影坐标C1至C4所产生,并且转换后特定影像ST转换图4所示的特定影像SP得出。图中的虚线区域为图2所示的显示器150显示的该虚拟影像。即,显示器150显示包含转换后特定影像ST的虚拟影像800。
按前述,所述多个投影坐标根据下列式一所产生:
[式一]
c=Mprojection×Mview×Mmodel×v
其中v为该本地坐标,Mmodel将该本地坐标转换为该世界坐标,Mview将该世界坐标转换为该视点坐标,Mprojection将该视点坐标转换为该投影坐标,以及c为该投影坐标。
需要注意的是,图2所示的头戴显示装置100仅作为示例,惟本公开的实施例并不限于此。在一些其他实施例中,头戴显示装置100包含两个以上的相机,并且所述多个相机各自以本公开的实施例所描述的方法产生其自身的所述多个投影坐标。
在一些实施例中,在产生图8所示的虚拟影像800之前,图2所示的处理器130执行一渲染演算法(render algorithm)整合该虚拟影像及转换后特定影像ST以产生虚拟影像800。
上述用以控制一头戴显示装置并且包含一相机、一处理器以及一显示器的控制方法300可以储存于一电脑可读取储存介质的一电脑程序实现。使一电脑读取该电脑可读取储存介质后,该电脑可执行控制方法300。该电脑可读取储存介质可为一唯读存储器、一快闪存储器、一磁盘、一硬盘、一光盘、一U(USB)盘、一磁盘、一网络资料库或其他可由所属技术领域技术人员易于思及并达成相同功效的电脑可读取储存介质。上述用以控制一头戴显示装置并且包含一相机、一处理器以及一显示器的控制方法300亦可由该电脑程序搭配至少一处理器或芯片实现。
在本公开的实施例中,该特定物件的一表面可以简化为大量的平面多边形,并且「多边形三角化」(polygon triangulation)用以将该特定物件切割为大量的三角形以取得该特定物件的网格。通过所述多个网格模组,可取得所述多个三角形的多个端点中的多个特征点,并且所述多个三角形的所述多个端点的所述多个本地坐标被转换为多个投影坐标。所述多个投影坐标构成该转换后特定影像的形状。接着,该处理器在该转换后特定影像的该网格上映射该特定物件的纹理。
本公开的实施例提供一种头戴显示装置、其控制方法及非暂态电脑可读取储存介质,通过所述多个网格模组,可取得多个特征点,并且所述多个特征点各自的该本地坐标被转换为该投影坐标。所述多个投影坐标构成该转换后特定影像的形状。在本公开的实施例中,该使用者可看见其所欲观看的多个真实物件,且所述多个真实物件以真实尺寸呈现。
在一些实施例中,图2所示的处理器130包含但不限于一单一处理器或多个微处理器的组合,如:中央处理器(central processing unit;CPU)或图形处理器(graphicsprocessing unit;GPU)。处理器130电性耦接存储器170以存取至少一指令。该至少一指令可用以执行上述控制方法。
在一些实施例中,图2所示的存储器170可包含一快闪存储器(flash memory)、一硬盘(hard disk drive;HDD)、一固态硬盘(solid state drive;SSD)、一动态随机存取存储器(dynamic random access memory,DRAM)或一静态随机存取存储器(static randomaccess memory,SRAM)。在一些实施例中,存储器170可为储存有关一控制方法的至少一指令的一非暂态电脑可读取储存介质。处理器130可存取并执行该至少一指令。
在一些实施例中,图2所示的相机110可为一影像撷取电路或其他具有相同或相似功能的单元或电路。在一些实施例中,图2所示的显示器150可为用以显示影像的一显示电路或其他具有相同或相似功能的单元或电路。
虽以数个实施例详述如上作为示例,然本公开所提出的头戴显示装置、其控制方法及非暂态电脑可读取储存介质亦得以其他系统、硬盘、软盘、储存介质或其组合实现。因此,本公开的保护范围不应受限于本公开实施例所描述的特定实现方式,当视后附的权利要求所界定的范围为准。
对于本公开所属技术领域中技术人员显而易见的是,在不脱离本公开的范围或精神的情况下,可以对本公开的结构进行各种修改和变化。鉴于前述,本公开的保护范围亦涵盖在后附的权利要求内进行的修改和变化。

Claims (10)

1.一种头戴显示装置,其特征在于,包含:
一相机,用以撷取一环境中的一特定物件的一特定影像;
一处理器,耦接该相机,用以执行以下操作:
取得该特定影像的多个特征点,其中所述多个特征点各自包含一世界坐标;
根据所述多个特征点各自的该世界坐标产生一视点坐标;以及
根据所述多个特征点各自的该视点坐标,产生该环境的一投影坐标;以及
一显示器,耦接该处理器,用以显示一虚拟影像,该虚拟影像包含一转换后特定影像,其中该转换后特定影像根据所述多个特征点各自的该投影坐标从该特定影像转换所得出。
2.如权利要求1所述的头戴显示装置,其特征在于,其中所述多个特征点各自包含该特定物件的一本地坐标系统的一本地坐标,其中该世界坐标根据该本地坐标所产生。
3.如权利要求2所述的头戴显示装置,其特征在于,其中该投影坐标根据下列一算式所产生:
c=Mprojection×Mview×Mmodel×v
其中v为该本地坐标,Mmodel将该本地坐标转换为该世界坐标,Mview将该世界坐标转换为该视点坐标,Mprojection将该视点坐标转换为该投影坐标,以及c为该投影坐标。
4.如权利要求1所述的头戴显示装置,其特征在于,其中该相机进一步包含一视野参数,以及该处理器进一步用以根据该视点坐标和该视野参数产生该投影坐标。
5.如权利要求1所述的头戴显示装置,其特征在于,其中该处理器进一步用以根据该特定物件的一网格模组取得所述多个特征点。
6.如权利要求1所述的头戴显示装置,其特征在于,其中该处理器进一步用以:
以一视点转换阵列将该世界坐标转换为该视点坐标;以及
以一投影转换阵列将该视点坐标转换为该投影坐标。
7.如权利要求1所述的头戴显示装置,其特征在于,其中该投影坐标为该显示器所显示的一显示画面中,自该视点坐标投影至一使用者的一使用者坐标的一投影点。
8.如权利要求1所述的头戴显示装置,其特征在于,其中该世界坐标根据一世界坐标系统所产生,以及该视点坐标根据一使用者坐标系统所产生。
9.一种控制方法,其特征在于,用于一头戴显示装置,该头戴显示装置包含一相机、一处理器以及一显示器,该控制方法包含以下步骤:
以该处理器取得在一环境中的一特定物件的一特定影像的多个特征点;
以该处理器取得所述多个特征点的多个世界坐标;
以该处理器产生所述多个世界坐标的多个视点坐标;以及
以该处理器产生该环境的所述多个视点坐标的多个投影坐标,以使该显示器显示包含一转换后特定影像的一虚拟影像,其中该转换后特定影像根据所述多个投影坐标从该特定影像转换所得出。
10.一种非暂态电脑可读取储存介质,其特征在于,其具有储存于其上的一电脑程序,该电脑程序用以执行一控制方法,该控制方法包含以下步骤:
以一处理器取得在一环境中的一特定物件的一特定影像的多个特征点;
以该处理器取得所述多个特征点的多个世界坐标;
以该处理器产生所述多个世界坐标的多个视点坐标;以及
以该处理器产生该环境的所述多个视点坐标的多个投影坐标,以使一显示器显示包含一转换后特定影像的一虚拟影像,其中该转换后特定影像根据所述多个投影坐标从该特定影像转换所得出。
CN202211451152.4A 2021-11-29 2022-11-18 头戴显示装置、其控制方法及非暂态电脑可读取储存介质 Pending CN116185170A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202163264656P 2021-11-29 2021-11-29
US63/264,656 2021-11-29
US17/813,939 US20230168510A1 (en) 2021-11-29 2022-07-21 Head-mounted display device, control method, and non-transitory computer readable storage medium
US17/813,939 2022-07-21

Publications (1)

Publication Number Publication Date
CN116185170A true CN116185170A (zh) 2023-05-30

Family

ID=86433339

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211451152.4A Pending CN116185170A (zh) 2021-11-29 2022-11-18 头戴显示装置、其控制方法及非暂态电脑可读取储存介质

Country Status (3)

Country Link
US (1) US20230168510A1 (zh)
CN (1) CN116185170A (zh)
TW (1) TWI817832B (zh)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI486631B (zh) * 2014-01-24 2015-06-01 Quanta Comp Inc 頭戴式顯示裝置及其控制方法

Also Published As

Publication number Publication date
US20230168510A1 (en) 2023-06-01
TWI817832B (zh) 2023-10-01
TW202322622A (zh) 2023-06-01

Similar Documents

Publication Publication Date Title
CN109561296B (zh) 图像处理装置、图像处理方法、图像处理系统和存储介质
CN110889890B (zh) 图像处理方法及装置、处理器、电子设备及存储介质
US9613463B2 (en) Augmented reality extrapolation techniques
WO2017092303A1 (zh) 虚拟现实场景模型建立方法及装置
JP5592011B2 (ja) マルチスケール3次元配向
US11294535B2 (en) Virtual reality VR interface generation method and apparatus
KR20190125526A (ko) 사용자 움직임 정보에 기초하여 영상을 표시하기 위한 방법 및 장치
US9508191B2 (en) Optimal point density using camera proximity for point-based global illumination
CN110956695B (zh) 信息处理装置、信息处理方法和存储介质
CN113112581A (zh) 三维模型的纹理贴图生成方法、装置、设备及存储介质
CN115187729B (zh) 三维模型生成方法、装置、设备和存储介质
JP2023115088A5 (zh)
CN111161398A (zh) 一种图像生成方法、装置、设备及存储介质
WO2019042028A1 (zh) 全视向的球体光场渲染方法
US10902554B2 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
US10754498B2 (en) Hybrid image rendering system
CN108986228B (zh) 用于虚拟现实中界面显示的方法及装置
TWI817832B (zh) 頭戴顯示裝置、其控制方法及非暫態電腦可讀取儲存媒體
TW201935188A (zh) 即時渲染影像的追蹤系統、追蹤方法以及非暫態電腦可讀取媒體
JP5565126B2 (ja) 立体印刷物制作支援装置、プラグインプログラム、立体印刷物制作方法および立体印刷物
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
CN111862338B (zh) 模拟眼镜佩戴图像的显示方法及装置
CN113139992A (zh) 多分辨率体素网格化
KR20230013099A (ko) 실시간 깊이 맵을 사용한 지오메트리 인식 증강 현실 효과
CN110335335A (zh) 用于球面投影的均匀密度立方体贴图渲染

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination