CN114253389A - 整合动作感测器的增强现实系统与增强现实显示方法 - Google Patents

整合动作感测器的增强现实系统与增强现实显示方法 Download PDF

Info

Publication number
CN114253389A
CN114253389A CN202011023632.1A CN202011023632A CN114253389A CN 114253389 A CN114253389 A CN 114253389A CN 202011023632 A CN202011023632 A CN 202011023632A CN 114253389 A CN114253389 A CN 114253389A
Authority
CN
China
Prior art keywords
display
head
virtual object
display device
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011023632.1A
Other languages
English (en)
Other versions
CN114253389B (zh
Inventor
黄咏证
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Acer Inc
Original Assignee
Acer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Acer Inc filed Critical Acer Inc
Priority to CN202011023632.1A priority Critical patent/CN114253389B/zh
Publication of CN114253389A publication Critical patent/CN114253389A/zh
Application granted granted Critical
Publication of CN114253389B publication Critical patent/CN114253389B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

一种整合动作感测的增强现实系统与增强现实显示方法。增强现实系统包括头戴式显示装置与计算机装置。头戴式显示装置包括影像撷取装置与动作感测器。通过影像撷取装置撷取第i帧环境影像,并依据第i帧环境影像决定虚拟物件的显示位置。获取显示器相对于头戴式显示装置的深度距离。由动作感测器产生头戴式显示装置的动作感测信息。在撷取第(i+1)帧环境影像之前,依据动作感测信息与深度距离调整虚拟物件的显示位置。由头戴式显示装置依据调整后的显示位置显示虚拟物件。虚拟物件显示为锚定于显示器的显示边框上。

Description

整合动作感测器的增强现实系统与增强现实显示方法
技术领域
本发明是有关于一种增强现实设备,且特别是有关于一种整合动作感测器的增强现实系统与增强现实显示方法。
背景技术
随着科技的发展,增强现实(AugmentedReality,AR)技术的应用越来越多,AR技术将虚拟的信息应用到真实世界。
另一方面,随着信息处理量的增加,单一屏幕的笔记本电脑已逐渐无法满足工作者的需求。一般而言,位于办公室内的使用者,可将笔记本电脑连接至另一台台式显示器,以使用多屏幕显示功能来提升工作效率。但是,在外办公的使用者无法随身携带体积庞大的台式显示器,因而较难以享受多屏幕显示功能带来的便利。
发明内容
有鉴于此,本发明提出一种整合动作感测器的增强现实系统与增强现实显示方法,其可即时反应于使用者的操作状态通过头戴式显示装置显示位于显示器的显示边框旁边的虚拟物件。
本发明实施例提供一种增强现实系统,其包括头戴式显示装置以及计算机装置。头戴式显示装置包括影像撷取装置与动作感测器,并用以显示一虚拟物件。前述虚拟物件叠合显示为锚定于一显示器的显示边框上。计算机装置连接头戴式显示装置,并包括储存装置与处理器。前述处理器耦接储存装置,并经配置以执行下列步骤。通过影像撷取装置撷取第i帧环境影像,并依据第i帧环境影像决定虚拟物件的显示位置,其中i为大于0的整数。获取显示器相对于头戴式显示装置的深度距离。藉由动作感测器产生头戴式显示装置的动作感测信息。在影像撷取装置撷取第(i+1)帧环境影像之前,依据动作感测信息与深度距离调整虚拟物件的显示位置。藉由头戴式显示装置依据调整后的显示位置显示虚拟物件。
本发明实施例提供一种增强现实显示方法,包括下列步骤。通过头戴式显示装置上的影像撷取装置撷取第i帧环境影像,并依据第i帧环境影像决定虚拟物件的显示位置,其中i为大于0的整数。获取显示器相对于头戴式显示装置的深度距离。藉由头戴式显示装置上的动作感测器产生头戴式显示装置的动作感测信息。在影像撷取装置撷取第(i+1)帧环境影像之前,依据动作感测信息与深度距离调整虚拟物件的该显示位置。藉由头戴式显示装置依据调整后的显示位置显示虚拟物件。虚拟物件叠合显示为锚定于显示器的显示边框上。
基于上述,于本发明的实施例中,可藉由头戴式显示装置显示虚拟物件来实现多屏幕显示功能。并且,在撷取下一帧环境影像定位出虚拟物件的显示位置之前,可通过头戴式显示装置的动作感测信息来动态调整虚拟物件的显示位置,好让使用者可观看到稳定地相连于主显示器之显示边框上的虚拟物件。藉此,虚拟物件的锚定显示不仅可让使用者感受到多屏幕功能的便利,并且可提升使用者观看虚拟物件的观看体验。
为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合说明书附图作详细说明如下。
附图说明
图1是依照本发明一实施例的增强现实系统的示意图。
图2A至图2C是依照本发明一实施例的增强现实系统的应用情境图。
图3是依照本发明一实施例的增强现实显示方法的流程图。
图4是依照本发明一实施例的调整虚拟物件之显示位置的流程图。
其中:
10:增强现实系统;
110:头戴式显示装置;
120:计算机装置;
111:影像撷取装置;
112:显示器;
130:显示器;
122:储存装置;
123:处理器;
E_L:左显示边框;
E_T:上显示边框;
E_R:右显示边框;
V_T、V_R、V_L:虚拟物件;
S310~S350、S410~S433:步骤。
具体实施方式
本发明的部分实施例接下来将会配合附图来详细描述,以下的描述所引用的元件符号,当不同附图出现相同的元件符号将视为相同或相似的元件。这些实施例只是本发明的一部分,并未揭示所有本发明的可实施方式。更确切的说,这些实施例只是本发明的权利要求书中的方法与系统的范例。
图1是依照本发明一实施例的增强现实系统的示意图。请参照图1,增强现实系统10包括头戴式显示装置110以及计算机装置120,其可为单一整合系统或分离式系统。具体而言,增强现实(AR)系统10中的头戴式显示装置110与计算机装置120可以实作成一体式(all-in-one,AIO)头戴式显示器。于另一实施例中,计算机装置120可实施为电脑系统,并经由有线传输介面或是无线传输介面与头戴式显示装置110相连。举例而言,增强现实系统10可实施为一体式的AR眼镜,或者实施为经由通信介面相连结的AR眼镜与电脑系统。
增强现实系统10用于向使用者提供增强现实内容。需特别说明的是,增强现实系统10中的头戴式显示装置110用以显示虚拟物件,且此虚拟物件会显示为锚定于真实场景中的显示器130的显示边框上。显示器130例如为笔记本电脑、平板电脑或智能手机的显示屏幕或台式显示器,本发明对此不限制。换言之,当使用者配戴头戴式显示装置110观看真实场景中的显示器130时,增强现实系统10所提供的虚拟物件可作为辅助屏幕。
头戴式显示装置110包括影像撷取装置111、显示器112以及动作感测器113。影像撷取装置111用以撷取环境影像并且包括具有透镜以及感光元件的摄像镜头。感光元件用以感测进入透镜的光线强度,进而产生影像。感光元件可以例如是电荷耦合元件(chargecoupled device,CCD)、互补金属氧化物半导体(complementarymetal-oxidesemiconductor,CMOS)元件或其他元件,本发明不在此设限。在一实施例中,影像撷取装置111固定设置于头戴式显示装置110上,并用于拍摄位于头戴式显示装置110前方的实际场景。举例而言,当使用者配戴头戴式显示装置110时,影像撷取装置111可位于使用者双眼之间或位于某一眼外侧而朝使用者前方的实际场景进行拍摄动作。
显示器112是具有一定程度的光线穿透性的显示装置,使用者观看时能够呈现出相对于观看者另一侧的实际场景。显示器112可以通过液晶、有机发光二极体、电子墨水或是投影方式等显示技术显示虚拟物件,其具有半透明或是透明的光学镜片。因此,使用者通过显示器112所观看到的内容将会是叠加虚拟物件的增强现实场景。在一实施例中,显示器112可实作为增强现实眼镜的镜片。
动作感测器113例如是六轴感测器(可进行方向及加速度的感测),可使用的感测器种类包括重力感测器(g-sensor)、陀螺仪(gyroscope)、加速度计(accelerometer)、电子罗盘(ElectronicCompass)、测高仪(altitudemeter)或是其他适合的动作感测器或上述感测器的组合搭配。
然而,除了影像撷取装置111、显示器112以及动作感测器113之外,头戴式显示装置110更可包括未绘示于图1的元件,像是扬声器、控制器以及各式通信介面等等,本发明对此不限制。
另一方面,计算机装置120可包括储存装置122,以及处理器123。储存装置122用以储存信息与供处理器123存取的程序码(例如作业系统、应用程序、驱动程序)等信息,其可以例如是任意型式的固定式或可移动式随机存取存储器(randomaccessmemory,RAM)、只读存储器(read-onlymemory,ROM)、快闪存储器(flashmemory)或其组合。
处理器123耦接储存装置122,例如是中央处理单元(centralprocessingunit,CPU)、应用处理器(applicationprocessor,AP),或是其他可程序化之一般用途或特殊用途的微处理器(microprocessor)、数字信号处理器(digitalsignalprocessor,DSP)、影像信号处理器(image signalprocessor,ISP)、图形处理器(graphicsprocessingunit,GPU)或其他类似装置、集成电路及其组合。处理器123可存取并执行记录在储存装置122中的程序码与软件,以实现本发明实施例中的增强现实显示方法。
为了方便说明,以下将以计算机装置120实施为包括内建的显示器130且经由熟知通信介面与头戴式显示装置110相连的电脑系统为范例进行说明。具体而言,于一实施例中,计算机装置120可将相关的AR内容提供予头戴式显示装置110,再由头戴式显示装置110呈现予使用者观看。举例而言,计算机装置120实施为笔记本电脑、智能手机、平板电脑、电子书、游戏机等具有显示功能的电子装置,本发明并不对此限制。显示器130可以是液晶显示器(LiquidCrystalDisplay,LCD)、发光二极体(LightEmittingDiode,LED)显示器、有机发光二极体(OrganicLightEmittingDiode,OLED)等各类型的显示器,本发明对此不限制。
图2A至图2C是依照本发明一实施例的增强现实系统的应用情境图。请参照图2A至图2C,当使用者在配戴头戴式显示装置110的情况下观看真实场景中的显示器130时,影像撷取装置111会朝显示器130拍摄环境影像。需说明的是,显示器130之屏幕边缘或屏幕角落呈现有辅助标记,而计算机装置120可依据环境影像的辅助标记来定位显示器130的显示边框,并依据定位结果决定虚拟物件的显示参数,像是显示边界、显示尺寸或显示位置等等,致使虚拟物件可呈现为锚定于显示器130的显示边框上。于一实施例中,辅助标记可以实施为贴附于显示器130上的贴纸,或由显示器130自行显示辅助标记。
基此,当使用者通过头戴式显示装置110的显示器112观看真实场景中的显示器130时,使用者可看到叠加虚拟物件的实际场景,且虚拟物件显示为锚定于显示器130的显示边框上。更具体而言,虚拟物件会显示为固定连接于显示器130的上侧、左侧或右侧,而不会遮蔽到显示器130的显示内容。
如图2A至图2C的范例所示,当使用者通过头戴式显示装置110的显示器112观看显示器130时,使用者可看到自显示器130的上显示边框E_T、左显示边框E_L与右显示边框E_R向外展开的虚拟物件V_T、V_R、V_L。虚拟物件V_T、V_R、V_L可用以提供各种信息给使用者,例如是视窗、文件、影像、桌面或执行应用程序生成的视觉输出等等。因此,当使用者通过头戴式显示装置110观看显示器130时,可享受到多屏幕显示功能带来的便利。然而,图2A至图2C仅为一示范说明,本发明对于虚拟物件的数量与其锚定的显示边框并不限制。
此外,参照图2A与图2C可知,用以定位出显示器130之显示边框的辅助标记可包括位于显示器130之屏幕边缘的标记线B1、B2、B3。参照图2B可知,用以定位出显示器130之显示边框的辅助标记可包括位于显示器130之多个屏幕角落的多个标记点C1、C2、C3、C4。亦即,计算机装置120可藉由辨识环境影像中的标记线B1、B2、B3的或标记点C1、C2、C3、C4来定位出显示器130于AR座标系统下的位置信息与深度信息,从而决定虚拟物件V_T、V_R、V_L的显示位置。
需说明的是,影像撷取装置111可定时地拍摄环境影像(例如以30Hz的撷取帧率来产生环境影像),而计算机装置120可依据环境影像重复地计算显示器130于AR座标系统下的位置信息与深度信息,而持续更新虚拟物件V_T、V_R、V_L的显示参数。藉此,在满足显示虚拟条件V_T、V_R、V_L之条件的情况下,即便使用者的位置改变或其头部转动,虚拟物件V_T、V_R、V_L依然可显示为锚定于显示器130的显示边框上。
值得一提的是,于一实施例中,影像撷取装置111可依序先后撷取第i帧环境影像与第(i+1)帧环境影像,其中i为大于0的整数。计算机装置120依据第i帧环境影像决定虚拟物件的显示位置之后,在依据第(i+1)帧环境影像决定虚拟物件的显示位置之前,计算机装置120可依据动作感测器113所产生的动作感测信息动态调整虚拟物件的显示位置,以避免虚拟物件的显示受限于影像撷取帧率而出现不顺畅的视觉感受。
以下即搭配增强现实系统10的各元件列举实施例,以说明增强现实显示方法的详细步骤。
图3是依照本发明一实施例的增强现实显示方法的流程图。请参照图1与图3,本实施例的方式适用于上述实施例中的增强现实系统10,以下即搭配增强现实系统10中的各项元件说明本实施例之增强现实显示方法的详细步骤。
于步骤S310,处理器123通过头戴式显示装置110上的影像撷取装置111撷取第i帧环境影像,并依据第i帧环境影像决定虚拟物件的显示位置。环境影像为位于使用者周遭的实际场景的影像。详细来说,实际场景的影像关联于影像撷取装置111的视野范围。于一实施例中,影像撷取装置111可依据一撷取帧率撷取环境影像。于一实施例中,影像撷取装置111可通过有线传输介面或无线传输介面将环境影像传送计算机装置120。基于前述可知,处理器123可依据第i帧环境影像中的辅助标记定位出显示器130于AR座标系统中的位置信息,并据以决定虚拟物件的显示位置。
于一实施例中,当处理器123自第i帧环境影像辨识出显示器130上的辅助标记,虚拟物件可便持续显示于显示器130的周围。于一实施例中,反应于第i帧环境影像中辅助标记位于第i帧环境影像中的预定范围内,处理器123依据第i帧环境影像决定虚拟物件的显示位置,并控制头戴式显示装置110基于显示位置显示虚拟物件。反应于第i帧环境影像中辅助标记未位于第i帧环境影像中的预定范围内,处理器123控制头戴式显示装置110不显示虚拟物件。举图2A为例,第i帧环境影像可划分为尺寸相同的左区块与右区块。当据第i帧环境影像中的标记线B3位于第i帧环境影像的左区块(即预定范围)内时,代表使用者往显示器130右侧的方向观看,因而处理器123可控制头戴式显示装置110基于虚拟物件的显示位置显示虚拟物件V_R。换言之,当使用者头部的转动至一定程度时,虚拟物件才会显示于显示器130的一侧。
于步骤S320,处理器123获取显示器130相对于头戴式显示装置110的深度距离。于一实施例中,藉由信号发射器(未绘示)主动发出光源、红外线、超音波、雷射等作为信号搭配时差测距技术(time-of-flight,ToF),处理器123可获取显示器130相对于头戴式显示装置110的深度距离。于一实施例中,可通过影像撷取装置111与另一影像感测器以不同视角同时撷取其前方的两张影像,以利用两张影像的视差来计算显示器130相对于头戴式显示装置110的深度距离。
值得一提的是,于一实施例中,处理器123可依据第i帧环境影像中辅助标记的成像尺寸,估测显示器130相对于头戴式显示装置110的深度距离。具体而言,当影像撷取装置111与辅助标记相距标准深度并拍摄辅助标记时,辅助标记于此拍摄影像中的尺寸即为标准尺寸。标准尺寸与标准深度可依据事前校正程序而产生,并记录于储存装置122中。因此,藉由比较第i帧环境影像中辅助标记的成像尺寸以及标准尺寸,处理器123可估测出取显示器130相对于头戴式显示装置110的深度距离。
举例而言,当辅助标记为位于显示器130之多个屏幕角落的多个标记点(如图2B所示的标记点C1~C4),则辅助标记的成像尺寸包括标记点的直径。当辅助标记为位于显示器130之屏幕边缘的多个标记线(如图2A所示的标记线B1~B3),则辅助标记的成像尺寸包括标记线的长度。
于一实施例中,处理器123可获取辅助标记的标准尺寸与标准深度之间的比例值。接着,处理器123可依据比例值与第i帧环境影像中辅助标记的成像尺寸,估测显示器130相对于头戴式显示装置110的深度距离。举例而言,处理器123可先获取标记线的标准长度与标准深度之间的比例值,再依据此比例值与第i帧环境影像中标记线的成像长度计算显示器130相对于头戴式显示装置110的深度距离。处理器123可以下列公式(1)计算显示器130相对于头戴式显示装置110的深度距离。
d=(D1/X1)*x公式(1)
其中,d为显示器130相对于头戴式显示装置110的深度距离;D1为标准深度;X1为标准长度;x为第i帧环境影像中辅助标记的成像长度。
接着,于步骤S330,处理器123可藉由动作感测器113产生头戴式显示装置110的动作感测信息。动作感测信息可包括速度、加速度、角加速度、压力、磁力等等感测信息。于一实施例中,动作感测信息可包括对应于三座标轴向(X轴、Y轴与Z轴)的加速度与角速度。
于步骤S340,在影像撷取装置111撷取第(i+1)帧环境影像之前,处理器123可依据动作感测信息与深度距离调整虚拟物件的显示位置。详细而言,处理器123可依据动作感测器113产生的动作感测信息计算出头戴式显示装置110相对于三座标轴向上的移动量与旋转量。举例而言,处理器123可积分动作感测信息中的角速度而计算出旋转角度,或者处理器123可对动作感测信息中的加速度进行两次积分而获取移动距离。于是,于一实施例中,处理器123可依据头戴式显示装置110的移动量来调整虚拟物件的显示位置。于一实施例中,处理器123可依据头戴式显示装置110的旋转量与显示器130的深度距离来调整虚拟物件的显示位置。基此,反应于使用者的头部转动或移动,处理器123会更新虚拟物件于AR座标系统中的显示位置,而因此一并更新输出画面中虚拟物件的显示位置。
于步骤S350,藉由头戴式显示装置110依据调整后的显示位置显示虚拟物件。至少一虚拟物件显示为锚定于显示器130的至少一显示边框上。详细而言,通过利用已知的几何向量投影演算法,处理器123可依据虚拟物件于AR座标系统中的显示位置产生提供给头戴式显示装置110的输出画面。基此,当头戴式显示装置110依据处理器123提供的输出画面进行显示时,使用者可看到锚定于显示器130之显示边框上的虚拟物件。虚拟物件的显示位置会依据动作感测信息而调整,但视觉上虚拟物件不会反应使用者头部的移动或转动而与显示器130的显示边框分离。
图4是依照本发明一实施例的调整虚拟物件之显示位置的流程图。请参照图1与图4,图4所示的流程为图3步骤S340的一实施例。本实施例的方式适用于上述实施例中的增强现实系统10,以下即搭配增强现实系统10中的各项元件说明本实施例之增强现实显示方法的详细步骤。
于步骤S410,处理器123依据动作感测信息计算头戴式显示装置110的旋转量。旋转量可以是单位时间内的旋转角度。于一实施例中,此旋转量可包括相对于第一座标轴旋转的倾仰(pitch)旋转量以及相对于第二座标轴旋转的偏摆(yaw)旋转量。例如:倾仰旋转量可用以表示使用者上下摆动头部时的旋转角度,而偏摆旋转量可用以表示使用者左右摇动头部时的旋转角度。
于步骤S420,处理器123依据旋转量与深度距离计算一位置变化量。详细而言,基于头戴式显示装置110的旋转量以及显示器130的深度距离,处理器123可计算出虚拟物件于一参考座标系统中的绝对位置变化量,例如是AR座标系统中的绝对位置变化量。于一实施例中,处理器123可将旋转量与深度距离代入预设函式而产生绝对位置变化量。于是,于步骤S430,处理器123可依据位置变化量调整虚拟物件的显示位置。
于此,步骤S430可实施为子步骤S431~子步骤S433。于子步骤S431,处理器123判断位置变化量是否大于一门槛值。此门槛值可依据实际需求而设置,本发明对此不限制。若位置变化量未大于门槛值,于子步骤S432,处理器123不调整虚拟物件的显示位置。若位置变化量大于门槛值,于子步骤S433,处理器123依据位置变化量调整虚拟物件的显示位置。于一实施例中,处理器123可依据位置变化量将基于第i帧环境影像所计算出来的先前显示位置调整为当前显示位置,以控制头戴式显示装置110基于虚拟物件的当前显示位置进行显示。此外,藉由判断位置变化量是否大于门槛值的条件设置,可避免动作感测的误差影响虚拟物件的显示稳定度。
综上所述,于本发明实施例中,当使用者配戴头戴式显示装置观看主显示器时,即便头戴式显示装置动态移动,但头戴式显示装置所呈现的虚像物件与实际场景中主显示器的显示边框可达到良好的对齐贴合。藉此,使用者可通过虚拟物件获取更多的信息量,并享优良舒适的观看体验。此外,在依据下一帧环境影像定位出虚拟物件的显示位置之前,通过依据动作感测信息调整虚拟物件的显示位置,可加强虚拟物件的显示流畅度。
虽然本发明已以实施例揭露如上,然其并非用以限定本发明,任何所属技术领域中普通技术人员,在不脱离本发明的精神和范围内,当可作些许的更动与润饰,故本发明的保护范围当视权利要求书所界定者为准。

Claims (14)

1.一种增强现实系统,包括:
一头戴式显示装置,包括影像撷取装置与动作感测器,并用以显示一虚拟物件,其中该虚拟物件叠合显示为锚定于一显示器的显示边框上;以及
一计算机装置,连接该头戴式显示装置,并包括:
一储存装置;以及
一处理器,耦接该储存装置,经配置以:
通过该影像撷取装置撷取第i帧环境影像,并依据该第i帧环境影像决定该虚拟物件的显示位置,其中i为大于0的整数;
获取该显示器相对于该头戴式显示装置的深度距离;
藉由该动作感测器产生该头戴式显示装置的动作感测信息;
在该影像撷取装置撷取第(i+1)帧环境影像之前,依据该动作感测信息与该深度距离调整虚拟物件的该显示位置;以及
藉由该头戴式显示装置依据调整后的该显示位置显示该虚拟物件。
2.如权利要求1所述的增强现实系统,其特征在于,该处理器经配置以:
依据该第i帧环境影像中一辅助标记的成像尺寸,估测该显示器相对于该头戴式显示装置的该深度距离。
3.如权利要求2所述的增强现实系统,其特征在于,该处理器经配置以:
获取该辅助标记的标准尺寸与一标准深度之间的比例值;以及
依据该比例值与该第i帧环境影像中该辅助标记的成像尺寸,估测该显示器相对于该头戴式显示装置的该深度距离。
4.如权利要求2所述的增强现实系统,其特征在于,该辅助标记包括位于该显示器之多个屏幕角落的多个标记点或位于该显示器之屏幕边缘的标记线,而该辅助标记的该成像尺寸包括该些标记点的直径或该标记线的长度。
5.如权利要求1所述的增强现实系统,其特征在于,该处理器经配置以:
依据该动作感测信息计算该头戴式显示装置的一旋转量;
依据该旋转量与该深度距离计算一位置变化量;以及
依据该位置变化量调整该虚拟物件的该显示位置。
6.如权利要求5所述的增强现实系统,其特征在于,该处理器经配置以:
判断该位置变化量是否大于一门槛值;
若该位置变化量未大于该门槛值,不调整该虚拟物件的显示位置;以及
若该位置变化量大于该门槛值,依据该位置变化量调整该虚拟物件的显示位置。
7.如权利要求1所述的增强现实系统,其特征在于,该处理器经配置以:
反应于该第i帧环境影像中一辅助标记位于该第i帧环境影像中的预定范围内,依据该第i帧环境影像决定该虚拟物件的该显示位置,并控制该头戴式显示装置基于该显示位置显示该虚拟物件。
8.一种增强现实显示方法,包括:
通过一头戴式显示装置上的影像撷取装置撷取第i帧环境影像,并依据该第i帧环境影像决定一虚拟物件的显示位置,其中i为大于0的整数;
获取显示器相对于该头戴式显示装置的深度距离;
藉由该头戴式显示装置上的动作感测器产生该头戴式显示装置的动作感测信息;
在该影像撷取装置撷取第(i+1)帧环境影像之前,依据该动作感测信息与该深度距离调整该虚拟物件的该显示位置;以及
藉由该头戴式显示装置依据调整后的该显示位置显示该虚拟物件,其中该虚拟物件叠合显示为锚定于该显示器的显示边框上。
9.如权利要求8所述的增强现实显示方法,其特征在于,获取该显示器相对于该头戴式显示装置的该深度距离的步骤包括:
依据该第i帧环境影像中一辅助标记的成像尺寸,估测该显示器相对于该头戴式显示装置的该深度距离。
10.如权利要求9所述的增强现实显示方法,其特征在于,依据该第i帧环境影像中该辅助标记的该成像尺寸,估测该显示器相对于该头戴式显示装置的该深度距离的步骤包括:
获取该辅助标记的标准尺寸与一标准深度之间的比例值;以及
依据该比例值与该第i帧环境影像中该辅助标记的成像尺寸,估测该显示器相对于该头戴式显示装置的该深度距离。
11.如权利要求9所述的增强现实显示方法,其特征在于,该辅助标记包括位于该显示器之多个屏幕角落的多个标记点或位于该显示器之屏幕边缘的标记线,而该辅助标记的该成像尺寸包括该些标记点的直径或该标记线的长度。
12.如权利要求8所述的增强现实显示方法,其特征在于,在该影像撷取装置撷取该第(i+1)帧环境影像之前,依据该动作感测信息与该深度距离调整该虚拟物件的该显示位置的步骤包括:
依据该动作感测信息计算该头戴式显示装置的一旋转量;
依据该旋转量与该深度距离计算一位置变化量;以及
依据该位置变化量调整该虚拟物件的该显示位置。
13.如权利要求12所述的增强现实显示方法,其特征在于,依据该位置变化量调整该虚拟物件的显示位置的步骤包括:
判断该位置变化量是否大于一门槛值;
若该位置变化量未大于该门槛值,不调整该虚拟物件的显示位置;以及
若该位置变化量大于该门槛值,依据该位置变化量调整该虚拟物件的显示位置。
14.如权利要求8所述的增强现实显示方法,其特征在于,通过该头戴式显示装置上的该影像撷取装置撷取该第i帧环境影像,并依据该第i帧环境影像决定该虚拟物件的该显示位置的步骤包括:
反应于该第i帧环境影像中一辅助标记位于该第i帧环境影像中的预定范围内,依据该第i帧环境影像决定该虚拟物件的该显示位置,并控制该头戴式显示装置基于该显示位置显示该虚拟物件。
CN202011023632.1A 2020-09-25 2020-09-25 整合动作感测器的增强现实系统与增强现实显示方法 Active CN114253389B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011023632.1A CN114253389B (zh) 2020-09-25 2020-09-25 整合动作感测器的增强现实系统与增强现实显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011023632.1A CN114253389B (zh) 2020-09-25 2020-09-25 整合动作感测器的增强现实系统与增强现实显示方法

Publications (2)

Publication Number Publication Date
CN114253389A true CN114253389A (zh) 2022-03-29
CN114253389B CN114253389B (zh) 2023-05-23

Family

ID=80790524

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011023632.1A Active CN114253389B (zh) 2020-09-25 2020-09-25 整合动作感测器的增强现实系统与增强现实显示方法

Country Status (1)

Country Link
CN (1) CN114253389B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120068913A1 (en) * 2010-09-21 2012-03-22 Avi Bar-Zeev Opacity filter for see-through head mounted display
CN104076513A (zh) * 2013-03-26 2014-10-01 精工爱普生株式会社 头戴式显示装置、头戴式显示装置的控制方法、以及显示系统
CN107209959A (zh) * 2016-01-15 2017-09-26 株式会社meleap 图像显示系统、图像显示系统的控制方法、图像分发系统以及头戴式显示器
EP3311251A1 (en) * 2015-06-22 2018-04-25 EC Medica Ltd. Augmented reality imaging system, apparatus and method
CN108958457A (zh) * 2017-05-19 2018-12-07 宏碁股份有限公司 模拟携带式装置的感测信号的虚拟实境系统及其控制方法
CN109491495A (zh) * 2017-09-13 2019-03-19 宏达国际电子股份有限公司 头戴式显示系统及其图像显示方法
TW202016696A (zh) * 2018-10-21 2020-05-01 未來市股份有限公司 基於手勢識別產生互動式虛擬用戶界面的方法及相關裝置
JP2020115274A (ja) * 2019-01-17 2020-07-30 株式会社アルファコード 仮想空間画像表示制御装置および仮想空間画像表示制御用プログラム
JP2020123260A (ja) * 2019-01-31 2020-08-13 株式会社日立製作所 頭部装着型表示装置および仮想空間表示制御方法
TWI702351B (zh) * 2019-06-04 2020-08-21 陳柏伸 線性滑塊加工治具機構

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120068913A1 (en) * 2010-09-21 2012-03-22 Avi Bar-Zeev Opacity filter for see-through head mounted display
CN104076513A (zh) * 2013-03-26 2014-10-01 精工爱普生株式会社 头戴式显示装置、头戴式显示装置的控制方法、以及显示系统
EP3311251A1 (en) * 2015-06-22 2018-04-25 EC Medica Ltd. Augmented reality imaging system, apparatus and method
CN107209959A (zh) * 2016-01-15 2017-09-26 株式会社meleap 图像显示系统、图像显示系统的控制方法、图像分发系统以及头戴式显示器
CN108958457A (zh) * 2017-05-19 2018-12-07 宏碁股份有限公司 模拟携带式装置的感测信号的虚拟实境系统及其控制方法
CN109491495A (zh) * 2017-09-13 2019-03-19 宏达国际电子股份有限公司 头戴式显示系统及其图像显示方法
TW202016696A (zh) * 2018-10-21 2020-05-01 未來市股份有限公司 基於手勢識別產生互動式虛擬用戶界面的方法及相關裝置
JP2020115274A (ja) * 2019-01-17 2020-07-30 株式会社アルファコード 仮想空間画像表示制御装置および仮想空間画像表示制御用プログラム
JP2020123260A (ja) * 2019-01-31 2020-08-13 株式会社日立製作所 頭部装着型表示装置および仮想空間表示制御方法
TWI702351B (zh) * 2019-06-04 2020-08-21 陳柏伸 線性滑塊加工治具機構

Also Published As

Publication number Publication date
CN114253389B (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
CN107209950B (zh) 从现实世界材料自动生成虚拟材料
JP6860488B2 (ja) 複合現実システム
CN107111370B (zh) 现实世界对象的虚拟表示
JP6195893B2 (ja) 形状認識装置、形状認識プログラム、および形状認識方法
US11127380B2 (en) Content stabilization for head-mounted displays
KR20220120649A (ko) 인공 현실 콘텐츠의 가변 초점 디스플레이를 갖는 인공 현실 시스템
JP6177872B2 (ja) 入出力装置、入出力プログラム、および入出力方法
WO2014128752A1 (ja) 表示制御装置、表示制御プログラム、および表示制御方法
JP6250024B2 (ja) キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法
KR20150093831A (ko) 혼합 현실 환경에 대한 직접 상호작용 시스템
TWI704376B (zh) 視角校正方法、虛擬實境顯示系統與運算裝置
JP2021060627A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6250025B2 (ja) 入出力装置、入出力プログラム、および入出力方法
CN110688002B (zh) 虚拟内容的调整方法、装置、终端设备及存储介质
JP6446465B2 (ja) 入出力装置、入出力プログラム、および入出力方法
CN114253389B (zh) 整合动作感测器的增强现实系统与增强现实显示方法
CN114201028B (zh) 扩增实境系统与其锚定显示虚拟对象的方法
TWI757872B (zh) 整合動作感測器的擴增實境系統與擴增實境顯示方法
JP6479835B2 (ja) 入出力装置、入出力プログラム、および入出力方法
KR20180055637A (ko) 전자 장치 및 그의 제어 방법
CN112308906B (zh) 视角校正方法、虚拟实境显示系统与运算装置
US11380071B2 (en) Augmented reality system and display method for anchoring virtual object thereof
US12061737B2 (en) Image processing apparatus, image processing method, and storage device
JP7492497B2 (ja) プログラム、情報処理方法、及び情報処理装置
KR102542641B1 (ko) 핸드 트래킹을 이용한 재활 훈련 장치 및 작동 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant