CN112153319A - 基于视频通信技术的ar信息显示方法和装置 - Google Patents

基于视频通信技术的ar信息显示方法和装置 Download PDF

Info

Publication number
CN112153319A
CN112153319A CN202010911826.9A CN202010911826A CN112153319A CN 112153319 A CN112153319 A CN 112153319A CN 202010911826 A CN202010911826 A CN 202010911826A CN 112153319 A CN112153319 A CN 112153319A
Authority
CN
China
Prior art keywords
glasses
display device
environment
size value
fov
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010911826.9A
Other languages
English (en)
Other versions
CN112153319B (zh
Inventor
赵维奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yutou Technology Hangzhou Co Ltd
Original Assignee
Yutou Technology Hangzhou Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yutou Technology Hangzhou Co Ltd filed Critical Yutou Technology Hangzhou Co Ltd
Priority to CN202010911826.9A priority Critical patent/CN112153319B/zh
Publication of CN112153319A publication Critical patent/CN112153319A/zh
Priority to US17/411,291 priority patent/US11521297B2/en
Application granted granted Critical
Publication of CN112153319B publication Critical patent/CN112153319B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eyeglasses (AREA)

Abstract

本发明涉及一种基于AR眼镜的物体信息的展示方法,包括,通过通信连接从其他设备获取物体图像,所述物体图像包括物体和背景;将所述物体图像进行缩放操作,使得所述物体尺寸值能够匹配当前环境;其中,所述背景具有的颜色使得所述AR眼镜的显示系统不显示所述背景。通过本发明的一个或多个实施例,可以无需在AR眼镜端其他AR软件,不用依赖AR眼镜设备本身运算和3D渲染部分的能力限制,而实现AR物体信息的展示。

Description

基于视频通信技术的AR信息显示方法和装置
技术领域
本发明涉及AR信息显示领域,尤其涉及一种基于视频通信技术的AR信息显示方法和装置。
背景技术
传统的AR信息显示是通过在客户端(例如AR眼镜)安装AR应用来体验增强内容。这种方式存在两个缺点,1.AR眼镜端需要具有较强的数据处理能力,对于轻量化AR眼镜可能无法完美适配;2.适合AR眼镜端的AR应用需要针对眼镜摄像头和显示做适配开发,很难找到支持适配所有AR眼镜的AR应用。
发明内容
本发明的目的在于提供一种基于AR眼镜的物体信息的展示方法,包括,通过通信连接从其他设备获取物体图像,所述物体图像包括物体和背景;将所述物体图像进行缩放操作,使得所述物体尺寸值能够匹配当前环境;其中,所述背景具有的颜色使得所述AR眼镜的显示系统不显示所述背景。
本发明的另一个目的在于提供一种AR眼镜,包括:显示装置,用于显示物体图像;一个或多个摄像头,用于获取当前环境信息;处理器;存储器,所述存储器存储计算机程序,当所述计算机程序被所述处理器执行时,使得所述AR眼镜:通过通信连接从其他设备获取物体图像,所述物体图像包括物体和背景;将所述物体图像进行缩放操作,使得所述物体尺寸值能够匹配当前环境;其中,所述背景具有的颜色使得所述AR眼镜的显示系统不显示所述背景。
本发明的的优势如下:
·本发明AR眼镜端无需安装其他AR软件,不用依赖AR眼镜设备本身运算和3D渲染部分的能力限制
·本发明可以通过现有成熟视频通信技术,更方便的分享、传递、演示AR信息
·本发明让AR内容不再受设备限制和使用场景限制
·本发明不受AR眼镜设备个体差异影响。
附图说明
图1示出了根据本发明的一个或多个实施例的AR眼镜的结构示意图;
图2示出了根据本发明的一个或多个实施例的基于AR眼镜的物体信息的展示方法的流程图;
图3示出了根据本发明的一个或多个实施例的基于AR眼镜的物体信息的展示方法的示意图;
图4示出了根据本发明的一个或多个实施例的基于AR眼镜的物体信息的展示方法的流程图;
图5示出了根据本发明的一个或多个实施例的摄像头FOV和显示装置FOV的示意图;
图6示出了根据本发明的一个或多个实施例的物体的缩放示意图。
具体实施方式
为更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的基于视频通信技术的AR信息显示方法和装置的具体实施方式、结构、特征及其功效,详细说明如后。
如图1所示,示出了根据本发明的一个或多个实施例的AR(Augmented Reality)眼镜100的结构示意图。AR眼镜能够将虚拟的信息叠加到真实世界,使真实世界画面和虚拟画面能够叠加到一起,实现两种信息的相互补充。可以理解的是,一些实施方式中,智能眼镜100为其它类型的眼镜,例如混合现实(Mixed Reality,MR)眼镜。本领域的技术人员可以理解,本发明所述的AR眼镜的形态也可以是非常规眼镜的外观形态,例如可以为头盔、头套等形态的头戴式设备。AR眼镜100可以包括一个或两个显示装置10,显示装置可以采用以棱镜、LCD、光波导、Birdbath、自由曲面反射镜等可以实现半透半反的显示方案。此外,AR眼镜100还可以包括镜架20,在一些实施方式中,可以将智能眼的传感器模块、处理模块、存储模块和电池模块放到镜架20内部,在另一些实施方式中,也可以将传感器模块、处理模块、存储模块和电池模块的一个或多个部件集成在另一个独立的配件(图1中未示出),并通过数据线和AR眼镜100进行连接。
如图2所示,实线框图示出了根据本发明的一个或多个实施例的AR信息显示方法的流程图,具体包括,
S1、通过通信连接从其他设备获取物体图像,所述物体图像包括物体和背景;
S2、将所述物体图像进行缩放操作,使得所述物体尺寸值能够匹配当前环境;
其中,所述背景具有的颜色使得所述AR眼镜的显示系统不显示所述背景。
具体地,在步骤S1中,通信连接为无线通信连接或有限通信连接方式,其可以基于WIFI、蓝牙、红外等无线或有线的通信协议进行数据传输。在本发明的一个或多个实施例中,通过通信连接从其他设备获取的为常规的图像或图像序列。可以理解,当图像序列的帧率达到一定水平(例如>30Hz)的时候,该图像序列可以为视频流的形式,因此可以通过本发明的实施例进行视频流的传输。在本发明的一个或多个实施例中,如图3所示,物体图像200中包括物体210和背景220。其中,物体背景220为纯黑色,物体210则是一个画框。在附图3的实施例中,选用黑色背景的目的为,在以OLED为光源的显示装置中,纯黑色背景不会使得OLED发光,从而使得在以光波导方案的显示装置中不产生任何颜色。因此,在AR眼镜100的显示装置上,用户仅会看到物体信息210,即图3中的画框,而不会看到背景220。在本发明的另一些实施例中,如果AR眼镜的显示装置在显示原理上对白色不显示,则物体图像的背景需要为白色。因此,本发明中不限制背景的颜色为附图3的实施例,而只需物体图像的背景具有的颜色使得所述AR眼镜的显示系统不显示所述背景即可。
在步骤S2中,将所述物体图像进行缩放操作可以根据用户的控制指令,例如用户通过语音交互或触控交互的方式对物体图像进行放大、缩小。例如,用户可以通过预设的放大指令,对物体图像进行任意百分比的放大,从而使得用户可以将物体的尺寸值匹配当前环境。在一个或多个实施例中,匹配当前环境是指,将AR眼镜获得的物体图像按照用户满意的大小进行显示、或者按照其实际应具有的尺寸大小进行显示。例如针对附图3中的画框,当用户通过AR眼镜100观测画框的时候,可以将显示装置的FOV面对希望摆放画框的墙上进行观测,用户可以通过AR眼镜100内置的交互方式对画框进行缩放,用户可以将画框放大或缩小至满意的位置。由此,用户可以不需要通过实物,而模拟画框摆放的效果。在另一个实施例中,AR眼镜100收到的物体图像可以为图像序列,且该图像序列可以包括物体210的旋转、变化、或替代的图像,由此AR眼镜100的用户可以从各个维度来观察物体210相对于环境的显示效果,而无需AR眼镜100本地的渲染或计算,从而实现物体的3D展示效果。在这个过程中,图片200的背景220的部分应当始终保持黑色,从而使得AR眼镜不显示背景,而不影响AR眼镜用户观察物体。
在本发明的一个或多个优选的实施方式中,如图1的虚线框所示,基于AR眼镜的物体信息的展示方法还包括步骤S3、计算所述AR眼镜的显示装置和当前环境的尺寸关系,步骤S3具体的实施步骤如图4所示:
S31、通过AR眼镜的一个或多个摄像头获取摄像头FOV环境;
S32、将所述AR眼镜的显示装置的视场角范围映射到摄像头FOV环境中,获得显示装置FOV环境;
S33、使用SLAM算法对显示装置FOV环境进行尺寸测量;
S34、根据测量得到的尺寸,计算显示装置的每一个像素点代表的视场角环境的尺寸值。
具体地,在步骤S31中,AR眼镜的一个或多个摄像头可包括RGB摄像头、深度摄像头、红外摄像头等。AR眼镜的摄像头的数量、种类的配置不同,可能会影响在步骤S33中的SLAM算法的选择,SLAM算法具体将在下文中针对步骤S33中详细表述。如图5所示,在一个实施例中,AR眼镜100的摄像头30设置于AR眼镜两个镜片的中间位置,AR眼镜的摄像头具有一定的视场角(FOV),可以拍摄AR眼镜佩戴者前方的实际环境,摄像头的FOV可以根据摄像头的选型不同而不同。例如,对于非广角的摄像头,FOV可以为70°、85°、90°或100°等数值,对于广角的摄像头,FOV可以大于120°、140°等数值。摄像头FOV越大,摄像头可以拍摄的环境范围越大。
在步骤S32中,由于AR眼镜的显示装置直接设置于人眼的前面,因此AR眼镜的显示装置也存在一定的FOV,显示装置的FOV是相对于人眼而言。显示装置的FOV越大,用户可以看到的显示范围就越大。目前AR眼镜的显示装置的FOV的典型值可以为20°、40°、60°、80°等。通常来说,AR眼镜显示装置的FOV要小于摄像头的FOV,因此可以理解,AR眼镜显示装置的FOV所对应的环境一般都落入摄像头FOV的环境。如附图5所示,显示装置FOV落入摄像头FOV的范围内。通常来说,AR眼镜的显示装置和摄像头的位置是相对固定的,对于默认的相机参数之下,AR眼镜的显示装置的FOV和摄像头的FOV的内容是相对固定的。由此,当AR眼镜的摄像头拍摄到环境的照片的时候,可以根据相对位置确定显示装置FOV内的环境的部分。
在步骤S33中,使用SLAM算法对显示装置FOV的环境进行尺寸测量,可以仅在图片显示的范围内或周围进行SLAM计算,减少处理器的工作量,从而提升计算效率。具体的SLAM算法可以根据摄像头配置的不同而不同,例如可以使用使用单目视觉测量算法、双目视觉测量算法、结构光视觉测量算法中的一种或多种。例如,在其中一个实施例中,当仅使用一个RGB摄像头的时候,可以使用单目视觉测量算法对环境进行尺寸测量。具体地,可以通过AR眼镜上的视觉惯性系统(Visual Inertial Odometry,缩写VIO),集合AR眼镜上的惯性测量单元(Inertial Measurement Unit,缩写IMU),追踪用户的姿势变化,将AR眼镜的摄像头拍摄到的图像和IMU数据融合,从而获得环境的尺寸。例如在另一个实施例中,若AR眼镜包含多个RGB摄像头,通过多个摄像头获取的图像,根据摄像头镜头位置之间的距离,跟踪摄像头图像获得的特征点,以及特征点之间的差异和关系,从而生成物理空间上的3D映射,即可计算出一点到另一点之间的距离,并可恢复真实世界的物理距离,从而得到环境的尺度。在又一个实施例中,若AR眼镜包含深度摄像头,则可以直接通过深度摄像头获取深度信息,帮助VIO系统更好的获取特征点并进行环境尺度还原。
在步骤S34中,由于AR眼镜显示装置的分辨率固定,根据步骤S33中获得的FOV环境的尺寸值,可以计算出在显示装置中的每一个像素点代表的视场角环境中的尺寸值。例如,假设AR眼镜的显示装置的分辨率为1920(Y轴)*1080(X轴),在横向X上获得的视场角FOV的尺寸为1.08米,则X轴上每个像素点代表的尺寸值为1mm。可以理解,在步骤S31-S34中,受限于AR眼镜的处理性能和硬件配置的限制,并不需要对步骤S34获得的结果的精确度有非常高的要求,其精确度只需要满足AR眼镜用户日常的需求即可,例如对于模拟家具摆放效果的情况下,在家具尺度为1m左右的时候,尺寸测量的准去度在5%或10%以内即可满足用户的需求,因此通过一个RGB摄像头或多个RBG摄像头或深度摄像头的SLAM算法可以很好的满足本发明的技术效果。
在本发明的一个或多个实施例中,可以根据物体的一个或多个维度在显示装置上所占的像素点的个数,计算所述物体的一个或多个维度相对于显示装置FOV环境的物体尺寸值。具体地,例如在X轴上,物体所占的像素点为500个像素点,若根据步骤S34中计算出来的每个像素点代表的尺寸值为1mm,则可以计算出在X轴上物体的尺寸值为0.5米。在一些实施例中,由于FOV环境的复杂性,可能在一个维度上的像素点所代表的的尺寸并非固定值,则可以通过积分的方式在该维度上的物体的全部像素点所占的尺寸。在一些优选的实施例中,可以在所述显示装置上显示所述物体在一个或多个维度上的尺寸值,从而使得用户可以实时观察当前物体相对与环境的尺寸值。
在本发明的一个或多个实施例中,还可以通过通信连接获取所述物体在一个或多个维度上的实际尺寸值,根据所述实际尺寸值,将所述图像进行缩放操作,使得所述物体的实际尺寸值匹配当前环境。例如,对于如图3所示的画框,可以在图像进行传输的过程中,将该画框的长和宽的值一并传输给AR眼镜,由此AR眼镜可以根据该画框的实际尺寸值,对图像进行缩放,使得在当前环境中显示的图像大小能够和实际尺寸值相匹配。在这种实施例下,特别适用于通过AR眼镜对家居、装饰品等物品在空间中的模拟摆放,为用户的购买提供虚拟的摆放效果,从而帮助用户进行购物决策。
具体地,可以通过如下步骤将进行匹配:
S41、获取所述物体在AR眼镜的显示系统的显示位置,
S42、计算将所述物体在显示位置的一个或多位维度上多占的像素点个数,
S43、根据每个像素点代表的尺寸值,计算所述物体在显示位置处的预估尺寸值,
S44、按照所述实际尺寸指和预估尺寸值的比例,对所述物体图像进行缩放。
以下结合附图6对上述步骤进行说明,假设图6中的画框在缩放前在X轴上所占的像素点个数为300个,其所代表的的尺寸为0.3m,若AR眼镜通过通信连接从服务器获得的当前显示的画框的在X轴上的尺寸为1m,则在AR眼镜收到该尺寸值后,可以计算出该画框实际应该在X轴上的像素点的个数为1000个,因此AR眼镜可以将画框按1000:300的比例进行放大,从而使得画框能够和实际的环境匹配。
根据本发明的另一方面,本发明的一个或多个实施例还公开了一种AR眼镜,所述AR眼镜包括:
显示装置,用于显示物体图像,
一个或多个摄像头,用于获取当前环境信息,
处理器,
存储器,所述存储器存储计算机程序,当所述计算机程序被所述处理器执行时,使得所述AR眼镜:
通过通信连接从其他设备获取物体图像,所述物体图像包括物体和背景;
将所述物体图像进行缩放操作,使得所述物体尺寸值能够匹配当前环境;
其中,所述背景具有的颜色使得所述AR眼镜的显示系统不显示所述背景。
进一步,根据本发明的一个或多个实施例的AR眼镜,还可以实现如前述的一个或多个实施例的各个步骤,并实现前述步骤的技术效果,在此不再赘述。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (8)

1.一种基于AR眼镜的物体信息的展示方法,包括,
通过通信连接从其他设备获取物体图像,所述物体图像包括物体和背景;
将所述物体图像进行缩放操作,使得所述物体尺寸值能够匹配当前环境;
其中,所述背景具有的颜色使得所述AR眼镜的显示系统不显示所述背景。
2.根据权利要求1所述的方法,其中,
将所述物体图像进行缩放操作,使得所述物体尺寸值能够匹配当前环境,进一步包括:
根据用户的控制指令,对所述物体图像进行缩放操作,使得所述物体尺寸值能够匹配当前环境。
3.根据权利要求1所述的方法,还包括,计算所述AR眼镜的显示装置和当前环境的尺寸关系,具体步骤包括:
通过AR眼镜的一个或多个摄像头获取摄像头FOV环境;
将所述AR眼镜的显示装置的视场角范围映射到摄像头FOV环境中,获得显示装置FOV环境;
使用SLAM算法对显示装置FOV环境进行尺寸测量;
根据测量得到的尺寸,计算显示装置的每一个像素点代表的视场角环境的尺寸值。
4.根据权利要求3所述的方法,其中,
所述SLAM算法包括:使用单目视觉测量算法、双目视觉测量算法、结构光视觉测量算法。
5.根据权利要求3或4所述的方法,进一步包括,
根据所述物体的一个或多个维度在显示装置上所占的像素点的个数,计算所述物体的一个或多个维度相对于显示装置FOV环境的物体尺寸值;
在所述显示装置上显示所述物体在一个或多个维度上的尺寸值。
6.根据权利要求3或4所述的方法,其中,
将所述物体图像进行缩放操作,使得所述物体尺寸值能够匹配当前环境,进一步包括:
通过通信连接获取所述物体在一个或多个维度上的实际尺寸值,
根据所述实际尺寸值,将所述图像进行缩放操作,使得所述物体的实际尺寸值匹配当前环境。
7.根据权利要求6所述的方法,进一步包括:
获取所述物体在AR眼镜的显示系统的显示位置,
计算将所述物体在显示位置的一个或多位维度上多占的像素点个数,
根据每个像素点代表的尺寸值,计算所述物体在显示位置处的预估尺寸值,
按照所述实际尺寸指和预估尺寸值的比例,对所述物体图像进行缩放。
8.一种AR眼镜,包括,
显示装置,用于显示物体图像,
一个或多个摄像头,用于获取当前环境信息,
处理器,
存储器,所述存储器存储计算机程序,当所述计算机程序被所述处理器执行时,使得所述AR眼镜执行如权利要求1-7所述的方法。
CN202010911826.9A 2020-09-02 2020-09-02 基于视频通信技术的ar信息显示方法和装置 Active CN112153319B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010911826.9A CN112153319B (zh) 2020-09-02 2020-09-02 基于视频通信技术的ar信息显示方法和装置
US17/411,291 US11521297B2 (en) 2020-09-02 2021-08-25 Method and device for presenting AR information based on video communication technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010911826.9A CN112153319B (zh) 2020-09-02 2020-09-02 基于视频通信技术的ar信息显示方法和装置

Publications (2)

Publication Number Publication Date
CN112153319A true CN112153319A (zh) 2020-12-29
CN112153319B CN112153319B (zh) 2023-02-24

Family

ID=73890393

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010911826.9A Active CN112153319B (zh) 2020-09-02 2020-09-02 基于视频通信技术的ar信息显示方法和装置

Country Status (2)

Country Link
US (1) US11521297B2 (zh)
CN (1) CN112153319B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230139951A (ko) 2022-03-28 2023-10-06 삼성디스플레이 주식회사 입력 센싱부 및 그것을 포함하는 표시 장치
CN115423989A (zh) * 2022-09-06 2022-12-02 歌尔科技有限公司 一种ar眼镜画面显示的控制方法及其组件

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105872526A (zh) * 2015-01-21 2016-08-17 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
WO2017117675A1 (en) * 2016-01-08 2017-07-13 Sulon Technologies Inc. Head mounted device for augmented reality
WO2019171802A1 (ja) * 2018-03-05 2019-09-12 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN111580679A (zh) * 2020-06-07 2020-08-25 浙江商汤科技开发有限公司 一种太空舱展示方法、装置、电子设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9058693B2 (en) * 2012-12-21 2015-06-16 Dassault Systemes Americas Corp. Location correction of virtual objects
US10720125B2 (en) * 2017-07-24 2020-07-21 Intel Corporation Method and system of wireless data transmission for virtual or augmented reality head mounted displays
US11043193B2 (en) * 2018-06-05 2021-06-22 Magic Leap, Inc. Matching content to a spatial 3D environment
JP6773724B2 (ja) * 2018-06-13 2020-10-21 ファナック株式会社 精度情報を出力する測距装置
US11055531B1 (en) * 2018-08-24 2021-07-06 United Services Automobiie Association (USAA) Augmented reality method for repairing damage or replacing physical objects

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105872526A (zh) * 2015-01-21 2016-08-17 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
WO2017117675A1 (en) * 2016-01-08 2017-07-13 Sulon Technologies Inc. Head mounted device for augmented reality
WO2019171802A1 (ja) * 2018-03-05 2019-09-12 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN111580679A (zh) * 2020-06-07 2020-08-25 浙江商汤科技开发有限公司 一种太空舱展示方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN112153319B (zh) 2023-02-24
US20220067878A1 (en) 2022-03-03
US11521297B2 (en) 2022-12-06

Similar Documents

Publication Publication Date Title
JP6023801B2 (ja) シミュレーション装置
US11854171B2 (en) Compensation for deformation in head mounted display systems
EP3070680B1 (en) Image-generating device and method
Sauer et al. Augmented workspace: Designing an AR testbed
CN109743626B (zh) 一种图像显示方法、图像处理方法和相关设备
CN110050250A (zh) 显示器同步的图像规整
KR101661991B1 (ko) 모바일 확장 공간에서의 3d 드로잉을 지원하기 위한 hmd 장치 및 방법
US11956415B2 (en) Head mounted display apparatus
CN108259883B (zh) 图像处理方法、头戴式显示器以及可读存储介质
US11521297B2 (en) Method and device for presenting AR information based on video communication technology
JP6509101B2 (ja) 眼鏡状の光学シースルー型の両眼のディスプレイにオブジェクトを表示する画像表示装置、プログラム及び方法
JP2007034628A (ja) 画像処理方法及び装置
CA2875261A1 (en) Apparatus and method for a bioptic real time video system
JP2012513604A (ja) 光学レンズの光学効果をシミュレーションするための方法及び装置
CN114742977A (zh) 一种基于ar技术的视频透视方法
CN114020150A (zh) 图像显示方法、装置、电子设备及介质
JP2020167657A (ja) 画像処理装置、ヘッドマウントディスプレイ、および画像表示方法
CN114581514A (zh) 一种双眼注视点的确定方法和电子设备
CN111193841A (zh) 一种增强现实系统
CN111193858A (zh) 一种增强现实拍摄及显示的方法和系统
US11954786B2 (en) Reprojection for high field rate displays
CN113568504B (zh) 一种基于移动设备的ar显示处理方法及其系统
US20240340403A1 (en) Head mount display, information processing apparatus, and information processing method
CN118585060A (zh) 提升微光夜视镜下人眼感知能力的方法及装置
CN115129159A (zh) 展示方法、装置、头戴设备、电子设备及计算机介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant