CN103873840B - 显示方法及显示设备 - Google Patents
显示方法及显示设备 Download PDFInfo
- Publication number
- CN103873840B CN103873840B CN201210537403.0A CN201210537403A CN103873840B CN 103873840 B CN103873840 B CN 103873840B CN 201210537403 A CN201210537403 A CN 201210537403A CN 103873840 B CN103873840 B CN 103873840B
- Authority
- CN
- China
- Prior art keywords
- image
- display
- unit
- display unit
- acquisition units
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B13/00—Optical objectives specially designed for the purposes specified below
- G02B13/001—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
- G02B13/0055—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
- G02B13/0065—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element having a beam-folding prism or mirror
- G02B13/007—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element having a beam-folding prism or mirror the beam folding prism having at least one curved surface
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0127—Head-up displays characterised by optical features comprising devices increasing the depth of field
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
提供了一种显示方法及显示设备。显示设备包括:第一显示单元、第二显示单元、与第一显示单元对应设置的第一图像采集单元、与第二显示单元对应设置的第二图像采集单元、图像处理单元和图像输出单元。显示方法包括:利用第一图像采集单元采集第一图像,第一图像包括目标对象的目标图像;利用第二图像采集单元采集第二图像,第二图像也包括目标图像;依据目标图像确定显示信息;依据目标图像在第一图像中确定第一显示位置;依据目标图像在第二图像中确定第二显示位置;在第一显示单元的第一显示位置显示与显示信息对应的第一显示图像和第二显示单元的第二显示位置显示与显示信息对应的第二显示图像,以使得用户感知到显示信息对应的三维显示图像。
Description
技术领域
本发明涉及增强现实显示领域,并且更具体地涉及一种增强现实显示方法及设备。
背景技术
增强现实(Augmented Reality,下文中简称AR)是一种利用计算机将虚拟信息应用到真实世界、使虚拟信息和真实环境能够实时叠加到一起并进行互动的技术,其又被称为混合现实。通过增强现实可以为我们提供现实世界中无法直接获知的信息,从而扩展我们感知能力。
早期的AR系统均采用桌面计算机或工作站作为系统运行平台,采用透视式头盔显示器作为融合显示设备,这些系统由于不具备良好的移动性,无法应用于户外环境,使得AR技术仅能被用于实验室环境。
近年来,随着移动计算设备和移动互联网的发展,AR技术在移动设备上的应用开始变得日益广泛,例如,可以通过智能手机上的AR应用实时看到周围各物体的相关信息,如图1所示。
AR技术在移动设备上的应用,主要依据以下原理:1)通过移动设备的摄像头获取移动设备周围的环境图像信息;2)利用图像识别技术识别环境图像中的各个物体;3)根据识别结果从已有信息库中提取出各物体的相关附加信息,将其标注在各物体所在的真实环境图像上,
在这类AR应用中,由于所有已识别物体的附加信息均被标注在同一个二维图像平面上,缺乏必要的三维景深信息,因此,对于物体间景深相差较大的场景,所标注的附加信息可能因为缺乏景深而显得缺乏真实感。如图2所示,真实环境中各建筑物间具有景深上的差异,而所有的AR信息标注(黑色半透明文本框)均位于同一图像平面上,没有景深信息,建筑物和相应AR信息间存在对应上的歧义性,难以区分哪个AR信息属于哪个建筑物,缺乏真实感。
特别地,针对类似谷歌眼镜之类的穿透式(see-through)的穿戴眼镜设备中的AR应用而言,由于用户透过眼镜镜片所看到的各个物体是真实物体(并非摄像机采集到的物体图像),各物体间具有真实的景深,然而其可以呈现的AR信息均位于同一图像平面上,缺少景深信息。
因此,需要一种适合于穿戴眼镜设备的增强现实信息标注方法,其能够使物体的AR信息准确无误地叠加在真实的物体上,并且能够提供与该真实的物体相同的景深。
发明内容
考虑到上述问题,作出了本发明。本发明旨在提供一种显示方法及设备,其能够在增强显示信息标注应用中向使用者提供3D信息标注。
根据本发明一方面,提供了一种显示方法,应用于电子设备,该电子设备包括:满足预定透光率的第一显示单元、满足所述预定透光率的第二显示单元、与所述第一显示单元对应设置的第一图像采集单元、与所述第二显示单元对应设置的第二图像采集单元,其中,当所述电子设备被使用者穿戴时,所述第一显示单元位于所述使用者的第一眼睛的可视区域内,所述第二显示单元位于所述使用者的第二眼睛的可视区域内,并且所述第一图像采集单元和所述第二图像采集单元具有重叠采集区域,所述重叠采集区域是所述第一图像采集单元的第一图像采集区域和所述第二图像采集单元的第二图像采集区域中的重叠区域,所述显示方法包括:利用所述第一图像采集单元采集所述第一图像采集区域的第一图像,所述第一图像包括位于所述重叠区域的目标图像,所述目标图像与目标对象相对应;利用所述第二图像采集单元采集所述第二图像采集区域的第二图像,所述第二图像包括位于所述重叠区域中的所述目标图像;依据所述目标图像确定显示信息;依据所述目标图像在所述第一图像中确定第一显示位置;依据所述目标图像在所述第二图像中确定第二显示位置;同时在所述第一显示单元的所述第一显示位置显示与所述显示信息对应的第一显示图像和所述第二显示单元的所述第二显示位置显示与所述显示信息对应的第二显示图像,以使得使用者通过所述第一眼睛透过所述第一显示单元观察和所述第二眼睛透过所述第二显示单元观察时能感知到所述显示信息对应的三维显示图像。
优选地,在所述显示方法中,同时在所述第一显示单元的所述第一显示位置显示与所述显示信息对应的第一显示图像和所述第二显示单元的所述第二显示位置显示与所述显示信息对应的第二显示图像包括:在所述第一图像中在所述第一显示位置处添加第一显示图像以生成第一合成图像,在所述第二图像中的所述第二显示位置处添加第二显示图像以生成第二合成图像;从所述第一合成图像中提取出除了所述第一图像之外的其余图像以生成第一标注图像,从所述第二合成图像中提取出除了所述第二图像之外的其余图像以生成第二标注图像;以及在所述第一显示单元上显示所述第一标注图像,在所述第二显示单元上显示所述第二标注图像。
优选地,在所述显示方法中,同时在所述第一显示单元的所述第一显示位置显示与所述显示信息对应的第一显示图像和所述第二显示单元的所述第二显示位置显示与所述显示信息对应的第二显示图像包括:在第一图像模板中在所述第一显示位置处添加第一显示图像以生成第一标注图像,其中,所述第一图像模板上像素矩阵的大小与所述第一图像上像素矩阵的大小相同;在第二图像模板中在所述第二显示位置处添加第二显示图像以生成第二标注图像,其中,所述第二图像模板上像素矩阵的大小与所述第二图像上像素矩阵的大小相同;以及在所述第一显示单元上显示所述第一标注图像,在所述第二显示单元上显示所述第二标注图像。
优选地,在所述显示方法中,根据所述第一图像中的所述目标图像的形状以及所述第二图像中的所述目标图像的形状,适应性地调整第一显示图像和第二显示图像的形状,使得使用者能感知到所述第一显示图像和所述第二显示图像很好地贴合所述目标图像,具有三维显示效果。
优选地,在所述显示方法中,所述第一显示单元为第一镜片,所述第二显示单元为第二镜片,在所述第一显示单元上显示所述第一标注图像包括:在所述第一显示单元上投影所述第一标注图像;以及在所述第二显示单元上显示所述第二标注图像包括:在所述第二显示单元上投影所述第二标注图像。
根据本发明另一方面,提供了一种显示设备,包括:满足预定透光率的第一显示单元;满足所述预定透光率的第二显示单元;与所述第一显示单元对应设置的第一图像采集单元;与所述第二显示单元对应设置的第二图像采集单元;图像处理单元;图像输出单元,其中,当所述显示设备被使用者穿戴时,所述第一显示单元位于所述使用者的第一眼睛的可视区域内,所述第二显示单元位于所述使用者的第二眼睛的可视区域内,并且所述第一图像采集单元和所述第二图像采集单元具有重叠采集区域,所述重叠采集区域是所述第一图像采集单元的第一图像采集区域和所述第二图像采集单元的第二图像采集区域中的重叠区域,其中,所述第一图像采集单元采集所述第一图像采集区域的第一图像,所述第一图像包括位于所述重叠区域的目标图像,所述目标图像与目标对象相对应;所述第二图像采集单元采集所述第二图像采集区域的第二图像,所述第二图像包括位于所述重叠区域中的所述目标图像;其中,所述图像处理单元依据所述目标图像确定显示信息,依据所述目标图像在所述第一图像中确定第一显示位置并且在所述第二图像中确定第二显示位置;所述图像输出单元同时在所述第一显示单元的所述第一显示位置显示与所述显示信息对应的第一显示图像和所述第二显示单元的所述第二显示位置显示与所述显示信息对应的第二显示图像,以使得使用者通过所述第一眼睛透过所述第一显示单元观察和所述第二眼睛透过所述第二显示单元观察时能感知到所述显示信息对应的三维显示图像。
优选地,在所述显示设备中,所述图像处理单元在所述第一图像中在所述第一显示位置处添加第一显示图像以生成第一合成图像,在所述第二图像中的所述第二显示位置处添加第二显示图像以生成第二合成图像,并且从所述第一合成图像中提取出除了所述第一图像之外的其余图像以生成第一标注图像,从所述第二合成图像中提取出除了所述第二图像之外的其余图像以生成第二标注图像。
优选地,在所述显示设备中,所述图像处理单元在第一图像模板中在所述第一显示位置处添加第一显示图像以生成第一标注图像,其中,所述第一图像模板上像素矩阵的大小与所述第一图像上像素矩阵的大小相同;所述图像处理单元在第二图像模板中在所述第二显示位置处添加第二显示图像以生成第二标注图像,其中,所述第二图像模板上像素矩阵的大小与所述第二图像上像素矩阵的大小相同。
优选地,在所述显示设备中,所述图像处理单元根据所述第一图像中的所述目标图像的形状以及所述第二图像中的所述目标图像的形状,适应性地调整第一显示图像和第二显示图像的形状。
优选地,在所述显示设备中,所述第一显示单元为第一镜片,所述第二显示单元为第二镜片,所述图像输出单元向所述第一显示单元投射所述第一标注图像,并向所述第二显示单元上投射所述第二标注图像。
优选地,在所述显示设备中,所述第一显示单元和所述第二显示单元为透明显示设备,其中,所述第一显示单元为第一镜片,所述第二显示单元为第二镜片,所述图像输出单元向所述第一显示单元输出所述第一标注图像,并向所述第二显示单元上输出所述第二标注图像。
优选地,所述显示设备为穿戴眼镜设备。
优选地,在所述显示方法和所述显示设备中,所述第一图像采集单元位于所述第一显示单元的上方,所述第二图像采集单元位于所述第二显示单元的上方,并且所述第一图像采集单元与所述第二图像采集单元关于所述电子设备的中心对称;所述第一图像采集单元位于所述第一显示单元的下方,所述第二图像采集单元位于所述第二显示单元的下方,并且所述第一图像采集单元与所述第二图像采集单元关于所述电子设备的中心对称;所述第一图像采集单元位于所述第一显示单元的左侧,所述第二图像采集单元位于所述第二显示单元的右侧,并且所述第一图像采集单元与所述第二图像采集单元关于所述电子设备的中心对称;或者所述第一图像采集单元位于所述第一显示单元的右侧,所述第二图像采集单元位于所述第二显示单元的左侧,并且所述第一图像采集单元与所述第二图像采集单元关于所述电子设备的中心对称,其中,所述第一眼睛的可视区域与所述第一图像采集区域近似重叠,并且所述第二眼睛的可视区域与所述第二图像采集区域近似重叠。
优选地,在所述显示方法和所述显示设备中,所述第一显示位置和所述第二显示位置对应于所述目标对象的同一几何特征点。
优选地,在所述显示方法和所述显示设备中,所述第一显示位置和所述第二显示位置对应于与所述目标对象具有相同景深的同一目标区域。
优选地,在所述显示方法和所述显示设备中,所述第一显示图像与所述第二显示图像大小相同,且显示内容也相同。
根据本发明实施例的显示方法和显示设备可以有利地向使用者提供带有景深的3D信息标注,使得使用者可以无混淆地容易识别出标注信息到底是哪个对象的标注信息,促进了增强显示的信息标注技术。
附图说明
通过参考附图描述根据本发明实施例,本发明实施例的各种特征和优点将更明显,并且也更容易被理解,在附图中:
图1示意性地示出了现有技术中的增强现实信息标注的效果;
图2示意性地示出了真实环境中各建筑物间具有景深上的差异;
图3示意性地示出了人眼感知周围环境的原理;
图4示出了根据本发明实施例的显示方法的具体流程图;
图5示出了根据本发明实施例的图4中的步骤S430的示例实现方式;
图6示出了根据本发明实施例的图4中的步骤S430的另一示例实现方式;
图7示出了根据本发明实施例的显示设备的框图;
图8示出了根据本发明实施例的显示设备的一种示例实现方式;以及
图9示出了根据本发明实施例的显示设备实现的标注图像以及合成显示图像。
具体实施方式
下面将参考附图来描述根据本发明实施例的显示方法和显示设备。
如图3所示,示意性地示出了人眼感知周围环境3D信息的原理。一个人通过左右眼观看同样的对象,左右两眼观看该对象的角度不同,因此在视网膜上形成的像并不完全相同,存在方向差异(视差)。两幅具有方向差异的左右眼图像经过人类大脑综合处理以后就能产生立体视觉,使人感知到所见物体的前后、左右等3D立体信息。
本发明人希望利用上述的人眼感知周围环境3D信息的原理来产生3D标注信息。
接下来,将参考图4来描述根据本发明实施例的显示方法400。该显示方法400应用于电子设备中,该电子设备包括:满足预定透光率的第一显示单元、满足所述预定透光率的第二显示单元、与所述第一显示单元对应设置的第一图像采集单元、与所述第二显示单元对应设置的第二图像采集单元。
当所述电子设备被使用者穿戴时,所述第一显示单元位于所述使用者的第一眼睛的可视区域内,所述第二显示单元位于所述使用者的第二眼睛的可视区域内,并且所述第一图像采集单元和所述第二图像采集单元具有重叠采集区域,所述重叠采集区域是所述第一图像采集单元的第一图像采集区域和所述第二图像采集单元的第二图像采集区域中的重叠区域。
优选地,所述第一显示单元与所述使用者的第一眼睛的距离在预定距离阈值之内,并且所述第二显示单元与所述使用者的第二眼睛的距离也在所述预定距离阈值之内。
例如,所述电子设备被制成穿戴式眼镜,在使用者佩戴该穿戴式眼镜时,所述第一显示单元位于所述使用者的左眼的可视区域内,例如在左眼正前方,而所述第二显示单元位于所述使用者的右眼的可视区域内,例如在右眼正前方。
此外,所述第一图像采集单元和所述第二图像采集单元相对于所述电子设备的中心轴对称布置,并且所述第一显示单元和所述第二显示单元也相对于所述电子设备的中心轴对称布置。更进一步,所述第一图像采集单元相对于所述第一显示单元的位置关系与所述第二图像采集单元相对于所述第二显示单元的位置关系关于所述中心轴对称。
优选地,所述第一图像采集单元的第一图像采集区域与左眼的可视区域近似重合,所述第二图像采集单元的第二图像采集区域与右眼的可视区域近似重合。也就是说,所述第一图像采集单元采集到的图像与左眼看到的图像基本相同,所述第二图像采集单元采集到的图像与右眼看到的图像基本相同。此外,优选地,所述第一图像采集单元的第一图像采集区域也与所述第二图像采集单元的第二图像采集区域近似重合。
例如,所述第一图像采集单元可以位于所述第一显示单元的上方,所述第二图像采集单元可以位于所述第二显示单元的上方,并且所述第一图像采集单元与所述第二图像采集单元关于所述电子设备的中心轴对称。
例如,所述第一图像采集单元可以位于所述第一显示单元的下方,所述第二图像采集单元可以位于所述第二显示单元的下方,并且所述第一图像采集单元与所述第二图像采集单元关于所述电子设备的中心轴对称。
例如,所述第一图像采集单元可以位于所述第一显示单元的左侧,所述第二图像采集单元可以位于所述第二显示单元的右侧,并且所述第一图像采集单元与所述第二图像采集单元关于所述电子设备的中心轴对称。
例如,所述第一图像采集单元可以位于所述第一显示单元的右侧,所述第二图像采集单元可以位于所述第二显示单元的左侧,并且所述第一图像采集单元与所述第二图像采集单元关于所述电子设备的中心轴对称。
根据本发明实施例的显示方法400在步骤S401开始。
在步骤S410,利用所述第一图像采集单元采集所述第一图像采集区域的第一图像,所述第一图像包括位于所述重叠区域的目标图像,所述目标图像与目标对象相对应;并且利用所述第二图像采集单元采集所述第二图像采集区域的第二图像,所述第二图像包括位于所述重叠区域中的所述目标图像。
在步骤S420,依据所述目标图像确定显示信息。
例如,在所述第一图像采集单元采集到所述第一图像采集区域的第一图像并且所述第二图像采集单元采集到所述第二图像采集区域的第二图像之后,可以通过图像识别技术识别出在所述第一图像和所述第二图像中出现的物体(或物体图像)。换句话说,通过图像识别技术识别出同时存在于所述第一图像和所述第二图像中的目标物体(或目标物体的目标图像)。
然后,在识别出同时存在于所述第一图像和所述第二图像中的物体之后,例如,可以从所述电子设备内存储的信息库中提取与所识别出的各物体相关的附加标注信息以作为显示信息。
所述附加标注信息可以但不限于包括建筑物名称、建筑物与使用者之间的距离、建筑物内的企业、建筑物内的饭店、甚至于关于该建筑物的新闻等等。
然后,在步骤S430,依据所述目标图像在所述第一图像中确定第一显示位置;以及依据所述目标图像在所述第二图像中确定第二显示位置。
例如,在步骤S420中确定了显示信息之后,接下来需要确定第一图像中的第一显示位置和第二图像中的第二显示位置。
如上所述,本发明希望能够向使用者提供3D标注效果,并且希望利用人眼感知周围环境3D信息的原理来向使用者提供3D标注效果。因此,需要在第一图像中和在第二图像中彼此关联地确定对应的第一显示位置和第二显示位置。
例如,在所识别的目标图像为建筑物的图像时,可以在第一图像和第二图像中确定对应于该建筑物的同一几何特征点的显示位置分别作为第一显示位置和第二显示位置,例如可以确定该建筑物的某个顶点、该建筑物某层的某个窗户、该建筑物上的某个标志等等。例如,可以将第一图像中与该建筑物的正面的左上顶点所在的显示位置作为第一显示位置,将第二图像中与该建筑物的正面的左上顶点所在的显示位置作为第二显示位置。换句话说,所述第一显示位置和所述第二显示位置可以对应于所述目标对象上的同一几何特征点。
仍以所识别的目标图像为建筑物的图像为例来进行说明,替代确定该建筑物上的几何特征点的显示位置,可以类似地确定与该建筑物具有同样景深的另一物体的显示位置分别作为第一显示位置和第二显示位置。例如可以确定该建筑物旁边的与该建筑物具有同样景深的树或街道标志等所在的显示位置分别作为第一图像中的第一显示位置和第二图像中的第二显示位置。换句话说,所述第一显示位置和所述第二显示位置对应于与所述目标对象具有相同景深的同一目标区域。
尽管仅仅以所识别的目标图像为建筑物的图像为例进行说明,然而应了解本发明不限于此,很容易将本发明应用于其它目标对象的目标图像。
然后,在步骤S440,同时在所述第一显示单元的所述第一显示位置显示与所述显示信息对应的第一显示图像和所述第二显示单元的所述第二显示位置显示与所述显示信息对应的第二显示图像,以使得使用者通过所述第一眼睛透过所述第一显示单元观察和所述第二眼睛透过所述第二显示单元观察时能感知到所述显示信息对应的三维显示图像。
例如,所述第一显示图像和所述第二显示图像的显示内容相同,例如都包含所述显示信息,并且所述第一显示图像和所述第二显示图像的大小相同。
最后,根据本发明实施例的显示方法在步骤S499结束。
接下来,将参考图5具体描述根据本发明实施例的显示方法的步骤S440的第一示例实现方式。
在步骤S510,在所述第一图像中在所述第一显示位置处添加第一显示图像以生成第一合成图像,在所述第二图像中的所述第二显示位置处添加第二显示图像以生成第二合成图像。
所述第一合成图像不仅包括所述第一图像采集单元所采集的第一图像的全部内容,而且还包括在第一图像上依据所识别的目标图像确定的第一显示位置处添加的标注信息(即第一显示图像)。同样,所述第二合成图像不仅包括所述第二图像采集单元所采集的第二图像的全部内容,而且还包括在第二图像上依据所识别的目标图像确定的第二显示位置处添加的标注信息(即第二显示图像)。
例如,在所述显示设备被制成穿戴式眼镜的情况下,该穿戴式眼镜是穿透式眼镜,在针对增强显示信息标注应用场合下,佩戴该穿戴式眼镜的用户通过该穿戴式眼镜不仅可以看到真实世界的物体而且还可以看到在该穿戴式眼镜的镜片上显示的标注图像。因此,有必要从所生成的第一合成图像中提取出用于左眼镜片的第一标注图像、以及用于右眼镜片的第二标注图像。
接下来,在步骤S520,从所述第一合成图像中提取出除了所述第一图像之外的其余图像以生成第一标注图像,从所述第二合成图像中提取出除了所述第二图像之外的其余图像以生成第二标注图像。
对于本领域技术人员而言,如何从第一合成图像中去除第一图像的内容以及从第二合成图像中去除第二图像的内容是公知的,因此在此不再对图像提取过程进行赘述。
然后,在步骤S530,在所述第一显示单元上显示所述第一标注图像,在所述第二显示单元上显示所述第二标注图像。
接下来,将参考图6具体描述根据本发明实施例的显示方法的步骤S440的第一示例实现方式。
在上述第一示例实现方式中,直接在第一图像和第二图像中添加标注信息并且然后再从第一合成图像中和第二合成图像中去除第一图像和第二图像。
与此不同,在第二示例实现方式中,直接在空白的透明图像模板中添加标注信息。
具体地,在步骤S610,在第一图像模板中在所述第一显示位置处添加第一显示图像以生成第一标注图像。优选地,所述第一图像模板上像素矩阵的大小与所述第一图像上像素矩阵的大小相同,从而可以直接利用该第一图像模板生成第一标注图像,而无需进行图像大小变换处理。然而,本发明不限于此,所述第一图像模板上的像素矩阵大小可以大于所述第一图像上像素矩阵的大小,在所述第一图像模板上进行了标注之后,可以从所述第一图像模板中提取出与所述第一图像上像素矩阵的大小相同的图像部分,以便将所提取的图像部分作为第一标注图像。
类似地,在步骤610中,还在第二图像模板中在所述第二显示位置处添加第二显示图像以生成第二标注图像。优选地,所述第二图像模板上像素矩阵的大小与所述第二图像上像素矩阵的大小相同,从而可以直接利用该第二图像模板生成第二标注图像,而无需进行图像大小变换处理。如上所述,本发明不限于此,所述第二图像模板上的像素矩阵大小可以大于所述第二图像上像素矩阵的大小,在所述第二图像模板上进行了标注之后,可以从所述第二图像模板中提取出与所述第二图像上像素矩阵的大小相同的图像部分,以便将所提取的图像部分作为第二标注图像。
然后,在步骤S620,在所述第一显示单元上显示所述第一标注图像,在所述第二显示单元上显示所述第二标注图像。
另外,如图3所示,对于真实的大楼,原本规则的矩形侧面由于观看者观看角度的不同可能在左眼中看到规则的矩形,而在右眼中看到的是菱形。对于这种情况,如果在该大楼的某个几何特征点处进行信息标注,有必要相应地变换所述第一显示图像和第二显示图像。
因此,在根据本发明实施例的显示方法中,在目标对象的某个几何特征点处进行信息标注的情况下,还可以在第一图像和第二图像中识别所述目标对象上与所述几何特征点相关的信息标注平面,并根据所述信息标注平面在所述第一图像中的形状变换来相应地变换所述第一显示图像的形状,根据所述信息标注平面在所述第二图像中的形状变换来相应地变换所述第二显示图像的形状。也就是说,根据所述第一图像中的所述目标图像的形状以及所述第二图像中的所述目标图像的形状,适应性地调整第一显示图像和第二显示图像的形状,使得使用者能感知到所述第一显示图像和所述第二显示图像很好地贴合所述目标图像,具有三维显示效果。
如在图5的步骤S530和图6的步骤S620中所描述的,在所述第一显示单元上显示所述第一标注图像,在所述第二显示单元上显示所述第二标注图像。在所述第一显示单元和所述第二显示单元采用特定的显示技术时,所述显示方式会有所不同。
例如,在采用光学投影方式显示所述第一标注图像和第二标注图像的情况下,所述第一显示单元为第一镜片,所述第二显示单元为第二镜片,所述第一镜片和第二镜片为满足一定透明度的镜片,并且通过第一光学投影单元在所述第一显示单元上投影所述第一标注图像,通过第二光学投影单元在所述第二显示单元上投影所述第二标注图像。
应了解,用于第一显示单元和第二显示单元的投影光路不同,然而为了描述简单可以将所述第一光学投影单元和第二光学投影单元统称为光学投影单元。
与光学投影方式不同,例如,所述第一显示单元和所述第二显示单元可以为透明显示设备,通过向第一显示单元提供所述第一标注图像的图像数据并向第二显示单元提供所述第二标注图像的图像数据来进行标注信息显示。
接下来,将参考图7来描述根据本发明实施例的显示设备700。该显示设备700包括:满足预定透光率的第一显示单元710;满足所述预定透光率的第二显示单元720;与所述第一显示单元对应设置的第一图像采集单元730;与所述第二显示单元对应设置的第二图像采集单元740;图像处理单元750;以及图像输出单元760。
当所述显示设备700被使用者穿戴时,所述第一显示单元710位于所述使用者的第一眼睛的可视区域内,所述第二显示单元720位于所述使用者的第二眼睛的可视区域内,并且所述第一图像采集单元730和所述第二图像采集单元740具有重叠采集区域,所述重叠采集区域是所述第一图像采集单元730的第一图像采集区域和所述第二图像采集单元740的第二图像采集区域中的重叠区域。
优选地,所述第一显示单元710与所述使用者的第一眼睛的距离在预定距离阈值之内,并且所述第二显示单元720与所述使用者的第二眼睛的距离也在所述预定距离阈值之内。
例如,所述电子设备600被制成穿戴式眼镜,在使用者佩戴该穿戴式眼镜时,所述第一显示单元710位于所述使用者的左眼的可视区域内,例如在左眼正前方,而所述第二显示单元720位于所述使用者的右眼的可视区域内,例如在右眼正前方。
此外,所述第一图像采集单元730和所述第二图像采集单元740相对于所述显示设备700的中心轴对称布置,并且所述第一显示单元和所述第二显示单元也相对于所述显示设备的中心轴对称布置。更进一步,所述第一图像采集单元730相对于所述第一显示单元710的位置关系与所述第二图像采集单元740相对于所述第二显示单元720的位置关系关于所述中心轴对称。
优选地,所述第一图像采集单元730的第一图像采集区域与左眼的可视区域近似重合,所述第二图像采集单元740的第二图像采集区域与右眼的可视区域近似重合。也就是说,所述第一图像采集单元730采集到的图像与左眼看到的图像基本相同,所述第二图像采集单元740采集到的图像与右眼看到的图像基本相同。此外,优选地,所述第一图像采集单元730的第一图像采集区域也与所述第二图像采集单元740的第二图像采集区域近似重合。
例如,所述第一图像采集单元730可以位于所述第一显示单元710的上方,所述第二图像采集单元740可以位于所述第二显示单元720的上方,并且所述第一图像采集单元730与所述第二图像采集单元740关于所述显示设备的中心轴对称。
例如,所述第一图像采集单元730可以位于所述第一显示单元710的下方,所述第二图像采集单元740可以位于所述第二显示单元720的下方,并且所述第一图像采集单元730与所述第二图像采集单元740关于所述电子设备的中心轴对称。
例如,所述第一图像采集单元730可以位于所述第一显示单元710的左侧,所述第二图像采集单元740可以位于所述第二显示单元720的右侧,并且所述第一图像采集单元730与所述第二图像采集单元740关于所述显示设备的中心轴对称。
例如,所述第一图像采集单元730可以位于所述第一显示单元710的右侧,所述第二图像采集单元740可以位于所述第二显示单元720的左侧,并且所述第一图像采集单元730与所述第二图像采集单元740关于所述显示设备的中心轴对称。
如图8所示,示出了根据本发明实施例的显示设备700用作穿戴式眼镜的示例应用。在图8中,所述第一图像采集单元730被示出为位于所述第一显示单元710的上方,所述第二图像采集单元740被示出为位于所述第二显示单元720的上方,并且所述第一图像采集单元730与所述第二图像采集单元740关于所述穿戴式眼镜的中心轴对称。
所述第一图像采集单元730采集所述第一图像采集区域的第一图像,所述第一图像包括位于所述重叠区域的目标图像,所述目标图像与目标对象相对应。所述第二图像采集单元740采集所述第二图像采集区域的第二图像,所述第二图像包括位于所述重叠区域中的所述目标图像。
所述图像处理单元750依据所述目标图像确定显示信息,依据所述目标图像在所述第一图像中确定第一显示位置并且在所述第二图像中确定第二显示位置。
所述图像处理单元750可以如上所述地依据所述目标图像确定显示信息,并且如上所述地依据所述目标图像在所述第一图像中确定第一显示位置并且在所述第二图像中确定第二显示位置。
作为示例,所述第一显示位置和所述第二显示位置可以对应于所述目标对象的同一几何特征点。
作为另一示例,所述第一显示位置和所述第二显示位置可以对应于与所述目标对象具有相同景深的同一目标区域。
所述图像输出单元760同时在所述第一显示单元710的所述第一显示位置显示与所述显示信息对应的第一显示图像和所述第二显示单元720的所述第二显示位置显示与所述显示信息对应的第二显示图像,以使得使用者通过所述第一眼睛透过所述第一显示单元710观察和所述第二眼睛透过所述第二显示单元720观察时能感知到所述显示信息对应的三维显示图像。
作为示例,所述图像处理单元750在所述第一图像中在所述第一显示位置处添加第一显示图像以生成第一合成图像,在所述第二图像中的所述第二显示位置处添加第二显示图像以生成第二合成图像,并且从所述第一合成图像中提取出除了所述第一图像之外的其余图像以生成第一标注图像,从所述第二合成图像中提取出除了所述第二图像之外的其余图像以生成第二标注图像。
作为另一示例,所述图像处理单元750在第一图像模板中在所述第一显示位置处添加第一显示图像以生成第一标注图像,所述图像处理单元在第二图像模板中在所述第二显示位置处添加第二显示图像以生成第二标注图像。所述第一图像模板上像素矩阵的大小与所述第一图像上像素矩阵的大小相同,所述第二图像模板上像素矩阵的大小与所述第二图像上像素矩阵的大小相同。
优选地,所述第一显示图像与所述第二显示图像大小相同,且显示内容也相同。
如上所述,在目标对象的某个几何特征点处进行信息标注的情况下,还可以在第一图像和第二图像中识别所述目标对象上与所述几何特征点相关的信息标注平面,并根据所述信息标注平面在所述第一图像中的形状变换来相应地变换所述第一显示图像的形状,根据所述信息标注平面在所述第二图像中的形状变换来相应地变换所述第二显示图像的形状。也就是说,根据所述第一图像中的所述目标图像的形状以及所述第二图像中的所述目标图像的形状,适应性地调整第一显示图像和第二显示图像的形状,使得使用者能感知到所述第一显示图像和所述第二显示图像很好地贴合所述目标图像,具有三维显示效果。
因此,所述图像处理单元750还可以根据所述第一图像中的所述目标图像的形状以及所述第二图像中的所述目标图像的形状,适应性地调整第一显示图像和第二显示图像的形状。
作为示例,所述第一显示单元710可以为第一镜片,所述第二显示单元720可以为第二镜片,所述图像输出单元750可以为光学投影单元,并且向所述第一显示单元投射所述第一标注图像,向所述第二显示单元上投射所述第二标注图像。
作为另一示例,其中,所述第一显示单元和所述第二显示单元为透明显示设备,其中,所述第一显示单元为第一镜片,所述第二显示单元为第二镜片,所述图像输出单元760向所述第一显示单元输出所述第一标注图像,并向所述第二显示单元上输出所述第二标注图像。
尽管上面以普通的图像采集单元为例描述了根据本发明实施例的显示方法和设备,然而本发明不限于此,所述第一和第二图像采集单元可以是红外图像采集单元,可以用来识别爆炸物、易燃物等物品,相应的显示方法和设备还可以用于安检等专业应用场合中。
尽管上面以穿戴式眼镜为例描述了根据本发明实施例的显示方法和设备,然而本发明不限于此,所述显示方法和设备不仅可以应用于便携式电子设备,而且还可以应用于固定设备。
根据本发明实施例的显示方法和显示设备可以有利地向使用者提供3D信息标注,使得使用者可以无混淆地容易识别出标注信息到底是哪个对象的标注信息,促进了增强显示的信息标注技术。
上面已经参考附图描述了根据本发明实施例的显示方法及设备。本领域技术人员应了解,本发明不限于上面描述的实施例,在不偏离本发明的精神的情况下可以作出各种修改,所述修改也应包含在本发明的范围之内。本发明的范围应由所附权利要求及其等同物来限定。
Claims (19)
1.一种显示方法,应用于电子设备,该电子设备包括:满足预定透光率的第一显示单元、满足所述预定透光率的第二显示单元、与所述第一显示单元对应设置的第一图像采集单元、与所述第二显示单元对应设置的第二图像采集单元,其中,当所述电子设备被使用者穿戴时,所述第一显示单元位于所述使用者的第一眼睛的可视区域内,所述第二显示单元位于所述使用者的第二眼睛的可视区域内,并且所述第一图像采集单元和所述第二图像采集单元具有重叠采集区域,所述重叠采集区域是所述第一图像采集单元的第一图像采集区域和所述第二图像采集单元的第二图像采集区域中的重叠区域,所述显示方法包括:
利用所述第一图像采集单元采集所述第一图像采集区域的第一图像,所述第一图像包括位于所述重叠区域的目标图像,所述目标图像与目标对象相对应;
利用所述第二图像采集单元采集所述第二图像采集区域的第二图像,所述第二图像包括位于所述重叠区域中的所述目标图像;
依据所述目标图像确定显示信息;
依据所述目标图像在所述第一图像中确定第一显示位置;
依据所述目标图像在所述第二图像中确定第二显示位置;
同时在所述第一显示单元的所述第一显示位置显示与所述显示信息对应的第一显示图像和所述第二显示单元的所述第二显示位置显示与所述显示信息对应的第二显示图像,以使得使用者通过所述第一眼睛透过所述第一显示单元观察和所述第二眼睛透过所述第二显示单元观察时能感知到所述显示信息对应的三维显示图像,
其中,根据所述第一图像中的所述目标图像的形状以及所述第二图像中的所述目标图像的形状,适应性地调整第一显示图像和第二显示图像的形状,使得使用者能感知到所述第一显示图像和所述第二显示图像很好地贴合所述目标图像,具有三维显示效果。
2.如权利要求1所述的显示方法,其中,
所述第一图像采集单元位于所述第一显示单元的上方,所述第二图像采集单元位于所述第二显示单元的上方,并且所述第一图像采集单元与所述第二图像采集单元关于所述电子设备的中心对称;
所述第一图像采集单元位于所述第一显示单元的下方,所述第二图像采集单元位于所述第二显示单元的下方,并且所述第一图像采集单元与所述第二图像采集单元关于所述电子设备的中心对称;
所述第一图像采集单元位于所述第一显示单元的左侧,所述第二图像采集单元位于所述第二显示单元的右侧,并且所述第一图像采集单元与所述第二图像采集单元关于所述电子设备的中心对称;或者
所述第一图像采集单元位于所述第一显示单元的右侧,所述第二图像采集单元位于所述第二显示单元的左侧,并且所述第一图像采集单元与所述第二图像采集单元关于所述电子设备的中心对称,
其中,所述第一眼睛的可视区域与所述第一图像采集区域近似重叠,并且所述第二眼睛的可视区域与所述第二图像采集区域近似重叠。
3.如权利要求1所述的显示方法,其中,同时在所述第一显示单元的所述第一显示位置显示与所述显示信息对应的第一显示图像和所述第二显示单元的所述第二显示位置显示与所述显示信息对应的第二显示图像包括:
在所述第一图像中在所述第一显示位置处添加第一显示图像以生成第一合成图像,在所述第二图像中的所述第二显示位置处添加第二显示图像以生成第二合成图像;
从所述第一合成图像中提取出除了所述第一图像之外的其余图像以生成第一标注图像,从所述第二合成图像中提取出除了所述第二图像之外的其余图像以生成第二标注图像;以及
在所述第一显示单元上显示所述第一标注图像,在所述第二显示单元上显示所述第二标注图像。
4.如权利要求1所述的显示方法,其中,同时在所述第一显示单元的所述第一显示位置显示与所述显示信息对应的第一显示图像和所述第二显示单元的所述第二显示位置显示与所述显示信息对应的第二显示图像包括:
在第一图像模板中在所述第一显示位置处添加第一显示图像以生成第一标注图像,其中,所述第一图像模板上像素矩阵的大小与所述第一图像上像素矩阵的大小相同;
在第二图像模板中在所述第二显示位置处添加第二显示图像以生成第二标注图像,其中,所述第二图像模板上像素矩阵的大小与所述第二图像上像素矩阵的大小相同;以及
在所述第一显示单元上显示所述第一标注图像,在所述第二显示单元上显示所述第二标注图像。
5.如权利要求1所述的显示方法,其中,所述第一显示位置和所述第二显示位置对应于所述目标对象的同一几何特征点。
6.如权利要求1所述的显示方法,其中,所述第一显示位置和所述第二显示位置对应于与所述目标对象具有相同景深的同一目标区域。
7.如权利要求1所述的显示方法,其中,所述第一显示图像与所述第二显示图像大小相同,且显示内容也相同。
8.如权利要求3或4所述的显示方法,其中,所述第一显示单元为第一镜片,所述第二显示单元为第二镜片,
在所述第一显示单元上显示所述第一标注图像包括:在所述第一显示单元上投影所述第一标注图像;以及
在所述第二显示单元上显示所述第二标注图像包括:在所述第二显示单元上投影所述第二标注图像。
9.如权利要求1所述的显示方法,其中,所述第一显示单元和所述第二显示单元为透明显示设备。
10.一种显示设备,包括:
满足预定透光率的第一显示单元;
满足所述预定透光率的第二显示单元;
与所述第一显示单元对应设置的第一图像采集单元;
与所述第二显示单元对应设置的第二图像采集单元;
图像处理单元;
图像输出单元;
其中,当所述显示设备被使用者穿戴时,所述第一显示单元位于所述使用者的第一眼睛的可视区域内,所述第二显示单元位于所述使用者的第二眼睛的可视区域内,并且所述第一图像采集单元和所述第二图像采集单元具有重叠采集区域,所述重叠采集区域是所述第一图像采集单元的第一图像采集区域和所述第二图像采集单元的第二图像采集区域中的重叠区域,
其中,所述第一图像采集单元采集所述第一图像采集区域的第一图像,所述第一图像包括位于所述重叠区域的目标图像,所述目标图像与目标对象相对应;所述第二图像采集单元采集所述第二图像采集区域的第二图像,所述第二图像包括位于所述重叠区域中的所述目标图像;
其中,所述图像处理单元依据所述目标图像确定显示信息,依据所述目标图像在所述第一图像中确定第一显示位置并且在所述第二图像中确定第二显示位置;
所述图像输出单元同时在所述第一显示单元的所述第一显示位置显示与所述显示信息对应的第一显示图像和所述第二显示单元的所述第二显示位置显示与所述显示信息对应的第二显示图像,以使得使用者通过所述第一眼睛透过所述第一显示单元观察和所述第二眼睛透过所述第二显示单元观察时能感知到所述显示信息对应的三维显示图像,
其中,所述图像处理单元根据所述第一图像中的所述目标图像的形状以及所述第二图像中的所述目标图像的形状,适应性地调整第一显示图像和第二显示图像的形状。
11.如权利要求10所述的显示设备,其中,
所述第一图像采集单元位于所述第一显示单元的上方,所述第二图像采集单元位于所述第二显示单元的上方,并且所述第一图像采集单元与所述第二图像采集单元关于所述显示设备的中心对称;
所述第一图像采集单元位于所述第一显示单元的下方,所述第二图像采集单元位于所述第二显示单元的下方,并且所述第一图像采集单元与所述第二图像采集单元关于所述显示设备的中心对称;
所述第一图像采集单元位于所述第一显示单元的左侧,所述第二图像采集单元位于所述第二显示单元的右侧,并且所述第一图像采集单元与所述第二图像采集单元关于所述显示设备的中心对称;或者
所述第一图像采集单元位于所述第一显示单元的右侧,所述第二图像采集单元位于所述第二显示单元的左侧,并且所述第一图像采集单元与所述第二图像采集单元关于所述显示设备的中心对称,
其中,所述第一眼睛的可视区域与所述第一图像采集区域近似重叠,并且所述第二眼睛的可视区域与所述第二图像采集区域近似重叠。
12.如权利要求10所述的显示设备,其中,
所述图像处理单元在所述第一图像中在所述第一显示位置处添加第一显示图像以生成第一合成图像,在所述第二图像中的所述第二显示位置处添加第二显示图像以生成第二合成图像,并且从所述第一合成图像中提取出除了所述第一图像之外的其余图像以生成第一标注图像,从所述第二合成图像中提取出除了所述第二图像之外的其余图像以生成第二标注图像。
13.如权利要求10所述的显示设备,其中,
所述图像处理单元在第一图像模板中在所述第一显示位置处添加第一显示图像以生成第一标注图像,其中,所述第一图像模板上像素矩阵的大小与所述第一图像上像素矩阵的大小相同;
所述图像处理单元在第二图像模板中在所述第二显示位置处添加第二显示图像以生成第二标注图像,其中,所述第二图像模板上像素矩阵的大小与所述第二图像上像素矩阵的大小相同。
14.如权利要求10所述的显示设备,其中,所述第一显示位置和所述第二显示位置对应于所述目标对象的同一几何特征点。
15.如权利要求10所述的显示设备,其中,所述第一显示位置和所述第二显示位置对应于与所述目标对象具有相同景深的同一目标区域。
16.如权利要求11所述的显示设备,其中,所述第一显示图像与所述第二显示图像大小相同,且显示内容也相同。
17.如权利要求12或13所述的显示设备,其中,所述第一显示单元为第一镜片,所述第二显示单元为第二镜片,所述图像输出单元向所述第一显示单元投射所述第一标注图像,并向所述第二显示单元上投射所述第二标注图像。
18.如权利要求12或13所述的显示设备,其中,所述第一显示单元和所述第二显示单元为透明显示设备,其中,所述第一显示单元为第一镜片,所述第二显示单元为第二镜片,所述图像输出单元向所述第一显示单元输出所述第一标注图像,并向所述第二显示单元上输出所述第二标注图像。
19.如权利要求10所述的显示设备,其中,所述显示设备为穿戴眼镜设备。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210537403.0A CN103873840B (zh) | 2012-12-12 | 2012-12-12 | 显示方法及显示设备 |
US14/103,943 US9360670B2 (en) | 2012-12-12 | 2013-12-12 | Display method and display device for augmented reality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210537403.0A CN103873840B (zh) | 2012-12-12 | 2012-12-12 | 显示方法及显示设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103873840A CN103873840A (zh) | 2014-06-18 |
CN103873840B true CN103873840B (zh) | 2018-08-31 |
Family
ID=50880489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210537403.0A Active CN103873840B (zh) | 2012-12-12 | 2012-12-12 | 显示方法及显示设备 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9360670B2 (zh) |
CN (1) | CN103873840B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105739093B (zh) * | 2014-12-08 | 2018-02-06 | 北京蚁视科技有限公司 | 透过式增强现实近眼显示器 |
CN105872527A (zh) * | 2015-01-21 | 2016-08-17 | 成都理想境界科技有限公司 | 双目ar头戴显示设备及其信息显示方法 |
CN104822060B (zh) * | 2015-05-05 | 2017-07-25 | 联想(北京)有限公司 | 信息处理方法、信息处理装置及电子设备 |
US20170116664A1 (en) * | 2015-10-27 | 2017-04-27 | Sk Planet Co., Ltd. | Method and apparatus for constructing information about location of displayed commodity |
GB2548346B (en) * | 2016-03-11 | 2020-11-18 | Sony Interactive Entertainment Europe Ltd | Image processing method and apparatus |
DE102016122649B3 (de) * | 2016-11-24 | 2018-03-01 | Bioid Ag | Biometrisches Verfahren |
US10958890B2 (en) * | 2017-03-31 | 2021-03-23 | Samsung Electronics Co., Ltd. | Method and apparatus for rendering timed text and graphics in virtual reality video |
JPWO2018216220A1 (ja) * | 2017-05-26 | 2020-05-07 | 株式会社オプティム | ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム |
CN107179822B (zh) * | 2017-06-23 | 2020-12-18 | 联想(北京)有限公司 | 信息处理方法及装置、显示设备及计算机存储介质 |
KR102411661B1 (ko) * | 2017-07-31 | 2022-06-21 | 삼성전자주식회사 | 영상 처리 방법 및 디바이스 |
CN107622496A (zh) * | 2017-09-11 | 2018-01-23 | 广东欧珀移动通信有限公司 | 图像处理方法及装置 |
CN109688399A (zh) * | 2017-10-18 | 2019-04-26 | 深圳市掌网科技股份有限公司 | 一种基于增强现实的立体图像显示方法和系统 |
CN108447104A (zh) * | 2018-03-30 | 2018-08-24 | 联想(北京)有限公司 | 一种电子设备和显示信息的方法 |
CN109714583B (zh) * | 2019-01-22 | 2022-07-19 | 京东方科技集团股份有限公司 | 增强现实的显示方法及增强现实的显示系统 |
CN110109553B (zh) | 2019-05-24 | 2021-10-22 | 京东方科技集团股份有限公司 | 一种智能镜子和显示方法 |
US11315326B2 (en) * | 2019-10-15 | 2022-04-26 | At&T Intellectual Property I, L.P. | Extended reality anchor caching based on viewport prediction |
US11340701B2 (en) * | 2019-12-16 | 2022-05-24 | Nvidia Corporation | Gaze determination using glare as input |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101101505A (zh) * | 2006-07-07 | 2008-01-09 | 华为技术有限公司 | 一种实现三维增强现实的方法及系统 |
CN102395036A (zh) * | 2010-06-30 | 2012-03-28 | 株式会社泛泰 | 用于提供3d增强现实图像的设备和方法 |
WO2012158323A1 (en) * | 2011-05-13 | 2012-11-22 | Google Inc. | Method and apparatus for enabling virtual tags |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5766016A (en) * | 1994-11-14 | 1998-06-16 | Georgia Tech Research Corporation | Surgical simulator and method for simulating surgical procedure |
US20070236514A1 (en) * | 2006-03-29 | 2007-10-11 | Bracco Imaging Spa | Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation |
NL1035303C2 (nl) * | 2008-04-16 | 2009-10-19 | Virtual Proteins B V | Interactieve virtuele reality eenheid. |
US9600067B2 (en) * | 2008-10-27 | 2017-03-21 | Sri International | System and method for generating a mixed reality environment |
US8400548B2 (en) * | 2010-01-05 | 2013-03-19 | Apple Inc. | Synchronized, interactive augmented reality displays for multifunction devices |
US20110213664A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US20120256917A1 (en) * | 2010-06-25 | 2012-10-11 | Lieberman Stevan H | Augmented Reality System |
US9286711B2 (en) * | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Representing a location at a previous time period using an augmented reality display |
-
2012
- 2012-12-12 CN CN201210537403.0A patent/CN103873840B/zh active Active
-
2013
- 2013-12-12 US US14/103,943 patent/US9360670B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101101505A (zh) * | 2006-07-07 | 2008-01-09 | 华为技术有限公司 | 一种实现三维增强现实的方法及系统 |
CN102395036A (zh) * | 2010-06-30 | 2012-03-28 | 株式会社泛泰 | 用于提供3d增强现实图像的设备和方法 |
WO2012158323A1 (en) * | 2011-05-13 | 2012-11-22 | Google Inc. | Method and apparatus for enabling virtual tags |
Also Published As
Publication number | Publication date |
---|---|
US20140160163A1 (en) | 2014-06-12 |
US9360670B2 (en) | 2016-06-07 |
CN103873840A (zh) | 2014-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103873840B (zh) | 显示方法及显示设备 | |
JP6195893B2 (ja) | 形状認識装置、形状認識プログラム、および形状認識方法 | |
CN105934730B (zh) | 自动内容滚动 | |
JP6177872B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
US9933853B2 (en) | Display control device, display control program, and display control method | |
JP6250024B2 (ja) | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 | |
WO2014138267A2 (en) | Inconspicuous tag for generating augmented reality experiences | |
CN109196406A (zh) | 利用混合现实的虚拟现实系统及其实施方法 | |
WO2014128751A1 (ja) | ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法 | |
JP6250025B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
CN113467619A (zh) | 画面显示方法、装置和存储介质及电子设备 | |
WO2019104548A1 (zh) | 图像显示方法、智能眼镜及存储介质 | |
CN113170090A (zh) | 头戴式显示装置 | |
CN103257703A (zh) | 一种增强现实装置及方法 | |
EP3038061A1 (en) | Apparatus and method to display augmented reality data | |
KR20140003107A (ko) | 증강 현실 표현 장치 및 방법 | |
CN114866757A (zh) | 一种立体显示系统及方法 | |
JP2017111537A (ja) | ヘッドマウントディスプレイおよびヘッドマウントディスプレイのプログラム | |
Orlosky | Depth based interaction and field of view manipulation for augmented reality | |
KR101820379B1 (ko) | 입체형 더블 마커 기반의 증강 현실 장치 | |
CN113660477A (zh) | 一种vr眼镜及其图像呈现方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |