CN111563432A - 一种显示方法及增强现实显示设备 - Google Patents

一种显示方法及增强现实显示设备 Download PDF

Info

Publication number
CN111563432A
CN111563432A CN202010344708.4A CN202010344708A CN111563432A CN 111563432 A CN111563432 A CN 111563432A CN 202010344708 A CN202010344708 A CN 202010344708A CN 111563432 A CN111563432 A CN 111563432A
Authority
CN
China
Prior art keywords
image
user
preset
display
framed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010344708.4A
Other languages
English (en)
Inventor
张超
刘超
姜滨
迟小羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Goertek Techology Co Ltd
Original Assignee
Goertek Techology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goertek Techology Co Ltd filed Critical Goertek Techology Co Ltd
Priority to CN202010344708.4A priority Critical patent/CN111563432A/zh
Publication of CN111563432A publication Critical patent/CN111563432A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本发明公开了一种显示方法及增强现实显示设备,获取用户眼睛在图像中的注视位置,然后根据输入的第一指令,生成包含预设图形的图像,使得在图像中以预设图形框出包含用户眼睛注视位置的区域,进一步根据预设显示策略在图像中显示预设图形所框出区域的内容。本发明的显示方法及增强现实显示设备通过监控用户眼睛的注视位置,进而根据预设显示策略调整图像中用户眼睛所关注区域的内容,因此其显示更加智能化,有助于扩展其应用范围。

Description

一种显示方法及增强现实显示设备
技术领域
本发明涉及头戴显示技术领域,特别是涉及一种显示方法。本发明还涉及一种增强现实显示设备。
背景技术
增强现实(Augmented Reality,AR)技术是指通过某种技术手段为使用者在现实世界中提供额外的信息(即所谓的“增强”),这种技术把虚拟世界的图像和现实世界的场景有机的融合在一起,通过将计算得到的信息与真实世界进行深度整合,从而给使用者提供更丰富的信息和浸入式体验。
在增强现实技术的硬件实现形式中,应用最多的是可穿戴增强现实设备,即AR眼镜,硬件主要结构包括微型光机和镜片,通过镜片将微型光机输出的光线引导入人眼,从而能够看到微型光机输出的图像,与此同时人眼可以看到真实世界场景,两部分重叠就可以实现增强现实的效果。然而现有的增强现实设备的显示功能灵活性差,这限制了其应用范围。
发明内容
本发明的目的是提供一种显示方法及增强现实显示设备,能够根据用户眼睛的注视位置调整显示内容,其显示更加智能化,有助于扩展其应用范围。
为实现上述目的,本发明提供如下技术方案:
一种显示方法,包括:
获取用户眼睛在图像中的注视位置;
根据输入的第一指令,生成包含预设图形的所述图像,使得在所述图像中以所述预设图形框出包含用户眼睛注视位置的区域,所述第一指令指示了所述预设图形在所述图像中的位置和所框出区域的大小;
根据预设显示策略在所述图像中显示所述预设图形所框出区域的内容。
优选的,所述预设显示策略包括:在所述图像中所述预设图形所框出区域的内容占的面积比例增大。
优选的,所述图像为基于获取的现实场景图像生成,通过按照预设方式获取现实场景图像,使得在所述图像中所述预设图形所框出区域的内容占的面积比例增大。
优选的,所述预设显示策略包括:针对所述预设图形所框出区域添加标注数据,并生成包含标注符号的所述图像,使得在所述图像中所述标注符号与所述预设图形所框出区域关联。
优选的,所述预设显示策略包括:对所述预设图形所框出区域的图像进行处理,使得在所述图像中所述预设图形所框出区域的图像质量大于所述图像中其它区域的图像质量。
优选的,对所述预设图形所框出区域的图像进行处理包括增加对比度、增强清晰度、去噪、补偿色彩或者弱化畸变的处理。
优选的,通过触控实体按键输入所述第一指令,或者通过语音输入所述第一指令。
优选的,获取用户眼睛在图像中的注视位置包括:获取用户的眼球图像,根据眼球图像确定用户眼球的位置和转动角度,获得用户眼睛在所述图像中的注视位置。
一种增强现实显示设备,包括显示部件、眼球追踪装置和处理装置;
所述眼球追踪装置用于获取用户眼睛在图像中的注视位置;
所述处理装置与所述眼球追踪装置、所述显示部件分别相连,用于根据输入的第一指令,生成包含预设图形的所述图像,使得在所述图像中以所述预设图形框出包含用户眼睛注视位置的区域,所述第一指令指示了所述预设图形在所述图像中的位置和所框出区域的大小,以及根据预设显示策略在所述图像中显示所述预设图形所框出区域的内容;
所述显示部件用于将生成的所述图像以及现实场景的光线叠加引导入用户眼睛。
优选的,还包括图像获取装置,用于捕获现实场景的光线而获取现实场景图像,所述图像为基于获取的现实场景图像生成。
由上述技术方案可知,本发明所提供的一种显示方法,首先获取用户眼睛在图像中的注视位置,然后根据输入的第一指令,生成包含预设图形的图像,使得在图像中以预设图形框出包含用户眼睛注视位置的区域,进一步根据预设显示策略在图像中显示预设图形所框出区域的内容。本发明的显示方法通过监控用户眼睛的注视位置,进而根据预设显示策略调整图像中用户眼睛所关注区域的内容,因此其显示更加智能化,有助于扩展其应用范围。
本发明还提供一种增强现实显示设备,能够达到上述有益效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的显示方法的流程图;
图2为本发明又一种实施例的显示方法的流程图;
图3为本发明一种实施例的设置有眼球追踪装置的增强现实显示设备的示意图;
图4(a)为本发明一种实施例中增强现实显示设备所显示的包含预设图形的图像;
图4(b)为对图4(a)所示图像根据预设显示策略调整后的图像;
图5为本发明又一种实施例的显示方法的流程图;
图6为本发明实施例提供的一种增强现实显示设备的示意图;
图7为本发明一种实施例的增强现实显示设备的结构图。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
请参考图1,图1为本发明实施例提供的一种显示方法的流程图,由图可知,所述显示方法包括以下步骤:
S10:获取用户眼睛在图像中的注视位置。
在用户使用增强现实显示设备观看时,监控用户眼睛的注视位置,获取用户眼睛在增强现实显示设备所显示图像中的注视位置,用户眼睛在所显示图像中的注视位置是指用户眼睛的视线对应落在所显示图像中的位置。
S11:根据输入的第一指令,生成包含预设图形的所述图像,使得在所述图像中以所述预设图形框出包含用户眼睛注视位置的区域。
第一指令指示了所述预设图形在所述图像中的位置和所框出区域的大小。根据确定出的用户眼睛的注视位置,根据输入的第一指令,在图像中以预设图形框出用户眼睛关注的区域。
S12:根据预设显示策略在所述图像中显示所述预设图形所框出区域的内容。根据预设显示策略调整图像中预设图形所框出区域的内容,显示给用户。
本实施例的显示方法通过监控用户眼睛的注视位置,进而根据预设显示策略调整图像中用户眼睛所关注区域的内容,向用户显示,因此其显示更加智能化,有助于扩展其应用范围。
下面结合具体实施方式对本显示方法进行详细说明。请参考图2,图2为一种实施例的显示方法的流程图,本实施例的显示方法包括以下步骤:
S21:获取用户眼睛在图像中的注视位置。
在用户使用增强现实显示设备观看时,监控用户眼睛的注视位置,获取用户眼睛在增强现实显示设备所显示图像中的注视位置。可选的,获取用户眼睛在图像中的注视位置可采用以下方法,具体包括:获取用户的眼球图像,根据眼球图像确定用户眼球的位置和转动角度,进一步根据用户眼球的位置和转动角度获得用户眼睛在所述图像中的注视位置。在实际应用中,可以在用户佩戴的增强现实显示设备上设置眼球追踪装置,眼球追踪装置包括微型摄像头,通过微型摄像头获取用户的眼球图像,进而监控用户眼睛的注视位置。请参考图3,图3为一种实施例的设置有眼球追踪装置的增强现实显示设备的示意图,如图所示在AR眼镜10上设置微型摄像头11,通过微型摄像头11获取用户的眼球图像,进而监控用户眼睛的注视位置。在其它实施例中并不限于上述方法,也可采用其它能实现监控用户眼睛的注视位置的方式。
S22:根据输入的第一指令,生成包含预设图形的所述图像,使得在所述图像中以所述预设图形框出包含用户眼睛注视位置的区域,所述第一指令指示了所述预设图形在所述图像中的位置和所框出区域的大小。
具体的,根据输入的第一指令生成包含预设图形的图像具体过程如下:
S220:生成包含所述预设图形的所述图像,并在所述图像中改变所述预设图形的位置或者所述预设图形所框出区域的大小。
S221:当获取到所述第一指令时,在所述图像中停止改变所述预设图形的位置或者所述预设图形所框出区域的大小。
示例性的,增强现实显示设备向用户显示的图像可以是基于获取的现实场景图像生成,请参考图4(a),图4(a)为一种实施例中增强现实显示设备所显示的包含预设图形的图像,用户使用增强现实显示设备观察道路路况,用户关注远距离处的道路标示牌,但在显示图像中远距离处的道路标示牌小并且内容模糊,这种情况下监控到用户眼睛的注视位置对应于图像中显示的标示牌处,进而在图像中以预设图形(图中采用虚线方形框)框出用户关注区域。在用户确认之前,图像中显示的预设图形的位置和框出区域大小在改变,供用户选择关注区域范围,当用户输入第一指令确认后,在图像中预设图形的位置和框出区域大小确定。
在具体实施时,用户可以通过触控实体按键输入第一指令,比如在AR眼镜的镜腿上设置触控面板或者机械按键,用户通过触控面板或者机械按键输入指令。或者用户可通过语音输入第一指令,来确认在图像中预设图形框出的位置和区域范围。
S23:根据预设显示策略在所述图像中显示所述预设图形所框出区域的内容,所述预设显示策略包括:在所述图像中所述预设图形所框出区域的内容占的面积比例增大。
根据在图像中框出区域,调整所显示图像,使得在图像中预设图形所框出区域的内容占的面积比例增大。在一种实施方式中,增强现实显示设备向用户显示的图像为基于获取的现实场景图像生成,可选的在本实施方式中,可通过按照预设方式获取现实场景图像,进而使得在所述图像中预设图形所框出区域的内容占的面积比例增大。示例性的,预设方式可以是改变图像获取装置的摄像参数,图像获取装置用于获取现实场景图像,摄像参数包括但不限于图像获取装置的焦距或者镜头方向,通过改变图像获取装置的摄像参数,使在显示图像中预设图形所框出区域的内容占的面积比例增大。示例性的请参考图4(b),图4(b)为对图4(a)所示图像根据预设显示策略调整后的图像,可看出通过按照预设方式获取现实场景图像,使得在增强现实显示设备所显示的图像中用户关注区域的内容放大,更清晰地显示道路标示牌内容,使得用户更准确地获取图像信息。
进一步优选的,所述预设显示策略还包括:针对所述预设图形所框出区域添加标注数据,并生成包含标注符号的所述图像,使得在所述图像中所述标注符号与所述预设图形所框出区域关联。本实施例方法,针对显示图像中预设图形所框出区域还可添加标注数据,标注数据可以包括但不限于文本数据或者语音数据,标注数据可以是由用户确认添加,比如可以添加用于标注预设图形的标记时间、标记主题或者标记目的等数据。并且,相应在所显示图像中生成标注符号,在显示图像中标注符号与预设图形所框出区域关联,用户根据标注符号可得知图像添加了标注数据以及对应哪一区域添加了标注数据,通过触发标注符号可以读取对应的标注数据。示例性的请参考图4(b),可以看出图像中显示出标注符号20,该标注符号20指示用户该图像添加了语音形式的标注数据。
因此通过在显示图像中对用户关注区域添加标注数据,能够为用户使用增强现实显示设备带来便利性和智能性,提升用户的使用体验。
进一步的,若本实施例显示方法应用于增强现实显示设备,所显示图像为基于获取的现实场景图像生成,通过图像获取装置捕获现实场景的光线而获取现实场景图像。相应的,请参考图2,本实施例的显示方法还包括以下步骤:
S20:根据输入的第二指令,控制开启或者关闭图像获取装置。
当开启图像获取装置时,增强现实显示设备根据图像获取装置获取的现实场景图像生成所述图像,当关闭图像获取装置时,图像获取装置不捕获现实场景的光线。通过图像获取装置获取外界现实场景的图像,能够扩大用户使用增强现实设备观看外界现实场景的观察距离范围。比如对于远距离场景,若用户直接通过眼睛观看现实场景,看到的远处场景图像小或者不清晰,而设置增强现实显示设备通过图像获取装置捕获外界现实场景的光线,生成图像向用户显示,比如图像获取装置采用长焦摄像头能够获取到远距离场景的清晰图像,能够使用户观察到远距离场景的清晰图像。
当用户使用增强现实显示设备观看时,可以通过输入第二指令控制开启或者关闭图像获取装置,若用户想通过图像获取装置获取外界现实场景的图像来观看,可以通过输入第二指令控制开启图像获取装置。示例性的,用户可以通过触控实体按键输入第二指令,比如在AR眼镜的镜腿上可设置触控面板或者机械按键,用户通过触控面板或者机械按键输入指令,或者用户可通过语音输入第二指令,来控制开启图像获取装置。
进一步的,本实施例的显示方法还包括:将所述图像存储或者上传到共享平台。用户使用增强现实显示设备观看过程中,可以根据应用需要将显示图像存储或者上传到共享平台,为用户使用带来便利性。
因此,本实施例的显示方法通过监控用户眼睛的注视位置,进而根据预设显示策略调整图像中用户眼睛所关注区域的内容,使得在图像中预设图形所框出区域的内容占的面积比例增大,便于用户更准确地、更详细地获取关注区域的信息,其显示更加智能化,有助于扩展其应用范围,为用户带来更优的使用体验。
请参考图5,图5为又一种实施例的显示方法的流程图,本实施例的显示方法包括以下步骤:
S30:获取用户眼睛在图像中的注视位置。
可选的,获取用户眼睛在图像中的注视位置可采用以下方法,具体包括:获取用户的眼球图像,根据眼球图像确定用户眼球的位置和转动角度,进一步根据用户眼球的位置和转动角度获得用户眼睛在所述图像中的注视位置。在实际应用中,可以在用户佩戴的增强现实显示设备上设置眼球追踪装置,眼球追踪装置包括微型摄像头,通过微型摄像头获取用户的眼球图像,进而监控用户眼睛的注视位置。在其它实施例中并不限于上述方法,也可采用其它能实现监控用户眼睛的注视位置的方法。
S31:根据输入的第一指令,生成包含预设图形的所述图像,使得在所述图像中以所述预设图形框出包含用户眼睛注视位置的区域,所述第一指令指示了所述预设图形在所述图像中的位置和所框出区域的大小。
本步骤根据第一指令生成包含预设图形的图像,使得在图像中以预设图形框出包含用户眼睛注视位置的区域的具体实施方式可参考上一实施例的相应描述内容,在此不再赘述。
S32:根据预设显示策略在所述图像中显示所述预设图形所框出区域的内容。所述预设显示策略包括:对所述预设图形所框出区域的图像进行处理,使得在所述图像中所述预设图形所框出区域的图像质量大于所述图像中其它区域的图像质量。
图像质量是指描述图像显示效果的参量,图像质量越大表示用户观看图像时越容易获取图像信息。本实施例中,通过对预设图形所框出区域的图像进行处理,使得在增强现实显示设备所显示的图像中预设图形所框出区域的图像质量大于图像中其它区域的图像质量,使得所显示图像中用户关注区域的图像质量较大,图像显示效果更好,更便于用户观察图像,能更容易地获取图像信息。
可选的,对预设图形所框出区域的图像进行处理包括但不限于增加对比度、增强清晰度、去噪、补偿色彩或者弱化畸变的处理,以提高所框出区域的图像质量,在其它实施例中也可以对预设图形所框出区域的图像进行其它能够提高图像质量的处理方式,也都在本发明保护范围内。
因此,本实施例的显示方法通过监控用户眼睛的注视位置,进而根据预设显示策略调整用户眼睛所关注区域的内容,具体可通过对用户眼睛所关注区域的图像处理,提高关注区域的图像质量,向用户显示,使得用户关注区域的图像显示效果更好,更便于用户观察图像,能更容易地获取图像信息。从而本显示方法的显示更加智能化,有助于扩展增强现实设备的应用范围,为用户带来更优的使用体验。
请参考图6,图6为本发明实施例提供的一种增强现实显示设备的示意图,所述增强现实显示设备包括显示部件40、眼球追踪装置41和处理装置42;
所述眼球追踪装置41用于获取用户眼睛在图像中的注视位置;
所述处理装置42与所述眼球追踪装置41、所述显示部件40分别相连,用于根据输入的第一指令,生成包含预设图形的所述图像,使得在所述图像中以所述预设图形框出包含用户眼睛注视位置的区域,所述第一指令指示了所述预设图形在所述图像中的位置和所框出区域的大小,以及根据预设显示策略在所述图像中显示所述预设图形所框出区域的内容;
所述显示部件40用于将生成的所述图像以及现实场景的光线叠加引导入用户眼睛。
本实施例的增强现实显示设备,能够获取用户眼睛在图像中的注视位置,然后根据输入的第一指令,生成包含预设图形的图像,使得在图像中以预设图形框出包含用户眼睛注视位置的区域,进一步根据预设显示策略在图像中显示预设图形所框出区域的内容。本实施例的增强现实显示设备通过监控用户眼睛的注视位置,进而根据预设显示策略调整图像中用户眼睛所关注区域的内容,因此其显示更加智能化,有助于扩展其应用范围。
进一步的,本实施例的增强现实显示设备还包括图像获取装置43,用于捕获现实场景的光线而获取现实场景图像。本实施例中,显示部件40、眼球追踪装置41、图像获取装置43以及处理装置42所执行的图像获取、图像处理、图像显示以及智能控制的具体方法均可参考上述关于显示方法的详细描述内容。
示例性的请参考图7,图7为一种实施例的增强现实显示设备的结构图,本实施例中增强现实显示设备采用眼镜结构,显示部件包括投像装置50和镜片51,投像装置50用于输出图像光线,图像光线是指携带图像信息的光线,镜片51用于将图像光线引导入用户眼睛,用户眼睛获取到图像光线从而能够观看到图像即“虚拟图像”,以及现实场景的光线能够透过镜片51进入用户眼睛。增强现实设备上设置有图像获取装置52,用于捕获现实场景的光线而获取现实场景图像;还设置有语音装置53,用于获取用户产生的语音信号。
以上对本发明所提供的一种显示方法及增强现实显示设备进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.一种显示方法,其特征在于,包括:
获取用户眼睛在图像中的注视位置;
根据输入的第一指令,生成包含预设图形的所述图像,使得在所述图像中以所述预设图形框出包含用户眼睛注视位置的区域,所述第一指令指示了所述预设图形在所述图像中的位置和所框出区域的大小;
根据预设显示策略在所述图像中显示所述预设图形所框出区域的内容。
2.根据权利要求1所述的显示方法,其特征在于,所述预设显示策略包括:在所述图像中所述预设图形所框出区域的内容占的面积比例增大。
3.根据权利要求2所述的显示方法,其特征在于,所述图像为基于获取的现实场景图像生成,通过按照预设方式获取现实场景图像,使得在所述图像中所述预设图形所框出区域的内容占的面积比例增大。
4.根据权利要求1所述的显示方法,其特征在于,所述预设显示策略包括:针对所述预设图形所框出区域添加标注数据,并生成包含标注符号的所述图像,使得在所述图像中所述标注符号与所述预设图形所框出区域关联。
5.根据权利要求1所述的显示方法,其特征在于,所述预设显示策略包括:对所述预设图形所框出区域的图像进行处理,使得在所述图像中所述预设图形所框出区域的图像质量大于所述图像中其它区域的图像质量。
6.根据权利要求5所述的显示方法,其特征在于,对所述预设图形所框出区域的图像进行处理包括增加对比度、增强清晰度、去噪、补偿色彩或者弱化畸变的处理。
7.根据权利要求1-6任一项所述的显示方法,其特征在于,通过触控实体按键输入所述第一指令,或者通过语音输入所述第一指令。
8.根据权利要求1-6任一项所述的显示方法,其特征在于,获取用户眼睛在图像中的注视位置包括:获取用户的眼球图像,根据眼球图像确定用户眼球的位置和转动角度,获得用户眼睛在所述图像中的注视位置。
9.一种增强现实显示设备,其特征在于,包括显示部件、眼球追踪装置和处理装置;
所述眼球追踪装置用于获取用户眼睛在图像中的注视位置;
所述处理装置与所述眼球追踪装置、所述显示部件分别相连,用于根据输入的第一指令,生成包含预设图形的所述图像,使得在所述图像中以所述预设图形框出包含用户眼睛注视位置的区域,所述第一指令指示了所述预设图形在所述图像中的位置和所框出区域的大小,以及根据预设显示策略在所述图像中显示所述预设图形所框出区域的内容;
所述显示部件用于将生成的所述图像以及现实场景的光线叠加引导入用户眼睛。
10.根据权利要求9所述的增强现实显示设备,其特征在于,还包括图像获取装置,用于捕获现实场景的光线而获取现实场景图像,所述图像为基于获取的现实场景图像生成。
CN202010344708.4A 2020-04-27 2020-04-27 一种显示方法及增强现实显示设备 Pending CN111563432A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010344708.4A CN111563432A (zh) 2020-04-27 2020-04-27 一种显示方法及增强现实显示设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010344708.4A CN111563432A (zh) 2020-04-27 2020-04-27 一种显示方法及增强现实显示设备

Publications (1)

Publication Number Publication Date
CN111563432A true CN111563432A (zh) 2020-08-21

Family

ID=72071871

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010344708.4A Pending CN111563432A (zh) 2020-04-27 2020-04-27 一种显示方法及增强现实显示设备

Country Status (1)

Country Link
CN (1) CN111563432A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140168056A1 (en) * 2012-12-19 2014-06-19 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
US20150049113A1 (en) * 2013-08-19 2015-02-19 Qualcomm Incorporated Visual search in real world using optical see-through head mounted display with augmented reality and user interaction tracking
CN104395857A (zh) * 2012-05-09 2015-03-04 英特尔公司 显示器的部分的基于眼球追踪的选择性强调
CN107765842A (zh) * 2016-08-23 2018-03-06 深圳市掌网科技股份有限公司 一种增强现实方法及系统
CN109714583A (zh) * 2019-01-22 2019-05-03 京东方科技集团股份有限公司 增强现实的显示方法及增强现实的显示系统
CN110072070A (zh) * 2019-03-18 2019-07-30 华为技术有限公司 一种多路录像方法及设备
CN110333779A (zh) * 2019-06-04 2019-10-15 Oppo广东移动通信有限公司 控制方法、终端和存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104395857A (zh) * 2012-05-09 2015-03-04 英特尔公司 显示器的部分的基于眼球追踪的选择性强调
US20140168056A1 (en) * 2012-12-19 2014-06-19 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
CN104823152A (zh) * 2012-12-19 2015-08-05 高通股份有限公司 使用视线追踪实现扩增实境
US20150049113A1 (en) * 2013-08-19 2015-02-19 Qualcomm Incorporated Visual search in real world using optical see-through head mounted display with augmented reality and user interaction tracking
CN107765842A (zh) * 2016-08-23 2018-03-06 深圳市掌网科技股份有限公司 一种增强现实方法及系统
CN109714583A (zh) * 2019-01-22 2019-05-03 京东方科技集团股份有限公司 增强现实的显示方法及增强现实的显示系统
CN110072070A (zh) * 2019-03-18 2019-07-30 华为技术有限公司 一种多路录像方法及设备
CN110333779A (zh) * 2019-06-04 2019-10-15 Oppo广东移动通信有限公司 控制方法、终端和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
徐国标等: "增强现实技术在远程塔台管制中的应用", 《中国民航飞行学院学报》, pages 66 - 70 *

Similar Documents

Publication Publication Date Title
EP3035681B1 (en) Image processing method and apparatus
US7221863B2 (en) Image processing apparatus and method, and program and recording medium used therewith
CN103533340B (zh) 移动终端的裸眼3d播放方法和移动终端
EP2920683A1 (en) Method of providing a digitally represented visual instruction from a specialist to a user in need of said visual instruction, and a system therefor
CN109901710A (zh) 媒体文件的处理方法和装置、存储介质及终端
CN109901290B (zh) 注视区域的确定方法、装置及可穿戴设备
CA2875261A1 (en) Apparatus and method for a bioptic real time video system
EP3862981A1 (en) Information processing device, information processing method, and recording medium
CN108957742B (zh) 一种实现画面虚拟透明动态调节的增强现实头盔及方法
JP2009246408A (ja) 対話装置、画像処理モジュール、画像処理方法およびプログラム
JP2018513656A (ja) 画像強調可能な眼鏡構造
JP2012513604A (ja) 光学レンズの光学効果をシミュレーションするための方法及び装置
CN112068300B (zh) 基于医疗显微影像的快门式自适应3d显示系统
US10989927B2 (en) Image frame synchronization in a near eye display
JP2011049988A (ja) 画像処理装置およびカメラ
CN111563432A (zh) 一种显示方法及增强现实显示设备
US20170352173A1 (en) Image Processing Method and Device
CN111736692B (zh) 显示方法、显示装置、存储介质与头戴式设备
KR20080033681A (ko) 두부 장착식 디스플레이 장치의 시력 보조 방법 및 그 두부장착식 디스플레이 장치
CN115686181A (zh) 一种显示方法与电子设备
CN113068003A (zh) 数据显示方法、装置、智能眼镜、电子设备和存储介质
CN113960788A (zh) 图像显示方法、装置、ar眼镜及存储介质
RU210426U1 (ru) Устройство для трансляции дополненной реальности
WO2023238662A1 (ja) 情報処理装置、情報処理方法、および記録媒体
US9523853B1 (en) Providing focus assistance to users of a head mounted display

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200821

RJ01 Rejection of invention patent application after publication