CN110826465B - 可穿戴设备显示的透明度调整方法和装置 - Google Patents

可穿戴设备显示的透明度调整方法和装置 Download PDF

Info

Publication number
CN110826465B
CN110826465B CN201911054630.6A CN201911054630A CN110826465B CN 110826465 B CN110826465 B CN 110826465B CN 201911054630 A CN201911054630 A CN 201911054630A CN 110826465 B CN110826465 B CN 110826465B
Authority
CN
China
Prior art keywords
transparency
scene
priority
objects
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911054630.6A
Other languages
English (en)
Other versions
CN110826465A (zh
Inventor
刘召军
梁枫
严格维
邱成峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southern University of Science and Technology
Original Assignee
Southern University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southern University of Science and Technology filed Critical Southern University of Science and Technology
Priority to CN201911054630.6A priority Critical patent/CN110826465B/zh
Publication of CN110826465A publication Critical patent/CN110826465A/zh
Application granted granted Critical
Publication of CN110826465B publication Critical patent/CN110826465B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种可穿戴设备显示的透明度调整方法和装置,其中,方法包括:通过获取当前视觉画面内的至少一个现实对象和至少一个虚拟对象;并根据预设规则确定用户所在的当前场景;接着根据场景与对象优先级排列顺序之间的对应关系,确定当前场景下至少一个现实对象和至少一个虚拟对象中各个对象的优先级顺序;根据预设的优先级顺序与透明度顺序的对应关系,调节各个对象的透明度,从而动态调整用户视觉画面内虚拟对象以及现实对象的透明度,在避免频繁手动调整透明度的情况下,以实时保持最佳的显示效果。

Description

可穿戴设备显示的透明度调整方法和装置
技术领域
本发明实施例涉及增强现实显示技术领域,尤其涉及一种可穿戴设备显示的透明度调整方法和装置。
背景技术
目前,随着科技的发展,增强现实(Augmented Reality,AR)眼镜得到普及,用户可以在各种场合下使用AR眼镜。现有技术中,用户在马路上时,为了避免AR眼镜中的虚拟物体或虚拟画面影响用户注意现实环境中的人或物,一般均对虚拟物体或者虚拟画面手动调整透明度至半透明度或者更高的透明度显示;在客厅时,几乎不需要注意现实环境中的人或物,又手动调整虚拟物体或者虚拟画面透明度至不透明显示。但这样存在的问题是,用户在各个场景下切换,如果为了虚拟物体或虚拟画面有更好的显示效果,那么需要频繁手动调整透明度,如果为了避免频繁手动调整,那就需要以固定的透明度显示虚拟物体或者虚拟画面,可能显示效果不佳。
发明内容
本发明提供一种可穿戴设备显示的透明度调整方法和装置,以实现用户在不同场景切换时,动态调整用户视觉画面内虚拟对象以及现实对象的透明度,在避免频繁手动调整透明度的情况下,以实时保持最佳的显示效果。
为实现上述目的,本发明一方面实施例提出了一种可穿戴设备显示的透明度调整方法,其中,所述可穿戴设备为AR眼镜,包括以下步骤:
获取当前视觉画面内的至少一个现实对象和至少一个虚拟对象;根据预设规则确定用户所在的当前场景;根据场景与对象优先级排列顺序之间的对应关系,确定所述当前场景下所述至少一个现实对象和所述至少一个虚拟对象中各个对象的优先级顺序;根据预设的优先级顺序与透明度顺序的对应关系,调节所述各个对象的透明度。
可选地,所述调节所述各个对象的透明度包括:调节所述虚拟对象的透明度以及所述现实对象的补光强度。
可选地,在所述调节所述各个对象的透明度之后,还包括:获取调节后优先级最高的第一对象;根据眼球追踪算法获取用户当前关注的第二对象;判断所述第一对象和第二对象的优先级的级数之差大于预设阈值时,记录所述用户持续关注所述第二对象的时长;确定所述时长大于预设时长时,调节所述第二对象的优先级最高,调节之前优先级高于所述第二对象的优先级均降低一级。
可选地,所述根据眼球追踪算法获取用户当前关注的第二对象之后,还包括:判断所述第一对象和第二对象的优先级的级数之差小于预设阈值时,不做任何处理。
可选地,所述获取当前视觉画面内的至少一个现实对象和至少一个虚拟对象,包括:获取现实环境中至少一个所述现实对象的图像,根据所述现实对象的图像生成现实对象模型;获取虚拟环境中生成虚拟对象的指令并根据所述指令生成虚拟对象模型。
可选地,所述根据预设规则确定用户所在的当前场景包括:根据场景与该场景下至少一个特征对象的对应关系,确定所述至少一个现实对象对应的第一场景,并将所述第一场景作为所述当前场景,其中,所述特征对象为所述至少一个现实对象中的一个。
可选地,采用深度学习方法获取所述场景与该场景下至少一个特征对象的对应关系,以及场景与对象优先级排列顺序之间的对应关系。
可选地,所述根据预设优先级顺序与透明度顺序的对应关系,调节所述各个对象的透明度包括:按照优先级降序顺序排列的各所述对象的透明度依次增大。
可选地,在所述根据预设规则确定用户所在的当前场景之后,,还包括:确定所述当前场景是否为预设的特殊场景之一,若是,则将所有所述虚拟对象的透明度调节为100%。
为实现上述目的,本发明另一方面实施例提出了一种可穿戴设备显示的透明度调整装置,包括:
获取模块,用于获取当前视觉画面内的至少一个现实对象和至少一个虚拟对象;
场景确定模块,用于根据预设规则确定用户所在的当前场景;
优先级确定模块,用于根据场景与对象优先级排列顺序之间的对应关系,确定所述当前场景下所述至少一个显示对象和所述至少一个虚拟对象中各个对象的优先级顺序;
调整模块,用于根据预设优先级顺序与透明度顺序的对应关系,调节所述各个对象的透明度。
综上所述,根据本发明实施例提出的可穿戴设备显示的透明度调整方法和装置,通过获取当前视觉画面内的至少一个现实对象和至少一个虚拟对象;并根据预设规则确定用户所在的当前场景;接着根据场景与对象优先级排列顺序之间的对应关系,确定当前场景下至少一个现实对象和至少一个虚拟对象中各个对象的优先级顺序;根据预设的优先级顺序与透明度顺序的对应关系,调节各个对象的透明度,从而动态调整用户视觉画面内虚拟对象以及现实对象的透明度,在避免频繁手动调整透明度的情况下,以实时保持最佳的显示效果。
附图说明
图1为本发明实施例的可穿戴设备显示的透明度调整方法流程图;
图2是本发明一个实施例的可穿戴设备显示的透明度调整方法流程图;
图3是本发明另一个实施例的可穿戴设备显示的透明度调整方法流程图;
图4是本发明又一个实施例的可穿戴设备显示的透明度调整方法流程图;
图5是本发明再一个实施例的可穿戴设备显示的透明度调整方法流程图;
图6是本发明实施例的可穿戴设备显示的透明度调整装置方框示意图;
图7是本发明一个实施例的可穿戴设备显示的透明度调整装置方框示意图;
图8是本发明另一个实施例的可穿戴设备显示的透明度调整装置方框示意图;
图9是本发明又一个实施例的可穿戴设备显示的透明度调整装置方框示意图;
图10是本发明再一个实施例的可穿戴设备显示的透明度调整装置方框示意图;
图11是本发明再一个实施例的可穿戴设备显示的透明度调整装置方框示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
针对现有技术中为了避免保持显示效果,频繁手动调整透明度,或者为了避免频繁手动调整透明度,而牺牲显示效果的问题,本发明的基本构思如下:通过深度学习方法动态识别用户当前所处的场景,以及场景中各个现实对象和虚拟对象的种类和特征,并根据该场景与对象优先级排列顺序之间的对应关系,对该场景下各个对象进行优先级顺序排列,从而根据优先级顺序与透明度顺序之间的对应关系,自动动态调整各个对象的透明度,以保证在各个场景下显示效果都为最佳。
以下结合附图来进一步描述本发明。图1是本发明实施例的可穿戴设备显示的透明度调整方法的流程图。其中,可穿戴设备为AR眼镜,该可穿戴设备显示的透明度调整方法包括以下步骤:
S1,获取当前视觉画面内的至少一个现实对象和至少一个虚拟对象。
其中,当前视觉画面是指用户佩戴AR眼镜之后,以用户的视角可以看到的视角范围。现实对象为用户所处现实环境中的人或物体等,虚拟对象为用户视角中可看到的虚拟界面或者三维虚拟物体等。
需要说明的是,如图2所示,步骤S1包括:
S11,获取现实环境中至少一个现实对象的图像,根据现实对象的图像生成现实对象模型;
其中,可以通过AR眼镜上的深度摄像头和RGB摄像头获取现实对象,深度摄像头可对现实对象三维建模,RGB摄像头可获取该现实对象的二维图像,进而实现对现实对象上色,从而深度摄像头和RGB摄像头结合获取到用户所处场景中最真实的现实对象。
S12,获取虚拟环境中生成虚拟对象的指令并根据指令生成虚拟对象模型。
其中,AR眼镜根据用户的指令生成虚拟对象模型。举例来说,用户的指令可以为动态的视频、静态的三维虚拟物体(小猫等)或者平面地图等,可根据用户的需求指令生成。
S2,根据预设规则确定用户所在的当前场景。
步骤S2包括:根据场景与该场景下至少一个特征对象的对应关系,确定所述至少一个现实对象对应的第一场景,并将所述第一场景作为所述当前场景,其中,所述特征对象为所述至少一个现实对象中的一个。
其中,特征对象为最能代表该场景属性的现实对象,比如床可以作为卧室场景的特征对象,沙发可以作为客厅的特征对象,行驶的汽车可以作为马路的特征对象,以及黑板可以作为教室的特征对象。在通过AR眼镜的深度摄像头和RGB摄像头捕捉到现实对象之后,经过分析识别现实对象的种类和特征,以识别用户当前所处的场景。可以理解是,特征对象与场景的对应关系可以提前预存在AR眼镜中,并通过深度学习方法学习完善特征对象与场景的对应关系。
S3,根据场景与对象优先级排列顺序之间的对应关系,确定当前场景下至少一个现实对象和至少一个虚拟对象中各个对象的优先级顺序。
也就是说,在确定用户所处的场景之后,可根据该场景下对应的各个对象优先级排列的顺序,对当前场景下的各个现实对象和各个虚拟对象进行优先级排序。
需要解释的是,在每种场景下,各个对象的优先级顺序,用户可以根据自己的行为习惯进行标定。举例来说,在某实验室的场景下,现实环境中有试验台、实验仪器、黑板和老师,虚拟显示中有实验操作流程介绍界面、实验仪器介绍界面、电子地图和娱乐节目显示界面。那用户可以根据在实验室的场景,按照优先级降序的顺序依次排列为实验仪器介绍界面、实验操作流程介绍界面、实验仪器、老师、黑板、试验台、电子地图和娱乐节目显示界面。
或者,在客厅的场景下,现实环境中有沙发、茶几和爱人,虚拟显示中有实验操作流程介绍界面、电子地图和娱乐节目显示界面,那用户可以根据在客厅的场景,按照优先级降序的顺序依次排列为爱人、沙发、茶几、娱乐节目显示界面、电子地图、实验仪器介绍界面和实验操作流程介绍界面。
或者,在马路上,现实环境中有流动的车辆、行人、爱人、房屋,虚拟显示中有实验操作流程介绍界面、实验仪器介绍界面、电子地图和娱乐节目显示界面,那用户可以根据在马路的场景,按照优先级降序的顺序依次排列为流动的车辆、爱人、电子地图、行人、娱乐节目显示界面、实验仪器介绍界面和实验操作流程介绍界面。
或者,在每种场景下,各个对象的优先级顺序,用户还可以先根据自己的职业、爱好等来进行标定。举例来说,如果用户的职业是医生,爱好是遛狗,那么在每种场景下,跟医生和狗相关的对象的优先级比其他对象的优先级高。例如现实环境为客厅,现实环境中有沙发、茶几、医学书籍、狗狗和爱人,虚拟显示中有实验操作流程介绍界面、电子地图和娱乐节目显示界面,那么用户可以根据客厅的场景,按照优先级降序的顺序依次排列为医学书籍、狗狗、沙发、茶几、娱乐节目显示界面、实验仪器介绍界面和实验操作流程介绍界面。
总的来说,用户可以根据自己行为喜好、或者对象与用户的相关重要程度等标定对应场景下的对象的优先级以形成数据库,提前载入AR眼镜中,形成该场景之下的场景与对象优先级排列顺序之间的对应关系,用户处于该场景之后,无需再手动调整透明度。
S4,根据预设的优先级顺序与透明度顺序的对应关系,调节各个对象的透明度。
所述步骤S4包括:按照优先级降序顺序排列的各所述对象的透明度依次增大。
也就是说,对用户当前视觉画面内的现实对象和虚拟对象进行优先级排序之后,按照优先级越高,透明度越低,或者优先级越低,透明度越高的规则来调整各个对象的透明度。
举例来说,在实验室内,按照优先级降序的顺序依次排列为实验操作流程介绍界面、实验仪器介绍界面、实验仪器、老师、黑板、试验台、电子地图和娱乐节目显示界面,那么,可将实验仪器介绍界面、实验操作流程介绍界面、实验仪器、老师、黑板、试验台、电子地图和娱乐节目显示界面的透明度依次调高。虚拟的实验仪器介绍界面可以透明度最低为0,虚拟的娱乐节目显示界面透明度最高为100%,期间按0-100中的透明度等分,比如实验操作流程介绍界面14.2%、实验仪器28.5%、老师42.8%、黑板57.1%、试验台71.4%、电子地图85.7%。以该透明度显示各个对象。
可选地,调节各个对象的透明度包括:调节虚拟对象的透明度以及现实对象的补光强度。
也就是说,对于虚拟对象,可以直接按照混合颜色的比例不同实现透明度的调节,混合颜色的比例按照优先级顺序划分。混合颜色比例多,则虚拟对象的亮度高,透明度低,混合颜色比例少,则虚拟对象的亮度低,透明度高。对于现实对象,可以通过对现实对象的补光强度来调节进入用户眼睛内的光亮的多少,补光强度大,则现实对象反射到人眼中的光强大,亮度高,透明度低,反之,补光强度小,则现实对象发射到人眼中的光强小,亮度低,透明度高。
需要说明的是,根据确定场景下各个对象的优先级顺序排序,将各个对象的透明度从0-100%均匀划分,对应各个对象的显示亮度百分比,从而使得用户在该场景下可以关注到需要被关注的对象,并且越需要被关注的对象的优先级越高,亮度越高,显示效果越好。而对于不需要被关注的对象,优先级排序越低,亮度越低,几乎不出现在用户视觉范围内。
可选地,如图3所示,在步骤S4之后,还包括步骤:
S5,获取调节后优先级最高的第一对象;
S6,根据眼球追踪算法获取用户当前关注的第二对象;
S7,判断第一对象和第二对象的优先级的级数之差大于预设阈值时,记录用户持续关注第二对象的时长;
其中,预设阈值可以为各个对象中最低优先级级数的一半,比如共有8个对象,优先级级数依次为1、2、3、4、5、6、7、8,优先级级数1代表最高级,优先级级数8代表最低级,那么预设阈值为4。
比如共有7个对象,优先级级数依次为1、2、3、4、5、6、7,优先级级数1代表最高级,优先级级数7代表最低级,那么预设阈值为3.5。
S8,确定时长大于预设时长时,调节第二对象的优先级最高,调节之前优先级高于第二对象的优先级均降低一级。
举例来说,虚拟的实验仪器介绍界面可以透明度最低为0,虚拟的娱乐节目显示界面透明度最高为100%,期间按0-100中的透明度等分,比如实验操作流程介绍界面14.2%、实验仪器28.5%、老师42.8%、黑板57.1%、试验台71.4%、电子地图85.7%。以该透明度显示各个对象。
可以理解的是,在用户使用AR眼镜时,虽然实验仪器介绍界面的优先级最高,且透明度最低,但是,在某一时刻,比如用户看完实验仪器介绍界面,注意实验操作流程介绍界面时,或者,在某一时刻,用户已经做完实验,休息片刻的时候,注意到虚拟的娱乐节目显示界面时,在该时刻,用户注意力并未注意在优先级最高的实验仪器介绍界面,而是注意到其他对象,进而为了最佳的显示效果,需要判断是否要调节用户当前注意对象的透明度。
当用户注意力从实验仪器介绍界面转移至娱乐节目显示界面时,实验仪器介绍界面与娱乐节目显示界面的优先级差7级,大于预设阈值4级,进而需要判断用户注意娱乐节目显示界面的时长,如果注意时长大于预设时长,比如0.5s,则将娱乐节目显示界面的优先级提到最高,其余对象的优先级均依次降低一级,避免用户只是短时间注意娱乐节目显示界面,而不是真正需要注意娱乐节目显示界面,造成优先级误调。
可选地,如图4所示,在步骤S6之后,还包括步骤S9:判断第一对象和第二对象的优先级的级数之差小于预设阈值时,不做任何处理。
需要说明的是,当用户注意力从实验仪器介绍界面转移实验操作流程介绍界面时,实验仪器介绍界面的优先级与实验操作流程介绍界面的优先级只差一级,他们的透明度比较相近,进而不调整透明度,默认现在显示效果最佳。避免透明度频繁改变造成资源浪费。
可选地,如图5所示,在步骤S2之后,还包括步骤S10:确定当前场景是否为预设的特殊场景之一,若是,则将所有虚拟对象的透明度调节为100%。
其中,特殊场景可以为,出现行走的车辆的特征对象,识别场景为马路,当行走车辆向用户驶来时,可以识别该场景为特殊场景,在该场景下,直接将所有虚拟对象的透明度调节为100%。
或者特殊场景还可以为其他的紧急情况,这里不作具体限定。
可选地,采用深度学习方法获取场景与该场景下至少一个特征对象的对应关系,以及场景与对象优先级排列顺序之间的对应关系。
也就是说,根据场景中的特征对象确定场景,特征对象与场景的对应关系可由深度学习方法获取。同样地,场景与对象优先级排列顺序之间的对应关系也可由深度学习的方法获取。深度学习系统包括:CNN神经网络模块,用于根据AR眼镜的深度摄像头和RGB摄像头捕捉的图像、以及根据虚拟对象指令生成的虚拟对象,分析各个对象的种类以及对象的特征;第一RNN神经网络模块,用于根据现实对象的种类以及对象的特征确定用户所处的场景;数据库,数据库中包含有用户根据对象的种类以及对象的特征提前设置的预设优先级,逻辑判断程序模块,用于根据对象的种类以及对象的特征以及用户指定的特殊规则修改预设优先级,第二RNN神经网络模块,用于根据修改后的预设优先级对各个对象进行优先级排序。进而根据数据库中用户每次设置习惯与规则,深度学习,获取稳定的各个对象的优先级排序顺序。其中,逻辑判断程序模块处理显式规则,比如用户指定一条规则“我在家的时候(场景:家),无论我在干什么,我的宠物的优先级最高”,那么当CNN神经网络模块识别现实对象中有人,并且为男友时,之前预设的在家的场景中男友的优先级是最高的,但在现在指定规则之后,变成宠物优先级最高,进而,在CNN神经网络模块识别现实对象中的宠物时,宠物的优先级高于男友的优先级,从而逻辑判断程序模块根据用户指定的特殊规则对用户提前设置的预设优先级进行修改,第二RNN神经网络模块用于根据修改后的预设优先级对各个对象进行优先级排序,以获取该场景下,场景与对象优先级排列顺序之间的对应关系。
其中,逻辑判断程序模块的作用在于,在用户已经使用了一段时间的AR眼镜,最初根据行为习惯或者职业,爱好等标定的各个场景下的各个对象的优先级(数据库),并且根据注意力调整,优先级排序规则已经趋于稳定,当用户在某次再使用时,可指定特殊规则,这个时候,之前已经学习好的场景与对象优先级之间的对应关系会根据特殊规则进行调整。从而使得场景与对象优先级之间的对应关系更加贴近用户的行为习惯、职业或者爱好。
基于同样的发明构思,本发明另一方面实施例提出了一种可穿戴设备显示的透明度调整装置,如图6所示,包括:
获取模块1,用于获取当前视觉画面内的至少一个现实对象和至少一个虚拟对象;
场景确定模块2,用于根据预设规则确定用户所在的当前场景;
优先级确定模块3,用于根据场景与对象优先级排列顺序之间的对应关系,确定当前场景下至少一个显示对象和至少一个虚拟对象中各个对象的优先级顺序;
调整模块4,用于根据预设优先级顺序与透明度顺序的对应关系,调节各个对象的透明度。
可选地,如图7所示,调整模块4包括调节单元41,调节单元41用于调节虚拟对象的透明度以及现实对象的补光强度。
可选地,如图8所示,可穿戴设备显示的透明度调整装置还包括:
第二获取模块5,用于获取调节后优先级最高的第一对象;
第三获取模块6,用于根据眼球追踪算法获取用户当前关注的第二对象;
第一判断模块7,用于判断第一对象和第二对象的优先级的级数之差大于预设阈值时,记录用户持续关注第二对象的时长;
第二判断模块8,用于确定时长大于预设时长时,调节第二对象的优先级最高,调节之前优先级高于第二对象的优先级均降低一级。
可选地,如图9所示,可穿戴设备显示的透明度调整装置还包括:第三判断模块9,用于判断第一对象和第二对象的优先级的级数之差小于预设阈值时,不做任何处理。
可选地,如图10所示,第一获取模块1包括:现实对象获取单元11,用于获取现实环境中至少一个现实对象的图像,根据现实对象的图像生成现实对象模型;虚拟对象获取单元12,用于获取虚拟环境中生成虚拟对象的指令并根据指令生成虚拟对象模型。
可选地,场景确定模块用于根据场景与该场景下至少一个特征对象的对应关系,确定至少一个现实对象对应的第一场景,并将第一场景作为当前场景,其中,特征对象为至少一个现实对象中的任意一个。
可选地,采用深度学习方法获取场景与该场景下至少一个特征对象的对应关系,以及场景与对象优先级排列顺序之间的对应关系。
可选地,根据预设的优先级顺序与透明度顺序的对应关系,调节各个对象的透明度包括:按照优先级降序顺序排列的各对象的透明度依次增大。
可选地,如图11所示,可穿戴设备显示的透明度调整装置还包括:特殊场景确定模块10,确定当前场景是否为预设的特殊场景之一,若是,则将所有虚拟对象的透明度调节为100%。
上述产品可执行本发明任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。
综上所述,根据本发明实施例提出的可穿戴设备显示的透明度调整方法和装置,通过获取当前视觉画面内的至少一个现实对象和至少一个虚拟对象;并根据预设规则确定用户所在的当前场景;接着根据场景与对象优先级排列顺序之间的对应关系,确定当前场景下至少一个现实对象和至少一个虚拟对象中各个对象的优先级顺序;根据预设的优先级顺序与透明度顺序的对应关系,调节各个对象的透明度,从而动态调整用户视觉画面内虚拟对象以及现实对象的透明度,在避免频繁手动调整透明度的情况下,以实时保持最佳的显示效果。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (8)

1.一种可穿戴设备显示的透明度调整方法,所述可穿戴设备为AR眼镜,其特征在于,包括以下步骤:
获取当前视觉画面内的至少一个现实对象和至少一个虚拟对象;根据预设规则确定用户所在的当前场景;
根据场景与对象优先级排列顺序之间的对应关系,确定所述当前场景下所述至少一个现实对象和所述至少一个虚拟对象中各个对象的优先级顺序;
根据预设的优先级顺序与透明度顺序的对应关系,调节所述各个对象的透明度;
所述调节所述各个对象的透明度包括:
调节所述虚拟对象的透明度以及所述现实对象的补光强度;
在所述调节所述各个对象的透明度之后,还包括:
获取调节后优先级最高的第一对象;
根据眼球追踪算法获取用户当前关注的第二对象;
判断所述第一对象和第二对象的优先级的级数之差大于预设阈值时,记录所述用户持续关注所述第二对象的时长;
确定所述时长大于预设时长时,调节所述第二对象的优先级最高,调节之前优先级高于所述第二对象的优先级均降低一级;
其中,所述可穿戴设备包括深度学习系统,所述深度学习系统包括:第三神经网络模块,用于根据AR眼镜的深度摄像头和RGB摄像头捕捉的图像、以及根据虚拟对象指令生成的虚拟对象,分析各个对象的种类以及对象的特征;第一神经网络模块,用于根据现实对象的种类以及对象的特征确定用户所处的场景;数据库,数据库中包含有用户根据对象的种类以及对象的特征提前设置的预设优先级,逻辑判断程序模块,用于根据对象的种类以及对象的特征以及用户指定的特殊规则修改预设优先级,第二神经网络模块,用于根据修改后的预设优先级对各个对象进行优先级排序。
2.根据权利要求1所述的可穿戴设备显示的透明度调整方法,其特征在于,所述根据眼球追踪算法获取用户当前关注的第二对象之后,还包括:
判断所述第一对象和第二对象的优先级的级数之差小于预设阈值时,不做任何处理。
3.根据权利要求1所述的可穿戴设备显示的透明度调整方法,其特征在于,所述获取当前视觉画面内的至少一个现实对象和至少一个虚拟对象,包括:
获取现实环境中至少一个所述现实对象的图像,根据所述现实对象的图像生成现实对象模型;
获取虚拟环境中生成虚拟对象的指令并根据所述指令生成虚拟对象模型。
4.根据权利要求1所述的可穿戴设备显示的透明度调整方法,其特征在于,所述根据预设规则确定用户所在的当前场景包括:
根据场景与该场景下至少一个特征对象的对应关系,确定所述至少一个现实对象对应的第一场景,并将所述第一场景作为所述当前场景,其中,所述特征对象为所述至少一个现实对象中的一个。
5.根据权利要求4所述的可穿戴设备显示的透明度调整方法,其特征在于,采用深度学习方法获取所述场景与该场景下至少一个特征对象的对应关系,以及场景与对象优先级排列顺序之间的对应关系。
6.根据权利要求1所述的可穿戴设备显示的透明度调整方法,其特征在于,所述根据预设优先级顺序与透明度顺序的对应关系,调节所述各个对象的透明度包括:
按照优先级降序顺序排列的各所述对象的透明度依次增大。
7.根据权利要求1所述的可穿戴设备显示的透明度调整方法,其特征在于,在所述根据预设规则确定用户所在的当前场景之后,还包括:
确定所述当前场景是否为预设的特殊场景之一,若是,则将所有所述虚拟对象的透明度调节为100%。
8.一种可穿戴设备显示的透明度调整装置,其特征在于,包括:
获取模块,用于获取当前视觉画面内的至少一个现实对象和至少一个虚拟对象;
场景确定模块,用于根据预设规则确定用户所在的当前场景;
优先级确定模块,用于根据场景与对象优先级排列顺序之间的对应关系,确定所述当前场景下所述至少一个显示对象和所述至少一个虚拟对象中各个对象的优先级顺序;
调整模块,用于根据预设优先级顺序与透明度顺序的对应关系,调节所述各个对象的透明度;
调整模块包括调节单元,所述调节单元用于调节所述虚拟对象的透明度以及所述现实对象的补光强度;
所述调整装置还包括:
第二获取模块,用于获取调节后优先级最高的第一对象;
第三获取模块,用于根据眼球追踪算法获取用户当前关注的第二对象;
第一判断模块,用于判断第一对象和第二对象的优先级的级数之差大于预设阈值时,记录用户持续关注第二对象的时长;
第二判断模块,用于确定时长大于预设时长时,调节第二对象的优先级最高,调节之前优先级高于第二对象的优先级均降低一级;
其中,所述可穿戴设备包括深度学习系统,所述深度学习系统包括:第三神经网络模块,用于根据AR眼镜的深度摄像头和RGB摄像头捕捉的图像、以及根据虚拟对象指令生成的虚拟对象,分析各个对象的种类以及对象的特征;第一神经网络模块,用于根据现实对象的种类以及对象的特征确定用户所处的场景;数据库,数据库中包含有用户根据对象的种类以及对象的特征提前设置的预设优先级,逻辑判断程序模块,用于根据对象的种类以及对象的特征以及用户指定的特殊规则修改预设优先级,第二神经网络模块,用于根据修改后的预设优先级对各个对象进行优先级排序。
CN201911054630.6A 2019-10-31 2019-10-31 可穿戴设备显示的透明度调整方法和装置 Active CN110826465B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911054630.6A CN110826465B (zh) 2019-10-31 2019-10-31 可穿戴设备显示的透明度调整方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911054630.6A CN110826465B (zh) 2019-10-31 2019-10-31 可穿戴设备显示的透明度调整方法和装置

Publications (2)

Publication Number Publication Date
CN110826465A CN110826465A (zh) 2020-02-21
CN110826465B true CN110826465B (zh) 2023-06-30

Family

ID=69552203

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911054630.6A Active CN110826465B (zh) 2019-10-31 2019-10-31 可穿戴设备显示的透明度调整方法和装置

Country Status (1)

Country Link
CN (1) CN110826465B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115272630B (zh) * 2022-09-29 2022-12-23 南方科技大学 数据处理方法、装置、虚拟现实眼镜及存储介质
CN117372656A (zh) * 2023-09-25 2024-01-09 广东工业大学 一种用于混合现实的用户界面显示方法、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105824412A (zh) * 2016-03-09 2016-08-03 北京奇虎科技有限公司 在移动终端上呈现自定义虚拟特效的方法及装置
CN109087400A (zh) * 2018-08-15 2018-12-25 杭州三坛医疗科技有限公司 一种头戴式ar显示术前模拟方法
CN109565471A (zh) * 2016-06-18 2019-04-02 科里维网络有限公司 使用多通道提高性能的智能自适应传输层
CN110073301A (zh) * 2017-08-02 2019-07-30 强力物联网投资组合2016有限公司 工业物联网中具有大数据集的数据收集环境下的检测方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105824412A (zh) * 2016-03-09 2016-08-03 北京奇虎科技有限公司 在移动终端上呈现自定义虚拟特效的方法及装置
CN109565471A (zh) * 2016-06-18 2019-04-02 科里维网络有限公司 使用多通道提高性能的智能自适应传输层
CN110073301A (zh) * 2017-08-02 2019-07-30 强力物联网投资组合2016有限公司 工业物联网中具有大数据集的数据收集环境下的检测方法和系统
CN109087400A (zh) * 2018-08-15 2018-12-25 杭州三坛医疗科技有限公司 一种头戴式ar显示术前模拟方法

Also Published As

Publication number Publication date
CN110826465A (zh) 2020-02-21

Similar Documents

Publication Publication Date Title
US20190138091A1 (en) Gaze and saccade based graphical manipulation
US20140292637A1 (en) Method for adjusting head-mounted display adaptively and head-mounted display
KR101520778B1 (ko) 콘택트렌즈 가상 피팅 방법, 장치 및 이 방법을 실행시키는 컴퓨터 프로그램
CN115601270A (zh) 视频数据的基于注视方向的自适应预滤波
CN110826465B (zh) 可穿戴设备显示的透明度调整方法和装置
CN106406504B (zh) 人机交互界面的氛围渲染系统与方法
US20210400250A1 (en) Dynamic covergence adjustment in augmented reality headsets
US20150304625A1 (en) Image processing device, method, and recording medium
CN112188112A (zh) 一种补光控制方法、补光控制装置、存储介质和电子设备
US20200082576A1 (en) Method, Device, and System for Delivering Recommendations
CN111935428A (zh) 一种hud图像亮度调节系统及实现方法
JP6221292B2 (ja) 集中度判定プログラム、集中度判定装置、および集中度判定方法
KR20210016288A (ko) 컴퓨터 생성 렌더링 환경을 위한 시각적 검색 세분화
JP7518005B2 (ja) スマート画像キャプチャのためのシステム及び方法
CN108140362A (zh) 显示方法、装置、电子设备和计算机程序产品
CN111833139A (zh) 产品比较技术
CN109410813A (zh) 一种触控白板的调整方法及装置
WO2015186284A1 (ja) 画像処理装置、画像処理方法及びプログラム
US11543655B1 (en) Rendering for multi-focus display systems
Liu et al. Saliency difference based objective evaluation method for a superimposed screen of the HUD with various background
US11544910B2 (en) System and method for positioning image elements in augmented reality system
CN114359021A (zh) 渲染画面的处理方法、装置、电子设备及介质
JP6616536B1 (ja) 視認性評価装置、視認性評価プログラムおよび視認性評価方法
US20230320582A1 (en) Visual function examination device, spectacle lens presentation system, printed matter, visual function examination method, spectacle lens presentation method, and computer-readable medium
US20230244307A1 (en) Visual assistance

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant