CN114089835A - 基于自适应视觉差异的混合现实交互式导识系统及方法 - Google Patents

基于自适应视觉差异的混合现实交互式导识系统及方法 Download PDF

Info

Publication number
CN114089835A
CN114089835A CN202210051856.6A CN202210051856A CN114089835A CN 114089835 A CN114089835 A CN 114089835A CN 202210051856 A CN202210051856 A CN 202210051856A CN 114089835 A CN114089835 A CN 114089835A
Authority
CN
China
Prior art keywords
module
color
scheme
facility
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210051856.6A
Other languages
English (en)
Other versions
CN114089835B (zh
Inventor
胡珊
荣令达
贾琦
韩嘉林
蓝峰
张东
王凯华
孙锐奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University of Technology
Original Assignee
Hubei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University of Technology filed Critical Hubei University of Technology
Priority to CN202210051856.6A priority Critical patent/CN114089835B/zh
Publication of CN114089835A publication Critical patent/CN114089835A/zh
Application granted granted Critical
Publication of CN114089835B publication Critical patent/CN114089835B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了基于自适应视觉差异的混合现实交互式导识系统及方法,该系统主要包括指令接收模块、图像扫描模块、视力检测模块、储存模块、处理模块、虚拟成像模块;指令接收模块用来接收指令并识别目的地;图像扫描模块用来扫描室内场景并提取场景特征信息;视力检测模块用来检测佩戴者双眼的屈光数据;储存模块用来存储室内三维场景模型以及不同视力状态的界面呈现方案;处理模块主要用来规划导航路径;虚拟成像模块用来按相应的界面呈现方案在现实情景中叠加导航路径的虚拟图像。本发明将视觉定位技术和混合现实技术结合来实现寻路导航与设施导识,可将虚拟影像与现实场景精准契合,融为一体,给用户带来更好的沉浸体验。

Description

基于自适应视觉差异的混合现实交互式导识系统及方法
技术领域
本发明属于混合现实技术领域,尤其涉及一种基于自适应视觉差异的混合现实交互式导识系统及方法。
背景技术
随着社会现代化程度的提高以及智慧城市建设的深入,商业综合体、医院、地铁、博物馆等公共场所的空间布局越来越复杂,公共场所内布置的智能设施也更加多样化。虽然可利用手机APP进行导航,但手机所带GPS定位模块在室内定位误差大,且信息呈现界面小。MR(混合现实)技术可将虚拟影像与现实场景精准契合,融为一体,如果将MR技术应用于公共场所室内的寻路导航等,可以给用户更好的沉浸体验。虽然目前有将MR技术应用于其他领域,但未考虑对不同视力状态人群差异化呈现混合现实图像,对视力缺陷人群不友好。
发明内容
本发明的目的提供一种基于自适应视觉差异的混合现实交互式导识系统及方法,该系统及方法将可交互的虚拟信息叠加到现实环境,为用户提供易解读且高效的导识服务;并且还针对不同视力状态人群差异化呈现混合现实图像,提升各类用户的体验感。
本发明提供的基于自适应视觉差异的混合现实交互式导识系统,包括指令接收模块、图像扫描模块、视力检测模块、储存模块、处理模块、虚拟成像模块、以及第一数据传输模块和第二数据传输模块;
所述指令接收模块,用来接收指令并识别目的地,将目的地通过第一数据传输模块发送给处理模块;
所述图像扫描模块,用来扫描室内场景并提取场景特征信息,将场景特征信息通过第一数据传输模块发送给处理模块;
所述视力检测模块,用来检测佩戴者双眼的屈光数据,屈光数据通过第一数据传输模块发送给处理模块;
所述储存模块,用来存储室内三维场景模型以及不同视力状态对应的界面呈现方案,其中界面呈现方案包括界面布局及配色方案;
所述处理模块进一步包括视觉定位子模块、导航规划子模块和界面呈现方案子模块;其中,视觉定位子模块用来将场景特征信息与所述储存模块预存的室内三维场景模型进行比对,获取佩戴者在室内的位置信息;导航规划子模块用来根据佩戴者的位置信息和目的地,规划导航路径,并通过第二数据传输模块发送给虚拟成像模块;界面呈现方案子模块用来根据屈光数据获取佩戴者的视力状况,从储存模块中调取相应的界面呈现方案并通过第二数据传输模块发送给虚拟成像模块;
所述虚拟成像模块用来利用混合现实技术,按相应的界面呈现方案在现实情景中叠加导航路径的虚拟图像。
在一些具体实施方式中,指令接收模块接收的指令为语音指令或手势指令。
在一些具体实施方式中,储存模块还存储有室内设施的三维物体模型及操作方法;所述处理模块还包括设施导识子模块;
当图像扫描模块接收到设施识别指令时,所述图像扫描模块用来对目标设施进行扫描并提取设施特征信息,并通过第一数据传输模块发送给处理模块;
在接收到设施特征信息后,所述设施导识子模块将设施特征信息与所述储存模块内预存的三维物体模型进行匹配,识别目标设施,同时调取目标设施对应的操作方法,并通过第二数据传输模块发送给虚拟成像模块;
所述虚拟成像模块利用混合现实技术,按相应的界面呈现方案,在目标设施操作区域叠加操作方法的虚拟图像。
在一些具体实施方式中,设施识别指令为手势指令。
在一些具体实施方式中,储存模块中不同视力状态人群对应的界面呈现方案采用如下方法获得:
(1)预定义若干不同视力状态以及各视力状态对应的屈光度;
(2)通过调研确定各类视力状态人群适用的界面布局,界面布局包括界面分区、各区域尺寸及位置;
(3)利用遗传法分别确定各类视力状态人群适用的配色方案,进一步包括:
S100:遵循基本美学色彩搭配原理,在当前视力状态人群适用的界面布局上对各区域随机赋予色彩值,经排列组合获得预设数量的不同配色方案;
S200:对各配色方案中色彩值进行编码,之后作为初代群体种群;
S300:获取各配色方案的主观评分,利用三角模糊数量化评分,利用群体意象偏好模型分别构建各配色方案对应的三角模糊数矩阵;
S400:基于三角模糊数矩阵计算当前视力状态人群对各配色方案的偏好共识度;
S500:依次判断各配色方案的偏好共识度是否大于预设的偏好共识度阈值β0,一旦有配色方案的偏好共识度大于β0,则将该配色方案作为最优配色方案,执行步骤S700;若所有配色方案的偏好共识度均不大于β0,继续执行步骤S600;β0为经验值;
S600:以当前群体种群为基础,依次进行选择、交叉、变异操作,将生成的新配色方案作为新的群体种群,再次执行步骤S300~S500,直至偏好共识度大于偏好共识度阈值,执行步骤S700;
S700:对最优配色方案进行解码,将解码后的配色方案与当前视力状态人群适用的界面布局结合,即获得当前视力状态人群对应的界面呈现方案。
在一些具体实施方式中,步骤(2)进一步包括:
将界面划分为导识区域、提示区域和选择区域;
对各类视力状态人群进行调研,获得各类视力状态人群对界面的要求,包括界面中三个区域的重要程度、尺寸以及位置;
再结合通用的导识界面布局原则,分别生成适用各类视力状态人群的界面布局。
在一些具体实施方式中,步骤S400中基于三角模糊数矩阵计算当前视力状态人群对配色方案的偏好共识度,具体为:
配色方案对应的三角模糊数矩阵为
Figure 98226DEST_PATH_IMAGE001
针对各用户主观调研的矩阵化处理的结果,用算数平均的方式聚合化处理向量之 间的距离T,并以该距离来衡量不同视力状态人群对混合现实界面色彩偏好的差异性,
Figure DEST_PATH_IMAGE002
偏好共识度
Figure 365260DEST_PATH_IMAGE003
其中,
Figure 98248DEST_PATH_IMAGE004
表示当前视力状态人群中t个用户对当前配色方案的三角模糊数,对 第jk个用户,对应的三角模糊数分别记为
Figure 767127DEST_PATH_IMAGE005
Figure 760491DEST_PATH_IMAGE006
在一些具体实施方式中,步骤S600的选择操作中,采用偏好共识度与偏好共识度阈值的距离的倒数作为适应度,采用各配色方案适应度与所有配色方案适应度总和之商作为各配色方案被选中的概率,基于概率和轮盘赌法选取进行后续交叉、变异的群体种群。
本发明提供的一种基于自适应视觉差异的混合现实交互式导识方法为:
视力检测模块检测佩戴者双眼的屈光数据,屈光数据发送给处理模块;
图像扫描模块扫描佩戴者所在位置的场景并提取场景特征信息,场景特征信息发送至处理模块;
处理模块中的视觉定位子模块将场景特征信息与储存模块预存的室内三维场景模型进行比对,获取佩戴者在室内的位置信息;
处理模块中的界面呈现方案子模块根据屈光数据获取佩戴者的视力状况,从储存模块中调取佩戴者相应的界面呈现方案;
当指令接收模块接收到寻路导航指令,指令接收模块识别目的地并将目的地发送给处理模块;
处理模块中导航规划子模块根据佩戴者的位置信息和目的地,规划导航路径;
处理模块将相应的界面呈现方案和导航路径发送给虚拟成像模块;
虚拟成像模块利用混合现实技术,按相应的界面呈现方案在现实情景中叠加导航路径。
在一些具体实施方式中,上述混合现实交互式导识方法还包括:
当图像扫描模块接收到设施识别指令,图像扫描模块对佩戴者选取的目标设施进行扫描并提取设施特征信息,将设施特征信息发送给处理模块;
处理模块中的设施导识子模块将设施特征信息与储存模块内预存的三维物体模型进行匹配,识别目标设施,同时调取目标设施对应的操作方法,并发送给虚拟成像模块;
虚拟成像模块利用混合现实技术,按佩戴者视力状况对应的界面呈现方案,在目标设施操作区域叠加操作方法的虚拟图像。
和现有技术相比,本发明具有如下优点和有益效果:
(1)将视觉定位技术和混合现实技术结合来实现寻路导航与设施导识功能,混合现实技术用来将虚拟影像与现实场景精准契合,融为一体,可解决目前手机APP信息呈现界面小的问题,能给用户带来更好的沉浸体验;视觉定位技术可提高室内定位准确度,有利于寻路导航与设施导识的准确性。
(2)对不同视力状态人群呈现差异化界面,对各类不同视力状态人群均友好,进一步提高了用户的使用体验感。
附图说明
图1为本发明混合现实交互式导识系统的功能框图;
图2为实施例1中所得寻路导航方案示意图;
图3为混合现实导识界面示意图;
图4为混合现实导识界面的分区示意图;
图5为实施例3中基于遗传法的配色方案确定流程图;
图6为实施例4中的混合现实交互式导识方法流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下将结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,后文的“界面”均指“混合现实导识界面”。
实施例1
本实施例混合现实交互式导识系统可进行公共场所室内的寻路导航,参见图1,本实施例系统包括指令接收模块、图像扫描模块、视力检测模块、储存模块、处理模块、虚拟成像模块、以及第一数据传输模块和第二数据传输模块,指令接收模块、图像扫描模块、视力检测模块均通过第一数据传输模块向处理模块发送数据,处理模块通过第二数据传输模块向虚拟成像模块发送控制指令,处理模块还连接储存模块,可从储存模块调取数据。本实施例系统的实体为头戴式MR眼镜,所包含各模块嵌设于MR眼镜框体的相应位置。
指令接收模块用来接收佩戴者的指令并从指令中识别目的地,将目的地通过第一数据传输模块发送给处理模块。本实施例中指令接收模块采用语音识别模块,具体采用Kaldi开源语音识别模块,佩戴者通过语音告知目的地,指令接收模块接收并进行语音识别,将识别的目的地转化为数据信息,通过第一数据传输模块发送至处理模块。
图像扫描模块用来与处理模块中的视觉定位子模块配合,对佩戴者在室内的位置进行定位。本实施例中,图像扫描模块利用3D飞行时间(Time-of-Flight, TOF)技术扫描佩戴者所在位置的场景,再结合相机拍摄图像,获得场景的深度图像,即场景特征信息。将场景特征信息通过第一数据传输模块发送给处理模块。本实施例中图像扫描模块具体采用Microsoft Kinect v2深度摄像头,可获取场景的深度扫描图像,将Microsoft Kinect v2深度摄像头设置于MR眼镜框体侧前方。
视力检测模块用来检测佩戴者双眼的屈光数据,将屈光数据通过第一数据传输模块发送给处理模块。本实施例中视力检测模块进一步包括MEMS光束发射器、光学感受器和数据分析器。MEMS光束发射器向眼球发射动态光束,光束经眼球的屈光系统聚焦折射到光学感受器上,由数据分析器处理得出双眼的屈光数据,屈光数据所包含的屈光度可反映佩戴者的视力状态。屈光度定义为:在光束经眼球屈光系统,以焦点在1m时眼球屈光系统的屈光力为1屈光度,也记为1D。由于视力检测模块需要对佩戴者双眼进行检测,所以视力检测模块安装于MR眼镜框体上位于人眼前方的位置。本发明中,预定义屈光度与不同视力状态的对应关系,根据屈光度即可获得佩戴者的视力状态。
储存模块用来存储室内三维场景模型以及不同视力状态对应的界面呈现方案。室内三维场景模型利用三维建模技术构建,本实施例中采用CAD、BIM等数据进行三维建模,对室内电梯、楼梯等建筑构建及走廊、房间等空间单元进行模型构建,从而构建出室内三维场景模型。通过对不同视力状态人群进行调查,构建适用不同视力状态人群的界面呈现方案,并预先存储于储存模块内。界面呈现方案具体包括界面布局及配色方案。
处理模块为本发明系统的计算核心,其进一步包括视觉定位子模块、导航规划子模块和界面呈现方案子模块。视觉定位子模块用来利用视觉定位技术对佩戴者在室内的位置进行定位,具体为将场景特征信息与储存模块预存的室内三维场景模型进行比对,获取佩戴者在室内的位置信息。导航规划子模块用来根据佩戴者的位置信息和目的地,规划导航方案路径,并通过第二数据传输模块发送给虚拟成像模块。界面呈现方案子模块用来根据屈光数据获取佩戴者的视力状况,从储存模块中调取相应的界面呈现方案并通过第二数据传输模块发送给虚拟成像模块。本实施例中,储存模块和处理模块均采用Azure操作系统。
当虚拟成像模块接收到导航路径和界面呈现方案,则利用混合现实技术,按相应的界面呈现方案在现实情景中叠加导航路径的虚拟图像。本实施例中虚拟成像模块主要包括DLP投影仪芯片和镜片模组,安装于MR眼镜框体上位于人眼前方的位置。第一数据传输模块和第二数据传输模块用来进行数据传输,本实施例中第一数据传输模块和第二数据传输模块均采用无线宽带模块,例如WiFi模块。
本实施例系统的使用方法为:
佩戴者佩戴该头戴式MR眼镜,当需要寻路导航时,通过语音说出目的地。指令接收模块接收并识别目的地;图像扫描模块实时扫描佩戴者所在位置的场景;视力检测模块检测佩戴者双眼的屈光数据。视觉定位子模块根据佩戴者所在位置的场景,利用视觉定位技术对佩戴者所在位置进行定位;导航规划子模块根据佩戴者的位置信息和目的地进行导航规划;界面呈现方案子模块根据屈光数据获得佩戴者的视力状况,从而调取对应的界面呈现方案。虚拟成像模块利用混合现实技术,按对应的界面呈现方案在现实情景中叠加导航路径的虚拟图像,为佩戴者提供寻路导航功能。图2所示为所获得的寻路路径,带箭头的虚线即导航路径。
实施例2
本实施例系统在实施例1的基础上,还具有设施导识功能,即识别目标设施并提供目标设施的操作方法,目标设施即佩戴者所选取设施。设施一般为公共场所内布设的智能设施,例如售票机、贩卖机、共享设备等。
本实施例中,储存模块还存储有公共场所室内设施的三维物体模型及操作方法;处理模块还包括设施导识子模块。当图像扫描模块接收到设施识别指令时,对目标设施进行扫描并提取设施特征信息,此处设施特征信息指目标设施的深度图像,通过第一数据传输模块将设施特征信息传输给处理模块。在接收到目标设施的设施特征信息后,处理模块中设施导识子模块将设施特征信息与储存模块内预存的三维物体模型进行匹配,识别目标设施,同时调取目标设施的操作方法,将操作方法通过第二数据传输模块发送给虚拟成像模块。虚拟成像模块利用混合现实技术,按佩戴者视力状况对应的界面呈现方案,在目标设施操作区域叠加操作方法的虚拟图像,佩戴者按虚拟图像的导识操作目标设施。
本实施例中设施导识功能的使用方法为:在需要进行目标设施导识时,佩戴者通过实体或虚拟的触发按钮或预设手势来触发该项功能,之后在界面上选择目标设施,图3所示即目标设施选择示意图,通过手型按钮选择目标设施。在选择目标设施后,图像扫描模块扫描并提取目标设施的设施特征信息。
实施例3
本实施例将提供视力状态与界面呈现方案对应关系的构建方法,其中界面呈现方案包括布局和配色方案。
具体的构建过程如下:
(1)预定义若干不同视力状态以及各视力状态对应的屈光度。
本实施例中对屈光度为xD(-3≤x≤2),划分为屈光度分别为-3D、-2D、-1D、0D、1D、2D的六类视力状态,D为屈光度单位,0D表示视力状态正常,1D、2D分别代表老花100度、200度;-1D、-2D、-3D分别代表近视100度、200度、300度。
(2)确定各类视力状态人群适应的界面布局。
本实施例中界面划分为3个区域:导识区域1、提示区域2和选择区域3,具体参见图4。导识区域用来显示导航路径和设施操作图标等;提示区域用来显示提示信息;选择区域用来显示功能。
首先对六类视力状态人群进行基础调研,获得各类视力状态人群对界面的要求,包括界面中三个区域的重要程度、尺寸以及位置。再结合通用的导识界面布局原则,分别生成适用各类视力状态人群的界面布局。本具体实施方式通过调研确定三个区域的重要程度为:导识区域>提示区域>选择区域。
在确定各类视力状态人群对应的界面布局后,再利用遗传法获得不同视力状态人群适用的配色方案,具体来说,配色方案即三个区域的配色。流程参见图5,针对各视力状态人群分别执行以下步骤:
S100:将界面上的导识区域、提示区域、选择区域分别划分为主色区域、中性色区 域、支持色区域,遵循基本美学色彩搭配原理,在当前视力状态人群适用的界面布局上对三 个区域随机赋予色彩值,再经排列组合获得预设数量的不同配色方案,构成配色方案集A
Figure 240452DEST_PATH_IMAGE007
Figure 977463DEST_PATH_IMAGE008
分别表示第i个配色方案中导识区域、提 示区域、选择区域的色彩值,i为配色方案编号,S为配色方案总数量,本具体实施方式中S取 值6;色彩值包括RGB色彩值,分别代表红、绿、蓝三个通道的颜色。
S200:对配色方案集A中色彩值进行编码,并将编码后的配色方案集作为初代群体种群。
S300:获取配色方案集A中各配色方案的主观评分,并利用三角模糊数量化各配色方案的评分,构建各配色方案对应的三角模糊数矩阵,三角模糊数矩阵可用来反映不同用户对同一配色方案的偏好。主观评分由当前视力状态人群从舒适度出发所进行的评分,本具体实施方式中采用5分制,0分表示完全不满意,5分表示完全满意,从0到5,满意程度递增。
三角模糊数是将模糊的语言评价变量值转化为确定数值的方法,在评价决策中引入三角模糊数来解决评价对象属性无法被准确度量而只能用语言进行模糊评价的问题。
三角模糊数q的计算见下式(1):
Figure 500849DEST_PATH_IMAGE009
(1)
式(1)中,m为评分,n为评分等级层数,本实施中n取5;qM表示评分所占等级,qL和qR分别为qM的左、右相邻等级。
特别地,当m =0时,三角模糊数q=(0,0,1/5);当m =5时,三角模糊数q=(4/5,1,1)。
依据群体意象偏好模型对三角模糊数进行矩阵化处理,构建如下三角模糊数矩阵
Figure 494871DEST_PATH_IMAGE010
,该三角模糊数矩阵
Figure 736497DEST_PATH_IMAGE010
可反映不同用户对某一配色方案的偏好。
Figure 11621DEST_PATH_IMAGE001
(2)
式(2)中,
Figure 327195DEST_PATH_IMAGE004
表示t个用户对某一配色方案的三角模糊数,对第j个用户(j=1, 2,…t),其对应的三角模糊数记为
Figure 662362DEST_PATH_IMAGE005
S400:基于式(2)的三角模糊数矩阵将当前视力状态人群对配色方案偏好进行量化,获得对配色方案的偏好共识度。
用算术平均方式聚合化处理向量之间的距离T,见式(3):
Figure 391283DEST_PATH_IMAGE011
(3)
式(3)中,jk分别代表不同用户。
T可衡量当前视力状态人群中不同用户的评分差异程度,利用T获得当前视力状态 人群的配色方案偏好共识度
Figure 941869DEST_PATH_IMAGE003
S500:依次判断各配色方案的偏好共识度
Figure DEST_PATH_IMAGE012
是否大于预设的偏好共识度阈值
Figure 439846DEST_PATH_IMAGE013
,一 旦有配色方案的偏好共识度大于
Figure 999442DEST_PATH_IMAGE013
,将该配色方案作为最优配色方案,执行步骤S700;若所 有配色方案的偏好共识度均不大于
Figure 950080DEST_PATH_IMAGE013
,则继续执行步骤S600。偏好共识度阈值
Figure 832586DEST_PATH_IMAGE013
为经验值, 本具体实施方式中设为0.4。
S600:以当前群体种群为基础,依次进行选择、交叉、变异操作,将生成的新配色方案作为新群体种群,再次执行步骤S300~S500,直至偏好共识度大于偏好共识度阈值后执行步骤S700。
选择、交叉、变异为遗传法中的操作。本发明中选择操作(selection)包括:将偏好共识度接近偏好共识度阈值的配色方案赋予更高的适应度,本发明中采用偏好共识度与阈值的距离的绝对值的倒数作为适应度,特别的,当偏好共识度不小于设定阈值时,其适应度视为无穷大。利用轮盘赌法将各配色方案的适应度转化为选中的概率,概率等于配色方案适应度与所有配色方案适应度总和之商。基于各配色方案的概率,进行有限次的选择,有限次数为预设次数,选择是指根据轮盘赌分配概率后的随机选择;取被选中次数大于预设次数阈值的配色方案进行后续的交叉、变异操作。交叉操作(crossover)包括:采用随机配对对选中配色方案进行两两配对,再采用单点交叉对配对中配色方案的元素进行打乱重排,产生新的个体(即配色方案)。变异操作(mutation)主要通过辅助作用帮助种群遗传更好实现。本具体实施方式中采用均匀变异操作。
S700:对最优配色方案进行解码,将解码后的配色方案与当前视力状态人群适用的界面布局结合,即获得当前视力状态人群对应的界面呈现方案,存储该界面呈现方案。
本具体实施方式中,基于配色方案在导识区域、提示区域、选择区域的三维立体坐标系中进行颜色描点,再将所有数据点进行空间曲线拟合,获得界面呈现方案并存入储存模块,同时储存界面呈现方案与当前视力状态人群的对应关系。
对各视力状态人群分别执行上述步骤S100~S700,从而获得各视力状态人群对应的界面呈现方案。
作为优选,佩戴者也可根据视觉感受,通过界面调节滑块对界面色彩进行自主调整。
实施例4
本实施例将提供一种基于自适应视觉差异的混合现实交互式导识方法的具体过程,见图6,该方法过程如下:
视力检测模块检测佩戴者双眼的屈光数据,屈光数据通过第一数据传输模块发送给处理模块。图像扫描模块扫描佩戴者所在位置的场景并提取场景特征信息,场景特征信息通过第一数据传输模块发送至处理模块。处理模块中的视觉定位子模块将场景特征信息与所述储存模块预存的室内三维场景模型进行比对,获取佩戴者在室内的位置信息。处理模块中的界面呈现方案子模块根据屈光数据获取佩戴者的视力状况,从储存模块中调取佩戴者相应的界面呈现方案。
当指令接收模块接收到寻路导航指令,指令接收模块识别目的地并将目的地发送给处理模块。处理模块中导航规划子模块根据佩戴者的位置信息和目的地,建立VPS三维位置关系,规划导航路径。处理模块将相应的界面呈现方案和导航路径发送给虚拟成像模块,虚拟成像模块利用混合现实技术,按相应的界面呈现方案在现实情景中叠加导航路径。当到达目的地附近,则阶段性导识服务完成。
当图像扫描模块接收到设施识别指令,图像扫描模块对目标设施进行扫描并提取设施特征信息,将设施特征信息发送给处理模块。处理模块中的设施导识子模块将设施特征信息与储存模块内预存的三维物体模型进行匹配,识别目标设施,同时调取目标设施对应的操作方法,并发送给虚拟成像模块。虚拟成像模块利用混合现实技术,按佩戴者视力状况对应的界面呈现方案,在目标设施操作区域叠加操作方法的虚拟图像。当操作完成,则该阶段性导识服务完成。
上述实施例所述是用以具体说明本发明,文中虽通过特定的术语进行说明,但不能以此限定本发明的保护范围,熟悉此技术领域的人士可在了解本发明的精神与原则后对其进行变更或修改而达到等效目的,而此等效变更和修改,皆应涵盖于权利要求范围所界定范畴内。

Claims (10)

1.基于自适应视觉差异的混合现实交互式导识系统,其特征是:
包括指令接收模块、图像扫描模块、视力检测模块、储存模块、处理模块、虚拟成像模块、以及第一数据传输模块和第二数据传输模块;
所述指令接收模块,用来接收指令并识别目的地,将目的地通过第一数据传输模块发送给处理模块;
所述图像扫描模块,用来扫描室内场景并提取场景特征信息,将场景特征信息通过第一数据传输模块发送给处理模块;
所述视力检测模块,用来检测佩戴者双眼的屈光数据,屈光数据通过第一数据传输模块发送给处理模块;
所述储存模块,用来存储室内三维场景模型以及不同视力状态对应的界面呈现方案,其中界面呈现方案包括界面布局及配色方案;
所述处理模块进一步包括视觉定位子模块、导航规划子模块和界面呈现方案子模块;其中,视觉定位子模块用来将场景特征信息与所述储存模块预存的室内三维场景模型进行比对,获取佩戴者在室内的位置信息;导航规划子模块用来根据佩戴者的位置信息和目的地,规划导航路径,并通过第二数据传输模块发送给虚拟成像模块;界面呈现方案子模块用来根据屈光数据获取佩戴者的视力状况,从储存模块中调取相应的界面呈现方案并通过第二数据传输模块发送给虚拟成像模块;
所述虚拟成像模块用来利用混合现实技术,按相应的界面呈现方案在现实情景中叠加导航路径的虚拟图像。
2.如权利要求1所述的基于自适应视觉差异的混合现实交互式导识系统,其特征是:
所述指令接收模块接收的指令为语音指令或手势指令。
3.如权利要求1所述的基于自适应视觉差异的混合现实交互式导识系统,其特征是:
所述储存模块还存储有室内设施的三维物体模型及操作方法;所述处理模块还包括设施导识子模块;
当图像扫描模块接收到设施识别指令时,所述图像扫描模块用来对目标设施进行扫描并提取设施特征信息,并通过第一数据传输模块发送给处理模块;
在接收到设施特征信息后,所述设施导识子模块将设施特征信息与所述储存模块内预存的三维物体模型进行匹配,识别目标设施,同时调取目标设施对应的操作方法,并通过第二数据传输模块发送给虚拟成像模块;
所述虚拟成像模块利用混合现实技术,按相应的界面呈现方案,在目标设施操作区域叠加操作方法的虚拟图像。
4.如权利要求3所述的基于自适应视觉差异的混合现实交互式导识系统,其特征是:
所述设施识别指令为手势指令。
5.如权利要求1所述的基于自适应视觉差异的混合现实交互式导识系统,其特征是:
储存模块中不同视力状态人群对应的界面呈现方案采用如下方法获得:
(1)预定义若干不同视力状态以及各视力状态对应的屈光度;
(2)通过调研确定各类视力状态人群适用的界面布局,界面布局包括界面分区、各区域尺寸及位置;
(3)利用遗传法分别确定各类视力状态人群适用的配色方案,进一步包括:
S100:遵循基本美学色彩搭配原理,在当前视力状态人群适用的界面布局上对各区域随机赋予色彩值,经排列组合获得预设数量的不同配色方案;
S200:对各配色方案中色彩值进行编码,之后作为初代群体种群;
S300:获取各配色方案的主观评分,利用三角模糊数量化评分,利用群体意象偏好模型分别构建各配色方案对应的三角模糊数矩阵;
S400:基于三角模糊数矩阵计算当前视力状态人群对各配色方案的偏好共识度;
S500:依次判断各配色方案的偏好共识度是否大于预设的偏好共识度阈值β0,一旦有配色方案的偏好共识度大于β0,则将该配色方案作为最优配色方案,执行步骤S700;若所有配色方案的偏好共识度均不大于β0,继续执行步骤S600;β0为经验值;
S600:以当前群体种群为基础,依次进行选择、交叉、变异操作,将生成的新配色方案作为新的群体种群,再次执行步骤S300~S500,直至偏好共识度大于偏好共识度阈值,执行步骤S700;
S700:对最优配色方案进行解码,将解码后的配色方案与当前视力状态人群适用的界面布局结合,即获得当前视力状态人群对应的界面呈现方案。
6.如权利要求5所述的基于自适应视觉差异的混合现实交互式导识系统,其特征是:
步骤(2)进一步包括:
将界面划分为导识区域、提示区域和选择区域;
对各类视力状态人群进行调研,获得各类视力状态人群对界面的要求,包括界面中三个区域的重要程度、尺寸以及位置;
再结合通用的导识界面布局原则,分别生成适用各类视力状态人群的界面布局。
7.如权利要求5所述的基于自适应视觉差异的混合现实交互式导识系统,其特征是:
步骤S400中基于三角模糊数矩阵计算当前视力状态人群对配色方案的偏好共识度,具体为:
配色方案对应的三角模糊数矩阵为
Figure 115399DEST_PATH_IMAGE001
针对各用户主观调研的矩阵化处理的结果,用算数平均的方式聚合化处理向量之间的 距离T,并以该距离来衡量不同视力状态人群对混合现实界面色彩偏好的差异性,
Figure 566627DEST_PATH_IMAGE002
,计算偏好共识度β=1-T;
其中,
Figure 71996DEST_PATH_IMAGE003
表示当前视力状态人群中t个用户对当前配色方案的三角模糊数,对第jk个用户,对应的三角模糊数分别记为
Figure 467205DEST_PATH_IMAGE004
Figure 815666DEST_PATH_IMAGE005
8.如权利要求5所述的基于自适应视觉差异的混合现实交互式导识系统,其特征是:
步骤S600的选择操作中,采用偏好共识度与偏好共识度阈值的距离的倒数作为适应度,采用各配色方案适应度与所有配色方案适应度总和之商作为各配色方案被选中的概率,基于概率和轮盘赌法选取进行后续交叉、变异的群体种群。
9.基于自适应视觉差异的混合现实交互式导识方法,其特征是:
视力检测模块检测佩戴者双眼的屈光数据,屈光数据发送给处理模块;
图像扫描模块扫描佩戴者所在位置的场景并提取场景特征信息,场景特征信息发送至处理模块;
处理模块中的视觉定位子模块将场景特征信息与储存模块预存的室内三维场景模型进行比对,获取佩戴者在室内的位置信息;
处理模块中的界面呈现方案子模块根据屈光数据获取佩戴者的视力状况,从储存模块中调取佩戴者相应的界面呈现方案;
当指令接收模块接收到寻路导航指令,指令接收模块识别目的地并将目的地发送给处理模块;
处理模块中导航规划子模块根据佩戴者的位置信息和目的地,规划导航路径;
处理模块将相应的界面呈现方案和导航路径发送给虚拟成像模块;
虚拟成像模块利用混合现实技术,按相应的界面呈现方案在现实情景中叠加导航路径。
10.如权利要求9所述的基于自适应视觉差异的混合现实交互式导识方法,其特征是,还包括:
当图像扫描模块接收到设施识别指令,图像扫描模块对佩戴者选取的目标设施进行扫描并提取设施特征信息,将设施特征信息发送给处理模块;
处理模块中的设施导识子模块将设施特征信息与储存模块内预存的三维物体模型进行匹配,识别目标设施,同时调取目标设施对应的操作方法,并发送给虚拟成像模块;
虚拟成像模块利用混合现实技术,按佩戴者视力状况对应的界面呈现方案,在目标设施操作区域叠加操作方法的虚拟图像。
CN202210051856.6A 2022-01-18 2022-01-18 基于自适应视觉差异的混合现实交互式导识系统及方法 Active CN114089835B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210051856.6A CN114089835B (zh) 2022-01-18 2022-01-18 基于自适应视觉差异的混合现实交互式导识系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210051856.6A CN114089835B (zh) 2022-01-18 2022-01-18 基于自适应视觉差异的混合现实交互式导识系统及方法

Publications (2)

Publication Number Publication Date
CN114089835A true CN114089835A (zh) 2022-02-25
CN114089835B CN114089835B (zh) 2022-04-26

Family

ID=80308451

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210051856.6A Active CN114089835B (zh) 2022-01-18 2022-01-18 基于自适应视觉差异的混合现实交互式导识系统及方法

Country Status (1)

Country Link
CN (1) CN114089835B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114579008A (zh) * 2022-05-06 2022-06-03 湖北工业大学 一种科普体验交互系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106291931A (zh) * 2016-08-31 2017-01-04 安徽协创物联网技术有限公司 一种眼球屈光度测试虚拟现实眼镜
CN106405840A (zh) * 2016-10-31 2017-02-15 沈阳工业大学 具有导航功能的头盔式增强现实眼镜
US20180275394A1 (en) * 2017-03-22 2018-09-27 Magic Leap, Inc. Dynamic field of view variable focus display system
CN110440789A (zh) * 2018-06-07 2019-11-12 广东优世联合控股集团股份有限公司 智能导引方法及装置
CN111093030A (zh) * 2019-12-31 2020-05-01 维沃移动通信有限公司 一种设备控制方法及电子设备
CN111897129A (zh) * 2020-07-24 2020-11-06 四川大学 一种人工智能液体眼镜
CN113709410A (zh) * 2020-05-21 2021-11-26 幻蝎科技(武汉)有限公司 基于mr眼镜的人眼视觉能力增强的方法、系统及设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106291931A (zh) * 2016-08-31 2017-01-04 安徽协创物联网技术有限公司 一种眼球屈光度测试虚拟现实眼镜
CN106405840A (zh) * 2016-10-31 2017-02-15 沈阳工业大学 具有导航功能的头盔式增强现实眼镜
US20180275394A1 (en) * 2017-03-22 2018-09-27 Magic Leap, Inc. Dynamic field of view variable focus display system
CN110440789A (zh) * 2018-06-07 2019-11-12 广东优世联合控股集团股份有限公司 智能导引方法及装置
CN111093030A (zh) * 2019-12-31 2020-05-01 维沃移动通信有限公司 一种设备控制方法及电子设备
CN113709410A (zh) * 2020-05-21 2021-11-26 幻蝎科技(武汉)有限公司 基于mr眼镜的人眼视觉能力增强的方法、系统及设备
CN111897129A (zh) * 2020-07-24 2020-11-06 四川大学 一种人工智能液体眼镜

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114579008A (zh) * 2022-05-06 2022-06-03 湖北工业大学 一种科普体验交互系统
CN114579008B (zh) * 2022-05-06 2022-07-08 湖北工业大学 一种科普体验交互系统

Also Published As

Publication number Publication date
CN114089835B (zh) 2022-04-26

Similar Documents

Publication Publication Date Title
JP7445642B2 (ja) クロスリアリティシステム
US20210343087A1 (en) Cross reality system for large scale environments
US10802278B2 (en) Space carving based on human physical data
US10132633B2 (en) User controlled real object disappearance in a mixed reality display
EP2919093A1 (en) Method, system, and computer for identifying object in augmented reality
US9122053B2 (en) Realistic occlusion for a head mounted augmented reality display
US9128520B2 (en) Service provision using personal audio/visual system
CN114600064A (zh) 具有定位服务的交叉现实系统
US20190228448A1 (en) System, Platform and Method for Personalized Shopping Using a Virtual Shopping Assistant
EP4104144A1 (en) Cross reality system for large scale environments
CN115461787A (zh) 具有快速定位的交叉现实系统
WO2013155217A1 (en) Realistic occlusion for a head mounted augmented reality display
CN105469072A (zh) 一种评估眼镜佩戴者和其所佩戴眼镜搭配度的方法和系统
CN106355479A (zh) 一种虚拟试衣方法、虚拟试衣眼镜及虚拟试衣系统
US11461980B2 (en) Methods and systems for providing a tutorial for graphic manipulation of objects including real-time scanning in an augmented reality
US20220148231A1 (en) Virtual prop allocation method and related apparatuses
CN114089835B (zh) 基于自适应视觉差异的混合现实交互式导识系统及方法
CN106095106A (zh) 虚拟现实终端及其显示光心距的调整方法及装置
JP2020525932A (ja) 自動買い物アシスタントを用いて個人の嗜好に合った買い物を行うためのシステム、プラットフォーム、および方法
JP2003150306A (ja) 情報表示装置とその方法
CN108573192B (zh) 匹配人脸的眼镜试戴方法和装置
CN116542409A (zh) 面向用户满意度的虚拟村寨游览路径规划方法
CN115176285B (zh) 利用缓冲的交叉现实系统用于定位精度
JPH09305743A (ja) 人物顔動作検出方式
Gokl et al. Towards urban environment familiarity prediction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant