CN115077525A - 基于辅助视觉眼镜的导航方法以及装置 - Google Patents
基于辅助视觉眼镜的导航方法以及装置 Download PDFInfo
- Publication number
- CN115077525A CN115077525A CN202210515974.8A CN202210515974A CN115077525A CN 115077525 A CN115077525 A CN 115077525A CN 202210515974 A CN202210515974 A CN 202210515974A CN 115077525 A CN115077525 A CN 115077525A
- Authority
- CN
- China
- Prior art keywords
- obstacle
- glasses
- navigation
- visual
- auxiliary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
Landscapes
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Rehabilitation Therapy (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Physical Education & Sports Medicine (AREA)
- Pain & Pain Management (AREA)
- Epidemiology (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Eyeglasses (AREA)
Abstract
本发明公开了一种基于辅助视觉眼镜的导航方法以及装置。其中,该方法包括:获取辅助视觉眼镜上的摄像头所采集的视频;识别视频对应的视觉范围内的障碍物,并确定障碍物的障碍物信息,其中,障碍物信息包括:障碍物的障碍物名称和带有方向属性的障碍物位置;生成包括障碍物名称和障碍物位置的提示音;向辅助视觉眼镜上的骨传导装置发送提示音。本发明解决了由于无法准确识别视觉范围内的障碍物造成的无法根据障碍物提供更加精准、人性化的导航服务的技术问题。
Description
技术领域
本发明涉及辅助视觉领域,具体而言,涉及一种基于辅助视觉眼镜的导航方法以及装置。
背景技术
在相关技术中的辅助视觉眼镜主要包括以下几种:(1)针对工业/军用领域设计的;(2)用于高清视频直播记录场景的;(3)用于辅助盲人感知世界和出行的。但上述的几种辅助视觉眼镜无法为视障人士提供全面的视觉辅助服务,且由于针对物体或文字的识别能力有限,也无法提供精准、全面的导航服务。
因此,在相关技术中,存在由于无法准确识别障碍物造成的无法根据障碍物提供更加精准、人性化的导航服务的技术问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种基于辅助视觉眼镜的导航方法以及装置,以至少解决由于无法准确识别视觉范围内的障碍物造成的无法根据障碍物提供更加精准、人性化的导航服务的技术问题。
根据本发明实施例的一个方面,提供了一种基于辅助视觉眼镜的导航方法,包括:获取辅助视觉眼镜上的摄像头所采集的视频;识别视频对应的视觉范围内的障碍物,并确定障碍物的障碍物信息,其中,障碍物信息包括:障碍物的障碍物名称和带有方向属性的障碍物位置;生成包括障碍物名称和障碍物位置的提示音;向辅助视觉眼镜上的骨传导装置发送提示音。
可选地,获取辅助视觉眼镜上的摄像头所采集的视频,包括:接收辅助视觉眼镜发送的导航指令,其中,导航指令中携带有导航的目的位置;获取辅助视觉眼镜所在的当前位置;依据预定地图,确定从当前位置到目的位置的导航路径;确定导航路径上从当前位置到目的位置的导航方向;获取辅助视觉眼镜朝向导航方向时所采集的视频。
可选地,上述方法还包括:识别视频对应的视觉范围内的非障碍物对象,并确定非障碍物对象的对象信息,其中,对象信息包括以下至少之一:非障碍物对象的印刷文本,非障碍物对象的姿势状态,非障碍物对象的颜色信息,非障碍物对象的条码信息;将对象信息加载至提示音中。
可选地,生成包括障碍物名称和障碍物位置的提示音,包括:生成包括障碍物名称和障碍物位置的杜比全景声;将杜比全景声转换成空间音频,得到提示音。
可选地,生成包括障碍物名称和障碍物位置的杜比全景声,包括:获取佩戴辅助视觉眼镜的对象的耳部结构参数;确定与耳部结构参数对应的头相关传输函数HRTF;在预定声场下,基于HRTF产生包括障碍物名称和障碍物位置的杜比全景声。
可选地,将杜比全景声转换成空间音频,得到提示音,包括:采用球谐函数将杜比全景声进行球谐展开,得到预定阶数的声音数据;将预定阶数的声音数据重构成双耳形式的提示音。
可选地,将杜比全景声转换成空间音频,得到提示音,包括:将杜比全景声分成双耳数据;分别对双耳数据中的干扰信号进行过滤,得到提示音。
可选地,上述方法还包括:获取目标虚拟图像;通过现实增强AR将目标虚拟图像显示在视觉范围对应的真实空间中。
可选地,上述方法还包括:识别视频中的手势;确定手势在目标物上所指示的目标位置;对目标位置所对应的目标区域进行放大处理,得到放大图像;将放大图像发送至辅助视觉眼镜上的镜片上进行显示。
可选地,上述方法还包括:获取与提示音对应的提示词;将提示词发送至辅助视觉眼镜上的镜片上进行显示。
根据本发明实施例的另一方面,还提供了一种基于辅助视觉眼镜的导航装置,包括:获取模块,用于获取辅助视觉眼镜上的摄像头所采集的视频;识别模块,用于识别视频对应的视觉范围内的障碍物,并确定障碍物的障碍物信息,其中,障碍物信息包括:障碍物的障碍物名称和带有方向属性的障碍物位置;生成模块,用于生成包括障碍物名称和障碍物位置的提示音;发送模块,用于向辅助视觉眼镜上的骨传导装置发送提示音。
根据本发明实施例的另一方面,还提供了一种辅助视觉眼镜的眼镜配件,包括:存储器和处理器,存储器存储有计算机程序;处理器,用于执行存储器中存储的计算机程序,计算机程序运行时使得处理器执行上述任意一项的基于辅助视觉眼镜的导航方法。
根据本发明实施例的另一方面,还提供了一种辅助视觉眼镜,包括:眼镜主体和眼镜配件,其中,眼镜主体和眼镜配件通过数据线进行数据通信,眼镜主体包括:眼镜支架,摄像头和骨传导装置,眼镜支架上安装有摄像头和骨传导装置,其中,摄像头,用于采集辅助视觉眼镜所在范围内的视频,并将视频通过数据线发送给眼镜配件;眼镜配件,用于识别视频对应的视觉范围内的障碍物,并确定障碍物的障碍物信息,其中,障碍物信息包括:障碍物的障碍物名称和带有方向属性的障碍物位置;眼镜配件,还用于生成包括障碍物名称和障碍物位置的提示音,并向骨传导装置发送提示音;骨传导装置,用于将提示音传输至佩戴辅助视觉眼镜的对象的耳部。
可选地,辅助视觉眼镜还包括:麦克风,扬声器和镜片,其中,麦克风,用于采集导航指令,并将采集的导航指令发送给眼镜配件,其中,导航指令中携带有导航的目的位置;眼镜配件,还用于确定从辅助视觉眼镜所在的当前位置到目的位置的导航路径,以及从当前位置到目的位置的导航方向,并基于导航方向,生成包括障碍物名称和障碍物位置的提示音,以及生成与提示音对应的提示词;眼镜配件,还用于向扬声器发送提示音,以及向镜片发送提示词;扬声器,用于对提示音进行播放;镜片,用于对提示词进行显示。
根据本发明实施例的另一方面,还提供了一种计算机可读存储介质,计算机可读存储介质包括存储的程序,其中,在程序运行时控制计算机可读存储介质所在设备执行上述任意一项的基于辅助视觉眼镜的导航方法。
根据本发明实施例的另一方面,还提供了一种计算机设备,包括:存储器和处理器,存储器存储有计算机程序;处理器,用于执行存储器中存储的计算机程序,计算机程序运行时使得处理器执行上述任意一项的基于辅助视觉眼镜的导航方法。
在本发明实施例中,通过辅助视觉眼镜上的摄像头采集视频,并对视频对应的视觉范围内的障碍物进行识别,得到该视觉范围内的障碍物对应的名称、带有方向属性的障碍物位置等相关信息,再利用识别出来的障碍物相关信息生成提示音,最后借助辅助视觉眼镜上的骨传导装置发送提示音,从而实现了利用辅助视觉眼镜完成视觉范围内障碍物的精准、全面的识别,进而解决了由于无法准确识别视觉范围内的障碍物造成的无法根据障碍物提供更加精准、人性化的导航服务的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1示出了一种用于实现基于辅助视觉眼镜的导航方法的计算机终端的硬件结构框图;
图2是根据本发明实施例的基于辅助视觉眼镜的导航方法的流程图;
图3是根据本发明可选实施方式的微软hololens2的示意图;
图4是根据本发明可选实施方式的SUNNIQ眼镜示意图;
图5是根据本发明可选实施方式的天使眼智能眼镜示意图;
图6是根据本发明可选实施方式提供的具备骨传导听觉导航功能的辅助视觉智能眼镜的结构示意图;
图7是根据本发明可选实施方式的部分物体识别模型示意图;
图8是根据本发明可选实施方式提供的锚点示意图;
图9是根据本发明可选实施方式的手势指令示意图;
图10是根据本发明可选实施方式的双耳骨传导提示音效果示意图;
图11是根据本发明可选实施方式提供的用户佩戴辅助视觉智能眼镜的示意图;
图12是根据本发明可选实施方式的提示音生成原理示意图;
图13是根据本发明实施例的基于辅助视觉眼镜的导航装置;
图14是根据本发明实施例的眼镜配件示意图;
图15是根据本实施例的辅助视觉眼镜示意图;
图16是根据本发明实施例的一种计算机终端的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
首先,在对本申请实施例进行描述的过程中出现的部分名词或术语适用于如下解释:
增强现实(Augmented Reality,简称AR)技术是一种将虚拟信息与真实世界巧妙融合的技术,广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强。”
计算盒子,一种硬件盒子,内置高性能处理芯片、安卓系统,为AR智能眼镜提供硬件解码、3D渲染计算、无线连接等功能,是AR智能眼镜的重要配件之一。
空间音频,“空间音频”,即Spatial Audio,本质是“计算音频。”空间音频是在杜比全景声的基础上进行算法优化,利用IMU陀螺仪增加摆头时的声向,扩大了声场,通过变换的算法给普通立体声增加了空间感。在空间音频中,虚拟声场提供了比立体声宽广得多、也丰富得多的细节。空间音频的意义不仅在于歌曲听起来更加立体环绕,还在于使音乐给人的感觉更像是身临音乐现场,声音环绕在四周,营造一种现场演唱会的感觉。在空间音频的音乐播放中,声音可以随用户动作和角度的变化而变化,带来真正的沉浸式体验。
骨传导听觉导航,一种使用双耳骨传导声音的导航系统。该系统具有三个功能,可以准确地将用户导航到目标点。使用双耳骨传导声音的导航系统被证实是有效的。
HRTF,头相关传输函数(Head Related Transfer Functions,缩写:HRTF)又称为ATF(anatomical transfer function),是一种音效定位算法。HRTF是一组滤波器,即利用HDITD(Interaural Time Delay、)IAD(Interaural Amplitude Difference)和耳廓频率振动等技术产生立体音效,使声音传递至人耳内的耳廓,耳道和鼓膜时,聆听者会有环绕音效之感觉,通过DSP,HRTF可实时处理虚拟世界的音源。
杜比全景声,杜比全景声(Dolby Atmos)是杜比实验室研发的3D环绕声技术,于2012年4月24日发布。它突破了传统意义上5.1声道、7.1声道的概念,能够结合影片内容,呈现出动态的声音效果;更真实的营造出由远及近的音效;配合顶棚加设音箱,实现声场包围,展现更多声音细节,提升观众的观影感受。适用于影院的杜比全景声最多有64个独立扬声器呈现内容,且多达128个音轨。
实施例1
根据本发明实施例,还提供了一种基于辅助视觉眼镜的导航的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请实施例1所提供的方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。图1示出了一种用于实现基于辅助视觉眼镜的导航方法的计算机终端(或移动设备)的硬件结构框图。如图1所示,计算机终端10(或移动设备)可以包括一个或多个处理器(图中采用102a、102b,……,102n来示出,处理器可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置、)用于存储数据的存储器104、以及用于通信功能的传输装置。除此以外,还可以包括:显示器、输入/输出接口(I/O接口、)通用串行总线(USB)端口(可以作为BUS总线的端口中的一个端口被包括、)网络接口、电源和/或相机。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
应当注意到的是上述一个或多个处理器和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到计算机终端10(或移动设备)中的其他元件中的任意一个内。如本申请实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择。)
存储器104可用于存储应用软件的软件程序以及模块,如本发明实施例中的基于辅助视觉眼镜的导航方法对应的程序指令/数据存储装置,处理器通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的应用程序的漏洞检测方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端1。0上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输装置包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
显示器可以例如触摸屏式的液晶显示器(LCD),该液晶显示器可使得用户能够与计算机终端10(或移动设备)的用户界面进行交互。
在上述运行环境下,本申请提供了如图2所示的基于辅助视觉眼镜的导航方法。图2是根据本发明实施例的基于辅助视觉眼镜的导航方法的流程图,如图2所示,该方法包括如下步骤:
步骤S202,获取辅助视觉眼镜上的摄像头所采集的视频;
步骤S204,识别视频对应的视觉范围内的障碍物,并确定障碍物的障碍物信息,其中,障碍物信息包括:障碍物的障碍物名称和带有方向属性的障碍物位置;
步骤S206,生成包括障碍物名称和障碍物位置的提示音;
步骤S208,向辅助视觉眼镜上的骨传导装置发送提示音。
通过上述步骤,利用辅助视觉眼镜上的摄像头采集视频,并对视频对应的视觉范围内的障碍物进行识别,得到该视觉范围内的障碍物对应的名称、带有方向属性的障碍物位置等相关信息,再利用识别出来的障碍物相关信息生成提示音,最后借助辅助视觉眼镜上的骨传导装置发送提示音,从而实现了利用辅助视觉眼镜完成视觉范围内障碍物的精准、全面的识别,进而解决了由于无法准确识别视觉范围内的障碍物造成的无法根据障碍物提供更加精准、人性化的导航服务的技术问题。
作为一种可选的实施例,获取辅助视觉眼镜上的摄像头所采集的视频,包括:接收辅助视觉眼镜发送的导航指令,其中,导航指令中携带有导航的目的位置;获取辅助视觉眼镜所在的当前位置;依据预定地图,确定从当前位置到目的位置的导航路径;确定导航路径上从当前位置到目的位置的导航方向;获取辅助视觉眼镜朝向导航方向时所采集的视频。通过接收辅助视觉眼镜发送的携带有导航目的位置的导航指令,并获取辅助视觉眼镜当前位置,即可结合预定的地图,根据目的位置和当前位置确定出导航路径,根据导航路径对应的导航方向,就可以确定出辅助视觉眼镜对应的视觉范围,进而完成针对用户视觉范围的视频采集。
需要说明的是,上述在确定目的位置、当前位置、预定地图和导航路径时,可以通过导航应用软件获取相关信息。
作为一种可选的实施例,上述方法还包括:识别视频对应的视觉范围内的非障碍物对象,并确定非障碍物对象的对象信息,其中,对象信息包括以下至少之一:非障碍物对象的印刷文本,非障碍物对象的姿势状态,非障碍物对象的颜色信息,非障碍物对象的条码信息;将对象信息加载至提示音中。在利用辅助视觉眼镜获取得到用户视觉范围对应的视频后,可以对视频中的对象进行识别,视频中的对象可以被区分为障碍物和非障碍物两种(也可以根据实际应用需要进行更加精细的分类),对于非障碍物对象,可以从非障碍物的印刷文本、姿势状态、颜色信息、条码信息等方面对该非障碍物对象进行识别,通过将识别结果加载到提示音中,就可以以提示音的形式帮助用户准确地了解当前视觉范围内的非障碍物对象的相关信息,例如,可以语音朗读或翻译用户面前的文本,也可以利用条码信息识别结果了解面前的物品或完成对商品的付款,还可以利用面前的照片或图片进行面部识别,等等。
作为一种可选的实施例,在上述对视频中的物体进行识别时,可以采用以下方式:利用双目相机获取视频,从视频中获取待识别的物体图像,对物体图像进行预处理(例如,渲染,AR增强,标记,去除杂物感染,等等),将预处理后的物体图像提取出来并基于该预处理后的物体图像进行建模,得到该物体图像对应的3D结构化几何数据,并结合图像计算引擎将该3D结构化几何数据与云端3D数据库中的数据进行比对,确定出物体图像对应的物体类别,其中,3D数据库可以是通过图像识别算法预训练后形成的数据库,之后,再根据空间点位算法确定该物体的实际空间位置,从而完成对视频中的物体的识别。
需要说明的是,在上述对视频中的物体进行识别的可选方法实施例中,图像计算引擎可以设置在独立于辅助视觉眼镜的计算盒子中,且计算盒子可以进行联网,实现与云端的实时通信,高效地完成数据处理。
作为一种可选的实施例,生成包括障碍物名称和障碍物位置的提示音,包括:生成包括障碍物名称和障碍物位置的杜比全景声;将杜比全景声转换成空间音频,得到提示音。通过生成包括障碍物名称和障碍物位置的杜比全景声,并将该杜比全景声转换成空间音频,再将该空间音频作为提示音,用户就可以通过该提示音在空间上感知该障碍物的位置,而无需仅仅根据文字描述猜测障碍物的大概位置,帮助用户增强针对障碍物的空间意识,更有真实感,也能帮助用户更好地躲避障碍物,准确地、安全地将用户导航至目的地。
需要说明的是,在将上述空间音频作为提示音的同时,提示音的内容也可以是针对上述障碍物或非障碍物的具体的描述,例如“9点钟方向5米处有台阶”,“12点钟方向走20米左拐进入联创路”,“3点钟方向2米处有一张长椅”,等等,也可以根据实际需要设置提示音,例如,可以在计算得到障碍物与用户之间的距离小于预定阈值时或识别到有车辆驶向用户时向用户发出警告,等等,确保为用户提供更加全面的提示音服务。
作为一种可选的实施例,生成包括障碍物名称和障碍物位置的杜比全景声,包括:获取佩戴辅助视觉眼镜的对象的耳部结构参数;确定与耳部结构参数对应的头相关传输函数HRTF;在预定声场下,基于HRTF产生包括障碍物名称和障碍物位置的杜比全景声。通过根据用户的耳部结构参数确定对应于该参数的头相关传输函数HRTF,在预定声场下,根据该头相关传输函数HRTF即可产生包括障碍物名称和障碍物位置的杜比全景声,进而保证提示音所携带的空间位置信息是准确的,为用户提供精准的提示音服务。
作为一种可选的实施例,将杜比全景声转换成空间音频,得到提示音,包括:采用球谐函数将杜比全景声进行球谐展开,得到预定阶数的声音数据;将预定阶数的声音数据重构成双耳形式的提示音。通过利用球谐函数可以将产生的杜比全景声球谐展开,就可以得到预定阶数的声音数据,进而得到由预定阶数的声音数据重构成的双耳形式的提示音,也就是通过球谐函数在大脑中模拟出现实中360°的空间声场,在该空间声场中生成一个带有空间属性的双耳信号,即上述的双耳形式的提示音,通过该双耳形式提示音的精确生成,帮助用户可以通过提示音携带的空间位置信息来感知障碍物的位置。
作为一种可选的实施例,将杜比全景声转换成空间音频,得到提示音,包括:将杜比全景声分成双耳数据;分别对双耳数据中的干扰信号进行过滤,得到提示音。通过对双耳数据中的干扰信号进行滤波,将滤波后的双耳数据作为提示音,可以最大程度地保证提示音的清晰度和准确度,避免因环境或其它因素造成的声场干扰、信号噪声或提示音失真等情况,确保为用户提供精准的提示音服务。
作为一种可选的实施例,上述方法还包括:获取目标虚拟图像;通过现实增强AR将目标虚拟图像显示在视觉范围对应的真实空间中。通过获取目标虚拟图像,并利用现实增强AR技术将上述目标虚拟图像显示在视觉范围对应的真实空间中,可以将该目标虚拟图像在辅助视觉眼镜上展示给用户,帮助用户以更加直观、生动的方式了解周围的事物状况,其中,上述的目标虚拟图像不局限于图像的形式,也可以是文本或其它形式。
作为一种可选的实施例,上述方法还包括:识别视频中的手势;确定手势在目标物上所指示的目标位置;对目标位置所对应的目标区域进行放大处理,得到放大图像;将放大图像发送至辅助视觉眼镜上的镜片上进行显示。通过识别视频中的手势并确定该手势对应的目标位置,可以在辅助视觉眼镜的镜片上实现对目标位置的放大显示,实现对目标位置的细节展示,帮助用户完成诸如阅读、识别、检索等等针对上述目标位置的相关操作,同时由于通过手势确定了目标位置,因此,还可以减少针对不必要内容的数据处理,提高了数据处理效率,减轻了算力压力。
需要说明的是,在上述方法中的手势识别中,可以通过识别不同手势完成对应的不同的操作,具体采用何种手势对应于何种操作可以统一设定,也可以由用户根据使用习惯进行自定义设定,进而提供更加全面、人性化的服务。
作为一种可选的实施例,上述方法还包括:获取与提示音对应的提示词;将提示词发送至辅助视觉眼镜上的镜片上进行显示。通过将与提示音对应的提示词发送至辅助视觉眼镜上的镜片进行显示,可以以文字的形式在镜片上引起用户的注意,以避免因为周围环境噪声过大等原因使用户错听或漏听提示音而造成困扰的情况。
需要说明的是,在上述基于辅助视觉眼镜的导航方法实施例和可选实施例中,可以通过将基于MicroOLED的衍射光波导AR镜片作为辅助视觉眼镜中的单目显示镜片,以便用户可以在使用过程中把2D位置信息(例如,箭头、距离、文字,等等)显示在单侧的AR镜片上,以提供除提示音外的视觉辅助提示信息。
需要说明的是,在上述基于辅助视觉眼镜进行导航的方法实施例和可选实施例中,诸如导航、识别、增强现实AR显示等等对应的计算过程可以在与辅助视觉眼镜配套的计算盒子或连接配置好的智能手机中进行,其中,计算盒子也可以进行联网,并与云端进行实时通信,在保证高效完成数据处理的同时,减轻辅助视觉眼镜本身的重量,使用户在采用本发明实施例及可选实施例中的方法时获得更好的体验感。
基于上述实施例和可选实施例,本发明提出一种可选实施方式,下面进行说明。
在全世界范围内,约有4000万盲人以及2.45亿视觉障碍人士,但相关技术中仍未有一种视觉辅助装置能帮助盲人或视觉障碍人士解决日常生活中的物体识别、文字识别等问题。
在相关技术中,主要存在以下三种视觉辅助装置。
(1)图3是根据本发明可选实施方式的微软hololens2的示意图,如图3所示,微软hololens2是基于高通骁龙850XR计算平台做的AR一体机,是针对工业/军用领域设计的头盔式AR智能眼镜,采用4G/wifi连接Azure智能云和边缘计算平台,Hololens2搭载Windows10的定制修改版本Windows Holographic操作系统,但不适合消费电子产品的AR眼镜佩戴。
(2)图4是根据本发明可选实施方式的SUNNIQ眼镜示意图,如图4所示,SUNNIQ眼镜,主要用于高清视频直播记录场景(会议/培训/课堂记录,户外运动/旅游拍摄、商务会谈),不适合视障人士穿戴。
(3)图5是根据本发明可选实施方式的天使眼智能眼镜示意图,如图5所示,天使眼智能眼镜是世界首款采用计算机视觉及人工智能技术辅助盲人感知世界和出行的智能眼镜,利用双目立体摄像头模拟人眼将视觉信息转化为听觉信号。作为视障人士的感官延伸,辅助其感知世界和安全出行。但不能提供物体和文本识别功能。
综上所述,在相关技术中并没有一种视觉辅助装置可以在日常生活中为盲人或视障人士提供全方位视觉辅助服务的方法。
针对上述问题,本发明可选实施方式提出一种基于具备骨传导听觉导航功能的辅助视觉智能眼镜的视觉辅助方法。
图6是根据本发明可选实施方式提供的具备骨传导听觉导航功能的辅助视觉智能眼镜的结构示意图,如图6所示,该辅助视觉智能眼镜包括:(a)带双扬声器/麦克风的眼镜支架;(b)障碍物识别带双摄像头;(c)骨传导装置;(d)智能手机/计算盒子(带4G/GPS);(e)Type-C数据线;(f)可更换、吸铁石镜片。
下面对利用该辅助视觉智能眼镜提供视觉辅助服务的具体方法进行介绍。
(1)物体识别
1)识别视觉范围内的障碍物(包括障碍物名称以及距离用户的距离)或交通标志
图7是根据本发明可选实施方式的部分物体识别模型示意图,如图7所示,通过利用诸如图上所示的3D物体模型完成物体识别,即根据预设的多种3D模型对视觉范围内的物体进行分类,例如,可以根据图7中的3D模型完成“带椅子的桌子”、“沙发和沙发桌”、“树”、“公共汽车停车标志”,等等,并将识别结果以提示音的形式发送给用户,实现针对视觉范围内的障碍物或交通标志的识别和提醒。
图8是根据本发明可选实施方式提供的锚点示意图,如图8所示,利用ARCore软件的增强现实功能,可以将虚拟物体显示在空间中的特定点处。
2)读取任何表面上的印刷文本、自动页面检测、多语言阅读、面部识别、产品识别、条码识别、颜色检测、手指姿势识别、停止手势、看表手势
图9是根据本发明可选实施方式的手势指令示意图,如图9所示,可以响应于用户的不同手势识别结果,完成对应的阅读、识别、检测等操作。
(2)骨传导听觉导航
利用上述辅助视觉智能眼镜进行骨传导听觉导航的方法包括如下步骤:
1)用户通过语音输入目的地,启动智能手机/计算盒子上的的导航应用软件;
2)利用双目相机识别环境,将识别得到的图像(或视频)传输给智能手机/计算盒子;
3)对获得的图像(或视频)信息进行分析,并获取图像(或视频)对应的空间位置,同时识别图像(或视频)中的障碍物;
4)在用户行走期间,通过GPS(Global Positioning System,全球定位系统)获取用户当前位置,利用双耳骨传导声音的导航算法,将方向信息和障碍物位置信息通过提示音或报警音,精确地传达到用户耳中,从而准确地、安全地将用户导航到目的地,图10是根据本发明可选实施方式的双耳骨传导提示音效果示意图,如图10所示,可以利用辅助视觉智能眼镜发出例如“9点钟方向5米处有台阶”、“12点钟方向走20米左拐进入联创路”、“3点钟方向2米处有个长椅”等的提示音,除提示音的具体内容包括方向指示信息外,提示音本身也可以携带空间位置信息,帮助用户更准确地感知障碍物的空间位置。
其中,上述的提示音可以采用平移双耳声音的声定位系统,使用引导语音进行导航,通知用户应往哪个方向走,而为了加强对行走方向的感知,上述提示音也可以应用基于骨传导的双耳声音复制技术。
综上,当用户需要通过导航地图到指定目的地时,通过语音输入目的地信息,对应的导航应用软件皆可以提供导航信息文本,由上述辅助视觉智能眼镜通过空间音频算法将导航信息结合双耳骨传导声音的导航算法,将方向信息以及行走过程中进入视觉范围内的障碍物信息通过提示音或报警音,将导航提示音实时地转换成扬声器中带有方向属性的空间音频,精准地传达到用户耳中,从而准确地、安全地将用户导航到目的地。
图11是根据本发明可选实施方式提供的用户佩戴辅助视觉智能眼镜的示意图,如图11所示,用户也可以通过该辅助视觉智能眼镜以AR或镜片显示等方式了解当前导航信息。
图12是根据本发明可选实施方式的提示音生成原理示意图,如图12所示,利用IMAGE(图像)方法,或者利用光线传播来模拟声音传播的RayTracing(光线追踪)方法,基于用户所在的声场将物体的位置以三维立体的空间音频的形式发送给用户。而上述的方位信息主要依靠HRTF(头相关相关函数)进行处理。
对于双耳重放,采用Ambisonics技术(包括First Order Ambisonics和HighOrder Ambisonics)在头部区域重构物理声场,基本原理是波动方程的球谐展开,利用球谐函数(Spherical Harmonics,简称SH)对声源进行分解合成,且球谐函数的阶数越高逼真效果就越好,再通过扬声器重放,或者通过固定的滤波器组转化为双耳数据。
由于听觉系统最终是利用耳道外的双耳信号对声学场景进行感知,因此利用HRTF对目标声源信号进行滤波得到目标双耳信号,其中,真实的HRTF通过测量得到,未测量的角度可以考虑采用插值的形式。
综上所述,本发明可选实施方式提出的基于具备骨传导听觉导航功能的辅助视觉智能眼镜的视觉辅助方法通过采用图像识别、手语识别算法、AR辅助显示等方式,解决视障人士的出行、工作、学习问题。同时由于对辅助视觉智能眼镜采用AR分体式设计,将需要重算力的任务交给计算盒子处理,避免了辅助视觉智能眼镜发热严重、耗电大、续航时间短的问题。通过采用单色、单目AR模组,减轻了眼镜质量,提升了辅助视觉智能眼镜的可穿戴舒适性。且在本发明可选实施方式中由于自带扬声器和降噪麦克风,也可以实现语音输入、语音播报等。同时,针对视障人士,还可以读取任何表面上的印刷文本、自动页面检测、多语言阅读、面部识别、产品识别、条码识别、颜色检测、手指姿势识别、停止手势、看表手势,也可以利用双目立体摄像头模拟人眼将视觉信息转化为听觉信号。作为视障人士的感官延伸,辅助其感知世界和安全出行,帮助视障人士更好地进行生活、学习、工作,还可以将图像有效放大,或者将画面对比度调至清晰,从而减少了外出危险,帮助低视力人群自主出行,还可以代替扩视器,将文字放大阅读,或将文字识别转化为语音。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的基于辅助视觉眼镜的导航方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个计算机可读存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
实施例2
根据本发明实施例,还提供了一种用于实施上述基于辅助视觉眼镜的导航方法的装置,图13是根据本发明实施例的基于辅助视觉眼镜的导航装置,如图13所示,该装置包括:获取模块1301,识别模块1302,生成模块1303和发送模块1304,下面对该装置进行说明。
获取模块1301,用于获取辅助视觉眼镜上的摄像头所采集的视频;识别模块1302,连接至上述获取模块1301,用于识别视频对应的视觉范围内的障碍物,并确定障碍物的障碍物信息,其中,障碍物信息包括:障碍物的障碍物名称和带有方向属性的障碍物位置;生成模块1303,连接至上述识别模块1302,用于生成包括障碍物名称和障碍物位置的提示音;发送模块1304,连接至上述生成模块1303,用于向辅助视觉眼镜上的骨传导装置发送提示音。
此处需要说明的是,上述获取模块1301,识别模块1302,生成模块1303和发送模块1304对应于实施例1中的步骤S202至步骤S208,四个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
实施例3
本发明实施例可以提供一种辅助视觉眼镜的眼镜配件,图14是根据本发明实施例的眼镜配件示意图,如图14所示,眼镜配件包括:存储器1401和处理器1402,存储器存储有计算机程序;处理器,用于执行存储器中存储的计算机程序,计算机程序运行时使得处理器执行上述任意一项的基于辅助视觉眼镜的导航方法。
本发明实施例还提供了一种辅助视觉眼镜,图15是根据本实施例的辅助视觉眼镜示意图,如图15所示,辅助视觉眼镜包括眼镜主体1501和眼镜配件1502,其中,眼镜主体1501和眼镜配件1502通过数据线1503进行数据通信,下面对该辅助视觉眼镜进行介绍。
眼镜主体1501包括:眼镜支架,摄像头和骨传导装置,眼镜支架上安装有摄像头和骨传导装置,其中,摄像头,用于采集辅助视觉眼镜所在范围内的视频,并将视频通过数据线发送给眼镜配件;眼镜配件1502,用于识别视频对应的视觉范围内的障碍物,并确定障碍物的障碍物信息,其中,障碍物信息包括:障碍物的障碍物名称和带有方向属性的障碍物位置;眼镜配件1502,还用于生成包括障碍物名称和障碍物位置的提示音,并向骨传导装置发送提示音;骨传导装置,用于将提示音传输至佩戴辅助视觉眼镜的对象的耳部。
可选地,上述辅助视觉眼镜还包括:麦克风,扬声器和镜片,其中,麦克风,用于采集导航指令,并将采集的导航指令发送给眼镜配件,其中,导航指令中携带有导航的目的位置;眼镜配件,还用于确定从辅助视觉眼镜所在的当前位置到目的位置的导航路径,以及从当前位置到目的位置的导航方向,并基于导航方向,生成包括障碍物名称和障碍物位置的提示音,以及生成与提示音对应的提示词;眼镜配件,还用于向扬声器发送提示音,以及向镜片发送提示词;扬声器,用于对提示音进行播放;镜片,用于对提示词进行显示。
需要说明的是,上述的眼镜配件1502还可以联网,实现与云端的实时通信。
需要说明的是,上述辅助视觉眼镜还可以采用基于MicroOLED的衍射光波导AR镜片作为辅助视觉眼镜中的单目显示镜片,其中,该单目显示镜片可以将2D位置信息(例如,箭头、距离、文字,等等)显示在单侧的AR镜片上。
本发明的实施例可以提供一种计算机终端,该计算机终端可以是计算机终端群中的任意一个计算机终端设备。可选地,在本实施例中,上述计算机终端也可以替换为移动终端等终端设备。
可选地,在本实施例中,上述计算机终端可以位于计算机网络的多个网络设备中的至少一个网络设备。
在本实施例中,上述计算机终端可以执行应用程序的基于辅助视觉眼镜的导航方法中以下步骤的程序代码:获取辅助视觉眼镜上的摄像头所采集的视频;识别视频对应的视觉范围内的障碍物,并确定障碍物的障碍物信息,其中,障碍物信息包括:障碍物的障碍物名称和带有方向属性的障碍物位置;生成包括障碍物名称和障碍物位置的提示音;向辅助视觉眼镜上的骨传导装置发送提示音。
可选地,图16是根据本发明实施例的一种计算机终端的结构框图。如图16所示,该计算机终端可以包括:一个或多个(图中仅示出一个)处理器、存储器等。
其中,存储器可用于存储软件程序以及模块,如本发明实施例中的基于辅助视觉眼镜的导航方法和装置对应的程序指令/模块,处理器通过运行存储在存储器内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的基于辅助视觉眼镜的导航方法。存储器可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:获取辅助视觉眼镜上的摄像头所采集的视频;识别视频对应的视觉范围内的障碍物,并确定障碍物的障碍物信息,其中,障碍物信息包括:障碍物的障碍物名称和带有方向属性的障碍物位置;生成包括障碍物名称和障碍物位置的提示音;向辅助视觉眼镜上的骨传导装置发送提示音。
可选的,上述处理器还可以执行如下步骤的程序代码:接收辅助视觉眼镜发送的导航指令,其中,导航指令中携带有导航的目的位置;获取辅助视觉眼镜所在的当前位置;依据预定地图,确定从当前位置到目的位置的导航路径;确定导航路径上从当前位置到目的位置的导航方向;获取辅助视觉眼镜朝向导航方向时所采集的视频。
可选的,上述处理器还可以执行如下步骤的程序代码:识别视频对应的视觉范围内的非障碍物对象,并确定非障碍物对象的对象信息,其中,对象信息包括以下至少之一:非障碍物对象的印刷文本,非障碍物对象的姿势状态,非障碍物对象的颜色信息,非障碍物对象的条码信息;将对象信息加载至提示音中。
可选的,上述处理器还可以执行如下步骤的程序代码:生成包括障碍物名称和障碍物位置的杜比全景声;将杜比全景声转换成空间音频,得到提示音。
可选的,上述处理器还可以执行如下步骤的程序代码:获取佩戴辅助视觉眼镜的对象的耳部结构参数;确定与耳部结构参数对应的头相关传输函数HRTF;在预定声场下,基于HRTF产生包括障碍物名称和障碍物位置的杜比全景声。
可选的,上述处理器还可以执行如下步骤的程序代码:采用球谐函数将杜比全景声进行球谐展开,得到预定阶数的声音数据;将预定阶数的声音数据重构成双耳形式的提示音。
可选的,上述处理器还可以执行如下步骤的程序代码:将杜比全景声分成双耳数据;分别对双耳数据中的干扰信号进行过滤,得到提示音。
可选的,上述处理器还可以执行如下步骤的程序代码:获取目标虚拟图像;通过现实增强AR将目标虚拟图像显示在视觉范围对应的真实空间中。
可选的,上述处理器还可以执行如下步骤的程序代码:识别视频中的手势;确定手势在目标物上所指示的目标位置;对目标位置所对应的目标区域进行放大处理,得到放大图像;将放大图像发送至辅助视觉眼镜上的镜片上进行显示。
可选的,上述处理器还可以执行如下步骤的程序代码:获取与提示音对应的提示词;将提示词发送至辅助视觉眼镜上的镜片上进行显示。
采用本发明实施例,提供了一种基于辅助视觉眼镜的导航方案。通过辅助视觉眼镜上的摄像头采集视频,并对视频对应的视觉范围内的障碍物进行识别,得到该视觉范围内的障碍物对应的名称、带有方向属性的障碍物位置等相关信息,再利用识别出来的障碍物相关信息生成提示音,最后借助辅助视觉眼镜上的骨传导装置发送提示音,从而实现了利用辅助视觉眼镜完成视觉范围内障碍物的精准、全面的识别,进而解决了由于无法准确识别视觉范围内的障碍物造成的无法根据障碍物提供更加精准、人性化的导航服务的技术问题。
本领域普通技术人员可以理解,图16所示的结构仅为示意,计算机终端也可以是智能手机(如Android手机、iOS手机等、)平板电脑、掌声电脑以及移动互联网设备(MobileInternetDevices,MID、)PAD等终端设备。图16其并不对上述电子装置的结构造成限定。例如,计算机终端还可包括比图16中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图16所示不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,计算机可读存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM、)随机存取器(Random Access Memory,RAM、)磁盘或光盘等。
实施例4
本发明的实施例还提供了一种计算机可读存储介质。可选地,在本实施例中,上述计算机可读存储介质可以用于保存上述实施例1所提供的基于辅助视觉眼镜的导航方法所执行的程序代码。
可选地,在本实施例中,上述计算机可读存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
可选地,在本实施例中,计算机可读存储介质被设置为存储用于执行以下步骤的程序代码:获取辅助视觉眼镜上的摄像头所采集的视频;识别视频对应的视觉范围内的障碍物,并确定障碍物的障碍物信息,其中,障碍物信息包括:障碍物的障碍物名称和带有方向属性的障碍物位置;生成包括障碍物名称和障碍物位置的提示音;向辅助视觉眼镜上的骨传导装置发送提示音。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个计算机可读存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的计算机可读存储介质包括:U盘、只读存储器(ROM,Read-Only Memory、)随机存取存储器(RAM,Random Access Memory、)移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (16)
1.一种基于辅助视觉眼镜的导航方法,其特征在于,包括:
获取所述辅助视觉眼镜上的摄像头所采集的视频;
识别所述视频对应的视觉范围内的障碍物,并确定所述障碍物的障碍物信息,其中,所述障碍物信息包括:所述障碍物的障碍物名称和带有方向属性的障碍物位置;
生成包括所述障碍物名称和所述障碍物位置的提示音;
向所述辅助视觉眼镜上的骨传导装置发送所述提示音。
2.根据权利要求1所述的方法,其特征在于,所述获取所述辅助视觉眼镜上的摄像头所采集的视频,包括:
接收所述辅助视觉眼镜发送的导航指令,其中,所述导航指令中携带有导航的目的位置;
获取所述辅助视觉眼镜所在的当前位置;
依据预定地图,确定从所述当前位置到所述目的位置的导航路径;
确定所述导航路径上从所述当前位置到所述目的位置的导航方向;
获取所述辅助视觉眼镜朝向所述导航方向时所采集的所述视频。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
识别所述视频对应的视觉范围内的非障碍物对象,并确定所述非障碍物对象的对象信息,其中,所述对象信息包括以下至少之一:所述非障碍物对象的印刷文本,所述非障碍物对象的姿势状态,所述非障碍物对象的颜色信息,所述非障碍物对象的条码信息;
将所述对象信息加载至所述提示音中。
4.根据权利要求1所述的方法,其特征在于,所述生成包括所述障碍物名称和所述障碍物位置的提示音,包括:
生成包括所述障碍物名称和所述障碍物位置的杜比全景声;
将所述杜比全景声转换成空间音频,得到所述提示音。
5.根据权利要求4所述的方法,其特征在于,所述生成包括所述障碍物名称和所述障碍物位置的杜比全景声,包括:
获取佩戴所述辅助视觉眼镜的对象的耳部结构参数;
确定与所述耳部结构参数对应的头相关传输函数HRTF;
在预定声场下,基于所述HRTF产生包括所述障碍物名称和所述障碍物位置的所述杜比全景声。
6.根据权利要求4所述的方法,其特征在于,所述将所述杜比全景声转换成空间音频,得到所述提示音,包括:
采用球谐函数将所述杜比全景声进行球谐展开,得到预定阶数的声音数据;
将所述预定阶数的声音数据重构成双耳形式的所述提示音。
7.根据权利要求4所述的方法,其特征在于,所述将所述杜比全景声转换成空间音频,得到所述提示音,包括:
将所述杜比全景声分成双耳数据;
分别对所述双耳数据中的干扰信号进行过滤,得到所述提示音。
8.根据权利要求1至7中任一项所述的方法,其特征在于,所述方法还包括:
获取目标虚拟图像;
通过现实增强AR将所述目标虚拟图像显示在所述视觉范围对应的真实空间中。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
识别所述视频中的手势;
确定所述手势在目标物上所指示的目标位置;
对所述目标位置所对应的目标区域进行放大处理,得到放大图像;
将所述放大图像发送至所述辅助视觉眼镜上的镜片上进行显示。
10.根据权利要求8所述的方法,其特征在于,所述方法还包括:
获取与所述提示音对应的提示词;
将所述提示词发送至所述辅助视觉眼镜上的镜片上进行显示。
11.一种基于辅助视觉眼镜的导航装置,其特征在于,包括:
获取模块,用于获取所述辅助视觉眼镜上的摄像头所采集的视频;
识别模块,用于识别所述视频对应的视觉范围内的障碍物,并确定所述障碍物的障碍物信息,其中,所述障碍物信息包括:所述障碍物的障碍物名称和带有方向属性的障碍物位置;
生成模块,用于生成包括所述障碍物名称和所述障碍物位置的提示音;
发送模块,用于向所述辅助视觉眼镜上的骨传导装置发送所述提示音。
12.一种辅助视觉眼镜的眼镜配件,其特征在于,包括:存储器和处理器,
所述存储器存储有计算机程序;
所述处理器,用于执行所述存储器中存储的计算机程序,所述计算机程序运行时使得所述处理器执行权利要求1至10中任意一项所述的基于辅助视觉眼镜的导航方法。
13.一种辅助视觉眼镜,其特征在于,包括:眼镜主体和眼镜配件,其中,所述眼镜主体和所述眼镜配件通过数据线进行数据通信,所述眼镜主体包括:眼镜支架,摄像头和骨传导装置,所述眼镜支架上安装有所述摄像头和所述骨传导装置,其中,
所述摄像头,用于采集所述辅助视觉眼镜所在范围内的视频,并将所述视频通过所述数据线发送给所述眼镜配件;
所述眼镜配件,用于识别所述视频对应的视觉范围内的障碍物,并确定所述障碍物的障碍物信息,其中,所述障碍物信息包括:所述障碍物的障碍物名称和带有方向属性的障碍物位置;
所述眼镜配件,还用于生成包括所述障碍物名称和所述障碍物位置的提示音,并向所述骨传导装置发送所述提示音;
所述骨传导装置,用于将所述提示音传输至佩戴所述辅助视觉眼镜的对象的耳部。
14.根据权利要求13所述的辅助视觉眼镜,其特征在于,所述辅助视觉眼镜还包括:麦克风,扬声器和镜片,其中,
所述麦克风,用于采集导航指令,并将采集的所述导航指令发送给所述眼镜配件,其中,所述导航指令中携带有导航的目的位置;
所述眼镜配件,还用于确定从所述辅助视觉眼镜所在的当前位置到所述目的位置的导航路径,以及从所述当前位置到所述目的位置的导航方向,并基于所述导航方向,生成包括所述障碍物名称和所述障碍物位置的提示音,以及生成与所述提示音对应的提示词;
所述眼镜配件,还用于向所述扬声器发送所述提示音,以及向所述镜片发送所述提示词;
所述扬声器,用于对所述提示音进行播放;
所述镜片,用于对所述提示词进行显示。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的程序,其中,在所述程序运行时控制所述计算机可读存储介质所在设备执行权利要求1至10中任意一项所述的基于辅助视觉眼镜的导航方法。
16.一种计算机设备,其特征在于,包括:存储器和处理器,
所述存储器存储有计算机程序;
所述处理器,用于执行所述存储器中存储的计算机程序,所述计算机程序运行时使得所述处理器执行权利要求1至10中任意一项所述的基于辅助视觉眼镜的导航方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210515974.8A CN115077525A (zh) | 2022-05-12 | 2022-05-12 | 基于辅助视觉眼镜的导航方法以及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210515974.8A CN115077525A (zh) | 2022-05-12 | 2022-05-12 | 基于辅助视觉眼镜的导航方法以及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115077525A true CN115077525A (zh) | 2022-09-20 |
Family
ID=83246997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210515974.8A Pending CN115077525A (zh) | 2022-05-12 | 2022-05-12 | 基于辅助视觉眼镜的导航方法以及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115077525A (zh) |
-
2022
- 2022-05-12 CN CN202210515974.8A patent/CN115077525A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9949056B2 (en) | Method and apparatus for presenting to a user of a wearable apparatus additional information related to an audio scene | |
CA2898750C (en) | Devices and methods for the visualization and localization of sound | |
Ribeiro et al. | Auditory augmented reality: Object sonification for the visually impaired | |
JP7284252B2 (ja) | Arにおける自然言語翻訳 | |
WO2019237427A1 (zh) | 用于辅助听障人士的方法、装置和系统及增强现实眼镜 | |
US11758347B1 (en) | Dynamic speech directivity reproduction | |
US20180101990A1 (en) | System and method for providing simulated environment | |
Yang et al. | Audio augmented reality: A systematic review of technologies, applications, and future research directions | |
JP6656382B2 (ja) | マルチメディア情報を処理する方法及び装置 | |
Bujacz et al. | Sound of Vision-Spatial audio output and sonification approaches | |
CN112506336A (zh) | 具有触觉输出的头戴式显示器 | |
WO2019237428A1 (zh) | 用于提供声源信息的方法和装置及增强现实眼镜 | |
CN108269460B (zh) | 一种电子屏幕的阅读方法、系统及终端设备 | |
WO2016131793A1 (en) | Method of transforming visual data into acoustic signals and aid device for visually impaired or blind persons | |
CN111611812B (zh) | 翻译成盲文 | |
CN105893452B (zh) | 一种呈现多媒体信息的方法及装置 | |
WO2019237429A1 (zh) | 用于辅助交流的方法、装置和系统及增强现实眼镜 | |
CN114339582B (zh) | 双通道音频处理、方向感滤波器生成方法、装置以及介质 | |
CN115077525A (zh) | 基于辅助视觉眼镜的导航方法以及装置 | |
CN111081120A (zh) | 一种协助听说障碍人士交流的智能穿戴设备 | |
CN105894581B (zh) | 一种呈现多媒体信息的方法及装置 | |
CN111121749B (zh) | 一种基于神经网络的3d音效增强现实盲人导航系统的导航方法 | |
Bălan et al. | Assistive it for visually imapired people | |
CN113050917A (zh) | 一种立体感知环境的智能助盲眼镜系统 | |
JP6680886B2 (ja) | マルチメディア情報を表示する方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |