CN112188059B - 可穿戴设备、智能引导方法及装置、引导系统 - Google Patents
可穿戴设备、智能引导方法及装置、引导系统 Download PDFInfo
- Publication number
- CN112188059B CN112188059B CN202011060870.XA CN202011060870A CN112188059B CN 112188059 B CN112188059 B CN 112188059B CN 202011060870 A CN202011060870 A CN 202011060870A CN 112188059 B CN112188059 B CN 112188059B
- Authority
- CN
- China
- Prior art keywords
- component
- scene
- scene image
- information
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/08—Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/703—SSIS architectures incorporating pixels for producing signals other than image signals
- H04N25/705—Pixels for depth measurement, e.g. RGBZ
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/024—Guidance services
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1602—Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
- A61H2201/165—Wearable interfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
- A61H2201/5048—Audio interfaces, e.g. voice or music controlled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Pain & Pain Management (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Epidemiology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Vascular Medicine (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本申请提供了一种可穿戴设备、智能引导方法及装置、引导系统,本申请的实施例在光照强度较大时,即第一场景图像的亮度较大时,利用第二可见光摄像部件拍摄的第二场景图像确定场景中对象的深度信息;在光照强度较小时,即第一场景图像的亮度较小时,利用深度摄像部件拍摄的第二场景图像确定场景中对象的深度信息。实现了根据环境光照强度的不同,选用不同的部件采集图像来为目标对象提供引导服务,能够有效适应将光照强度的变化,获取到较为丰富的环境信息,同时,能够检测到缺乏纹理的障碍物,提高了障碍物检测的精确度和引导的安全性。
Description
技术领域
本申请涉及图像处理技术领域,具体而言,涉及一种可穿戴设备、智能引导方法及装置、可穿戴设备、引导系统。
背景技术
存在视力障碍人的数量巨大,这部分人的出行范围受限制,活动范围很小,并且出行中存在很大的安全隐患,造成该部分人的生活质量差。
现有的导盲技术能够为存在视力障碍的人检测障碍物,给出导航指示。例如,现有的导盲技术在机器视觉、人工智能发展的基础上,利用摄像头构造AR眼镜,基于AR眼镜采集到的图像进行障碍物检测。这在一定程度上扩大了该部分人的活动范围,提高了出行的安全性。但是现有AR眼镜中的摄像头对环境的适应能力较差,不能很好的适应光照强度变化较大的场景,在光照强度变化较大时,无法获取到丰富的环境信息;并且对于缺乏纹理、外表光滑、透明度高或距离较远的障碍物无法有效检测到。因此,现有的导盲技术无法精确的检测障碍物,无法为存在视力障碍的人提供高安全度的导盲服务。
发明内容
本申请实施例至少提供一种基于可穿戴设备的智能引导方法及装置、可穿戴设备、引导系统,以提高深度信息检测的准确性,以及引导的准确性和安全性。
第一方面,本申请实施例提供了一种基于可穿戴设备的智能引导方法,所述可穿戴设备包括第一可见光摄像部件、第二可见光摄像部件和深度摄像部件,所述方法包括:
获取第一可见光摄像部件采集的第一场景图像;
检测所述第一场景图像的亮度;
响应于所述第一场景图像的亮度满足预设的亮度,获取所述第二可见光摄像部件采集的第二场景图像,和/或,响应于所述第一场景图像的亮度不满足预设的亮度,获取所述深度摄像部件采集的第二场景图像;
基于所述第二场景图像确定场景中的对象的深度信息;
基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息。
该方案,在光照强度较大时,即第一场景图像的亮度较大时,利用第二可见光摄像部件拍摄的第二场景图像确定场景中对象的深度信息;在光照强度较小时,即第一场景图像的亮度较小时,利用深度摄像部件拍摄的第二场景图像确定场景中对象的深度信息。由此,实现了根据环境光照强度的不同,选用不同的部件采集的图像来为目标对象提供引导服务,能够有效适应将光照强度的变化,获取到较为丰富的环境信息,同时,能够检测到缺乏纹理的障碍物,提高了障碍物检测的精确度和引导的安全性。
在一种可能的实施方式中,所述响应于所述第一场景图像的亮度满足预设的亮度,获取所述第二可见光摄像部件采集的第二场景图像,包括:
响应于所述第一场景图像的亮度满足预设的亮度,向所述第二可见光摄像部件发送第一曝光指令,并获取所述第二可见光摄像部件基于所述第一曝光指令进行曝光控制而采集到的第二场景图像;
所述响应于所述第一场景图像的亮度不满足预设的亮度,获取所述深度摄像部件采集的第二场景图像,包括:
响应于所述第一场景图像的亮度不满足预设的亮度,向所述深度摄像部件发送第二曝光指令,获取所述深度摄像部件基于所述第二曝光指令进行曝光控制而采集到的第二场景图像。
该实施方式,在光照强度较大时,控制第二可见光摄像部件进行曝光,在光照强度较小时,控制深度摄像部件进行曝光,实现了根据环境光照强度的不同,切换不同的摄像部件来采集用于确定对象的深度信息的第二场景图像,能够主动地适应将光照强度的变化,获取到较为丰富的环境信息,同时,能够检测到缺乏纹理的障碍物,提高了障碍物检测的精确度和引导的安全性。
在一种可能的实施方式中,所述基于所述第二场景图像确定场景中的对象的深度信息,包括:
响应于所述第一场景图像的亮度满足预设的亮度,将所述第一场景图像中表征场景中的对象的像素点与所述第二场景图像中表征场景中的对象的像素点进行匹配,得到像素点对;
基于与所述像素点对相对应的视差信息、所述第一可见光摄像部件与所述第二可见光摄像部件的中心距以及所述第一可见光摄像部件的焦距,确定所述场景中的对象的深度信息。
该实施方式,在光照强度较强时,结合第一可见光摄像部件采集的第一场景图像和第二可见光摄像部件采集的第二场景图像能够较为准确的确定场景中对象的深度信息。
在一种可能的实施方式中,所述基于所述第二场景图像确定场景中的对象的深度信息,包括:
响应于所述第一场景图像的亮度不满足预设的亮度,确定场景中的对象在所述第二场景图像中的目标像素点;
根据所述第二场景图像中所述目标像素点的深度信息,确定所述场景中的对象的深度信息。
该实施方式,在光照强度较弱时,利用深度摄像部件采集的深度图像,即深度摄像部件采集的第二场景图像中的像素点的深度信息,能够较为准确地确定场景中对象的深度信息,能够检测出缺乏纹理的障碍物,提高了在光照强度较弱时障碍物检测的精确度。
在一种可能的实施方式中,所述基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息,包括:
生成提示信息,所述提示信息用于向所述佩戴所述可穿戴设备的目标对象提示所述深度信息。
该实施方式,向目标对象提示场景中对象的深度信息,能够对目标独享的运行进行有效的引导,提高引导效率和引导的安全性。
在一种可能的实施方式中,还包括:
基于所述第一场景图像确定场景中的对象相对于可穿戴设备的方位信息;
所述基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息,包括:
基于场景中的对象相对于可穿戴设备的方位信息和场景中的对象的深度信息,生成对佩戴所述可穿戴设备的目标对象的引导信息。
该实施方式,基于方位信息和深度信息,能够为目标对象生成信息量更大、内容更丰富的引导信息,从而能够进一步提高引导的效率和引导的安全性。
在一种可能的实施方式中,所述可穿戴设备还包括超声探测部件;
所述方法还包括:
响应于所述深度信息对应的深度大于预设深度阈值和/或检测到所述第一场景图像中包含预设类别的对象,向所述超声探测部件发送超声探测指令,并接收所述超声探测部件基于所述超声探测指令探测到的超声波反馈信号;
基于接收的所述超声波反馈信号,更新所述场景中的对象的深度信息。
该实施方式,由于环境复杂或物体自身特性的影响,造成通过可见光摄像部件或深度摄像部件拍摄的第二场景图像不能准确确定场景中对象的深度信息,或是检测到第一场景图像中包括透明度较高或外表比较光滑等特性的对象时,利用超声探测部件进行深度信息检测,提高了可穿戴设备的适用性,能够在更加复杂的环境中更加精确的检测场景中对象的深度信息。
在一种可能的实施方式中,所述可穿戴设备还包括姿态测量部件;
所述方法还包括:
获取姿态测量部件采集的可穿戴设备的姿态信息;
响应于根据所述姿态信息确定佩戴所述可穿戴设备的目标对象的姿态处于第一预设姿态,生成姿态纠正提示信息。
该实施方式,通过姿态测量部件测量的可穿戴设备的姿态信息,能够在目标对象的姿态处于第一预设姿态时,生成提醒目标对象纠正姿态的姿态纠正提示信息,从而能够使可穿戴设设备拍摄到影响目标对象运行的对象,进一步提高了引导信息的准确性和引导的安全性。
在一种可能的实施方式中,所述方法还包括:
基于所述第一场景图像确定场景中的对象相对于所述可穿戴设备的方位信息;
基于所述可穿戴设备的姿态信息,将所述方位信息转换为场景中的对象相对于处于第二预设姿态的可穿戴设备的方位信息;
所述基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息,包括:
基于转换后的方位信息和场景中的对象的深度信息,生成对佩戴所述可穿戴设备的目标对象的引导信息和/或姿态纠正提示信息。
该实施方式,将场景中的对象相对于所述可穿戴设备的方位信息,转换为场景中的对象相对于处于第二预设姿态的可穿戴设备的方位信息,即生成了对目标对象的运行有效的方位信息,利用该有效的方位信息能够生成更加准确和有效的引导信息。
在一种可能的实施方式中,所述可穿戴设备还包括发声部件;
所述方法还包括:
基于所述引导信息生成语音导航信息,并发送至所述发声部件,以使所述发生部件向所述目标对象播放所述语音导航信息。
该实施方式,利用语音导航信息和发声部件能够有效引导目标对象避开障碍物,提高了引导效率和安全性。
在一种可能的实施方式中,所述可穿戴设备还包括分频电路;
所述响应于所述第一场景图像的亮度满足预设的亮度,获取所述第二可见光摄像部件采集的第二场景图像,包括:
响应于所述第一场景图像的亮度满足预设的亮度,向所述分频电路发送曝光指令,以使所述分频电路对接收的曝光指令进行分频处理并将分频处理得到的第三曝光指令发送给第二可见光摄像部件,以及,获取所述第二可见光摄像部件基于所述第三曝光指令进行曝光控制而采集到的第二场景图像;和/或
所述响应于所述第一场景图像的亮度不满足预设的亮度,获取所述深度摄像部件采集的第二场景图像,包括:
响应于所述第一场景图像的亮度不满足预设的亮度,向所述分频电路发送曝光指令,以使所述分频电路对接收的曝光指令进行分频处理并将分频处理得到的第四曝光指令发送给深度摄像部件,以及,获取所述深度摄像部件基于所述第四曝光指令进行曝光控制而采集到的第二场景图像。
该实施方式,利用分频电路对曝光指令进行分频处理,并利用分频处理得到的曝光指令控制第二可见光摄像部件或深度摄像部件采集图像,实现了控制不同帧频的摄像部件同时曝光,节省了能源消耗。
第二方面,本申请实施例提供了一种基于可穿戴设备的智能引导装置,所述可穿戴设备包括第一可见光摄像部件、第二可见光摄像部件和深度摄像部件,所述装置包括:
第一图像获取模块,用于获取第一可见光摄像部件采集的第一场景图像;
亮度检测模块,用于检测所述第一场景图像的亮度;
第二图像获取模块,用于响应于所述第一场景图像的亮度满足预设的亮度,获取所述第二可见光摄像部件采集的第二场景图像,和/或,响应于所述第一场景图像的亮度不满足预设的亮度,获取所述深度摄像部件采集的第二场景图像;
检测模块,用于基于所述第二场景图像确定场景中的对象的深度信息;
引导信息生成模块,用于基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息。
第三方面,本申请实施例提供了一种可穿戴设备,包括处理部件、第一可见光摄像部件、第二可见光摄像部件和深度摄像部件;
所述第一可见光摄像部件,用于采集第一场景图像;
所述第二可见光摄像部件和所述深度摄像部件用于采集第二场景图像;
所述处理部件,用于执行上述基于可穿戴设备的智能引导方法。
在一种可能的实施方式中,上述可穿戴设备还包括信号串行部件、信号传输线缆和信号解串部件;
所述信号串行部件与所述第一可见光摄像部件、第二可见光摄像部件、深度摄像部件通信连接;所述信号传输线缆的两端分别与所述信号串行部件和信号解串部件连接;所述信号解串部件与所述处理部件通信连接;
所述第一可见光摄像部件,还用于将所述第一场景图像发送给所述信号串行部件;
所述第二可见光摄像部件和所述深度摄像部件,还用于将所述第二场景图像发送给所述信号串行部件;
所述信号串行部件,用于将接收的第一场景图像和第二场景图像转换为串行信号,并通过所述信号传输线缆发送给所述信号解串部件;
所述信号解串部件,用于将接收的信号进行解串行处理,并将解串行处理得到的信号发送给所述处理部件。
该实施方式,利用信号串行部件将摄像部件拍摄的图像转换为串行信号,例如双绞线高速差分信号来进行传输,能够只利用两根线就能传输信号,并且传输速度更快、成本更低,传输距离更远,部件的体积更小。
在一种可能的实施方式中,所述深度摄像部件包括TOF摄像头。
该实施方式,利用TOF摄像头能够在光照强度较弱时,较为准确的获取到场景中对象的深度信息。
第四方面,本申请实施例提供了一种引导系统,包括可穿戴设备和主机;
所述可穿戴设备包括第一可见光摄像部件、第二可见光摄像部件和深度摄像部件;
所述主机包括处理部件,所述处理部件与所述第一可见光摄像部件、第二可见光摄像部件和深度摄像部件通过信号传输线缆连接,所述处理部件用于执行上述基于可穿戴设备的智能引导方法。
在一种可能的实施方式中,所述主机设有与所述处理部件连接的以下至少一项:定位模组、网络模组、用于检测工作状态和/或充电管理的微控单元、音频模组。
第五方面,本申请实施例提供了一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行上述智能引导方法的步骤。
第六方面,本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述智能引导方法的步骤。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本申请的实施例,并与说明书一起用于说明本申请的技术方案。应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例所提供的一种基于可穿戴设备的智能引导方法的流程图;
图2示出了本申请实施例所提供的一种可穿戴设备的结构示意图;
图3示出了本申请实施例所提供的一种引导系统的结构示意图;
图4示出了本申请实施例所提供的一种电子设备的示意图;
图5示出了本申请实施例所提供的一种基于可穿戴设备的智能引导装置的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
本文中术语“和/或”,仅仅是描述一种关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
本申请实施例提供了一种基于可穿戴设备的智能引导方法及装置、可穿戴设备、引导系统、电子设备及存储介质,其中,在光照强度较大时,即第一场景图像的亮度较大时,利用第二可见光摄像部件拍摄的第二场景图像确定场景中对象的深度信息;在光照强度较小时,即第一场景图像的亮度较小时,利用深度摄像部件拍摄的第二场景图像确定场景中对象的深度信息。由此实现了根据环境光照强度的不同,选用不同的部件采集的图像来为目标对象提供引导服务,能够有效适应将光照强度的变化,获取到较为丰富的环境信息,同时,能够检测到缺乏纹理的障碍物,提高了障碍物检测的精确度和引导的安全性。
下面对本申请提供的基于可穿戴设备的智能引导方法及装置、可穿戴设备、引导系统、电子设备及存储介质的实施例进行说明。
本申请提供的基于可穿戴设备的智能引导方法可以应用于处理部件上,该处理部件既可以是可穿戴设备上的一个部件,也可以单独位于一个主机上。可穿戴设备包括第一可见光摄像部件、第二可见光摄像部件和深度摄像部件。
所述处理部件与所述第一可见光摄像部件、第二可见光摄像部件以及深度摄像部件通信连接。可穿戴设备被佩戴于目标对象的头部,作为一个头戴设备。也可以将第一可见光摄像部件、第二可见光摄像部件和深度摄像部件组合成一个头戴设备,佩戴于目标对象的头部。处理部件佩戴或固定于目标对象的其他部位,例如佩戴在目标对象的手臂上等。本申请对上述各个部件在目标对象上所处的位置并不进行限定。
上述目标对象可以是视力存在障碍的对象。利用本申请提供的引导信息能够引导目标对象避开障碍物,安全行走。
本申请实施例的智能引导方法用于检测场景中对象的深度信息,并基于检测得到的深度信息生成引导信息。具体地,如图1所示,上述基于可穿戴设备的智能引导方法可以包括如下步骤:
S110、获取第一可见光摄像部件采集的第一场景图像。
所述第一可见光摄像部件用于拍摄所述可穿戴设备周围的第一场景图像,并发送给所述处理部件。第一可见光摄像部件拍摄场景图像的帧率较高,根据其拍摄的第一场景图像中对象的位置,能够确定场景中对象相对于可穿戴设备的方位信息。
第一可见光摄像部件可以是RGB摄像部件。
S120、检测所述第一场景图像的亮度。
在这里,可以采用多种图像亮度检测方法进行检测,例如可以利用预先训练好的神经网络检测第一场景图像的亮度,或者针对第一场景图像中各区域或各像素点的亮度进行分布统计或计算平均值,得到第一场景图像的亮度。
第一场景图像的亮度能够反映当前场景的光照强度,光照强度越强,第一场景图像的亮度越高,反之,光照强度越弱,第一场景图像的亮度越低。因此,可以基于第一场景图像的亮度判断当前场景光照强度的强弱,进而确定选择第二可见光摄像部件采集的图像或深度摄像部件采集的图像以进一步计算场景的深度信息,以适应光照强度的变化,提高对象深度信息检测以及生成的引导信息的精确度。
S130、响应于所述第一场景图像的亮度满足预设的亮度,获取所述第二可见光摄像部件采集的第二场景图像,和/或,响应于所述第一场景图像的亮度不满足预设的亮度,获取所述深度摄像部件采集的第二场景图像。
在第一场景图像的亮度满足预设的亮度时,当前场景的光照强度较大,此时可以从第二可见光摄像部件处获取第二场景图像。
在光照强度较强时,可见光摄像部件成像效果较好,可以利用两个可见光摄像部件拍摄的场景图像确定场景中对象的深度信息。在光照强度较弱时,利用两个可见光摄像部件的成像效果较差,无法获取准确的深度信息。这时可以利用深度摄像部件采集深度图像来获取深度信息。
在第一场景图像的亮度不满足预设的亮度时,当前场景的光照强度较弱,此时可以从深度摄像部件获取所述深度摄像部件处获取第二场景图像。
在场景的光照强度较弱时,利用两个可见光摄像部件的成像效果较差,无法获取准确的深度信息,此时可以利用深度摄像部件拍摄的场景图像来检测场景中物体的深度信息,由此可以克服由于光照强度弱造成的障碍物检测不到的问题。另外,两个可见光摄像部件拍摄的场景图像无法有效检测缺乏纹理的障碍物的深度信息,例如,天空、沙漠、白墙等;但是利用深度摄像部件采集的场景图像能够有效检测出上述缺乏纹理的障碍物的深度信息。
第二可见光摄像部件可以是RGB摄像部件。所述深度摄像部件可以是基于飞行时间(Time of Flight,TOF)成像的摄像头,即TOF摄像头。利用TOF摄像头能够在光照强度较弱时,较为准确的获取到场景中对象的深度信息。
S140、基于所述第二场景图像确定场景中的对象的深度信息。
当第二场景图像为第二可见光摄像部件采集的图像时,可以根据双目视觉的原理,基于第一场景图像和第二场景图像计算图像中物体对应的场景中的对象的深度信息。当前场景的光照强度较大时,利用两个可见光摄像部件采集的两幅场景图像能够较为准确的确定场景中对象的深度信息。
具体地,首先将所述第一场景图像中表征场景中的对象的像素点与所述第二场景图像中表征场景中的对象的像素点进行匹配,得到像素点对;之后基于与所述像素点对相对应的视差信息、所述第一可见光摄像部件与所述第二可见光摄像部件的中心距以及所述第一可见光摄像部件的焦距,确定所述场景中的对象的深度信息。
当第二场景图像为深度摄像部件采集的深度图像时,可以直接基于深度摄像部件感知的深度信息确定场景中的对象的深度信息。
当前场景的光照强度较弱时,利用TOF摄像头能够在光照强度较弱时,较为准确的获取到场景中对象的深度信息。
具体地,首先确定场景中的对象在所述第二场景图像中的目标像素点;之后根据所述第二场景图像中所述目标像素点的深度信息,确定所述场景中的对象的深度信息。例如,可以通过目标检测从第二场景图像中检测出场景中的对象的位置,进而根据检测结果将第二场景图像中对应位置像素点的深度信息确定为该对象的深度信息。
S150、基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息。
在这里,可以基于深度信息生成提示信息,所述提示信息用于向所述佩戴所述可穿戴设备的目标对象提示所述深度信息。向目标对象提示场景中对象的深度信息,能够对目标独享的运行进行有效的引导,提高引导效率和引导的安全性。
另外,为了为目标对象提供更加丰富的引导信息,例如为目标对象提供障碍物的方向信息和深度信息的引导信息,这里,可以利用如下步骤生成引导信息:
基于所述第一场景图像确定场景中的对象相对于可穿戴设备的方位信息;基于场景中的对象相对于可穿戴设备的方位信息和场景中的对象的深度信息,生成对佩戴所述可穿戴设备的目标对象的引导信息。
基于方位信息和深度信息生成的引导信息能够进一步提高引导的效率和引导的安全性。
在具体实施时,可以根据对象在第一场景图像中的位置,确定对象相对于可穿戴设备的方位信息。在这里,方位信息可以包括方位角,或者,方位信息可以表征预先划分的方位中的一个,预先划分的方位可以例如包括:左前方、右前方、正前方。例如,若对象A位于第一场景图像中的左侧,则确定对象相对于可穿戴设备的方位信息为左前方,若对象A位于第一场景图像中的右侧,则确定对象相对于可穿戴设备的方位信息为右前方,若对象A位于第一场景图像中的中部,则确定对象相对于可穿戴设备的方位信息为正前方。
在一些实施例中,根据光照强度切换不同的摄像部件来采集第二场景图像具体可以利用如下步骤实现:
在所述第一场景图像的亮度满足预设的亮度,即当前场景的光照强度较强时,处理部件向所述第二可见光摄像部件发送第一曝光指令,第二可见光摄像部件基于第一曝光指令进行曝光,采集第二场景图像。之后,处理部件从第二可见光摄像部件处获取第二场景图像。
当然,第二可见光摄像部件也可以是一直采集第二场景图像,只是在接收到处理部件发送的第一曝光指令时,将对应时刻采集的第二场景图像发送给处理部件。
在所述第一场景图像的亮度不满足预设的亮度,即当前场景的光照强度较弱时,处理部件向所述深度摄像部件发送第二曝光指令,深度摄像部件基于第二曝光指令进行曝光,采集第二场景图像。之后,处理部件从深度摄像部件处获取第二场景图像。
当然,深度摄像部件也可以是一直采集第二场景图像,只是在接收到处理部件发送的第二曝光指令时,将对应时刻采集的第二场景图像发送给处理部件。
在光照强度较大时,控制第二可见光摄像部件进行曝光,在光照强度较小时,控制深度摄像部件进行曝光,实现了根据环境光照强度的不同,主动切换不同的摄像部件来采集用于确定对象的深度信息的第二场景图像,从而使本申请实施例的智能引导方法能够适应将光照强度的变化,获取到较为丰富的环境信息,同时,能够检测到缺乏纹理的障碍物,提高了障碍物检测的精确度和引导的安全性。
另外,由于第二可见光摄像部件拍摄的场景图像并不用于确定场景中对象相对于可穿戴设备的方位信息和/或对象的种类信息等,因此其帧率相对于第一可见光摄像部件较低,这样既能够满足深度信息检测的需求,又能降低第二可见光摄像部件的功耗,减少可穿戴设备的散热量。
具体地,可以通过分频电路实现第一可见光摄像部件与第二可见光摄像部件在不同帧率下同步曝光;在所述第一场景图像的亮度满足预设的亮度时,处理部件向所述分频电路发送曝光指令,以使所述分频电路对接收的曝光指令进行分频处理,并将分频处理得到的第三曝光指令发送给第二可见光摄像部件。之后处理部件获取所述第二可见光摄像部件基于所述第三曝光指令进行曝光控制而采集到的第二场景图像。由于第一可见光摄像部件采集图像的帧率较高,第一可见光采集部件可以直接基于处理部件向所述分频电路发送曝光指令进行曝光,处理部件在向所述分频电路发送曝光指令的同时,向第一可见光摄像部件发送曝光指令。
为了节约深度摄像部件的功耗,可以控制深度摄像部件以低于第一可见光设想不见的频率曝光,因而深度摄像部件拍摄的图像的帧率相对于第一可见光摄像部件较低,这样既能够满足深度信息检测的需求,又能降低深度摄像部件的功耗,减少可穿戴设备的散热量。
具体地,可以通过分频电路实现第一可见光摄像部件与深度摄像部件在不同帧率下同步曝光;在所述第一场景图像的亮度不满足预设的亮度时,处理部件向所述分频电路发送曝光指令,以使所述分频电路对接收的曝光指令进行分频处理,并将分频处理得到的第四曝光指令发送给深度摄像部件,之后,处理部件获取所述深度摄像部件基于所述第四曝光指令进行曝光控制而采集到的第二场景图像。由于第一可见光摄像部件采集图像的帧率较高,第一可见光采集部件可以直接基于处理部件向所述分频电路发送曝光指令进行曝光,处理部件在向所述分频电路发送曝光指令的同时,向第一可见光摄像部件发送曝光指令。
利用分频电路对曝光指令进行分频处理,并利用分频处理得到的曝光指令控制第二可见光摄像部件或深度摄像部件采集图像,实现了控制不同帧频的摄像部件的同步曝光,节省了能源消耗。
在环境光照强度较弱时,可以利用第一可见光摄像部件和深度摄像部件拍摄的图像来检测场景中对象的深度信息,但是,该方式不适用于较远距离的对象的深度信息检测,同时,该方式也无法有效检测出透明度较高以及外表比较光滑的对象的深度信息,例如玻璃、水面等。此时,检测得到的深度信息可能是错误的,因此处理部件在探测得到的深度信息和场景中对象的类别之后,判断深度信息是否明显不合理,即深度信息对应的深度是否大于预设深度阈值,和/或判断是否检测到场景中出现玻璃、水明等预设类别的对象。
如果处理部件确定深度信息对应的深度大于预设深度阈值和/或检测到所述第一场景图像中包含预设类别的对象,则处理部件向超声探测部件发送超声探测指令,所述超声探测部件基于所述超声探测指令发送超声波,并将探测到的超声波反馈信号发送给处理部件。处理部件基于接收的所述超声波反馈信号,更新所述场景中的对象的深度信息。
超声探测部件对物体的深度信息的探测精度较高。在由于环境复杂或物体自身特性的影响,造成通过可见光摄像部件或深度摄像部件拍摄的第二场景图像不能准确确定场景中对象的深度信息时,利用超声探测部件进行深度信息检测,提高了可穿戴设备的适用性,能够在更加复杂的环境中更加精确的检测场景中对象的深度信息。
佩戴上述可穿戴设备的目标对象在运动过程中,可能会做一些动作,造成根据拍摄的场景图像执行对象检测时无法准确检测出可能阻碍目标对象运动的对象,例如目标对象较大角度的低头时,可穿戴设备拍摄的场景集中于对面,而获得的场景图像是地面的图像,无法准确检测到目标对象前方或侧面的可能影响其运动的障碍物。此时,为了提高生成的引导信息准确度,避免无效的障碍物被检测出来以及无法准确检测到可能影响目标对象行进的障碍物,需要结合目标对象的姿态信息生成引导信息,或是在目标对象做出较大角度的仰头等预设姿态时,提醒目标对象纠正姿态。
具体地,上述可穿戴设备还可以包括姿态测量部件,所述姿态测量部件与所述处理部件通信连接。姿态测量部件测量所述可穿戴设备的姿态信息,这里可穿戴设备的姿态信息与目标对象的姿态信息认为是相同的。姿态测量部件将测量得到的姿态信息发送给处理部件。
上述方法还包括:基于接收的姿态信息,判断佩戴所述可穿戴设备的目标对象的姿态是否处于第一预设姿态,若是,生成姿态纠正提示信息。上述第一预设姿态为能够拍摄到不影响目标对象运行的对象的姿态,例如,较大角度的仰头。在确定目标对象处于第一预设姿态时,利用姿态纠正提示信息提示目标对象纠正当前的姿态,进一步提高了引导信息的准确性和引导的安全性。
在接收到姿态信息之后,还可以基于姿态信息生成引导信息,具体地,基于所述可穿戴设备的姿态信息,将对象相对于所述可穿戴设备的方位信息转换为对象相对于处于第二预设姿态的可穿戴设备的方位信息;基于转换后的方位信息和场景中的对象的深度信息,生成对佩戴所述可穿戴设备的目标对象的引导信息和/或姿态纠正提示信息。
在具体实施时,可以利用如下步骤对方位信息进行转换:确定第二预设姿态和当前所述可穿戴设备的姿态信息之间的姿态差信息;利用姿态差信息对对象相对于可穿戴设备的方位信息进行转换,得到转化后的方位信息。例如,若姿态差信息指示可穿戴设备处于仰头80度的姿态,确定的方位信息指示对象位于可穿戴设备的正前方,则转换后的方向信息则是对象位于可穿戴设备的上方;若姿态差信息指示可穿戴设备处于左侧转头60度的姿态,确定的方位信息指示对象位于可穿戴设备的正前方,则转换后的方向信息则是对象位于可穿戴设备的左前方。
另外,场景中的对象的深度信息具体表征对象与可穿戴设备的距离,在可穿戴设备的姿态发生变化后,由于可穿戴设备的位置并未发生明显的变化,因此对象与可穿戴设备的距离也不会出现明显的变化,因此,场景中的对象的深度信息不需要进行转换,场景中的对象的深度信息能够较为准确的表征对象与可穿戴设备的距离。
上述第二预设姿态例如可穿戴设备朝向目标对象的行进方向的姿态。
上述转换后的方位信息能够用于判断对应的对象是否位于目标对象的运行路径上,即判断场景中的对象是否为目标对象运行的障碍物,在对应的对象是目标对象的障碍物时,需要基于转换后的方位信息生成引导信息,以引导目标对象绕开障碍物。
将场景中的对象相对于所述可穿戴设备的方位信息,转换为场景中的对象相对于处于第二预设姿态的可穿戴设备的方位信息,即生成了对目标对象的运行有效的方位信息,利用该有效的方位信息能够生成更加准确和有效的引导信息。
在具体应用中,姿态测量部件可以是陀螺仪,例如九轴陀螺仪。
上述各个摄像部件采集的图像信息量较大,为了提高引导的实时性,需要在短时间内完成各个摄像部件与处理部件的信号传输,本申请的实施例利用信号串行部件、信号传输线缆和信号解串部件来实现信号的传输。
所述信号串行部件与所述第一可见光摄像部件、第二可见光摄像部件、深度摄像部件通信连接;所述信号传输线缆的两端分别与所述信号串行部件和信号解串部件连接;所述信号解串部件与所述处理部件通信连接。
所述第一可见光摄像部件将所述第一场景图像发送给所述信号串行部件;所述第二可见光摄像部件和所述深度摄像部件将所述第二场景图像发送给所述信号串行部件;所述信号串行部件将接收的第一场景图像和第二场景图像转换为串行信号,并通过所述信号传输线缆发送给所述信号解串部件;所述信号解串部件将接收的信号进行解串行处理,并将解串行处理得到的信号发送给所述处理部件。
上述利用信号串行部件、信号传输线缆和信号解串部件传输信号具体可以是V-BY-ONE双绞线技术。V-BY-ONE双绞线技术传输线数量更少,只需要两根线,更轻便;对传输线材要求更低,不需要屏蔽,节省成本;传输带宽更高,可达3.75Gbp;传输距离更远,可以高质量传输距离达15米;芯片体积更小,更利于轻便型穿戴式产品的设计,具体可以封装为5x5mm。
上述信号传输线缆采用V-BY-ONE双绞线连接,抗弯折,抗拉伸,轻便,柔软。
利用信号串行部件将摄像部件拍摄的图像转换为双绞线高速差分信号来进行传输,能够只利用两根线就能传输信号,并且传输速度更快、成本更低,传输距离更远,部件的体积更小。
利用信号串行部件将摄像部件拍摄的图像转换为串行信号,例如双绞线高速差分信号来进行传输,能够只利用两根线就能传输信号,并且传输速度更快、成本更低,传输距离更远,部件的体积更小。
为了通过有声的方式向目标对象输出引导信息,可穿戴设备还可以包括发声部件,所述发声部件与所述处理部件通信连接。具体可以利用如下步骤实现引导信息的播放:基于所述引导信息生成语音导航信息,并发送至所述发声部件,所述发生部件向所述目标对象播放所述语音导航信息。
利用语音导航信息和发声部件能够有效引导目标对象避开障碍物,提高了引导效率和安全性。
在具体实施时,上述处理部件可以是片上系统(System on Chip,SOC),发声部件可以是音频骨传导耳机,上述音频骨传导耳机还用于进行人机对话。
为了兼顾不同光照环境的使用、检测远距离处的对象的深度信息、弥补摄像部件的不足以及获得更加丰富的环境信息,本申请实施例综合了第一可见光摄像部件、第二可见光摄像部件,深度摄像部件,在判断出光照强弱后能主动切换摄像部件,提高检测精度,适应多变的光照环境。另外,本申请实施例还融合了超声探测部件和姿态测量部件,利用超声波来获取较为准确的深度信息,来弥补摄像部件的不足,利用姿态测量部件获取姿态信息,优化检测精度。上述实施例中的智能引导方法能够进行路径规划、定位、障碍物检测、语音提示等功能,精度更高,环境适应性更强,能够让存在视力障碍的人能够独立出行,并且更方便和安全。
对应于是上述基于可穿戴设备的智能引导方法,本申请实施例还提供了一种基于可穿戴设备的智能引导装置,该装置中的各个模块所实现的功能与上面的智能引导方法中对应的步骤相同,应用于处理部件上,这里不再赘述。所述可穿戴设备包括第一可见光摄像部件、第二可见光摄像部件和深度摄像部件。如图5所示,智能引导装置可以包括:
第一图像获取模块510,用于获取第一可见光摄像部件采集的第一场景图像。
亮度检测模块520,用于检测所述第一场景图像的亮度。
第二图像获取模块530,用于响应于所述第一场景图像的亮度满足预设的亮度,获取所述第二可见光摄像部件采集的第二场景图像,和/或,响应于所述第一场景图像的亮度不满足预设的亮度,获取所述深度摄像部件采集的第二场景图像。
检测模块540,用于基于所述第二场景图像确定场景中的对象的深度信息。
引导信息生成模块550,用于基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息。
在一些实施例中,所述第二图像获取模块530在响应于所述第一场景图像的亮度满足预设的亮度,获取所述第二可见光摄像部件采集的第二场景图像时,用于:
响应于所述第一场景图像的亮度满足预设的亮度,向所述第二可见光摄像部件发送第一曝光指令,并获取所述第二可见光摄像部件基于所述第一曝光指令进行曝光控制而采集到的第二场景图像;
所述第二图像获取模块530在响应于所述第一场景图像的亮度不满足预设的亮度,获取所述深度摄像部件采集的第二场景图像时,用于:
响应于所述第一场景图像的亮度不满足预设的亮度,向所述深度摄像部件发送第二曝光指令,获取所述深度摄像部件基于所述第二曝光指令进行曝光控制而采集到的第二场景图像。
在一些实施例中,所述检测模块540在基于所述第二场景图像确定场景中的对象的深度信息时,用于:
响应于所述第一场景图像的亮度满足预设的亮度,将所述第一场景图像中表征场景中的对象的像素点与所述第二场景图像中表征场景中的对象的像素点进行匹配,得到像素点对;
基于与所述像素点对相对应的视差信息、所述第一可见光摄像部件与所述第二可见光摄像部件的中心距以及所述第一可见光摄像部件的焦距,确定所述场景中的对象的深度信息。
在一些实施例中,所述检测模块540在基于所述第二场景图像确定场景中的对象的深度信息,包括:
响应于所述第一场景图像的亮度不满足预设的亮度,确定场景中的对象在所述第二场景图像中的目标像素点;
根据所述第二场景图像中所述目标像素点的深度信息,确定所述场景中的对象的深度信息。
在一些实施例中,所述引导信息生成模块550在基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息,包括:
生成提示信息,所述提示信息用于向所述佩戴所述可穿戴设备的目标对象提示所述深度信息。
在一些实施例中,所述检测模块540还用于:
基于所述第一场景图像确定场景中的对象相对于可穿戴设备的方位信息;
所述引导信息生成模块550在基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息时,用于:
基于场景中的对象相对于可穿戴设备的方位信息和场景中的对象的深度信息,生成对佩戴所述可穿戴设备的目标对象的引导信息。
在一些实施例中,所述可穿戴设备还包括超声探测部件;
所述检测模块540还用于:
响应于所述深度信息对应的深度大于预设深度阈值和/或检测到所述第一场景图像中包含预设类别的对象,向所述超声探测部件发送超声探测指令,并接收所述超声探测部件基于所述超声探测指令探测到的超声波反馈信号;
基于接收的所述超声波反馈信号,更新所述场景中的对象的深度信息。
在一些实施例中,所述可穿戴设备还包括姿态测量部件;
所述检测模块540还用于:
获取姿态测量部件采集的可穿戴设备的姿态信息;
响应于根据所述姿态信息确定所佩戴所述可穿戴设备的目标对象的姿态处于第一预设姿态,生成姿态纠正提示信息。
在一些实施例中,所述检测模块540还用于:
基于所述第一场景图像确定场景中的对象相对于所述可穿戴设备的方位信息;
基于所述可穿戴设备的姿态信息,将所述方位信息转换为场景中的对象相对于处于第二预设姿态的可穿戴设备的方位信息;
所述引导信息生成模块550在基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息时,用于:
基于转换后的方位信息和场景中的对象的深度信息,生成对佩戴所述可穿戴设备的目标对象的引导信息和/或姿态纠正提示信息。
在一些实施例中,所述可穿戴设备还包括发声部件;
所述引导信息生成模块550还用于:
基于所述引导信息生成语音导航信息,并发送至所述发声部件,以使所述发生部件向所述目标对象播放所述语音导航信息。
在一些实施例中,所述可穿戴设备还包括分频电路;
所述第二图像获取模块530在响应于所述第一场景图像的亮度满足预设的亮度,获取所述第二可见光摄像部件采集的第二场景图像时,用于:
响应于所述第一场景图像的亮度满足预设的亮度,向所述分频电路发送曝光指令,以使所述分频电路对接收的曝光指令进行分频处理并将分频处理得到的第三曝光指令发送给第二可见光摄像部件,以及,获取所述第二可见光摄像部件基于所述第三曝光指令进行曝光控制而采集到的第二场景图像;和/或
所述第二图像获取模块530在响应于所述第一场景图像的亮度不满足预设的亮度,获取所述深度摄像部件采集的第二场景图像时,用于:
响应于所述第一场景图像的亮度不满足预设的亮度,向所述分频电路发送曝光指令,以使所述分频电路对接收的曝光指令进行分频处理并将分频处理得到的第四曝光指令发送给深度摄像部件,以及,获取所述深度摄像部件基于所述第四曝光指令进行曝光控制而采集到的第二场景图像。
对应于上述基于可穿戴设备的智能引导方法,本申请实施例还提供了一种可穿戴设备,该可穿戴设备中的各个部件所实现的功能与上述实施例中的对应的部件相同,这里不再赘述。具体地,如图2所示,可穿戴设备可以包括:处理部件201、第一可见光摄像部件202、第二可见光摄像部件203和深度摄像部件204。所述第一可见光摄像部件202用于采集第一场景图像;所述第二可见光摄像部件203和所述深度摄像部件204用于采集第二场景图像;所述处理部件201用于执行上述基于可穿戴设备的智能引导方法。
在一些实施例中,上述可穿戴设备还可以包括超声探测部件205、姿态测量部件206、信号串行部件207、信号传输线缆208、信号解串部件209、发生部件210。上述超声探测部件205、姿态测量部件206、信号串行部件207、信号传输线缆208、信号解串部件209、发生部件210实现的功能与上述实施例的智能引导方法中的对应的部件相同,不再赘述。
另外,可穿戴设备还可以包括微控制部件MCU211,WIFI部件212、GPS部件213。微控制部件MCU211用于进行可穿戴设备的充电管理和检测整机状态,GPS部件213用于进行可穿戴设备的定位,WIFI部件212用于将可穿戴设备中的第一场景图像、第二场景图像、深度信息等发送给远端服务器。
如图3所示,本申请实施例提供了一种引导系统300,包括可穿戴设备301和主机302。所述可穿戴设备301包括第一可见光摄像部件、第二可见光摄像部件和深度摄像部件;所述主机302包括处理部件,所述处理部件与所述第一可见光摄像部件、第二可见光摄像部件和深度摄像部件通过信号传输线缆连接,所述处理部件用于执行上述基于可穿戴设备的智能引导方法。
所述主机302可以设有与所述处理部件连接的以下至少一项:定位模组、网络模组、用于检测工作状态和/或充电管理的微控单元、音频模组。
对应于图1中的智能引导方法,本申请实施例还提供了一种电子设备400,如图4所示,为本申请实施例提供的电子设备400结构示意图,包括:
处理器41、存储器42、和总线43;存储器42用于存储执行指令,包括内存421和外部存储器422;这里的内存421也称内存储器,用于暂时存放处理器41中的运算数据,以及与硬盘等外部存储器422交换的数据,处理器41通过内存421与外部存储器422进行数据交换,当电子设备400运行时,处理器41与存储器42之间通过总线43通信,使得处理器41执行以下指令:获取第一可见光摄像部件采集的第一场景图像;检测所述第一场景图像的亮度;响应于所述第一场景图像的亮度满足预设的亮度,获取所述第二可见光摄像部件采集的第二场景图像,和/或,响应于所述第一场景图像的亮度不满足预设的亮度,获取所述深度摄像部件采集的第二场景图像;基于所述第二场景图像确定场景中的对象的深度信息;基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的智能引导方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本申请实施例所提供的智能引导方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行上述方法实施例中所述的智能引导方法的步骤,具体可参见上述方法实施例,在此不再赘述。
本申请实施例还提供一种计算机程序,该计算机程序被处理器执行时实现前述实施例的任意一种方法。该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software DevelopmentKit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的精神和范围,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
Claims (17)
1.一种基于可穿戴设备的智能引导方法,其特征在于,所述可穿戴设备包括第一可见光摄像部件、第二可见光摄像部件和深度摄像部件,所述方法包括:
获取第一可见光摄像部件采集的第一场景图像;
检测所述第一场景图像的亮度;
响应于所述第一场景图像的亮度满足预设的亮度,获取所述第二可见光摄像部件采集的第二场景图像,和,响应于所述第一场景图像的亮度不满足预设的亮度,获取所述深度摄像部件采集的第二场景图像;
基于所述第二场景图像确定场景中的对象的深度信息,所述基于所述第二场景图像确定场景中的对象的深度信息,包括:
响应于所述第一场景图像的亮度满足预设的亮度,将所述第一场景图像中表征场景中的对象的像素点与所述第二场景图像中表征场景中的对象的像素点进行匹配,得到像素点对;
基于与所述像素点对相对应的视差信息、所述第一可见光摄像部件与所述第二可见光摄像部件的中心距以及所述第一可见光摄像部件的焦距,确定所述场景中的对象的深度信息;和,所述基于所述第二场景图像确定场景中的对象的深度信息,包括:
响应于所述第一场景图像的亮度不满足预设的亮度,确定场景中的对象在所述第二场景图像中的目标像素点;
根据所述第二场景图像中所述目标像素点的深度信息,确定所述场景中的对象的深度信息;
基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息。
2.根据权利要求1所述的方法,其特征在于,所述响应于所述第一场景图像的亮度满足预设的亮度,获取所述第二可见光摄像部件采集的第二场景图像,包括:
响应于所述第一场景图像的亮度满足预设的亮度,向所述第二可见光摄像部件发送第一曝光指令,并获取所述第二可见光摄像部件基于所述第一曝光指令进行曝光控制而采集到的第二场景图像;
所述响应于所述第一场景图像的亮度不满足预设的亮度,获取所述深度摄像部件采集的第二场景图像,包括:
响应于所述第一场景图像的亮度不满足预设的亮度,向所述深度摄像部件发送第二曝光指令,获取所述深度摄像部件基于所述第二曝光指令进行曝光控制而采集到的第二场景图像。
3.根据权利要求1或2所述的方法,其特征在于,所述基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息,包括:
生成提示信息,所述提示信息用于向所述佩戴所述可穿戴设备的目标对象提示所述深度信息。
4.根据权利要求1或2所述的方法,其特征在于,还包括:
基于所述第一场景图像确定场景中的对象相对于可穿戴设备的方位信息;
所述基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息,包括:
基于场景中的对象相对于可穿戴设备的方位信息和场景中的对象的深度信息,生成对佩戴所述可穿戴设备的目标对象的引导信息。
5.根据权利要求1所述的方法,其特征在于,所述可穿戴设备还包括超声探测部件;
所述方法还包括:
响应于所述深度信息对应的深度大于预设深度阈值和/或检测到所述第一场景图像中包含预设类别的对象,向所述超声探测部件发送超声探测指令,并接收所述超声探测部件基于所述超声探测指令探测到的超声波反馈信号;
基于接收的所述超声波反馈信号,更新所述场景中的对象的深度信息。
6.根据权利要求1所述的方法,其特征在于,所述可穿戴设备还包括姿态测量部件;
所述方法还包括:
获取姿态测量部件采集的可穿戴设备的姿态信息;
响应于根据所述姿态信息确定所佩戴所述可穿戴设备的目标对象的姿态处于第一预设姿态,生成姿态纠正提示信息。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
基于所述第一场景图像确定场景中的对象相对于所述可穿戴设备的方位信息;
基于所述可穿戴设备的姿态信息,将所述方位信息转换为场景中的对象相对于处于第二预设姿态的可穿戴设备的方位信息;
所述基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息,包括:
基于转换后的方位信息和场景中的对象的深度信息,生成对佩戴所述可穿戴设备的目标对象的引导信息和/或姿态纠正提示信息。
8.根据权利要求1所述的方法,其特征在于,所述可穿戴设备还包括发声部件;
所述方法还包括:
基于所述引导信息生成语音导航信息,并发送至所述发声部件,以使所述发声部件向所述目标对象播放所述语音导航信息。
9.根据权利要求1所述的方法,其特征在于,所述可穿戴设备还包括分频电路;
所述响应于所述第一场景图像的亮度满足预设的亮度,获取所述第二可见光摄像部件采集的第二场景图像,包括:
响应于所述第一场景图像的亮度满足预设的亮度,向所述分频电路发送曝光指令,以使所述分频电路对接收的曝光指令进行分频处理并将分频处理得到的第三曝光指令发送给第二可见光摄像部件,以及,获取所述第二可见光摄像部件基于所述第三曝光指令进行曝光控制而采集到的第二场景图像;和/或
所述响应于所述第一场景图像的亮度不满足预设的亮度,获取所述深度摄像部件采集的第二场景图像,包括:
响应于所述第一场景图像的亮度不满足预设的亮度,向所述分频电路发送曝光指令,以使所述分频电路对接收的曝光指令进行分频处理并将分频处理得到的第四曝光指令发送给深度摄像部件,以及,获取所述深度摄像部件基于所述第四曝光指令进行曝光控制而采集到的第二场景图像。
10.一种基于可穿戴设备的智能引导装置,其特征在于,所述可穿戴设备包括第一可见光摄像部件、第二可见光摄像部件和深度摄像部件,所述装置包括:
第一图像获取模块,用于获取第一可见光摄像部件采集的第一场景图像;
亮度检测模块,用于检测所述第一场景图像的亮度;
第二图像获取模块,用于响应于所述第一场景图像的亮度满足预设的亮度,获取所述第二可见光摄像部件采集的第二场景图像,和,响应于所述第一场景图像的亮度不满足预设的亮度,获取所述深度摄像部件采集的第二场景图像;
检测模块,用于基于所述第二场景图像确定场景中的对象的深度信息,所述检测模块在基于所述第二场景图像确定场景中的对象的深度信息时,用于响应于所述第一场景图像的亮度满足预设的亮度,将所述第一场景图像中表征场景中的对象的像素点与所述第二场景图像中表征场景中的对象的像素点进行匹配,得到像素点对;
基于与所述像素点对相对应的视差信息、所述第一可见光摄像部件与所述第二可见光摄像部件的中心距以及所述第一可见光摄像部件的焦距,确定所述场景中的对象的深度信息;和所述检测模块在基于所述第二场景图像确定场景中的对象的深度信息时,用于响应于所述第一场景图像的亮度不满足预设的亮度,确定场景中的对象在所述第二场景图像中的目标像素点;
根据所述第二场景图像中所述目标像素点的深度信息,确定所述场景中的对象的深度信息;
引导信息生成模块,用于基于所述深度信息生成对佩戴所述可穿戴设备的目标对象的引导信息。
11.一种可穿戴设备,其特征在于,包括处理部件、第一可见光摄像部件、第二可见光摄像部件和深度摄像部件;
所述第一可见光摄像部件,用于采集第一场景图像;
所述第二可见光摄像部件和所述深度摄像部件用于采集第二场景图像;
所述处理部件,用于执行权利要求1至9任一项所述的基于可穿戴设备的智能引导方法。
12.根据权利要求11所述的可穿戴设备,其特征在于,还包括信号串行部件、信号传输线缆和信号解串部件;
所述信号串行部件与所述第一可见光摄像部件、第二可见光摄像部件、深度摄像部件通信连接;所述信号传输线缆的两端分别与所述信号串行部件和信号解串部件连接;所述信号解串部件与所述处理部件通信连接;
所述第一可见光摄像部件,还用于将所述第一场景图像发送给所述信号串行部件;
所述第二可见光摄像部件和所述深度摄像部件,还用于将所述第二场景图像发送给所述信号串行部件;
所述信号串行部件,用于将接收的第一场景图像和第二场景图像转换为串行信号,并通过所述信号传输线缆发送给所述信号解串部件;
所述信号解串部件,用于将接收的信号进行解串行处理,并将解串行处理得到的信号发送给所述处理部件。
13.根据权利要求11所述的可穿戴设备,其特征在于,所述深度摄像部件包括TOF摄像头。
14.一种引导系统,其特征在于,包括可穿戴设备和主机;
所述可穿戴设备包括第一可见光摄像部件、第二可见光摄像部件和深度摄像部件;
所述主机包括处理部件,所述处理部件与所述第一可见光摄像部件、第二可见光摄像部件和深度摄像部件通过信号传输线缆连接,所述处理部件用于执行权利要求1至9任一项所述的基于可穿戴设备的智能引导方法。
15.根据权利要求14所述的引导系统,其特征在于,
所述主机设有与所述处理部件连接的以下至少一项:定位模组、网络模组、用于检测工作状态和/或充电管理的微控单元、音频模组。
16.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至9任一项所述的智能引导方法的步骤。
17.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至9任一项所述的智能引导方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011060870.XA CN112188059B (zh) | 2020-09-30 | 2020-09-30 | 可穿戴设备、智能引导方法及装置、引导系统 |
JP2021564133A JP2023502552A (ja) | 2020-09-30 | 2021-04-29 | ウェアラブルデバイス、インテリジェントガイド方法及び装置、ガイドシステム、記憶媒体 |
KR1020217036427A KR20220044897A (ko) | 2020-09-30 | 2021-04-29 | 웨어러블 기기, 스마트 가이드 방법 및 장치, 가이드 시스템, 저장 매체 |
PCT/CN2021/091150 WO2022068193A1 (zh) | 2020-09-30 | 2021-04-29 | 可穿戴设备、智能引导方法及装置、引导系统、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011060870.XA CN112188059B (zh) | 2020-09-30 | 2020-09-30 | 可穿戴设备、智能引导方法及装置、引导系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112188059A CN112188059A (zh) | 2021-01-05 |
CN112188059B true CN112188059B (zh) | 2022-07-15 |
Family
ID=73948406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011060870.XA Active CN112188059B (zh) | 2020-09-30 | 2020-09-30 | 可穿戴设备、智能引导方法及装置、引导系统 |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2023502552A (zh) |
KR (1) | KR20220044897A (zh) |
CN (1) | CN112188059B (zh) |
WO (1) | WO2022068193A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112188059B (zh) * | 2020-09-30 | 2022-07-15 | 深圳市商汤科技有限公司 | 可穿戴设备、智能引导方法及装置、引导系统 |
CN114690120A (zh) * | 2021-01-06 | 2022-07-01 | 杭州嘉澜创新科技有限公司 | 一种定位方法、装置和系统、计算机可读存储介质 |
CN112950699A (zh) * | 2021-03-30 | 2021-06-11 | 深圳市商汤科技有限公司 | 深度测量方法、装置、电子设备及存储介质 |
CN115998591A (zh) * | 2022-11-30 | 2023-04-25 | 微智医疗器械有限公司 | 双目视差估计方法和视觉假体以及计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106210536A (zh) * | 2016-08-04 | 2016-12-07 | 深圳众思科技有限公司 | 一种屏幕亮度调节方法、装置及终端 |
CN109712192A (zh) * | 2018-11-30 | 2019-05-03 | Oppo广东移动通信有限公司 | 摄像模组标定方法、装置、电子设备及计算机可读存储介质 |
CN110770794A (zh) * | 2018-08-22 | 2020-02-07 | 深圳市大疆创新科技有限公司 | 图像深度估计方法、装置、可读存储介质及电子设备 |
WO2020038054A1 (zh) * | 2018-08-22 | 2020-02-27 | Oppo广东移动通信有限公司 | 电子装置和电子装置的控制方法 |
CN111553862A (zh) * | 2020-04-29 | 2020-08-18 | 大连海事大学 | 一种海天背景图像去雾和双目立体视觉定位方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011250928A (ja) * | 2010-06-01 | 2011-12-15 | Chuo Univ | 視覚障害者用空間認識装置、方法およびプログラム |
JP5979500B2 (ja) * | 2011-04-07 | 2016-08-24 | パナソニックIpマネジメント株式会社 | 立体撮像装置 |
JP2014067320A (ja) * | 2012-09-27 | 2014-04-17 | Hitachi Automotive Systems Ltd | ステレオカメラ装置 |
WO2016047890A1 (ko) * | 2014-09-26 | 2016-03-31 | 숭실대학교산학협력단 | 보행 보조 방법 및 시스템, 이를 수행하기 위한 기록매체 |
CN106038183A (zh) * | 2016-06-29 | 2016-10-26 | 冯伟林 | 一种盲人穿戴设备及导航系统 |
CN106937910B (zh) * | 2017-03-20 | 2019-07-02 | 杭州视氪科技有限公司 | 一种障碍物和坡道检测系统及方法 |
CN107888896B (zh) * | 2017-10-20 | 2020-01-03 | 宁波天坦智慧电子科技股份有限公司 | 一种用于导盲眼镜的障碍判断与提醒方法及一种导盲眼镜 |
CN108055452B (zh) * | 2017-11-01 | 2020-09-18 | Oppo广东移动通信有限公司 | 图像处理方法、装置及设备 |
US20190320102A1 (en) * | 2018-04-13 | 2019-10-17 | Qualcomm Incorporated | Power reduction for dual camera synchronization |
CN109120861A (zh) * | 2018-09-29 | 2019-01-01 | 成都臻识科技发展有限公司 | 一种极低照度下的高质量成像方法及系统 |
CN109831660B (zh) * | 2019-02-18 | 2021-04-23 | Oppo广东移动通信有限公司 | 深度图像获取方法、深度图像获取模组及电子设备 |
CN110664593A (zh) * | 2019-08-21 | 2020-01-10 | 重庆邮电大学 | 基于HoloLens的盲人导航系统及方法 |
CN112188059B (zh) * | 2020-09-30 | 2022-07-15 | 深圳市商汤科技有限公司 | 可穿戴设备、智能引导方法及装置、引导系统 |
-
2020
- 2020-09-30 CN CN202011060870.XA patent/CN112188059B/zh active Active
-
2021
- 2021-04-29 KR KR1020217036427A patent/KR20220044897A/ko not_active Application Discontinuation
- 2021-04-29 JP JP2021564133A patent/JP2023502552A/ja active Pending
- 2021-04-29 WO PCT/CN2021/091150 patent/WO2022068193A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106210536A (zh) * | 2016-08-04 | 2016-12-07 | 深圳众思科技有限公司 | 一种屏幕亮度调节方法、装置及终端 |
CN110770794A (zh) * | 2018-08-22 | 2020-02-07 | 深圳市大疆创新科技有限公司 | 图像深度估计方法、装置、可读存储介质及电子设备 |
WO2020038054A1 (zh) * | 2018-08-22 | 2020-02-27 | Oppo广东移动通信有限公司 | 电子装置和电子装置的控制方法 |
CN109712192A (zh) * | 2018-11-30 | 2019-05-03 | Oppo广东移动通信有限公司 | 摄像模组标定方法、装置、电子设备及计算机可读存储介质 |
CN111553862A (zh) * | 2020-04-29 | 2020-08-18 | 大连海事大学 | 一种海天背景图像去雾和双目立体视觉定位方法 |
Non-Patent Citations (1)
Title |
---|
可穿戴计算机设备的领域应用及其对信息服务的影响;许鑫;《图书情报工作》;20150705(第13期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112188059A (zh) | 2021-01-05 |
WO2022068193A1 (zh) | 2022-04-07 |
KR20220044897A (ko) | 2022-04-12 |
JP2023502552A (ja) | 2023-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112188059B (zh) | 可穿戴设备、智能引导方法及装置、引导系统 | |
CN112639664B (zh) | 用于确定和/或评价图像显示设备的定位地图的方法和装置 | |
CN112400150B (zh) | 基于预测扫视着陆点的动态图形渲染 | |
CN105608746B (zh) | 一种将现实进行虚拟实现的方法 | |
CN112400202A (zh) | 为在hmd环境中进行快速中央凹渲染利用预测和对gpu的后期更新做出的眼睛跟踪 | |
CN104536579B (zh) | 交互式三维实景与数字图像高速融合处理系统及处理方法 | |
EP4307233A1 (en) | Data processing method and apparatus, and electronic device and computer-readable storage medium | |
CN109453517B (zh) | 虚拟角色控制方法和装置、存储介质、移动终端 | |
CN106843491A (zh) | 带增强现实的智能设备及电子设备 | |
JP2024504027A (ja) | ポーズ推定方法及び関連する装置 | |
WO2016031105A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN109358754B (zh) | 一种混合现实头戴显示系统 | |
CN108245385A (zh) | 一种帮助视障人士出行的装置 | |
CN112270754A (zh) | 局部网格地图构建方法及装置、可读介质和电子设备 | |
CN113056904A (zh) | 图像传输方法、可移动平台及计算机可读存储介质 | |
CN109685709A (zh) | 一种智能机器人的照明控制方法及装置 | |
CN109840946B (zh) | 虚拟对象显示方法及装置 | |
CN107015655A (zh) | 博物馆虚拟场景ar体验眼镜装置及其实现方法 | |
US11943602B1 (en) | Systems and methods for spatial update latency compensation for head-tracked audio | |
KR20210052570A (ko) | 분리가능한 왜곡 불일치 결정 | |
CN107065920A (zh) | 避障控制方法、装置及无人机 | |
US20230290101A1 (en) | Data processing method and apparatus, electronic device, and computer-readable storage medium | |
US10922825B2 (en) | Image data processing method and electronic device | |
CN218045797U (zh) | 一种盲人穿戴智慧云眼镜及系统 | |
CN114697516B (zh) | 三维模型重建方法、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40039730 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |