CN108140124A - 提示信息确定方法、装置、电子设备和计算机程序产品 - Google Patents

提示信息确定方法、装置、电子设备和计算机程序产品 Download PDF

Info

Publication number
CN108140124A
CN108140124A CN201780002906.9A CN201780002906A CN108140124A CN 108140124 A CN108140124 A CN 108140124A CN 201780002906 A CN201780002906 A CN 201780002906A CN 108140124 A CN108140124 A CN 108140124A
Authority
CN
China
Prior art keywords
image
user
region
prompt message
local environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780002906.9A
Other languages
English (en)
Other versions
CN108140124B (zh
Inventor
王恺
廉士国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cloudminds Shanghai Robotics Co Ltd
Original Assignee
Cloudminds Shenzhen Robotics Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cloudminds Shenzhen Robotics Systems Co Ltd filed Critical Cloudminds Shenzhen Robotics Systems Co Ltd
Publication of CN108140124A publication Critical patent/CN108140124A/zh
Application granted granted Critical
Publication of CN108140124B publication Critical patent/CN108140124B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提示信息确定方法、装置、电子设备和计算机程序产品,所述方法包括:获取用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息;确定所述用户选择的图像区域;确定所述用户选择的图像区域对应的提示信息。本申请中,将环境图像划分为多个区域并播放用户所选图像区域对应的提示信息,通过用户主动的信息选择,能够更及时、准确的确定其最关注区域环境的提示信息,以便给用户更好的提示。

Description

提示信息确定方法、装置、电子设备和计算机程序产品
技术领域
本申请涉及导盲技术领域,特别涉及提示信息确定方法、装置、电子设备和计算机程序产品。
背景技术
由于存在视力障碍,盲人无法通过视觉感知其周边环境,包括周围的人、物体、环境的分布和行为,这给其认识世界和出行带来了很大困难。现在已有一些装置和技术辅助盲人感知周围环境,帮助盲人日常室内生活和室外出行。例如一些穿戴式眼镜设备可以拍摄用户周围环境图像,识别出特定种类的物体或障碍后,将物体或者障碍的信息通过语音播报等形式对用户进行提示。
现有技术的不足在于:
由于用户周边环境通常非常复杂,用户会获得大量其并不关注的环境信息,同时也不能准确、及时的获得其真正关注的环境信息。
发明内容
本申请实施例提出了提示信息确定方法、装置、设备和计算机程序产品,主要用以协助用户准确、及时的获得其真正关注的环境信息。
在一个方面,本申请实施例提供了一种提示信息确定方法,其特征在于,所述方法包括:获取用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息;确定所述用户选择的图像区域;确定所述用户选择的图像区域对应的提示信息。
在另一个方面,本申请实施例提供了一种提示信息确定装置,其特征在于,所述装置包括:图像获取模块,用于获取用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息;选择确定模块,用于确定所述用户选择的图像区域;提示信息确定模块,用于确定所述用户选择的图像区域对应的提示信息。
在另一个方面,本申请实施例提供了一种电子设备,其特征在于,所述电子设备包括:通信设备,存储器,一个或多个处理器;以及一个或多个模块,所述一个或多个模块被存储在所述存储器中,并被配置成由所述一个或多个处理器执行,所述一个或多个模块包括用于执行上述方法中各个步骤的指令。
在另一个方面,本申请实施例提供了一种与电子设备结合使用的计算机程序产品,所述计算机程序产品包括内嵌于计算机可读的存储介质中的计算机程序,所述计算机程序包括用于使所述电子设备执行上述方法中的各个步骤的指令。
本申请实施例的有益效果如下:
本申请中,将环境图像划分为多个区域并播放用户所选图像区域对应的提示信息,通过用户主动的信息选择,能够更及时、准确的确定其最关注区域环境的提示信息,以便给用户更好的提示。
附图说明
下面将参照附图描述本申请的具体实施例,其中:
图1示出了本申请实施例一中提示信息确定方法的流程示意图;
图2示出了本申请实施例二中提示信息确定方法的流程示意图;
图3示出了本申请实施例三实现场景示意图;
图4示出了本申请实施例四实现场景示意图;
图5示出了本申请实施例六中提示信息确定装置的结构示意图;
图6示出了本申请实施例七中电子设备的结构示意图。
具体实施方式
为了使本申请的技术方案及优点更加清楚明白,以下结合附图对本申请的示例性实施例进行进一步详细的说明,显然,所描述的实施例仅是本申请的一部分实施例,而不是所有实施例的穷举。并且在不冲突的情况下,本说明中的实施例及实施例中的特征可以互相结合。
发明人在发明过程中注意到:现有的盲人辅助方案中,由于用户周边环境通常非常复杂,用户会获得大量其并不关注的环境信息,同时也不能准确、及时的获得其真正关注的环境信息。
针对上述不足,本申请提供了一种提示信息确定方法,在获取用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息后,根据用户选择的图像区域确定对应的提示信息。本申请中,将环境图像划分为多个区域并播放用户所选图像区域对应的提示信息,通过用户主动的信息选择,能够更及时、准确的确定其最关注区域环境的提示信息,以便给用户更好的提示。
以下通过具体示例,进一步阐明本发明实施例技术方案的实质。
实施例一:
本实施例在导盲系统中实现,面对的用户通常是视力障碍人士。所述导盲系统包括用户的一个或者多个随身设备以及与这些导盲设备具有通信连接的云端服务器。
图1示出了本申请实施例一中提示信息确定方法流程示意图,如图1所示,所述提示信息确定方法包括:
步骤101,采集用户所处环境图像;
步骤102,将所述用户所处环境图像发送至云端服务器;云端服务器对所述环境图像进行语义分割,将所述环境图像划分为至少一个图像区域,确定各图像区域对应的提示信息;
步骤103,获取云端服务器发送的用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息;
步骤104,确定所述用户选择的图像区域;
步骤105,确定所述用户选择的图像区域对应的提示信息。
在步骤101中,采集用户所处环境的图像,所述用户所处环境图像是通过用户随身设备采集的,所述用户随身设备可以是导盲头盔、导盲眼镜、导盲背心、导盲手杖等各种可穿戴设备,也可以是手机、平板电脑等用户通常随身携带的设备。用户随身设备采集的用户所处环境的图像可以是照片,所述照片可以包括:用户前方的照片,用户随身设备如导盲头盔或者导盲眼镜朝向方向的照片,或者用户某个方向范围的全景照片,例如用户正前方180°图像合成的照片,或者用户周围360°图像合成的照片;用户随身设备采集的用户所处环境的图像也可以是与前述照片采集方式对应的视频的截图。
在一些实施方式中,当用户所处环境图像,或者用户所处位置,或者用户姿态中的一种或者几种发生的变化超过预设阈值时,采集用户所处环境图像。
当用户所处环境图像的变化超过预设阈值时,即用户随身设备捕捉到环境图像的变化过大时,判断为需要重新对环境图像进行识别以及时的给用户提示信息,采集用户所处环境图像。例如用户随身设备可以捕捉并识别用户所处环境的视频,当发现某帧视频截图较上次采集的环境图像像素变化量达到30%时,采集该帧图像作为当前用户所处环境图像。
当用户所处位置的变化超过预设阈值时,即用户随身设备根据自身定位装置确定用户移动的距离超过预设的阈值时,判断为需要重新对环境图像进行识别以及时的给用户提示信息,采集用户所处环境图像。例如用户佩戴的导盲头盔根据自身GPS定位装置判断当前用户的位置较上次采集环境图像时的位置变化达到5m时,采集当前用户所处环境图像。
当用户姿态的变化超过预设阈值时,即用户随身设备根据自身姿态感应装置确定用户的姿态变化超过预设的阈值时,判断为需要重新对环境图像进行识别以及时的给用户提示信息,采集用户所处环境图像。例如用户佩戴的导盲头盔根据自身陀螺仪检测到,当前用户头部较上次采集环境图像时旋转了超过10°时,采集当前用户所处环境图像。
当然也可以同时根据用所处环境图像,用户所处位置,或者用户姿态中的几种发生的变化是否超过各自的预设阈值判断是否需要采集当前用户所处环境图像。
在步骤102中,用户随身设备将所述用户所处环境图像发送至云端服务器,用户随身设备与云端服务器可通过各种无线网络形式连接,能够实现实时数据传输。云端服务器接收到用户随身设备发送的环境图像后,对所述环境图像进行语义分割,将所述环境图像划分为至少一个图像区域,确定各图像区域对应的提示信息。
这里的语义分割可根据各种算法实现。所述各图像区域对应的提示信息可以直接为图像区域进行语义分割时对应的语义词汇;也可以是根据图像区域的语义进一步匹配处理得到的辅助盲人的提示信息,例如“可以前行”、“需要避让”或者“危险,请小心”等;还可以是对所述图像区域进行进一步图像识别获取的信息,例如被划分入“车辆”图像区域的可以是某种颜色的轿车或者公交车,此时其对应的提示信息可以为“红色车辆”或者“公交车”,被划为“人”的图像区域经进一步识别可得到“红衣服黑裤子的人”或者“戴帽子的女人”等的提示信息。
因云端服务器的图像识别和数据处理能力非常强,因此可以为各图像区域生成各种丰富的提示信息。
处理完成后,云端服务器将用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息反馈给所述用户的随身设备。
需要说明的是,这里的反馈的用户随身设备可以是步骤101中采集用户所处环境的图像的随时设备,也可以是该用户的其他配套随身设备,即导盲头盔、导盲眼镜、导盲背心、导盲手杖、手环等各种可穿戴设备,或者手机、平板电脑等用户通常随身携带的设备。例如,用户的导盲头盔采集用户前方图像发送给云端服务器,云端服务器处理完成后可以发送回所述导盲头盔,也可以发送回该导盲头盔对应用户的手机终端等。
在步骤103中,用户的随身设备获取云端服务器发送的用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息。
在一些实施方式中,在所述步骤103之后,还包括当判断所述环境图像的图像区域划分结果符合预设条件时,通知所述用户;所述预设条件包括以下一种或者几种:所述图像区域划分结果与之前的图像区域划分结果相比较,出现了新的图像区域,并且所述新的图像区域的面积大于预设阈值;或者,所述图像区域划分结果与之前的图像区域划分结果相比较,原有的某个图像区域的面积增长大于预设阈值。
用户的随身设备获取云端服务器发送的用户所处环境图像的图像区域划分结果后可与上一次云端服务器发送的划分结果进行比较,当图像区域的划分结果出现了大幅的变化时,需要通知用户额外注意。具体的,当出现以下情况之中的一种或者几种时,判断划分结果符合预设条件:
1)出现了新的图像区域,并且所述新的图像区域的面积大于预设阈值;
对应用户前方较近距离突然出现了人或物体的情况等。
2)原有的某个图像区域的面积增长大于预设阈值;
对应距某个物体过近的情况,例如快撞墙或者有车辆行驶到附近等。
此时通知所述用户,通知的内容包括以下一种或者几种:
1)图像区域划分结果符合预设条件;
即发生了环境图像大幅变化时,通知用户这种情况的发生,请用户注意,其通知形式可以是用户某一随身设备的震动或者提示音报警等。
2)发生变化的图像区域的位置;
即通知用户新的较大面积的图像区域的位置或者发生了较大面积变化的原有的图像区域的位置,其通知形式可以为语音告知或者用户某一随身设备的震动提示等,例如语音播放“请注意右前方”,或者用户头戴的导盲头盔右侧震动提醒。结合后续步骤,可由用户自行决定是否主动选择该区域以及时获得该区域的提示信息。
3)发生变化的图像区域的提示信息;
即直接为用户播放新的较大面积的图像区域对应的提示信息,或者发生了较大面积变化的原有的图像区域的提示信息,该提示信息可以由当前的用户随身设备直接播放,也可以将所述通知的提示信息发送至所述用户其他的随身设备进行播放,例如由用户导盲头盔语音播放“请注意建筑”或者将语音信息“请注意红色车辆”发送至用户耳机进行播放。
在步骤104中,用户的随身设备确定所述用户选择的图像区域,确定用户选择的图像区域的方法可以为接收用户在触摸板或者触摸屏的指令,或者接收用户在特定的操作空间中的动作指令,或者接收用户的语音指令等。
在一些实施方式中,用户的随身设备确定所述用户选择的图像区域的方式为:获取用户在触摸板或者触摸屏的操作位置;根据所述各图像区域与触摸板或者触摸屏的位置映射关系,确定所述用户操作位置对应的图像区域为用户选择的图像区域。
所述触摸板或者触摸屏通常安装在用户随身设备中,并且触摸板或者触摸屏的各位置与环境图像存在映射关系,因此可以根据用户在触摸板或者触摸屏某个位置的触摸操作确定该位置对应在环境图像的位置,并确定该操作位置对应的图像区域,进而获得用户选择的图像区域。所述触摸操作可以为点击、长时间触摸或者滑动等。
在一些实施方式中,用户的随身设备确定所述用户选择的图像区域的方式为:获取所述用户在操作空间中的手势信息;根据各图像区域与所述操作空间的映射关系,确定所述用户操作空间中手势信息对应的图像区域为用户选择的图像区域。
用户随身设备中安装能够检测用户在特定的操作空间手势图像的摄像头,当用户随身设备获得环境图像的图像区域划分结果后,会将该图像区域与手势检测摄像头支持的交互空间进行映射,当用户的特定手势出现在某图像区域对应的空间位置时,确定该位置对应的图像区域为用户选择的图像区域。
检测用户手势的摄像头通常与采集用户所处环境图像的摄像头是相互独立的,其中检测用户手势的摄像头可以安装在用户头戴设备如导盲头盔或者导盲眼镜上,具有较大的下倾角度,使用户在做出手势完成交互时只需将手稍稍抬起,在空中完成手势动作,而不需要将手抬高至正前方,一方面可以缓解用户长时间举手操作的疲劳,另一方面可以避免手势图像被采集入用户所处环境图像,影响环境图像语义分割结果。
在步骤105中,确定所述用户选择的图像区域对应的提示信息,即根据用户的选择的图像区域确定被选择的图像区域对应的提示信息为用户最关注的提示信息。
在一些实施方式中,在步骤105后还包括,播放所述提示信息。用户随身设备根据用户选择的图像区域确定其对应的提示信息后,可以在当前随身设备直接播放,播放方式可以为语音。
在一些实施方式中,在步骤105后还包括,将所述提示信息发送至所述用户的其他随身设备,以使所述用户的随身设备播放所述提示信息。用户随身设备根据用户选择的图像区域确定其对应的提示信息后,可以将其发送至同一用户的其他随身设备进行播放,所述其他随身设备可以为用户的头戴设备,例如头盔、眼镜或者耳机,其距离用户耳朵更近,能够使用户更清晰的听到播放的提示信息。
本实施例中,将环境图像划分为多个区域并播放用户所选图像区域对应的提示信息,通过用户主动的信息选择,能够更及时、准确的确定其最关注区域环境的提示信息,以便给用户更好的提示;对环境图像的处理在云端服务器完成,图像处理速度更快、更精确,不受用户随身设备图像处理能力的限制;能够在用户所处环境图像、所处位置或者用户姿态发生变化时及时采集环境图像进行处理,既避免了大量的图像数据处理,也能够及时为用户更新环境图像对应的提示信息;能够在环境突变,图像区域出现大幅变化时,及时提示用户以便用户应对;用户能够通过触摸板、触摸屏或者空间手势等多种形式完成相应操作,符合用户习惯;提示信息的播放可以由当前随身设备完成,也可以由更方便用户的其他随身设备完成,用户体验更好。
实施例二:
本实施例在导盲系统中实现,面对的用户通常是视力障碍人士。所述导盲系统包括用户的一个或者多个随身设备,各导盲设备间建立有通信连接。
图2示出了本申请实施例二中提示信息确定方法流程示意图,如图2所示,所述提示信息确定方法包括:
步骤201:采集用户所处环境图像;
步骤202:对所述环境图像进行语义分割,将所述环境图像划分为至少一个图像区域,确定各图像区域对应的提示信息;
步骤203:获取用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息;
步骤204:确定所述用户选择的图像区域;
步骤205:确定所述用户选择的图像区域对应的提示信息。
步骤201的实施可参照上述实施例一中对步骤101的说明。在步骤201中,用户随身设备采集用户所处环境的图像。在一些实施方式中,当用户所处环境图像,或者用户所处位置,或者用户姿态中的一种或者几种发生的变化超过预设阈值时,采集用户所处环境图像。
在步骤202中,所述随身设备在本地对所述环境图像进行语义分割,将所述环境图像划分为至少一个图像区域,确定各图像区域对应的提示信息。
这里的语义分割可根据各种算法实现,所述各图像区域对应的提示信息可以直接为图像区域进行语义分割时对应的语义词汇,也可以是根据图像区域的语义进一步匹配处理得到的辅助盲人的提示信息,例如“可以前行”、“需要避让”或者“危险,请小心”等。
在步骤203中,随身设备获取本地处理完成后的,用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息。
在一些实施方式中,在所述步骤203之后,还包括当判断所述环境图像的图像区域划分结果符合预设条件时,通知所述用户;所述预设条件包括以下一种或者几种:所述图像区域划分结果与之前的图像区域划分结果相比较,出现了新的图像区域,并且所述新的图像区域的面积大于预设阈值;或者,所述图像区域划分结果与之前的图像区域划分结果相比较,原有的某个图像区域的面积增长大于预设阈值。该步骤的实时可参照上述实施例一中步骤103后的步骤说明。
步骤204的实施可参照上述实施例一中对步骤104的说明。在步骤204中,用户的随身设备确定所述用户选择的图像区域,确定用户选择的图像区域的方法可以为接收用户在触摸板或者触摸屏的指令,或者接收用户在特定的操作空间中的动作指令,或者接收用户的语音指令等。
在一些实施方式中,用户的随身设备确定所述用户选择的图像区域的方式为:获取用户在触摸板或者触摸屏的操作位置;根据所述各图像区域与触摸板或者触摸屏的位置映射关系,确定所述用户操作位置对应的图像区域为用户选择的图像区域。在一些实施方式中,用户的随身设备确定所述用户选择的图像区域的方式为:获取所述用户在操作空间中的手势信息;根据各图像区域与所述操作空间的映射关系,确定所述用户操作空间中手势信息对应的图像区域为用户选择的图像区域。
在步骤205中,所述用户随身设备确定所述用户选择的图像区域对应的提示信息,即根据用户的选择的图像区域确定被选择的图像区域对应的提示信息为用户最关注的提示信息。
在一些实施方式中,在步骤205后还包括,播放所述提示信息。用户随身设备在对环境图像进行语义分割得到多个图像区域,并根据用户选择的图像区域确定其对应的提示信息后,可以在当前随身设备直接播放,播放方式可以为语音。
在一些实施方式中,在步骤205后还包括,将所述提示信息发送至所述用户的其他随身设备,以使所述用户的随身设备播放所述提示信息。用户随身设备在对环境图像进行语义分割得到多个图像区域,并根据用户选择的图像区域确定其对应的提示信息后,可以将提示信息发送至同一用户的其他随身设备进行播放,所述其他随身设备可以为用户的头戴设备,例如头盔、眼镜或者耳机,其距离用户耳朵更近,能够使用户更清晰的听到播放的提示信息。
本实施例中,将环境图像划分为多个区域并播放用户所选图像区域对应的提示信息,通过用户主动的信息选择,能够更及时、准确的确定其最关注区域环境的提示信息,以便给用户更好的提示;对环境图像的处理在用户随身设备本地完成,不受用户随身设备通信功能的限制,不受数据传输延时影响;能够在用户所处环境图像、所处位置或者用户姿态发生变化时及时采集环境图像进行处理,既避免了大量的图像数据处理,也能够及时为用户更新环境图像对应的提示信息;用户能够通过触摸板、触摸屏或者空间手势等多种形式完成相应操作,符合用户习惯;提示信息的播放可以由当前随身设备完成,也可以由更方便用户的其他随身设备完成,用户体验更好。
实施例三:
本实施例在导盲系统中实现,面对的用户通常是视力障碍人士。所述导盲系统至少包括用户的导盲眼镜、智能手机以及云端服务器,并且三者间建立了通信连接关系。
图3示出了本申请实施例三实现场景示意图,如图3所示,用户的导盲眼镜周期性的采集用户头部朝向方向的环境图像,实时上传云端服务器;云端服务器实时对用户导盲眼镜上传的环境图像进行语义分割,例如分割得到“天空”,“建筑”,“道路”和“车辆”四个区域,并将其语义作为各区域的提示信息;云端服务器将环境图像的区域分割结果和各区域对应的提示信息发送至所述导盲眼镜的用户的智能手机;该用户的智能手机接收到云端发送的场景分割图后,可将图像区域分割结果显示在触摸屏上;用户以点击或滑动的方式触碰屏幕的不同区域后,智能手机播放该图像区域对应的提示信息,或者将该提示信息发送至用户的导盲眼镜,由眼镜播放,例如用户触摸手机屏幕底部,导盲眼镜语音播放该图像区域对应的提示信息“道路”。
实施例四:
本实施例在导盲系统中实现,面对的用户通常是视力障碍人士。所述导盲系统至少包括用户的导盲头盔和云端服务器,并且二者间建立了通信连接关系。导盲头盔除具有水平朝向头部前部的环境图像采集摄像头外,还具有与水平夹角60°朝向用户前方下部的手势检测摄像头,其支持用户前方下部特定的操作空间中的手势识别。
图4示出了本申请实施例四实现场景示意图,如图4所示,用户的导盲头盔监测到用户头部右转了10°后,采集用户头部朝向方向的环境图像,实时上传云端服务器;云端服务器实时对用户导盲头盔上传的环境图像进行语义分割,例如分割得到“天空”,“建筑”,“道路”和“车辆”四个区域,并将其语义词汇以及对应的对用户的辅助信息作为各区域的提示信息;云端服务器将环境图像的区域分割结果和各区域对应的提示信息发送回所述导盲头盔;导盲头盔获得环境图像的区域分割结果后,会将该图像与手势检测摄像头支持的操作空间做映射,即手势操作空间的每一个位置都对应划分了图像区域的环境图像的一个位置。当用户使用手指隔空移动时,手势检测摄像头会检测到用户手指的位置,并映射至划分了图像区域的环境图像中,导盲头盔会将用户指向的图像区域对应的提示信息通过语音播报出来。例如用户抬手指向操作空间的右下部,导盲头盔播放语音“车辆,请避让”。
实施例五:
本实施例通过多功能导盲背心实现,所述导盲背心胸前具有指向用户前方的环境图像摄像头,用于采集用户所处环境图像,在所述导盲背心下侧靠近用户手的部分装有一个触摸板,能够收集用的触摸操控信息。当导盲背心检测到用正前方的环境图像变化过大时,采集当前图像,并对所述环境图像进行语义分割并将其语义作为各区域的提示信息;将环境图像的区域分割结果与触摸板的区域建立映射关系,在检测到用户在触摸板的触摸操作后,确定用户触摸触摸板的位置对应的分割后的图像区域,以确定用户选择的图像区域;导盲背心为用户语音播放用户选择的图像区域对应的提示信息。
实施例六:
基于同一发明构思,本申请实施例中还提供了一种提示信息确定装置,由于这些装置解决问题的原理与提示信息确定方法相似,因此这些装置的实施可以参见方法的实施,重复之处不再赘述。如图5所示,所述提示信息确定装置500包括:
图像获取模块501,用于获取用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息;
选择确定模块502,用于确定所述用户选择的图像区域;
提示信息确定模块503,用于确定所述用户选择的图像区域对应的提示信息。
在一些实施方式中,所述装置500还包括:
图像采集模块504,用于采集用户所处环境图像;
数据发送模块505,用于将所述用户所处环境图像发送至云端服务器;
所述图像获取模块501,用于获取云端服务器发送的用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息。
在一些实施方式中,所述装置500还包括:
图像采集模块504,用于采集用户所处环境图像;
图像处理模块506,用于对所述环境图像进行语义分割,将所述环境图像划分为至少一个图像区域,确定各图像区域对应的提示信息。
在一些实施方式中,所述图像采集模块504具体用于:
当用户所处环境图像,或者用户所处位置,或者用户姿态中的一种或者几种发生的变化超过预设阈值时,采集用户所处环境图像。
在一些实施方式中,所述装置500还包括:
变化提示模块507,用于当判断所述环境图像的图像区域划分结果符合预设条件时,通知所述用户;
所述预设条件包括以下一种或者几种:
所述图像区域划分结果与之前的图像区域划分结果相比较,出现了新的图像区域,并且所述新的图像区域的面积大于预设阈值;或者,
所述图像区域划分结果与之前的图像区域划分结果相比较,原有的某个图像区域的面积增长大于预设阈值。
在一些实施方式中,所述选择确定模块502具体用于:
获取用户在触摸板或者触摸屏的操作位置;
根据所述各图像区域与所述触摸板或者触摸屏的位置映射关系,确定所述用户操作位置对应的图像区域为用户选择的图像区域。
在一些实施方式中,所述选择确定模块502具体用于:
获取所述用户在操作空间中的手势信息;
根据各图像区域与所述操作空间的映射关系,确定所述用户操作空间中手势信息对应的图像区域为用户选择的图像区域。
在一些实施方式中,所述装置500还包括播放模块508,用于在所述提示信息确定模块503确定所述用户选择的图像区域对应的提示信息之后,播放所述提示信息。
在一些实施方式中,所述数据发送模块505还用于,在所述提示信息确定模块503确定所述用户选择的图像区域对应的提示信息之后,将所述提示信息发送至所述用户的随身设备,以使所述用户的随身设备播放所述提示信息。
实施例七:
基于同一发明构思,本申请实施例中还提供了一种电子设备,由于其原理与提示信息确定方法相似,因此其实施可以参见方法的实施,重复之处不再赘述。如图6所示,所述电子设备600包括:通信设备601,存储器602,一个或多个处理器603;以及一个或多个模块,所述一个或多个模块被存储在所述存储器中,并被配置成由所述一个或多个处理器执行,所述一个或多个模块包括用于执行任一上述方法中各个步骤的指令。
实施例八:
基于同一发明构思,本申请实施例还提供了一种与电子设备结合使用的计算机程序产品,所述计算机程序产品包括内嵌于计算机可读的存储介质中的计算机程序,所述计算机程序包括用于使所述电子设备执行任一上述方法中的各个步骤的指令。
为了描述的方便,以上所述装置的各部分以功能分为各种模块分别描述。当然,在实施本申请时可以把各模块或单元的功能在同一个或多个软件或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。

Claims (18)

1.一种提示信息确定方法,其特征在于,所述方法包括:
获取用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息;
确定所述用户选择的图像区域;
确定所述用户选择的图像区域对应的提示信息。
2.如权利要求1所述的方法,其特征在于,在所述获取用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息之前,还包括:
采集用户所处环境图像;
将所述用户所处环境图像发送至云端服务器;
所述获取用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息包括:
获取云端服务器发送的用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息。
3.如权利要求1所述的方法,其特征在于,在所述获取用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息之前,还包括:
采集用户所处环境图像;
对所述环境图像进行语义分割,将所述环境图像划分为至少一个图像区域,确定各图像区域对应的提示信息。
4.如权利要求2或3中任一所述的方法,其特征在于,所述采集用户所处环境图像,包括:
当用户所处环境图像,或者用户所处位置,或者用户姿态中的一种或者几种发生的变化超过预设阈值时,采集用户所处环境图像。
5.如权利要求1至4中任一所述的方法,其特征在于,在所述获取用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息之后,还包括:
当判断所述环境图像的图像区域划分结果符合预设条件时,通知所述用户;
所述预设条件包括以下一种或者几种:
所述图像区域划分结果与之前的图像区域划分结果相比较,出现了新的图像区域,并且所述新的图像区域的面积大于预设阈值;或者,
所述图像区域划分结果与之前的图像区域划分结果相比较,原有的某个图像区域的面积增长大于预设阈值。
6.如权利要求1至5中任一所述的方法,其特征在于,所述确定所述用户选择的图像区域,包括:
获取用户在触摸板或者触摸屏的操作位置;
根据所述各图像区域与所述触摸板或者触摸屏的位置映射关系,确定所述用户操作位置对应的图像区域为用户选择的图像区域。
7.如权利要求1至5中任一所述的方法,其特征在于,所述确定所述用户选择的图像区域,包括:
获取所述用户在操作空间中的手势信息;
根据各图像区域与所述操作空间的映射关系,确定所述用户操作空间中手势信息对应的图像区域为用户选择的图像区域。
8.如权利要求1至7中任一所述的方法,其特征在于,在所述确定所述用户选择的图像区域对应的提示信息之后,还包括:
播放所述提示信息;或者,
将所述提示信息发送至所述用户的随身设备,以使所述用户的随身设备播放所述提示信息。
9.一种提示信息确定装置,其特征在于,所述装置包括:
图像获取模块,用于获取用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息;
选择确定模块,用于确定所述用户选择的图像区域;
提示信息确定模块,用于确定所述用户选择的图像区域对应的提示信息。
10.如权利要求9所述的装置,其特征在于,所述装置还包括:
图像采集模块,用于采集用户所处环境图像;
数据发送模块,用于将所述用户所处环境图像发送至云端服务器;
所述图像获取模块,用于获取云端服务器发送的用户所处环境图像的图像区域划分结果和各图像区域对应的提示信息。
11.如权利要求9所述的装置,其特征在于,所述装置还包括:
图像采集模块,用于采集用户所处环境图像;
图像处理模块,用于对所述环境图像进行语义分割,将所述环境图像划分为至少一个图像区域,确定各图像区域对应的提示信息。
12.如权利要求10或11中任一所述的装置,其特征在于,所述图像采集模块具体用于:
当用户所处环境图像,或者用户所处位置,或者用户姿态中的一种或者几种发生的变化超过预设阈值时,采集用户所处环境图像。
13.如权利要求9至12中任一所述的装置,其特征在于,所述装置还包括:
变化提示模块,用于当判断所述环境图像的图像区域划分结果符合预设条件时,通知所述用户;
所述预设条件包括以下一种或者几种:
所述图像区域划分结果与之前的图像区域划分结果相比较,出现了新的图像区域,并且所述新的图像区域的面积大于预设阈值;或者,
所述图像区域划分结果与之前的图像区域划分结果相比较,原有的某个图像区域的面积增长大于预设阈值。
14.如权利要求9至13中任一所述的装置,其特征在于,所述选择确定模块具体用于:
获取用户在触摸板或者触摸屏的操作位置;
根据所述各图像区域与所述触摸板或者触摸屏的位置映射关系,确定所述用户操作位置对应的图像区域为用户选择的图像区域。
15.如权利要求9至13中任一所述的装置,其特征在于,所述选择确定模块具体用于:
获取所述用户在操作空间中的手势信息;
根据各图像区域与所述操作空间的映射关系,确定所述用户操作空间中手势信息对应的图像区域为用户选择的图像区域。
16.如权利要求9至15中任一所述的装置,其特征在于,
所述装置还包括播放模块,用于在所述提示信息确定模块确定所述用户选择的图像区域对应的提示信息之后,播放所述提示信息;
或者,
所述数据发送模块还用于,在所述提示信息确定模块确定所述用户选择的图像区域对应的提示信息之后,将所述提示信息发送至所述用户的随身设备,以使所述用户的随身设备播放所述提示信息。
17.一种电子设备,其特征在于,所述电子设备包括:
通信设备,存储器,一个或多个处理器;以及一个或多个模块,所述一个或多个模块被存储在所述存储器中,并被配置成由所述一个或多个处理器执行,所述一个或多个模块包括用于执行权利要求1至8中任一所述方法中各个步骤的指令。
18.一种与电子设备结合使用的计算机程序产品,所述计算机程序产品包括内嵌于计算机可读的存储介质中的计算机程序,所述计算机程序包括用于使所述电子设备执行权利要求1至8中任一所述方法中的各个步骤的指令。
CN201780002906.9A 2017-12-20 2017-12-20 提示信息确定方法、装置、电子设备 Active CN108140124B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/117424 WO2019119290A1 (zh) 2017-12-20 2017-12-20 提示信息确定方法、装置、电子设备和计算机程序产品

Publications (2)

Publication Number Publication Date
CN108140124A true CN108140124A (zh) 2018-06-08
CN108140124B CN108140124B (zh) 2020-12-08

Family

ID=62400864

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780002906.9A Active CN108140124B (zh) 2017-12-20 2017-12-20 提示信息确定方法、装置、电子设备

Country Status (2)

Country Link
CN (1) CN108140124B (zh)
WO (1) WO2019119290A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376581A (zh) * 2018-09-03 2019-02-22 腾讯科技(武汉)有限公司 对象关系识别方法和装置、存储介质及电子装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111783557B (zh) * 2020-06-11 2023-08-15 北京科技大学 一种基于深度视觉的可穿戴导盲设备及服务器

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6198395B1 (en) * 1998-02-09 2001-03-06 Gary E. Sussman Sensor for sight impaired individuals
CN101986673A (zh) * 2010-09-03 2011-03-16 浙江大学 一种智能手机导盲器及导盲方法
CN104739622A (zh) * 2015-02-04 2015-07-01 覃泳睿 一种新型可穿戴导盲设备及其工作方法
CN105342816A (zh) * 2015-11-24 2016-02-24 上海斐讯数据通信技术有限公司 一种用于盲人导航的实时避障系统
CN105686935A (zh) * 2016-01-08 2016-06-22 中国石油大学(华东) 一种智能导盲方法
CN106265004A (zh) * 2016-10-08 2017-01-04 西安电子科技大学 多传感器智能盲人指路方法与装置
CN107223224A (zh) * 2016-12-19 2017-09-29 深圳前海达闼云端智能科技有限公司 一种弱视辅助方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6198395B1 (en) * 1998-02-09 2001-03-06 Gary E. Sussman Sensor for sight impaired individuals
CN101986673A (zh) * 2010-09-03 2011-03-16 浙江大学 一种智能手机导盲器及导盲方法
CN104739622A (zh) * 2015-02-04 2015-07-01 覃泳睿 一种新型可穿戴导盲设备及其工作方法
CN105342816A (zh) * 2015-11-24 2016-02-24 上海斐讯数据通信技术有限公司 一种用于盲人导航的实时避障系统
CN105686935A (zh) * 2016-01-08 2016-06-22 中国石油大学(华东) 一种智能导盲方法
CN106265004A (zh) * 2016-10-08 2017-01-04 西安电子科技大学 多传感器智能盲人指路方法与装置
CN107223224A (zh) * 2016-12-19 2017-09-29 深圳前海达闼云端智能科技有限公司 一种弱视辅助方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376581A (zh) * 2018-09-03 2019-02-22 腾讯科技(武汉)有限公司 对象关系识别方法和装置、存储介质及电子装置
CN109376581B (zh) * 2018-09-03 2022-02-22 腾讯科技(武汉)有限公司 对象关系识别方法和装置、存储介质及电子装置

Also Published As

Publication number Publication date
CN108140124B (zh) 2020-12-08
WO2019119290A1 (zh) 2019-06-27

Similar Documents

Publication Publication Date Title
CN110807361B (zh) 人体识别方法、装置、计算机设备及存储介质
US10516870B2 (en) Information processing device, information processing method, and program
US9392248B2 (en) Dynamic POV composite 3D video system
CN107835367A (zh) 一种图像处理方法、装置及移动终端
CN108848313B (zh) 一种多人拍照方法、终端和存储介质
WO2020233403A1 (zh) 三维角色的个性化脸部显示方法、装置、设备及存储介质
CN113038165B (zh) 确定编码参数组的方法、设备及存储介质
CN113613028B (zh) 直播数据处理方法、装置、终端、服务器及存储介质
CN108881544A (zh) 一种拍照的方法及移动终端
CN109167914A (zh) 一种图像处理方法及移动终端
CN109658886A (zh) 一种显示屏的控制方法及终端
CN112581358A (zh) 图像处理模型的训练方法、图像处理方法及装置
CN110807769B (zh) 图像显示控制方法及装置
CN113556481B (zh) 视频特效的生成方法、装置、电子设备及存储介质
WO2019000464A1 (zh) 一种图像显示方法、装置、存储介质和终端
CN111091519A (zh) 一种图像处理方法及装置
CN108140124A (zh) 提示信息确定方法、装置、电子设备和计算机程序产品
CN108989666A (zh) 拍摄方法、装置、移动终端及计算机可读取存储介质
CN109345636B (zh) 获取虚拟人脸图的方法和装置
US11846783B2 (en) Information processing apparatus, information processing method, and program
CN108537836A (zh) 一种深度数据获取方法及移动终端
CN111982293B (zh) 体温测量方法、装置、电子设备及存储介质
CN113194329A (zh) 直播互动方法、装置、终端及存储介质
CN114764295A (zh) 立体场景切换方法、装置、终端及存储介质
CN111325083A (zh) 记录考勤信息的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210207

Address after: 201111 2nd floor, building 2, no.1508, Kunyang Road, Minhang District, Shanghai

Patentee after: Dalu Robot Co.,Ltd.

Address before: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.)

Patentee before: Shenzhen Qianhaida Yunyun Intelligent Technology Co.,Ltd.

TR01 Transfer of patent right
CP03 Change of name, title or address

Address after: 201111 Building 8, No. 207, Zhongqing Road, Minhang District, Shanghai

Patentee after: Dayu robot Co.,Ltd.

Address before: 201111 2nd floor, building 2, no.1508, Kunyang Road, Minhang District, Shanghai

Patentee before: Dalu Robot Co.,Ltd.

CP03 Change of name, title or address