CN110673819A - 信息处理方法及电子设备 - Google Patents
信息处理方法及电子设备 Download PDFInfo
- Publication number
- CN110673819A CN110673819A CN201910882422.9A CN201910882422A CN110673819A CN 110673819 A CN110673819 A CN 110673819A CN 201910882422 A CN201910882422 A CN 201910882422A CN 110673819 A CN110673819 A CN 110673819A
- Authority
- CN
- China
- Prior art keywords
- sound source
- target sound
- display device
- coordinate system
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种信息处理方法及电子设备,其中,该方法包括:基于采集的环境声音数据,获取至少一个目标声源在第一坐标系中的第一位置信息,其中,所述第一坐标系为基于多个音频采集单元构建的用于指示声源位置的坐标系;基于所述第一坐标系和第二坐标系之间的预设转化关系,将所述第一位置信息转化成与所述第二坐标系对应的第二位置信息;其中,所述第二坐标系为电子设备的显示装置构建的用于指示空间场景的坐标系;基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,以标识所述目标声源的位置,可以帮助失聪用户指示所处环境中的声源的位置,以提高这部分人群的生活品质。
Description
技术领域
本申请涉及电子设备技术领域,特别涉及一种信息处理方法及电子设备。
背景技术
听力障碍是指听觉系统中的传音、感音以及对声音的综合分析的各级神经中枢发生器质性或功能性异常,而导致听力出现不同程度的减退。根据听力损失的严重程度可分为耳聋和听力减退,其中,耳聋通常指双耳均听不到任何声音的人群;听力减退是指听力损失未达到耳聋的程度,双耳或单耳尚能微弱感知到声音的人群。针对双耳均能微弱感知到声音的听力减退的人群,可通过佩戴助听器,利用麦克风采集环境中的声音,把原本听不到的声音加以扩大,再利用听障者的残余听力,使声音能送到大脑听觉中枢,而感觉到声音。仅单耳能够微弱感知到声音的听力减退人群,即使佩戴助听器,也无法准确感知到声音的方向和声源的位置。而耳聋患者完全无法感知到任何声音,现有技术中尚无有效帮助该部分人群感知声音。
申请内容
本申请提供了一种信息处理方法及电子设备,本申请的实施例采用了如下技术方案:
一种信息处理方法,包括:
基于采集的环境声音数据,获取至少一个目标声源在第一坐标系中的第一位置信息,其中,所述第一坐标系为基于多个音频采集单元构建的用于指示声源位置的坐标系;
基于所述第一坐标系和第二坐标系之间的预设转化关系,将所述第一位置信息转化成与所述第二坐标系对应的第二位置信息;其中,所述第二坐标系为电子设备的显示装置构建的用于指示空间场景的坐标系;
基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,以标识所述目标声源的位置。
在一些实施例中,所述方法还包括:
基于采集的环境声音数据,获取至少一个目标声源的声音强度信息;
在所述声音强度信息大于第一阈值时,确定所述目标声源为有效目标声源。
在一些实施例中,所述方法还包括:
基于采集的空间场景图像数据确定所述空间场景的类型信息;
基于所述空间场景的类型信息确定所述第一阈值。
在一些实施例中,所述基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,包括:
基于所述第二位置信息确定所述目标声源是否位于所述显示装置的视域范围内;
当所述目标声源位于所述显示装置的视域范围内时,在所述显示装置上与所述目标声源相对应的位置显示所述目标声源的第一虚拟图像,以在所述空间场景中标识所述目标声源的位置。
在一些实施例中,所述基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,还包括:
基于所述环境声音数据确定所述目标声源的身份信息;
基于所述目标声源的身份信息、所述第二位置信息和采集的空间场景图像数据,确定所述目标声源是否被遮挡;
如果是,基于所述目标声源的身份信息和所述第二位置信息,在所述显示装置上与所述目标声源相对应的位置显示所述目标声源的第二虚拟图像,以标注所述目标声源。
在一些实施例中,所述基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,包括:
基于所述第二位置信息确定所述目标声源是否位于所述显示装置的视域范围内;
当所述目标声源位于所述显示装置的视域范围外时,在所述显示装置上显示提示信息。
在一些实施例中,所述基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,还包括:
当所述目标声源位于所述显示装置的视域范围外时,采集特定范围内包含所述目标声源的空间场景图像数据;
在所述显示装置上显示所述空间场景图像数据,并生成所述目标声源的第三虚拟图像,以标识所述目标声源。
在一些实施例中,所述方法还包括:
基于所述环境声音数据获取与所述目标声源所发声音相对应的文本信息;
在所述显示装置上显示所述文本信息,以标识所述目标声源的声音内容。
一种信息处理系统,包括:
第一获取模块,用于基于采集的环境声音数据,获取至少一个目标声源在第一坐标系中的第一位置信息,其中,所述第一坐标系为基于多个音频采集单元构建的用于指示声源位置的坐标系;
转化模块,用于基于所述第一坐标系和第二坐标系之间的预设转化关系,将所述第一位置信息转化成与所述第二坐标系对应的第二位置信息;其中,所述第二坐标系为电子设备的显示装置构建的用于指示空间场景的坐标系;
第一标识模块83,用于基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,以标识所述目标声源的位置。
一种电子设备,包括麦克风阵列、显示装置及分别与所述麦克风阵列和所述显示装置连接的处理器,其中:
所述麦克风阵列用于采集的环境声音数据,基于所述环境声音数据获取至少一个目标声源在第一坐标系中的第一位置信息,将所述第一位置信息发送至所述处理器,其中,所述第一坐标系为基于多个音频采集单元构建的用于指示声源位置的坐标系;
所述处理器用于基于所述第一坐标系和第二坐标系之间的预设转化关系,将所述第一位置信息转化成与所述第二坐标系对应的第二位置信息,将所述第二位置信息发送至所述显示装置;其中,所述第二坐标系为电子设备的显示装置构建的用于指示空间场景的坐标系;
所述显示装置用于基于所述第二位置信息显示与所述目标声源相关的标识信息,以标识所述目标声源的位置。
一种电子设备,至少包括存储器和处理器,所述存储器上存储有可执行程序,所述处理器在执行所述存储器上的可执行程序时实现如下步骤:
基于采集的环境声音数据,获取至少一个目标声源在第一坐标系中的第一位置信息,其中,所述第一坐标系为基于多个音频采集单元构建的用于指示声源位置的坐标系;
基于所述第一坐标系和第二坐标系之间的预设转化关系,将所述第一位置信息转化成与所述第二坐标系对应的第二位置信息;其中,所述第二坐标系为电子设备的显示装置构建的用于指示空间场景的坐标系;
基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,以标识所述目标声源的位置。
本申请实施例的有益效果在于:
本申请实施例的信息处理方法,通过音频采集装置采集的环境声音数据,该音频采集装置包括多个音频采集单元,多个音频采集单元构建有用于指示声源位置的第一坐标系,基于采集的环境声音数据能够获取到至少一个目标声源在第一坐标系中的第一位置信息;电子设备的显示装置构建有用于指示空间场景的第二坐标系,基于第一坐标系和第二坐标系之间预设转化关系,能够将第一位置信息转化成第二坐标系对应的第二位置信息;之后,基于第二位置信息在显示装置上显示与目标声源相关的标识信息,以标识目标声源的位置。这样,可以帮助失聪用户指示所处环境中的声源的位置,以提高这部分人群的生活品质。
附图说明
图1为本申请实施例的信息处理方法的流程图;
图2为本申请实施例的信息处理方法对目标声源进行标识的第一场景图;
图3为本申请实施例的信息处理方法的步骤300的第一种实施例的流程图;
图4为本申请实施例的信息处理方法对目标声源进行标识的第二场景图;
图5为本申请实施例的信息处理方法的步骤300的第二种实施例的流程图;
图6为本申请实施例的信息处理系统的结构框图;
图7为本申请实施例的电子设备的结构示意图;
图8为本申请实施例的电子设备的结构框图。
附图标记说明:
10-目标声源;20-标识信息;30-第一虚拟图像;40-第二虚拟图像;50-麦克风阵列;60-显示装置;70-图像采集装置;81-第一获取模块;82-转化模块;83-第一标识模块;901-存储器;902-处理器。
具体实施方式
此处参考附图描述本申请的各种方案以及特征。
应理解的是,可以对此处申请的实施例做出各种修改。因此,上述说明书不应该视为限制,而仅是作为实施例的范例。本领域的技术人员将想到在本申请的范围和精神内的其他修改。
包含在说明书中并构成说明书的一部分的附图示出了本申请的实施例,并且与上面给出的对本申请的大致描述以及下面给出的对实施例的详细描述一起用于解释本申请的原理。
通过下面参照附图对给定为非限制性实例的实施例的优选形式的描述,本申请的这些和其它特性将会变得显而易见。
还应当理解,尽管已经参照一些具体实例对本申请进行了描述,但本领域技术人员能够确定地实现本申请的很多其它等效形式,它们具有如权利要求所述的特征并因此都位于借此所限定的保护范围内。
当结合附图时,鉴于以下详细说明,本申请的上述和其他方面、特征和优势将变得更为显而易见。
此后参照附图描述本申请的具体实施例;然而,应当理解,所申请的实施例仅仅是本申请的实例,其可采用多种方式实施。熟知和/或重复的功能和结构并未详细描述以避免不必要或多余的细节使得本申请模糊不清。因此,本文所申请的具体的结构性和功能性细节并非意在限定,而是仅仅作为权利要求的基础和代表性基础用于教导本领域技术人员以实质上任意合适的详细结构多样地使用本申请。
本说明书可使用词组“在一种实施例中”、“在另一个实施例中”、“在又一实施例中”或“在其他实施例中”,其均可指代根据本申请的相同或不同实施例中的一个或多个。
图1为本申请实施例的信息处理方法的流程图,参见图1所示,本申请实施例的信息处理方法具体包括如下步骤:
基于采集的环境声音数据,获取至少一个目标声源在第一坐标系中的第一位置信息,其中,所述第一坐标系为基于多个音频采集单元构建的用于指示声源位置的坐标系;
基于所述第一坐标系和第二坐标系之间的预设转化关系,将所述第一位置信息转化成与所述第二坐标系对应的第二位置信息;其中,所述第二坐标系为电子设备的显示装置构建的用于指示空间场景的坐标系;
基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,以标识所述目标声源的位置。
本申请实施例的信息处理方法,通过音频采集装置采集的环境声音数据,该音频采集装置包括多个音频采集单元,多个音频采集单元构建有用于指示声源位置的第一坐标系,基于采集的环境声音数据能够获取到至少一个目标声源在第一坐标系中的第一位置信息;电子设备的显示装置构建有用于指示空间场景的第二坐标系,基于第一坐标系和第二坐标系之间预设转化关系,能够将第一位置信息转化成第二坐标系对应的第二位置信息;之后,基于第二位置信息在显示装置上显示与目标声源相关的标识信息,以标识目标声源的位置。这样,利用显示装置可以帮助失聪用户指示所处环境中的声源的位置,以提高这部分人群的生活品质。
为了更好的理解上述技术方案,下面结合说明书附图及具体的实时方式对上述技术方案进行详细的说明。
配合图1和图2所示,本申请实施例的信息处理方法,可应用于电子设备,该电子设备可为穿戴式电子设备、平板电脑、智能手机等,如增强现实(AR)眼镜、虚拟显示(VR)眼镜等,该电子设备包括音频采集装置和显示装置,音频采集装置包括多个音频采集单元。该信息处理方法具体包括如下步骤:
S100,基于采集的环境声音数据,获取至少一个目标声源10在第一坐标系中的第一位置信息,其中,所述第一坐标系为基于多个音频采集单元构建的用于指示声源位置的坐标系。
其中,音频采集装置可以有多种形式,如麦克风阵列,麦克风阵列可包括多个以阵列形式排列的麦克风,每个麦克风作为一个音频采集单元。在具体实施过程中,可将麦克风阵列中的一个麦克风作为坐标原点(0,0,0)构建第一坐标系,以通过该第一坐标系指示声源位置。
该目标声源10为所处环境的发声物,如人、动物、电子设备、电器设备或其他能够发生的物体。利用该麦克风阵列能够采集到用户所处环境中的环境声音数据,如人的说话声、动物的叫声、电子设备的扬声器声音以及电器设备所产生的振动声音等。由于麦克风阵列包括多个呈阵列布置的麦克风,每个麦克风均能够单独采集到音频数据,所以环境声音数据可包括多个音频数据,各个麦克风采集的音频数据具有时间差。进而基于该环境声音数据可计算获得一个或多个目标声源10的第一位置信息,该第一位置信息可包括目标声源10在第一坐标系中的坐标信息。
需要说明的是,音频采集装置可具有多种形式,不仅限于麦克风阵列,音频采集装置采集环境声源数据、构建第一坐标系以及获取目标声源10的第一位置信息均不仅限于上述方式。
S200,基于所述第一坐标系和第二坐标系之间的预设转化关系,将所述第一位置信息转化成与所述第二坐标系对应的第二位置信息。
其中,第二坐标系为电子设备的显示装置构建的用于指示空间场景的坐标系。例如,以该电子设备为AR眼镜为例,该第二坐标系可为AR眼镜的同步定位与建图(SLAM)系统所构建的用于指示所处环境的空间场景的坐标系。还例如,以该电子设备为智能手机为例,该第二坐标系可为智能手机的一个或多个摄像头所构建的用于指示所处环境的空间场景的世界坐标系。
第二位置信息可包括目标声源10在第二坐标系中的坐标信息。在实际应用过程中,当电子设备的音频采集装置和图像采集装置的在电子设备上的位置固定后,二者在空间上即形成了特定的位置关系,由二者构建的第一坐标系和第二坐标系就形成了预设转化关系。在获取到第一位置信息后,可基于该预设转化关系将第一位置信息转换成第二位置信息。如,可基于第一坐标系和第二坐标系之间的例如旋转向量(R)和平移向量(T)等参数,将目标声源10在第一坐标系中的坐标信息转换成第二坐标系中的坐标信息。
S300,基于所述第二位置信息在所述显示装置上显示与所述目标声源10相关的标识信息20,以标识所述目标声源10的位置。
其中,该标识信息20可以有多种形式,例如,该标识信息20可以为图像,或者也可为文字等。以该电子设备为AR眼镜为例,当用户所处室内环境有声源时,可在AR眼镜上第二位置信息所指示的位置处显示一波形图,该波形图能够叠加在目标声源10的在空间场景中的位置处,以标识目标声源10的位置,如图2所示。
以电子设备为VR眼镜为例,可基于该第二位置信息,在VR眼镜显示的虚拟空间场景中与目标声源10相对应的位置处标识一扬声器图像,标识目标声源10的位置。
亦或是,以该电子设备为智能手机为例,可利用手机上的摄像头实时采集所处环境的空间场景图像数据,并通过麦克风阵列实时采集环境声音数据,在获取到第二位置信息后,可基于第二位置信息在智能手机的显示屏上与目标声源10的显示图像相对应的位置处标识“声源”二字。
本申请实施例的信息处理方法,利用音频采集装置代替失聪用户的双耳来捕捉环境声音数据,基于环境声音数据能够确定目标声源10的位置,基于第一坐标系和第二坐标系的预设转化关系,可以将目标声源10在第一坐标系中的第一位置信息转换成第二坐标系中的第二位置信息,基于该第二位置信息能够在显示装置上显示标识信息20,以标识目标声源10的位置,失聪用户通过观察显示装置上的标识信息20,可以确定所处环境中的目标声源10的位置,有助于提高失聪用户的生活品质。
在一些实施例中,所述方法还包括:
基于采集的环境声音数据,获取至少一个目标声源10的声音强度信息;
在所述声音强度信息大于第一阈值时,确定所述目标声源10为有效目标声源10。
在日常生活中,所处环境通常具有较多的声源,如当所处环境为家庭或办公室时,空调、冰箱、洗衣机运转,人员沟通交流,孩童嬉戏打闹,动物活动等均为产生声音;当所处环境为室外或商场时,声源的种类更加复杂,而且数量更多。但并非全部声源均能够引起人类的注意,通常只有声音强度较高的一个或多个目标声源10才能够吸引人类的注意力,其他声音通常作为背景噪声不会引起人类的注意。因此,可模拟正常人对声音感知的情况,在基于环境声音数据获取目标声源10的第一位置信息的同时,还可基于环境声音数据获取至少一个目标声源10的声音强度信息,如获取目标声源10的分贝值。设置第一阈值,当目标声源10的声音强度信息大于第一阈值时,确定目标声源10为有效目标声源10,基于有效目标声源10的第二位置信息,在显示装置上显示与有效目标声源10相关的标识信息20,以标识有效目标声源10的位置。这样,可以避免因标识信息20过于繁杂而导致失聪用户无法确定所处环境主要声源的问题。在实际应用过程中,也可将该声音强度信息作为标识信息20在显示装置上予以显示,以在标识目标声源10的位置的同时,还起到标识目标声源10的声音强度的作用。
需要说明的是,不仅限于基于声音强度信息确定目标声源10是否为有效目标声源10,还可基于采集的环境声音数据,获取至少一个目标声源10的声音属性信息,如音调、响度、音色及音长等,在声音属性信息符合第一预设条件时,确定目标声源10为有效目标声源10。例如,可基于例如语音识别获取特定用户讲话声音的专有声音属性信息,如失聪人士的监护人、被监护人或朋友等,并将该专有声音属性作为第一预设条件,当该特定用户讲话时,就能够通过标识信息20标识该特定用户的位置,这样,使失聪用户能够像普通人一样通过声音寻找特定用户的位置。当然,该第一预设条件不仅限于特定用户讲话声音的专有声音属性信息,也可为其他的易于引起人类注意的专有声音属性信息,如具有特定音色、音调或音长的声源。
在一些实施例中,所述方法还包括:
基于采集的空间场景图像数据确定所述空间场景的类型信息;
基于所述空间场景的类型信息确定所述第一阈值。
当用户处于不同的空间场景时,背景噪声的强度不同,如,当用户处于办公室或者家中时,背景噪声的强度通常较低,但当用户处于商场、车站或者人员众多的广场时,背景噪声的强度则通常较高。在不同背景噪声强度下,正常人对声音识别的敏感程度不同,能够引起正常人注意的声音强度也是不同的。
为使该第一阈值能够与空间场景相适配,进而使该信息处理方法能够广泛的适用于各种空间场景。可通过例如图像采集装置采集空间场景图像数据,通过对空间场景图像数据进行图像识别,可以确定空间场景的类型信息,如用户所处空间场景是家庭、办公室、商场、车站或广场等。针对不同的空间场景的类型信息可设置不同的第一阈值,也即设置不同的背景噪声强度。在具体实施过程中,可预置空间场景的类型信息和第一阈值的对应关系表,在确定空间场景的类型信息后,通过查找该对应关系表以确定第一阈值。这样,在背景噪声强度较低的环境,如家庭或办公室,可自动将第一阈值调整的较低,以便于能够捕捉到有效目标声源10;在背景噪声强度较高的环境,如商场、车站等,可自动将第一阈值调整的较高,以避免显示装置上显示的标识信息20过多而导致失聪用户无法确定所处环境主要声源。
还需说明的是,在实际应用时,也可基于采集的环境声音数据确定背景噪声强度,基于背景噪声强度确定第一阈值,或基于背景噪声强度和空间场景的类型信息确定第一阈值。如,第一阈值的对应关系表中可同时设置背景噪声强度和空间场景的类型信息两个参比数值。
配合图3所示,在一些实施例中,所述基于所述第二位置信息在所述显示装置上显示与所述目标声源10相关的标识信息20,包括:
S311,基于所述第二位置信息确定所述目标声源10是否位于所述显示装置的视域范围内;
S312,当目标声源10位于显示装置的视域范围内时,在显示装置上与目标声源10相对应的位置显示目标声源10的第一虚拟图像30,以在空间场景中标识目标声源10的位置。
其中,显示装置可为可透视的显示装置,这时,显示装置的视域范围即为用户透过该显示装置可视的范围。如当电子设备为AR眼镜时,AR眼镜的镜片即为显示装置,用户透过AR眼镜的镜片的可视范围即为显示装置的视域范围。该显示装置也可为用于显示虚拟空间场景图像的显示装置,这时,显示装置的视域范围即为虚拟空间场景图像的显示范围。如,当电子设备为VR眼镜时,VR眼镜上显示的虚拟空间场景图像的显示范围即为显示装置的视域范围。该显示装置还可为用于显示实时采集的空间场景图像的显示装置,这时,显示装置的视域范围即为显示的实时采集的空间场景图像的显示范围。如,该电子设备可为VR眼镜或智能手机等,通过例如摄像头等图像采集装置实时采集空间场景图像,并在显示装置上显示采集的空间场景图像的显示范围即为显示装置的视域范围。
第二位置信息可包括目标声源10在第二坐标系中的坐标信息,显示装置的视域范围具有在第二坐标系中的坐标范围,基于第二位置信息可以确定目标声源10是否在显示装置的视域范围内。当目标声源10位于显示装置的视域范围内时,则透过显示装置能看到目标声源10,或者显示装置上能够显示出包括该目标声源10的虚拟空间场景图像或实时采集的空间场景图像,这时,可在显示装置上目标声源10所处位置处,或者目标声源10的上方,亦或者目标声源10的主要发生部位处显示第一虚拟图像30,以标识目标声源10在空间场景中所处的位置。该第一虚拟图像30可为例如扬声器图像、波形图像或闪烁的图像等。在显示第一虚拟图像30的同时也可显示目标声源10的声音响度信息,或其他声音属性信息。
在一些实施例中,所述基于所述第二位置信息在所述显示装置上显示与所述目标声源10相关的标识信息20,还包括:
基于所述环境声音数据确定所述目标声源10的身份信息;
基于所述目标声源10的身份信息、所述第二位置信息和采集的空间场景图像数据,确定所述目标声源10是否被遮挡;
如果是,基于所述目标声源10的身份信息和所述第二位置信息,在所述显示装置上与所述目标声源10相对应的位置显示所述目标声源10的第二虚拟图像40,以标注所述目标声源10。
其中,所述目标声源10的身份信息用于表征目标声源10的身份类型,如人、狗、猫、鸟、风扇或其他机器等。在采集到环境声音数据后,可通过例如语音识别基于环境声音数据确定至少一个目标声源10的身份信息。
通过图像采集装置可采集显示装置的视域范围内空间场景图像数据,基于目标声源10的第二位置信息和身份信息,可通过例如图像识别,确定空间场景图像数据上第二位置信息所指示的位置处,是否具有包括所述身份信息的目标声源10的图像,如果识别到了包含所述身份信息的目标声源10的图像则确定目标声源10未被遮挡,如果未识别到包含所述身份信息的目标声源10的图像,则确定目标声源10被遮挡。在目标声源10被遮挡时,可基于目标声源10的身份信息和第二位置信息,在显示装置上与目标声源10相对应的虚拟位置处显示第二虚拟图像40,以标注目标声源10的位置和身份。
例如,当基于环境声音数据确定目标声源10的身份信息为老鼠,基于第二位置信息确定老鼠位于图中方桌处,基于第二位置信息在空间场景图像数据中方桌处未识别到老鼠的图像,如图2所示,继而确定老鼠这个目标声源10被遮挡。这时,可基于目标声源10的身份信息和第二位置信息,在方桌处标识一虚拟的老鼠图像作为第二虚拟图像40,以标识目标声源10为老鼠且位于方桌下,如图4所示。
当目标声源10的身份信息为人、狗、猫、鸟或风扇等时,该第二虚拟图像40也可为虚拟的人形图像、狗的图像、猫的图像、鸟的图像或扇叶图像等。当然,也可在第二位置信息所指示的位置处标识一标识信息20以指示目标声源10的身份和位置。当目标声源10未被遮挡时,也可在显示装置上显示目标声源10的身份信息,以辅助失聪用户准确识别目标声源10。
配合图5所示,在一些实施例中,所述基于所述第二位置信息在所述显示装置上显示与所述目标声源10相关的标识信息20,包括:
S321,基于所述第二位置信息确定所述目标声源10是否位于所述显示装置的视域范围内;
S322,当所述目标声源10位于所述显示装置的视域范围外时,在所述显示装置上显示提示信息。
以该电子设备为AR眼镜为例,当基于第二位置信息确定目标声源10位于显示装置的视域范围之外时,如基于第二位置信息和目标声源10的身份信息确定用户的正后方有人在说话,此时,可在AR眼镜上显示“正后方有人说话”,以提示用户正后方有人说话。还例如,当用户行走在街道上时,正后方有汽车开来并鸣笛示意用户避让,此时,可在AR眼镜上显示“正后方有车辆鸣笛”,以提示后方有车辆鸣笛,请用户避让。
在一些实施例中,所述基于所述第二位置信息在所述显示装置上显示与所述目标声源10相关的标识信息20,还包括:
当所述目标声源10位于所述显示装置的视域范围外时,采集特定范围内包含所述目标声源10的空间场景图像数据;
在所述显示装置上显示所述空间场景图像数据,并生成所述目标声源10的第三虚拟图像,以标识所述目标声源10。
当基于目标声源10的第二位置信息,确定目标声源10位于显示装置的视域范围外时,可通过图像采集装置采集包含目标声源10的空间场景图像数据。进而在显示装置上显示包含目标声源10的空间场景图像数据,并通过第三虚拟图像对目标声源10进行标识,以便于失聪用户可通过显示装置预览位于视域范围外的目标声源10的基本情况,基于做出有效反应。
继续以AR眼镜为例,可以在AR眼镜上设置多个图像采集装置,如可在镜框及两个镜腿上设置多个用于采集不同角度空间场景图像数据的摄像头,通过这些摄像头不仅可以采集正前方的特定视场范围内的空间场景图像,还可采集例如侧方的空间场景图像,或者后方的空间场景图像。当基于目标声源10的第二位置信息和身份信息确定用户正后方有车辆鸣笛时,可通过例如镜腿上的摄像头采集正后方包含鸣笛车辆的空间场景图像数据,继而在显示装置上以例如小窗口的形式显示该空间场景图像数据,并生成用于标识该鸣笛车辆的第三虚拟图像,如红色的扬声器图像或红色闪烁图像等。这样,失聪用户可通过小窗口预览到包含鸣笛车辆的后方的空间场景图像数据,进而可在不转身的情况下做出有效避让。
在一些实施例中,所述方法还包括:
基于所述环境声音数据获取与所述目标声源10所发声音相对应的文本信息;
在所述显示装置上显示所述文本信息,以标识所述目标声源10的声音内容。
通过对环境声音数据进行语音识别,可以获取目标声源10所发声音相对应的文本信息,在显示装置上显示这些文本信息,可以方便失聪用户了解目标声源10的声音内容。如可通过语音识别获取前方人员的讲话内容的文本信息,在AR眼镜的显示装置上与该人员相对应的位置处显示该文本信息,标识该人员正在讲话,以及具体的讲话内容。
在一个优选实施例中,可基于采集的显示装置的视域范围内的空间场景图像数据、目标声源10的第二位置信息以及目标声源10的身份信息,确定是否具有目标人员,该目标人员为对用户讲话的人员,如果存在目标人员,可在显示装置上目标人员处显示标识信息20和文本信息。进一步的,为避免其他目标声源10的标识信息20影响失聪用户查看该目标人员的讲话内容,还可禁止在显示装置上显示除目标人员外的其他目标声源10的标识信息20。
图6为本申请实施例的信息处理系统的结构框图,参见图6所示,本申请实施例的信息处理系统,包括:
第一获取模块81,用于基于采集的环境声音数据,获取至少一个目标声源在第一坐标系中的第一位置信息,其中,所述第一坐标系为基于多个音频采集单元构建的用于指示声源位置的坐标系;
转化模块82,用于基于所述第一坐标系和第二坐标系之间的预设转化关系,将所述第一位置信息转化成与所述第二坐标系对应的第二位置信息;其中,所述第二坐标系为电子设备的显示装置构建的用于指示空间场景的坐标系;
第一标识模块83,用于基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,以标识所述目标声源的位置。
在一些实施例中,所述系统还包括:
第二获取模块,用于基于采集的环境声音数据,获取至少一个目标声源的声音强度信息;
第一确定模块,用于在所述声音强度信息大于第一阈值时,确定所述目标声源为有效目标声源。
在一些实施例中,所述系统还包括:
第二确定模块,用于基于采集的空间场景图像数据确定所述空间场景的类型信息;
第三确定模块,用于基于所述空间场景的类型信息确定所述第一阈值。
在一些实施例中,所述第一标识模块83具体用于:
基于所述第二位置信息确定所述目标声源是否位于所述显示装置的视域范围内;
当所述目标声源位于所述显示装置的视域范围内时,在所述显示装置上与所述目标声源相对应的位置显示所述目标声源的第一虚拟图像,以在所述空间场景中标识所述目标声源的位置。
在一些实施例中,所述第一标识模块83还用于:
基于所述环境声音数据确定所述目标声源的身份信息;
基于所述目标声源的身份信息、所述第二位置信息和采集的空间场景图像数据,确定所述目标声源是否被遮挡;
如果是,基于所述目标声源的身份信息和所述第二位置信息,在所述显示装置上与所述目标声源相对应的位置显示所述目标声源的第二虚拟图像,以标注所述目标声源。
在一些实施例中,所述第一标识模块83具体用于:
基于所述第二位置信息确定所述目标声源是否位于所述显示装置的视域范围内;
当所述目标声源位于所述显示装置的视域范围外时,在所述显示装置上显示提示信息。
在一些实施例中,所述第一标识模块83还用于:
当所述目标声源位于所述显示装置的视域范围外时,采集特定范围内包含所述目标声源的空间场景图像数据;
在所述显示装置上显示所述空间场景图像数据,并生成所述目标声源的第三虚拟图像,以标识所述目标声源。
在一些实施例中,所述系统还包括:
第三获取模块,用于基于所述环境声音数据获取与所述目标声源所发声音相对应的文本信息;
第二标识模块,用于在所述显示装置上显示所述文本信息,以标识所述目标声源的声音内容。
参见图7所示,本申请实施例的电子设备包括麦克风阵列50、显示装置60及分别与所述麦克风阵列50和所述显示装置60连接的处理器(图中未示出)。虽然图7中示出的电子设备为AR眼镜,但该电子设备不仅限于AR眼镜,也可为其他的可穿戴式电子设备、平板电脑、智能手机等。
所述麦克风阵列50用于采集的环境声音数据,基于所述环境声音数据获取至少一个目标声源10在第一坐标系中的第一位置信息,将所述第一位置信息发送至所述处理器,其中,所述第一坐标系为基于多个音频采集单元构建的用于指示声源位置的坐标系。
所述麦克风阵列50可包括多个以阵列形式排列的麦克风,每个麦克风作为一个音频采集单元。在具体实施过程中,可将麦克风阵列50中的一个麦克风作为坐标原点(0,0,0)构建第一坐标系,以通过该第一坐标系指示声源位置。
该目标声源10为所处环境的发声物,如人、动物、电子设备、电器设备或其他能够发生的物体。利用该麦克风阵列50能够采集到用户所处环境中的环境声音数据,如人的说话声、动物的叫声、电子设备的扬声器声音以及电器设备所产生的振动声音等。由于麦克风阵列50包括多个呈阵列布置的麦克风,每个麦克风均能够单独采集到音频数据,所以环境声音数据可包括多个音频数据,各个麦克风采集的音频数据具有时间差。进而基于该环境声音数据可计算获得一个或多个目标声源10的第一位置信息,该第一位置信息可包括目标声源10在第一坐标系中的坐标信息。
所述处理器用于基于所述第一坐标系和第二坐标系之间的预设转化关系,将所述第一位置信息转化成与所述第二坐标系对应的第二位置信息,将所述第二位置信息发送至所述显示装置60。
其中,第二坐标系为电子设备的显示装置60构建的用于指示空间场景的坐标系。例如,以该电子设备为AR眼镜为例,该第二坐标系可为AR眼镜的同步定位与建图(SLAM)系统所构建的用于指示所处环境的空间场景的坐标系。还例如,以该电子设备为智能手机为例,该第二坐标系可为智能手机的一个或多个摄像头所构建的用于指示所处环境的空间场景的世界坐标系。
第二位置信息可包括目标声源10在第二坐标系中的坐标信息。在实际应用过程中,当电子设备的音频采集装置和图像采集装置的在电子设备上的位置固定后,二者在空间上即形成了特定的位置关系,由二者构建的第一坐标系和第二坐标系就形成了预设转化关系。在获取到第一位置信息后,可基于该预设转化关系将第一位置信息转换成第二位置信息。如,可基于第一坐标系和第二坐标系之间的例如旋转向量(R)和平移向量(T)等参数,将目标声源10在第一坐标系中的坐标信息转换成第二坐标系中的坐标信息。
所述显示装置60用于基于所述第二位置信息显示与所述目标声源10相关的标识信息20,以标识所述目标声源10的位置。该标识信息20可以有多种形式,例如,该标识信息20可以为图像,或者也可为文字等。以该电子设备为AR眼镜为例,当用户所处室内环境有声源时,可在AR眼镜上第二位置信息所指示的位置处显示一波形图,该波形图能够叠加在目标声源10的在空间场景中的位置处,以标识目标声源10的位置,如图2所示。
以电子设备为VR眼镜为例,可基于该第二位置信息,在VR眼镜显示的虚拟空间场景中与目标声源10相对应的位置处标识一扬声器图像,标识目标声源10的位置。
亦或是,以该电子设备为智能手机为例,可利用手机上的摄像头实时采集所处环境的空间场景图像数据,并通过麦克风阵列50实时采集环境声音数据,在获取到第二位置信息后,可基于第二位置信息在智能手机的显示屏上与目标声源10的显示图像相对应的位置处标识“声源”二字。
本申请实施例的电子设备,利用麦克风阵列50代替失聪用户的双耳来捕捉环境声音数据,处理器可基于环境声音数据能够确定目标声源10的位置,基于第一坐标系和第二坐标系的预设转化关系,可以将目标声源10在第一坐标系中的第一位置信息转换成第二坐标系中的第二位置信息,显示装置60能够基于该第二位置信息显示标识信息20,以标识目标声源10的位置,失聪用户通过观察显示装置60上的标识信息20,可以确定所处环境中的目标声源10的位置,有助于提高失聪用户的生活品质。
在一些实施例中,所述处理器还用于:基于采集的环境声音数据,获取至少一个目标声源10的声音强度信息;在所述声音强度信息大于第一阈值时,确定所述目标声源10为有效目标声源10。
在日常生活中,所处环境通常具有较多的声源,如当所处环境为家庭或办公室时,空调、冰箱、洗衣机运转,人员沟通交流,孩童嬉戏打闹,动物活动等均为产生声音;当所处环境为室外或商场时,声源的种类更加复杂,而且数量更多。但并非全部声源均能够引起人类的注意,通常只有声音强度较高的一个或多个目标声源10才能够吸引人类的注意力,其他声音通常作为背景噪声不会引起人类的注意。因此,可模拟正常人对声音感知的情况,处理器在基于环境声音数据获取目标声源10的第一位置信息的同时,还可基于环境声音数据获取至少一个目标声源10的声音强度信息,如获取目标声源10的分贝值。设置第一阈值,当目标声源10的声音强度信息大于第一阈值时,处理器确定目标声源10为有效目标声源10,基于有效目标声源10的第二位置信息,在显示装置60上显示与有效目标声源10相关的标识信息20,以标识有效目标声源10的位置。这样,可以避免因标识信息20过于繁杂而导致失聪用户无法确定所处环境主要声源的问题。在实际应用过程中,也可将该声音强度信息作为标识信息20在显示装置60上予以显示,以在标识目标声源10的位置的同时,还起到标识目标声源10的声音强度的作用。
需要说明的是,处理器不仅限于基于声音强度信息确定目标声源10是否为有效目标声源10,还可基于采集的环境声音数据,获取至少一个目标声源10的声音属性信息,如音调、响度、音色及音长等,在声音属性信息符合第一预设条件时,确定目标声源10为有效目标声源10。例如,可基于例如语音识别获取特定用户讲话声音的专有声音属性信息,如失聪人士的监护人、被监护人或朋友等,并将该专有声音属性作为第一预设条件,当该特定用户讲话时,就能够通过标识信息20标识该特定用户的位置,这样,使失聪用户能够像普通人一样通过声音寻找特定用户的位置。当然,该第一预设条件不仅限于特定用户讲话声音的专有声音属性信息,也可为其他的易于引起人类注意的专有声音属性信息,如具有特定音色、音调或音长的声源。
在一些实施例中,所述电子设备还包括与所述处理器连接的图像采集装置70,所述图像采集装置70用于采集空间场景图像数据;所述处理器还用于:基于采集的空间场景图像数据确定所述空间场景的类型信息;基于所述空间场景的类型信息确定所述第一阈值。
当用户处于不同的空间场景时,背景噪声的强度不同,如,当用户处于办公室或者家中时,背景噪声的强度通常较低,但当用户处于商场、车站或者人员众多的广场时,背景噪声的强度则通常较高。在不同背景噪声强度下,正常人对声音识别的敏感程度不同,能够引起正常人注意的声音强度也是不同的。
为使该第一阈值能够与空间场景相适配,进而使该信息处理方法能够广泛的适用于各种空间场景。可通过例如图像采集装置70采集空间场景图像数据,处理器通过对空间场景图像数据进行图像识别,可以确定空间场景的类型信息,如用户所处空间场景是家庭、办公室、商场、车站或广场等。针对不同的空间场景的类型信息可设置不同的第一阈值,也即设置不同的背景噪声强度。在具体实施过程中,可预置空间场景的类型信息和第一阈值的对应关系表,在确定空间场景的类型信息后,通过查找该对应关系表以确定第一阈值。这样,在背景噪声强度较低的环境,如家庭或办公室,可自动将第一阈值调整的较低,以便于能够捕捉到有效目标声源10;在背景噪声强度较高的环境,如商场、车站等,可自动将第一阈值调整的较高,以避免显示装置60上显示的标识信息20过多而导致失聪用户无法确定所处环境主要声源。
还需说明的是,在实际应用时,处理器也可基于采集的环境声音数据确定背景噪声强度,基于背景噪声强度确定第一阈值,或基于背景噪声强度和空间场景的类型信息确定第一阈值。如,第一阈值的对应关系表中可同时设置背景噪声强度和空间场景的类型信息两个参比数值。
在一些实施例中,所述处理器具体用于:基于所述第二位置信息确定所述目标声源10是否位于所述显示装置60的视域范围内;
所述显示装置60具体用于:在所述目标声源10位于所述显示装置60的视域范围内时,在与所述目标声源10相对应的位置显示所述目标声源10的第一虚拟图像30,以在所述空间场景中标识所述目标声源10的位置。
其中,显示装置60可为可透视的显示装置60,这时,显示装置60的视域范围即为用户透过该显示装置60可视的范围。如当电子设备为AR眼镜时,AR眼镜的镜片即为显示装置60,用户透过AR眼镜的镜片的可视范围即为显示装置60的视域范围。该显示装置60也可为用于显示虚拟空间场景图像的显示装置60,这时,显示装置60的视域范围即为虚拟空间场景图像的显示范围。如,当电子设备为VR眼镜时,VR眼镜上显示的虚拟空间场景图像的显示范围即为显示装置60的视域范围。该显示装置60还可为用于显示实时采集的空间场景图像的显示装置60,这时,显示装置60的视域范围即为显示的实时采集的空间场景图像的显示范围。如,该电子设备可为VR眼镜或智能手机等,通过例如摄像头等图像采集装置70实时采集空间场景图像,并在显示装置60上显示采集的空间场景图像的显示范围即为显示装置60的视域范围。
第二位置信息可包括目标声源10在第二坐标系中的坐标信息,显示装置60的视域范围具有在第二坐标系中的坐标范围,基于第二位置信息可以确定目标声源10是否在显示装置60的视域范围内。当目标声源10位于显示装置60的视域范围内时,则透过显示装置60能看到目标声源10,或者显示装置60上能够显示出包括该目标声源10的虚拟空间场景图像或实时采集的空间场景图像,这时,可在显示装置60上目标声源10所处位置处,或者目标声源10的上方,亦或者目标声源10的主要发生部位处显示第一虚拟图像30,以标识目标声源10在空间场景中所处的位置。该第一虚拟图像30可为例如扬声器图像、波形图像或闪烁的图像等。在显示第一虚拟图像30的同时也可显示目标声源10的声音响度信息,或其他声音属性信息。
在一些实施例中,所述处理器还用于:基于所述环境声音数据确定所述目标声源10的身份信息;基于所述目标声源10的身份信息、所述第二位置信息和采集的空间场景图像数据,确定所述目标声源10是否被遮挡;
所述显示装置60还用于:在确定所述目标声源10被遮挡时,基于所述目标声源10的身份信息和所述第二位置信息,在与所述目标声源10相对应的位置显示所述目标声源10的第二虚拟图像40,以标注所述目标声源10。
其中,所述目标声源10的身份信息用于表征目标声源10的身份类型,如人、狗、猫、鸟、风扇或其他机器等。在采集到环境声音数据后,可通过例如语音识别基于环境声音数据确定至少一个目标声源10的身份信息。
通过图像采集装置70可采集显示装置60的视域范围内空间场景图像数据,基于目标声源10的第二位置信息和身份信息,可通过例如图像识别,确定空间场景图像数据上第二位置信息所指示的位置处,是否具有包括所述身份信息的目标声源10的图像,如果识别到了包含所述身份信息的目标声源10的图像则确定目标声源10未被遮挡,如果未识别到包含所述身份信息的目标声源10的图像,则确定目标声源10被遮挡。在目标声源10被遮挡时,可基于目标声源10的身份信息和第二位置信息,在显示装置60上与目标声源10相对应的虚拟位置处显示第二虚拟图像40,以标注目标声源10的位置和身份。
例如,当基于环境声音数据确定目标声源10的身份信息为老鼠,基于第二位置信息确定老鼠位于图中方桌处,基于第二位置信息在空间场景图像数据中方桌处未识别到老鼠的图像,如图2所示,继而确定老鼠这个目标声源10被遮挡。这时,可基于目标声源10的身份信息和第二位置信息,在方桌处标识一虚拟的老鼠图像作为第二虚拟图像40,以标识目标声源10为老鼠且位于方桌下,如图4所示。
当目标声源10的身份信息为人、狗、猫、鸟或风扇等时,该第二虚拟图像40也可为虚拟的人形图像、狗的图像、猫的图像、鸟的图像或扇叶图像等。当然,也可在第二位置信息所指示的位置处标识一标识信息20以指示目标声源10的身份和位置。当目标声源10未被遮挡时,也可在显示装置60上显示目标声源10的身份信息,以辅助失聪用户准确识别目标声源10。
在一些实施例中,所述处理器具体用于:基于所述第二位置信息确定所述目标声源10是否位于所述显示装置60的视域范围内;
所述显示装置60具体用于:在所述目标声源10位于所述显示装置60的视域范围外时显示提示信息。
以该电子设备为AR眼镜为例,当基于第二位置信息确定目标声源10位于显示装置60的视域范围之外时,如基于第二位置信息和目标声源10的身份信息确定用户的正后方有人在说话,此时,可在AR眼镜上显示“正后方有人说话”,以提示用户正后方有人说话。还例如,当用户行走在街道上时,正后方有汽车开来并鸣笛示意用户避让,此时,可在AR眼镜上显示“正后方有车辆鸣笛”,以提示后方有车辆鸣笛,请用户避让。
在一些实施例中,所述电子设备还包括与所述处理器连接的图像采集装置70,所述图像采集装置70用于在所述目标声源10位于所述显示装置60的视域范围外时,采集特定范围内包含所述目标声源10的空间场景图像数据;
所述显示装置60还用于:显示所述空间场景图像数据,并生成所述目标声源10的第三虚拟图像,以标识所述目标声源10。
当基于目标声源10的第二位置信息,确定目标声源10位于显示装置60的视域范围外时,可通过图像采集装置70采集包含目标声源10的空间场景图像数据。进而在显示装置60上显示包含目标声源10的空间场景图像数据,并通过第三虚拟图像对目标声源10进行标识,以便于失聪用户可通过显示装置60预览位于视域范围外的目标声源10的基本情况,基于做出有效反应。
继续以AR眼镜为例,可以在AR眼镜上设置多个图像采集装置70,如图6所示,可在镜框及两个镜腿上设置多个用于采集不同角度空间场景图像数据的摄像头,通过这些摄像头不仅可以采集正前方的特定视场范围内的空间场景图像,还可采集例如侧方的空间场景图像,或者后方的空间场景图像。当基于目标声源10的第二位置信息和身份信息确定用户正后方有车辆鸣笛时,可通过例如镜腿上的摄像头采集正后方包含鸣笛车辆的空间场景图像数据,继而在显示装置60上以例如小窗口的形式显示该空间场景图像数据,并生成用于标识该鸣笛车辆的第三虚拟图像,如红色的扬声器图像或红色闪烁图像等。这样,失聪用户可通过小窗口预览到包含鸣笛车辆的后方的空间场景图像数据,进而可在不转身的情况下做出有效避让。
在一些实施例中,所述处理器还用于:基于所述环境声音数据获取与所述目标声源10所发声音相对应的文本信息;
所述显示装置60还用于:显示所述文本信息,以标识所述目标声源10的声音内容。
通过对环境声音数据进行语音识别,可以获取目标声源10所发声音相对应的文本信息,在显示装置60上显示这些文本信息,可以方便失聪用户了解目标声源10的声音内容。如可通过语音识别获取前方人员的讲话内容的文本信息,在AR眼镜的显示装置60上与该人员相对应的位置处显示该文本信息,标识该人员正在讲话,以及具体的讲话内容。
在一个优选实施例中,可基于采集的显示装置60的视域范围内的空间场景图像数据、目标声源10的第二位置信息以及目标声源10的身份信息,确定是否具有目标人员,该目标人员为对用户讲话的人员,如果存在目标人员,可在显示装置60上目标人员处显示标识信息20和文本信息。进一步的,为避免其他目标声源10的标识信息20影响失聪用户查看该目标人员的讲话内容,还可禁止在显示装置60上显示除目标人员外的其他目标声源10的标识信息20。
图8为本申请实施例的电子设备的结构框图,参见图8所示,本申请实施例的电子设备至少包括存储器和处理器,所述存储器上存储有可执行程序,所述处理器在执行所述存储器上的可执行程序时实现如下步骤:
S100,基于采集的环境声音数据,获取至少一个目标声源在第一坐标系中的第一位置信息,其中,所述第一坐标系为基于多个音频采集单元构建的用于指示声源位置的坐标系;
S200,基于所述第一坐标系和第二坐标系之间的预设转化关系,将所述第一位置信息转化成与所述第二坐标系对应的第二位置信息;其中,所述第二坐标系为电子设备的显示装置构建的用于指示空间场景的坐标系;
S300,基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,以标识所述目标声源的位置。
处理器902在执行存储器901上存储的可执行程序时还用于实现如下步骤:基于采集的环境声音数据,获取至少一个目标声源的声音强度信息;在所述声音强度信息大于第一阈值时,确定所述目标声源为有效目标声源。
处理器902在执行存储器901上存储的可执行程序时还用于实现如下步骤:基于采集的空间场景图像数据确定所述空间场景的类型信息;基于所述空间场景的类型信息确定所述第一阈值。
处理器902在执行存储器901上存储的基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息的可执行程序时,具体实现如下步骤:基于所述第二位置信息确定所述目标声源是否位于所述显示装置的视域范围内;当所述目标声源位于所述显示装置的视域范围内时,在所述显示装置上与所述目标声源相对应的位置显示所述目标声源的第一虚拟图像,以在所述空间场景中标识所述目标声源的位置。
处理器902在执行存储器901上存储的基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息的可执行程序时,具体实现如下步骤:基于所述环境声音数据确定所述目标声源的身份信息;基于所述目标声源的身份信息、所述第二位置信息和采集的空间场景图像数据,确定所述目标声源是否被遮挡;如果是,基于所述目标声源的身份信息和所述第二位置信息,在所述显示装置上与所述目标声源相对应的位置显示所述目标声源的第二虚拟图像,以标注所述目标声源。
处理器902在执行存储器901上存储的基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息的可执行程序时,具体实现如下步骤:基于所述第二位置信息确定所述目标声源是否位于所述显示装置的视域范围内;当所述目标声源位于所述显示装置的视域范围外时,在所述显示装置上显示提示信息。
处理器902在执行存储器901上存储的基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息的可执行程序时,具体实现如下步骤:当所述目标声源位于所述显示装置的视域范围外时,采集特定范围内包含所述目标声源的空间场景图像数据;在所述显示装置上显示所述空间场景图像数据,并生成所述目标声源的第三虚拟图像,以标识所述目标声源。
处理器902在执行存储器901上存储的可执行程序时还用于实现如下步骤:基于所述环境声音数据获取与所述目标声源所发声音相对应的文本信息;在所述显示装置上显示所述文本信息,以标识所述目标声源的声音内容。
以上实施例仅为本申请的示例性实施例,不用于限制本申请,本申请的保护范围由权利要求书限定。本领域技术人员可以在本申请的实质和保护范围内,对本申请做出各种修改或等同替换,这种修改或等同替换也应视为落在本申请的保护范围内。
Claims (10)
1.一种信息处理方法,包括:
基于采集的环境声音数据,获取至少一个目标声源在第一坐标系中的第一位置信息,其中,所述第一坐标系为基于多个音频采集单元构建的用于指示声源位置的坐标系;
基于所述第一坐标系和第二坐标系之间的预设转化关系,将所述第一位置信息转化成与所述第二坐标系对应的第二位置信息;其中,所述第二坐标系为电子设备的显示装置构建的用于指示空间场景的坐标系;
基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,以标识所述目标声源的位置。
2.根据权利要求1所述的信息处理方法,其中,所述方法还包括:
基于采集的环境声音数据,获取至少一个目标声源的声音强度信息;
在所述声音强度信息大于第一阈值时,确定所述目标声源为有效目标声源。
3.根据权利要求2所述的信息处理方法,其中,所述方法还包括:
基于采集的空间场景图像数据确定所述空间场景的类型信息;
基于所述空间场景的类型信息确定所述第一阈值。
4.根据权利要求1所述的信息处理方法,其中,所述基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,包括:
基于所述第二位置信息确定所述目标声源是否位于所述显示装置的视域范围内;
当所述目标声源位于所述显示装置的视域范围内时,在所述显示装置上与所述目标声源相对应的位置显示所述目标声源的第一虚拟图像,以在所述空间场景中标识所述目标声源的位置。
5.根据权利要求4所述的信息处理方法,其中,所述基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,还包括:
基于所述环境声音数据确定所述目标声源的身份信息;
基于所述目标声源的身份信息、所述第二位置信息和采集的空间场景图像数据,确定所述目标声源是否被遮挡;
如果是,基于所述目标声源的身份信息和所述第二位置信息,在所述显示装置上与所述目标声源相对应的位置显示所述目标声源的第二虚拟图像,以标注所述目标声源。
6.根据权利要求1所述的信息处理方法,其中,所述基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,包括:
基于所述第二位置信息确定所述目标声源是否位于所述显示装置的视域范围内;
当所述目标声源位于所述显示装置的视域范围外时,在所述显示装置上显示提示信息。
7.根据权利要求6所述的信息处理方法,其中,所述基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,还包括:
当所述目标声源位于所述显示装置的视域范围外时,采集特定范围内包含所述目标声源的空间场景图像数据;
在所述显示装置上显示所述空间场景图像数据,并生成所述目标声源的第三虚拟图像,以标识所述目标声源。
8.根据权利要求1所述的信息处理方法,其中,所述方法还包括:
基于所述环境声音数据获取与所述目标声源所发声音相对应的文本信息;
在所述显示装置上显示所述文本信息,以标识所述目标声源的声音内容。
9.一种电子设备,包括麦克风阵列、显示装置及分别与所述麦克风阵列和所述显示装置连接的处理器,其中:
所述麦克风阵列用于采集的环境声音数据,基于所述环境声音数据获取至少一个目标声源在第一坐标系中的第一位置信息,将所述第一位置信息发送至所述处理器,其中,所述第一坐标系为基于多个音频采集单元构建的用于指示声源位置的坐标系;
所述处理器用于基于所述第一坐标系和第二坐标系之间的预设转化关系,将所述第一位置信息转化成与所述第二坐标系对应的第二位置信息,将所述第二位置信息发送至所述显示装置;其中,所述第二坐标系为电子设备的显示装置构建的用于指示空间场景的坐标系;
所述显示装置用于基于所述第二位置信息显示与所述目标声源相关的标识信息,以标识所述目标声源的位置。
10.一种电子设备,至少包括存储器和处理器,所述存储器上存储有可执行程序,所述处理器在执行所述存储器上的可执行程序时实现如下步骤:
基于采集的环境声音数据,获取至少一个目标声源在第一坐标系中的第一位置信息,其中,所述第一坐标系为基于多个音频采集单元构建的用于指示声源位置的坐标系;
基于所述第一坐标系和第二坐标系之间的预设转化关系,将所述第一位置信息转化成与所述第二坐标系对应的第二位置信息;其中,所述第二坐标系为电子设备的显示装置构建的用于指示空间场景的坐标系;
基于所述第二位置信息在所述显示装置上显示与所述目标声源相关的标识信息,以标识所述目标声源的位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910882422.9A CN110673819A (zh) | 2019-09-18 | 2019-09-18 | 信息处理方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910882422.9A CN110673819A (zh) | 2019-09-18 | 2019-09-18 | 信息处理方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110673819A true CN110673819A (zh) | 2020-01-10 |
Family
ID=69078158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910882422.9A Pending CN110673819A (zh) | 2019-09-18 | 2019-09-18 | 信息处理方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110673819A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111060872A (zh) * | 2020-03-17 | 2020-04-24 | 深圳市友杰智新科技有限公司 | 基于麦克风阵列的声源定位方法、装置和计算机设备 |
CN112185354A (zh) * | 2020-09-17 | 2021-01-05 | 浙江同花顺智能科技有限公司 | 一种语音文本的显示方法、装置、设备及存储介质 |
CN112485760A (zh) * | 2020-10-27 | 2021-03-12 | 上海影创信息科技有限公司 | 基于空间音效的定位系统、方法及介质 |
CN112925235A (zh) * | 2021-01-21 | 2021-06-08 | 深圳市普渡科技有限公司 | 交互时的声源定位方法、设备和计算机可读存储介质 |
WO2021236274A1 (en) * | 2020-05-20 | 2021-11-25 | Microsoft Technology Licensing, Llc | Localization and visualization of sound |
CN115103292A (zh) * | 2022-05-18 | 2022-09-23 | 深圳市声扬科技有限公司 | 虚拟场景中的音频处理方法、装置、电子设备及存储介质 |
CN115988131A (zh) * | 2022-12-28 | 2023-04-18 | 维沃移动通信有限公司 | 提示方法、装置和电子设备 |
US12119004B2 (en) | 2020-09-17 | 2024-10-15 | Zhejiang Tonghuashun Intelligent Technology Co., Ltd. | Systems and methods for voice audio data processing |
CN115103292B (zh) * | 2022-05-18 | 2024-10-29 | 深圳市声扬科技有限公司 | 虚拟场景中的音频处理方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103049077A (zh) * | 2011-10-14 | 2013-04-17 | 鸿富锦精密工业(深圳)有限公司 | 声音反馈装置及其工作方法 |
WO2014087558A1 (en) * | 2012-12-07 | 2014-06-12 | Sony Corporation | Function control apparatus and program |
CN105812969A (zh) * | 2014-12-31 | 2016-07-27 | 展讯通信(上海)有限公司 | 一种拾取声音信号的方法、系统及装置 |
CN106653041A (zh) * | 2017-01-17 | 2017-05-10 | 北京地平线信息技术有限公司 | 音频信号处理设备、方法和电子设备 |
GB2558279A (en) * | 2016-12-23 | 2018-07-11 | Sony Interactive Entertainment Inc | Head mountable display system |
CN108852620A (zh) * | 2018-01-19 | 2018-11-23 | 郭磊 | 智能颈戴设备及其控制方法 |
CN208861067U (zh) * | 2018-11-07 | 2019-05-14 | 北京悉见科技有限公司 | 一种用于将声音转换成图像的眼镜 |
CN109982038A (zh) * | 2019-03-15 | 2019-07-05 | 深圳市沃特沃德股份有限公司 | 显示声源位置的方法、装置及计算机设备 |
-
2019
- 2019-09-18 CN CN201910882422.9A patent/CN110673819A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103049077A (zh) * | 2011-10-14 | 2013-04-17 | 鸿富锦精密工业(深圳)有限公司 | 声音反馈装置及其工作方法 |
WO2014087558A1 (en) * | 2012-12-07 | 2014-06-12 | Sony Corporation | Function control apparatus and program |
CN105812969A (zh) * | 2014-12-31 | 2016-07-27 | 展讯通信(上海)有限公司 | 一种拾取声音信号的方法、系统及装置 |
GB2558279A (en) * | 2016-12-23 | 2018-07-11 | Sony Interactive Entertainment Inc | Head mountable display system |
CN106653041A (zh) * | 2017-01-17 | 2017-05-10 | 北京地平线信息技术有限公司 | 音频信号处理设备、方法和电子设备 |
CN108852620A (zh) * | 2018-01-19 | 2018-11-23 | 郭磊 | 智能颈戴设备及其控制方法 |
CN208861067U (zh) * | 2018-11-07 | 2019-05-14 | 北京悉见科技有限公司 | 一种用于将声音转换成图像的眼镜 |
CN109982038A (zh) * | 2019-03-15 | 2019-07-05 | 深圳市沃特沃德股份有限公司 | 显示声源位置的方法、装置及计算机设备 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111060872A (zh) * | 2020-03-17 | 2020-04-24 | 深圳市友杰智新科技有限公司 | 基于麦克风阵列的声源定位方法、装置和计算机设备 |
CN111060872B (zh) * | 2020-03-17 | 2020-06-23 | 深圳市友杰智新科技有限公司 | 基于麦克风阵列的声源定位方法、装置和计算机设备 |
WO2021236274A1 (en) * | 2020-05-20 | 2021-11-25 | Microsoft Technology Licensing, Llc | Localization and visualization of sound |
US11543242B2 (en) | 2020-05-20 | 2023-01-03 | Microsoft Technology Licensing, Llc | Localization and visualization of sound |
CN112185354A (zh) * | 2020-09-17 | 2021-01-05 | 浙江同花顺智能科技有限公司 | 一种语音文本的显示方法、装置、设备及存储介质 |
US12119004B2 (en) | 2020-09-17 | 2024-10-15 | Zhejiang Tonghuashun Intelligent Technology Co., Ltd. | Systems and methods for voice audio data processing |
CN112485760A (zh) * | 2020-10-27 | 2021-03-12 | 上海影创信息科技有限公司 | 基于空间音效的定位系统、方法及介质 |
CN112925235A (zh) * | 2021-01-21 | 2021-06-08 | 深圳市普渡科技有限公司 | 交互时的声源定位方法、设备和计算机可读存储介质 |
CN115103292A (zh) * | 2022-05-18 | 2022-09-23 | 深圳市声扬科技有限公司 | 虚拟场景中的音频处理方法、装置、电子设备及存储介质 |
CN115103292B (zh) * | 2022-05-18 | 2024-10-29 | 深圳市声扬科技有限公司 | 虚拟场景中的音频处理方法、装置、电子设备及存储介质 |
CN115988131A (zh) * | 2022-12-28 | 2023-04-18 | 维沃移动通信有限公司 | 提示方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110673819A (zh) | 信息处理方法及电子设备 | |
US11579837B2 (en) | Audio profile for personalized audio enhancement | |
US20160142830A1 (en) | Devices And Methods For The Visualization And Localization Of Sound | |
CN107888973B (zh) | 一种脑电控制的视频输入听觉显示导盲装置及方法 | |
TW201316328A (zh) | 聲音反饋裝置及其工作方法 | |
CN110544532A (zh) | 一种基于app的声源空间定位能力检测系统 | |
US20210081047A1 (en) | Head-Mounted Display With Haptic Output | |
US20220159401A1 (en) | Image-based soundfield rendering | |
CN110801229A (zh) | 视力保护监测方法、系统、设备及存储介质 | |
CN116134838A (zh) | 使用个性化声音简档的音频系统 | |
CN109257490A (zh) | 音频处理方法、装置、穿戴式设备及存储介质 | |
JP2014165706A (ja) | 信号処理装置および記憶媒体 | |
CN109061903A (zh) | 数据显示方法、装置、智能眼镜及存储介质 | |
JP2016194612A (ja) | 視覚認識支援装置および視覚認識支援プログラム | |
CN113812171A (zh) | 结合房间模式的局部效果的声学滤波器的确定 | |
CN111768787A (zh) | 一种多功能辅助视听的方法及系统 | |
EP3058926A1 (en) | Method of transforming visual data into acoustic signals and aid device for visually impaired or blind persons | |
US20190354175A1 (en) | Eye Enrollment For Head-Mounted Enclosure | |
WO2021230180A1 (ja) | 情報処理装置、ディスプレイデバイス、提示方法、及びプログラム | |
US20180167745A1 (en) | A head mounted audio acquisition module | |
CN111121749B (zh) | 一种基于神经网络的3d音效增强现实盲人导航系统的导航方法 | |
CN115731326A (zh) | 虚拟角色生成方法及装置、计算机可读介质和电子设备 | |
CN117153177A (zh) | Ar眼镜、拾音降噪方法、装置及可读存储介质 | |
WO2020026548A1 (ja) | 情報処理装置及び情報処理方法、並びに音響システム | |
JP2014027459A (ja) | 通信装置、通信方法及び通信プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Deng Jian Inventor after: Zhong Jiangwei Inventor after: Zou Chenggang Inventor before: Zou Chenggang Inventor before: Zhong Jiangwei Inventor before: Deng Jian |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200110 |