CN116320351A - 一种处理方法和电子设备 - Google Patents
一种处理方法和电子设备 Download PDFInfo
- Publication number
- CN116320351A CN116320351A CN202310341803.2A CN202310341803A CN116320351A CN 116320351 A CN116320351 A CN 116320351A CN 202310341803 A CN202310341803 A CN 202310341803A CN 116320351 A CN116320351 A CN 116320351A
- Authority
- CN
- China
- Prior art keywords
- information
- target object
- current position
- signal
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开一种处理方法和电子设备,该处理方法包括:获取待处理信号,待处理信号包括音频信号和视频信号;确定目标对象相对于电子设备的当前位置信息,目标对象能进行位置移动;根据确定出的当前位置信息,将音频信号处理并输出为匹配于目标对象的当前位置的声音信息,将视频信号处理并输出为匹配于目标对象的当前位置的3D显示信息。
Description
技术领域
本申请属于计算机技术领域,尤其涉及一种处理方法和电子设备。
背景技术
随着技术的变迁与改进,人们在使用电子设备时,对设备的使用体验要求越来越高,其中一个重要方向是对设备输出信息的体验要求,因此,如何改进设备功能以提升用户对设备输出信息的体验感,成为目前亟需解决的技术问题。
发明内容
为此,本申请公开如下技术方案:
一种处理方法,应用于电子设备,所述方法包括:
获取待处理信号,所述待处理信号包括音频信号和视频信号;
确定目标对象相对于所述电子设备的当前位置信息,所述目标对象能进行位置移动;
根据所述当前位置信息,将所述音频信号处理并输出为匹配于所述目标对象的当前位置的声音信息,将所述视频信号处理并输出为匹配于所述目标对象的当前位置的3D显示信息。
可选的,所述确定目标对象相对于所述电子设备的当前位置信息,包括:
确定所述目标对象当前相对于所述电子设备的距离信息和方向信息中的至少一种,得到所述当前位置信息。
可选的,所述根据所述当前位置信息,将所述音频信号处理并输出为匹配于所述目标对象的当前位置的声音信息,包括:
将所述音频信号与对应的载波进行耦合处理,得到耦合信号;
所述电子设备输出所得到的耦合信号;其中,所述耦合信号的参数包括耦合信号的强度和/或方向,根据所述距离信息控制所述耦合信号的强度;根据所述方向信息控制耦合信号的输出方向。
可选的,所述根据所述方向信息控制耦合信号的输出方向,包括:
在所述当前位置信息中的方向信息相比于所述目标对象的上一时刻位置信息中的方向信息发生变化情况下,将所述当前位置信息中的方向信息传输至音频输出装置的方向控制器,以由所述方向控制器根据得到的方向信息调整所述音频输出装置的角度。
可选的,所述电子设备包括3D转换组件,根据所述当前位置信息,将所述视频信号处理并输出为匹配于所述目标对象的当前位置的3D显示信息,包括:
根据所述距离信息控制电子设备中显示屏与所述3D转换组件之间的距离;和/或,根据所述方向信息控制所述3D转换组件的信息输出方向;
利用所述3D转换组件,将所述视频信号输出为匹配于所述目标对象的当前位置的裸眼3D显示信息。
可选的,所述显示屏包括发光光源;所述根据所述距离信息控制电子设备中显示屏与所述3D转换组件之间的距离,包括:
在所述当前位置信息中的距离信息相比于所述目标对象上一时刻位置信息中的距离信息发生变化情况下,调整所述发光光源与所述3D转换组件之间的距离。
可选的,所述3D转换组件包括由液晶透镜阵列构成的用于裸眼3D效果显示的光学膜;所述根据所述方向信息控制所述3D转换组件的信息输出方向,包括:
确定所述光学膜的区域中与所述方向信息匹配的目标子区域;
控制所述目标子区域对应的液晶透镜子阵列处于工作状态,非目标子区域对应的液晶透镜子阵列处于非工作状态;所述非目标子区域为所述光学膜的区域中所述目标子区域以外的区域。
可选的,在确定目标对象相对于所述电子设备的当前位置信息之前,还包括:
确定是否满足信息输出条件;所述信息输出条件包括:在所述电子设备对应的预设范围内检测到预设类型的目标对象,或,在所述预设范围内检测到预设类型的目标对象且所述目标对象拥有所述电子设备的设备权限;
若是,触发所述确定目标对象相对于所述电子设备的当前位置信息的步骤;
若否,结束对所述待处理信号的处理。
一种电子设备,包括:
处理器,用于确定目标对象相对于所述电子设备的当前位置信息,所述目标对象能进行位置移动;
输出处理装置,用于:
获取待处理信号,所述待处理信号包括音频信号和视频信号;
获取所述处理器输出的所述当前位置信息;
根据所述当前位置信息,将所述音频信号处理并输出为匹配于所述目标对象的当前位置的声音信息,将所述视频信号处理并输出为匹配于所述目标对象的当前位置的3D显示信息。
可选的,所述处理器在确定目标对象相对于所述电子设备的当前位置信息时,具体用于:
确定所述目标对象当前相对于所述电子设备的距离信息和方向信息中的至少一种,得到所述当前位置信息。
由以上方案可知,本申请公开一种处理方法和电子设备,该处理方法包括:获取待处理信号,待处理信号包括音频信号和视频信号;确定目标对象相对于电子设备的当前位置信息,目标对象能进行位置移动;根据确定出的当前位置信息,将音频信号处理并输出为匹配于目标对象的当前位置的声音信息,将视频信号处理并输出为匹配于目标对象的当前位置的3D显示信息。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其它的附图。
图1是本申请提供的处理方法的一种流程示意图;
图2(a)和图2(b)分别是本申请提供的对音频信号进行强度和输出方向控制的处理逻辑示例图;
图3(a)和图3(b)分别是本申请提供的对显示屏与3D转换组件之间的距离进行控制的示例图;
图4是本申请提供的确定光学膜中目标子区域的示例图;
图5(a)和图5(b)分别是本申请提供的根据目标对象相比于电子设备的位置信息对音视频信号进行输出控制的处理逻辑示例图;
图6是本申请提供的处理方法的另一种流程示意图;
图7是本申请提供的电子设备的组成结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
本申请公开一种处理方法和电子设备,用于从音视频信息的处理及输出方面进行设备功能改进以提升用户对设备输出信息的体验感。该处理方法可用于众多通用或专用的计算装置环境或配置下的电子设备,例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器装置等等。
参见图1,提供了本申请的处理方法的一种流程示意图,该处理方法至少包括:
步骤101、获取待处理信号,所述待处理信号包括音频信号和视频信号。
待处理信号,可以是但不限于在视频播放、视频通话等场景中进行音视频输出所需的音视频信号,其中包括音频信号和视频信号,也可以包括音频信号或视频信号。
本申请实施例中,待处理信号中的视频信号为2D(2Dimensions,二维)显示信号或3D(3Dimensions,三维)显示信号,不作限制。优选的,该视频信号为用于向用户呈现3D画面显示效果的3D显示信号。
步骤102、确定目标对象相对于电子设备的当前位置信息,目标对象能进行位置移动。
目标对象具备动态属性,能根据需求进行位置移动,具体可以是电子设备的操作者、使用者等用户。
目标对象相对于电子设备的当前位置信息,包括但不限于目标对象相对于电子设备的距离信息和/或方向信息。相应可确定目标对象当前相对于电子设备的距离信息和方向信息中的至少一种,将其作为这里的当前位置信息。
其中,可以但不限于采用TOF(Time of flight,飞行时间)摄像头,TOF激光传感器、RGB(Green-Red-Blue,红绿蓝)摄像头和/或IR(Infrared Radiation,红外线)摄像头等能用于位置检测的相关元件,采集电子设备(显示屏)前方预设范围内的对象信息,并通过对所采集的信息进行分析,确定电子设备前预设范围内是否存在目标对象(如是否存在设备用户),以及存在情况下,目标对象相对于电子设备的距离和/或方向等当前位置信息。上述各元件可以集成在电子设备内部,或作为电子设备外设进行使用,不作限制。
例如,采用上述的相应元件,对笔记本电脑前方预设范围内的对象进行信息采集得到对应的RGB图像、深度图像(距离影像)和/或红外图像,对这些图像进行分析,确定笔记本电脑的使用者相对于笔记本电脑的距离和/或方向等信息。
上述距离信息,可以但不限于表示为使用者等目标对象的预设部位与电子设备显示屏之间的距离,如使用者脸部与显示屏之间的距离;上述方向信息,可以但不限于采用使用者等目标对象的预设部位与电子设备显示屏之间的相对方位及与显示屏平面之间的夹角进行表征,例如,使用者脸部位于电子设备显示屏左前方30°位置,或者位于电子设备显示屏右前方60°位置等。
步骤103、根据所述当前位置信息,将音频信号处理并输出为匹配于目标对象的当前位置的声音信息,将视频信号处理并输出为匹配于目标对象的当前位置的3D显示信息。
本申请实施例以目标对象相对于电子设备的当前位置信息为依据,对待处理信号中的音频信号进行处理与输出,使得针对音频信号所输出的声音信息与目标对象的当前位置相匹配,达到向目标对象输出定位声波的效果,以使目标对象在电子设备前的不同位置均能听到清晰声音信息。
同时,本申请实施例以目标对象相对于电子设备的当前位置信息为依据,对待处理信号中的视频信号进行处理与输出,将视频信号处理并输出为3D显示信息,并使针对视频信号所输出的3D显示信息与目标对象的当前位置相匹配,以使目标对象在电子设备前的不同位置均能观看到清晰的3D显示画面。
若待处理信号为音频信号或视频信号,本申请依据当前位置信息,可以将音频信号处理并输出为匹配于目标对象的当前位置的声音信息,或者将视频信号处理并输出为匹配于目标对象的当前位置的3D显示信息。
可选的,所输出的3D显示信息为裸眼3D显示信息,以便于目标对象以裸眼状态进行3D画面效果观看。
综上所述,本申请实施例的处理方法,在获取包括音频信号和视频信号的待处理信号后,通过确定能进行位置移动的目标对象相对于电子设备的当前位置信息,并根据该当前位置信息,将音频信号处理与输出为匹配于目标对象当前位置的声音信息,将视频信号处理与输出为匹配于目标对象当前位置的3D显示信息,实现了从音视频输出方面向目标对象输出具有位置追踪效果的定位声波及3D显示信息,便于设备用户等目标对象在不同位置体验到清晰高质量的音视频信息,相应达到了通过设备功能改进来提升用户对设备输出信息体验感的技术效果。
在一可选实施例中,在将待处理信号中的音频信号处理并输出为匹配于目标对象当前位置的声音信息时,具体可将音频信号与对应的载波进行耦合处理,得到耦合信号,并在电子设备输出所得到的耦合信号。
其中,耦合信号的参数包括耦合信号的强度和/或方向,本申请实施例根据目标对象相对于电子设备的当前位置信息中的距离信息控制耦合信号的强度,和/或根据该当前位置信息中的方向信息控制耦合信号的输出方向,以此使得所输出的声音信息与目标对象的当前位置相匹配,从而达到向目标对象输出定位声波的效果。
在一实施方式中,具体可在将声音信号与对应的载波进行耦合处理,得到耦合信号之后,根据上述当前位置信息中的距离信息控制耦合信号的强度,和/或根据该当前位置信息中的方向信息控制音频输出装置的音频输出方向,在此基础上,利用音频输出装置输出完成强度/方向控制后的耦合信号对应的声波,该声波即为匹配于目标对象当前位置的声音信息,从效果方面来说,可作为与目标对象当前位置相匹配的定位声波。
实际应用本申请时,可以但不限于根据设定的间隔时长,周期性检测目标对象相对于电子设备的当前位置信息,并判定当前位置信息与上一时刻(上一周期所对应时刻)位置信息相比是否发生变化,在发生变化情况下,进行与所发生的变化相匹配的耦合信号参数调整,例如,在目标对象相对于电子设备的当前方向信息与上一时刻方向信息相比发生变化情况下,将当前方向信息传输至音频输出装置的方向控制器,以由方向控制器根据接收的方向信息调整音频输出装置的角度,以此来调整声音信息的输出方向。
在其它实施方式中,也可以在将声音信号与载波进行耦合以生成耦合信号的过程中,根据目标对象相对于电子设备的当前位置信息调整其强度等相关参数,例如,在目标对象相对于电子设备的距离变大时提升声音信号与载波的强度,反之降低强度,以使得生成的耦合信号与该当前位置信息相匹配,或至少一定程度上相匹配。
可选的,载波可以为超声波,音频输出装置可以为声波发生器,方向控制器可以为声波发生器的转向器,声波发生器和/或转向器具体可以集成在电子设备内部或作为电子设备外设进行使用,例如,将声波发生器集成在显示屏面板外框上。
以下提供一应用示例。
该示例中,针对待处理信号中的音频信号,参见图2(a),首先利用音频控制器DRC(Dynamic Range Control)调整音频信号的音量、饱和度、频率范围等参数,调整完成的信号输入至增益控制器EQ(Equalizer)进行信号增益值调整,之后将增益调整后的信号输入至调制器进行波形调整,以使声音信号的波形与超声波等载波的波形相适配,完成波形调整后进一步将调整后的声音信号输入到滤波器进行降噪滤波,在此基础上,将所得的音频信号输入至超声强度控制器,超声强度控制器用于输出超声波作为载波,并将获得的音频信号与载波进行耦合,同时,获得基于TOF/IR等摄像头确定出的目标对象相对于电子设备的距离信息,根据距离信息调整耦合信号的强度,其中,信号强度与距离正相关,距离越大,耦合信号的信号强度越大,并将最终所得的耦合信号经AMP(Amplifier)放大后利用声波发生器进行输出。
结合参见图2(b),该示例中,还为声波发生器设置有对应的转向器,在音频处理与输出过程中,将目标对象相对于电子设备的方向信息提供给转向器,转向器根据方向信息动态按需调整声波发生器的方向,通过对声波发生器进行方向调整,使声波发生器输出的声波方向与目标对象所在方向相匹配。
通过本实施例的处理,可使得在电子设备向其设备用户等目标对象输出音视频时,能够跟随目标对象的实时位置变化,匹配目标对象的位置信息向目标对象输出定位声波,便于目标对象在电子设备前的不同位置均能对所输出音频具有清晰高质体验。
在一可选实施例中,电子设备包括显示屏和3D转换组件,可选的,3D转换组件包括由液晶透镜阵列构成的用于裸眼3D效果显示的光学膜。
通过在电子设备显示屏的屏幕外侧增设该光学膜,实现对显示屏显示信号的裸眼3D显示效果,其中,在电子设备显示屏的屏幕外侧增设该光学膜,即相当于在显示屏的显示面板外侧增加了一层微透镜,微透镜对显示信号的折射会形成左右眼的视差,基于左右眼视差原理,达到裸眼3D观看效果。
在将待处理信号中的视频信号处理并输出为匹配于目标对象当前位置的3D显示信息时,具体可根据目标对象当前位置信息中的距离信息控制电子设备显示屏与3D转换组件之间的距离,和/或,根据目标对象当前位置信息中的方向信息控制3D转换组件的信息输出方向,之后利用3D转换组件,将视频信号输出为匹配于目标对象当前位置的裸眼3D显示信息。
进一步,待处理信号中的视频信号可以为3D显示信号或2D显示信号。
针对视频信号为3D显示信号的情况,具体可根据3D显示信号,生成用于裸眼3D显示的视差信息,该视差信息包括对应于用户左眼的左视差信息和对应于用户右眼的右视差信息。并对所得的左右视差信息进行交织处理,生成能够用于裸眼3D效果显示的交织信息。在此基础上,根据目标对象当前位置信息中的距离信息控制显示屏与3D转换组件之间的距离,和/或,根据目标对象当前位置信息中的方向信息控制3D转换组件的信息输出方向,并利用3D转换组件,将所生成的交织信息输出为匹配于目标对象当前位置的裸眼3D显示信息。
其中,具体可在电子设备对3D显示信号,进行匹配于用户双眼的2D投影处理,得到该3D显示信号对应于用户左眼的左视差信息,和对应于用户右眼的右视差信息。
针对视频信号为2D显示信号的情况,可首先通过相应的2D转3D技术,将该2D显示信号进一步处理成对应的3D显示信号,例如,将2D显示信号对应的2D视频帧图像通过适配并增添融合相应深度信息逐帧转换成3D视频帧图像,从而得到3D视频帧图像对应的3D显示信号,在此基础上,通过将3D显示信号进行匹配于用户双眼的2D投影处理,得到其对应于用户左右眼的左右视差信息,并将所得的左右视差信息交织处理成能够用于裸眼3D效果显示的交织信息。之后,继续按上文的方式对3D转换组件进行距离和/或方向控制,并利用完成距离和/或方向控制的3D转换组件,将交织信息输出为匹配于目标对象当前位置的裸眼3D显示信息。
针对视频信号的3D显示,优选的,目标对象相对于电子设备的当前位置信息中,包括目标对象的眼睛(如电子设备使用者的双眼眼球)当前相对于电子设备的位置信息。具体可以但不限于基于TOF摄像头、TOF激光传感器、RGB摄像头和/或IR摄像头等元件,通过对目标对象如电子设备使用者的双眼眼球进行位置追踪,来实现该位置信息的检测。
电子设备的显示屏包括发光光源,如LED(Light Emitting Diode,发光二极管)背光源,应用本申请时,可检测目标对象当前位置信息中的距离信息,相比于目标对象上一时刻位置信息中的距离信息是否发生变化,在发生变化情况下,具体调整发光光源与3D转换组件之间的距离。而在未发生变化情况下,则不必执行距离调整。
其中,具体可在目标对象如用户双眼与电子设备之间的距离增大时,调远显示屏发光光源和3D转换组件之间的距离,在目标对象如用户双眼与电子设备之间的距离减小时,调近显示屏发光光源和3D转换组件之间的距离,例如,在用户双眼与笔记本电脑显示屏之间的距离增大时,调远显示屏发光光源如LED背光源和3D转换组件之间的距离,在用户双眼与笔记本电脑显示屏之间的距离减小时,相应调近显示屏发光光源和3D转换组件之间的距离。
具体可参见图3(a)-图3(b)的示例,用户双眼与显示屏之间的距离不同,相应控制显示屏(发光光源)与3D转换组件之间的距离发生同步变化,其中,透镜具体指用于裸眼3D效果显示的光学膜中的液晶透镜阵列,在图中代表3D转换组件。通过调整显示屏(发光光源)与3D转换组件之间的距离,使得3D转换组件输出的裸眼3D显示信息,与用户双眼到电子设备显示屏的距离相适配,从而使用户在电子设备前的不同距离,均能观看到清晰的裸眼3D显示画面。
实际应用中,可通过改变显示屏发光光源的位置,来调整显示屏发光光源与3D转换组件之间的距离,或者,可以在显示屏设置多个不同的候选发光光源,不同候选发光光源与显示屏显示面板之间的距离不同,根据目标对象当前位置信息中的距离信息,从多个候选发光光源中选择相适配的发光光源加以使用。
在控制3D转换组件的信息输出方向时,具体可确定用于裸眼3D效果显示的光学膜的整体区域中,与目标对象当前位置信息中的方向信息相匹配的目标子区域,并控制目标子区域对应的液晶透镜子阵列处于工作状态,非目标子区域对应的液晶透镜子阵列处于非工作状态,通过对光学膜整体区域中不同子区域液晶透镜工作状态的区别化控制,使得达到控制3D转换组件的信息输出方向的效果。
上述的非目标子区域,为光学膜的整体区域中目标子区域以外的区域。
结合参见图4,光学膜的整体区域中,与目标对象当前位置信息中的方向信息相匹配的目标子区域,具体是指光学膜中能用于将电子设备显示屏所显示信息投射至所述方向信息所指示方向的子区域。相应可根据电子设备显示屏的屏幕位置、光学膜的位置及目标对象当前位置信息中的方向信息,并结合光学膜中液晶透镜的光线投射特性,进行与目标对象当前位置信息中方向信息相匹配的目标子区域的确定。如图4所示,在用户眼睛处于位置1时,光学膜的整体区域中与该位置1所对应方向信息相匹配的目标子区域为子区域1。
在确定出光学膜中的目标子区域后,有目的地控制光学膜中各个液晶透镜的开关,使光学膜目标子区域内的液晶透镜子阵列处于工作状态,非目标子区域内的液晶透镜子阵列处于非工作状态,从而利用目标子区域内的液晶透镜子阵列,有针对性的向目标对象如用户双眼所在位置进行裸眼3D显示信息投射,使得用户在当前位置能观看到清晰高质的裸眼3D显示画面。
在其它实施方式中,如果光学膜整体区域中仅有部分区域设置有液晶透镜,即液晶透镜数量较少,不能覆盖光学膜整体区域,则可利用小马达等将光学膜上的液晶透镜移动到目标子区域内,并基于开关控制使目标子区域内的一系列液晶透镜处于工作状态,以此实现有针对性的向目标对象如用户双眼所在位置进行裸眼3D显示信息投射。
实际应用本申请时,在将目标对象相对于电子设备的距离信息,提供给超声强度控制器时,还可以同时提供给显示屏的显示控制器,使得超声强度控制器和显示控制器分别基于获得的距离信息,同步对音频输出和视频输出进行与距离信息相适配的处理。其中,具体可以将距离信息分别提供给超声强度控制器和显示控制器,或者,将距离信息提供给超声强度控制器和显示控制器中的一个元件,由该一个元件将得到的距离信息进一步传递至另一元件,如图5(a)所示,对此不做限制。
同理,在将目标对象相对于电子设备的方向信息,提供给发声器转向器时,还可以同时提供给显示控制器,使得转向器和显示控制器分别基于获得的方向信息,同步对音频输出和视频输出进行与方向信息相适配的处理。其中,具体可以将方向信息分别提供给转向器和显示控制器,或者,将方向信息提供给转向器和显示控制器中的一个元件,由该一个元件将得到的方向信息进一步传递至另一元件,如图5(b)所示。
已有的裸眼3D显示技术中,用户仅能在电子设备显示屏正前方预设区域内观看到清晰的裸眼3D显示画面,不能随意改变与电子设备之间的距离及方向等位置信息,否则会导致观看到产生割裂、错位、清晰度低等问题的裸眼3D显示画面,本申请实施例通过根据目标对象如用户的位置变化,动态调整3D转换组件与显示屏(发光光源)之间的距离,及3D转换组件的信息输出方向等信息,有效解决了该问题,可使得目标对象在电子设备前的不同位置均能观看到清晰高质的裸眼3D显示画面。
在一可选实施方式中,参见图6所示的处理方法流程图,本申请公开的处理方法在步骤102之前,即确定目标对象相对于电子设备的当前位置信息之前,还可以包括以下处理:
步骤601、确定是否满足信息输出条件;若是,触发步骤102的确定目标对象相对于电子设备的当前位置信息的处理过程;若否,结束对待处理信号的处理。
可选的,信息输出条件可以但不限于设置为如下的任意一种:
条件一:在电子设备对应的预设范围内检测到预设类型的目标对象;
条件二:在电子设备对应的预设范围内检测到预设类型的目标对象且目标对象拥有电子设备的设备权限。
预设类型的目标对象,具体可以是指人体。电子设备对应的预设范围,可以是指电子设备显示屏前方的预设范围,具体可根据需求进行设定。
在将信息输出条件设置为条件一的情况下,相应可检测电子设备对应的预设范围内是否存在人体,若存在,判定为满足该信息输出条件,否则,则不满足。
其中,可以但不限于通过RGB摄像头、红外摄像头和/或电容传感器等元件,对电子设备所对应预设范围内的对象进行信息采集,并通过对采集的信息进行分析,确定电子设备对应的预设范围内是否存在人体。
在将信息输出条件设置为条件二的情况下,在确定出电子设备对应的预设范围内存在预设类型目标对象的情况下,如存在人体的情况下,进一步确定目标对象是否拥有电子设备的设备权限。
具体可确定所检测出的人体是否为已在电子设备进行身份注册的合法用户,示例性的,可以但不限于利用RGB摄像头采集用户人脸信息,将采集的人脸信息与注册人脸进行特征比对,通过人脸特征比对识别用户身份,若识别结果表征属于已注册用户,确定其拥有电子设备的设备权限,相应判定满足上述的信息输出条件,否则,若电子设备对应的预设范围内不存在预设类型目标对象,或存在预设类型目标对象但目标对象未拥有电子设备的设备权限,则判定为不满足上述的信息输出条件。
在满足信息输出条件情况下,则触发步骤102及其后续处理流程,以使用户在电子设备前的不同位置均能体验到清晰高质的音视频输出效果,在不满足信息输出条件情况下,则结束对待处理信号的处理,拒绝进行音视频输出,以达到节省设备能耗和/或对设备权限用户进行信息保护的效果。
本申请实施例还公开一种电子设备,其组成结构如图7所示,至少包括:
处理器10,用于确定目标对象相对于所述电子设备的当前位置信息,所述目标对象能进行位置移动;
输出处理装置20,用于:
获取待处理信号,所述待处理信号包括音频信号和视频信号;
获取所述处理器输出的所述当前位置信息;
根据所述当前位置信息,将所述音频信号处理并输出为匹配于所述目标对象的当前位置的声音信息,将所述视频信号处理并输出为匹配于所述目标对象的当前位置的3D显示信息。
可选的,处理器在确定目标对象相对于所述电子设备的当前位置信息时,具体用于:确定所述目标对象当前相对于所述电子设备的距离信息和方向信息中的至少一种,得到所述当前位置信息。
可选的,电子设备还包括显示屏和3D转换组件。3D转换组件包括由液晶透镜阵列构成的用于裸眼3D效果显示的光学膜。
关于电子设备对待处理信号中音频信号和视频信号的处理与输出过程,具体可参见上文方法实施例的相关说明,不再赘述。
该电子设备在获取包括音频信号和视频信号的待处理信号后,根据目标对象相对于电子设备的当前位置信息,将音频信号处理与输出为匹配于目标对象当前位置的声音信息,将视频信号处理与输出为匹配于目标对象当前位置的3D显示信息,实现了从音视频输出方面向目标对象输出具有位置追踪效果的定位声波及3D显示信息,便于设备用户等目标对象在不同位置体验到清晰高质量的音视频信息,相应达到了通过设备功能改进来提升用户对设备输出信息体验感的技术效果。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
为了描述的方便,描述以上系统或装置时以功能分为各种模块或单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
最后,还需要说明的是,在本文中,诸如第一、第二、第三和第四等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其它变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其它要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (10)
1.一种处理方法,应用于电子设备,所述方法包括:
获取待处理信号,所述待处理信号包括音频信号和视频信号;
确定目标对象相对于所述电子设备的当前位置信息,所述目标对象能进行位置移动;
根据所述当前位置信息,将所述音频信号处理并输出为匹配于所述目标对象的当前位置的声音信息,将所述视频信号处理并输出为匹配于所述目标对象的当前位置的3D显示信息。
2.根据权利要求1所述的方法,所述确定目标对象相对于所述电子设备的当前位置信息,包括:
确定所述目标对象当前相对于所述电子设备的距离信息和方向信息中的至少一种,得到所述当前位置信息。
3.根据权利要求2所述的方法,所述根据所述当前位置信息,将所述音频信号处理并输出为匹配于所述目标对象的当前位置的声音信息,包括:
将所述音频信号与对应的载波进行耦合处理,得到耦合信号;
所述电子设备输出所得到的耦合信号;其中,所述耦合信号的参数包括耦合信号的强度和/或方向,根据所述距离信息控制所述耦合信号的强度;根据所述方向信息控制耦合信号的输出方向。
4.根据权利要求3所述的方法,所述根据所述方向信息控制耦合信号的输出方向,包括:
在所述当前位置信息中的方向信息相比于所述目标对象的上一时刻位置信息中的方向信息发生变化情况下,将所述当前位置信息中的方向信息传输至音频输出装置的方向控制器,以由所述方向控制器根据得到的方向信息调整所述音频输出装置的角度。
5.根据权利要求2所述的方法,所述电子设备包括3D转换组件,根据所述当前位置信息,将所述视频信号处理并输出为匹配于所述目标对象的当前位置的3D显示信息,包括:
根据所述距离信息控制电子设备中显示屏与所述3D转换组件之间的距离;和/或,根据所述方向信息控制所述3D转换组件的信息输出方向;
利用所述3D转换组件,将所述视频信号输出为匹配于所述目标对象的当前位置的裸眼3D显示信息。
6.根据权利要求5所述的方法,所述显示屏包括发光光源;所述根据所述距离信息控制电子设备中显示屏与所述3D转换组件之间的距离,包括:
在所述当前位置信息中的距离信息相比于所述目标对象上一时刻位置信息中的距离信息发生变化情况下,调整所述发光光源与所述3D转换组件之间的距离。
7.根据权利要求5所述的方法,所述3D转换组件包括由液晶透镜阵列构成的用于裸眼3D效果显示的光学膜;所述根据所述方向信息控制所述3D转换组件的信息输出方向,包括:
确定所述光学膜的区域中与所述方向信息匹配的目标子区域;
控制所述目标子区域对应的液晶透镜子阵列处于工作状态,非目标子区域对应的液晶透镜子阵列处于非工作状态;所述非目标子区域为所述光学膜的区域中所述目标子区域以外的区域。
8.根据权利要求1所述的方法,在确定目标对象相对于所述电子设备的当前位置信息之前,还包括:
确定是否满足信息输出条件;所述信息输出条件包括:在所述电子设备对应的预设范围内检测到预设类型的目标对象,或,在所述预设范围内检测到预设类型的目标对象且所述目标对象拥有所述电子设备的设备权限;
若是,触发所述确定目标对象相对于所述电子设备的当前位置信息的步骤;
若否,结束对所述待处理信号的处理。
9.一种电子设备,包括:
处理器,用于确定目标对象相对于所述电子设备的当前位置信息,所述目标对象能进行位置移动;
输出处理装置,用于:
获取待处理信号,所述待处理信号包括音频信号和视频信号;
获取所述处理器输出的所述当前位置信息;
根据所述当前位置信息,将所述音频信号处理并输出为匹配于所述目标对象的当前位置的声音信息,将所述视频信号处理并输出为匹配于所述目标对象的当前位置的3D显示信息。
10.根据权利要求9所述的电子设备,所述处理器在确定目标对象相对于所述电子设备的当前位置信息时,具体用于:
确定所述目标对象当前相对于所述电子设备的距离信息和方向信息中的至少一种,得到所述当前位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310341803.2A CN116320351A (zh) | 2023-03-31 | 2023-03-31 | 一种处理方法和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310341803.2A CN116320351A (zh) | 2023-03-31 | 2023-03-31 | 一种处理方法和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116320351A true CN116320351A (zh) | 2023-06-23 |
Family
ID=86797821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310341803.2A Pending CN116320351A (zh) | 2023-03-31 | 2023-03-31 | 一种处理方法和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116320351A (zh) |
-
2023
- 2023-03-31 CN CN202310341803.2A patent/CN116320351A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10999676B2 (en) | Audio communication system and method | |
US10952008B2 (en) | Audio communication system and method | |
JP6342458B2 (ja) | ビデオにおける改良型の顔面認識 | |
US7809160B2 (en) | Method and apparatus for calibration-free eye tracking using multiple glints or surface reflections | |
Balakrishnan et al. | Wearable real-time stereo vision for the visually impaired. | |
CN106778713B (zh) | 一种动态人眼跟踪的虹膜识别装置及方法 | |
EP2508945B1 (en) | Directional sound capturing | |
US20060140420A1 (en) | Eye-based control of directed sound generation | |
US11388541B2 (en) | Audio communication system and method | |
JP2014519665A6 (ja) | ビデオにおける改良型の顔面認識 | |
US11354091B2 (en) | Mixed reality sensor suite and interface for physical region enhancement | |
US11346940B2 (en) | Ultrasonic sensor | |
JPH1124603A (ja) | 情報表示装置及び情報収集装置 | |
CN111801700B (zh) | 支付过程中防止偷窥的方法及电子设备 | |
CN113519168A (zh) | 基于麦克风阵列和深度相机组件输入的扬声器波束控制 | |
CN106951077B (zh) | 一种提示方法及第一电子设备 | |
CN110824579B (zh) | 一种反制追踪激光窃听系统及使用方法 | |
CN116320351A (zh) | 一种处理方法和电子设备 | |
Espinosa-Duró et al. | Beyond cognitive signals | |
KR20220072414A (ko) | 인지 기능 훈련 방법 | |
WO2020062108A1 (zh) | 设备 | |
CN112073706A (zh) | 控制定向发声的系统和方法 | |
US11871198B1 (en) | Social network based voice enhancement system | |
KR102267410B1 (ko) | 터치 기반의 인지 기능 훈련 시스템 | |
KR20220072413A (ko) | 인지 기능 훈련 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |