CN116610282A - 一种数据处理方法、装置及电子设备 - Google Patents

一种数据处理方法、装置及电子设备 Download PDF

Info

Publication number
CN116610282A
CN116610282A CN202310876146.1A CN202310876146A CN116610282A CN 116610282 A CN116610282 A CN 116610282A CN 202310876146 A CN202310876146 A CN 202310876146A CN 116610282 A CN116610282 A CN 116610282A
Authority
CN
China
Prior art keywords
virtual user
correction factor
virtual
audio data
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310876146.1A
Other languages
English (en)
Other versions
CN116610282B (zh
Inventor
刘康俊
吴亚光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Everything Mirror Data Service Co ltd
Original Assignee
Beijing Everything Mirror Data Service Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Everything Mirror Data Service Co ltd filed Critical Beijing Everything Mirror Data Service Co ltd
Priority to CN202310876146.1A priority Critical patent/CN116610282B/zh
Publication of CN116610282A publication Critical patent/CN116610282A/zh
Application granted granted Critical
Publication of CN116610282B publication Critical patent/CN116610282B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Stereophonic System (AREA)

Abstract

本公开涉及一种数据处理方法、装置及电子设备,属于音频处理技术领域。数据处理方法包括:获取第一虚拟用户和第二虚拟用户在虚拟空间内的姿态关系信息;根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的方向修正因子、距离修正因子以及阻挡物修正因子;根据所述方向修正因子、距离修正因子以及阻挡物修正因子,得到目标修正因子;根据所述目标修正因子对所述音频数据进行声强修正处理,得到目标音频数据;将所述目标音频数据发送至第二虚拟用户。本公开大幅优化了元宇宙虚拟空间内的用户体验,使得用户能够获得身临其境的感觉。

Description

一种数据处理方法、装置及电子设备
技术领域
本公开属于音频处理技术领域,具体涉及一种数据处理方法、装置及电子设备。
背景技术
传统的音频通讯一般是独立于虚拟空间外的子系统,声音不包含空间信息,而是以点对点沟通、组队沟通来完成音频通讯;现有的音频方案做为3D(3-Dimension,三维)场外系统方案,缺乏对3D空间信息的获取和理解,无法给用户带来沉浸感。
另一方面,传统的音频系统,是通过发言者麦克风的UI(User Interface,用户界面)闪动来描述输入触发的有效性,而对接收方,默认他们只要在这个频道内就能听到发言,因为是无衰减的;当声音贴近物理表现时,由于声音自带衰减,发言者无法通过有效的方式来判断接收者,特别不同距离下的接收者,会出现各种类似于现实中发言者发出了声音但无法确定接收者是否听到的问题。
发明内容
本公开实施例的目的是提供一种数据处理方法、装置及电子设备,解决了虚拟空间中无法给用户带来听觉沉浸感的问题。
第一方面,本公开实施例提供了一种数据处理方法,该方法包括:
获取第一虚拟用户和第二虚拟用户在虚拟空间内的姿态关系信息;
根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的方向修正因子、距离修正因子以及阻挡物修正因子;
根据所述方向修正因子、距离修正因子以及阻挡物修正因子,得到目标修正因子;
根据所述目标修正因子对所述音频数据进行声强修正处理,得到目标音频数据;
将所述目标音频数据发送至第二虚拟用户。
可选的,根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的方向修正因子,包括:
根据所述第一虚拟用户和第二虚拟用户在虚拟空间内的声道、声压、头部之间的距离、水平方位角、仰角、角频率和头部半径,确定方向修正因子。
可选的,根据所述第一虚拟用户和第二虚拟用户在虚拟空间内的声道、声压、头部之间的距离、水平方位角、仰角、角频率和头部半径,确定方向修正因子,包括:
通过公式,确定所述第一虚拟用户和 第二虚拟用户关于方向信息的第一音频修正因子和第二音频修正因子;
其中,HL为所述第二虚拟用户的第一耳道的第一音频修正因子,HR为所述第二虚 拟用户的第二耳道的第二音频修正因子,PL为所述第一耳道处的声压,PR为所述第二耳道 处的声压,P0为所述第二虚拟用户的头部中心位置处的声压,r为第一虚拟用户的头部中心 位置处至第二虚拟用户的头部中心位置处的距离,为第一虚拟用户相对于第二虚拟用户 的水平方位角,为第一虚拟用户相对于第二虚拟用户的仰角,为音频数据的角频率, 为所述第二虚拟用户的头部半径。
可选的,根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的距离修正因子,包括:
通过公式,确定所述第一虚拟用户和所述第二虚拟用户关于距离 信息的距离修正因子;
其中,为所述第二虚拟用户在距离d处的声音强度,为所述第一虚拟用户的入 射初始声音强度,a为所述第一虚拟用户和所述第二虚拟用户关于距离信息的距离修正因 子,d为所述第一虚拟用户和所述第二虚拟用户的距离。
可选的,根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的阻挡物修正因子,包括:
确定在虚拟空间内的所述第一虚拟用户和第二虚拟用户之间的至少一个虚拟阻挡物;
根据所述虚拟阻挡物的材料厚度和材料种类,确定所述第一虚拟用户和所述第二虚拟用户关于阻挡信息的阻挡物修正因子。
可选的,根据所述方向修正因子、距离修正因子以及阻挡物修正因子,得到目标修正因子,包括:
将所述方向修正因子、距离修正因子以及阻挡物修正因子进行加权相乘,得到目标修正因子。
可选的,根据所述目标修正因子对所述音频数据进行声强修正处理,得到目标音频数据,包括:
根据所述目标修正因子、所述音频数据的声音强度和传播延迟时间,对所述音频 数据进行声强修正处理,得到目标声音强度为的目标音频数据;
其中,为目标音频数据的声音强度,为第一耳道的声音强度, 为第二耳道的声音强度。
第二方面,本公开实施例提供了一种数据处理装置,包括:
获取模块,用于获取第一虚拟用户和第二虚拟用户在虚拟空间内的姿态关系信息;
处理模块,用于根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的方向修正因子、距离修正因子以及阻挡物修正因子;根据所述方向修正因子、距离修正因子以及阻挡物修正因子,得到目标修正因子;根据所述目标修正因子对所述音频数据进行声强修正处理,得到目标音频数据;将所述目标音频数据发送至第二虚拟用户。
可选的,根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的方向修正因子,包括:
根据所述第一虚拟用户和第二虚拟用户在虚拟空间内的声道、声压、头部之间的距离、水平方位角、仰角、角频率和头部半径,确定方向修正因子。
可选的,根据所述第一虚拟用户和第二虚拟用户在虚拟空间内的声道、声压、头部之间的距离、水平方位角、仰角、角频率和头部半径,确定方向修正因子,包括:
通过公式,确定所述第一虚拟用户和 第二虚拟用户关于方向信息的第一音频修正因子和第二音频修正因子;
其中,HL为所述第二虚拟用户的第一耳道的第一音频修正因子,HR为所述第二虚 拟用户的第二耳道的第二音频修正因子,PL为所述第一耳道处的声压,PR为所述第二耳道 处的声压,P0为所述第二虚拟用户的头部中心位置处的声压,r为第一虚拟用户的头部中心 位置处至第二虚拟用户的头部中心位置处的距离,为第一虚拟用户相对于第二虚拟用户 的水平方位角,为第一虚拟用户相对于第二虚拟用户的仰角,为音频数据的角频率, 为所述第二虚拟用户的头部半径。
可选的,根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的距离修正因子,包括:
通过公式,确定所述第一虚拟用户和所述第二虚拟用户关于距离 信息的距离修正因子;
其中,为所述第二虚拟用户在距离d处的声音强度,为所述第一虚拟用户的入 射初始声音强度,a为所述第一虚拟用户和所述第二虚拟用户关于距离信息的距离修正因 子,d为所述第一虚拟用户和所述第二虚拟用户的距离。
可选的,根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的阻挡物修正因子,包括:
确定在虚拟空间内的所述第一虚拟用户和第二虚拟用户之间的至少一个虚拟阻挡物;
根据所述虚拟阻挡物的材料厚度和材料种类,确定所述第一虚拟用户和所述第二虚拟用户关于阻挡信息的阻挡物修正因子。
可选的,根据所述方向修正因子、距离修正因子以及阻挡物修正因子,得到目标修正因子,包括:
将所述方向修正因子、距离修正因子以及阻挡物修正因子进行加权相乘,得到目标修正因子。
可选的,根据所述目标修正因子对所述音频数据进行声强修正处理,得到目标音频数据,包括:
根据所述目标修正因子、所述音频数据的声音强度和传播延迟时间,对所述音频 数据进行声强修正处理,得到目标声音强度为的目标音频数据;
其中,为目标音频数据的声音强度,为第一耳道的声音强度, 为第二耳道的声音强度。
第三方面,本公开实施例提供了一种电子设备,包括处理器,存储器及存储在存储器上并可在处理器上运行的程序或指令,程序或指令被处理器执行时实现如上述的虚拟空间的音频数据处理方法的步骤。
第四方面,本公开实施例提供了一种可读存储介质,可读存储介质上存储程序或指令,程序或指令被处理器执行时实现如上的虚拟空间的音频数据处理方法的步骤。
在本公开实施例中,通过获取第一虚拟用户和第二虚拟用户在虚拟空间内的姿态关系信息;根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的方向修正因子、距离修正因子以及阻挡物修正因子;根据所述方向修正因子、距离修正因子以及阻挡物修正因子,得到目标修正因子;根据所述目标修正因子对所述音频数据进行声强修正处理,得到目标音频数据;将所述目标音频数据发送至第二虚拟用户。解决了虚拟空间中无法给用户带来听觉沉浸感的问题,大幅优化了元宇宙虚拟空间内的用户体验,使得用户能够获得身临其境的感觉。
附图说明
图1示出了本公开的实施例提供的数据处理方法流程图;
图2示出了本公开的实施例提供的数据交互的示意图;
图3示出了本公开的实施例提供的终端侧的可视化界面示意图;
图4示出了本公开的实施例提供的目标声音强度的处理结果的示意图;
图5示出了本公开实施例提供的数据处理装置的结构示意图;
图6示出了本公开的实施例提供的电子设备的结构示意图;
图7示出了本公开的实施例提供的电子设备的硬件结构示意图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员获得的所有其他实施例,都属于本公开保护的范围。
本公开的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
本公开涉及到的虚拟空间可以是一个开放空间。该虚拟空间可以用于模拟现实中的真实环境,当然,在一种可能实现方式中,该虚拟空间也可以与现实场景对应,该虚拟空间还可以支持时间的控制,可以进行黑夜、白天的自由调整,还可以支持天气系统,设定晴天、雨天、雪天、雾天等。
需要说明的是,该虚拟空间中可以包括多种虚拟对象,其中,该虚拟对象可以是该虚拟空间中的一个虚拟的用于代表用户或其他形象(如,阻挡物等)的虚拟形象,该虚拟形象可以是任一种形态,本公开对此不限定。该虚拟空间中可以包括多个虚拟对象,每个虚拟对象在虚拟场景中具有自身的形状、结构和体积,占据虚拟空间中的一部分空间。在一种可能实现方式中,用户可以通过参数配置控制虚拟对象所在虚拟场景中的位置或材质,以模拟虚拟空间下的音频数据传输。
值得说明的是,本公开所涉及的第一虚拟用户和第二虚拟用户优选为虚拟空间中的一个虚拟的用于代表用户的虚拟形象,每个虚拟用户对应至少一个终端,该终端可用于控制虚拟用户在虚拟空间内的位移、旋转以及其他动作等,还可以通过该终端传输音频数据,音频数据可作为虚拟用户在虚拟空间内发出是声音传输给另一虚拟用户,以使得另一虚拟用户对应的终端可以接收到该声音,其中,虚拟用户在虚拟空间内的活动规则可以是预先设定的。
下面结合附图,通过具体的实施例及其应用场景对本公开实施例提供的数据处理方法、装置及电子设备进行详细地说明。
图1是本公开实施例提供的数据处理方法流程图,参见图1,该方法可以包括以下步骤:
步骤101,获取第一虚拟用户和第二虚拟用户在虚拟空间内的姿态关系信息;
步骤102,根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的方向修正因子、距离修正因子以及阻挡物修正因子;
步骤103,根据所述方向修正因子、距离修正因子以及阻挡物修正因子,得到目标修正因子;
步骤104,根据所述目标修正因子对所述音频数据进行声强修正处理,得到目标音频数据;
步骤105,将所述目标音频数据发送至第二虚拟用户。
本公开的实施例中,第一虚拟用户与第二虚拟用户可按照预设的活动规则在虚拟空间内活动,虚拟空间内的每个空间上的点均存在位置坐标,而每个虚拟用户占据虚拟空间中的一部分空间,进而确定第一虚拟用户的第一位置和第二虚拟用户的第二位置;根据该位置坐标可以确定姿态关系信息,即姿态关系信息与第一虚拟用户的第一位置、第二虚拟用户的第二位置以及第一虚拟用户和第二虚拟用户之间的阻挡物相关;
根据姿态关系信息,可以计算得到第二虚拟用户接收第一虚拟用户发送的音频数据时所需要的目标修正因子;该目标修正因子可用于调节被接收方(第二虚拟用户)的左右声道的声音大小不同,使得被接受方获得声音的3D沉浸感;
这里,目标修正因子由第二虚拟用户决定,如第二虚拟用户的虚拟形象为人体时,为了更加贴合现实,人体的第一侧的耳朵和第二侧的耳朵位置不同,则目标修正因子存在一定区别,因此需计算得到不同的目标修正因子,按照不同的目标修正因子对不同侧接收的音频数据进行修正处理,得到至少一个目标音频数据,并将目标音频数据发送至第二虚拟用户对应的第二终端,以使得第二终端可根据至少一个目标音频数据,为现实中的用户呈现更真实的音频效果,本实施例解决了虚拟空间中无法给用户带来听觉沉浸感的问题,大幅优化了元宇宙虚拟空间内的用户体验,使得用户能够获得身临其境的感觉。
值得说明的是,为了为虚拟空间内的用户提供更贴合现实的体验,在一种可选的实现实例中,可以将发出音频数据的虚拟用户的位置确认为该虚拟用户对应的虚拟形象在现实中用于发出声音的部位(例如,虚拟形象为人体时,该虚拟用户的位置确认为嘴),将接收音频数据的虚拟用户的位置确认为该虚拟用户对应的虚拟形象在现实中用于接收声音的部位(例如,虚拟形象为人体时,虚拟用户的位置确认为第一侧和第二侧的耳朵),以使得对音频数据的修正更加准确。
本公开一可选的实施例中,步骤102可以包括:
步骤1021,根据所述第一虚拟用户和第二虚拟用户在虚拟空间内的声道、声压、头部之间的距离、水平方位角、仰角、角频率和头部半径,确定方向修正因子。
本公开一可选的实施例中,步骤1021可以包括:
通过公式,确定所述第一虚拟用户和 第二虚拟用户关于方向信息的第一音频修正因子和第二音频修正因子;
其中,HL为所述第二虚拟用户的第一耳道的第一音频修正因子,HR为所述第二虚 拟用户的第二耳道的第二音频修正因子,PL为所述第一耳道处的声压,PR为所述第二耳道 处的声压,P0为所述第二虚拟用户的头部中心位置处的声压,r为第一虚拟用户的头部中心 位置处至第二虚拟用户的头部中心位置处的距离,为第一虚拟用户相对于第二虚拟用户 的水平方位角,为第一虚拟用户相对于第二虚拟用户的仰角,为音频数据的角频率, 为所述第二虚拟用户的头部半径。
本实施例中,根据两虚拟用户间的方向信息,可以对接收者(第二虚拟用户)的所有声道产生不同的修正,从而使得接收者获得方向感,基于现实中声音定位原理,存在时间差效应和声压级差效应,其中,时间差效应是指若声音来源于接收者的左侧或右侧,那么靠近该声音一侧的耳朵会比另一侧耳朵先接收到该声音,从而产生方位判断,该声音从发出到接收者接收的到达时间为距离除以声速的计算结果(340m/s);声压级差效应是指基于头部对声波的遮挡作用,导致同一声源在两侧耳朵产生不同的响度,从而判断处声源的位置;
若仅关于时间差效应和声压级差效应对音频数据进行修正,会导致第二虚拟用户无法产生对该音频数据的立体定位,例如无法确定正前方和正后方声源定位的区别,因此需要描述声波从声源到双耳的传输过程,即包含了人体滤波效应,基于头部、肩膀、耳朵等器官对声波存在反射和遮挡作用,导致不同方向的声音在进入耳道之前会形成不同程度的衰减和形变;
基于上述时间差效应、声压级差效应以及人体滤波效应,为了更真实地模拟声音在现实中的传输情况,对第一虚拟用户和第二虚拟用户进行分析,声源对应的声波经第一虚拟用户和/或第二虚拟用户的头部、耳廓、躯干等散射后到达第二虚拟用户的耳朵,该过程可视为线性时不变(LTI)的声滤波系统,其特性可由系统的频域传输函数完全描述,该频域传输函数为:
根据频域传输函数可以确定第二虚拟用户第一耳道的第一音频修正因子和第二耳道的第二音频修正因子;通过对不同耳道接收到的音频数据进行不同的修正处理,以使得用户可以获得虚拟空间内的方向感,提高了用户体验。
本公开一可选的实施例中,步骤102可以包括:
步骤1022,通过公式,确定所述第一虚拟用户和所述第二虚拟用户 关于距离信息的距离修正因子;
其中,为所述第二虚拟用户在距离d处的声音强度,为所述第一虚拟用户的入 射初始声音强度,a为所述第一虚拟用户和所述第二虚拟用户关于距离信息的距离修正因 子,d为所述第一虚拟用户和所述第二虚拟用户的距离。本公开的实施例中,由于现实中声 音的声波在空气中传播时,空气中介质吸收波一部分的能量,声波的强度和振幅将逐渐减 小,因而在第一虚拟用户和第二虚拟用户之间存在一定距离的情况下,可以对不同距离的 接收者产生不同关于距离信息的距离修正因子,从而使得收听者获得距离感;关于距离信 息的距离修正因子可根据上述公式计算得到;
进一步的,还可以确定关于虚拟空间内的空气介质的距离修正因子,对于常温常 压下的空气,101.325kPa,温度为20℃,相对湿度为50%,则关于空气介质的距离修正因子为,其中,f为音频数据的声音频率。
本公开一可选的实施例中,步骤102可以包括:
步骤1023,确定在虚拟空间内的所述第一虚拟用户和第二虚拟用户之间的至少一个虚拟阻挡物;
根据所述虚拟阻挡物的材料厚度和材料种类,确定所述第一虚拟用户和所述第二虚拟用户关于阻挡信息的阻挡物修正因子。
本公开的实施例中,由于现实中阻挡物对声音产生的衰减是由该阻挡物的材料厚度和材料种类决定,为了在虚拟空间中模拟出更贴近现实的声音传输效果,确定虚拟空间中的虚拟阻挡物至少一个虚拟阻挡物,虚拟阻挡物的材料厚度和材料种类均是搭建虚拟空间时预先配置好的,因而可确定关于阻挡信息的阻挡物修正因子。
如图2所示,需要说明的是,虚拟阻挡物为音频数据的声源和接收处之间直线距离内的虚拟阻挡物,例如,图2中虚拟用户A和虚拟用户B之间的虚拟阻挡物为二者直线距离内的墙体。
一个具体的实施例中,虚拟阻挡物为厚度为5mm的玻璃,则可以确定该玻璃对于音频数据的阻挡物修正因子为-25至30db的范围内。
本公开一可选的实施例中,步骤103可以包括:
步骤1031,将所述方向修正因子、距离修正因子以及阻挡物修正因子进行加权相乘,得到目标修正因子。
本公开的实施例中,对于同一音频数据存在至少一种修正因子,即关于方向信息的方向修正因子、关于距离信息的距离修正因子以及关于阻挡物信息的阻挡物修正因子;不同的修正因子进行加权相乘,而后对于加权相乘后的结果取均值,从而得到在当前位置关系信息的条件下的目标修正因子。如H=(Ax+By+Cz)/3,其中,H为目标修正因子、A、B和C分别为方向修正因子、距离修正因子以及阻挡物修正因子的权重值、x、y和z分别为方向修正因子、距离修正因子以及阻挡物修正因子。
值得说明的是,目标修正因子还可以根据其他影响音频数据传输的信息确定,本公开不以此为限制。
本公开一可选的实施例中,步骤104可以包括:
步骤1041,根据所述目标修正因子、所述音频数据的声音强度和传播延迟时间,对 所述音频数据进行声强修正处理,得到目标声音强度为的目标 音频数据;
其中,为目标音频数据的声音强度,为第一耳道的声音强度, 为第二耳道的声音强度。
本实施例中,音频数据的声音强度由第一虚拟用户对应的第一终端采集,采集的 音频数据的声音强度关于时间的函数为,通过3D音频系统结合音频修正系数和传播 延迟时间,得到目标声音强度为,目标声音强度代表着第二虚拟 用户的第一耳道和第二耳道的接收到的音频数据的声音强度关于传播延迟时间上的函数, 并通过第二虚拟用户对应的第二终端播放,以使得第二终端的用户可以身临其境地体验到 作为虚拟空间内的第二虚拟用户接收到的声音效果;
值得说明的是,元宇宙系统内对音频数据的修正依赖于具体的应用场景,例如,在全局发言时,音频数据的声音强度通常不存在衰减,或者会适应性进行增强;而操作虚拟用户在虚拟空间内进行音频交流时,可以引入上述过程的音频数据修正机制。
步骤1041具体包括:
第一耳道:通过公式,计算得到第一耳道的声音强 度
其中,距离修正因子e-ad(即关于距离信息的修正因子)为A,材质衰减系数(即关于 阻挡信息的阻挡物修正因子)为B,第一耳道的头型衰减系数(即关于方向信息的方向修正 因子)为为原始声音强度;
第二耳道:通过公式,计算得到第二耳道的声音强 度;
其中,距离修正因子e-ad(即关于距离信息的修正因子)为A,材质衰减系数(即关于 阻挡信息的阻挡物修正因子)为B,第二耳道的头型衰减系数(即关于方向信息的方向修正 因子)为为原始声音强度。如图2所示,图2示出了本公开的实施例提供的数据交 互的示意图,又一具体的实施例中,用户A通过终端A在元宇宙系统的虚拟空间中操作虚拟 用户A活动至位置A,用户B通过终端B在元宇宙系统的虚拟空间中操作虚拟用户B活动至位 置B,在虚拟空间内虚拟用户A和虚拟用户B之间存在墙体作为虚拟阻挡物;
当用户A通过终端A向用户B进行音频数据的通讯时,用户A通过终端A发送音频数据A,根据虚拟空间中虚拟用户A和虚拟用户B之间的位置关系信息。
其中,位置关系信息通过以下过程进行确定:
根据虚拟用户A的位置A和虚拟用户B的位置B确定两个虚拟用户之间的方向信息;
计算虚拟用户A的位置A和虚拟用户B的位置B之间的欧氏距离,确定虚拟用户A和虚拟用户B的距离信息;
将虚拟用户A和虚拟用户B之间直线距离内的虚拟物体作为虚拟阻挡物,确定阻挡物信息;
分别计算关于方向信息、距离信息以及阻挡物信息对应的修正因子,将每个修正因子进行加权乘积处理,得到目标修正因子;
根据目标修正因子对音频数据A进行修正处理,得到目标音频数据A;
将目标音频数据A发送至虚拟用户B对应的终端B,以使得用户B通过终端B能够在虚拟空间内获得身临其境的感觉。
本公开一可选的实施例中,数据处理方法,还包括:
步骤105,将所述目标音频数据发送至第二虚拟用户。
当目标声音强度的目标音频数据的声音强度在预设声强阈值范围内时,第二终端播放目标声音强度的目标音频数据。
本实施例中,预设声强阈值为Ista,用于当第一虚拟用户的音频数据的声音强度在该值范围内时,判定第二虚拟用户能够听到该音频数据,同时,将该音频数据修正后传输至第二虚拟用户对应的第二终端;这样,通过设定声强的接收条件,模拟了现实环境下人耳的听力范围,使得音频数据的传输更贴近于现实的声音传输。
本公开一可选的实施例中,数据处理方法,还包括:
步骤106,当第二终端播放目标声音强度的目标音频数据时,第一虚拟用户对应的第一终端对第二虚拟用户进行可视化标识。
本公开的实施例中,在第一虚拟用户对应的第一终端上可进行可视化表现,即添 加可视化标识,该可视化标识可以是指示性图标(icon),也可以是虚拟用户的指示性光圈 特效等,本公开不以此为限制;当目标声音强度在预设声强阈值范围内时,则将可视 化标识的效果开启,以使得第一虚拟用户对应的用户可以判断第二虚拟用户对应的用户能 过听到自己的声音。
如图3所示,图3示出了本公开的实施例提供的终端侧的可视化界面示意图,一个 具体的实施例中,用户通过终端A控制虚拟用户A在虚拟空间内的活动,当用户通过终端A发 送音频数据A时,通过第一可视化标识(脚底光圈的3D指示性特效)和第一可视化标识(头像 上方的指示性icon)来判断其他虚拟用户(如虚拟用户B)是否接收到音频数据A;当目标声 音强度超过预设声强阈值时,第一可视化标识和第二可视化标识的效果启动, 反之,则不启动;
值得说明的是,本公开的实施例中头像上方的指示性icon优选适用于2D(2-Dimension,二维)的可视化界面,人物脚底光圈的3D指示性特效优选适用于3D的可视化界面。
本公开一可选的实施例中,步骤106包括:
步骤1061,当第二终端播放目标声音强度的目标音频数据时,通过预设时间窗口对目标声音强度进行处理,得到处理结果;
步骤1062,根据该处理结果,第一虚拟用户对应的第一终端对第二虚拟用户进行可视化标识。
本公开的实施例中,由于目标音频数据的目标声音强度存在不连续性,目标声音强度会随着停顿产生起伏,因此引入预设时间窗口对目标声音强度进行处理,实现目标声音强度的惰性变化,即将可视化标识效果的开关描述为瞬时效果开关的时间窗口的积分值,从而降低效果开关反复闪烁的情况。
如图4所示,图4示出了本公开的实施例提供的目标声音强度的处理结果的示意图,又一具体的实施例中,对目标声音强度的目标音频数据通过预设时间窗口对目标声音强度进行处理,得到平滑后的处理结果;
由图可见,处理后的声音强度相较于初始值更加平滑,降低了波动率,提升了平滑度,进而降低了开关的抖动率。
本公开实施例中数据处理方法,能够很好的实现对卫星图像的语义分割,上述实施例通过获取第一虚拟用户和第二虚拟用户在虚拟空间内的姿态关系信息;根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的方向修正因子、距离修正因子以及阻挡物修正因子;根据所述方向修正因子、距离修正因子以及阻挡物修正因子,得到目标修正因子;根据所述目标修正因子对所述音频数据进行声强修正处理,得到目标音频数据;将所述目标音频数据发送至第二虚拟用户;大幅优化了元宇宙虚拟空间内的用户体验,使得用户能够获得身临其境的感觉。
上述所有可选技术方案,可以任意结合,形成本公开的可选实施例,在此不再一一赘述。
图5是本公开实施例提供的一种数据处理装置的结构示意图,参见图5,该装置500包括:
获取模块501,用于获取第一虚拟用户和第二虚拟用户在虚拟空间内的姿态关系信息;
处理模块502,用于根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的方向修正因子、距离修正因子以及阻挡物修正因子;根据所述方向修正因子、距离修正因子以及阻挡物修正因子,得到目标修正因子;根据所述目标修正因子对所述音频数据进行声强修正处理,得到目标音频数据;将所述目标音频数据发送至第二虚拟用户。
可选的,根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的方向修正因子,包括:
根据所述第一虚拟用户和第二虚拟用户在虚拟空间内的声道、声压、头部之间的距离、水平方位角、仰角、角频率和头部半径,确定方向修正因子。
可选的,根据所述第一虚拟用户和第二虚拟用户在虚拟空间内的声道、声压、头部之间的距离、水平方位角、仰角、角频率和头部半径,确定方向修正因子,包括:
通过公式,确定所述第一虚拟用户和 第二虚拟用户关于方向信息的第一音频修正因子和第二音频修正因子;
其中,HL为所述第二虚拟用户的第一耳道的第一音频修正因子,HR为所述第二虚 拟用户的第二耳道的第二音频修正因子,PL为所述第一耳道处的声压,PR为所述第二耳道 处的声压,P0为所述第二虚拟用户的头部中心位置处的声压,r为第一虚拟用户的头部中心 位置处至第二虚拟用户的头部中心位置处的距离,为第一虚拟用户相对于第二虚拟用户 的水平方位角,为第一虚拟用户相对于第二虚拟用户的仰角,为音频数据的角频率, 为所述第二虚拟用户的头部半径。
可选的,根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的距离修正因子,包括:
通过公式,确定所述第一虚拟用户和所述第二虚拟用户关于距离 信息的距离修正因子;
其中,为所述第二虚拟用户在距离d处的声音强度,为所述第一虚拟用户的入 射初始声音强度,a为所述第一虚拟用户和所述第二虚拟用户关于距离信息的距离修正因 子,d为所述第一虚拟用户和所述第二虚拟用户的距离。
可选的,根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的阻挡物修正因子,包括:
确定在虚拟空间内的所述第一虚拟用户和第二虚拟用户之间的至少一个虚拟阻挡物;
根据所述虚拟阻挡物的材料厚度和材料种类,确定所述第一虚拟用户和所述第二虚拟用户关于阻挡信息的阻挡物修正因子。
可选的,根据所述方向修正因子、距离修正因子以及阻挡物修正因子,得到目标修正因子,包括:
将所述方向修正因子、距离修正因子以及阻挡物修正因子进行加权相乘,得到目标修正因子。
可选的,根据所述目标修正因子对所述音频数据进行声强修正处理,得到目标音频数据,包括:
根据所述目标修正因子、所述音频数据的声音强度和传播延迟时间,对所述音频 数据进行声强修正处理,得到目标声音强度为的目标音频数据;
其中,为目标音频数据的声音强度,为第一耳道的声音强度, 为第二耳道的声音强度。
本公开实施例提供的装置,在进行虚拟空间的音频数据处理时,通过确定虚拟空间中第一虚拟用户和第二虚拟用户之间的姿态关系信息,从而确定目标修正因子,通过目标修正因子对音频数据进行修正后,得到的目标音频数据在第二终端播放时更贴合现实,大幅优化了元宇宙虚拟空间内的用户体验,使得用户能够获得身临其境的感觉。
需要说明的是:上述实施例提供的数据处理装置仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的数据处理装置与数据处理方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本公开实施例中的数据处理装置可以是虚拟装置,也可以是服务器或者终端中的部件、集成电路或芯片。该装置可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本公开实施例不作具体限定。
本公开实施例中的数据处理装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本公开实施例不作具体限定。
本公开实施例提供的数据处理装置能够实现图1至图4的方法实施例实现的各个过程,为避免重复,这里不再赘述。
可选地,如图6所示,本公开实施例还提供一种电子设备600,包括处理器601,存储器602,存储在存储器602上并可在处理器601上运行的程序或指令,该程序或指令被处理器601执行时实现上述数据处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。需要说明的是,本公开实施例中的电子设备包括上述的移动电子设备和非移动电子设备。
图7为实现本公开实施例的一种电子设备的硬件结构示意图。
该电子设备700包括但不限于:射频单元701、网络模块702、音频输出单元703、输入单元704、传感器705、显示单元706、用户输入单元707、接口单元708、存储器709、以及处理器710等部件。
本领域技术人员可以理解,电子设备700还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器710逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图7中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
应理解的是,本公开实施例中,输入单元704可以包括图形处理器(GraphicsProcessing Unit,GPU)7041和麦克风7042,图形处理器7041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。显示单元706可包括显示面板7061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板7061。用户输入单元707包括触控面板7071以及其他输入设备7072。触控面板7071,也称为触摸屏。触控面板7071可包括触摸检测装置和触摸控制器两个部分。其他输入设备7072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。存储器709可用于存储软件程序以及各种数据,包括但不限于应用程序和操作系统。处理器710可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器710中。
本公开实施例还提供一种可读存储介质,可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述虚拟空间的音频数据处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,处理器为上述实施例中的电子设备中的处理器。可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、磁碟或者光盘等。
本公开实施例另提供了一种芯片,芯片包括处理器和通信接口,通信接口和处理器耦合,处理器用于运行程序或指令,实现上述虚拟空间的音频数据处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本公开实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本公开实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分可以以计算机软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,或者网络设备等)执行本公开各个实施例的方法。
上面结合附图对本公开的实施例进行了描述,但是本公开并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本公开的启示下,在不脱离本公开宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本公开的保护之内。

Claims (10)

1.一种数据处理方法,其特征在于,所述方法包括:
获取第一虚拟用户和第二虚拟用户在虚拟空间内的姿态关系信息;
根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的方向修正因子、距离修正因子以及阻挡物修正因子;
根据所述方向修正因子、距离修正因子以及阻挡物修正因子,得到目标修正因子;
根据所述目标修正因子对所述音频数据进行声强修正处理,得到目标音频数据;
将所述目标音频数据发送至第二虚拟用户。
2.根据权利要求1所述的数据处理方法,其特征在于,根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的方向修正因子,包括:
根据所述第一虚拟用户和第二虚拟用户在虚拟空间内的声道、声压、头部之间的距离、水平方位角、仰角、角频率和头部半径,确定方向修正因子。
3.根据权利要求2所述的数据处理方法,其特征在于,根据所述第一虚拟用户和第二虚拟用户在虚拟空间内的声道、声压、头部之间的距离、水平方位角、仰角、角频率和头部半径,确定方向修正因子,包括:
通过公式,确定所述第一虚拟用户和第二虚拟用户关于方向信息的第一音频修正因子和第二音频修正因子;
其中,HL为所述第二虚拟用户的第一耳道的第一音频修正因子,HR为所述第二虚拟用户的第二耳道的第二音频修正因子,PL为所述第一耳道处的声压,PR为所述第二耳道处的声压,P0为所述第二虚拟用户的头部中心位置处的声压,r为第一虚拟用户的头部中心位置处至第二虚拟用户的头部中心位置处的距离,为第一虚拟用户相对于第二虚拟用户的水平方位角,/>为第一虚拟用户相对于第二虚拟用户的仰角,/>为音频数据的角频率,/>为所述第二虚拟用户的头部半径。
4.根据权利要求1所述的数据处理方法,其特征在于,根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的距离修正因子,包括:
通过公式,确定所述第一虚拟用户和所述第二虚拟用户关于距离信息的距离修正因子;
其中,为所述第二虚拟用户在距离d处的声音强度,/>为所述第一虚拟用户的入射初始声音强度,a为所述第一虚拟用户和所述第二虚拟用户关于距离信息的距离修正因子,d为所述第一虚拟用户和所述第二虚拟用户的距离。
5.根据权利要求1所述的数据处理方法,其特征在于,根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的阻挡物修正因子,包括:
确定在虚拟空间内的所述第一虚拟用户和第二虚拟用户之间的至少一个虚拟阻挡物;
根据所述虚拟阻挡物的材料厚度和材料种类,确定所述第一虚拟用户和所述第二虚拟用户关于阻挡信息的阻挡物修正因子。
6.根据权利要求1所述的数据处理方法,其特征在于,根据所述方向修正因子、距离修正因子以及阻挡物修正因子,得到目标修正因子,包括:
将所述方向修正因子、距离修正因子以及阻挡物修正因子进行加权相乘,得到目标修正因子。
7.根据权利要求1所述的数据处理方法,其特征在于,根据所述目标修正因子对所述音频数据进行声强修正处理,得到目标音频数据,包括:
根据所述目标修正因子、所述音频数据的声音强度和传播延迟时间,对所述音频数据进行声强修正处理,得到目标声音强度为的目标音频数据;
其中,为目标音频数据的声音强度,/>为第一耳道的声音强度,/>为第二耳道的声音强度。
8.一种数据处理装置,其特征在于,包括:
获取模块,用于获取第一虚拟用户和第二虚拟用户在虚拟空间内的姿态关系信息;
处理模块,用于根据所述姿态关系信息,确定所述第一虚拟用户和第二虚拟用户进行音频数据传输时的方向修正因子、距离修正因子以及阻挡物修正因子;根据所述方向修正因子、距离修正因子以及阻挡物修正因子,得到目标修正因子;根据所述目标修正因子对所述音频数据进行声强修正处理,得到目标音频数据;将所述目标音频数据发送至第二虚拟用户。
9.一种电子设备,其特征在于,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1-7任一项所述的数据处理方法的步骤。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如权利要求1-7任一项所述的数据处理方法的步骤。
CN202310876146.1A 2023-07-18 2023-07-18 一种数据处理方法、装置及电子设备 Active CN116610282B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310876146.1A CN116610282B (zh) 2023-07-18 2023-07-18 一种数据处理方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310876146.1A CN116610282B (zh) 2023-07-18 2023-07-18 一种数据处理方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN116610282A true CN116610282A (zh) 2023-08-18
CN116610282B CN116610282B (zh) 2023-11-03

Family

ID=87682147

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310876146.1A Active CN116610282B (zh) 2023-07-18 2023-07-18 一种数据处理方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN116610282B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107027082A (zh) * 2016-01-27 2017-08-08 联发科技股份有限公司 增强虚拟现实的音频效果的方法和电子装置
CN108379842A (zh) * 2018-02-08 2018-08-10 网易(杭州)网络有限公司 游戏音频处理方法、装置、电子设备及存储介质
CN110879850A (zh) * 2019-11-14 2020-03-13 腾讯科技(深圳)有限公司 抖动参数的获取方法、装置、设备及存储介质
CN114344880A (zh) * 2022-01-10 2022-04-15 腾讯科技(深圳)有限公司 虚拟场景中的准星控制方法、装置、电子设备及存储介质
WO2022143322A1 (zh) * 2020-12-31 2022-07-07 华为技术有限公司 一种增强现实交互方法及电子设备
CN115460508A (zh) * 2022-09-02 2022-12-09 雷欧尼斯(北京)信息技术有限公司 一种虚拟场景中音频保真方法、装置及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107027082A (zh) * 2016-01-27 2017-08-08 联发科技股份有限公司 增强虚拟现实的音频效果的方法和电子装置
CN108379842A (zh) * 2018-02-08 2018-08-10 网易(杭州)网络有限公司 游戏音频处理方法、装置、电子设备及存储介质
CN110879850A (zh) * 2019-11-14 2020-03-13 腾讯科技(深圳)有限公司 抖动参数的获取方法、装置、设备及存储介质
WO2022143322A1 (zh) * 2020-12-31 2022-07-07 华为技术有限公司 一种增强现实交互方法及电子设备
CN114344880A (zh) * 2022-01-10 2022-04-15 腾讯科技(深圳)有限公司 虚拟场景中的准星控制方法、装置、电子设备及存储介质
CN115460508A (zh) * 2022-09-02 2022-12-09 雷欧尼斯(北京)信息技术有限公司 一种虚拟场景中音频保真方法、装置及存储介质

Also Published As

Publication number Publication date
CN116610282B (zh) 2023-11-03

Similar Documents

Publication Publication Date Title
US20230209295A1 (en) Systems and methods for sound source virtualization
WO2020098462A1 (zh) Ar虚拟人物绘制方法、装置、移动终端及存储介质
CN107592466B (zh) 一种拍照方法及移动终端
CN108055402B (zh) 一种拍摄方法及移动终端
JP6764490B2 (ja) 媒介現実
US11112389B1 (en) Room acoustic characterization using sensors
CN111917489B (zh) 音频信号处理方法、装置和电子设备
US10542368B2 (en) Audio content modification for playback audio
CN113205549B (zh) 深度估计方法及装置、电子设备和存储介质
US11482237B2 (en) Method and terminal for reconstructing speech signal, and computer storage medium
CN111445901B (zh) 音频数据获取方法、装置、电子设备及存储介质
US20210329399A1 (en) Audio signal processing method and apparatus
CN111370018A (zh) 音频数据的处理方法、电子设备及介质
CN110401898B (zh) 输出音频数据的方法、装置、设备和存储介质
US11792579B2 (en) Personalized calibration of an in-ear device
US11102602B1 (en) Systems and methods for spatial update latency compensation for head-tracked audio
CN112882568A (zh) 音频播放方法及装置、电子设备和存储介质
GB2590256A (en) Method and device for processing audio signal
US20220394414A1 (en) Sound effect optimization method, electronic device, and storage medium
CN109104687B (zh) 音效处理方法及相关产品
CN108924705B (zh) 3d音效处理方法及相关产品
CN109121069B (zh) 3d音效处理方法及相关产品
CN110944112A (zh) 一种图像处理方法及电子设备
CN116610282B (zh) 一种数据处理方法、装置及电子设备
CN110459236B (zh) 音频信号的噪声估计方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant