CN117581298A - 防止对音频数据重复应用音频效果的方法和支持该方法的电子器件 - Google Patents
防止对音频数据重复应用音频效果的方法和支持该方法的电子器件 Download PDFInfo
- Publication number
- CN117581298A CN117581298A CN202280046216.4A CN202280046216A CN117581298A CN 117581298 A CN117581298 A CN 117581298A CN 202280046216 A CN202280046216 A CN 202280046216A CN 117581298 A CN117581298 A CN 117581298A
- Authority
- CN
- China
- Prior art keywords
- audio
- codec
- electronic device
- data
- applying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000694 effects Effects 0.000 title claims abstract description 269
- 238000000034 method Methods 0.000 title claims description 39
- 230000005540 biological transmission Effects 0.000 claims description 24
- 230000006870 function Effects 0.000 description 77
- 230000004044 response Effects 0.000 description 66
- 238000004891 communication Methods 0.000 description 57
- 230000015654 memory Effects 0.000 description 32
- 238000001514 detection method Methods 0.000 description 21
- 238000004590 computer program Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/162—Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/0018—Speech coding using phonetic or linguistical decoding of the source; Reconstruction using text-to-speech synthesis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Telephone Function (AREA)
Abstract
一种电子装置可以包括音频输出装置;以及被配置为可操作地连接到音频输出装置的处理器。该处理器被配置成:获取用于再现与第一应用相关的第一音频的第一用户输入;基于第一用户输入,通过使用第一编解码器解码第一音频来生成第一解码数据;通过将第一音频效果应用于第一解码数据来生成第一合成数据;将第一合成数据发送到音频框架;基于使用第一编解码器解码的第一音频,向音频框架发送用于停用应用第二音频效果的功能的第一请求;以及基于应用第二音频效果的功能被停用,经由音频输出装置输出第一合成数据,而不将第二音频效果应用于第一合成数据。
Description
技术领域
本公开的各种实施例涉及一种用于防止将音频效果重复应用于音频数据的方法,以及支持该方法的电子装置。
背景技术
电子装置可以通过音频编解码器对音频数据进行编码或解码。电子装置可以解码通过音频编解码器编码的音频数据。电子装置可以在音频框架中将音频效果(例如,空间感、音量、噪声去除)应用于解码的音频数据。电子装置可以通过音频输出装置(例如,扬声器、耳机)输出已经应用了音频效果的音频数据。
发明内容
技术问题
能够将音频效果应用于音频数据的音频编解码器(以下称为下一代音频编解码器)可以对编码的音频数据进行解码。下一代音频编解码器可在其中接收输入的参数,并且可以将音频效果应用于解码的音频数据。当电子装置通过下一代音频编解码器输出音频数据时,电子装置可以通过下一代音频编解码器将音频效果应用于音频数据,并且可以在音频框架中将附加音频效果应用于已经应用了音频效果的音频数据。这种对音频数据重复应用音频效果可能会损坏音频数据,或者可能不会输出音频制作者想要的声音。可选地,当电子装置通过下一代音频编解码器输出第一应用的音频时,电子装置可以通过下一代音频编解码器将音频效果应用于音频数据,并且为了防止音频效果的重复应用,可以停用将在音频框架中执行的用于应用附加音频效果的功能。然而,如果电子装置输出第二应用的音频,而应用附加音频效果的功能保持停用,则电子装置可能无法将附加音频效果应用到第二应用的音频数据。因此,尽管用于应用附加音频效果的功能已经被停用以防止相对于第一应用重复应用音频效果,但是相对于第二应用可能需要用于应用附加音频效果的功能,因为当停用状态持续时,没有附加音频效果可以被应用到第二应用的音频数据。
本文描述的各种实施例可以提供一种用于防止将音频效果重复应用于音频数据的方法及其电子装置。
技术方案
根据本公开的示例实施例的一方面,提供了一种电子装置,包括:音频输出装置;以及被配置为可操作地连接到音频输出装置的处理器,其中该处理器还被配置为:执行第一应用;获取用于再现与第一应用相关的第一音频的第一用户输入;基于第一用户输入,通过使用第一编解码器解码第一音频来生成第一解码数据;通过经由第一编解码器将第一音频效果应用于第一解码数据来生成第一合成数据;将第一合成数据发送到音频框架;基于使用第一编解码器解码的第一音频,向音频框架发送用于停用应用第二音频效果的功能的第一请求;基于第一请求停用在音频框架中应用第二音频效果的功能;以及基于应用第二音频效果的功能被停用,经由音频输出装置输出第一合成数据,而不将第二音频效果应用于第一合成数据。
根据本公开的示例实施例的一方面,提供了一种电子装置,包括:音频输出装置;以及被配置为可操作地连接到音频输出装置的处理器,其中该处理器还被配置为:执行第一应用;获取用于再现与第一应用相关的第一音频的第一用户输入;基于第一用户输入,通过经由第一编解码器解码第一音频来生成第一解码数据;通过经由第一编解码器将第一音频效果应用于第一解码数据来生成第一合成数据;将第一合成数据发送到音频框架;获取关于经由第一编解码器对第一音频进行解码的第一时间点的时间信息;将获取的时间信息发送到音频框架;基于第一时间点和当前时间点之间的比较,控制音频框架停用在音频框架中应用第二音频效果的功能;以及基于应用第二音频效果的功能被停用,经由音频输出装置输出第一合成数据,而不将第二音频效果应用于第一合成数据。
根据本公开的示例实施例的一方面,提供了一种操作电子装置的方法,该方法包括:执行第一应用;获取用于再现与第一应用相关的第一音频的第一用户输入;基于第一用户输入,通过经由第一编解码器解码第一音频来生成第一解码数据;通过经由第一编解码器将第一音频效果应用于第一解码数据来生成第一合成数据;将第一合成数据发送到音频框架;向音频框架发送用于停用应用第二音频效果的功能的第一请求;基于第一请求,停用在音频框架中应用第二音频效果的功能;以及基于应用第二音频效果的功能被停用,经由音频输出装置输出第一合成数据,而不对第一合成数据应用第二音频效果。
根据本公开的示例实施例的一方面,提供了一种操作电子装置的方法,该方法包括:执行第一应用;获取用于再现与第一应用相关的第一音频的第一用户输入;基于第一用户输入,通过经由第一编解码器解码第一音频来生成第一解码数据;通过经由第一编解码器将第一音频效果应用于第一解码数据来生成第一合成数据;将第一合成数据发送到音频框架;获取关于经由第一编解码器解码第一音频的第一时间点的时间信息;基于第一时间点和当前时间点之间的比较,将获取的时间信息发送到音频框架,并控制音频框架停用应用第二音频效果的功能;以及基于应用第二音频效果的功能被停用,经由音频输出装置输出第一合成数据,而不对第一合成数据应用第二音频效果。
有益效果
根据本公开的各种实施例,使用下一代音频编解码器的电子装置可以避免将音频效果重复应用于音频数据。
根据本公开的各种实施例,电子装置可以感测下一代音频编解码器是否操作,从而启用或停用用于应用在音频框架中执行的附加音频效果的功能。
根据本公开的各种实施例,电子装置可以通过下一代音频编解码器向音频框架传递指示音频效果是否已经被应用于音频数据的信息,从而启用或停用用于应用在音频框架中执行的附加音频效果的功能。
结果,可以防止对音频数据的损坏,并且可以输出音频制作者想要的声音。
可以提供通过本公开显式或隐式识别的各种其他有利效果。
附图说明
图1是示出根据实施例的网络环境中的电子装置的框图。
图2示出了根据实施例的由电子装置输出音频数据而不将音频效果叠加到音频数据的方法。
图3是示出根据实施例的电子装置的框图。
图4a是示出根据实施例的基于音频编解码器的解码来控制音频效果的应用的方法的流程图。
图4b是示出根据实施例的基于音频编解码器的非解码来控制音频效果的应用的方法的流程图。
图5示出了根据实施例的检测解码是否由音频编解码器执行的方法。
图6a是示出根据实施例的通过音频框架控制音频效果的应用的方法的流程图。
图6b是示出根据实施例的通过音频框架控制音频效果的应用的方法的流程图。
图7示出了根据实施例的由音频框架检测是否执行解码的方法。
图8是示出根据实施例的包括关于是否应用第一音频效果的信息的传输数据的配置的图。
图9示出了根据实施例的包括关于是否应用第一音频效果的信息的传输数据的配置。
结合附图的描述,相同或相似的附图标记可以用于相同或相似的组件。
具体实施方式
在下文中,将参照附图描述各种实施例。然而,这并不旨在限制具体实施例,并且应当理解,包括实施例的各种修改、等同物和/或替代物。
图1是示出根据各种实施例的网络环境100中的电子装置101的框图。参照图1,网络环境100中的电子装置101可经由第一网络198(例如,短距离无线通信网络)与电子装置102进行通信,或者经由第二网络199(例如,长距离无线通信网络)与电子装置104或服务器108中的至少一个进行通信。根据实施例,电子装置101可经由服务器108与电子装置104进行通信。根据实施例,电子装置101可以包括处理器120、存储器130、输入模块150、声音输出模块155、显示模块160、音频模块170、传感器模块176、接口177、连接端178、触觉模块179、相机模块180、电力管理模块188、电池189、通信模块190、用户识别模块(SIM)196或天线模块197。在一些实施例中,可从电子装置101中省略上述部件中的至少一个(例如,连接端178),或者可以将一个或更多个其它部件添加到电子装置101中。在一些实施例中,可以将上述部件中的一些部件(例如,传感器模块176、相机模块180或天线模块197)实现为单个集成部件(例如,显示模块160)。
处理器120可运行例如软件(例如,程序140)来控制电子装置101的与处理器120连接的至少一个其它部件(例如,硬件部件或软件部件),并可执行各种数据处理或计算。根据一个实施例,作为数据处理或计算的至少部分,处理器120可以将从另一部件(例如,传感器模块176或通信模块190)接收到的命令或数据存储到易失性存储器132中,对存储在易失性存储器132中的命令或数据进行处理,并将结果数据存储在非易失性存储器134中。根据实施例,处理器120可以包括主处理器121(例如,中央处理器(CPU)或应用处理器(AP))或者与主处理器121在操作上独立的或者相结合的辅助处理器123(例如,图形处理单元(GPU)、神经处理单元(NPU)、图像信号处理器(ISP)、传感器中枢处理器或通信处理器(CP))。例如,当电子装置101包括主处理器121和辅助处理器123时,辅助处理器123可以被适配为比主处理器121耗电更少,或者被适配为专用于特定的功能。可以将辅助处理器123实现为与主处理器121分离,或者实现为主处理器121的部分。
在主处理器121处于未激活(例如,睡眠)状态时,辅助处理器123(而非主处理器121)可控制与电子装置101的部件之中的至少一个部件(例如,显示模块160、传感器模块176或通信模块190)相关的功能或状态中的至少一些,或者在主处理器121处于激活状态(例如,运行应用)时,辅助处理器123可与主处理器121一起来控制与电子装置101的部件之中的至少一个部件(例如,显示模块160、传感器模块176或通信模块190)相关的功能或状态中的至少一些。根据实施例,可以将辅助处理器123(例如,图像信号处理器或通信处理器)实现为在功能上与辅助处理器123相关的另一部件(例如,相机模块180或通信模块190)的部分。根据实施例,辅助处理器123(例如,神经处理单元)可以包括专用于人工智能模型处理的硬件结构。可以通过机器学习来生成人工智能模型。例如,可以通过人工智能被执行之处的电子装置101或经由单独的服务器(例如,服务器108)来执行这样的学习。学习算法可以包括但不限于例如监督学习、无监督学习、半监督学习或强化学习。人工智能模型可以包括多个人工神经网络层。人工神经网络可以是深度神经网络(DNN)、卷积神经网络(CNN)、循环神经网络(RNN)、受限玻尔兹曼机(RBM)、深度置信网络(DBN)、双向循环深度神经网络(BRDNN)或深度Q网络或其两个或更多个的组合,但不限于此。另外地或可选地,人工智能模型可以包括除了硬件结构以外的软件结构。
存储器130可存储由电子装置101的至少一个部件(例如,处理器120或传感器模块176)使用的各种数据。各种数据可以包括例如软件(例如,程序140)以及针对与其相关的命令的输入数据或输出数据。存储器130可以包括易失性存储器132或非易失性存储器134。
可以将程序140作为软件存储在存储器130中,并且程序140可以包括例如操作系统(OS)142、中间件144或应用146。
输入模块150可从电子装置101的外部(例如,用户)接收将由电子装置101的其它部件(例如,处理器120)使用的命令或数据。输入模块150可以包括例如麦克风、鼠标、键盘、键(例如,按钮)或数字笔(例如,手写笔)。
声音输出模块155可以将声音信号输出到电子装置101的外部。声音输出模块155可以包括例如扬声器或接收器。扬声器可用于诸如播放多媒体或播放唱片的通用目的。接收器可用于接收呼入呼叫。根据实施例,可以将接收器实现为与扬声器分离,或实现为扬声器的部分。
显示模块160可向电子装置101的外部(例如,用户)视觉地提供信息。显示装置160可以包括例如显示器、全息装置或投影仪以及用于控制显示器、全息装置和投影仪中的相应一个的控制电路。根据实施例,显示模块160可以包括被适配为检测触摸的触摸传感器或被适配为测量由触摸引起的力的强度的压力传感器。
音频模块170可以将声音转换为电信号,反之亦可。根据实施例,音频模块170可经由输入模块150获得声音,或者经由声音输出模块155或与电子装置101直接(例如,有线地)连接或无线连接的外部电子装置(例如,电子装置102)的耳机输出声音。
传感器模块176可检测电子装置101的操作状态(例如,功率或温度)或电子装置101外部的环境状态(例如,用户的状态),然后生成与检测到的状态相应的电信号或数据值。根据实施例,传感器模块176可以包括例如手势传感器、陀螺仪传感器、大气压力传感器、磁性传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物特征传感器、温度传感器、湿度传感器或照度传感器。
接口177可支持将用来使电子装置101与外部电子装置(例如,电子装置102)直接(例如,有线地)或无线连接的一个或更多个特定协议。根据实施例,接口177可以包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端178可以包括连接器,其中,电子装置101可经由连接器与外部电子装置(例如,电子装置102)物理连接。根据实施例,连接端178可以包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块179可以将电信号转换为可以被用户经由他的触觉或动觉识别的机械刺激(例如,振动或运动)或电刺激。根据实施例,触觉模块179可以包括例如电机、压电元件或电刺激器。
相机模块180可捕获静止图像或运动图像。根据实施例,相机模块180可以包括一个或更多个透镜、图像传感器、图像信号处理器或闪光灯。
电力管理模块188可管理对电子装置101的供电。根据一个实施例,可以将电力管理模块188实现为例如电力管理集成电路(PMIC)的至少部分。
电池189可对电子装置101的至少一个部件供电。根据实施例,电池189可以包括例如不可再充电的原电池、可再充电的蓄电池、或燃料电池。
通信模块190可支持在电子装置101与外部电子装置(例如,电子装置102、电子装置104或服务器108)之间建立直接(例如,有线)通信信道或无线通信信道,并经由建立的通信信道执行通信。通信模块190可以包括能够与处理器120(例如,应用处理器(AP))独立操作的一个或更多个通信处理器,并支持直接(例如,有线)通信或无线通信。根据实施例,通信模块190可以包括无线通信模块192(例如,蜂窝通信模块、短距离无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块194(例如,局域网(LAN)通信模块或电力线通信(PLC)模块)。这些通信模块中的相应一个可经由第一网络198(例如,短距离通信网络,诸如蓝牙、无线保真(Wi-Fi)直连或红外数据协会(IrDA))或第二网络199(例如,长距离通信网络,诸如传统蜂窝网络、5G网络、下一代通信网络、互联网或计算机网络(例如,LAN或广域网(WAN)))与外部电子装置进行通信。可以将这些各种类型的通信模块实现为单个部件(例如,单个芯片),或可以将这些各种类型的通信模块实现为彼此分离的多个部件(例如,多个芯片)。无线通信模块192可使用存储在用户识别模块196中的用户信息(例如,国际移动用户识别码(IMSI))识别并验证通信网络(诸如第一网络198或第二网络199)中的电子装置101。
无线通信模块192可支持在4G网络之后的5G网络以及下一代通信技术(例如新无线电(NR)接入技术)。NR接入技术可支持增强型移动宽带(eMBB)、大规模机器类型通信(mMTC)或超可靠低延时通信(URLLC)。无线通信模块192可支持高频带(例如,毫米波带)以实现例如高数据传输速率。无线通信模块192可支持用于确保高频带上的性能的各种技术,诸如例如波束成形、大规模多输入多输出(大规模MIMO)、全维MIMO(FD-MIMO)、阵列天线、模拟波束成形或大规模天线。无线通信模块192可支持在电子装置101、外部电子装置(例如,电子装置104)或网络系统(例如,第二网络199)中指定的各种要求。根据实施例,无线通信模块192可支持用于实现eMBB的峰值数据速率(例如,20Gbps或更大)、用于实现mMTC的丢失覆盖(例如,164dB或更小)或者用于实现URLLC的U平面延迟(例如,对于下行链路(DL)和上行链路(UL)中的每一个为0.5ms或更小,或者1ms或更小的往返)。
天线模块197可以将信号或电力发送到电子装置101的外部(例如,外部电子装置)或者从电子装置101的外部(例如,外部电子装置)接收信号或电力。根据实施例,天线模块197可以包括天线,天线包括辐射元件,辐射元件由形成在基底(例如,印刷电路板(PCB))中或形成在基底上的导电材料或导电图案构成。根据实施例,天线模块197可以包括多个天线(例如,阵列天线)。在这种情况下,可由例如通信模块190(例如,无线通信模块192)从多个天线中选择适合于在通信网络(诸如第一网络198或第二网络199)中使用的通信方案的至少一个天线。随后可经由所选择的至少一个天线在通信模块190和外部电子装置之间发送或接收信号或电力。根据实施例,除了辐射元件之外的另外的组件(例如,射频集成电路(RFIC))可附加地形成为天线模块197的一部分。
根据各种实施例,天线模块197可形成毫米波天线模块。根据实施例,毫米波天线模块可以包括印刷电路板、射频集成电路(RFIC)和多个天线(例如,阵列天线),其中,RFIC设置在印刷电路板的第一表面(例如,底表面)上,或与第一表面相邻并且能够支持指定的高频带(例如,毫米波带),多个天线设置在印刷电路板的第二表面(例如,顶部表面或侧表面)上,或与第二表面相邻并且能够发送或接收指定高频带的信号。
上述部件中的至少一些可经由外设间通信方案(例如,总线、通用输入输出(GPIO)、串行外设接口(SPI)或移动工业处理器接口(MIPI))相互连接并在它们之间通信地传送信号(例如,命令或数据)。
根据实施例,可经由与第二网络199连接的服务器108在电子装置101和外部电子装置104之间发送或接收命令或数据。电子装置102或电子装置104中的每一个可以是与电子装置101相同类型的装置,或者是与电子装置101不同类型的装置。根据实施例,将在电子装置101运行的全部操作或一些操作可在外部电子装置102、外部电子装置104或服务器108中的一个或更多个运行。例如,如果电子装置101应该自动执行功能或服务或者应该响应于来自用户或另一装置的请求执行功能或服务,则电子装置101可请求一个或更多个外部电子装置执行功能或服务中的至少部分,而不是运行功能或服务,或者电子装置101除了运行功能或服务以外,还可请求一个或更多个外部电子装置执行功能或服务中的至少部分。接收到请求的一个或更多个外部电子装置可执行功能或服务中的所请求的至少部分,或者执行与请求相关的另外功能或另外服务,并将执行的结果传送到电子装置101。电子装置101可在对结果进行进一步处理的情况下或者在不对结果进行进一步处理的情况下将结果提供作为对请求的至少部分答复。为此,可使用例如云计算技术、分布式计算技术、移动边缘计算(MEC)技术或客户机-服务器计算技术。电子装置101可使用例如分布式计算或移动边缘计算来提供超低延迟服务。在另一实施例中,外部电子装置104可以包括物联网(IoT)装置。服务器108可以是使用机器学习和/或神经网络的智能服务器。根据实施例,外部电子装置104或服务器108可以被包括在第二网络199中。电子装置101可应用于基于5G通信技术或IoT相关技术的智能服务(例如,智能家居、智能城市、智能汽车或医疗保健)。
根据各种实施例的电子装置可以是各种类型的电子装置之一。电子装置可以包括例如便携式通信装置(例如,智能电话)、计算机装置、便携式多媒体装置、便携式医疗装置、相机、可穿戴装置或家用电器。根据本公开的实施例,电子装置不限于以上所述的那些电子装置。
应该理解的是,本公开的各种实施例以及其中使用的术语并不意图将在此阐述的技术特征限制于具体实施例,而是包括针对相应实施例的各种改变、等同形式或替换形式。对于附图的描述,相似的参考标号可用来指代相似或相关的元件。将理解的是,与术语相应的单数形式的名词可以包括一个或更多个事物,除非相关上下文另有明确指示。如这里所使用的,诸如“A或B”、“A和B中的至少一个”、“A或B中的至少一个”、“A、B或C”、“A、B和C中的至少一个”以及“A、B或C中的至少一个”的短语中的每一个短语可以包括在与多个短语中的相应一个短语中一起列举出的项的任意一项或所有可能组合。如这里所使用的,诸如“第1”和“第2”或者“第一”和“第二”的术语可用于将相应部件与另一部件进行简单区分,并且不在其它方面(例如,重要性或顺序)限制所述部件。将理解的是,在使用了术语“可操作地”或“通信地”的情况下或者在不使用术语“可操作地”或“通信地”的情况下,如果一元件(例如,第一元件)被称为“与另一元件(例如,第二元件)结合”、“结合到另一元件(例如,第二元件)”、“与另一元件(例如,第二元件)连接”或“连接到另一元件(例如,第二元件)”,则意味着所述一元件可与所述另一元件直接(例如,有线地)连接、与所述另一元件无线连接、或经由第三元件与所述另一元件连接。
如与本公开的各种实施例关联使用的,术语“模块”可以包括以硬件、软件或固件实现的单元,并可与其他术语(例如,“逻辑”、“逻辑块”、“部分”或“电路”)可互换地使用。模块可以是被适配为执行一个或更多个功能的单个集成部件或者是该单个集成部件的最小单元或部分。例如,根据实施例,可以以专用集成电路(ASIC)的形式来实现模块。
可以将在此阐述的各种实施例实现为包括存储在存储介质(例如,内部存储器136或外部存储器138)中的可由机器(例如,电子装置101)读取的一个或更多个指令的软件(例如,程序140)。例如,在处理器的控制下,机器(例如,电子装置101)的处理器(例如,处理器120)可在使用或无需使用一个或更多个其它部件的情况下调用存储在存储介质中的一个或更多个指令中的至少一个指令并运行至少一个指令。这使得机器能够操作用于根据所调用的至少一个指令执行至少一个功能。一个或更多个指令可以包括由编译器生成的代码或能够由解释器运行的代码。可以以非暂时性存储介质的形式来提供机器可读存储介质。其中,术语“非暂时性”仅意味着存储介质是有形装置,并且不包括信号(例如,电磁波),但是该术语并不在数据被半永久性地存储在存储介质中与数据被临时存储在存储介质中之间进行区分。
根据实施例,可在计算机程序产品中包括和提供根据本公开的各种实施例的方法。计算机程序产品可作为产品在销售者和购买者之间进行交易。可以以机器可读存储介质(例如,紧凑盘只读存储器(CD-ROM))的形式来发布计算机程序产品,或者可经由应用商店(例如,Play StoreTM)在线发布(例如,下载或上传)计算机程序产品,或者可直接在两个用户装置(例如,智能电话)之间分发(例如,下载或上传)计算机程序产品。如果是在线发布的,则计算机程序产品中的至少部分可以是临时生成的,或者可以将计算机程序产品中的至少部分至少临时存储在机器可读存储介质(诸如制造商的服务器、应用商店的服务器或转发服务器的存储器)中。
根据各种实施例,上述部件中的每个部件(例如,模块或程序)可以包括单个实体或多个实体,并且多个实体中的一些实体可分离地设置在不同的部件中。根据各种实施例,可省略上述部件中的一个或更多个部件,或者可添加一个或更多个其它部件。可选择地或者另外地,可以将多个部件(例如,模块或程序)集成为单个部件。在这种情况下,根据各种实施例,该集成部件可仍旧按照与多个部件中的相应一个部件在集成之前执行一个或更多个功能相同或相似的方式,执行多个部件中的每一个部件的一个或更多个功能。根据各种实施例,由模块、程序或另一部件所执行的操作可顺序地、并行地、重复地或以启发式方式来执行,或者操作中的一个或更多个操作可按照不同的顺序来运行或被省略,或者可添加一个或更多个其它操作。
图2示出了根据实施例的由电子装置输出音频数据而不将音频效果叠加到音频数据的方法。
参考图2,电子装置(例如,图3的电子装置301)可以使用由处理器(例如,图3的处理器310)驱动的软件(例如,应用221、音频编解码器222或音频框架223)来输出音频数据(例如,编码数据203),而不将音频效果(例如,第一音频效果231、第二音频效果232和第三音频效果233)叠加到音频数据例如,电子装置可以通过应用第一音频效果231来输出音频数据。
根据实施例,应用221可以通过解析器API 201提取编码数据203。应用221可以通过编解码器API 205解码编码数据203,从而生成解码数据207。应用程序221可以生成音轨209。
根据实施例,音频编解码器222可以包括一个或多个编解码器(例如,编解码器230,MPEG-2.5部分.3(MP3)编解码器、高级音频编码(AAC)编解码器和免费无损音频编解码器(FLAC)编解码器)。
根据实施例,音频框架223可以包括一个或多个音轨209、211和213。音频框架223可以输出应用了第一音频效果231的音频数据,而不将音频效果(例如,第二音频效果232或第三音频效果233)应用于通过音轨209从应用221提供的音频数据(例如,解码数据207)。
根据实施例,当电子装置(例如,图3的电子装置301)在使用编解码器230对音频数据执行解码(例如,编码音频数据203)的同时将第一音频效果231应用于音频数据时,电子装置(例如,图3的电子装置301)可以在音频框架223中省略将第二音频效果232应用于解码数据的操作。为了便于解释,音频效果(例如,第一音频效果231、第二音频效果232和第三音频效果233)在图2中示出,但是与图2中所示的组件不同,音频效果不作为单独的软件模块存在,并且可以包括用于声音调节的特定调谐值或文件。
根据实施例,应用221、音频编解码器222和音频框架223可以是在处理器(例如,图3的处理器310)上执行的软件。例如,应用221、音频编解码器222和音频框架223的操作可以被理解为处理器310的操作。应用221、音频编解码器222和音频框架223中的至少一个可以被集成或者可以进一步包括单独的模块。
根据实施例,电子装置(例如,图3的电子装置301)可以执行应用221(例如,第一应用)。例如,电子装置可以执行音乐回放应用。例如,音乐回放应用可以包括再现存储在存储器(例如,图1的存储器130)中的文件的应用和再现通过通信模块(例如,图1的通信模块190)接收的文件(或流数据)的流应用。电子装置(例如,图3的电子装置301)可以获取第一用户输入,该第一用户输入在应用221被执行时再现与应用221相关的音频。例如,电子装置(例如,图3的电子装置301)可以在音乐回放应用正被执行时获取再现音乐回放应用的音乐的用户输入(例如,触摸输入、按钮输入、手势输入、拖动输入或语音输入)。
根据实施例,响应于第一用户输入的获取,电子装置(例如,图3的电子装置301)可以通过解析器API 201调用(或执行)解析器。例如,响应于第一用户输入的获取,电子装置(例如,图3的电子装置301)可以控制应用221通过解析器API 201调用解析器。电子装置(例如,图3的电子装置301)可以通过解析器API 201从文件中提取编码数据203。该文件可以包括例如存储在存储器(例如,图1的存储器130)中的媒体文件和/或通过通信模块(例如,图1的通信模块190)接收并临时存储在存储器130中的流文件(或流数据)。根据实施例,电子装置(例如,图3的电子装置301)可以通过使用解析器API 201调用的解析器从存储在文件中的媒体数据中提取视频数据。提取的视频数据可以是编码数据。该文件可指存储在应用221中的媒体数据或从外部装置(例如,终端或服务器)获取的媒体数据的模块。编码数据203可以理解为编码音频数据。
根据实施例,电子装置(例如,图3的电子装置301)可以通过编解码器API 205调用(或生成)包括在音频编解码器222中的多个编解码器(例如,编解码器230、MP3编解码器、ACC编解码器和FLAC编解码器)之一。例如,电子装置(例如,图3的电子装置301)可以控制应用221通过编解码器API 205调用(或生成)编解码器230。
根据实施例,电子装置(例如,图3的电子装置301)可以使用通过应用221中的编解码器API 205调用的(或生成的)编解码器230来解码编码数据203。电子装置(例如,图3的电子装置301)可以通过编解码器230对编码数据203进行解码来生成解码数据207。
根据实施例,电子装置(例如,图3的电子装置301)可以通过使用编解码器230将第一音频效果231应用于解码数据207。例如,电子装置可以通过使用编解码器230将对应于各种效果(例如,空间感、音量大小、噪声去除等)的调谐值应用于解码的数据207。电子装置可以通过将第一音频效果231应用于解码数据207来生成合成数据。合成数据可指应用了第一音频效果231的解码数据。解码数据207或合成数据可以理解为脉码调制(PCM)数据。
根据实施例,音频编解码器222可以包括编解码器230、MP3编解码器、AAC编解码器和FLAC编解码器。音频编解码器222的示例可以不限于图2所示的编解码器类型。
根据实施例,电子装置(例如,图3的电子装置301)可以生成音轨209。例如,电子装置可以控制应用221来生成音轨209。音轨209可以将解码数据207或合成数据从应用221发送到音频框架223,或者可以管理解码数据207或合成数据。电子装置(例如,图3的电子装置301)可以通过音轨209将来自应用221的解码数据207或合成数据发送到音频框架223。
根据实施例,电子装置(例如,图3的电子装置301)可以在应用221中生成多个音轨209、211和213。电子装置(例如,图3的电子装置301)可以通过多个音轨209、211和213中的每一个从应用221向音频框架223发送相应的解码数据或合成数据。
根据实施例,尽管在图2中未示出,但是电子装置(例如,图3的电子装置301)可以在不同于应用221的应用(例如,第二应用)中生成音轨211和213。电子装置(例如,图3的电子装置301)可以通过在不同应用中生成的音轨向音频框架223提供解码数据或合成数据。
根据实施例,电子装置(例如,图3的电子装置301)可以根据第一音频效果231是否被应用来停用为音频框架223的每个音轨应用第二音频效果232的功能。例如,当第一音频效果231被应用于通过第一音轨(例如,音轨209)从应用221发送到音频框架223的解码数据207时,电子装置(例如,图3的电子装置301)可以停用应用对应于第一音轨(例如,音轨209)的第二音频效果232的功能。电子装置不将第二音频效果232和第三音频效果233应用于通过将第一音频效果231应用于解码数据207而生成的合成数据,并且可以通过音频输出装置(例如,图3的音频输出装置320)输出合成数据。
根据实施例,第二音频效果232和第三音频效果233可以在音频框架223中执行。第二音频效果232可以被理解为本地音频效果,其可以在混合器215混合从应用(例如,应用221)提供的音频数据(例如,解码数据207或合成数据)之前执行。第三音频效果233可以被理解为可以在混合器215混合音频数据之后执行的全局音频效果。
根据实施例,电子装置(例如,图3的电子装置301)可以通过音频输出装置(例如,图3的音频输出装置320)输出通过将第一音频效果231应用于解码数据207而生成的合成数据。例如,电子装置(例如,图3的电子装置301)可以通过音频输出装置(例如,图3的音频输出装置320)输出通过将仅一个音频效果(例如,第一音频效果231)应用于音频数据(例如,解码数据207)而生成的合成数据。
图3是示出根据实施例的电子装置301的框图。
参考图3,电子装置301可以包括处理器310和音频输出装置320。包括在电子装置301中的组件可以不限于图3所示的组件(例如,处理器310和音频输出装置320)。图3中所示的电子装置301的组件可以用其他组件替换,或者可以向电子装置301添加附加组件。例如,图1的电子装置101的至少一部分内容可以应用于图3的电子装置301。又例如,电子装置301可以包括编解码器或存储器。编解码器可以实现为软件和/或硬件。例如,编解码器可以被理解为作为由处理器310驱动的算法的软件。作为另一个示例,编解码器可以实现为硬件,其中算法由处理器310实现。
根据实施例,处理器310可以执行存储在存储器中的指令,以控制电子装置301的组件(例如,音频输出装置320)的操作。处理器310可以电连接和/或可操作地连接到音频输出装置330。处理器310可以执行软件来控制连接到处理器310的至少一个其他组件(例如,音频输出装置320)。处理器310可以从包括在电子装置301中的组件获取命令,可以解释获取的命令,并且可以根据解释的命令处理和/或操作各种数据。
根据实施例,编解码器可以包括将语音或视频的模拟音频信号转换成数字音频信号以执行编码的编码器,以及将数字信号转换成模拟信号以执行解码的解码器。
根据实施例,编解码器可具有向解码数据(例如,图2的解码数据207)应用各种音频效果的功能,包括音频的位置信息、输出装置的音量、声音的改变、应用空间感、噪声处理(例如,噪声或回声衰减)或声道改变(例如,在单声道和立体声之间切换)。例如,AC4编解码器或MPEG-H编解码器可接收对应于空间感的参数,并且可以基于该参数将音频效果(例如,第一音频效果231)应用于解码数据(例如,图2的解码数据207)。编解码器可以包括例如杜比ac-4(AC4)编解码器、运动图像专家组(MPEG-H)编解码器、MP3编解码器、AAC编解码器和FLAC编解码器中的至少一种。
根据实施例,音频输出装置320可以输出对应于音频数据的声音。例如,电子装置301可以通过音频输出装置320输出通过将第一音频效果231应用于解码数据(例如,图2的解码数据207)而生成的合成数据。音频输出装置320可以包括例如扬声器和耳机中的至少一个。
图4a是示出根据实施例的基于音频编解码器的解码来控制音频效果的应用的方法的流程图。
电子装置301或处理器(例如,图1的处理器120或图3的处理器310)可以以相同的顺序或不同于下述顺序的顺序同时执行或顺序执行下述一系列操作,并且可以省略、修改或添加一些操作。
在操作401中,电子装置301可以执行第一应用(例如,图2的应用221)。第一应用可以被理解为能够再现多媒体数据的应用。例如,第一应用可以是音乐回放应用或视频回放应用。
在操作403中,电子装置301可以获取用于再现与第一应用相关的第一音频的第一用户输入。例如,电子装置301可以获取用于再现音乐回放应用的音乐的触摸输入。当正在执行第一应用时,电子装置301可以获取用于再现与第一应用相关的第一音频的第一用户输入。例如,当正在执行音乐回放应用时,电子装置301可以获取用于再现音乐回放应用的音乐的手势输入。第一用户输入可以包括触摸输入、按钮输入、手势输入、拖动输入或语音输入。
在操作405中,电子装置301可以识别对应于第一音频的编解码器是第一编解码器还是第二编解码器。电子装置301可以使用通过解析器API 201执行的解析器来识别对应于第一音频的编解码器是第一编解码器还是第二编解码器。第一编解码器可以是支持应用第一音频效果231的功能的编解码器。第二编解码器可以是不支持应用第一音频效果231的功能的编解码器。
根据实施例,当对应于第一音频的编解码器被确定为第一编解码器时(操作405-是),电子装置301可执行操作407,并且当对应于第一音频的编解码器被确定为第二编解码器时(操作405-否),可执行操作415。
在操作407中,当对应于第一音频的编解码器是第一编解码器时,电子装置301可以通过第一编解码器解码第一音频。电子装置301可以通过第一编解码器解码第一音频来生成第一解码数据。第一音频可以被理解为编码数据。
在操作409中,电子装置301可以将第一音频效果231应用于第一解码数据。电子装置301可以通过将第一音频效果231应用于第一解码数据来生成第一合成数据。
根据实施例,电子装置301可以生成音轨(例如,图2的音轨209)。电子装置301可以通过音轨向音频框架223发送第一合成数据。
在操作411中,响应于电子装置301确定第一编解码器通过音频编解码器(例如,图2的音频编解码器222和/或图5的音频编解码器222)执行解码,电子装置301可以向音频框架223发送用于停用应用第二音频效果232的功能的第一请求。
根据实施例,电子装置301可以控制第一应用向音频框架223发送第一请求。举例来说,第一编解码器可对第一音频执行解码以生成第一解码数据,且响应于通过将第一音频效果231应用于第一解码数据而生成第一合成数据,电子装置301可以向音频框架233发送用于停用应用第二音频效果232(和第三音频效果233)的功能的第一请求。
根据实施例,电子装置301可以检测第一编解码器(例如,图2的编解码器230)是否通过音频编解码器(例如,图2的音频编解码器222和/或图5的音频编解码器222的检测单元)对第一音频执行解码。音频编解码器可以是包括至少一个编解码器的软件,并且检测至少一个编解码器的解码是否被执行的检测单元(例如,图5的音频编解码器222的检测单元)可以存在于音频编解码器内部。
根据实施例,当第一编解码器执行解码时,电子装置301(例如,音频编解码器222的检测单元)可以通过音频编解码器222获取与第一编解码器执行解码的时间点对应的时间信息。例如,音频编解码器222的检测单元可以获取与编码数据203被解码的时间对应的第一时间点的时间信息。音频编解码器222的检测单元可以确定是否以预定的时间间隔(例如,一秒)使用第一编解码器执行解码。预定时间间隔不限于上述示例,并且可以由用户配置为多种值。
根据实施例,音频编解码器222的检测单元可以将第一时间点与预定时间间隔的当前时间点进行比较,并且可以基于比较结果确定第一编解码器是否执行解码。例如,当第一时间点和当前时间点之间的差小于指定值时,音频编解码器222的检测单元可以确定第一编解码器执行解码,并且当该差等于或大于指定值时,可以确定第一编解码器不执行解码。
根据实施例,电子装置301可以将第一请求(或消息)和发送第一请求的第一应用的标识符信息(例如,应用ID)发送到音频框架223。
在操作413中,响应于音频框架223接收第一请求,电子装置301可以停用应用附加音频效果(例如,第二音频效果232和第三音频效果233)的功能。响应于第二音频效果232(和第三音频效果233)的停用,电子装置301可以通过音频输出装置320输出第一合成数据,而不将第二音频效果232和第三音频效果233应用于第一合成数据。例如,电子装置301可以通过音频输出装置320输出应用了第一音频效果231而没有应用第二音频效果232和第三音频效果233的第一合成数据。
在操作415中,当对应于第一音频的编解码器不是第一编解码器(例如,第二编解码器)时,电子装置301可以通过第二编解码器解码第一音频。电子装置301可以解码第一音频以生成第二解码数据。第一音频可以被理解为编码数据。第二编码可以被理解为不支持将第一音频效果231应用于第一音频的功能的编解码器。
根据实施例,电子装置301可以生成音轨(例如,图2的音轨209)。电子装置301可以通过音轨向音频框架223发送第二解码数据。
在操作417中,电子装置301可以将第二音频效果232应用于第二解码数据。电子装置301可以将第二音频效果232应用于第二解码数据以生成第二合成数据。
在操作419中,电子装置301可以通过音频输出装置320输出第二合成数据。第二合成数据可以被理解为没有应用第一音频效果231而应用了第二音频效果232(和第三音频效果233)的音频数据。
图4b是示出根据实施例的基于音频编解码器的非解码来控制音频效果的应用的方法的流程图。
电子装置301或处理器(例如,图1的处理器120或图3的处理器310)可以以相同的顺序或不同于下述顺序的顺序同时执行或顺序执行下述一系列操作,并且可以省略、修改或添加其一些操作。
在操作421中,电子装置301可以获取用于停止第一音频的再现的第二用户输入。电子装置301可以获取用于在输出第一合成数据的同时中断第一音频的再现的第二用户输入。
根据实施例,响应于第二用户输入的获取,电子装置301可以中断通过第一编解码器解码第一音频的操作。
在操作423中,响应于通过第一编解码器的解码的中断,电子装置301可以向音频框架223发送用于启用应用第二音频效果232的功能的第二请求。
根据实施例,电子装置301可以控制第一应用向音频框架223发送第二请求。
根据实施例,当第一编解码器不执行解码时,电子装置301(或音频编解码器222的检测单元)可以通过音频编解码器222获取与第一编解码器执行解码的时间点对应的时间信息。例如,音频编解码器222或音频编解码器222的检测单元可以获取对应于编码数据203被解码的时间的第一时间点的时间信息。音频编解码器222或音频编解码器222的检测单元可以以预定的时间间隔将第一时间点与当前时间点进行比较,并且可以基于比较结果确定第一编解码器是否执行解码。例如,当第一时间点和当前时间点之间的差小于指定值时,音频编解码器222或音频编解码器222的检测单元可以确定第一编解码器执行解码。又例如,当第一时间点和当前时间点之间的差等于或大于指定值时,音频编解码器222或音频编解码器222的检测单元可以确定第一编解码器不执行解码。
根据实施例,电子装置301可以将第二请求(或消息)和发送第二请求的第一应用的标识符信息(例如,应用ID)发送到音频框架223。
在操作425中,响应于音频框架223接收到第二请求,电子装置301可以启用应用第二音频效果232(和第三音频效果233)的功能。
根据实施例,响应于音频框架233接收第二请求,电子装置301可以启用应用第二音频效果232(和第三音频效果233)的功能。响应于第二音频效果232(和第三音频效果233)的启用,当再现不同于第一应用的第二应用的第二音频时,电子装置301可以将第二音频效果232(和第三音频效果233)应用于对应于第二音频的解码数据。
图5示出了根据实施例的检测解码是否由音频编解码器执行的方法。
参考图5,电子装置301可以执行应用221(例如,第一应用)。电子装置301可以获取用于再现应用221的音频的用户输入。在操作501中,响应于用户输入的获取,电子装置301可以执行音频播放器。在操作502中,响应于音频播放器的执行,电子装置301可以通过解析器API 201执行解析器520。在操作503中,电子装置301可以通过解析器520从相应的文件中提取编码数据203。该文件可以包括存储在存储器(例如,图1的存储器130)中的媒体文件和/或通过通信模块(例如,图1的通信模块190)接收并临时存储在存储器130中的流文件(或流数据)。该文件可指存储在应用221中的媒体数据或从外部装置(例如,终端或服务器)获取的媒体数据的模块。在操作504中,响应于音频播放器的生成,电子装置301可以通过编解码器API 205执行第一编解码器。第一编解码器可指提供应用第一音频效果231的功能的编解码器。在操作505中,电子装置301可以通过第一编解码器解码编码数据203。电子装置301可以通过第一编解码器解码编码数据203来生成第一解码数据。电子装置301可以将第一音频效果231应用于第一解码数据。电子装置301可以通过将第一音频效果231应用于第一解码数据来生成第一合成数据。在操作506中,电子装置301可以通过音频编解码器222的检测单元获取与第一编解码器执行解码的时间对应的第一时间点的时间信息。电子装置301可以通过音频编解码器222的检测单元将获取的时间信息的第一时间点与当前时间点进行比较。电子装置301可以基于基于音频编解码器222的检测单元的比较结果来确定第一编解码器是否以预定时间间隔执行解码。当第一编解码器执行解码时,电子装置301可以向音频框架223发送用于停用应用第二音频效果232(和第三音频效果233)的功能的第一请求。当第一编解码器不执行解码时,电子装置301可以向音频框架223发送用于启用应用第二音频效果232(和第三音频效果233)的功能的第二请求。电子装置301可以向音频框架223提供关于应用221(例如,第一应用)的标识符信息(例如,应用ID)以及第一请求或第二请求。在操作507中,电子装置301可以生成音轨。音轨可以被理解为解码数据移动的路径。在操作508中,第一合成数据可以通过音轨被发送到音频框架223。在操作509中,音频框架223的PID检查器可以获取标识符信息以及第一请求或第二请求。在操作510中,基于音频框架223获取的第一请求或第二请求,电子装置301可以确定是否需要应用第二音频效果232的功能。在操作511中,响应于音频框架223接收到第一请求,电子装置301不将第二音频效果232应用于合成数据,而是可以将合成数据发送到混合器。响应于音频框架223接收第二请求,电子装置301可以确定有必要将第二音频效果232应用于由音频框架223接收的音频数据。例如,当通过使用不提供应用第一音频效果231的功能的编解码器来再现第二应用的第二音频时,电子装置301可以将启用的第二音频效果232应用于第二音频的解码数据。在操作512中,电子装置301可以通过合成提供给混合器的多条解码数据来生成单个输出数据。在操作513中,电子装置301可以确定是否有必要将第三音频效果233应用于单个输出数据。在操作514中,当确定有必要应用第三音频效果233时,电子装置301可以将第三音频效果233应用到单个输出数据。在操作515中,电子装置301可以输出应用或不应用第三音频效果233的数据通过音频输出装置320应用到单个输出数据。
图6a是示出根据实施例的通过音频框架控制音频效果的应用的方法的流程图。
电子装置301或处理器(例如,图1的处理器120或图3的处理器310)可以以相同的顺序或不同于下述顺序的顺序同时执行或顺序执行下述一系列操作,并且可以省略、修改或添加其一些操作。
在操作601中,电子装置301可以将与第一编解码器执行解码的时间点对应的时间信息发送到音频框架223。例如,电子装置301的音频编解码器(例如,图2的音频编解码器222)或音频编解码器的检测单元(例如,图5的音频编解码器222的检测单元)可以获取对应于通过第一编解码器对第一音频进行解码的时间的第一时间点的时间信息。电子装置301可以将获取的时间信息发送到音频框架223。电子装置301可以控制音频编解码器222或音频编解码器222的检测单元将获取的时间信息发送到音频框架223。
在操作603中,电子装置301可以基于时间信息停用应用第二音频效果232的功能。音频框架223可以基于接收到的时间信息来确定第一编解码器已经执行了解码。响应于音频框架223确定第一编解码器已经基于时间信息执行了解码,电子装置301可以停用应用第二音频效果232的功能。
根据实施例,音频框架223可以将第一时间点与当前时间点进行比较。基于比较结果,音频框架223可以确定第一编解码器是否执行解码。例如,当第一时间点和当前时间点之间的差小于指定值时,音频框架223可以确定第一编解码器执行解码。又例如,当第一时间点和当前时间点之间的差等于或大于指定值时,音频框架223可以确定第一编解码器不执行解码。
在操作605中,响应于音频框架223确定第一编解码器执行解码,电子装置301可以通过音频输出装置320输出第一合成数据,而不应用第二音频效果232。响应于应用第二音频效果232的功能的停用,电子装置301可以通过音频输出装置320输出第一合成数据,而不应用第二音频效果232。第一合成数据可指通过将第一音频效果231应用于由第一编解码器解码的第一解码数据而生成的数据。
图6b是示出根据实施例的通过音频框架控制音频效果的应用的方法的流程图。
在操作607中,电子装置301可以获取用于在输出第一合成数据的同时中断第一音频的再现的第一用户输入。响应于用于中断第一音频的再现的第一用户输入,电子装置301可以中断第一音频的解码。在解码中断之前,音频框架223可以将对应于第一编解码器最后执行解码的时间点的第二时间点与当前时间点进行比较。音频框架223可以基于第二时间点和当前时间点的比较结果来确定第一编解码器是否执行解码。例如,当第二时间点和当前时间点之间的差小于指定值时,音频框架223可以确定第一编解码器执行解码。又例如,当第二时间点和当前时间点之间的差值等于或大于指定值时,音频框架223可以确定第一编解码器不执行解码。
根据实施例,响应于音频框架223确定第一编解码器不执行解码,电子装置301可以启用应用第二音频效果232的功能。
根据实施例,响应于音频框架223确定第一编解码器执行解码,电子装置301可以停用应用第二音频效果232的功能。
图7示出了根据实施例的由音频框架检测是否执行解码的方法。
参考图7,电子装置301可以执行应用221(例如,第一应用)。电子装置301可以获取用于再现应用221的音频的用户输入。在操作701中,响应于用户输入的获取,电子装置301可以执行音频播放器。在操作702中,响应于音频播放器的执行,电子装置301可以通过解析器API 201执行解析器520。在操作703中,电子装置301可以通过解析器520从相应的文件中提取编码数据203。该文件可以包括存储在存储器(例如,图1的存储器130)中的媒体文件和/或通过通信模块(例如,图1的通信模块190)接收并临时存储在存储器130中的流文件(或流数据)。该文件可指存储在应用221中的媒体数据或从外部装置(例如,终端或服务器)获取的媒体数据的模块。在操作704中,响应于音频播放器的生成,电子装置301可以通过编解码器API 205执行第一编解码器。第一编解码器可指提供应用第一音频效果231的功能的编解码器。在操作705中,电子装置301可以通过第一编解码器解码编码数据203。电子装置301可以通过第一编解码器解码编码数据203来生成第一解码数据。电子装置301可以将第一音频效果231应用于第一解码数据。电子装置301可以通过将第一音频效果231应用于第一解码数据来生成第一合成数据。电子装置301可以向音频框架223发送关于第一编解码器执行解码的时间的信息。电子装置301可以向音频框架223(例如,音频框架223的检测单元)提供关于应用221(例如,第一应用)的标识符信息(例如,应用ID)。在操作706中,电子装置301可以生成音轨。音轨可以被理解为解码数据移动的路径。在操作707中,第一合成数据可以通过音轨被发送到音频框架223。在操作708中,在电子装置301中,基于关于第一编解码器执行解码的时间的信息,音频框架223或音频框架223的检测单元可以确定第一编解码器是否执行解码。在操作709中,音频框架223的PID检查器可以获取关于是否执行解码的信息和标识符信息。在操作710中,基于由音频框架223获取的关于时间的信息,音频框架223可以确定是否需要应用第二音频效果232的功能。在操作711中,响应于音频框架223确定第一编解码器执行解码,电子装置301不将第二音频效果232应用于第一合成数据,并且可以将合成数据提供给混合器。响应于音频框架223确定第一编解码器不执行解码,电子装置301可以确定需要应用第二音频效果232的功能。例如,当使用不提供第一音频效果231的功能的编解码器再现第二应用的第二音频时,电子装置301可以将启用的第二音频效果232应用于第二音频数据的解码数据。在操作712中,电子装置301可以通过合成提供给混合器的多条解码数据来生成单个输出数据。在操作713中,电子装置301可以确定是否有必要将第三音频效果233应用于单个输出数据。在操作714中,电子装置301可以将第三音频效果233应用于单个输出数据。在操作715中,电子装置301可以通过音频输出装置320输出第三音频效果233被应用或未被应用到单个输出数据的数据。
图8是示出根据实施例的包括关于是否应用第一音频效果的信息的传输数据805的配置的图。
参照图8,传输数据805可以包括部分801和PCM数据803,在部分801中插入了指示第一音频效果231是否被应用于解码数据(例如,图2的解码数据207)的特定字符。
根据实施例,电子装置301可以将传输数据805从音频编解码器(例如,图2的音频编解码器222)发送到音频框架223,同时再现第一应用的第一音频。
根据实施例,响应于音频框架223接收其中插入了指示是否应用第一音频效果231的特定字符的传输数据805(例如,在部分801中),电子装置301可以停用可以在音频框架223中执行的应用第二音频效果232和第三音频效果233的功能。
根据实施例,响应于音频框架223接收其中插入了指示未应用第一音频效果231的特定字符或指示空格的特定字符的传输数据805(例如,在部分801中),电子装置301可以启用可以在音频框架223中执行的应用第二音频效果232和第三音频效果233的功能。
图9示出了根据实施例的包括关于是否应用第一音频效果的信息的传输数据905的配置。
参考图9,传输数据905可以包括指示第一音频效果231是否被应用于PCM数据901和解码数据(例如,图2的解码数据207)的数据903。传输数据905可以被理解为通过结构化PCM数据901、解码数据和指示是否应用第一音频效果231的数据903而获得的数据。包括在传输数据905中的数据可以不限于PCM数据901和数据903。尽管在图9中未示出,但是传输数据905可以包括PCM数据901、数据903和与解码数据相关的设置信息数据。
根据实施例,在再现第一应用的第一音频时,电子装置301可以从音频编解码器(例如,图2的音频编解码器222)向音频框架223提供传输数据905。
根据实施例,响应于音频框架223接收包括指示应用第一音频效果231的数据903的传输数据905,电子装置301可以停用可以在音频框架223中执行的应用第二音频效果232和第三音频效果233的功能。
根据实施例,响应于音频框架223接收到包括指示未应用第一音频效果231的数据903或指示空格的数据903的传输数据,电子装置301可以启用可以在音频框架233中执行的应用第二音频效果232和第三音频效果233的功能。
根据实施例,电子装置301可以包括音频输出装置320和被配置为可操作地连接到音频输出装置320的处理器301。处理器310可以执行第一应用,可以获取用于再现与第一应用相关的第一音频的第一用户输入,可以响应于第一用户输入的获取来确定对应于第一音频的编解码器是第一编解码器还是第二编解码器,当对应于第一音频的编解码器是第一编解码器时,可以通过第一编解码器解码第一音频来生成第一解码数据,可以通过第一编解码器将第一音频效果231应用于第一解码数据来生成第一合成数据,可以将第一合成数据发送到音频框架223,可以响应于使用第一编解码器的解码来向音频框架223发送用于停用应用第二音频效果232的功能的第一请求,可以基于第一请求停用音频框架232中应用第二音频效果232的功能,并且可以响应于停用应用第二音频效果232的功能,通过音频输出装置320输出第一合成数据,而不将第二音频效果232应用于第一合成数据。
根据实施例,处理器310可以获取用于在通过音频输出装置320输出第一合成数据的同时中断第一音频的再现的第二用户输入,可以响应于第二用户输入的获取而中断通过第一编解码器对第一音频的解码,可以响应于使用第一编解码器的解码的中断,向音频框架223发送用于启用应用第二音频效果232的功能的第二请求,并且可以响应于第二请求,启用在音频框架223中应用第二音频效果232的功能。
根据实施例,当对应于第一音频的编解码器是第二编解码器时,处理器310可以通过第二编解码器解码第一音频来生成第二解码数据,可以将第二解码数据发送到音频框架223,可以通过音频框架223将第二音频效果232应用于第二解码数据来生成第二合成数据,并且可以通过音频输出装置320输出第二合成数据。
根据实施例,第一编解码器可以包括支持应用第一音频效果231的功能的编解码器,第二编解码器可以包括不支持应用第一音频效果231的功能的编解码器。
根据实施例,处理器310可以响应于使用第一编解码器的解码,识别对应于通过第一编解码器对第一音频进行解码的时间点的第一时间点,可以在指定的间隔将识别的第一时间点与当前时间点进行比较,当第一时间点和当前时间点之间的差小于指定值时,可以确定通过第一编解码器解码第一音频,并且当第一时间点和当前时间点之间的差等于或大于指定值时,可以确定没有通过第一编解码器解码第一音频。
根据实施例,处理器310可以将第一应用的标识符信息与用于停用应用第二音频效果232的功能的第一请求或用于启用应用第二音频效果232的功能的第二请求一起发送到音频框架223。
根据实施例,响应于通过第一编解码器将第一音频效果231应用于第一解码数据,处理器310可以将传输数据805发送到音频框架223,在传输数据805中,第一合成数据和指示第一音频效果231的应用的数据801被合成。
根据实施例,响应于通过第一编解码器将第一音频效果231应用于第一解码数据,处理器310可以将包括第一合成数据和指示第一音频效果231的应用的数据903的传输数据905发送到音频框架223。
根据实施例,电子装置301可以包括音频输出装置320和被配置为可操作地连接到音频输出装置320的处理器310。处理器310可以执行第一应用,可以获取用于再现与第一应用相关的第一音频的第一用户输入,可以响应于第一用户输入的获取来确定对应于第一音频的编解码器是第一编解码器还是第二编解码器,当对应于第一音频的编解码器是第一编解码器时,可以通过第一编解码器解码第一音频来生成第一解码数据,可以通过第一编解码器将第一音频效果231应用于第一解码数据来生成第一合成数据,可以将第一合成数据发送到音频框架223,可以响应于使用第一编解码器的解码,获取与通过第一编解码器解码第一音频的时间点对应的第一时间点的时间信息,可以将获取的时间信息发送到音频框架223,可以控制音频框架223基于第一时间点和当前时间点之间的比较来停用音频框架223中应用第二音频效果232的功能,并且可以响应于停用应用第二音频效果332而通过音频输出装置320输出第一合成数据,而不将第二音频效果232应用于第一合成数据。
根据实施例,处理器310可以获取用于在通过音频输出装置320输出第一合成数据的同时中断第一音频的再现的第二用户输入,可以响应于第二用户输入的获取而中断通过第一编解码器对第一音频的解码,并且可以控制音频框架223基于对应于最后执行解码的时间点的第二时间点和解码中断之前的当前时间点之间的比较来启用将在音频框架223中执行的应用第二音频效果232的功能。
根据实施例,音频输出装置320可以包括扬声器或耳机中的至少一个。
根据实施例,第一编解码器可以包括支持应用第一音频效果231的功能的编解码器,第二编解码器可以包括不支持应用第一音频效果231的功能的编解码器。
根据实施例,处理器310可以控制音频框架223将第一时间点与当前时间点进行比较,可以控制音频框架223在第一时间点与当前时间点之差小于指定值时确定第一音频是通过第一编解码器解码的,并且当第一时间点和当前时间点之间的差等于或大于指定值时,可以控制音频框架223确定第一音频没有通过第一编解码器解码。
根据实施例,处理器310可以将第一应用的标识符信息与时间信息一起发送给音频框架223。
根据实施例,响应于通过第一编解码器将第一音频效果231应用于第一解码数据,处理器310可以将传输数据805发送到音频框架223,在传输数据805中,第一合成数据和指示第一音频效果231的应用的数据801被合成。
根据实施例,响应于通过第一编解码器将第一音频效果231应用于第一解码数据,处理器310可以向音频框架223发送包括第一合成数据和指示第一音频效果231的应用的数据903的传输数据905。
根据实施例,一种操作电子装置301的方法可以包括执行第一应用,获取用于再现与第一应用相关的第一音频的第一用户输入,响应于第一用户输入的获取,确定对应于第一音频的编解码器是第一编解码器还是第二编解码器,当对应于第一音频的编解码器是第一编解码器时,通过第一编解码器解码第一音频来生成第一解码数据,通过第一编解码器将第一音频效果231应用于第一解码数据来生成第一合成数据,将第一合成数据发送到音频框架,响应于使用第一编解码器的解码,向音频框架223发送用于停用应用第二音频效果232的功能的第一请求,基于第一请求停用在音频框架223中应用第二音频效果232的功能,以及响应于停用应用第二音频效果232的功能,通过音频输出装置320输出第一合成数据,而不将第二音频效果232应用到第一合成数据。
根据实施例,一种操作电子装置301的方法可以包括获取用于在通过音频输出装置320输出第一合成数据时中断第一音频的再现的第二用户输入,响应于第二用户输入的获取而中断通过第一编解码器对第一音频的解码,响应于使用第一编解码器的解码的中断,向音频框架223发送用于启用应用第二音频效果232的功能的第二请求,并且响应于第二请求,启用将在音频框架223中执行的应用第二音频效果232的功能。
根据实施例,一种操作电子装置301的方法可以包括执行第一应用,获取用于再现与第一应用相关的第一音频的第一用户输入,响应于第一用户输入的获取,确定对应于第一音频的编解码器是第一编解码器还是第二编解码器,当对应于第一音频的编解码器是第一编解码器时,通过第一编解码器解码第一音频来生成第一解码数据,通过第一编解码器将第一音频效果231应用于第一解码数据来生成第一合成数据,将第一合成数据发送到音频框架223,响应于使用第一编解码器的解码,获取与通过第一编解码器解码第一音频的时间点对应的第一时间点的时间信息,将获取的时间信息发送到音频框架223,基于第一时间点和当前时间点之间的比较,控制音频框架223停用在音频框架223中应用第二音频效果232的功能,以及响应于停用应用第二音频效果232,通过音频输出装置320输出第一合成数据,而不将第二音频效果232应用于第一合成数据。
根据实施例,操作电子装置301的方法可以包括获取用于在通过音频输出装置320输出第一合成数据时中断第一音频的再现的第二用户输入,响应于第二用户输入的获取而中断通过第一编解码器对第一音频的解码,以及基于对应于最后执行解码的时间点的第二时间点和解码中断之前的当前时间点之间的比较,控制音频框架223启用将在音频框架223中执行的应用第二音频效果232的功能。
根据实施例,可以提供一种存储在与电子装置301相关联的记录介质中以执行以下操作的计算机程序,其中该操作可以包括执行第一应用,获取用于再现与第一应用相关的第一音频的第一用户输入,响应于第一用户输入的获取,确定对应于第一音频的编解码器是第一编解码器还是第二编解码器,当对应于第一音频的编解码器是第一编解码器时,通过第一编解码器解码第一音频来生成第一解码数据,通过第一编解码器将第一音频效果231应用于第一解码数据来生成第一合成数据,将第一合成数据发送到音频框架,响应于使用第一编解码器的解码,向音频框架223发送用于停用应用第二音频效果232的功能的第一请求,基于第一请求停用在音频框架223中应用第二音频效果232的功能,以及响应于停用应用第二音频效果232的功能,通过音频输出装置320输出第一合成数据,而不将第二音频效果232应用到第一合成数据。
根据实施例,可以提供一种存储在与电子装置301相关联的记录介质中以执行以下操作的计算机程序,其中该操作可以包括获取用于在通过音频输出装置320输出第一合成数据的同时中断第一音频的再现的第二用户输入,响应于第二用户输入的获取而中断通过第一编解码器对第一音频的解码,响应于使用第一编解码器的解码的中断,向音频框架223发送用于启用应用第二音频效果232的功能的第二请求,并且响应于第二请求,启用将在音频框架223中执行的应用第二音频效果232的功能。
根据实施例,可以提供一种存储在与电子装置301相关联的记录介质中以执行以下操作的计算机程序,其中该操作可以包括执行第一应用,获取用于再现与第一应用相关的第一音频的第一用户输入,响应于第一用户输入的获取,确定对应于第一音频的编解码器是第一编解码器还是第二编解码器,当对应于第一音频的编解码器是第一编解码器时,通过第一编解码器解码第一音频来生成第一解码数据,通过第一编解码器将第一音频效果231应用于第一解码数据来生成第一合成数据,将第一合成数据发送到音频框架223,响应于使用第一编解码器的解码,获取与通过第一编解码器解码第一音频的时间点对应的第一时间点的时间信息,将获取的时间信息发送到音频框架223,基于第一时间点和当前时间点之间的比较,控制音频框架223停用在音频框架223中应用第二音频效果232的功能,以及响应于停用应用第二音频效果332,通过音频输出装置320输出第一合成数据,而不将第二音频效果232应用于第一合成数据。
根据实施例,可以提供一种存储在与电子装置301相关联的记录介质中以执行以下操作的计算机程序,其中该操作可以包括获取用于在通过音频输出装置320输出第一合成数据的同时中断第一音频的再现的第二用户输入,响应于第二用户输入的获取而中断通过第一编解码器对第一音频的解码,以及基于对应于最后执行解码的时间点的第二时间点和解码中断之前的当前时间点之间的比较,控制音频框架223启用将在音频框架223中执行的应用第二音频效果232的功能。
可从本公开获得的有利效果不限于上述效果,通过以下描述,本公开所属领域的技术人员可以清楚地理解未提及的其他效果。
根据本公开的权利要求或说明书中描述的实施例的方法可以通过硬件、软件或硬件和软件的组合来实现。
当这些方法由软件实现时,可以提供用于存储一个或多个程序(软件模块)的计算机可读存储介质。存储在计算机可读存储介质中的一个或多个程序可以被配置为由电子装置内的一个或多个处理器执行。该至少一个程序可以包括使电子装置执行根据由所附权利要求定义和/或在此描述的本公开的各种实施例的方法的指令。
程序(软件模块或软件)可以存储在非易失性存储器中,包括随机存取存储器和闪存、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、磁盘存储装置、光盘-ROM(CD-ROM)、数字多功能盘(DVD)或其他类型的光存储装置,或者盒式磁带。可选地,它们中的一些或全部的任意组合可以形成存储程序的存储器。此外,电子装置中可以包括多个这样的存储器。
此外,程序可以存储在可附接的存储装置中,该存储装置可以通过诸如互联网、内联网、局域网(LAN)、广域网(WLAN)和存储区域网(SAN)或其组合的通信网络来访问电子装置。这种存储装置可以通过外部端口访问电子装置。此外,通信网络上的独立存储装置可以访问便携式电子装置。
在本公开的上述示例实施例中,根据示例实施例,本公开中包括的元素以单数或复数表示。然而,为了描述的方便,单数形式或复数形式被适当地选择为所呈现的情形,并且本公开不限于以单数或复数表达的元素。因此,以复数表示的元素也可以包括单个元素,或者以单数表示的元素也可以包括多个元素。
尽管在本公开的详细描述中已经描述了示例实施例,但是在不脱离本公开的范围的情况下,可以对其进行各种修改和改变。因此,本公开的范围不应被定义为限于实施例,而是应由所附权利要求及其等同物来定义。
Claims (15)
1.一种电子装置,包括:
音频输出装置;以及
处理器,被配置为可操作地连接到音频输出装置,其中处理器还被配置为:
执行第一应用;
获取用于再现与第一应用相关的第一音频的第一用户输入;
基于第一用户输入,通过使用第一编解码器解码第一音频来生成第一解码数据;
通过经由第一编解码器将第一音频效果应用于第一解码数据来生成第一合成数据;
将第一合成数据发送到音频框架;
基于使用第一编解码器解码的第一音频,向音频框架发送用于停用应用第二音频效果的功能的第一请求;
基于第一请求停用在音频框架中应用第二音频效果的功能;以及
基于应用第二音频效果的功能被停用,经由音频输出装置输出第一合成数据,而不将第二音频效果应用于第一合成数据。
2.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
获取用于在经由音频输出装置输出第一合成数据的同时中断第一音频的再现的第二用户输入;
基于第二用户输入,中断经由第一编解码器对第一音频的解码;
基于解码的中断,向音频框架发送用于启用应用第二音频效果的功能的第二请求;以及
基于第二请求,启用在音频框架中应用第二音频效果的功能。
3.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
通过使用不同于第一编解码器的第二编解码器解码第一音频来生成第二解码数据,
将第二解码数据发送到音频框架,
通过在音频框架中将第二音频效果应用于第二解码数据来生成第二合成数据,以及
通过音频输出装置输出第二合成数据,
其中,第一编解码器支持应用第一音频效果的功能,并且第二编解码器不支持应用第一音频效果的功能。
4.根据权利要求1所述的电子装置,其中,所述处理器还被配置为在发送第一请求时,将第一应用的标识符信息与第一请求一起发送到音频框架。
5.根据权利要求1所述的电子装置,其中,所述处理器还被配置为基于应用于第一解码数据的第一音频效果,向音频框架发送传输数据,在所述传输数据中,第一合成数据和指示第一音频效果的应用的数据被合成。
6.一种电子装置,包括:
音频输出装置;以及
处理器,被配置为可操作地连接到音频输出装置,其中所述处理器还被配置为:
执行第一应用;
获取用于再现与第一应用相关的第一音频的第一用户输入;
基于第一用户输入,通过经由第一编解码器解码第一音频来生成第一解码数据;
通过经由第一编解码器将第一音频效果应用于第一解码数据来生成第一合成数据;
将第一合成数据发送到音频框架;
获取关于经由第一编解码器对第一音频进行解码的第一时间点的时间信息;
将获取的时间信息发送到音频框架;
基于第一时间点和当前时间点之间的比较,控制音频框架来停用在音频框架中应用第二音频效果的功能;以及
基于应用第二音频效果的功能被停用,经由音频输出装置输出第一合成数据,而不将第二音频效果应用于第一合成数据。
7.根据权利要求6所述的电子装置,其中,所述处理器还被配置为:
获取用于在经由音频输出装置输出第一合成数据的同时中断第一音频的再现的第二用户输入;
基于第二用户输入,中断经由第一编解码器对第一音频的解码;以及
基于最后执行解码的第二时间点和解码中断之前的当前时间点之间的比较,控制音频框架来启用应用第二音频效果的功能。
8.根据权利要求6所述的电子装置,其中第一编解码器包括支持应用第一音频效果的功能的编解码器。
9.根据权利要求6所述的电子装置,其中,所述处理器还被配置为:
控制音频框架将第一时间点与当前时间点进行比较,
基于第一时间点和当前时间点之间的差小于预定值,控制音频框架来确定第一音频经由第一编解码器被解码;以及
基于第一时间点与当前时间点之间的差等于或大于预定值,控制音频框架来确定第一音频未经由第一编解码器被解码。
10.根据权利要求6所述的电子装置,其中,所述处理器还被配置为将第一应用的标识符信息与所述时间信息一起发送到音频框架。
11.根据权利要求6所述的电子装置,其中,所述处理器还被配置为基于应用于第一解码数据的第一音频效果,向音频框架发送传输数据,在所述传输数据中,第一合成数据和指示第一音频效果的应用的数据被合成。
12.一种操作电子装置的方法,所述方法包括:
执行第一应用;
获取用于再现与第一应用相关的第一音频的第一用户输入;
基于第一用户输入,通过经由第一编解码器解码第一音频来生成第一解码数据;
通过经由第一编解码器将第一音频效果应用于第一解码数据来生成第一合成数据;
将第一合成数据发送到音频框架;
向音频框架发送用于停用应用第二音频效果的功能的第一请求;
基于第一请求,停用在音频框架中应用第二音频效果的功能;以及
基于应用第二音频效果的功能被停用,经由音频输出装置输出第一合成数据,而不将第二音频效果应用于第一合成数据。
13.根据权利要求12所述的方法,还包括:
获取用于在经由音频输出装置输出第一合成数据的同时中断第一音频的再现的第二用户输入;
基于第二用户输入,中断经由第一编解码器对第一音频的解码;
基于解码的中断,向音频框架发送用于启用应用第二音频效果的功能的第二请求;以及
基于第二请求,启用在音频框架中应用第二音频效果的功能。
14.一种操作电子装置的方法,所述方法包括:
执行第一应用;
获取用于再现与第一应用相关的第一音频的第一用户输入;
基于第一用户输入,通过经由第一编解码器解码第一音频来生成第一解码数据;
通过经由第一编解码器将第一音频效果应用于第一解码数据来生成第一合成数据;
将第一合成数据发送到音频框架;
获取关于经由第一编解码器解码第一音频的第一时间点的时间信息;
基于第一时间点和当前时间点之间的比较,将获取的时间信息发送到音频框架,并控制音频框架来停用应用第二音频效果的功能;以及
基于应用第二音频效果的功能被停用,经由音频输出装置输出第一合成数据,而不将第二音频效果应用于第一合成数据。
15.根据权利要求14所述的方法,还包括:
获取用于在经由音频输出装置输出第一合成数据的同时中断第一音频的再现的第二用户输入;
基于第二用户输入,中断经由第一编解码器对第一音频的解码;以及
基于最后执行解码的第二时间点和解码中断之前的当前时间点之间的比较,控制音频框架来启用应用第二音频效果的功能。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2021-0085750 | 2021-06-30 | ||
KR1020210085750A KR20230004007A (ko) | 2021-06-30 | 2021-06-30 | 오디오 데이터에 오디오 효과의 중복 적용을 방지하는 방법 및 이를 지원하는 전자 장치 |
PCT/KR2022/009312 WO2023277572A1 (ko) | 2021-06-30 | 2022-06-29 | 오디오 데이터에 오디오 효과의 중복 적용을 방지하는 방법 및 이를 지원하는 전자 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117581298A true CN117581298A (zh) | 2024-02-20 |
Family
ID=84690429
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280046216.4A Pending CN117581298A (zh) | 2021-06-30 | 2022-06-29 | 防止对音频数据重复应用音频效果的方法和支持该方法的电子器件 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230132125A1 (zh) |
EP (1) | EP4290511A1 (zh) |
KR (1) | KR20230004007A (zh) |
CN (1) | CN117581298A (zh) |
WO (1) | WO2023277572A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114270436A (zh) * | 2019-07-19 | 2022-04-01 | 英迪股份有限公司 | 无线通信系统中的自适应音频处理方法、设备、计算机程序及其记录介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008216472A (ja) * | 2007-03-01 | 2008-09-18 | Matsushita Electric Ind Co Ltd | 音声復号化装置及び音声復号化システム |
KR101333685B1 (ko) * | 2011-12-28 | 2013-12-03 | (주) 반도전기통신 | 엠투엠 모뎀의 음성 데이터 복호화 타이밍을 위한 제어 방법 및 장치 |
KR102356702B1 (ko) * | 2015-11-24 | 2022-01-27 | 삼성전자주식회사 | 호스트 cpu 지원형 오디오 프로세싱 방법 및 이를 수행하는 컴퓨팅 시스템 |
US10062367B1 (en) * | 2017-07-14 | 2018-08-28 | Music Tribe Global Brands Ltd. | Vocal effects control system |
KR20190008663A (ko) * | 2017-07-17 | 2019-01-25 | 삼성전자주식회사 | 음성 데이터 처리 방법 및 이를 지원하는 시스템 |
-
2021
- 2021-06-30 KR KR1020210085750A patent/KR20230004007A/ko active Search and Examination
-
2022
- 2022-06-29 EP EP22833627.7A patent/EP4290511A1/en active Pending
- 2022-06-29 CN CN202280046216.4A patent/CN117581298A/zh active Pending
- 2022-06-29 WO PCT/KR2022/009312 patent/WO2023277572A1/ko active Application Filing
- 2022-12-23 US US18/088,211 patent/US20230132125A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2023277572A1 (ko) | 2023-01-05 |
US20230132125A1 (en) | 2023-04-27 |
KR20230004007A (ko) | 2023-01-06 |
EP4290511A1 (en) | 2023-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116250243A (zh) | 用于控制无线音频输出装置的连接的方法和设备 | |
US20230132125A1 (en) | Method for preventing duplicate application of audio effects to audio data and electronic device supporting the same | |
US11706261B2 (en) | Electronic device and method for transmitting and receiving content | |
US20230156394A1 (en) | Electronic device for sensing touch input and method therefor | |
EP4199535A1 (en) | Method for finding audio output device by using power supply device and power supply device thereof | |
US11849289B2 (en) | Electronic device for outputting sound and method for operating the same | |
KR20220125026A (ko) | 오디오 처리 방법 및 이를 포함하는 전자 장치 | |
KR20220136778A (ko) | 오디오 공유를 지원하기 위한 전자 장치 | |
US11843818B2 (en) | Electronic device and multimedia playback method thereof | |
KR20210133004A (ko) | 음질 향상 방법 및 그 장치 | |
EP4184508A1 (en) | Electronic device and method thereof for outputting audio data | |
US20240036182A1 (en) | Electronic device and method, in electronic device, for determining whether object is near | |
US20240037722A1 (en) | Electronic device for encoding video, and control method therefor | |
EP4220635A1 (en) | Audio data processing method and device thereof | |
US20240127835A1 (en) | Electronic device, method, and non-transitory computer readable storage device adaptively processing audio bitstream | |
KR20240053031A (ko) | 패킷 손실 은닉을 위한 전자 장치 및 방법 | |
US20230140204A1 (en) | Method and device for recording sound of electronic device using earphones | |
US20230199103A1 (en) | Method of controlling content playing device and electronic device performing the method | |
US20240127784A1 (en) | Electronic device and method for detecting error of a signal | |
KR20230120057A (ko) | 음질 향상 및 소모 전류 감소 방법 및 그 장치 | |
KR20220101427A (ko) | 오디오 데이터 처리 방법 및 이를 지원하는 전자 장치 | |
KR20240050955A (ko) | 오디오 비트스트림을 적응적으로 처리하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 | |
KR20230099580A (ko) | 영상 통화 중 영역 별로 노이즈를 처리하는 전자 장치 및 이의 동작 방법 | |
KR20230030733A (ko) | 복수의 오디오 장치를 포함하는 전자 장치 및 복수의 오디오 장치를 포함하는 전자 장치의 제어 방법 | |
KR20230066841A (ko) | 전자 장치 및 전자 장치에서 오디오 트랙의 메타 데이터를 이용한 오디오 모드 적용 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |