CN104240738B - 一种音效设置方法及电子装置 - Google Patents
一种音效设置方法及电子装置 Download PDFInfo
- Publication number
- CN104240738B CN104240738B CN201410432271.4A CN201410432271A CN104240738B CN 104240738 B CN104240738 B CN 104240738B CN 201410432271 A CN201410432271 A CN 201410432271A CN 104240738 B CN104240738 B CN 104240738B
- Authority
- CN
- China
- Prior art keywords
- audio
- sound effect
- effect parameters
- external equipment
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000000694 effects Effects 0.000 claims abstract description 383
- 238000012545 processing Methods 0.000 claims abstract description 92
- 238000004891 communication Methods 0.000 claims description 23
- 239000000284 extract Substances 0.000 claims description 6
- 238000003780 insertion Methods 0.000 description 8
- 230000037431 insertion Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 239000011435 rock Substances 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000000153 supplemental effect Effects 0.000 description 4
- 241000208340 Araliaceae Species 0.000 description 3
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 3
- 235000003140 Panax quinquefolius Nutrition 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 235000008434 ginseng Nutrition 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G5/00—Tone control or bandwidth control in amplifiers
- H03G5/16—Automatic control
- H03G5/165—Equalizers; Volume or gain control in limited frequency bands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0091—Means for obtaining special acoustic effects
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G5/00—Tone control or bandwidth control in amplifiers
- H03G5/02—Manually-operated control
- H03G5/025—Equalizers; Volume or gain control in limited frequency bands
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/201—Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
- G10H2240/241—Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
- G10H2240/251—Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Stereophonic System (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
本发明公开可一种音效设置方法及电子装置。音效设置方法包括:解码音频数据流、根据音效参数对解码后的音频数据流进行音效处理以得到音效处理后的音频数据、编码音频数据以得到编码数据以及输出编码数据和音效参数。通过上述方式,本发明实现了当前设备播放的音频转移到外部设备进行播放时的音效协同,避免出现没有音效协同而使播放效果变差的问题。
Description
技术领域
本发明涉及音频技术领域,特别是涉及一种音效设置方法及电子装置。
背景技术
为了提升多媒体音频体验,多媒体设备一般配置有多种音效设置,例如均衡(EQ)、混响效果(Reverb)、声道扩展(Upmix)等等。这些音效设置提供了比较多的设置选项,以达到客户的不同需求。
在实际使用的过程中,当用户从一种多媒体设备欣赏音乐切换到另一种多媒体设备时,用户的体验度可能会降低。例如用户在手机上使用“摇滚”的均衡模式欣赏音乐,当进入车厢后,手机上播放的音乐转移到车载多媒体设备进行播放,假设车载多媒体设备使用“爵士”的均衡模式,则手机切换到车载多媒体设备后,由于两个设备之间没有音效协同,在两种音效设置同时作用下必然使得播放效果变差,进而降低用户的体验度。特别是,对于特定的音乐,其需要在不同时间点调节不同的音效设置以达到更好的效果,而当用户从一种设备切换到另一种设备时,如果没有在两个设备之间进行音效协同,则无法保证音效处理的效果,进而大大减低用户的体验度。
发明内容
有鉴于此,本发明提供以下技术方案。
根据本发明一实施例,本发明提供一种音效设置方法,该方法包括:
解码音频数据流;
根据音效参数对解码后的所述音频数据流进行音效处理以得到音效处理后的音频数据;
编码所述音频数据以得到编码数据;以及
输出所述编码数据和所述音效参数。
根据本发明另一实施例,本发明提供一种音效设置方法,该方法包括:
接收输入数据,其中输入数据包含音频数据和音效参数;
解码所述音频数据;以及
根据所述音效参数设置解码后的所述音频数据的音效。
根据本发明再一实施例,本发明提供一种电子装置,该装置包括:
解码模块,用于解码音频数据流;
音效处理模块,用于根据音效参数对解码模块解码后的音频数据流进行音效处理以得到音效处理后的音频数据;
编码模块,用于编码音效处理模块音效处理后的音频数据以得到编码数据;以及
通信模块,用于输出编码模块编码后的编码数据和音效参数。
本发明的有益效果是:区别于现有技术的情况,本发明的音效设置的方法及电子装置通过解码音频数据流、根据音效参数对解码后的音频数据流进行音效处理以得到音效处理后的音频数据、编码音频数据以得到编码数据以及输出编码数据和音效参数,实现了当前设备播放的音频转移到外部设备进行播放时的音效协同,避免出现没有音效协同而使播放效果变差的问题。
附图说明
图1是本发明第一实施例的电子装置的结构示意图;
图2是本发明第二实施例的电子装置的结构示意图;
图3是本发明第三实施例的电子装置的结构示意图;
图4是本发明第一实施例的音效设置方法的流程图;
图5是本发明第二实施例的音效设置方法的流程图;
图6是本发明第三实施例的音效设置方法的流程图;
图7是本发明第四实施例的音效设置方法的流程图;
图8是本发明第五实施例的音效设置方法的流程图;
图9是本发明第六实施例的音效设置方法的流程图。
具体实施方式
在说明书及权利要求书当中使用了某些词汇来指称特定的组件。所属领域中的技术人员应可理解,制造商可能会用不同的名词来称呼同样的组件。本说明书及权利要求书并不以名称的差异来作为区分组件的方式,而是以组件在功能上的差异来作为区分的基准。在通篇说明书及权利要求书当中所提及的「耦接」一词在此包含任何直接及/或间接的电气耦接手段。因此,若文中描述第一装置耦接于第二装置,则代表第一装置可直接电气耦接于第二装置,或透过其它装置或耦接手段间接地电气耦接至第二装置。下面结合附图和实施例对本发明进行详细说明。
图1是本发明第一实施例的电子装置的结构示意图。如图1所示,该装置包括:解码模块10、音效处理模块11、编码模块12和通信模块13。
解码模块10,用于解码音频数据流。
音效处理模块11与解码模块10耦接,用于根据音效参数对解码模块10解码后的音频数据流进行音效处理以得到音效处理后的音频数据。
编码模块12与音效处理模块11耦接,用于编码音效处理模块11音效处理后的音频数据以得到编码数据。
通信模块13与编码模块12耦接,用于输出编码模块12编码后的编码数据和音效参数。
图2是本发明第二实施例的电子装置的结构示意图。如图2所示,该装置包括:解码模块20、音效处理模块21、编码模块22、通信模块23、音效协同控制模块24和音效参数编码模块25。
通信模块23首先建立与外部设备(图中并未画出)的连接;接着发送音效查询请求至外部设备,其中,音效查询请求用于查询外部设备当前的预设音效参数;随后接收音效查询请求的应答信息。
音效协同控制模块24与通信模块23耦接,用于根据通信模块23接收的应答信息以确定当前设备(也即本发明第二实施例的电子装置)和外部设备之间需协同的音效,并生成音效参数。具体来说,音效协同控制模块24根据音效参数设置规则确定音效参数,其中音效参数包含外部设备需协同的音效所需的目标音效参数,以及当前设备需协同的音效所需的源音效参数。具体来说,音效参数设置规则包含:绕过当前设备的音效设置,并且目标音效参数为外部设备的预设音效参数;或绕过外部设备的音效设置,并且源音效参数为外部设备的预设音效参数;或当前设备和外部设备共同进行音效处理,其中当前设备根据源音效参数和外部设备根据目标音效参数进行音效处理后达到的效果与当前设备根据当前设备的预设音效参数或者外部设备根据外部设备的预设音效参数进行音效处理后达到的效果相同。
解码模块20,用于解码音频数据流。
音效处理模块21分别与解码模块20和音效协同控制模块24耦接,用于根据音效协同控制模块24生成的音效参数对解码模块20解码后的音频数据流进行音效处理以得到音效处理后的音频数据。具体来说,音效处理模块21根据音效协同控制模块24生成的源音效参数对解码模块20解码后的音频数据流进行音效处理以得到音效处理后的音频数据。
编码模块22与音效处理模块21耦接,用于编码音效处理模块21音效处理后的音频数据以得到编码数据。具体来说,编码模块22对源音效参数进行音效处理后的音频数据进行编码操作以得到外部设备所支持的音频格式的编码数据。
音效参数编码模块25与音效协同控制模块24耦接,用于编码音效参数。
通信模块23与编码模块22和音效参数编码模块25耦接,用于将编码模块22编码后的编码数据和音效参数编码模块25编码后的音效参数发送至外部设备。具体来说,通信模块23将利用源音效参数进行音效处理以及编码处理后的编码数据和音效参数编码模块25编码后的目标音效参数分别发送至外部设备。
图3是本发明第三实施例的电子装置的结构示意图。如图3所示,该装置包括:解码模块30、音效处理模块31、编码模块32、通信模块33、音效协同控制模块34和音效参数编码模块35。
通信模块33首先建立与外部设备的连接;接着发送音效查询请求至外部设备,其中,音效查询请求用于查询外部设备当前的预设音效参数;随后接收音效查询请求的应答信息。
音效协同控制模块34与通信模块33耦接,用于根据通信模块33接收的应答信息以确定当前设备(也即本发明第三实施例的电子装置)和外部设备之间需协同的音效,并生成音效参数。具体来说,音效协同控制模块34根据音效参数设置规则确定音效参数,其中音效参数包含外部设备需协同的音效所需的目标音效参数,以及当前设备需协同的音效所需的源音效参数。具体来说,音效参数设置规则包含:绕过当前设备的音效设置,并且目标音效参数为外部设备的预设音效参数;或绕过外部设备的音效设置,并且源音效参数为外部设备的预设音效参数;或当前设备和外部设备共同进行音效处理,其中当前设备根据源音效参数和外部设备根据目标音效参数进行音效处理后达到的效果与当前设备根据当前设备的预设音效参数或者外部设备根据外部设备的预设音效参数进行音效处理后达到的效果相同。
解码模块30,用于解码音频数据流。
音效处理模块31分别与解码模块30和音效协同控制模块34耦接,用于根据音效协同控制模块34生成的音效参数对解码模块30解码后的音频数据流进行音效处理以得到音效处理后的音频数据。具体来说,音效处理模块31根据音效协同控制模块34生成的源音效参数对解码模块30解码后的音频数据流进行音效处理以得到音效处理后的音频数据。
编码模块32与音效处理模块31耦接,用于编码音效处理模块31音效处理后的音频数据以得到编码数据。具体来说,编码模块32对源音效参数进行音效处理后的音频数据进行编码操作以得到外部设备所支持的音频格式的编码数据。
音效参数编码模块35与音效协同控制模块34耦接,用于编码音效参数。具体来说,音效参数编码模块35用于编码目标音效参数。
编码模块32进一步与音效参数编码模块35耦接,用于将音效参数编码模块35编码后的音效参数插入编码数据。具体来说,编码模块32将编码后的音效参数插入编码数据的音频数据帧之间;或将编码后的音效参数插入编码数据的音频数据帧中可供用户自定义的字段内;或将编码后的音效参数插入不同曲目的编码数据之间。
通信模块33与编码模块32耦接,用于将插入音效参数的编码数据发送至外部设备。
图4是本发明第一实施例的音效设置方法的流程图。需注意的是,若有实质上相同的结果,本发明的方法并不以图4所示的流程顺序为限。如图4所示,本实施例的音效设置的方法是以当前设备为例进行描述的,该方法包括如下步骤:
步骤S101:解码音频数据流;
步骤S102:根据音效参数对解码后的音频数据流进行音效处理以得到音效处理后的音频数据;
步骤S103:编码音频数据以得到编码数据;
步骤S104:输出编码数据和音效参数。
在步骤S101中,音频数据流可以为不同格式的音频文件,例如AAC音频文件、MP3音频文件、FLAC音频文件等等。解码音频数据流是指对不同的格式的音频文件进行解码操作以获取可供播放的音频信号。
在步骤S102中,音效参数为当前设备和外部设备之间需协同的音效。根据音效参数对解码后的音频数据流进行音效处理,避免当前设备播放的音频转移到外部设备进行播放时,出现没有音效协同而使播放效果变差的问题。
举例来说,以当前设备为手机、目标设备为车载播放器、音效设置为均衡器为例来说,假设手机上均衡器的模式为“摇滚”,而车载播放器中均衡器的模式为“流行”,则两种音效共同作用得到的音效结果必然混乱,而使得效果变差。采用步骤S102,将当前设备和外部设备之间需协同的音效对音频数据进行处理后再进行播放,则可实现当前设备和外部设备之间的音效协同而得到用户需要的播放效果。
在步骤S103中,对音频数据进行编码操作以得到外部设备所支持的音频格式的编码数据。本领域技术人员可以理解,步骤S101中的音频数据流和步骤S103中的编码数据可以为不同格式的音频文件。例如,步骤S101中的音频数据流的格式为MP3,其为当前设备可播放的音频格式。步骤S103中的编码数据的格式为AAC,其为目标设备可播放的音频格式。当然,本领域的技术人员可以理解,步骤S101中的音频数据流和步骤S103中的编码数据也可以为相同格式的音频文件。例如,步骤S101中的音频数据流的格式和步骤S103中的编码数据的格式均为MP3,其为当前设备和目标设备均可播放的音频格式。
在步骤S104中,将编码数据和音效参数合并为一个数据流后输出给外部设备或者将编码数据和音效参数作为两个独立的数据流分别输出给外部设备。
通过上述方式,本发明第一实施例的音效设置方法通过解码音频数据流、根据音效参数对解码后的音频数据流进行音效处理以得到音效处理后的音频数据、编码音频数据以得到编码数据以及输出编码数据和音效参数,实现了当前设备播放的音频转移到外部设备进行播放时的音效协同,避免出现没有音效协同而使播放效果变差的问题。请注意的是,在本说明书中提到的当前设备和外部设备之间是可以互换的,亦即,二者可以互为对方的外部设备,或者为当前设备。
图5是本发明第二实施例的音效设置方法的流程图。需注意的是,若有实质上相同的结果,本发明的方法并不以图5所示的流程顺序为限。如图5所示,本实施例的音效设置的方法是以当前设备为例进行描述的,该方法包括如下步骤:
步骤S201:建立与外部设备的连接。
在步骤S201中,当前设备与外部设备建立的连接可以为有线连接(例如USB连接),也可以为无线连接。其中,无线连接具体可以为蓝牙连接、WIFI连接和Miracast连接等等。
以无线连接为Miracast连接为例来说,在当前设备和外部设备建立连接后,当前设备和外部设备的信息沟通主要通过控制流和数据流两种途径来实现。
步骤S202:发送音效查询请求至外部设备。
在步骤S202中,当前设备发送音效查询请求至外部设备,其中,音效查询请求用于查询外部设备当前的预设音效参数。
以无线连接为Miracast连接为例来说,当前设备和外部设备的音效查询请求可以通过Miracast的控制流来实现,具体来说,当前设备可以通过Miracast中的RTSP协议的装置能力沟通(Capability Negotiation)或远程I2C读写两种方式来实现对外部设备的音效查询。
步骤S203:接收音效查询请求的应答信息以确定当前设备和外部设备之间需协同的音效,并生成音效参数。
在步骤S203中,当前设备完成步骤S202的发送音效查询请求至外部设备后,当前设备进一步接收音效查询请求的应答信息从而获得外部设备当前的预设音效参数。接着,当前设备比较外部设备当前的预设音效参数和当前设备当前的预设音效参数,从而确定当前设备和外部设备之间需协同的音效。
举例来说,以当前设备为手机、目标设备为车载播放器为例来说,例如,当前设备和外部设备之间需协同的音效可以为均衡器的设置或者增益调节设置。。
在步骤S203中,根据音效参数设置规则确定音效参数,其中音效参数包含外部设备需协同的音效所需的目标音效参数和当前设备需协同的音效所需的源音效参数。
其中,音效参数设置规则至少包括以下三种规则:
规则一:绕过当前设备的音效设置,目标音效参数为外部设备的预设音效参数。
对于规则一,以当前设备为手机、目标设备为车载播放器、音效设置为均衡器为例来说,假设用户在手机上使用“摇滚”的均衡器模式欣赏歌曲,而车载播放器中设置的均衡器模式为“流行”,则关闭手机上“摇滚”的均衡模式,也即绕过当前设备的音效设置,并且将目标音效参数设置为“流行”的均衡模式。也就是说,当使用规则一时,仅由外部设备进行音效处理,且目标音效参数为外部设备的预设音效参数。
规则二:绕过外部设备的音效设置,并且源音效参数为外部设备的预设音效参数。
对于规则二,以当前设备为手机、目标设备为车载播放器、音效设置为均衡器为例来说,假设用户在手机上使用“摇滚”模式的均衡器模式欣赏歌曲,而车载播放器中设置的均衡器模式为“流行”,则关闭车载播放器上“流行”的均衡模式,也即绕过外部设备的音效设置,将源音效参数设置为“流行”的均衡模式。也就是说,当使用规则二时,仅由当前设备进行音效处理,且源音效参数为外部设备的预设音效参数。
规则三:当前设备和外部设备共同进行音效处理,其中当前设备根据源音效参数和外部设备根据目标音效参数进行音效处理后达到的效果与当前设备根据当前设备的预设音效参数或者外部设备根据外部设备的预设音效参数进行音效处理后达到的效果相同。
对于规则三,以当前设备为手机、目标设备为车载播放器、音效设置为增益调节为例来说,假设用户在手机的分段均衡器设置中将1KHz频段增益调节到+12dB,则将源音效参数和目标音效参数设置为在1KHz频段增益调节之和达到+12dB,例如源音效参数设置为在1KHz频段增益调节到+3dB、目标音效参数设置为在1KHz频段增益调节到+9dB。又例如,假设用户在车载播放器的分段均衡器设置中将1KHz频段增益调节到-12dB,则将源音效参数和目标音效参数设置为在1KHz频段增益调节之和达到-12dB,例如源音效参数设置为在1KHz频段增益调节到-3dB、目标音效参数设置为在1KHz频段增益调节到-9dB。也就是说,当使用规则三时,由当前设备和外部设备共同进行音效处理,其中,源音效参数和目标音效参数可按实际情况进行设置,只要满足规则三的约束条件即可。
步骤S204:解码音频数据流。
在步骤S204中,当前设备将音频文件进行解码操作以获取可供播放的音频信号。
步骤S205:根据音效参数对解码后的音频数据流进行音效处理以得到音效处理后的音频数据。
在步骤S205中,根据源音效参数对解码后的音频数据流进行音效处理以得到音效处理后的音频数据。
对于规则一,由于绕过当前设备的音效设置,则音效处理后的音频数据和音效处理前的音频数据保持不变。
对于规则二,由于源音效参数为外部设备的预设音效参数,则音效处理后的音频数据为使用外部设备的预设音效参数处理后的音频数据。
对于规则三,音效处理后的音频数据为源音效参数处理后的音频数据,其中,源音效参数不是确定值,其按照实际情况进行设定,其只要满足规则三中的约束条件即可。
步骤S206:编码音频数据以得到编码数据。
在步骤S206中,对源音效参数进行音效处理后的音频数据进行编码操作以得到外部设备所支持的音频格式的编码数据。
步骤S207:编码音效参数;
在步骤S207中,对目标音效参数进行编码以形成外部设备可识别的编码格式。
其中,编码后的音效参数的具体结构如下所示:
固定标识ID | 分类码 | 芯片ID | 设备ID | 音效类别 | 参数数据类型 | 参数数据 | 校验码 |
在上述结构中,编码后的音效参数包括固定标识ID、分类码、芯片ID、设备ID、音效类别、参数数据类型、参数数据和校验码。其中,固定标识ID用于标识该编码结构为音效参数编码。分类码用于区分外部设备的类型,其可以为汽车CAR、个人电脑PAD、电视TV、电话PHONE等等。芯片ID为外部设备中使用的音频芯片的型号。设备ID为外部设备的型号。音效类别为需协同的音效处理功能,其可以为均衡(EQ)、混响效果(Reverb)、主音量、声道扩展(Upmix)等等。参数数据类型与音效类别相对应,其包括需要应答和不需要应答的参数类型。参数数据也与音效类别相对应,例如当音效类别是均衡时,参数数据可以为“流行”、“摇滚”等等。当然,本领域的技术人员可以理解,上述编码格式仅为举例,本发明不以此为限。
步骤S208:将编码数据和编码后的音效参数发送至外部设备。
在步骤S208中,将利用源音效参数进行音效处理以及编码处理后的编码数据和编码后的目标音效参数分别发送至外部设备。
以无线连接为Miracast连接为例来说,当前设备和外部设备之间的编码数据和编码后的音效参数的信息沟通可以通过Miracast的数据流来实现。
通过上述实施方式,本发明第二实施例的音效设置方法通过当前设备发送音效查询请求至外部设备以确定当前设备和外部设备之间需协同的音效并生成音效参数,其中,音效参数包含外部设备需协同的音效所需的目标音效参数和当前设备需协同的音效所需的源音效参数,进而将目标音效参数和根据源音效参数进行音效处理后的音频数据分别输出至外部设备,当前设备播放的音频转移到外部设备进行播放时的音效协同,避免出现没有音效协同而使播放效果变差的问题。
图6是本发明第三实施例的音效设置方法的流程图。需注意的是,若有实质上相同的结果,本发明的方法并不以图6所示的流程顺序为限。
如图6所示,图6与图5中第二实施例的主要区别在于:
在步骤S206后,图6进一步包括步骤:
步骤S301:将编码后的音效参数插入编码数据。
在步骤S301中,将编码后的音效参数插入编码数据以形成新的编码数据至少包括如下三种方式:
方式一:将编码后的音效参数插入编码数据的音频数据帧之间以形成新的编码数据。
在方式一中,原始编码数据和新的编码数据的具体结构如下所示:
原始编码数据:
在上述结构中,原始编码数据包括多个音频数据帧(Audio Frame)。新的编码数据通过在原始编码数据的音频数据帧1和音频数据帧2之间插入音效编码数据帧(SoundEffect Frame)而形成。其中,音效编码数据帧包括编码后的音效参数。优选地,插入的音效编码数据帧的长度和音频数据帧的长度相同。本领域技术人员可以理解,音效编码数据帧的位置位于音频数据帧1和音频数据帧2之间仅为举例,其亦可以位于其他音频数据帧之间或前后,本发明不以此为限。
在实际应用中,以音频数据帧为AAC数据帧为例来说,原始编码数据和新的编码数据的具体结构如下所示:
原始编码数据(AAC):
在上述结构中,原始编码数据包括多个AAC音频数据帧,每个AAC音频数据帧包括帧头(Frame Header),双通道单元(Channel Pair Element,简写为CPE)和结束单元(Terminator,简写为TERM)。新的编码数据通过在原始编码数据的音频数据帧1的结束单元和音频数据帧2的帧头之间插入音效编码数据帧(SoundEffect Frame)而形成。其中,音效编码数据帧包括音效编码数据帧帧头(SoundEffect Frame Header)、填充单元(FillElement,简写为FIL)和结束单元(Terminator,简写为TERM)。具体来说,填充单元包括填充单元标识符(ID_FIL),填充单元长度(Length)和扩展有效负载单元(Extension_payload),其中,扩展有效负载单元包括扩展类型(Type)和编码后的音效参数(SoundEffect_data),扩展类型指示为音效参数(EXT_SE_DATA)。
采用方式一的插入方式,在音频数据帧之间插入编码后的音效参数会使得编码数据的总帧数增加,其中,编码后的音效参数构成独立的音效编码数据帧。但是,当解码器无法对音效编码数据帧进行解码操作时,只需将该帧丢弃掉,而不会影响编码数据中的音频数据帧的解码和播放。
方式二:将编码后的音效参数插入编码数据的音频数据帧中可供用户自定义的字段内。
在方式二中,原始编码数据和新的编码数据的具体结构如下所示:
原始编码数据:
Audio Frame1 | Audio Frame2 | Audio Frame3 | ... |
新的编码数据:
Audio Frame1 | Audio Frame2 | Audio Frame3 | ... |
在上述结构中,原始编码数据包括多个音频数据帧(Audio Frame)。新的编码数据通过将编码后的音效参数插入编码数据的音频数据帧1的可供用户自定义的字段内而形成。其中,新的编码数据中的音频数据帧1的长度长于原始编码数据中的音频数据帧1的长度,其余音频数据帧的长度保持不变。本领域技术人员可以理解,音效编码数据帧的位置位于音频数据帧1的可供用户自定义的字段内仅为举例,本发明不以此为限。
在实际应用中,以音频数据帧为AAC数据帧为例来说,原始编码数据和新的编码数据的具体结构如下所示:
原始编码数据(AAC):
在上述结构中,原始编码数据包括多个AAC音频数据帧,每个AAC音频数据帧包括帧头(Frame Header),双通道单元(Channel Pair Element,简写为CPE)和结束单元(Terminator,简写为TERM)。新的编码数据通过在原始编码数据的双通道单元的可供用户自定义的字段内插入填充单元(Fill Element,简写为FIL)而形成。具体来说,填充单元包括填充单元标识符(ID_FIL),填充单元长度(Length)和扩展有效负载单元(Extension_payload),其中,扩展有效负载单元包括扩展类型(Type)和编码后的音效参数(SoundEffect_data),扩展类型指示为音效参数(EXT_SE_DATA)。另外,AAC音频数据帧的帧头包括同步字(SyncWord)、音频数据帧长度(FrameLength)和效验码(CRC),当编码后的音效参数插入双通道单元后,音频数据帧长度和效验码中的信息需要进行相应的改变。
在实际应用中,以音频数据帧为MP3数据帧为例来说,原始编码数据和新的编码数据的具体结构如下所示:
原始编码数据(MP3):
在上述结构中,原始编码数据包括多个MP3音频数据帧,每个MP3音频数据帧包括帧头(Header)、效验码(CRC)、边信息单元(Side Information)、主数据单元(Main Data)和辅助信息单元(Ancillary Data)。新的编码数据通过在原始编码数据的辅助信息单元中插入编码后的音效参数(SoundEffect_data)而形成。其中,辅助信息单元是提供给使用者自行定义想要记录的信息的地方,例如可以记录音乐的标题、演唱者、专辑名称等一些额外的信息。另外,当编码后的音效参数插入辅助信息单元后,MP3音频数据帧的帧头和效验码中的信息需要进行相应的改变。
采用方式二的插入方式,在音频数据帧内部插入编码后的音效参数不会增加编码数据的总帧数,但插入编码后的音效参数的音频数据帧的长度会发生变化,相应的音频数据帧长度和效验码中的信息会发生变化,需要对应更新,才能保证编码后的音效参数正常被解码。
方式三:将编码后的音效参数插入不同曲目的编码数据之间。
在方式三中,原始编码数据和新的编码数据的具体结构如下所示:
原始编码数据:
曲目1 | 曲目2 | 曲目3 | 曲目4 | ... |
新的编码数据:
SoundEffect1 | 曲目1 | SoundEffect2 | 曲目2 | ... |
在上述结构中,原始编码数据包括多个曲目,新的编码数据通过将编码后的音效参数插入不同曲目的编码数据之间而形成。优选地,编码后的音效参数互不相同。采用方式三的插入方式,可以实现在曲目进行更换时同步更新音效参数。
本领域的技术人员可以理解,除了将编码后的音效参数插入不同曲目的编码数据之间,在其它实施例中,当原始编码数据为音频数据流时,也可以将编码后的音效参数在不同时间点插入音频数据流中,从而使得音效参数动态变化,实现Auto DJ的功能。优选地,将编码后不同的音效参数在不同时间点插入音频数据流时,音效参数可以为携带显示时间戳(PTS,presentation time stamp)的音效参数,从而在对音频数据流进行解码操作时,可以实现在精确的时间点更新音效参数。
步骤S302:发送插入编码后的音效参数的编码数据。
在步骤S302中,当前设备将编码后的目标音效插入根据源音效参数进行音效处理后的编码数据后,将两者形成的数据流发送至目标设备。
通过上述实施方式,本发明第三实施例的音效设置方法通过当前设备发送音效查询请求至外部设备以确定当前设备和外部设备之间需协同的音效并生成音效参数,其中,音效参数包含外部设备需协同的音效所需的目标音效参数和当前设备需协同的音效所需的源音效参数,进而将目标音效参数插入根据源音效参数进行音效处理后的音频数据形成一独立的数据流后输出至外部设备,实现了当前设备播放的音频转移到外部设备进行播放时的音效协同,避免出现没有音效协同而使播放效果变差的问题。
图7是本发明第四实施例的音效设置方法的流程图。需注意的是,若有实质上相同的结果,本发明的方法并不以图7所示的流程顺序为限。如图7所示,本实施例的音效设置的方法是以外部设备为例进行描述的,该方法包括如下步骤:
步骤S401:接收输入数据,其中输入数据包含音频数据和音效参数;
在步骤S401中,外部设备接收当前设备发送的输入数据,其中,输入数据可以为一个独立的数据流,其具体为音频数据和音效参数合并后形成的一个数据流;输入数据也可以为两个独立的数据流,其具体为音频数据和音效参数分别形成的两个数据流。其中,音频数据为当前设备对获取的音视频码流进行解码操作、接着根据音效参数进行音效处理、随后进行编码操作后得到的音频数据;音效参数为当前设备和外部设备之间需协同的音效。
步骤S402:解码音频数据。
在步骤S402中,外部设备对音频数据进行解码操作以获取可供播放的音频信号。
步骤S403:根据音效参数设置解码后的音频数据的音效。
在步骤S403中,根据音效参数设置解码后的音频数据的音效,从而使得当前设备播放的音频转移到外部设备进行播放时,避免出现没有音效协同而使播放效果变差的情况。
通过上述实施方式,本发明第四实施例的音效设置方法通过解码音频数据、对音频数据进行解码操作以获取可供播放的音频信号以及根据音效参数设置解码后的音频数据的音效,实现了当前设备播放的音频转移到外部设备进行播放时音效协同,避免出现没有音效协同而使播放效果变差的问题。
图8是本发明第五实施例的音效设置方法的流程图。需注意的是,若有实质上相同的结果,本发明的方法并不以图8所示的流程顺序为限。如图8所示,本实施例的音效设置的方法是以外部设备为例进行描述的,该方法包括如下步骤:
步骤S501:接收音效查询请求;
在步骤S501中,外部设备接收当前设备发送的音效查询请求,其中,音效查询请求用于查询外部设备当前的预设音效参数。
步骤S502:发送音频查询请求的应答信息至当前设备以确定当前设备和外部设备之间需协同的音效。
在步骤S502中,当步骤S501中的外部设备接收到当前设备发送的音效查询请求后,外部设备发送音频查询请求的应答信息,从而将外部设备当前的预设音效参数发送至当前设备,以供当前设备根据外部设备当前的预设音效参数和当前设备当前的预设音效参数确定当前设备和外部设备之间需协同的音效,从而生成音效参数。其中,音效参数根据当前设备和外部设备的音效设置得到。具体来说,音效参数包括目标音效参数和源音效参数,目标音效参数为当前设备确认的外部设备需协同的音效的音效参数,而源音效参数为当前设备确认的当前设备需协同的音效的音效参数。
步骤S503:接收输入数据,其中输入数据包含音频数据和音效参数;
在步骤S503中,外部设备接收的包含音频数据和音效参数的输入数据可以是两个独立的数据流。其中,音效参数为目标音效参数。音频数据为当前设备对获取的音视频码流进行解码操作、接着根据源音效参数进行音效处理、随后进行编码操作后得到的音频数据。
步骤S504:解码音频数据;
在步骤S504中,外部设备解码当前设备发送的编码后的音频数据,以获取可供播放的音频信号。
步骤S505:根据音效参数设置解码后的音频数据的音效。
在步骤S505中,外部设备根据目标音效参数对解码后的音频数据进行音效处理,从而使得当前设备播放的音频转移到外部设备进行播放时,不会出现没有音效协同而使效果变差的情况。
通过上述实施方式,本发明第五实施例的音效设置方法通过外部设备发送音频查询请求的应答信息至当前设备以确定当前设备和外部设备之间需协同的音效,进而接收当前设备分别发送的音频数据和目标音效参数,并根据目标音效参数设置解码后的音频数据的音效,实现了当前设备播放的音频转移到外部设备进行播放时进行音效协同,避免出现没有音效协同而使效果变差的问题。
图9是本发明第六实施例的音效设置方法的流程图。需注意的是,若有实质上相同的结果,本发明的方法并不以图9所示的流程顺序为限。如图9所示,本实施例的音效设置的方法是以外部设备为例进行描述的,该方法包括如下步骤:
步骤S601:接收音效查询请求;
步骤S602:发送音频查询请求的应答信息至当前设备以确定当前设备和外部设备之间需协同的音效。
在本实施例中,步骤S601和步骤S602与第五实施例中的步骤S501和步骤S502相类似,为简洁起见,在此不再赘述。
步骤S603:接收输入数据,其中输入数据包含音频数据和音效参数;
在步骤S603中,外部设备接收的包含音频数据和音效参数的输入数据可以为一个独立的数据流。其中,音效参数为目标音效参数,目标音效参数以三种不同方式设置于音频数据中:目标音效参数设置于音频数据的数据帧之间或者目标音效参数设置于音频数据的数据帧中可供用户自定义的字段内或者目标音效参数设置于不同曲目的音频数据之间。
步骤S604:提取目标音效参数。
在步骤S604中,外部设备从音频数据中提取目标音效参数。其中,根据步骤S603中的目标音效参数在音频数据中的三种不同设置方式,其对应三种不同的提取方式:从音频数据的数据帧之间提取目标音效参数,或从音频数据的数据帧中可供用户自定义的字段内提取目标音效参数,或从不同曲目的音频数据之间提取目标音效参数。
步骤S605:解码提取到的目标音效参数。
在步骤S605中,设置于音频数据中的目标音效参数是经过当前设备进行编码操作后的目标音效参数,因此外部设备需要解码提取到的目标音效设备,以获取可供直接设置的目标音效参数。
步骤S606:解码音频数据。
在步骤S606中,外部设备对提取了目标音效参数的音频数据进行解码操作,以获取可供播放的音频信号。
步骤S607:根据音效参数设置解码后的音频数据的音效。
在步骤S607中,外部设备根据目标音效参数对解码后的音频数据进行音效处理,从而使得当前设备播放的音频转移到外部设备进行播放时,不会出现没有音效协同而使效果变差的情况。
通过上述实施方式,本发明第六实施例的音效设置方法通过外部设备发送音频查询请求的应答信息至当前设备以确定当前设备和外部设备之间需协同的音效,进而接收当前设备发送的音频数据和目标音效参数合并后的数据流,从音频数据中提取目标音效参数,并根据目标音效参数设置解码后的音频数据的音效,实现了当前设备播放的音频转移到外部设备进行播放时的音效协同,避免出现没有音效协同而使播放效果变差的问题。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (27)
1.一种音效设置方法,其特征在于,所述方法包括:
解码音频数据流;
根据当前设备和外部设备之间需协同的音效生成音效参数,根据所述音效参数对解码后的所述音频数据流进行音效处理以得到音效处理后的音频数据;
编码所述音频数据以得到编码数据;以及
输出所述编码数据和所述音效参数。
2.根据权利要求1所述的音效设置方法,其特征在于,更包含建立与外部设备的连接,其中所述音效参数更用于对所述外部设备进行音效设置。
3.根据权利要求2所述的音效设置方法,其特征在于,更包含:
发送音效查询请求至所述外部设备,其中,所述音效查询请求用于查询所述外部设备当前的预设音效参数;以及
接收所述音效查询请求的应答信息以确定当前设备和所述外部设备之间需协同的音效,并生成所述音效参数。
4.根据权利要求3所述的音效设置方法,其特征在于,生成所述音效参数的步骤包括:
根据音效参数设置规则确定所述音效参数,其中所述音效参数包含所述外部设备需协同的音效所需的目标音效参数,以及所述当前设备需协同的音效所需的源音效参数。
5.根据权利要求4所述的音效设置方法,其特征在于,所述音效参数设置规则包含:
绕过所述当前设备的音效设置,并且所述目标音效参数为所述外部设备的所述预设音效参数;或
绕过所述外部设备的音效设置,并且所述源音效参数为所述外部设备的所述预设音效参数;或
所述当前设备和所述外部设备共同进行音效处理,其中所述当前设备根据所述源音效参数和所述外部设备根据所述目标音效参数进行音效处理后达到的效果与所述当前设备根据所述当前设备的所述预设音效参数或者所述外部设备根据所述外部设备的所述预设音效参数进行音效处理后达到的效果相同。
6.根据权利要求1所述的音效设置方法,其特征在于,更包含:
编码所述音效参数;以及
将编码后的所述音效参数发送至所述外部设备。
7.根据权利要求1所述的音效设置方法,其特征在于,更包含:
编码所述音效参数;
将编码后的所述音效参数插入所述编码数据;以及
将插入所述音效参数的所述编码数据发送至所述外部设备。
8.根据权利要求7所述的音效设置方法,其特征在于,将编码后的所述音效参数插入所述编码数据的方式包括:
将编码后的所述音效参数插入所述编码数据的音频数据帧之间。
9.根据权利要求7所述的音效设置方法,其特征在于,将编码后的所述音效参数插入所述编码数据的方式包括:
将编码后的所述音效参数插入所述编码数据的音频数据帧中可供用户自定义的字段内。
10.根据权利要求7所述的音效设置方法,其特征在于,将编码后的所述音效参数插入所述编码数据的方式包括:
将编码后的所述音效参数插入不同曲目的所述编码数据之间。
11.一种音效设置方法,其特征在于,所述方法包括:
接收输入数据,其中输入数据包含音频数据和音效参数;
解码所述音频数据;
根据所述音效参数设置解码后的所述音频数据的音效;
接收音效查询请求,其中所述音效查询请求用于查询当前设备当前的预设音效参数;以及
发送所述音效查询请求的应答信息至外部设备以确定所述当前设备和所述外部设备之间需协同的音效。
12.根据权利要求11所述的音效设置方法,其特征在于,所述音效参数包括目标音效参数,所述目标音效参数为所述当前设备需协同的所述音效的音效参数。
13.根据权利要求12所述的音效设置方法,其特征在于,更包括:
提取所述目标音效参数;以及
解码提取到的所述目标音效参数。
14.根据权利要求13所述的音效设置方法,其特征在于,更包括:
从所述音频数据的数据帧之间提取所述目标音效参数。
15.根据权利要求13所述的音效设置方法,其特征在于,更包括:
从所述音频数据的数据帧中可供用户自定义的字段内提取所述目标音效参数。
16.根据权利要求13所述的音效设置方法,其特征在于,更包括:
从不同曲目的所述音频数据之间提取所述目标音效参数。
17.根据权利要求11所述的音效设置方法,其特征在于,所述音效参数根据所述当前设备与外部设备的音效设置得到。
18.一种电子装置,其特征在于,所述装置包括:
解码模块,用于解码音频数据流;
音效处理模块,耦接于所述解码模块,用于根据音效参数对所述解码模块解码后的所述音频数据流进行音效处理以得到音效处理后的音频数据;
编码模块,耦接于所述音效处理模块,用于编码所述音效处理模块音效处理后的所述音频数据以得到编码数据;以及
通信模块,耦接于所述编码模块,用于输出所述编码模块编码后的所述编码数据和所述音效参数。
19.根据权利要求18所述的电子装置,其特征在于,所述通信模块建立与外部设备的连接,其中所述音效参数更用于对所述外部设备进行音效设置。
20.根据权利要求19所述的电子装置,其特征在于,所述电子装置进一步包括:
音效协同控制模块,耦接于所述通信模块;
其中所述通信模块发送音效查询请求至所述外部设备,所述音效查询请求用于查询所述外部设备当前的预设音效参数;以及
所述通信模块接收所述音效查询请求的应答信息;
所述音效协同控制模块用于根据所述通信模块接收的所述应答信息以确定当前设备和所述外部设备之间需协同的音效,并生成所述音效参数。
21.根据权利要求20所述的电子装置,其特征在于,所述音效协同控制模块根据音效参数设置规则确定所述音效参数,其中所述音效参数包含所述外部设备需协同的音效所需的目标音效参数,以及所述当前设备需协同的音效所需的源音效参数。
22.根据权利要求21所述的电子装置,其特征在于,所述音效参数设置规则包含:
绕过所述当前设备的音效设置,并且所述目标音效参数为所述外部设备的所述预设音效参数;或
绕过所述外部设备的音效设置,并且所述源音效参数为所述外部设备的所述预设音效参数;或
所述当前设备和所述外部设备共同进行音效处理,其中所述当前设备根据所述源音效参数和所述外部设备根据所述目标音效参数进行音效处理后达到的效果与所述当前设备根据所述当前设备的所述预设音效参数或者所述外部设备根据所述外部设备的所述预设音效参数进行音效处理后达到的效果相同。
23.根据权利要求18所述的电子装置,其特征在于,所述电子装置进一步包括:
音效参数编码模块,用于编码所述音效参数;
其中,所述通信模块将所述音效参数编码模块编码后的所述音效参数发送至外部设备。
24.根据权利要求18所述的电子装置,其特征在于,所述电子装置进一步包括:
音效参数编码模块,用于编码所述音效参数;
其中,所述编码模块将所述音效参数编码模块编码后的所述音效参数插入所述编码数据;以及
所述通信模块将插入所述音效参数的所述编码数据发送至外部设备。
25.根据权利要求24所述的电子装置,其特征在于,所述编码模块将编码后的所述音效参数插入所述编码数据的音频数据帧之间。
26.根据权利要求24所述的电子装置,其特征在于,所述编码模块将编码后的所述音效参数插入所述编码数据的音频数据帧中可供用户自定义的字段内。
27.根据权利要求24所述的电子装置,其特征在于,所述编码模块将编码后的所述音效参数插入不同曲目的所述编码数据之间。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410432271.4A CN104240738B (zh) | 2014-08-28 | 2014-08-28 | 一种音效设置方法及电子装置 |
US14/828,493 US9859859B2 (en) | 2014-08-28 | 2015-08-17 | Sound-effect setting method and electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410432271.4A CN104240738B (zh) | 2014-08-28 | 2014-08-28 | 一种音效设置方法及电子装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104240738A CN104240738A (zh) | 2014-12-24 |
CN104240738B true CN104240738B (zh) | 2018-05-11 |
Family
ID=52228678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410432271.4A Active CN104240738B (zh) | 2014-08-28 | 2014-08-28 | 一种音效设置方法及电子装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9859859B2 (zh) |
CN (1) | CN104240738B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160019877A1 (en) * | 2014-07-21 | 2016-01-21 | Jesse Martin Remignanti | System for networking audio effects processors, enabling bidirectional communication and storage/recall of data |
DE102015005007B4 (de) | 2015-04-21 | 2017-12-14 | Kronoton Gmbh | Verfahren zur Verbesserung der Klangqualität einer Audiodatei |
CN104934048A (zh) * | 2015-06-24 | 2015-09-23 | 小米科技有限责任公司 | 音效调节方法及装置 |
EP3913625B1 (en) * | 2015-12-08 | 2024-04-10 | Sony Group Corporation | Transmitting apparatus, transmitting method, receiving apparatus, and receiving method |
CN108564973A (zh) * | 2018-03-29 | 2018-09-21 | 北京英夫美迪科技股份有限公司 | 一种音频文件播放方法及装置 |
CN109107158B (zh) * | 2018-09-04 | 2020-09-22 | Oppo广东移动通信有限公司 | 音效处理方法、装置、电子设备及计算机可读存储介质 |
CN113709906B (zh) * | 2020-05-22 | 2023-12-08 | 华为技术有限公司 | 无线音频系统、无线通讯方法及设备 |
US20230297324A1 (en) * | 2020-07-02 | 2023-09-21 | Huawei Technologies Co., Ltd. | Audio Control Method, System, and Electronic Device |
CN112786025B (zh) * | 2020-12-28 | 2023-11-14 | 腾讯音乐娱乐科技(深圳)有限公司 | 确定歌词时间戳信息的方法和声学模型的训练方法 |
CN114615536B (zh) * | 2022-02-25 | 2024-05-28 | 海信视像科技股份有限公司 | 显示设备及音效处理方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101141644A (zh) * | 2007-10-17 | 2008-03-12 | 清华大学 | 编码集成系统和方法与解码集成系统和方法 |
CN101677377A (zh) * | 2008-09-19 | 2010-03-24 | 深圳Tcl新技术有限公司 | 音效处理方法及应用该方法的播放装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW405328B (en) | 1997-04-11 | 2000-09-11 | Matsushita Electric Ind Co Ltd | Audio decoding apparatus, signal processing device, sound image localization device, sound image control method, audio signal processing device, and audio signal high-rate reproduction method used for audio visual equipment |
CN1174658C (zh) * | 2001-07-17 | 2004-11-03 | 张国华 | 全数字化音响系统 |
US8300841B2 (en) * | 2005-06-03 | 2012-10-30 | Apple Inc. | Techniques for presenting sound effects on a portable media player |
US20100013996A1 (en) * | 2008-07-18 | 2010-01-21 | Samsung Electronics Co., Ltd. | Method and system for theme-based settings for a display device |
US8473083B1 (en) * | 2009-07-19 | 2013-06-25 | Aaron T. Emigh | Synthesized audio parameters |
US8280222B2 (en) * | 2009-10-06 | 2012-10-02 | Sony Corporation | Use of metadata in video to establish TV settings |
TWM405328U (en) * | 2010-12-29 | 2011-06-11 | Yi-Hao Zhong | Composite-type chip conveyor for caterpillar drum |
US11140454B2 (en) * | 2013-07-17 | 2021-10-05 | Sourcepicture Inc. | Systems and methods for content presentation management |
-
2014
- 2014-08-28 CN CN201410432271.4A patent/CN104240738B/zh active Active
-
2015
- 2015-08-17 US US14/828,493 patent/US9859859B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101141644A (zh) * | 2007-10-17 | 2008-03-12 | 清华大学 | 编码集成系统和方法与解码集成系统和方法 |
CN101677377A (zh) * | 2008-09-19 | 2010-03-24 | 深圳Tcl新技术有限公司 | 音效处理方法及应用该方法的播放装置 |
Also Published As
Publication number | Publication date |
---|---|
CN104240738A (zh) | 2014-12-24 |
US9859859B2 (en) | 2018-01-02 |
US20160065159A1 (en) | 2016-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104240738B (zh) | 一种音效设置方法及电子装置 | |
JP6851523B2 (ja) | 異なる再生装置を横断するラウドネスおよびダイナミックレンジの最適化 | |
US10958229B2 (en) | Metadata for loudness and dynamic range control | |
US10231074B2 (en) | Cloud hosted audio rendering based upon device and environment profiles | |
JP2016521380A (ja) | 条件付きレンダリング・メタデータをもつオブジェクト・ベース・オーディオを生成し、レンダリングする方法およびシステム | |
JP5319704B2 (ja) | オーディオ信号の処理方法及び装置 | |
JP2017523638A (ja) | オーディオ・デコーダ及びレンダラーのためのユーザー制御データのデータ処理装置及びトランスポート | |
KR20230125103A (ko) | 블루투스 장치 동작 방법 | |
JP2009540650A (ja) | 複数の音声再生ユニットへの送信のための音声データを生成する装置及び方法 | |
CN104184894A (zh) | 一种卡拉ok的实现方法及系统 | |
CN106656276A (zh) | 一种基于蓝牙音频的k歌方法 | |
CN107431859B (zh) | 用于带有控制数据的封装的音频数据的无线广播的设备和方法 | |
CN106341719A (zh) | 同时利用设备多种播放模块的同步音频播放方法及装置 | |
CN102932567A (zh) | 终端和音频处理方法 | |
CN104270510A (zh) | 一种车载音频音效设置方法 | |
WO2021176904A1 (ja) | ビットストリーム生成方法、符号化装置、復号装置 | |
TWI566173B (zh) | 音訊播放裝置及方法 | |
JP2003163985A (ja) | フルデジタル化した音響システム | |
CN205104223U (zh) | 数字影音设备 | |
CN107943447A (zh) | 音乐播放方法、系统、可读存储介质及智能终端设备 | |
CN112423197A (zh) | 用于实现多路蓝牙音频输出的方法及装置 | |
US11910289B2 (en) | Systems and methods for wireless audio | |
CN108684028A (zh) | 基于ble的音频播放设备适配方法及蓝牙音频接收器 | |
CN113825105B (zh) | 一种基于蓝牙广播的一拖多组网音箱控制系统及方法 | |
US20220103948A1 (en) | Method and system for performing audio ducking for headsets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: 230000, 10 floor, A3 building, innovation industrial park, 800 Wangjiang West Road, Hefei, Anhui. Patentee after: Hefei Jie FA Technology Co., Ltd. Address before: 230000, 10 floor, A3 building, innovation industrial park, 800 Wangjiang West Road, Hefei, Anhui. Patentee before: Smart technology (Hefei) Co., Ltd. |
|
CP01 | Change in the name or title of a patent holder |