JP7136932B2 - ディープラーニングに基づく音域バランシング方法、装置及びシステム - Google Patents
ディープラーニングに基づく音域バランシング方法、装置及びシステム Download PDFInfo
- Publication number
- JP7136932B2 JP7136932B2 JP2020567945A JP2020567945A JP7136932B2 JP 7136932 B2 JP7136932 B2 JP 7136932B2 JP 2020567945 A JP2020567945 A JP 2020567945A JP 2020567945 A JP2020567945 A JP 2020567945A JP 7136932 B2 JP7136932 B2 JP 7136932B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- features
- range balancing
- music
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
- G10H1/06—Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
- G10H1/12—Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour by filtering complex waveforms
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/46—Volume control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G5/00—Tone control or bandwidth control in amplifiers
- H03G5/005—Tone control or bandwidth control in amplifiers of digital signals
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G5/00—Tone control or bandwidth control in amplifiers
- H03G5/16—Automatic control
- H03G5/165—Equalizers; Volume or gain control in limited frequency bands
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/036—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal of musical genre, i.e. analysing the style of musical pieces, usually for selection, filtering or classification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/095—Identification code, e.g. ISWC for musical works; Identification dataset
- G10H2240/101—User identification
- G10H2240/105—User profile, i.e. data about the user, e.g. for user settings or user preferences
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Description
音楽データベースに基づいて音楽データのカテゴリラベル特徴及び前記音楽データのデータ特徴を抽出することと、
前記音楽データのデータ特徴を入力レイヤーデータとし、前記カテゴリラベル特徴を出力レイヤーデータとして訓練して音域バランシングモデルを取得することと、
ユーザ好み音楽データに対して特徴抽出を実行してデータ特徴を取得し、入力データとして前記音域バランシングモデルに入力して、前記ユーザ好み音楽データのカテゴリラベル特徴を取得することと、
前記ユーザ好み音楽データのカテゴリラベル特徴を前記ユーザ好み音楽データのカテゴリラベルに復元して、ユーザ好みカテゴリ画像を形成することと、
前記ユーザ好みカテゴリ画像に従って対応するカテゴリの音域バランシングパラメータと融合して、ユーザの音域バランシング等化結果を取得することと、を含む。
音楽データベースにおける大衆ユーザ好みに基づく音楽を訓練セットとして、特徴抽出して前記音楽データベースの音楽データ特徴を取得することと、
前記音楽データ特徴を可視層として入力し、1つの制限付きボルツマンマシンRBMを訓練することと、
前記訓練済みの制限付きボルツマンマシンRBMに基づいて、前記訓練セットの音楽データ特徴を制限付きボルツマンマシンRBMの可視層に入力して、隠れ層特徴を取得することと、
前記隠れ層特徴を既に訓練済みのクラスタモデルに入力して分類し、平均隠れ層特徴を生成することと、
前記平均隠れ層特徴及び前記制限付きボルツマンマシンRBMに基づいて逆演算して、音楽データベースの平均音楽データ特徴を取得することと、
ユーザ好み音楽リストにおける音楽に基づいて特徴抽出を実行し、抽出されたユーザ好み音楽特徴を可視層として入力し、1つのユーザ好み制限付きボルツマンマシンRBMを訓練することと、を含む。
前記ユーザ好み隠れ層特徴を前記クラスタモデルに入力して分類し、ユーザ好み平均隠れ層特徴を生成することと、
前記ユーザ好み平均隠れ層特徴及びユーザ好み制限付きボルツマンマシンRBMに基づいて逆演算して、ユーザ好み平均音楽特徴を取得することと、
前記ユーザ好み平均音楽特徴と前記音楽データベースの平均音楽特徴に従ってユーザのオフライン音域バランシング等化結果を取得することと、含む。
前記特徴抽出モジュールは、オーディオデータベースにおけるデータ又はユーザ好みデータを取得し、特徴抽出を実行して前記オーディオデータベースにおけるデータ又はユーザ好みデータの特徴を取得するために使用され、
前記音域バランシングモジュールは、前記特徴抽出モジュールが抽出した前記オーディオデータ特徴に基づいて、訓練済みの音域バランシングモデルを利用して、音域バランシング結果を生成するために使用されることを特徴とする。
前記オンライン音域バランシングモジュールは、音楽データベースとユーザ好み音楽リストに基づいて、教師ありディープラーニング方法を用いてユーザが好む音楽のタイプをリアルタイムで評価してオンライン音域バランシングモデルを取得し、既存の音楽スタイルのイコライザーを組み合わせてユーザのオンライン音域バランシング等化結果を取得するために使用され、
前記オフライン音域バランシングモジュールは、ユーザ好み音楽リストに基づいて、ユーザ好み音楽自体に対する特徴抽出を行い、教師なしディープラーニング方法を用いてオフライン音域バランシングモデルを取得し、ユーザのオフライン音域バランシング等化結果を生成するために使用される。
オーディオデータに対して特徴抽出を実行してオーディオデータ特徴を取得することと、
前記データ特徴に基づいて、訓練済みの音域バランシングモデルを利用して、処理対象のオーディオデータの音域バランシング結果を生成することと、を含む。
音楽に対するユーザの好みデータを抽出する(10)ステップと、
ディープラーニングを利用してユーザの音域バランシングモデルを訓練する(20)ステップと、
音楽再生対象の時間領域及び/又は周波数領域の特徴を抽出する(30)ステップと、
ディープラーニングによって確立したユーザの音域バランシングモデルを利用して推奨する音楽再生対象の音域バランシング方案を算出する(40)ステップと、
前記音域バランシング方案を出力し、音楽再生対象の音響効果を調整する(50)ステップと、を含んでもよい。
音楽データベースとユーザ好み音楽リストに基づいて、教師ありディープラーニング方法を用いてユーザが好む音楽のタイプを評価して(S1)、オンライン音域バランシングモデルを取得するステップと、対応する音楽スタイルのイコライザーを組み合わせてユーザのオンライン音域等化結果を取得するステップ(S2)、又は、
ユーザ好み音楽リストに基づいて、ユーザ好み音楽自体に対する特徴抽出を行い、教師なしディープラーニング方法を用いてオフライン音域バランシングモデルを取得するステップ(S4)と、ユーザのオフライン音域等化結果を生成するステップ(S5)と、
ユーザ好み音楽累算器によって前記ユーザ好み音楽リストが提供されるステップ(S3)と、を含んでもよい。
(ただし、i、j、k、M、Nはいずれも自然数である)
M個の隠れ層特徴をクラスタリング結果に従って加重平均する。例えば、N個のクラスがあり、各クラスのサンプルの数はQ(k)であり(k=1,2……N)、
クラスタリング結果を加重平均した後に得られるベクトルは全てのスタイルの音楽の平均隠れ層特徴(音楽データベースの特徴スペクトルを含むが、これに限定されない)と見なすことができる。
Claims (13)
- ディープラーニングに基づく音域バランシング方法において、
オーディオデータに対して特徴抽出を実行してオーディオデータ特徴を取得することと、
前記オーディオデータ特徴に基づいて、訓練済みの音域バランシングモデルを利用して、音域バランシング結果を生成することと、を含み、
前記音域バランシングモデルは、音楽データベースとユーザ好み音楽リストに基づいて、教師ありディープラーニング方法を用いてユーザが好む音楽のタイプを評価して取得した音域バランシングモデル、及び/又はユーザ好み音楽リストに基づいて、ユーザ好み音楽自体に対する特徴抽出を行い、教師なしディープラーニング方法を用いて取得した音域バランシングモデルを含むことを特徴とするディープラーニングに基づく音域バランシング方法。 - 前記音域バランシングモデルを訓練する方法は、音楽データベースに基づいて音楽データのカテゴリラベル特徴及び前記音楽データのデータ特徴を抽出することと、
前記音楽データのデータ特徴を入力レイヤーデータとし、前記カテゴリラベル特徴を出力レイヤーデータとして訓練して音域バランシングモデルを取得することと、を含むことを特徴とする請求項1に記載の音域バランシング方法。 - 前記音域バランシング結果を生成することは、
ユーザ好みオーディオデータに対して特徴抽出を実行して好みデータ特徴を取得すると共に、入力データとして前記音域バランシングモデルに入力し、前記ユーザ好みオーディオデータのカテゴリラベル特徴を取得することと、
前記ユーザ好みオーディオデータのカテゴリラベル特徴を前記ユーザ好みオーディオデータのカテゴリラベルに復元して、ユーザ好みカテゴリ画像を形成することと、
前記ユーザ好みカテゴリ画像に従って対応するカテゴリの音域バランシングパラメータと融合して、ユーザのオンライン音域バランシング結果を取得することと、を含むことを特徴とする請求項1に記載の音域バランシング方法。 - 前記ユーザ好みカテゴリ画像は、各カテゴリオーディオデータが占める割合又は重みを含む各カテゴリオーディオデータに対するユーザの好み度を反映することを特徴とする請求項3に記載の音域バランシング方法。
- 前記音域バランシングモデルを訓練する方法は、
オーディオデータベースにおける大衆ユーザの好み基づくオーディオを訓練セットとして、特徴抽出して前記音楽データベースのオーディオデータ特徴を取得することと、
前記オーディオデータ特徴を可視層として入力し、1つの制限付きボルツマンマシンRBMを訓練することと、
前記訓練済みの制限付きボルツマンマシンRBMに基づいて、前記訓練セットのオーディオデータ特徴を制限付きボルツマンマシンRBMの可視層に入力して、隠れ層特徴を取得することと、
前記隠れ層特徴を既に訓練済みのクラスタモデルに入力して分類し、平均隠れ層特徴を生成することと、
前記平均隠れ層特徴及び前記制限付きボルツマンマシンRBMに基づいて逆演算して、オーディオデータベースの平均オーディオデータ特徴を取得することと、
ユーザ好み音楽リストにおけるオーディオに基づいて特徴抽出を実行し、抽出されたユーザ好みオーディオ特徴を可視層として入力し、1つのユーザ好み制限付きボルツマンマシンRBMを訓練することと、を含むことを特徴とする請求項1に記載の音域バランシング方法。 - 前記音域バランシング結果を生成することは、
前記訓練済みのユーザ好み制限付きボルツマンマシンRBMに基づいて、前記ユーザ好み音楽特徴をRBMの可視層に入力して、ユーザ好み隠れ層特徴を取得することと、
前記ユーザ好み隠れ層特徴を前記クラスタモデルに入力して分類し、ユーザ好み平均隠れ層特徴を生成することと、
前記ユーザ好み平均隠れ層特徴及びユーザ好み制限付きボルツマンマシンRBMに基づいて逆演算して、ユーザ好み平均オーディオ特徴を取得することと、
前記ユーザ好み平均オーディオ特徴と前記音楽データベースの平均オーディオ特徴に従ってユーザの音域バランシング等化結果を取得することと、を含むことを特徴とする請求項5に記載の音域バランシング方法。 - 前記音域バランシング結果を生成することは、前記ユーザ好み平均オーディオ特徴と前記音楽データベースの平均オーディオ特徴に従って比較し、両者の乖離傾向に基づいて音域バランシングを強化又は減衰させ、最終的な音域バランシング結果を取得することをさらに含むことを特徴とする請求項6に記載の音域バランシング方法。
- 前記オーディオデータ特徴を抽出することは、前記オーディオデータをフレーム化した後に特徴抽出を実行することを含むことを特徴とする請求項1に記載の音域バランシング方法。
- 前記オーディオデータ特徴を抽出する方法は、FFT、STFT、MFCC、又は1フレーム以上の時間領域波形の特徴における少なくとも1つを含むことを特徴とする請求項1に記載の音域バランシング方法。
- 前記オーディオデータ特徴を抽出することは、時間領域又は周波数領域の特徴を含むことを特徴とする請求項1に記載の音域バランシング方法。
- 前記訓練済みの音域バランシングモデルは、オンライン音域バランシングモデル及び/又はオフライン音域バランシングモデルを含むことを特徴とする請求項1に記載の音域バランシング方法。
- 特徴抽出モジュール及び音域バランシングモジュールを含むディープラーニングに基づく音域バランシング装置であって、
前記特徴抽出モジュールは、オーディオを取得し、特徴抽出を実行してオーディオデータ特徴を取得するために使用され、
前記音域バランシングモジュールは、前記特徴抽出モジュールが抽出した前記オーディオデータ特徴に基づいて、訓練済みの音域バランシングモデルを利用して、音域バランシング結果を生成するために使用され、
前記音域バランシングモジュールは、オンライン音域バランシングモジュール及び/又はオフライン音域バランシングモジュールをさらに含み、
前記オンライン音域バランシングモジュールは、音楽データベースとユーザ好み音楽リストに基づいて、教師ありディープラーニング方法を用いてユーザが好む音楽のタイプをリアルタイムで評価してオンライン音域バランシングモデルを取得し、
既存の音楽スタイルのイコライザーを組み合わせてユーザのオンライン音域バランシング等化結果を取得するために使用され、
前記オフライン音域バランシングモジュールは、ユーザ好み音楽リストに基づいて、ユーザ好み音楽自体に対する特徴抽出を行い、教師なしディープラーニング方法を用いてオフライン音域バランシングモデルを取得し、
ユーザのオフライン音域バランシング等化結果を生成するために使用されることを特徴とするディープラーニングに基づく音域バランシング装置。 - 記憶装置及びプロセッサを備えるディープラーニングに基づく音域バランシングシステムであって、前記記憶装置には前記プロセッサにより実行されるコンピュータプログラムが記憶され、前記コンピュータプログラムは前記プロセッサにより実行される場合、請求項1乃至11のいずれか一項に記載のディープラーニングに基づく音域バランシング方法を実行することを特徴とするディープラーニングに基づく音域バランシングシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810583138.7A CN109147807B (zh) | 2018-06-05 | 2018-06-05 | 一种基于深度学习的音域平衡方法、装置及系统 |
CN201810583138.7 | 2018-06-05 | ||
PCT/CN2019/089757 WO2019233360A1 (zh) | 2018-06-05 | 2019-06-03 | 一种基于深度学习的音域平衡方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021525992A JP2021525992A (ja) | 2021-09-27 |
JP7136932B2 true JP7136932B2 (ja) | 2022-09-13 |
Family
ID=64802010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020567945A Active JP7136932B2 (ja) | 2018-06-05 | 2019-06-03 | ディープラーニングに基づく音域バランシング方法、装置及びシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11875807B2 (ja) |
JP (1) | JP7136932B2 (ja) |
CN (2) | CN113903346A (ja) |
WO (1) | WO2019233360A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113903346A (zh) * | 2018-06-05 | 2022-01-07 | 安克创新科技股份有限公司 | 一种基于深度学习的音域平衡方法、装置及系统 |
US10991379B2 (en) * | 2018-06-22 | 2021-04-27 | Babblelabs Llc | Data driven audio enhancement |
CN109741723A (zh) * | 2018-12-29 | 2019-05-10 | 广州小鹏汽车科技有限公司 | 一种卡拉ok音效优化方法及卡拉ok装置 |
CN109830244A (zh) * | 2019-01-21 | 2019-05-31 | 北京小唱科技有限公司 | 用于音频的动态混响处理方法及装置 |
CN113297412B (zh) * | 2020-02-24 | 2023-09-29 | 北京达佳互联信息技术有限公司 | 音乐推荐方法、装置、电子设备和存储介质 |
CN111339428B (zh) * | 2020-03-25 | 2021-02-26 | 江苏科技大学 | 基于受限玻尔兹曼机驱动的交互式个性化搜索方法 |
JP7026412B1 (ja) * | 2020-06-30 | 2022-02-28 | Jeインターナショナル株式会社 | 楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体 |
CN112287160B (zh) * | 2020-10-28 | 2023-12-12 | 广州欢聊网络科技有限公司 | 一种音频数据的排序方法、装置、计算机设备和存储介质 |
CN112333596A (zh) * | 2020-11-05 | 2021-02-05 | 江苏紫米电子技术有限公司 | 一种耳机均衡器的调整方法、装置、服务器及介质 |
CN112511472B (zh) * | 2020-11-10 | 2022-04-01 | 北京大学 | 一种基于神经网络的时频二阶均衡方法及通信系统 |
CN112632318A (zh) * | 2020-12-24 | 2021-04-09 | 安克创新科技股份有限公司 | 一种音频推荐方法、装置、系统及存储介质 |
CN112967732B (zh) * | 2021-02-25 | 2023-10-03 | 北京百度网讯科技有限公司 | 调整均衡器的方法、装置、设备和计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009508156A (ja) | 2005-09-08 | 2009-02-26 | ユニバーシティー オブ イースト アングリア | 音楽分析 |
JP2014093577A (ja) | 2012-10-31 | 2014-05-19 | Panasonic Automotive Systems Asia Pacific (Thailand) Co Ltd | 端末装置、サーバ装置、音声処理方法、設定方法、音声処理システム |
JP2017054121A (ja) | 2015-09-09 | 2017-03-16 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 音響調節装置及び方法と、ジャンル認識モデル学習装置及び方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06244747A (ja) | 1993-02-19 | 1994-09-02 | Fujitsu Ltd | 帰還型適応等化器 |
CN103037100B (zh) * | 2012-12-21 | 2015-02-18 | 广东欧珀移动通信有限公司 | 一种适用于智能手机的智能切换eq音效的方法 |
CN104078050A (zh) * | 2013-03-26 | 2014-10-01 | 杜比实验室特许公司 | 用于音频分类和音频处理的设备和方法 |
CN103413557B (zh) * | 2013-07-08 | 2017-03-15 | 深圳Tcl新技术有限公司 | 语音信号带宽扩展的方法和装置 |
US10497353B2 (en) * | 2014-11-05 | 2019-12-03 | Voyetra Turtle Beach, Inc. | Headset with user configurable noise cancellation vs ambient noise pickup |
KR102460393B1 (ko) * | 2015-04-30 | 2022-11-01 | 삼성전자주식회사 | 사운드 출력 기기, 전자 장치 및 그 제어 방법 |
WO2016175622A1 (en) * | 2015-04-30 | 2016-11-03 | Samsung Electronics Co., Ltd. | Sound outputting apparatus, electronic apparatus, and control method thereof |
US20170140260A1 (en) * | 2015-11-17 | 2017-05-18 | RCRDCLUB Corporation | Content filtering with convolutional neural networks |
US10509626B2 (en) * | 2016-02-22 | 2019-12-17 | Sonos, Inc | Handling of loss of pairing between networked devices |
CN109416733B (zh) * | 2016-07-07 | 2023-04-18 | 哈曼国际工业有限公司 | 便携式个性化 |
CN106027809B (zh) | 2016-07-27 | 2019-08-20 | 维沃移动通信有限公司 | 一种音量的调节方法及移动终端 |
US20180276540A1 (en) * | 2017-03-22 | 2018-09-27 | NextEv USA, Inc. | Modeling of the latent embedding of music using deep neural network |
CN107147792B (zh) * | 2017-05-23 | 2020-10-27 | 惠州Tcl移动通信有限公司 | 一种自动配置音效的方法、装置、移动终端及存储装置 |
CN107241511B (zh) * | 2017-06-30 | 2020-04-10 | Oppo广东移动通信有限公司 | 一种音乐播放方法、装置、存储介质和终端 |
US20190018644A1 (en) * | 2017-07-13 | 2019-01-17 | Josh Kovacevic | Soundsharing capabilities application |
US10838686B2 (en) * | 2017-07-13 | 2020-11-17 | Josh Kovacevic | Artificial intelligence to enhance a listening experience |
CN107886943A (zh) | 2017-11-21 | 2018-04-06 | 广州势必可赢网络科技有限公司 | 一种声纹识别方法及装置 |
CN113903346A (zh) | 2018-06-05 | 2022-01-07 | 安克创新科技股份有限公司 | 一种基于深度学习的音域平衡方法、装置及系统 |
CN109147804A (zh) * | 2018-06-05 | 2019-01-04 | 安克创新科技股份有限公司 | 一种基于深度学习的音质特性处理方法及系统 |
US11199853B1 (en) * | 2018-07-11 | 2021-12-14 | AI Incorporated | Versatile mobile platform |
CA3115718A1 (en) * | 2018-11-02 | 2020-05-07 | Cser Ventures, LLC | System for generating an output file |
US11481628B2 (en) * | 2019-11-26 | 2022-10-25 | Gracenote, Inc. | Methods and apparatus for audio equalization based on variant selection |
-
2018
- 2018-06-05 CN CN202111038622.XA patent/CN113903346A/zh active Pending
- 2018-06-05 CN CN201810583138.7A patent/CN109147807B/zh active Active
-
2019
- 2019-06-03 JP JP2020567945A patent/JP7136932B2/ja active Active
- 2019-06-03 WO PCT/CN2019/089757 patent/WO2019233360A1/zh active Application Filing
- 2019-06-03 US US17/059,179 patent/US11875807B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009508156A (ja) | 2005-09-08 | 2009-02-26 | ユニバーシティー オブ イースト アングリア | 音楽分析 |
JP2014093577A (ja) | 2012-10-31 | 2014-05-19 | Panasonic Automotive Systems Asia Pacific (Thailand) Co Ltd | 端末装置、サーバ装置、音声処理方法、設定方法、音声処理システム |
JP2017054121A (ja) | 2015-09-09 | 2017-03-16 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 音響調節装置及び方法と、ジャンル認識モデル学習装置及び方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2019233360A1 (zh) | 2019-12-12 |
CN109147807A (zh) | 2019-01-04 |
US11875807B2 (en) | 2024-01-16 |
CN113903346A (zh) | 2022-01-07 |
US20210217430A1 (en) | 2021-07-15 |
CN109147807B (zh) | 2023-06-23 |
JP2021525992A (ja) | 2021-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7136932B2 (ja) | ディープラーニングに基づく音域バランシング方法、装置及びシステム | |
US11790934B2 (en) | Deep learning based method and system for processing sound quality characteristics | |
US10679256B2 (en) | Relating acoustic features to musicological features for selecting audio with similar musical characteristics | |
US7696427B2 (en) | Method and system for recommending music | |
US11157542B2 (en) | Systems, methods and computer program products for associating media content having different modalities | |
US20080235283A1 (en) | Generating audio annotations for search and retrieval | |
US10129314B2 (en) | Media feature determination for internet-based media streaming | |
CN114822512B (zh) | 音频数据的处理方法、装置、电子设备及存储介质 | |
US20210303612A1 (en) | Identifying media content | |
US11082789B1 (en) | Audio production assistant for style transfers of audio recordings using one-shot parametric predictions | |
TW201104466A (en) | Digital data processing method for personalized information retrieval and computer readable storage medium and information retrieval system thereof | |
CN109147816B (zh) | 对音乐进行音量调节的方法及设备 | |
US11887613B2 (en) | Determining musical style using a variational autoencoder | |
US20180173400A1 (en) | Media Content Selection | |
CN111445922B (zh) | 音频匹配方法、装置、计算机设备及存储介质 | |
CN111859008A (zh) | 一种推荐音乐的方法及终端 | |
Radhika et al. | Personalized language-independent music recommendation system | |
WO2019233359A1 (zh) | 对音乐进行通透处理的方法及设备 | |
US20220382798A1 (en) | Systems and methods for content item distribution and interaction | |
US20240087547A1 (en) | Systems and methods for transforming digital audio content | |
Mendes | Deep learning techniques for music genre classification and building a music recommendation system | |
US11886486B2 (en) | Apparatus, systems and methods for providing segues to contextualize media content | |
Omojokun et al. | Impact of user context on song selection | |
CN116758897A (zh) | 方言语音指令的识别方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220901 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7136932 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |