TW200925976A - Media player for playing media files by emotion classes and method for the same - Google Patents
Media player for playing media files by emotion classes and method for the same Download PDFInfo
- Publication number
- TW200925976A TW200925976A TW096147776A TW96147776A TW200925976A TW 200925976 A TW200925976 A TW 200925976A TW 096147776 A TW096147776 A TW 096147776A TW 96147776 A TW96147776 A TW 96147776A TW 200925976 A TW200925976 A TW 200925976A
- Authority
- TW
- Taiwan
- Prior art keywords
- media
- category
- unit
- music
- media file
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/081—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/085—Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/135—Library retrieval index, i.e. using an indexing scheme to efficiently retrieve a music piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/155—Library update, i.e. making or modifying a musical database using musical parameters as indices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/005—Algorithms for electrophonic musical instruments or musical processing, e.g. for automatic composition or resource allocation
- G10H2250/015—Markov chains, e.g. hidden Markov models [HMM], for musical processing, e.g. musical analysis or musical composition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Description
200925976 九、發明說明: 【發明所屬之技術領域】 本發明涉及媒體播放技術,特別涉及一種實現分類 放的媒體播放器、以及一種媒體槽的分類播放方法。 【先前技術】 隨者多媒體技術的不斷發展’媒體播放器得到了廣、
的應用。圖1為現有媒體播放器的結構示意圖。如圖i ^ 示,現有媒體播放器包括:主控單元lm、媒體檔庫1〇2所 音頻解碼單元1〇3和音頻輸出單元1〇4。 、 主控單元101根據外部輸入的用戶指令 102中與該用戶指令對應的至少—個媒趙播輸出 碼單元103。 頭解 其中,媒體檔庫1〇2中儲存著多個媒體檔。 音頻解碼單元103對接收到的媒體檔進行音 "將音頻解碼後音頻資料輪出給音頻輸出單元取。·'、, 音頻輸出單元1〇4播放輸出接收到的媒體槽。 實現述聰触器通過麵、音頻解竭和輪出 現了媒體檔的播放。然而,由, 越來越多樣化,例如,用 十媒體播放的需求 能希望播放不同的媒體檔,因:同,境或不同的時間可 單地進行查找、音頻解碼和以述媒體播放器只能簡 已經無法有效滿足用戶的’〃實現對媒體檔的播放, 實用性不高。 、’從而使得現有媒體播放的 【發明内容】 5 200925976 • 有參於此,本發明了提供一種實現分類播放的媒體播 • 放器、以及一種媒體檔的分類播放方法,能夠提高媒體播 放的實用性。 本發明提供的一種實現分類播放的媒體播放器,包 括:主控單元、媒體檔庫、音頻解碼單元、音頻輪出單元, 該媒體播放器進一步包括:音樂情感分類單元,其中, 所述音頻解碼單元,對接收到的媒體檔進行音頻解 〇 碼,並將音頻解碼後音頻資料輸出; 所述音樂情感分類單元,對解碼後的音頻資料進行情 感分析,根據分析結果並按預設的情感類別進行分類,將 分類結果提供給主控單元; 所述主控單元,根據用戶輸入的類別選擇指令,調取 媒體檔庫中與該指令所表示類別相同的各媒體檔用以播 放。 所述音樂情感分類單元包括:音樂元素 G 心__配子單元,射, 所述音樂元素分析單元,接絲自所料鑛碼單元 的音頻資料,從當前接收_音_料中提取各種音樂基 本元素,取出的音絲本元素作騎赌果,與當二 接收到的音頻資料對應的媒體槽標識—起輸出給所述:理 模型匹配子單元; 所述心理模型匹配單元,儲存多個預設的心理模型; 將當前接收_分析結果私、賴_行匹配,得到與媒 體檔標識表示的媒體檔匹配的心理模型,將匹配的心理模 6 200925976 型作為該媒體槽所屬的情感類別, 起輪出給所述主控單元。 f應的媒體槽標識- 所述音樂情齡_对包括 具有智慧學習功能的分類器,其中,行吨取子早兀和 所述簡單特徵提取子單元,接收音頻解碼 =接收到的音頻資料中提取簡單特徵後,輪出 ❹ ❹ 單特=分=根據預先計算得到的參數,對接收到的簡 寺被進仃刀析,得到該簡單特徵對應 :理模型,並將每個媒體槽匹配的心理模型 私識一起輸出給所述主控單元。 % 、檔 狀貞單元包括:酿儲料Μ,用於 儲存每個媒體檔所匹配的情感類別。 、 關度:與所侧樓的相 體播齡料進—步赫崎心理翻與所述媒 所述媒體播放器進-步包括顯示單元,用於將當前播 放的媒體檔與其匹配的心理模型的相關度顯示輸出。 所=樂基本元素包括:音樂的速度、力度 万疋律、音色。 單元触11射料賊g,麟音歸感分類 細軸刪細峨關係對 7 200925976 樂對心理影響之間的相關性建立 境對il ’所骑_顺舰__應_是按照環 兄對人類心理影響和音. 的。 步包括:環境感測單元,用於感 該媒體播放器中進一 射媒體魏H所處外部環境的環境參數; 別的儲存單元中進一步儲存了環境參數與環境類
述主控單域—步根據所述環境參數與環境類別的 ’、、系,查找與所述環境感測單元感測到的環境參數 匹配的環境類別。 、所述環境感測單元包括下述之_或任意組合:加逮度 感测器、溫度感測器、光感測器、聲音感測器、計 其中, 所述加速度感測器,感測所述媒體播放器在外力作用 下移動%所具有的加速度,並將感測到的加速度取值輸出 給所述主控單元; 所述溫度感測器,感測所述媒體播放器所處外部環境 的溫度,並將感測到的溫度取值輸出給所述主控單元; 所述光感測器,感測所述媒體播放器所述外部環境的 光線強度,並將感測到的光線強度取值輸出給所述主控單 元; 所述聲音感測器,感測所述媒體播放器所述外部環境 的聲音的類別和強度,並將感測到的資訊輸出給所述主栌 單元; 1 8 200925976 所述計時器,將當前時間輸出給所述主控單元。 日樂It感分類單元進—步按照預設的行為狀態類 別與情感類別的對應關係對媒體檔進行分類; ”令所述仃為狀態_赠感鋪的對顧係是按 …人類在不同行為狀態下對心理的需求和音樂對心理影響 之間的相關性建立的。 ❹ ❹ 本發明提供的-種媒體檔的分崎放方法,包括: 對接收到的舰槽進行音頻解鄕到音頻資料; 對解碼後的音頻資料進行情感分析,根據分析結果並 按預設的情感類別進行分類; 根據用戶輸人的類輯擇指令,調取媒體檔庫中與該 指令所表示類別相同的媒體檔用以播放。 所述對解碼後的音頻資料進行情感分析,根據分析結 果並按預設的情感類別進行分類包括: 從音頻資射提取各種音絲本元素,將提取出的音 樂基本元素作為分析結果; 將所述分析結果與職心賴觀行匹配,得到與媒 體檔標識表示的雜觀配的心理_,將匹配的心理模 型作為該媒體權所屬的情感類別,與對應的媒體權標、 起輸出。 所述對解碼後的音頻資料進行情感分析,根據分析結 果並按預設的情感類別進行分類包括: 從音頻資料中提取簡單特徵; 根據預先計算得到的參數,對接收到的簡單特徵進行 200925976 分析’得到該簡單特徵對應的媒體檔所匹配的心理模參, 並將匹酉己的〜理模型作為該媒體播戶斤屬的情感類別,與對 應媒體槽標識一起輸出。 所述將匹配的心理模型作為該媒職所屬的情感類 別,與對應雜蹄識—域出之後,該方法進—步包拉: 儲存媒體檔所匹配的情感類別。 該方法進一步包括: ❹ 設置所述心理模型與所述媒體槽的相關产. 模型===將當前播的媒職與其匹配的心建 旋律所^縣本騎战:音料迷度、力度'節奏、 進行:預設的環境_與情感對娜 其中,所述環境類別與情咸 境對人類心理影響和音樂對^旦/的對應關係是按照環 的。 響之間的相關性建立 所述按照預設的環境類 體標進行分類之前,該方法進的對應關係對媒 感測外部環境的環境參數;,匕括. 根據所述環境參數與環卢 測到的環境錄所匹配的環贿應關係,查找與感 200925976 =述_碼_音㈣料進行情感讀,根據分析結 果亚按預設的情感類別進行分類進一步包括: 按照預設的行為狀態類別與情感類別的對應關係對媒 體播進行分類; ' 是按 影響 其中’所猶為狀_顯情__對應關係 照人類在㈣行為狀態下對謂的絲和音樂對心理 之間的相關性建立的。
有上麵術方案可見,本發0綠翻戶輸人的指令, ^該指令對雜_各賴魏行音賴職播放 用戶可根據其當前的心情、其當前所處環境、其當前 ’輸入相應的指令,表示其_聽到不同舒緩度、 :1;1=:::::;:— 求,從而能夠提高媒體播放的實用性。 而 【實施方式】 f吏本發_目的、技術轄及優點更加清楚明白, 以下參照®式並舉實施例,對本翻進—步詳細說明。 本發明中,根_戶輪人的指令 的各媒體擋進行音頻解顧播放。例如:;丄=員別 前的心情《倾所麵顿人相
====輯度等類顺音樂,顧 根據私令触符合用戶絲的魏檔。 PT 其中,媒»的分_以按照如下 音頻解碼彳歸_妨繼㈣分析,得到包ί 11 200925976 媒體檔的音樂播放速度、力度、節奏、旋律、音色等音樂 基j元素的分析結果;紐將分析結果與預設的心理模型 進行匹配’例如與表示不同舒緩度、激情度等心、理模型進 行匹配’得到與媒體檔匹配的心理模型,作為表示情感類 別的匹配結果’匹配相同心理模型的各媒體檔,即屬於相 同的類別。
▲圖2為本發明中實現分類播放的媒體播放器的結構示 思圖。如圖2所示,該媒體播放器包括:主控單元⑽、 媒體檔庫102、音頻解碼單元、音頻輸出單元ι〇4、音 樂情感分類單元205、顯示單元206。 曰 音頻解碼單元1G3,對接收到的媒體檔進行音頻解碼, 205 並將音頻解碼後的音頻資料輸出給音樂情感分類單元 或音頻輪出單元104。 音樂情感分類單元2〇5,對解碼後的媒體檔進斤清感 刀斤’根據分析結果並按預設的情感類別進行分類,將八 類結果提供給主控單元101。 、刀 元1G1七據用戶輸人表示不同情感類別的類 同=體檔=ri02中與該指令所表示類別相 例如’錄單元可將與·令所絲__的各媒 ,的音頻資料通過顯示單元施顯示到用戶介面(供用 =選擇是否播放、選擇播放其中的哪—個或,個媒體 :)、或經音頻解碼單元1〇3解碼後由音頻輸出單元1〇 λτΤ 〇 *** 12 200925976 類3媒!播放器實現了媒體檔的分類播放。 在刀類播放之前,主控粟 和音樂情感分類單元2〇5還需 ^^解碼單凡103 檔㈣中儲存的媒體檔進;^仃協同處理,以對媒體 給音==輸鱗心嘯檔依次輸出 ❹ 音頻解碼單元Κ)3,對魏_舰 並將音頻解錢的音㈣顯㈣音雜齡鮮 音樂情感分類單元205,從來自音頻解碼單元ι〇3的 音頻資料t提取舰_播放速度 '力度、節奏、旋律、 各ί音樂基本元素;將從各音頻資料中提取出的音 綠本元素分職職的各心理_進行匹配,將解 的音頻資料匹配不同心理模型的雜檔分為不同情感類 別’並儲存情感類別與媒體檔的對應關係,以實現如圖2 所示的媒體播放器能夠按類別播放對應的媒體檔。 這樣’上述如圖2所示的媒體播放器則能夠實現美於 不同心理模制媒赌分_放。用戶卩卩可根據其當^的
心情或其當前所處環境,選擇播放不同舒緩度、激^度 類別的媒體文件。 月X 具體來說,音樂情感分類單元205可以從媒體標中提 取各種音樂基本元素,並根據提取出的音樂基本元素與預 設心理模型的匹配結果對媒體檔進行分類;音樂情感^類 單元205還可以通過智慧學習方式對媒體檔進行^類= 如果採用前一種方式,則音樂情感分類單元2仍中可 13 200925976 、心理模型匹配子單元 以包括:音樂元素分析子單元2051 2052、列表儲存子單元2053。 中提單:2051 ’從當前接收到的音頻資料 合禋曰樂基本7G素,例如音樂播放速度、力度、筋 ΐ果旋1、音色等,並將提取錢音躲本元素作為分析 '二/、該音頻資料對應的媒體檔標識—起輸 型匹配子單元2052。 稞 ❹ ❹ 其中,播放速度、力度、節奏、旋律、音 本疋素’射吨元素娜並_現有方式來提取Γ 心理模迦配子單元細,齡多個職的心理模 兄j如表示不同舒緩度、不同激情度等心理模型;將當 到的分析結果與讀模魏行腿,制與媒體槽 W、不的媒體檔匹配的心理模型,將匹配的心理模型作 為該媒體檔所屬情感_,與對應的媒體槽標識一起輸出 給列表儲存子單元2503。 去槐ί中’不同心理模型是由不同取值的各種音樂基本元 立的,因此,將提取出的音樂基本元素與心理模型中 、土本元素進行比較,即可獲得匹配的心理模型。匹 =的方式可叫:如果從某—雜躺音頻資料中提取的 :樂基本元素與某-心理模财的各音樂基本元素的相關 度大於預設域值時,即該媒體檔與批理模型的相關度大 於預設域_,_定魏簡與批理模型匹配。例如, 當從媒職1中提取的音縣本元素,與诚模型i中的 對應音樂基本元素_關度為9G%,大於預設閾值60%, 200925976 則確定媒體檔1與心理模型〗匹配 檔與其所屬類別的相關度。 目關度可看作媒體 列表儲存子單元2053,鍺存 每個媒體檔所匹配的情感_。刀頰列表,列表令包括 ❹ ❿ 所屬财匹时料2052辦每_體檔與其 列表二:目關度也輸出給列表館存子單元2。53,則 趙播所_二^的分類列表中,還可以储存每個媒 實際應用中,心理模型匹配子單元2〇6可以 Ϊ媒體 f所屬情感類別及其對應的媒體檔標識輸出給主控 使彳^控單元1G1獲知每個__屬類/ 乂由主控單元101再將每個媒體文件所屬 1月感I別及其對應的紐難職出給齡列表子 2053^並儲存到分類列表中,以便後續接收到用戶輸 心令此夠根據該分類贿巾贿麟應_獲 感 類別的各媒體檔。 〜席琢 _當然’在確定分類類型後,也可以不以列表儲存子單 70 2053的形式存在’可以直接在媒體庫的相應媒體槽的 性上加上情感類型即可。 心理模型匹配子單元2〇52還可以直接將每個媒體檔 所屬情感類別及其對應的媒體樓標識輸出給儲存列表子單 元2053 ’並儲存到分類列表中,而不需主控單元101的中 繼轉發。 τ 這樣’主控單元101根據外部輸入的用戶指令和列表 15 200925976 儲存單元207中的分類列表,將媒體槽庫⑽中鱼戶 指令對應的至少-個類別的各媒體槽輸出給音頻解= 103。 例如,心理模型卜心理模型2、心理模型3,分別表 示悲傷度、激情度、舒緩度這3個情感類別,則用戶輸入 表示激情度和舒緩度的指令之後,主控單元ι〇ι即在列表 儲存單元2〇7 +查找與心理模型2和心理模型3所對應的 各媒體檔標識’然後調用媒體文件庫1〇2中與查找的各媒 體檔標識對應的媒體檔,輸出給音頻解蝎單元1的。 、音頻觸單元1G3對接收_舰_行音頻解碼, 並將音頻解碼後的音頻資料輸出給音頻輸出單元1〇4。 音頻輸出單元1G4播放輸出接㈣的音縫料,即實 現了滿足激情度等級2和舒緩度等級丨的各媒體檔的播放。 用戶輸入的指令可能表示多種情感類別,用戶輸入的 指令也可能表轉麟放絲示各情感_。這種情況 下’為了使得用戶能夠獲知當前播放的媒體檔是屬於哪一 個情感類別’如圖2所示的媒體播放器中的顯示單元2〇6, 還可以將§㈤播放的媒體檔所屬情感細彳的資訊顯示輸 出。 其中,該資訊可以是情感類別所對應的心理模型名 稱,也可以是心理模型所表示的情感類別名稱,例如,“舒 緩度等級1”、“激情度等級2”等。 同時,由於列表儲存單元2053中還可以儲存媒體檔與 其所屬類別的相關度,因此,顯示單元還可以將當前播放 16 200925976 =體檔與其所屬_的相酸顯示細 ==_^”,__體檔=; ^也酬糊度齡;假設上—次播放的媒 ==2型的上:= 妙不以“相關度 則用戶即可獲知,雖 ❹ ❹
然兩-人播放的媒體檔均對應“舒緩度,,,但相比之合> 播放的媒體文件更加舒緩。 田J a I見;;本發明中的媒體播放11可根據用戶輸入的指 7 ’播放付合用戶在當前環境或時間所希望播放的—個或 多個=«體檔’滿足了用戶對媒體播放的多樣化需 還月b夠進—步顯示輸出當前播放的媒體檔的相關資 訊,從而進-步提高了媒體播放的實用性。 上述實施例中音樂基本元素的定義十分直觀,與心理 模型之間有著直接的__,但是射錄元素的計算 過程較為娜,計制果也雜充分表_元素的意義, ^此’我們可以簡化音樂元素的提取,代之以—些計算簡 =的特徵’並採用智慧學習的方法實現媒體檔的分類。該 實施方案的_在於特徵計算簡單、分類器設計理論成 熟、基於學習的分類方法更為可靠。 〇〇在音樂情感分類單元205中,用一個簡單特徵提取子 單元和分類器替換音樂元素分析子單元2〇51和心理模型 匹配子單元2052。其中的簡單特徵可以包括短時能量、短 時平均幅度、短_舰等;分顧可以為财的人工神 經網路(ArtifidalNeuralNetWOTk ’ ANN)分類n、隱馬爾 200925976 科夫模型(Hidden Marlc〇vMQdej, 種具有學_力親有分類^ 類器4任意— 媒』=2 預先挑選若干 坪定,破ίΓ 』媒體檔的心理模型分別進行 叔•母靖_雜_心理_。崎 模型的媒體檔的音頻資料作為分類器的訓練 ❹ 體3==理模型作為分鋪的期望輸出,根據預設學 型儘量接i=r參數’以使得分類器輸出的心理模 是智慧學習過^而實現分_訓練過程,也就 特練過程的分類器即可實現媒體檔的分類。簡單 i寺贼取子單元的輸入端與音頻解碼單元103相連,接收 二頻解碼後的音锻料,從接收到的 ❹ =,嫩咖;咖根義到=年 的媒趙特徵進行分析,最後輸4該簡單特徵對應 的媒體檔所匹配的心理模型。除此之外,分類可 出簡單特徵對應的舰類其匹_心理模型的相關度/ p該媒體檔以多大的概率匹配於該心理模型。 個媒二t音樂情感分類單元205即可將分類器得到的每 給^體?匹配的心理模型以及對應的媒體槽標識一起輪出 ,控單元101,還可以根據每個媒體檔匹配的心理模型 =定並儲存每墙·情感_,並將每個舰文件所屬 月感類別及其對應的媒體檔標識輸出給主控單元101。 18 200925976 述如圓2所示的媒體播放器 於攜帶的可_賊器,職,積小巧,便 器處於不同的_下隨身攜帶該媒體播放 體_的列表儲存單元207 ’媒 類別的對應_,主]Q1 環摘别與倩感 列表儲存單元2〇7〇1即可根據該對應關係,在 一找/、任意一種環境類別所對應情残 ❹ ===_,_文件庫收中= ⑽和音細’㈣音贿碼單元 具體來說,音樂情感分類單元2〇5可以進 獅咖鱗輸進行分類, ^樂障感刀類單70 205中可儲存該對應關係。主控單元 a即可,據用戶輸入的表示不同環境類別的類別選擇指 々’以及環境類別與情感類別的對應關係,調用媒體檔庫 2中’與該指令所表示環境類別相同的各情感類別的媒 _通過顯示單元206顯示到用戶介面、或經音頻解碼單 凡二03解碼後由音頻輸出單元1〇4賊。簡單的說,就是 使得用戶能夠在不同環境聽不同的音樂。 其中’環境類別與情感類別的對應關係是根據環境對 人類心理影響和音樂對心理影響之間的相關性建立的。而 環境對人類心理影響、音樂對心理影響可以是預先統計分 析的經驗值。 可見,本發明中的媒體播放器還可以使得用戶能夠根 據其自身所處環境來選擇媒體檔’進一步提高了媒體播放 19 200925976 器的實用性。 進一步地,本發明中的媒體播放器還可以自動識別其 自身所處環境狀態,從而自動選擇符合該環境狀態的心理 模型所對應的媒體檔進行播放。 這種情況下,該媒體播放器中進一步包括:環境感測 單元(圖中未示出)’用於感測該媒體播放器所處外部環境 的環境參數。 具體來說,環境感測單元中可以包括下述之一或任薰 組合:加速度感測器、溫度感測器、光感測器、計時器。 加速度感測器,感測媒體播放器在外力作用下移動時 所具有的加速度,並將感測到的加速度取值輪出給所述主 控單元101 ’例如,如果媒體播放器為可檇式,則用戶會 帶動該媒體播放器行走、奔跑,對該媒體播放器產生加速 度。 溫度感測器,感測媒體播放器所處外部環境的溫度, 並將感測到的溫度取值輸出給所述主控單元1〇1,主控單 元101可根據當前光照強度選擇對應的媒體檔播放,例如 在溫度較高時可以播放激情度較高的媒體檔,在溫度較低 時則播放舒緩度較高的媒體檔。 光感測器,感測媒體播放器所述外部環境的光線強 度,並將感測到的光線強度取值輸出給主控單元1〇1 ,主 控單元101可根據當前光照強度選擇對應的媒體檔播放, 例如在光照強度較高時可以播放激情度較高的媒體檔,在 光照強度較低時則播放舒缓度較高的媒體檔。 20 200925976 聲音感測器,可以是麥克風,感測媒體播放器所述外 部環境的聲音的類別和強度,並將感測到的資訊輸出給主 控單元101。
❹ 計時器,將當前時間輸出給所述主控單元101,主控 單元101可根據當前時間判斷出當前是白天或是夜晚,從 而選擇對應的媒體檔播放,例如在白天可以播放激情度較 高的媒體檔,在夜晚則播放舒缓度較高的媒體檔。 同時’列表儲存單元207中則進一步儲存了環境參數 與環境類別的對應關係;主控單元101則根據環境參數與 環境類別的對應關係,查找與環境感測單元感測到的環境 參數所匹配的環境類別。 例如,假設加速度感測器測量到的加速度值大於預嗖 的閾值,則主料元根據環境參數與5衷境類獅對^ 係,判斷出媒體播放器當前所處環境為運動環境,再 環境類別與心理模型的對應關係,在列表健存單元撕中 查找表示激情㈣級Kn —理翻所對應簡 識,從而將舰轉丨〇2中與上魏顯 = 槽輸出給音頻解瑪單元心以實現激情度等級 體檔的播放。 久i η的媒 同理 ,主控單元1G1根據接_的各 值、以及列表儲存單元2〇7巾環境參數=參數的取 關係,自動判斷出媒體播放器#前所^別的對應 可見’本發明中的媒體播放器還能夠自動根 查找與對應心理模型對應的媒體槽並播玫,進而 據其自身 21 200925976 的實^來選擇髓文件,更進—步地提高了媒體播放器 兔詩务月提供的媒體播放器’還能夠根據用戶所處的行 =二例如用戶在休息、在工作、在健身、在學習、睡 撰I斜庙=走、在散步時等行為狀態下,對心理的需求, 、擇^應情感類別的媒體檔進行播放。 的况下,音樂情感分類單元205進一步按照預設 麵仃^軸顺情__對應隱對舰檔進行分 單-料感分類單元205中可儲存該對應關係。主控 別、登静Γ可根據用戶輸入的表示不同行為狀態類別的類 =表r戶在休息灿 行為狀在订走、在散步時等人類行為狀態,以及 中,盥:社1、情感類別的對應關係,調用媒體檔庫1〇2 ❹ 體檔通;表:::狀態類別相同的各情感類別的媒 元103紐u 顯不到用戶介面、或經音頻解碼單
解碼後由音頻輸出單元1G 類在別=感類別的對應關係是敝 的相關性的需求和音鱗心理影響之間 立ij 類在不同行為狀態下對心理的需求、 9縣響可以是預先崎分析的經驗值。 本發种媒體播放11的詳細說明,下面,對 某體播放中的分類方法進行詳細說明。 圖3為本發日种媒體_分_放過程的流程示意 22 200925976 圊。如圖3所示,該方法包括以下步驟: 齡’根據用户輪入的指令和預先獲取的情感類 別與媒體檔的對應闕係,將 又取⑽琢類 檔進行音頻解媽。 …所表不類別的各媒體 ❹ 料,騎音贿-到音頻資 果並按預設行分析結 媒體播放_部處理過程“類^^與如讀述的 =可輪人表示不同情感_的類別選擇指 樣=步驟中,即可根據用戶輸入的該指二 不賴感_的各媒體槽,並進行音頻解碼。— ❹ 本步驟之前’用戶還可哺人表示 _狀態類別的類別選擇指令,這樣,在本== 預先獲取的魏_與賊綱的對細係、和 二广類別與情感類別的對應關係,查找對符合環境類 :、行為狀義別的各媒職進行音_褐,帛以實 的音樂、戶在做不同的事情 步驟302 ’利用解碼後的音頻資料播放媒體檔。 在執行本步驟的同時,還可以將當前播放的媒體 屬情感類別顯示輸出。 田所 至此’本流程結束。 :中,在上述流程中的步驟301之前,可以通過 過程來實現媒體檔的分類。 下 23 200925976 *所,4為本發日种媒體齡類過程的流程示意圖。如圖 步驟侧’將媒體檔庫中的媒體擋進行音頻 某本從音頻解碼後的音頻資料中提取各種音樂 如該媒體_音樂播放速度、力度、節;:
以為本步驟中,以節奏為例,提取音樂基本元素的過程可 4〇2a,w貞為單位接收音頻解碼後的音頻資料 前接收到的i音頻資料(包括聰個採樣點的時域^ 號)使用FFT變換將信號從時域編換到頻域,得到頻域^ 信號an+jbn,η為大於等於〇且小於等於511的正整數。 402b,計算頻域復信號的幅。 402c ’按照預細分的乡個子帶’分別計算每個 的幅度’作為暫態能量。 例如’可以按照50〜200、200〜400、400〜8〇〇、 800〜1_、咖〜遍、32GGHz社,細分6個子帶。 實際應用中,暫態能量可按照如下公式來計算: 五朋=是|4”],其中,£/[/]表示第i個子帶的暫態能量、 %表示第i個子帶的寬度、&表示第i個子帶的起始譜線, i為大於1的正整數。 每次執行402c之後,均儲存當前幀的各子帶暫態能 量,並按照先進先出的原則,刪除最先儲存的一個幀的各 子帶暫態能量。 24 200925976 . 4〇2d ’讀取已儲存的m個幀的各子帶的暫態能量 五〇[’·],分別计鼻m個巾貞在每個子帶的暫態能量五朋的平均 值Ε4[η和方差。 其中,m為1秒内緩存在歷史能量緩衝子單元2〇54的 幀數量,m的取值通常為43。 實際應用中,第i個子帶的暫態能量平均值似^]和第i 個子帶的暫態能量方差可以分別按照如下公式來計 ❹ 算: ,j為大於等於1且小於等於m的正整 數、為讀取的第j個幀的第i個子帶的暫態能量; 欣W =丄。
, 所 j=Q 402e ’根據計算得到的尋·]和鄉],判斷當前幀每個子 ' 帶的暫態能量泣W是否為峰值能量,如果是,則將判斷為峰 值能量的及W確定為提取的音樂基本元素並輸出,即實現了 音樂基本元素中節奏的提取。 ❹其中’當师]大於c W]、且师]大於V時,判斷_ 為峰值能量,C和V是兩個由實驗確定的常數,通常情況 下,C=250,V=150 〇 至於播放速度、力度、旋律、音色等音樂基本元素提 取,則可通過現有方式來實現。 步驟彻’將從當前音頻資料中提取出的音樂基本元 素與預設的心理模塑進行匹配,將與當前媒體槽匹配的心 理模型作為該音頻資料對應的媒體檔所屬的媒體楷類型。 本步驟中’預設的心理模型可以為表示不同舒緩度、 25 200925976 不同激情度等心理模型。 其中,不同心理模型是由不同取值的各種音樂基本元 素構成的,因此,將提取出的音樂基本元素與心理模型中 的音樂基本元素進行比較,即可獲得匹配的心理模型。 步驟撕,儲存每個媒體檔與其所屬情感類別的對應 關係。 至此,本流程結束。
可見,一基於如® 4所示的流程,在媒體播放時,通過 如圖3所示的流程能夠播放符合用戶在㈣環境或時間所 希望播放的-個或多軸別的媒雜,滿足了用戶對媒體 播放的多樣化需求,從而能夠提高媒體播放的實用性。 除此之外’本發明中還可以進一步預先設置環境類別 與情感類別的對應_、和/或行為狀態_與情感類別的 對應關係。 用戶輸入的指令表示環境類別,則步驟301中的且體處 過程可以包括: ,、體堤 的麵棘酬和/或行為狀態類別 二二情感類別的對應關係、和/或行為狀態 別與情感__應_,確骑觸情感類別. 、根據__觸_的職_,將 感類別對應的各舰槪行音_碼。’、、 涉及上述環境類別和/或行為狀態類 如前所述_播物部處理過潮在m 26 200925976 這樣,即可使戶姆其當前所麵境、和/或其行 為狀態,選擇播放用戶所需的媒體檔。 以上所述僅為本發明的較佳實施例而已,並非用於限 定本發明的保護範圍。凡在本發明的精神# ^ 作的任何修改、等同替換以及原則之内’所 的保護範圍之内。 補包含在本發明 Ο 〇 27 200925976 【圖式簡單說明】 圖1為現有媒體播放器的結構示意圖。 圖2為本發明中實現分類播放的媒體播放器的結構示 意圖。 圖3為本發明中媒體檔的分類播放過程的流程示意 圖。 圖4為本發明中媒體檔分類過程的流程示意圖。
【主要元件符號說明】 205音樂情感分類單元
28
Claims (1)
- 200925976 十、申請專利範圍: 1、一種實現分類播放的媒體播放器,包括:主控單元、 媒體檔庫、音頻解碼單元、音頻輸出單元,其特徵在=, 該媒體播放器進一步包括:音樂情感分類單元,其中,' 所述音頻解碼單元,對減_舰贱行音頻解 碼,並將音頻解碼後音頻資料輸出;Ο 所述音樂賊分類單元,對解碼後的音頻資料進行情 感分析’根據分析結果並按預設的情感類別進行分類 分類結果提供給主控單元; 所述主控單70 ’根據用戶輸入的類別選擇指令,調取 媒體播庫巾與令職轉_ _舰制以播放。 2、如申請專利範圍第1項所述的媒體播放器,其特徵 在於’所述音輯齡轉元包括:音樂騎分析子單元、 心理模型匹配子單元,其中, 所述音樂元素分析單元,接收來自所述音頻解碼單元 的音頻資料’從當前接收_音㈣料巾提取各種音樂美 本元素,將提取出的音樂基本元素作為分析結果與; = :::3料對應的媒體檔標識-起輸出給所述:、理 所述心理模型匹配單元,儲存多 將當前接收到的分析結果與心 =婼 ==:媒體槽匹配的心理模型,將匹配= 情感麵,與對麟媒《標^ 29 200925976 在於3,:二:二範圍第1項所述的媒體播放器,其特徵 和具有類單元中包括簡單特徵提取子單元 憨予各功旎的分類器,其中, 所述簡單特徵提取子單元,接收版 料’從接_的音师料 ==頻資 分類器; 斤賴傻,細給所述Ο 類器根據預先計算得到的參數,對接收到 ’得到該簡單_應的媒體檔所匹配的 。理模型,並將匹配的心理模型作為該媒體檔所 類別,與對應媒體檔標識一起輸出。 月感 4、如中請專利範圍第2或3項所述的媒體播放器,並 特徵在於,所述音樂情感分類單元包括:列表錯存元、, 用於儲存每個媒體權所匹配的情感類別。 5、如申請專利翻第2或3項所述的媒體播放器,並 特徵在於,所述與舰觀配的讀模型為:與所述媒^ 檔的相關度大於預設閾值的心理模型。 、 6、如申請專利範圍第2或3項所述的媒體播放器,其 特徵在於,所述酿齡單元進-步儲存所述心理模型^ 所述媒體檔的相關度; ' ' 所述媒體播放器進一步包括顯示單元,用於將當前播 放的媒體檔與其匹配的心理模型的相關度顯示輪出。胃, 7、如申請專利範圍第2項所述的媒體播放器,其特徵 在於,所述音樂基本元素包括:音樂的速度、力度、節奏、 旋律、音色。 30 200925976 麟1=申請專利範圍第2或3項所述的媒體播放器,其 !^所述媒體播放器為可檇式播放器,所述音樂情 ^ 二步按照預設的環境類別與情感類別的對應 關係對媒體槽進行分类員. 其中所述核境類別與情感類別的對應關係是按照環 境對人類心理影響和音樂取、理影響之間的相關性建立 的。9如申"月專利範圍第8項所述的媒體播放器,其特徵 在於,該舰播放器中進一步包括:魏感測單元,用於 感測該親触騎料部魏的環境參數; 所述列表儲存單元中進一步儲存了環境參數與環境類 別的對應關係; 所述主控單元進一步根據所述_參數與環境類別的 對應關係’查找與所述環境_單元感_的環境參 匹配的環境類別。 10、如申請專利範圍第9項所述的媒體播放器,其特 徵在於,所述環境細單元包括下述之—或任意組合:加 速度感測器、溫度感·、光感測器、聲音感測器、 器,其中, 所述加速度感測器,感測所述媒體播放器在外力作用 下移動時所具有的加速度,並將感測到的加速度取值輪 給所述主控單元; j 所述溫度感測器,感測所述媒體播放器所處外部環境 的溫度,並將感測到的溫度取值輸出給所述主控單元;兄 31 200925976 所述光感測器,感測所述媒體播放器所述外部環境的 光線強度’並將感測到的光線強度取值輸出給所述主控單 元; ’ 所述聲音感測器’感測所述媒體播放器所述外部環境 的聲音的_和強度,並將感測_f訊輸出給所述主控 單元; 二 ❹ 所述計時器,將當前時間輸出給所述主控單元。 11、 如申請專利範圍第2或3項所述的i體播放器, 其特徵在於,所述音樂情感分類單元進—步按照預設的行 為狀態類別與情感類別的對應關係對媒體檔進行分類; 其中’所述行為狀態類別與情感類別的對應關係是按 照人類林同行為狀態下取求和音樂對心理 之間的相關性建立的。 12、 -種媒體檔的分類播放方法,其特徵在於,包括: 對媒體檔進行音贿碼制音頻資料; 對解碼後的音頻資料進行情感分析 按預設的It感類別進行分類; 像刀析…果並 指物咖旨令’棘聰檔庫中與該 才斤表類別相同的媒體檔用以播放。 特徵在於,2專利觀圍第12項所述的分類播放方法,其 分析結果並按預設的情感類別進行分類包括析根據 ===刪基本元素 ’將提取出的音 32 200925976 將所述分析結果與駿心理_進行匹配, 麵標識表示__㈣的心賴型,將匹、蕭、 型作為該媒體檔所屬的情感類別,與對應的媒體槽 起輸出。 1心如申請專利範鮮12項所述的分類播放方法,盆 特徵在於’所述對解碼後的音㈣料進行情感分析,根據 分析結果並按預設的情感類別進行分類包括··從音頻資料中提取簡單特徵; 根據預先計算得到的參數,對接收到的簡單特徵進行 分析’得到該簡單概對躺媒_所匹_心理模型, 並將匹配的域模型作_舰__職_,、與對 應媒體播標識一起輸出。 、15、如巾請專利顧第13或14項所述的分類播放方 法’其特徵在於’所述祕配的⑽模型作為該媒體播所 屬的情感類別’與對應舰獅識—起輸出之後,該方法 進步包括.儲存媒體檔所匹配的情感類別。 16、 如申請專利範圍第13或14項所述的分類播放方 法,其特徵在於,該方法進一步包括: 設置所述心理模型與所述媒體檔的相關度; 在播放媒體槽時,將當前播的媒體檔與其匹配的心理 模型的相關度顯示輪出。 17、 如申請專利範圍第13項所述的媒麵放器,其特 徵在於,所述音樂基本元素包括:音樂的速度、力度、節 奏、旋律、音色。 33 ❹ ❹ 200925976 法,其特徵2專她鮮13或14項所述的分類播放方 根據斤述對解碼後的音頻資料進行情感分析, 二析…果私預設的情感類別進行分類進-步包括· 進行3預設的環_別與情感_的對應_對媒體檔 境對與賊酬崎應_是按照環 的。 衫a和音樂對心理影響之間的相關性建立 19、如申請專利範圍第18項所述的分 環翻顺情__對應關 了烁雌進仃分類之前,該方法進-步包括: 感測外部環境的環境參數; . 根據所述環境參數與環境類別的對應關係, 測到的環境參數所匹配的環境類別。 -找,、感 20、如申請專利範圍第13或14 法,其特徵在於,所述鱗碼制音崎料進行^感播 =方 根齡析結果並按預設的情感類別進行分類進;包刀括.’ 體檔的行為狀態類別與情感類別的對應關係對媒 其中,所财被軸顺情_別 照人類在不同行綠態下對心_需求和音軸 之間的相關性建立的。 、,“理衫響 34
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2007101774349A CN101149950A (zh) | 2007-11-15 | 2007-11-15 | 实现分类播放的媒体播放器及分类播放方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW200925976A true TW200925976A (en) | 2009-06-16 |
Family
ID=39250424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW096147776A TW200925976A (en) | 2007-11-15 | 2007-12-13 | Media player for playing media files by emotion classes and method for the same |
Country Status (3)
Country | Link |
---|---|
US (1) | US20090132593A1 (zh) |
CN (1) | CN101149950A (zh) |
TW (1) | TW200925976A (zh) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100000336A (ko) * | 2008-06-24 | 2010-01-06 | 삼성전자주식회사 | 컨텐츠 감상 경험을 기록/재생하는 멀티미디어 콘텐츠 처리방법 및 장치 |
CN101370216B (zh) * | 2008-10-15 | 2013-05-22 | 北京中星微电子有限公司 | 一种手机音频文件的情绪化处理和播放方法 |
US20100100827A1 (en) * | 2008-10-17 | 2010-04-22 | Louis Hawthorne | System and method for managing wisdom solicited from user community |
US20100100826A1 (en) * | 2008-10-17 | 2010-04-22 | Louis Hawthorne | System and method for content customization based on user profile |
US20100107075A1 (en) * | 2008-10-17 | 2010-04-29 | Louis Hawthorne | System and method for content customization based on emotional state of the user |
CN101587708B (zh) * | 2009-06-26 | 2012-05-23 | 清华大学 | 歌曲情绪压力分析方法及系统 |
CN101599271B (zh) * | 2009-07-07 | 2011-09-14 | 华中科技大学 | 一种数字音乐情感的识别方法 |
US20110016102A1 (en) * | 2009-07-20 | 2011-01-20 | Louis Hawthorne | System and method for identifying and providing user-specific psychoactive content |
US20110154197A1 (en) * | 2009-12-18 | 2011-06-23 | Louis Hawthorne | System and method for algorithmic movie generation based on audio/video synchronization |
CN102903375B (zh) * | 2011-07-25 | 2017-06-13 | 富泰华工业(深圳)有限公司 | 音乐播放装置及播放方法 |
CN103187070B (zh) * | 2011-12-28 | 2016-03-30 | 宇龙计算机通信科技(深圳)有限公司 | 基于移动终端的音频文件处理方法及系统 |
CN102543119A (zh) * | 2011-12-31 | 2012-07-04 | 北京百纳威尔科技有限公司 | 基于场景的音乐播放处理方法和音乐播放设备 |
US9263060B2 (en) | 2012-08-21 | 2016-02-16 | Marian Mason Publishing Company, Llc | Artificial neural network based system for classification of the emotional content of digital music |
TW201411601A (zh) * | 2012-09-13 | 2014-03-16 | Univ Nat Taiwan | 以情緒為基礎的自動配樂方法 |
CN103400591A (zh) * | 2013-08-12 | 2013-11-20 | 深圳市金立通信设备有限公司 | 一种播放多媒体的方法及装置 |
CN104683318B (zh) * | 2013-12-03 | 2018-02-16 | 中国科学院声学研究所 | 一种边缘流媒体服务器缓存选择方法与系统 |
TWI486904B (zh) | 2013-12-04 | 2015-06-01 | Inst Information Industry | 律動影像化方法、系統以及電腦可讀取記錄媒體 |
CN103794205A (zh) * | 2014-01-21 | 2014-05-14 | 深圳市中兴移动通信有限公司 | 自动合成适配音乐的方法及设备 |
CN104298722B (zh) * | 2014-09-24 | 2018-01-19 | 张鸿勋 | 多媒体交互系统及其方法 |
CN104281682A (zh) * | 2014-09-30 | 2015-01-14 | 圆刚科技股份有限公司 | 文件分类系统及方法 |
CN104869507B (zh) * | 2015-04-21 | 2018-11-13 | 广东欧珀移动通信有限公司 | 一种应用于智能音箱的音乐播放方法及智能音箱 |
CN104851437B (zh) * | 2015-04-28 | 2018-05-01 | 广东欧珀移动通信有限公司 | 一种歌曲播放方法及终端 |
CN106453051A (zh) * | 2016-10-10 | 2017-02-22 | 深圳万发创新进出口贸易有限公司 | 多媒体交互系统 |
JP6839818B2 (ja) * | 2017-05-17 | 2021-03-10 | パナソニックIpマネジメント株式会社 | コンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラム |
CN110019921B (zh) * | 2017-11-16 | 2023-01-13 | 阿里巴巴集团控股有限公司 | 音频与属性的关联方法及装置、音频搜索方法及装置 |
CN110309327A (zh) * | 2018-02-28 | 2019-10-08 | 北京搜狗科技发展有限公司 | 音频生成方法、装置以及用于音频的生成装置 |
CN110853675A (zh) * | 2019-10-24 | 2020-02-28 | 广州大学 | 一种音乐联觉绘画的装置及其实现方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6623427B2 (en) * | 2001-09-25 | 2003-09-23 | Hewlett-Packard Development Company, L.P. | Biofeedback based personal entertainment system |
US8053659B2 (en) * | 2002-10-03 | 2011-11-08 | Polyphonic Human Media Interface, S.L. | Music intelligence universe server |
US20040199494A1 (en) * | 2003-04-04 | 2004-10-07 | Nikhil Bhatt | Method and apparatus for tagging and locating audio data |
US20040199491A1 (en) * | 2003-04-04 | 2004-10-07 | Nikhil Bhatt | Domain specific search engine |
US7243104B2 (en) * | 2003-05-30 | 2007-07-10 | Aol Llc | Personalizing content using an intermediary bridge |
WO2006002328A2 (en) * | 2004-06-23 | 2006-01-05 | Plain Sight Systems, Inc. | System and method for document analysis, processing and information extraction |
US7921369B2 (en) * | 2004-12-30 | 2011-04-05 | Aol Inc. | Mood-based organization and display of instant messenger buddy lists |
US8112418B2 (en) * | 2007-03-21 | 2012-02-07 | The Regents Of The University Of California | Generating audio annotations for search and retrieval |
US20090063971A1 (en) * | 2007-08-31 | 2009-03-05 | Yahoo! Inc. | Media discovery interface |
-
2007
- 2007-11-15 CN CNA2007101774349A patent/CN101149950A/zh active Pending
- 2007-12-13 TW TW096147776A patent/TW200925976A/zh unknown
-
2008
- 2008-05-17 US US12/122,690 patent/US20090132593A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CN101149950A (zh) | 2008-03-26 |
US20090132593A1 (en) | 2009-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW200925976A (en) | Media player for playing media files by emotion classes and method for the same | |
Kajikawa | Sounding race in rap songs | |
TW383231B (en) | Character display control device, character display control method and recording medium | |
Spiller | Erotic triangles: Sundanese dance and masculinity in West Java | |
Lena | Social context and musical content of rap music, 1979–1995 | |
Steffen | From Edison to Marconi: the first thirty years of recorded music | |
Stone | The value of popular music: An approach from post-Kantian aesthetics | |
Askerøi | Reading pop production: Sonic markers and musical identity | |
Horsfall et al. | Music sociology: Examining the role of music in social life | |
Carvalho | “Strange fruit”: music between violence and death | |
US20220223125A1 (en) | Song generation based on a text input | |
CN109802987A (zh) | 用于显示装置的内容推送方法、推送装置和显示设备 | |
Haddon | What Is Post-punk? A Genre Study of Avant-Garde Pop, 1977–1982 | |
MacLeod | Leaders of the Pack: Girl Groups of the 1960s and Their Influence on Popular Culture in Britain and America | |
Stratton | Britpop and the English Music Tradition | |
Balay | Comfort Food for the Ears: Exploring Nostalgic Trends in Popular Music of the Twenty-First Century | |
US10489450B1 (en) | Selecting soundtracks | |
Wong | Listening to EDM: Sound object analysis and vital materialism | |
Dineley | Covers Uncovered: A History of the" Cover Version," from Bing Crosby to the Flaming Lips | |
Reinsch et al. | The Soundtrack Album: Listening to Media | |
Curtis | Selective Tradition and Structure of Feeling in the 2008 Presidential Election: A Genealogy of'Yes We Can Can' | |
Lemire | Speaking Songs: Music-Analytical Approaches to Spoken Word | |
JP2014164112A (ja) | 電気機器 | |
Hamilton | The voice of the blues | |
Yang | Build an active foundation for heavy metal subculture community success in contemporary society |