TW201411601A - 以情緒為基礎的自動配樂方法 - Google Patents

以情緒為基礎的自動配樂方法 Download PDF

Info

Publication number
TW201411601A
TW201411601A TW101133568A TW101133568A TW201411601A TW 201411601 A TW201411601 A TW 201411601A TW 101133568 A TW101133568 A TW 101133568A TW 101133568 A TW101133568 A TW 101133568A TW 201411601 A TW201411601 A TW 201411601A
Authority
TW
Taiwan
Prior art keywords
soundtrack
chord
emotion
change process
present
Prior art date
Application number
TW101133568A
Other languages
English (en)
Inventor
Pei-Chun Chen
Keng-Sheng Lin
Homer H Chen
Original Assignee
Univ Nat Taiwan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Univ Nat Taiwan filed Critical Univ Nat Taiwan
Priority to TW101133568A priority Critical patent/TW201411601A/zh
Priority to US14/026,231 priority patent/US20140069263A1/en
Publication of TW201411601A publication Critical patent/TW201411601A/zh

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece

Abstract

本發明為一種以情緒為基礎的自動配樂方法,係可對一個旋律自動產生富有特定情感並與此旋律搭配之配樂。特別是根據使用者所選擇的情緒值及亢奮值以改變和弦變化進程及節奏密度來表達特定音樂情緒,其中和弦變化進程係由複數個和弦所組成,而節奏密度是指單位時間內的音符數量。

Description

以情緒為基礎的自動配樂方法
本發明係一種自動配樂方法,尤指一種結合音樂理論與情感運算(affective computing)的技術,不只可以為一個旋律配上合乎樂理的配樂,更可以使其表達特定情感之以情緒為基礎的自動配樂方法。
按,音樂,廣義來說是指任何聲音組合而成的藝術,可以表達人們的所思所想,是人們思想的載體之一。一段完整的音樂包括旋律以及配樂(或稱伴奏),旋律搭配不同的配樂,可以帶給聽眾一個完全不同的印象和感覺,諸如歡樂、悲傷、慷慨、振奮等各種感受。因此,經過精心創作的配樂可以營造特定情感的聆聽經驗。和弦,是指組合在一起的兩個或更多不同音高的音,是一種點綴旋律的方法。和弦的標記式有很多種,巴洛克音樂經常以數字低音來標記和弦,古典音樂經常以羅馬數字來標記和弦,爵士樂和流行音樂經常以音名的英文字母來標記和弦。在音樂理論中,探討了不同的和弦之間連接的原則,組合不同的和弦可作為不同的配樂,此種結合了多個和弦之組合,一般稱為和弦變化進程(chord progression)。而要如何的將適合的和弦變化進程(chord progression)結合到旋律當中來作為配樂,就是音樂理論中所要探討的一門重要的課題,現有的技術中,配樂的設計都必須由音樂家根據每一旋律來編成適合該旋律的和弦變化進程以作為配樂,並無法根據特定的情緒來選擇適當的配樂,實有改良的必要。是以,要如何解決上述習用之問題與缺失,即為本發明之發明人與從事此行業之相關廠商所亟欲研究改善之方向所在者。
本發明之主要目的在於提供一種結合音樂理論與情感運算的技術,不只可以為任意的旋律配上合乎樂理的配樂,更可以使其表達特定情感之以情緒為基礎的自動配樂方法。為了達到上述之目的,本發明一種以情緒為基礎的自動配樂方法,至少包括下列步驟:輸入一旋律以及一情緒值;執行一配樂模組:根據該情緒值產生具有相對應該情緒值之至少一和弦變化進程與該旋律搭配以產生一配樂,其中該和弦變化進程係由複數個和弦所組成;以及輸出該配樂。在一較佳實施例中,該和弦變化進程設置於一和弦變化進程資料庫中。在一較佳實施例中,該配樂模組更包括下列步驟:根據所選擇之一亢奮值以調變該和弦變化進程之和弦的密集度來產生該配樂。在一較佳實施例中,該配樂模組更包括下列步驟:根據所選擇之一風格以調變該和弦變化進程之風格來產生該配樂。在一較佳實施例中,該風格包括塊狀和弦或分解和弦。其中,由於本發明包括配樂模組,藉此,使用者可以隨意的輸入一旋律,並自由的選擇所需要的情緒值來產生具有相對應該情緒值之至少一和弦變化進程以產生一配樂,而合適的和弦變化進程係指合乎樂理且能喚起指定的情感,透過建構和弦變化進程與情緒值之對應關係,本發明有效針對先前技術無法根據情緒來產生適當配樂之問題加以突破。並且,由於本發明之配樂模組更包括根據所選擇之一亢奮值以調變該和弦變化進程之和弦的密集度來產生該配樂。藉由調變和弦與和弦間的密集度,可使得本發明之該和弦變化進程具有緊湊亢奮或是柔和舒緩之變化。以及,由於本發明之配樂模組更包括根據所選擇之一風格以調變該和弦變化進程之風格來產生該配樂。藉由不同風格的調變,可使得本發明之該和弦變化進程更符合實際使用情況。

為達成上述目的及功效,本發明所採用之技術手段及構造,茲繪圖就本發明較佳實施例詳加說明其特徵與功能如下,俾利完全了解。請參閱第一圖所示,係為本發明較佳實施例之流程圖,由圖中可清楚看出,本發明以情緒為基礎的自動配樂方法,至少包括下列步驟:(110)輸入一旋律以及一情緒值;(120)執行一配樂模組:(121) 根據該情緒值產生具有相對應該情緒值之至少一和弦變化進程與該旋律搭配以產生一配樂,其中該和弦變化進程係由複數個和弦所組成;以及(130)輸出該配樂。於該步驟(110)中,係先輸入一旋律,該旋律可為任意之旋律。於該步驟(120)以及(121)中,係接著執行一配樂模組,並且,該和弦變化進程係由複數個和弦所組成,例如為複數個不同之和弦組合,每一和弦變化進程由於和弦組合的不同,具有不同之聆聽感受,每一和弦變化進程並定義有不同之情緒值,可配合該旋律作為配樂,於本實施例中,該和弦變化進程設置於一和弦變化進程資料庫中。其中,該情緒值係可根據需要由使用者進行設定,例如可設定為負10至正10,若設定的數值越高,則代表情緒值越高(正面情緒:歡快、振奮),反之,若設定的數值越低,則代表情緒值越低(負面情緒:悲傷、難過)。
於該步驟(130)中,當該配樂模組產生特定情緒值之配樂後,即將該配樂輸出,如此,完成本發明以情緒為基礎的自動配樂方法。請同時參閱第二圖與第三圖所示,係為本發明再一較佳實施例之流程圖一與二,本段說明中,僅說明與前一實施例不同處,由圖中可清楚看出,本發明以情緒為基礎的自動配樂方法,更包括下列步驟:
(110)輸入一旋律以及一情緒值;(111)根據音樂理論產生適當之至少一和弦變化進程;(120)執行一配樂模組:(121)根據該情緒值產生具有相對應該情緒值之該和弦變化進程與該旋律搭配以產生一配樂,其中該和弦變化進程係由複數個和弦所組成;以及(122)根據所選擇之一亢奮值以調變該和弦變化進程之和弦的密集度來產生該配樂;(123)根據所選擇之一風格以調變該和弦變化進程之風格來產生該配樂;以及(130)輸出該配樂。於該步驟(111)中,係於該執行一配樂模組步驟之前,先根據音樂理論產生適當之至少一和弦變化進程,係為了本發明係結合音樂理論,可為任意的旋律配上合乎樂理的配樂,因此,利用此步驟先將適合的和弦變化進程進行和弦配對,於本實施例中,該和弦變化進程設置於一和弦變化進程資料庫中。並且,本發明之配樂模組更包括:於該步驟(122)中,本發明更可以根據所選擇之一亢奮值以調變該和弦變化進程之和弦的密集度,具體來說,該密集度也就是音符的密集度,一般而言,若在一定的時間內具有較多的音符,則該配樂較為緊湊亢奮,其亢奮值較高;反之,若在一定的時間內具有較少的音符,則該配樂較為柔和舒緩,其亢奮值較低。因此,本發明可以根據需要由使用者進行設定,例如可設定為負10至正10,若設定的數值越高,則代表亢奮值越高,反之,若設定的數值越低,則代表亢奮值越低,來使該和弦變化進程具有緊湊亢奮或是柔和舒緩之變化。
於該步驟(123)中,本發明更可以根據所選擇之一風格以調變該和弦變化進程之風格,於本實施例中,該風格包括塊狀和弦或分解和弦,若有其餘不同風格應也為可行的方案。分解和弦,又稱為分散和弦,係由於和弦的組成音其可分開演奏亦或同時演奏,分開演奏的一般即稱為分解和弦,為和弦的表現方法之一。反之,若和弦為同時演奏的即為塊狀和弦。如第三圖,需要特別說明的是該步驟(111)、(122)以及(123)並非必要之步驟,其中該步驟(111)係為了使得本發明產生合乎樂理的配樂,於複數個和弦變化進程當中先進行和弦配對來篩選出適合的和弦變化進程。以及該步驟(122)中,係根據亢奮值來調變和弦變化進程之音符的密集度,使得配樂能有不同的亢奮值變化。而於該步驟(123)中,係可根據喜好或是實際情況需要來調變風格,較佳地,該風格包括塊狀和弦或分解和弦。此三步驟可分別的單獨或組合加入本發明之前一實施例中,並非一定如本實施例中之執行步驟。請同時參閱第四圖與第五圖所示,係為本發明再一較佳實施例之實施示意圖一與二,由圖中可清楚看出,圖中包括三個旋律音符,各個旋律音符都可以不同的和弦來呈現,藉由不同和弦的組合,可組合成不同的和弦變化進程,而圖中包括有多個和弦變化進程路徑的情緒值,本實施例中,係以羅馬數字來標記和弦,例如和弦變化進程:I>III>IV=14*8=122,也就是說,該和弦變化進程之情緒值為122,每一和弦變化進程的情緒值係根據該和弦變化進程之和弦組合路徑而產生不同,而每一和弦變化進程(和弦組合)所代表的情緒值係可主觀或是客觀的方式來進行定義;以主觀方式,例如利用複數聆聽者來進行評級,以客觀方式,例如透過演算法來進行評級,本發明並不限制每一和弦所代表的情緒值。較佳地,不論是以主觀或是客觀的方式來進行定義,本發明係可以根據泰爾二維情緒平面來作為本發明每一和弦變化進程之情緒值的參考分類模型來進行分類評級。本發明結合了音樂理論與情感運算(affective computing)技術來自動產生配樂,其中情感運算即為透過文字、語音、表情或是人類的生理資訊等等以判斷使用者的情緒或情感的技術,藉此,本發明不只可以為一個旋律配上合乎樂理的配樂,更可以使其表達特定情感。而第五圖即揭示了根據本發明以情緒為基礎的自動配樂方法之圖形化使用者介面,由圖中可清楚看出,右邊顯示有六個和弦變化進程配對,係依照本發明之該步驟(111)根據音樂理論產生適當之至少一和弦變化進程,而於圖中,和弦變化進程係由複數個以羅馬數字進行標記之和弦所組成。另左邊顯示有情緒值以及亢奮值,使用者可以利用該指標來左右滑移選擇適當的情緒值以及亢奮值,當選擇完成後,即在右邊顯示符合該情緒值以及該亢奮值之和弦變化進程,於本實施例中,該情緒值係設定為5,而該亢奮值係設定為-3,使用者可以按壓該產生音樂按鍵以輸出配樂。請同時參閱第六a圖以及第六b圖所示,係為本發明再一較佳實施例之實施示意圖三與四,由圖中可清楚看出,根據不同的密集度,其亢奮值也不同,若密集度低,代表在一定時間內的音符較少,則亢奮值相對也低;反之,若密集度高,代表在一定時間內的音符較多,則亢奮值相對也高,在第六a圖以及第六b圖分別呈現不同的音樂風格,在第六a圖中,說明應用於塊狀和弦中,而在第六b圖中,說明應用於分解和弦中。請參閱全部附圖所示,相較於習用技術,本發明具有以下優點:本發明結合音樂理論與情感運算的技術,不只可以為任意的旋律配上合乎樂理的配樂,更可以決定配樂所誘發的情緒,例如心情沮喪時,可將旋律搭配較高情緒值以及亢奮值之配樂,來誘發正面情緒例如:歡快、振奮等,因此,本發明為確實具有實用進步性。透過上述之詳細說明,即可充分顯示本發明之目的及功效上均具有實施之進步性,極具產業之利用性價值,且為目前市面上前所未見之新發明,完全符合發明專利要件,爰依法提出申請。唯以上所述著僅為本發明之較佳實施例而已,當不能用以限定本發明所實施之範圍。即凡依本發明專利範圍所作之均等變化與修飾,皆應屬於本發明專利涵蓋之範圍內,謹請貴審查委員明鑑,並祈惠准,是所至禱。

(110)、(111)、(120)、(121)、(122)、(123)、(130)...步驟
第一圖 係為本發明較佳實施例之流程圖,說明本發明以情緒為基礎的自動配樂方法之執行流程圖。第二圖 係為本發明再一較佳實施例之流程圖,說明本發明以情緒為基礎的自動配樂方法再一較佳實施例之執行流程圖。第三圖 係為本發明再一較佳實施例之方塊圖,說明本發明以情緒為基礎的自動配樂方法之架構。第四圖 係為本發明再一較佳實施例之實施示意圖一,說明本發明之和弦變化進程路徑的情緒值。第五圖 係為本發明再一較佳實施例之實施示意圖二,說明根據本發明所設計之圖形化使用者介面。第六a圖 係為本發明再一較佳實施例之實施示意圖三,說明本發明之亢奮度與密集度之關係。第六b圖 係為本發明再一較佳實施例之實施示意圖四,說明本發明之亢奮值與密集度之關係。

(110)、(120)、(121)、(130)...步驟

Claims (5)

  1. 一種以情緒為基礎的自動配樂方法,至少包括下列步驟:
    輸入一旋律以及一情緒值;
    執行一配樂模組:
      根據該情緒值產生具有相對應該情緒值之至少一和弦變化進程與該旋律搭配以產生一配樂,其中該和弦變化進程係由複數個和弦所組成;以及
    輸出該配樂。
  2. 如申請專利範圍第1項所述之以情緒為基礎的自動配樂方法,其中該和弦變化進程設置於一和弦變化進程資料庫中。
  3. 如申請專利範圍第1項所述之以情緒為基礎的自動配樂方法,其中該配樂模組更包括下列步驟:根據所選擇之一亢奮值以調變該和弦變化進程之和弦的密集度來產生該配樂。
  4. 如申請專利範圍第1或3項所述之以情緒為基礎的自動配樂方法,其中該配樂模組更包括下列步驟:根據所選擇之一風格以調變該和弦變化進程之風格來產生該配樂。
  5. 如申請專利範圍第4項所述之以情緒為基礎的自動配樂方法,其中該風格包括塊狀和弦或分解和弦。
TW101133568A 2012-09-13 2012-09-13 以情緒為基礎的自動配樂方法 TW201411601A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW101133568A TW201411601A (zh) 2012-09-13 2012-09-13 以情緒為基礎的自動配樂方法
US14/026,231 US20140069263A1 (en) 2012-09-13 2013-09-13 Method for automatic accompaniment generation to evoke specific emotion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW101133568A TW201411601A (zh) 2012-09-13 2012-09-13 以情緒為基礎的自動配樂方法

Publications (1)

Publication Number Publication Date
TW201411601A true TW201411601A (zh) 2014-03-16

Family

ID=50231884

Family Applications (1)

Application Number Title Priority Date Filing Date
TW101133568A TW201411601A (zh) 2012-09-13 2012-09-13 以情緒為基礎的自動配樂方法

Country Status (2)

Country Link
US (1) US20140069263A1 (zh)
TW (1) TW201411601A (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6160599B2 (ja) * 2014-11-20 2017-07-12 カシオ計算機株式会社 自動作曲装置、方法、およびプログラム
JP6160598B2 (ja) * 2014-11-20 2017-07-12 カシオ計算機株式会社 自動作曲装置、方法、およびプログラム
JP6645085B2 (ja) * 2015-09-18 2020-02-12 ヤマハ株式会社 自動アレンジ装置及びプログラム
US10854180B2 (en) 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
US9721551B2 (en) 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2820052B2 (ja) * 1995-02-02 1998-11-05 ヤマハ株式会社 コーラス効果付与装置
CA2214161C (en) * 1996-08-30 2001-05-29 Daiichi Kosho, Co., Ltd. Karaoke playback apparatus utilizing digital multi-channel broadcasting
JP3704980B2 (ja) * 1997-12-17 2005-10-12 ヤマハ株式会社 自動作曲装置と記録媒体
JP3484986B2 (ja) * 1998-09-09 2004-01-06 ヤマハ株式会社 自動作曲装置、自動作曲方法および記憶媒体
JP3580210B2 (ja) * 2000-02-21 2004-10-20 ヤマハ株式会社 作曲機能を備えた携帯電話機
JP3666577B2 (ja) * 2000-07-18 2005-06-29 ヤマハ株式会社 コード進行修正装置、コード進行修正方法及び同装置に適用されるプログラムを記録したコンピュータ読取り可能な記録媒体
JP3680749B2 (ja) * 2001-03-23 2005-08-10 ヤマハ株式会社 自動作曲装置及び自動作曲プログラム
EP1666967B1 (en) * 2004-12-03 2013-05-08 Magix AG System and method of creating an emotional controlled soundtrack
JP2006171133A (ja) * 2004-12-14 2006-06-29 Sony Corp 楽曲データ再構成装置、楽曲データ再構成方法、音楽コンテンツ再生装置および音楽コンテンツ再生方法
KR100634572B1 (ko) * 2005-04-25 2006-10-13 (주)가온다 오디오 데이터 자동 생성 방법 및 이를 이용한 사용자단말기 및 기록매체
US20080140236A1 (en) * 2005-09-01 2008-06-12 Yoshiya Nonaka Musical Composition Reproducing Apparatus and a Method for Reproducing Musical Composition
US7491878B2 (en) * 2006-03-10 2009-02-17 Sony Corporation Method and apparatus for automatically creating musical compositions
US7790974B2 (en) * 2006-05-01 2010-09-07 Microsoft Corporation Metadata-based song creation and editing
CN101149950A (zh) * 2007-11-15 2008-03-26 北京中星微电子有限公司 实现分类播放的媒体播放器及分类播放方法
JP4640463B2 (ja) * 2008-07-11 2011-03-02 ソニー株式会社 再生装置、表示方法および表示プログラム
KR101611511B1 (ko) * 2009-05-12 2016-04-12 삼성전자주식회사 터치스크린을 구비한 휴대 단말기를 이용한 음악 생성 방법
JP2012103603A (ja) * 2010-11-12 2012-05-31 Sony Corp 情報処理装置、楽曲区間抽出方法、及びプログラム
US8847054B2 (en) * 2013-01-31 2014-09-30 Dhroova Aiylam Generating a synthesized melody

Also Published As

Publication number Publication date
US20140069263A1 (en) 2014-03-13

Similar Documents

Publication Publication Date Title
TW201411601A (zh) 以情緒為基礎的自動配樂方法
Eerola et al. Emotional expression in music: contribution, linearity, and additivity of primary musical cues
Etani et al. Optimal tempo for groove: Its relation to directions of body movement and Japanese nori
Goldman Towards a cognitive–scientific research program for improvisation: Theory and an experiment.
Wallis et al. A rule-based generative music system controlled by desired valence and arousal
Frid et al. Perceptual evaluation of blended sonification of mechanical robot sounds produced by emotionally expressive gestures: Augmenting consequential sounds to improve non-verbal robot communication
Bonin et al. Inharmonic music elicits more negative affect and interferes more with a concurrent cognitive task than does harmonic music
Ippolito et al. Infilling piano performances
Su et al. AMAI: adaptive music for affect improvement
Otani et al. Generating a melody based on symbiotic evolution for musicians' creative activities
Monteith et al. Automatic Generation of Emotionally-Targeted Soundtracks.
Branje et al. Playing vibrotactile music: A comparison between the Vibrochord and a piano keyboard
Zhang Violin teaching improvement strategy in the context of intelligent internet of things
Barthet et al. Improving musical expressiveness by time-varying brightness shaping
Song Syncopation: Unifying Music Theory and Perception
Al-Ghawanmeh et al. Predicting and critiquing machine virtuosity: Mawwal accompaniment as case study
Liu et al. Emotion Recognition of Violin Music based on Strings Music Theory for Mascot Robot System.
Molina Adaptive music: Automated music composition and distribution
TW201426730A (zh) 音樂的情緒分類方法
Patel et al. Karaoke Generation from songs: recent trends and opportunities
Lawrence Hearing Voices in Their Hands: Performing and Perceiving Polyphony
Picard et al. AMAI: Adaptive music for affect improvement
Caputo A Study on the Perception of Algorithmic Composition Music
Limer Perceiving Emotion Through Music
Inkpen A Practice-Based Study into the Composition and Performance of Polytemporal Music