JP2015145955A - Music analyzer and singing evaluation device - Google Patents
Music analyzer and singing evaluation device Download PDFInfo
- Publication number
- JP2015145955A JP2015145955A JP2014018518A JP2014018518A JP2015145955A JP 2015145955 A JP2015145955 A JP 2015145955A JP 2014018518 A JP2014018518 A JP 2014018518A JP 2014018518 A JP2014018518 A JP 2014018518A JP 2015145955 A JP2015145955 A JP 2015145955A
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- music
- lyrics
- phrase
- song
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/368—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
- G10H2220/011—Lyrics displays, e.g. for karaoke applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/081—Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
Abstract
Description
本発明は、楽曲の属性を推定する技術に関する。 The present invention relates to a technique for estimating music attributes.
楽曲の属性(例えばジャンル)をカラオケ等の歌唱に応用した技術が従来から提案されている。例えば特許文献1には、演歌やポップス等の音楽的なジャンルを指定する分類コードを楽曲毎に事前に設定し、楽曲の歌唱時に表示されるBGV(background video)を当該楽曲の分類コードに応じて選択する構成が開示されている。また、特許文献2には、歌唱の採点基準を楽曲のジャンルに応じて変更する構成が開示されている。
Techniques in which music attributes (for example, genre) are applied to singing such as karaoke have been proposed. For example, in
しかし、特許文献1や特許文献2の技術では、楽曲のジャンルを事前に楽曲毎に設定する必要がある。以上の事情を考慮して、本発明は、楽曲毎に属性を指定する情報を必要とせずに楽曲の属性を推定することを目的とする。
However, in the techniques of
以上の課題を解決するために、本発明の楽曲解析装置は、楽曲の歌詞に包含される語句を特定する歌詞解析部と、歌詞解析部が特定した語句から楽曲の属性を推定する属性推定部とを具備する。以上の構成では、歌詞解析部が楽曲の歌詞から特定した語句に応じて楽曲の属性が推定されるから、楽曲毎に属性を指定する情報を必要とせずに楽曲の属性を推定することが可能である。 In order to solve the above-described problems, the music analysis apparatus of the present invention includes a lyrics analysis unit that specifies words included in the lyrics of the music, and an attribute estimation unit that estimates music attributes from the words specified by the lyrics analysis unit. It comprises. With the above configuration, the attributes of the music are estimated according to the words and phrases specified by the lyrics analysis unit from the lyrics of the music, so it is possible to estimate the attributes of the music without requiring information for specifying the attributes for each music It is.
本発明の好適な態様において、属性推定部は、複数の属性の各々に対する親和度を語句毎に指定する参照情報を利用して、歌詞解析部が特定した語句から楽曲の属性を推定する。以上の態様では、複数の属性の各々に対する親和度を語句毎に指定する参照情報を利用することで楽曲の属性を簡便に推定できるという利点がある。なお、「語句」は、意味を持つ言語の最小単位である単語や複数の単語で構成される句(フレーズ)や文を含意する。なお、語句の言語は任意であり、日本語に限定されない。 In a preferred aspect of the present invention, the attribute estimation unit estimates the attribute of the music from the phrase specified by the lyrics analysis unit, using reference information that specifies the affinity for each of the plurality of attributes for each phrase. In the above aspect, there exists an advantage that the attribute of a music can be estimated simply by using the reference information which designates the affinity with respect to each of a some attribute for every phrase. “Phrase” implies a word that is the smallest unit of a meaningful language or a phrase (phrase) or sentence composed of a plurality of words. The language of the phrase is arbitrary and is not limited to Japanese.
本発明の好適な態様において、属性推定部は、各属性の楽曲の歌詞に使用される語句の傾向を表す属性毎の認識モデルを利用して、歌詞解析部が特定した語句から楽曲の属性を推定する。以上の態様では、各属性の楽曲の歌詞に使用される語句の傾向を表す属性毎の認識モデルを利用して楽曲の属性が推定されるから、各属性の多数の楽曲の歌詞に実際に使用される語句の傾向を反映した属性の適切な推定が実現される。 In a preferred aspect of the present invention, the attribute estimation unit uses the recognition model for each attribute that represents the tendency of the words and phrases used in the lyrics of the music of each attribute, and determines the attributes of the music from the phrases specified by the lyrics analysis unit. presume. In the above aspect, since the attribute of a song is estimated using a recognition model for each attribute that represents the tendency of the phrase used for the lyrics of the song of each attribute, it is actually used for the lyrics of many songs of each attribute. Appropriate estimation of the attribute reflecting the tendency of the phrase to be performed is realized.
本発明の好適な態様において、属性推定部は、楽曲を区分した複数の解析区間の各々について、当該解析区間内の歌詞から歌詞解析部が特定した各語句に応じて属性を推定する。以上の態様では、楽曲を区分した解析区間毎に属性が推定されるから、楽曲内における曲調や題材の経時的な変化を適切に反映した属性を推定することが可能である。 In a preferred aspect of the present invention, the attribute estimation unit estimates the attribute of each of the plurality of analysis sections into which the music is divided according to each word and phrase specified by the lyrics analysis unit from the lyrics in the analysis section. In the above aspect, since the attribute is estimated for each analysis section into which the music is divided, it is possible to estimate the attribute that appropriately reflects the temporal change of the tune and the subject in the music.
本発明の好適な態様において、属性推定部は、楽曲の音楽情報(例えば演奏テンポや曲調)に応じて楽曲の属性を推定する。以上の態様では、楽曲の歌詞に包含される各語句に加えて楽曲の演奏テンポが属性の推定に加味されるから、例えば楽曲の歌詞の語句のみを属性の推定に利用する構成と比較して、楽曲の属性を高精度に推定できるという利点がある。 In a preferred aspect of the present invention, the attribute estimation unit estimates the attribute of the music according to the music information (for example, performance tempo and tone) of the music. In the above aspect, since the performance tempo of the music is added to the estimation of the attributes in addition to the respective words included in the lyrics of the music, for example, compared with the configuration in which only the words of the lyrics of the music are used for the estimation of the attributes There is an advantage that the attribute of the music can be estimated with high accuracy.
以上の各態様に係る楽曲解析装置は、楽曲の属性の解析に専用されるDSP(Digital Signal Processor)等のハードウェア(電子回路)によって実現されるほか、CPU(Central Processing Unit)等の汎用の演算処理装置とプログラムとの協働によっても実現される。本発明の好適な態様に係るプログラムは、楽曲の歌詞に包含される語句を特定する歌詞解析部、および、歌詞解析部が特定した語句から楽曲の属性を推定する属性推定部としてコンピュータを機能させる。本発明のプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。また、例えば、本発明のプログラムは、通信網を介した配信の形態で提供されてコンピュータにインストールされ得る。
また、以上に例示した各態様に係る楽曲解析装置の動作方法(楽曲解析方法)としても本発明は特定される。本発明の好適な態様に係る楽曲解析方法は、楽曲の歌詞に包含される語句を特定する歌詞解析過程と、歌詞解析過程で特定した語句から楽曲の属性を推定する属性推定過程とを包含する。
また、本発明の第1態様に係る歌唱評価装置は、楽曲の歌詞に包含される語句を特定する歌詞解析部と、歌詞解析部が特定した語句から楽曲の属性を推定する属性推定部と、属性推定部が推定した属性に応じた評価方法で歌唱音声を評価する歌唱評価部とを具備する。本発明の第2態様に係る歌唱評価装置は、楽曲の歌詞に包含される語句を特定する歌詞解析部と、歌詞解析部が特定した語句から楽曲の属性を推定する属性推定部と、歌唱音声を評価した結果と属性推定部が推定した属性とに応じたコメントを表示装置に表示させる歌唱評価部とを具備する。また、楽曲の歌詞に包含される語句を特定する歌詞解析部と、歌詞解析部が特定した語句から前記楽曲の属性を推定する属性推定部と、属性推定部が推定した属性に応じて照明機器の動作または表示装置による表示画像を制御する制御部とを具備する構成も好適である。
The music analysis apparatus according to each of the above aspects is realized by hardware (electronic circuit) such as DSP (Digital Signal Processor) dedicated to analysis of music attributes, and a general-purpose such as CPU (Central Processing Unit). This is also realized by cooperation between the arithmetic processing unit and the program. A program according to a preferred aspect of the present invention causes a computer to function as a lyric analysis unit that identifies a phrase included in the lyrics of a song, and an attribute estimation unit that estimates a song attribute from the phrase specified by the lyrics analysis unit . The program of the present invention can be provided in a form stored in a computer-readable recording medium and installed in the computer. The recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disk) such as a CD-ROM is a good example, but a known arbitrary one such as a semiconductor recording medium or a magnetic recording medium This type of recording medium can be included. For example, the program of the present invention can be provided in the form of distribution via a communication network and installed in a computer.
The present invention is also specified as an operation method (music analysis method) of the music analysis apparatus according to each aspect exemplified above. A music analysis method according to a preferred aspect of the present invention includes a lyric analysis process for specifying a phrase included in the lyric of the music, and an attribute estimation process for estimating the attribute of the music from the phrase specified in the lyric analysis process. .
In addition, the singing evaluation device according to the first aspect of the present invention includes a lyrics analysis unit that identifies a phrase included in the lyrics of a song, an attribute estimation unit that estimates a song attribute from the phrase specified by the lyrics analysis unit, A singing evaluation unit that evaluates the singing voice by an evaluation method according to the attribute estimated by the attribute estimation unit. The singing evaluation device according to the second aspect of the present invention includes a lyric analysis unit that identifies a phrase included in the lyrics of a song, an attribute estimation unit that estimates a song attribute from the phrase specified by the lyric analysis unit, and a singing voice And a singing evaluation unit that displays a comment according to the attribute estimated by the attribute estimation unit and the attribute estimated by the attribute estimation unit. In addition, a lyrics analysis unit that identifies words included in the lyrics of the music, an attribute estimation unit that estimates the attributes of the music from the words specified by the lyrics analysis unit, and an illumination device according to the attributes estimated by the attribute estimation unit A configuration including a control unit that controls the above-described operation or a display image by the display device is also suitable.
<第1実施形態>
図1は、本発明の第1実施形態に係る歌唱評価装置100の構成図である。歌唱評価装置100は、利用者による歌唱の巧拙を評価(採点)する情報処理装置であり、演算処理装置12と記憶装置14と収音装置16と表示装置18とを具備するコンピュータシステムで実現される。歌唱評価装置100は、例えば楽曲の伴奏音を再生するカラオケ装置として好適に利用される。
<First Embodiment>
FIG. 1 is a configuration diagram of a
収音装置16は、周囲の音響を収音する装置(マイクロホン)である。第1実施形態の収音装置16は、特定の楽曲(以下「対象楽曲」という)を利用者が歌唱した歌唱音声Vを収音する。対象楽曲は、例えば複数の楽曲のうち利用者が選択した楽曲である。表示装置18(例えば液晶表示パネル)は、演算処理装置12から指示された画像を表示する。例えば歌唱音声Vの評価結果が表示装置18に表示される。なお、歌唱音声Vの評価結果を放音装置(例えばスピーカ)から音声で出力することも可能である。
The
演算処理装置12は、記憶装置14に記憶されたプログラムを実行することで歌唱評価装置100の各要素を統括的に制御する。具体的には、演算処理装置12は、図1に例示される通り、対象楽曲の属性を推定する楽曲解析部22と、楽曲解析部22による推定結果に応じて対象楽曲の歌唱の巧拙を評価する歌唱評価部24とを実現する。楽曲解析部22が推定する属性は、例えば対象楽曲の曲調(雰囲気)や題材を直接的または間接的に表象する情報である。例えば「失恋」「悲しい」「切ない」「田舎」「昔」といった情報が対象楽曲の属性として推定される。なお、「演歌」「ポップス」「ラブソング」等の音楽的なジャンルを属性として推定することも可能である。なお、演算処理装置12の各機能を複数の装置に分散した構成や、演算処理装置12の機能の一部を専用の電子回路が実現する構成も採用され得る。
The
記憶装置14は、演算処理装置12が実行するプログラムや演算処理装置12が使用する各種のデータを記憶する。半導体記録媒体および磁気記録媒体等の公知の記録媒体または複数種の記録媒体の組合せが記憶装置14として任意に採用される。第1実施形態の記憶装置14は、複数の楽曲の各々について楽曲情報Dを記憶する。任意の1個の楽曲の楽曲情報Dは、当該楽曲の主旋律の音符列(楽曲の歌唱パートを構成する複数の音符の時系列)を指定する旋律情報DAと、当該楽曲の歌詞(語句の時系列)を指定する歌詞情報DBとを含んで構成される。
The
また、第1実施形態の記憶装置14は、楽曲解析部22による対象楽曲の属性の推定に利用される参照情報Rを記憶する。図2は、参照情報Rの模式図である。図2に例示される通り、参照情報Rは、K個の属性a[1]〜a[K]の各々について語句W毎の親和度H(H[1,1],H[1,2],……)を指定するデータテーブルである。任意の1個の属性a[k](k=1〜K)については、多数の楽曲の歌詞に包含され得る複数の語句Wの各々の親和度Hが指定される。属性a[k]に対する1個の語句Wの親和度Hは、当該属性a[k]の楽曲の歌詞として当該語句Wが親和(調和)する度合の指標である。具体的には、属性a[k]の楽曲の歌詞に当該語句Wが出現する可能性が高い(すなわち当該語句Wが楽曲の音楽的な雰囲気に馴染む)ほど親和度Hが増加するように、K個の属性a[1]〜a[K]の各々について語句W毎の親和度Hが統計的に設定される。
In addition, the
図3は、楽曲解析部22の構成図である。図3に例示される通り、第1実施形態の楽曲解析部22は、歌詞解析部32と属性推定部34とを包含する。歌詞解析部32は、対象楽曲の歌詞情報DBが指定する歌詞を解析する。具体的には、歌詞解析部32は、対象楽曲の歌詞に包含される複数の語句Wを特定する。歌詞解析部32による各語句Wの特定には、形態素解析等の公知の自然言語処理が任意に採用される。例えば、歌詞解析部32は、歌詞情報DBで指定される歌詞を分割した複数の形態素(言語的な意味を持つ最小単位)のうち楽曲の歌詞に使用され得る所定の語句Wを選択する。
FIG. 3 is a configuration diagram of the
属性推定部34は、歌詞解析部32が対象楽曲の歌詞について特定した複数の語句Wから対象楽曲の属性Aを推定する。属性推定部34による属性の推定には、記憶装置14に記憶された参照情報Rが利用される。
The
図4は、属性推定部34が対象楽曲の属性Aを推定する処理(以下「属性推定処理」という)のフローチャートである。属性推定処理を開始すると、属性推定部34は、歌詞解析部32が対象楽曲の歌詞から特定した複数の語句Wの各々について出現回数Cを集計する(SA1)。すなわち、各語句Wの出現回数Cは、対象楽曲の歌詞に包含される当該語句Wの個数(回数)に相当する。
FIG. 4 is a flowchart of a process in which the
属性推定部34は、参照情報Rに登録されたK個の属性a[1]〜a[K]の各々について推定指標X[k](X[1]〜X[K])を算定する(SA2)。第1実施形態における任意の1個の推定指標X[k]は、参照情報Rのうち当該推定指標X[k]に対応する属性a[k]に指定された各語句Wの親和度Hを加重値とした出現回数Cの加重和(X[k]=Σ{HC})である。以上の説明から理解される通り、K個の属性a[1]〜a[K]のうち、参照情報Rにて指定された親和度Hが大きい語句Wの出現回数Cが多い属性a[k]の推定指標X[k]ほど大きい数値に設定される。すなわち、対象楽曲の歌詞において属性a[k]の音楽的な雰囲気に馴染む語句W(親和度Hが大きい語句W)の出現回数Cが多いほど、属性a[k]の推定指標X[k]は大きい数値に設定されるという傾向がある。したがって、各推定指標X[1]を対象楽曲の属性Aの推定に利用することが可能である。
The
属性推定部34は、以上の手順で算定したK個の推定指標X[1]〜X[K]に応じて対象楽曲の属性Aを推定する(SA3)。具体的には、第1実施形態の属性推定部34は、K個の属性a[1]〜a[K]のうち推定指標X[k]が最大となる1個の属性a[k]を対象楽曲の属性Aとして確定する。以上が属性推定処理の具体例である。
The
図1の歌唱評価部24は、楽曲解析部22が推定した対象楽曲の属性Aに応じた歌唱音声Vの解析で利用者による歌唱の巧拙を評価する。概略的には、歌唱評価部24は、対象楽曲の楽曲情報Dの旋律情報DAで指定される音符列と収音装置16が収音した歌唱音声Vとを相互に対比し、両者間の合致(相違)の度合に応じた評価指標(点数)Sを算定する。
The
図5は、歌唱評価部24が歌唱音声Vを評価する動作(以下「歌唱評価処理」という)のフローチャートである。歌唱評価処理を開始すると、歌唱評価部24は、相異なる複数(N個)の音楽的な評価項目の各々について基礎値s[1]〜s[N]を算定する(SB1)。N個の評価項目は、歌唱の巧拙を評価するための音楽的な観点であり、例えば音高の正確性,抑揚の適否,歌唱技法(小節,フォール,ビブラート)の有無等を包含する。評価項目毎の歌唱の評価(基礎値s[1]〜s[N]の算定)には公知の技術が任意に採用される。
FIG. 5 is a flowchart of the operation in which the
歌唱評価部24は、相異なる評価項目に対応するN個の加重値w[1]〜w[N]を特定する(SB2)。各加重値w[n](n=1〜N)の算定には図6の加重値情報Eが利用される。図6に例示される通り、加重値情報Eは、K個の属性a[1]〜a[K]の各々についてN個の加重値w[1]〜w[N]を指定するデータテーブルである。N個の加重値w[1]〜w[N]の各々は、各属性a[k]の楽曲の歌唱における各評価項目の重要度に応じて属性a[k]毎に個別に設定される。例えば、小節やビブラート等の歌唱技法が重要視される演歌等の楽曲の属性a[k]については各歌唱技法の評価項目の加重値w[n]が相対的に大きい数値に設定され、音高の正確性が重要視される楽曲の属性a[k]については音高の正確性の評価項目の加重値w[n]が相対的に大きい数値に設定される。以上のように属性a[k]毎の評価項目の軽重を反映した加重値情報Eが事前に用意されたうえで記憶装置14に格納される。歌唱評価部24は、K個の属性a[1]〜a[K]のうち属性推定部34が推定した属性Aに対応するN個の加重値w[1]〜w[N]を記憶装置14の加重値情報Eから特定する。
The
歌唱評価部24は、ステップSB1で算定したN個の基礎値s[1]〜s[N]とステップSB2で特定したN個の加重値w[1]〜w[N]とに応じて歌唱音声Vの評価指標Sを算定する(SB3)。具体的には、歌唱評価部24は、評価項目毎の加重値w[n]を適用した基礎値s[n]の加重和を最終的な評価指標S(S=Σ{w[n]s[n]})として算定する。したがって、N個の評価項目のうち対象楽曲の属性Aについて重要視される各評価項目に関する評価が高い(基礎値s[n]が大きい)ほど評価指標Sは大きい数値に設定される。以上の説明から理解される通り、歌唱評価部24は、対象楽曲について推定された属性Aに応じた可変の評価方法(評価基準)で歌唱音声Vを評価する。歌唱評価部24は、以上の手順で算定した評価指標Sを表示装置18に表示させる(SB4)。
The
以上に説明した通り、第1実施形態では、歌詞解析部32が対象楽曲の歌詞から特定した複数の語句Wに応じて対象楽曲の属性Aが推定されるから、楽曲毎に属性を指定する情報を必要とせずに対象楽曲の属性Aを推定できるという利点がある。第1実施形態では特に、K個の属性a[1]〜a[K]の各々について各語句Wの親和度Hを指定する参照情報Rを利用することで対象楽曲の属性Aを簡便に推定できるという利点がある。
As described above, in the first embodiment, the attribute A of the target music is estimated according to the plurality of words W specified by the
また、第1実施形態では、対象楽曲について推定された属性Aに応じた可変の評価方法で利用者の歌唱が評価されるから、対象楽曲の属性Aに応じた適切な評価(例えば属性Aの楽曲の歌唱にて特に重要な評価項目を重視した評価)を実現することが可能である。 Moreover, in 1st Embodiment, since a user's song is evaluated by the variable evaluation method according to the attribute A estimated about the object music, appropriate evaluation (for example, attribute A of attribute A) is evaluated. It is possible to achieve an evaluation that emphasizes particularly important evaluation items in singing music.
<第2実施形態>
本発明の第2実施形態を以下に説明する。なお、以下に例示する各形態において作用や機能が第1実施形態と同様である要素については、第1実施形態の説明で参照した符号を流用して各々の詳細な説明を適宜に省略する。
Second Embodiment
A second embodiment of the present invention will be described below. In addition, about the element which an effect | action and function are the same as that of 1st Embodiment in each form illustrated below, the reference | standard referred by description of 1st Embodiment is diverted, and each detailed description is abbreviate | omitted suitably.
図7は、第2実施形態における楽曲解析部22の構成図である。第2実施形態の楽曲解析部22の属性推定部34は、相異なる属性a[k]に対応するK個の認識モデルM[1]〜M[K]を利用して対象楽曲の属性Aを推定する。任意の属性a[k]に対応する1個の認識モデルM[k]は、属性a[k]の楽曲の歌詞に使用される語句Wの傾向を表す統計モデルである。例えばGMM(Gaussian Mixture Model)等の混合分布を利用した統計モデルが認識モデルM[k]として好適に利用される。
FIG. 7 is a configuration diagram of the
K個の認識モデルM[1]〜M[K]は、相異なる楽曲に対応する多数の学習情報Lを利用した機械学習で事前に生成される。学習情報Lは、楽曲の属性a[k]を指定する属性情報(ラベル)LAと、当該楽曲の歌詞を指定する歌詞情報LBとを含んで構成される。任意の1個の楽曲には複数の属性a[k]が指定され得る。属性情報LAで指定される属性a[k]毎に多数の学習情報Lが分類され、属性a[k]に分類された各学習情報Lの歌詞情報LBから抽出される語句Wの傾向を統計的に解析することで属性a[k]毎の認識モデルM[k]が生成される。以上に例示した機械学習で事前に用意されたK個の認識モデルM[1]〜M[K](実際には各認識モデルM[k]を規定する変数)が記憶装置14に記憶され、属性推定部34による対象楽曲の属性Aの推定に利用される。なお、認識モデルM[k]の生成には公知の機械学習技術が任意に採用される。
The K recognition models M [1] to M [K] are generated in advance by machine learning using a lot of learning information L corresponding to different music pieces. The learning information L includes attribute information (label) LA that specifies the attribute a [k] of the music, and lyrics information LB that specifies the lyrics of the music. A plurality of attributes a [k] can be specified for an arbitrary piece of music. A large number of learning information L is classified for each attribute a [k] specified by the attribute information LA, and the tendency of the word / phrase W extracted from the lyrics information LB of each learning information L classified into the attribute a [k] is statistically calculated. Through the analysis, a recognition model M [k] for each attribute a [k] is generated. The K recognition models M [1] to M [K] (actually variables that define each recognition model M [k]) prepared in advance by the machine learning exemplified above are stored in the
第2実施形態の各認識モデルM[k]は、歌詞解析部32が対象楽曲の歌詞から特定した複数の語句Wに応じて属性a[k]の推定指標Y[k]を算定するための統計モデルである。任意の1個の認識モデルM[k]で算定される推定指標Y[k]は、対象楽曲が属性a[k]に該当する確度(尤度)の指標である。すなわち、対象楽曲の複数の語句Wが、認識モデルM[k]で表現される傾向(属性a[k]の楽曲の歌詞に使用される語句Wの傾向)に合致する度合が高いほど推定指標Y[k]は大きい数値に設定される。すなわち、推定指標(尤度)Y[k]は、属性a[k]に対する語句Wの親和度としても観念される。
Each recognition model M [k] of the second embodiment is used to calculate the estimated index Y [k] of the attribute a [k] according to the plurality of words W specified by the
図8は、第2実施形態の属性推定部34が対象楽曲の属性Aを推定する属性推定処理のフローチャートである。属性推定処理を開始すると、属性推定部34は、歌詞解析部32が特定した複数の語句WをK個の認識モデルM[1]〜M[K]の各々に適用することで、相異なる属性a[k]に対応するK個の推定指標Y[1]〜Y[K]を算定する(SC1)。前述の通り、対象楽曲の歌詞に使用される複数の語句Wが認識モデルM[k]の傾向に合致する度合が高い(歌詞に使用される語句の傾向の観点から対象楽曲が属性a[k]に該当する確度が高い)ほど、推定指標Y[k]は大きい数値に設定される。
FIG. 8 is a flowchart of attribute estimation processing in which the
属性推定部34は、K個の推定指標Y[1]〜Y[K]に応じて対象楽曲の属性Aを推定する(SC2)。具体的には、第2実施形態の属性推定部34は、K個の属性a[1]〜a[K]のうち推定指標Y[k]が最大となる1個の属性a[k]を対象楽曲の属性Aとして確定する。以上が第2実施形態における属性推定処理の具体例である。歌唱評価部24による歌唱評価処理の内容は第1実施形態と同様である。
The
第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態では、各属性a[k]の楽曲の歌詞に使用される語句の傾向を表す属性a[k]毎の認識モデルM[k]を利用して対象楽曲の属性Aが推定されるから、属性a[k]の多数の楽曲の歌詞に使用される語句Wの実際の傾向を反映した属性Aの適切な推定を実現することが可能である。 In the second embodiment, the same effect as in the first embodiment is realized. In the second embodiment, the attribute A of the target song is determined by using the recognition model M [k] for each attribute a [k] representing the tendency of the words used in the lyrics of the song of each attribute a [k]. Since it is estimated, it is possible to realize an appropriate estimation of the attribute A reflecting the actual tendency of the word / phrase W used in the lyrics of a large number of music pieces with the attribute a [k].
<第3実施形態>
図9は、第3実施形態における歌唱評価装置100の動作の説明図である。図9に例示される通り、属性推定部34は、対象楽曲を区分した複数の解析区間P((図9の例示では解析区間P1〜P4の計4個)の各々について属性Aを個別に推定する。具体的には、属性推定部34は、任意の1個の解析区間P内の歌詞から歌詞解析部32が特定した各語句Wを属性推定処理に適用することで当該解析区間の属性Aを推定する。属性Aの推定には第1実施形態または第2実施形態と同様の方法が採用され得る。
<Third Embodiment>
FIG. 9 is an explanatory diagram of the operation of the
解析区間Pは、例えば間奏を境界として対象楽曲を時間軸上で区分した各区間(楽曲の1番,2番等)である。図9では、対象楽曲の解析区間P1について「ウキウキ」という属性Aが推定され、解析区間P2について「別れ」という属性Aが推定され、解析区間P3について「とまどい」という属性Aが推定され、解析区間P4について「悲しい」という属性Aが推定された場合が例示されている。以上の通り、第3実施形態では解析区間P毎に属性Aが推定されるから、歌唱音声Vの評価方法は属性Aの推定結果に応じて解析区間P毎に変化し得る。
The analysis section P is, for example, each section (
第3実施形態においても第1実施形態と同様の効果が実現される。また、第3実施形態では、解析区間P毎に属性Aが推定されるから、楽曲内における曲調や題材の経時的な変化を適切に反映した属性Aを推定することが可能である。 In the third embodiment, the same effect as in the first embodiment is realized. Further, in the third embodiment, since the attribute A is estimated for each analysis section P, it is possible to estimate the attribute A that appropriately reflects the change in the tune and the subject in the music over time.
<第4実施形態>
第4実施形態の属性推定部34は、対象楽曲の演奏テンポに応じて対象楽曲の属性Aを推定する。具体的には、属性推定部34は、対象楽曲の属性Aとして選択し得る属性a[k]の範囲(属性Aの候補の範囲)を演奏テンポに応じて可変に制御する。
<Fourth embodiment>
The
例えば、「悲しい」「別れ」等の否定的(消極的)な属性Aの楽曲は演奏テンポが比較的に遅いという傾向がある。属性推定部34は、対象楽曲の演奏テンポの高低を判定し、図10に例示される通り、演奏テンポが低い場合には否定的な属性a[k]を含むK個の属性a[1]〜a[K]から属性Aを選択する一方、演奏テンポが高い場合には否定的な属性a[k]を選択対象から除外する。すなわち、演奏テンポが高い対象楽曲については否定的な属性a[k]は属性Aとして選択されない。
For example, music with negative (passive) attribute A such as “sad” or “parting” tends to have a relatively slow performance tempo. The
第4実施形態においても第1実施形態と同様の効果が実現される。また、第4実施形態では、対象楽曲の歌詞の各語句Wに加えて対象楽曲の演奏テンポが対象楽曲の属性Aの推定に加味されるから、例えば各語句Wのみを属性Aの推定に利用する構成と比較して対象楽曲の属性Aを高精度に推定できるという利点がある。 In the fourth embodiment, the same effect as in the first embodiment is realized. Further, in the fourth embodiment, since the performance tempo of the target music is added to the estimation of the attribute A of the target music in addition to each word W of the lyrics of the target music, for example, only each word W is used for the estimation of the attribute A. There is an advantage that the attribute A of the target musical piece can be estimated with high accuracy compared to the configuration to be performed.
<変形例>
以上の各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様は適宜に併合され得る。
<Modification>
Each of the above forms can be variously modified. Specific modifications are exemplified below. Two or more aspects arbitrarily selected from the following examples may be appropriately combined.
(1)前述の各形態では、K個の属性a[1]〜a[K]のうち推定指標(X[k],Y[k])に応じた1個の属性a[k]を対象楽曲の属性Aとして選択したが、複数の属性a[k]の組合せを対象楽曲の属性Aとして推定することも可能である。例えば、推定指標X[k]または推定指標Y[k]の降順で上位に位置する所定個の属性a[k]の組合せを対象楽曲の属性Aとして選択する構成や、推定指標X[k]または推定指標Y[k]が所定の閾値を上回る1個以上の属性a[k]を対象楽曲の属性Aとして選択する構成が採用される。 (1) In each of the above-described embodiments, one attribute a [k] corresponding to the estimated index (X [k], Y [k]) among the K attributes a [1] to a [K] is targeted. Although selected as the attribute A of the music piece, a combination of a plurality of attributes a [k] can be estimated as the attribute A of the target music piece. For example, a configuration in which a combination of a predetermined number of attributes a [k] positioned in descending order of the estimated index X [k] or the estimated index Y [k] is selected as the attribute A of the target music, or the estimated index X [k] Alternatively, a configuration in which one or more attributes a [k] whose estimated index Y [k] exceeds a predetermined threshold is selected as the attribute A of the target music is adopted.
以上の例示のように複数の属性a[k]を選択する構成では、複数の属性a[k]に応じて歌唱評価部24による歌唱評価処理が実行される。例えば、属性a[k1]と属性a[k2]と属性a[k3]との計3個の組合せが対象楽曲の属性Aとして推定された場合を想定すると、歌唱評価部24は、属性a[k1]に対応する加重値w[n]と属性a[k2]に対応する加重値w[n]と属性a[k3]に対応する加重値w[n]との平均値または加算値を各基礎値s[n]の確定的な加重値w[n]として評価指標Sを算定する。
In the configuration in which a plurality of attributes a [k] are selected as illustrated above, the song evaluation process by the
(2)前述の各形態では、評価指標Sの算定(各基礎値s[n]の加重和)に適用される各加重値w[n]を対象楽曲の属性Aに応じて変化させたが、歌唱の評価方法を対象楽曲の属性Aに応じて変化させるための構成は以上の例示に限定されない。例えば、相異なる複数種の評価方法(歌唱評価処理)のうち対象楽曲の属性Aに応じた評価方法を採択して評価指標Sを算定する構成や、評価項目毎の基礎値s[n]の算定に適用される変数を対象楽曲の属性Aに応じて可変に設定する構成、N個の基礎値s[n]のうち評価指標Sの算定に適用される基礎値s[n]の組合せ(すなわち歌唱評価に加味される評価項目)を対象楽曲の属性Aに応じて変化させる構成も採用され得る。 (2) In each of the above-described embodiments, each weight value w [n] applied to the calculation of the evaluation index S (the weighted sum of the basic values s [n]) is changed according to the attribute A of the target song. The configuration for changing the singing evaluation method according to the attribute A of the target song is not limited to the above examples. For example, the evaluation index S is calculated by adopting an evaluation method corresponding to the attribute A of the target music among different types of evaluation methods (singing evaluation processing), and the basic value s [n] for each evaluation item A configuration in which a variable applied to the calculation is variably set according to the attribute A of the target music, and a combination of the basic value s [n] applied to the calculation of the evaluation index S among the N basic values s [n] ( In other words, a configuration in which the evaluation item added to the singing evaluation) is changed according to the attribute A of the target music piece may be employed.
(3)前述の各形態では、楽曲解析部22が推定した属性Aを歌唱評価処理に適用する構成を例示したが、対象楽曲について推定された属性Aの利用方法は以上の例示に限定されない。具体的には、以下の各態様が好適に採用される。
(3) In each form mentioned above, although the structure which applies the attribute A which the
[A]演算処理装置12は、対象楽曲の歌唱時に表示装置18に表示される画像(BGV)を、対象楽曲の属性Aに応じて選択する。例えば、対象楽曲について「悲しい」という属性Aが推定された場合には悲しい印象のBGVが選択および表示される。また、表示装置18に表示されるBGV(動画像)を楽曲内の各時点で複数の候補から順次に選択する構成では、各時点での選択対象を対象楽曲の属性Aに応じて制御することも可能である。各利用者が所有する携帯電話機やスマートフォン等の端末装置に表示される画像を属性Aに応じて制御する構成も採用され得る。
[A] The
[B]演算処理装置12(歌唱評価部24)は、対象楽曲の属性Aに応じたコメント(評価コメントや指導コメント)を表示装置18に表示させる。例えば、対象楽曲の歌唱の評価結果に関連する評価コメントを利用者に提示する構成が好適である。具体的には、歌唱評価部24は、事前に用意された複数の候補から属性Aに応じて選択した評価コメントを評価指標Sとともに利用者に提示する。例えば、評価指標Sが所定値を上回り、かつ、対象楽曲について「渋い」という属性Aが推定された場合には、「渋い曲もいいね!」といった評価コメントが評価指標Sとともに表示装置18に表示される。
[B] The arithmetic processing unit 12 (the singing evaluation unit 24) causes the
また、対象楽曲の歌唱の指導に関連する指導コメントを利用者に提示する構成も採用される。具体的には、前述の評価コメントの提示と同様に、歌唱評価部24は、事前に用意された複数の候補から属性Aに応じて選択した評価コメントを評価指標Sとともに利用者に提示する。例えば、評価指標Sが所定値を下回り、かつ、対象楽曲について「切ない」や「悲しい」等の属性A(音程等の他の要素と比較して抑揚に特に注意して歌唱すべき感情的な楽曲の属性)が推定された場合には「抑揚に注意しながら感情を込めて歌いましょう」といった指導コメントが評価指標Sとともに表示装置18に表示される。
Moreover, the structure which shows the instruction | indication comment relevant to instruction | indication of the song of an object music to a user is also employ | adopted. Specifically, the
[C]演算処理装置12(歌唱評価部24)は、歌唱評価装置100ともに音響空間に設置される各種の照明機器(例えば各種の視覚効果を実現するミラーボールやレーザー等を含む光による演出用の機器)の動作を属性Aに応じて制御することも可能である。例えば、「切ない」という属性Aが推定された場合には暖色系(赤色等)の照明光を出射し、「さわやか」という属性Aが推定された場合には寒色系(青色等)の照明光を出射し、「激しい」という属性Aが推定された場合には照明光の明度や色相を変動させる。
[C] The arithmetic processing unit 12 (the singing evaluation unit 24) is used for the production of various lighting devices (for example, mirror balls or lasers that realize various visual effects) that are installed in the acoustic space together with the
(4)第4実施形態では、演奏テンポに応じて対象楽曲の属性Aを推定したが、属性Aの推定に加味される音楽情報(音楽的な要素)は演奏テンポに限定されない。例えば、対象楽曲の演奏パート構成(楽器の組合せ)やリズムパターン,曲調,楽曲長,楽曲構成等の音楽情報を属性Aの推定に加味することも可能である。 (4) In the fourth embodiment, the attribute A of the target music is estimated according to the performance tempo, but the music information (musical element) added to the estimation of the attribute A is not limited to the performance tempo. For example, music information such as the performance part configuration (musical instrument combination), rhythm pattern, music tone, music length, music composition, etc. of the target music can be added to the estimation of the attribute A.
(5)前述の各形態では、楽曲解析部22が推定した属性Aを歌唱評価処理に適用する歌唱評価装置100を例示したが、対象楽曲の属性Aを推定する楽曲解析装置としても本発明は実現され得る。楽曲解析装置は、前述の各形態で例示した楽曲解析部22(歌詞解析部32,属性推定部34)を具備する情報処理装置である。前述の各形態の歌唱評価装置100は、楽曲解析装置に歌唱評価部24を付加した構成に相当する。
(5) In each above-mentioned form, although the
100……歌唱評価装置、12……演算処理装置、14……記憶装置、16……収音装置、18……表示装置、22……楽曲解析部、24……歌唱評価部、32……歌詞解析部、34……属性推定部。
DESCRIPTION OF
Claims (6)
複数の属性の各々に対する親和度を語句毎に指定する参照情報を利用して、前記歌詞解析部が特定した語句から前記楽曲の属性を推定する属性推定部と
を具備する楽曲解析装置。 A lyric analyzer that identifies words included in the lyrics of the song;
A music analysis apparatus comprising: an attribute estimation unit that estimates the attribute of the music from the phrase specified by the lyrics analysis unit using reference information that specifies the affinity for each of the plurality of attributes for each phrase.
各属性の楽曲の歌詞に使用される語句の傾向を表す属性毎の認識モデルを利用して、前記歌詞解析部が特定した語句から前記楽曲の属性を推定する属性推定部と
を具備する楽曲解析装置。 A lyric analyzer that identifies words included in the lyrics of the song;
A music analysis comprising: an attribute estimation unit that estimates an attribute of the music from the phrase specified by the lyrics analysis unit using a recognition model for each attribute that represents a tendency of the word used for the lyrics of the music of each attribute apparatus.
請求項1から請求項3の何れかの楽曲解析装置。 The attribute estimation unit estimates an attribute according to each word and phrase specified by the lyrics analysis unit from lyrics in the analysis section for each of a plurality of analysis sections into which the music is divided. Any music analyzer.
複数の属性の各々に対する親和度を語句毎に指定する参照情報、または、各属性の楽曲の歌詞に使用される語句の傾向を表す属性毎の認識モデルを利用して、前記歌詞解析部が特定した語句から前記楽曲の属性を推定する属性推定部と
前記属性推定部が推定した属性に応じた評価方法で歌唱音声を評価する歌唱評価部と
を具備する歌唱評価装置。 A lyric analyzer that identifies words included in the lyrics of the song;
Using the reference information that specifies the affinity for each of multiple attributes for each phrase, or the recognition model for each attribute that indicates the tendency of the phrase used for the lyrics of the music of each attribute, the lyrics analysis unit identifies The song evaluation apparatus which comprises the attribute estimation part which estimates the attribute of the said music from the performed phrase, and the song evaluation part which evaluates song voice by the evaluation method according to the attribute which the said attribute estimation part estimated.
複数の属性の各々に対する親和度を語句毎に指定する参照情報、または、各属性の楽曲の歌詞に使用される語句の傾向を表す属性毎の認識モデルを利用して、前記歌詞解析部が特定した語句から前記楽曲の属性を推定する属性推定部と
歌唱音声を評価した結果と前記属性推定部が推定した属性とに応じたコメントを表示装置に表示させる歌唱評価部と
を具備する歌唱評価装置。 A lyric analyzer that identifies words included in the lyrics of the song;
Using the reference information that specifies the affinity for each of multiple attributes for each phrase, or the recognition model for each attribute that indicates the tendency of the phrase used for the lyrics of the music of each attribute, the lyrics analysis unit identifies A song evaluation device comprising: an attribute estimation unit that estimates an attribute of the music from a phrase that has been performed; a song evaluation unit that causes a display device to display a comment according to a result of evaluating a singing voice and an attribute estimated by the attribute estimation unit .
複数の属性の各々に対する親和度を語句毎に指定する参照情報、または、各属性の楽曲の歌詞に使用される語句の傾向を表す属性毎の認識モデルを利用して、前記歌詞解析部が特定した語句から前記楽曲の属性を推定する属性推定部と、
前記属性推定部が推定した属性に応じて照明機器の動作または表示装置による表示画像を制御する制御部と
を具備する楽曲解析装置。
A lyric analyzer that identifies words included in the lyrics of the song;
Using the reference information that specifies the affinity for each of multiple attributes for each phrase, or the recognition model for each attribute that indicates the tendency of the phrase used for the lyrics of the music of each attribute, the lyrics analysis unit identifies An attribute estimation unit that estimates the attribute of the music from the phrase
A music analysis apparatus comprising: a control unit that controls an operation of a lighting device or a display image by a display device according to the attribute estimated by the attribute estimation unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014018518A JP2015145955A (en) | 2014-02-03 | 2014-02-03 | Music analyzer and singing evaluation device |
PCT/JP2015/053016 WO2015115666A1 (en) | 2014-02-03 | 2015-02-03 | Musical composition analysis device and singing evaluation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014018518A JP2015145955A (en) | 2014-02-03 | 2014-02-03 | Music analyzer and singing evaluation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015145955A true JP2015145955A (en) | 2015-08-13 |
Family
ID=53757231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014018518A Pending JP2015145955A (en) | 2014-02-03 | 2014-02-03 | Music analyzer and singing evaluation device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2015145955A (en) |
WO (1) | WO2015115666A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022092619A (en) * | 2020-12-10 | 2022-06-22 | モビリティー・アジア・スマート・テクノロジー・カンパニー・リミテッド | Light control method and device |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08190394A (en) * | 1995-01-09 | 1996-07-23 | Taito Corp | Method for displaying graphics interlocked to music content on karaoke sing-along machine and device therefor |
JPH09212480A (en) * | 1996-01-31 | 1997-08-15 | Yamaha Corp | Atmosphere information generating device and karaoke device |
JPH11327551A (en) * | 1998-05-15 | 1999-11-26 | Nippon Telegr & Teleph Corp <Ntt> | Method for determining arrangement style of musical piece and apparatus therefor as well as memory medium storing arrangement style determination program of musical piece |
JP2008026622A (en) * | 2006-07-21 | 2008-02-07 | Yamaha Corp | Evaluation apparatus |
JP2009204870A (en) * | 2008-02-27 | 2009-09-10 | Xing Inc | Karaoke machine |
JP2011095437A (en) * | 2009-10-29 | 2011-05-12 | Daiichikosho Co Ltd | Karaoke scoring system |
JP2012058278A (en) * | 2010-09-03 | 2012-03-22 | Yamaha Corp | Voice evaluation device |
JP2012173624A (en) * | 2011-02-23 | 2012-09-10 | Yamaha Corp | Singing evaluation device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4697432B2 (en) * | 2006-01-27 | 2011-06-08 | 日本電気株式会社 | Music playback apparatus, music playback method, and music playback program |
-
2014
- 2014-02-03 JP JP2014018518A patent/JP2015145955A/en active Pending
-
2015
- 2015-02-03 WO PCT/JP2015/053016 patent/WO2015115666A1/en active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08190394A (en) * | 1995-01-09 | 1996-07-23 | Taito Corp | Method for displaying graphics interlocked to music content on karaoke sing-along machine and device therefor |
JPH09212480A (en) * | 1996-01-31 | 1997-08-15 | Yamaha Corp | Atmosphere information generating device and karaoke device |
JPH11327551A (en) * | 1998-05-15 | 1999-11-26 | Nippon Telegr & Teleph Corp <Ntt> | Method for determining arrangement style of musical piece and apparatus therefor as well as memory medium storing arrangement style determination program of musical piece |
JP2008026622A (en) * | 2006-07-21 | 2008-02-07 | Yamaha Corp | Evaluation apparatus |
JP2009204870A (en) * | 2008-02-27 | 2009-09-10 | Xing Inc | Karaoke machine |
JP2011095437A (en) * | 2009-10-29 | 2011-05-12 | Daiichikosho Co Ltd | Karaoke scoring system |
JP2012058278A (en) * | 2010-09-03 | 2012-03-22 | Yamaha Corp | Voice evaluation device |
JP2012173624A (en) * | 2011-02-23 | 2012-09-10 | Yamaha Corp | Singing evaluation device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022092619A (en) * | 2020-12-10 | 2022-06-22 | モビリティー・アジア・スマート・テクノロジー・カンパニー・リミテッド | Light control method and device |
Also Published As
Publication number | Publication date |
---|---|
WO2015115666A1 (en) | 2015-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rink et al. | Motive, gesture and the analysis of performance | |
CN106023969B (en) | Method for applying audio effects to one or more tracks of a music compilation | |
US20180268792A1 (en) | System and method for automatically generating musical output | |
Davis et al. | Generating music from literature | |
KR20080002348A (en) | System and method for recommending music | |
JP2008026622A (en) | Evaluation apparatus | |
JP6759545B2 (en) | Evaluation device and program | |
CA3064738A1 (en) | System and method for automatically generating musical output | |
WO2015125893A1 (en) | Voice analysis device | |
WO2015115666A1 (en) | Musical composition analysis device and singing evaluation device | |
JP2014178620A (en) | Voice processor | |
JP5830840B2 (en) | Voice evaluation device | |
JP2015194767A (en) | Voice evaluation device | |
JP5618743B2 (en) | Singing voice evaluation device | |
JP5585320B2 (en) | Singing voice evaluation device | |
JP6954780B2 (en) | Karaoke equipment | |
Ornoy et al. | Analysis of contemporary violin recordings of 19th century repertoire: Identifying trends and impacts | |
Liu et al. | Emotion Recognition of Violin Music based on Strings Music Theory for Mascot Robot System. | |
WO2016039463A1 (en) | Acoustic analysis device | |
JP2007240552A (en) | Musical instrument sound recognition method, musical instrument annotation method and music piece searching method | |
CN113196381A (en) | Sound analysis method and sound analysis device | |
JP6135229B2 (en) | Singing evaluation device | |
JP5262875B2 (en) | Follow-up evaluation system, karaoke system and program | |
JP6175034B2 (en) | Singing evaluation device | |
JP2015191183A (en) | Musical performance evaluation system, server device, terminal device, musical performance evaluation method and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180507 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181023 |