JP6722165B2 - 音楽情報の特徴解析方法及びその装置 - Google Patents

音楽情報の特徴解析方法及びその装置 Download PDF

Info

Publication number
JP6722165B2
JP6722165B2 JP2017242127A JP2017242127A JP6722165B2 JP 6722165 B2 JP6722165 B2 JP 6722165B2 JP 2017242127 A JP2017242127 A JP 2017242127A JP 2017242127 A JP2017242127 A JP 2017242127A JP 6722165 B2 JP6722165 B2 JP 6722165B2
Authority
JP
Japan
Prior art keywords
performance
pitch transition
sequence
transition
pitch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017242127A
Other languages
English (en)
Other versions
JP2019109357A (ja
JP2019109357A5 (ja
Inventor
大黒 達也
達也 大黒
Original Assignee
大黒 達也
達也 大黒
松丸 大吾
松丸 大吾
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大黒 達也, 達也 大黒, 松丸 大吾, 松丸 大吾 filed Critical 大黒 達也
Priority to JP2017242127A priority Critical patent/JP6722165B2/ja
Priority to US16/104,284 priority patent/US10431191B2/en
Publication of JP2019109357A publication Critical patent/JP2019109357A/ja
Publication of JP2019109357A5 publication Critical patent/JP2019109357A5/ja
Application granted granted Critical
Publication of JP6722165B2 publication Critical patent/JP6722165B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/08Computing arrangements based on specific mathematical models using chaos models or non-linear system models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/081Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/086Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for transcription of raw audio or music data to a displayed or printed staff representation or to displayable MIDI-like note-oriented data, e.g. in pianoroll format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • G10H2210/115Automatic composing, i.e. using predefined musical rules using a random process to generate a musical note, phrase, sequence or structure
    • G10H2210/121Automatic composing, i.e. using predefined musical rules using a random process to generate a musical note, phrase, sequence or structure using a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/056MIDI or other note-oriented file format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/005Algorithms for electrophonic musical instruments or musical processing, e.g. for automatic composition or resource allocation
    • G10H2250/015Markov chains, e.g. hidden Markov models [HMM], for musical processing, e.g. musical analysis or musical composition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Library & Information Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nonlinear Science (AREA)
  • Databases & Information Systems (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、音楽情報から特徴を抽出するための方法とその装置に関するものである。
ジャズの重要な要素として即興演奏がある。
即興演奏とは、予め用意された楽譜等を用いないで、その場で直感的に演奏することである。従来は、即興演奏技術を習得するためには、過去の他の奏者の即興演奏を繰り返し聴き、耳を頼りにコピーしながら練習をする必要があり、膨大な労力と時間を必要とするということがあった。
これに対して、今日では、音楽学者や音楽家によって音楽理論的な解釈がなされた即興演奏のフレーズ集が多く提供されており、自力でコピーする必要がなくフレーズの習得が可能となっている。
特表2006−508390号公報 特開2003−15684号公報 特開2001−290474号公報 特開2007−225661号公報この出願の発明に関連する技術文献情報としては、以下のものがある。 米国特許出願2019/0189100号公報 Daikoku T. Computational models and neural bases of statistical learning in music and language. Physics of Life Reviews (2019), pii: S1571−0645(19)30141−1 Daikoku T. Implicit Learning in the Developing Brain: An Exploration of ERP Indices for Developmental Disorders. Clinical Neurophysiology (2019), 130(11):2166−2168 Daikoku T. Tonality Tunes the Statistical Characteristics in Music: Computational Approaches on Statistical Learning. Frontiers in Human Neuroscience (2019). doi: 10.3389/fncom.2019.00070 Tsogli V, Jentschke S, Daikoku T, Koelsch S. When the statistical MMN meets the physical MMN. Scientific Reports 9, 5563 (2019) Daikoku T. Depth and the Uncertainty of Statistical Knowledge on Musical Creativity Fluctuate Over a Composer’s Lifetime. Frontiers in Computational Neuroscience,13:27 (2019) Daikoku T, Yumoto M. Concurrent statistical learning of ignored and attended sound sequences: An MEG study. Frontiers in Human Neuroscience, 13, 102 (2019) Daikoku T. Entropy, uncertainty, and the depth of implicit knowledge on musical creativity: Computational study of improvisation in melody and rhythm. Frontiers in Computational Neuroscience 12, 97 (2018) Daikoku T. Musical Creativity and Depth of Implicit Knowledge: Spectral and Temporal Individualities in Improvisation. Frontiers in Computational Neuroscience 12, 89 (2018). doi: 10.3389/fncom.2018.00089 Daikoku T, Takahashi Y, Tarumoto M,Yasuda H. Motor reproduction of time interval depends on internal temporal cues in the brain: Sensorimotor imagery in rhythm. Frontiers in Psychology 9, 1873 (2018), doi: 10.3389/fpsyg.2018.01873 Daikoku T. Neurophysiological marker of statistical learning in music and language: hierarchy, entropy, and uncertainty, Brain Sci 8, 114 (2018) Daikoku T. Time−course variation of statistics embedded in music: Corpus study on implicit learning and knowledge. PLoS ONE 13(5), e0196493(2018) Daikoku T, Yumoto M. Single, but not dual, attention facilitates statistical learning of two concurrent auditory sequences. Scientific Reports 7, 10108 (2017) Daikoku T, Takahashi Y, Tarumoto M,Yasuda H. Auditory Statistical Learning During Concurrent Physical Exercise and the Tolerance for Pitch, Tempo, and Rhythm Changes. Motor Control 22(3): 233−244 (2018) Daikoku T, Takahashi Y, Futagami H,Tarumoto M,Yasuda H. Physical fitness modulates incidental but not intentional statistical learning of simultaneous auditory sequences during concurrent physical exercise. Neurological Research 30, 107−116 (2017) Daikoku T, Yatomi Y, Yumoto M. Statistical learning of an auditory sequence and reorganization of acquired knowledge: A time course of word segmentation and ordering. Neuropsychologia 95 1−10 (2016) Daikoku T, Yatomi Y, Yumoto M. Pitch−class distribution modulates statistical learning of atonal chord sequences. Brain and Cognition 108, 1−10 (2016) Daikoku T, Yatomi Y, Yumoto M. Statistical learning of music− and language−like sequences and tolerance for spectral shifts. Neurobiology of Learning and Memory 118, 8−19 (2015) Daikoku T, Yatomi Y, Yumoto M. Implicit and explicit statistical learning of tone sequences across spectral shifts. Neuropsychologia 63, 194−204 (2014) Daikoku T, Ogura H, Watanabe M. The variation of hemodynamics relative to listening to consonance or dissonance during chord progression. Neurological research 34, 557−563 (2012) Yumoto M, Daikoku T. Neurophysiological Studies on Auditory Statistical Learning (in Japanese). Japanese journal of cognitive neuroscience 20(1), 38−43, 2018
しかし、音楽学者や音楽家の音楽理論的解釈により用意された即興演奏のフレーズ集によって学んだ学習者は、当然のことながら音楽理論的な法則から脱した演奏が困難となる。このため、毎回ワンパターンな即興演奏になってしまい、直感的であるべき本来の即興演奏を行えないということがあった。
本発明は、このような課題を解決するべくなされたものであり、その目的は、音楽理論に基づくものでなく、直感的に生み出された即興演奏の分析を可能にするシステム及びこのシステムによって実行される方法を提供するものである。
上記課題を解決するため、この発明の第一の主要な観点によれば、演奏者の実際の演奏を記録した楽曲データを解析し、1次〜n次の全ての音列パターンを抽出する音列パターン抽出部と、上記抽出した各音列パターンの遷移確率と、全音列パターンにおける出現確率を演算する遷移確率・出現確率演算部と、前記遷移確率と出現確率とに基づいて、統計的に起こり得る可能性の高い音列パターンを特定し、その音列パターンを楽譜化することで前記演奏者の演奏フレーズを生成し出力する演奏フレーズ構成部とを有することを特徴とする即興演奏解析システムが提供される。
このような構成によれば、神経生理学的な脳の潜在学習・直感生成メカニズムに基づいて、あらゆる著名なジャズ奏者が即興演奏した音楽情報から、曲に埋め込まれている演奏者の潜在知識を抽出しフレーズを出力することができる。
これにより、音楽理論に縛られないフレーズを提供することができる。
この発明の1の実施態様によれば、上記演奏解析システムにおいて、前記演奏者の演奏は、即興演奏である。
また、別の1の実施態様によれば、前記音列パターン抽出部は、n次マルコフ連鎖として起こり得る全ての1次〜n次音列パターンを抽出するものであり、前記遷移確率・出現確率演算部は、マルコフモデルを用いて、1次〜n次の各階層レベルの各ピッチ遷移列の遷移確率を求めるものである。
更なる別の1の実施態様によれば、前記楽曲データは、XMLファイル若しくはMIDI音源である。
この発明の第2の主要な観点によれば、ンピュータが、演奏者の実際の演奏を記録した楽曲データを解析し、1次〜n次の全ての音列パターンを抽出する音列パターン抽出工程と、コンピュータが、上記抽出した各音列パターンの遷移確率と、全音列パターンにおける出現確率を演算する遷移確率・出現確率演算工程と、コンピュータが、前記遷移確率と出現確率とに基づいて、統計的に起こり得る可能性の高い音列パターンを特定し、その音列パターンを楽譜化することで前記演奏者の演奏フレーズを生成し出力する演奏フレーズ構成工程とを有することを特徴とする即興演奏解析方法が提供される。
この発明の第3の主要な観点によれば、記憶媒体に格納され、即興演奏解析を実行するコンピュータソフトウエアプログラムであって、以下の、コンピュータが、演奏者の実際の演奏を記録した楽曲データを解析し、1次〜n次の全ての音列パターンを抽出する音列パターン抽出工程と、コンピュータが、上記抽出した各音列パターンの遷移確率と、全音列パターンにおける出現確率を演算する遷移確率・出現確率演算工程と、コンピュータが、前記遷移確率と出現確率とに基づいて、統計的に起こり得る可能性の高い音列パターンを特定し、その音列パターンを楽譜化することで前記演奏者の演奏フレーズを生成し出力する演奏フレーズ構成工程とを実行させるものであることを特徴とするコンピュータソフトウエアプログラムが提供される。
なお、この発明の、上記した以外の特徴については、次の「発明を実施するための形態」の記載及び図面の記載中に明らかにされる。
図1は、この発明の一実施形態を示す概略構成図。
図2は、同じく、フローチャート。
図3は、同じく、マルコフに基づく音列パターンの抽出を説明する概念図。
図4は、同じく、遷移確率と、出現確率を説明する概念図。
図5は、同じく、即興演奏フレーズの生成を説明する概念図。
以下、本発明の一実施形態を図面に基づいて説明する。
1.本発明の考え方
本発明は、音楽理論に縛られない即興演奏のフレーズを提供するシステム及び方法を提供するものである。
ここで、音楽理論とは、数学的・物理的な論理に基づいて構成されており、音楽理論に厳格に従って作られた音楽は、不協和音等のない綺麗な響きやメロディーラインとなる、というものである。その意味で、即興演奏においても、ある程度音楽理論に基づく必要がある。
しかながら、即興演奏を行う演奏者は、実際の演奏時には音楽理論的な妥当性を常に厳格に考えながら演奏するのではなく、これまで習得してきた演奏技術を頼りに、その場の直感に基づいて演奏するのが普通である。
したがって、音楽は物理的な法則を除けば根本的に脳の創造物といえるのであって、即興演奏によるメロディは、脳がこれまで獲得してきた知識に基づいて直感的に生み出されているといえる。
本発明者は、このような知見に基づいて本発明を完成させたものである。
すなわち、脳の最も根本的な学習メカニズムは、統計学習である。統計学習とは、意識や意図とは関係なく、系列情報の遷移確率を脳が自動的・潜在的に計算・学習するというもので、ヒトが生み出す直感も、この潜在統計知識に基づいて発生しているといわれている。
そこで、この発明においては、即興演奏者の演奏情報を統計的に分析して音列パターンの特徴を特定し、これに基づいてフレーズを抽出するようにしているものである。これにより即興演奏者の直感的な部分を反映したフレーズを得ることができる。このことで学習者は、「音楽理論」ではなく「直感」から生み出されてきた即興演奏技術を直接的に会得する事ができる。
本発明は、発明者のこのような知見に基づいてシステム化されたものである。
2.本実施形態にかかるシスステム構成
図1は、この実施形態にかかるシステムを示す概略構成図である。
このシステムは、CPU1、RAM2、出力部・表示部3、入力部4等が接続されているバス5に、データ記憶部6とプログラム記憶部7が接続されてなる。
データ記憶部6には、入力データとしての即興演奏者楽曲データ8と、出力データとしての即興演奏フレーズ情報9が格納されている。
プログラム記憶部7には、
基本プログラムの他、本実施例に関係するプログラムのみ挙げると、
(1)音楽記録媒体に記録された即興演奏者の楽曲データを解析し記号化する楽曲情報コーディング部10と、
(2)記号化した楽曲データからマルコフモデルによる確率解析を行うために、n次マルコフ連鎖として起こり得る全ての1次〜n次音列パターンを抽出する音列パターン抽出部11と、
(3)上記抽出した各音列パターンのピッチ遷移列を求めるピッチ遷移列抽出部12と、
(4)マルコフモデルを用いて、ピッチ遷移列の遷移確率と各遷移列の出現確率を1次〜n次の各階層レベルで計算する遷移確率・出現確率演算部13と、
(5)前記遷移確率と出現確率に基づいて、各階層レベルでピッチ遷移率を並べ替え、統計的に起こり得る可能性の高いピッチ遷移列を特定し、12音平均律に基づいて全調作成し楽譜化することで即興演奏フレーズを生成する即興演奏フレーズ構成部14と
が格納されている。
上記各構成部10〜14は、実際にはコンピュータソフトウエアプログラムであり、CPU1によってRAM2上に展開され実行されることでこの発明の各構成要素として機能するようになっている。
以下、各構成部10〜14の詳しい構成及び機能を、処理動作を通して明らかにする。
図2は、上記システムによる処理工程を示すフローチャートである。図中、S1〜S7は、各処理工程を示す符号であり、以下の各ステップに対応する。
(1)音楽記録媒体に記録された即興演奏者の楽曲データを解析し記号化する工程(ステップS1、S2)(楽曲情報コーディング部10)
音楽記録媒体(図示せず)に格納されたMXLやMIDIなどの楽曲データは、C、F、Eなどのアルファベットによる音名情報であったり、言語的な情報であることが多い。これらの情報を統計処理し遷移確率を計算するためには、情報を全て数値に記号化する必要がある。
図3は、この記号化の処理を説明する概略図である。
図3で20で示す楽譜情報に対応する楽曲データ(即興演奏者の演奏した生の楽曲データ)が例えばSDカード等の音楽記憶媒体20に格納されており、この楽曲データはカードリーダ等の入力部4を通してこのシステムに読み込まれ、上記データ格納部6に格納される。(ステップS1)
次いで、前記楽曲情報コーディング部10が、この楽曲データの数値解析を行い、pianoの88腱の音高に基づき最低音から順に1〜88まで番号付けをする。
図3中22はその結果を示すもので、上段はアルファベットによる音高情報で、下段は数値に変換した場合を示すものである。例えば、上記符号21で示される楽譜にあるメロディを音名で表すと、「F5、G5、F5、Eb5、F5...」(図3中符号22の上段)となり、それを88の番号で表すと、「57、59、57、55、57...](図3中符号22の下段)と表現される。
(2)記号化した楽曲データからマルコフモデルによる確率解析を行うために、n次マルコフ連鎖として起こり得る全ての1次〜n次音列パターンを抽出する工程(ステップS3)(音列パターン抽出部)
ここで、マルコフモデルとは、時系列データの確率モデルであって、現在の状態の確率が、直前のn個前の状態に依存して決まるモデルをいう。
この実施形態では、まず、上記で記号化された楽曲データ22から、各階層毎(1次〜n次)の音列パターンを抽出する。
例えば、上記コーディングした楽曲データ22の下段の[57、59、57、55、57...]から抽出したマルコフモデルに従う1次音列パターンは[57、59]、「59、57]、[57、55]、[55、57]...となる。また、6次の音列パターンは、[57、59、57、55、57、(-45、58)]となる。
(3)上記抽出した各音列パターンのピッチ遷移列を求める工程(ステップS4)(ピッチ遷移列抽出部12)
音楽では、曲毎に調が存在し、この調によって曲全体の音の高さや、各音高での役割が変わってくる。本発明では、このような音楽特有の法則や理論等を排除するために、遷移パターン毎に最初のピッチ周波数を0、半音増加を1、半音減少を-1とし、各遷移パターンの最初の音からピッチが相対的にどのように遷移するかだけを抽出する。
例えば、1重マルコフモデルで計算すると前記1次音列パターン[57、59]、 [59、57]、 [57、55]、 [55、57]...は、最初の音を0とした場合、ピッチ遷移列は、図3中符号23で示す出力結果の左側25に示すように、[0、2]、 [0、-2]、 [0、-2]、 [0、2]...となる。6重マルコフモデルで計算すると前記6次音列パターン[57、59、57、55、57、(-45、58)]...は、最初の音を0とした場合、図3中符号23で示す出力結果の右側24に示すように、[0、2、0、-2、0、(-12、1)]...となる。
このように、ピッチ遷移列を1重マルコフ〜n重マルコフまで各階層毎に計算する。
(4)マルコフモデルを用いて、1次〜n次の各階層レベルの各ピッチ遷移列の遷移確率と各遷移列の出現確率を計算する工程(ステップS5)(遷移確率・出現確率演算部13)
まず、この工程では、前記で抽出した遷移列のうち、遷移確率の高いものを計算から導き出すために、多重マルコフモデルを用いて各遷移パターンの遷移確率を計算する。
下記の式1は、階層をn、記号化された遷移パターンのピッチをX、時間をtとした時の、遷移確率Pを示すものである。
Figure 0006722165
このようにして求められた各遷移パターンの遷移確率を集計して、最終的に最も出現確率が高いいくつかのフレーズを特定し、出力する。
以下、遷移確率及び出現確率の求め方及び意義について、詳細に説明する。
なお、図3に示した実際の音楽データの例では列数が多くなり理解しづらいと思われるので、以下に単純化した例を使って説明する。
図4(a)の表は、前記遷移確率・出現確率演算部13が、6次の遷移列をソートし、前記数式1で求めた遷移確率を集計して示すものである。すなわち、表1の1行目は、6次の遷移列全てのうち、遷移列の前半に「0、2、4、5、7、9」がこの順で出現する場合をソートし、「0、2、4、5、7、9」の次に「1」、「2」、「3」、「4」のいずれかに遷移する確率をそれぞれ集計して表したものである。
この例では、「0、2、4、5、7、9」が、「1」に遷移する確率は、「1」、「2」、「3」、「4」のどれかに遷移する総数のうち、10%である。同様に、「2」に遷移する確率は、30%、「3」は20%、「4」は40%であることを示している。
同様に、2行目は、「0、-1、-3、-5、-7、8」が出現した場合、次に「1」、「2」、「3」、「4」のいずれかに遷移する確率を表している。3行目は、「0、2、4、2、0、-1」が出現した場合、次に「1」、「2」、「3」、「4」のいずれかに遷移するということを表している。
次に、図3(b)は、図3(a)の例で、前記遷移確率・出現確率演算部13が、全遷移パターンに対する出現確率を求める例を示したものである。
すなわち、上記マルコフによる遷移確率(図3(a)の表)は、各行がそれぞれ合計で100%となるような計算方法であるのに対し、全遷移数における各遷移パターンの出現確率(図3(b))は、全体が100%となるように計算する。
すなわち、図3(a)の一列目の「0、2、4、5、7、9」が「1」に遷移する場合は、前半に「0、2、4、5、7、9」を持つ遷移列の中では10パーセントの確率で現れるが、この表の全ての行に示される全遷移列の中では2.5パーセントであることが示される。このようにして、全ての遷移確率についての出現確率を求める。
上記2つの計算、すなわちマルコフによる遷移確率及びその全遷移列に対する出現確率の算出を行うことで、直前にある音列が出現した場合、次はどの音に遷移する可能性が高いかがわかる(遷移確率)と同時に(図3(a))、そのフレーズが全体的にどの程度重要なのか(出現確率)がわかる(図3(b))。
例えば、図3(a)の表において、1行目の「0、2、4、5、7、9、1」と2行目の「0、−1、−3、−5、−7、8、2]の2つの例の遷移確率は、マルコフモデルに基づけば「10%」と同じでも、図3(b)に示すように全体に占める出現頻度は異なり、1行目の「0、2、4、5、7、9、1」は2.5%で、2行目の「0、−1、−3、−5、−7、8、2]は5%である。
つまり、音列「0、2、4、5、7、9、1」 に比べて、音列「0、−1、−3、−5、−7、8、2]は、その曲においてより重要なフレーズであるといえる。すなわち、この2つの計算方法を用いることで、重要なフレーズを抽出する精度を上げることが分かる。
図5中、符号26は、図3の例における出現確率を示すものである。「seq」は各遷移パターン、「prob」が出現確率である。
例えば、この例では、6次の遷移パターンのうち1つ目の遷移パターンの「0、2、0−2、−2、1」の出現確率は、0.00155である。
(5)前記遷移確率と出現確率に基づいて、各階層レベルでピッチ遷移率を並べ替え、統計的に起こり得る可能性の高いピッチ遷移列を特定し、12音平均律に基づいて全調作成し楽譜化することで即興演奏フレーズを生成する工程(ステップS6、S7)(即興演奏フレーズ構成部14)
(5−1)まず、遷移確率と出現確率に基づいて、統計的に起こり得る可能性の高い遷移列から順番に並べ替え、MXLファイルにて出力する(ステップS6)。
上記処理によれば、遷移列のうち、遷移確率と出現確率が高いものが、直感的に即興演奏されやすいものといえる。この実施形態では、即興演奏フレーズ構成部14が、曲毎、演奏者毎にどのように直感的に即興演奏されているのかを理解するために、遷移確率と出現確率の高い順に並べ変え、それぞれ上位10位までの遷移列パターンを採用する。
ついで、数値のままだと、その遷移パターンが音楽的にどのようなフレーズなのかがわかりづらいので、今度は数値を音名情報に置き換える必要がある。上述したたように本発明では、調などの音楽特有の法則や理論を排除し、ピッチが相対的にどのように遷移するかだけを抽出したので、各遷移パターンを、全調(12音平均律)で表現することができる。例えば、[0、-3、-2、0、1、3、4]という遷移パターンが抽出された場合、0を音名ド、レのフラット......シまで12通り表現することができる。このように各遷移パターンを全調に置き換えた情報を、今度はMXLファイルにて出力する。
(5−2)12音平均律に基づいて、各遷移列を全調作成し、楽譜化する工程(ステップS7)。
ついで、即興演奏フレーズ構成部14は、出力されたMXLファイルをもとに楽譜化処理を実行する)。図5中27で示すのが出力例であり、演奏者Bill Evansの曲Autumn leavesでの即興演奏を、6重マルコフモデルで計算した場合、遷移パターン[0、-3、-2、0、1、3、4]は、出現確率6/646であり、これらを各調(C、Db、D...)で表した時のフレーズを表している。この実施形態では、前記即興演奏フレーズ構成部14が、このようなものを、各演奏者、各曲で、各階層(1〜N重マルコフモデル)レベルで提示する。
このような構成によれば、このシステムは、即興演奏技術に必要な「直感」を生み出すメカニズムである潜在統計知識に基づくフレーズを実現することができる。そして、このシステムを使用することによって、学習者はより直感に近い即興演奏フレーズを直接的に会得する事ができる。
なお、この発明は上記一実施形態に限定されるものではなく、発明の要旨を変更しない範囲で種々変形可能である。
例えば、上記遷移確率、出現確率が高い音列をマルコフモデルを用いて統計解析したが、マルコフモデルに限定されるものではない。他の統計的手法を用いても良い。
また、遷移確率や出現確率を求める場合に、他の要素を考慮しても良い。例えば、同じ楽曲であっても演奏者によって異なる重み付けをしても良い。又同じ演奏者でも、曲によって、年代によって等、遷移確率や出現確率に異なる重み付け定数を付けて計算するようにしても良い。
1…CPU
2…RAM
3…出力部・表示部
4…入力部
5…バス
6…データ記憶部
7…プログラム記憶部
8…即興演奏者楽曲データ
9…即興演奏フレーズ情報
10…楽曲情報コーディング部
11…音列パターン抽出部
12…ピッチ遷移列抽出部
13…遷移確率・出現確率演算部
14…即興演奏フレーズ構成部
20…音楽記憶媒体
22…楽曲データ

Claims (14)

  1. 演奏者の実際の演奏を記録した楽曲データを解析し、1次〜n次の全ての音列パターンを抽出する音列パターン抽出部と、
    前記抽出した1次〜n次の全ての音列パターンに基づいて各音列パターンに対応するピッチ遷移列を生成するピッチ遷移列抽出部であって、このピッチ遷移列抽出部は、各音列パターンの最初の音を基準にしてピッチ遷移量を相対的に表すことで前記ピッチ遷移列を生成するものである、ピッチ遷移列抽出部と、
    上記抽出した各ピッチ遷移列の遷移確率と、全ピッチ遷移列における出現確率を演算する遷移確率・出現確率演算部と、
    前記遷移確率と出現確率とに基づいて、統計的に起こり得る可能性の高いピッチ遷移列を特定し、そのピッチ遷移列を楽譜化することで前記演奏者の演奏フレーズを生成し出力する演奏フレーズ構成部と
    を有することを特徴とする即興演奏解析システム。
  2. 請求項1記載の即興演奏解析システムにおいて、
    前記演奏フレーズ構成部は、統計的に起こり得る可能性の高いピッチ遷移列を特定し、そのピッチ遷移列を12音平均律に基づいて全調作成し楽譜化するものである
    ことを特徴とする即興演奏解析システム。
  3. 請求項1記載の演奏解析システムにおいて、
    前記演奏者の演奏は、即興演奏であることを特徴とする演奏解析システム。
  4. 請求項1記載の演奏解析システムにおいて、
    前記音列パターン抽出部は、n次マルコフ連鎖として起こり得る全ての1次〜n次音列パターンを抽出するものであり、
    前記遷移確率・出現確率演算部は、マルコフモデルを用いて、前記1次〜n次の各階層レベルの各ピッチ遷移列の遷移確率を求めるものである
    ことを特徴とする演奏解析システム。
  5. 請求項1記載の即興演奏解析システムにおいて、
    前記楽曲データは、XMLファイルであることを特徴とする演奏解析システム。
  6. 請求項1記載の即興演奏解析システムにおいて、
    前記楽曲データは、MIDI音源であることを特徴とする演奏解析システム。
  7. コンピュータが、演奏者の実際の演奏を記録した楽曲データを解析し、1次〜n次の全ての音列パターンを抽出する音列パターン抽出工程と、
    前記抽出した1次〜n次の全ての音列パターンに基づいて各音列パターンに対応するピッチ遷移列を生成するピッチ遷移列抽出工程であって、このピッチ遷移列抽出工程は、各音列パターンの最初の音を基準にしてピッチ遷移量を相対的に表すことで前記ピッチ遷移列を生成するものである、ピッチ遷移列抽出工程と、
    コンピュータが、上記抽出した各ピッチ遷移列の遷移確率と、全ピッチ遷移列における出現確率を演算する遷移確率・出現確率演算工程と、
    コンピュータが、前記遷移確率と出現確率とに基づいて、統計的に起こり得る可能性の高いピッチ遷移列を特定し、そのピッチ遷移列を楽譜化することで前記演奏者の演奏フレーズを生成し出力する演奏フレーズ構成工程と
    を有することを特徴とする即興演奏解析方法。
  8. 請求項7記載の即興演奏解析方法において、
    前記演奏フレーズ構成工程は、統計的に起こり得る可能性の高いピッチ遷移列を特定し、そのピッチ遷移列を12音平均律に基づいて全調作成し楽譜化するものである
    ことを特徴とする即興演奏解析方法。
  9. 請求項7記載の演奏解析方法において、
    前記演奏者の演奏は、即興演奏であることを特徴とする演奏解析方法。
  10. 請求項7記載の演奏解析方法において、
    前記音列パターン抽出工程は、n次マルコフ連鎖として起こり得る全ての1次〜n次音列パターンを抽出するものであり、
    前記遷移確率・出現確率演算工程は、マルコフモデルを用いて、前記1次〜n次の各階層レベルの各ピッチ遷移列の遷移確率を求めるものである
    ことを特徴とする演奏解析方法。
  11. 記憶媒体に格納され、即興演奏解析を実行するコンピュータソフトウエアプログラムであって、以下の
    コンピュータが、演奏者の実際の演奏を記録した楽曲データを解析し、1次〜n次の全ての音列パターンを抽出する音列パターン抽出工程と、
    前記抽出した1次〜n次の全ての音列パターンに基づいて各音列パターンに対応するピッチ遷移列を生成するピッチ遷移列抽出工程であって、このピッチ遷移列抽出工程は、各音列パターンの最初の音を基準にしてピッチ遷移量を相対的に表すことで前記ピッチ遷移列を生成するものである、ピッチ遷移列抽出工程と、
    コンピュータが、上記抽出した各ピッチ遷移列の遷移確率と、全ピッチ遷移列における出現確率を演算する遷移確率・出現確率演算工程と、
    コンピュータが、前記遷移確率と出現確率とに基づいて、統計的に起こり得る可能性の高いピッチ遷移列を特定し、そのピッチ遷移列を楽譜化することで前記演奏者の演奏フレーズを生成し出力する演奏フレーズ構成工程と
    を実行させるものであることを特徴とするコンピュータソフトウエアプログラム。
  12. 請求項11記載のコンピュータソフトウエアプログラムにおいて、
    前記演奏フレーズ構成工程は、統計的に起こり得る可能性の高いピッチ遷移列を特定し、そのピッチ遷移列を12音平均律に基づいて全調作成し楽譜化するものである
    ことを特徴とするコンピュータソフトウエアプログラム。
  13. 請求項11記載のコンピュータソフトウエアプログラムにおいて、
    前記演奏者の演奏は、即興演奏であることを特徴とするコンピュータソフトウエアプログラム。
  14. 請求項11記載のコンピュータソフトウエアプログラムにおいて、
    前記音列パターン抽出工程は、n次マルコフ連鎖として起こり得る全ての1次〜n次音列パターンを抽出するものであり、
    前記遷移確率・出現確率演算工程は、マルコフモデルを用いて、前記1次〜n次の各階層レベルの各ピッチ遷移列の遷移確率を求めるものである
    ことを特徴とするコンピュータソフトウエアプログラム。
JP2017242127A 2017-12-18 2017-12-18 音楽情報の特徴解析方法及びその装置 Active JP6722165B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017242127A JP6722165B2 (ja) 2017-12-18 2017-12-18 音楽情報の特徴解析方法及びその装置
US16/104,284 US10431191B2 (en) 2017-12-18 2018-08-17 Method and apparatus for analyzing characteristics of music information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017242127A JP6722165B2 (ja) 2017-12-18 2017-12-18 音楽情報の特徴解析方法及びその装置

Publications (3)

Publication Number Publication Date
JP2019109357A JP2019109357A (ja) 2019-07-04
JP2019109357A5 JP2019109357A5 (ja) 2020-03-26
JP6722165B2 true JP6722165B2 (ja) 2020-07-15

Family

ID=66815272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017242127A Active JP6722165B2 (ja) 2017-12-18 2017-12-18 音楽情報の特徴解析方法及びその装置

Country Status (2)

Country Link
US (1) US10431191B2 (ja)
JP (1) JP6722165B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102410513B1 (ko) * 2020-04-14 2022-06-20 에프알씨앤씨 주식회사 음원 관련 서비스 제공 장치 및 방법
CN113470601B (zh) * 2021-07-07 2023-04-07 南昌航空大学 一种自动作曲方法及系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3403550C2 (de) * 1984-02-02 1986-04-30 Adam Opel AG, 6090 Rüsselsheim Transport- und Lagergestell
US20010044719A1 (en) 1999-07-02 2001-11-22 Mitsubishi Electric Research Laboratories, Inc. Method and system for recognizing, indexing, and searching acoustic signals
JP3776673B2 (ja) 2000-04-06 2006-05-17 独立行政法人科学技術振興機構 音楽情報解析装置、音楽情報解析方法及び音楽情報解析プログラムを記録した記録媒体
CN100397387C (zh) 2002-11-28 2008-06-25 新加坡科技研究局 数字声音数据的摘要制作方法和设备
US7323629B2 (en) * 2003-07-16 2008-01-29 Univ Iowa State Res Found Inc Real time music recognition and display system
JP2007225661A (ja) 2006-02-21 2007-09-06 Univ Of Tokyo 音楽情報解析方法及び装置
US7737354B2 (en) * 2006-06-15 2010-06-15 Microsoft Corporation Creating music via concatenative synthesis
US20090071315A1 (en) * 2007-05-04 2009-03-19 Fortuna Joseph A Music analysis and generation method
WO2009036564A1 (en) * 2007-09-21 2009-03-26 The University Of Western Ontario A flexible music composition engine
JP5625235B2 (ja) * 2008-11-21 2014-11-19 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
JP5463655B2 (ja) * 2008-11-21 2014-04-09 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
JP5593608B2 (ja) * 2008-12-05 2014-09-24 ソニー株式会社 情報処理装置、メロディーライン抽出方法、ベースライン抽出方法、及びプログラム
JP5293460B2 (ja) * 2009-07-02 2013-09-18 ヤマハ株式会社 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
US8566258B2 (en) * 2009-07-10 2013-10-22 Sony Corporation Markovian-sequence generator and new methods of generating Markovian sequences
JP6019858B2 (ja) * 2011-07-27 2016-11-02 ヤマハ株式会社 楽曲解析装置および楽曲解析方法

Also Published As

Publication number Publication date
US10431191B2 (en) 2019-10-01
JP2019109357A (ja) 2019-07-04
US20190189100A1 (en) 2019-06-20

Similar Documents

Publication Publication Date Title
Herremans et al. A functional taxonomy of music generation systems
Pearce The construction and evaluation of statistical models of melodic structure in music perception and composition
Norgaard How jazz musicians improvise: The central role of auditory and motor patterns
US20210335333A1 (en) Computing orders of modeled expectation across features of media
Chen et al. Automatic composition of guitar tabs by transformers and groove modeling
Aljanaki et al. A data-driven approach to mid-level perceptual musical feature modeling
Meek et al. Johnny Can't Sing: A Comprehensive Error Model for Sung Music Queries.
Cambouropoulos The harmonic musical surface and two novel chord representation schemes
JP6722165B2 (ja) 音楽情報の特徴解析方法及びその装置
Adkins et al. LooperGP: a loopable sequence model for live coding performance using guitarpro tablature
Sertan et al. Modeling melodic improvisation in Turkish folk music using variable-length Markov models
Van Balen Audio description and corpus analysis of popular music
Trochidis et al. CAMeL: Carnatic percussion music generation using n-gram models
Rainsford et al. The MUSOS (MUsic SOftware System) Toolkit: A computer-based, open source application for testing memory for melodies
JP2019109357A5 (ja)
Liang An improved music composing technique based on neural network model
Wortman et al. CombinoChord: a guitar chord generator app
Pearce et al. Music perception in historical audiences: Towards predictive models of music perception in historical audiences
Wojcik et al. Representations of music in ranking rhythmic hypotheses
Duane Texture in Eighteenth-and Early Nineteenth-Century String-Quartet Expositions
Grachten Expressivity-aware tempo transformations of music performances using case based reasoning
de Treville Wager Data-Driven Pitch Correction for Singing
Ebert Transcribing Solo Piano Performances from Audio to MIDI Using a Neural Network
Židek Controlled music generation with deep learning
Randolph Toward Actionable Computational Models of Piano Fingering

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191217

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191217

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191217

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200619

R150 Certificate of patent or registration of utility model

Ref document number: 6722165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250