JP2016136251A - 音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜 - Google Patents

音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜 Download PDF

Info

Publication number
JP2016136251A
JP2016136251A JP2016006938A JP2016006938A JP2016136251A JP 2016136251 A JP2016136251 A JP 2016136251A JP 2016006938 A JP2016006938 A JP 2016006938A JP 2016006938 A JP2016006938 A JP 2016006938A JP 2016136251 A JP2016136251 A JP 2016136251A
Authority
JP
Japan
Prior art keywords
music
audio signal
notation
notations
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016006938A
Other languages
English (en)
Other versions
JP6735100B2 (ja
Inventor
ラトレッジ グレン
Rutledge Glen
ラトレッジ グレン
アール. ルピーニ ピーター
R Lupini Peter
アール. ルピーニ ピーター
キャンベル ノーム
Campbell Norm
キャンベル ノーム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harman International Industries Inc
Original Assignee
Harman International Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harman International Industries Inc filed Critical Harman International Industries Inc
Publication of JP2016136251A publication Critical patent/JP2016136251A/ja
Application granted granted Critical
Publication of JP6735100B2 publication Critical patent/JP6735100B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • G10G1/04Transposing; Transcribing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G3/00Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
    • G10G3/04Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/086Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for transcription of raw audio or music data to a displayed or printed staff representation or to displayable MIDI-like note-oriented data, e.g. in pianoroll format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/126Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters for graphical editing of individual notes, parts or phrases represented as variable length segments on a 2D or 3D representation, e.g. graphical edition of musical collage, remix files or pianoroll representations of MIDI-like files
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】音声信号に含まれている音楽コンテンツの自動採譜を行う方法を提供する。【解決手段】コンピューティング装置を使用して、受信された音声信号を処理し、音楽コンテンツの少なくとも一部を特徴とする音楽情報を抽出し325、抽出された音楽情報の選択的な音楽的解釈を表す複数の音楽表記を生成する335。更に、複数の音楽表記のうち選択355されたものを適用する365。【選択図】図3

Description

関連出願の相互参照
本出願は、2015年1月20日に出願された合衆国予備特許出願第62/105,521号の利益を請求するものであり、その出願の開示が本出願における参照により全部にわたって一体化されるものである。
(技術分野)
本特許出願において開示された態様は、一般的に信号処理に関し、より具体的に音声信号に含まれている音楽コンテンツの処理を含んでいる様々な用途に関するものである。
音楽の採譜では、楽曲の解釈は複数の方法がある。しかし、従来から実施していることは、音楽(または音声)について一つの解釈だけが提供され、採譜処理中に生じた誤りの修正あるいは訂正はユーザに依存している。
少なくとも一つの実施形態では、コンピューティング装置によって受信された音声信号に含まれている音楽コンテンツの自動採譜を行う方法が提供される。この方法は、コンピューティング装置を使用して、音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するための受信した音声信号を処理する方法、及びコンピューティング装置使用して、抽出された音楽情報の他の音楽の解釈を表す複数の音楽表記を生成する方法を含んでいる。この方法はさらに、受信された音声信号の音楽コンテンツを採譜するための複数の音楽表記から選択された1つの表記を適用することを含んでいる。
少なくとも一つの実施形態は、受信した音声信号に含まれている音楽コンテンツの自動採譜を実行するコンピュータプログラム製品を提供する。コンピュータプログラム製品は、コンピュータ可読プログラムコードが具現されたコンピュータ可読記憶媒体を含んでいる。音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するための受信された第1の音声信号を処理し、抽出された他の音楽の解釈を表す音楽表記を複数に生成するために、コンピュータ可読プログラムコードが1つまたは複数のコンピュータプロセッサによって実行可能である。また、コンピュータ可読プログラムコードは、受信された音声信号の音楽コンテンツを採譜する複数の音楽表記から選択された1つの表記を適用するために、1つまたは複数のコンピュータプロセッサによって実行可能である。
少なくとも一つの実施形態では、受信した音声信号に含まれている音楽コンテンツの自動的な採譜を行うための音楽の採譜装置が提供される。その装置は、音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するための受信された第1の音声信号を処理し、抽出された他の音楽の解釈を表す複数の音楽表記を生成するように構成された1つまたは複数のコンピュータプロセッサを含んでいる。1つまたは複数のコンピュータプロセッサは、受信された音声信号の音楽コンテンツを採譜するための複数の音楽表記から選択された1つの表記を適用し、採譜された音楽コンテンツを出力するように更に構成されている。
例えば、本願発明は以下の項目を提供する。
(項目1)
コンピューティング装置によって受信された音声信号に含まれる音楽コンテンツの自動採譜を実行する方法であって、上記方法は、
上記音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するために上記コンピューティング装置を使用して上記受信された音声信号を処理すること、
上記コンピューティング装置を使用して上記抽出された音楽情報について選択的に音楽的解釈を表示する複数の音楽表記を生成すること、及び、
上記受信された音声信号の上記音楽コンテンツを採譜するために上記複数の音楽表記の選択された1つを適用すること、
を備える上記方法。
(項目2)
更に、上記複数の音楽表記を上記コンピューティング装置のエンドユーザに提示すること、を備え、
上記複数の音楽表記の1つを選択することは、上記コンピューティング装置に結合された入力装置を使用して上記エンドユーザによって行われる上記項目に記載の上記方法。
(項目3)
上記複数の音楽表記から選択的音楽表記を上記コンピューティング装置のエンドユーザに提示すること、及び、
上記コンピューティング装置によって入力装置を介して上記選択的音楽表記を選択すること、
を備える上記項目のいずれか一項に記載の上記方法。
(項目4)
上記選択的音楽表記は、半時間表記及び倍時間表記の1つに対応する上記項目のいずれか一項に記載の上記方法。
(項目5)
上記選択的音楽表記は、4/4表記及び3/4表記の1つに対応する上記項目のいずれか一項に記載の上記方法。
(項目6)
上記選択的音楽表記はストレート時間及びスイング時間の1つである上記項目のいずれか一項に記載の上記方法。
(項目7)
更に、上記複数の音楽表記の各々のスコアを生成することを備える上記項目のいずれか一項に記載の上記方法。
(項目8)
上記複数の音楽表記の各々の上記スコアを生成することは、上記音声信号において検出されたオンセット箇所が特定の音楽表記の期待された拍箇所に一致していることに少なくとも部分的に基づいている上記項目のいずれか一項に記載の上記方法。
(項目9)
上記複数の音楽表記の各々の上記スコアを生成することは、時間箇所及び上記音声信号で検出された音符または和音の長さの少なくとも1つが、期待された時間箇所及び特定の音楽表記の音符または和音の長さの少なくとも1つに一致していることに少なくとも部分的に基づいている上記項目のいずれか一項に記載の上記方法。
(項目10)
上記複数の音楽表記の各々の上記スコアを生成することは、更に、(i)上記音声信号において検出されたオンセット箇所が特定の音楽表記の期待された拍箇所に一致していること、及び(ii)時間箇所及び上記音声信号において検出された音符または和音の期間の少なくとも1つが期待された時間箇所及び上記特定音楽表記の音符または和音の少なくとも1つに一致することに基づいている上記項目のいずれか一項に記載の上記方法。
(項目11)
各々の上記複数の音楽表記のスコアを生成することは、特定の音楽表記の演繹的な可能性に少なくとも基づいている上記項目のいずれか一項に記載の上記方法。
(項目12)
上記複数の音符の各々のスコアを生成することは、少なくとも使用履歴に基づいている上記項目のいずれか一項に記載の上記方法。
(項目13)
更に、
上記複数の音符の各々について上記音声信号の適合を示す小節を表示するそれぞれの適合スコアを生成すること、
上記複数の音楽表記の1つを選択することは上記生成された複数の適合スコアに基づくこと、
を備える上記項目のいずれか一項に記載の上記方法。
(項目14)
上記複数の音楽表記の上記選択された1つは最大適合スコアに対応する上記項目のいずれか一項に記載の上記方法。
(項目15)
更に、
上記コンピューティング装置のエンドユーザに上記複数の適合スコアの2つ以上の最大適合スコアに対応する上記複数の音楽表記のサブセットを提示することを備え、
上記複数の音楽表記の1つを選択することは、上記コンピューティング装置に結合された入力装置を使用して、上記2つ以上の最大適合スコアについてエンドユーザによって実行される上記項目のいずれか一項に記載の上記方法。
(項目16)
上記複数の適合スコアを生成することは、特定の音楽ジャンル及びエンドユーザのプロファイの少なくとも1つに基づくことから上記項目のいずれか一項に記載の上記方法。
(項目17)
上記複数の音楽表記は調号、拍子、メータ、及び音符の値の少なくとも1つ毎に異なる上記項目のいずれか一項に記載の上記方法。
(項目18)
更に、
上記コンピューティング装置を使用して、上記抽出された音楽情報と音楽的に互換性のある相補的音楽情報を決定することを備え、
上記採譜された音楽コンテンツは、また、上記相補的音楽情報を含む上記項目のいずれか一項に記載の上記方法。
(項目19)
上記音声信号は、第1タイプの楽器を使用して生成され、上記相補的音楽情報は、第2タイプの楽器のために生成される上記項目のいずれか一項に記載の上記方法。
(項目20)
受信された音声信号に含まれている音楽コンテンツの自動採譜を行うコンピュータプログラム製品であって、
上記コンピュータプログラム製品は、
コンピュータ可読プログラムコードを有するコンピュータ可読記憶媒体と共に、1つまたは複数のコンピュータプロセッサによって実行可能な上記コンピュータ可読プログラムコードを備え、
上記コンピュータ可読プログラムコードは、
上記音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するために受信した第1音声信号を処理し、
上記抽出された音楽情報の選択的音楽解釈を表わす複数の音楽表記を生成し、
上記受信された音声信号の上記音楽コンテンツを採譜する上記複数の音楽表記の選択された1つを適用することができる、上記コンピュータプログラム製品。
(項目21)
受信された音声信号に含まれる音楽コンテンツの自動採譜を実行する音楽採譜装置であって、
上記装置は、
1つまたは複数のコンピュータプロセッサを有し、
上記コンピュータプロセッサは、
上記音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するために上記受信された音声信号を処理し、
上記抽出された音楽情報の選択的音楽解釈を表わす複数の音楽表記を生成し、
上記受信された音声信号の上記音楽コンテンツを採譜するために上記複数の音楽表記の選択された1つを適用し、
上記採譜された音楽コンテンツを出力する、ように構成された上記音楽採譜装置。
(項目22)
上記採譜された音楽コンテンツの出力は、上記1つまたは複数のコンピュータプロセッサに結合されたディスプレイ装置を使用して実行される上記項目に記載の上記音楽採譜装置。
(項目23)
上記複数の音楽表記の1つを選択することは、上記1つまたは複数のコンピュータプロセッサに結合された入力装置を使用して実行される上記項目のいずれか一項に記載の上記音楽採譜装置。
(項目24)
上記複数の音楽表記は、調号、拍子、メータ及び音符の値の少なくとも1つが異なる上記項目のいずれか一項に記載の上記音楽採譜装置。
(項目25)
上記1つまたは複数のコンピュータプロセッサは更に、
上記抽出された音楽情報と音楽的に互換性のある相補的音楽情報を決定するように構成され、
上記採譜された音楽コンテンツ出力はまた、上記相補的音楽情報を含んでいる上記項目のいずれか一項に記載の上記音楽採譜装置。
(項目26)
上記1以上のコンピュータプロセッサは更に、
上記相補的音楽情報に対応する相補的音声信号を生成し、
上記受信された音声信号と同じ時期に上記1つまたは複数のコンピュータプロセッサに結合された音声出力装置を使用して上記相補的音声信号を出力するように構成された、上記項目のいずれか一項に記載の上記音楽採譜装置。
(摘要)
少なくとも一実施形態において、コンピューティング装置によって受信された音声信号に含まれている音楽コンテンツの自動採譜実行方法が提供されている。その方法は、コンピューティング装置を使用して、受信された音声信号を処理し、音楽コンテンツの少なくとも一部を特徴とする音楽情報を抽出し、コンピューティング装置を使用して、抽出された音楽情報の選択的な音楽的解釈を表す複数の音楽表記を生成することを含んでいる。その方法は、更に、受信された音声信号の音楽コンテンツを採譜するために、複数の音楽表記のうち選択されたものを適用することを含んでいる。
本開示の実施形態は、添付の特許請求の範囲に具体的に指摘されている。しかしながら、様々な実施形態の他の特徴がより明らかになり、添付の図面と併せて以下の詳細な説明を参照することによって最もよく理解されるであろう。
一実施形態に係る音声信号に含まれている音楽コンテンツの自動採譜を行うためのシステムの一例を図示している。 一実施形態に係る音楽コンテンツの自動採譜を行うシステムで使用する一実施例の音楽情報及びユーザプロファイルを図示している。 一実施形態に係る音楽コンテンツの自動採譜を行うシステムで使用する一実施例の音楽情報及びユーザプロファイルを図示している。 一実施形態に係る音声信号に含まれている音楽コンテンツの自動採譜を行う方法を図示している。 一実施形態に係る抽出された音楽情報のための複数の音楽表記を生成する方法を図示している。 一実施形態に係る音楽表記のうちの一つの選択を行う方法を図示している。 それぞれ1つの実施形態に係る同じ音楽情報に対応する他の音楽表記を図示している。 それぞれ1つの実施形態に係る同じ音楽情報に対応する他の音楽表記を図示している。 一実施形態に係る選択された音楽表記を使用して音楽表記及び採譜の選択を図示している。 一実施形態に係る受信した音声信号に含まれている音楽コンテンツのリアルタイム音楽の伴奏を行うためのシステムの一実施例を図示している。 一実施形態に係るリアルタイムの音楽の伴奏を行うためのシステムのタイミングの一実施例を図示している。 一実施形態に係るリアルタイムの音楽の伴奏を行うシステムの一実施例を図示している。 一実施形態に係る受信した音声信号に含まれている音楽コンテンツのリアルタイムの音楽の伴奏を行う方法を図示している。
必要に応じて、本発明の詳細な実施形態が本明細書に開示されている。しかしながら、開示された実施形態は、様々な代替的形態で実施することができる本発明の単なる例であることが分かる。図面は、必ずしも縮尺通りになってはいない。特定のコンポーネントの詳細を表示しているために、いくつかの特徴が誇張または最小化される。従って、本明細書に開示された特定の構造及び機能の詳細は、限定するものとして解釈されるべきではなく、単に本発明を様々な形態で採用できるように、この分野の通常の知識を有する者に教示する代表的な基準として解釈されるべきである。
(音声信号の自動採譜)
いくつかの実施形態は、一般的に、音声信号に含まれている音楽コンテンツの自動的な採譜を行う方法、システム及び装置を開示している。音楽コンテンツの情報は、表記法の特定のスタイルの音楽記号を使用してデジタル表現またはアナログ(例えば、楽譜)などの様々な方法の膨大な数で表すことができる。しかし、表記における特定のスタイルの中でも(例えば、一般的に書かれた音楽のために使用される五線譜)、曖昧さが同じ音楽情報について他の解釈を可能にする。例えば、拍子、テンポ、及び/または音符の長さを変更することによって、同じ音楽情報を表す複数の競合する解釈が発生する。これらの解釈の各々は、技術的に正確である。従って、音楽コンテンツの正確な採譜を行うことは、主観的であり得るいくつかの因子の数に依存し、ユーザの意図や音楽情報の好みに基づいている。
図1は、一実施形態に係る音声信号に含まれている音楽コンテンツの自動的な採譜を行うためのシステムの一実施例を図示している。システム100は、1つまたは複数の入力装置185、1つまたは複数の出力装置190、及び他のコンピューティング装置を含んでいるネットワーク195に作動的に結合することができるコンピューティング装置105を含んでいる。
コンピューティング装置105は、一般的に、プロセッサ110、メモリ120及び入力/出力(またはI/O)180を含み、これらは1つまたは複数の接続115を使用して相互接続されている。コンピューティング装置105は、任意の適切な形で実装されることができる。コンピューティング装置105のいくつかの非限定的な実施例は、パーソナルコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、ネットブックコンピュータ、タブレット、ウェブブラウザ、電子ブックリーダ、携帯情報端末(PDA)などの汎用コンピューティング装置を含んでいる。コンピューティング装置105の他の実施例は、携帯電話とメディアデバイス(レコーダ、エディタ及びテレビジョン、セットトップボックス、音楽プレーヤー、デジタルフォトフレーム、デジタルカメラのようなプレーヤーを含む)などの通信機器を含んでいる。いくつかの実施形態では、コンピューティング装置105は、デジタル・オーディオ・ワークステーション、コンソール、楽器ペダル、電子楽器(例えば、デジタルピアノ)などの特定の音楽デバイスとして実装されてもよい。
一実施形態では、接続115は、コンピューティング装置105内の共通バスを表してもよい。代替的な実施形態では、システム100は、分散され、本明細書に記載の機能を実行するために複数の離散コンピューティング装置105を含んでいる。このような実施形態では、接続部115は、コンピューティング装置間の有線または無線ネットワーク接続と同様の、装置内の接続(例えば、バス)を含むことができる。
プロセッサ110は、本明細書に記載の機能を実行するのに適している任意の処理要素を含むことができ、かつ単一または複数のコアプロセッサ、ならびにそれらの組合せを含むことができる。プロセッサ110は、単一のコンピューティング装置105内に含まれてもよく、多数のネットワークにされたコンピューティング装置にわたって含まれる処理要素の集合を表すことができる。
メモリ120は、サイズ、相対的な性能、またはその他の機能に基づいて選択された様々なコンピュータ読み取り可能な媒体、例えば、揮発性及び/または不揮発性媒体、取り外し可能及び/または取り外し不能メディアなどを含んでもよい。メモリ120は、キャッシュ、ランダムアクセスメモリ(RAM)、記憶装置などを含んでもよい。メモリ120の一部として含まれた記憶装置は、典型的には、不揮発性メモリを提供し、フラッシュメモリ、ハードディスクドライブ、ソリッドステートドライブ、光記憶装置及び/または磁気記憶装置などの1つまたは複数の異なる記憶要素を含んでもよい。メモリ120は、単一のコンピューティング装置に含まれていてもよく、または、ネットワークコンピューティング装置に含まれるメモリの集合を表してもよい。
メモリ120は、本明細書で記述する様々な機能を実行するために使用される複数のモジュールを含んでもよい。モジュールは、一般的に、1つまたは複数のプロセッサ110によって実行可能なプログラムコードを含み、ソフトウェア及び/またはファームウェアとして実装される。別の実施形態では、1つまたは複数のモジュールは、別個の特定用途向け集積回路(ASIC)としてハードウェアに実装されている。図示されているように、モジュールは、抽出モジュール130、解釈モジュール132、スコアリングモジュール134、採譜モジュール136、伴奏モジュール138、作曲モジュール140、指導モジュール142及びゲームモジュール144を含んでいる。モジュールは、独立して作動してもよいし、特定の機能を実行するように相互作用してもよい。例えば、動作中のゲームモジュール144は、解釈モジュール132、採譜モジュール136などに発信を行うことがある。この分野の通常の知識を有する者は、本明細書中に提供されているモジュールは、単に非限定的な実施例であることを認識するであろう。所望に応じて、システム100を適切に作動させるために異なる機能及び/または機能のグループを含めてもよい。
メモリ120は、1つ以上の音声信号125を含んでいる。本明細書中で使用される信号や音声信号は、一般に、一人または複数のリスナーに提示される音に対応する時間的に変化する電気信号を意味する。このような信号は、一般に、マイクロフォン、ギターピックアップ、または他のデバイスなどの1つまたは複数の音声変換器で生成される。これらの信号は、スピーカやヘッドフォンなどの音声出力装置への配信の前に、例えば、増幅またはフィルタリングや、他の技術を使用して処理することができる。
音声信号125は、アナログまたはデジタルの任意の適切な形態を有することができる。音声信号は、モノフォニック(すなわち、単一ピッチを含んでいる)またはポリフォニック(すなわち、複数のピッチを含んでいる)であってもよい。音声信号125は、1つまたは複数の入力装置185を使用して同時に生成され、入力/出力180を介して受信された信号またはメモリ120に含まれる、1つまたは複数の事前に記録されたファイル、トラック、ストリーミングメディアなどを含んでもよい。入力装置185は、音声入力装置186及びユーザインターフェース(UI)装置187を含んでいる。音声入力装置186は、受動デバイス(例えば、楽器またはボーカルのためのマイクロフォンまたはピックアップ)及び/またはMIDI出力を提供する電子機器のような能動的受電装置を含んでいる。ユーザインタフェース装置187は、ユーザがコンピューティング装置105(例えば、キーボード、マウス、タッチスクリーンなど)を相互作用または制御動作を可能にする当技術分野で知られている様々なデバイスを含んでいる。
抽出モジュール130は、音声信号125の音楽コンテンツの様々な特性を表す音楽情報160を抽出するために1つ以上の音声信号125の一部または全てを分析するように構成されている。一つの実施形態では、抽出モジュール130は音声信号125の一部をサンプルし、その一部に対応する音楽情報を抽出する。抽出モジュール130は、本明細書に含まれる音楽コンテンツの特性を判定するために音声信号125に適切な信号処理技術を適用することができる。音楽情報160は、音符のタイミング(オンセット及び/または持続時間)などの音楽コンテンツの時間ベースの特徴を含んでいる。音楽情報160は、また、音符のピッチや周波数(例えば、440Hz)などの音楽コンテンツの周波数ベースの特性が含まれている。
解釈モジュール132は、音楽情報160を分析し、音楽情報を表すことが可能表記133(すなわち、音楽の解釈)を複数生成するように構成されている。上述したように、音楽情報を表現するために膨大な数の表現方法が存在し、これらは文化的規範、個人的な好み、表現が視覚的にフォーマット(例えば、楽譜)されること、またはコンピュータシステムによって処理されること(例えば、MIDI)などによって異なる場合がある。解釈モジュール132は、生成された表記の精度を向上させるために、ユーザプロファイル情報170及び/または音楽のジャンル情報175としてメモリ120に保存された他のデータと相互作用をすることができる。
図2Aを参照すると、解釈モジュール132は、音声信号125の音楽情報160を評価し、異なる音楽的特徴の数に応じて情報を正確に分類することを試みることができる。特徴のいくつかは、調号205、和音220、音符225のいくつかの態様(例えば、音符ピッチ、特徴的なポリフォニック音符)などの主にピッチまたは周波数ベースである。音符225のグループは、メロディ226やハーモニー227として分類することができ、これらの部分は、表記133に一緒に含まれてもよく、別々に解釈されてもよい。その他の特徴は、小節線または小節の数207、拍子210、テンポ215、音符225の他の態様(例えば、音符オンセットと長さ)、リズム230など、主に時間ベースである。リズム230は音楽情報の全体的な「スタイル」または「フィール」に対応することができ、音符225のタイミングパターンに反映される。リズム230の例は、ストレートタイム231、スイングタイム232及びこの分野の通常の知識を有する者に知られている他のリズム233(例えば、スタッカートスイング、シャッフルなど)を含んでいる。解釈モジュール132はまた、音楽のダイナミクス(例えば、信号の容量または振幅、速度の時間ベースの変化)などのこの分野の通常の知識を有する者に知られている他の特徴235を含んでもよい。音楽的特性の更なる考察は、以下の図5A及び図5Bに関連して提供されている。
図1に戻って、解釈モジュール132によって生成された表記133は、上述した音楽的特徴の複数を含んでいることができる。特定の音楽情報160のために生成された各記号133は、音楽的特徴の同じセット(または少なくとも部分的に共有セット)を含んでいることができるが、共有音楽的特徴の1つまたは複数の値は、一般的に、表記の間で変動する。このように、表記133は十分に区別可能である同じ音楽情報160の代替表現を複数提供している。代替表現を提供することは、完全に主観的な好みを反映することができるエンドユーザが求めている表記を推定するために有用であり得る。代替表現は、音楽の様々なスタイルの可能性を受容してもよいし、また、人間の演奏の中に起こる軽微な変動を克服するのに役立つかもしれない。例の表記は、図5A及び図5Bに関連して以下に説明する。
システム100の一実装では、一般的なシナリオは、楽器(例えば、ギター)を使用して音声信号125を提供するミュージシャンを含んでいる。音声信号における音楽のフレーズがプロセッサ110を使用して実行されるアルゴリズムによって学習されるべきであることを示すためには、音楽家は、フットスイッチを踏むか、最初の音符が演奏される時間について音楽のフレーズが始まること示す別の指示を提供する。ミュージシャンは、関連する和音を、必要に応じて、フレーズの間の様々な点において変更しながら、特定の拍子(例えば、3/4または4/4)及び特定のフィール(例えば、ストレートまたはスイング)を有する音楽のフレーズを演奏する。フレーズが完了すると、ミュージシャンは、別の指示(例えば、再びフットスイッチを踏む)を提供することができる。フレーズの始まりは、別の指示を使用することより、むしろ一定のエネルギーレベルを超える機器の信号を聞くためのアルゴリズムを指示する(すなわち、「アーミング」)にことによっても示されることができる。一実施形態では、音楽のフレーズの開始と終了に対するより正確な位置は、ユーザによって示される開始と終了の範囲内(例えば+/−100ms)で最も近い音符オンセット(例えば+/−100ms)を検索することによって決定することができる。
フレーズが演奏されている間、音声信号125(例えば、ギターの楽器信号)のリアルタイム分析が、システム100によって実行される。例えば、ポリフォニック音符検出は、演奏された音符ピッチ(例えば、ギターのつま弾き)を抽出するために使用することができ、オンセット検出は、ギターがつま弾かれ、またはピックで弾かれた時間を決定するために使用され得る。つま弾きの時間を決定することに加えて、のちほどつま弾き強調(例えば、小節の開始つま弾き、ダウンつま弾きまたはアップつま弾きなど)を決定するために、つま弾きを互いに相関させる完全な分析で使用することができる各つま弾きに対応する特徴を抽出することができる。例えば、いくつかのバンドでのスペクトルエネルギーは、それぞれのオンセットに対する特徴ベクトルとして抽出することができる。
ミュージシャンが音楽のフレーズの終わりを示すと、解釈モジュール132は、そのフレーズに対応する複数の表記を生成するために、完全な分析を行うことができる。一実施形態では、完全な分析は、音楽のフレーズの表記を仮定して、仮説に反して検出した音符とオンセットをスコアリングすることによって動作する。例えば、1つの表記は4/4ストレートフィールタイミングの4小節を含む場合がある。この場合、4分音符及び8分音符の位置またはその付近にオンセットが見つけられることが期待され、そのオンセットは、フレーズを32のセクション(例えば、4小節×1小節あたり8音符)に分割することによって推定されることができる。検出されたオンセットは、4分音符/8分音符の期待の場所で発生したら、表記は、一般的に、より高いスコアを受けることになる。一実施形態では、8分音符と比較した場合、4分音符により高いスコアリングの重量が適用され、小節の開始に対応するオンセットにさらにより大きなスコア重量が適用される。各オンセットのために抽出された特徴を使用して、類似度測定は、検出オンセットのそれぞれについて決定することができる。小節の開始に関連付けられたオンセットが高い類似度測定を持つ場合は、そのオンセットスコアが増大する。
音符は、特定の和音が演奏されたかどうかを決定するためにも分析することができる。一実施形態において、解釈は、和音の変更のタイミングが小節の境界付近に発生しやすい場所である可能性がさらに高い。一実施形態では、和音変更スコアは表記スコアの全体的な計算に含まれることがある。さらに、推測的なスコア(または確率)が演奏される可能性がより高いものに基づいて各表記に割り当てることができる。例えば、より大きな推測的なスコアが3/4表記より4/4表記に割り当てられることがあり、あるいは、より大きな推測的なスコアが、小節の奇数より偶数に割り当てられることがある。スコア(例えば、0と1の間)を適切にスケーリングすることにより、表記のための全体的なスコアは、和音変更スコアと推測的なスコアをオンセットスコアに乗じて計算することができる。音楽のフレーズに対する可能な表記の数が多いため、ダイナミックプログラミングの標準的な方法は、計算負荷を低減するために使用されることができる。
いくつかのケースでは、異なる仮説のスコアは、単一の「正しい」表記を選択することを困難にするほど非常に近いかもしれない(例えば、図5Aを参照)。この理由のために、表記仮説のトップスコアのサブセットは、エンドユーザに面倒な編集なしの表記仮説を選択するための簡単な方法を提供することができる。一実施形態では、単一の「代替のタイミング」ボタンを、二つの最大のスコアを有する仮説記号の間で切り替えるために使用してもよい。一実施形態では、第1の特定の種類の最高の表記(例えば、4/4表記)から第1の特定の異なる種類の最高の表記(例えば、3/4表記)に切り替えるためにボタンやノブなどのユーザインタフェース(UI)要素を使用してもよい。また、第2の特定の種類の最高の表記((例えば、半分の時間表記)から第2の特定の異なる種類の最高の表記(例えば、倍の時間表記)に切り替えるためにボタンやノブなどのユーザインタフェース(UI)要素を使用してもよい。さらに、第3の特定の種類の最高の表記((例えば、半分の時間表記)から第3の特定の異なる種類の最高の表記(例えば、倍の時間表記)に切り替えるためにノブまたはボタンなどのユーザインタフェース(UI)要素を使用してもよい。
複数の表記133は、音楽情報160の異なる音楽的解釈を表す。スコアリングモジュール134は、(音楽情報160に対応する)音声信号125や音声信号125の一部と一致する小節に基づいて、生成された表記133のそれぞれにスコアを割り当てるように構成されている。任意の適切なアルゴリズムが、相対的なマッチングを決定または定量化するために使用することができる。いくつかの実施形態では、マッチングは、例えば音声信号125で特定の表記133のために決定された音符225及び/または和音220の配列を比較することによって直接に行われる。一実施形態では、表記133と音声信号125との間の音符のタイミング及び/またはピッチのバラツキを決定することができる。例えば、処理中に抽出モジュール130は、音声信号内に含まれている音符が特定の時間の長さ(例えば、425ms)を有するように決定することができる。また、解釈モジュール132によって生成された表記のいずれかが、4分音符が1拍に対応したうえで、ストレート時間に1分あたり160拍(BPM)のテンポを含んでいることも推定している。この例では、4分音符は、0.375秒または375ms(例えば、60秒/分を160BPMで割る)の時間値を有することが予想される。解釈モジュールは、音符を4分音符(ユーザ不正確に対応するための所定のマージンを含んでも良い)として分類するために、425ms音符が予想された375msに十分に近いと考慮することができる。また、解釈モジュールは、特定の表記パラメータを考慮し、可能な限り最高の分類として、この分類を考慮することができ、例えば、次の可能な限り最も近い音符の分類は、562.5ms(1.5×375ミリ)の予想される時間値を持つ付点4分音符である可能性がある。ここでは、付点4分音符(137.5ms)として分類することよりも4分音符(50ms)として425msの音符を分類することにエラーが少ないことは明らかである。もちろん、解釈モジュールは、このような分類を行うために、個々の音符や音符のグループ化への追加または代替ロジックを適用することができる。音声信号125に表記133の全体のマッチングスコアを決定するために、個々の音符または音符のグループの分類に対応するエラーの量は、さらに処理することができる。いくつかの実施形態では、マッチングスコアを決定するために、エラーの量がまとめられ及び/または重み付けがなされる。
いくつかの実施形態では、マッチングの基準とスコア計算は、1つまたは複数のユーザプロファイル170に含まれる情報、ならびに音声信号125 /音楽情報160のために選択または指定された1つまたは複数のジャンル175に基づいても良い。ジャンル175は、一般的に、いくつかの音楽スタイルの異なる幅広いカテゴリを含んでいる。ジャンルが音楽情報160の特定の音楽的資質(リズム情報、音符/和音または調音の予想グループなど)を提案できるように、選択されたジャンルは、解釈モジュール132が音楽情報160を正確に処理し、解釈できるように助力してもよい。共通ジャンル175のいくつかの例は、ロック、カントリー、リズム・アンド・ブルース(R&B)、ジャズ、ブルース、ポピュラー音楽(ポップ)、メタルなどを含んでいる。もちろん、これらの例は一般的に西洋音楽の好みを反映しており、ジャンル175は、異なる文化の中の共通の音楽スタイルを含んでいてもよい。一実施形態においては、ジャンル情報は、解釈モジュール132が音楽情報160を解釈する動作を行う前に、指定されてもよい。一実施形態では、音声信号のためのジャンル175は、UI187の要素を介してエンドユーザによって選択される。
図2Bを参照すると、ユーザプロファイル170は、エンドユーザ固有の嗜好情報250と履歴情報260(または使用履歴)を含んでもよい。履歴情報260は、一般的に、システム100を使用したエンドユーザの以前のセッションに関連する情報を含み、ユーザの音楽の嗜好を示している傾向がある。履歴情報260は、音楽情報160の事前の例、選択された対応するジャンル175、選択された対応する表記133、選択されていない表記133などを示すデータを含んでいることができる。エンドユーザの好み250は、UI187を介して、エンドユーザによって明示的に決定または指定されてもよく、または、システム110のさまざまな機能/モジュールとエンドユーザとの相互作用に基づいて、コンピューティング装置105によって暗黙に決定されてもよい。嗜好250は、ジャンル嗜好251と解釈嗜好252のようないくつかの異なるカテゴリを含んでいることができる。
スコアリングモジュール134は、表記133をスコアリングする際、ユーザプロファイル170(特定のエンドユーザ及び/または他のエンドユーザのため)及びジャンル175を考慮することができる。例えば、一人のエンドユーザの履歴260が強いジャンル嗜好251としてメタルを示していると仮定する。メタルのジャンルと一致して、エンドユーザはまた、高速テンポとストレート時間フィールの解釈嗜好252を有する。特定のエンドユーザのための複数の表記133をスコアリングすると、スコアリングモジュール134は、一般的に、遅いテンポ、スイング時間フィールなどの音楽的特徴を有する異なるジャンル(例えば、ジャズやR&Bなど)に共通する音楽的な特徴を持つ表記に低いスコアを与える可能性がある。もちろん、他の実施形態では、スコアリングモジュール134は、トレンド、特性の類似度などを評価するためにいくつかの異なるエンドユーザの履歴260を考慮することができる。
図1に戻って、採譜モジュール136は、1つまたは複数の採譜150を生成するために、音楽情報160の選択された表記を適用するように構成されている。表記133が選択されると、全体の音声信号は、特性に応じて処理される。例えば、音声信号125のサンプリングされた部分に対応する最初の音楽情報160は、複数の表記133を用いて分類することができる。
いくつかの実施形態では、複数の生成された表記133からの表記を選択することは、表記133の一部または全部(例えば、最高スコアの表記のサブセット)を、UI187を介してエンドユーザに提示することを含むことができ、例えば、別の表記に関連する情報がグラフィカル・ユーザ・インターフェースを使用して、エンドユーザに表示される。エンドユーザは、手動で表記の1つを選択する。他の実施形態では、エンドユーザからの選択入力を受信せずに表記を自動的に選択することができる。例えば、最も高いスコアを有する表記は、採譜モジュールによって選択される。
表記133の一つが選択されると、選択された表記の音楽的特徴(例えば、ピッチ/周波数とタイミング情報)は、完全な音声信号に対応する音楽情報160を分類するために適用される。一実施形態では、全体の音声信号のための音楽情報は、表記が選択された後、決定され、処理時間とエネルギーを節約することができる。プロセッサ110が最初の(限定された)音楽情報160に基づいて、様々な表記133を生成するために重要な並列処理を行うために必要とされることから、これは有用であるといえる。別の実施形態では、音声信号全体のための音楽情報160は事前に決定されるか、または表記133の選択と同時に行われる。
採譜モジュール136は、選択された表記を楽譜、コードチャート、シートミューシック、ギターのタブ譜などのような任意の適切なフォーマットを有する採譜150として出力することができる。いくつかの実施形態では、採譜部150は、コンピューティング装置105及び/または他のネットワークコンピューティング装置によって読み取り可能なデジタル信号(またはファイル)として提供されてもよい。例えば、採譜150は、ファイルとして生成され、メモリ120に格納されてもよい。他の実施形態では、採譜150は、視覚的表示装置(例えば、電子視覚ディスプレイ及び/または発光ダイオード(LED)のような視覚インジケータ)、印刷装置などを含んでいるディスプレイ装置192を使用して、視覚的にエンドユーザに提供されることができる。
いくつかの実施形態では、採譜150及び/または音声信号125に対応する音楽情報160は、相補音楽情報及び/または相補的な音声信号155を生成するために使用することができる。一実施形態では、伴奏モジュール138は、完了された採譜150に基づいて、1つまたは複数の相補的な音声信号155を生成する。別の実施形態では、伴奏モジュール138は、音楽情報160に基づいて、相補的な音声信号155を生成する。以下の図7〜10に関してより詳細に論じるいくつかの実施態様では、相補的音声信号155は音声信号125を受信して同時に出力することができる。楽曲は、一般的に、ある程度の予測可能性(例えば、キー、リズムなどの相対的な一貫性)があるので、相補的な音声信号155は前方を見据えたもの(すなわち、音符が出力される前に、ある程度の時間で生成される)として生成することができる。
相補的な音声信号155内に含まれた音楽情報は、音楽情報160との音楽の互換性に基づいて選択することができる。一般的には、音楽互換性の性質(タイミング、ピッチ、音量など)が、音声信号155と共に相補的な音声信号を同時に出力するために望ましい。例えば、相補的な音声信号155のリズムは、各信号の音符または和音が同期または少なくとも調和または予測可能なタイミングでリスナーに提供されるように、音声信号125のために決定されたリズムに一致させることができる。同様に、相補的な音声信号155のピッチコンテンツは、いくつかのケースでは文化的嗜好に基づく主観的である音符の音楽の互換性に基づいて、選択することができる。例えば、相補的な音声信号155は、受信した音声信号に含まれる音楽情報と協和音及び/または不協和音のハーモニーを形成する音符を含むことができる。一般的に、協和音のハーモニーは、他の音符の高調波周波数を補完する音符を含み、不協和音のハーモニーは複雑な相互作用(例えばビート)に至る音符で構成されている。協和音ハーモニーは、一般的に、3、4、5、7、8、9、及び12半音の音符間隔で作られる音符として説明されている。協和音ハーモニーは、時々「快適」と見なされるが、不協和音ハーモニーは「不快」と見なされる。しかし、不協和音のハーモニーは、時々、音楽的に望ましい(例えば、協和音ハーモニーに対して「解決を求める」感覚を引き起こす)ときもあるため、この快適/不快の分類は、大きな単純化である。音楽のほとんどの形態、特に、欧米のポピュラー音楽では、ハーモニー音の大半は協和音であり、不協和音が音楽の目的を果たす一定の条件の下でのみ不協和音ハーモニーが生成される。
コンピューティング装置105の特定のモジュールを使用して決定される音楽情報160及び/または採譜150は、エンドユーザごとに異なる機能を提供するさまざまなアプリケーションモジュールとつなぎ合わせることができる。いくつかの実施形態では、アプリケーションモジュールは、本明細書に記載の様々な実施形態に従って提供される機能を含んでいる単体の商用プログラム(すなわち、音楽プログラム)であってもよい。アプリケーションモジュールの一例は、作曲モジュール140である。伴奏モジュール138と同様に、作曲モジュール140は、音楽情報160及び/または採譜150に基づいて、相補的な音楽情報を生成するように構成されている。しかし、出力するための別個の相補音声信号155を生成する代わりに、作曲モジュール140は、採譜150に基づいて、エンドユーザに提案や提言を提供するように動作する。提案が採譜150に示された音符/和音を修正または調整、同じ楽器のための和音パートを追加、異なる楽器のためのパートを追加するように設計することができる。これは、楽曲をアレンジすることを希望するが、複数の楽器を演奏しない、または音楽理論と作曲に特に精通していないミュージシャンのために特に有用である。作曲モジュール140の最終結果は、大きな高調波の深さを有する楽譜、かつ/または音声信号125に提供されたパート以外の追加の楽器のパートを含んでいる変更された採譜150である。
別の例のアプリケーションモジュールとして、どのように楽器を演奏するか、どのように楽曲を譜面にするか、エンドユーザをトレーニングするための指導モジュール142がある。音声信号125は、所定のレッスンや楽器の楽曲を演奏するエンドユーザの試みを表すことができ、対応する音楽情報160及び/または採譜150は、エンドユーザの学習進捗状況を評価し、適応的にトレーニングプログラムを更新するために使用することができる。例えば、指導モジュール142は、エンドユーザの特定の能力及び/または不備などを識別するために、音楽情報160を用いて、所定のレッスン/音楽の音声信号125の類似度を決定するなどいくつかの機能を実行することができる。
別のアプリケーションモジュール例は、ゲームモジュール144である。いくつかの実施形態では、ゲームモジュール144は、エンドユーザにとってより魅力的な学習環境を提供するために、指導モジュール142と一体化することができる。他の実施形態では、ゲームモジュール144は、特定の指導モジュールの機能なしで提供されてもよい。ゲームモジュール144は、所定の楽譜や楽曲の音声信号125の類似度を評価するため、楽曲と音声信号125の倍音の適合性を決定するため、音声信号自体の定量的または定性的分析などを行うため、などに使用することができる。
図3は、一実施形態に係る音声信号に含まれる音楽コンテンツの自動採譜を行う方法を示している。方法300は、システム100の一部、及びメモリ120に含まれている機能モジュールの一つまたは複数を用いるなど、本明細書に記載の様々な実施形態と併せて使用することができる。
方法300は、音声信号がコンピューティング装置によって受信されるブロック305で始まる。音声信号は、一般的に、音楽コンテンツを含み、デジタルまたはアナログかどうか、任意の適切な形態で提供することができる。必要に応じて、ブロック315において、音声信号の部分がサンプリングされる。いくつかの実施形態では、複数の音声信号が同時に受信される。独立した音声信号は、例えばエンドユーザが楽器を演奏したり、歌ったりするような楽曲の異なる部分を表すことができる。
ブロック325では、コンピューティング装置は、音楽情報を抽出するために少なくとも音声信号の部分を処理する。抽出された情報のいくつかの例には、音符オンセット、オーディオレベル、ポリフォニック音符検出などがある。一実施形態では、抽出された音楽情報は、音声信号の部分のみに対応する。別の実施形態では、抽出された音楽情報は、音声信号の全体に対応する。
ブロック335では、コンピューティング装置は、抽出された音楽情報のための音楽の表記を複数生成する。表記は、抽出された音楽情報の代替解釈を提供し、一般的に、各表記は拍子記号、調号、テンポ、音符、和音、リズム・タイプなど複数の音楽的特徴を含んでいる。表記は、特性のセットを共有することができ、いくつかの実施形態では、エンドユーザが異なる表記を識別できるように、特定の共有される特徴値は表記の間で異なっていてもよい。
ブロック345では、コンピューティング装置は、音楽の表記のそれぞれに対するスコアを生成する。スコアは、一般的に、表記が音声信号と一致する度合いに基づいている。スコアリングは、音楽の特定のジャンル及び/またはコンピューティング装置のエンドユーザに対応する1つまたは複数のユーザプロファイルに基づいて行われてもよい。
ブロック355において、複数の音楽の表記のうちの一つが選択されている。一実施形態では、選択は、最大の計算されたスコアに対応する表記を選択するよう、コンピューティング装置によって自動的に行われる。他の実施形態では、二つ以上の音楽表記が、ユーザインタフェースを介して選択入力を受信するために、エンドユーザに提示される。一実施形態では、対応する計算された最大スコアを有する特定の数の表記など、複数の音楽の表記のサブセットがエンドユーザに提示される。
ブロック365では、音声信号の音楽コンテンツは、選択された音楽の表記を使用して採譜される。採譜は、デジタルまたはアナログ、視覚的またはコンピュータ可読など適切なフォーマットであってもよい。採譜は楽譜、コード・チャート、ギター譜、または任意の代替の適切な音楽表現として提供してもよい。
ブロック375において、採譜は、出力装置に出力される。一実施形態では、電子ディスプレイ装置を使用して、採譜は視覚的にエンドユーザに表示される。別の実施形態では、採譜はエンドユーザの使用のために(印刷装置を使用して)紙または別の適切な媒体に印刷されてもよい。
図4Aは、一実施形態に係る、抽出された音楽情報のための音楽の表記を複数生成する方法を示している。方法400は、一般に、方法300のブロック335に対応し、本明細書に記載の様々な実施形態と組み合わせて使用することができる。
ブロック405において、コンピューティング装置は、抽出された音楽情報に対応した音符値と長さを決定する。決定方法は、決定された音符オンセット、オーディオレベル、ポリフォニック音符検出などを含んでいる抽出された音楽情報に基づいている。決定方法は、ベースライン表記ルールのシステムを使用して、ピッチ及び/または音長によって音符の分類を含んでもよい。例えば、今日に一般的に使用されている五線譜によると、音符のピッチは、AからGまで分類され、臨時記号で修飾されている。音符の長さは、他の音符、テンポ、拍子などと関連して分類されている。もちろん、代替の楽譜を基準にしているシステムは、他の文化で一般的であってもよく、そのような代替システムは、それに応じてベースラインの分類規則を指示してもよい。
ブロック410〜430において、コンピューティング装置は、ブロック405で決定された音符情報に基づいて、種々の特性を決定する。ブロック410において、1つまたは複数の調号が決定される。ブロック415において、1つまたは複数の拍子記号が決定される。ブロック420において、1つまたは複数のテンポが決定される。ブロック425において、1つまたは複数のリズムスタイルや「フィール」が決定される。ブロック430において、音符情報に対応する小節の数が決定される。ブロック410〜430が順番にまたは実質的に同時に決定されることができる。一実施形態では、1つのブロックに対応する選択された値は、他のブロックの値に影響を与える可能性がある。例えば、拍子、テンポ、及び音符の長さは、すべて相互に関連しており、音楽コンテンツを正確に反映するために、これらのプロパティのいずれかを調整することは、少なくとも一つの他の調整を必要とする。別の例では、小節の数は、1つ以上の拍子記号、テンポ、及び音符の長さの複数に基づいて、決定されてもよい。
ブロック435において、コンピューティング装置は、抽出された音楽情報のために音楽表記を複数出力する。複数の音楽表記は、上記に決定された特徴の様々な組合せを含むことができる。
次に、図4Bは、一実施形態に係る、複数の音楽の表記のうちの一つの選択を行う方法を示している。方法450は、一般に、方法300のブロック355に対応し、本明細書に記載の様々な実施形態と共に使用することができる。
ブロック455において、コンピューティング装置は、最高の計算されたスコアに対応する音楽の表記のサブセットを選択する。いくつかの実施形態では、サブセットは、エンドユーザのために表示された表記の読みやすさに基づくことができる所定数の表記に限定される(例えば、2つ、3つ、4つなど)。別の実施形態では、サブセットは、特定の閾値を超える全ての表記に限定される。
このブロック465において、音楽の表記のサブセットは、エンドユーザに提示される。一実施形態では、これは、電子ディスプレイを使用して行うことができる(例えば、サブセットのそれぞれに対する情報をディスプレイ上に表示する)。別の実施形態では、音楽の表記は、異なる音楽的特徴を図示しているために照らされたLEDなどの視覚インジケータを介して提供される。ブロック475において、コンピューティング装置は、音楽の表記の一つのエンドユーザの選択を受け付ける。いくつかの実施形態では、選択入力は、例えばグラフィカル・ユーザ・インターフェースのような、ユーザインタフェースを介して提供されてもよい。
ブロック455から475までの方法分岐の選択肢として、ブロック485において、コンピューティング装置が計算された最高のスコアに対応する楽譜を自動的に選択することができる。
図5A及び5Bは、それぞれ1つの実施形態に係る、同じ音楽情報に対応する代替の音楽表記を示している。図5Aは、音符5201−8の最初のセットを示している。例を簡単にするために、音符520のそれぞれは、同一の周波数/周期(ここでは、「Bフラット」または「Bb」)に実質的に対応し、実質的に同じ長さを有すると仮定する。
表記500は、それぞれがこの分野の通常の知識を有する者に知られている譜表501、音部記号502、調音503、拍子504、及びテンポ505を含んでいる。音律510は、音符5201−8を含み、拍子504とテンポ505に基づいて、8分音符515、515、などとして表示されている。
表記525は、同じ調号503及び拍子504を含んでいる。しかし、テンポ530はテンポ505と異なり、1分間に160の4分音符が演奏されるべきであることを指す(1分当たり160拍(BPM)、4分音符が1拍を受ける)。一方、テンポ505は、80BPMを指す。従って、音符520は表記525と異なる長さで、つまり、4分音符540、540などと表示される。表記525においても、4/4拍子の曲の小節ごとに4つの4分音符しか存在しないため、音符520も2つの小節または音律である535(音符5201−4の場合)及び535(音符5205−8の場合)に分割されている。テンポ530はテンポ505の80BPMから160BPMに増加しているので、これは4分音符の長さが半分にされたことを意味し、表記525に示された8つの4分音符は、表記500に示された8つの8分音符と同じ時間の長さを表している。
表記500及び表記525は、本質的に同じ抽出された音楽情報(音符5201−8)を示しているが、表記はテンポ及び音符の長さが異なる。代替的な実施形態では、表記は特定のBPM値に対応する質的なテンポインジケータ(例えば、アダージョ、アレグロ、プレスト)を含むことができる。もちろん、複数の代替表記は、拍子記号(例えば、1小節当たり2拍、または1つの拍を受ける2分音符)と音符の長さを調整することによって提供することができる。ここでは図示していないが、音符用のピッチ特性は別の形(例えば、D#またはEb)、または同じ調号に基づいて別のキー(例えば、Bb長調またはG短調)で示してもよい。
図5Bは、第2のセットの音符5601−12の他の音楽的解釈に対応する表記550、575を示している。音楽の解釈のタイミングの側面を強調表示するには、表記550、575は、図5Aの表記より採譜の異なるスタイルで提示されている(例えば、音符ピッチ/周波数情報なしで示されている)。
表記550は、拍子(すなわち、4/4拍子552)、フィール(すなわち、トリプレットフィール554)、テンポ(すなわち、60BPM556)を含んでいる。これらの特性に基づいて、表記550は、音符5601−12を単一の小節内または小節558内で、そして時間軸に対して3連音符5651−4としてグループ分けする。各3連音符565は、小節558内の強い拍(すなわち、560、560、560、56010)に対応する1つの3連音符の8分音符も含んでいる。
次に、表記575は、拍子(すなわち、3/4拍子576)、フィール(すなわち、ストレートフィール578)、テンポ(すなわち、90BPM580)を含んでいる。これらの特性に基づいて、表記575は音符5601―12を2つの小節または小節582、582をわたって、8分音符のペア5901−6にグループ分けする。各8分音符ペア590は小節582内に強い拍すなわち、560、 560、560、・・・、56011)に対応する1つの8分音符を含んでいる。
図5Aに図示しているように、表記550及び表記575は、本質的に同じ音楽情報(すなわち、音符5601―12)の別の解釈を提供している。音符オンセットタイミング情報のみを使用して、音符5601−12の単一の「正しい」解釈を識別することは困難であろう。しかし、音符の解釈の違いは小節の数の差だけでなく、小節内の強い拍のタイミングの差も生じる。この分野の通常の知識を有する者は、代替的な表記におけるこのような差は、音声信号に含んでいる音楽コンテンツの表記に対しても、以下に詳細に記載する適切なリアルタイムの音楽の伴奏の生成に対しても、かなりの影響を有し得ることを理解するであろう。例えば、表記法550に従って解釈される楽曲を演奏する(例えば、音声信号に含まれている音楽コンテンツを再現する、または音楽コンテンツに基づいて生成された伴奏パートを演奏する)ミュージシャンが、表記575に従って解釈の楽曲より形式上完全に異なっている方法で演奏することになろう。
ここで提供された例は比較的単純であるが、この分野の通常の知識を有する者はまた、複数の表記が、例えば、異なるいくつかの音楽的特徴、例えば、ピッチに基づく特性と同様に、異なるテンポとスイングの指標の組み合わせによって、異なる場合があることをも認識するであろう。示された表記は、音符を客観的かつ正確に示しているにもかかわらず、エンドユーザは、音声信号の音楽コンテンツを採譜するための表記のいずれかを明示的に好むだろう(あるいは、少なくとも選択するであろう)。従って、このような意識的または無意識的なエンドユーザの好みとして無形または主観的な要素を受容するために、これらの複数の競合の代替的な表記を生成することは有益であろう。
図6は、一実施形態に係る、選択された音楽の表記を使用して音楽の表記及び採譜の選択を示している。表示装置600は、電子ディスプレイ装置の1回目の表示画面605及び2回目の表示画面625を提示し得る。表示画面605、625は、UI187のようなUIの要素を含んでいる。
表示画面605は、上記の図5Bの記載の音符5601―12に対応するいくつかの表記550、575及び610を含み、各表記が表示画面605の別々の部分に表示されている。表記は採譜形式(例えば、図5Bに示される表記550と575のように)で表示画面上表示され、及び/または表記音楽的特徴(例えば、Bb長調のキー、ストレート4/4拍子、160BPMなど)について記載されている情報を含んでもよい。
表記は、所定の位置及び/または順序に表示されることがある。一実施形態では、減少しているスコアが位置606 及び606に対応するように、表記は算出されたスコア(すなわち、最大のスコアを持つ表記550が606位に対応する)に従って順序付けされている。
表示画面605は、さらにエンドユーザが音声信号の別の表記を指定するために選択できるエリア615(「その他」)を含んでいる。エンドユーザの入力は、全く異なる生成された表記(ランク付けられたいない、現在、表示画面605上に表示されているものなど)を選択することができる、及び/または生成された表記に対してエンドユーザによって指定された1つまたは複数の別個の変化を含んでいることができる。
表記を選択すると、コンピューティング装置は、完全な音声信号の採譜を生成するために選択された表記についての情報を使用する。示されるように、ユーザの手620は、表示画面上605の表記550を選択する。表示画面625は、表記550による音声信号の採譜640を図示している。一実施形態では、エンドユーザの選択のために表示された音符5601―12は、選択された表記に従って既に630が採譜され、コンピューティング装置は、表記を選択した後、音符56013−n(図示しないが、小節630−630に含まれている)に対応する採譜640の部分635を採譜する。音符フォーマットは採譜640のために示されているが、代替採譜が可能である。また、採譜640は、音声信号のダイナミックコンテンツに関する情報(例えば、音量変化、アクセントなど)、を含んでいることができる。
(リアルタイム音楽伴奏の生成)
幾つかの実施形態は、コンピューティング装置によって受信された音声信号に含まれている音楽コンテンツのリアルタイム伴奏を実行することに関するものである。楽器信号(ミュージシャンによる演奏など)で出力するのに適した伴奏信号を生成したいミュージシャンは、楽器信号を使用して、自動伴奏システムをトレーニングすることができる。しかし、ミュージシャンは、一般的には、再生に適した伴奏信号の処理の完了まで待たなければならないため、プロセスが完全に非同期でない場合は、楽器の演奏の中断が発生する。
自動伴奏装置は、学習段階内にMIDI信号のような音声信号または派生的な信号の形式を受信することにより作動することができる。伴奏信号の最も適切な音楽の性質を決定するために(キー、和音構造、小節数、拍子、テンポ、フィール、などに基づいて)、ミュージシャンは学習段階が完了(例えば、歌の部分の最後に)したと指示した後に、かなり複雑な後処理分析を行う必要がある。この後処理は、現代の非常に高速な信号処理装置にしてもかなりの時間を必要とする。
図7は、一実施形態に係る、受信した音声信号に含まれている音楽コンテンツのリアルタイムの音楽の伴奏を行うためのシステムの一例を図示している。いくつかの実施例では、システム700は、例えば、抽出モジュール130及び伴奏モジュール138を使用して、上述したシステム100内に含めることができる。
このシステム700は、1つの入力として、音楽コンテンツを含んでいる音声信号125を受信するように構成されている。いくつかの実施形態では、音声信号125は、ギターのような楽器を演奏することによって生成することができる。他の実施形態では、音声信号125は、例えば、MIDIに対応しているキーボードから出力された派生的な音声信号の形であってもよい。
システム700はさらに、1つまたは複数の制御入力735、745を受信するように構成されている。制御入力735、745は、一般に、システム700が異なるモードで動作するようにする。示されるように、制御入力735はシステム700の「学習」モードに対応し、制御入力745は「伴奏」モードに対応する。一実施形態では、動作中のシステム700は、一般的に、利用可能な選択された一つのモードで動作する。一般的に、オペレーションの学習モードは、適切な相補的な音声信号が伴奏モードで生成される前に音声信号を分析するために実行される。一実施形態では、エンドユーザは、システムのUIに関連付けられた受動デバイス(例えば、1つまたは複数の電気スイッチ)または能動デバイスを使用して(例えば、電子ディスプレイ装置のグラフィカル・ユーザ・インターフェースを介して)、制御入力735の制御、つまりシステム700を制御することができる。
オペレーション期間、音声信号125は、抽出モジュール130の特徴抽出モジュール705によって受信され、そのモジュールは一般に音声信号のリアルタイム特徴抽出を実行するように構成されている。リアルタイム分析は、また、後で考察されるが、予備的分析モジュール715を使用して、実行されてもよい。多くの音楽上の特徴は、ノートオンセット、オーディオレベル、ポリフォニックノート検出など、もっと包括的な音楽情報の分析を行うプロセスで使用されてもよい。一実施形態では、特徴抽出モジュール705は、受信された音声信号のリアルタイム抽出を実質的に連続的に実行することができる。一実施形態において、リアルタイム抽出は、制御入力の状態に関係なく行われる。システム700は、エンドユーザの明示的な命令がなくとも(制御信号によって明らかなように)、音声信号125から有用な情報を抽出するために、特徴抽出モジュール705を使用することができる。このようにして、エンドユーザの開始指示の時刻前 (すなわち、学習モードの開始時),に生じる事象が捕捉され得る。一実施形態では、特徴抽出モジュール705は、学習モードにおいて、システム700の作動に先立って、受信された音声信号に対処する。
オペレーション期間、エンドユーザは、UIを操作しシステム700に学習モードに入る遷移を通知することができる。例えば、学習モードに遷移するために、エンドユーザはギターペダルのフットスイッチなどのスイッチを操作し、または、GUIを使用して選択をすることができる。実施形態 によっては、システム700は、特徴抽出モジュール705が受信された音声信号の第1ノートオンセットを検出して、自動的に学習モードに入る「オートアーム」とする構成にされてもよい。
学習モードに入ると、システムは、予備的分析モジュール715を作動してもよく、そのモジュールは、リアルタイムにおいて音声信号125の限定分析を実行するように構成されている。限定分析の実施例は、音声信号の音楽コンテンツのキーを決定することを含んでいる。もちろん、付加的または代替的分析は実行され得るが、一般的には、ピッチまたはタイミング情報について、分析は限定されたセットの特徴のみを決定でき、その分析は実質的にリアルタイムで完了することができる(換言すれば、目立った遅延なく、受信されたように音声信号の部分を処理することができる)。一実施形態において、予備的分析モジュール715は、また、音声信号125に対応する意図された第1音楽コードを決定する。
特定量の音楽曲が演奏された後で、エンドユーザは学習フェーズの完了と伴奏フェーズの開始を指示することができる。音声信号125に含まれる演奏量は、エンドユーザによって所望の楽曲量を反映することができるが、場合によっては、エンドユーザが楽曲の特定セクション(または、他のサブディビジョン)の最後で、例えば、そのセクションを繰り返す前、または他のセクションを開始する前に、遷移表示を提示する方がもっと自然に感じることもある。一実施形態において、エンドユーザはフットスイッチを操作して適切な制御入力745を提示して伴奏を開始すべきであることを指示する。
一実施例において、伴奏モジュール138は、エンドユーザが伴奏モードに移る指示を提供するときにほぼ直ちに、1つまたは複数の相補的音声信号155を出力する。「ほぼ直ちに」とは、音声信号と相補的音声信号155の相対的タイミングに関するエンドユーザの知覚に基づいて一般的に定義される。一実施形態では、「ほぼ直ちに」は、音声信号内の次のビートと同一時刻より前またはその時刻での相補的音声出力を含んでいる。一実施形態では、「ほぼ直ちに」は、例えば、40msまたはそれより短いエンドユーザにとって聴覚的に認識できない時間内の相補的音声信号の出力を含んでいる。伴奏信号の出力を「ほぼ直ちに」開始することによって、システム700はエンドユーザにフットスイッチまたは他のUI素子の操作が契機となって直ちに伴奏を開始したという印象を与える。この印象は、エンドユーザにとって重要であり、そのエンドユーザは、処理を完了するために、停止し、伴奏が開始されたときに再開することによって起こる中断の代わりに、継続し休止しない音楽演奏を好んでいる。
幾つかの実施形態では、相補的音声信号の初期部分は、「ほぼ直ちに」に出力されるが、予備的分析モジュール715によって実行される音声信号の限定された予備的分析に対応する。従って、相補的音声信号155の当該初期部分は、受信音声信号について十分な分析が完了した後で生成される後期部分より、音楽的な複雑さが少ない状態で生成され得る。一実施形態では、単一音符または和音が生成され、相補的音声信号155の初期部分のために出力され、その音符または和音は音声信号の分析が完了されるまで、維持されてもされなくてもよい。一実施形態では、相補的音声信号の初期部分は、決められたキー及び決められた和音の1つに基づいている。
相補的音楽信号155は、1つまたは複数の別個の楽器部分に対応して生成されてもよい。一実施形態では、伴奏モジュール138は、音声信号125を形成するために使用される同一の楽器のために、相補的音声信号を出力する。例えば、ギターからの入力信号のために、出力された相補的音声信号はギターパートに対応してもよい。別の実施形態では、伴奏モジュール138は、1つまたは複数の別の楽器のために、相補的音声信号155を出力する。例えば、入力ギター信号は、ベースギター及び/またはドラムセットのために生成された相補的音声信号に対応してもよい。このようにして、システム700は、独りのミュージシャンを数個の楽器パートを持っている「ワンマンバンド」に効果的に変えるために使用することができる。更に、リアルタイム演奏態様は、システム700をライブ音楽演奏または録音の使用に適するようにする。また、特徴抽出及びリアルタイム演奏の適応性は、システム700が即興演奏を含む音楽演奏に適したものにもし、それがジャズ、ブルースなどの演奏音楽の特別なスタイルまたはジャンルに共通となり得る。
相補的音声信号155の駆動を過ぎて、エンドユーザの伴奏モードへの遷移表示は、また、より音楽的に複雑で、相補的音声信号の初期部分に続く相補的音声信号の後続部分を生成するために、音声信号725(すなわち、完全な分析モジュール725によって)のより完全な分析を始めるための、システム700への合図となり得る。例えば、学習モード内で抽出された特徴は、好ましい相補的音声信号を生成するために要する多くのパラメータを決定するために分析されてもよい。決定されたパラメータの例は、楽曲セクションまたはパートの長さ、小節線または小節の数、コード進行、小節当たりのビート数、テンポ及びリズムまたはフィールのタイプ(例えば、ストレートまたはスウィング時間)を含んでいる。
実施形態には、モダンプロセッサ上で効果的なプログラミング手法(ダイナミックプログラミングなど)を使うと、音声信号内の次の主要ビートが生じる前に抽出された特徴の分析を完全に行うことが可能となるものもある。そうしてエンドユーザに学習モードと伴奏モードの間の継続的な流れの印象を与えて、後続部分を音声信号の次の主要ビートから始めることができる。処理の完了のために追加時間が必要な場合であっても、少なくとも相補的音声信号の少なくとも初期部分が音声信号の最初のビートと同期して開始すると、エンドユーザは、合理的な短い時間内に後続部分が始まる限り、エンドユーザは、それでも、音楽演奏について、これが受け入れ可能な継続であると判ると思われる。一実施形態において、例えば、次のビート、次の小節またはセクションの開始に同期するなど、音声信号の音楽コンテンツの分割部分に対応して、初期部分に続く第1後続部分が開始する。
図8は一実施形態によるリアルタイム音楽伴奏を行うシステムのタイミングの実施例を図示するチャートである。チャート800は、一般に、システム700の動作と提示された記述に対応している。
チャート800は、最初のプロットについて、音声信号を示している。音声信号805は、4つの繰り返しセクション810,810,810,810(すなわち、それぞれ、人の演奏、雑音などによる音声信号に多分少ない変量を持った類似の音楽情報)を含んでいる。各セクション810は、第2プロット(すなわち、時間)上に示されているそれぞれの時刻t、 t、t、 tで開始する。
その他の含まれているプロット、ラベルが貼ってある分析は、システム700のいろいろなモードにわたって実行される信号処理の概略を提示している。第1ピリオド815は、受信された音声信号から特定のセットの特徴が抽出される継続的抽出モードを備えている。一実施形態において、このモードは、音声信号805を受信する前に(すなわち、tに先立って)開始する。抽出されるこのセットの音楽的特徴は、後で行われる音声信号の完全な分析から制限を受け得る。期間815内で抽出される例示の特徴は、ノートオンセット、オーディオレベル、ポリフォニックノート検出、などを含んでいる。期間815内で、システム700は、多かれ少なかれ連続的に抽出された特徴を更新してもよく、あるいは1つまたは複数の個別の時間間隔(すなわち、時刻A、B、C)で特徴を更新してもよい。
時刻tに対応する時刻Dで、エンドユーザは、システム700に学習モードに入るよう指示するために素子UIを作動する。一実施形態では、これはエンドユーザが電気スイッチを作動すること(例えば、フットスイッチをステップオンすること)を含んでいる。他の実施形態では、これは表示されたGUIを使用するモード選択を含んでいる。エンドユーザは、音声信号の音楽に関連する任意の時間でUIを作動させてもよいが、場合によっては、自然の遷移ポイント(連続セクション810)で遷移モードを選択してもよい。
エンドユーザの入力に応じて、システムは学習モードに入り、期間820Aの第1サブピリオド825の間に受信された音声信号の予備的分析を開始する。予備的分析は、期間815の間に抽出された音楽的を使用して行われてもよく、音声信号805の音楽コンテンツの付加的なセットを決定することを含んでもよい。予備的分析から決定された特徴の例には、音声信号805の音楽コンテンツのキー、音声信号の最初の和音、音声信号内の主要ビートのタイミングなどを含んでいる。一実施形態において、予備的分析期間(すなわち、サブピリオド825)に決定される特徴のセットは、期間815に決定される特徴のセットを越える処理が必要となることもある。特徴の特定のセットの決定は、伴奏モードに入る前(すなわち、時刻E)に完了され得る。一実施形態では、予備的分析の完了が、伴奏モード(すなわち、時刻F)に入るきっかけとなる。他の実施形態では、システムが、学習モードに留まり、伴奏モードへの遷移するためにエンドユーザからの入力を待ち、音声信号805の付加的な処理を実行してもよい。付加的な処理は、予備的分析(継続的または周期的に)によって、決定される特徴セットを更新し及び/または音声信号の特徴決定の次のフェーズ(例えば、後で考察する「完全分析」の幾つかまたは全てに対応する)の実行を含んでもよい。
音声信号の予備的分析において使用に好適な1つの例示方法は、次のことを含んでいる。
第一に、エンドユーザが学習モードを開始したときに続いて最も近いノートオンセットを決定する。次に、所定の間隔(例えば、「早期学習フェーズ」)の期間、システムは、検出された音楽ノートを分析し、特に、その検出されたノートを類似のルートを持っている和音にグループ分けを試みる。
次いで、システムは、コードセグメントが他のセグメントによって分離されていても、同じルートを有し結ばれていないコードセグメントを組み合わせる第2グルーピングアルゴリズムを適用する。一実施形態では、他のセグメントが、相対的に短い時間の1つまたは複数の不安定セグメントを含んでもよい。
次に、システムは、所定の間隔の期間、好ましい安定的なコードルートが見つかったかどうか決定する。安定的なコードルートが見つかった場合、音符は、相補的音声信号の可能な開始音符として保存され得る。
コードルートが十分安定していない場合、システムは、音声信号から来る音符の注視を続け、音楽コンテンツのキーを予測する任意の周知の手法を使用してもよい。システムは、相補的音声信号の開始音符として、この予測キーのルート音符を使用してもよい。当該提示方法はこのステップの後で終了する。
時刻Fでシステム700は、伴奏モードに入り、その期間に1つまたは複数の相補的音声信号840,850が生成され及び/またはスピーカあるいはヘッドフォンなどの関連する音声出力装置に出力される。モードの遷移は、エンドユーザが素子UIを操作することが契機となり、その素子は、一般に,学習モードの終了をシステム700に指示する。学習モードの終了を明示的に知らせて、音声信号805で捕捉された音楽演奏の意図された長さの最初の見積もりをシステムが行えるようにする。このため、システムは、音声信号がより著しく及び/または著しく異なった分析されるべき内容を含んでいるかどうかはっきりしていない分析の初期時と比較されるとき、学習モード期間(または少なくとも遷移の時刻、時刻Fの音楽的特徴の状態)に決定される音楽的特徴とより大きい信頼性と関連付けることができる。
伴奏モードに入ると(または、代わりに、学習モードを終了すると)、システム700は、音声信号805の音楽コンテンツの完全な分析を行う。完全な分析は、まだ更なる音楽的特徴の決定を含み得るため、決定される特徴の総量は、シーケンス(例えば、連続抽出モードから学習モードと伴奏モードへ)の各ステージまたはモードのために増加する。完全な分析では、システムは、好ましい相補的音声信号を生成するために必要な多くの音楽演奏を決定することができる。決定されたパラメータの実施例は、楽曲セクションまたはパートの長さ、多くの小節線及び小節、コードプログレッション、小節あたりの多数のビート、テンポ、リズムやフィールのタイプ(例えば、ストレートまたはスイング時間)を含んでいる。一実施形態においては、学習モードから伴奏モードに遷移後のみ完全な分析が開始する。他の実施形態では、予備的分析の特徴決定の終了後に引き続く学習モードで、完全な分析のために、幾つかのまたは全ての特徴決定が開始する。
UI素子のオペレーションが中断なしの音楽演奏にとって好ましい即興伴奏の契機になるという印象をエンドユーザに提示するために、システムは、伴奏モードに遷移する時刻Fで入力を受信することにより、時刻Gで、実質的に直ちに(上述で十分定義されている)相補的音声信号の出力をすることができる。一実施形態では、時刻FとGの間の間隔は、エンドユーザにとって音響的に知覚不可能な、例えば、40ms、あるいはそれ以下である。
しかし、場合によっては、音声信号805の完全な分析を完了するために必要な時間は、時刻Gを超過してもよい。この時間は、サブピリオド820Bとして示されている。実施形態によっては、完全な分析が部分的にしか終了していないにもかかわらず、エンドユーザに「即興伴奏」の印象を与えるために、システム700は完了した分析(例えば、予備的分析または完全な分析の完了部分)に基づいた相補的音声信号の初期部分を生成する。初期部分は、相補的音声信号840のサブピリオド842によって表示される。一実施形態では、初期部分は、単一音符または和音を含んでよく、場合によっては、サブピリオド842の長さ期間維持されてもよい。
時間Hで、完全な分析が終了すると、システムは、完全な分析に基づいた相補的音声信号の後続部分を生成することができる。1つの後続部分が、相補的音声信号840及び850の時間サブピリオド844及び854のために、それぞれ図示されている。完全な音楽分析は、相補的音声信号を生成するために利用できるので、一般に、後続部分は、初期部分よりもっと音楽的に複雑である。エンドユーザに中断のない印象を与えるために、一実施形態において、システム700は、次に決定される音声信号のサブディビジョン(例えば、次のビート、主要ビート、小節、フレーズ、パートなど)に対応する相補的音声信号の後続部分の出力を遅延することができる。この決定された遅延は、時刻H及びIの間の時間間隔によって表される。
複数の相補的音声信号840,850が生成され、それぞれは、別の楽器パート(ベースギター、またはドラムなど)に対応してもよい。一実施形態では、生成される全ての相補的音声信号は、同じ時間長の初期部分(例えば、後続部分よりもっと簡単である)を含んでいる。しかし、一実施形態では、1つまたは複数の相補的音声信号は、初期部分とは異なる時間長を持ってもよく、相補的音声信号によっては、初期部分を全く含まないものもある。音声信号分析の特定のタイプが複雑さで異なり、または多かれ少なかれプロセッサ中心である場合、あるいは相補的音声信号の生成している特定部分が多かれ少なかれプロセッサ中心である場合、システム700は、音声信号の分析及び/または相補的音声信号の生成を相応して優先することができる。例えば、ドラムパートが時間情報のみ必要であるのに対して、ベースギターは、正しい周波数情報(ノートピッチ)並びにタイミング情報の決定が必要である。そのため、一実施形態においては、システム700は、入力音声信号内のビートまたはリズムの決定を優先し、処理が、初期の簡単な部分(例えば,相補的音声信号840)を生成してベースギターパートを決定する必要がある場合は、ドラムパートは完全な演奏を始め、最初の簡単な部分(例えば、相補的音声信号850)を含む必要がないとしてよい。異なった楽器のパートについて、このような連続するまたは階層化の導入は、またはエンドユーザに対する現実感や中断のない印象を強調することもできる。もちろん、他の実施形態では、システム700は、追加の分析を要するパートを優先し、全ての音楽パートが、ふらついた導入とならずに、より早い時期に完成される。一実施形態では、階層のあるまたは同時の導入が、例えば、UIを介してエンドユーザが選択できるようにしてもよい。
図9は一実施形態によるリアルタイム音楽伴奏実行システムの実施例を図示している。実施例は、回路を内蔵したハウジング905を有するギターフットペダル900を示している。回路は、一般に、システム100及び700(例えば、プロセッサ110、様々な機能モジュールを持ったメモリ120を含んでいる)について図示され記述されているコンピューティング装置105の部分に対応している。簡略のため、フットペダル部分は、明確に図示も記述もされていないが、この分野の通常の知識を有する者は理解できよう。
フットペダル900は、システムに対する1つまたは複数の入力と1つまたは複数の出力を利用可能にしている。図示されている通り、ハウジング905は、音声入力ポート955を介して有線接続、制御入力ポート960、1つまたは複数の音声出力ポート970、970及びデータ入力/出力ポート975を保持する開口を備えている。他の実施形態では、1つまたは複数のポートは、コンピューティング装置、楽器、音声出力装置などとの無線接続を備えてもよい。音声出力ポート970、970は、それぞれ、別の楽器パートに対応して生成される相補的音声信号などの分離出力音声信号を提供してもよく、あるいは同一の音声信号について実行される別の処理をできれば反映するようにしてもよい。一実施形態では、データ入力/ポート975は、音声入力ポート955で受信される信号の自動採譜を提示するために使用され得る。
ハウジング905は、複数のノブ910、フットスイッチ920、LEDのような視覚表示器930などの1つまたは複数のUI素子を利用可能にする。ノブ910は、それぞれ、音楽分析及び/または伴奏、それぞれの機能を制御することができる。一実施形態では、ジャンル選択ノブ910Aは、ユーザが特定の音楽ジャンルに適合する伴奏のタイプを選択し、スタイル選定ノブ910Bは、どのスタイルが自動採譜に最も相応しいかを表示し(例えば、特定のスタイルがどの程度よく適合しているかを示す色または輝度を使用する)、テンポ調整ノブ910Cは、生成される伴奏について、例えば、練習をするために、速度を上げたり下げたりするために使用される。ベース(音量)レベルノブ910D及びドラムレベルノブ910Eは、出力ミックスにおける各楽器のレベルを制御する。もちろん、その代わりとなる機能が備えられてもよい。ノブ910は、選択マーカ915(例えば、選択マーカ915A)を備えてもよく、その適応によって連続(ベースレベルノブ910Dまたはドラムレベルノブ910E)または個別選択位置(ジャンルノブ910A)を指示する。ノブ910は、また、視覚表示器(例えば、表示器9179−11が図示されている)に対応してもよく、ノブなどの位置または向きによって照明される。色及び/または輝度は、可変でもよく、スタイルがどの程度よく学習された演奏と適合しているかなどの情報を表示するため使用することができる。
フットスイッチ920は、学習モード及び伴奏モードなどのモードを選択するために作動され得る。一構成では、フットペダル900は、電力が供給され、かつデフォルトによって、連続抽出モードに入る。そして、エンドユーザは、最初のときにフットスイッチ920を押して、システムを学習モード(視覚表示器930Aを照明して表示することができる)に入れることができ、第二の時期にシステムの学習モードを終了し及び/または伴奏モード(視覚表示器930Bに対応する)に入るようにすることができる。もちろん、モード間の時間ベースの遷移などの他の構成も可能である。
ハウジング905は、また、場合によっては、照明されるプッシュボタン942などの他の機能を選択し表示するUI素子を利用可能にする。プッシュボタン942は、プロセッサ110を使用する所望の音声処理効果を入力信号(「ギターFX」940)に適用するように選択するため及び/または表示するために使用される。一実施形態では、ギターFX940ボタンを一度押すと、そのボタンを緑色に照明し、ギターをかき鳴らすに最も適切な効果になり、ボタンをもう一度押すとボタンは赤くなってリードギターに最も適切な効果になる。同様なプッシュボタンまたは素子が、1つまたは複数の音楽パート945(メモリ120に保存される)を選択し及び/または表示するために設けられてもよく、変動時間950も同様である。一実施形態においては、変動時間ボタン950は、自動採譜によって決定された現行テンポ設定及びテンポノブ910Cの設定では緑色に点滅する。押されたときに、例えば元のテンポの半分または2倍のテンポで、自動採譜に首尾よく適合する変動するテンポで、表示器は赤色に点滅する。
図10は、一実施形態による、受信された音声信号に含まれる音楽コンテンツのために、リアルタイムで音楽伴奏をする方法を図示している。方法1000は、一般に、システム100、700と一緒に使用されてもよく、上述した図7−9の記述と一致している。
方法1000は、音声信号がシステムによって受信される場合、ブロック1005で開始する。音声信号は、音楽コンテンツを含んでおり、ボーカル信号、楽器信号及び/またはボーカル信号または楽器信号から生じた信号でもよい。音声信号は、録音され(すなわち、メモリから受信される)または音楽演奏によってライブで生成されてもよい。音声信号は、アナログやデジタルに係わらず、適切なフォーマットで表現されてもよい。
ブロック1015において、音声信号の部分は選択的にサンプルされる。ブロック1025は、システムが音声信号の少なくともサンプルされた部分を処理して、対応している音楽コンテンツから音楽情報を抽出する。一実施形態においては、システムは抽出された音楽情報の全体を処理する。一実施形態においては、音楽情報の処理と抽出は、複数のステージまたはフェーズ期間に生じ、その各々は、システムオペレーションの異なったモードに対応することができる。一実施形態では、音楽的特徴セットは、数が増加し及び/または処理の各後続ステージの複雑さが増加する。
ブロック1035では、システムは、所定の長さを持つ最も近い期間に抽出された音楽情報を、選択的に維持する。一般に、これは所定周期で音楽情報を更新することに対応してもよい。一実施形態においては、音楽情報の更新は以前に抽出された音楽情報セットを破棄することを含んでもよい。
ブロック1045では、システムは、抽出された音楽情報と音楽的に互換性のある相補的音楽情報を決定する。これは伴奏モジュールで実行されてもよい。ブロック1055では、システムは、相補的音楽情報に対応する1つまたは複数の相補的音声信号を生成する。一実施形態において、相補的音声信号は別の楽器に対応し、受信された音声信号を生成するために使用される楽器とは異なってもよい。
ブロック1065では、相補的音声信号は、音声信号の受信と同時に出力される。一般に、相補的音声信号は、システムに結合された音声出力装置を使用して出力される。出力された相補的音声信号の開始時間は、システムのUI素子を介して、エンドユーザによって制御されてもよい。相補的音声信号のタイミングは、エンドユーザにとって、繋ぎ目のない、中断のない音楽演奏の印象を与えるように決定してもよく、そのエンドユーザは、場合によっては、受信された音声信号に対応する楽器の演奏者であってもよい。一実施形態においては、相補的音声信号は、受信された音声信号の処理の進捗に基づいて、より音楽的複雑さのない開始部分を有し、もっと音楽的複雑さがある後続部分を含んでいる。一実施形態において、相補的音声信号の出力は、エンドユーザにとって聴覚的には認識できない短時間内であるように、例えば指示される開始時間の40ms以内に生じる。一実施形態では、システムは、次の主要ビート、ビート、フレーズ、パートなどの音声信号の予め決定されたサブディビジョンに対応する相補的音声信号部分の出力を遅延することができる。方法1000は、次のブロック1065で終了する。
本開示の様々な実施形態の記述は、例示目的で提示されたものであり、これに尽きることが意図されたものではではなく、開示された実施形態に限定されるものでもない。多くの修正や変更が、この分野の通常の知識を有する者にとって、記述された実施形態の趣旨と範囲を逸脱しないで、明らかであろう。ここで使用されている用語は、実施形態の原理、市場で見受けられる技術の実用的応用または技術的な改良を最もよく説明するために選定され、あるいはこの分野の他の知識を有する者がここで開示された実施形態を理解できるように選定されたものである。
これまでの記述は、この開示で提示された実施形態を参照してなされた。しかし、本開示の範囲は、特定の開示された実施形態に限定されない。代わりに、記述の特徴や要素の組み合わせが、別の実施形態に関連するかどうかに係わりなく、記述された実施形態を実行し実施するために記述されている。更に、ここで開示されている実施形態は他の可能な解決または先行技術ついて利益をもたらすことができるが、特定の利益が所与の実施形態によって達成されるかどうかは、本開示の範囲を限定するものではない。このため、これまでの態様、特徴、実施形態及び利益は、単に例示的なものであり、特許請求の範囲で明示的に言及された場合を除き、添付特許請求の範囲の要件または限定とみなされない。同様に、「本発明」 についての参照は、ここで開示された発明主題の一般化と解釈されるべきではなく、特許請求の範囲で明示的に言及された場合を除き、添付特許請求範囲の要素または限定と解釈されてはならない。
本開示の態様は、全体をハードウエアの実施形態とし、全体をソフトウエアの実施形態(ファームウエア、予め組み込まれているソフトウエアマイクロコードなどを含む)とするか、または、ここで、一般に、「回路」、「モジュール」または「システム」と総称しているソフトウエアとハードウエアを組み合わせた実施形態を取ってもよい。
本開示は、システム、モジュール、及び/またはコンピュータプログラム製品として実施してもよい。コンピュータプログラム製品は、プロセッサが本発明の態様を実行するためのコンピュータ可読プログラム命令を有するコンピュータ可読記憶媒体(あるいは、メディア)を含んでもよい。
コンピュータ可読記憶媒体は、命令実行装置によって使用のために命令を維持し、保存することができる有形装置であり得る。コンピュータ可読記憶媒体は、例えば、電子記憶装置、磁気記憶装置、光学的記憶装置、電磁気記憶装置、半導体記億装置またはそれらの適切な組み合わせであってもよいが、そのような装置に限定されない。コンピュータ可読記憶媒体のより特定された実施例のリストは、全てを網羅していないが、次のものを含んでいる。ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM、またはフラッシュメモリ)、スタッティックランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスクリードオンリーメモリ(CD−ROM)、デジタル・バーサタイル・ディスク(DVD)、メモリススティック、フロッピー(登録商標)ディスク、パンチカードや命令が記録された溝隆起構造などの機械的符号化装置、及び前記装置の適切な組み合わせ。ここで使用のコンピュータ可読記憶媒体は、無線電波または自由に伝播する電磁波、導波管や他の伝送媒体(例えば、ファイバ光ケーブルを通過する光パルス)または有線を介して送信される電気信号など、一時的な信号それ自体と解釈されない。
ここで記述されているコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からそれぞれコンピューティング/処理装置にダウンロードされることができ、または、例えば、インターネット、広域ネットワーク及び/または無線ネットワークを介して、外部コンピュータあるいは外部記憶装置にダウンロードされることができる。ネットワークは、銅製伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイアウオール、スイッチ、ゲートウエイコンピュータ及び/またはエッジサーバを備え得る。各コンピューティング/処理装置のネットワーク・アダプタ・カードまたはネットワークインターフェースは、コンピュータ可読プログラム命令をネットワークから受信し、コンピュータ可読プログラム命令をそれぞれコンピューティング/処理装置内のコンピュータ可読記憶媒体の記憶のために送る。
本開示のオペレーションを実行するコンピュータ可読プログラム命令は、アセンブラ命令、インストラクション・セット・アーキテクチャ(ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウエア命令、状態設定データあるいは1つまたは複数のプログラム言語の組み合わせで記述されたソースコードまたはオブジェクトコードでありことができ、Smalltalk、C++などのオブジェクトオリエンテッド言語、及び「C」プログラム言語または類似のプログラム言語などの従来の手続きプログラム言語を含んでいる。コンピュータ可読プログラム命令は、ユーザのコンピュータ上で全て実行し、部分的にユーザのコンピュータ上でスタンドアロンソフトウエアパッケージのように実行し、部分的にユーザのコンピュータ上で、かつ、部分的に遠隔コンピュータ上で実行するか、または遠隔コンピュータまたはセーバ上で全て実行することができる。後者のシナリオでは、遠隔コンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意のネットワークを介してユーザのコンピュータに接続されてもよく、接続は外部コンピュータに(例えば、インターネット・サービス・プロバイダを使用して、インターネットを介して)なされてもよい。実施形態によっては、例えば、プログラマブルロジック回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)またはプログラマブルロジックアレイ(PLA)が、本開示の態様を実行するために、電子回路を特定の個人のものとするコンピュータ可読プログラム命令の状態情報を使用して、コンピュータ可読プログラム命令を実行することができる。
本開示の態様は、この明細書では、本開示の実施形態に従って、フローチャート図示及び/または方法のブロック図、装置(システム)及びコンピュータプログラム製品を参照して記述されている。フローチャート図の各ブロック及び/ブロック図及びフローチャート例示のブロック及び/またはブロック図のブロックの組み合わせは、コンピュータ可読プログラム命令によって実行され得ることが理解されるであろう。
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、特定用途コンピュータまたはその他の機械を生産するためのプログラマブルデータ処理装置に提供されることができ、その結果、コンピュータのプロセッサやその他のプログラマブルデータ処理装置を介して命令が実施され、フローチャートに規定された機能/作用及び/またはブロック図のブロックもしくは複数のブロックを実行または遂行するために実装され得る。これらのコンピュータ可読プログラム命令は、また、コンピュータ、プログラマブルデータ処理装置及び/またはその他の装置に命令し、特定の方法で機能することができるコンピュータ可読記憶媒体に保存されることができ、そこに保存された命令を有するコンピュータ可読記憶媒体は、フローチャート及び/またはブロック図の1ブロックまたは複数のブロックにおいて特定された機能/作用の態様を実施する命令を含む製造品を備える。
コンピュータ可読プログラム命令はまた、コンピュータ、その他のプログラマブルデータ処理装置、またはコンピュータ、その他のプログラマブル装置、あるいはコンピュータ組込プロセスを生成するためのその他の装置上に一連のオペレーショナルステップもたらす他の装置にロードされることができ、コンピュータ上、その他のプログラマブル装置上、あるいはその他の装置上で実行する命令は、フローチャート及び/またはブロック図のブロックまたは複数ブロックで特定された機能や/作用を実施する。
図のフローチャート及びブロック図は、本開示の様々な実施形態によるアーキテクチャ、機能性、システムの実施可能な操作、方法及びコンピュータプログラム製品を図示している。これに関連して、フローチャートやブロック図の各ブロックは、モジュール、セグメントまたは命令の部分を表示でき、それは特定の論理機能を実施するための1つまたは複数の実行可能な命令から構成される。代わりとなる実施形態によっては、ブロックに記載された機能が図面に記載された順序外で生じることもある。例えば、連続して示されている2ブロックが、実際、実質的に連続して実行され、または関与する機能性に依存して、逆の順序で行われることもある。ブロック図及び/またはフローチャート図の各ブロック、及び、ブロック図及び/またはフローチャート図のブロックの組み合わせが、特定の機能または作用をし、あるいは特定目的のハードウエア及びコンピュータ命令の組み合わせを実行する特定目的のハードウエアベースシステムによって実施され得ることも、特に言及される。
本開示の実施形態は、クラウド・コンピューティング・インフラストラクチャを介して、エンドユーザに提供されてもよい。クラウドコンピューティングは、一般に、ネットワークによるサービスとして規模の大きいコンピューティングリソースの提供を言う。より公式には、クラウドコンピューティングは、コンピューティングリソースとそれを支える技術アーキテクチャ(例えば、サーバ、ストレージ、ネットワーク)の間の抽象概念を提供するコンピューティング能力として定義され、便利でオンデマンドのネットワークアクセスを、急速に用意され最小のマネジメント努力でリリースされる構成可能なコンピューティングリソースの共用プールまたはサービスプロバイダの相互作用をするものである。このため、クラウドコンピューティングによって、ユーザは「クラウド」において、コンピューティングリソースを提供するために使用され、支えられている実在のシステム(または当該システムの場所)に係わりなく、バーチャル・コンピューティング・リソース(ストレージ、データ、アプリケーション及び完全な仮想化コンピューティングシステム)にアクセスできる。
典型的には、クラウド・コンピューティング・リソースは、使用料支払に基づいてユーザに提供され、ユーザはコンピューティングリソースを実際に使用したことに対してのみ課金される(例えば、ユーザによって消費されたストレージスペース量、またはユーザによって例示され仮想化された多くのシステム)。ユーザはいつでもクラウドにあるどのリソースにも、インターネットによってどこからでもアクセスできる。本開示の文脈では、ユーザは、アプリケーション(例えば、メモリ120に示されている1つまたは複数の機能モジュールを含んでいる)あるいはクラウドで利用できる関連データ(例えば、ユーザプロファイル170からの情報)にアクセスしてもよい。例えば、スコアリングモジュール134は、クラウドのコンピューティングシステム上で実行することができ、そのスコアリングアルゴリズムは、別のユーザプロファイル、ジャンルなどから集められたデータに基づき適応性がある更新をすることができる。その場合、スコアリングモジュール134は、クラウドの保存場所にスコアリングアルゴリズムの反復を保存して、システム100の最も進んだまたは改良した実行を提供するために、エンドユーザの様々なコンピューティング装置によってアクセスされることができる。そうすることによって、ユーザは、クラウド(例えば、インターネットを介して)に接続されたネットワークに取り付けられたどのコンピューティングシステムからもこの情報にアクセスできる。
例示の実施形態がこれまで記述されているが、これらの実施形態は、全ての可能な形態の記述を意図していない。むしろ、明細書で使用されている語句は限定というより記述の語句であり、従って、様々な変更が本発明の趣旨や範囲を逸脱しないで実施できることが理解されよう。加えて、各種の実施形態の特徴は、本発明の更なる実施形態を形成するために組み合わせることもできる。

Claims (26)

  1. コンピューティング装置によって受信された音声信号に含まれる音楽コンテンツの自動採譜を実行する方法であって、前記方法は、
    前記音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するために前記コンピューティング装置を使用して前記受信された音声信号を処理すること、
    前記コンピューティング装置を使用して前記抽出された音楽情報について選択的に音楽的解釈を表示する複数の音楽表記を生成すること、及び、
    前記受信された音声信号の前記音楽コンテンツを採譜するために前記複数の音楽表記の選択された1つを適用すること、
    を備える前記方法。
  2. 更に、前記複数の音楽表記を前記コンピューティング装置のエンドユーザに提示すること、を備え、
    前記複数の音楽表記の1つを選択することは、前記コンピューティング装置に結合された入力装置を使用して前記エンドユーザによって行われる請求項1に記載の前記方法。
  3. 前記複数の音楽表記から選択的音楽表記を前記コンピューティング装置のエンドユーザに提示すること、及び、
    前記コンピューティング装置によって入力装置を介して前記選択的音楽表記を選択すること、
    を備える請求項2に記載の前記方法。
  4. 前記選択的音楽表記は、半時間表記及び倍時間表記の1つに対応する請求項3に記載の前記方法。
  5. 前記選択的音楽表記は、4/4表記及び3/4表記の1つに対応する請求項3に記載の前記方法。
  6. 前記選択的音楽表記はストレート時間及びスイング時間の1つである請求項3に記載の前記方法。
  7. 更に、前記複数の音楽表記の各々のスコアを生成することを備える請求項1に記載の前記方法。
  8. 前記複数の音楽表記の各々の前記スコアを生成することは、前記音声信号において検出されたオンセット箇所が特定の音楽表記の期待された拍箇所に一致していることに少なくとも部分的に基づいている請求項7に記載の前記方法。
  9. 前記複数の音楽表記の各々の前記スコアを生成することは、時間箇所及び前記音声信号で検出された音符または和音の長さの少なくとも1つが、期待された時間箇所及び特定の音楽表記の音符または和音の長さの少なくとも1つに一致していることに少なくとも部分的に基づいている請求項7に記載の前記方法。
  10. 前記複数の音楽表記の各々の前記スコアを生成することは、更に、(i)前記音声信号において検出されたオンセット箇所が特定の音楽表記の期待された拍箇所に一致していること、及び(ii)時間箇所及び前記音声信号において検出された音符または和音の期間の少なくとも1つが期待された時間箇所及び前記特定音楽表記の音符または和音の少なくとも1つに一致することに基づいている請求項7に記載の前記方法。
  11. 各々の前記複数の音楽表記のスコアを生成することは、特定の音楽表記の演繹的な可能性に少なくとも基づいている請求項7に記載の前記方法。
  12. 前記複数の音符の各々のスコアを生成することは、少なくとも使用履歴に基づいている請求項7に記載の前記方法。
  13. 更に、
    前記複数の音符の各々について前記音声信号の適合を示す小節を表示するそれぞれの適合スコアを生成すること、
    前記複数の音楽表記の1つを選択することは前記生成された複数の適合スコアに基づくこと、
    を備える請求項1に記載の前記方法。
  14. 前記複数の音楽表記の前記選択された1つは最大適合スコアに対応する請求項13に記載の前記方法。
  15. 更に、
    前記コンピューティング装置のエンドユーザに前記複数の適合スコアの2つ以上の最大適合スコアに対応する前記複数の音楽表記のサブセットを提示することを備え、
    前記複数の音楽表記の1つを選択することは、前記コンピューティング装置に結合された入力装置を使用して、前記2つ以上の最大適合スコアについてエンドユーザによって実行される請求項13に記載の前記方法。
  16. 前記複数の適合スコアを生成することは、特定の音楽ジャンル及びエンドユーザのプロファイの少なくとも1つに基づくことから請求項13に記載の前記方法。
  17. 前記複数の音楽表記は調号、拍子、メータ、及び音符の値の少なくとも1つ毎に異なる請求項1に記載の前記方法。
  18. 更に、
    前記コンピューティング装置を使用して、前記抽出された音楽情報と音楽的に互換性のある相補的音楽情報を決定することを備え、
    前記採譜された音楽コンテンツは、また、前記相補的音楽情報を含む請求項1に記載の前記方法。
  19. 前記音声信号は、第1タイプの楽器を使用して生成され、前記相補的音楽情報は、第2タイプの楽器のために生成される請求項18に記載の前記方法。
  20. 受信された音声信号に含まれている音楽コンテンツの自動採譜を行うコンピュータプログラム製品であって、
    前記コンピュータプログラム製品は、
    コンピュータ可読プログラムコードを有するコンピュータ可読記憶媒体と共に、1つまたは複数のコンピュータプロセッサによって実行可能な前記コンピュータ可読プログラムコードを備え、
    前記コンピュータ可読プログラムコードは、
    前記音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するために受信した第1音声信号を処理し、
    前記抽出された音楽情報の選択的音楽解釈を表わす複数の音楽表記を生成し、
    前記受信された音声信号の前記音楽コンテンツを採譜する前記複数の音楽表記の選択された1つを適用することができる、前記コンピュータプログラム製品。
  21. 受信された音声信号に含まれる音楽コンテンツの自動採譜を実行する音楽採譜装置であって、
    前記装置は、
    1つまたは複数のコンピュータプロセッサを有し、
    前記コンピュータプロセッサは、
    前記音楽コンテンツの少なくとも一部を特徴付ける音楽情報を抽出するために前記受信された音声信号を処理し、
    前記抽出された音楽情報の選択的音楽解釈を表わす複数の音楽表記を生成し、
    前記受信された音声信号の前記音楽コンテンツを採譜するために前記複数の音楽表記の選択された1つを適用し、
    前記採譜された音楽コンテンツを出力する、ように構成された前記音楽採譜装置。
  22. 前記採譜された音楽コンテンツの出力は、前記1つまたは複数のコンピュータプロセッサに結合されたディスプレイ装置を使用して実行される請求項21に記載の前記音楽採譜装置。
  23. 前記複数の音楽表記の1つを選択することは、前記1つまたは複数のコンピュータプロセッサに結合された入力装置を使用して実行される請求項21に記載の前記音楽採譜装置。
  24. 前記複数の音楽表記は、調号、拍子、メータ及び音符の値の少なくとも1つが異なる請求項21に記載の前記音楽採譜装置。
  25. 前記1つまたは複数のコンピュータプロセッサは更に、
    前記抽出された音楽情報と音楽的に互換性のある相補的音楽情報を決定するように構成され、
    前記採譜された音楽コンテンツ出力はまた、前記相補的音楽情報を含んでいる請求項21に記載の前記音楽採譜装置。
  26. 前記1以上のコンピュータプロセッサは更に、
    前記相補的音楽情報に対応する相補的音声信号を生成し、
    前記受信された音声信号と同じ時期に前記1つまたは複数のコンピュータプロセッサに結合された音声出力装置を使用して前記相補的音声信号を出力するように構成された、請求項25に記載の前記音楽採譜装置。
JP2016006938A 2015-01-20 2016-01-18 音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜 Active JP6735100B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562105521P 2015-01-20 2015-01-20
US62/105,521 2015-01-20

Publications (2)

Publication Number Publication Date
JP2016136251A true JP2016136251A (ja) 2016-07-28
JP6735100B2 JP6735100B2 (ja) 2020-08-05

Family

ID=55357848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016006938A Active JP6735100B2 (ja) 2015-01-20 2016-01-18 音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜

Country Status (4)

Country Link
US (1) US9773483B2 (ja)
EP (1) EP3048607B1 (ja)
JP (1) JP6735100B2 (ja)
CN (1) CN105810190B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019201939A (ja) * 2018-05-24 2019-11-28 学校法人立命館 譜面データ生成モデルの学習装置、譜面データ生成器、及びコンピュータプログラム
US20210241735A1 (en) * 2020-01-31 2021-08-05 Obeebo Labs Ltd. Systems, devices, and methods for computer-generated musical compositions
WO2022244403A1 (ja) * 2021-05-19 2022-11-24 ヤマハ株式会社 楽譜作成装置、訓練装置、楽譜作成方法および訓練方法
WO2024085175A1 (ja) * 2022-10-18 2024-04-25 ヤマハ株式会社 データ処理方法およびプログラム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741327B2 (en) * 2015-01-20 2017-08-22 Harman International Industries, Incorporated Automatic transcription of musical content and real-time musical accompaniment
JP6735100B2 (ja) 2015-01-20 2020-08-05 ハーマン インターナショナル インダストリーズ インコーポレイテッド 音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜
US9721551B2 (en) 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
US9711121B1 (en) * 2015-12-28 2017-07-18 Berggram Development Oy Latency enhanced note recognition method in gaming
CN108074553A (zh) * 2016-11-18 2018-05-25 北京酷我科技有限公司 一种钢琴演奏的评价方法及系统
EP3389028A1 (en) * 2017-04-10 2018-10-17 Sugarmusic S.p.A. Automatic music production from voice recording.
US20180366096A1 (en) * 2017-06-15 2018-12-20 Mark Glembin System for music transcription
US10504498B2 (en) 2017-11-22 2019-12-10 Yousician Oy Real-time jamming assistance for groups of musicians
US11212637B2 (en) * 2018-04-12 2021-12-28 Qualcomm Incorproated Complementary virtual audio generation
SE542890C2 (en) * 2018-09-25 2020-08-18 Gestrument Ab Instrument and method for real-time music generation
JP7230464B2 (ja) * 2018-11-29 2023-03-01 ヤマハ株式会社 音響解析方法、音響解析装置、プログラムおよび機械学習方法
US10762887B1 (en) * 2019-07-24 2020-09-01 Dialpad, Inc. Smart voice enhancement architecture for tempo tracking among music, speech, and noise
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
EP4055589A1 (en) * 2020-02-05 2022-09-14 Harmonix Music Systems, Inc. Techniques for processing chords of musical content and related systems and methods
CN112071287A (zh) * 2020-09-10 2020-12-11 北京有竹居网络技术有限公司 用于生成歌谱的方法、装置、电子设备和计算机可读介质
SE544738C2 (en) * 2020-12-22 2022-11-01 Algoriffix Ab Method and system for recognising patterns in sound
US11948543B1 (en) * 2022-12-12 2024-04-02 Muse Cy Limited Computer-implemented method and system for editing musical score

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099092A (ja) * 1998-09-18 2000-04-07 Dainippon Printing Co Ltd 音響信号の符号化装置および符号データの編集装置
JP2001236066A (ja) * 2000-02-21 2001-08-31 Yamaha Corp 作曲機能を備えた携帯電話機
US20050086052A1 (en) * 2003-10-16 2005-04-21 Hsuan-Huei Shih Humming transcription system and methodology
JP2007193222A (ja) * 2006-01-20 2007-08-02 Casio Comput Co Ltd メロディ入力装置及び楽曲検索装置
JP2010521021A (ja) * 2007-02-14 2010-06-17 ミューズアミ, インコーポレイテッド 楽曲ベースの検索エンジン
JP2014013340A (ja) * 2012-07-05 2014-01-23 Pioneer Electronic Corp 作曲支援装置、作曲支援方法、作曲支援プログラム、作曲支援プログラムを格納した記録媒体およびメロディ検索装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4356752A (en) 1980-01-28 1982-11-02 Nippon Gakki Seizo Kabushiki Kaisha Automatic accompaniment system for electronic musical instrument
US4960031A (en) * 1988-09-19 1990-10-02 Wenger Corporation Method and apparatus for representing musical information
US5869783A (en) 1997-06-25 1999-02-09 Industrial Technology Research Institute Method and apparatus for interactive music accompaniment
JP3582359B2 (ja) 1998-05-20 2004-10-27 ヤマハ株式会社 楽譜割付け装置及び楽譜割付けプログラムを記録したコンピュータで読み取り可能な記録媒体
JP3533974B2 (ja) 1998-11-25 2004-06-07 ヤマハ株式会社 曲データ作成装置および曲データ作成プログラムを記録したコンピュータで読み取り可能な記録媒体
JP3879357B2 (ja) 2000-03-02 2007-02-14 ヤマハ株式会社 音声信号または楽音信号の処理装置およびその処理プログラムが記録された記録媒体
US6225546B1 (en) * 2000-04-05 2001-05-01 International Business Machines Corporation Method and apparatus for music summarization and creation of audio summaries
DE10251112A1 (de) * 2002-11-02 2004-05-19 Philips Intellectual Property & Standards Gmbh Verfahren und System zur Spracherkennung
US20060111917A1 (en) * 2004-11-19 2006-05-25 International Business Machines Corporation Method and system for transcribing speech on demand using a trascription portlet
US7705231B2 (en) 2007-09-07 2010-04-27 Microsoft Corporation Automatic accompaniment for vocal melodies
US8168877B1 (en) 2006-10-02 2012-05-01 Harman International Industries Canada Limited Musical harmony generation from polyphonic audio signals
US8473283B2 (en) * 2007-11-02 2013-06-25 Soundhound, Inc. Pitch selection modules in a system for automatic transcription of sung or hummed melodies
KR20100111164A (ko) * 2009-04-06 2010-10-14 삼성전자주식회사 사용자의 발화의도를 파악하는 음성 대화 처리장치 및 음성 대화 처리방법
US9251776B2 (en) 2009-06-01 2016-02-02 Zya, Inc. System and method creating harmonizing tracks for an audio input
US9257053B2 (en) 2009-06-01 2016-02-09 Zya, Inc. System and method for providing audio for a requested note using a render cache
US8507781B2 (en) 2009-06-11 2013-08-13 Harman International Industries Canada Limited Rhythm recognition from an audio signal
EP2362378B1 (en) 2010-02-25 2016-06-08 YAMAHA Corporation Generation of harmony tone
US8541676B1 (en) * 2010-03-06 2013-09-24 Alexander Waldman Method for extracting individual instrumental parts from an audio recording and optionally outputting sheet music
US8907195B1 (en) 2012-01-14 2014-12-09 Neset Arda Erol Method and apparatus for musical training
US8829322B2 (en) 2012-10-26 2014-09-09 Avid Technology, Inc. Metrical grid inference for free rhythm musical input
US20140142928A1 (en) 2012-11-21 2014-05-22 Harman International Industries Canada Ltd. System to selectively modify audio effect parameters of vocal signals
DE112013005807T5 (de) 2012-12-05 2015-08-20 Sony Corporation Vorrichtung und Verfahren zur Erzeugung einer Echtzeitmusikbegleitung
US9012754B2 (en) 2013-07-13 2015-04-21 Apple Inc. System and method for generating a rhythmic accompaniment for a musical performance
CN103915092B (zh) * 2014-04-01 2019-01-25 百度在线网络技术(北京)有限公司 语音识别方法和装置
US9123315B1 (en) * 2014-06-30 2015-09-01 William R Bachand Systems and methods for transcoding music notation
JP6735100B2 (ja) 2015-01-20 2020-08-05 ハーマン インターナショナル インダストリーズ インコーポレイテッド 音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜
US9741327B2 (en) * 2015-01-20 2017-08-22 Harman International Industries, Incorporated Automatic transcription of musical content and real-time musical accompaniment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099092A (ja) * 1998-09-18 2000-04-07 Dainippon Printing Co Ltd 音響信号の符号化装置および符号データの編集装置
JP2001236066A (ja) * 2000-02-21 2001-08-31 Yamaha Corp 作曲機能を備えた携帯電話機
US20050086052A1 (en) * 2003-10-16 2005-04-21 Hsuan-Huei Shih Humming transcription system and methodology
JP2007193222A (ja) * 2006-01-20 2007-08-02 Casio Comput Co Ltd メロディ入力装置及び楽曲検索装置
JP2010521021A (ja) * 2007-02-14 2010-06-17 ミューズアミ, インコーポレイテッド 楽曲ベースの検索エンジン
JP2014013340A (ja) * 2012-07-05 2014-01-23 Pioneer Electronic Corp 作曲支援装置、作曲支援方法、作曲支援プログラム、作曲支援プログラムを格納した記録媒体およびメロディ検索装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019201939A (ja) * 2018-05-24 2019-11-28 学校法人立命館 譜面データ生成モデルの学習装置、譜面データ生成器、及びコンピュータプログラム
JP7193831B2 (ja) 2018-05-24 2022-12-21 学校法人 関西大学 譜面データ生成モデルの構築方法、譜面データ生成器、譜面データ生成方法及びコンピュータプログラム
US20210241735A1 (en) * 2020-01-31 2021-08-05 Obeebo Labs Ltd. Systems, devices, and methods for computer-generated musical compositions
US12027145B2 (en) * 2020-01-31 2024-07-02 Obeebo Labs Ltd. Systems, devices, and methods for computer-generated musical compositions
WO2022244403A1 (ja) * 2021-05-19 2022-11-24 ヤマハ株式会社 楽譜作成装置、訓練装置、楽譜作成方法および訓練方法
WO2024085175A1 (ja) * 2022-10-18 2024-04-25 ヤマハ株式会社 データ処理方法およびプログラム

Also Published As

Publication number Publication date
JP6735100B2 (ja) 2020-08-05
EP3048607A3 (en) 2016-08-31
US20160210947A1 (en) 2016-07-21
US9773483B2 (en) 2017-09-26
EP3048607A2 (en) 2016-07-27
EP3048607B1 (en) 2017-12-27
CN105810190B (zh) 2021-02-12
CN105810190A (zh) 2016-07-27

Similar Documents

Publication Publication Date Title
JP6735100B2 (ja) 音楽コンテンツ及びリアルタイム音楽伴奏の自動採譜
US9741327B2 (en) Automatic transcription of musical content and real-time musical accompaniment
US10964298B2 (en) Network musical instrument
Dittmar et al. Music information retrieval meets music education
US9672800B2 (en) Automatic composer
US20120312145A1 (en) Music composition automation including song structure
JP2012103603A (ja) 情報処理装置、楽曲区間抽出方法、及びプログラム
JP2012532340A (ja) 音楽教育システム
Lerch et al. An interdisciplinary review of music performance analysis
US10032443B2 (en) Interactive, expressive music accompaniment system
Danielsen et al. Effects of instructed timing and tempo on snare drum sound in drum kit performance
Delgado et al. A state of the art on computational music performance
d'Alessandro et al. Drawing melodies: Evaluation of chironomic singing synthesis
Lerch Software-based extraction of objective parameters from music performances
Dannenberg New interfaces for popular music performance
JP5297662B2 (ja) 楽曲データ加工装置、カラオケ装置、及びプログラム
Bacot et al. The creative process of sculpting the air by Jesper Nordin: conceiving and performing a concerto for conductor with live electronics
Subramanian Modelling gamakas of carnatic music as a synthesizer for sparse prescriptive notation
Danielsen et al. There’s more to timing than time: Investigating musical microrhythm across disciplines and cultures
Sion Harmonic interaction for monophonic instruments through musical phrase to scale recognition
JP7425558B2 (ja) コード検出装置及びコード検出プログラム
Müller et al. Music signal processing
Zuo Towards automated segmentation of repetitive music recordings
Schulmeister Learning Strategies for Contemporary Music: Rhythmic Translation, Choreography, and Instrumental Reconception
Robertson Interactive real-time musical systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200713

R150 Certificate of patent or registration of utility model

Ref document number: 6735100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250