JP4548424B2 - 楽音処理装置およびプログラム - Google Patents

楽音処理装置およびプログラム Download PDF

Info

Publication number
JP4548424B2
JP4548424B2 JP2007001058A JP2007001058A JP4548424B2 JP 4548424 B2 JP4548424 B2 JP 4548424B2 JP 2007001058 A JP2007001058 A JP 2007001058A JP 2007001058 A JP2007001058 A JP 2007001058A JP 4548424 B2 JP4548424 B2 JP 4548424B2
Authority
JP
Japan
Prior art keywords
descriptor
data
unit
indicating
musical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007001058A
Other languages
English (en)
Other versions
JP2008170504A (ja
Inventor
琢哉 藤島
ボナダ ジョルディ
デ ボア マールテン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2007001058A priority Critical patent/JP4548424B2/ja
Priority to EP08100049A priority patent/EP1944752A3/en
Priority to US12/006,918 priority patent/US7750228B2/en
Publication of JP2008170504A publication Critical patent/JP2008170504A/ja
Application granted granted Critical
Publication of JP4548424B2 publication Critical patent/JP4548424B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/02Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/06Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
    • G10H1/14Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour during execution
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • G10H1/183Channel-assigning means for polyphonic instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • G10H1/344Structural association with individual keys
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/008Means for controlling the transition from one tone waveform to another
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/095Inter-note articulation aspects, e.g. legato or staccato
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/381Manual tempo setting or adjustment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/555Tonality processing, involving the key in which a musical piece or melody is played
    • G10H2210/565Manual designation or selection of a tonality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/221Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/135Library retrieval index, i.e. using an indexing scheme to efficiently retrieve a music piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/155Library update, i.e. making or modifying a musical database using musical parameters as indices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/025Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
    • G10H2250/035Crossfade, i.e. time domain amplitude envelope control of the transition between musical sounds or melodies, obtained for musical purposes, e.g. for ADSR tone generation, articulations, medley, remix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/621Waveform interpolation
    • G10H2250/625Interwave interpolation, i.e. interpolating between two different waveforms, e.g. timbre or pitch or giving one waveform the shape of another while preserving its frequency or vice versa
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、予め収録された複数の楽音データを選択的に使用して楽音を生成する技術に関する。
電子楽器の操作子(例えば鍵)に対する操作に応じて複数の楽音データの何れかを選択的に出力する技術が従来から提案されている。例えば特許文献1には、楽曲を区分した各区間の楽音データと電子楽器の操作子との対応を予め定義(マッピング)した構成が開示されている。利用者が特定の操作子を操作すると、当該操作子に対応づけられた楽音データが再生される。
特開2006−106754号公報
しかし、特許文献1の技術においては、電子楽器に対する入力と楽音データとの関連を定義するために事前に膨大な処理を実行する必要がある。利用者による操作に応じて生成される楽音を多様化するためには楽音データの個数を充分に確保する必要があるから、以上の問題は特に深刻化する。このような事情を背景として、本発明は、入力と楽音データとの関連を定義するための負荷を軽減するという課題の解決をひとつの目的としている。
以上の課題を解決するために、本発明に係る楽音処理装置は、楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子(例えば図2の記述子P)とを記憶する記憶手段と、入力装置(例えば図1の演奏装置60)に対する操作に応じた入力データから音楽的な特徴を示す第2記述子(例えば図1の記述子Q)を生成する記述子生成手段と、第2記述子と各素片の第1記述子との類否を示す類否指標値を算定する類否算定手段と、各素片の類否指標値に基づいて素片を選択する素片選択手段と、素片選択手段が選択した各素片の楽音データから出力データを生成するデータ生成手段とを具備する。
以上の態様においては、第1記述子と第2記述子との類否指標値に応じて素片が選択されるから、入力データと第1記述子との関連を事前に定義しておく必要はない。また、例えば類否指標値が類似を示す素片を素片選択手段が選択する態様によれば、入力装置に対する操作に連関する素片が出力データの生成に使用されるから、利用者の意図を適切に反映した楽音を生成することが可能である。
本発明における素片は、楽曲を複数に区分した各区間である。さらに好適な態様において、拍点に同期して楽曲を区分した区間が素片とされる。例えば、ひとつまたは複数の拍を単位として楽曲を区分した区間や相前後する各拍点の間隔を複数に区分した区間(例えば1/2拍や1/4拍に相当する時間長の区間)が素片とされる。以上のように楽曲の拍点に同期した素片を利用する構成によれば、リズム感が自然な楽音を生成することができる。
第1記述子や第2記述子の内容は本発明において任意であるが、例えば以下の態様が採用される。
例えば、第1記述子が、素片に含まれる楽音の音高と音量との組合せ(例えば図2におけるHPCPやLPF-HPCP)を含む態様においては、入力データは、入力装置において利用者が操作した操作子を示す操作子データ(例えばノートナンバ)と当該操作子に対する操作の強度を示す強度データ(例えばベロシティ)とを含み、記述子生成手段は、操作子データに対応した音高と強度データに対応した音量との組合せを含む第2記述子を生成する。以上の態様においては、例えば、利用者が入力装置の操作に応じて指定した音高と音量との組合せに類似した音高および音量の組合せを第1記述子に含む素片が出力データの生成のために選択される。
第1記述子が、素片に含まれる楽音の音量を含む態様においては、入力データは、入力装置の操作子に対する操作の強度を示す強度データを含み、記述子生成手段は、強度データに対応した音量を含む第2記述子を生成する。以上の態様においては、例えば、入力装置に対する操作の強度に応じて利用者が指定した音量に類似した音量を第1記述子に含む素片が選択される。
第1記述子が、素片に含まれる和音のスペクトル重心を含む態様においては、入力データは、入力装置において利用者が操作した操作子を示す操作子データを含み、記述子生成手段は、利用者が並列に操作した複数の操作子の操作子データに対応する音高の平均値をスペクトル重心に対応した周波数として含む第2記述子を生成する。以上の態様においては、例えば、利用者が入力装置の操作に応じて指定した和音に類似する素片が出力データの生成のために選択される。
第1記述子が、素片内における楽音の変化の程度を示す変化度を含む態様においては、入力データは、入力装置の操作子に対する操作後の押圧の状態を示すアフタータッチデータを含み、記述子生成手段は、アフタータッチデータに対応した変化度を含む第2記述子を生成する。以上の態様においては、例えば、操作後の操作子に対する押圧の状態に対応した変化度に類似する変化度を第1記述子に含む素片が出力データの生成のために選択される。
第1記述子が、素片におけるテンポを含む態様においては、入力データは、利用者の運動に同期した拍点を示す拍点データを含み、記述子生成手段は、拍点データが示す拍点に応じたテンポを含む第2記述子を生成する。以上の態様においては、利用者が入力装置の操作によって指定したテンポに類似するテンポを第1記述子に含む素片が出力データの生成のために選択される。
第1記述子が、素片内の楽音の種類数を示す複雑度を含む態様においては、入力データは、入力装置において利用者が操作した操作子を示す操作子データを含み、記述子生成手段は、操作子データが示す操作子に対応した楽音の音高の範囲の広さに応じた複雑度を含む第2記述子を生成する。
第1記述子が、素片の時間長を含む態様においては、入力データは、入力装置の操作子に対する操作後の押圧の状態を示すアフタータッチデータを含み、記述子生成手段は、アフタータッチデータに応じた時間長を含む第2記述子を生成する。
また、本発明の好適な態様において、入力データは、入力装置の操作子に対する操作後の押圧の状態を示すアフタータッチデータを含み、データ生成手段は、素片選択手段が選択した複数の素片の楽音データのうちアフタータッチデータに応じた個数の楽音データを混合することで出力データを生成する。
本発明の別の態様に係る楽音処理装置は、楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段と、入力装置のうち高音に対応する部分の各操作子の操作に応じた入力データから音楽的な特徴を示す第2記述子を生成し、入力装置のうち低音に対応する部分の各操作子の操作に応じた入力データから音楽的な特徴を示す第3記述子を生成する記述子生成手段と、第2記述子と各素片の第1記述子との類否を示す第1類否指標値と、第3記述子と各素片の第1記述子との類否を示す第2類否指標値とを算定する類否算定手段と、各素片の第1類否指標値に基づいて素片を選択するとともに各素片の第2類否指標値に基づいて素片を選択する素片選択手段と、素片選択手段が選択した各素片の楽音データから出力データを生成するデータ生成手段とを具備する。

本発明の好適な態様において、入力データは、利用者の運動に同期した拍点を示す拍点データを含み、データ生成手段は、拍点データが示す拍点に同期するように各素片の楽音データを配列する連結部を含む。拍点データが示す拍点に同期するように各素片の楽音データを配列することで出力データが生成されるから、出力データの楽音のテンポを利用者が適宜に制御できるという利点がある。なお、例えば楽音データの時間長が素片ごとに相違する場合には、拍点データが示す各拍点の間隔に応じた時間長となるように各素片の楽音データを加工する加工部をデータ生成手段が含む構成も好適に採用される。以上の構成によれば、各素片の楽音が円滑に連続する自然な楽音を生成することが可能となる。
本発明の好適な態様において、第1記述子および第2記述子の各々は複数種の特徴量を含み、複数種の特徴量の各々について重み値を設定する設定手段を具備し、類否算定手段は、重み値で重み付けされた各特徴量から類否指標値を算定する。以上の態様においては、各特徴量が別個の重み値で重み付けされたうえで類否指標値が算定されるから、特定の特徴量の類否を優先的に考慮して素片を選択することが可能となる。なお、設定手段は、例えば入力装置に対する操作に応じて各特徴量の重み値を設定する。
本発明は、楽音を処理する方法としても特定される。本発明の楽音処理方法は、楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶手段に記憶し、入力装置に対する操作に応じた入力データから音楽的な特徴を示す第2記述子を生成し、第2記述子と各素片の第1記述子との類否を示す類否指標値を算定し、各素片の類否指標値に基づいて素片を選択し、選択した各素片の楽音データから出力データを生成することを特徴とする。以上の方法によれば、本発明に係る楽音処理装置と同様の作用および効果が奏される。
本発明に係る楽音処理装置は、各処理に専用されるDSP(Digital Signal Processor)などのハードウェア(電子回路)によって実現されるほか、CPU(Central Processing Unit)などの汎用の演算処理装置とプログラムとの協働によっても実現される。本発明に係るプログラムは、楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段を具備するコンピュータに、楽音に関する入力データから音楽的な特徴を示す第2記述子を生成する記述子生成処理と、第2記述子と各素片の第1記述子との類否を示す類否指標値を算定する類否算定処理と、各素片の類否指標値に基づいて素片を選択する選択処理と、選択処理で選択した各素片の楽音データから出力データを生成するデータ生成処理とを実行させる内容である。以上のプログラムによっても、本発明に係る楽音処理装置と同様の作用および効果が奏される。なお、本発明のプログラムは、コンピュータが読取可能な記録媒体に格納された形態で利用者に提供されてコンピュータにインストールされるほか、ネットワークを介した配信の形態でサーバ装置から提供されてコンピュータにインストールされる。
<A:楽音処理装置の構成>
図1は、本発明のひとつの形態に係る楽音処理装置の構成を示すブロック図である。図1に示すように、楽音処理装置100は、制御装置10と記憶装置30と入力装置40と出力装置50とを具備するコンピュータシステムによって実現される。制御装置10には演奏装置60が接続される。
制御装置10は、プログラムの実行によって楽音処理装置100の各部を制御する演算処理装置(CPU)である。記憶装置30は、制御装置10が実行するプログラムや制御装置10が処理に使用する各種のデータを記憶する。例えば半導体記憶装置や磁気記憶装置や光ディスク装置が記憶装置30として好適に採用される。図1に示すように、記憶装置30は、複数の楽曲の各々について楽曲データを記憶する。
ひとつの楽曲は、拍点に同期した時点を境界として複数の区間(以下「素片」という)に区分される。本形態における素片は楽曲のひとつの拍に相当する時間長の区間である。したがって、例えば4拍子の楽曲であればひとつの小節を4等分した各区間が素片に相当する。もっとも、素片は、複数の拍に相当する時間長の区間であってもよいし、ひとつの拍を複数に分割した時間長の区間(すなわち1/2拍や1/4拍に相当する区間)であってもよい。また、拍とは無関係に楽曲を区分した区間(例えば拍とは無関係な固定長の区間)や、楽曲内の楽音(例えばドラム音など音量が高い楽音)の発音点から所定の時間長が経過するまでの区間を素片としてもよい。
図2は、楽曲データの構造を示す概念図である。同図に示すように、ひとつの楽曲の楽曲データは、この楽曲を区分した複数の素片の各々について素片データDSを含む。楽曲データは、楽曲の総ての素片の素片データDSを含んでいてもよいし、楽曲の特定の区間(例えばサビの部分)に属する各素片の素片データDSのみを含んでいてもよい。図2に示すように、ひとつの素片に対応した素片データDSは、この素片に含まれる楽音の波形を示す楽音データMと、この素片に含まれる楽音の音楽的な特徴を示す記述子Pとを含む。
図2に示すように、本形態の記述子Pは、HPCP(Harmonics Pitch Class Profile),LPF-HPCP(Low Pass Filter - HPCP),素片内の楽音の音量(エネルギの平均値),スペクトル重心,テンポおよび変化度を含む複数の特徴量で構成される。各特徴量の具体的な内容は以下の通りである。
第1に、HPCPは、図2に示すように、素片に含まれるひとつの楽音または複数の楽音(すなわち和音)の各々について音高と音量との組合せを示す特徴量である。第2に、LPF-HPCPは、素片に含まれる楽音のうち所定の周波数を下回る楽音を対象としたHPCPである。第3に、スペクトル重心(スペクトルセントロイド)は、素片に含まれる楽音(特に和音)の周波数スペクトルの重心に相当する周波数である。第4に、テンポは、単位時間内の拍点の個数(BPM:Beat Per Minute)として定義される。第5に、変化度は、素片内にて楽音が変化する程度を数値化した特徴量である。すなわち、変化度は、例えば素片に含まれる楽音が多い場合や素片内にて音高の変動する回数が多い場合ほど上昇する(換言すると、楽音が素片内にて安定している場合には変化度は低下する)。
図1の入力装置40は、楽音処理装置100に対する各種の指示を利用者が入力するための機器(例えばマウスやキーボード)である。演奏装置60は、利用者による演奏の内容に応じたデータ(以下「入力データ」という)Iを生成する入力装置である。制御装置10は、記憶装置30に格納された複数の楽曲データのうち入力データIに応じた素片の素片データDSを選択的に使用して出力データOを生成する。出力装置50は、制御装置10から出力される出力データOに基づいて放音する。例えば、出力装置50は、出力データOからアナログの信号を生成するD/A変換器と、D/A変換器が出力する信号を増幅する増幅器と、増幅器が出力する信号に応じた音波を出力する放音機器(スピーカやヘッドホン)とを含む。
制御装置10は、記憶装置30内の複数の楽曲データから事前に抽出した複数の素片データDSの集合(以下「候補データ群」という)Gを使用して出力データOを生成する。候補データ群Gとして選択される素片データDSの条件は、入力装置40に対する操作に応じて決定される。例えば、入力装置40に対する操作によって利用者が特定の特徴量を指定すると、制御装置10は、記述子Pにおけるその特徴量が所定値を上回る複数の素片データDSを候補データ群Gとして選別する。また、例えば楽曲のジャンルや歌手名といった書誌的な事項を記憶装置30の各楽曲データに付加しておき、利用者が入力装置40から指定した事項に合致する楽曲データの素片データDSのみを制御装置10が候補データ群Gとして選別する構成も採用される。
図3は、演奏装置60や制御装置10の具体的な構成を示すブロック図である。同図に示すように、演奏装置60は電子楽器62と検出器64とを含む。電子楽器62は、利用者が押下する複数の鍵(操作子)が配列された鍵盤楽器であり、MIDI(Musical Instrument Digital Interface)規格に準拠した入力データI(IA,IB)を利用者の操作(演奏)に応じてリアルタイムに出力する。図3に示すように、電子楽器62は、所定の音高を境界として高音側の部分621と低音側の部分622とに区分される。電子楽器62は、部分621に属する鍵の操作に応じて入力データIAを生成し、部分622に属する鍵の操作に応じて入力データIBを生成する。また、電子楽器62は、楽音の音高の変動を指定するピッチベンドデータPBを利用者による操作に応じて出力する。なお、電子楽器62の具体的な形態は任意である。例えば弦楽器型の電子楽器62を採用してもよい。
図4は、演奏装置60が生成する入力データI(IA,IB,IC)の具体的な内容を示す概念図である。同図に示すように、入力データIAおよびIBの各々は、発音または消音を指示するイベントデータや押鍵後の操作(押圧)の状態を示すアフタータッチデータである。イベントデータは、電子楽器62のうち利用者が操作した鍵に対応した楽音の音高を示すノートナンバと、押鍵の強度を示すベロシティとを含む。アフタータッチデータは、押鍵後の押圧の圧力を指定するプレッシャ(チャンネルプレッシャまたはポリフォニックキープレッシャ)を含む。
図3の検出器64は、利用者の動作を検出するセンサ(例えば加速度センサ)642を含む。検出器64は、センサ642が検出した運動に同期した時点を拍点として指定する拍点データB(入力データIC)を出力する。拍点データBは、例えばセンサ642の検出する加速度が最大となる時点を拍点として指定する。また、検出器64は、利用者の運動が停止すると、当該停止の直前における運動に同期した時点を拍点として指定する拍点データBを継続的に出力する。
図1に示すように、制御装置10は、各々が別個の処理を実行する複数の機能体(記述子生成部12,類否算定部14,素片選択部16,データ生成部18)として動作する。図1および図3に示すように、記述子生成部12は、演奏装置60から供給される入力データI(IA,IB,IC)に基づいて記述子Q(QA,QB,QC)を生成する手段である。記述子Qは、利用者が演奏装置60に対して実施した演奏の音楽的な特徴を記述子Pと同種の特徴量によって記述する。
図3に示すように、記述子生成部12は、生成部12A,12Bおよび12Cを含む。生成部12Aは入力データIAから記述子QAを生成する。同様に、生成部12Bは入力データIBから記述子QBを生成する。図4に示すように、記述子QAは、HPCPとスペクトル重心と音量と変化度とを含み、記述子QBは、LPF-HPCPと音量と変化度とを含む。記述子QAおよびQBの特徴量を入力データIAおよびIBから特定する方法は以下の通りである。
入力データIAがイベントデータである場合、生成部12Aは、入力データIAのノートナンバで指定される各楽音と当該入力データIAのベロシティに応じた音量との組合せを示すHPCPを生成する。さらに、生成部12Aは、入力データIAの複数のノートナンバ(音高)の平均値に基づいてスペクトル重心を特定し、入力データIAのベロシティに基づいて音量を特定する。また、入力データIAがアフタータッチデータである場合、生成部12Aは、入力データIAが指定するプレッシャ(押鍵の圧力)に基づいて変化度を特定する。例えば、プレッシャの数値が大きいほど変化度が増加するように生成部12Aは変化度を設定する。生成部12Bは、生成部12Aと同様の方法で、ノートナンバとベロシティとを含む入力データIB(イベントデータ)からLPF-HPCPと音量とを特定し、プレッシャを含む入力データIB(アフタータッチデータ)から変化度を特定する。
検出器64から出力された拍点データBは、データ生成部18に出力されるとともに入力データICとして記述子生成部12の生成部12Cに出力される。生成部12Cは、図3および図4に示すように入力データICから記述子QCを生成する。記述子QCはテンポを含む。生成部12Cは、入力データIC(拍点データB)によって単位時間内に指定される拍点の回数をテンポとして特定したうえで記述子QCに含ませる。
図1および図3に示すように、類否算定部14は、記述子生成部12が生成した記述子Q(QA,QB,QC)と候補データ群G内の各素片データDSの記述子Pとの類否を示す類否指標値R(RA,RB)を算定する手段である。図3に示すように、類否算定部14は、算定部14Aおよび14Bと設定部14Cとを含む。算定部14Aは、記述子QAおよびQCと各素片データDSの記述子Pとの比較によって候補データ群Gの素片データDSごとに類否指標値RAを算定する。同様に、算定部14Bは、記述子QBおよびQCと各素片データDSの記述子Pとの比較によって素片データDSごとに類否指標値RBを算定する。図3の設定部14Cは、記述子Pおよび記述子Qの各々に含まれる各特徴量について重み値を設定する手段である。本形態の設定部14Cは、入力装置40に対する操作の内容に応じて各特徴量の重み値を設定する。
算定部14Aは、設定部14Cが設定した重み値で重み付けされた各特徴量から類否指標値RAを算定する。例えば、記述子QAおよびQCに含まれる特徴量の種類数がN種類(図4の例示ではN=5)である場合、類否指標値RAは以下の演算式で算定される。
RA=α1・r1+α2・r2+……+αN・rN ……(1)
式(1)における類似度ri(iは1≦i≦Nを満たす整数)は、記述子QAおよびQCにおける第i番目の特徴量と記述子Pにおける同種の特徴量との類似の程度を示す数値である。図4の場合には、記述子QAに属する4種類の特徴量(HPCP,スペクトル重心,音量,変化度)と記述子QCに属する1種類の特徴量(テンポ)とについて、記述子Pにおける同種(5種類)の特徴量の各々との間で類似度r1〜r5(N=5)が算定される。類似度riは、例えば、記述子QAおよびQCと記述子Pとで特徴量が近似するほど大きい数値となるように所定の演算式に基づいて算定される。具体的には、類似度riは、記述子QAまたはQCの特徴量と記述子Pの特徴量との差分値の自乗の逆数である。
また、式(1)における重み値αiは、第i番目の特徴量について設定部14Cが設定した重み値である。式(1)から理解されるように、類否指標値RAは、記述子QAおよびQCの各特徴量と記述子Pの各特徴量とが近似するほど大きい数値となり、かつ、重み値αiの大きい特徴量が近似するほど大きい数値となる。
算定部14Bは、以上と同様の方法によって類否指標値RBを算定する。すなわち、類否指標値RBは、記述子QBおよびQCの各特徴量と記述子Pの同種の各特徴量とが近似するほど大きい数値となり、かつ、設定部14Cが設定した重み値の大きい特徴量が近似するほど大きい数値となる。
図1の素片選択部16は、類否算定部14が素片ごとに算定した類否指標値R(RA,RB)に基づいて候補データ群Gから素片データDSを選択し、この素片データDSの楽音データM(MA,MB)を記憶装置30から取得してデータ生成部18に出力する。図3に示すように、素片選択部16は選択部16Aおよび16Bを含む。選択部16Aは、類否算定部14の算定した類否指標値RAが大きい順番に所定個の素片データDSを候補データ群Gから選択し、ここで選択した各素片データDSの楽音データM(MA)を記憶装置30から読み出して順次にデータ生成部18に出力する。すなわち、電子楽器62の部分621や検出器64に対して利用者が実行した演奏に音楽的な特徴が類似する素片(すなわち演奏の内容に類似する和声間や音色感をもった素片)の楽音データMAが選択的にデータ生成部18に出力される。
同様に、選択部16Bは、類否指標値RBが大きい順番に所定個の素片データDSを候補データ群Gのなかから選択して各素片データDSの楽音データM(MB)をデータ生成部18に出力する。したがって、電子楽器62の部分622や検出器64に対して利用者が実行した演奏に音楽的な特徴が類似する素片の楽音データMBがデータ生成部18に出力される。なお、楽音データM(MA,MB)は、類否指標値R(RA,RB)が大きい順番にデータ生成部18に出力されてもよいし、候補データ群Gにおける配列の順番にデータ生成部18に出力されてもよい。
図1のデータ生成部18は、素片選択部16が出力する楽音データM(MA,MB)に基づいて出力データOを生成する。本形態のデータ生成部18は、図3に示すように、加工部181Aおよび181Bと連結部183Aおよび183Bと加算部185とを含む。加工部181Aは、選択部16Aから供給される楽音データMAを加工したうえで順次に出力する。加工部181Bは、選択部16Bから供給される楽音データMBを加工したうえで順次に出力する。加工部181Aおよび181Bにおける加工の内容について詳述すると以下の通りである。
図5は、データ生成部18における処理の内容を説明するための概念図である。同図においては拍点データBで指定される各拍点が時間軸上に矢印で図示されている。図5に示すように、各楽音データM(M1〜M3)が示す楽音の時間長は区々である。加工部181Aは、検出器64から供給される拍点データBが指定する各拍点の間隔に応じた時間長となるように楽音データMAを伸縮する。図5においては、各拍点の間隔よりも短い時間長の楽音データM1およびM2が伸張され、各拍点の間隔よりも長い時間長の楽音データM3が短縮された場合が例示されている。なお、楽音データMの伸縮には、楽音の音高を変化させずにテンポを調整する様々な公知の技術が採用される。
また、加工部181Aは、電子楽器62から供給されるピッチベンドデータPBに応じて楽音データMAのピッチを変動させる。さらに、加工部181Aは、楽音データMAについて音量の調整やイコライジングを実行したうえで、所定の周波数(例えば電子楽器62の部分621と部分622との境界の音高に相当する周波数)を下回る成分を遮断するフィルタ処理を実行する。以上と同様に、加工部181Bは、楽音データMBに対し、拍点データBに応じた時間長の調整やピッチベンドデータPBに応じたピッチの調整、さらには所定の周波数を上回る成分を遮断するフィルタ処理を実行する。
図3の連結部183Aは、加工部181Aによる加工後の各楽音データMAを連結して出力データOAを生成する手段である。図5に示すように、連結部183Aは、拍点データBの示す拍点にて各楽音データMAの再生が開始され、かつ、相前後する各楽音データMAがクロスフェードを伴なって相互に重複するように、各楽音データMAを連結する。例えば、拍点を始点とする期間T(例えば20ミリ秒程度)の始点から終点にかけて、ひとつの楽音データM1の最後の部分の音量が徐々に低下するとともに別個の楽音データM2の最初の部分の音量が徐々に上昇するといった具合である。以上の構成によれば、各楽音データMが円滑に連結された自然な楽音を生成することができる。
連結部183Bは、連結部183Aと同様の方法で、加工部181Bによる加工後の各楽音データMBを連結して出力データOBを生成する。加算部185は、連結部183Aが生成した出力データOAと連結部183Bが生成した出力データOBとを加算することで出力データOを生成する。出力データOが出力装置50に供給されることで楽音が再生される。
以上に説明したように、本形態においては、記述子Qと記述子Pとの類否指標値Rに応じて素片(素片データDS)が選択されるから、入力データIと記述子Pとの関連を事前に定義しておく必要はない。また、利用者による演奏の内容と音楽的な特徴が連関する素片が出力データOの生成に選択的に使用されるから、利用者による演奏の意図を適切に反映した楽音を再生することが可能である。さらに、利用者による指示に応じて重み付けされた特徴量に基づいて類否指標値Rが算定されるから、利用者が音楽的に特に重視する観点(特徴量)を優先的に反映させた多様な楽音を生成することができる。
本形態においては、高音側の出力データOAを生成する系統と低音側の出力データOBを生成する系統とが個別に設定される。したがって、例えば高音側と低音側とで別個の楽曲の素片データDSが選択され得る。以上の態様によれば、例えばメロディ(高音)とベース音(低音)とが明確に区別された多様な楽音を生成することが可能である。
各楽音データMは、拍点データBが指定する拍点に同期して順次に再生される。したがって、利用者は身体の運動の周期を制御することで楽音のテンポを任意に設定することができる。また、楽音データMは楽曲を拍単位で区分した各素片について生成され、さらに楽音データMはデータ生成部18にて拍点データBの拍点に同期した時間長に調整されるから、統一的なリズム感をもって自然に進行する楽音を生成することが可能である。
記憶装置30に格納された総ての素片データDSのうち候補データ群Gとして抽出された素片データDSのみが出力データOの生成に使用される。したがって、総ての素片データDSが処理の対象となる構成と比較して、制御装置10による処理の負荷(例えば類否算定部14が類否指標値Rを算定する負荷や素片選択部16が素片を選択する負荷)が軽減されるという利点もある。さらに、利用者が指定した条件を満たす素片データDSが候補データ群Gとして抽出されるから、利用者の意図に沿った楽音を生成できるという利点もある。
<B:変形例>
以上の形態には様々な変形を加えることができる。具体的な変形の態様を例示すれば以下の通りである。なお、以下の各態様を適宜に組み合わせてもよい。
(1)変形例1
記述子PやQに含められる特徴量は以上の例示に限定されない。例えば、記述子Pが、楽曲の各素片に含まれる楽音の音高を含むとともに、記述子Qが、入力データI(イベントデータ)のノートナンバに対応した楽音の音高を含む構成も採用される。電子楽器62のうち利用者が操作した鍵の音高に類似する音高を含む素片の楽音データMが出力データOの生成のために選択される。
また、素片内の楽音について音色の複雑さを示す数値(以下「複雑度」という)を記述子Pに含めてもよい。複雑度は、例えば、素片に含まれる楽音の種類が多い場合ほど大きい数値となる。一方、入力データIから生成される記述子Qも複雑度を含む。記述子生成部12は、入力データIのノートナンバが指定する音高の範囲(最高音と最低音との差分値)が広い(例えば別種の多数の音色が含まれる場合)ほど大きい数値となるように記述子Qの複雑度を算定する。以上のように、記述子Pは、素片内の楽音の音楽的な特徴を示す少なくともひとつの特徴量を含んでいれば足り、記述子Qは、利用者による演奏の内容の音楽的な特徴を示す少なくともひとつの特徴量を含んでいれば足りる。
(2)変形例2
以上の形態においては拍点データBが指定する拍点に同期するように楽音データMの時間長が調整される構成を例示したが、楽音データMを伸縮する必要は必ずしもない。例えば、時間長の過不足に拘わらず楽音データMが拍点に同期して配列される構成や、各楽音データMが連続するように配列される(したがって各楽音データMは拍点に必ずしも同期しない)構成も採用される。また、楽音データMを伸縮する構成においても、具体的な処理の内容は適宜に変更される。例えば、楽音の音高も併せて変化するように楽音データMの時間長(テンポ)を調整する構成や、楽音データMに含まれる特定の楽音の波形を適宜に補間することで楽音データMの時間長を調整する構成も採用される。また、拍点から拍間隔よりも短い期間のみで楽音データMを再生する構成とすれば、無音の区間が各拍点の間隔に設定されるから、聴感上において興趣性に富んだリズミカルな楽音を生成することが可能となる。
(3)変形例3
以上の形態においては、類否指標値Rが大きい順番に所定個の素片データDSが選択される構成を例示したが、素片データDSを選択する方法は適宜に変更される。例えば、類否指標値Rが所定の閾値を上回る素片データDSが選択される構成や、類否指標値Rが最大であるひとつの素片データDSのみが選択される構成も採用される。また、素片選択部16による選択の候補となる素片データDSを候補データ群Gに絞り込まない構成(すなわち記憶装置30内の総ての素片データDSについて類否指標値Rの算定と素片選択部16による選択とが実行される構成)としてもよい。
(4)変形例4
以上の構成においては各楽音データMの配列によって出力データOが生成される構成を例示したが、出力データOを生成する方法は任意である。例えば、素片選択部16が選択した複数の楽音データMを所定の比率で混合することで出力データOを生成する構成も採用される。また、楽音データMが示す楽音のピッチを入力データI(IA,IB)におけるノートナンバの音高に変換したうえで出力データOの生成に使用する構成としてもよい。
(5)変形例5
以上の形態においては、アフタータッチデータ(押鍵の圧力)に基づいて特定される特徴量は変化度に限定されない。例えば、アフタータッチデータに応じた素片の時間長を記述子生成部12(生成部12A,12B)が特徴量として特定する構成も採用される。さらに具体的には、アフタータッチデータで指定されるプレッシャが大きいほど、記述子Q(QA,QB)に特徴量として含まれる素片の時間長が短く設定される。一方、記述子Pには楽曲の各素片の時間長が含められる。以上の構成においては、アフタータッチデータに応じた時間長の素片が素片選択部16によって選択される。したがって、例えば、利用者が電子楽器62を押鍵後に押圧するほど時間長の短い素片が選択され、楽音や曲調が短時間で頻繁に変化する楽曲が再生される。
また、素片内にて音色が変化する程度(例えば音色の変化量や変化の頻度)の指標となる数値(以下「音色変化度」という)を記述子Pに含ませ、記述子生成部12がアフタータッチデータに応じた音色変化度を特徴量として特定する構成も採用される。例えば、アフタータッチデータで指定されるプレッシャが大きいほど音色変化度の示す変化の程度が増大するように、記述子生成部12は音色変化度を特定する。以上の構成によれば、利用者が押鍵後に電子楽器62の各鍵を押圧するほど音色の変動が大きい(例えば音色が頻繁に変化する)楽曲が再生される。
さらに、同時に再生(並列に再生)される素片の個数がアフタータッチデータに応じて制御される構成としてもよい。例えば、データ生成部18は、素片選択部16が選択した複数の素片の楽音データMのうち電子楽器62が出力するアフタータッチデータ(入力データIA,IB)に応じた個数の楽音データMを混合することで出力データOを生成する。以上の構成によれば、例えば、利用者が押鍵後に電子楽器62の各鍵を押圧するほど多くの素片が同時に再生される。
なお、以上においては押鍵の強度を示すアフタータッチデータを例示したが、ピッチベンドやモジュレーションホイールといったアサイナブルコントローラに対する入力を、以上の各態様におけるアフタータッチデータの代わりに使用してもよい。
(6)変形例6
類否指標値Rを算定する方法は任意である。例えば、以上においては記述子Pと記述子Qとで特徴量が類似するほど増加する類否指標値R(式(1))を例示したが、類否指標値Rは特徴量が類似するほど減少する数値であってもよい。また、設定部14Cによる重み付けが省略された構成も採用される。例えば、N種類の特徴量を軸線とするN次元空間に記述子Pと記述子Qの各々に対応した座標を設定したときの各座標間の距離(または距離の逆数)を類否指標値Rとして算定してもよい。
(7)変形例7
以上の形態においては制御装置10がプログラムを実行することで出力データOの生成が実現される構成を例示したが、楽音処理装置100は、図1の制御装置10と同様の処理を実行するDSPなどのハードウェア(電子回路)によっても実現される。
本発明のひとつの形態に係る楽音処理装置の構成を示すブロック図である。 楽曲データの構造を示す概念図である。 演奏装置や制御装置の機能的な構成を示すブロック図である。 入力データと記述子との関係を示す概念図である。 データ生成部の動作を説明するためのタイミングチャートである。
符号の説明
100……楽音処理装置、10……制御装置、12……記述子生成部、14……類否算定部、16……素片選択部、18……データ生成部、30……記憶装置、40……入力装置、50……出力装置、60……演奏装置、62……電子楽器、64……検出器、DS……素片データ、M(MA,MB)……楽音データ、P……記述子、I(IA,IB,IC)……入力データ、Q(QA,QB,QC)……記述子、R(RA,RB)……類否指標値、O……出力データ。

Claims (12)

  1. 楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段と、
    入力装置に対する操作に応じた入力データから音楽的な特徴を示す第2記述子を生成する記述子生成手段と、
    前記第2記述子と各素片の前記第1記述子との類否を示す類否指標値を算定する類否算定手段と、
    各素片の類否指標値に基づいて素片を選択する素片選択手段と、
    前記素片選択手段が選択した各素片の楽音データから出力データを生成するデータ生成手段と
    を具備し、
    前記第1記述子は、素片に含まれる和音のスペクトル重心を含み、
    前記入力データは、前記入力装置において利用者が操作した操作子を示す操作子データを含み、
    前記記述子生成手段は、利用者が並列に操作した複数の操作子の操作子データに対応する音高の平均値をスペクトル重心に対応した周波数として含む第2記述子を生成する
    楽音処理装置。
  2. 楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段と、
    入力装置に対する操作に応じた入力データから音楽的な特徴を示す第2記述子を生成する記述子生成手段と、
    前記第2記述子と各素片の前記第1記述子との類否を示す類否指標値を算定する類否算定手段と、
    各素片の類否指標値に基づいて素片を選択する素片選択手段と、
    前記素片選択手段が選択した各素片の楽音データから出力データを生成するデータ生成手段と
    を具備し、
    前記第1記述子は、素片内における楽音の変化の程度を示す変化度を含み、
    前記入力データは、前記入力装置の操作子に対する操作後の押圧の状態を示すアフタータッチデータを含み、
    前記記述子生成手段は、前記アフタータッチデータに対応した変化度を含む第2記述子を生成する
    楽音処理装置。
  3. 楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段と、
    入力装置に対する操作に応じた入力データから音楽的な特徴を示す第2記述子を生成する記述子生成手段と、
    前記第2記述子と各素片の前記第1記述子との類否を示す類否指標値を算定する類否算定手段と、
    各素片の類否指標値に基づいて素片を選択する素片選択手段と、
    前記素片選択手段が選択した各素片の楽音データから出力データを生成するデータ生成手段と
    を具備し、
    前記第1記述子は、素片内の楽音の種類数を示す複雑度を含み、
    前記入力データは、前記入力装置において利用者が操作した操作子を示す操作子データを含み、
    前記記述子生成手段は、前記操作子データが示す操作子に対応した楽音の音高の範囲の広さに応じた複雑度を含む第2記述子を生成する
    楽音処理装置。
  4. 楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段と、
    入力装置に対する操作に応じた入力データから音楽的な特徴を示す第2記述子を生成する記述子生成手段と、
    前記第2記述子と各素片の前記第1記述子との類否を示す類否指標値を算定する類否算定手段と、
    各素片の類否指標値に基づいて素片を選択する素片選択手段と、
    前記素片選択手段が選択した各素片の楽音データから出力データを生成するデータ生成手段と
    を具備し、
    前記第1記述子は、素片の時間長を含み、
    前記入力データは、前記入力装置の操作子に対する操作後の押圧の状態を示すアフタータッチデータを含み、
    前記記述子生成手段は、前記アフタータッチデータに応じた時間長を含む第2記述子を生成する
    楽音処理装置。
  5. 楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段と、
    入力装置に対する操作に応じた入力データから音楽的な特徴を示す第2記述子を生成する記述子生成手段と、
    前記第2記述子と各素片の前記第1記述子との類否を示す類否指標値を算定する類否算定手段と、
    各素片の類否指標値に基づいて複数の素片を選択する素片選択手段と、
    前記素片選択手段が選択した各素片の楽音データから出力データを生成するデータ生成手段と
    を具備し、
    前記入力データは、前記入力装置の操作子に対する操作後の押圧の状態を示すアフタータッチデータを含み、
    前記データ生成手段は、前記素片選択手段が選択した複数の素片の楽音データのうち前記アフタータッチデータに応じた個数の楽音データを混合することで出力データを生成する
    楽音処理装置。
  6. 楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段と、
    入力装置のうち高音に対応する部分の各操作子の操作に応じた入力データから音楽的な特徴を示す第2記述子を生成し、前記入力装置のうち低音に対応する部分の各操作子の操作に応じた入力データから音楽的な特徴を示す第3記述子を生成する記述子生成手段と、
    前記第2記述子と各素片の前記第1記述子との類否を示す第1類否指標値と、前記第3記述子と各素片の前記第1記述子との類否を示す第2類否指標値とを算定する類否算定手段と、
    各素片の第1類否指標値に基づいて素片を選択するとともに各素片の第2類否指標値に基づいて素片を選択する素片選択手段と、
    前記素片選択手段が選択した各素片の楽音データから出力データを生成するデータ生成手段と
    を具備する楽音処理装置。
  7. 楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段を具備するコンピュータに、
    入力装置に対する操作に応じた入力データから音楽的な特徴を示す第2記述子を生成する記述子生成処理と、
    前記第2記述子と各素片の前記第1記述子との類否を示す類否指標値を算定する類否算定処理と、
    各素片の類否指標値に基づいて素片を選択する素片選択処理と、
    前記素片選択処理で選択した各素片の楽音データから出力データを生成するデータ生成処理と
    を実行させるプログラムであって、
    前記第1記述子は、素片に含まれる和音のスペクトル重心を含み、
    前記入力データは、前記入力装置において利用者が操作した操作子を示す操作子データを含み、
    前記記述子生成処理においては、利用者が並列に操作した複数の操作子の操作子データに対応する音高の平均値をスペクトル重心に対応した周波数として含む第2記述子を生成する
    プログラム。
  8. 楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段を具備するコンピュータに、
    入力装置に対する操作に応じた入力データから音楽的な特徴を示す第2記述子を生成する記述子生成処理と、
    前記第2記述子と各素片の前記第1記述子との類否を示す類否指標値を算定する類否算定処理と、
    各素片の類否指標値に基づいて素片を選択する素片選択処理と、
    前記素片選択処理で選択した各素片の楽音データから出力データを生成するデータ生成処理と
    を実行させるプログラムであって、
    前記第1記述子は、素片内における楽音の変化の程度を示す変化度を含み、
    前記入力データは、前記入力装置の操作子に対する操作後の押圧の状態を示すアフタータッチデータを含み、
    前記記述子生成処理においては、前記アフタータッチデータに対応した変化度を含む第2記述子を生成する
    プログラム。
  9. 楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段を具備するコンピュータに、
    入力装置に対する操作に応じた入力データから音楽的な特徴を示す第2記述子を生成する記述子生成処理と、
    前記第2記述子と各素片の前記第1記述子との類否を示す類否指標値を算定する類否算定処理と、
    各素片の類否指標値に基づいて素片を選択する素片選択処理と、
    前記素片選択処理で選択した各素片の楽音データから出力データを生成するデータ生成処理と
    を実行させるプログラムであって、
    前記第1記述子は、素片内の楽音の種類数を示す複雑度を含み、
    前記入力データは、前記入力装置において利用者が操作した操作子を示す操作子データを含み、
    前記記述子生成処理においては、前記操作子データが示す操作子に対応した楽音の音高の範囲の広さに応じた複雑度を含む第2記述子を生成する
    プログラム。
  10. 楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段を具備するコンピュータに、
    入力装置に対する操作に応じた入力データから音楽的な特徴を示す第2記述子を生成する記述子生成処理と、
    前記第2記述子と各素片の前記第1記述子との類否を示す類否指標値を算定する類否算定処理と、
    各素片の類否指標値に基づいて素片を選択する素片選択処理と、
    前記素片選択処理で選択した各素片の楽音データから出力データを生成するデータ生成処理と
    を実行させるプログラムであって、
    前記第1記述子は、素片の時間長を含み、
    前記入力データは、前記入力装置の操作子に対する操作後の押圧の状態を示すアフタータッチデータを含み、
    前記記述子生成処理においては、前記アフタータッチデータに応じた時間長を含む第2記述子を生成する
    プログラム。
  11. 楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段を具備するコンピュータに、
    入力装置に対する操作に応じた入力データから音楽的な特徴を示す第2記述子を生成する記述子生成処理と、
    前記第2記述子と各素片の前記第1記述子との類否を示す類否指標値を算定する類否算定処理と、
    各素片の類否指標値に基づいて複数の素片を選択する素片選択処理と、
    前記素片選択処理で選択した各素片の楽音データから出力データを生成するデータ生成処理と
    を実行させるプログラムであって、
    前記入力データは、前記入力装置の操作子に対する操作後の押圧の状態を示すアフタータッチデータを含み、
    前記データ生成処理においては、前記素片選択処理で選択した複数の素片の楽音データのうち前記アフタータッチデータに応じた個数の楽音データを混合することで出力データを生成する
    プログラム。
  12. 楽曲の各素片の楽音データと各素片の音楽的な特徴を示す第1記述子とを記憶する記憶手段を具備するコンピュータに、
    入力装置のうち高音に対応する部分の各操作子の操作に応じた入力データから音楽的な特徴を示す第2記述子を生成し、前記入力装置のうち低音に対応する部分の各操作子の操作に応じた入力データから音楽的な特徴を示す第3記述子を生成する記述子生成処理と、
    前記第2記述子と各素片の前記第1記述子との類否を示す第1類否指標値と、前記第3記述子と各素片の前記第1記述子との類否を示す第2類否指標値とを算定する類否算定処理と、
    各素片の第1類否指標値に基づいて素片を選択するとともに各素片の第2類否指標値に基づいて素片を選択する素片選択処理と、
    前記素片選択処理で選択した各素片の楽音データから出力データを生成するデータ生成処理と
    を実行させるプログラム。
JP2007001058A 2007-01-09 2007-01-09 楽音処理装置およびプログラム Expired - Fee Related JP4548424B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007001058A JP4548424B2 (ja) 2007-01-09 2007-01-09 楽音処理装置およびプログラム
EP08100049A EP1944752A3 (en) 2007-01-09 2008-01-03 Tone processing apparatus and method
US12/006,918 US7750228B2 (en) 2007-01-09 2008-01-07 Tone processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007001058A JP4548424B2 (ja) 2007-01-09 2007-01-09 楽音処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2008170504A JP2008170504A (ja) 2008-07-24
JP4548424B2 true JP4548424B2 (ja) 2010-09-22

Family

ID=39301477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007001058A Expired - Fee Related JP4548424B2 (ja) 2007-01-09 2007-01-09 楽音処理装置およびプログラム

Country Status (3)

Country Link
US (1) US7750228B2 (ja)
EP (1) EP1944752A3 (ja)
JP (1) JP4548424B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070276668A1 (en) * 2006-05-23 2007-11-29 Creative Technology Ltd Method and apparatus for accessing an audio file from a collection of audio files using tonal matching
WO2007134407A1 (en) * 2006-05-24 2007-11-29 National Ict Australia Limited Selectivity estimation
TWI394142B (zh) * 2009-08-25 2013-04-21 Inst Information Industry 歌聲合成系統、方法、以及裝置
JP5168297B2 (ja) * 2010-02-04 2013-03-21 カシオ計算機株式会社 自動伴奏装置および自動伴奏プログラム
JP2011164171A (ja) * 2010-02-05 2011-08-25 Yamaha Corp データ検索装置
JP5782677B2 (ja) 2010-03-31 2015-09-24 ヤマハ株式会社 コンテンツ再生装置および音声処理システム
EP2573761B1 (en) 2011-09-25 2018-02-14 Yamaha Corporation Displaying content in relation to music reproduction by means of information processing apparatus independent of music reproduction apparatus
JP5494677B2 (ja) 2012-01-06 2014-05-21 ヤマハ株式会社 演奏装置及び演奏プログラム
JP7052339B2 (ja) * 2017-12-25 2022-04-12 カシオ計算機株式会社 鍵盤楽器、方法及びプログラム
GB2597265A (en) * 2020-07-17 2022-01-26 Wejam Ltd Method of performing a piece of music

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000347659A (ja) * 1999-03-26 2000-12-15 Nippon Telegr & Teleph Corp <Ntt> 音楽検索装置,音楽検索方法および音楽検索プログラムを記録した記録媒体
JP2002123287A (ja) * 2000-10-13 2002-04-26 Nippon Telegr & Teleph Corp <Ntt> 音楽特徴量生成方法及び装置と音楽情報検索装置と音楽特徴量生成用プログラムの記録媒体
JP2002278563A (ja) * 2001-03-16 2002-09-27 Sony Corp 情報処理装置および方法、配信システム、プログラム格納媒体、並びにプログラム
JP2004294795A (ja) * 2003-03-27 2004-10-21 Yamaha Corp 楽音合成制御データ、該データを記録した記録媒体、データ作成装置、プログラム及び楽音合成装置
JP2005234304A (ja) * 2004-02-20 2005-09-02 Kawai Musical Instr Mfg Co Ltd 演奏音判定装置および演奏音判定プログラム
JP2005321460A (ja) * 2004-05-06 2005-11-17 Dainippon Printing Co Ltd 映像データへの楽曲データ付加装置
JP2006084749A (ja) * 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5018430A (en) * 1988-06-22 1991-05-28 Casio Computer Co., Ltd. Electronic musical instrument with a touch response function
US5536902A (en) * 1993-04-14 1996-07-16 Yamaha Corporation Method of and apparatus for analyzing and synthesizing a sound by extracting and controlling a sound parameter
FR2785438A1 (fr) * 1998-09-24 2000-05-05 Baron Rene Louis Procede et dispositif de generation musicale
JP4067762B2 (ja) * 2000-12-28 2008-03-26 ヤマハ株式会社 歌唱合成装置
JP4153220B2 (ja) * 2002-02-28 2008-09-24 ヤマハ株式会社 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム
JP3823930B2 (ja) * 2003-03-03 2006-09-20 ヤマハ株式会社 歌唱合成装置、歌唱合成プログラム
JP4265501B2 (ja) * 2004-07-15 2009-05-20 ヤマハ株式会社 音声合成装置およびプログラム
EP1646035B1 (en) * 2004-10-05 2013-06-19 Sony Europe Limited Mapped meta-data sound-playback device and audio-sampling/sample processing system useable therewith
DE102004050368A1 (de) * 2004-10-15 2006-04-20 Siemens Ag Verfahren zum Erstellen eines Musikstücks
JP2006114174A (ja) * 2004-10-18 2006-04-27 Sony Corp コンテンツ再生方法およびコンテンツ再生装置
JP4685864B2 (ja) 2005-03-31 2011-05-18 パナソニック株式会社 画像処理方法、表示画像処理方法、画像処理装置、画像処理プログラム、およびその画像処理装置を含む集積回路

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000347659A (ja) * 1999-03-26 2000-12-15 Nippon Telegr & Teleph Corp <Ntt> 音楽検索装置,音楽検索方法および音楽検索プログラムを記録した記録媒体
JP2002123287A (ja) * 2000-10-13 2002-04-26 Nippon Telegr & Teleph Corp <Ntt> 音楽特徴量生成方法及び装置と音楽情報検索装置と音楽特徴量生成用プログラムの記録媒体
JP2002278563A (ja) * 2001-03-16 2002-09-27 Sony Corp 情報処理装置および方法、配信システム、プログラム格納媒体、並びにプログラム
JP2004294795A (ja) * 2003-03-27 2004-10-21 Yamaha Corp 楽音合成制御データ、該データを記録した記録媒体、データ作成装置、プログラム及び楽音合成装置
JP2005234304A (ja) * 2004-02-20 2005-09-02 Kawai Musical Instr Mfg Co Ltd 演奏音判定装置および演奏音判定プログラム
JP2005321460A (ja) * 2004-05-06 2005-11-17 Dainippon Printing Co Ltd 映像データへの楽曲データ付加装置
JP2006084749A (ja) * 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法

Also Published As

Publication number Publication date
US20080236364A1 (en) 2008-10-02
JP2008170504A (ja) 2008-07-24
EP1944752A3 (en) 2008-11-19
US7750228B2 (en) 2010-07-06
EP1944752A2 (en) 2008-07-16

Similar Documents

Publication Publication Date Title
JP4548424B2 (ja) 楽音処理装置およびプログラム
WO2012074070A1 (ja) リズムパターンの類似度に基づく楽音データの検索
US9536508B2 (en) Accompaniment data generating apparatus
CN1750116B (zh) 自动表演风格确定设备和方法
US20110203444A1 (en) Generation of harmony tone
US8791350B2 (en) Accompaniment data generating apparatus
US6294720B1 (en) Apparatus and method for creating melody and rhythm by extracting characteristic features from given motif
JP5899833B2 (ja) 楽曲生成装置および楽曲生成方法
JP6175812B2 (ja) 楽音情報処理装置及びプログラム
JP2806351B2 (ja) 演奏情報分析装置及びそれを用いた自動編曲装置
US9384717B2 (en) Tone generation assigning apparatus and method
EP1391873B1 (en) Rendition style determination apparatus and method
JP2002073064A (ja) 音声処理装置、音声処理方法および情報記録媒体
JP5995343B2 (ja) 電子楽器
JP5088179B2 (ja) 音処理装置およびプログラム
JP2019179277A (ja) 自動伴奏データ生成方法及び装置
JP7505196B2 (ja) ベースライン音自動生成装置、電子楽器、ベースライン音自動生成方法及びプログラム
KR20200047198A (ko) 자동작곡장치 및 그 방법
JP5899832B2 (ja) 楽曲生成装置および楽曲生成方法
JP3455976B2 (ja) 楽音発生装置
JP2684833B2 (ja) 楽音信号発生装置
JPH04174498A (ja) 楽音信号発生装置
JP6036800B2 (ja) 音信号生成装置及びプログラム
JP5776205B2 (ja) 音信号生成装置及びプログラム
JP3556997B2 (ja) 電子楽曲発生装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091013

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100615

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100628

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees