JP2005516285A - 検索された曲目をいっしょに演奏する音楽検索システム - Google Patents

検索された曲目をいっしょに演奏する音楽検索システム Download PDF

Info

Publication number
JP2005516285A
JP2005516285A JP2003562820A JP2003562820A JP2005516285A JP 2005516285 A JP2005516285 A JP 2005516285A JP 2003562820 A JP2003562820 A JP 2003562820A JP 2003562820 A JP2003562820 A JP 2003562820A JP 2005516285 A JP2005516285 A JP 2005516285A
Authority
JP
Japan
Prior art keywords
music
searched
volume
user input
song
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003562820A
Other languages
English (en)
Other versions
JP2005516285A5 (ja
Inventor
ボドレーンデル,マールテン ペー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2005516285A publication Critical patent/JP2005516285A/ja
Publication of JP2005516285A5 publication Critical patent/JP2005516285A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • G06F16/634Query by example, e.g. query by humming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/056MIDI or other note-oriented file format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/061MP3, i.e. MPEG-1 or MPEG-2 Audio Layer III, lossy audio compression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/141Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本発明は、音楽を表すユーザデータ(310)を入力する入力手段(210)と、曲目を記憶する記憶手段(220)と、前記記憶手段(220)に記憶された前記曲目の1つと前記ユーザ入力データ(310)とが一致することを発見したとき、前記ユーザ入力データ(310)により所望の曲目(330)を検索する検索手段(230)と、前記検索された曲目の少なくとも一部を再生する出力手段(250)とを有する音楽検索システムに関する。本発明によると、システムはさらに、前記ユーザ入力データ(310)から、前記検索された曲目(330)内の現在位置(360)を決定する出力制御手段(240)であって、前記検索された曲目の前記一部(380)の開始(370)を前記位置(360)と実質的に一致させるように適合している。本発明は、開示された音楽検索システムを実施するために好適な音楽検索方法にも関する。

Description

本発明は、音楽を表すユーザデータを入力する入力手段と、曲目を記憶する記憶手段と、前記ユーザ入力データに従って前記記憶手段に記憶された曲目と前記ユーザ入力データの間の一致を発見して所望の曲目を検索する検索手段と、検索された曲目の少なくとも一部を再生する出力手段とを有する音楽検索システムに関する。
本発明は、音楽を表すユーザデータを入力するステップと、前記ユーザ入力データに従って前記記憶手段に記憶された曲目と前記ユーザ入力データの間の一致を発見して所望の曲目を検索するステップと、検索された曲目の少なくとも一部を再生するステップとを有する音楽検索方法にも関する。
上記のようなシステムは、日本国公開特許公報第2001-075985号から知られている。この文献に開示されている音楽検索機器は、音楽の題名を知らなくとも比較的短い時間で曲目を選択することができる。このシステムが必要とするのは、曲目の一部を歌ったりハミングしたりするだけである。特に、その音楽検索機器は、音声入力手段から入力された曲目の一部を歌ったりハミングしたりしたものに一致する曲目を検索しその結果を表示する表示手段を含む。さらに、この機器は、音声入力手段から入力された歌やハミングに対応する検索された曲目の一部を再生する。一致する曲目が一曲だけ見つかると、検出された曲目の一部の再生が自動的に始まる。この既知の機器は、表示手段に曲目検出の結果を送信し、検索された曲目の対応する一部の音楽再生を実行するマイクロプロセッサ(CPU)を含む。
日本国公開特許公報第2001-075985号は、実施形態として、先に入力された歌やハミングに対応する音楽の一部を再生する方法を開示している。その実施形態によると、ユーザが記憶している音楽を歌うかハミングし、その装置により再生された音楽の一部を聴く。それによると、記載された実施形態は、その装置により始めから再生される音楽の対応する一部を聴かずに、さらに歌ったりハミングしたりすることはユーザに許さない。先行技術として知られている音楽検索システムは、音楽の検索を向上するために開発されたものであり、十分使い易くはない。
本発明の目的は、より判断力がありユーザフレンドリーな仕方で検索した曲目を再生する、最初の段落に記載した種類の音楽検索システムを提供することである。
本発明の目的は、システムが、前記ユーザ入力データから、前記検索された曲目内の現在位置を決定する出力制御手段であって、前記検索された曲目の前記一部の開始を前記位置と実質的に一致させるように適合しているものを有することにより実現される。
ユーザは、システムが所望する曲目を検索している間、歌、ハミング、または口笛を続けてもよい。その後、システムは、ユーザが現在歌っている、ハミングしている、または口笛を吹いている、検索した曲目の中の現在位置を決定する。よって、システムは、決定した一と一致する検索した曲目の一部の始めを特定し、さらにその部分を再生する。言い換えると、システムは、さらに入力されたユーザデータと一致する検索した曲目内の部分を予測し再生する。システムは、ユーザが歌い、ハミングし、または口笛を吹いている歌または他の曲目を認識し、それに合わせる。ユーザは歌、ハミング、または口笛を続けることができ、同時に再生された音楽を聴くことができる。
本発明の一実施形態によると、システムは、前記ユーザ入力データから少なくとも1つのパラメータを決定し、前記検索された曲目の前記一部の再生を前記パラメータに適合させるようさらに構成されている出力制御手段をさらに有する。そうして、ピッチ、テンポ、音量等のパラメータにより検索した音楽の再生を修正する。例えば、システムはユーザ入力データから、ユーザが歌い、ハミングし、または口笛を吹いているテンポを決定できる。システムは、ユーザが歌い、ハミングし、または口笛を吹いている決定されたテンポで検索した曲目の一部をさらに再生する。
本発明の他の実施形態において、ユーザが間違って歌い、ハミングし、または口笛を吹いていたら、システムにより、検索された曲目に合わせて、歌、ハミング、口笛を容易に修正することができる。一の実施形態において、システムはユーザ入力データから少なくとも一の第1のパラメータを決定し、検索した曲目から少なくとも一の第2のパラメータを決定する。第1と第2のパラメータは、ピッチ、テンポ、音量等のパラメータである。よって、第2のパラメータは、検索された曲目の正しい再生の基準パラメータである。システムは、第1のパラメータの少なくとも1つを第2のパラメータの少なくとも1つとさらに比較する。第1のパラメータの少なくとも1つが、第2のパラメータの少なくとも1つと異なるとき、システムは、第1のパラメータの少なくとも1つと類似したさらなるパラメータの少なくとも1つで、検索した曲目の一部を再生し始めるように構成されている。その後、システムは、さらなるパラメータの少なくとも1つで検索した曲目の一部を再生する。例えば、テンポが、第2のパラメータの対応する1つに徐々に修正されて再生される。最後に、システムは、第2のパラメータで、検索した曲目の一部を正しく再生する。そうして、システムは、ユーザが検索された曲目に合わせて歌ったりするのを助ける。
他の実施形態において、システムは、音楽を再生する音量を変更する。検索された曲目の一部が、有限の時間で、次第に高い第2の音量になる低い第1の音量で再生される。第2の音量は、ユーザ入力の音量に合わせることができる。よって、ユーザは、検索された曲目が予期せず高い音量で再生しないようにできる。
本発明のさらなる実施形態において、システムは、検索された曲目の少なくとも1つを視覚的に表す手段をさらに有する。この手段は、ディスプレイ機器を用いて容易に実施することができる。
本発明の目的は、本発明の方法が、前記ユーザ入力データから、前記検索された曲目内の現在位置を決定し、前記検索された曲目の前記一部の開始を前記位置と実質的に一致させるステップを有する方法であることで実現される。
該方法は、音楽検索システムの動作のステップを記述している。
本発明のこれらの態様および他の態様は、添付した図面を参照して、さらに説明されるであろう。
図1は、ユーザ入力の周波数スペクトル120と、そのユーザ入力により検索されるべき曲目110の一部と、そのユーザ入力を表すMIDIデータストリーム130の例を示す図であり、これらは先行技術として知られている。ユーザが歌い、ハミングし、または口笛を吹き、システムに検索させたい曲目110が示されている。システムへのユーザ入力は、デジタルデータに変換する必要がある音声信号でもよい。デジタルデータを取得するために入力された音声信号120の周波数スペクトルを分析することは、先行技術として知られている。MIDI(Musical Instrument Digital Interface)プロトコルは、デジタル電子データとしてユーザ入力と曲目を提供する標準的な手段を提供するために使用することができる。よって、ユーザ入力はMIDIプロトコルを用いてデジタルデータとしてMIDIデータストリーム130に変換される。他の知られたデジタル音楽標準、例えばMPEG-1 Layer 3やAdvanced Audio Coding (AAC)などを用いてもよい。
図2は、本発明の音楽検索システムの機能ブロック図である。システムには、音楽を表すユーザデータを入力する入力手段210、曲目を記憶する記憶手段220、検索手段230、出力制御手段240、及び検索された曲目の少なくとも一部を再生する出力手段250が含まれる。
ユーザは、ハミング、口笛、歌、キーボードのキー操作、指でリズムをたたくことによりシステムに入力することができる。入力手段210は、ユーザの声を入力するマイクロホン、ユーザの声を増幅するアンプ、ユーザ入力をデジタルデータに変換するA/Dコンバータを有していてもよい。入力手段は、ユーザコマンドを入力するキーボード等を有していてもよい。ユーザ入力をデジタルデータに変換する多数の技術が、先行技術として知られている。日本国公開特許公報第平9-138691号には、そのような技術の1つが提案されている。この文献によると、ユーザの声のデータがマイクロホンで入力され、入力手段で声データを構成するピッチデータとトーン長データに変換される。ピッチデータとトーン長データは、さらに周波数データとトーン長データに変換できる。
本発明によると、記憶手段220は、曲目を記憶するのに適合している。特に、記憶手段は、それぞれの音楽主題の音符の参照シーケンスを表すそれぞれの参照データを記憶するために設計されることができる。これは国際出願第WO98/49630から知ることができる。検索手段230は、ユーザ入力データにより、記憶手段220に記憶された曲目の1つとユーザ入力データとが一致したとき、所望の曲目を検索するように構成されている。出力手段は、検索された曲目の少なくとも一部を出力音声信号に変換するD/Aコンバータと、その出力音声信号を増幅するアンプと、その信号を出力するスピーカとを有する。
出力制御手段240は、検出手段230、入力手段210、および出力手段250と結合している。出力制御手段は、ユーザ入力データから、ユーザが現在ハミング、口笛、または歌っている検出された曲目内の現在位置を決定する。出力制御手段が現在位置を決定するには少なくとも3通りの可能性がある。
a) 所望の曲目を検出するための第1のユーザデータを入力した後、システムの出力制御手段は、入力手段から第2のユーザ入力データを受信し始める。そして、出力制御手段は、新しく入力されたユーザデータを供給される。所望の曲目が検索手段により検索されたとき、出力制御手段は、さらに入力されたユーザデータと一致する検索された曲目の一部の始まりを決定するため、第2の入力されたユーザデータを検索された曲目と比較をすぐに開始する。その始まりが見つかったとき、出力制御手段は、出力制御手段は出力手段にその一部を供給し、出力手段が再生する。
b) 所望の曲目が検索手段によりすでに検索されているとき、出力制御手段は第2のユーザデータの受信を開始する。
c) 出力制御手段は、さらにいかなるユーザデータを受信しなくとも、第1のユーザデータを分析することにより現在位置を予測するように構成されている。言い換えると、出力制御手段は、所望の曲目が検索されたとき、その瞬間にユーザが歌い、ハミングし、口笛を吹いている位置を予測するが、さらにいかなるユーザ入力データも受信しない。システムが受信するユーザ入力データは、所望の曲目を検索するのに必要な第1のユーザデータのみである。現在位置の予測は、特定のアルゴリズムを用いることにより実施可能となる。例えば、システムは、現在位置を決定するのに必要な平均時間をおおよそ予測するために、所望の曲目を検索する時間を測るように構成されたタイマーを含んでもよい。ユーザが歌い、ハミングし、口笛を吹いているなどしている、検索された曲目内の位置が第1のユーザデータから決定されたとき、システムは、その位置に、所望の曲目を検索するための時間と、現在位置を決定する平均時間を加える。そして、所望の曲目を検索する時間が数秒より大きくなければ、現在位置を決める精度は比較的高いであろう。
システムが検索された曲目の一部の再生をすでに開始していたとき、システムの出力制御手段は、ユーザが現在歌い、ハミングし、口笛を吹くなどしている、検索された曲目内の現在位置を追跡し続けるように適合していてもよい。そうすると、システムは、ユーザの振る舞いに反応することができる。例えば、システムは、さらに入力されたユーザデータが検索された曲目の再生された一部と一致しないとき、検索された曲目の一部の再生をやめる等することができる。
出力制御手段240は、マイクロコントローラまたはソフトウェア製品により実施することができ、そのことは当業者には明らかであろう。
本発明の方法とシステムの動作を、図3を参照してさらに説明する。方法の一連のステップを示すため、水平な時間軸が示されている。システムへのユーザ入力は、上に説明したように、歌、ハミング、口笛等である。該方法は、音楽を表すユーザデータ310を入力するステップと、記憶された曲目の特定の1つとユーザ入力データ310が一致するか発見して、ユーザ入力データ310に合わせて所望の曲目330を検索するステップとを有する。該方法は、さらに、ユーザ入力データ340または350から、検索した曲目330内の現在位置360を決定するステップと、検索された曲目330の一部380の始まりを、その位置360と実質的に一致させるステップとを有する。その後のステップにおいて、検索された曲目の一部380が再生される。
現在位置は、上でケース「a」または「b」としてそれぞれ説明したように、出力制御手段によりユーザ入力データ340または350から決定することができる。システムは、検索した曲目内の現在位置を正確には決定できないかもしれない。言い換えると、現在位置360と部分370の始まりは、厳密には一致しないかもしれない。それゆえ、該システムは、検索した曲目の一部の再生を、ユーザが現在歌い、ハミングし、または口笛を吹いている位置よりも早いまたは遅い位置で開始してもよい。しかし、既存の音楽検索機器は音楽を非常に早く検索し、説明した状況が起こってもユーザは混乱しないだろう。
本発明の一実施形態によると、システムは、ユーザ入力データから少なくとも1つのパラメータを決定し、検索された曲目の一部の再生をそのパラメータに適合させるように構成された出力制御手段をさらに有する。それによると、システムは、検索された音楽の再生をピッチ、テンポ、音量等のパラメータに応じて変更する。例えば、システムは、ユーザ入力データから、ユーザが歌い、ハミングし、または口笛を吹いているテンポを決定する。システムは、さらに、ユーザ入力データから、ユーザが歌い、ハミングし、または口笛を吹いている決定されたテンポで、検索された曲目の一部を再生する。他の例において、システムは、ユーザ入力の音量に近いまたは等しい音量で、検索された曲目の一部を再生するように構成される。
本発明の他の実施形態において、ユーザが間違って歌い、ハミングし、または口笛を吹いているとき、システムは、検索された曲目により、ユーザの歌、ハミング、または口笛のユーザによる修正を容易にする。実施形態の1つにおいて、システムは、最初に、ユーザ入力データから少なくとも1つの第1のパラメータを決定し、検索された曲目から少なくとも1つの第2のパラメータを決定する。第1と第2のパラメータは、例えば、ピッチ、テンポ、音量等のパラメータである。それゆえ、第2のパラメータは、検索された曲目の正しい再生の基準パラメータである。システムは、さらに少なくとも1つの第1のパラメータを少なくとも1つの第2のパラメータと比較する。システムは、少なくとも1つの第1のパラメータが少なくとも1つの第2のパラメータと異なるとき、検索された曲目の一部を、少なくとも1つの第1のパラメータに類似した少なくとも1つのさらなるパラメータで、検索された曲目の一部の再生を開始するように構成されている。その後、システムは、検索された曲目の一部を、少なくとも1つのさらなるパラメータ、例えばテンポ、で再生する。少なくとも1つのさらなるパラメータは、対応する1つの第2のパラメータに徐々に修正される。最後に、システムは、検索された曲目の一部を正しく、第2のパラメータで、再生する。それにより、システムは、検索した曲目に合わせてユーザが歌ったりするのを助ける。
図4を参照して、本発明のシステムの一実施形態が示されており、検索された曲目の一部が再生されるパラメータが、ユーザ入力データから決定されたパラメータの1つに応じて修正される。この実施形態において、該パラメータは音楽を再生する音量である。図4に示されたグラフの縦軸および横軸は、それぞれ、音楽を再生している音量と時間である。検索された曲目の一部は、低い第1の音量410または420で再生される。低い第1の音量410または420は、徐々に、より高い第2の音量430に上昇する。システムは、時刻T1に再生を開始し、音楽を再生する音量の増加は、時刻T2で停止する。音楽再生の音量は、440のように線形に増加させることができ、450のように増加させることもできる。第2の音量430は、ユーザ入力の音量に調節できる。それゆえ、ユーザは、予期しない、またはユーザが歌、口笛、またはハミングを続けるのに適さない高い音量で、検索された曲目が再生されることにより影響を受けない。
本発明のさらに別の実施形態において、システムは、少なくとも1つの検索された曲目を視覚的に表示する手段をさらに有する。その手段は、先行技術として知られているように、ディスプレイ機器で容易に実施可能である。
本発明のさらに別の実施形態において、システムの記憶手段は朗誦された詩を記憶する。システムは、散文、韻文、詩等を表すユーザデータを入力することにより、所望の詩を検索する。ユーザは詩の一部を記憶しており、その作者、名称、その他のデータを知りたがっているかもしれない。この実施形態において、システムはユーザの要求によりそのようなデータを検索するように設計されている。
本発明の目的は、該システムと方法で達成され、様々な実施形態が添付した図面を参照して提供されている。システムは、ユーザが歌い、ハミングし、または口笛を吹いている歌やその他の曲目を認識し、それに合わせる。ユーザは、歌い、ハミングし、または口笛を吹き続けられ、同時に再生された音楽を聴くことができる。
様々なプログラム製品が、本発明のシステムの機能と方法を実施することができ、いろいろな方法でハードウェアと組み合わせたり、異なる機器に入れることもできる。「コンピュータプログラム」は、フロッピディスク(登録商標)等のコンピュータ読み取り可能な媒体に記憶されたソフトウェア製品、インターネットなどのネットワークを介してダウンロード可能なソフトウェア製品、その他のいかなる仕方で販売可能なソフトウェア製品をも意味するものと理解すべきである。説明した実施形態の変形と変更が、本発明の概念の範囲において可能である。
ユーザ入力の周波数スペクトルと、そのユーザ入力により検索される曲目の一部と、そのユーザ入力を表示するMIDIデータストリームの例を示す図である。 本発明の音楽検索システムの機能ブロック図である。 本発明の方法とシステムの動作を示す図である。 本発明のシステムの一実施形態を示す図であり、検索された曲目の一部を再生するパラメータの1つが、ユーザ入力データから決定されるパラメータの1つにより変更される。

Claims (11)

  1. 音楽を表すユーザデータを入力する入力手段と、
    曲目を記憶する記憶手段と、
    前記記憶手段に記憶された前記曲目の1つと前記ユーザ入力データとが一致することを発見したとき、前記ユーザ入力データにより所望の曲目を検索する検索手段と、
    前記検索された曲目の少なくとも一部を再生する出力手段と
    を有する音楽検索システムであって、
    前記ユーザ入力データから、前記検索された曲目内の現在位置を決定する出力制御手段であって、前記検索された曲目の前記一部の開始を前記位置と実質的に一致させるように適合している出力制御手段を有することを特徴とするシステム。
  2. 請求項1に記載のシステムであって、前記出力制御手段は、前記ユーザ入力データから少なくとも1つのパラメータを決定し、前記検索された曲目の前記一部の再生を前記パラメータに適合させるようさらに構成されていることを特徴とするシステム。
  3. 請求項2に記載のシステムであって、前記パラメータは、ピッチ、テンポ、音量のうち少なくとも1つであることを特徴とするシステム。
  4. 請求項2に記載のシステムであって、前記パラメータは音量であって、前記検索された曲目の前記一部は、有限の時間において、最初は低い第1の音量で再生され、徐々に高い第2の音量まで音量を上げて再生され、前記第2の音量は前記ユーザ入力の音量に調節されることを特徴とするシステム。
  5. 請求項1に記載のシステムであって、前記検索した曲目の少なくとも1つを視覚的に表示する手段をさらに有するシステム。
  6. 音楽を表すユーザデータを入力するステップと、
    記憶された曲目の1つと前記ユーザ入力データとが一致することを発見したとき、前記ユーザ入力データにより所望の曲目を検索するステップと、
    前記検索された曲目の少なくとも一部を再生するステップと
    を有する音楽検索方法であって、
    前記ユーザ入力データから、前記検索された曲目内の現在位置を決定し、前記検索された曲目の前記一部の開始を前記位置と実質的に一致させるステップを有することを特徴とする方法。
  7. 請求項6に記載の方法であって、前記ユーザ入力データから少なくとも1つのパラメータを決定し、前記検索された曲目の前記一部の再生を前記パラメータに適合させるステップをさらに有することを特徴とする方法。
  8. 請求項7に記載の方法であって、前記パラメータは、ピッチ、テンポ、音量のうち少なくとも1つであることを特徴とする方法。
  9. 請求項7に記載の方法であって、前記パラメータは音量であって、前記検索された曲目の前記一部は、有限の時間において、最初は低い第1の音量で再生され、徐々に高い第2の音量まで音量を上げて再生され、前記第2の音量は前記ユーザ入力の音量に調節されることを特徴とする方法。
  10. 請求項6に記載の方法であって、前記検索した曲目の少なくとも1つを視覚的に表示するステップをさらに有する方法。
  11. コンピュータプログラム製品であって、プログラマブル機器が前記コンピュータプログラム製品を実行したとき、前記プログラマブル機器が請求項1に記載のシステムとして機能可能となるコンピュータプログラム製品。
JP2003562820A 2002-01-24 2003-01-15 検索された曲目をいっしょに演奏する音楽検索システム Pending JP2005516285A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP02075294 2002-01-24
PCT/IB2003/000085 WO2003063025A2 (en) 2002-01-24 2003-01-15 Music retrieval system for joining in with the retrieved piece of music

Publications (2)

Publication Number Publication Date
JP2005516285A true JP2005516285A (ja) 2005-06-02
JP2005516285A5 JP2005516285A5 (ja) 2006-03-02

Family

ID=27589131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003562820A Pending JP2005516285A (ja) 2002-01-24 2003-01-15 検索された曲目をいっしょに演奏する音楽検索システム

Country Status (7)

Country Link
US (1) US20050103187A1 (ja)
EP (1) EP1472625A2 (ja)
JP (1) JP2005516285A (ja)
KR (1) KR20040077784A (ja)
CN (1) CN1623151A (ja)
AU (1) AU2003201086A1 (ja)
WO (1) WO2003063025A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026061A (ja) * 2008-07-16 2010-02-04 Univ Of Fukui 口笛の吹音・吸音判定装置及び口笛音楽検定装置
JP2013020482A (ja) * 2011-07-12 2013-01-31 Yamaha Corp 情報処理装置
WO2013084774A1 (ja) * 2011-12-05 2013-06-13 ソニー株式会社 音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システム
JP2018054804A (ja) * 2016-09-28 2018-04-05 東京瓦斯株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP2022525440A (ja) * 2019-04-10 2022-05-13 ミュージックモブ カンパニー リミテッド データのグループ再生装置、システム及び方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284367A (ja) * 2004-03-26 2005-10-13 Fuji Photo Film Co Ltd コンテンツ表示方法およびシステム
JP2006106818A (ja) 2004-09-30 2006-04-20 Toshiba Corp 音楽検索装置、音楽検索方法及び音楽検索プログラム
AR053107A1 (es) * 2004-12-21 2007-04-25 Honeywell Int Inc Composiciones estabilizadas de yodocarbono
US20090150159A1 (en) * 2007-12-06 2009-06-11 Sony Ericsson Mobile Communications Ab Voice Searching for Media Files
DE102011087843B4 (de) * 2011-12-06 2013-07-11 Continental Automotive Gmbh Verfahren und System zur Auswahl mindestens eines Datensatzes aus einer relationalen Datenbank
KR20140002900A (ko) * 2012-06-28 2014-01-09 삼성전자주식회사 단말의 음원 재생 방법 및 그 단말
US8680383B1 (en) * 2012-08-22 2014-03-25 Henry P. Taylor Electronic hymnal system
EP2916241A1 (en) 2014-03-03 2015-09-09 Nokia Technologies OY Causation of rendering of song audio information
KR102495888B1 (ko) 2018-12-04 2023-02-03 삼성전자주식회사 사운드를 출력하기 위한 전자 장치 및 그의 동작 방법
CN112114925B (zh) 2020-09-25 2021-09-21 北京字跳网络技术有限公司 用于用户引导的方法、装置、设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0583332A (ja) * 1990-07-18 1993-04-02 Ricoh Co Ltd 電話機
JP2001075985A (ja) * 1999-09-03 2001-03-23 Sony Corp 音楽検索装置
JP2002019533A (ja) * 2000-07-07 2002-01-23 Sony Corp カーオーディオ装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3068226B2 (ja) * 1991-02-27 2000-07-24 株式会社リコス バックコーラス合成装置
US6025553A (en) * 1993-05-18 2000-02-15 Capital Bridge Co. Ltd. Portable music performance device
GB2288054B (en) * 1994-03-31 1998-04-08 James Young A microphone
JPH0816181A (ja) * 1994-06-24 1996-01-19 Roland Corp 効果付加装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0583332A (ja) * 1990-07-18 1993-04-02 Ricoh Co Ltd 電話機
JP2001075985A (ja) * 1999-09-03 2001-03-23 Sony Corp 音楽検索装置
JP2002019533A (ja) * 2000-07-07 2002-01-23 Sony Corp カーオーディオ装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ARIGRAIN: "New applications of content processing of music", JOURNAL OF NEW MUSIC RESEARCH, vol. vol.28(4), JPN7009000471, December 1999 (1999-12-01), pages 271 - 280, ISSN: 0001237618 *
DANNENBERG G: "An On-Line Algorithm for Real-Time Accompaniment", THE 1984 INTERNATIONAL COMPUTER MUSIC CONGERENCE, JPN7009000492, June 1985 (1985-06-01), pages 193 - 198, ISSN: 0001237620 *
KAGEYAMA T: "Melody Retrieval with Humming", PROC. IF THE 1993 INTERNATIONAL COMPUTER MUSIC CONFERENCE, JPN7009000490, September 1993 (1993-09-01), pages 349 - 351, XP008029177, ISSN: 0001237619 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026061A (ja) * 2008-07-16 2010-02-04 Univ Of Fukui 口笛の吹音・吸音判定装置及び口笛音楽検定装置
JP2013020482A (ja) * 2011-07-12 2013-01-31 Yamaha Corp 情報処理装置
WO2013084774A1 (ja) * 2011-12-05 2013-06-13 ソニー株式会社 音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システム
JP2018054804A (ja) * 2016-09-28 2018-04-05 東京瓦斯株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP2022525440A (ja) * 2019-04-10 2022-05-13 ミュージックモブ カンパニー リミテッド データのグループ再生装置、システム及び方法

Also Published As

Publication number Publication date
KR20040077784A (ko) 2004-09-06
CN1623151A (zh) 2005-06-01
AU2003201086A1 (en) 2003-09-02
EP1472625A2 (en) 2004-11-03
WO2003063025A3 (en) 2004-06-03
US20050103187A1 (en) 2005-05-19
WO2003063025A2 (en) 2003-07-31

Similar Documents

Publication Publication Date Title
US6476306B2 (en) Method and a system for recognizing a melody
JP2020030418A (ja) 携帯用音声合成のためのシステム及び方法
JP2005516285A (ja) 検索された曲目をいっしょに演奏する音楽検索システム
JP3867630B2 (ja) 楽曲再生システム、楽曲編集システム、楽曲編集装置、楽曲編集端末、楽曲再生端末及び楽曲編集装置の制御方法
JP2012103603A (ja) 情報処理装置、楽曲区間抽出方法、及びプログラム
JP2006195385A (ja) 音楽再生装置および音楽再生プログラム
JPH09258729A (ja) 選曲装置
JP2003177784A (ja) 音響変節点抽出装置及びその方法、音響再生装置及びその方法、音響再生システム、音響配信システム、情報提供装置、音響信号編集装置、音響変節点抽出方法プログラム記録媒体、音響再生方法プログラム記録媒体、音響信号編集方法プログラム記録媒体、音響変節点抽出方法プログラム、音響再生方法プログラム、音響信号編集方法プログラム
JP2003208170A (ja) 演奏制御装置及び演奏制御用プログラム、並びに記録媒体
JP2006202127A (ja) 推奨情報提示装置及び推奨情報提示方法等
JP2001215979A (ja) カラオケ装置
JP4487632B2 (ja) 演奏練習装置および演奏練習用コンピュータプログラム
JP3984830B2 (ja) カラオケ配信システム、カラオケ配信方法、及びカラオケ配信プログラム
JP3750533B2 (ja) 波形データ録音装置および録音波形データ再生装置
JP2006276560A (ja) 音楽再生装置および音楽再生方法
JP4171680B2 (ja) 音楽再生装置の情報設定装置、情報設定方法、及び情報設定プログラム
JP6781636B2 (ja) 情報出力装置及び情報出力方法
JP6587459B2 (ja) カラオケイントロにおける曲紹介システム
JP6380305B2 (ja) データ生成装置、カラオケシステム、及びプログラム
JP7028942B2 (ja) 情報出力装置及び情報出力方法
JP2002304175A (ja) 波形生成方法、演奏データ処理方法および波形選択装置
JPH11184465A (ja) 演奏装置
JP7219541B2 (ja) カラオケ装置
JP2011197663A (ja) 電子楽器及びプログラム
JP2007233078A (ja) 評価装置、制御方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091104