JP2013117688A - 音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システム - Google Patents

音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システム Download PDF

Info

Publication number
JP2013117688A
JP2013117688A JP2011266065A JP2011266065A JP2013117688A JP 2013117688 A JP2013117688 A JP 2013117688A JP 2011266065 A JP2011266065 A JP 2011266065A JP 2011266065 A JP2011266065 A JP 2011266065A JP 2013117688 A JP2013117688 A JP 2013117688A
Authority
JP
Japan
Prior art keywords
music
unit
sound
information
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011266065A
Other languages
English (en)
Inventor
Emiru Tsunoo
衣未留 角尾
Akira Inoue
晃 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011266065A priority Critical patent/JP2013117688A/ja
Priority to PCT/JP2012/080789 priority patent/WO2013084774A1/ja
Priority to CA2853904A priority patent/CA2853904A1/en
Priority to US14/353,844 priority patent/US20140318348A1/en
Priority to BR112014013061A priority patent/BR112014013061A2/pt
Priority to EP12855482.1A priority patent/EP2790184A1/en
Priority to CN201280058754.1A priority patent/CN103988256A/zh
Publication of JP2013117688A publication Critical patent/JP2013117688A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/021Mobile ringtone, i.e. generation, transmission, conversion or downloading of ringing tones or other sounds for mobile telephony; Special musical data formats or protocols herefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/141Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants

Abstract

【課題】入力音響信号に対応した楽曲の特定を良好に行い得るようにする。
【解決手段】連続入力される音響信号を所定の特徴量系列に変換する。この特徴量系列が所定量蓄積し次第、この特徴量系列と楽曲情報との照合処理を逐次行って、最終的に照合度が閾値よりも大きい楽曲を特定する。この場合、連続入力される音響信号を所定の特徴量系列に変換することと、この特徴量系列と楽曲情報との照合処理を行うこととを並行して行うため、リアルタイム性に優れた楽曲特定を行うことが可能となる。
【選択図】図1

Description

本技術は、音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システムに関し、特に、入力音響信号に対応した楽曲の特定を良好に行い得る音響処理装置等に関する。
ユーザが大量の楽曲から特定の楽曲を再生する際、それを簡単に探し出す手段として鼻歌検索が提案されている(例えば、特許文献1参照)。
特開2000−356996号公報
特許文献1に記載され検索システムにおいては、ユーザの歌唱(鼻歌)の後に検索処理が開始されるものである。そのため、リアルタイム性に欠けるものである。
本技術の目的は、入力音響信号に対応した楽曲の特定を良好に行い得るようにすることにある。
本技術の概念は、
連続入力される音響信号を所定の特徴量系列に変換する変換部と、
上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が第1の閾値よりも大きい楽曲を特定する楽曲特定部とを備える
音響処理装置にある。
本技術において、変換部により、連続入力される音響信号が所定の特徴量系列に変換される。連続入力される音響信号は、例えば、マイクロホンからユーザの歌唱(鼻歌も含む)、環境音などを入力することで得られる。特徴量系列は、例えば、ピッチ系列とされるが、音韻系列などのその他の系列であってもよい。
楽曲特定部により、所定の特徴量系列が所定量蓄積し次第、この特徴量系列と楽曲情報との照合処理が逐次行われる。そして、楽曲特定部により、照合度が第1の閾値よりも大きい楽曲が特定される。例えば、照合処理は、予めスケジューリングされた時刻毎に行われか、あるいは、前回の照合処理が終了する毎に行われる。
このように本技術においては、連続入力される音響信号を所定の特徴量系列に変換することと、この特徴量系列と楽曲情報との照合処理を行うこととが並行して行われるものである。そのため、リアルタイム性に優れた楽曲特定を行うことができる。
なお、本技術において、例えば、楽曲特定部は、前回の照合処理で照合度が第1の閾値よりも下側に設定された第2の閾値よりも小さい楽曲を照合処理の対象から除く、ようにされてもよい。この場合、時間経過とともに照合処理の対象を順次絞っていくことができ、楽曲の特定を効率よく行うことができる。
また、本技術において、例えば、楽曲特定部は、第1の閾値および/または第2の閾値を、時間経過に伴って大きくなるように変化させる、ようにしてもよい。この場合、連続入力される音響信号に対応した楽曲を照合処理の対象から外すことなく、この楽曲を精度よく特定することが可能となる。
また、本技術において、例えば、特定された楽曲を、楽曲および歌唱位置の情報に基づいて、連続入力される音響信号に同期して再生する楽曲再生部をさらに備える、ようにされてもよい。この場合、例えば、ユーザは、再生された楽曲に合わせて、違和感なく、歌唱を続けることが可能となり、効果的なアプリケーションを提供できる。この場合、例えば、楽曲再生部は、連続入力される音響信号の音高およびテンポに対応させて、再生する楽曲の音高およびテンポを変化させる、ようにされてもよい。
また、本技術において、例えば、照合処理の情報および楽曲特定の情報に基づいて、楽曲特定の進捗状況の表示を制御する表示制御部をさらに備える、ようにされてもよい。この場合、ユーザは、楽曲特定の進捗状況を容易に知ることができる。例えば、表示制御部は、照合処理の対象となっている楽曲を、処理結果に基づいて、照合度が大きい方から順に表示するように制御する、ようにされてもよい。ユーザは、どの楽曲に特定されようとしているかを容易に把握できる。
この場合、表示されている楽曲から選択された楽曲を、楽曲および歌唱位置の情報に基づいて、連続入力される音響信号に同期して再生する楽曲再生部をさらに備える、ようにされてよい。この場合、ユーザは、自身の歌唱に合致した楽曲を選択して、直ちにその楽曲の同期再生が可能となる。
また、本技術において、例えば、所定のソートがされている複数の楽曲から一部の楽曲を選択する楽曲絞り込み部をさらに備え、楽曲特定部は、楽曲絞り込み部で選択された一部の楽曲を照合処理の対象とする、ようにされてもよい。例えば、所定のソートは、ジャンルあるいはアーティストによるソート、さらには、聴く頻度によるソート、お気に入りか否かのソートなどが考えられる。この場合、照合処理の対象を絞ることができ、楽曲特定の精度を高めることが可能となる。また、無駄な照合処理を行わないで済むことから、楽曲特定までの時間短縮を図ることができる。
また、本技術の他の概念は、
音響再生装置とサーバ装置とがネットワークを介して接続されてなる音響処理システムであって、
上記音響再生装置は、
連続入力される音響信号を所定の特徴量系列に変換する変換部と、
上記所定の特徴量系列を上記サーバ装置に送信する送信部と、
上記サーバ装置から楽曲特定情報を受信する受信部と、
上記楽曲特定情報に基づき、上記特定された楽曲を、上記連続入力される音響信号に同期して再生する楽曲再生部とを備え、
上記サーバ装置は、
上記音響再生装置から上記所定の特徴量系列を受信する受信部と、
所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が閾値よりも大きい楽曲を特定する楽曲特定部と、
上記楽曲特定情報を上記音響再生装置に送信する送信部とを備える
音響処理システムにある。
本技術は、音響再生装置とサーバ装置とがネットワークを介して接続されてなる音響処理システムである。音響再生装置では、変換部により連続入力される音響信号が所定の特徴量系列に変換され、この所定の特徴量系列は、送信部により、サーバ装置に送信される。
サーバ装置では、受信部により音響再生装置から所定の特徴量系列が受信され、楽曲特定部によりこの所定の特徴量系列が所定量蓄積し次第、この特徴量系列と楽曲情報との照合処理が逐次行われ、照合度が閾値よりも大きい楽曲が特定され、送信部により楽曲特定情報が音響再生装置に送信される。
そして、音響再生装置では、受信部によりサーバ装置から楽曲特定情報が受信され、楽曲再生部によりこの楽曲特定情報に基づき、特定された楽曲が、連続入力される音響信号に同期して再生される。
このように本技術においては、連続入力される音響信号を所定の特徴量系列に変換することと、この特徴量系列と楽曲情報との照合処理を行うこととが並行して行われるものであるため、リアルタイム性に優れた楽曲特定を行うことができる。また、本技術においては、音響再生装置のユーザは、歌唱(鼻歌を含む)を行うことで、その歌唱に合致した楽曲の同期再生を行わせることができ、再生された楽曲に合わせて、違和感なく、歌唱を続けることが可能となる。また、本技術においては、照合処理を伴う楽曲特定の処理をサーバ装置側で行うものであり、音響再生装置の処理負荷を軽減できる。
本技術によれば、入力音響信号に対応した楽曲の特定を良好に行うことができる。
第1の実施の形態としての音響処理装置の構成例を示すブロック図である。 照合処理を前回の照合処理が終了する毎に行う場合における、ピッチ検出処理、照合処理のタイミングを示すタイムチャートである。 照合処理を予めスケジューリングされた時刻毎に行う場合における、ピッチ検出処理、照合処理のタイミングを示すタイムチャートである。 閾値Thh、閾値Thlが時間経過に伴って大きくなるように変化する構成を説明するための図である。 表示部における表示推移の一例を示す図である。 照合処理を前回の照合処理が終了する毎に行う場合における音響処理装置の動作を説明するためのフローチャートである。 照合処理を予めスケジューリングされた時刻毎に行う場合における音響処理装置の動作を説明するためのフローチャートである。 ユーザの楽曲選択機能を備える音響処理装置の動作を説明するためのフローチャートである。 第2の実施の形態としての音響処理システムの構成例を示すブロック図である。 音響処理システムにおけるピッチ検出と、送受信、照合の各処理のタイミングを示すタイムチャートである。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.変形例
<1.第1の実施の形態>
[音響処理装置の構成例]
図1は、第1の実施の形態としての音響処理装置100の構成例を示している。この音響処理装置100は、具体的には、マイクロホンを備えたポータブル音楽プレーヤや携帯電話などである。この音響処理装置100は、入力部101と、ピッチ検出部102と、マッチング処理部103と、記憶部104と、表示部105と、再生コントロール部106と、記憶部107と、出力部108を有している。
入力部101は、ユーザの歌声(鼻歌を含む)を入力し、その歌声に対応した入力音響信号(音声信号)を出力する。この入力部101は、例えば、マイクロホンなどにより構成される。ピッチ検出部102は、入力音響信号を周波数解析して、解析時刻毎に、基本周波数を推定してピッチを検出する。
記憶部107は、所定数の楽曲のデータを記憶し、楽曲データベースを構成する。記憶部104は、記憶部107に記憶されている楽曲に対応したメロディデータを記憶し、メロディデータベースを構成する。ここで、メロディデータは、必ずしも楽曲データと一対一に対応していなくてもよく、楽曲中の複数の個所のメロディデータを別々のデータとしていてもよい。例えば、ある楽曲のメロディデータが、Aメロディ、Bメロディ、サビの3つメロディデータに分割して記憶されている等である。
マッチング処理部103は、ピッチ検出部102で検出されたピッチ系列と、記憶部104に記憶されている各楽曲のメロディデータとの照合処理(マッチング処理)を行って、ピッチ系列と各楽曲のメロディデータとの照合度を計算する。マッチング処理部103は、例えば、ピッチ系列を音高の列に正規化し、前の系列の音との音高差を抽出して、メロディデータの系列と動的計画法を用いて照合処理(マッチング処理)を行う。ただし、このマッチング処理部103における照合処理は、この方法に限定されるものではない。
マッチング処理部103は、この照合処理を、ピッチ系列が所定量蓄積し次第、逐次行って、最終的に、照合度が最大で、その照合度が予め設定された閾値(第1の閾値)Thhよりも大きくなる1つの楽曲を特定する。この場合、マッチング処理部103は、前回の照合処理で照合度が閾値(第2の閾値)Thlよりも小さい楽曲を照合処理の対象から除くことを行う。ここで、閾値Thlは、閾値Thhの下側に設定されるものであり、十分に小さい照合度に対応した値に予め設定される。この場合、時間経過とともに照合処理の対象が順次絞られていくことから、楽曲特定の効率化が図られる。
マッチング処理部103は、上述したように、照合処理を繰り返し行う。例えば、マッチング処理部103は、照合処理を、前回の照合処理が終了する毎に行う。この場合、照合処理が連続して行われることとなるので、楽曲特定に要する時間の短縮化が期待される。
図2は、その場合におけるタイムチャートを示している。ピッチ検出部102では、開始時刻から入力音響信号のピッチ検出が連続して行われている。時刻T1に、マッチング処理部103において1回目の照合処理が開始される。この1回目の照合処理では、開始時刻から時刻T1までに蓄積されたピッチ系列に基づいて照合処理が行われる。
この1回目の照合処理が終了した時刻T2に、マッチング処理部103において直ちに2回目の照合処理が開始される。この2回目の照合処理では、時刻T1から時刻T2までに蓄積されたピッチ系列に基づいて照合処理が行われる。さらに、この2回目の照合処理が終了した時刻T3に、マッチング処理部103において直ちに3回目の照合処理が開始される。この3回目の照合処理では、時刻T2から時刻T3までに蓄積されたピッチ系列に基づいて照合処理が行われる。
以下、同様にして、照合処理が繰り返されていく。なお、上述したように、前回の照合処理で照合度が閾値(第2の閾値)Thlよりも小さい楽曲が照合処理の対象から除かれていくことで、図示のように、照合処理の回を重ねていく毎に、照合処理に要する時間は短くなっていく。
また、例えば、マッチング処理部103は、照合処理を、予めスケジューリングされた時刻毎に行う。この場合、照合処理が、前回の照合処理に要した時間によらず、十分な長さのピッチ系列をもって行われることから、各回において効果的な照合処理が行われることが期待される。
図3は、その場合におけるタイムチャートを示している。ピッチ検出部102では、開始時刻から入力音響信号のピッチ検出が連続して行われている。時刻T11に、マッチング処理部103において1回目の照合処理が開始される。この1回目の照合処理では、開始時刻から時刻T11までに蓄積されたピッチ系列に基づいて照合処理が行われる。
この1回目の照合処理が終了した後の時刻T12に、マッチング処理部103において2回目の照合処理が開始される。この2回目の照合処理では、時刻T11から時刻T12までに蓄積されたピッチ系列に基づいて照合処理が行われる。さらに、この2回目の照合処理が終了した後の時刻T13に、マッチング処理部103において3回目の照合処理が開始される。この3回目の照合処理では、時刻T12から時刻T13までに蓄積されたピッチ系列に基づいて照合処理が行われる。
以下、同様にして、照合処理が繰り返されていく。なお、上述したように、前回の照合処理で照合度が閾値(第2の閾値)Thlよりも小さい楽曲が照合処理の対象から除かれていくことで、図示のように、照合処理の回を重ねていく毎に、照合処理に要する時間は短くなっていく。
上述の閾値Thhおよび閾値Thlは、固定値であってもよいが、図4に示すように、いずれか一方、あるいは両方が、時間経過に伴って大きくなるように変化する構成であってもよい。このように閾値を変化させることで、入力音響信号に対応した楽曲を照合処理の対象から外すことなく、この楽曲を精度よく特定することが可能となる。また、例えば、閾値Thhに関しては、2番目に大きな照合度に所定値を加えた値にするなど、他の楽曲に対する照合度に基づいて設定されてもよい。
また、マッチング処理部103は、最初から、記憶部107に記憶されている楽曲の全てを照合処理の対象としてもよいが、所定のソート(分類)がされている複数の楽曲から、例えばユーザ操作などで予め選択された一部の楽曲のみを照合処理の対象としてもよい。この場合、照合処理の対象を絞ることができることから、楽曲特定の精度を高めることが可能となる。また、無駄な照合処理を行わないで済むことから、楽曲特定までの時間短縮を図ることができる。
ここで、ユーザの趣向に合わせたソートが考えられる。例えば、ジャンルやアーティストによるソートである。さらには、よく聴く楽曲によるソート、お気に入りの楽曲か否かによるソートなども考えられる。なお、一部の楽曲の選択は、上述したユーザ操作による場合だけでなく、例えば、よく聴く楽曲によるソートの場合には、自動的に上位所定数の楽曲を照合処理の対象として選択するようにしてもよい。また、楽曲の全部を照合処理の対象とするか、選択された一部の楽曲のみを照合処理の対象とするかを、ユーザが予め設定可能としてもよい。
表示部105は、マッチング処理部103における照合処理情報および楽曲特定情報に基づいて、楽曲特定の進捗状況を表示する。この表示部105には、照合処理の対象となっている楽曲が、例えば、照合度が大きい方から順に表示される。上述したように照合処理が繰り返されていくことで、照合処理の対象が減っていくことから、この表示部105の表示もそれに合わせて変更されていく。そして、マッチング処理部103で、1つの楽曲が特定されたとき、この表示部105には、その1つの楽曲の情報が表示される。
図5は、表示部105における表示推移の一例を示している。図5(a)は、開始時の表示例を示している。この時点では、照合処理対象の楽曲は絞られていないため、多くの楽曲が表示された状態となる。図5(b)は、歌唱中の表示例を示している。この時点では、照合処理対象の楽曲が絞られていることから、表示される楽曲の数は少なくなっている。この場合、照合度が大きい順に表示される。図示の例では、「3.CCC」の楽曲の照合度が最も大きいことになる。なお、この時点では、まだ、閾値Thhを越える照合度の楽曲は存在しないことになる。図5(c)は、最終的に1つの楽曲が特定された終了時の表示例である。この場合、「16.PPP」の楽曲に特定されたことを示している。
再生コントロール部106は、マッチング処理部103で1つの楽曲が特定されたとき、その楽曲および歌唱位置の情報に基づいて、特定された楽曲を、記憶部107に記憶されている楽曲データを用い、入力音響信号に同期して再生する。つまり、再生コントロール部106は、特定された楽曲を、ユーザの歌唱位置に合わせて再生する。このような同期再生により、ユーザは、再生された楽曲に合わせて、違和感なく、歌唱を続けることが可能となる。
なお、再生コントロール部106は、特定された楽曲をただ再生するのではなく、入力音響信号の音高およびテンポ、つまりユーザの歌唱の音高やテンポに対応させて、その再生される楽曲の音高およびテンポを変化させるようにしてもよい。
出力部108は、再生コントロール部106で得られる楽曲の再生音声信号の出力に関係する部分である。この出力部108は、スピーカのようにそれ自体が音を出してもよく、あるいはヘッドホンと接続するための端子、さらには外部のスピーカと通信する通信部であってもよい。
次に、図1に示す音響処理装置100の動作を説明する。最初に、図6のフローチャートに沿って、照合処理を前回の照合処理が終了する毎に行う場合について、説明する。音響処理装置100は、ステップST1において、処理を開始し、その後に、ステップST2の処理に移る。このステップST2において、音響処理装置100は、ピッチ検出部102で、入力部101からの入力音響信号を周波数解析して、解析時刻毎に、基本周波数を推定してピッチを検出することを開始する。
次に、音響処理装置100は、ステップST3において、マッチング処理部103で、照合処理を行う。この場合、音響処理装置100は、ピッチ検出部102で検出されたピッチ系列と、記憶部104に記憶されている各楽曲のメロディデータとの照合処理(マッチング処理)を行って、ピッチ系列と各楽曲のメロディデータとの照合度を計算する。
次に、音響処理装置100は、ステップST4において、マッチング処理部103の照合処理の情報に基づいて、表示部105に、照合処理対象となっている楽曲を、照合度の大きい順に表示する。次に、音響処理装置100は、ステップST5において、最大の照合度が、閾値Thhより大きいか否かを判断する。大きくないとき、音響処理装置100は、ステップST6の処理に移る。
このステップST6において、音響処理装置100は、終了条件を満たしているか否かを判断する。この終了条件は、例えば、ユーザが歌唱(鼻歌を含む)を開始してから所定の時間が経過したか、などである。終了条件を満たさないとき、音響処理装置100は、ステップST7の処理に移る。
このステップST7において、音響処理装置100は、閾値Thlより小さい照合度の楽曲を、次回の照合処理の対象から除く。そして、音響処理装置100は、このステップST7の処理の後、直ちにステップST3の処理に戻り、上述したと同様の処理を繰り返す。
また、音響処理装置100は、ステップST5で各楽曲の照合度のうち最大のものが閾値Thhより大きいとき、その最大の照合度の楽曲を特定すべき楽曲とする。そして、音響処理装置100は、ステップST8において、再生コントロール部106で、その楽曲および歌唱位置の情報に基づいて、特定された楽曲を、入力音響信号に同期して再生することを開始する。音響処理装置100は、このステップST8の処理の後、ステップST9において、処理を終了する。
また、音響処理装置100は、ステップST6で終了条件を満たしているとき、ステップST10において、表示部105に再生が失敗した旨を表示してユーザに通知し、その後に、ステップST9において、処理を終了する。
次に、図7のフローチャートに沿って、照合処理を予めスケジューリングされた時刻毎に行う場合について、説明する。音響処理装置100は、ステップST3の処理に先だって、ステップST11の処理を行う。すなわち、音響処理装置100は、ステップST2の処理の後、およびステップST7の処理の後に、ステップST11の処理に移る。
このステップST11において、音響処理装置100は、開始時間から指定された時間が経過したか否かを判断する。この指定された時間は、1回目の照合処理を行う前は、その1回目の照合処理を開始するまでの時間であり、2回目以降においても同様である。指定された時間が経過したとき、音響処理装置100は、ステップST3の処理に移る。詳細説明は省略するが、この図7のフローチャートにおいて、その他のステップは、図6のフローチャートと同様である。
上述したように、図1に示す音響処理装置100においては、連続入力される音響信号をピッチ系列に変換することと、このピッチ系列と楽曲に対応したメロディデータとの照合処理を行うこととが並行して行われる。そのため、リアルタイム性に優れた楽曲特定を行うことができる。つまり、ユーザが歌唱(鼻歌を含む)を続けている最中に、その歌唱に対応した楽曲を素早く特定することができる。この場合、ユーザは、必要最小限の時間歌唱するだけ済むことになる。
また、図1に示す音響処理装置100においては、照合度の最大が閾値Thhを越えるまでピッチ系列と楽曲に対応したメロディデータとの照合処理が繰り返し行われるが、前回の照合処理で照合度が閾値Thlよりも小さい楽曲が照合処理の対象から除かられる。そのため、時間経過とともに照合処理の対象を順次絞っていくことができ、楽曲の特定を効率よく行うことができる。
また、図1に示す音響処理装置100においては、特定された楽曲が、楽曲および歌唱位置の情報に基づいて、連続入力される音響信号に同期して再生される。そのため、ユーザは、再生された楽曲に合わせて、違和感なく、歌唱を続けることが可能となり、効果的なアプリケーションを提供できる。
また、図1に示す音響処理装置100においては、表示部105に、マッチング処理部103における照合処理情報および楽曲特定情報に基づいて、楽曲特定の進捗状況が表示される。例えば、照合処理の対象となっている楽曲が、処理結果に基づいて、照合度が大きい方から順に表示される。そのため、ユーザは、楽曲特定の進捗状況を容易に知ることができ、また、どの楽曲に特定されようとしているかを容易に把握できる。
なお、上述の説明では、照合処理後に、照合度の最大が閾値Thhより大きいとき、その照合度の楽曲を特定すべき楽曲として、その楽曲の再生処理に移るものである。つまり、1つの楽曲が特定されてから楽曲の再生処理に移るものであった。しかし、表示部105に照合度が大きい順に表示される楽曲に、ユーザが、自分が歌唱している楽曲を見いだすことも考えられる。したがって、ユーザが表示部105の表示から任意に楽曲を選択することを可能とし、直ちに選択された楽曲の再生処理に移ることも考えられる。
図8のフローチャートは、その場合における音響処理装置100の動作の一例を示している。この図8のフローチャートにおいて、上述の図6のフローチャートに対応するステップには同一符号を付して示し、適宜、その詳細説明は省略する。この図8のフローチャートにおいては、ステップST5で照合度の最大が閾値Thhより大きくないとき、音響処理装置100は、ステップST12の処理に移る。
このステップST12において、音響処理装置100は、ユーザによって、表示部105に表示されている楽曲のうちのいずれかが選択されたか否かを判断する。選択があったとき、音響処理装置100は、ステップST8の処理に移り、再生コントロール部106で、その楽曲および歌唱位置の情報に基づいて、選択された楽曲を、入力音響信号に同期して再生することを開始する。一方、音響処理装置100は、ステップST12で選択がなかったとき、ステップST6の処理に移る。詳細説明は省略するが、この図8のフローチャートにおいて、その他のステップは、図6のフローチャートと同様である。
<2.第2の実施の形態>
[音響処理システムの構成例]
図9は、第2の実施の形態としての音響処理システム200の構成例を示している。この音響処理システム200は、音響再生装置210とサーバ装置220とがネットワーク230を介して接続されてなるものである。音響再生装置210は、具体的には、ネットワーク接続機能を持ち、マイクロホンを備えたポータブル音楽プレーヤや携帯電話などである。この図9において、図1と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。
音響再生装置210は、入力部101と、ピッチ検出部202と、圧縮処理部211と、送信部212と、受信部213と、表示部105と、再生コントロール部106と、記憶部107と、出力部108を有している。
入力部101は、ユーザの歌声(鼻歌を含む)を入力し、その歌声に対応した入力音響信号(音声信号)を出力する。この入力部101は、例えば、マイクロホンなどにより構成される。ピッチ検出部102は、入力音響信号を周波数解析して、解析時刻毎に、基本周波数を推定してピッチを検出する。
圧縮処理部211は、ピッチ検出部102で検出されたピッチ系列をサーバ装置220に送信するために、データ圧縮などの処理を行う。送信部212は、データ圧縮などの処理が行われたピッチ系列を、ネットワーク230を介して、サーバ装置220に送信する。受信部213は、サーバ装置220からネットワーク230を介して送られてくる照合処理情報および楽曲特定情報を受信する。この楽曲特定情報には、楽曲および歌唱位置の情報が含まれる。
表示部105は、受信された照合処理情報および楽曲特定情報に基づいて、楽曲特定の進捗状況を表示する。この表示部105には、照合処理の対象となっている楽曲が、例えば、照合度が大きい方から順に表示される。再生コントロール部106は、受信された楽曲特定情報に含まれる楽曲および歌唱位置の情報に基づいて、特定された楽曲を、記憶部107に記憶されている楽曲データを用い、入力音響信号に同期して再生する。つまり、再生コントロール部106は、特定された楽曲を、ユーザの歌唱位置に合わせて再生する。
出力部108は、再生コントロール部106で得られる楽曲の再生音声信号の出力に関係する部分である。この出力部108は、スピーカのようにそれ自体が音を出してもよく、あるいはヘッドホンと接続するための端子、さらには外部のスピーカと通信する通信部であってもよい。
サーバ装置220は、受信部と221と、マッチング処理部103と、記憶部104と、送信部222を有している。受信部221は、音響再生装置210から送られてくる圧縮処理等されたピッチ系列を、ネットワーク230を介して受信し、伸長処理等を施して、音響再生装置210のピッチ検出部102で得られたと同様のピッチ系列を得る。
マッチング処理部103は、受信されたピッチ系列と、記憶部104に記憶されている各楽曲のメロディデータとの照合処理(マッチング処理)を行って、ピッチ系列と各楽曲のメロディデータとの照合度を計算する。また、マッチング処理部103は、この照合処理を、音響再生装置210から間欠的に受信されて蓄積される所定量のピッチ系列毎に、逐次行って、最終的に、照合度が最大で、その照合度が予め設定された閾値Thhよりも大きくなる1つの楽曲を特定する。
送信部222は、マッチング処理部103における照合処理情報および楽曲特定情報を、ネットワーク230を介して音響再生装置210に送信する。なお、楽曲特定情報には、楽曲および歌唱位置の情報が含まれている。
図9に示す音響処理システム200の動作を説明する。入力部101にユーザの歌声(鼻歌を含む)が入力され、この入力部101からは、その歌声に対応した入力音響信号(音声信号)が得られる。この入力音声信号は、ピッチ検出部102に供給される。このピッチ検出部102では、入力音響信号が周波数解析されて、解析時刻毎に、基本周波数が推定されてピッチが検出される。
ピッチ検出部102で得られたピッチ系列は、圧縮処理部211に供給される。この圧縮処理部211では、所定量のピッチ系列が蓄積され次第、逐次、データ圧縮された後、送信部212により、ネットワーク230を介してサーバ装置220に送信される。
サーバ装置220では、受信部221により、音響再生装置210から送られてくるピッチ系列が受信される。このピッチ系列は、マッチング処理部103に供給される。
マッチング処理部103では、受信されたピッチ系列と、記憶部104に記憶されている各楽曲のメロディデータとの照合処理(マッチング処理)が行われて、ピッチ系列と各楽曲のメロディデータとの照合度が計算される。このマッチング処理部103では、この照合処理が、音響再生装置210から間欠的に受信されて蓄積される所定量のピッチ系列毎に、逐次行われる。そして、このマッチング処理部103では、最終的に、照合度が最大で、その照合度が予め設定された閾値Thhよりも大きくなる1つの楽曲が特定される。
マッチング処理部103で得られる照合処理情報および楽曲特定情報は、送信部222により、ネットワーク230を介して、音響再生装置210に送信される。音響再生装置210では、受信部213により、サーバ装置220から遅れられてくる照合処理情報および楽曲特定情報が受信される。
表示部105では、受信された照合処理情報および楽曲特定情報に基づいて、楽曲特定の進捗状況が表示される(図5参照)。また、再生コントロール部106では、受信された楽曲特定情報に含まれる楽曲および歌唱位置の情報に基づいて、特定された楽曲が、記憶部107に記憶されている楽曲データが用いられて、入力音響信号に同期して再生される。つまり、再生コントロール部106では、特定された楽曲が、ユーザの歌唱位置に合わせて再生される。再生コントロール部106で得られる楽曲の再生音声信号は、出力部108に供給される。
図10のタイムチャートは、図9の音響処理システム200におけるピッチ検出と、送受信、照合の各処理のタイミングを示している。音響再生装置210のピッチ検出部102では、開始時刻から入力音響信号のピッチ検出が連続して行われている。開始時刻から所定時間後の時刻T21に、開始時刻から時刻T21までのピッチ系列が、データ圧縮されて、送信部212から、サーバ装置220に送信される。
サーバ装置220では、音響再生装置210からピッチ系列が受信された後の時刻T22に、マッチング処理部103において1回目の照合処理が開始される。この1回目の照合処理は、開始時刻から時刻T21までに蓄積されたピッチ系列に基づいて行われる。この照合処理が終了した後、その照合処理情報は、時刻T23に、送信部222から、音響再生装置210に送信される。
また、音響再生装置210では、サーバ装置220から照合処理情報が受信された後の時刻T24に、時刻T21から時刻T24までのピッチ系列が、データ圧縮されて、送信部212から、サーバ装置220に送信される。
サーバ装置220では、音響再生装置210からピッチ系列が受信された後の時刻T25に、マッチング処理部103において2回目の照合処理が開始される。この2回目の照合処理は、時刻T21から時刻T24までに蓄積されたピッチ系列に基づいて行われる。この照合処理が終了した後、その照合処理情報は、時刻T26に、送信部222から、音響再生装置210に送信される。
また、音響再生装置210では、サーバ装置220から照合処理情報が受信された後の時刻T27に、時刻T24から時刻T27までのピッチ系列が、データ圧縮されて、送信部212から、サーバ装置220に送信される。サーバ装置220では、音響再生装置210からピッチ系列が受信された後の時刻T28に、マッチング処理部103において3回目の照合処理が開始される。以下、同様にして、各処理が繰り返されていく。
上述したように、図9に示す音響処理システム200においては、マッチング処理部103がサーバ装置220に配置されるものの、全体としては図1に示す音響処理装置100と同様の構成を持つものである。したがって、図1に示す音響処理装置100と同様の効果を得ることができる。
また、図9に示す音響処理システム200においては、マッチング処理部103がサーバ装置220に配置され、照合処理(マッチング処理)が、処理能力を高くできるサーバ装置220側で行われるものである。音響再生装置210側の処理負荷を軽減でき、また、照合処理時間の短縮化を図ることができる。
なお、図9に示す音響処理システム200においては、ピッチ検出部102を音響再生装置102側に配置したものであるが、このピッチ検出部102もサーバ装置220側に配置することも考えられる。その場合には、音響再生装置210から入力音響信号をサーバ装置220に送信することになる。
また、図9の音響処理システム200においては、再生コントロール部106を音響再生装置210側に配置したものであるが、この再生コントロール部106および記憶部101をサーバ装置220側に配置することも考えられる。その場合には、特定された楽曲の再生音声信号を、サーバ装置220から音響信号再生装置210に送信することになる。
<3.変形例>
なお、上述実施の形態においては、入力部101にユーザの歌声(鼻歌を含む)が入力されるように説明した。しかし、この入力部101に、環境音を入力することも考えられる。ここで言う環境音とは、例えば、街頭で流れている楽曲などのことである。この場合にも、この環境音に対応した楽曲を特定でき、その環境音に同期して、特定された環境音の再生を行うことができる。
また、上述実施の形態においては、所定の特徴量系列がピッチ系列である例を示したが、本技術はこれに限定されるものではない。この所定の特徴量系列は、音韻系列などその他の特徴量系列であってもよい。
また、本技術は、以下のような構成をとることもできる。
(1)連続入力される音響信号を所定の特徴量系列に変換する変換部と、
上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が第1の閾値よりも大きい楽曲を特定する楽曲特定部とを備える
音響処理装置。
(2)上記特定された楽曲を、楽曲および歌唱位置の情報に基づいて、上記連続入力される音響信号に同期して再生する楽曲再生部をさらに備える
前記(1)に記載の音響処理装置。
(3)上記楽曲特定部は、
前回の照合処理で照合度が上記第1の閾値よりも下側に設定された第2の閾値よりも小さい楽曲を照合処理の対象から除く
前記(1)または(2)に記載の音響処理装置。
(4)上記楽曲特定部は、
上記第1の閾値および/または上記第2の閾値を、時間経過に伴って大きくなるように変化させる
前記(3)に記載の音響処理装置。
(5)上記楽曲再生部は、
上記連続入力される音響信号の音高およびテンポに対応させて、上記再生する楽曲の音高およびテンポを変化させる
前記(4)に記載の音響処理装置。
(6)上記照合処理の情報および上記楽曲特定の情報に基づいて、楽曲特定の進捗状況の表示を制御する表示制御部をさらに備える
前記(1)から(5)のいずれかに記載の音響処理装置。
(7)上記表示制御部は、
上記照合処理の対象となっている楽曲を、処理結果に基づいて、照合度が大きい方から順に表示するように制御する
前記(6)に記載の音響処理装置。
(8)上記表示されている楽曲から選択された楽曲を、楽曲および歌唱位置の情報に基づいて、上記連続入力される音響信号に同期して再生する楽曲再生部をさらに備える
前記(7)に記載の音響処理装置。
(9)上記楽曲特定部は、
上記照合処理を、予めスケジューリングされた時刻毎に行う
前記(1)から(8)のいずれかに記載の音響処理装置。
(10)上記楽曲特定部は、
上記照合処理を、前回の照合処理が終了する毎に行う
前記(1)から(8)に記載の音響処理装置。
(11)所定のソートがされている複数の楽曲から一部の楽曲を選択する楽曲絞り込み部をさらに備え、
上記楽曲特定部は、
上記楽曲絞り込み部で選択された上記一部の楽曲を照合処理の対象とする
前記(1)から(10)のいずれかに記載の音虚処理装置。
(12)上記所定のソートは、ユーザの趣向に応じたソートである
前記(11)に記載の音響処理装置。
(13)連続入力される音響信号を所定の特徴量系列に変換する変換し、
上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が閾値よりも大きい楽曲を特定する
音響処理方法。
(14)連続入力される音響信号を所定の特徴量系列に変換する変換し、
上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が閾値よりも大きい楽曲を特定する
音響処理方法をコンピュータに実行させるためのプログラム。
(15)連続入力される音響信号を所定の特徴量系列に変換する変換し、
上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が閾値よりも大きい楽曲を特定する
音響処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
(16) 外部機器から、連続入力される音響信号が変換されて得られた所定の特徴量系列を受信する受信部と、
上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が閾値よりも大きい楽曲を特定する楽曲特定部と、
上記楽曲特定情報を、上記外部機器に送信する送信部とを備える
サーバ装置。
(17)連続入力される音響信号を所定の特徴量系列に変換する変換部と、
上記所定の特徴量系列を外部機器に送信する送信部と、
上記外部機器から、上記所定の特徴量系列が所定量蓄積され次第、該特徴量系列と楽曲情報との照合処理が逐次行われ、照合度が閾値よりも大きい楽曲が特定されることで得られた楽曲特定情報を受信する受信部と、
上記楽曲特定情報に基づき、上記特定された楽曲を、上記連続入力される音響信号に同期して再生する楽曲再生部とを備える
音響再生装置。
(18)音響再生装置とサーバ装置とがネットワークを介して接続されてなる音響処理システムであって、
上記音響再生装置は、
連続入力される音響信号を所定の特徴量系列に変換する変換部と、
上記所定の特徴量系列を上記サーバ装置に送信する送信部と、
上記サーバ装置から楽曲特定情報を受信する受信部と、
上記楽曲特定情報に基づき、上記特定された楽曲を、上記連続入力される音響信号に同期して再生する楽曲再生部とを備え、
上記サーバ装置は、
上記音響再生装置から、上記所定の特徴量系列を受信する受信部と、
上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が閾値よりも大きい楽曲を特定する楽曲特定部と、
上記楽曲特定情報を上記音響再生装置に送信する送信部とを備える
音響処理システム。
(19)連続入力される音響信号を所定の特徴量系列に変換する変換部と、
上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が閾値よりも大きい楽曲を特定する楽曲特定部と、
上記特定された楽曲を、楽曲および歌唱位置の情報に基づいて、上記連続入力される音響信号に同期して再生する楽曲再生部とを備える
音響処理装置。
100・・・音響処理装置
101・・・入力部
102・・・ピッチ検出部
103・・・マッチング処理部
104,107・・・記憶部
105・・・表示部
106・・・再生コントロール部
108・・・出力部
200・・・音響処理システム
210・・・音響再生装置
211・・・圧縮処理部
212・・・送信部
213・・・受信部
220・・・サーバ装置
221・・・受信部
222・・・送信部
230・・・ネットワーク

Claims (19)

  1. 連続入力される音響信号を所定の特徴量系列に変換する変換部と、
    上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が第1の閾値よりも大きい楽曲を特定する楽曲特定部とを備える
    音響処理装置。
  2. 上記特定された楽曲を、楽曲および歌唱位置の情報に基づいて、上記連続入力される音響信号に同期して再生する楽曲再生部をさらに備える
    請求項1に記載の音響処理装置。
  3. 上記楽曲特定部は、
    前回の照合処理で照合度が上記第1の閾値よりも下側に設定された第2の閾値よりも小さい楽曲を照合処理の対象から除く
    請求項1に記載の音響処理装置。
  4. 上記楽曲特定部は、
    上記第1の閾値および/または上記第2の閾値を、時間経過に伴って大きくなるように変化させる
    請求項2に記載の音響処理装置。
  5. 上記楽曲再生部は、
    上記連続入力される音響信号の音高およびテンポに対応させて、上記再生する楽曲の音高およびテンポを変化させる
    請求項4に記載の音響処理装置。
  6. 上記照合処理の情報および上記楽曲特定の情報に基づいて、楽曲特定の進捗状況の表示を制御する表示制御部をさらに備える
    請求項1に記載の音響処理装置。
  7. 上記表示制御部は、
    上記照合処理の対象となっている楽曲を、処理結果に基づいて、照合度が大きい方から順に表示するように制御する
    請求項6に記載の音響処理装置。
  8. 上記表示されている楽曲から選択された楽曲を、楽曲および歌唱位置の情報に基づいて、上記連続入力される音響信号に同期して再生する楽曲再生部をさらに備える
    請求項7に記載の音響処理装置。
  9. 上記楽曲特定部は、
    上記照合処理を、予めスケジューリングされた時刻毎に行う
    請求項1に記載の音響処理装置。
  10. 上記楽曲特定部は、
    上記照合処理を、前回の照合処理が終了する毎に行う
    請求項1に記載の音響処理装置。
  11. 所定のソートがされている複数の楽曲から一部の楽曲を選択する楽曲絞り込み部をさらに備え、
    上記楽曲特定部は、
    上記楽曲絞り込み部で選択された上記一部の楽曲を照合処理の対象とする
    請求項1に記載の音虚処理装置。
  12. 上記所定のソートは、ユーザの趣向に応じたソートである
    請求項11に記載の音響処理装置。
  13. 連続入力される音響信号を所定の特徴量系列に変換する変換し、
    上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が閾値よりも大きい楽曲を特定する
    音響処理方法。
  14. 連続入力される音響信号を所定の特徴量系列に変換する変換し、
    上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が閾値よりも大きい楽曲を特定する
    音響処理方法をコンピュータに実行させるためのプログラム。
  15. 連続入力される音響信号を所定の特徴量系列に変換する変換し、
    上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が閾値よりも大きい楽曲を特定する
    音響処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  16. 外部機器から、連続入力される音響信号が変換されて得られた所定の特徴量系列を受信する受信部と、
    上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が閾値よりも大きい楽曲を特定する楽曲特定部と、
    上記楽曲特定情報を、上記外部機器に送信する送信部とを備える
    サーバ装置。
  17. 連続入力される音響信号を所定の特徴量系列に変換する変換部と、
    上記所定の特徴量系列を外部機器に送信する送信部と、
    上記外部機器から、上記所定の特徴量系列が所定量蓄積され次第、該特徴量系列と楽曲情報との照合処理が逐次行われ、照合度が閾値よりも大きい楽曲が特定されることで得られた楽曲特定情報を受信する受信部と、
    上記楽曲特定情報に基づき、上記特定された楽曲を、上記連続入力される音響信号に同期して再生する楽曲再生部とを備える
    音響再生装置。
  18. 音響再生装置とサーバ装置とがネットワークを介して接続されてなる音響処理システムであって、
    上記音響再生装置は、
    連続入力される音響信号を所定の特徴量系列に変換する変換部と、
    上記所定の特徴量系列を上記サーバ装置に送信する送信部と、
    上記サーバ装置から楽曲特定情報を受信する受信部と、
    上記楽曲特定情報に基づき、上記特定された楽曲を、上記連続入力される音響信号に同期して再生する楽曲再生部とを備え、
    上記サーバ装置は、
    上記音響再生装置から、上記所定の特徴量系列を受信する受信部と、
    上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が閾値よりも大きい楽曲を特定する楽曲特定部と、
    上記楽曲特定情報を上記音響再生装置に送信する送信部とを備える
    音響処理システム。
  19. 連続入力される音響信号を所定の特徴量系列に変換する変換部と、
    上記所定の特徴量系列が所定量蓄積し次第、該特徴量系列と楽曲情報との照合処理を逐次行い、照合度が閾値よりも大きい楽曲を特定する楽曲特定部と、
    上記特定された楽曲を、楽曲および歌唱位置の情報に基づいて、上記連続入力される音響信号に同期して再生する楽曲再生部とを備える
    音響処理装置。
JP2011266065A 2011-12-05 2011-12-05 音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システム Pending JP2013117688A (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2011266065A JP2013117688A (ja) 2011-12-05 2011-12-05 音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システム
PCT/JP2012/080789 WO2013084774A1 (ja) 2011-12-05 2012-11-28 音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システム
CA2853904A CA2853904A1 (en) 2011-12-05 2012-11-28 Sound processing device, sound processing method, program, recording medium, server device, sound reproducing device, and sound processing system
US14/353,844 US20140318348A1 (en) 2011-12-05 2012-11-28 Sound processing device, sound processing method, program, recording medium, server device, sound reproducing device, and sound processing system
BR112014013061A BR112014013061A2 (pt) 2011-12-05 2012-11-28 dispositivo, método e sistema de processamento de som, programa, mídia de gravação, dispositivo servidor, e, dispositivo de reprodução de som
EP12855482.1A EP2790184A1 (en) 2011-12-05 2012-11-28 Sound processing device, sound processing method, program, recording medium, server device, sound replay device, and sound processing system
CN201280058754.1A CN103988256A (zh) 2011-12-05 2012-11-28 声音处理装置、声音处理方法、程序、记录介质、服务器装置、声音再现装置以及声音处理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011266065A JP2013117688A (ja) 2011-12-05 2011-12-05 音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システム

Publications (1)

Publication Number Publication Date
JP2013117688A true JP2013117688A (ja) 2013-06-13

Family

ID=48574144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011266065A Pending JP2013117688A (ja) 2011-12-05 2011-12-05 音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システム

Country Status (7)

Country Link
US (1) US20140318348A1 (ja)
EP (1) EP2790184A1 (ja)
JP (1) JP2013117688A (ja)
CN (1) CN103988256A (ja)
BR (1) BR112014013061A2 (ja)
CA (1) CA2853904A1 (ja)
WO (1) WO2013084774A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016153907A (ja) * 2014-07-29 2016-08-25 ヤマハ株式会社 端末装置
WO2017056885A1 (ja) * 2015-09-30 2017-04-06 ヤマハ株式会社 楽曲処理方法および楽曲処理装置
US20180098164A1 (en) 2014-08-26 2018-04-05 Yamaha Corporation Reproduction system, terminal device, method thereof, and non-transitory storage medium, for providing information
US10691400B2 (en) 2014-07-29 2020-06-23 Yamaha Corporation Information management system and information management method
US10733386B2 (en) 2014-07-29 2020-08-04 Yamaha Corporation Terminal device, information providing system, information presentation method, and information providing method
CN112071333A (zh) * 2019-06-11 2020-12-11 纳宝株式会社 用于动态音符匹配的电子装置及其操作方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150193199A1 (en) * 2014-01-07 2015-07-09 Qualcomm Incorporated Tracking music in audio stream
CN104091596B (zh) * 2014-01-20 2016-05-04 腾讯科技(深圳)有限公司 一种乐曲识别方法、系统和装置
CN104166727B (zh) * 2014-08-28 2018-01-02 北京京东尚科信息技术有限公司 一种相似性时间序列搜索的方法和装置
CN105930522B (zh) * 2016-05-25 2019-04-30 北京小米移动软件有限公司 智能推荐音乐的方法、系统和装置
CN106652997B (zh) * 2016-12-29 2020-07-28 腾讯音乐娱乐(深圳)有限公司 一种音频合成的方法及终端
CN107679196A (zh) * 2017-10-10 2018-02-09 中国移动通信集团公司 一种多媒体识别方法、电子设备及存储介质
SE543760C2 (en) * 2017-12-11 2021-07-13 100 Milligrams Holding Ab System and method for creation and recreation of a music mix, computer program product and computer system

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5874686A (en) * 1995-10-31 1999-02-23 Ghias; Asif U. Apparatus and method for searching a melody
JP3844627B2 (ja) 1999-04-12 2006-11-15 アルパイン株式会社 音楽検索システム
JP2001075985A (ja) * 1999-09-03 2001-03-23 Sony Corp 音楽検索装置
US6188010B1 (en) * 1999-10-29 2001-02-13 Sony Corporation Music search by melody input
US6678680B1 (en) * 2000-01-06 2004-01-13 Mark Woo Music search engine
US6990453B2 (en) * 2000-07-31 2006-01-24 Landmark Digital Services Llc System and methods for recognizing sound and music signals in high noise and distortion
JP2002063209A (ja) * 2000-08-22 2002-02-28 Sony Corp 情報処理装置および方法、情報システム、並びに記録媒体
JP3478798B2 (ja) * 2000-12-19 2003-12-15 株式会社第一興商 情報通信ネットワーク上で運営されている楽曲検索サイトを利用するカラオケ装置用の選曲予約システム
JP3730144B2 (ja) * 2001-08-03 2005-12-21 日本電信電話株式会社 類似音楽検索装置ならびにその方法、および類似音楽検索プログラムならびにその記録媒体
JP2005516285A (ja) * 2002-01-24 2005-06-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 検索された曲目をいっしょに演奏する音楽検索システム
US6967275B2 (en) * 2002-06-25 2005-11-22 Irobot Corporation Song-matching system and method
JP2005141281A (ja) * 2003-11-04 2005-06-02 Victor Co Of Japan Ltd コンテンツ検索システム
EP2464107A1 (en) * 2004-04-19 2012-06-13 Shazam Investments Limited Method and system for content sampling and identification
JP5225548B2 (ja) * 2005-03-25 2013-07-03 ソニー株式会社 コンテンツ検索方法、コンテンツリスト検索方法、コンテンツ検索装置、コンテンツリスト検索装置および検索サーバ
JP2007164878A (ja) * 2005-12-13 2007-06-28 Sony Corp 楽曲コンテンツ再生装置、楽曲コンテンツ再生方法および楽曲コンテンツ配信再生システム
JP2007219178A (ja) * 2006-02-16 2007-08-30 Sony Corp 楽曲抽出プログラム、楽曲抽出装置及び楽曲抽出方法
JP4597919B2 (ja) * 2006-07-03 2010-12-15 日本電信電話株式会社 音響信号特徴抽出方法、抽出装置、抽出プログラム、該プログラムを記録した記録媒体、および該特徴を利用した音響信号検索方法、検索装置、検索プログラム、並びに該プログラムを記録した記録媒体
US7838755B2 (en) * 2007-02-14 2010-11-23 Museami, Inc. Music-based search engine
US8344233B2 (en) * 2008-05-07 2013-01-01 Microsoft Corporation Scalable music recommendation by search
EP3418917B1 (en) * 2010-05-04 2022-08-17 Apple Inc. Methods and systems for synchronizing media
US9047371B2 (en) * 2010-07-29 2015-06-02 Soundhound, Inc. System and method for matching a query against a broadcast stream
JP5728888B2 (ja) * 2010-10-29 2015-06-03 ソニー株式会社 信号処理装置および方法、並びにプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016153907A (ja) * 2014-07-29 2016-08-25 ヤマハ株式会社 端末装置
US10691400B2 (en) 2014-07-29 2020-06-23 Yamaha Corporation Information management system and information management method
US10733386B2 (en) 2014-07-29 2020-08-04 Yamaha Corporation Terminal device, information providing system, information presentation method, and information providing method
US20180098164A1 (en) 2014-08-26 2018-04-05 Yamaha Corporation Reproduction system, terminal device, method thereof, and non-transitory storage medium, for providing information
US10433083B2 (en) 2014-08-26 2019-10-01 Yamaha Corporation Audio processing device and method of providing information
US10542360B2 (en) 2014-08-26 2020-01-21 Yamaha Corporation Reproduction system, terminal device, method thereof, and non-transitory storage medium, for providing information
WO2017056885A1 (ja) * 2015-09-30 2017-04-06 ヤマハ株式会社 楽曲処理方法および楽曲処理装置
CN112071333A (zh) * 2019-06-11 2020-12-11 纳宝株式会社 用于动态音符匹配的电子装置及其操作方法
JP2020201478A (ja) * 2019-06-11 2020-12-17 ネイバー コーポレーションNAVER Corporation 動的ノートマッチングのための電子装置およびその動作方法
US11556585B2 (en) 2019-06-11 2023-01-17 Naver Corporation Electronic apparatus for dynamic note matching and operating method of the same

Also Published As

Publication number Publication date
BR112014013061A2 (pt) 2017-06-13
WO2013084774A1 (ja) 2013-06-13
CA2853904A1 (en) 2013-06-13
US20140318348A1 (en) 2014-10-30
CN103988256A (zh) 2014-08-13
EP2790184A1 (en) 2014-10-15

Similar Documents

Publication Publication Date Title
WO2013084774A1 (ja) 音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システム
US10097884B2 (en) Media playback method, client and system
CN110675886B (zh) 音频信号处理方法、装置、电子设备及存储介质
US11521585B2 (en) Method of combining audio signals
WO2012075285A1 (en) Systems and methods of rendering a textual animation
CN110211556B (zh) 音乐文件的处理方法、装置、终端及存储介质
CN113691909B (zh) 具有音频处理推荐的数字音频工作站
CN105828254A (zh) 一种音频调节方法及装置
JP5428458B2 (ja) 評価装置
US8612031B2 (en) Audio player and audio fast-forward playback method capable of high-speed fast-forward playback and allowing recognition of music pieces
KR20040077784A (ko) 검색된 음악 부분과 결합하기 위한 음악 검색 시스템
JP2023527473A (ja) オーディオ再生方法、装置、コンピュータ可読記憶媒体及び電子機器
JP2012015809A (ja) 楽曲選択装置、楽曲選択方法および楽曲選択プログラム
US20170278501A1 (en) Performance information processing device and method
JP6288197B2 (ja) 評価装置及びプログラム
JP6501344B2 (ja) 聴取者評価を考慮したカラオケ採点システム
CN115273826A (zh) 歌声识别模型训练方法、歌声识别方法及相关装置
CN113781989A (zh) 一种音频的动画播放、节奏卡点识别方法及相关装置
CN110400559A (zh) 一种音频合成的方法、装置及设备
US11943591B2 (en) System and method for automatic detection of music listening reactions, and mobile device performing the method
JP2016071187A (ja) 音声合成装置、及び音声合成システム
JP5242856B1 (ja) 音楽再生プログラム及び音楽再生システム
CN113744721A (zh) 模型训练方法、音频处理方法、设备及可读存储介质
JP2008197269A (ja) データ再生装置、データ再生方法およびプログラム
JP6508567B2 (ja) カラオケ装置、カラオケ装置用プログラム、およびカラオケシステム