JP4623124B2 - 楽曲再生装置、楽曲再生方法および楽曲再生プログラム - Google Patents

楽曲再生装置、楽曲再生方法および楽曲再生プログラム Download PDF

Info

Publication number
JP4623124B2
JP4623124B2 JP2008099166A JP2008099166A JP4623124B2 JP 4623124 B2 JP4623124 B2 JP 4623124B2 JP 2008099166 A JP2008099166 A JP 2008099166A JP 2008099166 A JP2008099166 A JP 2008099166A JP 4623124 B2 JP4623124 B2 JP 4623124B2
Authority
JP
Japan
Prior art keywords
music
noise
data
noise data
environmental noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008099166A
Other languages
English (en)
Other versions
JP2009251276A (ja
Inventor
志朗 鈴木
千智 劔持
秀介 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008099166A priority Critical patent/JP4623124B2/ja
Priority to US12/372,120 priority patent/US8076567B2/en
Priority to GB0902843A priority patent/GB2459008B/en
Priority to CN2011103504779A priority patent/CN102419967A/zh
Priority to CN2009101286236A priority patent/CN101556797B/zh
Priority to KR1020090029575A priority patent/KR101534346B1/ko
Publication of JP2009251276A publication Critical patent/JP2009251276A/ja
Application granted granted Critical
Publication of JP4623124B2 publication Critical patent/JP4623124B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G3/00Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
    • G10G3/04Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/081Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • G11B2020/10546Audio or video recording specifically adapted for audio data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

この発明は、記録された楽曲の中から、環境騒音下においても聴取しやすい楽曲を自動的に選択して再生する楽曲再生装置、楽曲再生方法および楽曲再生プログラムに関する。
近年、楽曲を種々のカテゴリに自動的に分類し、ユーザがカテゴリを選択することによって、選択されたカテゴリに対応する楽曲を自動的に選択して再生する音楽再生装置が実用化されている。このような音楽再生装置では、楽曲のテンポやコード進行など、それぞれの楽曲が有する特徴量を検出し、検出された特徴量に基づき楽曲を種々のカテゴリに自動的に分類する楽曲分類方法が用いられている。
例えば、下記の特許文献1には、楽曲の解析を行い、テンポやスピード感などの特徴量を検出する方法が記載されている。また、例えば、下記の特許文献2には、オーディオ信号における各音程の信号成分を解析する方法が記載されている。
特開2005−274708号公報 特開2005−275068号公報
ここで、従来の音楽再生装置について概略的に説明する。図22は、従来の音楽再生装置101の一例の使用形態を示す。図22に示す例は、携帯型音楽再生装置などの音楽再生装置101とヘッドフォン102とが接続され、ユーザがヘッドフォン102を介して、音楽再生装置101に記録された楽曲を聴取している状態を示す。なお、この例では、複数の楽曲が従来の楽曲分類方法に基づきカテゴリ分類されて、音楽再生装置101に予め記録されているものとする。また、ここでは、説明を容易とするため、音楽再生装置101に記録された楽曲が「ロック」および「クラシック」の2つのカテゴリのうちいずれかのカテゴリに分類されているものとする。さらに、ユーザの周囲の環境については、「電車」に乗っている状態および「喫茶店」にいる状態の2つの環境の場合について説明する。
従来の音楽再生装置101では、複数の楽曲がカテゴリ毎に分類されて記録されている。例えば、楽曲A、楽曲B、・・・が「ロック」のカテゴリに分類され、楽曲C、楽曲D、・・・が「クラシック」のカテゴリに予め分類されて記録されている。そして、ユーザがカテゴリを手動で選択することにより、選択されたカテゴリに対応する楽曲が選択されて再生されるようになっている。
ユーザによるカテゴリの選択は、周囲の環境騒音レベル等に応じて行われることが考えられる。例えば、ユーザが電車に乗っている場合には、周囲の環境騒音レベルが高いため、ゆっくりとした曲調の「クラシック」のカテゴリに分類された楽曲では聴取するのが困難である。したがって、この場合には、高い環境騒音レベルの状況において聴取することができる「ロック」のカテゴリに分類された楽曲が選択されると考えられる。また、例えば、ユーザが喫茶店でくつろいでいる場合には、周囲の環境騒音レベルが低いため、この場合には、「クラシック」のカテゴリに分類された楽曲が選択されると考えられる。
次に、図23に示すフローチャートを用いて、従来の音楽再生装置101における楽曲のカテゴリの選択方法について説明する。ステップS101において、音楽再生装置101の電源がONとされる。ステップS102では、ユーザによって周囲の環境が認識され、ステップS103において、ユーザによって周囲の環境騒音レベルに応じたカテゴリが選択される。例えば、ユーザが電車に乗っている場合には、「ロック」のカテゴリが選択され、喫茶店にいる場合には、「クラシック」のカテゴリが選択される。
ステップS104では、選択されたカテゴリに対応する楽曲の中から所定の楽曲が選択されて再生される。再生される楽曲は、例えば、選択されたカテゴリに分類された複数の楽曲をランダムに再生してもよいし、予め決められた再生順序に従って再生するようにしてもよい。
ステップS105において、音楽を聴取し続けるか否かが判断される。音楽を聴取し続けると判断した場合には、処理がステップS102に戻り、ユーザによって周囲の環境が再度認識される。一方、音楽を聴取しないと判断した場合には、処理がステップS106に移行し、ユーザにより、音楽再生装置101の電源がOFFとされ、一連の処理が終了する。
このように、従来の音楽再生装置101では、ユーザが周囲の環境を自身で認識し、環境騒音レベルに応じて楽曲のカテゴリを手動で選択する。
ところが、上述した従来の音楽再生装置では、ユーザがカテゴリを手動で選択して楽曲を再生するようにしているため、環境が変化した場合であっても、カテゴリを変更しない限り、選択されているカテゴリに分類された楽曲を再生し続けてしまう。
例えば、ユーザが電車内にいる場合には、環境騒音レベルが高いため、「ロック」のカテゴリを選択し、比較的ボリュームを高めた状態で楽曲を聴取していた。その後、電車を降りて喫茶店に入った際に、そのまま「ロック」のカテゴリに分類された楽曲を聴取し続けた場合、環境騒音レベルが電車内よりも低いため、ヘッドフォンからの音漏れによって周囲に迷惑をかけてしまうという問題点があった。
また、例えば、電車内では「クラシック」のカテゴリに分類された楽曲が聴取するのが困難であるため「ロック」のカテゴリを選択し、ボリュームを適切に設定した状態で楽曲を聴取していた。そして、次の楽曲になった際に、同じ「ロック」のカテゴリであっても録音レベルや曲調が大きく変化したため、ユーザの耳を痛めたり、ヘッドフォンからの音漏れによって周囲に迷惑をかけてしまうという問題点があった。
そこで、最近では、楽曲をカテゴリ分類することに加えて、朝や夜などの時間的な環境変化や、ユーザの気分に合わせて楽曲を自動的に選択して再生する音楽再生装置も実用化されている。これは、例えば、音楽再生装置に記録された楽曲を朝や昼、深夜等の時間帯毎のカテゴリにそれぞれ分類するとともに、音楽再生装置に内蔵された時計を用いて、現在の時間帯に対応する楽曲を自動的に選択して再生するようにされたものである。
しかしながら、このような音楽再生装置の場合にも、上述と同様な問題が生じてしまう。時間に基づき環境を認識して楽曲を選択するような場合、例えば朝の時間帯であっても、電車の車内や喫茶店では周囲の環境騒音レベルが異なるため、環境に適した楽曲を選択することは困難である。
したがって、この発明の目的は、環境騒音下でも聴取しやすい楽曲を自動的に選択することができる楽曲再生装置、楽曲再生方法および楽曲再生プログラムを提供することにある。
上述した課題を解決するために、第1の発明は、周囲の環境の騒音データを収音する収音部と、
収音部により収音された騒音データに対して周波数解析を行い、騒音データの特徴を示す特徴量を抽出する解析部と、
騒音データを環境毎に分類するための騒音パラメータデータベースと、
記録媒体に記録されカテゴリ毎に分類された楽曲データを再生する再生部と
を備え、
解析部は、
抽出された騒音データの特徴量に基づき、騒音パラメータデータベースを参照して騒音データを分類し、分類を所定時間毎に行いその分類結果を所定回数分メモリに記憶し、メモリに記憶された所定回数分の分類結果に対して、過去の分類結果ほど重みが減少する重み係数をそれぞれ畳み込み演算し、重み係数が畳み込み演算された所定回数分の分類結果の平均に基づき騒音データを分類し、
騒音データの分類結果に応じて、予め対応づけられた楽曲のカテゴリを選択し、選択されたカテゴリに分類された楽曲データの中から所定の楽曲データを選択する楽曲再生装置である。
また、第2の発明は、収音部と、解析部と、騒音データを環境毎に分類するための騒音パラメータデータベースと、再生部とを備える楽曲再生装置によって実行される楽曲再生方法であって、
収音部が、周囲の環境の騒音データを収音する収音ステップと、
解析部が、収音ステップおいて収音された騒音データに対して周波数解析を行い、騒音データの特徴を示す特徴量を抽出する解析ステップと、
再生部が、記録媒体に記録されカテゴリ毎に分類された楽曲データを再生する再生ステップとを有し、
解析ステップは、
抽出された騒音データの特徴量に基づき、騒音パラメータデータベースを参照して騒音データを分類し、分類を所定時間毎に行いその分類結果を所定回数分メモリに記憶し、メモリに記憶された所定回数分の分類結果に対して、過去の分類結果ほど重みが減少する重み係数をそれぞれ畳み込み演算し、重み係数が畳み込み演算された所定回数分の分類結果の平均に基づき騒音データを分類し、
騒音データの分類結果に応じて、予め対応づけられた楽曲のカテゴリを選択し、選択されたカテゴリに分類された楽曲データの中から所定の楽曲データを選択する楽曲再生方法である。
また、第3の発明は、周囲の環境の騒音データを収音する収音ステップと、
音ステップにおいて収音された騒音データに対して周波数解析を行い、騒音データの特徴を示す特徴量を抽出する解析ステップと、
記録媒体に記録されカテゴリ毎に分類された楽曲データを再生する再生ステップとを有し、
解析ステップは、
抽出された騒音データの特徴量に基づき、騒音データを環境毎に分類するための騒音パラメータデータベースを参照して騒音データを分類し、分類を所定時間毎に行いその分類結果を所定回数分メモリに記憶し、メモリに記憶された所定回数分の分類結果に対して、過去の分類結果ほど重みが減少する重み係数をそれぞれ畳み込み演算し、重み係数が畳み込み演算された所定回数分の分類結果の平均に基づき騒音データを分類し、
騒音データの分類結果に応じて、予め対応づけられた楽曲のカテゴリを選択し、選択されたカテゴリに分類された楽曲データの中から所定の楽曲データを選択する楽曲再生方法をコンピュータ装置に実行させる再生プログラムである。
上述したように、第1、第2および第3の発明では、周囲の環境の騒音データを収音し、収音された騒音データに対して周波数解析を行い、騒音データの特徴を示す特徴量を抽出し、抽出された騒音データの特徴量に基づき、騒音データを環境毎に分類するための騒音パラメータデータベースを参照して騒音データを分類し、騒音データの分類結果に応じて、予め対応づけられた楽曲のカテゴリを選択し、選択されたカテゴリに分類された楽曲データの中から所定の楽曲データを選択するようにしているため、周囲の環境に応じた楽曲データが再生される。
この発明は、収音された周囲の環境騒音の騒音データから特徴量を抽出し、抽出された騒音データの特徴量に基づき、記録媒体に記録された楽曲データの中から所定の楽曲データを選択するようにしているため、環境騒音に応じて適切な楽曲を自動的に選択することができるという効果がある。
以下、この発明の実施の形態について、図面を参照しながら説明する。この発明の実施の形態では、周囲の環境騒音を解析して特徴量を抽出し、抽出した特徴量に応じて環境騒音を分類する。そして、環境騒音の分類結果に応じて、環境騒音レベルに適した楽曲を自動的に選択するようにしている。
この発明の実施の第1の形態について説明する。この発明の実施の第1の形態では、音楽再生装置にマイクロフォンを接続し、接続されたマイクロフォンから周囲の環境騒音を収音する。そして、収音された環境騒音の解析を行い、解析によって得られた環境騒音の特徴量に基づき環境騒音を分類し、環境騒音の分類毎に予め対応づけられた楽曲のカテゴリを自動的に選択するようにしている。
図1は、この発明の実施の第1の形態に適用可能な音楽再生装置1の一例の使用形態を示す。図1に示す例では、携帯型音楽再生装置などの音楽再生装置1に対してマイクロフォン20(以下、マイク20と適宜称する)およびヘッドフォン2が接続され、ユーザがヘッドフォン2を介して、音楽再生装置1に記録された楽曲を聴取している状態を示す。マイク20は、例えばヘッドフォン2の内部に設けられ、ユーザがヘッドフォン2を装着した状態での耳の位置で聞こえる環境騒音を収音する。
音楽再生装置1には、複数の楽曲がカテゴリ分類されて記録されている。楽曲のカテゴリ分類方法としては、例えば従来の楽曲分類方法を用いることができる。この例では、説明を容易とするため、音楽再生装置1に記録された楽曲が「ロック」および「クラシック」の2つのカテゴリのうちいずれかに分類されているものとする。
マイク20によって収音された環境騒音は、所定の処理よって解析され、解析結果に応じて分類される。この例では、環境騒音の解析結果として、例えば「乗り物」および「喫茶店」の2つの環境のうちいずれかに分類される。なお、この例では、楽曲の分類する方法とは別の方法を用いて、環境騒音の分類を行う。
環境騒音の分類と楽曲のカテゴリとの対応関係は、ユーザによって予め設定される。例えば、「乗り物」に分類された環境騒音と「ロック」のカテゴリとが対応づけられ、「喫茶店」に分類された環境騒音と「クラシック」のカテゴリとが対応づけられる。
ユーザが音楽再生装置1に対して環境騒音に応じた楽曲選択を指示すると、音楽再生装置1は、マイク20によって周囲の環境騒音を収音し、環境騒音の解析を行う。そして、音楽再生装置1は、環境騒音の解析結果に基づき、対応づけられた楽曲のカテゴリを選択し、選択されたカテゴリに分類された楽曲を再生する。例えば、環境騒音が「乗り物」に分類された場合には、楽曲のカテゴリとして「ロック」が選択される。また、環境騒音が「喫茶店」に分類された場合には、楽曲のカテゴリとして「クラシック」が選択される。
この発明の実施の第1の形態に適用可能な音楽再生装置1の一例の構成について、図2を参照して説明する。なお、図2では、この発明の実施の第1の形態と関係のない部分については図示せず、説明を省略する。音楽再生装置1は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、音声信号処理部14、記録再生制御部15、入力処理部16および操作部17がバス10を介して接続されている。
CPU11は、RAM13をワークメモリとして用い、ROM12に予め記憶されたプログラムに従いこの音楽再生装置1の全体の動作を制御する。例えば、CPU11は、バス10を介して各部とコマンドやデータのやりとりを行い、各部を制御する。また、CPU11は、後述する操作部17に対する操作に応じて、記録媒体18に記録された楽曲データの再生を制御する。
CPU11は、後述するマイク20で収音された環境騒音の騒音データを入力処理部16を介して受け取り、騒音データの解析を行う。そして、解析結果に応じて環境騒音を所定に分類し、分類毎に対応づけられた楽曲データの再生を制御する。
音声信号処理部14には、音声出力部19が接続される。音声信号処理部14は、再生対象である楽曲データを受け取り、楽曲データに対してD/A(Digital/Analog)変換等の各種処理を施し、アナログ音声信号に変換する。また、楽曲データが圧縮されている場合には、所定の圧縮方式を用いて伸長処理を施す。そして、音声信号処理部14は、変換されたアナログ音声信号を、音声信号処理部19を介して出力する。音声出力部19としては、例えばヘッドフォン2やスピーカを用いることができる。
記録再生制御部15には、記録媒体18が接続される。記録再生制御部15は、記録媒体18に対するデータの記録制御や、記録媒体18に記録されたデータの再生制御を行う。記録媒体18には、楽曲データや、CPU11における騒音データの解析の際に参照される騒音パラメータデータベースが記録されている。記録媒体18としては、例えば着脱可能な不揮発性メモリや、着脱可能または音楽再生装置1に内蔵されるハードディスクを用いることができる。なお、騒音パラメータデータベースの詳細については後述する。
入力処理部16には、マイク20が接続される。マイク20は、環境騒音を収音し、環境騒音の騒音データをアナログ音声信号に変換して入力処理部16に供給する。入力処理部16は、マイク20から供給されたアナログ音声信号に対してA/D(Analog/Digital)変換等の各種処理を施し、ディジタルの騒音データに変換する。変換された騒音データは、CPU11に供給される。
操作部17は、この音楽再生装置1を操作するために用いられる各種の操作子が設けられ、各操作子に対する操作に応じた制御信号を出力する。例えば、楽曲データを再生/停止するための再生キーや停止キー、環境騒音に応じた楽曲を自動的に選曲して再生するための操作子などが設けられている。
次に、環境騒音の分類方法について説明する。周囲の環境から聞こえてくる騒音は、電車・バスの車内や喫茶店など、その環境によってそれぞれ異なる。これらの環境騒音は、例えば、可聴周波数帯における低域の音量が大きい場合や、高域の音量が大きい場合など、環境によって異なる特徴を有している。
図3A、図3Bおよび図3Cは、それぞれ「喫茶店」、「電車」および「バス」において収音された環境騒音の周波数特性の一例を示す。この例は、収音された環境騒音の0.5秒程度の時間データに対してFFT(Fast Fourier Transform)により周波数解析を行った際の周波数特性である。これらの図において、横軸が周波数[Hz]を示し、縦軸がパワー[dB]を示す。図3A〜図3Cによれば、様々な環境において、各周波数におけるパワーの値が大きく異なることが判断できる。したがって、このような特徴を抽出することにより、ユーザがどのような環境にいるのかを判断することができる。
ところで、FFTによる周波数解析では、解析される時間データのサンプル数をx個とすると、パワーとして得られる周波数データは、x/2本となる。このとき、環境騒音の解析の精度を高めるためには、周波数分解能を高くする必要がある。そのためには、サンプル数をある程度の大きさに設定する必要がある。例えば、時間データのサンプル数を32768個とした場合、得られる周波数データは、16384本となる。
このようにして得られる環境騒音の周波数特性に基づき、例えば、各周波数におけるデータを特徴量として用いることができると考えられるが、この16384本の周波数データを環境騒音の特徴量として用いた場合、データが膨大となってしまうため、処理に時間を要してしまう。また、周波数データの時間的な変動も大きくなってしまうため、実用的ではない。
そこで、例えば、図4A、図4Bおよび図4Cに示すように、それぞれの環境における周波数データのエンベロープの傾き(図4において、点線で示す部分)およびエンベロープで囲まれた面積(図4において、斜線の部分)に注目する。例えば、電車やバスの車内では、喫茶店と比較して、低域のパワーが大きい。そのため、電車やバスの車内における騒音の周波数特性は、喫茶店における騒音の周波数特性と比較して、エンベロープの傾きが大きく、エンベロープで囲まれた部分の面積が大きくなることが判断できる。
したがって、この発明の実施の第1の形態では、この環境騒音の周波数領域におけるエンベロープの傾きと、エンベロープに囲まれた面積で示されるパワーの総和とを特徴量として算出する。
図5は、環境騒音の分類方法の一例について説明するためのブロック図である。この図5に示す環境騒音の分類は、CPU11で行われる。この例では、環境騒音に対する解析として、環境騒音の周波数領域におけるエンベロープおよびパワーの解析を行い、これらの解析結果を環境騒音の特徴量として算出する場合について説明する。
マイク20によって収音された環境騒音の騒音データTが周波数分析部31に供給される。周波数分析部31は、入力された騒音データTの所定時間、例えば0.5秒間程度の短い時間長を有する騒音データを用いて、騒音データTに対してFFT分析やOctave分析などの周波数分析を施し、周波数情報Sを取得する。取得した周波数情報Sは、エンベロープ解析部32およびパワー解析部33に供給される。
エンベロープ解析部32は、入力された周波数情報Sに基づき、騒音データTの周波数領域におけるエンベロープの解析を行い、例えば所定の周波数帯域におけるエンベロープを所定に数値化したエンベロープ情報Peを算出する。この例では、エンベロープ情報Peとして、例えば所定の周波数帯域におけるエンベロープの傾きの値が用いられる。算出したエンベロープ情報Peは、騒音判定部34に供給される。
パワー解析部33は、入力された周波数情報Sに基づき、騒音データTの周波数領域におけるパワーの解析を行い、例えば所定の周波数帯域におけるパワーを所定に数値化したパワー情報Ppを算出する。この例では、パワー情報Ppとして、例えば所定の周波数帯域におけるエンベロープで囲まれた部分の面積、すなわち所定の周波数帯域におけるパワーの総和の値が用いられる。算出したパワー情報Ppは、騒音判定部34に供給される。
騒音判定部34は、エンベロープ解析部32から供給されたエンベロープ情報Peおよびパワー解析部33から供給されたパワー情報Ppに基づき、騒音パラメータデータベース35を参照することによって環境騒音を分類し、分類結果を示す騒音情報を生成する。生成された騒音情報は、カテゴリ選択部36に供給される。
騒音パラメータデータベース35は、様々な環境における騒音データから抽出された特徴量に基づき、騒音データを環境毎に分類する際に用いられるデータベースである。この例では、環境騒音の特徴量として、エンベロープ情報およびPeパワー情報Ppが用いられ、これらの特徴量に基づき、比較対象となる環境騒音が分類される。この例では、騒音パラメータデータベース35に基づき、環境騒音が「乗り物」および「喫茶店」のうちいずれかに分類される。
カテゴリ選択部36は、騒音判定部34から供給された騒音情報に基づき、環境騒音の分類に応じた楽曲のカテゴリを選択する。例えば、環境騒音が「乗り物」に分類された場合には、「ロック」のカテゴリが選択され、環境騒音が「喫茶店」に分類された場合には、「クラシック」のカテゴリが選択される。そして、それぞれのカテゴリに分類された楽曲の中から所定の選択方法によって楽曲が選択され、再生される。
騒音パラメータデータベース35の作成方法について説明する。騒音パラメータデータベースを作成する場合には、図6Aに示すように、先ず、様々な環境において、実際に収音された環境騒音の騒音データを環境毎に分類する。この例では、例えば、収音された騒音データTを「乗り物」および「喫茶店」などの環境毎の騒音データに分類する。そして、これらの騒音データTを周波数分析部37に供給する。
周波数分析部37は、供給されたそれぞれの騒音データTに対して周波数分析を施し、周波数情報Sを取得する。取得した周波数情報Sは、エンベロープ解析部38およびパワー解析部39に供給される。エンベロープ解析部38は、周波数情報Sに基づき、それぞれの騒音データTにおけるエンベロープ情報Peを算出する。また、パワー解析部39は、周波数情報Sに基づき、それぞれの騒音データTにおけるパワー情報Ppを算出する。
次に、図6Bに示すように、算出されたエンベロープ情報Peおよびパワー情報Ppに基づき、それぞれの騒音データTをエンベロープ情報Peおよびパワー情報Ppの2次元平面上にマッピングする。「乗り物」や「喫茶店」などの環境毎に分類された騒音データTをマッピングすることにより、2次元平面上には、騒音データTの分類毎に境界が形成されるで、この分類毎の境界を示す境界線を設定する。
このようにして設定された境界線の情報と、特徴量に基づく2次元平面のデータとを騒音パラメータデータベース35として設定する。したがって、楽曲を再生する際に収音された騒音データTの特徴量に基づき、この騒音パラメータデータベース35を参照することにより、収音された環境騒音を分類することができる。例えば、収音された騒音データTのエンベロープ情報Peおよびパワー情報Ppに基づき騒音パラメータデータベース35とを参照し、収音された騒音データTが境界線の上側にあれば、環境騒音が「乗り物」に分類され、境界線の下側にあれば、環境騒音が「喫茶店」に分類される。
なお、分類毎の境界が明確である場合には、人の判断によって境界線を設定してもよい。しかしながら、分類毎の境界が明確でない場合や、特徴量が3次元以上である場合には、人の判断による境界の設定が困難となるため、例えば数学的な手法を用いて、分類毎の境界線を設定すると好ましい。
また、この環境騒音の分類では、「乗り物」や「喫茶店」など、環境騒音の状態を大まかに分類するものであり、具体的な環境騒音の状態を分類するものではない。すなわち、環境騒音の状態は、例えば飛行機に乗っている場合であっても「乗り物」に分類され、図書館にいる場合であっても「喫茶店」に分類されることもあり、ある程度の曖昧性を有しているものとする。
図7に示すフローチャートを参照して、この発明の実施の第1の形態における楽曲のカテゴリの選択方法について説明する。なお、特別な記載がない限り、以下の処理は、CPU11の制御の下で行われるものとする。ステップS1において、音楽再生装置1の電源がONとされる。ステップS2において、操作部17に設けられた、周囲の環境騒音に応じた楽曲の再生を指示するための操作子がユーザによって操作されると、ステップS3で、マイク20を介して環境騒音が収音され、環境騒音の騒音データTがCPU11に供給される。
ステップS4において、収音された環境騒音の騒音データTに対して周波数分析が施され、環境騒音の特徴量であるエンベロープ情報Peおよびパワー情報Ppが算出される。ステップS5では、算出されたエンベロープ情報Peおよびパワー情報Ppに基づき、騒音パラメータデータベースを参照して環境騒音の分類が行われる。この例では、収音された環境騒音が「乗り物」および「喫茶店」のうちいずれかに分類される。
ステップS6では、環境騒音の分類結果に基づき、対応づけられた楽曲のカテゴリを選択する。例えば、環境騒音が「乗り物」に分類された場合には、「ロック」のカテゴリが選択され、環境騒音が「喫茶店」に分類された場合には、「クラシック」のカテゴリが選択される。そして、ステップS7において、選択されたカテゴリに対応する楽曲の中から、所定の楽曲が選択され、対応する楽曲データが記録媒体18から読み出されて再生される。
ステップS8では、再生された楽曲が終了した際に、音楽を聴取し続けるか否かが判断される。音楽を聴取し続けると判断した場合には、処理がステップS3に戻り、マイク20を介して再度、環境騒音の収音が行われる。なお、楽曲を聴取し続ける場合には、例えば、選択されたカテゴリに対応する楽曲の中から再生された楽曲を除いて同一の楽曲が連続して再生されないようにし、ランダムに再生するようにしてもよい。また、例えば、カテゴリ毎に楽曲を再生する順序を予め設定しておき、この順序に従って再生するようにしてもよい。
一方、ステップS8において、音楽を聴取し続けないと判断した場合には、処理がステップS9に移行し、ユーザによって音楽再生装置1の電源がOFFとされ、一連の処理が終了する。
このように、この発明の実施の第1の形態では、音楽再生装置1に接続されたマイク20を用いて環境騒音を収音し、収音された環境騒音から抽出された特徴量に基づき、現在の環境を判断する。そして、判断の結果に基づいて予め対応づけられた楽曲のカテゴリを選択するようにしているため、環境に応じた適切な楽曲を自動的に選択することができる。
次に、この発明の実施の第1の形態の変形例について説明する。上述した実施の第1の形態に適用可能な環境騒音の分類方法では、環境騒音の特徴量であるエンベロープ情報Peおよびパワー情報Ppを算出する際に、例えば0.5秒程度の短い時間長を有する騒音データを用いて、環境騒音の分類を行っている。そのため、環境騒音の分類は、この騒音データを取得した短い時間に支配されてしまう。
すなわち、例えば、ユーザが喫茶店にいる場合であっても、周囲で人が会話をしている場合と会話をしていない場合とでは、環境騒音の特徴量が大きく変化してしまい、環境騒音の分類が適切に行われないおそれがある。
そこで、この発明の実施の第1の形態の変形例では、所定時間毎に環境騒音を収音して分類を行い、分類結果を所定回数分だけメモリに記憶させておく。そして、この所定回数分の分類結果に基づき、過去のデータになるほど重みが減少する重み係数を用いて現在の環境騒音を分類するようにしている。
図8は、この発明の実施の第1の形態の変形例に適用可能な環境騒音の分類方法の一例について説明するためのブロック図である。この図8に示す環境騒音の分類は、CPU11で行われる。ここでは、上述の実施の第1の形態と同様に、環境騒音に対する解析として、環境騒音の周波数領域におけるエンベロープおよびパワーの解析を行い、これらの解析結果を環境騒音の特徴量として算出する場合について説明する。また、上述の実施の第1の形態と同様の部分については、同一の符号を付し、説明を省略する。
第1の騒音判定部34は、マイク20によって収音された環境騒音の騒音データTに対して周波数分析を行うことによって得られるエンベロープ情報Peおよびパワー情報Ppが供給される。そして、供給されたエンベロープ情報Peおよびパワー情報Ppに基づき、騒音パラメータデータベース35を参照することによって環境騒音を分類し、分類結果を示す騒音情報を生成する。生成された騒音情報は、変換部41に供給される。
変換部41は、供給された騒音情報に基づき、分類結果を所定の数値に変換する。例えば、環境騒音が「乗り物」に分類された場合には、「0」に変換し、「喫茶店」に分類された場合には、「1」に変換する。分類結果に応じて数値に変換されたデータは、メモリ42に供給される。
メモリ42は、所定回数分、例えばn個分のデータを格納することができる領域を有している。メモリ42は、新しいデータが供給されると、格納されたデータを1つずつシフトし、時間的に最も古いデータを捨てるとともに、供給された新しいデータを格納する。
具体的には、例えば、メモリ42に新たなデータが供給された場合、メモリ42に格納されたデータの中で最も古いデータdnが捨てられるとともに、データdn-1が1つだけシフトされ、データdnとしてメモリ42に格納される。同様にして、データd3,d2およびd1がそれぞれ1つだけシフトされ、データd4,d3およびd2としてメモリ42に格納される。そして、新たに供給されたデータがd1としてメモリ42に格納される。
メモリ42に格納されたデータd1,d2,・・・,dnは、乗算器43,43,・・・にそれぞれ供給される。
乗算器43,43,・・・は、メモリ42から供給されたデータd1,d2,・・・,dnに対して、重み係数w1,w2,・・・,wnを畳み込み演算する。重み係数w1,w2,・・・,wnは、メモリ42に格納されたデータの重みを決定する係数であり、数式(1)で示されるように、過去のデータになるほど重みが減少するように設定されている。
1≧w1>w2>・・・>wn-1>wn≧0 ・・・(1)
それぞれのデータd1,d2,・・・,dnに対して重み係数w1,w2,・・・,wnを畳み込み演算した結果のデータは、加算器44に供給される。加算器44は、乗算器43,43,・・・から供給された畳み込み演算の結果のデータをそれぞれ加算し、第2の騒音判定部45に供給する。
第2の騒音判定部45は、加算器44から供給されたデータの平均値を算出し、算出結果に応じて環境騒音の判定を行う。この例では、環境騒音が「乗り物」に分類された場合には、「0」とし、「喫茶店」に分類された場合には、「1」としているため、「0.5」を基準として、データの平均値が「0.5」を超えていれば、環境騒音が「乗り物」であると判定する。また、データの平均値が「0.5」以下であれば、環境騒音が「喫茶店」であると判定する。そして、判定結果を示す情報を生成し、カテゴリ選択部46に供給する。
カテゴリ選択部46は、判定結果を示す情報に基づき、環境騒音の分類に応じた楽曲のカテゴリを選択する。例えば、環境騒音が「乗り物」に分類された場合には、「ロック」のカテゴリが選択され、環境騒音が「喫茶店」に分類された場合には、「クラシック」のカテゴリが選択される。そして、それぞれのカテゴリに分類された楽曲の中から所定の選択方法によって楽曲が選択され、再生される。
このように、この発明の実施の第1の形態の変形例では、所定時間毎に環境騒音を収音し、所定回数分の環境騒音の分類に基づいて楽曲のカテゴリを選択するようにしている。また、過去の環境騒音であるほど重みが減少するように演算するようにしている。そのため、上述の実施の第1の形態による環境騒音の分類方法と比較して、環境騒音の分類の精度を高めることができる。
なお、この実施の第1の形態および第1の形態の変形例では、マイク20をヘッドフォン2の内部に設けた場合について説明したが、これはこの例に限られない。例えば、マイク20をヘッドフォン2の外部に設けるようにしてもよいし、音楽再生装置1の筐体などに設けるようにしてもよい。ただし、マイク20を設ける位置によって、マイク20から収音される環境騒音の周波数特性などが変化してしまう。したがって、マイク20設ける位置を考慮して騒音パラメータデータベースを作成し、環境騒音の分類を行う必要がある。
次に、この発明の実施の第2の形態について説明する。この発明の実施の第2の形態では、音楽再生装置に接続されたマイクを介して収音された環境騒音の特徴量と、音楽再生装置に記録された楽曲の特徴量とを比較し、それぞれの特徴量が最も類似する楽曲を自動的に選択するようにしている。
上述の実施の第1の形態では、環境騒音の分類に対して予め楽曲のカテゴリを対応づけておき、環境騒音の分類結果に応じて、対応する楽曲のカテゴリを選択するようにしていた。このようにして楽曲のカテゴリを選択した場合、環境騒音を解析するアルゴリズムと楽曲のカテゴリ分類に用いられるアルゴリズムとが異なるため、同じカテゴリに分類された楽曲であっても、必ずしも環境騒音に適した楽曲が選択されるとは限らない。また、環境騒音と楽曲のカテゴリとの相性を確認するようにした場合、確認のための処理に時間を要してしまうおそれがある。
ここで、所定の環境騒音下で楽曲Xを聴取する場合について考える。図9は、環境騒音および楽曲Xの周波数特性を示す。斜線で示す環境騒音のエンベロープに囲まれた部分は、環境騒音によってマスクされる領域を示す。マスクされる領域内に存在する楽曲データの周波数成分による音は、環境騒音の周波数成分による音よってかき消され、聴取することができない。
このような環境騒音下で楽曲Xを聴取した場合、環境騒音のエンベロープの形状と楽曲Xのエンベロープの形状とが異なり、点線で囲まれた領域Aで示す楽曲Xの周波数成分が環境騒音のマスク領域内に存在している。そのため、楽曲Xの周波数成分のうち、領域Aで示す周波数成分が環境騒音の周波数成分によってマスクされてしまう。このマスクされた楽曲Yの周波数成分は、楽曲Yの周波数成分のうち最もパワーが大きい部分であり、この楽曲Yの主要な周波数成分であると考えられる。そのため、楽曲の主要部分が環境騒音によってマスクされてしまい、楽曲を適切に聴取することができなくなってしまう。
したがって、この楽曲Xを適切に聴取する場合には、ボリュームをかなり上げる必要がある。しかしながら、ボリュームをかなり上げた場合、全ての周波数成分のパワーが大きくなってしまうため、本来聞こえていた周波数成分の音、すなわち一点鎖線で囲まれた領域Bで示す楽曲Xの周波数成分の音が聞こえすぎてしまう。
一方、図10は、環境騒音および別の楽曲Yの周波数特性を示す。図10に示す例では、楽曲Yの周波数成分のほとんどが、斜線で示す環境騒音のマスク領域内に存在している。そのため、この状態では、楽曲Yのほとんどの周波数成分がマスクされてしまい、楽曲Yを聴取することができない。
しかしながら、楽曲Yのエンベロープの形状は、環境騒音のエンベロープの形状に類似しているため、ボリュームを上げることにより、楽曲のほとんどの周波数成分が環境騒音のマスク領域から外れる。そのため、環境騒音にかき消されることなく楽曲Yを適切に聴取することができる。また、上述の図9に示す楽曲Xと比較して、ボリュームを上げる量を少なくすることができる。
したがって、この発明の実施の第2の形態では、環境騒音及び楽曲の特徴量を抽出し、環境騒音のエンベロープの形状と楽曲のエンベロープの形状とが類似する楽曲を選択するようにしている。
図11は、この発明の実施の第2の形態に適用可能な音楽再生装置1の一例の使用形態を示す。図11に示す例では、この実施の第1の形態と同様に、ヘッドフォン2の内部に設けられるとともに、音楽再生装置1に接続されたマイク20を介して環境騒音を収音する。音楽再生装置1は、マイク20によって収音された環境騒音に対して所定に解析を行い、特徴量を抽出する。また、音楽再生装置1は、音楽再生装置1に記録された楽曲に対して、環境騒音の特徴量の抽出方法と同一の方法を用いて所定に解析を行い、特徴量を抽出する。そして、環境騒音の特徴量と楽曲の特徴量とを比較し、それぞれの特徴量が最も類似する楽曲を選択する。
図12は、環境騒音に応じた楽曲の選択方法の一例について説明するためのブロック図である。図12に示す楽曲の選択は、CPU11で行われる。この例では、環境騒音および楽曲に対する解析として、周波数領域におけるエンベロープおよびパワーの解析を行う。そして、環境騒音および楽曲それぞれのエンベロープおよびパワーを数値化した情報をそれぞれの特徴量として算出する場合について説明する。
マイク20によって収音された環境騒音の騒音データNTが周波数分析部51に供給される。周波数分析部51は、入力された騒音データNTの所定時間、例えば0.5秒間程度の短い時間長を有する騒音データを用いて、騒音データNTに対してFFT分析やOctave分析などの周波数分析を施し、周波数情報NSを取得する。取得した周波数情報NSは、エンベロープ解析部52およびパワー解析部53に供給される。
エンベロープ解析部52は、入力された周波数情報NSに基づき、騒音データNTの周波数領域におけるエンベロープの解析を行い、例えば所定の周波数帯域におけるエンベロープの傾きを数値化したエンベロープ情報NPeを算出する。算出したエンベロープ情報NPeは、類似度判定部58に供給される。
パワー解析部53は、入力された周波数情報NSに基づき、騒音データNTの周波数領域におけるパワーの解析を行い、例えば所定の周波数帯域におけるパワーの総和を数値化したパワー情報NPpを算出する。算出したパワー情報NPpは、類似度判定部58に供給される。
一方、音楽再生装置1に記録された楽曲の楽曲データMTが周波数分析部54に供給される。周波数分析部54は、入力された楽曲データMTの所定時間、例えば0.5秒間程度の短い時間長を有する楽曲データを用いて、楽曲データMTに対してFFT分析やOctave分析などの周波数分析を施し、周波数情報MSを取得する。取得した周波数情報MSは、エンベロープ解析部55およびパワー解析部56に供給される。
エンベロープ解析部55は、入力された周波数情報MSに基づき、楽曲データMTの周波数領域におけるエンベロープの解析を行い、例えば所定の周波数帯域におけるエンベロープの傾きを数値化したエンベロープ情報MPeを算出する。算出したエンベロープ情報MPeは、楽曲特徴量データベース57に供給される。
パワー解析部56は、入力された周波数情報MSに基づき、楽曲データMTの周波数領域におけるパワーの解析を行い、例えば所定の周波数帯域におけるパワーの総和を数値化したパワー情報MPpを算出する。算出したパワー情報MPpは、楽曲特徴量データベース57に供給される。
楽曲特徴量データベース57は、音楽再生装置1に記録された全ての楽曲データの特徴量が楽曲毎に対応づけられて記録されている。この例では、楽曲データMTのエンベロープ情報MPeおよびパワー情報MPpが特徴量として記録されている。音楽再生装置1に対して新たに楽曲データが記録された場合には、エンベロープ解析部55およびパワー解析部56で算出されたエンベロープ情報MPeおよびパワー情報MPpが楽曲特徴量データベース57に供給され、楽曲に対応づけられて記録される。
類似度判定部58は、騒音データNTのエンベロープ情報NPeおよびパワー情報NPpと、楽曲特徴量データベース57に記録された全ての楽曲データMTのエンベロープ情報MPeおよびパワー情報MPpとを用い、環境騒音に対して最も類似度の高い楽曲を選択する。
類似度判定部58における環境騒音および楽曲の類似度の判定方法について説明する。例えば、図13に示すように、騒音データNTと楽曲データMTとを、それぞれの特徴量であるエンベロープ情報Peおよびパワー情報Ppの2次元平面上にマッピングした場合について考える。図13では、マイク20で収音された環境騒音の騒音データNTと、および音楽再生装置1に記録された楽曲の楽曲データM1〜M9とがマッピングされている一例を示す。環境騒音および楽曲の類似度は、環境騒音の騒音データNTとそれぞれの楽曲の楽曲データM1〜M9との位置関係に基づき判定される。
このような場合において、環境騒音と楽曲とが最も類似する場合とは、それぞれの特徴量の差分が最小となる場合であると考えられる。すなわち、環境騒音からの距離Lが最短となる楽曲データの楽曲が、環境騒音と最も類似する楽曲である。環境騒音および楽曲の距離は、数式(2)に基づき、騒音データNTおよび楽曲データM1〜M9のエンベロープ情報の差分の2乗とそれぞれのパワー情報の差分の2乗とを加算することにより算出される。
L=(NPe−MPe)2+(NPp−MPp)2 ・・・(2)
この例では、騒音データNTおよび楽曲データM1〜M9の距離L1〜L9を数式(2)に基づいて算出した結果、騒音データNTと楽曲データM3との距離L3が最短であると判定され、環境騒音と最も類似する楽曲として、楽曲データM3の楽曲が選択される。
図14に示すフローチャートを参照して、この発明の実施の第2の形態における楽曲の選択方法について説明する。なお、特別な記載がない限り、以下の処理は、CPU11の制御の下で行われるものとする。ステップS11において、音楽再生装置1の電源がONとされる。ステップS12では、操作部17に設けられた、周囲の環境騒音に応じた楽曲の再生を指示するための操作子がユーザによって操作される。
ステップS13において、音楽再生装置1に記録された全ての楽曲について、特徴量が算出され楽曲特徴量データベース57に記録されているか否かが判断される。全ての楽曲について特徴量を算出していないと判断された場合には、処理がステップS14に移行し、特徴量算出の対象となる楽曲が選択される。一方、全ての楽曲について特徴量を算出したと判断された場合には、処理がステップS19に移行する。
ステップS15では、選択された楽曲の楽曲データMTに対して周波数分析が施され、楽曲の特徴量であるエンベロープ情報MPeおよびパワー情報MPpが算出される。ステップS16では、算出されたエンベロープ情報MPeおよびパワー情報MPpが保持される。
ステップS17では、特徴量算出の対象となった全ての楽曲について、特徴量を算出したか否かが判断される。特徴量算出の対象となった全ての楽曲の特徴量を算出したと判断された場合には、処理がステップS18に移行し、算出された特徴量が楽曲特徴量データベース57に記録される。一方、ステップS17において、特徴量算出の対象となった全ての楽曲の特徴量を算出していないと判断された場合には、処理がステップS14に戻り、特徴量算出の対象となる別の楽曲が選択される。
ステップS19では、マイク20を介して環境騒音が収音され、環境騒音の騒音データNTがCPU11に供給される。ステップS20では、収音された環境騒音の騒音データNTに対して周波数分析が施され、環境騒音の特徴量であるエンベロープ情報NPeおよびパワー情報NPpが算出される。ステップS21では、算出したエンベロープ情報NPeおよびパワー情報NPpが保持される。
ステップS22では、騒音データNTのエンベロープ情報NPeおよびパワー情報NPpと、楽曲特徴量データベース57に記録された楽曲データMTのエンベロープ情報MPeおよびパワー情報MPpとを用い、上述の数式(2)に基づき特徴量の距離が算出される。そして、算出された距離が最も短い楽曲が、特徴量が最も近い楽曲として選択され、対応する楽曲データが記録媒体18から読み出されて再生される。
ステップS23では、再生された楽曲が終了した際に、音楽を聴取し続けるか否かが判断される。音楽を聴取し続けると判断した場合には、処理がステップS19に戻り、マイク20を介して再度、環境騒音の収音が行われる。
ここで、楽曲を聴取し続ける場合において、環境騒音が常時変化しないときや、環境騒音の変化が小さいときには、環境騒音と楽曲との類似度が最も高いものとして、前回と同一の楽曲が選択されてしまうおそれがある。したがって、この場合には、一度選択された楽曲を所定回数選択されないようにすることによって同一の楽曲が連続して再生されないようにし、類似度が次に高い楽曲を選択するようにすると好ましい。
一方、ステップS23において、音楽を聴取し続けないと判断した場合には、処理がステップS24に移行し、ユーザによって音楽再生装置1の電源がOFFとされ、一連の処理が終了する。
なお、この例では、ステップS12で周囲の環境騒音に応じた楽曲の再生が指示された場合に、楽曲データMTの特徴量を算出して楽曲特徴量データベース57への記録を行うように説明したが、これはこの例に限られない。例えば、音楽再生装置1の記録媒体18に新たな楽曲が記録された際に、この楽曲の特徴量を算出して楽曲特徴量データベース57に記録するようにしてもよい。
このように、この発明の実施の第2の形態では、環境騒音および楽曲の特徴量を同一の方法を用いて抽出し、それぞれの特徴量が最も類似する楽曲を選択するようにしている。そのため、ユーザによるボリューム操作などの操作を最低限にすることができ、騒音にかき消されることなく楽曲を聴取することができる。
なお、この発明の実施の第2の形態による楽曲の選択方法としては、環境騒音および楽曲の特徴量の類似度が最も高い楽曲を選択する方法の他に、環境騒音および楽曲の特徴量の類似度が最も低い楽曲を選択する方法が考えられる。
例えば、所定の環境騒音下において楽曲Zを聴取する場合について考える。図15は、環境騒音および楽曲Zの周波数特性を示す。この場合、楽曲Zのエンベロープの形状は、環境騒音のエンベロープの形状と大きく異なり、環境騒音によってマスクされる領域が少ない。また、この楽曲Zの主要部分と考えられる、楽曲Zの最もパワーの大きい周波数成分が環境騒音によってマスクされていない。そのため、楽曲Zは、ボリュームを上げることなく聴取することができると考えられる。
したがって、環境騒音および楽曲の類似度が低い楽曲、すなわち、環境騒音および楽曲のエンベロープの形状が異なる楽曲を選択することによっても、環境騒音下において適切な楽曲を聴取することができる。
図16は、マイク20で収音された環境騒音の騒音データNTおよび音楽再生装置1に記録された楽曲の楽曲データM1〜楽曲データM9が特徴量であるエンベロープ情報Peおよびパワー情報Ppの2次元平面上にマッピングされている一例を示す。
このような場合において、環境騒音および楽曲の類似度が最も低い場合とは、それぞれの特徴量の差分が最大となる場合であると考えられる。すなわち、環境騒音からの距離Lが最長となる楽曲データの楽曲が、環境騒音との類似度が最も低い楽曲である。したがって、環境騒音および楽曲の距離を上述の数式(2)に基づき算出することにより、環境騒音との類似度が最も低い楽曲を選択することができる。
この例では、騒音データNTおよび楽曲データM1〜M9の距離L1〜L9を数式(2)に基づいて算出した結果、騒音データNTと楽曲データM7との距離L7が最長であると判定され、環境騒音と最も類似する楽曲として、楽曲データM7の楽曲が選択される。
なお、この発明の実施の第2の形態では、上述の実施の第1の形態と同様に、マイク20をヘッドフォン2の外部や音楽再生装置1の筐体などに設けるようにしてもよい。
次に、この発明の実施の第3の形態について説明する。この発明の実施の第3の形態では、上述した実施の第1の形態に対して、騒音を低減させるノイズキャンセル機能を適用する。そして、ノイズキャンセルを施され騒音が低減した環境騒音に対して環境騒音の分類を行い、分類結果に応じて楽曲のカテゴリを自動的に選択するようにしている。
図17は、この発明の実施の第3の形態に適用可能な音楽再生装置1’の一例の使用形態を示す。図17に示す例では、音楽再生装置1’に対してマイク20またはマイク20’、およびヘッドフォン2’が接続され、ユーザがヘッドフォン2’を介して、音楽再生装置1’に記録された楽曲を聴取している状態を示す。
音楽再生装置1’は、ノイズキャンセル機能を有し、ノイズキャンセル機能をONとした場合、マイク20またはマイク20’で収音された環境騒音に対してノイズキャンセルを施し、ユーザに聞こえる環境騒音を低減させる。マイク20は、例えばヘッドフォン2’の内部に設けられ、ユーザがヘッドフォン2を装着した状態での耳の位置で聞こえる環境騒音を収音する。また、マイク20’は、例えばヘッドフォン2の外部に設けられている。
なお、ノイズキャンセル機能は、ONまたはOFFとすることができるが、ノイズキャンセル機能をOFFとした場合については、上述した実施の第1の形態と同様であるので、ここでは、ノイズキャンセル機能をONとした場合について説明する。
ユーザが音楽再生装置1’に対して環境騒音に応じた楽曲選択を指示すると、音楽再生装置1’は、マイク20または20’によって周囲の環境騒音を収音する。ノイズキャンセル機能がONとされている場合には、ノイズキャンセル機能による騒音の低減処理を行った後、騒音が低減された環境騒音の解析を行う。そして、音楽再生装置1’は、騒音が低減された環境騒音の解析結果に基づき、対応づけられた楽曲のカテゴリを選択し、選択されたカテゴリに分類された楽曲を再生する。なお、ノイズキャンセル機能がOFFとされている場合には、環境騒音の低減処理を行わない。
ここで、ヘッドフォン2’の内部に設けられたマイク20を用いた場合、マイク20は、ユーザの耳の位置で環境騒音を収音する。したがって、ノイズキャンセル機能がONの場合、マイク20によって収音される環境騒音は、ノイズキャンセル機能によって騒音が低減されたものとなる。
一方、ヘッドフォン2’の外部に設けられたマイク20’を用いた場合、マイク20’は、ユーザの耳の位置とは異なる位置で環境騒音を収音する。したがって、ノイズキャンセル機能がONである場合であっても、マイク20’によって収音される環境騒音は、騒音が低減されたものではない。
このように、ヘッドフォン2’の内部に設けられたマイク20を用いた場合と、外部に設けられたマイク20’を用いた場合とでは、収音される環境騒音の状態が異なるため、それぞれの環境騒音に対して異なる分類方法を用いる必要がある。
先ず、ヘッドフォン2’の内部にマイク20が設けられている場合の環境騒音の分類方法について説明する。上述したように、ヘッドフォン2’の内部に設けられたマイク20を用いた場合には、ユーザの耳の位置における環境騒音が収音される。そのため、ノイズキャンセル機能をONとした際に、マイク20によって収音される環境騒音は、ユーザに対して聞こえる環境騒音と同等の、騒音が低減された状態のものである。
したがって、マイク20によって収音された、騒音が低減された環境騒音の分類を行うことにより、ユーザに聞こえる環境騒音に応じた楽曲のカテゴリを選択することができる。
図18は、環境騒音の分類方法の一例について説明するためのブロック図である。この図18に示す環境騒音の分類は、CPU11で行われる。この場合、上述した実施の第1の形態と同様の処理を行うことにより環境騒音を分類することができる。したがって、上述の実施の第1の形態と同様の部分については、同一の符号を付し、詳細な説明を省略する。マイク20は、ノイズキャンセル機能がONの場合に、騒音が低減された環境騒音の騒音データCT(以下、低減騒音データCTと適宜称する。)を収音し、ノイズキャンセル機能がOFFの場合に、環境騒音の騒音データTを収音する。収音された騒音データTまたは低減騒音データCTが周波数分析部31に供給される。
周波数分析部31は、入力された騒音データTまたは低減騒音データCTに対して周波数分析を施して得られる周波数情報Sを、エンベロープ解析部32およびパワー解析部33に供給する。エンベロープ解析部32およびパワー解析部33は、周波数情報Sに基づき、それぞれエンベロープ情報Peおよびパワー情報Ppを算出し、騒音判定部34に供給する。騒音判定部34は、エンベロープ情報Peおよびパワー情報Ppに基づき、騒音パラメータデータベース35を参照することによって環境騒音を分類し、分類結果を示す騒音情報を生成してカテゴリ選択部36に供給する。
カテゴリ選択部36は、騒音判定部34から供給された騒音情報に基づき、環境騒音の分類に応じた楽曲のカテゴリを選択する。そして、それぞれのカテゴリに分類された楽曲の中から所定の選択方法によって楽曲が選択され、再生される。
図19に示すフローチャートを参照して、マイク20を用いて環境騒音を収音した場合における、楽曲のカテゴリの選択方法について説明する。なお、特別な記載がない限り、以下の処理は、CPU11の制御の下で行われるものとする。
ステップS31において、音楽再生装置1’の電源がONとされる。ステップS32において、周囲の環境騒音に応じた楽曲の再生の指示がユーザによってなされると、ステップS33で、マイク20を介して環境騒音が収音され、環境騒音の騒音データTまたはノイズキャンセルが施された低減騒音データCTがCPU11に供給される。
ステップS34において、収音された環境騒音の騒音データTまたは低減騒音データCTに対して周波数分析が施され、特徴量であるエンベロープ情報Peおよびパワー情報Ppが算出される。ステップS35では、算出されたエンベロープ情報Peおよびパワー情報Ppに基づき、騒音パラメータデータベースを参照して環境騒音の分類が行われる。
ステップS36では、環境騒音の分類結果に基づき、対応づけられた楽曲のカテゴリを選択する。そして、ステップS37において、選択されたカテゴリに対応する楽曲の中から、所定の楽曲が選択され、対応する楽曲データが記録媒体18から読み出されて再生される。
ステップS38では、再生された楽曲が終了した際に、音楽を聴取し続けるか否かが判断され、音楽を聴取し続けると判断した場合には、処理がステップS33に戻り、マイク20を介して再度、環境騒音の収音が行われる。一方、ステップS38において、音楽を聴取し続けないと判断した場合には、処理がステップS39に移行し、ユーザによって音楽再生装置1’の電源がOFFとされ、一連の処理が終了する。
次に、ヘッドフォン2’の外部にマイク20’が設けられている場合の環境騒音の分類方法について説明する。上述したように、ヘッドフォン2’の外部に設けられたマイク20’を用いた場合には、ユーザの耳の位置とは異なる位置における環境騒音が収音される。そのため、ノイズキャンセル機能をONとした際に、ユーザに対して聞こえる環境騒音は低減されるが、マイク20’によって収音される環境騒音は、騒音が低減されない状態のものである。
このように収音された環境騒音の分類を行っても、実際にユーザに聞こえる環境騒音と、マイク20’によって収音された環境騒音とが異なるため、ユーザに聞こえる環境騒音に応じた楽曲のカテゴリを選択することができないおそれがある。
そこで、このような場合には、収音された環境騒音に対してノイズキャンセル機能がONである場合と等価な環境騒音となるような処理を施すことによって得られる、騒音が低減された環境騒音に対して分類を行う。
図20は、環境騒音の分類方法の一例について説明するためのブロック図である。この図20に示す環境騒音の分類は、CPU11で行われる。なお、上述の実施の第1の形態と同様の部分については、同一の符号を付し、詳細な説明を省略する。マイク20’によって収音された環境騒音の騒音データT’が等価フィルタ61および選択部62の一方の入力端子62aに供給される。
等価フィルタ61は、収音された環境騒音の騒音データT’に対してノイズキャンセル機能を用いた際に得られる低減効果と同等の効果が得られる処理を施し、騒音が低減された低減騒音データCT’を生成する。生成された低減騒音データCT’は、選択部62の他方の入力端子62bに供給される。
選択部62は、CPU11による制御に基づき、入力端子62aおよび62bのうちいずれかの入力端子を選択し、選択された入力端子に供給されたデータを周波数分析部31に供給する。例えば、ノイズキャンセル機能がOFFの場合には、入力端子62aが選択され、騒音データT’を周波数分析部31に供給する。また、ノイズキャンセル機能がONの場合には、入力端子62bが選択され、低減騒音データCT’を周波数分析部31に供給する。
周波数分析部31は、入力された騒音データT’または低減騒音データCT’に対して周波数分析を施して得られる周波数情報Sを、エンベロープ解析部32およびパワー解析部33に供給する。エンベロープ解析部32およびパワー解析部33は、周波数情報Sに基づき、それぞれエンベロープ情報Peおよびパワー情報Ppを算出し、騒音判定部34に供給する。騒音判定部34は、エンベロープ情報Peおよびパワー情報Ppに基づき、騒音パラメータデータベース35を参照することによって環境騒音を分類し、分類結果を示す騒音情報を生成してカテゴリ選択部36に供給する。
カテゴリ選択部36は、騒音判定部34から供給された騒音情報に基づき、環境騒音の分類に応じた楽曲のカテゴリを選択する。そして、それぞれのカテゴリに分類された楽曲の中から所定の選択方法によって楽曲が選択され、再生される。
なお、等価フィルタ61による騒音データT’に対する低減効果は、ノイズキャンセル機能による低減効果と必ずしも完全に一致させる必要はない。ここでは、低減された環境騒音を正確に再現する必要はなく、ノイズキャンセル機能によって環境騒音の特徴量が大局的にどのように変化したかが判断できる程度でよい。
図21に示すフローチャートを参照して、マイク20’を用いて環境騒音を収音した場合における、楽曲のカテゴリの選択方法について説明する。なお、特別な記載がない限り、以下の処理は、CPU11の制御の下で行われるものとする。
ステップS41において、音楽再生装置1’の電源がONとされる。ステップS42において、周囲の環境騒音に応じた楽曲の再生の指示がユーザによってなされると、ステップS43で、マイク20’を介して環境騒音が収音され、環境騒音の騒音データT’がCPU11に供給される。
ステップS44では、ノイズキャンセル機能がONであるか否かが判断される。ノイズキャンセル機能がONである場合には、処理がステップS45に移行する。一方、ノイズキャンセル機能がOFFである場合には、処理がステップS46に移行する。ステップS45では、収音された環境騒音の騒音データT’に対してノイズキャンセルを施した際に得られる低減効果と同等の効果が得られる処理が施され、騒音が低減された環境騒音の低減騒音データCT’が生成される。
ステップS46において、収音された環境騒音の騒音データT’または低減騒音データCT’に対して周波数分析が施され、特徴量であるエンベロープ情報Peおよびパワー情報Ppが算出される。ステップS47では、算出されたエンベロープ情報Peおよびパワー情報Ppに基づき、騒音パラメータデータベースを参照して環境騒音の分類が行われる。
ステップS48では、環境騒音の分類結果に基づき、対応づけられた楽曲のカテゴリを選択する。そして、ステップS49において、選択されたカテゴリに対応する楽曲の中から、所定の楽曲が選択され、対応する楽曲データが記録媒体18から読み出されて再生される。
ステップS50では、再生された楽曲が終了した際に、音楽を聴取し続けるか否かが判断され、音楽を聴取し続けると判断した場合には、処理がステップS43に戻り、マイク20を介して再度、環境騒音の収音が行われる。一方、ステップS50において、音楽を聴取し続けないと判断した場合には、処理がステップS51に移行し、ユーザによって音楽再生装置1’の電源がOFFとされ、一連の処理が終了する。
このように、この発明の実施の第3の形態では、収音した環境騒音に対してノイズキャンセル機能、またはノイズキャンセルと等価の処理を適用することにより、楽曲を聴取する際の環境騒音が低減される。そして、騒音が低減された環境騒音から抽出された特徴量に基づき、現在の環境を判断し、判断の結果に基づいて予め対応づけられた楽曲のカテゴリを選択するようにしているため、環境に応じた適切な楽曲を自動的に選択することができる。
また、例えば「乗り物」の車内などの騒音レベルが高い環境においても、環境騒音が「喫茶店」などの騒音レベルが低い環境に分類され、「クラシック」のカテゴリに分類されるような静かな楽曲など、従来では環境騒音に適さないような楽曲を聴取することができる。
なお、この発明の実施の第3の形態では、上述した実施の第1の形態に対してノイズキャンセル機能を適用した場合について説明したが、これはこの例に限られない。例えば、上述した実施の第2の形態に対してノイズキャンセル機能を適用するようにしてもよい。この場合には、ノイズキャンセル機能により騒音が低減した環境騒音の特徴量と、楽曲の特徴量とを比較し、それぞれの特徴量の類似度が最も高いまたは低い楽曲を選択する。こうすることにより、ユーザは、環境に適した楽曲を聴取することができる。
以上、この発明の実施の第1の形態、第1の形態の変形例、第2の形態および第3の形態について説明したが、この発明は、上述したこの発明の実施の第1の形態、第1の形態の変形例、第2の形態および第3の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。上述した例では、環境騒音に対する解析方法として周波数解析を用いたが、これに限られず、例えば、時間波形の解析を行ってもよい。
また、例えば、環境騒音の特徴量として、エンベロープおよびパワーを用いた場合について説明したが、これはこの例に限られず、他の特徴量を用いてもよい。また、2つの特徴量に限られず、3つ以上の特徴量に基づいて環境騒音を分類してもよい。
さらに、上述した例では、環境騒音を「乗り物」および「喫茶店」に分類して説明したが、これはこの例に限られない。例えば3つ以上に分類してもよいし、その他の環境に分類してもよい。さらにまた、楽曲のカテゴリについても、「ロック」および「クラシック」に限らず、その他のカテゴリに分類してもよいし、例えば「明るい曲」や「落ち着く曲」など、ユーザの気分に合わせたカテゴリに分類するようにしてもよい。
この発明の実施の第1の形態に適用可能な音楽再生装置の一例の使用形態を示す略線図である。 この発明の実施の第1の形態に適用可能な音楽再生装置の一例の構成を示すブロック図である。 環境騒音の周波数特性の一例を示す略線図である。 環境騒音の特徴量について説明するための略線図である。 環境騒音の分類方法の一例について説明するためのブロック図である。 騒音パラメータデータベースの作製方法について説明するための略線図である。 この発明の実施の第1の形態における楽曲のカテゴリの選択方法について説明するためのフローチャートである。 この発明の実施の第1の形態の変形例に適用可能な環境騒音の分類方法の一例について説明するためのブロック図である。 環境騒音および楽曲の周波数特性を示す略線図である。 環境騒音および別の楽曲の周波数特性を示す略線図である。 この発明の実施の第2の形態に適用可能な音楽再生装置の一例の使用形態を示す略線図である。 環境騒音に応じた楽曲の選択方法の一例について説明するためのブロック図である。 騒音データおよび楽曲データの類似度について説明するための略線図である。 この発明の実施の第2の形態における楽曲の選択方法について説明するためのフローチャートである。 環境騒音およびさらに別の楽曲の周波数特性を示す略線図である。 騒音データおよび楽曲データの類似度について説明するための略線図である。 この発明の実施の第3の形態に適用可能な音楽再生装置の一例の使用形態を示す略線図である。 ヘッドフォンの内部に設けられたマイクを用いた場合における環境騒音の分類方法の一例について説明するためのブロック図である。 ヘッドフォンの内部に設けられたマイクを用いた場合における楽曲のカテゴリの選択方法について説明するためのフローチャートである。 ヘッドフォンの外部に設けられたマイクを用いた場合における環境騒音の分類方法の一例について説明するためのブロック図である。 ヘッドフォンの内部に設けられたマイクを用いた場合における楽曲のカテゴリの選択方法について説明するためのフローチャートである。 従来の音楽再生装置の一例の使用形態を示す略線図である。 従来の音楽再生装置における楽曲のカテゴリの選択方法について説明するためのフローチャートである。
符号の説明
1,1’ 音楽再生装置
2,2’ ヘッドフォン
11 CPU
14 音声信号処理部
18 記録媒体
19 音声出力部
20,20’ マイクロフォン
31,37、51,54 周波数分析部
32,38,52,55 エンベロープ解析部
33,39,53,56 パワー解析部
34,45 騒音判定部
35 騒音パラメータデータベース
36,46 カテゴリ選択部
41 変換部
42 メモリ
43 乗算器
44 加算器
57 楽曲特徴量データベース
58 類似度判定部
61 等価フィルタ
62 選択部
62a,62b 入力端子

Claims (9)

  1. 周囲の環境の騒音データを収音する収音部と、
    上記収音部により収音された騒音データに対して周波数解析を行い、上記騒音データの特徴を示す特徴量を抽出する解析部と、
    騒音データを環境毎に分類するための騒音パラメータデータベースと、
    記録媒体に記録されカテゴリ毎に分類された楽曲データを再生する再生部と
    を備え、
    上記解析部は、
    抽出された上記騒音データの特徴量に基づき、上記騒音パラメータデータベースを参照して上記騒音データを分類し、上記分類を所定時間毎に行いその分類結果を所定回数分メモリに記憶し、上記メモリに記憶された上記所定回数分の分類結果に対して、過去の分類結果ほど重みが減少する重み係数をそれぞれ畳み込み演算し、上記重み係数が畳み込み演算された上記所定回数分の分類結果の平均に基づき上記騒音データを分類し、
    上記騒音データの分類結果に応じて、予め対応づけられた楽曲のカテゴリを選択し、上記選択されたカテゴリに分類された楽曲データの中から所定の楽曲データを選択する楽曲再生装置。
  2. 上記解析部は、上記騒音データの所定周波数領域におけるエンベロープの傾きを上記特徴量として抽出する請求項1に記載の楽曲再生装置。
  3. 上記解析部は、上記騒音データの所定周波数領域におけるパワーの総和を上記特徴量として抽出する請求項1に記載の楽曲再生装置。
  4. 上記解析部は、上記収音部により収音された騒音データに対してさらに時間波形解析を行い、上記騒音データの特徴量を抽出する請求項1に記載の楽曲再生装置。
  5. 上記収音部により収音された騒音データに対して騒音レベルを低減させる騒音低減部をさらに備え、
    上記解析部は、上記騒音低減部により騒音が低減された騒音データに対して周波数解析を行う請求項1に記載の楽曲再生装置。
  6. 上記再生部で再生された楽曲データを出力する音声出力部をさらに備え、
    上記収音部は、上記音声出力部の内部に設けられる請求項5に記載の楽曲再生装置。
  7. 上記再生部で再生された楽曲データを出力する音声出力部をさらに備え、
    上記収音部は、上記音声出力部の外部に設けられる請求項5に記載の楽曲再生装置。
  8. 収音部と、解析部と、騒音データを環境毎に分類するための騒音パラメータデータベースと、再生部とを備える楽曲再生装置によって実行される楽曲再生方法であって、
    上記収音部が、周囲の環境の騒音データを収音する収音ステップと、
    上記解析部が、上記収音ステップおいて収音された騒音データに対して周波数解析を行い、上記騒音データの特徴を示す特徴量を抽出する解析ステップと、
    上記再生部が、記録媒体に記録されカテゴリ毎に分類された楽曲データを再生する再生ステップとを有し、
    上記解析ステップは、
    抽出された上記騒音データの特徴量に基づき、上記騒音パラメータデータベースを参照して上記騒音データを分類し、上記分類を所定時間毎に行いその分類結果を所定回数分メモリに記憶し、上記メモリに記憶された上記所定回数分の分類結果に対して、過去の分類結果ほど重みが減少する重み係数をそれぞれ畳み込み演算し、上記重み係数が畳み込み演算された上記所定回数分の分類結果の平均に基づき上記騒音データを分類し、
    上記騒音データの分類結果に応じて、予め対応づけられた楽曲のカテゴリを選択し、上記選択されたカテゴリに分類された楽曲データの中から所定の楽曲データを選択する楽曲再生方法。
  9. 周囲の環境の騒音データを収音する収音ステップと、
    上記収音ステップにおいて収音された騒音データに対して周波数解析を行い、上記騒音データの特徴を示す特徴量を抽出する解析ステップと、
    記録媒体に記録されカテゴリ毎に分類された楽曲データを再生する再生ステップとを有し、
    上記解析ステップは、
    抽出された上記騒音データの特徴量に基づき、騒音データを環境毎に分類するための騒音パラメータデータベースを参照して上記騒音データを分類し、上記分類を所定時間毎に行いその分類結果を所定回数分メモリに記憶し、上記メモリに記憶された上記所定回数分の分類結果に対して、過去の分類結果ほど重みが減少する重み係数をそれぞれ畳み込み演算し、上記重み係数が畳み込み演算された上記所定回数分の分類結果の平均に基づき上記騒音データを分類し、
    上記騒音データの分類結果に応じて、予め対応づけられた楽曲のカテゴリを選択し、上記選択されたカテゴリに分類された楽曲データの中から所定の楽曲データを選択する楽曲再生方法をコンピュータ装置に実行させる再生プログラム。
JP2008099166A 2008-04-07 2008-04-07 楽曲再生装置、楽曲再生方法および楽曲再生プログラム Expired - Fee Related JP4623124B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2008099166A JP4623124B2 (ja) 2008-04-07 2008-04-07 楽曲再生装置、楽曲再生方法および楽曲再生プログラム
US12/372,120 US8076567B2 (en) 2008-04-07 2009-02-17 Music piece reproducing apparatus and music piece reproducing method
GB0902843A GB2459008B (en) 2008-04-07 2009-02-19 Music piece reproducing apparatus and music piece reproducing method
CN2011103504779A CN102419967A (zh) 2008-04-07 2009-03-12 乐曲再现装置
CN2009101286236A CN101556797B (zh) 2008-04-07 2009-03-12 乐曲再现装置及乐曲再现方法
KR1020090029575A KR101534346B1 (ko) 2008-04-07 2009-04-06 악곡 재생 장치, 악곡 재생 방법 및 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008099166A JP4623124B2 (ja) 2008-04-07 2008-04-07 楽曲再生装置、楽曲再生方法および楽曲再生プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010102032A Division JP5126281B2 (ja) 2010-04-27 2010-04-27 楽曲再生装置

Publications (2)

Publication Number Publication Date
JP2009251276A JP2009251276A (ja) 2009-10-29
JP4623124B2 true JP4623124B2 (ja) 2011-02-02

Family

ID=40565409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008099166A Expired - Fee Related JP4623124B2 (ja) 2008-04-07 2008-04-07 楽曲再生装置、楽曲再生方法および楽曲再生プログラム

Country Status (5)

Country Link
US (1) US8076567B2 (ja)
JP (1) JP4623124B2 (ja)
KR (1) KR101534346B1 (ja)
CN (2) CN101556797B (ja)
GB (1) GB2459008B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4591557B2 (ja) * 2008-06-16 2010-12-01 ソニー株式会社 音声信号処理装置、音声信号処理方法および音声信号処理プログラム
JP4640463B2 (ja) * 2008-07-11 2011-03-02 ソニー株式会社 再生装置、表示方法および表示プログラム
JP5499633B2 (ja) * 2009-10-28 2014-05-21 ソニー株式会社 再生装置、ヘッドホン及び再生方法
US20110184539A1 (en) * 2010-01-22 2011-07-28 Sony Ericsson Mobile Communications Ab Selecting audio data to be played back in an audio reproduction device
JP2014130467A (ja) * 2012-12-28 2014-07-10 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
US20150179181A1 (en) * 2013-12-20 2015-06-25 Microsoft Corporation Adapting audio based upon detected environmental accoustics
JP2017524149A (ja) * 2014-04-10 2017-08-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 身体的な活動中に適応性のある音響再生のためのオーディオ・システムおよび方法
EP3057097B1 (en) * 2015-02-11 2017-09-27 Nxp B.V. Time zero convergence single microphone noise reduction
CN105872884B (zh) * 2016-05-24 2019-09-06 Tcl通力电子(惠州)有限公司 耳机、耳机的下行降噪电路及方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06216974A (ja) * 1992-11-02 1994-08-05 American Teleph & Telegr Co <Att> ノイズ消去受信装置
JPH06274164A (ja) * 1993-03-18 1994-09-30 Kawai Musical Instr Mfg Co Ltd 自動演奏装置
JP2001036604A (ja) * 1999-07-19 2001-02-09 Yamaha Corp 電話装置
JP2001223767A (ja) * 2000-02-07 2001-08-17 Hitachi Ltd 携帯電話装置
JP2004086189A (ja) * 2002-07-02 2004-03-18 Matsushita Electric Ind Co Ltd 楽曲検索システム
JP2006170753A (ja) * 2004-12-15 2006-06-29 Kenwood Corp 車載マルチメディアシステム、車載マルチメディア装置およびポータブルプレーヤ
JP2007110481A (ja) * 2005-10-14 2007-04-26 Fujitsu Ten Ltd 音声制御装置、補正装置
JP2007266803A (ja) * 2006-03-28 2007-10-11 Nec Saitama Ltd 着信メロディ機能付通信機
JP2007264584A (ja) * 2006-03-03 2007-10-11 Victor Co Of Japan Ltd 音楽再生装置及び音楽再生プログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3381074B2 (ja) * 1992-09-21 2003-02-24 ソニー株式会社 音響構成装置
EP0907258B1 (en) * 1997-10-03 2007-01-03 Matsushita Electric Industrial Co., Ltd. Audio signal compression, speech signal compression and speech recognition
US6910035B2 (en) * 2000-07-06 2005-06-21 Microsoft Corporation System and methods for providing automatic classification of media entities according to consonance properties
CN1682566A (zh) * 2002-09-13 2005-10-12 皇家飞利浦电子股份有限公司 校准第一麦克风和第二麦克风
WO2004095315A1 (en) 2003-04-24 2004-11-04 Koninklijke Philips Electronics N.V. Parameterized temporal feature analysis
JP4182809B2 (ja) 2003-05-12 2008-11-19 ソニー株式会社 ディスク再生装置
JP2004361845A (ja) 2003-06-06 2004-12-24 Mitsubishi Electric Corp 移動体における自動選曲システム
US20050129252A1 (en) 2003-12-12 2005-06-16 International Business Machines Corporation Audio presentations based on environmental context and user preferences
JP2005252467A (ja) * 2004-03-02 2005-09-15 Sony Corp 音響再生方法、音響再生装置および記録メディア
JP4650662B2 (ja) 2004-03-23 2011-03-16 ソニー株式会社 信号処理装置および信号処理方法、プログラム、並びに記録媒体
JP4649859B2 (ja) 2004-03-25 2011-03-16 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
JP2006092430A (ja) 2004-09-27 2006-04-06 Denso Corp 音楽再生装置
JP4713129B2 (ja) * 2004-11-16 2011-06-29 ソニー株式会社 音楽コンテンツの再生装置、音楽コンテンツの再生方法および音楽コンテンツおよびその属性情報の記録装置
CN1783892A (zh) * 2004-12-02 2006-06-07 华为技术有限公司 移动终端中自动切换情景模式的实现方法及其装置
JP2006251054A (ja) 2005-03-08 2006-09-21 Yamaha Corp 楽音制御装置
WO2006109505A1 (ja) * 2005-03-31 2006-10-19 Pioneer Corporation 音出力制御装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP2007088521A (ja) 2005-09-16 2007-04-05 Nec Saitama Ltd イヤホンの音漏れ防止装置、方法、プログラム及び携帯電話無線機
KR100749045B1 (ko) * 2006-01-26 2007-08-13 삼성전자주식회사 음악 내용 요약본을 이용한 유사곡 검색 방법 및 그 장치
JP4322283B2 (ja) * 2007-02-26 2009-08-26 独立行政法人産業技術総合研究所 演奏判定装置およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06216974A (ja) * 1992-11-02 1994-08-05 American Teleph & Telegr Co <Att> ノイズ消去受信装置
JPH06274164A (ja) * 1993-03-18 1994-09-30 Kawai Musical Instr Mfg Co Ltd 自動演奏装置
JP2001036604A (ja) * 1999-07-19 2001-02-09 Yamaha Corp 電話装置
JP2001223767A (ja) * 2000-02-07 2001-08-17 Hitachi Ltd 携帯電話装置
JP2004086189A (ja) * 2002-07-02 2004-03-18 Matsushita Electric Ind Co Ltd 楽曲検索システム
JP2006170753A (ja) * 2004-12-15 2006-06-29 Kenwood Corp 車載マルチメディアシステム、車載マルチメディア装置およびポータブルプレーヤ
JP2007110481A (ja) * 2005-10-14 2007-04-26 Fujitsu Ten Ltd 音声制御装置、補正装置
JP2007264584A (ja) * 2006-03-03 2007-10-11 Victor Co Of Japan Ltd 音楽再生装置及び音楽再生プログラム
JP2007266803A (ja) * 2006-03-28 2007-10-11 Nec Saitama Ltd 着信メロディ機能付通信機

Also Published As

Publication number Publication date
US20090249942A1 (en) 2009-10-08
KR20090107001A (ko) 2009-10-12
US8076567B2 (en) 2011-12-13
CN101556797A (zh) 2009-10-14
GB2459008B (en) 2010-11-10
GB2459008A (en) 2009-10-14
CN101556797B (zh) 2012-01-25
JP2009251276A (ja) 2009-10-29
GB0902843D0 (en) 2009-04-08
CN102419967A (zh) 2012-04-18
KR101534346B1 (ko) 2015-07-06

Similar Documents

Publication Publication Date Title
JP4623124B2 (ja) 楽曲再生装置、楽曲再生方法および楽曲再生プログラム
JP4640463B2 (ja) 再生装置、表示方法および表示プログラム
JP5515709B2 (ja) 制御装置および方法、並びにプログラム
JP4640461B2 (ja) 音量調整装置およびプログラム
JP6178456B2 (ja) デジタル音声信号からハプティック・イベントを自動生成するシステム及び方法
TWI433027B (zh) 適應性使用者介面
CN101609685B (zh) 音频信号处理设备和音频信号处理方法
US20080160943A1 (en) Method and apparatus to post-process an audio signal
WO2004114278A1 (en) System and method for spectrogram analysis of an audio signal
US20120155658A1 (en) Content reproduction device and method, and program
JP2010021627A (ja) 音量調整装置、音量調整方法および音量調整プログラム
JP2009058970A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP5126281B2 (ja) 楽曲再生装置
JP5397786B2 (ja) かぶり音除去装置
US10587983B1 (en) Methods and systems for adjusting clarity of digitized audio signals
JP4239109B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
CN113781989A (zh) 一种音频的动画播放、节奏卡点识别方法及相关装置
JP2017139592A (ja) 音響処理方法および音響処理装置
US11501745B1 (en) Musical instrument pickup signal processing system
JP5742472B2 (ja) データ検索装置およびプログラム
Schwär et al. A Dataset of Larynx Microphone Recordings for Singing Voice Reconstruction.
Lagrange et al. Robust similarity metrics between audio signals based on asymmetrical spectral envelope matching
CN116320854A (zh) 音高调整方法、装置和麦克风设备
JP2009032335A (ja) 音声データの記録再生装置
Badeau et al. Robust similarity metrics between audio signals based on asymmetrical spectral envelope matching

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101018

R151 Written notification of patent or utility model registration

Ref document number: 4623124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees