JP3560936B2 - 感性データ算出方法および感性データ算出装置 - Google Patents
感性データ算出方法および感性データ算出装置 Download PDFInfo
- Publication number
- JP3560936B2 JP3560936B2 JP2001170102A JP2001170102A JP3560936B2 JP 3560936 B2 JP3560936 B2 JP 3560936B2 JP 2001170102 A JP2001170102 A JP 2001170102A JP 2001170102 A JP2001170102 A JP 2001170102A JP 3560936 B2 JP3560936 B2 JP 3560936B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- sound
- sound pressure
- frequency band
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004364 calculation method Methods 0.000 title claims description 37
- 230000008451 emotion Effects 0.000 claims description 109
- 230000035945 sensitivity Effects 0.000 claims description 50
- 230000008859 change Effects 0.000 claims description 13
- 230000002123 temporal effect Effects 0.000 claims description 5
- 230000007704 transition Effects 0.000 claims description 3
- 230000036962 time dependent Effects 0.000 claims 2
- 238000000034 method Methods 0.000 description 25
- 238000004458 analytical method Methods 0.000 description 23
- 230000033764 rhythmic process Effects 0.000 description 21
- 239000011295 pitch Substances 0.000 description 16
- 230000000007 visual effect Effects 0.000 description 16
- 238000013500 data storage Methods 0.000 description 15
- 238000001228 spectrum Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 8
- 238000010183 spectrum analysis Methods 0.000 description 7
- 230000002996 emotional effect Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000035807 sensation Effects 0.000 description 4
- 235000019615 sensations Nutrition 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/046—File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
- G10H2240/061—MP3, i.e. MPEG-1 or MPEG-2 Audio Layer III, lossy audio compression
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/085—Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Electrophonic Musical Instruments (AREA)
- Processing Or Creating Images (AREA)
Description
【発明の属する技術分野】
この発明は、信号を解析して解析結果を出力する装置に関する。特に、聴覚や視覚など、人間の感覚に関する時系列的な信号を解析する装置に関する。
【0002】
【従来の技術】
従来、人間の感情・感性に関する情報をデジタルデータとして扱うためには、例えば「うれしい」、「悲しい」、「怖い」などといった情報を、コンピュータなどの情報機器に直接入力する必要があった。
【0003】
【発明が解決しようとする課題】
上記のような人間の感情は、人間が外部環境から受ける刺激と相関関係を有するものである。そのような刺激のひとつが、例えば聴覚によって知覚される音楽である。つまり、多数の人間がある共通の音楽を鑑賞したとき、それらの鑑賞者のうちの多くの人間が、「うれしい」とか「悲しい」とか「気持ちいい」などといった共通の感情を抱く。
【0004】
本願発明は、このような点に着目してなされたものであり、オーディオ信号やビデオ信号や、その他、人間の感覚に関する信号を解析することにより、その感覚によって生じる感情あるいは感性に関するデータを自動的に算出する感性データ算出方法および感性データ算出装置を提供することを目的とする。
また、本願発明は、上記の感性データ算出方法および感性データ算出装置を応用した各種装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記の課題を解決するために、本発明は、分割された周波数帯域ごとの音圧値として音を表現したデジタルデータを入力し、前記周波数帯域ごとの音圧値の分布を解析することにより、前記音に関連する感性データを算出することを特徴とする感性データ算出方法を要旨とする。
【0006】
また、本発明の感性データ算出方法は、前記周波数帯域全体を、10個以下の周波数帯域グループに分割し、この周波数帯域グループごとの平均音圧値に基づいて前記感性データを算出することを特徴とするものである。
【0007】
また、本発明の感性データ算出方法は、前記周波数帯域ごとの音圧値の分布の時間的な推移に基づいて前記感性データを算出することを特徴とするものである。
【0008】
また、本発明の感性データ算出方法は、前記周波数帯域グループ内において、音圧値のピークとなる周波数帯域が時間的にどのように推移するかに基づいて前記感性データを算出することを特徴とするものである。
【0009】
また、本発明の感性データ算出方法は、前記デジタルデータに基づき前記音に含まれるリズムの単位時間あたり拍数を求め、この単位時間あたり拍数に基づいて前記感性データを算出することを特徴とするものである。
なお、リズムの単位時間あたり拍数を求めるための一方法は、前記デジタルデータに基づいて、周波数帯域ごとの音圧値の時間的変化量を求め、周波数帯域全体において前記時間的変化量が所定の閾値以上である領域の分布に基づいてノイズを検出し、このノイズの検出頻度に基づいて前記単位時間あたり拍数を求めることである。
【0010】
また、本発明の感性データ算出方法は、前記周波数帯域ごとの音圧値の分布に基づき、「快感」、「驚き」、「怯え」、「嬉しい」、「悲しい」の5種類の感情パラメータ値を算出し、これらの感情パラメータ値に基づいて感性データを算出することを特徴とするものである。
【0011】
また、本発明は、分割された周波数帯域ごとの音圧値として楽曲を表現したデジタルデータを基に、上記の感性データ算出方法によって感性データを算出し、算出された感性データに基づいてビジュアルコンテンツを生成し、前記楽曲の再生と前記ビジュアルコンテンツとの表示を同期的に行うことを特徴とする音楽再生方法である。
【0012】
また、本発明は、分割された周波数帯域ごとの音圧値として楽曲を表現したデジタルデータを基に、上記の感性データ算出方法によって感性データを算出し、算出された感性データ同士を比較することにより前記楽曲を識別することを特徴とする楽曲識別方法である。
【0013】
また、本発明の感性データ算出装置は、分割された周波数帯域ごとの音圧値として音を表現したデジタルデータを入力し、前記周波数帯域ごとの音圧値の分布を解析することにより、前記音に関連する感性データを算出することを特徴とするものである。
【0014】
また、本発明の感性データ算出装置は、前記デジタルデータに基づき前記音に含まれるリズムの単位時間あたり拍数を求めるリズム解析部と、前記周波数帯域全体を10個以下の周波数帯域グループに分割し、この周波数帯域グループごとの音圧値と、前記リズム解析部によって求められた単位時間あたり拍数とを基に感性データを算出する感情解析部とを備えることを特徴とするものである。
【0015】
また、本発明の音楽再生装置は、分割された周波数帯域ごとの音圧値として音を表現したデジタルデータを記憶するデータ記憶部と、前記データ記憶部から読み出された前記デジタルデータを基に、前記周波数帯域ごとの音圧値の分布を解析することにより前記音に関連する感性データを算出する感性データ算出部と、前記感性データ算出部によって算出された前記感性データに基づきビジュアルコンテンツを生成するビジュアルコンテンツ生成部と、前記デジタルデータをデコードしてオーディオ信号を出力するデコーダ部とを備えるとともに、前記ビジュアルコンテンツ生成部によるビジュアルコンテンツの生成と、前記デコーダ部によるオーディオ信号の出力とを同期的に行うことを特徴とするものである。
【0016】
また、本発明のプログラムは、分割された周波数帯域ごとの音圧値として音を表現したデジタルデータを入力し、前記周波数帯域ごとの音圧値の分布を解析することにより、前記音に関連する感性データを算出する処理をコンピュータに実行させるものである。
【0017】
また、本発明のコンピュータ読み取り可能な記録媒体は、分割された周波数帯域ごとの音圧値として音を表現したデジタルデータを入力し、前記周波数帯域ごとの音圧値の分布を解析することにより、前記音に関連する感性データを算出する処理をコンピュータに実行させるプログラムを記録したものである。
【0018】
【発明の実施の形態】
以下、図面を参照しこの発明の一実施形態について説明する。図1は、同実施形態による感性データ算出方法を応用した音楽再生装置の構成を示すブロック図である。この音楽再生装置は、MP3(MPEG Audio Layer 3)の形式で記録された音楽(聴覚データ)を再生するとともに、この音楽を基に感性データを算出するものである。
【0019】
図1において、符号4は、MP3形式の音楽データを記憶するMP3データ記憶部である。1は、MP3データ記憶部4から読み出された音楽データを基に感性データを算出して出力するスペクトラム解析部である。2は、スペクトラム解析部1によって算出された感性データを蓄積する感性データ蓄積部である。3は、感性データ蓄積部2に蓄積された感性データを順次読み出し、この感性データに基づくアニメーション画像(ビジュアルコンテンツ)を生成するアニメーション画像生成部(ビジュアルコンテンツ生成部)である。
【0020】
また、5は、MP3データ記憶部4から読み出された音楽データをデコードして時系列的な音圧レベルのデジタル信号(デジタルオーディオ信号)を出力するMP3デコーダ部である。6は、MP3デコーダ部5から出力されたデジタル信号を変換してアナログオーディオ信号を出力するD/A(デジタル/アナログ)変換部である。
【0021】
MP3データ記憶部4に記憶されている音楽データは、所定のサンプリング周波数(例えば、44100Hz(ヘルツ))でサンプリングされ量子化された音圧レベルが、所定のフレーム長(例えば、約0.0261秒)を1フレームとするフレーム単位で、所定数(例えば、576本)に分割された周波数帯域ごとの音圧値に変換され、さらに圧縮されたものである。
【0022】
スペクトラム解析部1は、このような音楽データを時系列的に順次読み出し、読み出したデータをまず伸長してから、後述する所定の手順により解析を行い、その結果を感性データとして順次出力していく。スペクトラム解析部1によって出力される感性データも時系列的なデータであり、順次、感性データ蓄積部2に蓄積されていく。
【0023】
アニメーション画像生成部3は、再生する音楽に合ったアニメーションを生成してビデオ信号として出力するものである。生成されるアニメーションの一例は、あるキャラクターが再生される音楽のリズムに合わせてダンスをするものであり、感性データ蓄積部2から読み取った感性データに応じて、そのキャラクターの手足の振り付けや顔の表情が変わるようになっている。なお、アニメーションで描かれるキャラクターの顔の表情を変えるためには、例えば、口(唇)や、目や、その周辺の筋肉に相当する部分の計上を変えて描くようにする。
【0024】
再生される音楽の進行と生成されるアニメーションの進行のタイミングが合うように、スペクトラム解析部1とアニメーション画像生成部3とMP3デコーダ5との間で互いに同期を取るようにする。
また、スペクトラム解析部1による感性データ算出の演算に時間がかかっても音楽とアニメーションとのタイミングがずれないように、スペクトラム解析部1による感性データ算出を先行して行い、数秒から数十秒程度遅れて後追いの形で、MP3デコータ5による音楽の再生とアニメーション画像生成部3からのビデオ信号の出力とを行うようする。但し、スペクトラム解析部1による感性データ算出の演算が充分に速く行える場合には、上記の遅延を設けずにリアルタイムで再生するようにしても良い。
【0025】
MP3データ記憶部4は、磁気ディスクやCD−ROM(コンパクトディスクを用いた読み出し専用メモリ)あるいはCD−R(CD Recordable )やDVD(Digital Versatile Disk)や光磁気ディスクや半導体メモリなどといった記録媒体とそれを読み取る読取装置によって実現する。
【0026】
スペクトラム解析部1は、コンピュータを用いて実現する。つまり、後述する感性データ算出等の処理の手順をコンピュータプログラムの形式でコンピュータ読み取り可能な記録媒体に記録しておき、このプログラムをコンピュータの中央処理装置が読み取ってその命令を実行することにより感性データ算出等の機能を実現する。ここで、コンピュータ読み取り可能な記録媒体とは、例えば、磁気ディスクや、CD−ROMあるいはCD−Rや、半導体メモリなどである。あるいは、専用ロジックを搭載した集積回路としてスペクトラム解析部1を実現するようにしても良い。あるいは、コンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録しておく代わりに、通信を用いて配信するようにして、配信を受けたコンピュータの中央処理装置がこのプログラムを実行するようにしても良い。
感性データ蓄積部2は、半導体メモリや磁気ディスクなど、高速に書換え可能な記録媒体を用いて実現する。
【0027】
次に、スペクトラム解析部1の内部構成、およびその処理の詳細について説明する。図1に示すように、スペクトラム解析部1は、伸長部11と感性データ算出部12(感性データ算出装置)とを備えている。伸長部11は、MP3データ記憶部から読み取られた音楽データを伸長する。つまり、図1のAの部分では、圧縮された状態のデータが伝達される。また、図1のBの部分では、前述の周波数帯域(音域)ごとの音圧値の情報が伸長済みの状態で伝達される。感性データ算出部12は、さらに、感情解析部13とリズム解析部14とを備えている。
【0028】
次に、感情解析部13とリズム解析部14の詳細な処理手順について説明する。
【0029】
図2は、感情解析部13による処理の手順を示すフローチャートである。図2に示すように、感情解析部13は、まずステップS1において入力されるデータを基に5つの音域への分割の処理を行い、ステップS2においてこれら5つの音域の音圧値を基に感情パラメータを算出する処理を行い、ステップS3において算出された感情パラメータを基に判定を行う。判定結果として、インデックス、感情種類、感情レベル、継続時間、補間フラグの組の時系列データが出力される。
【0030】
上記インデックスは、0から始まるシーケンシャルな値である。
上記感情種類は、「無表情(default )」、「快感(pleasure)」、「驚き(surprise)」、「怯え(fear)」、「嬉しい(happy )」、「悲しい(sad )」のいずれかである。
感情種類が「快感」、「驚き」、「怯え」、「嬉しい」、「悲しい」のいずれかであるとき、上記感情レベルは1以上5以下のいずれかの整数の値を取る。また、感情種類が「無表情」のとき、感情レベルの値は「なし」である。
上記継続時間は、秒単位の数値であり、1以上の値を取る。
上記補間フラグは、0(「OFF」を表わす)あるいは1(「ON」を表わす)のいずれかの値を取る。
【0031】
時系列の音楽データを処理する際の初期値は、インデックス=0、感情種類=「無表情」、感情レベル=「なし」、継続時間=「1」、補間フラグ=「1」とする。
【0032】
以下に、処理をさらに詳細に説明する。
図2の符号D1は、感情解析部13に入力される周波数帯域ごとの音圧値情報である。この段階では、576本の周波数帯域それぞれの音圧値情報が保持されている。また、元のMP3データのサンプリング周波数は44100Hzである。つまり、分割された周波数帯域ごとの音圧値として音を表現したデジタルデータを入力として、周波数帯域ごとの音圧値の分布を以下の方法で解析することにより、前記の音に関連する感性データを算出する。
【0033】
ステップS1においては、音圧値情報(D1)を基に、次の5段階の音域ごとの平均音圧値を算出し、音圧値情報(D2)として出力する。その5段階の音域とは、低音部(0Hz〜76.5625Hz)、中低音部(229.6875Hz〜1990.625Hz)、中高音部(7005.469Hz〜10029.69Hz)、高音部(10029.69Hz〜14967.97Hz)、最高音部(15006.25Hz〜17992.19Hz)の5つである。
つまり、ここでは、周波数帯域全体を、10個以下の周波数帯域グループに分割し、この周波数帯域グループごとの音圧値を用いた解析を行う。
【0034】
また、ステップS1においては、音階分割により、長音要素と短音要素の抽出を行う。この抽出のために、まず、0Hz〜497.6563Hzの帯域を13の領域に均等分割し、497.6563Hz〜22050Hzの帯域を63の領域に音階分割する。そして、そのうちの497.6563Hz〜2028.906Hzの2オクターブ分の24個の音階領域の音圧値が所定の閾値より大きいかどうかを判断する。
【0035】
上記24個の音階領域のうち、1番目、3番目、5番目、8番目、10番目、12番目、13番目、15番目、17番目、20番目、22番目、24番目の領域が長音要素である。これらの長音要素のうち、1番目と13番目とは1オクターブ離れた領域であるため、この2つの領域の音圧値が共に閾値より大きければ、長音要素を+1としてカウントする。また同様に、3番目と15番目の領域、5番目と17番目の領域、8番目と20番目の領域、10番目と22番目の領域、12番目と24番目の領域がそれぞれ互いに1オクターブ離れた領域であり、2つの領域の音圧値が共に閾値より大きい場合に、それぞれ長音要素を+1としてカウントする。
また、上記24個の音階領域のうち、2番目と14番目、4番目と16番目、6番目と18番目、7番目と19番目、9番目と21番目、11番目と23番目がそれぞれ1互いに1オクターブ離れた領域のペアであり、各ペアごとに、2つの領域の音圧値が共に閾値より大きい場合に、それぞれ短音要素を+1としてカウントする。
この抽出の処理の結果、長音要素および短音要素は、それぞれ0以上6以下のいずれかの整数の値を取る。
【0036】
次に、ステップS2では、音圧値情報D2を基に感情パラメータを算出する処理を行う。感情パラメータには優先順位が設定されており、「快感」の優先度が1、「驚き」の優先度が2、「怯え」の優先度が3、「嬉しい」および「悲しい」の優先度がともに4となっている。
なお、上記5種類の感情パラメータ値がすべて「0」のときは、「無表情」に該当する。
【0037】
また、ステップS3では、算出された感情パラメータに基づく判定を行い、感性データを求める処理を行う。また、この判定においては、図1に示したリズム解析部14によるリズム解析の結果も一部で用いられる。リズム解析の結果とは、例えば、ビート間の時間間隔がどの程度の長さかといったことである。
なお、感情パラメータ値算出の際には、音圧値がL1以下の音を無視する。
判定の際には、
【0038】
「快感(Pleasure)」に関する処理は、次の通りである。
[条件1] ビート間の時間間隔がT3以上で、かつ、中低音部から高音部までのいずれかの音圧のピークが高音方向に時間的にT4以上移動した場合は、「快感」の感情パラメータのカウントを+1する。この条件に合致するとき、当該感情は、対象の音が鳴り始めてから時間T4経過時点から、対象の音が鳴りやんでから時間T2経過時点まで継続するものとする。つまり、本実施形態においては、この継続時間の間は、「快感」データに基づくアニメーションが生成され、出力される。
[条件2] 低音域の音圧値がL7以上で、かつ、高音部の平均音圧値がL4以上である場合で、平均音圧値がL6以上の時、前回までのビート間の平均時間間隔から今回のビート間時間間隔を差し引いた値がT1以上である、または、前回の判定結果が「驚き」の場合は「快感」の感情パラメータのカウントを+2する。この条件に合致するとき、当該感情は、対象の音が鳴り始めてから時間T4が経過した時点から始まるものとする。
【0039】
つまり、上記条件2が適用される場合には、分割された周波数帯域グループごとの平均音圧値に基づいて感性データが算出される。
また、上記条件1が適用される場合には、周波数帯域グループ内において、音圧値のピークとなる周波数帯域が時間的にどのように推移するかに基づいて感性データが算出される。
また、上記条件1が適用される場合には、元のデジタルデータに基づき音に含まれるリズムの単位時間あたり拍数が求められ、この単位時間あたり拍数に基づいて感性データが算出される。上記の「ビート間の時間間隔」は単位あたり拍数の逆数から求められる。
なお、「快感」の感情の優先順位は最も高い「1」であるため、上記の条件1あるいは条件2のいずれかにあてはまる場合は、他の感情を無視する。
【0040】
「驚き(Surprise)」に関する処理は、次の通りである。
上述した「快感」の条件に該当しない場合は、下記の条件により「驚き」に該当するかどうかをチェックする。
【0041】
[条件1] 全音域の平均音圧値がL3以下の音が無い状態から、低音部のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+4し、その音が鳴りつづけた時間を継続時間とする。ただし、下記の条件2を満たす場合は無視をする。
[条件2] 全音域の平均音圧値がL2以下の音が無い状態から、低音部のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+5し、その音が鳴りつづけた時間を継続時間とする。
【0042】
[条件3] 全音域の平均音圧値がL3以下の音が無い状態から、低音部以外のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+1し、その音が鳴りつづけた時間を継続時間とする。ただし、下記の条件4を満たす場合は無視をする。
[条件4] 全音域の平均音圧値がL2以下の音が無い状態から、低音部以外のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+2し、その音が鳴りつづけた時間を継続時間とする。
[条件5] 最高音部の音が時間T4以上続いた場合、または最高音部の音が存在し、かつ中高音部の平均音圧値がL4以下の場合は、「驚き」の感情パラメータのカウントを+3し、その音が鳴りつづけた時間を継続時間とする。
なお、「驚き」の感情の優先順位は「快感」のそれに次ぐ「2」であるため、上記の条件1から5までのいずれかにあてはまる場合は、他の優先順位の低い感情を無視する。
【0043】
「怯え(Fear)」に関する処理は、次の通りである。
上述した「快感」あるいは「驚き」のいずれの条件にも該当しない場合は、下記の条件により「怯え」に該当するかどうかをチェックする。
【0044】
[条件1] 中低音部から高音部までのいずれかの音圧値のピークが低音方向に時間的にT4以上移動した場合は、「怯え」の感情パラメータのカウントを+1する。
[条件2] 中低音部から高音部までのいずれかの音圧値のピークが低音方向に時間的にT4以上移動し、続けて高音方向に時間的にT4以上移動した場合は、「怯え」の感情パラメータのカウントを+4する。
[条件3] 中低音部から高音部までのいずれかの音圧値のピークが低音方向に移動中に高音方向に揺れた回数Nが42以上の場合、「怯え」の感情パラメータのカウントを+(N/16)する。
【0045】
なお、「怯え」データに基づくアニメーションの変化の始点は対象の音が鳴り始めてから時間T4経過後とし、同じくアニメーションの変化の終点は対象の音が鳴りやんでから時間T2経過後とする。
なお、「怯え」の感情の優先順位は「驚き」のそれに次ぐ「3」であるため、上記の条件1から3までのいずれかにあてはまる場合は、他の優先順位の低い感情を無視する。
【0046】
上述した「快感」、「驚き」、「怯え」のいずれの条件にも該当しない場合は、下記の条件により「嬉しい」または「悲しい」に該当するかどうかをチェックする。
【0047】
「嬉しい(Happy)」に関する処理は、次の通りである。
[条件1] ビートがある場合は、「嬉しい」の感情パラメータのカウントを+1する。
[条件2] ビート間の時間間隔がT7以下の場合は、「嬉しい」の感情パラメータのカウントを+1する。
[条件3] 高音部の平均音圧値がL4以上の場合は、「嬉しい」の感情パラメータのカウントを+1する。
[条件4] 上記の条件3を満たし、かつ、中低音部の音圧値のピークが5つ以上あった場合は、「嬉しい」の感情パラメータのカウントを+2する。
[条件5] 上記の条件3を満たし、かつ、上記の条件4をみたし、かつ、低音部の平均音圧値がL5以下の場合は、「嬉しい」の感情パラメータのカウントを+2をする。
[条件6] 抽出された長音要素−短音要素の数値が2以上の場合は、「嬉しい」の感情パラメータのカウントを+1する。
【0048】
なお、「嬉しい」データに基づくアニメーションの変化の始点の時間的な誤差は±T2とする。また、同じくアニメーションの変化の終点の時間的な誤差も±T2とする。
【0049】
「悲しい(Sad)」に関する処理は、次の通りである。
[条件1] ビート間の時間間隔がT5以上である場合+は、「悲しい」の感情パラメータのカウントを+1する。
[条件2] ビートがない場合は、「悲しい」の感情パラメータのカウントを+2する。
[条件3] 中低音部に時間T4以上続く音圧値のピークがあった場合は、「悲しい」の感情パラメータを+1し、音が鳴り続けている時間を継続時間とする。ただし、下記の条件4を満たす場合は無視をする。
[条件4] 中低音部に時間T6以上続く音圧値のピークがあった場合は、「悲しい」の感情パラメータを+2し、音が鳴り続けている時間を継続時間とする。
【0050】
[条件5] 高音部に音圧値のピークが3つ以上あった場合は、「悲しい」の感情パラメータを+1する。
[条件6] 全領域の平均音圧値がL3以上の音が無い状態の場合は、「悲しい」の感情パラメータを+1する。
[条件7] 全領域の平均音圧値がL3以上の音が時間T2以上無い場合は、「悲しい」の感情パラメータを+1する。
[条件8] 中高音部と高音部の平均音圧値がL3以下であり、中低音部の音のみを取得した場合は、「悲しい」の感情パラメータを+2する。
[条件9] 短音要素−長音要素の数値が2以上の場合は、「悲しい」の感情パラメータを+1する。
【0051】
なお、「悲しい」データに基づくアニメーションの変化の始点の時間的な誤差は±T2とする。また、同じくアニメーションの変化の終点の時間的な誤差も±T2とする。
【0052】
以上述べたように、「快感」、「驚き」、「怯え」、「嬉しい」、「悲しい」の感情について、それぞれ定義された条件でのチェックが行われる。
そして、優先順位の高い感情から順に、「快感」、「驚き」、「怯え」のいずれかのカウント結果が1以上である場合に、その感情が感情種類として判定される。また、そのときのカウント値が感情レベルとされる。但し、カウントが5を超える場合は、感情レベルを5とする。
【0053】
なお、感情種類が「怯え」で、かつ同一の感情レベルである状態が時間T5以上継続した場合には、時間T5ごとに再チェックを行う。
また、感情種類が「快感」のまま、感情レベルが2から1へ移行した場合は、以後の感情レベルも2とみなし、感情レベル2を継続させるものとする。
【0054】
「快感」、「驚き」、「怯え」のカウント値がいずれも0である場合で、「嬉しい」あるいは「悲しい」のカウント値の少なくとも一方が1以上である場合には、次に述べる方法で「嬉しい」および「悲しい」のカウント値を比較する。まず、前回の「嬉しい」のカウント値と現在の「嬉しい」のカウント値とから、これらの平均値を求める。次に、前回の「悲しい」のカウント値と現在の「悲しい」のカウント値とから、これらの平均値を求める。そして、「嬉しい」の平均値と「悲しい」の平均値とを比較する。
【0055】
上記の「嬉しい」の平均カウント値のほうが大きい場合には、感情種類を「嬉しい」とするとともに、「嬉しい」の平均カウント値から「悲しい」の平均カウント値を引いた値を感情レベルとする。逆に、「悲しい」の平均カウント値のほうが大きい場合には、感情種類を「悲しい」とするとともに、「悲しい」の平均カウント値から「嬉しい」の平均カウント値を引いた値を感情レベルとする。
「嬉しい」の平均カウント値と「悲しい」の平均カウント値とが等しい場合には、前回のカウント値同士を比較し、大きい方のカウント値を持つほうを感情種類として選択するとともに、この場合の感情レベルを1とする。
【0056】
但し、「嬉しい」と「悲しい」のカウント値を用いた判定に関して、上記の規則に関わらず、次の2つの例外パターンに該当する場合には、これを適用するものとする。
第1の例外パターンは、「嬉しい」のカウント値が5で、かつ、「悲しい」のカウント値が5である場合であり、このときは、感情種類を「快感」とし、感情レベルを2とする。
第2の例外パターンは、「怯え」のカウント値が3以上で、かつ、「悲しい」のカウント値が4以上の場合であり、このときは、感情種類を「悲しい」とし、感情レベルを5とする。
【0057】
なお、上記5種類のいずれの感情についても、カウント値の結果がすべて0である場合には、感情種類は「無表情」であると判定される。
【0058】
次に、補間フラグに関する判定方法を説明する。補間フラグのデフォルト値は1(ON)であるが、次の2通りのいずれかに該当する場合に限り、補間フラグを0(OFF)とする。第1に、同じ感情種類が時間T6以上継続した場合には補間フラグを0とする。第2に、前回の感情種類が「嬉しい」または「悲しい」であり、そこから感情種類「快感」に遷移する場合には補間フラグを0とする。
【0059】
上述した感情パラメータの算出および感情の判定等の処理において、時間T1〜T6については、T1<T2<T3<T4<T5<T6の関係を満たす適切な値を用いることとする。なお、T1はほぼ数百ミリ秒程度、T6はほぼ数千ミリ秒程度である。また、音圧値レベルL1〜L7については、L1<L2<L3<L4<L5<L6<L7の関係を満たす適切な値を用いることとする。一例としては、L1は−50dB(デシベル)程度、L7は−20dB程度の値を用いる。
【0060】
次に、図1に示したリズム解析部14における処理について説明する。
リズム解析部14には、伸長部によって伸長されたデータが入力される。この入力データは、前述のように、周波数領域ごとの音圧値情報を時系列的に持つものである。このような入力データを基に、リズム解析部14は音楽のリズムを解析し、その音楽のbpm値(beats per minute,1分あたりビート数,単位時間あたり拍数)を算出して出力する。
【0061】
リズム解析の処理においては、次の事項を前提とする。第1に、少なくとも一定時間以上は曲のリズムは一定のbpm値で正確に刻まれることとする。第2に、1拍あたり2回、ノイズ系の音が含まれることとする。例えば、曲が4分の4拍子である場合には、4拍の間に8回ノイズ系の音が含まれる。ここで、ノイズ系の音とは、例えばシンバル等の音である。
ノイズ系の音は、ほぼ全周波数帯域に渡って音圧変化があることが特徴である。従って、各周波数帯域ごとにフレーム間の音圧変化量を求め、全周波数にわたって連続的に音圧変化量が所定の閾値以上となる場合にこれをノイズ系の音として検出できる。
【0062】
そして、ノイズ系の音はリズムに応じて所定のタイミングの箇所に多く集中するという傾向があることから、このノイズ系の音を検出し、この検出間隔をフレーム(1フレームは約0.0261秒)単位で求める。この段階では、検出される間隔は、一定ではなく、フレーム数ごとの度数の分布として得られる。得られた分布を基に、補正を加えて、拍の間隔を決定することによってbpm値を求めることとする。
つまり、前記第2の前提によると1拍あたり2回のノイズ系の音が含まれるため、求められたノイズ間隔F(フレーム単位)を用いると、bpm値は、次の式で得られる。すなわち、
bpm値=60 [秒/分] / (2*F [フレーム] *0.0261 [秒/フレーム])
【0063】
図3は、上述した音楽再生装置におけるデータの流れを示す概略図である。図示するように、音声データ51を基に、これを各周波数帯域に分解する処理(61)を行うことによって、分解された音声のデータ52が得られる。そしてこのデータを基に、感性データを算出する処理(62)を行うことによって感性データ53が得られる。そして、この感性データ53に基づいて、ビジュアルコンテンツを生成する処理(63)を行うことによって、例えばアニメーションなどのビジュアルコンテンツデータ54が生成される。
【0064】
従来においても、周波数帯域ごとの音声データに応じて光信号を出力するスペクトラム解析装置は存在した。しかしながら、本実施形態の音楽再生装置は、周波数帯域ごとの音声データから一旦感性データを生成し、この感性データに基づいてビジュアルデータを生成するとことにより、再生される音楽とそれを聴く人間の感性にマッチした信号あるいはコンテンツを生成できるというという効果が得られる。このような効果は、従来技術では実現できなかったものである。
【0065】
次に、本発明の他の実施形態について説明する。
図1に示した構成では、予め記憶媒体等に記憶されたMP3データを基に感性データを算出して蓄積することとしたが、外部から入力されるオーディオ信号を基に、同様に感性データを算出するようにしても良い。
図4は、入力されるアナログオーディオ信号を基に感性データを算出して蓄積する感性データ算出装置の構成を示すブロック図である。図4において、符号7はA/D(アナログ/デジタル)変換部であり、1aはスペクトラム解析部である。スペクトラム解析部1aは、フーリエ変換部17と、感性データ算出部12とを備えている。
【0066】
A/D変換部7は、入力されるアナログオーディオ信号を所定のサンプリング周波数による時系列的なデジタル音圧値データ(C)に変換する。そして、このデジタル音圧値データ(C)は、フーリエ変換部17によって、所定のフレーム長のフレームごと、かつ周波数領域ごとの音圧値データに変換される。感性データ算出部12の機能は図1に示したものと同様のものであり、前述の方法と同様の方法で感性データを算出する。
【0067】
図1および図4に示した装置では、音楽などを表わす聴覚データを基に感性データを算出することとしていたが、聴覚以外の感覚に関するデータを基に感性データを算出するようにしても良い。
図5は、より一般的な感性データ算出装置の概略構成を示すブロック図である。図5において、符号101は聴覚データ、102は視覚データ、103は触覚データ、104は味覚データ、105は嗅覚データである。これらのデータ(101〜105)は、各感覚の特性に応じて適切な方法でデジタル化されたデータである。また、これらのデータ(101〜105)は、時系列的データとして表わされる場合がある。
【0068】
110は感性データ算出部であり、この感性データ算出部110は、聴覚データ101、視覚データ102、触覚データ103、味覚データ104、嗅覚データ105の全部または一部を基に、予め定められた処理手順に従って感性データ120を算出する。なお、感性データ120もまた、時系列的データとして表わされる場合がある。
【0069】
以上、人間の感覚に関するデータに基づいて感性データを算出する方法および装置について述べたが、これらの応用としては、次のようなものが考えられる。図1に示した音楽再生装置は、音楽とアニメーションとを同時に再生する装置として利用できる。また、この機能をコンピュータプログラムとして実現することにより、パソコンや、PDA(Personal Digital Assistant)や、携帯通信端末などで稼動する音楽再生装置を実現することができる。このとき、聴覚データ(音楽)等は、予め記憶装置に蓄えておくだけでなく、インターネットや固定系公衆電話網や携帯電話網などといった通信を用いて配信するようにしても良い。
【0070】
また、カラオケ演奏装置などにおいて、演奏される音楽を解析して感性データを算出することにより、その音楽の感性に応じた情報を表示装置に表示するようにしても良い。
【0071】
また、ロボット(例えば、いわゆるペット型ロボットや、エンターテイメントロボットなど)において、外部環境から受ける刺激(音や光や振動など)に基づいて感性データを算出し、この感性データに応じてロボットの動作や表情などを制御するようにしても良い。
【0072】
また、デジタル音楽コンテンツを基に算出された感性データによって、元の音楽を識別するようにしても良い。これにより、ネットワークなどを介して流通しているデジタル音楽コンテンツがどの曲のものであるかを容易に判別することが可能になり、コンテンツの不正コピーの検出などに利用できる。この方法の利点は、元の音データよりも算出される感性データのほうが圧倒的にデータサイズが小さく、このように小さいサイズのデータ同士の比較で済むことである。なお、発明者らの経験によると、感性データは元の音データに比べると情報量としては圧倒的に少ないが、曲を識別するのに充分な情報を含むものであることがわかっている。つまり、異なる曲同士で感性データが全く一致したケースはこれまでになく、そのような状況が起こる可能性は非常に小さいと言える。
【0073】
以上、図面を参照してこの発明の実施形態を詳述してきたが、具体的な構成はこれらの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
【0074】
【発明の効果】
以上説明したように、この発明によれば、分割された周波数帯域ごとの音圧値として音を表現したデジタルデータを入力し、前記周波数帯域ごとの音圧値の分布を解析することにより、前記音に関連する感性データを算出するため、入力される音に関連する感性のデータを自動的に生成することができ、いちいち人が判断してその判断結果を入力する必要がない。
【0075】
また、この発明によれば、周波数帯域全体を、10個以下の周波数帯域グループに分割し、この周波数帯域グループごとの平均音圧値に基づいて感性データを算出するため、計算処理を単純化して、比較的少ない計算量での算出が可能である。
【0076】
また、この発明によれば、音に含まれるリズムの単位時間あたり拍数を求め、この単位時間あたり拍数に基づいて感性データを算出する。このため、人間の感性に近い感性データを、比較的単純な処理により得ることができる。
【0077】
また、この発明によれば、楽曲を表現したデジタルデータを基に、前述の感性データ算出方法によって感性データを算出し、算出された感性データに基づいてビジュアルコンテンツを生成し、前記楽曲の再生と前記ビジュアルコンテンツとの表示を同期的に行うため、音の感性にマッチしたビジュアルコンテンツを同時に表示でき、再生時の表現力を増すことが可能になる。
【0078】
また、この発明によれば、楽曲を表現したデジタルデータを基に、前述の感性データ算出方法によって感性データを算出し、算出された感性データ同士を比較することにより楽曲を識別するため、より小さいデータ量で楽曲の識別を行うことが可能となり、デジタルコンテンツの不正コピーの検出などを効率的に行うことができる。
【図面の簡単な説明】
【図1】この発明の一実施形態による感性データ算出方法を応用した音楽再生装置の構成を示すブロック図である。
【図2】同実施形態による音楽再生装置が備える感情解析部による解析処理の手順を示すフローチャートである。
【図3】同実施形態による音楽再生装置におけるデータの流れを示す概略図である。
【図4】この発明の他の実施形態による感性データ算出装置の構成を示すブロック図である。
【図5】この発明の他の実施形態であり、聴覚やその他の感覚に関するデータを基に感性データを算出する感性データ算出装置の概略構成を示すブロック図である。
【符号の説明】
1 スペクトラム解析部
2 感性データ蓄積部
3 アニメーション画像生成部
4 MP3データ記憶部
5 MP3デコーダ部
6 D/A変換部
7 A/D変換部
11 伸長部
12 感性データ算出部
13 感情解析部
14 リズム解析部
17 フーリエ変換部
101 聴覚データ
102 視覚データ
103 触覚データ
104 味覚データ
105 嗅覚データ
110 感性データ算出部
Claims (4)
- 分割された周波数帯域ごとの音圧値として楽曲を表現したデジタルデータを入力し、前記周波数帯域ごとの音圧値の分布および前記周波数帯域ごとの音圧値の分布の時間的な推移を解析するとともに、前記デジタルデータに基づき前記周波数帯域ごとに時間的な音圧変化量を算出し、算出された前記音圧変化量が全周波数帯域にわたって所定の閾値以上となる領域の分布を解析することにより、前記楽曲に関連する感性データを算出することを特徴とする感性データ算出方法。
- 前記分割された周波数帯域のうち、ある周波数帯域の音圧値と他の周波数帯域の音圧値との時間的推移に基づき前記感性データを算出することを特徴とする請求項1に記載の感性データ算出方法。
- 音圧値のピークとなる周波数帯域が時間的にどのように推移するかに基づいて前記感性データを算出することを特徴とする請求項1または請求項2のいずれかに記載の感性データ算出方法。
- 分割された周波数帯域ごとの音圧値として楽曲を表現したデジタルデータを入力し、前記周波数帯域ごとの音圧値の分布および前記周波数帯域ごとの音圧値の分布の時間的な推移を解析することにより前記楽曲に関連する感性データを算出するとともに、音階分割された周波数帯域ごとの音圧値に基づいて長音要素と短音要素の抽出を行い、長音要素の各1オクターブ離れた2つの領域の音圧値が共に閾値より大きい場合に長音要素を1カウントし、短音要素の各1オクターブ離れた2つの領域の音圧値が共に閾値より大きい場合に短音要素を1カウントし、長音要素のカウント値から短音要素のカウント値を減算した値が2以上であれば「嬉しい」の感情パラメータのカウントを1増やし、短音要素のカウント値から長音要素のカウント値を減算した値が2以上であれば「悲しい」の感情パラメータのカウントを1増やし、各前記感情パラメータに基づいて感性データを算出することを特徴とする感性データ算出方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001170102A JP3560936B2 (ja) | 2001-06-05 | 2001-06-05 | 感性データ算出方法および感性データ算出装置 |
US10/162,415 US7203558B2 (en) | 2001-06-05 | 2002-06-03 | Method for computing sense data and device for computing sense data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001170102A JP3560936B2 (ja) | 2001-06-05 | 2001-06-05 | 感性データ算出方法および感性データ算出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002366173A JP2002366173A (ja) | 2002-12-20 |
JP3560936B2 true JP3560936B2 (ja) | 2004-09-02 |
Family
ID=19012082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001170102A Expired - Fee Related JP3560936B2 (ja) | 2001-06-05 | 2001-06-05 | 感性データ算出方法および感性データ算出装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7203558B2 (ja) |
JP (1) | JP3560936B2 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3702296B2 (ja) * | 2002-06-17 | 2005-10-05 | 株式会社Oiテクノロジーズ | 空間環境演出装置及び空間環境演出方法並びにそのプログラム |
JP4409907B2 (ja) * | 2003-10-28 | 2010-02-03 | 九州日立マクセル株式会社 | マッサージ機 |
KR100581060B1 (ko) * | 2003-11-12 | 2006-05-22 | 한국전자통신연구원 | 오감 데이터 동기화 전송 장치 및 그 방법과 그를 이용한실감형 멀티미디어 데이터 제공 시스템 및 그 방법 |
JP2006023524A (ja) * | 2004-07-08 | 2006-01-26 | Sony Corp | 音響信号の分析装置および再生装置 |
TWI261525B (en) * | 2004-12-24 | 2006-09-11 | Giga Byte Tech Co Ltd | Motion analyzing device and method for mobile product |
JP4519712B2 (ja) * | 2005-05-24 | 2010-08-04 | 三菱電機株式会社 | 画像表示付き音楽装置 |
KR100715949B1 (ko) * | 2005-11-11 | 2007-05-08 | 삼성전자주식회사 | 고속 음악 무드 분류 방법 및 그 장치 |
KR100749045B1 (ko) * | 2006-01-26 | 2007-08-13 | 삼성전자주식회사 | 음악 내용 요약본을 이용한 유사곡 검색 방법 및 그 장치 |
KR100717387B1 (ko) * | 2006-01-26 | 2007-05-11 | 삼성전자주식회사 | 유사곡 검색 방법 및 그 장치 |
US8062089B2 (en) | 2006-10-02 | 2011-11-22 | Mattel, Inc. | Electronic playset |
US8292689B2 (en) * | 2006-10-02 | 2012-10-23 | Mattel, Inc. | Electronic playset |
US20110022395A1 (en) * | 2007-02-15 | 2011-01-27 | Noise Free Wireless Inc. | Machine for Emotion Detection (MED) in a communications device |
EP2083416A1 (en) * | 2008-01-23 | 2009-07-29 | Sony Corporation | Method for deriving animation parameters and animation display device |
ITSA20080019A1 (it) * | 2008-07-29 | 2010-01-29 | Gerardo Iovane | Infrasonic firewall(firewall per segnali infrasonici) |
US20130295533A1 (en) * | 2012-05-03 | 2013-11-07 | Lyrics2Learn, Llc | Method and System for Educational Linking of Lyrical Phrases and Musical Structure |
US20140045158A1 (en) * | 2012-08-10 | 2014-02-13 | Tammy Zietchick Movsas | System And Method For Associating Auditory Stimuli With Visual Depictions |
WO2017094328A1 (ja) * | 2015-11-30 | 2017-06-08 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US11373448B2 (en) | 2018-04-04 | 2022-06-28 | Panasonic Intellectual Property Management Co., Ltd. | Emotion inference device, emotion inference method, and recording medium |
JP7549804B2 (ja) | 2021-03-02 | 2024-09-12 | マツダ株式会社 | 感情推定装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5988184A (ja) | 1982-11-13 | 1984-05-22 | 松原 邦彦 | 音曲反応の方法 |
US4611343A (en) * | 1984-06-29 | 1986-09-09 | Heath Company | Audio spectrum analyzer operable in a difference mode |
JPS62204652A (ja) * | 1986-03-04 | 1987-09-09 | Nec Corp | 可聴周波信号識別方式 |
JPH0512023A (ja) | 1991-07-04 | 1993-01-22 | Omron Corp | 感情認識装置 |
JPH05157578A (ja) * | 1991-12-06 | 1993-06-22 | Rohm Co Ltd | 表示制御装置及びレベルメータ |
JPH0916800A (ja) | 1995-07-04 | 1997-01-17 | Fuji Electric Co Ltd | 顔画像付き音声対話システム |
JPH09138767A (ja) | 1995-11-14 | 1997-05-27 | Fujitsu Ten Ltd | 感情表現の通信装置 |
JP4300380B2 (ja) * | 1999-12-02 | 2009-07-22 | ソニー株式会社 | オーディオ再生装置およびオーディオ再生方法 |
JP2001117581A (ja) | 1999-10-22 | 2001-04-27 | Alpine Electronics Inc | 感情認識装置 |
US6657117B2 (en) * | 2000-07-14 | 2003-12-02 | Microsoft Corporation | System and methods for providing automatic classification of media entities according to tempo properties |
JP2002215195A (ja) | 2000-11-06 | 2002-07-31 | Matsushita Electric Ind Co Ltd | 音楽信号処理装置 |
EP1244093B1 (en) * | 2001-03-22 | 2010-10-06 | Panasonic Corporation | Sound features extracting apparatus, sound data registering apparatus, sound data retrieving apparatus and methods and programs for implementing the same |
-
2001
- 2001-06-05 JP JP2001170102A patent/JP3560936B2/ja not_active Expired - Fee Related
-
2002
- 2002-06-03 US US10/162,415 patent/US7203558B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002366173A (ja) | 2002-12-20 |
US20030014215A1 (en) | 2003-01-16 |
US7203558B2 (en) | 2007-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3560936B2 (ja) | 感性データ算出方法および感性データ算出装置 | |
Cook | Real sound synthesis for interactive applications | |
US20120118127A1 (en) | Information processing apparatus, musical composition section extracting method, and program | |
JP4645241B2 (ja) | 音声処理装置およびプログラム | |
JP2010014913A (ja) | 声質変換音声生成装置および声質変換音声生成システム | |
Mo et al. | The effects of reverberation on the emotional characteristics of musical instruments | |
JP2003177784A (ja) | 音響変節点抽出装置及びその方法、音響再生装置及びその方法、音響再生システム、音響配信システム、情報提供装置、音響信号編集装置、音響変節点抽出方法プログラム記録媒体、音響再生方法プログラム記録媒体、音響信号編集方法プログラム記録媒体、音響変節点抽出方法プログラム、音響再生方法プログラム、音響信号編集方法プログラム | |
JP2002215195A (ja) | 音楽信号処理装置 | |
JP2007310204A (ja) | 楽曲練習支援装置、制御方法及びプログラム | |
JPH09222897A (ja) | カラオケ採点装置 | |
WO2006003848A1 (ja) | 楽曲情報算出装置及び楽曲再生装置 | |
Jensen | The timbre model | |
JP2007271977A (ja) | 評価基準判定装置、制御方法及びプログラム | |
WO2020158891A1 (ja) | 音信号合成方法およびニューラルネットワークの訓練方法 | |
JP3716725B2 (ja) | 音声処理装置、音声処理方法および情報記録媒体 | |
JP2023013684A (ja) | 歌唱声質変換プログラム及び歌唱声質変換装置 | |
WO2010084830A1 (ja) | 音声処理装置、チャットシステム、音声処理方法、情報記憶媒体、ならびに、プログラム | |
Jensen et al. | Hybrid perception | |
JP2004066351A (ja) | ロボット制御装置及びロボット制御方法並びにそのプログラム | |
WO2024034115A1 (ja) | 音声信号処理装置、音声信号処理方法およびプログラム | |
JP2003022100A (ja) | 雑音除去方法、雑音除去装置およびプログラム | |
WO2024034118A1 (ja) | 音声信号処理装置、音声信号処理方法およびプログラム | |
JP5211437B2 (ja) | 音声処理装置およびプログラム | |
KR20110025434A (ko) | 노래의 감성 향상 방법 및 장치 | |
Viraraghavan et al. | Grammar-constrained music generation for unconstrained doodling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040304 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20040323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040518 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040526 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |