JP2002366173A - 感性データ算出方法および感性データ算出装置 - Google Patents

感性データ算出方法および感性データ算出装置

Info

Publication number
JP2002366173A
JP2002366173A JP2001170102A JP2001170102A JP2002366173A JP 2002366173 A JP2002366173 A JP 2002366173A JP 2001170102 A JP2001170102 A JP 2001170102A JP 2001170102 A JP2001170102 A JP 2001170102A JP 2002366173 A JP2002366173 A JP 2002366173A
Authority
JP
Japan
Prior art keywords
data
sound
sound pressure
frequency band
sensitivity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001170102A
Other languages
English (en)
Other versions
JP3560936B2 (ja
Inventor
Fumihiko Sugiyama
文彦 杉山
Takatomo Nakajima
隆智 中島
Masaaki Tako
正明 多湖
Kazumasa Suzuki
一匡 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Open Interface Inc
Original Assignee
Open Interface Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Open Interface Inc filed Critical Open Interface Inc
Priority to JP2001170102A priority Critical patent/JP3560936B2/ja
Priority to US10/162,415 priority patent/US7203558B2/en
Publication of JP2002366173A publication Critical patent/JP2002366173A/ja
Application granted granted Critical
Publication of JP3560936B2 publication Critical patent/JP3560936B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/061MP3, i.e. MPEG-1 or MPEG-2 Audio Layer III, lossy audio compression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

(57)【要約】 【課題】 オーディオ信号など人間の感覚に関する信号
を解析することにより、その感覚によって生じる感情あ
るいは感性に関するデータを自動的に算出する感性デー
タ算出方法および感性データ算出装置を提供する。 【解決手段】 MP3データ記憶部4は、MP3形式で
記録されたデジタル音データを記憶している。伸長部1
1は、圧縮されているMP3データ(A)を伸長し、周
波数帯域ごとの音圧値データ(B)として出力する。感
性データ算出部12は、感情解析部13とリズム解析部
14とを備えている。リズム解析部14は、データ
(B)を基に単位時間あたり拍数を求める。感情解析部
13は、データ(B)を基に、数種類の感情パラメータ
値を求め、この感情パラメータ値と上記の単位時間あた
り拍数とを基に、感情種類および感情レベルを判定し、
その結果を感性データ蓄積部2に書き込む。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、信号を解析して
解析結果を出力する装置に関する。特に、聴覚や視覚な
ど、人間の感覚に関する時系列的な信号を解析する装置
に関する。
【0002】
【従来の技術】従来、人間の感情・感性に関する情報を
デジタルデータとして扱うためには、例えば「うれし
い」、「悲しい」、「怖い」などといった情報を、コン
ピュータなどの情報機器に直接入力する必要があった。
【0003】
【発明が解決しようとする課題】上記のような人間の感
情は、人間が外部環境から受ける刺激と相関関係を有す
るものである。そのような刺激のひとつが、例えば聴覚
によって知覚される音楽である。つまり、多数の人間が
ある共通の音楽を鑑賞したとき、それらの鑑賞者のうち
の多くの人間が、「うれしい」とか「悲しい」とか「気
持ちいい」などといった共通の感情を抱く。
【0004】本願発明は、このような点に着目してなさ
れたものであり、オーディオ信号やビデオ信号や、その
他、人間の感覚に関する信号を解析することにより、そ
の感覚によって生じる感情あるいは感性に関するデータ
を自動的に算出する感性データ算出方法および感性デー
タ算出装置を提供することを目的とする。また、本願発
明は、上記の感性データ算出方法および感性データ算出
装置を応用した各種装置を提供することを目的とする。
【0005】
【課題を解決するための手段】上記の課題を解決するた
めに、本発明は、分割された周波数帯域ごとの音圧値と
して音を表現したデジタルデータを入力し、前記周波数
帯域ごとの音圧値の分布を解析することにより、前記音
に関連する感性データを算出することを特徴とする感性
データ算出方法を要旨とする。
【0006】また、本発明の感性データ算出方法は、前
記周波数帯域全体を、10個以下の周波数帯域グループ
に分割し、この周波数帯域グループごとの平均音圧値に
基づいて前記感性データを算出することを特徴とするも
のである。
【0007】また、本発明の感性データ算出方法は、前
記周波数帯域ごとの音圧値の分布の時間的な推移に基づ
いて前記感性データを算出することを特徴とするもので
ある。
【0008】また、本発明の感性データ算出方法は、前
記周波数帯域グループ内において、音圧値のピークとな
る周波数帯域が時間的にどのように推移するかに基づい
て前記感性データを算出することを特徴とするものであ
る。
【0009】また、本発明の感性データ算出方法は、前
記デジタルデータに基づき前記音に含まれるリズムの単
位時間あたり拍数を求め、この単位時間あたり拍数に基
づいて前記感性データを算出することを特徴とするもの
である。なお、リズムの単位時間あたり拍数を求めるた
めの一方法は、前記デジタルデータに基づいて、周波数
帯域ごとの音圧値の時間的変化量を求め、周波数帯域全
体において前記時間的変化量が所定の閾値以上である領
域の分布に基づいてノイズを検出し、このノイズの検出
頻度に基づいて前記単位時間あたり拍数を求めることで
ある。
【0010】また、本発明の感性データ算出方法は、前
記周波数帯域ごとの音圧値の分布に基づき、「快感」、
「驚き」、「怯え」、「嬉しい」、「悲しい」の5種類
の感情パラメータ値を算出し、これらの感情パラメータ
値に基づいて感性データを算出することを特徴とするも
のである。
【0011】また、本発明は、分割された周波数帯域ご
との音圧値として楽曲を表現したデジタルデータを基
に、上記の感性データ算出方法によって感性データを算
出し、算出された感性データに基づいてビジュアルコン
テンツを生成し、前記楽曲の再生と前記ビジュアルコン
テンツとの表示を同期的に行うことを特徴とする音楽再
生方法である。
【0012】また、本発明は、分割された周波数帯域ご
との音圧値として楽曲を表現したデジタルデータを基
に、上記の感性データ算出方法によって感性データを算
出し、算出された感性データ同士を比較することにより
前記楽曲を識別することを特徴とする楽曲識別方法であ
る。
【0013】また、本発明の感性データ算出装置は、分
割された周波数帯域ごとの音圧値として音を表現したデ
ジタルデータを入力し、前記周波数帯域ごとの音圧値の
分布を解析することにより、前記音に関連する感性デー
タを算出することを特徴とするものである。
【0014】また、本発明の感性データ算出装置は、前
記デジタルデータに基づき前記音に含まれるリズムの単
位時間あたり拍数を求めるリズム解析部と、前記周波数
帯域全体を10個以下の周波数帯域グループに分割し、
この周波数帯域グループごとの音圧値と、前記リズム解
析部によって求められた単位時間あたり拍数とを基に感
性データを算出する感情解析部とを備えることを特徴と
するものである。
【0015】また、本発明の音楽再生装置は、分割され
た周波数帯域ごとの音圧値として音を表現したデジタル
データを記憶するデータ記憶部と、前記データ記憶部か
ら読み出された前記デジタルデータを基に、前記周波数
帯域ごとの音圧値の分布を解析することにより前記音に
関連する感性データを算出する感性データ算出部と、前
記感性データ算出部によって算出された前記感性データ
に基づきビジュアルコンテンツを生成するビジュアルコ
ンテンツ生成部と、前記デジタルデータをデコードして
オーディオ信号を出力するデコーダ部とを備えるととも
に、前記ビジュアルコンテンツ生成部によるビジュアル
コンテンツの生成と、前記デコーダ部によるオーディオ
信号の出力とを同期的に行うことを特徴とするものであ
る。
【0016】また、本発明のプログラムは、分割された
周波数帯域ごとの音圧値として音を表現したデジタルデ
ータを入力し、前記周波数帯域ごとの音圧値の分布を解
析することにより、前記音に関連する感性データを算出
する処理をコンピュータに実行させるものである。
【0017】また、本発明のコンピュータ読み取り可能
な記録媒体は、分割された周波数帯域ごとの音圧値とし
て音を表現したデジタルデータを入力し、前記周波数帯
域ごとの音圧値の分布を解析することにより、前記音に
関連する感性データを算出する処理をコンピュータに実
行させるプログラムを記録したものである。
【0018】
【発明の実施の形態】以下、図面を参照しこの発明の一
実施形態について説明する。図1は、同実施形態による
感性データ算出方法を応用した音楽再生装置の構成を示
すブロック図である。この音楽再生装置は、MP3(MP
EG Audio Layer 3)の形式で記録された音楽(聴覚デー
タ)を再生するとともに、この音楽を基に感性データを
算出するものである。
【0019】図1において、符号4は、MP3形式の音
楽データを記憶するMP3データ記憶部である。1は、
MP3データ記憶部4から読み出された音楽データを基
に感性データを算出して出力するスペクトラム解析部で
ある。2は、スペクトラム解析部1によって算出された
感性データを蓄積する感性データ蓄積部である。3は、
感性データ蓄積部2に蓄積された感性データを順次読み
出し、この感性データに基づくアニメーション画像(ビ
ジュアルコンテンツ)を生成するアニメーション画像生
成部(ビジュアルコンテンツ生成部)である。
【0020】また、5は、MP3データ記憶部4から読
み出された音楽データをデコードして時系列的な音圧レ
ベルのデジタル信号(デジタルオーディオ信号)を出力
するMP3デコーダ部である。6は、MP3デコーダ部
5から出力されたデジタル信号を変換してアナログオー
ディオ信号を出力するD/A(デジタル/アナログ)変
換部である。
【0021】MP3データ記憶部4に記憶されている音
楽データは、所定のサンプリング周波数(例えば、44
100Hz(ヘルツ))でサンプリングされ量子化され
た音圧レベルが、所定のフレーム長(例えば、約0.0
261秒)を1フレームとするフレーム単位で、所定数
(例えば、576本)に分割された周波数帯域ごとの音
圧値に変換され、さらに圧縮されたものである。
【0022】スペクトラム解析部1は、このような音楽
データを時系列的に順次読み出し、読み出したデータを
まず伸長してから、後述する所定の手順により解析を行
い、その結果を感性データとして順次出力していく。ス
ペクトラム解析部1によって出力される感性データも時
系列的なデータであり、順次、感性データ蓄積部2に蓄
積されていく。
【0023】アニメーション画像生成部3は、再生する
音楽に合ったアニメーションを生成してビデオ信号とし
て出力するものである。生成されるアニメーションの一
例は、あるキャラクターが再生される音楽のリズムに合
わせてダンスをするものであり、感性データ蓄積部2か
ら読み取った感性データに応じて、そのキャラクターの
手足の振り付けや顔の表情が変わるようになっている。
なお、アニメーションで描かれるキャラクターの顔の表
情を変えるためには、例えば、口(唇)や、目や、その
周辺の筋肉に相当する部分の計上を変えて描くようにす
る。
【0024】再生される音楽の進行と生成されるアニメ
ーションの進行のタイミングが合うように、スペクトラ
ム解析部1とアニメーション画像生成部3とMP3デコ
ーダ5との間で互いに同期を取るようにする。また、ス
ペクトラム解析部1による感性データ算出の演算に時間
がかかっても音楽とアニメーションとのタイミングがず
れないように、スペクトラム解析部1による感性データ
算出を先行して行い、数秒から数十秒程度遅れて後追い
の形で、MP3デコータ5による音楽の再生とアニメー
ション画像生成部3からのビデオ信号の出力とを行うよ
うする。但し、スペクトラム解析部1による感性データ
算出の演算が充分に速く行える場合には、上記の遅延を
設けずにリアルタイムで再生するようにしても良い。
【0025】MP3データ記憶部4は、磁気ディスクや
CD−ROM(コンパクトディスクを用いた読み出し専
用メモリ)あるいはCD−R(CD Recordable )やDV
D(Digital Versatile Disk)や光磁気ディスクや半導
体メモリなどといった記録媒体とそれを読み取る読取装
置によって実現する。
【0026】スペクトラム解析部1は、コンピュータを
用いて実現する。つまり、後述する感性データ算出等の
処理の手順をコンピュータプログラムの形式でコンピュ
ータ読み取り可能な記録媒体に記録しておき、このプロ
グラムをコンピュータの中央処理装置が読み取ってその
命令を実行することにより感性データ算出等の機能を実
現する。ここで、コンピュータ読み取り可能な記録媒体
とは、例えば、磁気ディスクや、CD−ROMあるいは
CD−Rや、半導体メモリなどである。あるいは、専用
ロジックを搭載した集積回路としてスペクトラム解析部
1を実現するようにしても良い。あるいは、コンピュー
タプログラムをコンピュータ読み取り可能な記録媒体に
記録しておく代わりに、通信を用いて配信するようにし
て、配信を受けたコンピュータの中央処理装置がこのプ
ログラムを実行するようにしても良い。感性データ蓄積
部2は、半導体メモリや磁気ディスクなど、高速に書換
え可能な記録媒体を用いて実現する。
【0027】次に、スペクトラム解析部1の内部構成、
およびその処理の詳細について説明する。図1に示すよ
うに、スペクトラム解析部1は、伸長部11と感性デー
タ算出部12(感性データ算出装置)とを備えている。
伸長部11は、MP3データ記憶部から読み取られた音
楽データを伸長する。つまり、図1のAの部分では、圧
縮された状態のデータが伝達される。また、図1のBの
部分では、前述の周波数帯域(音域)ごとの音圧値の情
報が伸長済みの状態で伝達される。感性データ算出部1
2は、さらに、感情解析部13とリズム解析部14とを
備えている。
【0028】次に、感情解析部13とリズム解析部14
の詳細な処理手順について説明する。
【0029】図2は、感情解析部13による処理の手順
を示すフローチャートである。図2に示すように、感情
解析部13は、まずステップS1において入力されるデ
ータを基に5つの音域への分割の処理を行い、ステップ
S2においてこれら5つの音域の音圧値を基に感情パラ
メータを算出する処理を行い、ステップS3において算
出された感情パラメータを基に判定を行う。判定結果と
して、インデックス、感情種類、感情レベル、継続時
間、補間フラグの組の時系列データが出力される。
【0030】上記インデックスは、0から始まるシーケ
ンシャルな値である。上記感情種類は、「無表情(defa
ult )」、「快感(pleasure)」、「驚き(surpris
e)」、「怯え(fear)」、「嬉しい(happy )」、
「悲しい(sad )」のいずれかである。感情種類が「快
感」、「驚き」、「怯え」、「嬉しい」、「悲しい」の
いずれかであるとき、上記感情レベルは1以上5以下の
いずれかの整数の値を取る。また、感情種類が「無表
情」のとき、感情レベルの値は「なし」である。上記継
続時間は、秒単位の数値であり、1以上の値を取る。上
記補間フラグは、0(「OFF」を表わす)あるいは1
(「ON」を表わす)のいずれかの値を取る。
【0031】時系列の音楽データを処理する際の初期値
は、インデックス=0、感情種類=「無表情」、感情レ
ベル=「なし」、継続時間=「1」、補間フラグ=
「1」とする。
【0032】以下に、処理をさらに詳細に説明する。図
2の符号D1は、感情解析部13に入力される周波数帯
域ごとの音圧値情報である。この段階では、576本の
周波数帯域それぞれの音圧値情報が保持されている。ま
た、元のMP3データのサンプリング周波数は4410
0Hzである。つまり、分割された周波数帯域ごとの音
圧値として音を表現したデジタルデータを入力として、
周波数帯域ごとの音圧値の分布を以下の方法で解析する
ことにより、前記の音に関連する感性データを算出す
る。
【0033】ステップS1においては、音圧値情報(D
1)を基に、次の5段階の音域ごとの平均音圧値を算出
し、音圧値情報(D2)として出力する。その5段階の
音域とは、低音部(0Hz〜76.5625Hz)、中
低音部(229.6875Hz〜1990.625H
z)、中高音部(7005.469Hz〜10029.
69Hz)、高音部(10029.69Hz〜1496
7.97Hz)、最高音部(15006.25Hz〜1
7992.19Hz)の5つである。つまり、ここで
は、周波数帯域全体を、10個以下の周波数帯域グルー
プに分割し、この周波数帯域グループごとの音圧値を用
いた解析を行う。
【0034】また、ステップS1においては、音階分割
により、長音要素と短音要素の抽出を行う。この抽出の
ために、まず、0Hz〜497.6563Hzの帯域を
13の領域に均等分割し、497.6563Hz〜22
050Hzの帯域を63の領域に音階分割する。そし
て、そのうちの497.6563Hz〜2028.90
6Hzの2オクターブ分の24個の音階領域の音圧値が
所定の閾値より大きいかどうかを判断する。
【0035】上記24個の音階領域のうち、1番目、3
番目、5番目、8番目、10番目、12番目、13番
目、15番目、17番目、20番目、22番目、24番
目の領域が長音要素である。これらの長音要素のうち、
1番目と13番目とは1オクターブ離れた領域であるた
め、この2つの領域の音圧値が共に閾値より大きけれ
ば、長音要素を+1としてカウントする。また同様に、
3番目と15番目の領域、5番目と17番目の領域、8
番目と20番目の領域、10番目と22番目の領域、1
2番目と24番目の領域がそれぞれ互いに1オクターブ
離れた領域であり、2つの領域の音圧値が共に閾値より
大きい場合に、それぞれ長音要素を+1としてカウント
する。また、上記24個の音階領域のうち、2番目と1
4番目、4番目と16番目、6番目と18番目、7番目
と19番目、9番目と21番目、11番目と23番目が
それぞれ1互いに1オクターブ離れた領域のペアであ
り、各ペアごとに、2つの領域の音圧値が共に閾値より
大きい場合に、それぞれ短音要素を+1としてカウント
する。この抽出の処理の結果、長音要素および短音要素
は、それぞれ0以上6以下のいずれかの整数の値を取
る。
【0036】次に、ステップS2では、音圧値情報D2
を基に感情パラメータを算出する処理を行う。感情パラ
メータには優先順位が設定されており、「快感」の優先
度が1、「驚き」の優先度が2、「怯え」の優先度が
3、「嬉しい」および「悲しい」の優先度がともに4と
なっている。なお、上記5種類の感情パラメータ値がす
べて「0」のときは、「無表情」に該当する。
【0037】また、ステップS3では、算出された感情
パラメータに基づく判定を行い、感性データを求める処
理を行う。また、この判定においては、図1に示したリ
ズム解析部14によるリズム解析の結果も一部で用いら
れる。リズム解析の結果とは、例えば、ビート間の時間
間隔がどの程度の長さかといったことである。なお、感
情パラメータ値算出の際には、音圧値がL1以下の音を
無視する。判定の際には、
【0038】「快感(Pleasure)」に関する処理は、次
の通りである。 [条件1] ビート間の時間間隔がT3以上で、かつ、
中低音部から高音部までのいずれかの音圧のピークが高
音方向に時間的にT4以上移動した場合は、「快感」の
感情パラメータのカウントを+1する。この条件に合致
するとき、当該感情は、対象の音が鳴り始めてから時間
T4経過時点から、対象の音が鳴りやんでから時間T2
経過時点まで継続するものとする。つまり、本実施形態
においては、この継続時間の間は、「快感」データに基
づくアニメーションが生成され、出力される。 [条件2] 低音域の音圧値がL7以上で、かつ、高音
部の平均音圧値がL4以上である場合で、平均音圧値が
L6以上の時、前回までのビート間の平均時間間隔から
今回のビート間時間間隔を差し引いた値がT1以上であ
る、または、前回の判定結果が「驚き」の場合は「快
感」の感情パラメータのカウントを+2する。この条件
に合致するとき、当該感情は、対象の音が鳴り始めてか
ら時間T4が経過した時点から始まるものとする。
【0039】つまり、上記条件2が適用される場合に
は、分割された周波数帯域グループごとの平均音圧値に
基づいて感性データが算出される。また、上記条件1が
適用される場合には、周波数帯域グループ内において、
音圧値のピークとなる周波数帯域が時間的にどのように
推移するかに基づいて感性データが算出される。また、
上記条件1が適用される場合には、元のデジタルデータ
に基づき音に含まれるリズムの単位時間あたり拍数が求
められ、この単位時間あたり拍数に基づいて感性データ
が算出される。上記の「ビート間の時間間隔」は単位あ
たり拍数の逆数から求められる。なお、「快感」の感情
の優先順位は最も高い「1」であるため、上記の条件1
あるいは条件2のいずれかにあてはまる場合は、他の感
情を無視する。
【0040】「驚き(Surprise)」に関する処理は、次
の通りである。上述した「快感」の条件に該当しない場
合は、下記の条件により「驚き」に該当するかどうかを
チェックする。
【0041】[条件1] 全音域の平均音圧値がL3以
下の音が無い状態から、低音部のピークの音圧値がL7
以上の音を最初に取得した場合は、「驚き」の感情パラ
メータのカウントを+4し、その音が鳴りつづけた時間
を継続時間とする。ただし、下記の条件2を満たす場合
は無視をする。 [条件2] 全音域の平均音圧値がL2以下の音が無い
状態から、低音部のピークの音圧値がL7以上の音を最
初に取得した場合は、「驚き」の感情パラメータのカウ
ントを+5し、その音が鳴りつづけた時間を継続時間と
する。
【0042】[条件3] 全音域の平均音圧値がL3以
下の音が無い状態から、低音部以外のピークの音圧値が
L7以上の音を最初に取得した場合は、「驚き」の感情
パラメータのカウントを+1し、その音が鳴りつづけた
時間を継続時間とする。ただし、下記の条件4を満たす
場合は無視をする。 [条件4] 全音域の平均音圧値がL2以下の音が無い
状態から、低音部以外のピークの音圧値がL7以上の音
を最初に取得した場合は、「驚き」の感情パラメータの
カウントを+2し、その音が鳴りつづけた時間を継続時
間とする。 [条件5] 最高音部の音が時間T4以上続いた場合、
または最高音部の音が存在し、かつ中高音部の平均音圧
値がL4以下の場合は、「驚き」の感情パラメータのカ
ウントを+3し、その音が鳴りつづけた時間を継続時間
とする。 なお、「驚き」の感情の優先順位は「快感」のそれに次
ぐ「2」であるため、上記の条件1から5までのいずれ
かにあてはまる場合は、他の優先順位の低い感情を無視
する。
【0043】「怯え(Fear)」に関する処理は、次の通
りである。上述した「快感」あるいは「驚き」のいずれ
の条件にも該当しない場合は、下記の条件により「怯
え」に該当するかどうかをチェックする。
【0044】[条件1] 中低音部から高音部までのい
ずれかの音圧値のピークが低音方向に時間的にT4以上
移動した場合は、「怯え」の感情パラメータのカウント
を+1する。 [条件2] 中低音部から高音部までのいずれかの音圧
値のピークが低音方向に時間的にT4以上移動し、続け
て高音方向に時間的にT4以上移動した場合は、「怯
え」の感情パラメータのカウントを+4する。 [条件3] 中低音部から高音部までのいずれかの音圧
値のピークが低音方向に移動中に高音方向に揺れた回数
Nが42以上の場合、「怯え」の感情パラメータのカウ
ントを+(N/16)する。
【0045】なお、「怯え」データに基づくアニメーシ
ョンの変化の始点は対象の音が鳴り始めてから時間T4
経過後とし、同じくアニメーションの変化の終点は対象
の音が鳴りやんでから時間T2経過後とする。なお、
「怯え」の感情の優先順位は「驚き」のそれに次ぐ
「3」であるため、上記の条件1から3までのいずれか
にあてはまる場合は、他の優先順位の低い感情を無視す
る。
【0046】上述した「快感」、「驚き」、「怯え」の
いずれの条件にも該当しない場合は、下記の条件により
「嬉しい」または「悲しい」に該当するかどうかをチェ
ックする。
【0047】「嬉しい(Happy)」に関する処理は、次
の通りである。 [条件1] ビートがある場合は、「嬉しい」の感情パ
ラメータのカウントを+1する。 [条件2] ビート間の時間間隔がT7以下の場合は、
「嬉しい」の感情パラメータのカウントを+1する。 [条件3] 高音部の平均音圧値がL4以上の場合は、
「嬉しい」の感情パラメータのカウントを+1する。 [条件4] 上記の条件3を満たし、かつ、中低音部の
音圧値のピークが5つ以上あった場合は、「嬉しい」の
感情パラメータのカウントを+2する。 [条件5] 上記の条件3を満たし、かつ、上記の条件
4をみたし、かつ、低音部の平均音圧値がL5以下の場
合は、「嬉しい」の感情パラメータのカウントを+2を
する。 [条件6] 抽出された長調要素−短調要素の数値が2
以上の場合は、「嬉しい」の感情パラメータのカウント
を+1する。
【0048】なお、「嬉しい」データに基づくアニメー
ションの変化の始点の時間的な誤差は±T2とする。ま
た、同じくアニメーションの変化の終点の時間的な誤差
も±T2とする。
【0049】「悲しい(Sad)」に関する処理は、次の
通りである。 [条件1] ビート間の時間間隔がT5以上である場合
+は、「悲しい」の感情パラメータのカウントを+1す
る。 [条件2] ビートがない場合は、「悲しい」の感情パ
ラメータのカウントを+2する。 [条件3] 中低音部に時間T4以上続く音圧値のピー
クがあった場合は、「悲しい」の感情パラメータを+1
し、音が鳴り続けている時間を継続時間とする。ただ
し、下記の条件4を満たす場合は無視をする。 [条件4] 中低音部に時間T6以上続く音圧値のピー
クがあった場合は、「悲しい」の感情パラメータを+2
し、音が鳴り続けている時間を継続時間とする。
【0050】[条件5] 高音部に音圧値のピークが3
つ以上あった場合は、「悲しい」の感情パラメータを+
1する。 [条件6] 全領域の平均音圧値がL3以上の音が無い
状態の場合は、「悲しい」の感情パラメータを+1す
る。 [条件7] 全領域の平均音圧値がL3以上の音が時間
T2以上無い場合は、「悲しい」の感情パラメータを+
1する。 [条件8] 中高音部と高音部の平均音圧値がL3以下
であり、中低音部の音のみを取得した場合は、「悲し
い」の感情パラメータを+2する。 [条件9] 短調要素−長調要素の数値が2以上の場合
は、「悲しい」の感情パラメータを+1する。
【0051】なお、「悲しい」データに基づくアニメー
ションの変化の始点の時間的な誤差は±T2とする。ま
た、同じくアニメーションの変化の終点の時間的な誤差
も±T2とする。
【0052】以上述べたように、「快感」、「驚き」、
「怯え」、「嬉しい」、「悲しい」の感情について、そ
れぞれ定義された条件でのチェックが行われる。そし
て、優先順位の高い感情から順に、「快感」、「驚
き」、「怯え」のいずれかのカウント結果が1以上であ
る場合に、その感情が感情種類として判定される。ま
た、そのときのカウント値が感情レベルとされる。但
し、カウントが5を超える場合は、感情レベルを5とす
る。
【0053】なお、感情種類が「怯え」で、かつ同一の
感情レベルである状態が時間T5以上継続した場合に
は、時間T5ごとに再チェックを行う。また、感情種類
が「快感」のまま、感情レベルが2から1へ移行した場
合は、以後の感情レベルも2とみなし、感情レベル2を
継続させるものとする。
【0054】「快感」、「驚き」、「怯え」のカウント
値がいずれも0である場合で、「嬉しい」あるいは「悲
しい」のカウント値の少なくとも一方が1以上である場
合には、次に述べる方法で「嬉しい」および「悲しい」
のカウント値を比較する。まず、前回の「嬉しい」のカ
ウント値と現在の「嬉しい」のカウント値とから、これ
らの平均値を求める。次に、前回の「悲しい」のカウン
ト値と現在の「悲しい」のカウント値とから、これらの
平均値を求める。そして、「嬉しい」の平均値と「悲し
い」の平均値とを比較する。
【0055】上記の「嬉しい」の平均カウント値のほう
が大きい場合には、感情種類を「嬉しい」とするととも
に、「嬉しい」の平均カウント値から「悲しい」の平均
カウント値を引いた値を感情レベルとする。逆に、「悲
しい」の平均カウント値のほうが大きい場合には、感情
種類を「悲しい」とするとともに、「悲しい」の平均カ
ウント値から「嬉しい」の平均カウント値を引いた値を
感情レベルとする。「嬉しい」の平均カウント値と「悲
しい」の平均カウント値とが等しい場合には、前回のカ
ウント値同士を比較し、大きい方のカウント値を持つほ
うを感情種類として選択するとともに、この場合の感情
レベルを1とする。
【0056】但し、「嬉しい」と「悲しい」のカウント
値を用いた判定に関して、上記の規則に関わらず、次の
2つの例外パターンに該当する場合には、これを適用す
るものとする。第1の例外パターンは、「嬉しい」のカ
ウント値が5で、かつ、「悲しい」のカウント値が5で
ある場合であり、このときは、感情種類を「快感」と
し、感情レベルを2とする。第2の例外パターンは、
「怯え」のカウント値が3以上で、かつ、「悲しい」の
カウント値が4以上の場合であり、このときは、感情種
類を「悲しい」とし、感情レベルを5とする。
【0057】なお、上記5種類のいずれの感情について
も、カウント値の結果がすべて0である場合には、感情
種類は「無表情」であると判定される。
【0058】次に、補間フラグに関する判定方法を説明
する。補間フラグのデフォルト値は1(ON)である
が、次の2通りのいずれかに該当する場合に限り、補間
フラグを0(OFF)とする。第1に、同じ感情種類が
時間T6以上継続した場合には補間フラグを0とする。
第2に、前回の感情種類が「嬉しい」または「悲しい」
であり、そこから感情種類「快感」に遷移する場合には
補間フラグを0とする。
【0059】上述した感情パラメータの算出および感情
の判定等の処理において、時間T1〜T6については、
T1<T2<T3<T4<T5<T6の関係を満たす適
切な値を用いることとする。なお、T1はほぼ数百ミリ
秒程度、T6はほぼ数千ミリ秒程度である。また、音圧
値レベルL1〜L7については、L1<L2<L3<L
4<L5<L6<L7の関係を満たす適切な値を用いる
こととする。一例としては、L1は−50dB(デシベ
ル)程度、L7は−20dB程度の値を用いる。
【0060】次に、図1に示したリズム解析部14にお
ける処理について説明する。リズム解析部14には、伸
長部によって伸長されたデータが入力される。この入力
データは、前述のように、周波数領域ごとの音圧値情報
を時系列的に持つものである。このような入力データを
基に、リズム解析部14は音楽のリズムを解析し、その
音楽のbpm値(beats per minute,1分あたりビート
数,単位時間あたり拍数)を算出して出力する。
【0061】リズム解析の処理においては、次の事項を
前提とする。第1に、少なくとも一定時間以上は曲のリ
ズムは一定のbpm値で正確に刻まれることとする。第
2に、1拍あたり2回、ノイズ系の音が含まれることと
する。例えば、曲が4分の4拍子である場合には、4拍
の間に8回ノイズ系の音が含まれる。ここで、ノイズ系
の音とは、例えばシンバル等の音である。ノイズ系の音
は、ほぼ全周波数帯域に渡って音圧変化があることが特
徴である。従って、各周波数帯域ごとにフレーム間の音
圧変化量を求め、全周波数にわたって連続的に音圧変化
量が所定の閾値以上となる場合にこれをノイズ系の音と
して検出できる。
【0062】そして、ノイズ系の音はリズムに応じて所
定のタイミングの箇所に多く集中するという傾向がある
ことから、このノイズ系の音を検出し、この検出間隔を
フレーム(1フレームは約0.0261秒)単位で求め
る。この段階では、検出される間隔は、一定ではなく、
フレーム数ごとの度数の分布として得られる。得られた
分布を基に、補正を加えて、拍の間隔を決定することに
よってbpm値を求めることとする。つまり、前記第2
の前提によると1拍あたり2回のノイズ系の音が含まれ
るため、求められたノイズ間隔F(フレーム単位)を用
いると、bpm値は、次の式で得られる。すなわち、 bpm値=60 [秒/分] / (2*F [フレーム] *0.0261 [秒
/フレーム])
【0063】図3は、上述した音楽再生装置におけるデ
ータの流れを示す概略図である。図示するように、音声
データ51を基に、これを各周波数帯域に分解する処理
(61)を行うことによって、分解された音声のデータ
52が得られる。そしてこのデータを基に、感性データ
を算出する処理(62)を行うことによって感性データ
53が得られる。そして、この感性データ53に基づい
て、ビジュアルコンテンツを生成する処理(63)を行
うことによって、例えばアニメーションなどのビジュア
ルコンテンツデータ54が生成される。
【0064】従来においても、周波数帯域ごとの音声デ
ータに応じて光信号を出力するスペクトラム解析装置は
存在した。しかしながら、本実施形態の音楽再生装置
は、周波数帯域ごとの音声データから一旦感性データを
生成し、この感性データに基づいてビジュアルデータを
生成するとことにより、再生される音楽とそれを聴く人
間の感性にマッチした信号あるいはコンテンツを生成で
きるというという効果が得られる。このような効果は、
従来技術では実現できなかったものである。
【0065】次に、本発明の他の実施形態について説明
する。図1に示した構成では、予め記憶媒体等に記憶さ
れたMP3データを基に感性データを算出して蓄積する
こととしたが、外部から入力されるオーディオ信号を基
に、同様に感性データを算出するようにしても良い。図
4は、入力されるアナログオーディオ信号を基に感性デ
ータを算出して蓄積する感性データ算出装置の構成を示
すブロック図である。図4において、符号7はA/D
(アナログ/デジタル)変換部であり、1aはスペクト
ラム解析部である。スペクトラム解析部1aは、フーリ
エ変換部17と、感性データ算出部12とを備えてい
る。
【0066】A/D変換部7は、入力されるアナログオ
ーディオ信号を所定のサンプリング周波数による時系列
的なデジタル音圧値データ(C)に変換する。そして、
このデジタル音圧値データ(C)は、フーリエ変換部1
7によって、所定のフレーム長のフレームごと、かつ周
波数領域ごとの音圧値データに変換される。感性データ
算出部12の機能は図1に示したものと同様のものであ
り、前述の方法と同様の方法で感性データを算出する。
【0067】図1および図4に示した装置では、音楽な
どを表わす聴覚データを基に感性データを算出すること
としていたが、聴覚以外の感覚に関するデータを基に感
性データを算出するようにしても良い。図5は、より一
般的な感性データ算出装置の概略構成を示すブロック図
である。図5において、符号101は聴覚データ、10
2は視覚データ、103は触覚データ、104は味覚デ
ータ、105は嗅覚データである。これらのデータ(1
01〜105)は、各感覚の特性に応じて適切な方法で
デジタル化されたデータである。また、これらのデータ
(101〜105)は、時系列的データとして表わされ
る場合がある。
【0068】110は感性データ算出部であり、この感
性データ算出部110は、聴覚データ101、視覚デー
タ102、触覚データ103、味覚データ104、嗅覚
データ105の全部または一部を基に、予め定められた
処理手順に従って感性データ120を算出する。なお、
感性データ120もまた、時系列的データとして表わさ
れる場合がある。
【0069】以上、人間の感覚に関するデータに基づい
て感性データを算出する方法および装置について述べた
が、これらの応用としては、次のようなものが考えられ
る。図1に示した音楽再生装置は、音楽とアニメーショ
ンとを同時に再生する装置として利用できる。また、こ
の機能をコンピュータプログラムとして実現することに
より、パソコンや、PDA(Personal Digital Assista
nt)や、携帯通信端末などで稼動する音楽再生装置を実
現することができる。このとき、聴覚データ(音楽)等
は、予め記憶装置に蓄えておくだけでなく、インターネ
ットや固定系公衆電話網や携帯電話網などといった通信
を用いて配信するようにしても良い。
【0070】また、カラオケ演奏装置などにおいて、演
奏される音楽を解析して感性データを算出することによ
り、その音楽の感性に応じた情報を表示装置に表示する
ようにしても良い。
【0071】また、ロボット(例えば、いわゆるペット
型ロボットや、エンターテイメントロボットなど)にお
いて、外部環境から受ける刺激(音や光や振動など)に
基づいて感性データを算出し、この感性データに応じて
ロボットの動作や表情などを制御するようにしても良
い。
【0072】また、デジタル音楽コンテンツを基に算出
された感性データによって、元の音楽を識別するように
しても良い。これにより、ネットワークなどを介して流
通しているデジタル音楽コンテンツがどの曲のものであ
るかを容易に判別することが可能になり、コンテンツの
不正コピーの検出などに利用できる。この方法の利点
は、元の音データよりも算出される感性データのほうが
圧倒的にデータサイズが小さく、このように小さいサイ
ズのデータ同士の比較で済むことである。なお、発明者
らの経験によると、感性データは元の音データに比べる
と情報量としては圧倒的に少ないが、曲を識別するのに
充分な情報を含むものであることがわかっている。つま
り、異なる曲同士で感性データが全く一致したケースは
これまでになく、そのような状況が起こる可能性は非常
に小さいと言える。
【0073】以上、図面を参照してこの発明の実施形態
を詳述してきたが、具体的な構成はこれらの実施形態に
限られるものではなく、この発明の要旨を逸脱しない範
囲の設計等も含まれる。
【0074】
【発明の効果】以上説明したように、この発明によれ
ば、分割された周波数帯域ごとの音圧値として音を表現
したデジタルデータを入力し、前記周波数帯域ごとの音
圧値の分布を解析することにより、前記音に関連する感
性データを算出するため、入力される音に関連する感性
のデータを自動的に生成することができ、いちいち人が
判断してその判断結果を入力する必要がない。
【0075】また、この発明によれば、周波数帯域全体
を、10個以下の周波数帯域グループに分割し、この周
波数帯域グループごとの平均音圧値に基づいて感性デー
タを算出するため、計算処理を単純化して、比較的少な
い計算量での算出が可能である。
【0076】また、この発明によれば、音に含まれるリ
ズムの単位時間あたり拍数を求め、この単位時間あたり
拍数に基づいて感性データを算出する。このため、人間
の感性に近い感性データを、比較的単純な処理により得
ることができる。
【0077】また、この発明によれば、楽曲を表現した
デジタルデータを基に、前述の感性データ算出方法によ
って感性データを算出し、算出された感性データに基づ
いてビジュアルコンテンツを生成し、前記楽曲の再生と
前記ビジュアルコンテンツとの表示を同期的に行うた
め、音の感性にマッチしたビジュアルコンテンツを同時
に表示でき、再生時の表現力を増すことが可能になる。
【0078】また、この発明によれば、楽曲を表現した
デジタルデータを基に、前述の感性データ算出方法によ
って感性データを算出し、算出された感性データ同士を
比較することにより楽曲を識別するため、より小さいデ
ータ量で楽曲の識別を行うことが可能となり、デジタル
コンテンツの不正コピーの検出などを効率的に行うこと
ができる。
【図面の簡単な説明】
【図1】 この発明の一実施形態による感性データ算出
方法を応用した音楽再生装置の構成を示すブロック図で
ある。
【図2】 同実施形態による音楽再生装置が備える感情
解析部による解析処理の手順を示すフローチャートであ
る。
【図3】 同実施形態による音楽再生装置におけるデー
タの流れを示す概略図である。
【図4】 この発明の他の実施形態による感性データ算
出装置の構成を示すブロック図である。
【図5】 この発明の他の実施形態であり、聴覚やその
他の感覚に関するデータを基に感性データを算出する感
性データ算出装置の概略構成を示すブロック図である。
【符号の説明】
1 スペクトラム解析部 2 感性データ蓄積部 3 アニメーション画像生成部 4 MP3データ記憶部 5 MP3デコーダ部 6 D/A変換部 7 A/D変換部 11 伸長部 12 感性データ算出部 13 感情解析部 14 リズム解析部 17 フーリエ変換部 101 聴覚データ 102 視覚データ 103 触覚データ 104 味覚データ 105 嗅覚データ 110 感性データ算出部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 多湖 正明 神奈川県横浜市港北区新横浜2−15−12 共立新横浜ビル オープンインタフェース 株式会社内 (72)発明者 鈴木 一匡 神奈川県横浜市港北区新横浜2−15−12 共立新横浜ビル オープンインタフェース 株式会社内 Fターム(参考) 5B050 AA09 BA08 EA24 FA02 FA10 5D015 HH21

Claims (13)

    【特許請求の範囲】
  1. 【請求項1】 分割された周波数帯域ごとの音圧値とし
    て音を表現したデジタルデータを入力し、前記周波数帯
    域ごとの音圧値の分布を解析することにより、前記音に
    関連する感性データを算出することを特徴とする感性デ
    ータ算出方法。
  2. 【請求項2】 前記周波数帯域全体を、10個以下の周
    波数帯域グループに分割し、この周波数帯域グループご
    との平均音圧値に基づいて前記感性データを算出するこ
    とを特徴とする請求項1に記載の感性データ算出方法。
  3. 【請求項3】 前記周波数帯域ごとの音圧値の分布の時
    間的な推移に基づいて前記感性データを算出することを
    特徴とする請求項1又は2に記載の感性データ算出方
    法。
  4. 【請求項4】 前記周波数帯域グループ内において、音
    圧値のピークとなる周波数帯域が時間的にどのように推
    移するかに基づいて前記感性データを算出することを特
    徴とする請求項3に記載の感性データ算出方法。
  5. 【請求項5】 前記デジタルデータに基づき前記音に含
    まれるリズムの単位時間あたり拍数を求め、この単位時
    間あたり拍数に基づいて前記感性データを算出すること
    を特徴とする請求項1から4までのいずれかに記載の感
    性データ算出方法。
  6. 【請求項6】 前記周波数帯域ごとの音圧値の分布に基
    づき、「快感」、「驚き」、「怯え」、「嬉しい」、
    「悲しい」の5種類の感情パラメータ値を算出し、これ
    らの感情パラメータ値に基づいて感性データを算出する
    ことを特徴とする請求項1から5までのいずれかに記載
    の感性データ算出方法。
  7. 【請求項7】 分割された周波数帯域ごとの音圧値とし
    て楽曲を表現したデジタルデータを基に、請求項1から
    6までのいずれかに記載の感性データ算出方法によって
    感性データを算出し、算出された感性データに基づいて
    ビジュアルコンテンツを生成し、前記楽曲の再生と前記
    ビジュアルコンテンツとの表示を同期的に行うことを特
    徴とする音楽再生方法。
  8. 【請求項8】 分割された周波数帯域ごとの音圧値とし
    て楽曲を表現したデジタルデータを基に、請求項1から
    6までのいずれかに記載の感性データ算出方法によって
    感性データを算出し、算出された感性データ同士を比較
    することにより前記楽曲を識別することを特徴とする楽
    曲識別方法。
  9. 【請求項9】 分割された周波数帯域ごとの音圧値とし
    て音を表現したデジタルデータを入力し、前記周波数帯
    域ごとの音圧値の分布を解析することにより、前記音に
    関連する感性データを算出することを特徴とする感性デ
    ータ算出装置。
  10. 【請求項10】 請求項9に記載の感性データ算出装置
    であって、 前記デジタルデータに基づき前記音に含まれるリズムの
    単位時間あたり拍数を求めるリズム解析部と、 前記周波数帯域全体を10個以下の周波数帯域グループ
    に分割し、この周波数帯域グループごとの音圧値と、前
    記リズム解析部によって求められた単位時間あたり拍数
    とを基に感性データを算出する感情解析部とを備えるこ
    とを特徴とする感性データ算出装置。
  11. 【請求項11】 分割された周波数帯域ごとの音圧値と
    して音を表現したデジタルデータを記憶するデータ記憶
    部と、 前記データ記憶部から読み出された前記デジタルデータ
    を基に、前記周波数帯域ごとの音圧値の分布を解析する
    ことにより前記音に関連する感性データを算出する感性
    データ算出部と、 前記感性データ算出部によって算出された前記感性デー
    タに基づきビジュアルコンテンツを生成するビジュアル
    コンテンツ生成部と、 前記デジタルデータをデコードしてオーディオ信号を出
    力するデコーダ部とを備えるとともに、 前記ビジュアルコンテンツ生成部によるビジュアルコン
    テンツの生成と、前記デコーダ部によるオーディオ信号
    の出力とを同期的に行うことを特徴とする音楽再生装
    置。
  12. 【請求項12】 分割された周波数帯域ごとの音圧値と
    して音を表現したデジタルデータを入力し、前記周波数
    帯域ごとの音圧値の分布を解析することにより、前記音
    に関連する感性データを算出する処理をコンピュータに
    実行させるプログラム。
  13. 【請求項13】 分割された周波数帯域ごとの音圧値と
    して音を表現したデジタルデータを入力し、前記周波数
    帯域ごとの音圧値の分布を解析することにより、前記音
    に関連する感性データを算出する処理をコンピュータに
    実行させるプログラムを記録したコンピュータ読み取り
    可能な記録媒体。
JP2001170102A 2001-06-05 2001-06-05 感性データ算出方法および感性データ算出装置 Expired - Fee Related JP3560936B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001170102A JP3560936B2 (ja) 2001-06-05 2001-06-05 感性データ算出方法および感性データ算出装置
US10/162,415 US7203558B2 (en) 2001-06-05 2002-06-03 Method for computing sense data and device for computing sense data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001170102A JP3560936B2 (ja) 2001-06-05 2001-06-05 感性データ算出方法および感性データ算出装置

Publications (2)

Publication Number Publication Date
JP2002366173A true JP2002366173A (ja) 2002-12-20
JP3560936B2 JP3560936B2 (ja) 2004-09-02

Family

ID=19012082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001170102A Expired - Fee Related JP3560936B2 (ja) 2001-06-05 2001-06-05 感性データ算出方法および感性データ算出装置

Country Status (2)

Country Link
US (1) US7203558B2 (ja)
JP (1) JP3560936B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004029051A (ja) * 2002-06-17 2004-01-29 Open Interface Inc 空間環境演出装置及び空間環境演出方法並びにそのプログラム
JP2005130883A (ja) * 2003-10-28 2005-05-26 Kyushu Hitachi Maxell Ltd マッサージ機
JP2006023524A (ja) * 2004-07-08 2006-01-26 Sony Corp 音響信号の分析装置および再生装置
WO2006126308A1 (ja) * 2005-05-24 2006-11-30 Mitsubishi Denki Kabushiki Kaisha 画像表示付き音楽装置
WO2017094328A1 (ja) * 2015-11-30 2017-06-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11373448B2 (en) 2018-04-04 2022-06-28 Panasonic Intellectual Property Management Co., Ltd. Emotion inference device, emotion inference method, and recording medium

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100581060B1 (ko) * 2003-11-12 2006-05-22 한국전자통신연구원 오감 데이터 동기화 전송 장치 및 그 방법과 그를 이용한실감형 멀티미디어 데이터 제공 시스템 및 그 방법
TWI261525B (en) * 2004-12-24 2006-09-11 Giga Byte Tech Co Ltd Motion analyzing device and method for mobile product
KR100715949B1 (ko) * 2005-11-11 2007-05-08 삼성전자주식회사 고속 음악 무드 분류 방법 및 그 장치
KR100717387B1 (ko) * 2006-01-26 2007-05-11 삼성전자주식회사 유사곡 검색 방법 및 그 장치
KR100749045B1 (ko) * 2006-01-26 2007-08-13 삼성전자주식회사 음악 내용 요약본을 이용한 유사곡 검색 방법 및 그 장치
US8062089B2 (en) 2006-10-02 2011-11-22 Mattel, Inc. Electronic playset
US8292689B2 (en) * 2006-10-02 2012-10-23 Mattel, Inc. Electronic playset
US20110022395A1 (en) * 2007-02-15 2011-01-27 Noise Free Wireless Inc. Machine for Emotion Detection (MED) in a communications device
EP2083416A1 (en) * 2008-01-23 2009-07-29 Sony Corporation Method for deriving animation parameters and animation display device
ITSA20080019A1 (it) * 2008-07-29 2010-01-29 Gerardo Iovane Infrasonic firewall(firewall per segnali infrasonici)
US20130295533A1 (en) * 2012-05-03 2013-11-07 Lyrics2Learn, Llc Method and System for Educational Linking of Lyrical Phrases and Musical Structure
US20140045158A1 (en) * 2012-08-10 2014-02-13 Tammy Zietchick Movsas System And Method For Associating Auditory Stimuli With Visual Depictions

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5988184A (ja) 1982-11-13 1984-05-22 松原 邦彦 音曲反応の方法
US4611343A (en) * 1984-06-29 1986-09-09 Heath Company Audio spectrum analyzer operable in a difference mode
JPS62204652A (ja) * 1986-03-04 1987-09-09 Nec Corp 可聴周波信号識別方式
JPH0512023A (ja) 1991-07-04 1993-01-22 Omron Corp 感情認識装置
JPH05157578A (ja) * 1991-12-06 1993-06-22 Rohm Co Ltd 表示制御装置及びレベルメータ
JPH0916800A (ja) 1995-07-04 1997-01-17 Fuji Electric Co Ltd 顔画像付き音声対話システム
JPH09138767A (ja) 1995-11-14 1997-05-27 Fujitsu Ten Ltd 感情表現の通信装置
JP4300380B2 (ja) * 1999-12-02 2009-07-22 ソニー株式会社 オーディオ再生装置およびオーディオ再生方法
JP2001117581A (ja) 1999-10-22 2001-04-27 Alpine Electronics Inc 感情認識装置
US6657117B2 (en) * 2000-07-14 2003-12-02 Microsoft Corporation System and methods for providing automatic classification of media entities according to tempo properties
JP2002215195A (ja) 2000-11-06 2002-07-31 Matsushita Electric Ind Co Ltd 音楽信号処理装置
EP1244093B1 (en) * 2001-03-22 2010-10-06 Panasonic Corporation Sound features extracting apparatus, sound data registering apparatus, sound data retrieving apparatus and methods and programs for implementing the same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004029051A (ja) * 2002-06-17 2004-01-29 Open Interface Inc 空間環境演出装置及び空間環境演出方法並びにそのプログラム
JP2005130883A (ja) * 2003-10-28 2005-05-26 Kyushu Hitachi Maxell Ltd マッサージ機
JP2006023524A (ja) * 2004-07-08 2006-01-26 Sony Corp 音響信号の分析装置および再生装置
WO2006126308A1 (ja) * 2005-05-24 2006-11-30 Mitsubishi Denki Kabushiki Kaisha 画像表示付き音楽装置
JP2006330921A (ja) * 2005-05-24 2006-12-07 Mitsubishi Electric Corp 画像表示付き音楽装置
JP4519712B2 (ja) * 2005-05-24 2010-08-04 三菱電機株式会社 画像表示付き音楽装置
WO2017094328A1 (ja) * 2015-11-30 2017-06-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11373448B2 (en) 2018-04-04 2022-06-28 Panasonic Intellectual Property Management Co., Ltd. Emotion inference device, emotion inference method, and recording medium

Also Published As

Publication number Publication date
US20030014215A1 (en) 2003-01-16
JP3560936B2 (ja) 2004-09-02
US7203558B2 (en) 2007-04-10

Similar Documents

Publication Publication Date Title
JP3560936B2 (ja) 感性データ算出方法および感性データ算出装置
Cook Real sound synthesis for interactive applications
Johnson-Laird et al. On musical dissonance
JP3381074B2 (ja) 音響構成装置
Houtsma et al. Auditory demonstrations
CN112382257B (zh) 一种音频处理方法、装置、设备及介质
JP2002014691A (ja) ソース音声信号内の新規点の識別方法
JPWO2006080149A1 (ja) 音復元装置および音復元方法
JP2010014913A (ja) 声質変換音声生成装置および声質変換音声生成システム
JP2003177784A (ja) 音響変節点抽出装置及びその方法、音響再生装置及びその方法、音響再生システム、音響配信システム、情報提供装置、音響信号編集装置、音響変節点抽出方法プログラム記録媒体、音響再生方法プログラム記録媒体、音響信号編集方法プログラム記録媒体、音響変節点抽出方法プログラム、音響再生方法プログラム、音響信号編集方法プログラム
JP2006337667A (ja) 発音評価方法、音素列モデル学習方法、これらの方法を用いた装置、プログラム、および記録媒体。
JPH09222897A (ja) カラオケ採点装置
Jensen The timbre model
CN108573689B (zh) 电子乐器、乐音发生方法及记录介质
WO2020158891A1 (ja) 音信号合成方法およびニューラルネットワークの訓練方法
JP4483561B2 (ja) 音響信号分析装置、音響信号分析方法及び音響信号分析プログラム
Jensen et al. Hybrid perception
KR20010077433A (ko) 가상 음악 영상 시스템 및 그 시스템의 영상 표시 방법
JP2004066351A (ja) ロボット制御装置及びロボット制御方法並びにそのプログラム
Selle Experiencing Sound: A Hybrid Approach to Electronic Music Analysis
JP2014109603A (ja) 演奏評価装置、演奏評価方法
WO2024034115A1 (ja) 音声信号処理装置、音声信号処理方法およびプログラム
JP2008040344A (ja) 音声評価装置
Viraraghavan et al. Grammar-constrained music generation for unconstrained doodling
Chudy et al. Towards music performer recognition using timbre

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040304

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040526

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees