JP2007212932A - 音声分析装置、音声分析システム、音声分析方法および音声分析プログラム - Google Patents
音声分析装置、音声分析システム、音声分析方法および音声分析プログラム Download PDFInfo
- Publication number
- JP2007212932A JP2007212932A JP2006034962A JP2006034962A JP2007212932A JP 2007212932 A JP2007212932 A JP 2007212932A JP 2006034962 A JP2006034962 A JP 2006034962A JP 2006034962 A JP2006034962 A JP 2006034962A JP 2007212932 A JP2007212932 A JP 2007212932A
- Authority
- JP
- Japan
- Prior art keywords
- pitch
- analysis
- voice
- volume
- storage device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
【課題】音声を分析することにより、音声を発した個体が有する特徴を把握できるようにすることを目的とする。
【解決手段】音声入力部110は音声を入力し音声データを音声データ記憶装置190に記憶する。音程−音量データ生成部120は音声データをフーリエ変換して音程−音量データを生成し音程−音量データ記憶装置191に記憶する。分析処理部130は音程−音量データから最大音量の音程と最小音量の音程を特定する。分析データベース193には音程に対応付けて「質」、「課題」などの特徴情報を記憶し、結果出力部150は最大音量の音程に対応する特徴情報と最小音量に対応する特徴情報とを分析データベース193から取得し出力装置に出力する。また、音程−音量グラフ表示部140は音程−音量グラフを表示装置に表示する。
【選択図】図3
【解決手段】音声入力部110は音声を入力し音声データを音声データ記憶装置190に記憶する。音程−音量データ生成部120は音声データをフーリエ変換して音程−音量データを生成し音程−音量データ記憶装置191に記憶する。分析処理部130は音程−音量データから最大音量の音程と最小音量の音程を特定する。分析データベース193には音程に対応付けて「質」、「課題」などの特徴情報を記憶し、結果出力部150は最大音量の音程に対応する特徴情報と最小音量に対応する特徴情報とを分析データベース193から取得し出力装置に出力する。また、音程−音量グラフ表示部140は音程−音量グラフを表示装置に表示する。
【選択図】図3
Description
本発明は、例えば、音声分析処理における音声分析装置、音声分析システム、音声分析方法および音声分析プログラムに関するものである。
音声分析技術として、音声により人物を識別、照合するための方法などが考えられている。
特開2004−145025号公報
本発明は、音声を分析することにより、音声を発した個体が有する特徴を把握できるようにすることを目的とする。
本発明の音声分析装置は、個体から発せられた音声を音程毎の音量で示す音程−音量データを記憶する音程−音量データ記憶装置と、音程に音声を発する個体の特徴を分類した特徴情報を対応付けて記憶する音程−特徴データ記憶装置と、前記音程−音量データ記憶装置から音程−音量データを取得し、取得した音程−音量データが示す各音程の音量を中央処理装置を用いて比較して比較した結果に基づいて音程を特定し記憶機器に記憶する音程分析処理部と、前記音程分析処理部が記憶機器に記憶した音程に対応する特徴情報を中央処理装置を用いて前記音程−特徴データ記憶装置から検索して取得し個体から発せられた音声を分析した分析結果情報として出力装置に出力する分析結果出力部とを備えたことを特徴とする。
また、前記音程分析処理部は、複数のオクターブについて音程毎の音量を示す音程−音量データを前記音程−音量データ記憶装置から取得し、1オクターブを構成する各音程について各オクターブの当該音程の音量の合計値を当該音程の音量として算出し、算出した各音程の音量を比較して最大音量の音程と最小音量の音程との少なくともいずれかの音程を特定することを特徴とする。
また、前記音程−特徴データ記憶装置は、個体の質の特徴を含んで分類した前記特徴情報を音程に対応付けて記憶し、前記音程分析処理部は、最大音量の音程を特定し、前記分析結果出力部は、最大音量の音程に対応する質の特徴情報を前記音程−特徴データ記憶装置から検索して取得し出力装置に出力することを特徴とする。
また、前記音程−特徴データ記憶装置は、個体の課題の特徴を含んで分類した前記特徴情報を音程に対応付けて記憶し、前記音程分析処理部は、最小音量の音程を特定し、前記分析結果出力部は、最小音量の音程に対応する課題の特徴情報を前記音程−特徴データ記憶装置から検索して取得し出力装置に出力することを特徴とする。
また、各音程を主音程とする曲の曲情報を記憶する曲情報記憶装置と、前記音程分析処理部が特定した音程を主音程とする曲の曲情報を中央処理装置を用いて前記曲情報記憶装置から検索して取得し個体から発せられた音声を分析した分析結果情報として出力装置に出力する曲情報出力部とをさらに備えたことを特徴とする。
また、音程間での音量の相対値が指定された指定値を入力装置から入力し記憶機器に記憶する指定値入力部と、前記指定値入力部が記憶機器に記憶した指定値が示す相対値を基準値として指定値が示す相対値以上の音量を当該音程に対応付けて中央処理装置を用いて表示装置にグラフ表示する音程−音量グラフ表示部とをさらに備えたことを特徴とする。
本発明の音声分析システムは、個体から発せられた音声を音程毎の音量で示す音程−音量データを分析する音声分析装置と、音程−音量データを前記音声分析装置に送信して送信した音程−音量データに対する分析結果情報を前記音声分析装置から受信する分析要求装置とを備える音声分析システムであり、前記分析要求装置は、個体から発せられた音声を入力装置から入力し中央処理装置を用いて音声データを生成し記憶機器に記憶する音声入力部と、前記音声入力部が記憶機器に記憶した音声データを中央処理装置を用いて音程毎の音量を示す音程−音量データに変換し記憶機器に記憶する音程−音量データ生成部と、前記音程−音量データ生成部が記憶機器に記憶した音程−音量データを前記音声分析装置に送信して送信した音程−音量データに対する分析結果情報を前記音声分析装置から受信し記憶機器に記憶する要求装置通信部と、前記要求装置通信部が記憶機器に記憶した分析結果情報を出力装置に出力する結果出力部とを備え、前記音声分析装置は、音程−音量データを前記分析要求装置から受信して記憶機器に記憶し受信した音程−音量データに対する分析結果情報を前記分析要求装置に送信する分析装置通信部と、音程に音声を発する個体の特徴を分類した特徴情報を対応付けて記憶する音程−特徴データ記憶装置と、前記分析装置通信部が記憶機器に記憶した音程−音量データが示す各音程の音量を中央処理装置を用いて比較して比較した結果に基づいて音程を特定し記憶機器に記憶する音程分析処理部と、前記音程分析処理部が記憶機器に記憶した音程に対応する特徴情報を中央処理装置を用いて前記音程−特徴データ記憶装置から検索して取得し個体から発せられた音声を分析した分析結果情報として前記分析装置通信部に出力する分析結果出力部とを備えたことを特徴とする。
本発明の音声分析システムは、音声データを分析する音声分析装置と、音声データを前記音声分析装置に送信して送信した音声データに対する分析結果情報を前記音声分析装置から受信する分析要求装置とを備える音声分析システムであり、前記分析要求装置は、個体から発せられた音声を入力装置から入力し中央処理装置を用いて音声データを生成し記憶機器に記憶する音声入力部と、前記音声入力部が記憶機器に記憶した音声データを前記音声分析装置に送信して送信した音声データに対する分析結果情報を前記音声分析装置から受信し記憶機器に記憶する要求装置通信部と、前記要求装置通信部が記憶機器に記憶した分析結果情報を出力装置に出力する結果出力部とを備え、前記音声分析装置は、音声データを前記分析要求装置から受信して記憶機器に記憶し受信した音声データに対する分析結果情報を前記分析要求装置に送信する分析装置通信部と、前記分析装置通信部が記憶機器に記憶した音声データを中央処理装置を用いて音程毎の音量を示す音程−音量データに変換して記憶機器に記憶する音程−音量データ生成部と、音程に音声を発する個体の特徴を分類した特徴情報を対応付けて記憶する音程−特徴データ記憶装置と、前記音程−音量データ生成部が記憶機器に記憶した音程−音量データが示す各音程の音量を中央処理装置を用いて比較して比較した結果に基づいて音程を特定し記憶機器に記憶する音程分析処理部と、前記音程分析処理部が記憶機器に記憶した音程に対応する特徴情報を中央処理装置を用いて前記音程−特徴データ記憶装置から検索して取得し個体から発せられた音声を分析した分析結果情報として前記分析装置通信部に出力する分析結果出力部とを備えたことを特徴とする。
本発明の音声分析方法は、音程−音量データ記憶装置が個体から発せられた音声を音程毎の音量で示す音程−音量データを記憶し、音程−特徴データ記憶装置が音程に音声を発する個体の特徴を分類した特徴情報を対応付けて記憶し、音程分析処理部が前記音程−音量データ記憶装置から音程−音量データを取得し、取得した音程−音量データが示す各音程の音量を中央処理装置を用いて比較して比較した結果に基づいて音程を特定し記憶機器に記憶する音程分析処理を行い、分析結果出力部が前記音程分析処理部が記憶機器に記憶した音程に対応する特徴情報を中央処理装置を用いて前記音程−特徴データ記憶装置から検索して取得し個体から発せられた音声を分析した分析結果情報として出力装置に出力する分析結果出力処理を行うことを特徴とする。
本発明の音声分析プログラムは音程−音量データ記憶装置が個体から発せられた音声を音程毎の音量で示す音程−音量データを記憶し、音程−特徴データ記憶装置が音程に音声を発する個体の特徴を分類した特徴情報を対応付けて記憶し、音程分析処理部が前記音程−音量データ記憶装置から音程−音量データを取得し、取得した音程−音量データが示す各音程の音量を中央処理装置を用いて比較して比較した結果に基づいて音程を特定し記憶機器に記憶する音程分析処理を行い、分析結果出力部が前記音程分析処理部が記憶機器に記憶した音程に対応する特徴情報を中央処理装置を用いて前記音程−特徴データ記憶装置から検索して取得し個体から発せられた音声を分析した分析結果情報として出力装置に出力する分析結果出力処理を行うことをコンピュータに実行させることを特徴とする。
本発明によれば、音声に含まれる各音程の音量に基づいて特徴となる音程を特定でき、特定した音程に基づいて音声を発した個体が有する「質」や「課題」といった特徴を把握することができる。また、把握した個体の特徴を利用することでヒーリングシステムなどにも活用することができる。
実施の形態1.
図1は、実施の形態1における音声分析装置100の外観を示す図である。
図1において、音声分析装置100は、システムユニット910、表示装置901、キーボード(K/B)K/B902、マウス903、コンパクトディスク装置(CDD)CDD905、プリンタ装置906、スキャナ装置907、マイク991、スピーカー992を備え、これらはケーブルで接続されている。
さらに、音声分析装置100は、FAX機932、電話器931とケーブルで接続され、また、ローカルエリアネットワーク(LAN)LAN942、ウェブサーバ941を介してインターネット940に接続されている。
図1は、実施の形態1における音声分析装置100の外観を示す図である。
図1において、音声分析装置100は、システムユニット910、表示装置901、キーボード(K/B)K/B902、マウス903、コンパクトディスク装置(CDD)CDD905、プリンタ装置906、スキャナ装置907、マイク991、スピーカー992を備え、これらはケーブルで接続されている。
さらに、音声分析装置100は、FAX機932、電話器931とケーブルで接続され、また、ローカルエリアネットワーク(LAN)LAN942、ウェブサーバ941を介してインターネット940に接続されている。
図2は、実施の形態1における音声分析装置100のハードウェア構成図である。
図2において、音声分析装置100は、プログラムを実行するCPU(Central Processing Unit:中央処理装置)CPU911を備えている。CPU911は、バス912を介してROM913、RAM914、通信ボード915、表示装置901、K/B902、マウス903、FDD(Flexible Disk Drive)FDD904、磁気ディスク装置920、CDD905、プリンタ装置906、スキャナ装置907と接続されている。
表示装置901には液晶ディスプレイ、CRT(Cathode Ray Tube)ディスプレイなどがある。
RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、磁気ディスク装置920、光ディスク装置は、不揮発性メモリの一例である。これらは、記憶機器、記憶装置あるいは記憶部の一例である。
通信ボード915は、FAX機932、電話器931、LAN942等に接続されている。
例えば、通信ボード915、K/B902、スキャナ装置907、FDD904、マイク991などは、入力機器、入力装置あるいは入力部の一例である。
また、例えば、通信ボード915、表示装置901、スピーカー992などは、出力機器、出力装置あるいは出力部の一例である。
図2において、音声分析装置100は、プログラムを実行するCPU(Central Processing Unit:中央処理装置)CPU911を備えている。CPU911は、バス912を介してROM913、RAM914、通信ボード915、表示装置901、K/B902、マウス903、FDD(Flexible Disk Drive)FDD904、磁気ディスク装置920、CDD905、プリンタ装置906、スキャナ装置907と接続されている。
表示装置901には液晶ディスプレイ、CRT(Cathode Ray Tube)ディスプレイなどがある。
RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、磁気ディスク装置920、光ディスク装置は、不揮発性メモリの一例である。これらは、記憶機器、記憶装置あるいは記憶部の一例である。
通信ボード915は、FAX機932、電話器931、LAN942等に接続されている。
例えば、通信ボード915、K/B902、スキャナ装置907、FDD904、マイク991などは、入力機器、入力装置あるいは入力部の一例である。
また、例えば、通信ボード915、表示装置901、スピーカー992などは、出力機器、出力装置あるいは出力部の一例である。
ここで、通信ボード915は、LAN942に限らず、直接、インターネット940、或いはISDN等のWAN(ワイドエリアネットワーク)に接続されていても構わない。直接、インターネット940、或いはISDN等のWANに接続されている場合、音声分析装置100は、インターネット940、或いはISDN等のWANに接続され、ウェブサーバ941は不用となる。
磁気ディスク装置920には、オペレーティングシステム(OS)OS921、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923は、CPU911、OS921、ウィンドウシステム922により実行される。
磁気ディスク装置920には、オペレーティングシステム(OS)OS921、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923は、CPU911、OS921、ウィンドウシステム922により実行される。
上記プログラム群923には、実施の形態の説明において「〜部」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。
ファイル群924には、実施の形態の説明において、「〜情報」として説明するデータ、「〜部」として説明する機能を実行した際の判定結果や演算結果を示すデータ、「〜部」として説明する機能を実行するプログラム間で受け渡しするデータなどが「〜ファイル」として記憶されている。例えば、以下に説明する音声データ、音程−音量データ、分析結果情報、特徴情報などを「〜ファイル」として記憶する。
また、実施の形態の説明において、フローチャートや構成図の矢印の部分は主としてデータの入出力を示し、そのデータの入出力のためにデータは、磁気ディスク装置920、FD(Flexible Disk cartridge)、光ディスク、CD(コンパクトディスク)、MD(ミニディスク)、DVD(Digital Versatile Disk)、その他の記憶媒体に記憶される。あるいは、信号線やその他の伝送媒体により伝送される。
ファイル群924には、実施の形態の説明において、「〜情報」として説明するデータ、「〜部」として説明する機能を実行した際の判定結果や演算結果を示すデータ、「〜部」として説明する機能を実行するプログラム間で受け渡しするデータなどが「〜ファイル」として記憶されている。例えば、以下に説明する音声データ、音程−音量データ、分析結果情報、特徴情報などを「〜ファイル」として記憶する。
また、実施の形態の説明において、フローチャートや構成図の矢印の部分は主としてデータの入出力を示し、そのデータの入出力のためにデータは、磁気ディスク装置920、FD(Flexible Disk cartridge)、光ディスク、CD(コンパクトディスク)、MD(ミニディスク)、DVD(Digital Versatile Disk)、その他の記憶媒体に記憶される。あるいは、信号線やその他の伝送媒体により伝送される。
また、実施の形態の説明において「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、ハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。
また、実施の形態を実施するプログラムは、磁気ディスク装置920、FD、光ディスク、CD、MD、DVD、その他の記憶媒体による記憶装置を用いて記憶されても構わない。
図3は、実施の形態1における音声分析装置100の機能構成図である。
実施の形態1における音声分析装置100の機能構成について図3に基づいて以下に説明する。
音声分析装置100は以下の機能を備える。
音声データ記憶装置190は個体(例えば、個人)から発せられた音声のデータ(以下、音声データとする)を記憶する記憶機器である。
音程−音量データ記憶装置191は音声を音程毎の音量で表わす音程−音量データを記憶する記憶機器である。
最大音量・最小音量音程記憶装置192は、音程−音量データが示す各音程の音量を比較した結果を記憶する記憶機器であり、最大音量の音程と最小音量の音程との情報を記憶する。
分析データベース193(音程−特徴データ記憶装置、曲情報記憶装置の一例)は音声を発する個体の特徴を分類した特徴情報を音程に対応付けて記憶する記憶機器である。
分析結果記憶装置194は個体から発せられた音声を分析した分析結果情報を記憶する記憶機器である。
音声入力部110は個体から発せられた音声を入力装置(例えば、マイク991)から入力して音声データを生成し音声データ記憶装置190に記憶する。
音程−音量データ生成部120は音声データ記憶装置190に記憶された音声データを音程毎の音量を示す音程−音量データに変換し音程−音量データ記憶装置191に記憶する。
分析処理部130(音程分析処理部の一例)は音程−音量データ記憶装置191に記憶された音程−音量データが示す各音程の音量を比較して比較した結果に基づいて音程を特定し最大音量・最小音量音程記憶装置192に記憶する。
音程−音量グラフ表示部140は分析処理部130が分析した音程−音量データをグラフ化して表示装置901にグラフ表示する。
結果出力部150(分析結果出力部、曲情報出力部の一例)は最大音量・最小音量音程記憶装置192に記憶された音程に対応する特徴情報を分析データベース193を検索して取得し個体から発せられた音声を分析した分析結果情報として出力装置(例えば、分析結果記憶装置194、表示装置901、スピーカー992)に出力する。
実施の形態1における音声分析装置100の機能構成について図3に基づいて以下に説明する。
音声分析装置100は以下の機能を備える。
音声データ記憶装置190は個体(例えば、個人)から発せられた音声のデータ(以下、音声データとする)を記憶する記憶機器である。
音程−音量データ記憶装置191は音声を音程毎の音量で表わす音程−音量データを記憶する記憶機器である。
最大音量・最小音量音程記憶装置192は、音程−音量データが示す各音程の音量を比較した結果を記憶する記憶機器であり、最大音量の音程と最小音量の音程との情報を記憶する。
分析データベース193(音程−特徴データ記憶装置、曲情報記憶装置の一例)は音声を発する個体の特徴を分類した特徴情報を音程に対応付けて記憶する記憶機器である。
分析結果記憶装置194は個体から発せられた音声を分析した分析結果情報を記憶する記憶機器である。
音声入力部110は個体から発せられた音声を入力装置(例えば、マイク991)から入力して音声データを生成し音声データ記憶装置190に記憶する。
音程−音量データ生成部120は音声データ記憶装置190に記憶された音声データを音程毎の音量を示す音程−音量データに変換し音程−音量データ記憶装置191に記憶する。
分析処理部130(音程分析処理部の一例)は音程−音量データ記憶装置191に記憶された音程−音量データが示す各音程の音量を比較して比較した結果に基づいて音程を特定し最大音量・最小音量音程記憶装置192に記憶する。
音程−音量グラフ表示部140は分析処理部130が分析した音程−音量データをグラフ化して表示装置901にグラフ表示する。
結果出力部150(分析結果出力部、曲情報出力部の一例)は最大音量・最小音量音程記憶装置192に記憶された音程に対応する特徴情報を分析データベース193を検索して取得し個体から発せられた音声を分析した分析結果情報として出力装置(例えば、分析結果記憶装置194、表示装置901、スピーカー992)に出力する。
図4は、実施の形態1における分析データベース193に記憶する特徴情報の一例を示す図である。
分析データベース193は、図4に示すように、音程(“C”〜“B”の12音程)に対応付けて「色」、「質(クオリティー)」、「課題(イシュー)」、「曲情報」を特徴情報として記憶する。
分析データベース193は、図4に示すように、音程(“C”〜“B”の12音程)に対応付けて「色」、「質(クオリティー)」、「課題(イシュー)」、「曲情報」を特徴情報として記憶する。
実施の形態1における音声分析装置100はゲーテの加法混色の理論を使用している。“色”および“音程(トーン)”が人間のエネルギーと関係するという理論は、チャクラなどの仮定を用いたヴェーダのようなヒーリングシステムに利用され、人間のエネルギーと“色”ないし“音程(トーン)”との関係についての証明は、チャクラと“音程(トーン)”および“色”との関係をベースにしながら、長年にわたり、多くの専門家やヒーラーたちが研究し実体験を重ねてきている。
また、原子からできている物質は、すべて自分自身の自然な周波数で振動している。つまり、地球上に存在する鉱物、植物、繊維、システム、組織、惑星、空気など全てのものが振動し、独自の周波数を持っている。そして、健康な状態では、個体(特に、人間)のエネルギーシステムはとても調和的に振動している。但し、全体との調和から外れると微妙なズレが生じ始め、その個体は不調和や居心地の悪さを感じることになる。
また、一人一人の「声」は、とてもユニークで、指紋と同じように声紋を持っている。そして、体のどの部分のエネルギーと調和しているかでその「声」の特徴を知ることができ、「声」のエネルギーを知ることで自分のエネルギーの状態を知ることができると考えられる。
各個人を取り巻くエネルギー領域があることはキルリアンやモラマシーンなどが実証している。
また、原子からできている物質は、すべて自分自身の自然な周波数で振動している。つまり、地球上に存在する鉱物、植物、繊維、システム、組織、惑星、空気など全てのものが振動し、独自の周波数を持っている。そして、健康な状態では、個体(特に、人間)のエネルギーシステムはとても調和的に振動している。但し、全体との調和から外れると微妙なズレが生じ始め、その個体は不調和や居心地の悪さを感じることになる。
また、一人一人の「声」は、とてもユニークで、指紋と同じように声紋を持っている。そして、体のどの部分のエネルギーと調和しているかでその「声」の特徴を知ることができ、「声」のエネルギーを知ることで自分のエネルギーの状態を知ることができると考えられる。
各個人を取り巻くエネルギー領域があることはキルリアンやモラマシーンなどが実証している。
実施の形態1における音声分析装置100は、上記のような理由に基づき、個体が発した音声に含まれる音程に対応付けて、個体のエネルギーとの関係がある「色」、声の特徴に対応して知ることができる自分のエネルギーの状態である「質(クオリティ)」と「課題(イシュー)」、自分の「質(クオリティ)」を高め「課題(イシュー)」を解決するために個体に与える(聴かせる、声に出させる)音程を多く含む曲(対応付けられた音程を多く含む曲)の「曲情報」を分析データベース193に記憶する。
「質(クオリティ)」はその個体が持っている自然の質(本来の性質)であり、「課題(イシュー)」はその個体がその時に抱えている問題点である。
「質(クオリティ)」はその個体が持っている自然の質(本来の性質)であり、「課題(イシュー)」はその個体がその時に抱えている問題点である。
また、分析データベース193は、「質(クオリティー)」、「課題(イシュー)」の各キーワードを使用した文章データを音程に対応付けて記憶してもよいし、文章本文と「質(クオリティー)」、「課題(イシュー)」の各キーワードを文章中に埋め込む位置とを示す文章フォーマットデータを音程に対応付けて記憶してもよい。
図5は、実施の形態1における音声分析装置100の音声分析処理(音声分析方法)を示すフローチャートである。
実施の形態1における音声分析装置100の音声分析処理(音声分析方法)を図5に基づいて以下に説明する。
なお、以下に説明する音声分析処理(音声分析方法)はコンピュータに実行させることができ、音声分析処理(音声分析方法)をコンピュータに実行させるプログラムが音声分析プログラムである。
実施の形態1における音声分析装置100の音声分析処理(音声分析方法)を図5に基づいて以下に説明する。
なお、以下に説明する音声分析処理(音声分析方法)はコンピュータに実行させることができ、音声分析処理(音声分析方法)をコンピュータに実行させるプログラムが音声分析プログラムである。
<S101:音声入力処理>
音声入力部110は音声分析対象者が発した音声をマイク991から入力し音声データを生成して音声データ記憶装置190に記憶する。
このとき、音声入力部110は音声分析対象者に対して何かしらの話し声をマイク991から入力させる。例えば、自己紹介や現在自分が感じている物事に関する話を音声分析対象者にしてもらう。人の話し声には各音域(おおよそ、“C−3”〜“C+3”の7オクターブ)の周波数(0〜4096Hz[ヘルツ])が含まれる。ここで、特定の音域fについて1Hzあたりv個の音量データを得るためにサンプルとして必要な音声データ数sは以下の式1で表わされる。
音声入力部110は音声分析対象者が発した音声をマイク991から入力し音声データを生成して音声データ記憶装置190に記憶する。
このとき、音声入力部110は音声分析対象者に対して何かしらの話し声をマイク991から入力させる。例えば、自己紹介や現在自分が感じている物事に関する話を音声分析対象者にしてもらう。人の話し声には各音域(おおよそ、“C−3”〜“C+3”の7オクターブ)の周波数(0〜4096Hz[ヘルツ])が含まれる。ここで、特定の音域fについて1Hzあたりv個の音量データを得るためにサンプルとして必要な音声データ数sは以下の式1で表わされる。
s=f×v×2 [式1]
s:必要な音声データ数、f:音量データを取得する対象の音域、v:1Hzあたりの音量データ数
s:必要な音声データ数、f:音量データを取得する対象の音域、v:1Hzあたりの音量データ数
また、音声データ数sをサンプリングレートrで収集するために必要な音声データ収集時間tは以下の式2で表わされる。
t=s/r [式2]
t:必要な音声データ収集時間、s:音声データ数、r:サンプリングレート
t:必要な音声データ収集時間、s:音声データ数、r:サンプリングレート
例えば、人の話し声から1Hzあたり32個の音量データを得る場合に必要な音声データ数は262144(=4096[音量データを取得する対象の音域]×32[1Hzあたりの音量データ数]×2)個であり、この音声データを22050Hzのサンプリングレートで収集する場合に必要な音声データ収集時間は約12秒間(=262144[音声データ数]/22050[サンプリングレート])である。
そこで、音声入力部110は、音声分析対象者の12秒間程の話し声を入力して音声データを生成する。
音声入力部110が生成する音声データのファイル形式(圧縮形式)は、例えば、「WAVE」、「WMA」、「MP3」などである。
音声データは各時間における音波の振幅(音量)を示す。
音声入力部110が生成する音声データのファイル形式(圧縮形式)は、例えば、「WAVE」、「WMA」、「MP3」などである。
音声データは各時間における音波の振幅(音量)を示す。
<S102:音程−音量データ生成処理>
音程−音量データ生成部120は、音声データ記憶装置190から音声データを入力し、時間領域のデータである音声データを高速フーリエ変換して周波数領域のデータである音程−音量データに変換し、音程−音量データを音程−音量データ記憶装置191に記憶する。
周波数領域のデータである音程−音量データは各周波数における音波の振幅を示す。周波数の大きさは音の高さに対応し、振幅の大きさは音量の大きさに対応する。このため、音程−音量データは音程毎の音量(単位:デシベル[dB])を表わしている。
各オクターブは1オクターブ下の周波数域の倍の周波数域で表わされ、人の話し声に含まれる音域の7オクターブ(“C−3”、“C−2”、“C−1”、“C+0”、“C+1”、“C+2”、“C+3”)はそれぞれ、おおよそ“32Hz〜64Hz”、“64Hz〜128Hz”、“128Hz〜256Hz”、“256Hz〜512Hz”、“512Hz〜1024Hz”、“1024Hz〜2048Hz”、“2048Hz〜4096Hz”の周波数域に対応する。また、1オクターブを12音程(音階)(“C”、“C#”、“D”、“D#”、“E”、“F”、“F#”、“G”、“G#”、“A”、“A#”、“B”)で表わす場合、各音程は1音程下の周波数域のおおよそ1.0595倍の周波数域で表わされる。
音程−音量データ生成部120は、音声データ記憶装置190から音声データを入力し、時間領域のデータである音声データを高速フーリエ変換して周波数領域のデータである音程−音量データに変換し、音程−音量データを音程−音量データ記憶装置191に記憶する。
周波数領域のデータである音程−音量データは各周波数における音波の振幅を示す。周波数の大きさは音の高さに対応し、振幅の大きさは音量の大きさに対応する。このため、音程−音量データは音程毎の音量(単位:デシベル[dB])を表わしている。
各オクターブは1オクターブ下の周波数域の倍の周波数域で表わされ、人の話し声に含まれる音域の7オクターブ(“C−3”、“C−2”、“C−1”、“C+0”、“C+1”、“C+2”、“C+3”)はそれぞれ、おおよそ“32Hz〜64Hz”、“64Hz〜128Hz”、“128Hz〜256Hz”、“256Hz〜512Hz”、“512Hz〜1024Hz”、“1024Hz〜2048Hz”、“2048Hz〜4096Hz”の周波数域に対応する。また、1オクターブを12音程(音階)(“C”、“C#”、“D”、“D#”、“E”、“F”、“F#”、“G”、“G#”、“A”、“A#”、“B”)で表わす場合、各音程は1音程下の周波数域のおおよそ1.0595倍の周波数域で表わされる。
<S103:音程分析処理>
分析処理部130は、音程−音量データ記憶装置191から音程−音量データを入力し、最大音量の音程と最小音量の音程とを特定し、特定した音程の情報(最大音量の音程、最小音量の音程)を最大音量・最小音量音程記憶装置192に記憶する。
このとき、分析処理部130は、各音程について各オクターブの当該音程の音量の合計値を当該音程の音量として算出し、算出した各音程の音量を比較して最大音量の音程と最小音量の音程とを特定する。
分析処理部130が実行する音程分析処理の詳細について別途説明する。
分析処理部130は、音程−音量データ記憶装置191から音程−音量データを入力し、最大音量の音程と最小音量の音程とを特定し、特定した音程の情報(最大音量の音程、最小音量の音程)を最大音量・最小音量音程記憶装置192に記憶する。
このとき、分析処理部130は、各音程について各オクターブの当該音程の音量の合計値を当該音程の音量として算出し、算出した各音程の音量を比較して最大音量の音程と最小音量の音程とを特定する。
分析処理部130が実行する音程分析処理の詳細について別途説明する。
<S104:音程−音量グラフ表示処理>
音程−音量グラフ表示部140は、分析処理部130が分析した音程−音量データを入力してグラフ化し表示装置901にグラフ表示する。
このとき、音程−音量グラフ表示部140は、ユーザに指定された音程間での音量の相対値を入力装置(例えば、キーボードK/B902やマウス903)から入力し、指定された相対値以上の音量を当該音程に対応付けて、指定された相対値を基準値(0)とするグラフを表示装置901に表示する。
音程−音量グラフ表示部140が実行する音程−音量グラフ表示処理の詳細について別途説明する。
音程−音量グラフ表示部140は、分析処理部130が分析した音程−音量データを入力してグラフ化し表示装置901にグラフ表示する。
このとき、音程−音量グラフ表示部140は、ユーザに指定された音程間での音量の相対値を入力装置(例えば、キーボードK/B902やマウス903)から入力し、指定された相対値以上の音量を当該音程に対応付けて、指定された相対値を基準値(0)とするグラフを表示装置901に表示する。
音程−音量グラフ表示部140が実行する音程−音量グラフ表示処理の詳細について別途説明する。
<S105:分析結果出力処理>
結果出力部150は、最大音量・最小音量音程記憶装置192から最大音量の音程と最小音量の音程との情報を入力し、最大音量の音程に対応する特徴情報を分析データベース193から取得し、最小音量の音程に対応する特徴情報を分析データベース193から取得し、取得した特徴情報を分析結果情報として出力装置(例えば、分析結果記憶装置194、表示装置901、スピーカー992)に出力する。
例えば、結果出力部150は、最大音量の音程に対応する「色」と「質(クオリティー)」とを音声データを識別する識別情報(例えば、音声分析対象者の名前、音声入力時刻)に対応付けて分析結果記憶装置194に記憶し、また、最小音量の音程に対応する「色」と「課題(イシュー)」と「曲情報(例えば、曲名、曲再生データ)」とを音声データを識別する識別情報に対応付けて分析結果記憶装置194に記憶する。
また、例えば、結果出力部150は、最大音量の音程に対応する「色」を背景とし最大音量の音程に対応する「質(クオリティー)」の各キーワードを示す領域を表示装置901に表示すると共に、最小音量の音程に対応する「色」を背景とし最小音量の音程に対応する「課題(イシュー)」の各キーワードを示す領域を表示装置901に表示する。また、「質(クオリティー)」や「課題(イシュー)」の各キーワードを使用した文章データを音程に対応付けて分析データベース193に記憶し、結果出力部150が最大音量または最小音量の音程に対応する「色」を背景とし最大音量または最小音量の音程に対応する文章を示す領域を表示装置901に表示してもよい。また、文章本文と「質(クオリティー)」や「課題(イシュー)」の各キーワードを文章中に埋め込む位置とを示す文章フォーマットデータを音程に対応付けて分析データベース193に記憶し、結果出力部150が、最大音量または最小音量の音程に対応するキーワードを埋め込んで文章を生成し、最大音量または最小音量の音程に対応する「色」を背景とし最大音量または最小音量の音程に対応する文章を示す領域を表示装置901に表示してもよい。
また、例えば、結果出力部150は、最小音量の音程に対応する「曲情報」が示す曲再生データを再生しスピーカー992から曲を出力する。
結果出力部150は、最大音量・最小音量音程記憶装置192から最大音量の音程と最小音量の音程との情報を入力し、最大音量の音程に対応する特徴情報を分析データベース193から取得し、最小音量の音程に対応する特徴情報を分析データベース193から取得し、取得した特徴情報を分析結果情報として出力装置(例えば、分析結果記憶装置194、表示装置901、スピーカー992)に出力する。
例えば、結果出力部150は、最大音量の音程に対応する「色」と「質(クオリティー)」とを音声データを識別する識別情報(例えば、音声分析対象者の名前、音声入力時刻)に対応付けて分析結果記憶装置194に記憶し、また、最小音量の音程に対応する「色」と「課題(イシュー)」と「曲情報(例えば、曲名、曲再生データ)」とを音声データを識別する識別情報に対応付けて分析結果記憶装置194に記憶する。
また、例えば、結果出力部150は、最大音量の音程に対応する「色」を背景とし最大音量の音程に対応する「質(クオリティー)」の各キーワードを示す領域を表示装置901に表示すると共に、最小音量の音程に対応する「色」を背景とし最小音量の音程に対応する「課題(イシュー)」の各キーワードを示す領域を表示装置901に表示する。また、「質(クオリティー)」や「課題(イシュー)」の各キーワードを使用した文章データを音程に対応付けて分析データベース193に記憶し、結果出力部150が最大音量または最小音量の音程に対応する「色」を背景とし最大音量または最小音量の音程に対応する文章を示す領域を表示装置901に表示してもよい。また、文章本文と「質(クオリティー)」や「課題(イシュー)」の各キーワードを文章中に埋め込む位置とを示す文章フォーマットデータを音程に対応付けて分析データベース193に記憶し、結果出力部150が、最大音量または最小音量の音程に対応するキーワードを埋め込んで文章を生成し、最大音量または最小音量の音程に対応する「色」を背景とし最大音量または最小音量の音程に対応する文章を示す領域を表示装置901に表示してもよい。
また、例えば、結果出力部150は、最小音量の音程に対応する「曲情報」が示す曲再生データを再生しスピーカー992から曲を出力する。
図6は、実施の形態1における音程分析処理(S103)と音程−音量グラフ表示処理(S104)とを示すフローチャートである。
分析処理部130が実行する音程分析処理(S103)と音程−音量グラフ表示部140が実行する音程−音量グラフ表示処理(S104)との詳細について図6に基づいて以下に説明する。
分析処理部130が実行する音程分析処理(S103)と音程−音量グラフ表示部140が実行する音程−音量グラフ表示処理(S104)との詳細について図6に基づいて以下に説明する。
<音程分析処理:オクターブ毎音量正規化処理(S201〜S202)>
<S201:最小/最大音量検出処理>
まず、分析処理部130は音程−音量データからオクターブ毎に音量の最小値と最大値を検出する。
このとき、分析処理部130は、話し声の音域である7オクターブから音域の中心となる3オクターブ(ヴィスレンジ)のそれぞれのオクターブについて、各音程の音量を比較して最小音量と最大音量とを検出する。つまり、分析処理部130は、各オクターブで1つずつの計3つの最小音量と3つの最大音量とを検出する。男性のヴィスレンジは“C−2”〜“C”で女性のヴィスレンジは“C−1”〜“C+1”である。
<S202:正規化処理>
次に、分析処理部130は、音程−音量データを、検出した音量を対数値で表わし、その値の最小値が「0」、最大値が「100」で正規化されたデータに変換する。
例えば、以下の式により変換する。
正規化されたデータ=log(各オクターブの各音量値/各オクターブの最小音量値)/log(各オクターブの最大音量値/各オクターブの音量の最小音量値)*100
<S201:最小/最大音量検出処理>
まず、分析処理部130は音程−音量データからオクターブ毎に音量の最小値と最大値を検出する。
このとき、分析処理部130は、話し声の音域である7オクターブから音域の中心となる3オクターブ(ヴィスレンジ)のそれぞれのオクターブについて、各音程の音量を比較して最小音量と最大音量とを検出する。つまり、分析処理部130は、各オクターブで1つずつの計3つの最小音量と3つの最大音量とを検出する。男性のヴィスレンジは“C−2”〜“C”で女性のヴィスレンジは“C−1”〜“C+1”である。
<S202:正規化処理>
次に、分析処理部130は、音程−音量データを、検出した音量を対数値で表わし、その値の最小値が「0」、最大値が「100」で正規化されたデータに変換する。
例えば、以下の式により変換する。
正規化されたデータ=log(各オクターブの各音量値/各オクターブの最小音量値)/log(各オクターブの最大音量値/各オクターブの音量の最小音量値)*100
<音程−音量グラフ表示処理(S203〜S204)>
<S203:対数値グラフ表示処理>
音程−音量グラフ表示部140は分析処理部130が各音程の音量を正規化した対数値で表わした音程−音量データをグラフ化し、例えば、図7に示すように、オクターブ毎に表示装置901に表示する。
図7は、男性のヴィスレンジについて、各音程の音量を正規化した対数値で表わしたグラフの一例を示している。
図7に示すグラフにおいて、横軸には“C”〜“B”の12音程の各周波数域を縦線で区切って示し、縦軸は“C−2”〜“C”の3オクターブの各周波数域を横線で区切って示し、オクターブ毎に各音程の音量を正規化した対数値を示している。
つまり、図7に示すグラフは、音声分析対象者の話し声には“C−2”〜“C”の3オクターブに“A#”〜“B”の音程、“C”の1オクターブに“F”〜“F#”の音程が多く含まれていることを示す。
また、各周波数域の背景を分析データベース193において音程に対応付けて記憶した「色」で表示してもよい。
<S204:グラフ表示変更処理>
音程−音量グラフ表示部140はユーザに指定された音程間での音量の相対値を入力装置(例えば、キーボードK/B902やマウス903)から入力する。そして、指定された相対値以上の音量(正規化した対数値)を音程−音量グラフから抽出し、抽出した音量について指定された相対値を基準値(0)とする音量を算出し、算出した音量を当該音程に対応付けて表示装置901にグラフ表示する。
例えば、相対値として「60%」が指定された場合、音程−音量グラフ表示部140は、正規化した対数値が60以上を示す音量を抽出し、図7に示すようなグラフ表示を行う。
<S203:対数値グラフ表示処理>
音程−音量グラフ表示部140は分析処理部130が各音程の音量を正規化した対数値で表わした音程−音量データをグラフ化し、例えば、図7に示すように、オクターブ毎に表示装置901に表示する。
図7は、男性のヴィスレンジについて、各音程の音量を正規化した対数値で表わしたグラフの一例を示している。
図7に示すグラフにおいて、横軸には“C”〜“B”の12音程の各周波数域を縦線で区切って示し、縦軸は“C−2”〜“C”の3オクターブの各周波数域を横線で区切って示し、オクターブ毎に各音程の音量を正規化した対数値を示している。
つまり、図7に示すグラフは、音声分析対象者の話し声には“C−2”〜“C”の3オクターブに“A#”〜“B”の音程、“C”の1オクターブに“F”〜“F#”の音程が多く含まれていることを示す。
また、各周波数域の背景を分析データベース193において音程に対応付けて記憶した「色」で表示してもよい。
<S204:グラフ表示変更処理>
音程−音量グラフ表示部140はユーザに指定された音程間での音量の相対値を入力装置(例えば、キーボードK/B902やマウス903)から入力する。そして、指定された相対値以上の音量(正規化した対数値)を音程−音量グラフから抽出し、抽出した音量について指定された相対値を基準値(0)とする音量を算出し、算出した音量を当該音程に対応付けて表示装置901にグラフ表示する。
例えば、相対値として「60%」が指定された場合、音程−音量グラフ表示部140は、正規化した対数値が60以上を示す音量を抽出し、図7に示すようなグラフ表示を行う。
正規化した対数値で音量をグラフ表示すること、特に、特定値(例えば、ユーザが指定した相対値)以上の音量について特定値を基準値(0)としてグラフ表示することで、音声に多く含まれる音域を強調して視覚化することができ音声の特徴をユーザに把握させ易くなる。
また、図7に示すように、オクターブ毎の音程−音量グラフを音程軸を合わせて縦並びに表示することで各オクターブに多く含まれる音程を一覧性を高めて視覚化することができ音声の特徴をユーザに把握させ易くなる。
また、図7に示すように、オクターブ毎の音程−音量グラフを音程軸を合わせて縦並びに表示することで各オクターブに多く含まれる音程を一覧性を高めて視覚化することができ音声の特徴をユーザに把握させ易くなる。
<分析処理:音程毎音量合計処理(S205〜S206)>
<S205:特定値以上音量抽出処理>
分析処理部130は第1の特定値以上の音量(正規化した対数値)を音程−音量グラフから抽出する。
第1の特定値は記憶機器に記憶した記憶値でもユーザに指定させた指定値でも構わない。例えば、S204でユーザが指定した相対値を第1の特定値としてもよい。
<S206:音程毎音量積分処理>
分析処理部130は、抽出した各オクターブの音量(正規化した対数値)を音程毎に積分し、ヴィスレンジの3オクターブに跨って音程の合計値を算出する。
この合計値(積分値)は、図7に示すグラフにおいて、縦線で区分している各音程域内で折れ線データが横線軸と形成する領域の面積を縦並びの3オクターブで合計した値に相当する。
<S205:特定値以上音量抽出処理>
分析処理部130は第1の特定値以上の音量(正規化した対数値)を音程−音量グラフから抽出する。
第1の特定値は記憶機器に記憶した記憶値でもユーザに指定させた指定値でも構わない。例えば、S204でユーザが指定した相対値を第1の特定値としてもよい。
<S206:音程毎音量積分処理>
分析処理部130は、抽出した各オクターブの音量(正規化した対数値)を音程毎に積分し、ヴィスレンジの3オクターブに跨って音程の合計値を算出する。
この合計値(積分値)は、図7に示すグラフにおいて、縦線で区分している各音程域内で折れ線データが横線軸と形成する領域の面積を縦並びの3オクターブで合計した値に相当する。
<分析処理:最大・最小音量音程抽出処理(S207〜S208)>
<S207:最大音量音程抽出処理>
分析処理部130は合計値(積分値)が第2の特定値以上である全ての音程を最大音量の音程として抽出する。
第2の特定値は記憶機器に記憶した記憶値でもユーザに指定させた指定値でも構わず、絶対値でも相対値でも構わない。
例えば、第2の特定値を相対値「80%」とした場合、分析処理部130は、最大の合計値(積分値)を100として80以上の合計値(積分値)を持つ全ての音程を最大音量の音程として抽出する。
<S208:最小音量音程抽出処理>
分析処理部130は合計値(積分値)が第3の特定値以下である全ての音程を最小音量の音程として抽出する。
第3の特定値は記憶機器に記憶した記憶値でもユーザに指定させた指定値でも構わず、絶対値でも相対値でも構わない。
例えば、第3の特定値を相対値「120%」とした場合、分析処理部130は、最小の合計値(積分値)を100として120以下の合計値(積分値)を持つ全ての音程を最大音量の音程として抽出する。
<S207:最大音量音程抽出処理>
分析処理部130は合計値(積分値)が第2の特定値以上である全ての音程を最大音量の音程として抽出する。
第2の特定値は記憶機器に記憶した記憶値でもユーザに指定させた指定値でも構わず、絶対値でも相対値でも構わない。
例えば、第2の特定値を相対値「80%」とした場合、分析処理部130は、最大の合計値(積分値)を100として80以上の合計値(積分値)を持つ全ての音程を最大音量の音程として抽出する。
<S208:最小音量音程抽出処理>
分析処理部130は合計値(積分値)が第3の特定値以下である全ての音程を最小音量の音程として抽出する。
第3の特定値は記憶機器に記憶した記憶値でもユーザに指定させた指定値でも構わず、絶対値でも相対値でも構わない。
例えば、第3の特定値を相対値「120%」とした場合、分析処理部130は、最小の合計値(積分値)を100として120以下の合計値(積分値)を持つ全ての音程を最大音量の音程として抽出する。
S207で抽出した最大音量の音程およびS208で抽出した最小音量の音程を分析処理部130が特定した最大音量の音程および最小音量の音程とする。
最大音量の音程および最小音量の音程の特定を、正規化した対数値で表わす音量、特に、特定値(第1の特定値)以上の音量に基づいて行うことで、音声に多く含まれる音域の特定が容易になる。
また、各オクターブに跨って音程毎に音量の積分値を算出することで音声に多く含まれる音程を特定することができる。
また、特定値(第2の特定値、第3の特定値)を閾値として条件を満たす全ての音程を抽出し抽出した音程の組み合わせを最大音量の音程または最小音量の音程とすることで、音声に多く含まれる音程をより詳細に表わすことができ、各音程に対応する特徴情報を詳細な分析結果情報として出力することができる。
また、各オクターブに跨って音程毎に音量の積分値を算出することで音声に多く含まれる音程を特定することができる。
また、特定値(第2の特定値、第3の特定値)を閾値として条件を満たす全ての音程を抽出し抽出した音程の組み合わせを最大音量の音程または最小音量の音程とすることで、音声に多く含まれる音程をより詳細に表わすことができ、各音程に対応する特徴情報を詳細な分析結果情報として出力することができる。
上記説明のように、音声分析装置100は、音程−音量グラフや分析結果を表示することで、声のエネルギーを「色」で見せることができる装置である。
また、音声分析装置100は、「曲情報」を出力することで、音声分析対象者に曲を聴かせ、曲に合わせて声を出させて音声分析対象者に必要な音を与えるトーニングという方法に活用することができる。
そして、音声分析装置100は、「色」、「質(クオリティー)」、「課題(イシュー)」、「曲情報」を出力することで、音声分析対象者に本来備わっているエネルギーシステムに意識を向け、よりエネルギーを健康な状態に保つためのヒーリングシステムに活用することができる。
また、音声分析装置100は、「曲情報」を出力することで、音声分析対象者に曲を聴かせ、曲に合わせて声を出させて音声分析対象者に必要な音を与えるトーニングという方法に活用することができる。
そして、音声分析装置100は、「色」、「質(クオリティー)」、「課題(イシュー)」、「曲情報」を出力することで、音声分析対象者に本来備わっているエネルギーシステムに意識を向け、よりエネルギーを健康な状態に保つためのヒーリングシステムに活用することができる。
上記説明のように、音声分析装置100は、オクターブを跨って積分した音量を特定値と比較して最大音量の音程と最小音量の音程とを複数特定しているが、特定した音程の中でより高いオクターブに表れている音程ほど特定した他の音程より意味合いが強いと考えられる。
また、連続した周波数域を区切ってい音程を定めているため、隣合う音程の特徴情報が関連すると考えられる。例えば、“C#”が特定した音程である場合、音声分析対象者の特徴には“C”と“D”との特徴情報の要素も含まれると考えられる。
また、「課題(イシュー)」は、「質(クオリティー)」のチャレンジの側面であり、「質(クオリティー)」のネガティブな側面が現れるとも考えられるため、音声分析装置100は、「質(クオリティー)」と「課題(イシュー)」とのいずれ一方を「音程」に対応付けて分析データベース193に記憶し、最大音量の音程と最小音量の音程とのいずれか一方を特定してもよい。例えば、最大音量の音程として“C”を特定した場合、図4に示すように「質(クオリティー)」に関する分析結果情報は「グランディング」であり、音声分析装置100は、最小音量の音程を特定せず、「グラウンディング」のネガティブな側面である「グランディングが困難」というキーワードを「課題(イシュー)」に関する分析結果情報として出力してもよい。
また、連続した周波数域を区切ってい音程を定めているため、隣合う音程の特徴情報が関連すると考えられる。例えば、“C#”が特定した音程である場合、音声分析対象者の特徴には“C”と“D”との特徴情報の要素も含まれると考えられる。
また、「課題(イシュー)」は、「質(クオリティー)」のチャレンジの側面であり、「質(クオリティー)」のネガティブな側面が現れるとも考えられるため、音声分析装置100は、「質(クオリティー)」と「課題(イシュー)」とのいずれ一方を「音程」に対応付けて分析データベース193に記憶し、最大音量の音程と最小音量の音程とのいずれか一方を特定してもよい。例えば、最大音量の音程として“C”を特定した場合、図4に示すように「質(クオリティー)」に関する分析結果情報は「グランディング」であり、音声分析装置100は、最小音量の音程を特定せず、「グラウンディング」のネガティブな側面である「グランディングが困難」というキーワードを「課題(イシュー)」に関する分析結果情報として出力してもよい。
実施の形態2.
前記実施の形態1で説明した音声分析方法を通信ネットワークを介してクライアント−サーバシステムの形態で実行してもよい。
クライアント−サーバシステムにより音声分析方法を実行する2つの形態(音声分析システム1、音声分析システム2)について以下に説明する。
実施の形態2において、前記実施の形態1と異なる部分について説明する。説明しない部分は前記実施の形態1と同様である。
前記実施の形態1で説明した音声分析方法を通信ネットワークを介してクライアント−サーバシステムの形態で実行してもよい。
クライアント−サーバシステムにより音声分析方法を実行する2つの形態(音声分析システム1、音声分析システム2)について以下に説明する。
実施の形態2において、前記実施の形態1と異なる部分について説明する。説明しない部分は前記実施の形態1と同様である。
<音声分析システム1>
図8は、実施の形態2における音声分析システム1を示す機能構成図である。
分析要求クライアント300は音声分析対象者が音声入力し音声分析を要求するための分析要求装置であり、音声分析サーバ200は音声分析対象者の音声を分析する音声分析装置である。
図8は、実施の形態2における音声分析システム1を示す機能構成図である。
分析要求クライアント300は音声分析対象者が音声入力し音声分析を要求するための分析要求装置であり、音声分析サーバ200は音声分析対象者の音声を分析する音声分析装置である。
分析要求クライアント300および音声分析サーバ200の外観は前記実施の形態1における音声分析装置100の外観と同様である。
また、分析要求クライアント300および音声分析サーバ200のハードウェア構成は前記実施の形態1における音声分析装置100のハードウェア構成と同様である。
また、分析要求クライアント300および音声分析サーバ200のハードウェア構成は前記実施の形態1における音声分析装置100のハードウェア構成と同様である。
分析要求クライアント300は音声入力部310、音程−音量データ生成部320、音程−音量グラフ表示部340、クライアント通信部380、結果出力部350、音声データ記憶装置390、音程−音量データクライアント記憶装置391、分析結果クライアント記憶装置393を備える。
音声入力部310、音程−音量データ生成部320、音程−音量グラフ表示部340、結果出力部350、音声データ記憶装置390、音程−音量データクライアント記憶装置391、分析結果クライアント記憶装置393はぞれぞれ前記実施の形態1における音声入力部110、音程−音量データ生成部120、音程−音量グラフ表示部140、結果出力部150、音声データ記憶装置190、音程−音量データ記憶装置191、分析データベース193に対応する。
クライアント通信部380(要求装置通信部の一例)はインターネットなどの通信ネットワークを介して音声分析サーバ200とデータの送受信を行う。
音声分析サーバ200は分析処理部230、結果生成部250、サーバ通信部280、音程−音量データサーバ記憶装置291、最大音量・最小音量音程記憶装置292、分析データベース293、分析結果サーバ記憶装置294を備える。
分析処理部230、結果生成部250、音程−音量データサーバ記憶装置291、最大音量・最小音量音程記憶装置292、分析データベース293、分析結果サーバ記憶装置294はそれぞれ前記実施の形態1における分析処理部130、結果出力部150、音程−音量データ記憶装置191、最大音量・最小音量音程記憶装置192、分析データベース193、分析結果記憶装置194に対応する。
サーバ通信部280(分析装置通信部の一例)はインターネットなどの通信ネットワークを介して分析要求クライアント300とデータの送受信を行う。
音声入力部310、音程−音量データ生成部320、音程−音量グラフ表示部340、結果出力部350、音声データ記憶装置390、音程−音量データクライアント記憶装置391、分析結果クライアント記憶装置393はぞれぞれ前記実施の形態1における音声入力部110、音程−音量データ生成部120、音程−音量グラフ表示部140、結果出力部150、音声データ記憶装置190、音程−音量データ記憶装置191、分析データベース193に対応する。
クライアント通信部380(要求装置通信部の一例)はインターネットなどの通信ネットワークを介して音声分析サーバ200とデータの送受信を行う。
音声分析サーバ200は分析処理部230、結果生成部250、サーバ通信部280、音程−音量データサーバ記憶装置291、最大音量・最小音量音程記憶装置292、分析データベース293、分析結果サーバ記憶装置294を備える。
分析処理部230、結果生成部250、音程−音量データサーバ記憶装置291、最大音量・最小音量音程記憶装置292、分析データベース293、分析結果サーバ記憶装置294はそれぞれ前記実施の形態1における分析処理部130、結果出力部150、音程−音量データ記憶装置191、最大音量・最小音量音程記憶装置192、分析データベース193、分析結果記憶装置194に対応する。
サーバ通信部280(分析装置通信部の一例)はインターネットなどの通信ネットワークを介して分析要求クライアント300とデータの送受信を行う。
図9は、実施の形態2における音声分析処理(音声分析方法)を示すフローチャート1である。
音声分析システム1における音声分析処理(音声分析方法)を図9に基づいて以下に説明する。
なお、以下に説明する音声分析処理(音声分析方法)はコンピュータに実行させることができ、音声分析処理(音声分析方法)をコンピュータに実行させるプログラムが音声分析プログラムである。
音声分析システム1における音声分析処理(音声分析方法)を図9に基づいて以下に説明する。
なお、以下に説明する音声分析処理(音声分析方法)はコンピュータに実行させることができ、音声分析処理(音声分析方法)をコンピュータに実行させるプログラムが音声分析プログラムである。
<分析要求クライアント300:分析要求処理>
まず、分析要求クライアント300側において、音声入力部310が音声を入力して音声データを生成し音声データ記憶装置390に記憶し(S301:音声入力処理)、音程−音量データ生成部320が音声データを高速フーリエ変換して音程−音量データを生成し音程−音量データクライアント記憶装置391に記憶し(S302:音程−音量データ生成処理)、クライアント通信部380が音程−音量データを音声分析サーバ200に送信する(S303:音程−音量データ送信処理)。また、音程−音量グラフ表示部340が音程−音量データをグラフ化して表示装置901に表示する(S304:音程−音量グラフ表示処理)。
まず、分析要求クライアント300側において、音声入力部310が音声を入力して音声データを生成し音声データ記憶装置390に記憶し(S301:音声入力処理)、音程−音量データ生成部320が音声データを高速フーリエ変換して音程−音量データを生成し音程−音量データクライアント記憶装置391に記憶し(S302:音程−音量データ生成処理)、クライアント通信部380が音程−音量データを音声分析サーバ200に送信する(S303:音程−音量データ送信処理)。また、音程−音量グラフ表示部340が音程−音量データをグラフ化して表示装置901に表示する(S304:音程−音量グラフ表示処理)。
<音声分析サーバ200:分析応答処理>
次に、音声分析サーバ200側において、サーバ通信部280が音程−音量データを分析要求クライアント300から受信して音程−音量データサーバ記憶装置291に記憶し(S305:音程−音量データ受信処理)、分析処理部230が音程−音量データから最大音量の音程と最小音量の音程とを抽出して最大音量・最小音量音程記憶装置292に記憶し(S306:音程分析処理)、結果生成部250が最大音量の音程に対応する特徴情報と最小音量に対応する特徴情報とを分析データベース293から取得して分析結果情報として分析結果サーバ記憶装置294に記憶し(S307:分析結果生成処理)、サーバ通信部280が分析結果情報を分析要求クライアント300に送信する(S308:分析結果送信処理)。
次に、音声分析サーバ200側において、サーバ通信部280が音程−音量データを分析要求クライアント300から受信して音程−音量データサーバ記憶装置291に記憶し(S305:音程−音量データ受信処理)、分析処理部230が音程−音量データから最大音量の音程と最小音量の音程とを抽出して最大音量・最小音量音程記憶装置292に記憶し(S306:音程分析処理)、結果生成部250が最大音量の音程に対応する特徴情報と最小音量に対応する特徴情報とを分析データベース293から取得して分析結果情報として分析結果サーバ記憶装置294に記憶し(S307:分析結果生成処理)、サーバ通信部280が分析結果情報を分析要求クライアント300に送信する(S308:分析結果送信処理)。
<分析要求クライアント300:分析結果取得処理>
そして、分析要求クライアント300側において、クライアント通信部380が分析結果情報を音声分析サーバ200から受信して分析結果クライアント記憶装置393に記憶し(S309)、結果出力部350が分析結果情報を出力装置に出力する(S310:分析結果出力処理)。
そして、分析要求クライアント300側において、クライアント通信部380が分析結果情報を音声分析サーバ200から受信して分析結果クライアント記憶装置393に記憶し(S309)、結果出力部350が分析結果情報を出力装置に出力する(S310:分析結果出力処理)。
S301、S302、S304、S306はそれぞれ前記実施の形態1におけるS101、S102、S104、S103に対応し、S307とS310とは前記実施の形態1におけるS105に対応する。
上記説明のように、クライアント装置において音程−音量データを生成することでサーバ装置の負荷を軽減することができる。
<音声分析システム2>
上記音声分析システム1では、クライアント装置において音程−音量データを生成する形態を説明したが、音程−音量データをサーバ装置において生成してもよい。
以下に、サーバ装置において音程−音量データを生成する例について説明する。
上記音声分析システム1では、クライアント装置において音程−音量データを生成する形態を説明したが、音程−音量データをサーバ装置において生成してもよい。
以下に、サーバ装置において音程−音量データを生成する例について説明する。
図10は実施の形態2における音声分析システム2を示す機能構成図である。
分析要求クライアント300は音声入力部310、結果出力部350、クライアント通信部380、音声データ記憶装置390、分析結果クライアント記憶装置393を備え、音声分析サーバ200は音程−音量データ生成部220、分析処理部230、結果生成部250、サーバ通信部280、音声データ記憶装置290、音程−音量データサーバ記憶装置291、最大音量・最小音量音程記憶装置292、分析データベース293、分析結果サーバ記憶装置294を備える。
分析要求クライアント300が音程−音量データ生成部320と音程−音量グラフ表示部340と音程−音量データクライアント記憶装置391とを備えず、音声分析サーバ200が音程−音量データ生成部220と音声データ記憶装置290とを備える点が上記音声分析システム1と異なる。
分析要求クライアント300は音声入力部310、結果出力部350、クライアント通信部380、音声データ記憶装置390、分析結果クライアント記憶装置393を備え、音声分析サーバ200は音程−音量データ生成部220、分析処理部230、結果生成部250、サーバ通信部280、音声データ記憶装置290、音程−音量データサーバ記憶装置291、最大音量・最小音量音程記憶装置292、分析データベース293、分析結果サーバ記憶装置294を備える。
分析要求クライアント300が音程−音量データ生成部320と音程−音量グラフ表示部340と音程−音量データクライアント記憶装置391とを備えず、音声分析サーバ200が音程−音量データ生成部220と音声データ記憶装置290とを備える点が上記音声分析システム1と異なる。
図11は、実施の形態2における音声分析処理(音声分析方法)を示すフローチャート2である。
音声分析システム2における音声分析処理(音声分析方法)を図11に基づいて以下に説明する。
なお、以下に説明する音声分析処理(音声分析方法)はコンピュータに実行させることができ、音声分析処理(音声分析方法)をコンピュータに実行させるプログラムが音声分析プログラムである。
音声分析システム2における音声分析処理(音声分析方法)を図11に基づいて以下に説明する。
なお、以下に説明する音声分析処理(音声分析方法)はコンピュータに実行させることができ、音声分析処理(音声分析方法)をコンピュータに実行させるプログラムが音声分析プログラムである。
<分析要求クライアント300:分析要求処理>
まず、分析要求クライアント300側において、音声入力部310が音声を入力して音声データを生成し音声データ記憶装置390に記憶し(S401:音声入力処理)、クライアント通信部380が音声データを音声分析サーバ200に送信する(S402:音声データ送信処理)。
まず、分析要求クライアント300側において、音声入力部310が音声を入力して音声データを生成し音声データ記憶装置390に記憶し(S401:音声入力処理)、クライアント通信部380が音声データを音声分析サーバ200に送信する(S402:音声データ送信処理)。
<音声分析サーバ200:分析応答処理>
次に、音声分析サーバ200側において、サーバ通信部280が音声データを分析要求クライアント300から受信して音声データ記憶装置290に記憶し(S403:音声データ受信処理)、音程−音量データ生成部220が音声データを高速フーリエ変換して音程−音量データを生成し音程−音量データサーバ記憶装置291に記憶し(S404:音程−音量データ生成処理)、分析処理部230が音程−音量データから最大音量の音程と最小音量の音程とを抽出して最大音量・最小音量音程記憶装置292に記憶し(S405:音程分析処理)、結果生成部250が最大音量の音程に対応する特徴情報と最小音量に対応する特徴情報とを分析データベース293から取得して分析結果情報として分析結果サーバ記憶装置294に記憶し(S406:分析結果生成処理)、サーバ通信部280が分析結果情報を分析要求クライアント300に送信する(S407:分析結果送信処理)。
次に、音声分析サーバ200側において、サーバ通信部280が音声データを分析要求クライアント300から受信して音声データ記憶装置290に記憶し(S403:音声データ受信処理)、音程−音量データ生成部220が音声データを高速フーリエ変換して音程−音量データを生成し音程−音量データサーバ記憶装置291に記憶し(S404:音程−音量データ生成処理)、分析処理部230が音程−音量データから最大音量の音程と最小音量の音程とを抽出して最大音量・最小音量音程記憶装置292に記憶し(S405:音程分析処理)、結果生成部250が最大音量の音程に対応する特徴情報と最小音量に対応する特徴情報とを分析データベース293から取得して分析結果情報として分析結果サーバ記憶装置294に記憶し(S406:分析結果生成処理)、サーバ通信部280が分析結果情報を分析要求クライアント300に送信する(S407:分析結果送信処理)。
<分析要求クライアント300:分析結果取得処理>
そして、分析要求クライアント300側において、クライアント通信部380が分析結果情報を音声分析サーバ200から受信して分析結果クライアント記憶装置393に記憶し(S408)、結果出力部350が分析結果情報を出力装置に出力する(S409:分析結果出力処理)。
そして、分析要求クライアント300側において、クライアント通信部380が分析結果情報を音声分析サーバ200から受信して分析結果クライアント記憶装置393に記憶し(S408)、結果出力部350が分析結果情報を出力装置に出力する(S409:分析結果出力処理)。
S401、S404、S405はそれぞれ前記実施の形態1におけるS101、S102、S103に対応し、S406とS409とは前記実施の形態1におけるS105に対応する。
上記説明のように、サーバ装置において音程−音量データを生成することでクライアント装置に必要なプログラムを最小限にすることができるため、音声分析システムを構築し易くできる。
また、実施の形態2で説明したようなサーバ−クライアントシステムの形態をとることで、遠隔地にいる者の音声を分析することができる。
100 音声分析装置、110 音声入力部、120 音程−音量データ生成部、130 分析処理部、140 音程−音量グラフ表示部、150 結果出力部、190 音声データ記憶装置、191 音程−音量データ記憶装置、192 最大音量・最小音量音程記憶装置、193 分析データベース、194 分析結果記憶装置、200 音声分析サーバ、220 音程−音量データ生成部、230 分析処理部、250 結果生成部、280 サーバ通信部、290 音声データ記憶装置、291 音程−音量データサーバ記憶装置、292 最大音量・最小音量音程記憶装置、293 分析データベース、294 分析結果サーバ記憶装置、300 分析要求クライアント、310 音声入力部、320 音程−音量データ生成部、340 音程−音量グラフ表示部、350 結果出力部、380 クライアント通信部、390 音声データ記憶装置、391 音程−音量データクライアント記憶装置、393 分析結果クライアント記憶装置、901 表示装置、902 K/B、903 マウス、904 FDD、905 CDD、906 プリンタ装置、907 スキャナ装置、910 システムユニット、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 OS、922 ウィンドウシステム、923 プログラム群、924 ファイル群、931 電話器、932 FAX機、940 インターネット、941 ウェブサーバ、942 LAN、991 マイク、992 スピーカー。
Claims (10)
- 個体から発せられた音声を音程毎の音量で示す音程−音量データを記憶する音程−音量データ記憶装置と、
音程に音声を発する個体の特徴を分類した特徴情報を対応付けて記憶する音程−特徴データ記憶装置と、
前記音程−音量データ記憶装置から音程−音量データを取得し、取得した音程−音量データが示す各音程の音量を中央処理装置を用いて比較して比較した結果に基づいて音程を特定し記憶機器に記憶する音程分析処理部と、
前記音程分析処理部が記憶機器に記憶した音程に対応する特徴情報を中央処理装置を用いて前記音程−特徴データ記憶装置から検索して取得し個体から発せられた音声を分析した分析結果情報として出力装置に出力する分析結果出力部と
を備えたことを特徴とする音声分析装置。 - 前記音程分析処理部は、
複数のオクターブについて音程毎の音量を示す音程−音量データを前記音程−音量データ記憶装置から取得し、1オクターブを構成する各音程について各オクターブの当該音程の音量の合計値を当該音程の音量として算出し、算出した各音程の音量を比較して最大音量の音程と最小音量の音程との少なくともいずれかの音程を特定する
ことを特徴とする請求項1記載の音声分析装置。 - 前記音程−特徴データ記憶装置は、
個体の質の特徴を含んで分類した前記特徴情報を音程に対応付けて記憶し、
前記音程分析処理部は、
最大音量の音程を特定し、
前記分析結果出力部は、
最大音量の音程に対応する質の特徴情報を前記音程−特徴データ記憶装置から検索して取得し出力装置に出力する
ことを特徴とする請求項1〜請求項2いずれかに記載の音声分析装置。 - 前記音程−特徴データ記憶装置は、
個体の課題の特徴を含んで分類した前記特徴情報を音程に対応付けて記憶し、
前記音程分析処理部は、
最小音量の音程を特定し、
前記分析結果出力部は、
最小音量の音程に対応する課題の特徴情報を前記音程−特徴データ記憶装置から検索して取得し出力装置に出力する
ことを特徴とする請求項1〜請求項3いずれかに記載の音声分析装置。 - 前記音声分析装置は、さらに、
各音程を主音程とする曲の曲情報を記憶する曲情報記憶装置と、
前記音程分析処理部が特定した音程を主音程とする曲の曲情報を中央処理装置を用いて前記曲情報記憶装置から検索して取得し個体から発せられた音声を分析した分析結果情報として出力装置に出力する曲情報出力部と
を備えたことを特徴とする請求項1〜請求項4いずれかに記載の音声分析装置。 - 前記音声分析装置は、さらに、
音程間での音量の相対値が指定された指定値を入力装置から入力し記憶機器に記憶する指定値入力部と、
前記指定値入力部が記憶機器に記憶した指定値が示す相対値を基準値として指定値が示す相対値以上の音量を当該音程に対応付けて中央処理装置を用いて表示装置にグラフ表示する音程−音量グラフ表示部と
を備えたことを特徴とする請求項1〜請求項5いずれかに記載の音声分析装置。 - 個体から発せられた音声を音程毎の音量で示す音程−音量データを分析する音声分析装置と、
音程−音量データを前記音声分析装置に送信して送信した音程−音量データに対する分析結果情報を前記音声分析装置から受信する分析要求装置と
を備える音声分析システムであり、
前記分析要求装置は、
個体から発せられた音声を入力装置から入力し中央処理装置を用いて音声データを生成し記憶機器に記憶する音声入力部と、
前記音声入力部が記憶機器に記憶した音声データを中央処理装置を用いて音程毎の音量を示す音程−音量データに変換し記憶機器に記憶する音程−音量データ生成部と、
前記音程−音量データ生成部が記憶機器に記憶した音程−音量データを前記音声分析装置に送信して送信した音程−音量データに対する分析結果情報を前記音声分析装置から受信し記憶機器に記憶する要求装置通信部と、
前記要求装置通信部が記憶機器に記憶した分析結果情報を出力装置に出力する結果出力部と
を備え、
前記音声分析装置は、
音程−音量データを前記分析要求装置から受信して記憶機器に記憶し受信した音程−音量データに対する分析結果情報を前記分析要求装置に送信する分析装置通信部と、
音程に音声を発する個体の特徴を分類した特徴情報を対応付けて記憶する音程−特徴データ記憶装置と、
前記分析装置通信部が記憶機器に記憶した音程−音量データが示す各音程の音量を中央処理装置を用いて比較して比較した結果に基づいて音程を特定し記憶機器に記憶する音程分析処理部と、
前記音程分析処理部が記憶機器に記憶した音程に対応する特徴情報を中央処理装置を用いて前記音程−特徴データ記憶装置から検索して取得し個体から発せられた音声を分析した分析結果情報として前記分析装置通信部に出力する分析結果出力部と
を備えた
ことを特徴とする音声分析システム。 - 音声データを分析する音声分析装置と、
音声データを前記音声分析装置に送信して送信した音声データに対する分析結果情報を前記音声分析装置から受信する分析要求装置と
を備える音声分析システムであり、
前記分析要求装置は、
個体から発せられた音声を入力装置から入力し中央処理装置を用いて音声データを生成し記憶機器に記憶する音声入力部と、
前記音声入力部が記憶機器に記憶した音声データを前記音声分析装置に送信して送信した音声データに対する分析結果情報を前記音声分析装置から受信し記憶機器に記憶する要求装置通信部と、
前記要求装置通信部が記憶機器に記憶した分析結果情報を出力装置に出力する結果出力部と
を備え、
前記音声分析装置は、
音声データを前記分析要求装置から受信して記憶機器に記憶し受信した音声データに対する分析結果情報を前記分析要求装置に送信する分析装置通信部と、
前記分析装置通信部が記憶機器に記憶した音声データを中央処理装置を用いて音程毎の音量を示す音程−音量データに変換して記憶機器に記憶する音程−音量データ生成部と、
音程に音声を発する個体の特徴を分類した特徴情報を対応付けて記憶する音程−特徴データ記憶装置と、
前記音程−音量データ生成部が記憶機器に記憶した音程−音量データが示す各音程の音量を中央処理装置を用いて比較して比較した結果に基づいて音程を特定し記憶機器に記憶する音程分析処理部と、
前記音程分析処理部が記憶機器に記憶した音程に対応する特徴情報を中央処理装置を用いて前記音程−特徴データ記憶装置から検索して取得し個体から発せられた音声を分析した分析結果情報として前記分析装置通信部に出力する分析結果出力部と
を備えた
ことを特徴とする音声分析システム。 - 音程−音量データ記憶装置が個体から発せられた音声を音程毎の音量で示す音程−音量データを記憶し、
音程−特徴データ記憶装置が音程に音声を発する個体の特徴を分類した特徴情報を対応付けて記憶し、
音程分析処理部が前記音程−音量データ記憶装置から音程−音量データを取得し、取得した音程−音量データが示す各音程の音量を中央処理装置を用いて比較して比較した結果に基づいて音程を特定し記憶機器に記憶する音程分析処理を行い、
分析結果出力部が前記音程分析処理部が記憶機器に記憶した音程に対応する特徴情報を中央処理装置を用いて前記音程−特徴データ記憶装置から検索して取得し個体から発せられた音声を分析した分析結果情報として出力装置に出力する分析結果出力処理を行う
ことを特徴とする音声分析方法。 - 請求項9記載の音声分析方法をコンピュータに実行させる音声分析プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006034962A JP2007212932A (ja) | 2006-02-13 | 2006-02-13 | 音声分析装置、音声分析システム、音声分析方法および音声分析プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006034962A JP2007212932A (ja) | 2006-02-13 | 2006-02-13 | 音声分析装置、音声分析システム、音声分析方法および音声分析プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007212932A true JP2007212932A (ja) | 2007-08-23 |
Family
ID=38491400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006034962A Pending JP2007212932A (ja) | 2006-02-13 | 2006-02-13 | 音声分析装置、音声分析システム、音声分析方法および音声分析プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007212932A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010085654A (ja) * | 2008-09-30 | 2010-04-15 | Brother Ind Ltd | 音域特定システム、プログラム |
-
2006
- 2006-02-13 JP JP2006034962A patent/JP2007212932A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010085654A (ja) * | 2008-09-30 | 2010-04-15 | Brother Ind Ltd | 音域特定システム、プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Alluri et al. | Exploring perceptual and acoustical correlates of polyphonic timbre | |
WO2018201688A1 (en) | Microphone, vocal training apparatus comprising microphone and vocal analyzer, vocal training method, and non-transitory tangible computer-readable storage medium | |
CN107851444A (zh) | 用于将声学信号分解为声音对象的方法和系统、声音对象及其使用 | |
CN101023469A (zh) | 数字滤波方法和装置 | |
CN106653048B (zh) | 基于人声模型的单通道声音分离方法 | |
Shrivastav et al. | Pitch strength of normal and dysphonic voices | |
Chaki | Pattern analysis based acoustic signal processing: a survey of the state-of-art | |
JP2022145373A (ja) | 音声診断システム | |
Assmann et al. | Identification of frequency-shifted vowels | |
US20230186782A1 (en) | Electronic device, method and computer program | |
JP3350713B2 (ja) | 騒音源の種類を特定する方法、その装置および媒体 | |
JP2007212932A (ja) | 音声分析装置、音声分析システム、音声分析方法および音声分析プログラム | |
Wilmering et al. | Audio effect classification based on auditory perceptual attributes | |
JP6681264B2 (ja) | 音声加工装置、及びプログラム | |
Park et al. | Predicting perceived vocal roughness using a bio-inspired computational model of auditory temporal envelope processing | |
Pedchenko et al. | Speech spectrum of the Ukrainian language | |
WO2014178749A1 (ru) | Способ определения риска развития заболеваний индивида по его голосу и аппаратно-программный комплекс для реализации способа | |
Brandner et al. | Classification of phonation modes in classical singing using modulation power spectral features | |
Sharma et al. | Singing characterization using temporal and spectral features in indian musical notes | |
Korvel et al. | A modified additive synthesis method using source-filter model | |
Won et al. | Estimating transfer function from air to bone conduction using singing voice | |
KR102455709B1 (ko) | 인공지능 기반 합성음성의 평가 자동화 방법 및 장치 | |
Hamdan et al. | The Frequency Spectrum and Time Frequency Analysis of Different Violins Classification as Tools for Selecting a Good-Sounding Violin. | |
JP7110057B2 (ja) | 音声認識システム | |
Liu et al. | Formant and Voice Source Characteristics of Vowels in Chinese National Singing and Bel Canto. A Pilot Study |