JP2022145373A - 音声診断システム - Google Patents

音声診断システム Download PDF

Info

Publication number
JP2022145373A
JP2022145373A JP2021078834A JP2021078834A JP2022145373A JP 2022145373 A JP2022145373 A JP 2022145373A JP 2021078834 A JP2021078834 A JP 2021078834A JP 2021078834 A JP2021078834 A JP 2021078834A JP 2022145373 A JP2022145373 A JP 2022145373A
Authority
JP
Japan
Prior art keywords
pitch
volume
voice
analysis
musical interval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021078834A
Other languages
English (en)
Inventor
歩 稲井
Ayumi Inai
英人 稲井
Hideto Inai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yuki Ayumi World Academy Co Ltd
Original Assignee
Yuki Ayumi World Academy Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yuki Ayumi World Academy Co Ltd filed Critical Yuki Ayumi World Academy Co Ltd
Priority to JP2021078834A priority Critical patent/JP2022145373A/ja
Publication of JP2022145373A publication Critical patent/JP2022145373A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】音声を入力するだけで簡単に生体の心理状態、健康状態又は思考パターンなど直感的に判断でき、カウンセラー、被診断者の複数の音声を個別に入力して施術効果も確認し易くした音声分析システムを提供することを目的とする。【解決手段】複数の個体から発せられる音声を個別に、音程毎の音量で示す音程-音量データを時系列に記憶されるようにした音程-音量データ入力手段と、選択された少なくとも1個体からの音程に音声として発せられる特徴を分類した特徴情報を対応付けて記憶する音程-特徴データ記憶手段と、取得した音程-音量データが示す各音程の音量を比較して比較した結果に基づいて音程を特定する音程分析処手段と、この音程分析処手段が記憶機器に記憶した音程に対応する特徴情報を前記音程-特徴データ記憶手段から検索して取得し個体から発せられた音声を分析した分析結果情報として出力装置に出力する分析結果出手段とを備え少なくとも1個体又は個々に発せられた音声を対比して分析できるようにした【選択図】図1

Description

発明の詳細な説明
本発明は、音声分析システム及び音声分析プログラムに関し、特に生体音声の音程、音量データに基づいて、生体の心理状態、健康状態又は思考パターンを分析、診断し各種のアドバイスを可能とした音声分析システム及び音声分析プログラムに関する。
従来、生体の音声を分析、診断するために装置が開示されている。
例えば、特許文献1に示される技術は、分析すべき音声シーケンスの発音基音を測定し、連続するこれらの基音のうちの少なくとも2つの間の周波数間隔を識別し、識別された周波数間隔のうちの少なくとも1つを分析すべき音声シーケンス中で発生する周波数を査定し、音声トレーニングや病理学的状態の診断に利用される技術が提案されている。
特許文献2には、個体から発せられた音声を音程毎の音量で示す音程-音量データを記憶する音程-音量データ記憶装置と、音程に音声を発する個体の特徴を分類した特徴情報を対応付けて記憶する音程-特徴データ記憶装置と、前記音程-音量データ記憶装置から音程-音量データを取得し、取得した音程-音量データが示す各音程の音量を、中央処理装置を用いて比較して比較した結果に基づいて音程を特定し記憶機器に記憶する音程分析処理部と、この音程分析処理部が記憶機器に記憶した音程に対応する特徴情報を中央処理装置を用いて前記音程-特徴データ記憶装置から検索して取得し個体から発せられた音声を分析した分析結果情報として出力装置に出力する分析結果出力部とを備えた音声診断システムが提案されている。
そしてさらに、特許文献3に示される技術で、生体の音声データを入力する音声入力手段と、 前記音声入力手段によって入力された音声データを音声周波数データに変換する音声周波数変換手段と、 前記周波数変換手段によって変換された音声周波数データを、音階とオクターブとで区分けされた複数の領域を含む分布図表に分布させる分布手段と、 この分布手段によって分布された音声周波数データについて、オクターブに占める割合が最大になる音階及び/又は最小になる音階を決定する音階決定手段と、 この音階決定手段によって決定された最大及び/又は最小の音階と、前記生体の感覚に関係している前記音階の占める割合とに基づいて、前記生体の心理状態、健康状態又は思考パターンを診断する診断手段と、 この診断手段によって診断された結果及び/又は分布図表を表示部に表示させる診断結果表示手段と、を有する音声診断装置に関する技術が開示されている。
特に、この特許文献3は、特許文献2で開示された技術において、ほぼ同一の技術が開示されているが、唯一改良された点は、診断結果における表示において、特許文献2の図7に示される表示装置(表示手段)でのオクターブに占める割合が最大になる音階及び/又は最小になる音階の表示を複数段にしたのを特許文献3では、同文献3の図4に示されるように同心円状に表現することで、より分かりやすく分析できるようにした点にある。
特表2004-514178号公報 特開2007-212932号公報 特許第6029223号公報
特許文献1では、査定された周波数間隔の周波数と、関係するユーザーのために事前に決定された好ましい周波数との間の比較結果に基づいて分析や診断を行うので、生体の心理状態、健康状態、思考パターン等を細かく分析できず、的確な診断を行うことが困難であるという課題があった。
特許文献2では、音声分析において、音階に関係する生体の感覚(五感)のバランスを考慮していないため、生体の心理状態、健康状態、思考パターン等を細かく分析できず、的確な診断を行うことが困難であるという課題があった。
そこで特許文献3は、上記課題を解決するために、生体の心理状態、健康状態又は思考パターンを細かく分析するための音声診断装置、音声診断システム及び音声診断プログラムを提供するために、生体の音声を入力して、その周波数変換手段によって変換された音声周波数データを、音階とオクターブとで区分けされた複数の領域を含む分布図表に分布させる分布手段と、 この分布手段によって分布された音声周波数データについて、オクターブに占める割合が最大になる音階及び/又は最小になる音階を決定する音階決定手段を設け、この音階決定手段によって決定された最大及び/又は最小の音階と、生体の感覚に関係している音階の占める割合とに基づいて、生体の心理状態、健康状態又は思考パターンを診断するようにしているものが開示された。
特許文献3の実施例として、例えば、同文献3の図3や図4に示されるように、特にこれらの音声周波数データを、音階とオクターブとで区分けされた複数の領域を含む分布図表に分布させ表示させるというものである。
そしてこの分布手段によって分布された音声周波数データについて、オクターブに占める割合が最大になる音階及び/又は最小になる音階を決定するというものであるが、その点については、上述したように特許文献2でもすでに開示されており、同文献2の段落番号(0033)~(0046)に記載されている通りである。具体的な分布図表についても同文献2の図7に記載されている。
特許文献3では、特に音階とオクターブとで区分けされた複数の領域を含む分布図表に分布させ表示させる手段として、オクターブを同心円状に表現したことで、音階毎の分析データがわかりやすいというものであるが、専門家でないとなかなか分析が難しく、なかなか普及しなかった。
また、音声診断システムは、ただ単に話し声を録音して、診断するだけではなく、治療も含め、カウンセリングにより良い状態にしたいものである。
いろいろな制約が存在する社会環境で人間の心理状態や健康状態も侵されている場合が多い。従来の音声診断システムは、そうした複雑化した社会において、病んだ心理状態や健康状態を取り戻すために、カウンセラーの癒しによって、最大の効果を発揮するために、カウンセラーの被験者の承認、癒しを発する音声と被験者の音声を時系列で診断し、治療の効果を上げる音声診断システムは存在しなかった。
本願発明は、上記の点に鑑みて、一般の人間が簡単に扱えて、音声を入力するだけで簡単に生体の心理状態、健康状態又は思考パターンなど直感的に判断できる装置を目的とするとともに、音声を入力する電話や室内外のインターホンや車など他の装置に搭載又はインストールして、他の装置と併用して利用しやすくした音声分析システム及び音声分析プログラムを提供することを目的とするものである。
本発明の音声診断システムは、複数の個体から発せられる音声を個別に、音程毎の音量で示す音程-音量データを時系列に記憶されるようにした音程-音量データ入力手段と、選択手段により、選択された少なくとも1個体からの音程に音声として発せられる特徴を分類した特徴情報を対応付けて記憶する音程-特徴データ記憶手段と、
この音程-音量データ記憶装置から音程-音量データを取得し、取得した音程-音量データが示す各音程の音量を比較して比較した結果に基づいて音程を特定する音程分析処手段と、
この音程分析処手段が記憶機器に記憶した音程に対応する特徴情報を前記音程-特徴データ記憶手段から検索して取得し個体から発せられた音声を分析した分析結果情報として出力装置に出力する分析結果出手段と
を備え少なくとも1個体又は個々に発せられた音声を対比して分析できるようにしたものである。
請求項2は、前記音程分析処手段は、複数のオクターブについて音程毎の音量を示す音程-音量データを前記音程-音量データ記憶手段から取得し、1オクターブを構成する各音程について各オクターブの当該音程の音量の合計値を当該音程の音量として算出し、算出した各音程の音量を比較して最大音量の音程と最小音量の音程との少なくともいずれかの音程を特定するようにしたものである。
さらに請求項3は、前記音程-特徴データ記憶手段は、個体の質の特徴を含んで分類した前記特徴情報を音程に対応付けて記憶し、前記音程分析処手段は、最大音量の音程を特定し、前記分析結果出手段は、最大音量の音程に対応する質の特徴情報を前記音程-特徴データ記憶手段から検索して取得し出力装置に出力するものである。
そしてさらに請求項4は、前記音程-特徴データ記憶手段は、個体の課題の特徴を含んで分類した前記特徴情報を音程に対応付けて記憶し、前記音程分析処手段は、最小音量の音程を特定し、前記分析結果出手段は、最小音量の音程に対応する課題の特徴情報を前記音程-特徴データ記憶手段から検索して取得し出力装置に出力するようにしたものである。
本発明によれば、音声に含まれる各音程の音量に基づいて特徴となる音程を特定でき、特定した音程に基づいて音声を発した個体が有する「質」や「課題」といった特徴を把握することができる。また、同時に複数の個体の音声の特徴を個別に時系列で分析できるのでヒーリングシステムなどの効果も測定でき活用範囲が大幅に増加させることができる。
本発明の音声診断システムの外観を示す説明図。 本発明の音声診断システムのハードウェア構成説明図。 本発明の音声診断システムの機能構成図。 本発明の音声診断システムの分析データベースに記憶する特徴情報の一例を示す説明図。 本発明の音声診断システムの音声分析処理を占めるフロー説明図。 本発明の音声診断システムの音程分析処理と音程-音量グラフ表示処理を示すフロー説明図。 本発明の音声診断システムにおける表示部に示される音程-音量グラフを示す説明図。 本発明の音声診断システムにおける生体の3つの感覚にそれぞれ関係している音階を説明するための説明図。 本発明の音声診断システムを携帯電話などにアプリケーションとしてインストールした場合に実施の形態における説明図。
実施の形態1.
図1は、実施の形態1における音声診断システム1の外観を示す図である。
図1において、音声診断システム1は、一般的なパソコンシステムであり、表示装置2、キーボード3、マイク4、5を備えられている。
さらに、音声診断システム1は、ローカルエリアネットワーク(LAN)、ウェブサーバを介してインターネット網に接続されている。
図2は、実施の形態1における音声診断システム1のハードウェア構成図である。
図2において、音声診断システム1は、プログラムを実行するCPU10を備えている。CPU10は、データバス12を介して記憶部11、通信ボード8、表示装置2、キーボード3などと接続されている。
図3は、実施の形態1における音声診断システム1の機能構成図である。
実施の形態1における音声診断システム1の機能構成について図3に基づいて以下に説明する。
音声入力部としてのマイク4(又は5から)により、個体から発せられた音声を入力して(ステップ21)、音声データを生成し音声データを記憶する(ステップ22)。音声-音量データ生成工程(ステップ23)で、音声データが記憶された音声データを音程毎の音量を示す音程-音量データに変換し、音程-音量データを記憶する(ステップ24)。
分析処理工程(ステップ25)(音程分析処理部の一例)はステップ24で音程-音量データが記憶された音程-音量データが示す各音程の音量を比較して比較した結果に基づいて音程を特定し最大音量・最小音量音程を記憶するようにしている(ステップ26)。
音程-音量グラフ表示は、表示部2で、分析処理工程で(ステップ25)で分析した音程-音量データをグラフ化して表示するようにしている(ステップ27)。
結果出力工程(分析結果出力部、曲情報出力部の一例)(ステップ28)では最大音量・最小音量音程記憶工程(ステップ26)で記憶された音程に対応する特徴情報を分析データベース(図4参照)を検索して(ステップ29)、を経て、取得し個体から発せられた音声を分析した分析結果情報として出力する(ステップ30)。例えば、分析結果記憶部からのデータに基づいて、表示部2やスピーカー7に出力する。
図4は、実施の形態1における分析データベース41に記憶する特徴情報の一例を示す図である。
分析データベース41は、図4に示すように、音程(“C”~“B”の12音程)に対応付けて「色」、「質(クオリティー)」、「課題(イシュー)」、「曲情報」を特徴情報として記憶する。
実施の形態1における音声診断システム1はゲーテの加法混色の理論を使用している。“色”および“音程(トーン)”が人間のエネルギーと関係するという理論は、チャクラなどの仮定を用いたヴェーダのようなヒーリングシステムに利用され、人間のエネルギーと“色”ないし“音程(トーン)”との関係についての証明は、チャクラと“音程(トーン)”および“色”との関係をベースにしながら、長年にわたり、多くの専門家やヒーラーたちが研究し実体験を重ねてきている。
また、原子からできている物質は、すべて自分自身の自然な周波数で振動している。つまり、地球上に存在する鉱物、植物、繊維、システム、組織、惑星、空気など全てのものが振動し、独自の周波数を持っている。そして、健康な状態では、個体(特に、人間)のエネルギーシステムはとても調和的に振動している。但し、全体との調和から外れると微妙なズレが生じ始め、その個体は不調和や居心地の悪さを感じることになる。
また、一人一人の「声」は、とてもユニークで、指紋と同じように声紋を持っている。そして、体のどの部分のエネルギーと調和しているかでその「声」の特徴を知ることができ、「声」のエネルギーを知ることで自分のエネルギーの状態を知ることができると考えられる。
各個人を取り巻くエネルギー領域があることはキルリアンやモラマシーンなどが実証している。
実施の形態1における音声診断システム1は、上記のような理由に基づき、個体が発した音声に含まれる音程に対応付けて、個体のエネルギーとの関係がある「色」、声の特徴に対応して知ることができる自分のエネルギーの状態である「質(クオリティ)」と「課題(イシュー)」、自分の「質(クオリティ)」を高め「課題(イシュー)」を解決するために個体に与える(聴かせる、声に出させる)音程を多く含む曲(対応付けられた音程を多く含む曲)の「曲情報」を分析データベース41に記憶する。
「質(クオリティ)」はその個体が持っている自然の質(本来の性質)であり、「課題(イシュー)」はその個体がその時に抱えている問題点である。
また、分析データベース41は、「質(クオリティー)」、「課題(イシュー)」の各キーワードを使用した文章データを音程に対応付けて記憶してもよいし、文章本文と「質(クオリティー)」、「課題(イシュー)」の各キーワードを文章中に埋め込む位置とを示す文章フォーマットデータを音程に対応付けて記憶してもよい。
図5は、実施の形態1における音声診断システム1の音声分析処理(音声分析方法)を示すフローチャートである。実施の形態1における音声診断システム1の音声分析処理(音声分析方法)を図5に基づいて以下に説明する。
なお、以下に説明する音声分析処理(音声分析方法)はパソコンで実行させることができ、音声分析処理(音声分析方法)をコンピュータに実行させるプログラムが音声分析プログラムである。
<音声入力処理(ステップ51)>
マイク5の音声入力部は音声分析対象者が発した音声をマイク5から入力し音声データを生成して音声データを記憶部に記憶する。
このとき、音声入力部5は音声分析対象者に対して何かしらの話し声をマイク5から入力させる。例えば、自己紹介や現在自分が感じている物事に関する話を音声分析対象者にしてもらう。人の話し声には各音域(おおよそ、“C-3”~“C+3”の7オクターブ)の周波数(0~4096Hz[ヘルツ])が含まれる。ここで、特定の音域fについて1Hzあたりv個の音量データを得るためにサンプルとして必要な音声データ数sは以下の式1で表わされる。
s=f×v×2 [式1]
s:必要な音声データ数、f:音量データを取得する対象の音域、v:1Hzあたりの音量データ数
また、音声データ数sをサンプリングレートrで収集するために必要な音声データ収集時間tは以下の式2で表わされる。
t=s/r [式2]
t:必要な音声データ収集時間、s:音声データ数、r:サンプリングレート
例えば、人の話し声から1Hzあたり32個の音量データを得る場合に必要な音声データ数は262144(=4096[音量データを取得する対象の音域]×32[1Hzあたりの音量データ数]×2)個であり、この音声データを22050Hzのサンプリングレートで収集する場合に必要な音声データ収集時間は約12秒間(=262144[音声データ数]/22050[サンプリングレート])である。
そこで、音声入力部4、5は、音声分析対象者の12秒間程の話し声を入力して音声データを生成する。
音声入力部4,5が生成する音声データのファイル形式(圧縮形式)は、例えば、「WAVE」、「WMA」、「MP3」などである。
音声データは各時間における音波の振幅(音量)を示す。
<音程-音量データ生成処理(ステップ52)>
音程-音量データ生成部は、音声データ記憶装置から音声データを入力し、時間領域のデータである音声データを高速フーリエ変換して周波数領域のデータである音程-音量データに変換し、音程-音量データを音程-音量データ記憶装置に記憶する。
周波数領域のデータである音程-音量データは各周波数における音波の振幅を示す。周波数の大きさは音の高さに対応し、振幅の大きさは音量の大きさに対応する。このため、音程-音量データは音程毎の音量(単位:デシベル[dB])を表わしている。
各オクターブは1オクターブ下の周波数域の倍の周波数域で表わされ、人の話し声に含まれる音域の7オクターブ(“C-3”、“C-2”、“C-1”、“C+0”、“C+1”、“C+2”、“C+3”)はそれぞれ、おおよそ“32Hz~64Hz”、“64Hz~128Hz”、“128Hz~256Hz”、“256Hz~512Hz”、“512Hz~1024Hz”、“1024Hz~2048Hz”、“2048Hz~4096Hz”の周波数域に対応する。また、1オクターブを12音程(音階)(“C”、“C#”、“D”、“D#”、“E”、“F”、“F#”、“G”、“G#”、“A”、“A#”、“B”)で表わす場合、各音程は1音程下の周波数域のおおよそ1.0595倍の周波数域で表わされる。
<音程分析処理(ステップ53)>
分析処理部は、音程-音量データ記憶装置から音程-音量データを入力し、最大音量の音程と最小音量の音程とを特定し、特定した音程の情報(最大音量の音程、最小音量の音程)を最大音量・最小音量音程記憶装置に記憶する。
このとき、分析処理部各音程について各オクターブの当該音程の音量の計値を当該音程の音量として算出し、算出した各音程の音量を比較して最大音量の音程と最小音量の音程とを特定する。
分析処理部が実行する音程分析処理の詳細について別途説明する。
<音程-音量グラフ表示処理(ステップ54)>
音程-音量グラフ表示部は、分析処理部が分析した音程-音量データを入力してグラフ化し表示装置2にグラフ表示する。
このとき、音程-音量グラフ表示部は、ユーザに指定された音程間での音量の相対値を入力装置(例えば、キーボード3やマウス9)から入力し、指定された相対値以上の音量を当該音程に対応付けて、指定された相対値を基準値(0)とするグラフを表示装置に表示する。
音程-音量グラフ表示部が実行する音程-音量グラフ表示処理の詳細について別途説明する。
<分析結果出力処理(ステップ55)>
結果出力部は、最大音量・最小音量音程記憶装置から最大音量の音程と最小音量の音程との情報を入力し、最大音量の音程に対応する特徴情報を分析データベース41から取得し、最小音量の音程に対応する特徴情報を分析データベース41から取得し、取得した特徴情報を分析結果情報として出力装置(例えば、分析結果記憶装置、表示装置2、スピーカー7)に出力する。
例えば、結果出力部は、最大音量の音程に対応する「色」と「質(クオリティー)」とを音声データを識別する識別情報(例えば、音声分析対象者の名前、音声入力時刻)に対応付けて分析結果記憶装置に記憶し、また、最小音量の音程に対応する「色」と「課題(イシュー)」と「曲情報(例えば、曲名、曲再生データ)」とを音声データを識別する識別情報に対応付けて分析結果記憶装置に記憶する。
また、例えば、結果出力部は、最大音量の音程に対応する「色」を背景とし最大音量の音程に対応する「質(クオリティー)」の各キーワードを示す領域を表示装置901に表示すると共に、最小音量の音程に対応する「色」を背景とし最小音量の音程に対応する「課題(イシュー)」の各キーワードを示す領域を表示装置2に表示する。また、「質(クオリティー)」や「課題(イシュー)」の各キーワードを使用した文章データを音程に対応付けて分析データベース41に記憶し、結果出力部150が最大音量または最小音量の音程に対応する「色」を背景とし最大音量または最小音量の音程に対応する文章を示す領域を表示装置2に表示してもよい。また、文章本文と「質(クオリティー)」や「課題(イシュー)」の各キーワードを文章中に埋め込む位置とを示す文章フォーマットデータを音程に対応付けて分析データベース41に記憶し、結果出力部が、最大音量または最小音量の音程に対応するキーワードを埋め込んで文章を生成し、最大音量または最小音量の音程に対応する「色」を背景とし最大音量または最小音量の音程に対応する文章を示す領域を表示装置2に表示してもよい。
また、例えば、結果出力部は、最小音量の音程に対応する「曲情報」が示す曲再生データを再生しスピーカー7から曲を出力する。
図6は、実施の形態1における音程分析処理(ステップ53)と音程-音量グラフ表示処理(ステップ54)とを示すフローチャートである。
分析処理部が実行する音程分析処理(ステップ53)と音程-音量グラフ表示部が実行する音程-音量グラフ表示処理(ステップ54)との詳細について図6に基づいて以下に説明する。
<音程分析処理:オクターブ毎音量正規化処理(ステップ61~ステップ62)>
<ステップ61:最小/最大音量検出処理>
まず、分析処理部は音程-音量データからオクターブ毎に音量の最小値と最大値を検出する。
このとき、分析処理部は、話し声の音域である7オクターブから音域の中心となる3オクターブ(ヴィスレンジ)のそれぞれのオクターブについて、各音程の音量を比較して最小音量と最大音量とを検出する。つまり、分析処理部は、各オクターブで1つずつの計3つの最小音量と3つの最大音量とを検出する。男性のヴィスレンジは“C-2”~“C”で女性のヴィスレンジは“C-1”~“C+1”である。
<S202:正規化処理>
次に、分析処理部は、音程-音量データを、検出した音量を対数値で表わし、その値の最小値が「0」、最大値が「100」で正規化されたデータに変換する。
例えば、以下の式により変換する。
正規化されたデータ=log(各オクターブの各音量値/各オクターブの最小音量値)/log(各オクターブの最大音量値/各オクターブの音量の最小音量値)*100
<音程-音量グラフ表示処理(ステップ63~ステップ64)>
<ステップ63:対数値グラフ表示処理>
音程-音量グラフ表示部は分析処理部が各音程の音量を正規化した対数値で表わした音程-音量データをグラフ化し、例えば、図7に示すように、オクターブ毎に表示装置に表示する。
図7は、男性のヴィスレンジについて、各音程の音量を正規化した対数値で表わしたグラフの一例を示している。
図7に示すグラフにおいて、横軸には“C”~“B”の12音程の各周波数域を縦線で区切って示し、縦軸は“C-2”~“C”の3オクターブの各周波数域を横線で区切って示し、オクターブ毎に各音程の音量を正規化した対数値を示している。
つまり、図7に示すグラフは、音声分析対象者の話し声には“C-2”~“C”の3オクターブに“A#”~“B”の音程、“C”の1オクターブに“F”~“F#”の音程が多く含まれていることを示す。
また、各周波数域の背景を分析データベース(図4参照)において音程に対応付けて記憶した「色」で表示してもよい。
<ステップ64:グラフ表示変更処理>
音程-音量グラフ表示部2はユーザに指定された音程間での音量の相対値を入力装置(例えば、キーボード3やマウス9)から入力する。そして、指定された相対値以上の音量(正規化した対数値)を音程-音量グラフから抽出し、抽出した音量について指定された相対値を基準値(0)とする音量を算出し、算出した音量を当該音程に対応付けて表示装置にグラフ表示する。
例えば、相対値として「60%」が指定された場合、音程-音量グラフ表示部は、正規化した対数値が60以上を示す音量を抽出し、図7に示すようなグラフ表示を行う。
正規化した対数値で音量をグラフ表示すること、特に、特定値(例えば、ユーザが指定した相対値)以上の音量について特定値を基準値(0)としてグラフ表示することで、音声に多く含まれる音域を強調して視覚化することができ音声の特徴をユーザに把握させ易くなる。
また、図7に示すように、オクターブ毎の音程-音量グラフを音程軸を合わせて縦並びに表示することで各オクターブに多く含まれる音程を一覧性を高めて視覚化することができ音声の特徴をユーザに把握させ易くなる。
<分析処理:音程毎音量合計処理(ステップ65~ステップ65)>
<ステップ65:特定値以上音量抽出処理>
分析処理部は第1の特定値以上の音量(正規化した対数値)を音程-音量グラフから抽出する。
第1の特定値は記憶機器に記憶した記憶値でもユーザに指定させた指定値でも構わない。例えば、ステップ64でユーザが指定した相対値を第1の特定値としてもよい。
<ステップ66:音程毎音量積分処理>
分析処理部は、抽出した各オクターブの音量(正規化した対数値)を音程毎に積分し、ヴィスレンジの3オクターブに跨って音程の合計値を算出する。
この合計値(積分値)は、図7に示すグラフにおいて、縦線で区分している各音程域内で折れ線データが横線軸と形成する領域の面積を縦並びの3オクターブで合計した値に相当する。
<分析処理:最大・最小音量音程抽出処理(ステップ67~ステップ68)>
<スッテップ67:最大音量音程抽出処理>
分析処理部は合計値(積分値)が第2の特定値以上である全ての音程を最大音量の音程として抽出する。
第2の特定値は記憶機器に記憶した記憶値でもユーザに指定させた指定値でも構わず、絶対値でも相対値でも構わない。
例えば、第2の特定値を相対値「80%」とした場合、分析処理部は、最大の合計値(積分値)を100として80以上の合計値(積分値)を持つ全ての音程を最大音量の音程として抽出する。
<ステップ68:最小音量音程抽出処理>
分析処理部は合計値(積分値)が第3の特定値以下である全ての音程を最小音量の音程として抽出する。
第3の特定値は記憶機器に記憶した記憶値でもユーザに指定させた指定値でも構わず、絶対値でも相対値でも構わない。
例えば、第3の特定値を相対値「120%」とした場合、分析処理部は、最小の合計値(積分値)を100として120以下の合計値(積分値)を持つ全ての音程を最大音量の音程として抽出する。
ステップ67で抽出した最大音量の音程およびステップ68で抽出した最小音量の音程を分析処理部が特定した最大音量の音程および最小音量の音程とする。
最大音量の音程および最小音量の音程の特定を、正規化した対数値で表わす音量、特に、特定値(第1の特定値)以上の音量に基づいて行うことで、音声に多く含まれる音域の特定が容易になる。
また、各オクターブに跨って音程毎に音量の積分値を算出することで音声に多く含まれる音程を特定することができる。
また、特定値(第2の特定値、第3の特定値)を閾値として条件を満たす全ての音程を抽出し抽出した音程の組み合わせを最大音量の音程または最小音量の音程とすることで、音声に多く含まれる音程をより詳細に表わすことができ、各音程に対応する特徴情報を詳細な分析結果情報として出力することができる。
上記説明のように、音声診断システム1は、音程-音量グラフや分析結果を表示することで、声のエネルギーを「色」で見せることができる装置である。
また、音声診断システム1は、「曲情報」を出力することで、音声分析対象者に曲を聴かせ、曲に合わせて声を出させて音声分析対象者に必要な音を与えるトーニングという方法に活用することができる。
そして、音声診断システム1は、「色」、「質(クオリティー)」、「課題(イシュー)」、「曲情報」を出力することで、音声分析対象者に本来備わっているエネルギーシステムに意識を向け、よりエネルギーを健康な状態に保つためのヒーリングシステムに活用することができる。
上記説明のように、音声診断システム1は、オクターブを跨って積分した音量を特定値と比較して最大音量の音程と最小音量の音程とを複数特定しているが、特定した音程の中でより高いオクターブに表れている音程ほど特定した他の音程より意味合いが強いと考えられる。
また、連続した周波数域を区切って音程を定めているため、隣合う音程の特徴情報が関連すると考えられる。例えば、“C#”が特定した音程である場合、音声分析対象者の特徴には“C”と“D”との特徴情報の要素も含まれると考えられる。
また、「課題(イシュー)」は、「質(クオリティー)」のチャレンジの側面であり、「質(クオリティー)」のネガティブな側面が現れるとも考えられるため、音声診断システム1は、「質(クオリティー)」と「課題(イシュー)」とのいずれ一方を「音程」に対応付けて分析データベースに記憶し、最大音量の音程と最小音量の音程とのいずれか一方を特定してもよい。例えば、最大音量の音程として“C”を特定した場合、図4に示すように「質(クオリティー)」に関する分析結果情報は「グランディング」であり、音声診断システム1は、最小音量の音程を特定せず、「グランディング」のネガティブな側面である「グランディングが困難」というキーワードを「課題(イシュー)」に関する分析結果情報として出力してもよい。
また、図7に示されるように、本発明者は過去1万人以上の人間の声を診断し、8~12秒の間に人間が発した声を分析することにより、その人の深層心理、思考パターン、相手にどのような影響を与えるか等がわかることを発見した。
そして、人間が発する声の音階と、人間の感覚(五感)との関係性についてエビデンスをとったところ、図6(A)に示すように、C~D#が自己(自身自身)が抱く感覚(感情、本能等の感じる感覚)で、主に味覚・触覚・嗅覚が関係し、E~Gが他者との係わりの中で抱く感覚(聞く感覚、聴く感覚)で、主に聴覚が関係し、G#~Bが自己の外側で起きていることに対して抱く感覚(見る感覚、観る感覚)で、主に視覚が関係していることがわかった。
尚、人間の音声を音階で分析するにあたって、西洋音階で、A(ラの音)は、440Hzと定めているが、多少低めの設定で分析した方が効果が出ているとの報告もあり、本発明者らは、432Hz程度に定めて実験しており効果が出ている。
また量子力学の不確定性原理で粒子に光を当ててその位置と運動量を測ろうとすると光が当たることで、運動量が変化することから、見た瞬間に測定対象は変わってしまうくらい微妙な影響で、人間もこれら微細な環境変化で変化するため、音声診断を行うときには、話し言葉などでも、人間の健康状態にも影響することから、会話をする場合には、一方の人間の音声診断だけでなく、対応するカウンセラーや仲間同士など、複数の個体が発生する音声診断システムが望まれ、診断する個体を別個に、時系列で診断して、記録していくことで、カウンセリング効果も確実に測定できる。
特に音声については、波動が与える影響について、物理学でいる量子力学とは、異なり量子論として様々な研究がなされている。
尚、本願発明の音声診断システム1は、パソコンなどで達成できるが、スマートフォンなどの携帯電話にインストールして利用することができ、あらかじめ、携帯電話などにインストールして利用することができる。例えば、図9に示すように携帯電話などの携帯端末KとユーザU、そして適宜なメモリMで説明するが、先ずはメモリMは、携帯端末に内に内蔵されたもので説明する。
本願発明の音声診断システムはプログラムで提供され、携帯端末Mにあらかじめインストールされている。そうすると、電話の着信があると(ステップ71)本発明の音声診断システムのアプリを起動スイッチを押し(ステップ72)、アプリを起動させる。その後通話を開始し(ステップ74)、通話が開始され(ステップ75)る。その間通話の発信者と受け手が、別々入力手段から音声が入力されて、ユーザUと、このユーザと通話している人間とが別々に音声が録音・分析されて(ステップ76)、さらに通話は携帯の内部メモリに録音される(ステップ77)。
通話が終了されると(ステップ78)、通話分析結果が、携帯の表示部に表示され(ステップ79)にユーザUは、自分と相手の通話の分析結果を確認できる(ステップ80)。その結果は、同様に携帯内部のメモリに記憶される(ステップ81)。
尚、通話分析は、携帯内部で行う実施例を示したが、携帯端末の通信手段で、クラウド上にサーバに設けた分析プログラムで、携帯端末の外部で分析しても良い。
1・・・音声診断システム
2・・・表示装置
3・・・キーボード
4・・・マイク
5・・・マイク
6・・・プリンタ
7・・・スピーカ
8・・・通信部
9・・・マウス
10・・・CPU
11・・・記憶部
12・・・データバス
U・・・ユーザ
K・・・携帯端末
M・・・記憶装置

Claims (4)

  1. 複数の個体から発せられる音声を個別に、音程毎の音量で示す音程-音量データを時系列に記憶されるようにした音程-音量データ入力手段と、選択手段により、選択された少なくとも1個体からの音程に音声として発せられる特徴を分類した特徴情報を対応付けて記憶する音程-特徴データ記憶手段と、
    この音程-音量データ記憶装置から音程-音量データを取得し、取得した音程-音量データが示す各音程の音量を比較して比較した結果に基づいて音程を特定する音程分析処手段と、
    この音程分析処手段が記憶機器に記憶した音程に対応する特徴情報を前記音程-特徴データ記憶手段から検索して取得し個体から発せられた音声を分析した分析結果情報として出力装置に出力する分析結果出手段と
    を備え少なくとも1個体又は個々に発せられた音声を対比して分析できるようにしたことを特徴とする音声診断システム。
  2. 前記音程分析処手段は、
    複数のオクターブについて音程毎の音量を示す音程-音量データを前記音程-音量データ記憶手段から取得し、1オクターブを構成する各音程について各オクターブの当該音程の音量の合計値を当該音程の音量として算出し、算出した各音程の音量を比較して最大音量の音程と最小音量の音程との少なくともいずれかの音程を特定することを特徴とする請求項1記載の音声診断システム。
  3. 前記音程-特徴データ記憶手段は、
    個体の質の特徴を含んで分類した前記特徴情報を音程に対応付けて記憶し、
    前記音程分析処手段は、
    最大音量の音程を特定し、
    前記分析結果出手段は、
    最大音量の音程に対応する質の特徴情報を前記音程-特徴データ記憶手段から検索して取得し出力装置に出力する
    ことを特徴とする請求項1~請求項2いずれかに記載の音声診断システム。
  4. 前記音程-特徴データ記憶手段は、
    個体の課題の特徴を含んで分類した前記特徴情報を音程に対応付けて記憶し、
    前記音程分析処手段は、
    最小音量の音程を特定し、
    前記分析結果出手段は、
    最小音量の音程に対応する課題の特徴情報を前記音程-特徴データ記憶手段から検索して取得し出力装置に出力する
    ことを特徴とする請求項1~請求項3いずれかに記載の音声診断システム。
JP2021078834A 2021-03-17 2021-03-17 音声診断システム Pending JP2022145373A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021078834A JP2022145373A (ja) 2021-03-17 2021-03-17 音声診断システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021078834A JP2022145373A (ja) 2021-03-17 2021-03-17 音声診断システム

Publications (1)

Publication Number Publication Date
JP2022145373A true JP2022145373A (ja) 2022-10-04

Family

ID=83460443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021078834A Pending JP2022145373A (ja) 2021-03-17 2021-03-17 音声診断システム

Country Status (1)

Country Link
JP (1) JP2022145373A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7179209B1 (ja) 2022-02-04 2022-11-28 由美子 中島 音声診断装置、音声診断方法、及び音声診断プログラム
JP7191269B1 (ja) 2022-02-04 2022-12-16 由美子 中島 発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7179209B1 (ja) 2022-02-04 2022-11-28 由美子 中島 音声診断装置、音声診断方法、及び音声診断プログラム
JP7191269B1 (ja) 2022-02-04 2022-12-16 由美子 中島 発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラム
JP2023114426A (ja) * 2022-02-04 2023-08-17 由美子 中島 発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラム
JP2023113991A (ja) * 2022-02-04 2023-08-17 由美子 中島 音声診断装置、音声診断方法、及び音声診断プログラム

Similar Documents

Publication Publication Date Title
US10478111B2 (en) Systems for speech-based assessment of a patient's state-of-mind
CN107622797B (zh) 一种基于声音的身体状况确定系统及方法
JP4851447B2 (ja) ピッチ周波数を検出する音声解析装置、音声解析方法、および音声解析プログラム
US20080045805A1 (en) Method and System of Indicating a Condition of an Individual
Shin et al. Automatic detection system for cough sounds as a symptom of abnormal health condition
Warhurst et al. Perceptual and acoustic analyses of good voice quality in male radio performers
Chaki Pattern analysis based acoustic signal processing: a survey of the state-of-art
Shrivastav et al. Pitch strength of normal and dysphonic voices
JP2022145373A (ja) 音声診断システム
Titze et al. Feasibility of measurement of a voice range profile with a semi-occluded vocal tract
Kopf et al. Pitch strength as an outcome measure for treatment of dysphonia
Müller et al. Lyric or dramatic-vibrato analysis for voice type classification in professional opera singers
RU2559689C2 (ru) Способ определения риска развития заболеваний индивида по его голосу и аппаратно-программный комплекс для реализации способа
Cutchin et al. Data collection methods for the voice range profile: a systematic review
Reilly et al. Voice Pathology Assessment Based on a Dialogue System and Speech Analysis.
He Stress and emotion recognition in natural speech in the work and family environments
Park et al. Development and validation of a single-variable comparison stimulus for matching strained voice quality using a psychoacoustic framework
JP3584287B2 (ja) 音響評価方法およびそのシステム
Karakoç et al. Visual and auditory analysis methods for speaker recognition in digital forensic
JP4590545B2 (ja) 音響評価方法およびそのシステム
Brandner et al. Classification of phonation modes in classical singing using modulation power spectral features
KR20140145394A (ko) 음향 지각 능력 평가 방법 및 평가 장치
Fantoni Assessment of Vocal Fatigue of Multiple Sclerosis Patients. Validation of a Contact Microphone-based Device for Long-Term Monitoring
Baker et al. Female adolescent singing voice characteristics: an exploratory study using LTAS and inverse filtering
JP2007212932A (ja) 音声分析装置、音声分析システム、音声分析方法および音声分析プログラム