JP2023114426A - 発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラム - Google Patents

発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラム Download PDF

Info

Publication number
JP2023114426A
JP2023114426A JP2022182230A JP2022182230A JP2023114426A JP 2023114426 A JP2023114426 A JP 2023114426A JP 2022182230 A JP2022182230 A JP 2022182230A JP 2022182230 A JP2022182230 A JP 2022182230A JP 2023114426 A JP2023114426 A JP 2023114426A
Authority
JP
Japan
Prior art keywords
voice
training
scale
user
zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022182230A
Other languages
English (en)
Other versions
JP7191269B1 (ja
Inventor
由美子 中島
Yumiko Nakajima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022016011A external-priority patent/JP7179209B1/ja
Application filed by Individual filed Critical Individual
Priority to JP2022182230A priority Critical patent/JP7191269B1/ja
Application granted granted Critical
Publication of JP7191269B1 publication Critical patent/JP7191269B1/ja
Publication of JP2023114426A publication Critical patent/JP2023114426A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】ユーザ自身で健康を促進させる。【解決手段】音声診断装置20は、発声をトレーニングすることで健康を促進する装置であって、軟口蓋の開き度を改善するための発声トレーニングゾーンごとにトレーニング音21Fを記憶する記憶部21と、ユーザによって入力された音声データを音声周波数データに変換する変換部24と、変換部24によって変換された音声周波数データについて、オクターブに占める割合が最小の音階を決定する決定部26と、決定部26によって決定された最小の音階に基づいて発声トレーニングゾーンを判定するゾーン判定部30と、ゾーン判定部30によって判定された発声トレーニングゾーンに対応するトレーニング音21Fをユーザに提供しつつ、そのトレーニング音21Fに合わせてユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報をユーザに提供する提供部22とを備える。【選択図】図12

Description

特許法第30条第2項適用申請有り 令和3年11月9日にビオ・マガジン.出版のanemone2021年12月号,第62~68頁にて公開 令和4年1月12日に株式会社ビジネス社発行の「人生を好転させる声のみがき方」にて公開 令和3年12月30日にAmazon(https://www.amazon.co.jp/)にて「人生を好転させる声のみがき方」の電子書籍を販売 令和3年12月30日にウェブサイト(https://voice.koeshindan.jp/)にて音診断ソフト・ライトを公開 令和3年12月26日にYoutubeの動画(https://www.youtube.com/watch?v=ys_xQziCDO4)にて公開 令和3年12月30日に一般社団法人日本声診断協会のウェブサイト(https://koeshindan.jp/)にて公開 令和3年11月1日に中島由美子オフィシャルサイト(https://yumiko-nakajima.com/)にて公開 令和3年6月頃に声道パンフレット(https://www.dropbox.com/s/56d70qhmnrb6ooe/%E5%A3%B0%E9%81%93%EF%BE%8A%EF%BE%9F%EF%BE%9D%EF%BE%8C.pdf?dl=0)にて公開
本発明は、発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラムに関する。
従来、音声を診断する音声診断装置が知られている。例えば、特許文献1には、生体の音声をフーリエ変換で音声周波数データに変換し、生体の心理状態、健康状態又は思考パターンを診断する音声診断装置が開示されている。この音声診断装置によれば、音声周波数データを分布図表に分布させ、ディスプレイなどの表示部に表示させることができるため、音声心理士が診断ツールとして利用する場合に効果的である。
特許第6029223号公報
しかしながら、従来の音声診断装置では、ユーザ自身で音声をセルフ診断することが難しいという課題がある。すなわち、多くのユーザは音声心理について知識がないため、音声心理士からアドバイスを受けなければ、診断結果を正しく理解できないのが通常である。近年、新型コロナウイルス感染症の影響により、ユーザが自宅などで音声をセルフ診断したいというニーズがあり、そのようなニーズに応える新しい装置の登場が望まれている。
また、従来の音声診断装置では、ユーザ自身で健康を促進させることが難しいという課題もある。すなわち、音声診断は、自分の声を知り、自分の声を整えることで健康を促進させるメソッドである(後述する)。従来の音声診断装置では、ユーザ自身で音声をセルフ診断することが難しいため、ユーザ自身で健康を促進させることも難しい。
本発明は、ユーザ自身で健康を促進させることができる発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラムを提供することを目的とする。
本発明の一態様は、発声をトレーニングすることで健康を促進する発声健康法促進装置であって、軟口蓋の開き度を改善するための発声トレーニングゾーンごとに、当該発声トレーニングゾーンに対応する音階の音データであるトレーニング音を記憶する記憶部と、ユーザによって入力された音声データを音声周波数データに変換する変換部と、前記変換部によって変換された音声周波数データについて、音階に対応する周波数帯の声のパワーの和が、当該音階が属するオクターブに対応する周波数帯の声のパワーの総和に対して占める割合が最小になる音階を決定する決定部と、前記決定部によって決定された最小になる音階に基づいて前記発声トレーニングゾーンを判定するゾーン判定部と、前記ゾーン判定部によって判定された発声トレーニングゾーンに対応するトレーニング音を前記ユーザに提供しつつ、そのトレーニング音に合わせて前記ユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報を前記ユーザに提供する提供部とを備え、前記ゾーン判定部は、円環図を用いて前記音階とヴォイスカラーを対応付け、前記最小の音階に対応するヴォイスカラー、又は前記最小の音階に対応するヴォイスカラーと補色の関係にあるヴォイスカラーに基づいて、前記発声トレーニングゾーンを判定する。
また、本発明の他の一態様は、発声をトレーニングすることで健康を促進する発声健康法促進方法であって、コンピュータが、軟口蓋の開き度を改善するための発声トレーニングゾーンごとに、当該発声トレーニングゾーンに対応する音階の音データであるトレーニング音を記憶する記憶ステップと、ユーザによって入力された音声データを音声周波数データに変換する変換ステップと、前記変換ステップで変換された音声周波数データについて、音階に対応する周波数帯の声のパワーの和が、当該音階が属するオクターブに対応する周波数帯の声のパワーの総和に対して占める割合が最小になる音階を決定する決定ステップと、前記決定ステップで決定された最小になる音階に基づいて前記発声トレーニングゾーンを判定するゾーン判定ステップと、前記ゾーン判定ステップで判定された発声トレーニングゾーンに対応するトレーニング音を前記ユーザに提供しつつ、そのトレーニング音に合わせて前記ユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報を前記ユーザに提供する提供ステップとを実行し、前記ゾーン判定ステップでは、円環図を用いて前記音階とヴォイスカラーを対応付け、前記最小の音階に対応するヴォイスカラー、又は前記最小の音階に対応するヴォイスカラーと補色の関係にあるヴォイスカラーに基づいて、前記発声トレーニングゾーンを判定する。
また、本発明の他の一態様は、発声をトレーニングすることで健康を促進する発声健康法促進プログラムであって、コンピュータに、軟口蓋の開き度を改善するための発声トレーニングゾーンごとに、当該発声トレーニングゾーンに対応する音階の音データであるトレーニング音を記憶する記憶ステップと、ユーザによって入力された音声データを音声周波数データに変換する変換ステップと、前記変換ステップで変換された音声周波数データについて、音階に対応する周波数帯の声のパワーの和が、当該音階が属するオクターブに対応する周波数帯の声のパワーの総和に対して占める割合が最小になる音階を決定する決定ステップと、前記決定ステップで決定された最小になる音階に基づいて前記発声トレーニングゾーンを判定するゾーン判定ステップと、前記ゾーン判定ステップで判定された発声トレーニングゾーンに対応するトレーニング音を前記ユーザに提供しつつ、そのトレーニング音に合わせて前記ユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報を前記ユーザに提供する提供ステップとを実行させ、前記ゾーン判定ステップでは、円環図を用いて前記音階とヴォイスカラーを対応付け、前記最小の音階に対応するヴォイスカラー、又は前記最小の音階に対応するヴォイスカラーと補色の関係にあるヴォイスカラーに基づいて、前記発声トレーニングゾーンを判定する。
本発明によれば、ユーザ自身で健康を促進させることができる発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラムを提供することが可能である。
本発明の実施形態における音声診断の説明図である。 第1実施形態における音声診断システムのネットワーク構成図である。 第1実施形態における音声診断装置の機能ブロック図である。 第1実施形態における記憶部の内部構成図である。 第1実施形態における分布図表である。 第1実施形態におけるユーザ端末の画面の説明図である。 第1実施形態におけるユーザ端末の画面の説明図である。 第1実施形態におけるユーザ端末の画面の説明図である。 第1実施形態におけるユーザ端末の画面の説明図である。 第1実施形態におけるユーザ端末の画面の説明図である。 第1実施形態における音声診断システムの動作例を示すシーケンス図である。 第2実施形態における音声診断装置の機能ブロック図である。 第2実施形態におけるゾーンデータの概念図である。 第2実施形態における分布図表を示す模式図である。 第2実施形態におけるユーザ端末の画面の説明図である。 第2実施形態における音声診断システムの動作例を示すシーケンス図である。 本発明の実施形態における音声診断装置のハードウェア構成図である。
以下、図面を参照して本発明の実施形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示である。すなわち、以下に説明する実施形態は、その趣旨を逸脱しない範囲で種々変形して実施することができる。
《音声診断とは》
本発明者は、2万人以上の声(音声)のデータをもとに、声の周波数との思考パターンとの相関関係を音声心理学として体系化した。声の周波数を12音階に分類し、声にどんな周波数がふくまれているかを分析することで、声の持つ力やメンタルブロックを知ることができる。
図1は、本発明の実施形態における音声診断の説明図であり、ヴォイスカラーと音階と思考の関係を示している。音声診断では、まず人の声の周波数を12音階に分類し、音階と人の心との相関性を可視化する。どの色が多いか少ないかなどを見て声のパターンを調べる。声のパターンは、思考のパターンでもある。例えば、図1に示すように、音階B(シの音)に対応するマゼンタMが多い人は、受容力・愛(言い換えると慈愛力)に富む傾向がある。このように色で表現された思考パターンを認識することで、自己認識を深め、気づきを起こす。8オクターブにわたる音域で色の表れ方を見ていくことで、潜在意識、顕在意識、未来意識を見ることができる。
《第1実施形態》
[音声診断システム]
図2は、第1実施形態における音声診断システムのネットワーク構成図である。この音声診断システムは、コンピュータを利用して音声診断を実施するシステムであり、ここでは、クラウド型の音声診断システムを例示している。具体的には、ユーザ端末10と音声診断装置20と管理端末100とがインターネット網Nなどのネットワークを介して接続されている。
ユーザ端末10は、本システムのユーザが操作するタブレット、スマートフォン、パソコンなどのコンピュータであり、Webサイトを閲覧するためWebブラウザ(以下、ブラウザ)を備えている。音声診断装置20からWebページデータを受信すると、ブラウザで解析してディスプレイに画面を表示(描画)するようになっている。
ここでは、ユーザが自宅で音声をセルフ診断する場合を想定し、ユーザ端末10にヘッドセットHが接続されているものとする。ヘッドセットHは、音声を聞くためのヘッドホンと、音声を入力するためのマイクが一つになった入出力装置である。このような入出力装置は、外付けのヘッドセットHではなく、ユーザ端末10に内蔵されていてもよい。
音声診断装置20は、ユーザの音声を診断するコンピュータである。例えば、本システムがWebサービスとして実現される場合、音声診断装置20はWebサーバ等で構成される。図2では、音声診断装置20としてコンピュータ本体のみを描いているが、ディスプレイやキーボード、ヘッドセットHなどの周辺機器が音声診断装置20に接続されていてもよい。
管理端末100は、本システムの管理者が操作するコンピュータである。管理者は、管理端末100を用いて本システムの全体的な設定を行う。
[音声診断装置]
図3は、第1実施形態における音声診断装置20の機能ブロック図である。この音声診断装置20は、ユーザの音声を診断するコンピュータであって、図3に示すように、記憶部21と、提供部22と、取得部23と、変換部24と、分類部25と、決定部26と、診断部27と、認証部28とを備える。これら各機能部は、コンピュータにおいて、CPUがメモリ上にロードされたプログラムを実行することにより実現される。
記憶部21は、各種データを記憶する機能部である。例えば、記憶部21は、診断履歴データ21A、診断結果データ21B、診断マスタデータ21C、HTML(HyperText Markup Language)データ21Dなどを記憶している。その他、CSS(Cascading Style Sheets)データ、画像データ、プログラムのデータのように、Webページデータを生成するために必要な各種データも記憶しているものとする。
提供部22は、ユーザ端末10に各種データを提供する機能部である。例えば、ユーザ端末10からHTTP(Hypertext Transfer Protocol)リクエストなどの要求を受信すると、HTMLデータ21Dなどを用いてWebページデータを生成し、ユーザ端末10に提供する。
取得部23は、ユーザ端末10から各種データを取得する機能部である。例えば、ユーザ端末10においてユーザが音声を入力すると、その音声データを取得する。音声データは、例えば10秒間にユーザが発した声(音声)に関するデジタルデータである。
変換部24は、取得部23によって取得された音声データを音声周波数データに変換する機能部である。このような音声周波数データへの変換には、例えば、特許文献1(特許第6029223号公報)に記載されるように、フーリエ変換が用いられる。コンピュータでの計算を高速にするため、プログラミング上では「Cooley-Tukey型FFTアルゴリズム」の手法を利用するのが好ましい。
分類部25は、変換部24によって変換された音声周波数データを、音階とオクターブとで区分けされた複数の領域を含む分布図表に分布させる機能部である。分布図表は、音声周波数データの分布を視覚的にわかりやすく表示できればよく、表形式でも図形式でもよい。
決定部26は、変換部24によって変換された音声周波数データについて、オクターブに占める割合が最大の音階(以下、最大の音階)と、オクターブに占める割合が最小の音階(以下、最小の音階)を決定する機能部である。例えば、特許文献1に記載されるように、サンプリング時間あたりの各周波数帯における各音階の大きさ(dB)を測定し、それらを各周波数帯で単純に足し合わせ、各オクターブ内で、各音階の周波数帯のdBの総和比率を面積比率とし、この面積比率に基づいて最大の音階や最小の音階を決定する。
例えば、あるオクターブ内で、各音階の周波数帯のdBの総和が「C:1000dB、C#:3000dB、D:2000dB、D#:2500dB、E:1500dB、F:2500dB、F#:500dB、G:0dB、G#:100dB、A:600dB、A#:300dB、B:1000Db」になったとする。この場合、オクターブにおいて音階が占める割合は、「C:6.6%、C#:20.0%、D:13.3%、D#:16.7%、E:10.0%、F:16.7%、F#:3.3%、G:0.0%、G#:0.7%、A:4.0%、A#:2.0%、B:6.7%」となる。なお、各周波数帯の総和÷サンプリング時間で計算すれば、より正確なデータが得られる。
診断部27は、決定部26によって決定された最大の音階と最小の音階に基づいてユーザの音声を診断する機能部である。この診断の際には診断マスタデータ21Cが参照され、診断履歴と診断結果は、診断履歴データ21Aと診断結果データ21Bとして保存される。
認証部28は、ユーザを認証する機能部である。ユーザ認証の方法は、事前にユーザ登録させる方法でもよいが、ここでは、同一端末を使えば同値になるブラウザコードを用いる。
その他、音声診断装置20は、一般的なコンピュータが備える各種の機能部を備えているものとする。例えば、各種データを入出力する入出力部29を備えていてもよい。
[データ例]
図4(A)は、記憶部21に記憶されている診断履歴データ21Aの内部構成図である。診断履歴データ21Aは、音声診断の履歴を示すデータである。具体的には、図4(A)に示すように、「診断ID」「ブラウザコード」「診断日時」などが対応付けて記憶されている。「診断ID」は、診断ごとに固有の識別番号である。「ブラウザコード」は、同一端末を使えば同値になるコードであり、具体的にはブラウザフィンガープリントである(後述する)。「診断日時」は、診断が行われた日時である。
図4(B)は、記憶部21に記憶されている診断結果データ21Bの内部構成図である。診断結果データ21Bは、診断結果を示すデータである。診断履歴データ21A中の診断IDについて、秒ごとに区切った音階ごとの診断結果を記憶している。具体的には、図4(B)に示すように、「診断ID」「秒」「各音階の値」などが対応付けて記憶されている。「秒」は、音声を測定した際の秒数である。例えば、ユーザ端末10において10秒間音声を測定する場合は、1、2、3、・・・、8、9、10となる。「各音階の値」は、各音階における声のパワーであり、例えば声の大きさ(dB)である。
図4(C)は、記憶部21に記憶されている診断マスタデータ21Cの内部構成図である。診断マスタデータ21Cは、診断結果をユーザ端末10に返却する際に、診断結果値によって返却するメッセージを出し分けるためのマスタである。具体的には、図4(C)に示すように、「音階」「カラー」「意味」「タイプ」「特徴」「課題」などが対応付けて記憶されている。例えば、音階Cに対応するヴォイスカラーは、レッドRである。「意味」は、その音階(ヴォイスカラー)の意味である。「タイプ」は、その音階が最大の音階であるユーザの声のタイプである。「特徴」は、その音階が最大の音階であるユーザの特徴を示す情報である。「課題」は、その音階が最小の音階であるユーザの課題を示す情報である。「タイプ」「特徴」「課題」は、ユーザが視認可能な文字情報であり、音声心理について知識がないユーザでも理解できる内容になっている。
[ブラウザフィンガープリント]
Webサイトの閲覧者の識別や同定を行うために算出する、端末に固有の短いデータ列をブラウザフィンガープリントという。ブラウザフィンガープリントによれば、Cookieなどのように閲覧者の端末にデータを永続的に書き込む機能を用いなくても、端末の識別が可能である。フィンガープリントを算出するアルゴリズムは特に限定されるものではないが、ユーザ端末10のブラウザから取得できる複数の情報を元に算出するのが望ましい。本実施形態では、「Fingerprintjs2」を利用し、今回のユーザが過去のユーザと同一人物であるかどうかの判定のみ行うようにしている。このようなブラウザフィンガープリント技術によれば、ユーザごとの利用頻度の判定を行うことができるだけでなく、個人を特定せず同一人物であるかどうかを判定することができる。
[分布図表]
図5は、第1実施形態における分布図表であり、図5(A)は表形式の分布図表、図5(B)は図形式の分布図表を示している。形式は異なるものの、内容は同じである。
例えば、表形式の分布図表では、図5(A)に示すように、12音階に対応するヴォイスカラーM、V、N、B、A、E、L、Y、G、O、C、Rを縦方向に並べている。M(シ)はマゼンタ、V(ラ#)はバイオレット、N(ラ)はネイビー、B(ソ#)はブルー、A(ソ)はアクア、E(ファ#)はエメラルドグリーン、L(ファ)はライムグリーン、Y(ミ)はイエロー、G(レ#)はゴールド、O(レ)はオレンジ、C(ド#)はコーラル、R(ド)はレッドである。実際の画面では、各ヴォイスカラーで12音階を色分けしている。各音階(各ヴォイスカラー)の意味は、図1に示される通りである。
また、表形式の分布図表では、図5(A)に示すように、それぞれの音階における声のパワー(大きさ)を横方向に分布させている。ここでは、横方向を4つの領域に分けている場合を例示している。例えば、左から1番目の領域は64~123Hzの周波数域のオクターブ、左から2番目の領域は128~246Hzの周波数域のオクターブ、左から3番目の領域は4096~7900Hzの周波数域のオクターブ、左から4番目の領域は8192~15800Hzの周波数域のオクターブである。
一方、図形式(円形)の分布図表では、図5(B)に示すように、12音階に対応するヴォイスカラーM、V、N、B、A、E、L、Y、G、O、C、Rを円周方向に並べている。ここでも、4重の円で4つの領域に分けている場合を例示している。例えば、内側から1番目の円周上の領域は64~123Hzの周波数域のオクターブ、内側から2番目の円周上の領域は128~246Hzの周波数域のオクターブ、内側から3番目の円周上の領域は4096~7900Hzの周波数域のオクターブ、内側から4番目の円周上の領域は8192~15800Hzの周波数域のオクターブである。
いずれの分布図表を用いるかは適宜選択することが可能である。例えば、表形式の分布図表は、図5(A)中に点線で示すように、人体の部位を12音階と対応付けて診断する場合に有用である。一方、図形式の分布図表は、図5(B)に示すように、外側の円における周波数域のオクターブが目立つため、強調して表示させることが可能である。
[画面遷移例]
図6~図10は、第1実施形態におけるユーザ端末10の画面遷移図である。ユーザ端末10のブラウザは、音声診断装置20からWebページデータを受け取ると、グラフィックに変換して、このような画面を表示(描画)するようになっている。
トップ画面D1には、図6に示すように、音声診断の概要が表示される。図6中の「さっそく診断する」ボタンB1を押下すると、図7に示すように、測定画面D2に遷移する。図7中の「測定開始」ボタンB2を押下すると、図8に示すように、測定時間(例えば10秒間)をインジケータIで表示し、測定時間が経過すると、図9に示すように、「結果を見る」ボタンB3が押下できる状態になる。図9中の「結果を見る」ボタンB3を押下すると、図10に示すように、診断結果画面D3が表示される。図10中の「もう一度診断する」ボタンB4を押下すると、トップ画面D1に戻るようになっている。
[診断結果]
以下、診断結果画面D3について更に詳しく説明する。図10に示すように、診断結果画面D3には、あなたの声のタイプ11、あなたの声に多い色12、あなたの声に少ない色13、表形式の分布図表14A、図形式の分布図表14B、声からわかるあなたの性格・特徴15、あなたの課題16などが表示される。
あなたの声のタイプ11は、ユーザの声のタイプを示す情報である。具体的には、診断マスタデータ21Cにおいて、最大の音階に対応付けられている「タイプ」に相当する。「最大の音階」は、「ユーザの声に最も多いヴォイスカラー」と言い換えることができ、ここでは「マゼンタ」の場合を例示している。あなたの声のタイプ11は、声のタイプを端的に表した比較的短い文字情報とするのが望ましい。例えば「マゼンタ」の場合は、「多少きついことを言っても許されてしまう、愛されボイス」等と表示される。
あなたの声に多い色12は、ユーザの声に多いヴォイスカラーである。具体的には、各音階の周波数帯のdBの総和比率を高い順に並べたときの上位3つのヴォイスカラーに相当する。ここでは、最も多いヴォイスカラーが「マゼンタ」、2番目に多いヴォイスカラーが「バイオレット」、3番目に多いヴォイスカラーが「ネイビー」の場合を例示している。
あなたの声に少ない色13は、ユーザの声に少ないヴォイスカラーである。具体的には、各音階の周波数帯のdBの総和比率を高い順に並べたときの下位3つのヴォイスカラーに相当する。ここでは、最も少ないヴォイスカラーが「レッド」、2番目に少ないヴォイスカラーが「アクア」、3番目に少ないヴォイスカラーが「グリーン」の場合を例示している。
声からわかるあなたの性格・特徴15は、ユーザの特徴を示す情報である。具体的には、診断マスタデータ21Cにおいて、最大の音階に対応付けられている「特徴」に相当する。上記したように、「最大の音階」は、「ユーザの声に最も多いヴォイスカラー」と言い換えることができ、ここでは「マゼンタ」の場合を例示している。声からわかるあなたの性格・特徴15は、比較的長い文字情報とするのが望ましい。例えば「マゼンタ」の場合は、「広い視点に立ち、人を理解し、理解させることができます。・・・」等と表示される。
あなたの課題16は、ユーザの課題を示す情報である。具体的には、診断マスタデータ21Cにおいて、最小の音階に対応付けられている「課題」に相当する。「最小の音階」は、「ユーザの声に最も少ないヴォイスカラー」と言い換えることができ、ここでは「レッド」の場合を例示している。あなたの課題16も、比較的長い文字情報とするのが望ましい。例えば「レッド」の場合は、「動きすぎて、エネルギーが枯渇してしまう傾向にあります。・・・」等と表示される。
このように、診断結果画面D3では、上から下にいくにしたがって詳しい診断結果となり、最後にあなたの課題16が表示される。これにより、音声心理について知識がないユーザであっても、ユーザ自身で音声をセルフ診断して健康を促進させることができる。
[動作例]
図11は、第1実施形態における音声診断システムの動作例を示すシーケンス図である。以下、図11を用いて本システムの構成をその動作とともに説明する。
まず、ユーザ端末10においてURL(Uniform Resource Locator)が入力されると(ステップS1)、ユーザ端末10から音声診断装置20に要求が出される。これにより、音声診断装置20からユーザ端末10にトップ画面D1が返され、ユーザ端末10にトップ画面D1が表示される(ステップS2→S3)。
次いで、ユーザ端末10に表示されたトップ画面D1において「さっそく診断する」ボタンB1が押下されると(ステップS4)、ユーザ端末10から音声診断装置20にブラウザコードが通知される。これにより、音声診断装置20においてブラウザコードが取得されるので、ブラウザコードを使って同一人物であるかどうかを判定し、所定期間(例えば1日)あたりの実行回数を制限する(ステップS5→S6→S7)。
具体的には、記憶部21に記憶されている診断履歴データ21Aを参照することによって、今回のユーザが過去のユーザと同一人物であるかどうかが判定され、同一人物である場合は、回数制限(例えば8回/日)を超えていないかどうかが判定される。その結果、回数制限を超えていない場合は、認証に成功したと判定され、音声診断装置20からユーザ端末10に測定画面D2が返され、ユーザ端末10に測定画面D2が表示される(ステップS7→S8→S9)。一方、回数制限を超えている場合は、認証に失敗したと判定され、その旨が音声診断装置20からユーザ端末10に通知される(ステップS7→S2→S3)。
次いで、ユーザ端末10に表示された測定画面D2において「測定開始」ボタンB2が押下されると(ステップS10)、例えば10秒間、音声を測定(録音)するモードになる。これにより、ユーザ端末10のヘッドセットHから声が入力されると、そのアナログ音声信号は、PCM(Pulse Code Modulation)等の手法でデジタル音声信号に変換され、音声データとして保存される(ステップS11)。その間、測定画面D2中のインジケータIに時間の経過が表示されるようになっている。
次いで、ユーザ端末10に表示された測定画面D2において「結果を見る」ボタンB3が押下されると(ステップS12)、ユーザ端末10から音声診断装置20に音声データが通知される。これにより、音声診断装置20において音声データが取得され、取得された音声データがフーリエ変換によって音声周波数データに変換され、変換された音声周波数データが分布図表に分布される(ステップS13→S14→S15)。また、変換された音声周波数データについて、最大の音階と最小の音階が決定され、決定された最大の音階と最小の音階に基づいて音声が診断される(ステップS16→S17)。
この診断の際には診断マスタデータ21Cが参照される。例えば、最大の音階が音階Bの場合は、音階Bと対応付けられている情報(例えば、マゼンタ、慈愛力など)が抽出される。また、最小の音階が音階Cの場合は、音階Cと対応付けられている情報(例えば、レッド、行動力など)が抽出される。診断履歴データ21Aと診断結果データ21Bが保存されると(ステップS18)、音声診断装置20からユーザ端末10に診断結果画面D3が提供され、ユーザ端末10に診断結果画面D3が表示される(ステップS19→S20)。
ユーザは、声の録音に失敗した場合などには、診断をやり直すことができる。すなわち、ユーザ端末10に表示された診断結果画面D3において「もう一度診断する」ボタンB4が押下されると(ステップS21)、トップ画面D1に戻る(ステップS2→S3)。診断を繰り返し(ステップS4→S5→・・・)、1日あたりの実行回数を超えた場合は、その旨を示すメッセージが表示されるようになっている(ステップS7→S2→S3)。
以上のように、第1実施形態によれば、ユーザ端末10に表示される画面の説明に従って声を出すだけで、ユーザに理解しやすいかたちで診断結果に表示される。すなわち、ユーザは、音声心理について知識がなくても、診断結果画面D3を上から順に読み進めることで、診断結果を簡単に理解することができる。特に、声からわかるあなたの性格・特徴15と、あなたの課題16は、比較的長い文章であるため、音声心理士からアドバイスを受けているような感覚でセルフ診断を行うことが可能である。
なお、上記の説明では、最大の音階と最小の音階の両方が決定され、声からわかるあなたの性格・特徴15と、あなたの課題16の両方がユーザ端末10に提供される場合を例示したが、本発明はこれに限定されるものではない。すなわち、最大の音階と最小の音階のどちらか一方だけが決定され、声からわかるあなたの性格・特徴15と、あなたの課題16のどちらか一方だけがユーザ端末10に提供されるようにしてもよい。
また、上記の説明では言及しなかったが、今回の診断結果と過去の診断結果とを比較してユーザの課題の改善度を診断してもよい。例えば、「もう一度診断する」ボタンB4が押下され、同様の手順で診断された場合、最小の音階の大きさ(dB)が前回と比較してどの程度改善されたかを数値化し、診断結果画面D3に表示するようにしてもよい。これにより、ユーザに理解しやすいかたちで課題の改善度を提示することができるため、ユーザ自身で継続的に課題の改善に取り組みやすくなる。
《第2実施形態》
以下、第2実施形態について説明する。なお、以下の説明では、第1実施形態と異なる部分を中心に説明することとし、同様の部分については詳しい説明を省略する。
既に説明したように、音声診断は、自分の声を知り、自分の声を整えることで健康を促進させるメソッドである。従来は、音声診断の結果、自分をよくするための処方箋がわかっても、それで実際に音声が改善されているのかわからない場合があった。例えば、自然と触れる、散歩する、音楽を聞く等、自分自身に適した処方箋がわかっても、それを実践するのはハードルが高く、続けることが難しい。そこで、第2実施形態では、よりユーザ自身で健康を促進させやすくするため、以下の手法を採用している。
[フルサウンドヴォイス]
本発明者は、これまで約2万人の音声を診断し、カウンセリングを行ってきた。その人の思考パターンを音声変換ソフトで可視化し、音階と心の領域の関係性を突き止めた。また、聞こえない音域をも含む8オクターブまで読み解くことによって、音の全域で全倍音がバランスよく共鳴する声(以下、フルサウンドヴォイス)になることが重要であることを突き止め、さらに、フルサウンドヴォイスになるには、軟口蓋を開くことが鍵となることを突き止めた。軟口蓋とは、口腔の中の硬口蓋の奥の方のやわらかい部分をいう。軟口蓋を開くには、苦手分野(課題)のヴォイスカラーの音やその補色になるヴォイスカラーの音を出すことによって、苦手意識を変化させるワークを行うのが効果的である。
[音声診断装置]
図12は、第2実施形態における音声診断装置20の機能ブロック図である。この音声診断装置20は、図12に示すように、ゾーン判定部30を備える。また、記憶部21は、ゾーンデータ21E、トレーニング音データ(以下、トレーニング音)21Fなどを記憶している。
ゾーン判定部30は、決定部26によって決定された最小の音階に基づいて、軟口蓋の開き度を改善するための発声トレーニングゾーンを判定する。この発声トレーニングゾーンごと(音階ごと)に対応するトレーニング音21Fが記憶部21に記憶されている。トレーニング音21Fは、例えば、倍音楽器の音に関するデジタルデータである。これにより、提供部22は、ゾーン判定部30によって判定された発声トレーニングゾーンに対応するトレーニング音21Fをユーザに提供しつつ、そのトレーニング音21Fに合わせてユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報をユーザに提供する。
[データ例]
図13は、第2実施形態におけるゾーンデータ21Eの概念図である。ゾーンデータ21Eは、軟口蓋の開き度を改善するための発声トレーニングゾーンを規定するデータであり、円環図を用いて音階と発声トレーニングゾーンを対応付けている。
例えば、図13に示すように、音階ドは、マゼンタゾーン及びレッドゾーンに対応し、音階レは、レッドゾーン及びオレンジゾーンに対応し、音階ミは、オレンジゾーン及びイエローゾーンに対応し、音階ファは、イエローゾーン及びグリーンゾーンに対応し、音階ソは、グリーンゾーン及びブルーゾーンに対応し、音階ラは、ブルーゾーン及びマゼンタゾーンに対応し、音階シは、マゼンタゾーンに対応している。
[分布図表]
図14は、第2実施形態における分布図表を示す模式図である。ここでは、12音階を「ド~レ♯」「ミ~ソ」「ソ♯~シ」に分割するとともに、音域を「低音域」「中音域」「高音域」に分割している。図中、「低音域」「中音域」「高音域」に対応させて描いている周波数(Hz)は例示であり、任意のオクターブの音域に設定することができる。このような分布図表をユーザ端末10に表示することによって声の響き方の弱い部分(どの音域が出にくいか)を確認し、トレーニング音21Fにあわせて声を出しながら声の響きを改善する。
[画面遷移例]
図15は、第2実施形態におけるユーザ端末10に表示されたトレーニング画面D4であって、図15(A)はトレーニング前、図15(B)はトレーニング後を示している。この図では、分布図表の部分だけを描いているが、トレーニングの方法やトレーニング効果を示す文字情報のほか、各種のボタンが設けられていてもよい。
例えば、トレーニング前は、図15(A)に示すように、約30%の音域しか声が出ていない。このように音域の分布が偏っているときは、十分に発声できていないゾーン(例えばマゼンタゾーン)があり、軟口蓋があまり開いていない。そこで、このような場合は、マゼンタゾーンに対応するトレーニング音21Fをユーザに聞かせ、そのトレーニング音21Fに合わせてユーザに声を出させる。
これにより、トレーニング後は、図15(B)に示すように、約100%の音域で声が出ている。軟口蓋の開き具合は波形の面積の広さに対応している。このように12色の声の波形が万遍なく出ているときほど、軟口蓋が開いている発声法ということができる。本発明では、このような声を「フルサウンドヴォイス」と呼んでいる。フルサウンドヴォイスが出るように発声をトレーニングすることで、自分の声を整え、健康を促進させることができる。
[動作例]
図16は、第2実施形態における音声診断システムの動作例を示すシーケンス図である。ここでは図示を省略するが、診断結果画面D3の最後に「トレーニングする」ボタンが設けられているものとする。もちろん、トレーニングするための操作が可能であればよく、このようなボタン操作に限定されるものではない。
まず、ユーザ端末10に表示された診断結果画面D3において「トレーニングする」ボタンが押下されると(ステップS31→S32)、その旨がユーザ端末10から音声診断装置20に通知され、音声診断装置20において発声トレーニングゾーンが判定される。例えば、最小の音階が音階B(シの音)の場合は、マゼンタが苦手分野のヴォイスカラーである。そのため、このような場合は、マゼンタゾーンが発声トレーニングゾーンと判定される。あるいは、マゼンタゾーンと補色の関係にあるイエローゾーンが発声トレーニングゾーンと判定されてもよい。補色とは、色相関における反対側の色のことであり、図13の円環図を用いて判定することが可能である。
このように発声トレーニングゾーンが判定されると、その発声トレーニングゾーンに対応するトレーニング音21Fが特定され、音声診断装置20からユーザ端末10にトレーニング画面D4が提供される(ステップS33→S34→S35)。トレーニング画面D4の内容は特に限定されるものではないが、例えば、図15に示すような分布図表が設けられる。そのほか、「トレーニング音に合わせて声を出し続けてください」等のメッセージや、「トレーニング開始」ボタンが設けられているものとする。
次いで、ユーザ端末10に表示されたトレーニング画面D4において「トレーニング開始」ボタンが押下されると(ステップS36→S37)、例えば3分間、ヘッドセットHからトレーニング音21Fが出力される(ステップS38)。そのトレーニング音21Fに合わせてユーザが声を出すと、その音声が録音され、その音声データがリアルタイムにユーザ端末10から音声診断装置20に通知される(ステップS38)。これにより、音声診断装置20において図11のステップS13~S18と同様の処理が実行された後、音声診断装置20からユーザ端末10に分布図表などのトレーニング結果が提供される(ステップS39→S40)。
これにより、ユーザ端末10に表示されたトレーニング画面D4においてリアルタイムにトレーニング結果が反映される(ステップS41)。すなわち、ユーザがヘッドセットHから出力されるトレーニング音21Fに合わせて声を出すと、その声の響きがリアルタイムに分布図表に反映される。このような処理を繰り返し(ステップS42→S38→・・・)、3分経過すると、トレーニングを終了するようになっている。
以上のように、第2実施形態によれば、第1実施形態のように音声を診断した後、ユーザ自身で課題の改善に取り組むことができる。すなわち、ユーザは、トレーニング音21Fにあわせて声を出しているだけで、自分で声の波形を見ながら自分の声をトレーニングすることができ、かつ、そのトレーニングの効果を画面で確認することが可能である。
現在、ヴォイストレーニングは、ヴォイストレーナーのもとアナログな方法で行われるのが一般的であり、効果を計測することが難しい。本発明のようにデジタル技術を活用して自分でトレーニングすることができ、そのトレーニングの効果も図表で視認できるシステムは非常に実用的価値が高いと言える。
なお、上記の説明では、第1実施形態(図11のステップS13~S18)と同様の音声診断を行うこととしているが(ステップS39)、本発明はこれに限定されるものではない。すなわち、第2実施形態では、課題の改善に取り組むことを主眼としているため、少なくとも最小の音階が決定されればよく、最大の音階が決定されることは必須ではない。ただし、最大の音階が決定されれば、自分の性格や特徴がわかるため、自己認識を深めることができ、課題の改善に取り組みやすくなる。そのため、第2実施形態でも、第1実施形態(図11のステップS13~S18)と同様の音声診断を行うことは、トレーニングの効果を高める観点から推奨される。
《ハードウェア構成例》
図17は、本発明の実施形態における音声診断装置20のハードウェア構成図である。ここでは、音声診断装置20を例示するが、ユーザ端末10についても基本的には同じである。
既に説明したように、音声診断装置20はコンピュータである。例えば、図17に示すように、プロセッサ20A、メモリ20B、記憶部20C、IF(Interface)部20D、入出力部20E、読取部20Fがバス20Iを介して相互に通信可能に接続されている。プロセッサ20Aは、種々の制御や演算を行なう演算処理装置である。メモリ20Bは、種々のデータやプログラムを記憶する揮発性メモリである。記憶部20Cは、種々のデータやプログラムを記憶する不揮発性メモリである。IF部20Dは、他の端末との間の通信の制御等を行う機能部である。入出力部20Eは、データを入力する入力装置、及びデータを出力する出力装置である。読取部20Fは、コンピュータ読取可能な記録媒体に記録されたデータやプログラムを読み出す装置である。ここでは図示していないが、音声診断装置20にヘッドセットHが接続されていてもよいことはもちろんである。
《本発明の特徴的な構成とその効果》
以上のように、本発明の実施形態における音声診断装置20は、音声を診断する装置であって、音階ごとに特徴情報及び/又は課題情報を対応付けて記憶する記憶部21と、ユーザによって入力された音声データを音声周波数データに変換する変換部24と、変換部24によって変換された音声周波数データについて、オクターブに占める割合が最大の音階及び/又は最小の音階を決定する決定部26と、決定部26によって決定された最大の音階及び/又は最小の音階に基づいてユーザの音声を診断する診断部27と、ユーザに音声診断について説明する画面を提供して音声の入力開始を促すとともに、診断部27によって診断された診断結果をユーザに提供する提供部22とを備える。診断部27は、決定部26によって最大の音階が決定された場合、その最大の音階に対応付けて記憶部21に記憶されている特徴情報をユーザの特徴を示す情報とする。また、決定部26によって最小の音階が決定された場合、その最小の音階に対応付けて記憶部21に記憶されている課題情報をユーザの課題を示す情報とする。これにより、ユーザ端末10に表示される画面の説明に従って声を出すだけで、ユーザに理解しやすいかたちで診断結果に表示される。そのため、音声心理について知識がないユーザであっても、ユーザ自身で音声をセルフ診断して健康を促進させることができる。
更に、ユーザに音声診断について説明する画面を提供(ステップS2)した後、ユーザが音声の入力開始を指示する操作(ステップS10)の前に、ブラウザフィンガープリントによって個人を特定することなくユーザを認証する認証部28を備えてもよい(ステップS5→S6→S7)。これにより、事前にユーザ登録しなくても、必要なタイミングで適切にユーザを認証することができる。そのため、匿名性を確保しつつ、診断結果を個人ごとにグルーピングし、人物ごとに診断結果を蓄積していくことが可能になる。このようなブラウザフィンガープリントによれば、将来、AIを使った診断手法などの拡張性をもたせることも可能になる。音声診断は、個人の心理状態、健康状態又は思考パターンに関係する診断であるため、匿名性を確保しつつ、ユーザを認証する仕組みは非常に重要である。
更に、決定部26によって決定された最小の音階に基づいて、軟口蓋の開き度を改善するための発声トレーニングゾーンを判定するゾーン判定部30を備えてもよい。この場合、記憶部21は、発声トレーニングゾーンごとに対応するトレーニング音21Fを記憶する。また、提供部22は、ゾーン判定部30によって判定された発声トレーニングゾーンに対応するトレーニング音21Fをユーザに提供しつつ、そのトレーニング音21Fに合わせてユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報(例えば分布図表)をユーザに提供する。これにより、トレーニング音21Fにあわせて声を出しているだけで軟口蓋の開き度が改善されて声が変わるため、ユーザ自身で健康を促進させることができる。
なお、本発明は、このような音声診断装置20が備える特徴的な各機能部を各ステップとする音声診断方法として実現したり、それらの各ステップをコンピュータに実行させるための音声診断プログラムとして実現したりすることもできる。もちろん、このような音声診断プログラムは、コンピュータ読取可能な記録媒体を介して、あるいはインターネット網Nなどのネットワークを介してコンピュータにインストールすることが可能である。
また、第1及び第2実施形態では、クラウド型の音声診断システムを例示したが、本発明はこれに限定されるものではない。例えば、音声診断装置20が備える各機能部をユーザ端末10に搭載すれば、スタンドアロン型で同様の音声診断を実施することができる。クラウド型、スタンドアロン型にかかわらず、同様の機能を実現する以上、本発明の技術的範囲に属する。
また、第2実施形態における音声診断装置20は、発声健康法促進装置と言い換えることもできる。すなわち、この発声健康法促進装置は、発声をトレーニングすることで健康を促進する装置であって、軟口蓋の開き度を改善するための発声トレーニングゾーンごと(音階ごと)にトレーニング音21Fを記憶する記憶部21と、ユーザによって入力された音声データを音声周波数データに変換する変換部24と、変換部24によって変換された音声周波数データについて、オクターブに占める割合が最小の音階を決定する決定部26と、決定部26によって決定された最小の音階に基づいて発声トレーニングゾーンを判定するゾーン判定部30と、ゾーン判定部30によって判定された発声トレーニングゾーンに対応するトレーニング音21Fをユーザに提供しつつ、そのトレーニング音21Fに合わせてユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報(例えば分布図表)をユーザに提供する提供部22とを備える。これにより、トレーニング音21Fにあわせて声を出しているだけで軟口蓋の開き度が改善されて声が変わるため、ユーザ自身で健康を促進させることができる。
[その他の実施形態]
以上のように、本発明の実施形態について記載したが、開示の一部をなす論述及び図面は例示的なものであり、限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
10 ユーザ端末
14A 表形式の分布図表
14B 図形式の分布図表
20 音声診断装置
21 記憶部
21A 診断履歴データ
21B 診断結果データ
21C 診断マスタデータ
21D HTMLデータ
21E ゾーンデータ
21F トレーニング音
22 提供部
23 取得部
24 変換部
25 分類部
26 決定部
27 診断部
28 認証部
29 入出力部
30 ゾーン判定部

Claims (3)

  1. 発声をトレーニングすることで健康を促進する発声健康法促進装置であって、
    軟口蓋の開き度を改善するための発声トレーニングゾーンごとに、当該発声トレーニングゾーンに対応する音階の音データであるトレーニング音を記憶する記憶部と、
    ユーザによって入力された音声データを音声周波数データに変換する変換部と、
    前記変換部によって変換された音声周波数データについて、音階に対応する周波数帯の声のパワーの和が、当該音階が属するオクターブに対応する周波数帯の声のパワーの総和に対して占める割合が最小になる音階を決定する決定部と、
    前記決定部によって決定された最小になる音階に基づいて前記発声トレーニングゾーンを判定するゾーン判定部と、
    前記ゾーン判定部によって判定された発声トレーニングゾーンに対応するトレーニング音を前記ユーザに提供しつつ、そのトレーニング音に合わせて前記ユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報を前記ユーザに提供する提供部と
    を備え、
    前記ゾーン判定部は、円環図を用いて前記音階とヴォイスカラーを対応付け、前記最小の音階に対応するヴォイスカラー、又は前記最小の音階に対応するヴォイスカラーと補色の関係にあるヴォイスカラーに基づいて、前記発声トレーニングゾーンを判定する
    ことを特徴とする発声健康法促進装置。
  2. 発声をトレーニングすることで健康を促進する発声健康法促進方法であって、
    コンピュータが、
    軟口蓋の開き度を改善するための発声トレーニングゾーンごとに、当該発声トレーニングゾーンに対応する音階の音データであるトレーニング音を記憶する記憶ステップと、
    ユーザによって入力された音声データを音声周波数データに変換する変換ステップと、
    前記変換ステップで変換された音声周波数データについて、音階に対応する周波数帯の声のパワーの和が、当該音階が属するオクターブに対応する周波数帯の声のパワーの総和に対して占める割合が最小になる音階を決定する決定ステップと、
    前記決定ステップで決定された最小になる音階に基づいて前記発声トレーニングゾーンを判定するゾーン判定ステップと、
    前記ゾーン判定ステップで判定された発声トレーニングゾーンに対応するトレーニング音を前記ユーザに提供しつつ、そのトレーニング音に合わせて前記ユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報を前記ユーザに提供する提供ステップと
    を実行し、
    前記ゾーン判定ステップでは、円環図を用いて前記音階とヴォイスカラーを対応付け、前記最小の音階に対応するヴォイスカラー、又は前記最小の音階に対応するヴォイスカラーと補色の関係にあるヴォイスカラーに基づいて、前記発声トレーニングゾーンを判定する
    ことを特徴とする発声健康法促進方法。
  3. 発声をトレーニングすることで健康を促進する発声健康法促進プログラムであって、
    コンピュータに、
    軟口蓋の開き度を改善するための発声トレーニングゾーンごとに、当該発声トレーニングゾーンに対応する音階の音データであるトレーニング音を記憶する記憶ステップと、
    ユーザによって入力された音声データを音声周波数データに変換する変換ステップと、
    前記変換ステップで変換された音声周波数データについて、音階に対応する周波数帯の声のパワーの和が、当該音階が属するオクターブに対応する周波数帯の声のパワーの総和に対して占める割合が最小になる音階を決定する決定ステップと、
    前記決定ステップで決定された最小になる音階に基づいて前記発声トレーニングゾーンを判定するゾーン判定ステップと、
    前記ゾーン判定ステップで判定された発声トレーニングゾーンに対応するトレーニング音を前記ユーザに提供しつつ、そのトレーニング音に合わせて前記ユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報を前記ユーザに提供する提供ステップと
    を実行させ、
    前記ゾーン判定ステップでは、円環図を用いて前記音階とヴォイスカラーを対応付け、前記最小の音階に対応するヴォイスカラー、又は前記最小の音階に対応するヴォイスカラーと補色の関係にあるヴォイスカラーに基づいて、前記発声トレーニングゾーンを判定する
    ことを特徴とする発声健康法促進プログラム。
JP2022182230A 2022-02-04 2022-11-15 発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラム Active JP7191269B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022182230A JP7191269B1 (ja) 2022-02-04 2022-11-15 発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022016011A JP7179209B1 (ja) 2022-02-04 2022-02-04 音声診断装置、音声診断方法、及び音声診断プログラム
JP2022182230A JP7191269B1 (ja) 2022-02-04 2022-11-15 発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022016011A Division JP7179209B1 (ja) 2022-02-04 2022-02-04 音声診断装置、音声診断方法、及び音声診断プログラム

Publications (2)

Publication Number Publication Date
JP7191269B1 JP7191269B1 (ja) 2022-12-16
JP2023114426A true JP2023114426A (ja) 2023-08-17

Family

ID=87569258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022182230A Active JP7191269B1 (ja) 2022-02-04 2022-11-15 発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラム

Country Status (1)

Country Link
JP (1) JP7191269B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102621451B1 (ko) * 2023-02-01 2024-01-04 박상은 사용자 맞춤형 목소리 트레이닝 서비스 제공 방법, 장치 및 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004514178A (ja) * 2000-11-17 2004-05-13 フォルスカーパテント アイ エスワイディ アクチボラゲット 音声の分析の方法及び装置
JP2017192457A (ja) * 2016-04-18 2017-10-26 株式会社ブリコルールホールディングス 音声診断装置、音声診断システム及び音声診断プログラム
US20190374150A1 (en) * 2010-09-07 2019-12-12 Penina Ohana Lubelchick Diagnosing system for consciousness level measurement and method thereof
JP2022145373A (ja) * 2021-03-17 2022-10-04 株式会社ユウキアユミワールドアカデミー 音声診断システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004514178A (ja) * 2000-11-17 2004-05-13 フォルスカーパテント アイ エスワイディ アクチボラゲット 音声の分析の方法及び装置
US20190374150A1 (en) * 2010-09-07 2019-12-12 Penina Ohana Lubelchick Diagnosing system for consciousness level measurement and method thereof
JP2017192457A (ja) * 2016-04-18 2017-10-26 株式会社ブリコルールホールディングス 音声診断装置、音声診断システム及び音声診断プログラム
JP2022145373A (ja) * 2021-03-17 2022-10-04 株式会社ユウキアユミワールドアカデミー 音声診断システム

Also Published As

Publication number Publication date
JP7191269B1 (ja) 2022-12-16

Similar Documents

Publication Publication Date Title
Chandrasekaran et al. Individual variability in cue-weighting and lexical tone learning
Pfordresher et al. Auditory imagery and the poor-pitch singer
Lo et al. Music training for children with sensorineural hearing loss improves speech-in-noise perception
Rocco et al. Beyond verbal behavior: An empirical analysis of speech rates in psychotherapy sessions
Elliott Verbal auditory closure and the speech perception in noise (SPIN) test
König et al. Measuring stress in health professionals over the phone using automatic speech analysis during the COVID-19 pandemic: observational pilot study
Kershenbaum et al. Speak along without the song: what promotes fluency in people with aphasia?
Fletcher et al. Predicting intelligibility gains in individuals with dysarthria from baseline speech features
JP7191269B1 (ja) 発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラム
Frič et al. Listening evaluation and classification of female singing voice categories
Fourcin et al. Hearing and phonetic criteria in voice measurement: Clinical applications
Wilbiks et al. Effects of vocal training in a musicophile with congenital amusia
Ziv et al. Absolute and relative pitch: Global versus local processing of chords
Klopfenstein et al. The study of speech naturalness in communication disorders: A systematic review of the literature
JP6029223B1 (ja) 音声診断装置、音声診断システム及び音声診断プログラム
Marks et al. Psychometric analysis of an ecological vocal effort scale in individuals with and without vocal hyperfunction during activities of daily living
Remacle et al. Impact of vocal load on breathiness: Perceptual evaluation
Paoliello et al. Voice quality and auditory processing in subjects with and without musical experience
Schaefer et al. Intuitive visualizations of pitch and loudness in speech
Oates et al. Gender-affirming voice training for trans women: effectiveness of training on patient-reported outcomes and listener perceptions of voice
JP7179209B1 (ja) 音声診断装置、音声診断方法、及び音声診断プログラム
Schiller et al. Imitating dysphonic voice: a suitable technique to create speech stimuli for spoken language processing tasks?
Ferguson et al. Continuous subjective loudness responses to reversals and inversions of a sound recording of an orchestral excerpt
Pazdera et al. Pitch-induced illusory percepts of time
Lamarche et al. Not just sound: Supplementing the voice range profile with the singer's own perceptions of vocal challenges

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221115

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221206

R150 Certificate of patent or registration of utility model

Ref document number: 7191269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150