JP7191269B1 - Device for promoting vocal health, method for promoting vocal health, and program for promoting vocal health - Google Patents

Device for promoting vocal health, method for promoting vocal health, and program for promoting vocal health Download PDF

Info

Publication number
JP7191269B1
JP7191269B1 JP2022182230A JP2022182230A JP7191269B1 JP 7191269 B1 JP7191269 B1 JP 7191269B1 JP 2022182230 A JP2022182230 A JP 2022182230A JP 2022182230 A JP2022182230 A JP 2022182230A JP 7191269 B1 JP7191269 B1 JP 7191269B1
Authority
JP
Japan
Prior art keywords
voice
training
scale
zone
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022182230A
Other languages
Japanese (ja)
Other versions
JP2023114426A (en
Inventor
由美子 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022016011A external-priority patent/JP7179209B1/en
Application filed by Individual filed Critical Individual
Priority to JP2022182230A priority Critical patent/JP7191269B1/en
Application granted granted Critical
Publication of JP7191269B1 publication Critical patent/JP7191269B1/en
Publication of JP2023114426A publication Critical patent/JP2023114426A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】ユーザ自身で健康を促進させる。【解決手段】音声診断装置20は、発声をトレーニングすることで健康を促進する装置であって、軟口蓋の開き度を改善するための発声トレーニングゾーンごとにトレーニング音21Fを記憶する記憶部21と、ユーザによって入力された音声データを音声周波数データに変換する変換部24と、変換部24によって変換された音声周波数データについて、オクターブに占める割合が最小の音階を決定する決定部26と、決定部26によって決定された最小の音階に基づいて発声トレーニングゾーンを判定するゾーン判定部30と、ゾーン判定部30によって判定された発声トレーニングゾーンに対応するトレーニング音21Fをユーザに提供しつつ、そのトレーニング音21Fに合わせてユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報をユーザに提供する提供部22とを備える。【選択図】図12An object of the present invention is to promote health by a user himself/herself. A voice diagnostic device (20) is a device for promoting health by training vocalization, and includes a storage unit (21) that stores training sounds (21F) for each vocalization training zone for improving the degree of opening of the soft palate; A conversion unit 24 that converts voice data input by a user into voice frequency data, a determination unit 26 that determines a scale that occupies the smallest octave for the voice frequency data converted by the conversion unit 24, and a determination unit 26. and a training sound 21F corresponding to the vocalization training zone determined by the zone determining unit 30 for determining the vocalization training zone based on the minimum scale determined by the zone determining unit 30, while providing the training sound 21F and a providing unit 22 for causing the user to speak in time with the training, and providing the user with information indicating the effect of the training based on the voice data of the voice. [Selection drawing] Fig. 12

Description

特許法第30条第2項適用 令和3年11月9日にビオ・マガジン.出版のanemone2021年12月号,第62~68頁にて公開 令和4年1月12日に株式会社ビジネス社発行の「人生を好転させる声のみがき方」にて公開 令和3年12月30日にAmazon(https://www.amazon.co.jp/)にて「人生を好転させる声のみがき方」の電子書籍を販売 令和3年12月30日にウェブサイト(https://voice.koeshindan.jp/)にて音診断ソフト・ライトを公開 令和3年12月26日にYoutubeの動画(https://www.youtube.com/watch?v=ys_xQziCDO4)にて公開 令和3年12月30日に一般社団法人日本声診断協会のウェブサイト(https://koeshindan.jp/)にて公開 令和3年11月1日に中島由美子オフィシャルサイト(https://yumiko-nakajima.com/)にて公開 令和3年6月頃に声道パンフレット(https://www.dropbox.com/s/56d70qhmnrb6ooe/%E5%A3%B0%E9%81%93%EF%BE%8A%EF%BE%9F%EF%BE%9D%EF%BE%8C.pdf?dl=0)にて公開Article 30, Paragraph 2 of the Patent Act applies Bio Magazine on November 9, 2021. Published in the December 2021 issue of the publication anemone, pages 62-68 Published on January 12, 2020 in "How to brush your voice to turn your life around" published by Business Co., Ltd. December 2021 On the 30th, Amazon (https://www.amazon.co.jp/) will sell an e-book of “How to brush your voice to improve your life” Website (https:/) on December 30, 2021 / voice.koeshindan.jp/) Released sound diagnosis software / light Released on December 26, 2021 on YouTube video (https://www.youtube.com/watch?v=ys_xQziCDO4) Released on the website of the Japan Voice Diagnosis Association (https://koeshindan.jp/) on December 30, 1998 Yumiko Nakajima official site (https://yumiko) on November 1, 2021 -nakajima.com/) Vocal pamphlet around June 2021 (https://www.dropbox.com/s/56d70qhmnrb6ooe/%E5%A3%B0%E9%81%93%EF%BE %8A%EF%BE%9F%EF%BE%9D%EF%BE%8C.pdf?dl=0)

本発明は、発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラムに関する。 TECHNICAL FIELD The present invention relates to a health promotion device, a health promotion method, and a health promotion program.

従来、音声を診断する音声診断装置が知られている。例えば、特許文献1には、生体の音声をフーリエ変換で音声周波数データに変換し、生体の心理状態、健康状態又は思考パターンを診断する音声診断装置が開示されている。この音声診断装置によれば、音声周波数データを分布図表に分布させ、ディスプレイなどの表示部に表示させることができるため、音声心理士が診断ツールとして利用する場合に効果的である。 2. Description of the Related Art Conventionally, a voice diagnostic device for diagnosing voice is known. For example, Patent Literature 1 discloses a voice diagnosis apparatus that converts the voice of a living body into voice frequency data by Fourier transform and diagnoses the psychological state, health condition, or thought pattern of the living body. According to this voice diagnosis device, voice frequency data can be distributed in a distribution chart and displayed on a display unit such as a display, so that it is effective when used as a diagnostic tool by a voice psychologist.

特許第6029223号公報Japanese Patent No. 6029223

しかしながら、従来の音声診断装置では、ユーザ自身で音声をセルフ診断することが難しいという課題がある。すなわち、多くのユーザは音声心理について知識がないため、音声心理士からアドバイスを受けなければ、診断結果を正しく理解できないのが通常である。近年、新型コロナウイルス感染症の影響により、ユーザが自宅などで音声をセルフ診断したいというニーズがあり、そのようなニーズに応える新しい装置の登場が望まれている。 However, the conventional voice diagnostic apparatus has a problem that it is difficult for the user to self-diagnose the voice. That is, since many users do not have knowledge about speech psychology, they usually cannot understand the diagnosis correctly without receiving advice from a speech psychologist. In recent years, due to the influence of the new coronavirus infectious disease, there is a need for users to self-diagnose voice at home, etc., and there is a desire for a new device to meet such needs.

また、従来の音声診断装置では、ユーザ自身で健康を促進させることが難しいという課題もある。すなわち、音声診断は、自分の声を知り、自分の声を整えることで健康を促進させるメソッドである(後述する)。従来の音声診断装置では、ユーザ自身で音声をセルフ診断することが難しいため、ユーザ自身で健康を促進させることも難しい。 Another problem with the conventional voice diagnostic apparatus is that it is difficult for the user to promote his/her own health. In other words, voice diagnosis is a method for promoting health by knowing one's own voice and adjusting one's voice (described later). Since it is difficult for the user to self-diagnose the voice with the conventional voice diagnosis device, it is also difficult for the user to promote his/her own health.

本発明は、ユーザ自身で健康を促進させることができる発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a vocal health promotion apparatus, a vocal health promotion method, and a vocal health promotion program that enable users to promote their own health.

本発明の一態様は、発声をトレーニングすることで健康を促進する発声健康法促進装置であって、軟口蓋の開き度を改善するための発声トレーニングゾーンごとに、当該発声トレーニングゾーンに対応する音階の音データであるトレーニング音を記憶する記憶部と、ユーザによって入力された音声データを音声周波数データに変換する変換部と、前記変換部によって変換された音声周波数データについて、音階に対応する周波数帯の声のパワーの和が、当該音階が属するオクターブに対応する周波数帯の声のパワーの総和に対して占める割合が最小になる音階を決定する決定部と、前記決定部によって決定された最小になる音階に基づいて前記発声トレーニングゾーンを判定するゾーン判定部と、前記ゾーン判定部によって判定された発声トレーニングゾーンに対応するトレーニング音を前記ユーザに提供しつつ、そのトレーニング音に合わせて前記ユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報を前記ユーザに提供する提供部とを備え、前記ゾーン判定部は、円環図を用いて前記音階とヴォイスカラーを対応付け、前記最小の音階に対応するヴォイスカラー、又は前記最小の音階に対応するヴォイスカラーと補色の関係にあるヴォイスカラーに基づいて、前記発声トレーニングゾーンを判定する。 One aspect of the present invention is a vocalization health promotion device that promotes health by training vocalization, wherein for each vocalization training zone for improving the degree of opening of the soft palate, a musical scale corresponding to the vocalization training zone is provided. A storage unit that stores training sounds that are sound data, a conversion unit that converts voice data input by a user into voice frequency data, and a frequency band corresponding to a scale for the voice frequency data converted by the conversion unit a determination unit for determining a scale in which the ratio of the sum of voice powers to the total sum of voice powers in the frequency band corresponding to the octave to which the scale belongs is the minimum, and the minimum determined by the determination unit. a zone determination unit that determines the vocalization training zone based on a scale; and a training sound corresponding to the vocalization training zone determined by the zone determination unit is provided to the user, and a voice is given to the user in accordance with the training sound. and providing information indicating the effect of training to the user based on the audio data of the voice, wherein the zone determination unit associates the scale with the voice color using a circular ring diagram , the voice color corresponding to the minimum scale, or the voice color complementary to the voice color corresponding to the minimum scale, to determine the vocalization training zone.

また、本発明の他の一態様は、発声をトレーニングすることで健康を促進する発声健康法促進方法であって、コンピュータが、軟口蓋の開き度を改善するための発声トレーニングゾーンごとに、当該発声トレーニングゾーンに対応する音階の音データであるトレーニング音を記憶する記憶ステップと、ユーザによって入力された音声データを音声周波数データに変換する変換ステップと、前記変換ステップで変換された音声周波数データについて、音階に対応する周波数帯の声のパワーの和が、当該音階が属するオクターブに対応する周波数帯の声のパワーの総和に対して占める割合が最小になる音階を決定する決定ステップと、前記決定ステップで決定された最小になる音階に基づいて前記発声トレーニングゾーンを判定するゾーン判定ステップと、前記ゾーン判定ステップで判定された発声トレーニングゾーンに対応するトレーニング音を前記ユーザに提供しつつ、そのトレーニング音に合わせて前記ユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報を前記ユーザに提供する提供ステップとを実行し、前記ゾーン判定ステップでは、円環図を用いて前記音階とヴォイスカラーを対応付け、前記最小の音階に対応するヴォイスカラー、又は前記最小の音階に対応するヴォイスカラーと補色の関係にあるヴォイスカラーに基づいて、前記発声トレーニングゾーンを判定する。 Another aspect of the present invention is a vocalization health promotion method for promoting health by training vocalization, wherein a computer performs vocalization training for each vocalization training zone for improving the degree of opening of the soft palate. A storage step of storing training sounds, which are sound data of a scale corresponding to a training zone; a conversion step of converting voice data input by a user into voice frequency data; a determining step of determining a scale in which the ratio of the sum of voice powers in the frequency band corresponding to the scale to the total sum of voice powers in the frequency band corresponding to the octave to which the scale belongs is the smallest; a zone determination step of determining the vocalization training zone based on the minimum scale determined in the step of providing the user with a training sound corresponding to the vocalization training zone determined in the zone determination step; and providing information indicating the effect of training to the user based on the voice data of the user, and the zone determination step includes using a ring diagram The scale and voice color are associated, and the vocalization training zone is determined based on the voice color corresponding to the minimum scale or the voice color complementary to the voice color corresponding to the minimum scale.

また、本発明の他の一態様は、発声をトレーニングすることで健康を促進する発声健康法促進プログラムであって、コンピュータに、軟口蓋の開き度を改善するための発声トレーニングゾーンごとに、当該発声トレーニングゾーンに対応する音階の音データであるトレーニング音を記憶する記憶ステップと、ユーザによって入力された音声データを音声周波数データに変換する変換ステップと、前記変換ステップで変換された音声周波数データについて、音階に対応する周波数帯の声のパワーの和が、当該音階が属するオクターブに対応する周波数帯の声のパワーの総和に対して占める割合が最小になる音階を決定する決定ステップと、前記決定ステップで決定された最小になる音階に基づいて前記発声トレーニングゾーンを判定するゾーン判定ステップと、前記ゾーン判定ステップで判定された発声トレーニングゾーンに対応するトレーニング音を前記ユーザに提供しつつ、そのトレーニング音に合わせて前記ユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報を前記ユーザに提供する提供ステップとを実行させ、前記ゾーン判定ステップでは、円環図を用いて前記音階とヴォイスカラーを対応付け、前記最小の音階に対応するヴォイスカラー、又は前記最小の音階に対応するヴォイスカラーと補色の関係にあるヴォイスカラーに基づいて、前記発声トレーニングゾーンを判定する。 Another aspect of the present invention is a vocal health promotion program for promoting health by training vocalization, wherein a computer stores the vocalization training zone for improving the degree of opening of the soft palate. A storage step of storing training sounds, which are sound data of a scale corresponding to a training zone; a conversion step of converting voice data input by a user into voice frequency data; a determining step of determining a scale in which the ratio of the sum of voice powers in the frequency band corresponding to the scale to the total sum of voice powers in the frequency band corresponding to the octave to which the scale belongs is the smallest; a zone determination step of determining the vocalization training zone based on the minimum scale determined in the step of providing the user with a training sound corresponding to the vocalization training zone determined in the zone determination step; a provision step of causing the user to vocalize in accordance with the above, and providing information indicating the effect of training to the user based on the audio data of the voice; The scale and voice color are associated, and the vocalization training zone is determined based on the voice color corresponding to the minimum scale or the voice color complementary to the voice color corresponding to the minimum scale.

本発明によれば、ユーザ自身で健康を促進させることができる発声健康法促進装置、発声健康法促進方法、及び発声健康法促進プログラムを提供することが可能である。 According to the present invention, it is possible to provide a vocal health promotion device, a vocal health promotion method, and a vocal health promotion program that allow users to promote their own health.

本発明の実施形態における音声診断の説明図である。FIG. 4 is an explanatory diagram of voice diagnosis according to the embodiment of the present invention; 第1実施形態における音声診断システムのネットワーク構成図である。1 is a network configuration diagram of a voice diagnosis system in the first embodiment; FIG. 第1実施形態における音声診断装置の機能ブロック図である。1 is a functional block diagram of a speech diagnosis device according to a first embodiment; FIG. 第1実施形態における記憶部の内部構成図である。4 is an internal configuration diagram of a storage unit in the first embodiment; FIG. 第1実施形態における分布図表である。It is a distribution chart in a 1st embodiment. 第1実施形態におけるユーザ端末の画面の説明図である。FIG. 4 is an explanatory diagram of a screen of a user terminal in the first embodiment; FIG. 第1実施形態におけるユーザ端末の画面の説明図である。FIG. 4 is an explanatory diagram of a screen of a user terminal in the first embodiment; FIG. 第1実施形態におけるユーザ端末の画面の説明図である。FIG. 4 is an explanatory diagram of a screen of a user terminal in the first embodiment; FIG. 第1実施形態におけるユーザ端末の画面の説明図である。FIG. 4 is an explanatory diagram of a screen of a user terminal in the first embodiment; FIG. 第1実施形態におけるユーザ端末の画面の説明図である。FIG. 4 is an explanatory diagram of a screen of a user terminal in the first embodiment; FIG. 第1実施形態における音声診断システムの動作例を示すシーケンス図である。4 is a sequence diagram showing an operation example of the voice diagnosis system in the first embodiment; FIG. 第2実施形態における音声診断装置の機能ブロック図である。FIG. 10 is a functional block diagram of a speech diagnosis device according to a second embodiment; FIG. 第2実施形態におけるゾーンデータの概念図である。FIG. 10 is a conceptual diagram of zone data in the second embodiment; 第2実施形態における分布図表を示す模式図である。It is a schematic diagram which shows the distribution chart in 2nd Embodiment. 第2実施形態におけるユーザ端末の画面の説明図である。FIG. 11 is an explanatory diagram of a screen of a user terminal in the second embodiment; FIG. 第2実施形態における音声診断システムの動作例を示すシーケンス図である。FIG. 11 is a sequence diagram showing an operation example of the voice diagnosis system according to the second embodiment; 本発明の実施形態における音声診断装置のハードウェア構成図である。1 is a hardware configuration diagram of a voice diagnosis device according to an embodiment of the present invention; FIG.

以下、図面を参照して本発明の実施形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示である。すなわち、以下に説明する実施形態は、その趣旨を逸脱しない範囲で種々変形して実施することができる。 Embodiments of the present invention will be described below with reference to the drawings. However, the embodiments described below are merely examples. That is, the embodiments described below can be modified in various ways without departing from the spirit of the embodiments.

《音声診断とは》
本発明者は、2万人以上の声(音声)のデータをもとに、声の周波数との思考パターンとの相関関係を音声心理学として体系化した。声の周波数を12音階に分類し、声にどんな周波数がふくまれているかを分析することで、声の持つ力やメンタルブロックを知ることができる。
《What is Voice Diagnosis?》
The present inventor systematized the correlation between voice frequencies and thought patterns as speech psychology based on voice data of more than 20,000 people. By classifying voice frequencies into 12 scales and analyzing what frequencies are included in the voice, it is possible to know the power and mental block of the voice.

図1は、本発明の実施形態における音声診断の説明図であり、ヴォイスカラーと音階と思考の関係を示している。音声診断では、まず人の声の周波数を12音階に分類し、音階と人の心との相関性を可視化する。どの色が多いか少ないかなどを見て声のパターンを調べる。声のパターンは、思考のパターンでもある。例えば、図1に示すように、音階B(シの音)に対応するマゼンタMが多い人は、受容力・愛(言い換えると慈愛力)に富む傾向がある。このように色で表現された思考パターンを認識することで、自己認識を深め、気づきを起こす。8オクターブにわたる音域で色の表れ方を見ていくことで、潜在意識、顕在意識、未来意識を見ることができる。 FIG. 1 is an explanatory diagram of speech diagnosis according to an embodiment of the present invention, showing the relationship between voice color, musical scale, and thinking. In speech diagnosis, first, human voice frequencies are classified into 12 scales, and the correlation between the scale and the human mind is visualized. Check the pattern of the voice by looking at which color is more or less. Voice patterns are also thought patterns. For example, as shown in FIG. 1, a person who has a lot of magenta M corresponding to scale B (b sound) tends to be rich in receptivity and love (in other words, benevolence). By recognizing thought patterns expressed in colors in this way, one deepens one's self-awareness and raises awareness. By looking at how colors appear in the 8 octave range, you can see the subconscious, conscious, and future consciousness.

《第1実施形態》 <<1st Embodiment>>

[音声診断システム]
図2は、第1実施形態における音声診断システムのネットワーク構成図である。この音声診断システムは、コンピュータを利用して音声診断を実施するシステムであり、ここでは、クラウド型の音声診断システムを例示している。具体的には、ユーザ端末10と音声診断装置20と管理端末100とがインターネット網Nなどのネットワークを介して接続されている。
[Voice diagnosis system]
FIG. 2 is a network configuration diagram of the voice diagnosis system in the first embodiment. This voice diagnosis system is a system that uses a computer to perform voice diagnosis, and here, a cloud-type voice diagnosis system is exemplified. Specifically, the user terminal 10, the audio diagnostic device 20, and the management terminal 100 are connected via a network such as the Internet network N. FIG.

ユーザ端末10は、本システムのユーザが操作するタブレット、スマートフォン、パソコンなどのコンピュータであり、Webサイトを閲覧するためWebブラウザ(以下、ブラウザ)を備えている。音声診断装置20からWebページデータを受信すると、ブラウザで解析してディスプレイに画面を表示(描画)するようになっている。 A user terminal 10 is a computer such as a tablet, a smart phone, or a personal computer operated by a user of this system, and includes a web browser (hereinafter referred to as a browser) for browsing websites. When Web page data is received from the audio diagnosis device 20, the browser analyzes the data and displays (renders) the screen on the display.

ここでは、ユーザが自宅で音声をセルフ診断する場合を想定し、ユーザ端末10にヘッドセットHが接続されているものとする。ヘッドセットHは、音声を聞くためのヘッドホンと、音声を入力するためのマイクが一つになった入出力装置である。このような入出力装置は、外付けのヘッドセットHではなく、ユーザ端末10に内蔵されていてもよい。 Here, it is assumed that the user self-diagnoses the voice at home, and the headset H is connected to the user terminal 10 . The headset H is an input/output device that combines a headphone for listening to voice and a microphone for inputting voice. Such an input/output device may be built in the user terminal 10 instead of the external headset H. FIG.

音声診断装置20は、ユーザの音声を診断するコンピュータである。例えば、本システムがWebサービスとして実現される場合、音声診断装置20はWebサーバ等で構成される。図2では、音声診断装置20としてコンピュータ本体のみを描いているが、ディスプレイやキーボード、ヘッドセットHなどの周辺機器が音声診断装置20に接続されていてもよい。 The voice diagnosis device 20 is a computer that diagnoses the user's voice. For example, when this system is implemented as a web service, the voice diagnostic device 20 is configured with a web server or the like. In FIG. 2 , only the computer main body is depicted as the voice diagnostic device 20 , but peripheral devices such as a display, a keyboard, and a headset H may be connected to the voice diagnostic device 20 .

管理端末100は、本システムの管理者が操作するコンピュータである。管理者は、管理端末100を用いて本システムの全体的な設定を行う。 The management terminal 100 is a computer operated by an administrator of this system. The administrator uses the management terminal 100 to make overall settings for this system.

[音声診断装置]
図3は、第1実施形態における音声診断装置20の機能ブロック図である。この音声診断装置20は、ユーザの音声を診断するコンピュータであって、図3に示すように、記憶部21と、提供部22と、取得部23と、変換部24と、分類部25と、決定部26と、診断部27と、認証部28とを備える。これら各機能部は、コンピュータにおいて、CPUがメモリ上にロードされたプログラムを実行することにより実現される。
[Voice diagnosis device]
FIG. 3 is a functional block diagram of the speech diagnosis device 20 according to the first embodiment. The voice diagnosis apparatus 20 is a computer for diagnosing user's voice, and as shown in FIG. A determination unit 26 , a diagnosis unit 27 and an authentication unit 28 are provided. Each of these functional units is implemented in the computer by the CPU executing a program loaded on the memory.

記憶部21は、各種データを記憶する機能部である。例えば、記憶部21は、診断履歴データ21A、診断結果データ21B、診断マスタデータ21C、HTML(HyperText Markup Language)データ21Dなどを記憶している。その他、CSS(Cascading Style Sheets)データ、画像データ、プログラムのデータのように、Webページデータを生成するために必要な各種データも記憶しているものとする。 The storage unit 21 is a functional unit that stores various data. For example, the storage unit 21 stores diagnostic history data 21A, diagnostic result data 21B, diagnostic master data 21C, HTML (HyperText Markup Language) data 21D, and the like. In addition, various data necessary for generating web page data, such as CSS (Cascading Style Sheets) data, image data, and program data, are also stored.

提供部22は、ユーザ端末10に各種データを提供する機能部である。例えば、ユーザ端末10からHTTP(Hypertext Transfer Protocol)リクエストなどの要求を受信すると、HTMLデータ21Dなどを用いてWebページデータを生成し、ユーザ端末10に提供する。 The providing unit 22 is a functional unit that provides various data to the user terminal 10 . For example, when a request such as an HTTP (Hypertext Transfer Protocol) request is received from the user terminal 10, Web page data is generated using HTML data 21D or the like and provided to the user terminal 10. FIG.

取得部23は、ユーザ端末10から各種データを取得する機能部である。例えば、ユーザ端末10においてユーザが音声を入力すると、その音声データを取得する。音声データは、例えば10秒間にユーザが発した声(音声)に関するデジタルデータである。 The acquisition unit 23 is a functional unit that acquires various data from the user terminal 10 . For example, when the user inputs voice at the user terminal 10, the voice data is acquired. Voice data is, for example, digital data related to the user's voice (voice) for 10 seconds.

変換部24は、取得部23によって取得された音声データを音声周波数データに変換する機能部である。このような音声周波数データへの変換には、例えば、特許文献1(特許第6029223号公報)に記載されるように、フーリエ変換が用いられる。コンピュータでの計算を高速にするため、プログラミング上では「Cooley-Tukey型FFTアルゴリズム」の手法を利用するのが好ましい。 The conversion unit 24 is a functional unit that converts the audio data acquired by the acquisition unit 23 into audio frequency data. Fourier transform is used for such conversion into audio frequency data, as described in Patent Document 1 (Japanese Patent No. 6029223), for example. In order to speed up the calculation on the computer, it is preferable to use the method of "Cooley-Tukey type FFT algorithm" in programming.

分類部25は、変換部24によって変換された音声周波数データを、音階とオクターブとで区分けされた複数の領域を含む分布図表に分布させる機能部である。分布図表は、音声周波数データの分布を視覚的にわかりやすく表示できればよく、表形式でも図形式でもよい。 The classification unit 25 is a functional unit that distributes the audio frequency data converted by the conversion unit 24 in a distribution chart including a plurality of areas divided by scales and octaves. The distribution chart may display the distribution of the audio frequency data visually and in an easy-to-understand manner, and may be either tabular or graphical.

決定部26は、変換部24によって変換された音声周波数データについて、オクターブに占める割合が最大の音階(以下、最大の音階)と、オクターブに占める割合が最小の音階(以下、最小の音階)を決定する機能部である。例えば、特許文献1に記載されるように、サンプリング時間あたりの各周波数帯における各音階の大きさ(dB)を測定し、それらを各周波数帯で単純に足し合わせ、各オクターブ内で、各音階の周波数帯のdBの総和比率を面積比率とし、この面積比率に基づいて最大の音階や最小の音階を決定する。 For the audio frequency data converted by the conversion unit 24, the determining unit 26 selects a scale that occupies the largest proportion in the octave (hereinafter referred to as the largest scale) and a scale that occupies the smallest proportion in the octave (hereinafter referred to as the smallest scale). It is the function part that decides. For example, as described in Patent Document 1, the magnitude (dB) of each scale in each frequency band per sampling time is measured, they are simply added in each frequency band, and within each octave, each scale The area ratio is defined as the total ratio of dB in the frequency band of , and the maximum scale and the minimum scale are determined based on this area ratio.

例えば、あるオクターブ内で、各音階の周波数帯のdBの総和が「C:1000dB、C#:3000dB、D:2000dB、D#:2500dB、E:1500dB、F:2500dB、F#:500dB、G:0dB、G#:100dB、A:600dB、A#:300dB、B:1000Db」になったとする。この場合、オクターブにおいて音階が占める割合は、「C:6.6%、C#:20.0%、D:13.3%、D#:16.7%、E:10.0%、F:16.7%、F#:3.3%、G:0.0%、G#:0.7%、A:4.0%、A#:2.0%、B:6.7%」となる。なお、各周波数帯の総和÷サンプリング時間で計算すれば、より正確なデータが得られる。 For example, within a certain octave, the sum of dB in each scale frequency band is "C: 1000 dB, C#: 3000 dB, D: 2000 dB, D#: 2500 dB, E: 1500 dB, F: 2500 dB, F#: 500 dB, G: 0 dB, G#: 100dB, A: 600dB, A#: 300dB, B: 1000Db. In this case, the proportion of the scale in the octave is "C: 6.6%, C#: 20.0%, D: 13.3%, D#: 16.7%, E: 10.0%, F: 16.7%, F#: 3.3%, G: 0.0 %, G#: 0.7%, A: 4.0%, A#: 2.0%, B: 6.7%". More accurate data can be obtained by calculating the total sum of each frequency band/sampling time.

診断部27は、決定部26によって決定された最大の音階と最小の音階に基づいてユーザの音声を診断する機能部である。この診断の際には診断マスタデータ21Cが参照され、診断履歴と診断結果は、診断履歴データ21Aと診断結果データ21Bとして保存される。 The diagnosis unit 27 is a functional unit that diagnoses the user's voice based on the maximum scale and minimum scale determined by the determination unit 26 . During this diagnosis, the diagnosis master data 21C is referred to, and the diagnosis history and diagnosis results are saved as diagnosis history data 21A and diagnosis result data 21B.

認証部28は、ユーザを認証する機能部である。ユーザ認証の方法は、事前にユーザ登録させる方法でもよいが、ここでは、同一端末を使えば同値になるブラウザコードを用いる。 The authentication unit 28 is a functional unit that authenticates users. The method of user authentication may be a method of registering users in advance, but here, a browser code that has the same value if the same terminal is used is used.

その他、音声診断装置20は、一般的なコンピュータが備える各種の機能部を備えているものとする。例えば、各種データを入出力する入出力部29を備えていてもよい。 In addition, the voice diagnostic device 20 is assumed to have various functional units that a general computer has. For example, an input/output unit 29 for inputting/outputting various data may be provided.

[データ例]
図4(A)は、記憶部21に記憶されている診断履歴データ21Aの内部構成図である。診断履歴データ21Aは、音声診断の履歴を示すデータである。具体的には、図4(A)に示すように、「診断ID」「ブラウザコード」「診断日時」などが対応付けて記憶されている。「診断ID」は、診断ごとに固有の識別番号である。「ブラウザコード」は、同一端末を使えば同値になるコードであり、具体的にはブラウザフィンガープリントである(後述する)。「診断日時」は、診断が行われた日時である。
[Data example]
FIG. 4A is an internal configuration diagram of diagnostic history data 21A stored in the storage unit 21. As shown in FIG. The diagnosis history data 21A is data indicating the history of voice diagnosis. Specifically, as shown in FIG. 4A, "diagnosis ID", "browser code", "diagnosis date and time", etc. are associated and stored. "Diagnosis ID" is a unique identification number for each diagnosis. "Browser code" is a code that has the same value if the same terminal is used, and is specifically a browser fingerprint (described later). "Date and time of diagnosis" is the date and time when the diagnosis was made.

図4(B)は、記憶部21に記憶されている診断結果データ21Bの内部構成図である。診断結果データ21Bは、診断結果を示すデータである。診断履歴データ21A中の診断IDについて、秒ごとに区切った音階ごとの診断結果を記憶している。具体的には、図4(B)に示すように、「診断ID」「秒」「各音階の値」などが対応付けて記憶されている。「秒」は、音声を測定した際の秒数である。例えば、ユーザ端末10において10秒間音声を測定する場合は、1、2、3、・・・、8、9、10となる。「各音階の値」は、各音階における声のパワーであり、例えば声の大きさ(dB)である。 FIG. 4B is an internal configuration diagram of the diagnosis result data 21B stored in the storage unit 21. As shown in FIG. The diagnosis result data 21B is data indicating the diagnosis result. For the diagnosis ID in the diagnosis history data 21A, the diagnosis result is stored for each scale divided by seconds. Specifically, as shown in FIG. 4B, "diagnosis ID", "second", "value of each scale", etc. are associated and stored. "Second" is the number of seconds when the sound was measured. For example, when the user terminal 10 measures the voice for 10 seconds, it becomes 1, 2, 3, . . . The "value of each scale" is the voice power in each scale, for example, the loudness (dB) of the voice.

図4(C)は、記憶部21に記憶されている診断マスタデータ21Cの内部構成図である。診断マスタデータ21Cは、診断結果をユーザ端末10に返却する際に、診断結果値によって返却するメッセージを出し分けるためのマスタである。具体的には、図4(C)に示すように、「音階」「カラー」「意味」「タイプ」「特徴」「課題」などが対応付けて記憶されている。例えば、音階Cに対応するヴォイスカラーは、レッドRである。「意味」は、その音階(ヴォイスカラー)の意味である。「タイプ」は、その音階が最大の音階であるユーザの声のタイプである。「特徴」は、その音階が最大の音階であるユーザの特徴を示す情報である。「課題」は、その音階が最小の音階であるユーザの課題を示す情報である。「タイプ」「特徴」「課題」は、ユーザが視認可能な文字情報であり、音声心理について知識がないユーザでも理解できる内容になっている。 FIG. 4C is an internal configuration diagram of the diagnostic master data 21C stored in the storage unit 21. As shown in FIG. The diagnostic master data 21C is a master for sorting messages to be returned according to diagnostic result values when returning diagnostic results to the user terminal 10 . Specifically, as shown in FIG. 4(C), "scale", "color", "meaning", "type", "feature", "task", etc. are associated and stored. For example, the voice color corresponding to scale C is red R. "Meaning" is the meaning of the scale (voice color). "Type" is the type of user's voice whose scale is the highest scale. The “feature” is information indicating features of the user whose scale is the maximum scale. "Task" is information indicating the task of the user whose scale is the smallest scale. The "type", "feature", and "task" are character information that can be visually recognized by the user, and the content is such that even a user with no knowledge of speech psychology can understand.

[ブラウザフィンガープリント]
Webサイトの閲覧者の識別や同定を行うために算出する、端末に固有の短いデータ列をブラウザフィンガープリントという。ブラウザフィンガープリントによれば、Cookieなどのように閲覧者の端末にデータを永続的に書き込む機能を用いなくても、端末の識別が可能である。フィンガープリントを算出するアルゴリズムは特に限定されるものではないが、ユーザ端末10のブラウザから取得できる複数の情報を元に算出するのが望ましい。本実施形態では、「Fingerprintjs2」を利用し、今回のユーザが過去のユーザと同一人物であるかどうかの判定のみ行うようにしている。このようなブラウザフィンガープリント技術によれば、ユーザごとの利用頻度の判定を行うことができるだけでなく、個人を特定せず同一人物であるかどうかを判定することができる。
[Browser Fingerprint]
A short data string unique to a terminal, which is calculated to identify or identify a viewer of a website, is called a browser fingerprint. According to the browser fingerprint, it is possible to identify the terminal without using a function such as a cookie that permanently writes data to the terminal of the viewer. Algorithm for calculating the fingerprint is not particularly limited, but it is desirable to calculate based on a plurality of pieces of information that can be obtained from the browser of the user terminal 10 . In this embodiment, "Fingerprintjs2" is used to determine whether or not the current user is the same as the past user. According to such a browser fingerprint technology, it is possible not only to determine the frequency of use for each user, but also to determine whether or not it is the same person without specifying the individual.

[分布図表]
図5は、第1実施形態における分布図表であり、図5(A)は表形式の分布図表、図5(B)は図形式の分布図表を示している。形式は異なるものの、内容は同じである。
[Distribution chart]
5A and 5B are distribution charts in the first embodiment, FIG. 5A showing a distribution chart in tabular form, and FIG. 5B showing a distribution chart in graphic form. The format is different, but the content is the same.

例えば、表形式の分布図表では、図5(A)に示すように、12音階に対応するヴォイスカラーM、V、N、B、A、E、L、Y、G、O、C、Rを縦方向に並べている。M(シ)はマゼンタ、V(ラ#)はバイオレット、N(ラ)はネイビー、B(ソ#)はブルー、A(ソ)はアクア、E(ファ#)はエメラルドグリーン、L(ファ)はライムグリーン、Y(ミ)はイエロー、G(レ#)はゴールド、O(レ)はオレンジ、C(ド#)はコーラル、R(ド)はレッドである。実際の画面では、各ヴォイスカラーで12音階を色分けしている。各音階(各ヴォイスカラー)の意味は、図1に示される通りである。 For example, in a tabular distribution chart, as shown in FIG. arranged vertically. M is magenta, V is violet, N is navy, B is blue, A is aqua, E is emerald green, and L is is lime green, Y is yellow, G is gold, O is orange, C is coral, and R is red. On the actual screen, each voice color is divided into 12 scales. The meaning of each scale (each voice color) is as shown in FIG.

また、表形式の分布図表では、図5(A)に示すように、それぞれの音階における声のパワー(大きさ)を横方向に分布させている。ここでは、横方向を4つの領域に分けている場合を例示している。例えば、左から1番目の領域は64~123Hzの周波数域のオクターブ、左から2番目の領域は128~246Hzの周波数域のオクターブ、左から3番目の領域は4096~7900Hzの周波数域のオクターブ、左から4番目の領域は8192~15800Hzの周波数域のオクターブである。 In addition, in the distribution chart in tabular form, as shown in FIG. 5A, voice power (loudness) in each scale is distributed in the horizontal direction. Here, a case is illustrated in which the horizontal direction is divided into four regions. For example, the first area from the left is the octave of the frequency range of 64 to 123 Hz, the second area from the left is the octave of the frequency range of 128 to 246 Hz, the third area from the left is the octave of the frequency range of 4096 to 7900 Hz, The fourth region from the left is the octave of the frequency range from 8192-15800 Hz.

一方、図形式(円形)の分布図表では、図5(B)に示すように、12音階に対応するヴォイスカラーM、V、N、B、A、E、L、Y、G、O、C、Rを円周方向に並べている。ここでも、4重の円で4つの領域に分けている場合を例示している。例えば、内側から1番目の円周上の領域は64~123Hzの周波数域のオクターブ、内側から2番目の円周上の領域は128~246Hzの周波数域のオクターブ、内側から3番目の円周上の領域は4096~7900Hzの周波数域のオクターブ、内側から4番目の円周上の領域は8192~15800Hzの周波数域のオクターブである。 On the other hand, in the diagrammatic (circular) distribution chart, as shown in FIG. , R are arranged in the circumferential direction. Here, too, the case of dividing into four areas by four circles is illustrated. For example, the area on the first circumference from the inside is an octave of the frequency range from 64 to 123 Hz, the area on the second circumference from the inside is an octave from the frequency range from 128 to 246 Hz, and the area on the third circumference from the inside is an octave in the frequency range from 4096 to 7900 Hz, and the fourth area on the circumference from the inside is an octave in the frequency range from 8192 to 15800 Hz.

いずれの分布図表を用いるかは適宜選択することが可能である。例えば、表形式の分布図表は、図5(A)中に点線で示すように、人体の部位を12音階と対応付けて診断する場合に有用である。一方、図形式の分布図表は、図5(B)に示すように、外側の円における周波数域のオクターブが目立つため、強調して表示させることが可能である。 It is possible to appropriately select which distribution chart to use. For example, a tabular distribution chart is useful when diagnosing parts of the human body in association with the 12-tone scale, as indicated by dotted lines in FIG. 5(A). On the other hand, in the graphical distribution chart, as shown in FIG. 5B, the octave of the frequency range in the outer circle is conspicuous, so it can be displayed with emphasis.

[画面遷移例]
図6~図10は、第1実施形態におけるユーザ端末10の画面遷移図である。ユーザ端末10のブラウザは、音声診断装置20からWebページデータを受け取ると、グラフィックに変換して、このような画面を表示(描画)するようになっている。
[Screen transition example]
6 to 10 are screen transition diagrams of the user terminal 10 according to the first embodiment. When the browser of the user terminal 10 receives the web page data from the voice diagnosis device 20, it converts it into graphics and displays (renders) such a screen.

トップ画面D1には、図6に示すように、音声診断の概要が表示される。図6中の「さっそく診断する」ボタンB1を押下すると、図7に示すように、測定画面D2に遷移する。図7中の「測定開始」ボタンB2を押下すると、図8に示すように、測定時間(例えば10秒間)をインジケータIで表示し、測定時間が経過すると、図9に示すように、「結果を見る」ボタンB3が押下できる状態になる。図9中の「結果を見る」ボタンB3を押下すると、図10に示すように、診断結果画面D3が表示される。図10中の「もう一度診断する」ボタンB4を押下すると、トップ画面D1に戻るようになっている。 As shown in FIG. 6, the top screen D1 displays an overview of the voice diagnosis. When the "Diagnose Now" button B1 in FIG. 6 is pressed, the screen changes to the measurement screen D2 as shown in FIG. When the "measurement start" button B2 in FIG. 7 is pressed, the measurement time (for example, 10 seconds) is displayed with an indicator I as shown in FIG. "View" button B3 becomes a state in which it can be pressed. When the "view result" button B3 in FIG. 9 is pressed, a diagnosis result screen D3 is displayed as shown in FIG. When the "diagnose again" button B4 in FIG. 10 is pressed, the screen returns to the top screen D1.

[診断結果]
以下、診断結果画面D3について更に詳しく説明する。図10に示すように、診断結果画面D3には、あなたの声のタイプ11、あなたの声に多い色12、あなたの声に少ない色13、表形式の分布図表14A、図形式の分布図表14B、声からわかるあなたの性格・特徴15、あなたの課題16などが表示される。
[Diagnosis]
The diagnosis result screen D3 will be described in more detail below. As shown in FIG. 10, on the diagnosis result screen D3, your voice type 11, your voice has many colors 12, your voice has few colors 13, a tabular distribution chart 14A, and a diagrammatic distribution chart 14B. , your personality/characteristics 15 that can be understood from your voice, your tasks 16, and the like are displayed.

あなたの声のタイプ11は、ユーザの声のタイプを示す情報である。具体的には、診断マスタデータ21Cにおいて、最大の音階に対応付けられている「タイプ」に相当する。「最大の音階」は、「ユーザの声に最も多いヴォイスカラー」と言い換えることができ、ここでは「マゼンタ」の場合を例示している。あなたの声のタイプ11は、声のタイプを端的に表した比較的短い文字情報とするのが望ましい。例えば「マゼンタ」の場合は、「多少きついことを言っても許されてしまう、愛されボイス」等と表示される。 Your voice type 11 is information indicating the user's voice type. Specifically, it corresponds to the "type" associated with the maximum scale in the diagnostic master data 21C. The 'maximum scale' can be rephrased as 'the most common voice color in the user's voice', and the case of 'magenta' is exemplified here. Your voice type 11 is desirably relatively short character information that simply represents your voice type. For example, in the case of "magenta", it is displayed as "loved voice that will be forgiven even if you say something harsh".

あなたの声に多い色12は、ユーザの声に多いヴォイスカラーである。具体的には、各音階の周波数帯のdBの総和比率を高い順に並べたときの上位3つのヴォイスカラーに相当する。ここでは、最も多いヴォイスカラーが「マゼンタ」、2番目に多いヴォイスカラーが「バイオレット」、3番目に多いヴォイスカラーが「ネイビー」の場合を例示している。 Your voice color 12 is the user's voice color. Specifically, it corresponds to the top three voice colors when the total ratio of dB of the frequency band of each scale is arranged in descending order. Here, the most common voice color is "magenta", the second most common voice color is "violet", and the third most common voice color is "navy".

あなたの声に少ない色13は、ユーザの声に少ないヴォイスカラーである。具体的には、各音階の周波数帯のdBの総和比率を高い順に並べたときの下位3つのヴォイスカラーに相当する。ここでは、最も少ないヴォイスカラーが「レッド」、2番目に少ないヴォイスカラーが「アクア」、3番目に少ないヴォイスカラーが「グリーン」の場合を例示している。 Low in your voice color 13 is the low voice color of the user's voice. Specifically, it corresponds to the lower three voice colors when the total ratio of dB in the frequency band of each scale is arranged in descending order. In this example, the least voice color is "red", the second least voice color is "aqua", and the third least voice color is "green".

声からわかるあなたの性格・特徴15は、ユーザの特徴を示す情報である。具体的には、診断マスタデータ21Cにおいて、最大の音階に対応付けられている「特徴」に相当する。上記したように、「最大の音階」は、「ユーザの声に最も多いヴォイスカラー」と言い換えることができ、ここでは「マゼンタ」の場合を例示している。声からわかるあなたの性格・特徴15は、比較的長い文字情報とするのが望ましい。例えば「マゼンタ」の場合は、「広い視点に立ち、人を理解し、理解させることができます。・・・」等と表示される。 Your personality/characteristics 15 that can be understood from the voice is information indicating the characteristics of the user. Specifically, it corresponds to the "feature" associated with the maximum scale in the diagnostic master data 21C. As described above, the 'maximum scale' can be rephrased as 'the most common voice color of the user's voice', and the case of 'magenta' is exemplified here. Your personality/characteristics 15 that can be understood from your voice is preferably relatively long character information. For example, in the case of "magenta", it is displayed as "From a broad perspective, you can understand people and make them understand you...".

あなたの課題16は、ユーザの課題を示す情報である。具体的には、診断マスタデータ21Cにおいて、最小の音階に対応付けられている「課題」に相当する。「最小の音階」は、「ユーザの声に最も少ないヴォイスカラー」と言い換えることができ、ここでは「レッド」の場合を例示している。あなたの課題16も、比較的長い文字情報とするのが望ましい。例えば「レッド」の場合は、「動きすぎて、エネルギーが枯渇してしまう傾向にあります。・・・」等と表示される。 Your task 16 is information indicating the user's task. Specifically, in the diagnostic master data 21C, it corresponds to the "problem" associated with the lowest scale. The 'lowest scale' can be translated as 'the least voice color in the user's voice', here exemplified by the case of 'red'. Your assignment 16 should also be relatively long textual information. For example, in the case of "red", a message such as "I tend to move too much and run out of energy..." is displayed.

このように、診断結果画面D3では、上から下にいくにしたがって詳しい診断結果となり、最後にあなたの課題16が表示される。これにより、音声心理について知識がないユーザであっても、ユーザ自身で音声をセルフ診断して健康を促進させることができる。 In this way, on the diagnosis result screen D3, the diagnosis results become more detailed from top to bottom, and finally your problem 16 is displayed. As a result, even a user who does not have knowledge about the psychology of speech can self-diagnose speech by himself/herself to promote health.

[動作例]
図11は、第1実施形態における音声診断システムの動作例を示すシーケンス図である。以下、図11を用いて本システムの構成をその動作とともに説明する。
[Example of operation]
FIG. 11 is a sequence diagram showing an operation example of the voice diagnosis system according to the first embodiment. The configuration of this system and its operation will be described below with reference to FIG.

まず、ユーザ端末10においてURL(Uniform Resource Locator)が入力されると(ステップS1)、ユーザ端末10から音声診断装置20に要求が出される。これにより、音声診断装置20からユーザ端末10にトップ画面D1が返され、ユーザ端末10にトップ画面D1が表示される(ステップS2→S3)。 First, when a URL (Uniform Resource Locator) is input at the user terminal 10 (step S1), the user terminal 10 issues a request to the voice diagnostic apparatus 20 . As a result, the top screen D1 is returned from the voice diagnosis device 20 to the user terminal 10, and the top screen D1 is displayed on the user terminal 10 (steps S2→S3).

次いで、ユーザ端末10に表示されたトップ画面D1において「さっそく診断する」ボタンB1が押下されると(ステップS4)、ユーザ端末10から音声診断装置20にブラウザコードが通知される。これにより、音声診断装置20においてブラウザコードが取得されるので、ブラウザコードを使って同一人物であるかどうかを判定し、所定期間(例えば1日)あたりの実行回数を制限する(ステップS5→S6→S7)。 Next, when the user presses the "diagnose now" button B1 on the top screen D1 displayed on the user terminal 10 (step S4), the user terminal 10 notifies the audio diagnosis device 20 of the browser code. As a result, the browser code is acquired in the voice diagnosis apparatus 20, and the browser code is used to determine whether the person is the same person, and limit the number of executions per predetermined period (for example, one day) (step S5→S6). →S7).

具体的には、記憶部21に記憶されている診断履歴データ21Aを参照することによって、今回のユーザが過去のユーザと同一人物であるかどうかが判定され、同一人物である場合は、回数制限(例えば8回/日)を超えていないかどうかが判定される。その結果、回数制限を超えていない場合は、認証に成功したと判定され、音声診断装置20からユーザ端末10に測定画面D2が返され、ユーザ端末10に測定画面D2が表示される(ステップS7→S8→S9)。一方、回数制限を超えている場合は、認証に失敗したと判定され、その旨が音声診断装置20からユーザ端末10に通知される(ステップS7→S2→S3)。 Specifically, by referring to the diagnosis history data 21A stored in the storage unit 21, it is determined whether or not the current user is the same person as the past user. (e.g., 8 times/day). As a result, when the number limit is not exceeded, it is determined that the authentication has succeeded, the measurement screen D2 is returned from the voice diagnosis device 20 to the user terminal 10, and the measurement screen D2 is displayed on the user terminal 10 (step S7). →S8→S9). On the other hand, if the number of times limit is exceeded, it is determined that the authentication has failed, and the voice diagnosis device 20 notifies the user terminal 10 to that effect (steps S7→S2→S3).

次いで、ユーザ端末10に表示された測定画面D2において「測定開始」ボタンB2が押下されると(ステップS10)、例えば10秒間、音声を測定(録音)するモードになる。これにより、ユーザ端末10のヘッドセットHから声が入力されると、そのアナログ音声信号は、PCM(Pulse Code Modulation)等の手法でデジタル音声信号に変換され、音声データとして保存される(ステップS11)。その間、測定画面D2中のインジケータIに時間の経過が表示されるようになっている。 Next, when the "measurement start" button B2 is pressed on the measurement screen D2 displayed on the user terminal 10 (step S10), a mode for measuring (recording) voice for 10 seconds, for example, is entered. As a result, when a voice is input from the headset H of the user terminal 10, the analog voice signal is converted into a digital voice signal by a technique such as PCM (Pulse Code Modulation) and stored as voice data (step S11). ). During that time, the elapsed time is displayed on the indicator I in the measurement screen D2.

次いで、ユーザ端末10に表示された測定画面D2において「結果を見る」ボタンB3が押下されると(ステップS12)、ユーザ端末10から音声診断装置20に音声データが通知される。これにより、音声診断装置20において音声データが取得され、取得された音声データがフーリエ変換によって音声周波数データに変換され、変換された音声周波数データが分布図表に分布される(ステップS13→S14→S15)。また、変換された音声周波数データについて、最大の音階と最小の音階が決定され、決定された最大の音階と最小の音階に基づいて音声が診断される(ステップS16→S17)。 Next, when the "view results" button B3 is pressed on the measurement screen D2 displayed on the user terminal 10 (step S12), the user terminal 10 notifies the audio diagnosis device 20 of audio data. As a result, voice data is acquired in the voice diagnostic apparatus 20, the acquired voice data is converted into voice frequency data by Fourier transform, and the transformed voice frequency data is distributed in the distribution chart (steps S13→S14→S15). ). Further, the maximum scale and the minimum scale are determined for the converted voice frequency data, and the sound is diagnosed based on the determined maximum scale and minimum scale (step S16→S17).

この診断の際には診断マスタデータ21Cが参照される。例えば、最大の音階が音階Bの場合は、音階Bと対応付けられている情報(例えば、マゼンタ、慈愛力など)が抽出される。また、最小の音階が音階Cの場合は、音階Cと対応付けられている情報(例えば、レッド、行動力など)が抽出される。診断履歴データ21Aと診断結果データ21Bが保存されると(ステップS18)、音声診断装置20からユーザ端末10に診断結果画面D3が提供され、ユーザ端末10に診断結果画面D3が表示される(ステップS19→S20)。 The diagnosis master data 21C is referred to during this diagnosis. For example, if the largest scale is scale B, information associated with scale B (eg, magenta, compassionate power, etc.) is extracted. If the lowest scale is scale C, information associated with scale C (for example, red, energy, etc.) is extracted. When the diagnosis history data 21A and the diagnosis result data 21B are saved (step S18), the diagnosis result screen D3 is provided from the voice diagnosis device 20 to the user terminal 10, and the diagnosis result screen D3 is displayed on the user terminal 10 (step S18). S19→S20).

ユーザは、声の録音に失敗した場合などには、診断をやり直すことができる。すなわち、ユーザ端末10に表示された診断結果画面D3において「もう一度診断する」ボタンB4が押下されると(ステップS21)、トップ画面D1に戻る(ステップS2→S3)。診断を繰り返し(ステップS4→S5→・・・)、1日あたりの実行回数を超えた場合は、その旨を示すメッセージが表示されるようになっている(ステップS7→S2→S3)。 The user can redo the diagnosis, such as when voice recording fails. That is, when the "diagnose again" button B4 is pressed on the diagnosis result screen D3 displayed on the user terminal 10 (step S21), the screen returns to the top screen D1 (step S2→S3). Diagnosis is repeated (steps S4→S5→...), and if the number of times of execution per day is exceeded, a message to that effect is displayed (steps S7→S2→S3).

以上のように、第1実施形態によれば、ユーザ端末10に表示される画面の説明に従って声を出すだけで、ユーザに理解しやすいかたちで診断結果に表示される。すなわち、ユーザは、音声心理について知識がなくても、診断結果画面D3を上から順に読み進めることで、診断結果を簡単に理解することができる。特に、声からわかるあなたの性格・特徴15と、あなたの課題16は、比較的長い文章であるため、音声心理士からアドバイスを受けているような感覚でセルフ診断を行うことが可能である。 As described above, according to the first embodiment, the diagnostic result is displayed in a form that is easy for the user to understand, simply by following the explanation on the screen displayed on the user terminal 10 and speaking out loud. That is, even if the user does not have knowledge of speech psychology, the user can easily understand the diagnosis result by reading the diagnosis result screen D3 from top to bottom. In particular, since your personality/characteristics 15 that can be understood from your voice and your task 16 are relatively long sentences, you can make a self-diagnosis as if you were receiving advice from a speech psychologist.

なお、上記の説明では、最大の音階と最小の音階の両方が決定され、声からわかるあなたの性格・特徴15と、あなたの課題16の両方がユーザ端末10に提供される場合を例示したが、本発明はこれに限定されるものではない。すなわち、最大の音階と最小の音階のどちらか一方だけが決定され、声からわかるあなたの性格・特徴15と、あなたの課題16のどちらか一方だけがユーザ端末10に提供されるようにしてもよい。 In the above description, both the maximum scale and the minimum scale are determined, and both your personality/characteristics 15 that can be understood from your voice and your task 16 are provided to the user terminal 10 as an example. , the invention is not limited thereto. That is, even if only one of the maximum scale and the minimum scale is determined, and only one of your personality/characteristics 15 that can be understood from your voice and your task 16 is provided to the user terminal 10 good.

また、上記の説明では言及しなかったが、今回の診断結果と過去の診断結果とを比較してユーザの課題の改善度を診断してもよい。例えば、「もう一度診断する」ボタンB4が押下され、同様の手順で診断された場合、最小の音階の大きさ(dB)が前回と比較してどの程度改善されたかを数値化し、診断結果画面D3に表示するようにしてもよい。これにより、ユーザに理解しやすいかたちで課題の改善度を提示することができるため、ユーザ自身で継続的に課題の改善に取り組みやすくなる。 Also, although not mentioned in the above description, the current diagnosis result and the past diagnosis result may be compared to diagnose the degree of improvement of the user's problem. For example, when the "Diagnose again" button B4 is pressed and a diagnosis is made in the same procedure, the degree of improvement in the minimum scale magnitude (dB) compared to the previous time is quantified and displayed on the diagnosis result screen D3. may be displayed in As a result, it is possible to present the degree of improvement of the issue in an easy-to-understand form for the user, so that the user can easily make continuous efforts to improve the issue.

《第2実施形態》
以下、第2実施形態について説明する。なお、以下の説明では、第1実施形態と異なる部分を中心に説明することとし、同様の部分については詳しい説明を省略する。
<<Second embodiment>>
A second embodiment will be described below. In addition, in the following description, the parts different from the first embodiment will be mainly described, and the detailed description of the same parts will be omitted.

既に説明したように、音声診断は、自分の声を知り、自分の声を整えることで健康を促進させるメソッドである。従来は、音声診断の結果、自分をよくするための処方箋がわかっても、それで実際に音声が改善されているのかわからない場合があった。例えば、自然と触れる、散歩する、音楽を聞く等、自分自身に適した処方箋がわかっても、それを実践するのはハードルが高く、続けることが難しい。そこで、第2実施形態では、よりユーザ自身で健康を促進させやすくするため、以下の手法を採用している。 As already explained, voice diagnosis is a method for promoting health by knowing one's own voice and adjusting one's voice. Conventionally, even if a voice diagnosis results in a prescription for improving oneself, there are cases in which it is not clear whether the voice has actually improved. For example, even if you know a prescription that suits you, such as getting in touch with nature, taking a walk, or listening to music, putting it into practice is a high hurdle and difficult to continue. Therefore, in the second embodiment, the following method is adopted in order to make it easier for the user to promote his or her own health.

[フルサウンドヴォイス]
本発明者は、これまで約2万人の音声を診断し、カウンセリングを行ってきた。その人の思考パターンを音声変換ソフトで可視化し、音階と心の領域の関係性を突き止めた。また、聞こえない音域をも含む8オクターブまで読み解くことによって、音の全域で全倍音がバランスよく共鳴する声(以下、フルサウンドヴォイス)になることが重要であることを突き止め、さらに、フルサウンドヴォイスになるには、軟口蓋を開くことが鍵となることを突き止めた。軟口蓋とは、口腔の中の硬口蓋の奥の方のやわらかい部分をいう。軟口蓋を開くには、苦手分野(課題)のヴォイスカラーの音やその補色になるヴォイスカラーの音を出すことによって、苦手意識を変化させるワークを行うのが効果的である。
[Full Sound Voice]
The inventor has so far diagnosed the voices of about 20,000 people and provided counseling. We visualized the person's thinking pattern with voice conversion software and identified the relationship between the musical scale and the area of the mind. In addition, by deciphering up to 8 octaves, including the inaudible range, it was found that it is important to have a voice that resonates with a good balance of all overtones in the entire sound range (hereinafter referred to as a full sound voice). I found that opening the soft palate was the key to becoming a . The soft palate is the soft part behind the hard palate in the oral cavity. In order to open the soft palate, it is effective to work to change the perception of weakness by producing the sound of the voice color of the weak field (task) or the voice color of its complementary color.

[音声診断装置]
図12は、第2実施形態における音声診断装置20の機能ブロック図である。この音声診断装置20は、図12に示すように、ゾーン判定部30を備える。また、記憶部21は、ゾーンデータ21E、トレーニング音データ(以下、トレーニング音)21Fなどを記憶している。
[Voice diagnosis device]
FIG. 12 is a functional block diagram of the speech diagnosis device 20 according to the second embodiment. This voice diagnosis device 20 includes a zone determination section 30 as shown in FIG. The storage unit 21 also stores zone data 21E, training sound data (hereinafter referred to as training sound) 21F, and the like.

ゾーン判定部30は、決定部26によって決定された最小の音階に基づいて、軟口蓋の開き度を改善するための発声トレーニングゾーンを判定する。この発声トレーニングゾーンごと(音階ごと)に対応するトレーニング音21Fが記憶部21に記憶されている。トレーニング音21Fは、例えば、倍音楽器の音に関するデジタルデータである。これにより、提供部22は、ゾーン判定部30によって判定された発声トレーニングゾーンに対応するトレーニング音21Fをユーザに提供しつつ、そのトレーニング音21Fに合わせてユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報をユーザに提供する。 The zone determination unit 30 determines a vocalization training zone for improving the degree of opening of the soft palate based on the minimum scale determined by the determination unit 26 . A training sound 21F corresponding to each utterance training zone (for each scale) is stored in the storage unit 21 . The training sound 21F is, for example, digital data relating to harmonic overtone sounds. Thereby, the providing unit 22 provides the user with the training sound 21F corresponding to the vocalization training zone determined by the zone determining unit 30, and causes the user to vocalize in accordance with the training sound 21F. Provide users with data-driven information that indicates the effectiveness of their training.

[データ例]
図13は、第2実施形態におけるゾーンデータ21Eの概念図である。ゾーンデータ21Eは、軟口蓋の開き度を改善するための発声トレーニングゾーンを規定するデータであり、円環図を用いて音階と発声トレーニングゾーンを対応付けている。
[Data example]
FIG. 13 is a conceptual diagram of zone data 21E in the second embodiment. The zone data 21E is data that defines vocalization training zones for improving the degree of opening of the soft palate, and associates scales with vocalization training zones using a circular ring diagram.

例えば、図13に示すように、音階ドは、マゼンタゾーン及びレッドゾーンに対応し、音階レは、レッドゾーン及びオレンジゾーンに対応し、音階ミは、オレンジゾーン及びイエローゾーンに対応し、音階ファは、イエローゾーン及びグリーンゾーンに対応し、音階ソは、グリーンゾーン及びブルーゾーンに対応し、音階ラは、ブルーゾーン及びマゼンタゾーンに対応し、音階シは、マゼンタゾーンに対応している。 For example, as shown in FIG. 13, the scale Do corresponds to the magenta and red zones, the scale Re corresponds to the red and orange zones, the scale Mi corresponds to the orange and yellow zones, and the scale F. corresponds to the yellow and green zones, the scale So corresponds to the green and blue zones, the scale La corresponds to the blue and magenta zones, and the scale C corresponds to the magenta zone.

[分布図表]
図14は、第2実施形態における分布図表を示す模式図である。ここでは、12音階を「ド~レ♯」「ミ~ソ」「ソ♯~シ」に分割するとともに、音域を「低音域」「中音域」「高音域」に分割している。図中、「低音域」「中音域」「高音域」に対応させて描いている周波数(Hz)は例示であり、任意のオクターブの音域に設定することができる。このような分布図表をユーザ端末10に表示することによって声の響き方の弱い部分(どの音域が出にくいか)を確認し、トレーニング音21Fにあわせて声を出しながら声の響きを改善する。
[Distribution chart]
FIG. 14 is a schematic diagram showing a distribution chart in the second embodiment. Here, the 12-tone scale is divided into "do-re#", "mi-so", and "so#-si", and the sound range is divided into "low range", "middle range" and "high range". In the drawing, the frequencies (Hz) drawn corresponding to the "low range", "middle range", and "high range" are examples, and can be set to any octave range. By displaying such a distribution chart on the user terminal 10, the part where the sound of the voice is weak (which sound range is hard to come out) is confirmed, and the sound of the voice is improved while vocalizing along with the training sound 21F.

[画面遷移例]
図15は、第2実施形態におけるユーザ端末10に表示されたトレーニング画面D4であって、図15(A)はトレーニング前、図15(B)はトレーニング後を示している。この図では、分布図表の部分だけを描いているが、トレーニングの方法やトレーニング効果を示す文字情報のほか、各種のボタンが設けられていてもよい。
[Screen transition example]
FIG. 15 shows a training screen D4 displayed on the user terminal 10 according to the second embodiment, where FIG. 15(A) shows before training and FIG. 15(B) shows after training. Although only the distribution chart portion is shown in this figure, various buttons may be provided in addition to character information indicating training methods and training effects.

例えば、トレーニング前は、図15(A)に示すように、約30%の音域しか声が出ていない。このように音域の分布が偏っているときは、十分に発声できていないゾーン(例えばマゼンタゾーン)があり、軟口蓋があまり開いていない。そこで、このような場合は、マゼンタゾーンに対応するトレーニング音21Fをユーザに聞かせ、そのトレーニング音21Fに合わせてユーザに声を出させる。 For example, before training, as shown in FIG. 15(A), only about 30% of the vocal range is voiced. When the range distribution is biased like this, there is a zone (for example, magenta zone) in which the vocalization is not sufficiently performed, and the soft palate is not very open. Therefore, in such a case, the user is made to listen to the training sound 21F corresponding to the magenta zone and vocalize along with the training sound 21F.

これにより、トレーニング後は、図15(B)に示すように、約100%の音域で声が出ている。軟口蓋の開き具合は波形の面積の広さに対応している。このように12色の声の波形が万遍なく出ているときほど、軟口蓋が開いている発声法ということができる。本発明では、このような声を「フルサウンドヴォイス」と呼んでいる。フルサウンドヴォイスが出るように発声をトレーニングすることで、自分の声を整え、健康を促進させることができる。 As a result, after the training, as shown in FIG. 15(B), the vocal range is about 100%. The degree of opening of the soft palate corresponds to the width of the corrugated area. It can be said that the soft palate is more open when the vocal waveforms of 12 colors are evenly distributed. In the present invention, such voice is called "full sound voice". By training your vocalizations to produce a full sound voice, you can shape your voice and promote health.

[動作例]
図16は、第2実施形態における音声診断システムの動作例を示すシーケンス図である。ここでは図示を省略するが、診断結果画面D3の最後に「トレーニングする」ボタンが設けられているものとする。もちろん、トレーニングするための操作が可能であればよく、このようなボタン操作に限定されるものではない。
[Example of operation]
FIG. 16 is a sequence diagram showing an operation example of the voice diagnosis system according to the second embodiment. Although illustration is omitted here, it is assumed that a "train" button is provided at the end of the diagnosis result screen D3. Of course, it is sufficient if the operation for training is possible, and is not limited to such button operation.

まず、ユーザ端末10に表示された診断結果画面D3において「トレーニングする」ボタンが押下されると(ステップS31→S32)、その旨がユーザ端末10から音声診断装置20に通知され、音声診断装置20において発声トレーニングゾーンが判定される。例えば、最小の音階が音階B(シの音)の場合は、マゼンタが苦手分野のヴォイスカラーである。そのため、このような場合は、マゼンタゾーンが発声トレーニングゾーンと判定される。あるいは、マゼンタゾーンと補色の関係にあるイエローゾーンが発声トレーニングゾーンと判定されてもよい。補色とは、色相関における反対側の色のことであり、図13の円環図を用いて判定することが可能である。 First, when the "Train" button is pressed on the diagnostic result screen D3 displayed on the user terminal 10 (steps S31→S32), the user terminal 10 notifies the audio diagnostic device 20 of the fact, and the audio diagnostic device 20 A vocal training zone is determined at . For example, if the lowest scale is scale B (the sound of B), magenta is the weak voice color. Therefore, in such a case, the magenta zone is determined as the vocalization training zone. Alternatively, the yellow zone, which has a complementary color relationship with the magenta zone, may be determined as the vocalization training zone. A complementary color is a color on the opposite side of the color correlation, and can be determined using the ring diagram of FIG.

このように発声トレーニングゾーンが判定されると、その発声トレーニングゾーンに対応するトレーニング音21Fが特定され、音声診断装置20からユーザ端末10にトレーニング画面D4が提供される(ステップS33→S34→S35)。トレーニング画面D4の内容は特に限定されるものではないが、例えば、図15に示すような分布図表が設けられる。そのほか、「トレーニング音に合わせて声を出し続けてください」等のメッセージや、「トレーニング開始」ボタンが設けられているものとする。 When the vocalization training zone is determined in this way, the training sound 21F corresponding to the vocalization training zone is specified, and the training screen D4 is provided from the speech diagnosis device 20 to the user terminal 10 (steps S33→S34→S35). . Although the content of the training screen D4 is not particularly limited, for example, a distribution chart as shown in FIG. 15 is provided. In addition, it is assumed that a message such as "Keep vocalizing along with the training sound" and a "Start training" button are provided.

次いで、ユーザ端末10に表示されたトレーニング画面D4において「トレーニング開始」ボタンが押下されると(ステップS36→S37)、例えば3分間、ヘッドセットHからトレーニング音21Fが出力される(ステップS38)。そのトレーニング音21Fに合わせてユーザが声を出すと、その音声が録音され、その音声データがリアルタイムにユーザ端末10から音声診断装置20に通知される(ステップS38)。これにより、音声診断装置20において図11のステップS13~S18と同様の処理が実行された後、音声診断装置20からユーザ端末10に分布図表などのトレーニング結果が提供される(ステップS39→S40)。 Next, when the "training start" button is pressed on the training screen D4 displayed on the user terminal 10 (steps S36→S37), the training sound 21F is output from the headset H for 3 minutes, for example (step S38). When the user speaks along with the training sound 21F, the voice is recorded, and the voice data is notified from the user terminal 10 to the voice diagnostic device 20 in real time (step S38). As a result, after the voice diagnosis device 20 performs the same processing as steps S13 to S18 in FIG. 11, the voice diagnosis device 20 provides the user terminal 10 with training results such as a distribution chart (steps S39→S40). .

これにより、ユーザ端末10に表示されたトレーニング画面D4においてリアルタイムにトレーニング結果が反映される(ステップS41)。すなわち、ユーザがヘッドセットHから出力されるトレーニング音21Fに合わせて声を出すと、その声の響きがリアルタイムに分布図表に反映される。このような処理を繰り返し(ステップS42→S38→・・・)、3分経過すると、トレーニングを終了するようになっている。 As a result, the training result is reflected in real time on the training screen D4 displayed on the user terminal 10 (step S41). That is, when the user speaks along with the training sound 21F output from the headset H, the resonance of the voice is reflected in the distribution chart in real time. Such processing is repeated (steps S42→S38→...), and after 3 minutes have passed, the training ends.

以上のように、第2実施形態によれば、第1実施形態のように音声を診断した後、ユーザ自身で課題の改善に取り組むことができる。すなわち、ユーザは、トレーニング音21Fにあわせて声を出しているだけで、自分で声の波形を見ながら自分の声をトレーニングすることができ、かつ、そのトレーニングの効果を画面で確認することが可能である。 As described above, according to the second embodiment, after diagnosing the voice as in the first embodiment, the user himself/herself can work to improve the problem. In other words, the user can train his or her voice while looking at the waveform of the voice, and can confirm the effect of the training on the screen, just by speaking along with the training sound 21F. It is possible.

現在、ヴォイストレーニングは、ヴォイストレーナーのもとアナログな方法で行われるのが一般的であり、効果を計測することが難しい。本発明のようにデジタル技術を活用して自分でトレーニングすることができ、そのトレーニングの効果も図表で視認できるシステムは非常に実用的価値が高いと言える。 Currently, voice training is generally performed in an analog way under the guidance of a voice trainer, making it difficult to measure the effects. It can be said that a system like the present invention, in which a person can train by himself/herself using digital technology and can visually recognize the effect of the training in a chart, has a very high practical value.

なお、上記の説明では、第1実施形態(図11のステップS13~S18)と同様の音声診断を行うこととしているが(ステップS39)、本発明はこれに限定されるものではない。すなわち、第2実施形態では、課題の改善に取り組むことを主眼としているため、少なくとも最小の音階が決定されればよく、最大の音階が決定されることは必須ではない。ただし、最大の音階が決定されれば、自分の性格や特徴がわかるため、自己認識を深めることができ、課題の改善に取り組みやすくなる。そのため、第2実施形態でも、第1実施形態(図11のステップS13~S18)と同様の音声診断を行うことは、トレーニングの効果を高める観点から推奨される。 In the above description, the same voice diagnosis as in the first embodiment (steps S13 to S18 in FIG. 11) is performed (step S39), but the present invention is not limited to this. That is, in the second embodiment, since the main aim is to address the problem, it is sufficient to determine at least the minimum scale, and it is not essential to determine the maximum scale. However, once the maximum scale is determined, you can understand your own personality and characteristics, so you can deepen your self-awareness and make it easier to work on improving your problems. Therefore, in the second embodiment as well, it is recommended to perform the same voice diagnosis as in the first embodiment (steps S13 to S18 in FIG. 11) from the viewpoint of enhancing the effect of training.

《ハードウェア構成例》
図17は、本発明の実施形態における音声診断装置20のハードウェア構成図である。ここでは、音声診断装置20を例示するが、ユーザ端末10についても基本的には同じである。
《Hardware configuration example》
FIG. 17 is a hardware configuration diagram of the audio diagnostic device 20 according to the embodiment of the present invention. Here, the voice diagnosis device 20 is illustrated, but the user terminal 10 is basically the same.

既に説明したように、音声診断装置20はコンピュータである。例えば、図17に示すように、プロセッサ20A、メモリ20B、記憶部20C、IF(Interface)部20D、入出力部20E、読取部20Fがバス20Iを介して相互に通信可能に接続されている。プロセッサ20Aは、種々の制御や演算を行なう演算処理装置である。メモリ20Bは、種々のデータやプログラムを記憶する揮発性メモリである。記憶部20Cは、種々のデータやプログラムを記憶する不揮発性メモリである。IF部20Dは、他の端末との間の通信の制御等を行う機能部である。入出力部20Eは、データを入力する入力装置、及びデータを出力する出力装置である。読取部20Fは、コンピュータ読取可能な記録媒体に記録されたデータやプログラムを読み出す装置である。ここでは図示していないが、音声診断装置20にヘッドセットHが接続されていてもよいことはもちろんである。 As already explained, the voice diagnosis device 20 is a computer. For example, as shown in FIG. 17, a processor 20A, a memory 20B, a storage section 20C, an IF (Interface) section 20D, an input/output section 20E, and a reading section 20F are communicably connected to each other via a bus 20I. The processor 20A is an arithmetic processing unit that performs various controls and operations. The memory 20B is a volatile memory that stores various data and programs. The storage unit 20C is a nonvolatile memory that stores various data and programs. The IF unit 20D is a functional unit that controls communication with other terminals. The input/output unit 20E is an input device for inputting data and an output device for outputting data. The reading unit 20F is a device that reads data and programs recorded on a computer-readable recording medium. Although not shown here, it goes without saying that a headset H may be connected to the speech diagnosis device 20 .

《本発明の特徴的な構成とその効果》
以上のように、本発明の実施形態における音声診断装置20は、音声を診断する装置であって、音階ごとに特徴情報及び/又は課題情報を対応付けて記憶する記憶部21と、ユーザによって入力された音声データを音声周波数データに変換する変換部24と、変換部24によって変換された音声周波数データについて、オクターブに占める割合が最大の音階及び/又は最小の音階を決定する決定部26と、決定部26によって決定された最大の音階及び/又は最小の音階に基づいてユーザの音声を診断する診断部27と、ユーザに音声診断について説明する画面を提供して音声の入力開始を促すとともに、診断部27によって診断された診断結果をユーザに提供する提供部22とを備える。診断部27は、決定部26によって最大の音階が決定された場合、その最大の音階に対応付けて記憶部21に記憶されている特徴情報をユーザの特徴を示す情報とする。また、決定部26によって最小の音階が決定された場合、その最小の音階に対応付けて記憶部21に記憶されている課題情報をユーザの課題を示す情報とする。これにより、ユーザ端末10に表示される画面の説明に従って声を出すだけで、ユーザに理解しやすいかたちで診断結果に表示される。そのため、音声心理について知識がないユーザであっても、ユーザ自身で音声をセルフ診断して健康を促進させることができる。
<<Characteristic configuration of the present invention and its effect>>
As described above, the speech diagnosis apparatus 20 according to the embodiment of the present invention is an apparatus for diagnosing speech, and includes the storage unit 21 that stores feature information and/or task information associated with each scale, and input by the user. a conversion unit 24 for converting the converted audio data into audio frequency data; a determination unit 26 for determining the scale having the maximum and/or minimum ratio in the octave for the audio frequency data converted by the conversion unit 24; A diagnosis unit 27 that diagnoses the user's voice based on the maximum scale and / or the minimum scale determined by the determination unit 26, and provides a screen explaining the voice diagnosis to the user to prompt the start of voice input, and a provision unit 22 for providing a user with the diagnosis result diagnosed by the diagnosis unit 27 . When the maximum scale is determined by the determination unit 26, the diagnosis unit 27 uses the characteristic information stored in the storage unit 21 in association with the maximum scale as information indicating the characteristics of the user. Further, when the minimum scale is determined by the determination unit 26, the task information stored in the storage unit 21 in association with the minimum scale is used as information indicating the user's task. As a result, the diagnostic result is displayed in a form that is easy for the user to understand, simply by following the explanation on the screen displayed on the user terminal 10 and speaking out. Therefore, even a user who does not have knowledge about speech psychology can self-diagnose speech by himself/herself to promote health.

更に、ユーザに音声診断について説明する画面を提供(ステップS2)した後、ユーザが音声の入力開始を指示する操作(ステップS10)の前に、ブラウザフィンガープリントによって個人を特定することなくユーザを認証する認証部28を備えてもよい(ステップS5→S6→S7)。これにより、事前にユーザ登録しなくても、必要なタイミングで適切にユーザを認証することができる。そのため、匿名性を確保しつつ、診断結果を個人ごとにグルーピングし、人物ごとに診断結果を蓄積していくことが可能になる。このようなブラウザフィンガープリントによれば、将来、AIを使った診断手法などの拡張性をもたせることも可能になる。音声診断は、個人の心理状態、健康状態又は思考パターンに関係する診断であるため、匿名性を確保しつつ、ユーザを認証する仕組みは非常に重要である。 Furthermore, after providing a screen explaining the voice diagnosis to the user (step S2), before the user instructs to start inputting voice (step S10), the user is authenticated by the browser fingerprint without identifying the individual. You may provide the authentication part 28 which carries out (step S5 ->S6 ->S7). As a result, the user can be appropriately authenticated at the required timing without prior user registration. Therefore, it is possible to group diagnosis results for each individual and accumulate diagnosis results for each person while ensuring anonymity. With such a browser fingerprint, it will be possible in the future to have extensibility such as a diagnostic method using AI. Since voice diagnosis is a diagnosis related to an individual's psychological state, health condition, or thought pattern, a mechanism for authenticating the user while ensuring anonymity is very important.

更に、決定部26によって決定された最小の音階に基づいて、軟口蓋の開き度を改善するための発声トレーニングゾーンを判定するゾーン判定部30を備えてもよい。この場合、記憶部21は、発声トレーニングゾーンごとに対応するトレーニング音21Fを記憶する。また、提供部22は、ゾーン判定部30によって判定された発声トレーニングゾーンに対応するトレーニング音21Fをユーザに提供しつつ、そのトレーニング音21Fに合わせてユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報(例えば分布図表)をユーザに提供する。これにより、トレーニング音21Fにあわせて声を出しているだけで軟口蓋の開き度が改善されて声が変わるため、ユーザ自身で健康を促進させることができる。 Further, a zone determination unit 30 may be provided for determining a vocal training zone for improving the opening of the soft palate based on the minimum scale determined by the determination unit 26 . In this case, the storage unit 21 stores the corresponding training sound 21F for each vocalization training zone. Further, the providing unit 22 provides the user with the training sound 21F corresponding to the vocalization training zone determined by the zone determination unit 30, and causes the user to vocalize in accordance with the training sound 21F. provide the user with information (e.g., a distribution chart) that indicates the effectiveness of the training based on As a result, the degree of opening of the soft palate is improved and the voice changes just by vocalizing along with the training sound 21F, so that the user can promote his or her own health.

なお、本発明は、このような音声診断装置20が備える特徴的な各機能部を各ステップとする音声診断方法として実現したり、それらの各ステップをコンピュータに実行させるための音声診断プログラムとして実現したりすることもできる。もちろん、このような音声診断プログラムは、コンピュータ読取可能な記録媒体を介して、あるいはインターネット網Nなどのネットワークを介してコンピュータにインストールすることが可能である。 The present invention can be realized as a speech diagnosis method in which each characteristic function unit provided in the speech diagnosis apparatus 20 is used as each step, or as a speech diagnosis program for causing a computer to execute each step. You can also Of course, such a voice diagnosis program can be installed in a computer via a computer-readable recording medium or via a network such as the Internet network N.

また、第1及び第2実施形態では、クラウド型の音声診断システムを例示したが、本発明はこれに限定されるものではない。例えば、音声診断装置20が備える各機能部をユーザ端末10に搭載すれば、スタンドアロン型で同様の音声診断を実施することができる。クラウド型、スタンドアロン型にかかわらず、同様の機能を実現する以上、本発明の技術的範囲に属する。 Further, although the cloud-type voice diagnosis system is exemplified in the first and second embodiments, the present invention is not limited to this. For example, if each functional unit included in the voice diagnostic device 20 is installed in the user terminal 10, the same voice diagnosis can be performed in a stand-alone type. Regardless of cloud type or stand-alone type, as long as similar functions are realized, they belong to the technical scope of the present invention.

また、第2実施形態における音声診断装置20は、発声健康法促進装置と言い換えることもできる。すなわち、この発声健康法促進装置は、発声をトレーニングすることで健康を促進する装置であって、軟口蓋の開き度を改善するための発声トレーニングゾーンごと(音階ごと)にトレーニング音21Fを記憶する記憶部21と、ユーザによって入力された音声データを音声周波数データに変換する変換部24と、変換部24によって変換された音声周波数データについて、オクターブに占める割合が最小の音階を決定する決定部26と、決定部26によって決定された最小の音階に基づいて発声トレーニングゾーンを判定するゾーン判定部30と、ゾーン判定部30によって判定された発声トレーニングゾーンに対応するトレーニング音21Fをユーザに提供しつつ、そのトレーニング音21Fに合わせてユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報(例えば分布図表)をユーザに提供する提供部22とを備える。これにより、トレーニング音21Fにあわせて声を出しているだけで軟口蓋の開き度が改善されて声が変わるため、ユーザ自身で健康を促進させることができる。 Also, the voice diagnosis device 20 in the second embodiment can be rephrased as a speech health promotion device. That is, this vocalization health method promotion device is a device for promoting health by training vocalization, and stores a training sound 21F for each vocalization training zone (every scale) for improving the degree of opening of the soft palate. a conversion unit 24 for converting voice data input by a user into voice frequency data; and a determination unit 26 for determining the scale having the smallest ratio in the octave for the voice frequency data converted by the conversion unit 24. , while providing the user with a zone determination unit 30 that determines the vocal training zone based on the minimum scale determined by the determination unit 26, and a training sound 21F corresponding to the vocal training zone determined by the zone determination unit 30, A providing unit 22 for causing the user to vocalize along with the training sound 21F and providing the user with information (for example, a distribution chart) indicating the effect of the training based on the audio data of the voice. As a result, the degree of opening of the soft palate is improved and the voice changes just by vocalizing along with the training sound 21F, so that the user can promote his or her own health.

[その他の実施形態]
以上のように、本発明の実施形態について記載したが、開示の一部をなす論述及び図面は例示的なものであり、限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
[Other embodiments]
While embodiments of the present invention have been described above, the discussion and drawings forming part of this disclosure are to be considered illustrative and should not be construed as limiting. Various alternative embodiments, implementations and operational techniques will become apparent to those skilled in the art from this disclosure.

10 ユーザ端末
14A 表形式の分布図表
14B 図形式の分布図表
20 音声診断装置
21 記憶部
21A 診断履歴データ
21B 診断結果データ
21C 診断マスタデータ
21D HTMLデータ
21E ゾーンデータ
21F トレーニング音
22 提供部
23 取得部
24 変換部
25 分類部
26 決定部
27 診断部
28 認証部
29 入出力部
30 ゾーン判定部
10 user terminal 14A distribution chart in tabular form 14B distribution chart in graphic form 20 voice diagnosis device 21 storage unit 21A diagnosis history data 21B diagnosis result data 21C diagnosis master data 21D HTML data 21E zone data 21F training sound 22 provision unit 23 acquisition unit 24 Conversion unit 25 Classification unit 26 Determination unit 27 Diagnosis unit 28 Authentication unit 29 Input/output unit 30 Zone determination unit

Claims (3)

発声をトレーニングすることで健康を促進する発声健康法促進装置であって、
軟口蓋の開き度を改善するための発声トレーニングゾーンごとに、当該発声トレーニングゾーンに対応する音階の音データであるトレーニング音を記憶する記憶部と、
ユーザによって入力された音声データを音声周波数データに変換する変換部と、
前記変換部によって変換された音声周波数データについて、音階に対応する周波数帯の声のパワーの和が、当該音階が属するオクターブに対応する周波数帯の声のパワーの総和に対して占める割合が最小になる音階を決定する決定部と、
前記決定部によって決定された最小になる音階に基づいて前記発声トレーニングゾーンを判定するゾーン判定部と、
前記ゾーン判定部によって判定された発声トレーニングゾーンに対応するトレーニング音を前記ユーザに提供しつつ、そのトレーニング音に合わせて前記ユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報を前記ユーザに提供する提供部と
を備え、
前記ゾーン判定部は、円環図を用いて前記音階とヴォイスカラーを対応付け、前記最小の音階に対応するヴォイスカラー、又は前記最小の音階に対応するヴォイスカラーと補色の関係にあるヴォイスカラーに基づいて、前記発声トレーニングゾーンを判定する
ことを特徴とする発声健康法促進装置。
A vocalization health promotion device for promoting health by training vocalization,
a storage unit for storing, for each vocalization training zone for improving the degree of opening of the soft palate, a training sound that is sound data of a scale corresponding to the vocalization training zone;
a conversion unit for converting voice data input by a user into voice frequency data;
With respect to the voice frequency data converted by the conversion unit, the ratio of the sum of voice power in the frequency band corresponding to the scale to the total sum of voice power in the frequency band corresponding to the octave to which the scale belongs is minimized. A decision unit that decides the scale of
a zone determination unit that determines the vocalization training zone based on the minimum scale determined by the determination unit;
While providing the user with a training sound corresponding to the vocalization training zone determined by the zone determining unit, the user is made to speak in accordance with the training sound, and the effect of the training is evaluated based on the audio data of the voice. a providing unit for providing the user with information indicating
The zone determination unit associates the scale with the voice color using a circular ring diagram, and selects a voice color corresponding to the minimum scale, or a voice color complementary to the voice color corresponding to the minimum scale. and determining the vocal training zone based on the vocal health method promotion device.
発声をトレーニングすることで健康を促進する発声健康法促進方法であって、
コンピュータが、
軟口蓋の開き度を改善するための発声トレーニングゾーンごとに、当該発声トレーニングゾーンに対応する音階の音データであるトレーニング音を記憶する記憶ステップと、
ユーザによって入力された音声データを音声周波数データに変換する変換ステップと、
前記変換ステップで変換された音声周波数データについて、音階に対応する周波数帯の声のパワーの和が、当該音階が属するオクターブに対応する周波数帯の声のパワーの総和に対して占める割合が最小になる音階を決定する決定ステップと、
前記決定ステップで決定された最小になる音階に基づいて前記発声トレーニングゾーンを判定するゾーン判定ステップと、
前記ゾーン判定ステップで判定された発声トレーニングゾーンに対応するトレーニング音を前記ユーザに提供しつつ、そのトレーニング音に合わせて前記ユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報を前記ユーザに提供する提供ステップと
を実行し、
前記ゾーン判定ステップでは、円環図を用いて前記音階とヴォイスカラーを対応付け、前記最小の音階に対応するヴォイスカラー、又は前記最小の音階に対応するヴォイスカラーと補色の関係にあるヴォイスカラーに基づいて、前記発声トレーニングゾーンを判定する
ことを特徴とする発声健康法促進方法。
A vocal health promotion method for promoting health by training vocalization,
the computer
a storage step of storing, for each vocalization training zone for improving the degree of opening of the soft palate, a training tone that is tone data of a scale corresponding to the vocalization training zone;
a converting step of converting voice data entered by a user into voice frequency data;
With respect to the voice frequency data converted in the converting step, the ratio of the sum of voice power in the frequency band corresponding to the scale to the total sum of voice power in the frequency band corresponding to the octave to which the scale belongs is minimized. a determining step of determining the scale to be
a zone determination step of determining the vocalization training zone based on the minimum scale determined in the determining step;
While providing the user with a training sound corresponding to the vocalization training zone determined in the zone determination step, the user is made to speak in accordance with the training sound, and the effect of the training is evaluated based on the audio data of the voice. and performing a providing step of providing the user with information indicative of
In the zone determination step, the scale and the voice color are associated using a circular ring diagram, and the voice color corresponding to the minimum scale or the voice color complementary to the voice color corresponding to the minimum scale is selected. and determining the vocal training zone based on the vocal health promotion method.
発声をトレーニングすることで健康を促進する発声健康法促進プログラムであって、
コンピュータに、
軟口蓋の開き度を改善するための発声トレーニングゾーンごとに、当該発声トレーニングゾーンに対応する音階の音データであるトレーニング音を記憶する記憶ステップと、
ユーザによって入力された音声データを音声周波数データに変換する変換ステップと、
前記変換ステップで変換された音声周波数データについて、音階に対応する周波数帯の声のパワーの和が、当該音階が属するオクターブに対応する周波数帯の声のパワーの総和に対して占める割合が最小になる音階を決定する決定ステップと、
前記決定ステップで決定された最小になる音階に基づいて前記発声トレーニングゾーンを判定するゾーン判定ステップと、
前記ゾーン判定ステップで判定された発声トレーニングゾーンに対応するトレーニング音を前記ユーザに提供しつつ、そのトレーニング音に合わせて前記ユーザに声を出させ、その声の音声データに基づいてトレーニングの効果を示す情報を前記ユーザに提供する提供ステップと
を実行させ、
前記ゾーン判定ステップでは、円環図を用いて前記音階とヴォイスカラーを対応付け、前記最小の音階に対応するヴォイスカラー、又は前記最小の音階に対応するヴォイスカラーと補色の関係にあるヴォイスカラーに基づいて、前記発声トレーニングゾーンを判定する
ことを特徴とする発声健康法促進プログラム。
A vocal health promotion program for promoting health by training vocalization,
to the computer,
a storage step of storing, for each vocalization training zone for improving the degree of opening of the soft palate, a training tone that is tone data of a scale corresponding to the vocalization training zone;
a converting step of converting voice data entered by a user into voice frequency data;
With respect to the voice frequency data converted in the converting step, the ratio of the sum of voice power in the frequency band corresponding to the scale to the total sum of voice power in the frequency band corresponding to the octave to which the scale belongs is minimized. a determining step of determining the scale to be
a zone determination step of determining the vocalization training zone based on the minimum scale determined in the determining step;
While providing the user with a training sound corresponding to the vocalization training zone determined in the zone determination step, the user is made to speak in accordance with the training sound, and the effect of the training is evaluated based on the audio data of the voice. and performing a providing step of providing the user with the information indicated;
In the zone determination step, the scale and the voice color are associated using a circular ring diagram, and the voice color corresponding to the minimum scale or the voice color complementary to the voice color corresponding to the minimum scale is selected. and determining the vocal training zone based on the vocal health method promotion program.
JP2022182230A 2022-02-04 2022-11-15 Device for promoting vocal health, method for promoting vocal health, and program for promoting vocal health Active JP7191269B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022182230A JP7191269B1 (en) 2022-02-04 2022-11-15 Device for promoting vocal health, method for promoting vocal health, and program for promoting vocal health

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022016011A JP7179209B1 (en) 2022-02-04 2022-02-04 Voice diagnostic device, voice diagnostic method, and voice diagnostic program
JP2022182230A JP7191269B1 (en) 2022-02-04 2022-11-15 Device for promoting vocal health, method for promoting vocal health, and program for promoting vocal health

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022016011A Division JP7179209B1 (en) 2022-02-04 2022-02-04 Voice diagnostic device, voice diagnostic method, and voice diagnostic program

Publications (2)

Publication Number Publication Date
JP7191269B1 true JP7191269B1 (en) 2022-12-16
JP2023114426A JP2023114426A (en) 2023-08-17

Family

ID=87569258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022182230A Active JP7191269B1 (en) 2022-02-04 2022-11-15 Device for promoting vocal health, method for promoting vocal health, and program for promoting vocal health

Country Status (1)

Country Link
JP (1) JP7191269B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102621451B1 (en) * 2023-02-01 2024-01-04 박상은 Method, apparatus and system for providing user-customized voice training service

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004514178A (en) 2000-11-17 2004-05-13 フォルスカーパテント アイ エスワイディ アクチボラゲット Method and apparatus for voice analysis
JP2017192457A (en) 2016-04-18 2017-10-26 株式会社ブリコルールホールディングス Voice diagnosis device, voice diagnosis system, and voice diagnosis program
US20190374150A1 (en) 2010-09-07 2019-12-12 Penina Ohana Lubelchick Diagnosing system for consciousness level measurement and method thereof
JP2022145373A (en) 2021-03-17 2022-10-04 株式会社ユウキアユミワールドアカデミー Voice diagnosis system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004514178A (en) 2000-11-17 2004-05-13 フォルスカーパテント アイ エスワイディ アクチボラゲット Method and apparatus for voice analysis
US20190374150A1 (en) 2010-09-07 2019-12-12 Penina Ohana Lubelchick Diagnosing system for consciousness level measurement and method thereof
JP2017192457A (en) 2016-04-18 2017-10-26 株式会社ブリコルールホールディングス Voice diagnosis device, voice diagnosis system, and voice diagnosis program
JP2022145373A (en) 2021-03-17 2022-10-04 株式会社ユウキアユミワールドアカデミー Voice diagnosis system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102621451B1 (en) * 2023-02-01 2024-01-04 박상은 Method, apparatus and system for providing user-customized voice training service

Also Published As

Publication number Publication date
JP2023114426A (en) 2023-08-17

Similar Documents

Publication Publication Date Title
Chandrasekaran et al. Individual variability in cue-weighting and lexical tone learning
Pfordresher et al. Auditory imagery and the poor-pitch singer
Juslin et al. Play it again with feeling: computer feedback in musical communication of emotions.
Tirovolas et al. Music perception and cognition research from 1983 to 2010: A categorical and bibliometric analysis of empirical articles in Music Perception
Rocco et al. Beyond verbal behavior: An empirical analysis of speech rates in psychotherapy sessions
Elliott Verbal auditory closure and the speech perception in noise (SPIN) test
König et al. Measuring stress in health professionals over the phone using automatic speech analysis during the COVID-19 pandemic: observational pilot study
Kershenbaum et al. Speak along without the song: what promotes fluency in people with aphasia?
JP7191269B1 (en) Device for promoting vocal health, method for promoting vocal health, and program for promoting vocal health
Frič et al. Listening evaluation and classification of female singing voice categories
Fantini et al. Estill Voice Training and voice quality control in contemporary commercial singing: an exploratory study
Costa et al. Perceived tension, movement, and pleasantness in harmonic musical intervals and noises
Fourcin et al. Hearing and phonetic criteria in voice measurement: Clinical applications
Wilbiks et al. Effects of vocal training in a musicophile with congenital amusia
Ziv et al. Absolute and relative pitch: Global versus local processing of chords
Klopfenstein et al. The study of speech naturalness in communication disorders: A systematic review of the literature
Remacle et al. Impact of vocal load on breathiness: Perceptual evaluation
JP6029223B1 (en) Voice diagnostic device, voice diagnostic system, and voice diagnostic program
Marks et al. Psychometric analysis of an ecological vocal effort scale in individuals with and without vocal hyperfunction during activities of daily living
Kopf et al. Pitch strength as an outcome measure for treatment of dysphonia
Paoliello et al. Voice quality and auditory processing in subjects with and without musical experience
Schaefer et al. Intuitive visualizations of pitch and loudness in speech
JP7179209B1 (en) Voice diagnostic device, voice diagnostic method, and voice diagnostic program
Ferguson et al. Continuous subjective loudness responses to reversals and inversions of a sound recording of an orchestral excerpt
Pazdera et al. Pitch-induced illusory percepts of time

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221115

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221206

R150 Certificate of patent or registration of utility model

Ref document number: 7191269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150