JP2006220880A - Vocalization support device - Google Patents

Vocalization support device Download PDF

Info

Publication number
JP2006220880A
JP2006220880A JP2005033845A JP2005033845A JP2006220880A JP 2006220880 A JP2006220880 A JP 2006220880A JP 2005033845 A JP2005033845 A JP 2005033845A JP 2005033845 A JP2005033845 A JP 2005033845A JP 2006220880 A JP2006220880 A JP 2006220880A
Authority
JP
Japan
Prior art keywords
consonant
vowel
code
sensor
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005033845A
Other languages
Japanese (ja)
Other versions
JP3869448B2 (en
Inventor
Yusuke Kusushima
悠介 楠島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2005033845A priority Critical patent/JP3869448B2/en
Publication of JP2006220880A publication Critical patent/JP2006220880A/en
Application granted granted Critical
Publication of JP3869448B2 publication Critical patent/JP3869448B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vocalization support device which is simpler compared with an existing vocalization supporting device, which can be easily used even by an aged patient who is not physically strong enough to breathe out strongly, which enables a user to feel the actual sensation of vocalization, and which can support sufficiently clear vocalization. <P>SOLUTION: The vocalization support device comprises: a vowel sensor 4 which detects positional change based on vocalizing actions and outputs an electric signal; a consonant signal generating section 5 which selectably outputs, as an electric signal, consonant elements based on vocalizing actions; a vowel identification section 6 which identifies vowels and generates vowel codes; a consonant identification section 7 which identifies electric signals with respect to consonant elements and generates consonant codes; a vocalization database 9 which stores voice data and/or character data; a control section 8 which reads voice data and/or character data out of the vocalization database 9; and an output section 10 which outputs voice data and/or character data. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、失語症患者や声帯に障害を持つ患者などが発声練習をするために用いる発声補助装置に係り、特には声を出したと実感させることが可能な発声補助装置に関する。   The present invention relates to an utterance assisting device used by an aphasic patient, a patient with a vocal cord disorder, and the like to practice utterance, and more particularly to an utterance assisting device capable of realizing that he / she has made a voice.

従来、喉頭がんなどの疾病によって声帯を損傷したり、あるいは心因性の失語症などの患者に対しては、その発声を促すため多くの技術が開発されている。
例えば、特許文献1には「発声補助用人工喉頭」として、人工喉頭の振動子の振動周波数を制御するためのピッチパタン信号の生成動作を、動作コントロール手段と山型パタン生成部あるいは下降パタン生成手段などによって制御して、アクセントやイントネーションを自然に表現し得る発明が開示されている。
本発明の動作コントロール手段の操作によって、山型パタン生成手段が山型のピッチパタン信号を生成し、この山型ピッチパタンは、ピッチが低いピッチレベルから上昇し、極大点を経て減少に転じ、基準ピッチレベルまで下降するパタンを形成する。また、下降パタン生成手段は下向きに凸の曲線形状であって基準ピッチレベルまで単調減少する下降ピッチパタンを形成する。
このような特許文献1に開示される発明においては、自動的に滑らかな曲線形状を有するピッチパタンを生成するように構成することができるので、人工喉頭により補助された音声が自然なピッチ変化を伴い、耳障りでない音声が実現されるという効果が得られる。
Conventionally, many techniques have been developed to promote vocalization in patients with vocal cord damage due to diseases such as laryngeal cancer or psychogenic aphasia.
For example, in Patent Document 1, as an “artificial larynx for assisting speech”, a pitch pattern signal generation operation for controlling the vibration frequency of the vibrator of the artificial larynx is described as operation control means and mountain pattern generation unit or descending pattern generation. An invention is disclosed in which accents and intonations can be naturally expressed by being controlled by means or the like.
By the operation of the operation control means of the present invention, the chevron pattern generating means generates a chevron pitch pattern signal, and this chevron pitch pattern rises from a low pitch level and turns to decrease through a maximum point, A pattern descending to the reference pitch level is formed. The descending pattern generating means forms a descending pitch pattern that has a downward convex curve shape and monotonously decreases to the reference pitch level.
In the invention disclosed in Patent Document 1, since it can be configured to automatically generate a pitch pattern having a smooth curved shape, the voice assisted by the artificial larynx exhibits a natural pitch change. Along with this, there is an effect that non-harmful voice is realized.

次に、特許文献2には「電気人工喉頭」として、生体情報を検出する生体情報検出手段とこの検出された生体情報に応じて音響変換器から出力する代用音源の基本周波数や音量を制御する制御手段を備えた装置が開示されている。
この発明では、どのようなセンサを用いて、得られた生体情報をどのように用いて制御するのか具体的な記載がないが、本特許文献によれば、生体情報を用いて代用音源の基本周波数や音量を制御することができるため、自然な声で快適な生活を送ることができるとのことである。
Next, in Patent Document 2, as an “electrical artificial larynx”, the biological information detection means for detecting biological information and the fundamental frequency and volume of the substitute sound source output from the acoustic transducer are controlled according to the detected biological information. An apparatus with control means is disclosed.
In this invention, there is no specific description of what kind of sensor is used and how the obtained biological information is used and controlled. However, according to this patent document, the basics of the substitute sound source using the biological information are described. Because the frequency and volume can be controlled, it is possible to live a comfortable life with a natural voice.

特許文献3では、「発生補助装置およびプログラム記録媒体」という発明が開示されている。この発明は、食道発声音声や反回神経麻痺音声などの声帯に異常のある音声の音量不足や有響成分不足を解消するために、入力された音声信号から低周波数成分を除去する低域成分除去フィルタと高周波成分を除去する高域成分除去フィルタ、さらに、高域成分除去フィルタの出力を分析・合成する分析処理手段と、この分析処理手段の出力と低域成分除去フィルタの出力を加算する加算器を備えるものである。
このような発明によれば、コミュニケーションには不要な低域及び高域のノイズを除去することで、患者の音声のラウドネスを改善しながら有響成分を増加させた声質改善を行なうことができる。
Patent Document 3 discloses an invention of “generation assisting device and program recording medium”. This invention is a low-frequency component that removes a low-frequency component from an input audio signal in order to solve a lack of sound volume and an insufficient symbiotic component of vocal cords with abnormalities in vocal cords such as esophageal voice and recurrent paralysis voice A high-frequency component removal filter that removes the high-frequency component, an analysis processing unit that analyzes and synthesizes the output of the high-frequency component removal filter, and adds the output of the analysis processing unit and the output of the low-frequency component removal filter An adder is provided.
According to such an invention, it is possible to improve the voice quality by increasing the sound component while improving the loudness of the patient's voice by removing the low frequency and high frequency noise unnecessary for communication.

特開平11−69476号公報Japanese Patent Laid-Open No. 11-69476 特開平7−433号公報Japanese Patent Laid-Open No. 7-433 特開2000−242287号公報JP 2000-242287 A

しかしながら、特許文献1に記載された発明においては、スイッチSW1乃至3を操作することによって、山型や下降などのピッチパタンを生成して日本語の話言葉に近いアクセントとイントネーションをつけるもので、発声自体は人工喉頭が行い、また、先のピッチパタンの生成は患者(話者)が操作によって行なうものである。
図3には、スイッチSW1乃至3の操作のフローチャートが開示され、これらのスイッチのオンオフによって発声するピッチパタンが図4乃至11に開示されているが、これらのスイッチのオンオフは患者によるもので、発声の動作とは無関係である。このような発明においては、患者が実際に発声の動作を行なわなくとも手元でスイッチを操作するだけでアクセントやイントネーションを変えることが可能となってしまい、患者がより正確に発声するために練習する場合などでは、不向きとなってしまう。
また、発声は人工喉頭で行なわれるため、多少の発声の動作によって音声を出すことが可能であるかもしれないが、人工喉頭は喉部に当てて使用する必要があり、発声に適する定められた位置に設置する必要があること、さらに発声のために息を吐く必要があるが、手術時に声帯を摘出している場合には息が漏れることも多く、体力が必要となってしまう。また、高齢の患者には特にこの体力への負担から人工喉頭を用いた発声には無理があった。
However, in the invention described in Patent Document 1, by operating the switches SW1 to SW3, a pitch pattern such as a mountain shape or a descent is generated to give accents and intonation close to Japanese spoken words. The utterance itself is performed by the artificial larynx, and the generation of the previous pitch pattern is performed by the patient (speaker) by operation.
FIG. 3 discloses a flowchart of the operation of the switches SW1 to SW3, and pitch patterns uttered by turning these switches on and off are disclosed in FIGS. 4 to 11, but these switches are turned on and off by the patient. It has nothing to do with the utterance action. In such an invention, it is possible to change accents and intonations simply by operating the switch at hand without the patient actually performing the utterance operation, and the patient practices for more accurate utterance. In some cases, it becomes unsuitable.
In addition, since the utterance is performed with the artificial larynx, it may be possible to produce a sound by the action of some utterances, but the artificial larynx must be used against the throat, and it is determined to be suitable for utterance. It is necessary to install in the position, and it is necessary to exhale for vocalization. However, when the vocal cords are extracted at the time of surgery, the breath often leaks and physical strength is required. In addition, elderly patients were particularly unable to utter using an artificial larynx because of this physical stress.

また、特許文献2に開示される発明においても人工喉頭を用いるものであり、呼吸や筋電位を含む生体情報をセンサによって検知して、これらを用いて音響変換器から出力される代用音源の周波数などを制御するものである。この発明では、どのような生体信号を用いてどのように音響変換させるのかが不明であるが、特許文献1と同様に人工喉頭を用いており呼吸を必要とするため、やはり体力を消耗することには変わりなく、また、生体情報を検知するためのセンサを多く体に装着する必要があるため、患者に負担となってしまう。   The invention disclosed in Patent Document 2 also uses an artificial larynx, detects biological information including respiration and myoelectric potential with a sensor, and uses these to generate a frequency of a substitute sound source output from the acoustic transducer. And so on. In this invention, it is unclear what biological signal is used and how it is acoustically converted. However, as in the case of Patent Document 1, an artificial larynx is used and breathing is required. In addition, since it is necessary to attach many sensors for detecting biological information to the body, it is a burden on the patient.

特許文献3に開示される発明では、発声信号を電気的に処理して有効な成分のみを取り出して増幅することでより自然に近い発声を可能とするものであるが、この発明の前提は患者による発声がある程度なければならず、前述のように高齢の患者であってほとんど発声が困難な場合には、効果が薄いという課題がある。すなわち、この特許文献3に開示される発明では、患者の発声能力によってその効果に変動があるという課題があった。   In the invention disclosed in Patent Document 3, the utterance signal is electrically processed, and only effective components are extracted and amplified, thereby enabling a more natural utterance. There is a problem that the voice is not effective when there is a certain amount of voicing, and it is difficult to utter in an elderly patient as described above. That is, in the invention disclosed in Patent Document 3, there is a problem that the effect varies depending on the utterance ability of the patient.

本発明は係る従来の事情に対処してなされたものであり、従来の発声補助装置に比較してシンプルでありながら、体力が不十分で息を強く吐くことができずない高齢の患者も容易に利用でき、しかも発声の実感を得られ、十分明確な発声の補助を可能とする発声補助装置を提供することを目的とする。   The present invention has been made in response to the conventional situation, and is simpler than a conventional voice assist device, but is easy for elderly patients who are insufficient in physical strength and cannot exhale strongly. It is an object of the present invention to provide an utterance assisting device that can be used in a variety of situations and that can provide a sense of utterance and can assist the utterance clearly.

上記目的を達成するため、請求項1に記載の発明である発声補助装置は、顔面上に装着され発声動作に基づく位置変化を検知して電気信号を出力する母音センサと、発声の子音成分を選択可能に電気信号として出力する子音信号発生部と、母音センサによって出力された位置変化に伴う電気信号に基づいて母音を判別しこの母音に該当する母音コードを生成する母音識別部と、子音信号発生部によって出力された子音成分に関する電気信号を判別しこの子音に該当する子音コードを生成する子音識別部と、母音コードと子音コードをキーとして音声データ及び/又は文字データを読み出し可能に格納する発声データベースと、生成された母音コードと子音コードを用いて発声データベースから音声データ及び/又は文字データを読み出す制御部と、読み出された音声データ及び/又は文字データを出力する出力部とを有するものである。   In order to achieve the above object, an utterance assisting device according to the first aspect of the present invention includes a vowel sensor that is mounted on the face and detects a positional change based on a utterance operation and outputs an electrical signal, and a consonant component of utterance. A consonant signal generating unit that outputs an electrical signal in a selectable manner, a vowel identifying unit that discriminates a vowel based on an electrical signal accompanying a position change output by a vowel sensor and generates a vowel code corresponding to the vowel, and a consonant signal A consonant identification unit that discriminates an electrical signal related to a consonant component output by the generation unit and generates a consonant code corresponding to the consonant, and stores voice data and / or character data in a readable manner using the vowel code and the consonant code as keys. Control of reading voice data and / or character data from the utterance database using the utterance database and the generated vowel codes and consonant codes When, in which an output unit for outputting audio data and / or character data read.

また、請求項2に記載の発明である発声補助装置は、請求項1に記載の発声補助装置において、制御部は母音コードと子音コードを合成して発声コードを生成する機能を備え、発声データベースは、母音コードと子音コードをキーとして音声データ及び/文字データを読み出し可能に格納することに代えて、発生コードをキーとして音声データ及び/又は文字データを読み出し可能に格納するものである。   According to a second aspect of the present invention, in the utterance assisting device according to the first aspect, the control unit has a function of generating a utterance code by synthesizing a vowel code and a consonant code, and a utterance database. Instead of storing voice data and / or character data in a readable manner using vowel codes and consonant codes as keys, voice data and / or character data is stored in a readable manner using generated codes as keys.

また、請求項3に記載の発明である発声補助装置は、請求項1又は2に記載の発声補助装置において、母音センサは、位置変化を検知して電気信号を出力することに代えて、筋肉の伸縮を検知して電気信号を出力するものである。   According to a third aspect of the present invention, in the utterance assist device according to the first or second aspect, the vowel sensor detects a change in position and outputs an electrical signal, It detects the expansion and contraction and outputs an electrical signal.

請求項4に記載の発明である発声補助装置は、請求項1又は2に記載の発声補助装置において、母音センサは、位置変化を検知して電気信号を出力することに代えて、唇の上下間及び左右間の距離及び顎関節の変位を検知して電気信号を出力するものである。   According to a fourth aspect of the present invention, in the utterance assisting device according to the first or second aspect, the vowel sensor detects the change in position and outputs an electric signal, instead of detecting the position change. It detects the distance between the left and right and the displacement of the temporomandibular joint and outputs an electrical signal.

請求項5に記載の発明である発声補助装置は、請求項1乃至4のいずれか1項に記載の発声補助装置において、子音信号発生部は、複数の指示部を備え、これらの指示部に予め子音成分を1ずつ対応させておくことで、該当する子音成分に係る電気信号を出力するものである。   According to a fifth aspect of the present invention, in the utterance assistance device according to any one of the first to fourth aspects, the consonant signal generation unit includes a plurality of instruction units. By associating consonant components one by one in advance, an electric signal related to the corresponding consonant component is output.

請求項6に記載の発明である発声補助装置は、請求項1乃至4のいずれか1項に記載の発声補助装置において、子音信号発生部は、手の各指に装着可能でON−OFF信号を出力可能な複数のスイッチを備え、これらのスイッチから出力されるON−OFF信号の組合せに予め子音成分を1つずつ対応させておくことで、該当する子音成分に係る電気信号を出力するものである   The utterance assist device according to claim 6 is the utterance assist device according to any one of claims 1 to 4, wherein the consonant signal generator is attachable to each finger of the hand and is an ON-OFF signal. A plurality of switches capable of outputting a signal, and by outputting an electrical signal related to the corresponding consonant component in advance by associating the consonant components one by one with the combination of ON-OFF signals output from these switches. Is

以上説明したように、本発明に係る発声補助装置は、顔面上に装着された母音センサによって発生動作に基づく位置変化や変位、伸縮を検知して患者が発声しようとしている母音を判別することが可能であるため、息を吐く必要がなく、体力が衰えている高齢の患者であっても容易に発声補助を行なうことが可能である。   As described above, the utterance assisting device according to the present invention can detect a vowel that a patient is trying to utter by detecting a change in position, displacement, and expansion / contraction based on a generated operation by a vowel sensor mounted on the face. Since it is possible, it is not necessary to exhale, and even an elderly patient with weak physical strength can easily assist in speaking.

また、母音のみをセンサで検知してこれを判別して母音コードを生成し、子音はセンサではなく別個の手段で選択可能に子音コードを生成して、これらをキーとして、あるいはこれらのコードを合成した発声コードを生成してこれをキーとして、発声データベースに格納された音声データあるいは文字データを読み出すため、発声の動作を行うことで発声の実感を味わうことが可能でありながら、実際には発声量が少なくとも、子音が動作で選択されるため容易で高精度な発声補助を行なうことが可能である。   In addition, only vowels are detected by a sensor and discriminated to generate vowel codes. Consonants can be selected by a separate means instead of a sensor, and consonant codes can be generated using these as keys or these codes. Since the synthesized utterance code is generated and the voice data or character data stored in the utterance database is read out using this as a key, it is possible to experience the utterance by performing the utterance operation. Since at least the consonant is selected by the operation, the utterance amount can be easily and highly accurately uttered.

以下、本発明に係る発声補助装置の実施の形態を図1乃至8に基づいて説明する。(特に、請求項1、2及び6に対応)。
図1は、本実施の形態に係る発声補助装置の構成図である。図1において、発声補助装置は大きくは本体3と出力部10に分けられる。本体3には、患者の口1の周辺に装着される母音センサ4と、手2に備えられる子音信号発生部5が含まれている。
患者が発声行動を取ることによって、口1が動くと同時に口1の周囲に装着された母音センサ4が動くため、その動きによって検知される位置の変化を母音センサ4は電気信号に変えて出力するのである。位置の変化を感知するセンサというのは、例えば、その母音センサ4が動いた際に生じる加速度を積分して速度、さらに積分して距離を演算するようにして得られる位置変化を電気信号に変換するものが考えられる。従って、この場合には位置変化は加速度変化ということも可能である。本実施の形態は、位置変化を感知する母音センサ4として、加速度の変化を感知するセンサを採用して説明するものである。
母音センサ4によって出力された電気信号は本体3の母音識別部6へ送信され、母音識別部6は出力された母音の電気信号を判別し、その母音に該当する母音コードを生成する。母音コードは、「あ」、「い」、「う」、「え」、「お」を識別するためのコードである。この母音の電気信号の判別方法については後で詳述する。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of a speech assisting apparatus according to the present invention will be described with reference to FIGS. (In particular, corresponding to claims 1, 2 and 6.)
FIG. 1 is a configuration diagram of the speech assisting device according to the present embodiment. In FIG. 1, the speech assisting device is roughly divided into a main body 3 and an output unit 10. The main body 3 includes a vowel sensor 4 mounted around the patient's mouth 1 and a consonant signal generator 5 provided in the hand 2.
Since the vowel sensor 4 attached around the mouth 1 moves simultaneously with the movement of the mouth 1 when the patient takes a utterance action, the change in the position detected by the movement is converted into an electrical signal and output. To do. A sensor that detects a change in position is, for example, converting the position change obtained by integrating the acceleration generated when the vowel sensor 4 moves to calculate the velocity and further calculating the distance. What to do is conceivable. Therefore, in this case, the position change can also be referred to as an acceleration change. In the present embodiment, a sensor that detects a change in acceleration is used as the vowel sensor 4 that detects a change in position.
The electrical signal output by the vowel sensor 4 is transmitted to the vowel identification unit 6 of the main body 3, and the vowel identification unit 6 determines the electrical signal of the output vowel and generates a vowel code corresponding to the vowel. The vowel code is a code for identifying “A”, “I”, “U”, “E”, “O”. A method for discriminating the electric signal of the vowel will be described in detail later.

一方、子音信号発生部5は、患者の手の操作によって子音が選択可能なように構成されている。この子音信号発生部5の構成についても後述するが、選択された子音に相当する電気信号を出力し、出力された電気信号は本体3の子音識別部7へ送信され、子音識別部7はその子音の電気信号を判別して該当する子音コードを生成する。子音コードは、「あ」、「か」、「さ」、「た」、「な」、「は」、「ま」、「や」、「ら」、「わ」、「が」、「ぎゃ」、「ざ」・・・、「ん」を識別するためのコードである。なお、本願の特許請求の範囲及び明細書においては、「子音」、「子音成分」、「子音コード」に便宜上、母音のみからなる「行」である「あ行」の音を含むものとする。母音を子音の組合せによって発声音を特定するために、「あ」などの母音だけであっても子音を「あ行」として特定しなければ、組合せによって「あ」として特定できないためである。但し、子音信号発生部5から電気出力がない場合に「あ行」であると認識するようにしてもよいことは言うまでもない。
母音識別部6と子音識別部7によってそれぞれ生成される母音コードと子音コードは本体3に含まれる制御部8に送信され、この制御部8は、これらのコードを合成して新たに発声コードを生成する。この発声コードは、濁音や撥音も含めていわゆる50音のいずれか1の音が特定するコードである。
On the other hand, the consonant signal generator 5 is configured so that consonants can be selected by the operation of the patient's hand. Although the configuration of the consonant signal generating unit 5 will be described later, an electric signal corresponding to the selected consonant is output, and the output electric signal is transmitted to the consonant identifying unit 7 of the main body 3. An electrical signal of sound is discriminated and a corresponding consonant code is generated. The consonant codes are "a", "ka", "sa", "ta", "na", "ha", "ma", "ya", "ra", "wa", "ga", "gya" ”,“ Za ”...,“ N ”. In the claims and specification of the present application, for the sake of convenience, “consonant”, “consonant component”, and “consonant chord” include a “row” sound that is a “row” consisting only of vowels. This is because, in order to specify the vowel sound by combining the vowels with the consonant, even if only the vowel such as “A” is specified, the consonant cannot be specified as “A” unless it is specified as “A”. However, it is needless to say that “no row” may be recognized when there is no electrical output from the consonant signal generator 5.
The vowel codes and consonant codes generated by the vowel identification unit 6 and the consonant identification unit 7 are transmitted to the control unit 8 included in the main body 3, and the control unit 8 synthesizes these codes and newly generates a utterance code. Generate. This utterance code is a code specified by any one of so-called 50 sounds including muddy sounds and repellent sounds.

さらに、制御部8は、本体3の発声データベース9にアクセスし、この発声コードをキーとして発声データベース9に格納されている音声データ及び文字データ、あるいはいずれか一方を読み出して、出力部10に送信する。なお、発声データベース9は本実施の形態においては本体3の内部に設けたが、これは外付けにしてももちろん構わない。   Further, the control unit 8 accesses the utterance database 9 of the main body 3, reads out the voice data and / or character data stored in the utterance database 9 using this utterance code as a key, and transmits it to the output unit 10. To do. Although the utterance database 9 is provided inside the main body 3 in the present embodiment, it may of course be externally attached.

出力部10は、例えば、音声データであればそれを発するためのスピーカなど聴覚用装置であったり、文字データであればそれを表示するための液晶ディスプレイやプラズマディスプレイなどの視覚用装置であったり、さらに、いずれのタイプのデータであっても外部装置へ出力することができるインターフェースであったりするものであり、特に限定するものではない。   The output unit 10 is, for example, a hearing device such as a speaker for emitting voice data, or a visual device such as a liquid crystal display or a plasma display for displaying character data. Furthermore, any type of data may be an interface that can be output to an external device, and is not particularly limited.

図2に、発声データベース9に格納されるデータ構造を模式的に示す概念図を示す。図2(a)に示される発声データベース9aでは、先に説明したとおり、制御部8において母音コードと子音コードが合成されて生成された発声コードである2進コード11と、この2進コード11に対応して音声データ12と文字データ13がテーブル状に格納されている。
この2進コード11は、母音を表すコードと子音を表すコードを合成したものであり、母音を3桁の0か1の組合せによって表現し、さらに、子音も例えば10桁の0か1によって表現すると、計13桁の0か1の組合せによってすべての発声音が表現可能である。図中の2進コード11の欄に記載されているものは、2進法による数字が途中省略されているが、「あ」と「い」を示すものである。従って上例であれば、最初の10桁は「あ行」を示すため共通の2進コードであるが、その後の3桁は、それぞれ母音の「あ」と「い」を示すものであるので異なる2進コードとなっており、結局全体的な2進コード11は異なるものとなるのである。
FIG. 2 is a conceptual diagram schematically showing the data structure stored in the utterance database 9. In the utterance database 9a shown in FIG. 2A, as described above, a binary code 11 which is a utterance code generated by synthesizing a vowel code and a consonant code in the control unit 8, and the binary code 11 Corresponding to the above, voice data 12 and character data 13 are stored in a table.
The binary code 11 is a combination of a code representing a vowel and a code representing a consonant. The vowel is represented by a combination of three digits of 0 or 1, and the consonant is also represented by, for example, 10 digits of 0 or 1. Then, all utterances can be expressed by a combination of 0 or 1 of 13 digits in total. What is described in the column of the binary code 11 in the figure indicates “A” and “I” although numbers in the binary system are omitted on the way. Therefore, in the above example, the first 10 digits are a common binary code to indicate “A”, but the subsequent 3 digits indicate “A” and “I” of the vowel, respectively. The binary code 11 is different, and the overall binary code 11 is different.

本図の発声データベース9aにおいては、2進コード11に対応させて音声データ12と文字データ13の両方が格納されているが、用途によってはいずれか一方のみを格納しておいてもよい。また、制御部8によって2進コード11をキーとしてこのテーブルを検索して音声データ12あるいは文字データ13を読み出すが、いずれか一方でも両方でもよい。図中では同じ「あ」、「い」として表示されているが、もちろん、音声データ12の欄にある「あ」は音声データとしての「あ」であり、文字データ13の欄にある「あ」は文字データとしての「あ」である。   In the utterance database 9a of this figure, both the voice data 12 and the character data 13 are stored in association with the binary code 11, but depending on the application, only one of them may be stored. Further, the control unit 8 searches the table using the binary code 11 as a key to read out the voice data 12 or the character data 13, but either one or both may be used. In the figure, the same “A” and “I” are displayed. Of course, “A” in the voice data 12 column is “A” as voice data, and “A” in the character data 13 column. "" Is "a" as character data.

次に、図2(b)に示されるデータ構造について説明する。先に説明した制御部8では、母音コードと子音コードを合成して新たに発声コードを生成したが、制御部8で発声コードを生成することなく、図2(b)に示されるように発声データベース9bで音声データ14と文字データ15に分離してテーブルを構成し、それぞれのデータにおいて、母音2進コード17,19と子音2進コード16,18をマトリックス状に配置して、それらをキーとした組合せによって濁音、撥音を含む50音を特定できるようにしてもよい。
このようにデータを構成させると、制御部8によって母音コードと子音コードを合成する必要がなく、制御部8自体は簡略化することが可能であるものの、発声データベース9bでは、マトリックスが多少複雑化されることになる。
母音2進コード17,19の欄に記載される「000」、「011」、「111」、「010」、「110」はそれぞれ母音コードである。母音は日本語では5つあるので、2進数であればコードの構成として少なくとも3桁が必要である。なお、本実施の形態においては日本語をベースに説明するものであるが、他国の言語においても同様に母音と子音を備えているものであれば、対応は可能である。母音や子音の数が多い場合には、適宜母音2進コードや子音2進コードの桁数を増やすことによって対応させることができる。
Next, the data structure shown in FIG. In the control unit 8 described above, a new utterance code is generated by synthesizing the vowel code and the consonant code. However, as shown in FIG. The database 9b separates the voice data 14 and the character data 15 to form a table. In each data, the vowel binary codes 17 and 19 and the consonant binary codes 16 and 18 are arranged in a matrix, and these are keyed. Depending on the combination, 50 sounds including muddy sound and repellent sound may be specified.
When data is configured in this way, it is not necessary to synthesize vowel codes and consonant codes by the control unit 8, and the control unit 8 itself can be simplified, but the utterance database 9b has a somewhat complicated matrix. Will be.
“000”, “011”, “111”, “010”, and “110” described in the column of the vowel binary codes 17 and 19 are vowel codes. Since there are five vowels in Japanese, a binary code requires at least three digits as a code structure. In this embodiment, the description is based on Japanese, but it is possible to deal with other languages that have vowels and consonants as well. When the number of vowels and consonants is large, it can be dealt with by appropriately increasing the number of digits of the vowel binary code or the consonant binary code.

次に、図3(a),(b)を用いて母音センサの装着状態について説明する。
図3(a),(b)は、患者の顔に対して装着される母音センサを模式的に表す概念図である。図3(a)において、水平加速度センサ20は患者の口の横側へ装着されており、垂直加速度センサ21は口の下側に装着されている。また、校正加速度センサ22は図3(b)に示されるように患者の後頭部の部分に装着されている。発声動作に基づく水平加速度と垂直加速度を測定するためのセンサであるが、発声動作に基づく口廻りの変化以外に、顔全体が動く場合にも加速度を検知してしまう可能性があることから、発声時の口の動きに影響がない後頭部へ校正加速度センサ22を設け、このセンサで検知される加速度と水平加速度センサ20及び垂直加速度センサ21で検出される加速度を用いて演算処理を行うことで、発声動作に伴う口廻りに発生する加速度を測定可能としている。演算処理の具体例としては、校正加速度センサ22で検知される加速度をベースとして、水平加速度センサ20及び垂直加速度センサ21で検出される加速度から減じることで、発声動作に伴う口廻りに発生する加速度を測定可能とする場合などがある。但し、このような場合には、首を動かした場合に、後頭部の動きよりも口周辺の動きの方が大きくなる場合もあり、水平加速度センサ20や垂直加速度センサ21で検出された加速度から校正加速度センサ22で検出された加速度を差し引きすることで単純に正確な加速度が得られない場合もあると考えられる。そのような場合には、補正を行なうか、あるいはセンサを増やすことで精度を向上させることが考えられる。
Next, the mounting state of the vowel sensor will be described with reference to FIGS.
FIGS. 3A and 3B are conceptual diagrams schematically showing a vowel sensor attached to a patient's face. In FIG. 3A, the horizontal acceleration sensor 20 is attached to the side of the patient's mouth, and the vertical acceleration sensor 21 is attached to the lower side of the mouth. The calibration acceleration sensor 22 is attached to the patient's occipital region as shown in FIG. Although it is a sensor for measuring horizontal acceleration and vertical acceleration based on utterance movements, it may detect acceleration even when the entire face moves in addition to changes in the mouth rotation based on utterance movements, A calibration acceleration sensor 22 is provided on the back of the head that does not affect the movement of the mouth when speaking, and arithmetic processing is performed using the acceleration detected by this sensor and the acceleration detected by the horizontal acceleration sensor 20 and the vertical acceleration sensor 21. , It is possible to measure the acceleration generated around the mouth accompanying the utterance action. As a specific example of the arithmetic processing, based on the acceleration detected by the calibration acceleration sensor 22, it is subtracted from the acceleration detected by the horizontal acceleration sensor 20 and the vertical acceleration sensor 21, so that the acceleration generated around the mouth accompanying the utterance operation May be measured. However, in such a case, when the neck is moved, the movement around the mouth may be larger than the movement of the back of the head, and calibration is performed from the acceleration detected by the horizontal acceleration sensor 20 or the vertical acceleration sensor 21. It may be considered that accurate acceleration may not be obtained simply by subtracting the acceleration detected by the acceleration sensor 22. In such a case, it is conceivable to improve the accuracy by performing correction or increasing the number of sensors.

図5は、母音を発声する際の口の形状を模式的に示す概念図である。図5(a)から(e)までが、それぞれ「あ」から「お」に相当している。これらの口の形状に唇が動く際に発生する水平、垂直の加速度を測定して母音を識別するのである。   FIG. 5 is a conceptual diagram schematically showing the shape of the mouth when vowels are uttered. 5A to 5E correspond to “A” to “O”, respectively. The vowels are identified by measuring the horizontal and vertical accelerations generated when the lips move to these mouth shapes.

図6(a),(b)は、加速度の発生する方向について便宜上定めた方向である。本願明細書でいうx軸方向とは、顔面に対して平行かつ左右方向を意味し、y軸方向とは顔面に対して平行で上下方向を意味し、z軸方向とは顔面に対して垂直な方向を意味している。本実施の形態においては、図4に示した水平加速度センサ20によって、x軸方向の加速度を測定し、垂直加速度センサ21によってy軸方向とz軸方向の加速度を測定する。それぞれ図に示される方向が正方向となる。
表1は、母音の発声動作と水平加速度センサ20及び垂直加速度センサ21によって検出される加速度の各軸方向成分の正負の状態を示す母音判別テーブルである。
表1において、例えば「あ」であれば、水平加速度センサ20はx軸方向に正(+)の数値を示し、垂直加速度センサ21は、y軸方向及びz軸方向に正(+)の数値を示す。
6A and 6B are directions determined for convenience with respect to the direction in which acceleration occurs. In this specification, the x-axis direction means a horizontal direction parallel to the face, the y-axis direction means a vertical direction parallel to the face, and the z-axis direction is perpendicular to the face. Means the right direction. In the present embodiment, the horizontal acceleration sensor 20 shown in FIG. 4 measures the acceleration in the x-axis direction, and the vertical acceleration sensor 21 measures the acceleration in the y-axis direction and the z-axis direction. Each direction shown in the figure is the positive direction.
Table 1 is a vowel discrimination table showing the vowel utterance operation and the positive / negative state of each axial component of the acceleration detected by the horizontal acceleration sensor 20 and the vertical acceleration sensor 21.
In Table 1, for example, if “A”, the horizontal acceleration sensor 20 indicates a positive (+) value in the x-axis direction, and the vertical acceleration sensor 21 indicates a positive (+) value in the y-axis direction and the z-axis direction. Indicates.

図5(a)に示される口の形状と比較してみると、母音「あ」を発声するために、少し口が左右上下に開くことから、x軸及びy軸に正の加速度が発生し、発声時に歯が少し下唇を前に押し出すことからz軸に正の加速度が発生している。
「い」の発声であれば、水平加速度センサ20がx軸方向に正の加速度を検知するだけとなっており、「う」ではほとんど口を動かすことなく発声できることからいずれのセンサも加速度を検知していない。「え」や「お」についても同様に各軸の欄に+を記載することができる。なお、これらの加速度の検知は、個人差もあると考えられるので、母音の設定を可能としておき、この表1は個人差に従って適宜修正可能としておくことが望ましい。
表1に示される+の部分を1とし、加速度が検出されなかった箇所、すなわち表1で空欄となっている部分を0とすることで母音の2進コードを生成することができる。
Compared with the shape of the mouth shown in FIG. 5A, since the mouth is slightly opened left and right and up and down to utter the vowel “A”, positive acceleration occurs in the x-axis and y-axis. The positive acceleration is generated on the z-axis because the teeth push the lower lip forward slightly when speaking.
If “I” is uttered, the horizontal acceleration sensor 20 can only detect positive acceleration in the x-axis direction, and “U” can utter without moving the mouth. Not done. Similarly, for “e” and “o”, + can be written in the column of each axis. In addition, since it is thought that the detection of these accelerations also has an individual difference, it is desirable to be able to set a vowel, and to make this Table 1 amendable suitably according to an individual difference.
A vowel binary code can be generated by setting the + part shown in Table 1 to 1 and setting the part where acceleration was not detected, that is, the part left blank in Table 1 to 0.

図7を参照しながら以上のことをまとめつつ、母音コードの生成までのステップについて説明する。図7は加速度センサを母音センサとした場合の母音識別部における信号処理の工程を示す工程図である。
図7において、図1に示される患者の口廻りに装着された水平加速度センサ20、垂直加速度センサ21及び校正加速度センサ22から構成される母音センサ4で発生する加速度の電気信号は母音識別部6によって読み出される(ステップS1)。
前述のとおり顔全体が動くことによる影響を排除するために校正加速度センサ22を用いて、水平加速度センサ20及び垂直加速度センサ21の相対加速度変化を演算する(ステップS2)。
水平加速度センサ20及び垂直加速度センサ21の相対的な加速度変化によって、母音識別部6に格納される表1に示される母音判別テーブルによって母音を判別し(ステップS3)、それによって先に説明したとおり2進コードを生成する(ステップS4)。
The steps up to the generation of the vowel code will be described while summarizing the above with reference to FIG. FIG. 7 is a process diagram showing a signal processing process in the vowel identification unit when the acceleration sensor is a vowel sensor.
In FIG. 7, the electrical signal of the acceleration generated by the vowel sensor 4 comprising the horizontal acceleration sensor 20, the vertical acceleration sensor 21 and the calibration acceleration sensor 22 mounted around the patient's mouth shown in FIG. (Step S1).
As described above, the relative acceleration change of the horizontal acceleration sensor 20 and the vertical acceleration sensor 21 is calculated using the calibration acceleration sensor 22 in order to eliminate the influence of the movement of the entire face (step S2).
Based on the relative acceleration change of the horizontal acceleration sensor 20 and the vertical acceleration sensor 21, vowels are discriminated by the vowel discrimination table shown in Table 1 stored in the vowel discriminator 6 (step S3), and as described above. A binary code is generated (step S4).

次に、母音センサ4として筋肉の伸縮を検知して電気信号を出力するものを採用した場合について、母音識別部6で母音を判別して母音コードを生成するまでの工程について説明する。(特に、請求項3に対応)
母音センサ4の装着場所は、加速度センサと同様に図4(a),(b)に示されるとおりである。筋肉の伸縮を感知する母音センサ4では、母音の発声動作時に口廻りの筋肉がどのように伸縮するかによって、母音を判別する。水平伸縮センサ24は患者の口の下側へ装着されており、垂直伸縮センサ23は口の横側に装着されている。また、咬合伸縮センサ25は患者の顔の顎のいわゆる「えら」の部分に装着されている。
このように装着されたセンサにおいても図6に示されるx,y,zの軸方向は共通である。筋肉の伸縮を感知する母音センサ4では、表2に示されるような母音判別テーブルによって母音が判別される。
Next, in the case where a vowel sensor 4 that detects the expansion and contraction of a muscle and outputs an electrical signal is employed, a process until the vowel identification unit 6 determines a vowel and generates a vowel code will be described. (In particular, corresponding to claim 3)
The place where the vowel sensor 4 is mounted is as shown in FIGS. 4A and 4B, similarly to the acceleration sensor. The vowel sensor 4 that detects the expansion and contraction of the muscle discriminates the vowel depending on how the muscle around the mouth expands and contracts during the vowel utterance operation. The horizontal extension / contraction sensor 24 is attached to the lower side of the patient's mouth, and the vertical extension / contraction sensor 23 is attached to the side of the mouth. The occlusal expansion / contraction sensor 25 is attached to a so-called “gill” portion of the jaw of the patient's face.
The axial directions of x, y, and z shown in FIG. 6 are common to the sensors mounted in this way. In the vowel sensor 4 that senses muscle expansion and contraction, vowels are discriminated by a vowel discrimination table as shown in Table 2.

表2は、母音の発声動作と水平伸縮センサ24及び垂直伸縮センサ23によって検出される筋肉の各軸方向成分の伸縮状態を示す母音判別テーブルである。
表2において、例えば「あ」であれば、口廻りの筋肉がx軸方向及びy軸方向に伸びるので水平伸縮センサ24及び垂直伸縮センサ23は伸びを示し、咬合伸縮センサ25は縮みを示す。このような伸びと縮みをそれぞれ1と0とすれば、加速度センサによる場合と同様に母音の2進コードが生成可能である。
Table 2 is a vowel discrimination table showing the vowel voicing operation and the expansion / contraction state of each axial component of the muscle detected by the horizontal expansion / contraction sensor 24 and the vertical expansion / contraction sensor 23.
In Table 2, for example, “A” indicates that the muscle around the mouth extends in the x-axis direction and the y-axis direction, so that the horizontal expansion / contraction sensor 24 and the vertical expansion / contraction sensor 23 indicate expansion, and the occlusal expansion / contraction sensor 25 indicates contraction. If such expansion and contraction are 1 and 0, respectively, a vowel binary code can be generated as in the case of the acceleration sensor.

図8を参照しながら、加速度センサの場合と同様に母音コードの生成までのステップについて説明する。図8は伸縮センサを母音センサとした場合の母音識別部における信号処理の工程を示す工程図である。
図8において、図4に示される水平伸縮センサ24、垂直伸縮センサ23及び咬合伸縮センサ25から構成される母音センサ4で発生する筋肉の伸縮の電気信号は母音識別部6によって読み出される(ステップS1)。
母音識別部6では、各センサにおける伸縮変化を演算し(ステップS2)、3つのセンサによる伸縮変化によって、母音識別部6に格納される表2に示される母音判別テーブルによって母音を判別し(ステップS3)、それによって先に説明したとおり母音の2進コードを生成するのである(ステップS4)。
With reference to FIG. 8, the steps until generation of a vowel code will be described as in the case of the acceleration sensor. FIG. 8 is a process diagram showing a signal processing process in the vowel identification unit when the expansion / contraction sensor is a vowel sensor.
In FIG. 8, the muscular expansion / contraction electrical signal generated by the vowel sensor 4 composed of the horizontal expansion / contraction sensor 24, the vertical expansion / contraction sensor 23, and the occlusal expansion / contraction sensor 25 shown in FIG. ).
The vowel identification unit 6 calculates the expansion / contraction change in each sensor (step S2), and determines the vowel by the vowel determination table shown in Table 2 stored in the vowel identification unit 6 by the expansion / contraction change by the three sensors (step S2). S3), thereby generating a vowel binary code as described above (step S4).

さらに、母音センサ4として唇の上下間及び左右間の距離及び顎関節の変位を検知して電気信号を出力するものを採用した場合について、母音識別部6で母音を判別して母音コードを生成するまでの工程について説明する。(特に、請求項4に対応)
母音センサ4の装着は、加速度センサあるいは筋肉伸縮センサとは異なり、図9に示すように、口廻りにおいて水平距離センサ27a,27bを唇の左右2箇所に装着され、垂直距離センサ26a,26bは上下2箇所に装着される。さらに、図10に示されるように咬合位置変位センサ31は患者の顔の顎の「えら」部分に装着されている。
垂直距離センサ26a,26b及び水平距離センサ27a,27bは、それぞれセンサ間距離を検知し、母音を判別するものである。
Furthermore, when a vowel sensor 4 that detects the distance between the upper and lower lips and the left and right of the lips and the displacement of the temporomandibular joint and outputs an electrical signal is used, the vowel identification unit 6 discriminates the vowel and generates a vowel code. The process up to this will be described. (In particular, corresponding to claim 4)
The vowel sensor 4 is mounted differently from the acceleration sensor or the muscle expansion / contraction sensor, as shown in FIG. 9, horizontal distance sensors 27a and 27b are mounted on the left and right sides of the lips around the mouth, and the vertical distance sensors 26a and 26b are Mounted in two places on the top and bottom. Further, as shown in FIG. 10, the occlusal position displacement sensor 31 is mounted on the “gill” portion of the jaw of the patient's face.
The vertical distance sensors 26a and 26b and the horizontal distance sensors 27a and 27b detect the vowels by detecting the distance between the sensors, respectively.

図11は、垂直距離センサ26及び水平距離センサ27の構造を簡単に示す概念図である。図11(a)に示されるセンサは、例えば垂直距離センサ26aであり、円形パッチ状に形成されており、その裏側中央に磁石28を備えられており粘着材29を塗布することで、口廻りに貼付することができる。
一方、図11(b)に示されるセンサは、例えば垂直距離センサ26bであり、その裏側にはリードスイッチ30が備えられており、このリードスイッチ30は磁石が一定距離内に接近すると反応するようになっているため、唇の動きによって唇の上下・左右の両端が接近したり離隔したりすることでスイッチがONとなったりOFFとなったりするものである。裏面には同様に粘着材29が塗布されているため容易に貼着することができる。なお、リードスイッチ30に代えて磁石28の磁気を感知することができる磁気センサを用いて、唇の上下左右の両端の距離の大小や接近・離隔を検知可能なものでもよい。
図11(a),(b)に示されるセンサを唇の上下に貼るのが垂直距離センサ26であり、左右に貼るのが水平距離センサ27である。
この種の母音センサ4は、母音の発声動作時に口廻りの形状、特に唇の上下左右の距離がどのように変化するかによって母音を判別する。
FIG. 11 is a conceptual diagram simply showing the structure of the vertical distance sensor 26 and the horizontal distance sensor 27. The sensor shown in FIG. 11 (a) is, for example, a vertical distance sensor 26a, which is formed in a circular patch shape, is provided with a magnet 28 at the center on the back side, and is coated with an adhesive 29 so that it can be worn around the mouth. Can be affixed to.
On the other hand, the sensor shown in FIG. 11 (b) is, for example, a vertical distance sensor 26b, and a reed switch 30 is provided on the back side thereof. The reed switch 30 reacts when the magnet approaches within a certain distance. Therefore, the switch is turned on and off when the upper and lower and left and right ends of the lips approach or separate from each other due to the movement of the lips. Since the adhesive material 29 is similarly applied to the back surface, it can be easily attached. Instead of the reed switch 30, a magnetic sensor capable of sensing the magnetism of the magnet 28 may be used to detect the distance between the upper, lower, left and right ends of the lips, and the approach / separation.
The vertical distance sensor 26 sticks the sensors shown in FIGS. 11A and 11B on the upper and lower sides of the lips, and the horizontal distance sensor 27 sticks on the left and right.
This type of vowel sensor 4 discriminates vowels according to how the shape of the mouth, particularly the distance between the upper, lower, left and right of the lips, changes during the vowel utterance operation.

表3は、母音の発声動作と水平距離センサ27a,27b及び垂直距離センサ26a,26bによって検出される唇の上下左右の開き具合と、咬合位置変位センサ31によって検出される歯を噛んでいるか否かを示して、母音を判別するための母音判別テーブルである。   Table 3 shows the vowel utterance operation, the open / closed state of the lips detected by the horizontal distance sensors 27a and 27b and the vertical distance sensors 26a and 26b, and whether or not the teeth detected by the occlusal position displacement sensor 31 are bitten. This is a vowel discrimination table for discriminating vowels.

表3において、例えば「あ」であれば、唇の横の開き具合が大きく、唇の縦の開き具合も大きく、歯を噛んでいる(顎を閉じている)かということに対しては、噛んでいないという状況を示している。これを例えば、開き具合が大きいものを0、小さいものを1とし、さらに歯を噛んでいる場合を1とし、噛んでいない場合を0とすることで母音の2進コードの生成が可能となる。   In Table 3, for example, if it is “A”, the degree of opening of the lips is large, the degree of opening of the lips is also large, and whether the teeth are bitten (the jaw is closed) It shows the situation of not chewing. For example, a vowel binary code can be generated by setting 0 for a large opening, 1 for a small opening, 1 for a case where the teeth are biting, and 0 for a case where the teeth are not biting. .

表4は、このようにして生成された母音の2進コードを例示するものである。「あ」では、横と縦の唇の開き具合が大きいので0,0となり、さらに歯を噛んでいないので0となる。従って3桁の2進数は、いずれも0となる。   Table 4 exemplifies the vowel binary code generated in this way. In “A”, the horizontal and vertical lip opening degree is large, so that it is 0, 0, and further, it is 0 because the teeth are not chewed. Therefore, all three-digit binary numbers are 0.

表3の母音判別テーブルに沿えば、表4の母音はそれぞれ示されるような2進コードとなる。   According to the vowel discrimination table of Table 3, the vowels of Table 4 are binary codes as shown.

図12を参照しながら、加速度センサや筋肉の伸縮センサの場合と同様に母音コードの生成までのステップについて説明する。図12は距離センサを母音センサとした場合の母音識別部における信号処理の工程を示す工程図である。
図12において、図9,10に示される垂直距離センサ26、水平距離センサ27及び咬合位置変位センサ31から構成される母音センサ4で発生する唇の距離の電気信号及び位置変位の電気信号は母音識別部6によって読み出される(ステップS1)。
母音識別部6では、垂直距離センサ26及び水平距離センサ27については距離変化を演算し(ステップS2)、咬合位置変位センサ31については位置の変位を加速度の変化や筋肉の伸縮変化によって演算し(ステップS2)、これらによって、母音識別部6に格納される表3に示される母音判別テーブルによって母音を判別し(ステップS3)、それによって母音の2進コードを生成するのである(ステップS4)。
With reference to FIG. 12, steps up to the generation of a vowel code will be described as in the case of an acceleration sensor or a muscle expansion / contraction sensor. FIG. 12 is a process diagram showing a signal processing process in the vowel identification unit when the distance sensor is a vowel sensor.
In FIG. 12, the lip distance electrical signal and the positional displacement electrical signal generated by the vowel sensor 4 composed of the vertical distance sensor 26, the horizontal distance sensor 27, and the occlusal position displacement sensor 31 shown in FIGS. It is read by the identification unit 6 (step S1).
The vowel identification unit 6 calculates a change in distance for the vertical distance sensor 26 and the horizontal distance sensor 27 (step S2), and calculates a displacement of the position of the occlusal position displacement sensor 31 based on a change in acceleration or a change in muscle stretch ( In step S2), the vowels are discriminated by the vowel discrimination table shown in Table 3 stored in the vowel identification unit 6 (step S3), thereby generating a vowel binary code (step S4).

以上、本実施の形態に係る発声補助装置における母音コードの生成までについて説明した。次に、図1に示される子音信号発生部5及び子音識別部7を用いた子音の判別方法について説明する。
子音は、主として発声動作に伴う唇の動きによって識別可能な母音とは異なり、息の吐き方、舌の動かし方によって決定されるものであるので、口や唇から認識することは困難である。また、高齢の患者などは体力が衰えていることが多く、息の吐き方も弱い場合が多いので、特に子音について判別することは困難が伴うものである。
そこで、子音信号発生部5は、発生動作とは無関係に子音成分に係る電気信号を発生させることとした。
Heretofore, the description has been made up to the generation of the vowel code in the utterance assistance device according to the present embodiment. Next, a consonant discrimination method using the consonant signal generation unit 5 and the consonant identification unit 7 shown in FIG. 1 will be described.
Unlike a vowel that can be identified mainly by the movement of the lips that accompanies the vocalization, the consonant is determined by how to exhale and how the tongue moves, so it is difficult to recognize it from the mouth and lips. In addition, elderly patients and the like often have weak physical strength and often have a weak way of exhaling, so it is particularly difficult to determine consonants.
Therefore, the consonant signal generation unit 5 generates an electric signal related to the consonant component regardless of the generation operation.

例えば、本実施の形態においては、図13に示すような装置を用いることによって電気信号を発生させる。図13は、本実施の形態に係る子音信号発生部の構造を示す外形図である。図13において、子音信号発生部は、ゴムサック32と、このゴムサック32の指の付け根の上側にスイッチ35を備え、このスイッチ35から延設されたピアノ線33をガイド34に通しながら、指の先端側に設けられた留具41に固定するものである。   For example, in this embodiment, an electric signal is generated by using an apparatus as shown in FIG. FIG. 13 is an outline view showing the structure of the consonant signal generator according to the present embodiment. In FIG. 13, the consonant signal generator includes a rubber sack 32 and a switch 35 above the finger base of the rubber sack 32, and a piano wire 33 extending from the switch 35 is passed through a guide 34 while the tip of the finger. It fixes to the fastener 41 provided in the side.

図14は、スイッチ35の構造を模式的に示す概念図である。図14において、スイッチ35の内部には、圧子36が内蔵されており、ピアノ線33はこの圧子36から延設されている。圧子36は、ピアノ線33の緊張状態によって同じくスイッチ35に内部に設けられたバネ38によって反発力を受けるが、ピアノ線33によって強く引っ張られればスイッチ素子37から離れ、ピアノ線33の緊張が弱まればバネ38の反発力によって付勢され、スイッチ素子37に触れてONの状態になる。
このようなスイッチ35によって、圧子36がスイッチ素子37に接触した場合に電気信号を発生させることによれば、ゴムサック32を指に嵌めて、指を曲げたり伸ばしたりすることで、スイッチ35をON−OFFして電気信号を発生させることができる。
FIG. 14 is a conceptual diagram schematically showing the structure of the switch 35. In FIG. 14, an indenter 36 is built in the switch 35, and the piano wire 33 extends from the indenter 36. The indenter 36 receives a repulsive force by a spring 38 provided in the switch 35 in the same manner according to the tension state of the piano wire 33, but if it is strongly pulled by the piano wire 33, it is separated from the switch element 37 and the tension of the piano wire 33 is weak. If it is, it will be urged | biased by the repulsive force of the spring 38, will touch the switch element 37, and will be in an ON state.
By generating an electrical signal when the indenter 36 contacts the switch element 37 by such a switch 35, the switch 35 is turned on by fitting the rubber sack 32 to the finger and bending or stretching the finger. -OFF can generate an electrical signal.

子音は、基本となるものでK,S,T,N,H,M,Y,R,Wの9通りあり、先に説明したとおり、「あ」行も含めて10通りあるため、これを両手の指10本に対応させるべく、10個の子音信号発生部5を両手の各指に対応させて装着することによれば、各子音成分を発生させることができる。濁音や撥音は、これらの10本の中で複数のスイッチを入れることで対応が可能である。
これを具体的に表現したものを表5及び表6に示す。
There are nine consonants, K, S, T, N, H, M, Y, R, and W. As explained earlier, there are 10 consonants including the “A” line. Each consonant component can be generated by attaching ten consonant signal generators 5 corresponding to each finger of both hands in order to correspond to ten fingers of both hands. Turbidity and sound repellent can be dealt with by turning on a plurality of switches among these ten.
Tables 5 and 6 show specific examples of this.

表5は、両手の各指と図14に示す子音信号発生部の対応を示す表であり、表6は、濁音及び撥音を含め、指を曲げた状態すなわちスイッチ35がOFFの状態を0とし、指を伸ばした状態すなわちスイッチ35がONとなっている状態を1として2進コードに表現してまとめた表である。   Table 5 shows the correspondence between the fingers of both hands and the consonant signal generator shown in FIG. 14, and Table 6 shows that the finger is bent, that is, the switch 35 is OFF, including muddy sound and sound repellent. FIG. 5 is a table summarizing a binary code, where 1 is a state in which a finger is extended, that is, a state in which the switch 35 is ON.

図15を参照しながら、母音センサ4及び母音識別部6の場合と同様に子音コードの生成までのステップについて説明する。図15は図13,14に示される子音信号発生部5を両手の各指に装着した場合の子音識別部7における信号処理の工程を示す工程図である。
図15において、図13,14に示される子音信号発生部5のスイッチ素子37で発生する電気信号は子音識別部7によって読み出される(ステップS1)。このステップS1では、指毎に電気信号の有無を確認するためにすべての指について信号がある場合には読み出す。図1のステップS1の「右親」とは、右手の親指に装着されている子音信号発生部5であるスイッチ35を意味しており、「左子」とは、左手小指に装着されているスイッチ35を意味している。その間には、右手の人差し指、中指、薬指、小指、左手親指、人差し指、中指、薬指のそれぞれに装着されたスイッチ35が省略されている。
子音識別部7では、各スイッチ35によって出力された電気信号によって、子音識別部7に格納される表6に示される子音判別テーブルによって子音を判別し(ステップS2)、それによって子音の2進コードを生成するのである(ステップS3)。
With reference to FIG. 15, steps until generation of a consonant code will be described in the same manner as in the case of the vowel sensor 4 and the vowel identification unit 6. FIG. 15 is a process diagram showing signal processing steps in the consonant identification unit 7 when the consonant signal generation unit 5 shown in FIGS. 13 and 14 is attached to each finger of both hands.
In FIG. 15, the electrical signal generated by the switch element 37 of the consonant signal generator 5 shown in FIGS. 13 and 14 is read by the consonant identifier 7 (step S1). In this step S1, when there is a signal for all fingers in order to confirm the presence / absence of an electrical signal for each finger, it is read. The “right parent” in step S1 in FIG. 1 means the switch 35 that is the consonant signal generation unit 5 attached to the thumb of the right hand, and the “left child” is attached to the little finger of the left hand. The switch 35 is meant. In the meantime, the switches 35 attached to the index finger, the middle finger, the ring finger, the little finger, the left thumb, the index finger, the middle finger, and the ring finger of the right hand are omitted.
The consonant discriminating unit 7 discriminates the consonant from the electrical signal output from each switch 35 by using the consonant discrimination table shown in Table 6 stored in the consonant discriminating unit 7 (step S2), thereby the binary code of the consonant. Is generated (step S3).

次に、子音信号発生部5として複数の鍵盤キーを備えた装置を用いる場合について説明する。(特に請求項5に対応)
図16に示される子音信号発生装置39は、「あ行」をも含む各子音の「行」を濁音や撥音を含めて配列した鍵盤キー40a〜40cを備えるものである。これらの鍵盤キーを押すと、これらの鍵盤キー上に表示された濁音、撥音を含む50音の子音成分に関する電気信号を出力することができる。
本実施例3によれば、先の両手の各指に装着されるスイッチ35を備えた子音信号発生部5のように、すべてのスイッチ35からの信号を組合わせて子音成分のコードを生成するのではなく、押された1つの鍵盤キーによって子音成分のコードを生成することができるので子音の判別は容易となる。
なお、子音信号発生部5の複数の鍵盤キーの代わりに、子音成分に関する電気信号を発し得る指示部としては、鍵盤キーのように押さずとも反応する複数のタッチセンサを用いて、各子音の「行」を濁音や撥音も含めてそれらの表面に表示しておけば、触れるだけで子音成分に関する電気信号を発することが可能である。さらに、例えば、視線の位置を特定し得る視線センサを用いることによれば、その視線センサを顔に装着し、各子音の「行」が示される表示部を患者が目で追うことで、視線センサがいずれの子音成分かを判断し、電気信号として送信することも可能である。
Next, a case where a device having a plurality of keyboard keys is used as the consonant signal generator 5 will be described. (Especially corresponding to claim 5)
The consonant signal generating device 39 shown in FIG. 16 includes keyboard keys 40a to 40c in which “rows” of consonants including “a row” are arranged including muddy sounds and repellent sounds. When these keyboard keys are pressed, electrical signals relating to the 50 consonant components including muddy and repellent sounds displayed on these keyboard keys can be output.
According to the third embodiment, a consonant component code is generated by combining signals from all the switches 35 as in the consonant signal generating unit 5 including the switches 35 attached to the fingers of both hands. Instead, a consonant component code can be generated by one pressed key, so that consonant discrimination is easy.
In addition, instead of the plurality of keyboard keys of the consonant signal generation unit 5, as an instruction unit that can generate an electrical signal related to the consonant component, a plurality of touch sensors that react without being pressed, such as a keyboard key, are used. If “row” is displayed on the surface including muddy sound and sound repellent sound, it is possible to generate an electrical signal related to the consonant component only by touching. Furthermore, for example, by using a gaze sensor that can identify the position of the gaze, the gaze sensor is attached to the face, and the patient follows the display section in which the “row” of each consonant is displayed. It is also possible to determine which consonant component the sensor has and transmit it as an electrical signal.

図17を参照しながら、同様に子音コードの生成までのステップについて説明する。図17は鍵盤キーを備える子音信号発生部を採用した場合の子音識別部における信号処理の工程を示す工程図である。
図17において、図16に示される鍵盤キーよって出力される電気信号は子音識別部7によって読み出される(ステップS1)。
子音識別部7では、いずれの鍵盤キーによって出力された電気信号であるかを検知して子音を判別する(ステップS2)。従って、子音識別部7には表や図に示さないものの、それぞれの鍵盤キーと子音の成分、すなわち、濁音や撥音も含んだ各行の子音成分が対応するような子音判別テーブルが格納されている。もちろん、前述のとおり「あ行」も含まれている。
このような子音判別テーブルによって子音の2進コードを生成するのである(ステップS3)。
Similarly, steps up to the generation of the consonant code will be described with reference to FIG. FIG. 17 is a process diagram showing signal processing steps in the consonant identification unit when a consonant signal generation unit having keyboard keys is employed.
In FIG. 17, the electrical signal output by the keyboard key shown in FIG. 16 is read by the consonant identification unit 7 (step S1).
The consonant identification unit 7 discriminates the consonant by detecting which keyboard key is used to output the electric signal (step S2). Therefore, although not shown in the table or figure, the consonant identification unit 7 stores a consonant discrimination table in which each keyboard key and consonant components, that is, consonant components in each row including muddy and repellent sounds correspond to each other. . Of course, “A row” is also included as described above.
A consonant binary code is generated by such a consonant discrimination table (step S3).

母音識別部6及び子音識別部7で独立に生成された母音コード及び子音コードは、制御部8によって読み出される。制御部8は、発声データベース9にアクセスして、これらの母音2進コード17,19や、子音2進コード16を検索のキーとして図2(b)に示されるような音声データ14あるいは文字データ15から該当する音声や文字を抽出する。抽出された音声データ14や文字データ15は、出力部10を介して音声や文字として出力されたり、あるいは他の外部装置に対してはインターフェースとして出力される。
なお、制御部8による母音コードと子音コードの読み出しであるが、制御部8は最初に子音コードを読み出し、その後母音コードを読み出すようにして、音声データや文字データを検索するようにするとよい。母音と子音のコードが連続する場合に、例えば母音コードが子音コードに挟まれるような順序の場合に、前後いずれの子音コードに関係するものであるかの判断が困難となる可能性があるためである。但し、母音コードの後に子音コードを読みだして文字データや音声データを検索するようにしてもよい。
The vowel code and the consonant code generated independently by the vowel identification unit 6 and the consonant identification unit 7 are read by the control unit 8. The control unit 8 accesses the utterance database 9 and uses the vowel binary codes 17 and 19 or the consonant binary code 16 as a search key to generate voice data 14 or character data as shown in FIG. The corresponding speech and characters are extracted from 15. The extracted voice data 14 and character data 15 are output as voice and characters via the output unit 10, or are output as an interface to other external devices.
The vowel code and the consonant code are read by the control unit 8, but the control unit 8 may read the consonant code first and then read the vowel code so as to search voice data and character data. When vowels and consonant chords are consecutive, for example, when the order is such that the vowel chords are sandwiched between consonant codes, it may be difficult to determine whether the vowels are related to the preceding or following consonant codes. It is. However, the consonant code may be read after the vowel code to search for character data or voice data.

外部装置としては、例えば電話が考えられる。電話のマイク端子に出力部10を接続することで、電話による会話を楽しむことも可能である。
また、制御部8において、先の母音コードと子音コードを合成するような機能を持たせることで、発声コードとして合成し、図2(a)に示されるような発声データベース9aに対してアクセスし、発声コードの2進コード11をキーとして音声データ12や文字データ13を検索してもよい。
なお、音声データ12,14には、予め患者自身の声を採取しておくことによれば、例えば声帯を削除するような手術後において発声の練習を行なう際には、自己の声への愛着もあり、練習や補助への高い動機付けを得ることができる。
An example of the external device is a telephone. It is also possible to enjoy a telephone conversation by connecting the output unit 10 to a microphone terminal of the telephone.
Further, the control unit 8 has a function of synthesizing the previous vowel code and the consonant code, thereby synthesizing it as an utterance code, and accessing the utterance database 9a as shown in FIG. The voice data 12 and the character data 13 may be searched using the binary code 11 of the utterance code as a key.
Note that the voice data 12 and 14 are obtained by collecting the patient's own voice in advance. For example, when practicing utterance after surgery to delete the vocal cords, There is also a high motivation for practice and assistance.

以上説明したとおり、本実施の形態に係る発声補助装置によれば、発声動作によって、口あるいは唇の動きやその変化によって判別可能な母音については、口の周囲や顎まで含めた顔面上にセンサを装着することによって判別し、発声動作に沿って母音を発声させて、発声の体感を高めることが可能である。また、息を吐くことで明確に判別される子音に対しては、体力の衰えた高齢の患者であっても利用できるように指を用いて子音の成分を発生させる子音信号発生部を採用することで、発声の練習や補助に対して体力の消耗を抑えることが可能であり、気構えが不要で、気楽、気長に発声訓練を実施することが可能である。また、子音が指の操作で選択されることから精度も向上する。
なお、本実施の形態においては日本語を想定して行なったが、英語や韓国語、中国語や仏語、独語、スペイン語などあらゆる言語にも対応が可能である。但し、母音判別テーブルや子音判別テーブルの内容はそれらの言語に対応させて適宜修正する必要がある。
As described above, according to the utterance assisting device according to the present embodiment, vowels that can be discriminated by the movement of the mouth or lips or their changes by the utterance operation are detected on the face including the periphery of the mouth and the chin. It is possible to enhance the sensation of utterance by discriminating by wearing vowels and uttering vowels along the utterance action. For consonants that are clearly discriminated by exhaling, a consonant signal generator that uses a finger to generate consonant components is used so that even elderly patients with weak physical strength can use them. Thus, it is possible to suppress the exhaustion of physical strength with respect to the practice and assistance of utterance, and it is not necessary to be ready, and it is possible to perform utterance training with ease and length. In addition, the accuracy is improved because the consonant is selected by the operation of the finger.
In this embodiment, Japanese language is assumed, but it is possible to cope with all languages such as English, Korean, Chinese, French, German, and Spanish. However, the contents of the vowel discrimination table and the consonant discrimination table need to be modified as appropriate in correspondence with those languages.

以上説明したように、本発明の発声補助装置においては、例えば病院などの医療機関で、声帯を摘出した患者の発声のためにリハビリテーションに利用することができる。また、一般家庭においても、手術や心因性の失語症などの家庭内治療にも利用可能である。   As described above, the utterance assisting device of the present invention can be used for rehabilitation for the utterance of a patient whose vocal cords have been extracted, for example, in a medical institution such as a hospital. It can also be used for home treatment such as surgery and psychogenic aphasia even in ordinary households.

本実施の形態に係る発声補助装置の構成図である。It is a block diagram of the speech assistance apparatus which concerns on this Embodiment. (a)及び(b)のいずれも発声データベースに格納されるデータ構造を模式的に示す概念図である。Both (a) and (b) are conceptual diagrams schematically showing the data structure stored in the utterance database. 患者の横顔に対して装着される母音センサを模式的に表す概念図であり、(a)は正面から、(b)は側面から見た場合の概念図である。It is the conceptual diagram which represents typically the vowel sensor with respect to a patient's side face, (a) is a conceptual diagram at the time of seeing from a front, (b) is a side view. 患者の横顔に対して装着される母音センサを模式的に表す概念図であり、(a)は正面から、(b)は側面から見た場合の概念図である。It is the conceptual diagram which represents typically the vowel sensor with respect to a patient's side face, (a) is a conceptual diagram at the time of seeing from a front, (b) is a side view. (a)は母音(あ)を、(b)は母音(い)を、(c)は母音(う)を、(d)は母音(え)を、(e)は母音(お)を発声する際の口の形状を模式的に示す概念図である。(A) vowel (A), (b) vowel (I), (c) vowel (U), (d) vowel (E), (e) vowel (O) It is a conceptual diagram which shows typically the shape of the mouth at the time of doing. 加速度の発生する方向について便宜上定めた方向を示す概念図であり、(a)はx、y軸方向として定めた方向、(b)はz軸方向として定めた方向を示す概念図である。It is a conceptual diagram which shows the direction defined for convenience about the direction where an acceleration generate | occur | produces, (a) is a conceptual diagram which shows the direction defined as x and y-axis direction, (b) is the direction defined as z-axis direction. 加速度センサを母音センサとした場合の母音識別部における信号処理の工程を示す工程図である。It is process drawing which shows the process of the signal processing in a vowel identification part at the time of using an acceleration sensor as a vowel sensor. 伸縮センサを母音センサとした場合の母音識別部における信号処理の工程を示す工程図である。It is process drawing which shows the process of the signal processing in a vowel identification part at the time of using an expansion-contraction sensor as a vowel sensor. 垂直距離センサ及び水平距離センサの装着状態を模式的に表す概念図である。It is a conceptual diagram which represents typically the mounting state of a vertical distance sensor and a horizontal distance sensor. 咬合伸縮センサの装着状態を模式的に表す概念図である。It is a conceptual diagram which represents typically the mounting state of the occlusal expansion-contraction sensor. (a)及び(b)のいずれも垂直距離センサ及び水平距離センサの構造を簡単に示す概念図である。Both (a) and (b) are conceptual diagrams simply showing the structures of a vertical distance sensor and a horizontal distance sensor. 距離センサを母音センサとした場合の母音識別部における信号処理の工程を示す工程図である。It is process drawing which shows the process of the signal processing in a vowel identification part at the time of using a distance sensor as a vowel sensor. 本実施の形態に係る子音信号発生部の構造を示す外形図である。It is an external view which shows the structure of the consonant signal generation part which concerns on this Embodiment. スイッチの構造を模式的に示す概念図である。It is a conceptual diagram which shows the structure of a switch typically. 図13,14に示される子音信号発生部を両手の各指に装着した場合の子音識別部における信号処理の工程を示す工程図である。It is process drawing which shows the process of the signal processing in a consonant identification part at the time of mounting | wearing each finger | toe with the consonant signal generation part shown by FIG. 複数の鍵盤キーを備えた子音信号発生装置の概念図である。It is a conceptual diagram of the consonant signal generator provided with the some keyboard key. 鍵盤キーを備える子音信号発生装置を採用した場合の子音識別部における信号処理の工程を示す工程図である。It is process drawing which shows the process of the signal processing in the consonant identification part at the time of employ | adopting the consonant signal generator provided with a keyboard key.

符号の説明Explanation of symbols

1…口 2…手 3…本体 4…母音センサ 5…子音信号発生部 6…母音識別部 7…子音識別部 8…制御部 9,9a,9b…発声データベース 10…出力部 11…2進コード 12…音声データ 13…文字データ 14…音声データ 15…文字データ 16…子音2進コード 17…母音2進コード 18…子音2進コード 19…母音2進コード 20…水平加速度センサ 21…垂直加速度センサ 22…校正加速度センサ 23…垂直伸縮センサ 24…水平伸縮センサ 25…咬合伸縮センサ 26a,26b…垂直距離センサ 27…水平距離センサ 28…磁石 29…粘着材 30…リードスイッチ 31…咬合位置変位センサ 32…ゴムサック 33…ピアノ線 34…ガイド 35…スイッチ 36…圧子 37…スイッチ素子 38…バネ 39…子音信号発生装置 40a〜40c…鍵盤キー 41…留具
DESCRIPTION OF SYMBOLS 1 ... Mouth 2 ... Hand 3 ... Main body 4 ... Vowel sensor 5 ... Consonant signal generation part 6 ... Vowel identification part 7 ... Consonant identification part 8 ... Control part 9, 9a, 9b ... Speech database 10 ... Output part 11 ... Binary code DESCRIPTION OF SYMBOLS 12 ... Voice data 13 ... Character data 14 ... Voice data 15 ... Character data 16 ... Consonant binary code 17 ... Vowel binary code 18 ... Consonant binary code 19 ... Vowel binary code 20 ... Horizontal acceleration sensor 21 ... Vertical acceleration sensor DESCRIPTION OF SYMBOLS 22 ... Calibration acceleration sensor 23 ... Vertical expansion / contraction sensor 24 ... Horizontal expansion / contraction sensor 25 ... Occlusion expansion / contraction sensor 26a, 26b ... Vertical distance sensor 27 ... Horizontal distance sensor 28 ... Magnet 29 ... Adhesive material 30 ... Reed switch 31 ... Occlusal position displacement sensor 32 ... Rubber sack 33 ... Piano wire 34 ... Guide 35 ... Switch 36 ... Indenter 37 ... Switch element 38 ... Spring 39 ... Consonant No. generator 40a~40c ... keyboard key 41 ... fastener

Claims (6)

顔面上に装着され発声動作に基づく位置変化を検知して電気信号を出力する母音センサと、発声の子音成分を選択可能に電気信号として出力する子音信号発生部と、前記母音センサによって出力された位置変化に伴う電気信号に基づいて母音を判別しこの母音に該当する母音コードを生成する母音識別部と、前記子音信号発生部によって出力された子音成分に関する電気信号を判別しこの子音に該当する子音コードを生成する子音識別部と、前記母音コードと子音コードをキーとして音声データ及び/又は文字データを読み出し可能に格納する発声データベースと、前記生成された母音コードと子音コードを用いて前記発声データベースから前記音声データ及び/又は文字データを読み出す制御部と、前記読み出された音声データ及び/又は文字データを出力する出力部とを有することを特徴とする発声補助装置。   A vowel sensor that is mounted on the face and detects a position change based on the utterance action and outputs an electrical signal, a consonant signal generator that outputs a consonant component of the utterance as an electrical signal, and is output by the vowel sensor A vowel discriminating unit that discriminates a vowel based on an electric signal accompanying a change in position and generates a vowel code corresponding to the vowel, and an electric signal related to a consonant component output by the consonant signal generation unit is discriminated and corresponds to this consonant. A consonant identification unit that generates a consonant code; a utterance database that readablely stores voice data and / or character data using the vowel code and the consonant code as a key; and the utterance using the generated vowel code and the consonant code A control unit that reads the voice data and / or character data from a database; and the read voice data and / or Vocalization assisting device and having an output section for outputting the character data. 前記制御部は前記母音コードと子音コードを合成して発声コードを生成する機能を備え、前記発声データベースは、母音コードと子音コードをキーとして音声データ及び/文字データを読み出し可能に格納することに代えて、前記発生コードをキーとして音声データ及び/又は文字データを読み出し可能に格納することを特徴とする請求項1記載の発声補助装置。   The control unit has a function of generating a utterance code by synthesizing the vowel code and a consonant code, and the utterance database stores voice data and / or character data in a readable manner using the vowel code and the consonant code as a key. Instead, the voice assisting device according to claim 1, wherein voice data and / or character data is stored in a readable manner using the generated code as a key. 前記母音センサは、位置変化を検知して電気信号を出力することに代えて、筋肉の伸縮を検知して電気信号を出力するものであることを特徴とする請求項1又は2に記載の発声補助装置。   The vowel sensor according to claim 1 or 2, wherein the vowel sensor detects an expansion and contraction of a muscle and outputs an electric signal instead of detecting an electrical change and outputting an electric signal. Auxiliary device. 前記母音センサは、位置変化を検知して電気信号を出力することに代えて、唇の上下間及び左右間の距離及び顎関節の変位を検知して電気信号を出力するものであることを特徴とする請求項1又は2に記載の発声補助装置。   The vowel sensor detects the distance between the upper and lower lips and between the left and right sides and the displacement of the temporomandibular joint and outputs an electrical signal instead of detecting an electrical change and outputting an electrical signal. The speech assisting device according to claim 1 or 2. 前記子音信号発生部は、複数の指示部を備え、これらの指示部に予め前記子音成分を1ずつ対応させておくことで、該当する子音成分に係る電気信号を出力するものであることを特徴とする請求項1乃至4のいずれか1項に記載の発声補助装置。   The consonant signal generation unit includes a plurality of instruction units, and outputs an electrical signal related to a corresponding consonant component by previously associating the consonant components one by one with the instruction units. The speech assisting device according to any one of claims 1 to 4. 前記子音信号発生部は、手の各指に装着可能でON−OFF信号を出力可能な複数のスイッチを備え、これらのスイッチから出力されるON−OFF信号の組合せに予め前記子音成分を1つずつ対応させておくことで、該当する子音成分に係る電気信号を出力するものであることを特徴とする請求項1乃至請求項4のいずれか1項に記載の発声補助装置。
The consonant signal generation unit includes a plurality of switches that can be attached to each finger of the hand and can output an ON-OFF signal. One consonant component is previously added to a combination of ON-OFF signals output from these switches. The utterance assisting device according to any one of claims 1 to 4, wherein an electrical signal related to a corresponding consonant component is output by making each correspond.
JP2005033845A 2005-02-10 2005-02-10 Voice assist device Expired - Fee Related JP3869448B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005033845A JP3869448B2 (en) 2005-02-10 2005-02-10 Voice assist device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005033845A JP3869448B2 (en) 2005-02-10 2005-02-10 Voice assist device

Publications (2)

Publication Number Publication Date
JP2006220880A true JP2006220880A (en) 2006-08-24
JP3869448B2 JP3869448B2 (en) 2007-01-17

Family

ID=36983252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005033845A Expired - Fee Related JP3869448B2 (en) 2005-02-10 2005-02-10 Voice assist device

Country Status (1)

Country Link
JP (1) JP3869448B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084041A (en) * 2015-10-27 2017-05-18 株式会社ダイヘン Voice command input device and welding system
CN111915940A (en) * 2020-06-29 2020-11-10 厦门快商通科技股份有限公司 Method, system, terminal and storage medium for evaluating and teaching spoken language pronunciation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084041A (en) * 2015-10-27 2017-05-18 株式会社ダイヘン Voice command input device and welding system
CN111915940A (en) * 2020-06-29 2020-11-10 厦门快商通科技股份有限公司 Method, system, terminal and storage medium for evaluating and teaching spoken language pronunciation

Also Published As

Publication number Publication date
JP3869448B2 (en) 2007-01-17

Similar Documents

Publication Publication Date Title
US11011075B1 (en) Calibration of haptic device using sensor harness
US5536171A (en) Synthesis-based speech training system and method
US5340316A (en) Synthesis-based speech training system
US20070168187A1 (en) Real time voice analysis and method for providing speech therapy
KR20180115599A (en) The Guidance and Feedback System for the Improvement of Speech Production and Recognition of its Intention Using Derencephalus Action
Freitas et al. An introduction to silent speech interfaces
Paroni et al. Vocal drum sounds in human beatboxing: An acoustic and articulatory exploration using electromagnetic articulography
Falk et al. Augmentative communication based on realtime vocal cord vibration detection
Meltzner et al. Speech recognition for vocalized and subvocal modes of production using surface EMG signals from the neck and face.
Slifka Respiratory constraints on speech production at prosodic boundaries
JP3869448B2 (en) Voice assist device
US20200069414A1 (en) Electrolarynx devices and uses thereof
JP2908720B2 (en) Synthetic based conversation training device and method
KR101471741B1 (en) Vocal practic system
Padmini et al. Sensor based speech production system without use of glottis
KR20170059665A (en) Movement type education apparatus based on sensor for detecting foreign language rhythmical action, and movement type education method using the same
Ifukube Sound-based assistive technology supporting" seeing"," hearing" and" speaking" for the disabled and the elderly.
Zin et al. Contact Pattern of/b/and/p/in Malay Language Using Electropalatography
JP2002082604A (en) Device and method for giving instruction on articulation and recording medium with recorded information processing program
JP2007079521A (en) Improved rehabilitation tool

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060627

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091020

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121020

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees