JP2839983B2 - Pseudo sound generator - Google Patents

Pseudo sound generator

Info

Publication number
JP2839983B2
JP2839983B2 JP4097572A JP9757292A JP2839983B2 JP 2839983 B2 JP2839983 B2 JP 2839983B2 JP 4097572 A JP4097572 A JP 4097572A JP 9757292 A JP9757292 A JP 9757292A JP 2839983 B2 JP2839983 B2 JP 2839983B2
Authority
JP
Japan
Prior art keywords
pseudo
sound
voice
vocal
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP4097572A
Other languages
Japanese (ja)
Other versions
JPH05293128A (en
Inventor
正慶 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP4097572A priority Critical patent/JP2839983B2/en
Publication of JPH05293128A publication Critical patent/JPH05293128A/en
Application granted granted Critical
Publication of JP2839983B2 publication Critical patent/JP2839983B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Prostheses (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、声帯などの発声器官を
除去されたあるいは先天的に欠如している人体におい
て、健常者と同等な音声を発生させるための補装具に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a prosthetic device for generating a sound equivalent to that of a healthy person in a human body from which a vocal cord or other vocal organs have been removed or congenitally lacked.

【0002】[0002]

【従来の技術】一般に人間は、声帯の狭い隙間に気道か
らの強い空気の流れを生じさせて発声する。この空気の
圧力、声帯の間隔などにより音量、音調が決定される。
さらにこれと同時の口腔、鼻腔の形状変化により音色を
変化させ、また口腔部で発生する音と組み合せ、言語を
発音している。人体において何らかの理由により発声器
官の一部、特に声帯やその周辺の組織を除去した場合、
それ以降、健常者と同等な音声によるコミュニケーショ
ンを行なうことができなくなり、また音声認識装置など
の誤動作を生じやすい。このような後天的な発声器官の
除去が行なわれる理由として、悪性の喉頭ガン、極度の
喉頭炎および外傷などが挙げられる。また、先天的にこ
のような器官が欠如している人体においてもこのような
障害が生じる。このように発声器官の一部を欠いている
該当者においては、手話、筆談またはキーボードを使用
するなど音声以外のコミュニケーション手段をとらざる
を得ないことが多く、音声によってコミュニケーション
を図る場合には、体外からバイブレータを押し当て、
これと同時に喉頭部、口腔、鼻腔を変形させて音声を発
生させる方法、食道など本来の発声器官以外の組織を
呼吸あるいは胃から逆流する空気とともに振動させ、こ
れと同時に喉頭部、口腔、鼻腔を変形させて発声させる
方法(食道発声法)、喉頭笛を後頭部に装着して音声
を発生する方法などによって、本来の発声器官の動作を
代替させなければならなかった。
2. Description of the Related Art Generally, a human utters a voice by generating a strong airflow from an airway in a narrow gap of a vocal cord. The volume and tone are determined by the pressure of the air, the interval between the vocal cords, and the like.
Furthermore, the timbre is changed by changing the shape of the oral cavity and the nasal cavity at the same time, and the language is pronounced in combination with the sound generated in the oral cavity. When some parts of the vocal organs, especially the vocal cords and surrounding tissues, are removed from the human body for any reason,
Thereafter, communication by voice equivalent to a healthy person cannot be performed, and a malfunction of a voice recognition device or the like is likely to occur. Reasons for such acquired vocal organ removal include malignant laryngeal cancer, extreme laryngitis and trauma. Such disorders also occur in the human body, which naturally lacks such organs. For those who lack a part of the vocal organs in this way, they often have to take other means of communication other than voice, such as using sign language, writing, or using a keyboard. Press the vibrator from outside the body,
At the same time, the method of generating sound by deforming the larynx, oral cavity, and nasal cavity, and vibrating tissues other than the original vocal organs, such as the esophagus, with air flowing backward from the breathing or stomach, and simultaneously the larynx, oral cavity, and nasal cavity The original operation of the vocal organs had to be replaced by a method of deforming and vocalizing (esophageal vocalization), a method of attaching a laryngeal flute to the back of the head, and generating a voice.

【0003】[0003]

【発明が解決しようとする課題】何らかの方法で本来の
発声器官の動作を代替させる場合、のバイブレータを
用いる場合には、常にバイブレータなどの装置を携帯し
なければならない上、特別の訓練を必要とするという問
題点がある。の食道発声法による場合、さらに特別な
訓練を必要とするとともに、大きな精神的、肉体的苦痛
を与えることがあり、また発声器官の欠如の状況によっ
ては発声が不可能なこともあるという問題点がある。ま
た、これらいずれの方法においても、の喉頭笛による
方法においても、発する音声の明瞭度が健常者のそれに
比べ、著しく悪化するという問題点がある。
When the vibrator is used in some way to replace the operation of the original vocal organ, a device such as a vibrator must be carried at all times, and special training is required. There is a problem that. The problem with the esophageal vocalization method is that it requires more special training, may cause great mental and physical distress, and may not be possible depending on the situation of lack of vocal organs. There is. In addition, in any of these methods, the method using the laryngeal whistle also has a problem that the clarity of the uttered voice is significantly worse than that of a healthy person.

【0004】本発明の目的は、補装具として使用され、
発声器官の一部を欠いている装着者に対し苦痛を与える
ことなく、明瞭な音声を発生できる疑似音声発生装置を
提供することにある。
[0004] It is an object of the present invention to be used as a prosthesis,
It is an object of the present invention to provide a pseudo-sound generating device capable of generating a clear sound without giving a pain to a wearer who lacks a part of a vocal organ.

【0005】[0005]

【課題を解決するための手段】本発明の疑似音声発生装
置は、人体の発声器官の状態を検出する検出手段と、前
記検出手段で検出された検出量が入力され、前記発声器
官によって発生させようとしている音声を前記検出量を
基にして疑似的に発生する発声手段とを有する。
According to a first aspect of the present invention, there is provided a pseudo-speech generating apparatus comprising: detecting means for detecting a state of a vocal organ of a human body; a detection amount detected by the detecting means; Voice generating means for simulating the sound to be generated based on the detected amount.

【0006】[0006]

【作用】発声器官の状態を検出する検出手段と、発声器
官によって発生させようとしている音声を検出手段での
検出量を基にして疑似的に発生する発声手段とを有して
いるので、発声器官の一部が欠如して現実には発声でき
ない場合であっても、発声しようとする音声を疑似的に
発生させることができ、音声によるコミュニケーション
を行なうことができる。
Since there are detecting means for detecting the state of the vocal organs and vocal means for simulating the sound to be generated by the vocal organs based on the amount detected by the detecting means, Even if a part of the organ is missing and cannot actually be uttered, the voice to be uttered can be generated in a pseudo manner, and communication by voice can be performed.

【0007】この場合、検出手段は、咽頭部、喉頭部、
気道、顔面、口腔部、鼻腔部の少なくとも1種以上器官
について、当該器官の筋肉の状態、神経の状態、変位
量、応力の少なくとも1種以上の状態量を検出するもの
であるようにすればよい。これは、咽頭部、喉頭部、気
道、顔面、口腔部、鼻腔部のそれぞれの筋肉や神経の状
態、これらの器官の変位量や応力によって、具体的に発
声しようとする音声が定まるからであり、これらの器官
の状態を表わす検出量を基に発声手段が音声を疑似的に
発生させるようにすることにより、この疑似音声発生装
置を装着した人の意図している音声を発生することがで
きる。なお一般に、通常の話者が発生する音声の種類
(発音、調子、音量、声の特徴など)には限りがあるか
ら、これら器官の全てについて、その状態量の全てを測
定する必要はなく、発生させるべき疑似音声の品質への
要求に基づいて、計測対象の器官と計測対象の状態量を
定めればよい。
In this case, the detecting means includes a pharynx, a larynx,
With respect to at least one or more organs of the airway, face, oral cavity, and nasal cavity, at least one or more state quantities of muscle state, nerve state, displacement amount, and stress of the organ are detected. Good. This is because the voice to be uttered is determined by the state of the muscles and nerves of the pharynx, larynx, airway, face, oral cavity, and nasal cavity, and the displacement and stress of these organs. By causing the utterance means to simulate the sound based on the detection amounts representing the states of these organs, it is possible to generate the sound intended by the person wearing the pseudo sound generator. . In general, the types of sounds (pronunciation, tone, volume, voice characteristics, etc.) generated by a normal speaker are limited, so it is not necessary to measure all of the state quantities of all of these organs. The organ to be measured and the state quantity of the measurement target may be determined based on the requirement for the quality of the pseudo sound to be generated.

【0008】また、発声手段は、検出量に対応して発生
すべき音声の波形を記録したデータベース部と、入力す
る検出量を基に前記データベース部を検索し、検索結果
に基づいて音声を発生させる音声変換手段とで構成され
ているようにするとよい。咽頭部、喉頭部、気道、顔
面、口腔部、鼻腔部などの各器官の状態についての検出
量をもとに、各器官のモデルを想定して発生すべき音声
波形を流体力学的計算によって求めることも考えられる
が、このような計算は膨大な計算パワーを必要として現
実的ではない。上述のように音声の種類は限られている
から、これら音声の種類とそれに対応する検出量との相
関関係を記憶させたデータベース部を予め用意し、各器
官の状態を表わす検出量が入力するたびにこのデータベ
ース部を検索するようにすれば、少ないハードウェアと
ソフトウェアによって疑似音声発生装置を構成すること
ができる。このとき、データベース部を外部からの命令
により学習、更新できるようにしておけば、個々の装着
者にもっともふさわしい音声を発生できるようになる。
またこれは、後天的に発声器官の一部を失う人に対し、
失う前の実際の音声を記録しこれに基づいてデータベー
ス部の内容を構築することにより、発声器官を失う前後
での音声への違和感をなくすことができる。
[0008] The utterance means searches the database section based on a detected waveform to be generated corresponding to the detected amount and a database section based on the input detected amount, and generates a voice based on the search result. It is preferable to be configured with voice conversion means for causing the sound to be converted. Based on the detected amount of the state of each organ such as the pharynx, larynx, airway, face, oral cavity, nasal cavity, etc., the sound waveform to be generated assuming a model of each organ is obtained by hydrodynamic calculation It is conceivable, however, that such calculations require enormous computational power and are not practical. Since the types of voices are limited as described above, a database unit storing the correlation between these types of voices and the corresponding detection amounts is prepared in advance, and the detection amounts representing the state of each organ are input. If the database unit is searched each time, the pseudo voice generating apparatus can be configured with a small amount of hardware and software. At this time, if the database unit can be learned and updated by an external command, it is possible to generate a sound most suitable for each wearer.
This also means that for those who acquire some of the vocal organs acquired,
By recording the actual voice before losing and constructing the contents of the database unit based on this, it is possible to eliminate a sense of discomfort to the voice before and after losing the vocal organ.

【0009】本発明において、検出手段は、典型的には
5mm角以下程度の寸法であって、各器官に埋め込まれ
て使用される。一方、発声手段は、装着者の体外、特に
首、襟、胸部などに設けられる。検出手段、発声手段と
も極微細に形成される。
In the present invention, the detection means has a size of typically about 5 mm square or less, and is used by being embedded in each organ. On the other hand, the vocalization means is provided outside the wearer's body, particularly on the neck, collar, chest and the like. Both the detection means and the utterance means are formed extremely finely.

【0010】[0010]

【実施例】次に、本発明の実施例について、図面を参照
して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0011】[実施例1]図1は本発明の一実施例の疑
似音声発生装置におけるセンサチップの配置を示す図、
図2はセンサチップの構成を示すブロック図、図3はこ
の実施例での音声合成ユニットの構成を示すブロック図
である。
[First Embodiment] FIG. 1 is a diagram showing an arrangement of sensor chips in a pseudo sound generator according to one embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of a sensor chip, and FIG. 3 is a block diagram showing a configuration of a voice synthesizing unit in this embodiment.

【0012】この疑似音声発生装置は、検出手段である
5個のセンサチップ101〜105と発声手段である音
声合成ユニットからなる。図1に示すように、1番目の
センサチップ101は咽頭部に設けられて咽頭筋の状態
を検出するものであり、2番目のセンサチップ102は
喉頭部に設けられて気道131の状態を検出するもので
あり、残りの3個のセンサチップ103〜105は口腔
部132に設けられて口腔部132の状態を検出するも
のであり、各々、主として頬の状態、舌の状態、口腔の
開き角度をそれぞれ検出する。これらセンサチップ10
1〜105は、皮膚、粘膜あるいは細胞組織に接着ある
いは埋め込まれることにより検出対象の器官に固定され
ている。
This pseudo-speech generating apparatus comprises five sensor chips 101 to 105 as detecting means and a voice synthesizing unit as voicing means. As shown in FIG. 1, the first sensor chip 101 is provided on the pharynx to detect the state of the pharyngeal muscle, and the second sensor chip 102 is provided on the larynx to detect the state of the airway 131. The remaining three sensor chips 103 to 105 are provided in the oral cavity 132 to detect the state of the oral cavity 132, and are mainly for the cheek state, the tongue state, and the opening angle of the oral cavity, respectively. Are respectively detected. These sensor chips 10
1 to 105 are fixed to the organ to be detected by being adhered or embedded in the skin, mucous membrane or cellular tissue.

【0013】次に、各センサチップ101〜105の構
成について説明する。各センサチップ101〜105
は、図2に示すように、センサ部111、センサ部11
1で検出した微弱な信号を増幅して変調信号に変換する
信号変換部112、センサチップ内の状態を監視してモ
ニタ信号として出力するチップ内監視部113、変調信
号およびモニタ信号を電波として外部に送信する信号送
信部114とからなっている。センサ部111は、機械
的変位を検出するものであって、例えば圧電効果を利用
した機械量検出素子や、歪ゲージなどからなる。センサ
部111としては、この他、触針などを用いて筋肉や神
経などから信号を直接取り出すものであってもよい。後
述するように音声合成ユニットと各センサチップとの距
離はせいぜい10cm以下であるから、信号送信部11
4における電波の送信電力は極めて微弱なものでよい。
信号送信部114からの電波の搬送周波数は、各センサ
チップ101〜105ごとに異なるようにされている。
Next, the configuration of each of the sensor chips 101 to 105 will be described. Each sensor chip 101 to 105
Are the sensor units 111 and 11 as shown in FIG.
A signal converter 112 for amplifying the weak signal detected in step 1 and converting it into a modulated signal; a chip monitoring unit 113 for monitoring the state in the sensor chip and outputting it as a monitor signal; And a signal transmission unit 114 for transmitting the signal to The sensor unit 111 detects a mechanical displacement, and includes, for example, a mechanical amount detecting element using a piezoelectric effect, a strain gauge, and the like. In addition, the sensor unit 111 may be a unit that directly extracts a signal from a muscle, a nerve, or the like using a stylus or the like. As will be described later, the distance between the speech synthesis unit and each sensor chip is at most 10 cm or less.
The transmission power of the radio wave in 4 may be very weak.
The carrier frequency of the radio wave from the signal transmitting unit 114 is different for each of the sensor chips 101 to 105.

【0014】センサチップ101〜105の動作には電
力が必要であるが、上述のように送信電力は極めて微弱
であり、また現在利用可能な省電力技術を用いることに
よりセンサチップ全体の消費電力を極めて小さい水準に
抑えることが可能なので、この電力はセンサチップ内に
設けられた微小な1次電池から供給されるようにするこ
とができる。この場合、この1次電池は事実上半永久的
に使用できる。あるいは、外部から生体に影響を与えな
いレベルの電波をセンサチップに照射し、この電波を整
流してセンサチップ内に設けられた2次電池に貯えられ
るようにしてもよい。このときは、給電用の電波の輻射
量を最小限にするべきであるから2次電池の充電量を外
部から知る必要があり、上述のチップ内監視部113に
よって2次電池の充電量を監視するようにすればよい。
その他、振動や人体の運動に伴ってセンサチップに加わ
る加速度を電気エネルギーに変換するような素子を用い
て電力を供給するようにしてもよい。
Although the operation of the sensor chips 101 to 105 requires power, the transmission power is extremely weak as described above, and the power consumption of the entire sensor chip can be reduced by using currently available power saving techniques. Since the power can be suppressed to an extremely small level, this power can be supplied from a minute primary battery provided in the sensor chip. In this case, the primary battery can be used virtually semi-permanently. Alternatively, the sensor chip may be radiated from the outside with radio waves at a level that does not affect the living body, and the radio waves may be rectified and stored in a secondary battery provided in the sensor chip. At this time, the amount of radiation of the power supply radio wave should be minimized, so it is necessary to know the charge amount of the secondary battery from the outside, and the above-described monitoring unit 113 monitors the charge amount of the secondary battery. What should I do?
In addition, power may be supplied using an element that converts acceleration applied to the sensor chip with vibration or movement of a human body into electric energy.

【0015】一方、音声合成ユニットは、各センサチッ
プ101〜105からの信号電波を受信する受信部12
1、データベース部を構成する書き換え可能なメモリ1
22、受信部121で受信した信号電波に基づいてメモ
リ122内を検索し発生すべき音声の種類を決定するマ
イクロコンピュータ123、マイクロコンピュータ12
3で決定された音声の種類に基づいて音声波形を発生す
る音声合成部124、音声波形を増幅するアンプ12
5、アンプ125の出力側に接続されたスピーカ126
とからなる。そしてこの音声合成ユニットは、装着者の
体外、例えば首や襟部に装着される。首や襟部に音声合
成ユニットを設けると、各センサチップ101〜105
と音声合成ユニットとの距離を概ね10cm以下とで
き、センサチップ101〜105での送信電力を極めて
小さいものとすることができる。また各センサチップ1
01〜105が電波によって給電されるものであるとき
は、この音声合成ユニット内に給電用の電波を発生する
送信部を設けておけばよい。
On the other hand, the voice synthesizing unit includes a receiving unit 12 for receiving signal radio waves from each of the sensor chips 101 to 105.
1. Rewritable memory 1 constituting a database unit
22, a microcomputer 123 and a microcomputer 12 which search the memory 122 based on signal radio waves received by the receiving unit 121 and determine the type of sound to be generated
Speech synthesizer 124 that generates a speech waveform based on the speech type determined in step 3, and amplifier 12 that amplifies the speech waveform
5. Speaker 126 connected to the output side of amplifier 125
Consists of The voice synthesizing unit is mounted outside the wearer's body, for example, on the neck or collar. When a voice synthesizing unit is provided on the neck or collar, each of the sensor chips 101 to 105
The distance between the voice signal and the voice synthesis unit can be made approximately 10 cm or less, and the transmission power of the sensor chips 101 to 105 can be extremely small. Each sensor chip 1
When 01 to 105 are supplied by radio waves, a transmission unit for generating power supply radio waves may be provided in the voice synthesizing unit.

【0016】データベース部であるメモリ122には、
各発声器官の状態と音声との相関関係を記述したデータ
ベースが格納されてている。また、メモリ122には、
外部に設けられた操作盤127が接続できるようになっ
ている。この操作盤127は、メモリ122に格納され
たデータベースを随時学習、更新させるのためのもので
あり、音量、音調、一般的な発音記号などが入力できる
ようになっている。実際に発声するのと同様に各発声器
官に力を入れながら、すなわち各発声器官の状態を発生
したい音声に応じて変化させながら、装着者がこの操作
盤127を操作してどの様な音声を発生すべきかを命令
することにより、データベースの学習、更新が行なわ
れ、前述のように力を入れたときにこの音声合成ユニッ
トで発生する音声の種類、すなわち発音、音の高さ、調
子、音色、音量、声の特徴などを自由に変えられるよう
になっている。
In the memory 122 as a database unit,
A database that describes the correlation between the state of each vocal organ and the voice is stored. Also, in the memory 122,
An operation panel 127 provided outside can be connected. The operation panel 127 is for learning and updating the database stored in the memory 122 at any time, and can input a volume, a tone, general phonetic symbols, and the like. The wearer operates the operation panel 127 to change what kind of sound while putting emphasis on each vocal organ in the same manner as actually uttering, that is, changing the state of each vocal organ according to the voice to be generated. By instructing whether to generate, the database is learned and updated, and the type of voice generated by this voice synthesizing unit when the emphasis is made as described above, that is, pronunciation, pitch, tone, timbre , Volume and voice characteristics can be changed freely.

【0017】次に、この疑似音声発生装置の動作につい
て説明する。
Next, the operation of the pseudo sound generator will be described.

【0018】装着者が、発生させようとする音声に応じ
て各発声器官に力を入れると、これら発声器官に変位が
発生して各センサチップ101〜105のセンサ部11
1でその変位が検出される。センサ部111が神経や筋
肉から信号を直接取り出すものであるときは、各発声器
官に対する力の入れ方に相当する信号が直接検出される
こととなる。そして、センサ部111で検出された信号
は、信号変換部112で変調信号に変換され、信号送信
部114から電波として送信される。咽頭部に配置され
たセンサチップ101は主として声帯筋の変位の情報を
検出し、喉頭部に配置されたセンサチップ102は主と
して肺からの空気の圧力による変位の情報を検出し、口
腔部132に配置されたセンサチップ103〜105
は、口腔の各部の変位を主として検出する。
When the wearer applies a force to each of the vocal organs in response to the sound to be generated, displacement occurs in these vocal organs, and the sensor units 11 of the sensor chips 101 to 105 are displaced.
At 1 the displacement is detected. When the sensor unit 111 directly extracts a signal from a nerve or a muscle, a signal corresponding to how to apply force to each vocal organ is directly detected. Then, the signal detected by the sensor unit 111 is converted into a modulation signal by the signal conversion unit 112 and transmitted as a radio wave from the signal transmission unit 114. The sensor chip 101 arranged on the pharynx mainly detects information on displacement of the vocal cord muscles, and the sensor chip 102 arranged on the larynx mainly detects information on displacement due to the pressure of air from the lungs. Sensor chips 103 to 105 arranged
Detects mainly the displacement of each part of the oral cavity.

【0019】各センサチップ101〜105からの信号
電波は、音声合成ユニットの受信部121で受信されて
復調される。センサチップごとに信号電波の搬送周波数
が異なるから、どのセンサチップからの信号電波である
かは容易に識別できる。復調された信号はすなわち各セ
ンサチップ101〜105による検出量であるが、マイ
クロコンピュータ123は、この検出量に対応する音声
の種類をメモリ122中のデータベースの中から検索
し、もっとも近い音声のパターンを抽出し、発生すべき
音声の種類を決定する。音声合成部124は、決定され
た音声の種類に基づいて音声波形を発生し、この音声波
形はアンプ125で増幅されてスピーカ126から実際
の音波として空気中に送り出される。上述のようにデー
タベースは学習、更新可能であって、各発声器官にある
特定の力の入れ方をしたときの検出量と、この特定の力
の入れ方をしたときに発生すべき音声とがこのデータベ
ースに記憶されているから、装着者が発生させようとし
た音声の種類を間違いなく検索することができ、したが
って、装着者が発生させようとした音声を正確に発生さ
せることができる。また、予めデータベースに記憶させ
た音声の種類に基づいて音声を発生させるので、明瞭な
音声が得られる。
Signal radio waves from each of the sensor chips 101 to 105 are received and demodulated by the receiving section 121 of the voice synthesizing unit. Since the carrier frequency of the signal wave differs for each sensor chip, it is easy to identify which sensor chip the signal wave is coming from. The demodulated signal is the detected amount of each of the sensor chips 101 to 105. The microcomputer 123 searches the database in the memory 122 for the type of sound corresponding to the detected amount, and finds the closest sound pattern. Is extracted, and the type of sound to be generated is determined. The voice synthesizer 124 generates a voice waveform based on the determined voice type, and the voice waveform is amplified by the amplifier 125 and sent out from the speaker 126 into the air as an actual sound wave. As described above, the database can be learned and updated, and the detected amount when a certain force is applied to each vocal organ and the sound to be generated when the specific force is applied are determined. Since it is stored in this database, the type of sound that the wearer intends to generate can be searched without a doubt, and therefore, the sound that the wearer intends to generate can be generated accurately. In addition, since voice is generated based on the type of voice stored in the database in advance, clear voice can be obtained.

【0020】[実施例2]図4は本発明の別の実施例の
疑似音声発生装置におけるマーカチップの配置を示す
図、図5はマーカチップの構成を示すブロック図、図6
はこの実施例での音声合成ユニットの構成を示すブロッ
ク図である。この実施例は、各発声器官の相互間の変位
を検出して音声を発生させるものである。
[Embodiment 2] FIG. 4 is a diagram showing an arrangement of marker chips in a pseudo sound generator according to another embodiment of the present invention, FIG. 5 is a block diagram showing a configuration of the marker chips, and FIG.
FIG. 3 is a block diagram showing a configuration of a speech synthesis unit in this embodiment. In this embodiment, a voice is generated by detecting a displacement between the respective vocal organs.

【0021】この疑似音声発生装置は、5個のマーカチ
ップ201〜205と、音声合成ユニットとからなって
いる。各マーカチップ201〜205は、図4に示すよ
うに、それぞれ、咽頭部、喉頭部の気道131側、頬、
舌、顎に設けられている。これらマーカチップ201〜
205は、皮膚、粘膜あるいは細胞組織に接着あるいは
埋め込まれることにより検出対象の器官に固定されてい
る。各マーカチップ201〜205は、図5に示すよう
に、例えば数百MHz程度の高周波を発生する発振部2
11と、発振部211で発生した高周波を電波として出
力する送信部212とからなっている。発振部211で
の発振周波数は、各マーカチップ201〜205ごとに
異なるようにされている。マーカチップ201〜205
は、上述の実施例1のセンサチップ101〜105とは
異なり、変位などを検出するセンサ部を有せず、定常的
に一定周波数の高周波を送信し続けるものである。した
がって、上述のセンサチップに比べさらに消費電力を小
さくすることができる。このマーカチップ201〜20
5への給電方法は、上述のセンサチップ101〜105
と同様である。
This pseudo speech generator comprises five marker chips 201 to 205 and a speech synthesis unit. As shown in FIG. 4, each of the marker chips 201 to 205 includes a pharynx, a laryngeal airway 131 side, a cheek,
It is provided on the tongue and chin. These marker chips 201 to
205 is fixed to the organ to be detected by adhering or embedding it to skin, mucous membrane or cellular tissue. As shown in FIG. 5, each of the marker chips 201 to 205 has an oscillation unit 2 that generates a high frequency of, for example, about several hundred MHz.
11 and a transmission unit 212 that outputs the high frequency generated by the oscillation unit 211 as a radio wave. The oscillating frequency of the oscillating unit 211 is different for each of the marker chips 201 to 205. Marker chips 201-205
Unlike the sensor chips 101 to 105 of the first embodiment described above, the sensor chip does not have a sensor unit for detecting displacement or the like, and continuously transmits a high frequency having a constant frequency. Therefore, power consumption can be further reduced as compared with the above-described sensor chip. These marker chips 201 to 20
5 is supplied to the sensor chips 101 to 105 described above.
Is the same as

【0022】一方、音声合成ユニットは、図6に示すよ
うに、各マーカチップ201〜205からの電波を受信
する3個の受信部221〜223、各受信部221〜2
23で受信された電波の相互の位相を比較する位相比較
器224、データベース部を構成する書き換え可能なメ
モリ122、位相比較器224で求めた位相の比較値に
基づいて各マーカチップ201〜205の相対位置変動
を算出しメモリ122内を検索して発生すべき音声の種
類を決定するマイクロコンピュータ225、マイクロコ
ンピュータ225で決定された音声の種類に基づいて音
声波形を発生する音声合成部124、音声波形を増幅す
るアンプ125、アンプ125の出力側に接続されたス
ピーカ126とからなる。メモリ122、音声合成部1
24、アンプ125、スピーカ126は上述の実施例1
でのものと同様である。また、メモリ122には操作盤
127が接続可能であって、メモリ122内に格納され
たデータベースが学習、更新可能であることも上述の実
施例1と同様である。この音声合成ユニットは、装着者
の体外、例えば首や襟部に装着される。このとき、3個
の受信部221〜223は、同一直線上には並ばないよ
うに配置される。
On the other hand, as shown in FIG. 6, the voice synthesizing unit includes three receiving units 221 to 223 for receiving radio waves from the respective marker chips 201 to 205, and each of the receiving units 221 to 221.
23, a phase comparator 224 for comparing the phases of the radio waves received by each other, a rewritable memory 122 constituting a database unit, and the marker chips 201 to 205 based on the phase comparison values obtained by the phase comparator 224. A microcomputer 225 for calculating relative position fluctuations and searching the memory 122 to determine the type of voice to be generated; a voice synthesis unit 124 for generating a voice waveform based on the type of voice determined by the microcomputer 225; An amplifier 125 amplifies the waveform, and a speaker 126 connected to the output side of the amplifier 125. Memory 122, speech synthesizer 1
24, the amplifier 125, and the speaker 126 are the same as those in the first embodiment.
The same as in. The operation panel 127 can be connected to the memory 122, and the database stored in the memory 122 can be learned and updated, as in the first embodiment. This speech synthesis unit is worn outside the body of the wearer, for example, on the neck or collar. At this time, the three receiving units 221 to 223 are arranged so as not to be aligned on the same straight line.

【0023】次に、この疑似音声発生装置の動作につい
て説明する。
Next, the operation of the pseudo sound generator will be described.

【0024】装着者が発生させようとする音声に応じて
各発声器官に力を入れると、これら発声器官に変位が発
生し、各マーカチップ201〜205の位置が変化し、
各マーカチップ201〜205と各受信部221〜22
3との距離が変化し、各受信部201〜203で受信さ
れる電波の位相にずれが生じることになる。音声合成ユ
ニットの3個の受信部221〜223は、同一直線上に
はないので、各受信部221〜223で受信した電波の
位相差の変化を位相比較器214で検出することによ
り、各マーカチップ201〜205の移動方向および移
動距離が求められ、これらマーカチップ201〜205
の設けられている器官の変位量が求められることにな
る。なお、首の運動などによって頭部全体が移動したこ
とと各器官ごとの運動とを区別するため、全てのマーカ
チップ201〜205についての位置変動を求め、マー
カチップ相互間の相対位置運動、とりわけ口腔部132
(頬、舌、顎)の動きを検出するようにする。各マーカ
チップ201〜205の送信する電波の周波数が異なっ
ていることにより、各マーカチップからの送信電波を識
別することは容易であり、同時に全てのマーカチップ2
01〜205の変位量を検出することができる。このよ
うにして求めた各器官の変位量について、上述の実施例
1と同様に、予めメモリ122に、これら各器官の変位
量と発生すべき音声との相関関係を記述したデータベー
スを構築しておくことにより、装着者が発生しようとし
た音声を正確に発生させることができる。
When a force is applied to each of the vocal organs in accordance with the sound to be generated by the wearer, displacement occurs in these vocal organs, and the positions of the marker chips 201 to 205 change.
Each marker chip 201-205 and each receiving section 221-222
3 changes, and the phases of the radio waves received by the receivers 201 to 203 are shifted. Since the three receiving units 221 to 223 of the voice synthesizing unit are not on the same straight line, the phase comparator 214 detects a change in the phase difference of the radio wave received by each of the receiving units 221 to 223, so that each marker The moving direction and the moving distance of the chips 201 to 205 are obtained, and these marker chips 201 to 205 are obtained.
The displacement amount of the organ provided with is determined. In order to distinguish between movement of the entire head due to movement of the neck and the like and movement of each organ, position variations of all the marker chips 201 to 205 are obtained, and relative position movement between the marker chips, particularly Oral cavity 132
(Cheek, tongue, jaw) movement is detected. Since the frequency of the radio wave transmitted from each of the marker chips 201 to 205 is different, it is easy to identify the radio wave transmitted from each of the marker chips.
The displacement amounts of 01 to 205 can be detected. With respect to the displacement amounts of the respective organs obtained in this manner, similarly to the first embodiment, a database in which a correlation between the displacement amounts of the respective organs and the sound to be generated is described is constructed in the memory 122 in advance. By doing so, the sound that the wearer intends to generate can be generated accurately.

【0025】以上、本発明の実施例について説明した
が、発生させる音声の精度、体内に埋め込まれる部分の
サイズなどを考慮して、例えば気道の状態を検出するた
めにセンサチップを用い、その他の部分ではマーカチッ
プを使用することなど、上述のセンサチップとマーカチ
ップなどを組み合せて使用することも有効である。
Although the embodiments of the present invention have been described above, for example, a sensor chip is used to detect the state of the airway in consideration of the accuracy of the sound to be generated, the size of the portion to be embedded in the body, and other factors. It is also effective to use a combination of the above-described sensor chip and marker chip, such as using a marker chip in a part.

【0026】本発明による疑似音声発生装置の特徴は、
明瞭な音声を発生できるとともに、装着者に対して特別
の訓練などの負担をかけなくて済むことである。本発明
においては、特にセンサチップ、マーカチップなどは極
微細に構成されなくてはならない。これは、半導体製造
技術を応用したマイクロマシーニングの手法によって実
現されるものである。
The features of the pseudo sound generator according to the present invention are as follows.
A clear voice can be generated, and a burden such as special training is not required for the wearer. In the present invention, in particular, the sensor chip, the marker chip, and the like must be extremely finely configured. This is realized by a micromachining technique using semiconductor manufacturing technology.

【0027】[0027]

【発明の効果】以上説明したように本発明は、発声器官
の状態を検出する検出手段と、発声器官によって発生し
ようとしている音声を検出手段での検出量を基にして疑
似的に発生する発声手段とを設けることにより、発声器
官の一部が欠如して現実には発声できない場合であって
も、特別の訓練を行なうことなしに明瞭な音声によるコ
ミュニケーションを行なうことができるようになり、音
声認識装置などの誤動作が減り、また装着者の精神的負
担が軽減するという効果がある。
As described above, the present invention provides a detecting means for detecting the state of a vocal organ, and a vocal sound generated quasi-generated based on the amount of sound to be generated by the vocal organ based on the detection amount of the detecting means. By providing the means, even in the case where a part of the vocal organs cannot be actually uttered due to lack of vocal organs, it is possible to perform clear voice communication without performing special training, and This has the effect of reducing malfunctions of the recognition device and the like and reducing the mental burden on the wearer.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施例1の疑似音声発生装置におけるセンサチ
ップの配置を示す図である。
FIG. 1 is a diagram showing an arrangement of sensor chips in a pseudo sound generation device according to a first embodiment.

【図2】実施例1におけるセンサチップの構成を示すブ
ロック図である。
FIG. 2 is a block diagram illustrating a configuration of a sensor chip according to the first embodiment.

【図3】実施例1における音声合成ユニットの構成を示
すブロック図である。
FIG. 3 is a block diagram illustrating a configuration of a speech synthesis unit according to the first embodiment.

【図4】実施例2の疑似音声発生装置におけるマーカチ
ップの配置を示す図である。
FIG. 4 is a diagram illustrating an arrangement of marker chips in a pseudo sound generator according to a second embodiment.

【図5】実施例2におけるマーカチップの構成を示すブ
ロック図である。
FIG. 5 is a block diagram illustrating a configuration of a marker chip according to a second embodiment.

【図6】実施例2における音声合成ユニットの構成を示
すブロック図である。
FIG. 6 is a block diagram illustrating a configuration of a speech synthesis unit according to a second embodiment.

【符号の説明】[Explanation of symbols]

101〜105 センサチップ 111 センサ部 112 信号変換部 113 チップ内監視部 114 信号送信部 121,221〜223 受信部 122 メモリ 123,225 マイクロコンピュータ 124 音声合成部 125 アンプ 126 スピーカ 127 操作盤 201〜205 マーカチップ 211 発振部 212 送信部 224 位相比較器 101 to 105 Sensor chip 111 Sensor unit 112 Signal conversion unit 113 In-chip monitoring unit 114 Signal transmission unit 121, 221-223 Receiving unit 122 Memory 123, 225 Microcomputer 124 Voice synthesis unit 125 Amplifier 126 Speaker 127 Operation panel 201-205 Marker Chip 211 Oscillator 212 Transmitter 224 Phase comparator

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 人体の発声器官の状態を検出する検出手
段と、前記検出手段で検出された検出量が入力され、前
記発声器官によって発生させようとしている音声を前記
検出量を基にして疑似的に発生する発声手段とを有する
疑似音声発生装置。
1. A detecting means for detecting a state of a vocal organ of a human body, and a detection amount detected by the detecting means is inputted, and a sound to be generated by the vocal organ is simulated based on the detected amount. A pseudo-speech generating device having a vocalization means for generating a pseudo sound.
【請求項2】 検出手段は、咽頭部、喉頭部、気道、顔
面、口腔部、鼻腔部の少なくとも1種以上器官につい
て、当該器官の筋肉の状態、神経の状態、変位量、応力
の少なくとも1種以上の状態量を検出するものである請
求項1に記載の疑似音声発生装置。
2. The method according to claim 1, wherein the detecting means comprises at least one of a pharynx, a larynx, an airway, a face, an oral cavity, and a nasal cavity, at least one of a muscle state, a nerve state, a displacement amount, and a stress of the organ. 2. The pseudo-speech generating apparatus according to claim 1, wherein the pseudo-sound generating apparatus detects at least three kinds of state quantities.
【請求項3】 検出手段は人体の内部に埋め込まれ、発
声手段は前記人体の外部に設けられる請求項1または2
に記載の疑似音声発生装置。
3. The human body according to claim 1, wherein the detecting means is embedded inside the human body, and the vocal means is provided outside the human body.
A pseudo-speech generating device according to claim 1.
【請求項4】 発声手段は、検出量に対応して発生すべ
き音声の波形を記録したデータベース部と、入力する検
出量を基に前記データベース部を検索し、検索結果に基
づいて音声を発生させる音声変換手段とで構成されてい
る請求項1ないし3いずれか1項に記載の疑似音声発生
装置。
4. A vocalization means searches a database section in which a waveform of a voice to be generated corresponding to the detected amount is recorded, and searches the database section based on the input detected amount, and generates a voice based on the search result. 4. The pseudo-sound generating apparatus according to claim 1, wherein said pseudo-sound generating apparatus comprises a sound converting means for causing the pseudo sound to be generated.
【請求項5】 データベース部は、外部からの命令によ
り学習、更新させることが可能なものである請求項4に
記載の疑似音声発生装置。
5. The pseudo-speech generating apparatus according to claim 4, wherein the database unit is capable of learning and updating by a command from the outside.
JP4097572A 1992-04-17 1992-04-17 Pseudo sound generator Expired - Fee Related JP2839983B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4097572A JP2839983B2 (en) 1992-04-17 1992-04-17 Pseudo sound generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4097572A JP2839983B2 (en) 1992-04-17 1992-04-17 Pseudo sound generator

Publications (2)

Publication Number Publication Date
JPH05293128A JPH05293128A (en) 1993-11-09
JP2839983B2 true JP2839983B2 (en) 1998-12-24

Family

ID=14195958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4097572A Expired - Fee Related JP2839983B2 (en) 1992-04-17 1992-04-17 Pseudo sound generator

Country Status (1)

Country Link
JP (1) JP2839983B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11810549B2 (en) 2021-02-18 2023-11-07 Samsung Electronics Co., Ltd. Speech recognition using facial skin strain data

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004024551A (en) 2002-06-26 2004-01-29 Renesas Technology Corp Semiconductor device for sensor system
JP4940408B2 (en) * 2007-03-28 2012-05-30 達 伊福部 Electric artificial larynx
FR2972344B1 (en) * 2011-03-07 2014-01-31 Lape Medical DEVICE FOR MONITORING A MEDICAL PROSTHESIS AND THE HUMAN BODY

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11810549B2 (en) 2021-02-18 2023-11-07 Samsung Electronics Co., Ltd. Speech recognition using facial skin strain data

Also Published As

Publication number Publication date
JPH05293128A (en) 1993-11-09

Similar Documents

Publication Publication Date Title
US10777180B2 (en) Apparatus for a reed instrument
Childers et al. Electroglottography for laryngeal function assessment and speech analysis
US7082395B2 (en) Signal injection coupling into the human vocal tract for robust audible and inaudible voice recognition
US5171930A (en) Electroglottograph-driven controller for a MIDI-compatible electronic music synthesizer device
JP2000504848A (en) Method and apparatus for non-acoustic speech characterization and recognition
JP2000504849A (en) Speech coding, reconstruction and recognition using acoustics and electromagnetic waves
US20230154450A1 (en) Voice grafting using machine learning
Mindlin et al. Experimental support for a model of birdsong production
US11361783B2 (en) Computer-aided conversion test system and method for generating intelligible speech
Sundberg Phonatory vibrations in singers: A critical review
JP2839983B2 (en) Pseudo sound generator
Meltzner et al. Speech recognition for vocalized and subvocal modes of production using surface EMG signals from the neck and face.
Slifka Respiratory constraints on speech production at prosodic boundaries
Fréour Acoustic and respiratory pressure control in brass instrument performance
JP5347505B2 (en) Speech estimation system, speech estimation method, and speech estimation program
Kröger et al. Articulatory synthesis of speech and singing: State of the art and suggestions for future research
US6856952B2 (en) Detecting a characteristic of a resonating cavity responsible for speech
Simpson et al. Detecting larynx movement in non-pulmonic consonants using dual-channel electroglottography
US20200069414A1 (en) Electrolarynx devices and uses thereof
Sundberg Chest vibrations in singers
CN112863263B (en) Korean pronunciation correction system based on big data mining technology
Slifka Respiratory constraints on speech production: Starting an utterance
Hinton Interlabial pressure during production of bilabial phones
Stone A silent-speech interface using electro-optical stomatography
JPS6212516B2 (en)

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071016

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081016

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091016

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091016

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101016

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101016

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111016

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees