JP7373739B2 - Speech-to-text conversion system and speech-to-text conversion device - Google Patents
Speech-to-text conversion system and speech-to-text conversion device Download PDFInfo
- Publication number
- JP7373739B2 JP7373739B2 JP2019103763A JP2019103763A JP7373739B2 JP 7373739 B2 JP7373739 B2 JP 7373739B2 JP 2019103763 A JP2019103763 A JP 2019103763A JP 2019103763 A JP2019103763 A JP 2019103763A JP 7373739 B2 JP7373739 B2 JP 7373739B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- voice
- speech
- bone conduction
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims description 95
- 210000000988 bone and bone Anatomy 0.000 claims description 127
- 230000005236 sound signal Effects 0.000 claims description 82
- 238000000034 method Methods 0.000 claims description 23
- 210000001260 vocal cord Anatomy 0.000 claims description 16
- 210000003454 tympanic membrane Anatomy 0.000 claims description 11
- 230000003595 spectral effect Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 12
- 238000012937 correction Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000001228 spectrum Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 2
- 208000010473 Hoarseness Diseases 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000000860 cochlear nerve Anatomy 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 210000000216 zygoma Anatomy 0.000 description 1
Images
Landscapes
- Telephone Function (AREA)
- Telephone Set Structure (AREA)
- Details Of Audible-Bandwidth Transducers (AREA)
Description
本開示は、音声テキスト変換システムおよび音声テキスト変換装置に関する。 The present disclosure relates to a speech-to-text conversion system and a speech-to-text conversion device.
特許文献1には、騒音を低減し、聞き取りやすい音声信号を生成できる音声補正装置が提案されている。この音声補正装置は、空気の振動を用いて気導音を収音する気導マイクと、ユーザの骨の振動を用いて骨導音を収音する骨伝導マイクと、気導音でのユーザの音声の雑音に対する比率を算出する算出部と、骨導音の周波数スペクトルを、比率が第1の閾値以上のときの気導音中の周波数スペクトルに一致させるための補正係数を記憶する記憶部と、骨導音を、補正係数を用いて補正する補正部と、比率が第2の閾値より小さくなると、補正後の骨導音から出力信号を生成する生成部と、を備える。
本開示は、上述した従来の事情に鑑みて案出され、接続されたマイクロホンの種類に応じて、音声を音声認識し、テキスト変換できる音声テキスト変換システムおよび音声テキスト変換装置を提供することを目的とする。 The present disclosure was devised in view of the conventional circumstances described above, and an object of the present disclosure is to provide a speech-to-text conversion system and a speech-to-text conversion device that can recognize speech and convert it into text according to the type of connected microphone. shall be.
本開示は、音声を収音する受音器が接続された端末装置とサーバとの間で通信可能な音声テキスト変換システムであって、前記端末装置は、前記受音器により収音された前記音声の音声信号を前記サーバに送信し、前記サーバは、前記端末装置から受信された前記音声信号のスペクトル特性のうち高周波数成分と低周波数成分との比率に基づいて、前記音声がユーザの声帯の振動に基づく骨導音声あるいは空気を介した前記ユーザの鼓膜の振動に基づく気導音声のいずれかを判別し、前記音声が前記骨導音声の場合、前記骨導音声を前記気導音声に変換し、前記気導音声をテキスト情報に変換し、変換された前記テキスト情報を出力する、音声テキスト変換システムを提供する。 The present disclosure is a voice-to-text conversion system capable of communicating between a server and a terminal device connected to a sound receiver that picks up sound, the terminal device being able to transmitting an audio signal of audio to the server; Distinguish either bone conduction sound based on the vibration of the user's eardrum or air conduction sound based on the vibration of the eardrum of the user through the air, and if the sound is the bone conduction sound, convert the bone conduction sound into the air conduction sound. Provided is a speech-to-text conversion system that converts the air conduction speech into text information and outputs the converted text information.
また、本開示は、音声を収音する受音器との間で通信可能な音声テキスト変換装置であって、前記受音器により収音された前記音声のスペクトル特性のうち高周波数成分と低周波数成分との比率に基づいて、前記音声がユーザの声帯の振動に基づく骨導音声あるいは空気を介した前記ユーザの鼓膜の振動に基づく気導音声のいずれかを判別する音声判別部と、前記骨導音声を前記気導音声に変換する音声変換部と、前記気導音声をテキスト情報に変換する音声認識部と、変換された前記テキスト情報を出力する出力部と、を備える、音声テキスト変換装置を提供する。 The present disclosure also provides a speech-to-text conversion device that is capable of communicating with a sound receiver that picks up speech, and which includes high-frequency components and low-frequency components among the spectral characteristics of the speech picked up by the sound receiver. a voice discrimination unit that determines whether the voice is bone conduction voice based on the vibration of the user's vocal cords or air conduction voice based on the vibration of the user's eardrum through the air, based on a ratio with the frequency component; A voice-to-text converter comprising: a voice converter that converts bone conduction voice into the air conduction voice; a voice recognition unit that converts the air conduction voice into text information; and an output unit that outputs the converted text information. Provide equipment.
本開示によれば、接続されたマイクロホンの種類に応じて、音声を音声認識し、テキスト変換できる。 According to the present disclosure, speech can be recognized and converted into text depending on the type of connected microphone.
(実施の形態1の内容に至る経緯)
特許文献1には、収音された気導音におけるユーザの音声の雑音に対する比率(SNR(Signal to Noise Ratio))に基づいて、骨伝導マイクによって収音された骨導音を補正する音声補正装置が提案されている。この音声補正装置は、比率が第1の閾値以上となる場合に、補正係数(例えば、気導マイクロホンで得られた信号強度を骨導マイクロホンから得られた信号強度で割った値)を用いて骨導音の周波数スペクトルを気導音中の周波数スペクトルに一致させる。音声補正装置は、比率が第2の閾値より小さくなるまで補正を繰り返し、補正後の骨導音から出力信号を生成する。しかし、上述した音声補正装置は、骨導マイクロホンと気導音マイクロホンとを同時に使用して音声を収音する必要があり、一方のマイクロホンによって収音された音声を補正することは困難だった。
(Details leading to the content of Embodiment 1)
そこで、以下の各種の実施の形態においては、接続されたマイクロホンの種類に応じて、音声を音声認識し、テキスト変換できる音声テキスト変換システムおよび音声テキスト変換装置の例を説明する。 Therefore, in the following various embodiments, examples of a speech-to-text conversion system and a speech-to-text conversion device that can recognize speech and convert it into text will be described depending on the type of connected microphone.
以下、適宜図面を参照しながら、本開示に係る音声テキスト変換システムおよび音声テキスト変換装置の構成および作用を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるものであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments specifically disclosing the configuration and operation of a speech-to-text conversion system and a speech-to-text conversion device according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of well-known matters or redundant explanations of substantially the same configurations may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter recited in the claims.
(実施の形態1)
図1は、実施の形態1に係る音声テキスト変換システム100のユースケース例を示す図である。音声テキスト変換システム100は、受音器1と、端末装置2と、サーバ3と、を含んで構成される。受音器1には、骨導マイクロホンMC1または気導マイクロホンMC2のいずれか一方が接続される。
(Embodiment 1)
FIG. 1 is a diagram showing an example use case of the speech-to-
受音器1は、端末装置2との間で有線通信可能に接続された骨導ヘッドセットであり、マイク接続端子11と、スピーカ(不図示)と、を含んで構成される。マイク接続端子11は、骨導マイクロホンMC1と気導マイクロホンMC2とを切り替えて接続可能に構成される。受音器1は、接続されたマイクロホンにより収音されたアナログ音声信号(例えば、骨導マイクロホンMC1により収音された骨導音声、または気導マイクロホンMC2により収音された気導音声に基づいて変換されたアナログ音声信号)を端末装置2に送信する。また、受音器1が備えるスピーカは、骨伝導スピーカ(不図示)である。
The
骨導マイクロホンMC1は、ユーザの声帯付近に装着され、声帯の振動(骨導音声)を収音する圧電素子を有して構成される。骨導マイクロホンMC1は、収音された声帯の振動に伴う機械的応力から電位を発生させ、電位を音声信号(つまり、アナログ音声信号)に変換する。なお、骨導マイクロホンMC1は、声帯付近に限らず、例えば頬骨弓部上に装着され、声帯の振動が伝播した鼻腔音の振動を拾ってもよい。 The bone conduction microphone MC1 is mounted near the user's vocal cords and includes a piezoelectric element that picks up vibrations of the vocal cords (bone conduction sound). The bone conduction microphone MC1 generates an electric potential from mechanical stress accompanying the vibration of the vocal cords that have been picked up, and converts the electric potential into an audio signal (that is, an analog audio signal). Note that the bone conduction microphone MC1 is not limited to the vicinity of the vocal cords, but may be mounted, for example, on the zygomatic arch to pick up the vibrations of nasal sounds propagated by the vibrations of the vocal cords.
骨導マイクロホンMC1は、収音された骨導音声(振動)を増幅する増幅器(不図示)を内蔵し、骨導音声の振動を増幅する。これにより、骨導マイクロホンMC1によって変換されるアナログ音声信号は、増幅器によって利得が上げられているため、デジタル信号変換の際の電圧降下が、気導マイクロホンMC2よりも大きくなる。したがって、端末装置2およびサーバ3は、受信されたアナログ音声信号またはデジタル音声信号の電圧値を検出することにより、音声信号が骨伝導音を変換したものであるか、または気導音声を変換したものであるかを判別することができる。
The bone conduction microphone MC1 includes an amplifier (not shown) that amplifies the collected bone conduction sound (vibration), and amplifies the vibration of the bone conduction sound. As a result, the gain of the analog audio signal converted by the bone conduction microphone MC1 is increased by the amplifier, so that the voltage drop during digital signal conversion becomes larger than that of the air conduction microphone MC2. Therefore, by detecting the voltage value of the received analog audio signal or digital audio signal, the
また、骨導マイクロホンMC1は、ユーザの声帯付近に装備され、気導マイクロホンMC2よりも優れた耐騒音性を有している。よって、骨導マイクロホンMC1は、例えば80~90dBの騒音が発生する工事現場または高架下などであってもユーザの音声を収音することができる。 Furthermore, the bone conduction microphone MC1 is installed near the user's vocal cords and has better noise resistance than the air conduction microphone MC2. Therefore, the bone conduction microphone MC1 can pick up the user's voice even at a construction site or under an overpass where noise of 80 to 90 dB is generated, for example.
気導マイクロホンMC2は、空気を伝搬するユーザの気導音声を音声信号(つまり、アナログ音声信号)に変換する。また、気導マイクロホンMC2は、無指向性マイクロホン、単一指向性マイクロホンまたは相指向性マイクロホンのいずれであってもよいし、またはこれらを組み合わせて複数の種類のマイクのそれぞれとして区別されてもよい。 The air conduction microphone MC2 converts the user's air conduction voice propagating through the air into an audio signal (that is, an analog audio signal). Further, the air conduction microphone MC2 may be an omnidirectional microphone, a unidirectional microphone, or a phase directional microphone, or may be distinguished as each of a plurality of types of microphones by combining these microphones. .
骨伝導スピーカ(不図示)は、音声信号を機械的振動に変換してその振動をユーザの皮膚、頭蓋骨を経由して伝播させ、聴覚神経に伝える。即ち、通常のスピーカは空気の振動で伝えられた音(気導音)を聴くのに対し、骨伝導スピーカは骨の振動で伝えられた音(骨導音)を聴く。また、骨伝導スピーカにより骨伝導で伝わる音声は、外部雑音の影響をほとんど受けない。即ち、骨伝導スピーカを備える受音器1は、外部の騒音を拾いにくいため、耐騒音性を高めることができる。さらに、骨導マイクロホンMC1を備える受音器1は、口元が完全にオープンとなる。これにより、受音器1は、例えばユーザが防塵・防毒マスクなどを併用しても通常に通信が可能となる。
A bone conduction speaker (not shown) converts an audio signal into mechanical vibrations, propagates the vibrations through the user's skin and skull, and transmits them to the auditory nerve. That is, while a normal speaker listens to sound transmitted by air vibrations (air conduction sound), a bone conduction speaker listens to sound transmitted by bone vibrations (bone conduction sound). Furthermore, the sound transmitted by bone conduction through the bone conduction speaker is hardly affected by external noise. That is, the
端末装置2は、例えば、スマートフォン、タブレット端末あるいはPC(Personal Computer)であり、受音器1との間で有線通信可能に接続される。また、端末装置2は、サーバ3との間でネットワークNW1を介して無線通信可能に接続される。端末装置2は、受音器1から受信されたアナログ音声信号をデジタル音声信号に変換し、サーバ3に送信する。また、端末装置2は、アナログ音声信号に基づいてテキストに変換されたテキスト情報、あるいはテキスト情報に基づいて変換された音声信号を受信する。
The
ネットワークNW1は、無線ネットワークである。無線ネットワークは、例えば無線LAN(Local Area Network)、無線WAN(Wide Area Network)、4G(第4世代移動通信システム)、LTE(Long Term Evolution)、LTE-Advanced、5G(第5世代移動通信方式)、Wi-fi(登録商標)、またはWiGig(Wireless Gigabit)である。 Network NW1 is a wireless network. Examples of wireless networks include wireless LAN (Local Area Network), wireless WAN (Wide Area Network), 4G (4th generation mobile communication system), LTE (Long Term Evolution), LTE-Advanced, and 5G (5th generation mobile communication system). ), Wi-fi (registered trademark), or WiGig (Wireless Gigabit).
サーバ3は、端末装置2との間でネットワークNW1を介して無線通信可能に接続される。サーバ3は、受信されたデジタル音声信号をテキスト情報に変換して端末装置2に送信する。また、サーバ3は、変換したテキスト情報に基づいて再度デジタル音声信号に変換し、端末装置2に送信する。
The
図2は、実施の形態1に係る音声テキスト変換システム100の内部構成例を示すブロック図である。受音器1については、図1を参照して説明したため、詳細な説明を省略する。
FIG. 2 is a block diagram showing an example of the internal configuration of the speech-to-
まず、端末装置2の内部構成例について説明する。端末装置2は、通信部20と、プロセッサ21と、メモリ22と、A/D(Analog―to―Digital)変換部23と、を含んで構成される。
First, an example of the internal configuration of the
通信部20は、ネットワークNW1を介してサーバ3と通信可能に接続される。通信部20は、A/D変換部23によって変換されたデジタル音声信号をサーバ3に送信し、テキスト情報またはテキスト情報に基づいて生成されたデジタル音声信号をサーバ3から受信する。
The
プロセッサ21は、例えばCPU(Central Processing unit)またはFPGA(Field Programmable Gate Array)を用いて構成されて、メモリ22と協働して、各種の処理および制御を行う。具体的には、プロセッサ21はメモリ22に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。各部の機能は、例えば、受音器1から受信されたアナログ音声信号をデジタル音声信号に変換する機能などである。
The
メモリ22は、例えばプロセッサ21の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、プロセッサ21の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、プロセッサ21により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ21の動作を規定するプログラムが書き込まれている。また、メモリ22は、サーバ3に送信されたデジタル音声信号およびサーバ3から受信されたテキスト情報を記憶する。
The
A/D変換部23は、受音器1から受信されたアナログ音声信号をデジタル音声信号に変換する。A/D変換部23は、変換したデジタル音声信号を、ネットワークNW1を介してサーバ3に送信する。また、A/D変換部23は、受音器1からアナログ音声信号を受信した際の電圧降下によって降下した電圧値を測定する。測定された電圧値の情報は、サーバ3に送信される。
The A/
次に、サーバ3の内部構成例について説明する。サーバ3は、通信部30と、プロセッサ31と、メモリ32と、音声判別部33と、音声変換部34と、音声認識部35と、出力部36と、記憶部37と、テキスト音声変換部38と、を含んで構成される。なお、テキスト音声変換部38は、必須の構成でなく、省略されても端末装置2に備えられてもよい。
Next, an example of the internal configuration of the
通信部30は、ネットワークNW1を介して端末装置2と通信可能に接続される。通信部30は、デジタル音声信号を端末装置2から受信し、テキスト情報またはテキスト情報に基づいて生成されたデジタル音声信号を端末装置2に送信する。
The
プロセッサ31は、例えばCPU(Central Processing unit)またはFPGA(Field Programmable Gate Array)を用いて構成されて、メモリ32と協働して、各種の処理および制御を行う。具体的には、プロセッサ31はメモリ32に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。各部の機能は、例えば、デジタル音声信号が骨導音声または気導音声のどちらであるかを判定する機能、およびデジタル音声信号を予め生成されている学習データに基づいてテキスト情報に変換する機能などである。
The
メモリ32は、例えばプロセッサ31の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、プロセッサ31の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、プロセッサ31により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ31の動作を規定するプログラムが書き込まれている。また、メモリ32は、学習データ、音響モデル、発音辞書、言語モデル、認識デコーダなどを記憶する。
The
音声判別部33は、端末装置2からデジタル音声信号と降下した電圧値の情報とを受信し、電圧値の情報に基づいて、デジタル音声信号の基となる音声が骨導音声あるいは気導音声であるかを判別する。
The
音声判別部33は、デジタル音声信号が骨導音声に基づいて変換された音声信号であると判別した場合には、識別子を付与する。識別子は、例えば、人の音声とは異なる周波数帯域の人工音、あるいは特定の識別信号(例えば、「110011」)などである。音声判別部33は、電圧値の情報が所定の閾値以下であり、さらに識別子が付与されていると判別すると、デジタル音声信号の基となる音声が骨導音声であることを示す判別結果を音声変換部34に出力する。
When the
また、音声判別部33は、デジタル音声信号のスペクトル特性のうち、高周波数帯域(例えば、1001~8000Hz)における信号レベル(dB)に対する低周波数帯域(例えば、0~1000Hz)における信号レベル(dB)の比率を算出し、この比率に基づいて、デジタル音声信号の基となる音声が骨導音声あるいは気導音声であるかを判別してよい。骨導音声は、ユーザの音声による振動を、体内を通じて収音するため、体内減衰により高周波数帯域において信号レベルが小さくなる。よって、音声判別部33は、比率の値が小さいほど低周波数帯域における信号レベルが高周波数帯域における信号レベルに対する相対的な減衰が小さい場合には気導音声と判別し、相対的な減衰が大きい場合には骨導音声と判別する。
Furthermore, the
なお、上述した比率に基づくデジタル音声信号の基となる音声の判別方法は、ユーザによる個人差および環境差によって得られるスペクトル特性が変化する。よって、音声判別部33は、予め収集された複数のスペクトル特性に基づいて生成された判別データがメモリ32に記憶されている場合には、スペクトル特性とこの判別データとを用いてデジタル音声信号の基となる音声が骨導音声あるいは気導音声であるかを判別してもよい。
Note that the spectral characteristics obtained in the above-mentioned ratio-based voice discrimination method, which is the basis of the digital voice signal, vary depending on individual differences among users and environmental differences. Therefore, if the discrimination data generated based on a plurality of spectral characteristics collected in advance is stored in the
音声変換部34は、音声判別部33より入力されたデジタル音声信号が骨導音声の場合には、予め生成された学習モデルを用いて骨導音声の特徴量を気導音声の特徴量にマッピングすることにより、骨導音声のデジタル音声信号を気導音声のデジタル音声信号に変換する。学習モデルは、メモリ32に予め記憶されており、骨導マイクロホンMC1と気導マイクロホンMC2とから同時に収音した音声から骨導音声および気導音声の特徴量をそれぞれ抽出し、骨導音声の特徴量を気導音声の特徴量にマッピングすることにより生成される。なお、音声の特徴量は、例えば基本周波数(声の高さ)、音声信号のスペクトル特性(声質)、非周期信号(声のかすれ)などの情報である。音声変換部34は、変換後の気導音声を音声認識部35に出力する。なお、音声変換部34は、音声判別部33により入力されたデジタル音声信号が気導音声の場合には、そのまま音声認識部35に出力する。
When the digital audio signal inputted from the
音声認識部35は、例えば音声認識エンジンであり、気導マイクロホンMC2によって収音された音声をデータベースとする音響モデルを用いて、音声変換部34より入力された気導音声のデジタル音声信号に含まれる音素(例えば、/a/,/k/など)を判別する。なお、音響モデルは、気導マイクロホンMC2によって収音された数千人、数千時間の音声の周波数特性および時間特性を統計処理して予め生成され、メモリ32に記憶される。
The
また、音声認識部35は、言語モデルを用いて、音声変換部34より入力された気導音声のデジタル音声信号に含まれる文字列または単語列が言語として適切か否かを評価する。言語モデルは、各国の言語におけるテキストを収集し、統計処理されて生成される。具体的には、言語モデルは、自然言語処理などを実行し、文の品詞および統語構造、単語同士あるいは文書同士の関係性などを定式化したものであり、統計学的な観点から確率的に定められる。言語モデルは、例えばNグラムモデル、隠れマルコフモデル、最大エントロピーモデルなどであり、メモリ32に記憶される。
Furthermore, the
音声認識部35は、音響モデルを用いて判別されたデジタル音声信号に含まれる音素と言語モデルを用いて評価された文字列または単語列とを、発音辞書に基づいて音素を結びつけて単語発話(例えば、/sakura/)を構成し、認識デコーダによって音響的かつ言語的に最も適合する言語表現を解読してテキスト情報に変換される。なお、発音辞書は、音響モデルと言語モデルとを結びつけるためのデータであり、メモリ32に記憶される。認識デコーダは、所謂解読装置であり、音響モデル、発音辞書および言語モデルを用いて音声信号をその発話内容に対応する言語表現に解読して変換する処理を実行する。音声認識部35は、認識デコーダにより変換されたテキスト情報を出力部36に出力する。
The
また、上述した気導音声に変換された骨導音声をテキスト情報に変換する処理を第1の音声認識処理として、音声認識部35は、骨導音声をテキスト情報に変換する第2の音声認識処理を実行してもよい。この場合、音声変換部34は、音声判別部33から入力されたデジタル音声信号が骨導音声であると判別すると、骨導音声と骨導音声から音声変換した気導音声とを音声認識部35に出力する。
Further, the
音声認識部35は、変換された第1のテキスト情報と第2のテキスト情報とに対して信頼度を判定し、より高い信頼度を有するテキスト情報を出力部36に出力する。音声認識部35は、テキスト情報に対して単語信頼度に基づく信頼度の判定を実行する。具体的には、音声認識部35は、認識デコーダにより音声信号を第1のテキスト情報および第2のテキスト情報のそれぞれに変換する際に用いられた音響モデルと言語モデルとに基づいて、単語信頼度を判定する。音声認識部35は、テキスト情報に含まれる各単語に対して近い他の候補の単語が存在するか否かを判定し、その単語に似たスコアを有する他の候補がなければ信頼度が高いと判定し、その単語に同程度のスコアを有する他の候補が多いほど信頼度が低いと判定する。音声認識部35は、より信頼度が高い方のテキスト情報を出力部36に出力する。
The
出力部36は、音声認識部35より入力されたテキスト情報を記憶部37およびテキスト音声変換部38に出力し、通信部30に出力する。通信部30は、ネットワークNW1を介してテキスト情報を端末装置2に送信する。
The
記憶部37は、所謂ストレージであり、音声認識部35によって変換されたテキスト情報を記憶する。また、記憶部37は、端末装置ごと(つまり、ユーザごと)にテキスト情報を記憶してもよい。
The
テキスト音声変換部38は、出力部36より入力されたテキスト情報を音声信号に変換する。変換された音声信号は、ネットワークNW1を介して端末装置2に送信され、再生される。これにより、ユーザは、発話内容が正しくテキスト情報に変換されたか否かを音声によって確認することができる。また、この音声信号は、一度テキスト情報に変換されたことでノイズレスの音声信号として生成されるため、より聞き取りやすい音声となる。したがって、ユーザは、ノイズが低減された音声を再生することができる。
The text-to-
また、テキスト音声変換部38は、ユーザの音声データに基づいて生成された音響モデルを用いた音声合成エンジンを有してもよい。これにより、テキスト音声変換部38は、ユーザの音声に変換して音声信号を再生することができる。
Furthermore, the text-to-
以上により、音声テキスト変換システム100は、接続されたマイクロホンの種類に応じて、音声を音声認識し、テキスト変換できる。
As described above, the speech-to-
図3Aおよび図3Bを参照して、受音器1の使用例を説明する。図3Aは、骨導マイクロホンMC1の使用例を示す図である。図3Bは、気導マイクロホンMC2の使用例を示す図である。
An example of how the
受音器1は、骨導マイクロホンMC1あるいは気導マイクロホンMC2のいずれか一方を、マイク接続端子11に接続して使用される。骨導マイクロホンMC1は、ユーザの声帯付近に接触して装着されて使用される。また、気導マイクロホンMC2は、ユーザの口の前に位置するように配置されて使用される。
The
図4は、実施の形態1に係る音声テキスト変換システム100の動作手順例を示すシーケンス図である。なお、図4において、ネットワークNW1の図示は省略されている。
FIG. 4 is a sequence diagram showing an example of the operation procedure of the speech-to-
受音器1は、接続された骨導マイクロホンMC1あるいは気導マイクロホンMC2のいずれか一方のマイクロホンを用いて、ユーザの音声を収音してアナログ音声信号に変換する(T1)。
The
受音器1は、アナログ音声信号を端末装置2に送信する(T2)。
The
端末装置2は、受信されたアナログ音声信号をデジタル音声信号に変換する(T3)。なお、端末装置2は、アナログ信号を受信した際の電圧降下に基づいて、降下した電圧値を測定する。
The
端末装置2は、変換したデジタル音声信号を、ネットワークNW1を介してサーバ3に送信する(T4)。また、端末装置2は、測定された電圧値の情報を、ネットワークNW1を介してサーバ3に送信する。
The
サーバ3は、端末装置2から受信した電圧降下に基づく電圧値の情報に基づいて、デジタル音声信号の基となる音声が骨導音声か否かを判別する(T5)。また、ステップT5の処理においてサーバ3は、デジタル音声信号の基となる音声が骨導音声である場合、デジタル音声信号に識別子を付与する。
The
サーバ3は、ステップT5の処理の結果、骨導音声である場合には気導音声のデジタル音声信号に変換する(T6)。なお、サーバ3は、気導音声である場合には何の処理も実行しない。
If the result of the process in step T5 is bone conduction sound, the
サーバ3は、気導音声を音声認識してテキスト情報に変換する(T7)。なお、図4には示していないが、さらにサーバ3は、テキスト情報に基づいて音声信号を生成してもよい。
The
サーバ3は、変換されたテキスト情報を、ネットワークNW1を介して端末装置2に送信する(T8)。なお、サーバ3は、ステップT7の処理においてさらに音声信号を生成する場合には、生成された音声信号とテキスト情報とのうち少なくとも一方を端末装置2に送信する。
The
端末装置2は、テキスト情報を受信する(T9)。受信されたテキスト情報は、端末装置2に表示されてもよいし、さらに音声信号に変換されて受音器1に送信されてもよい。
The
図5は、実施の形態1に係る音声テキスト変換システム100の音声判別手順例を示すフローチャートである。図5に示す音声判別処理は、サーバ3における音声判別部33によって実行される。
FIG. 5 is a flowchart illustrating an example of a speech discrimination procedure of the speech-to-
音声判別部33は、端末装置2よりデジタル音声信号を受信する(St1)。また、音声判別部33は、この際に電圧降下により降下した電圧値の情報を受信する。
The
音声判別部33は、端末装置2より受信された電圧降下により降下した電圧値の情報に基づいて、電圧値が閾値Th以下であるか否かを判定する(St2)。
The
音声判別部33は、ステップSt2の処理において、降下した電圧値が閾値Th以下の場合(St2,YES)には、デジタル音声信号に識別子を付与する(St3)。
In the process of step St2, if the dropped voltage value is equal to or less than the threshold Th (St2, YES), the
音声判別部33は、デジタル音声信号に識別子があるか否かを判別する(St4)。これにより、音声判別部33は、デジタル音声信号の基となる音声が気導音声であるにも関わらず、降下した電圧値が大きくなってしまった場合に骨導音声と誤判別する可能性を低くすることができる。
The
音声判別部33は、ステップSt4の処理において、識別子が付与されている場合(St4,YES)には、デジタル音声信号の基となる音声が骨導音声であると判定する(St5)。
In the process of step St4, if an identifier is assigned (St4, YES), the
音声判別部33は、ステップSt4の処理において、識別子が付与されていない場合(St4,NO)には、デジタル音声信号の基となる音声が気導音声であると判定する(St6)。
In the process of step St4, if no identifier is assigned (St4, NO), the
以上により、音声テキスト変換システム100は、音声判別処理を終了する。
With the above steps, the speech-to-
図6Aおよび図6Bを参照して、実施の形態1に係る音声テキスト変換システム100によって実行された音声認識結果の一例について説明する。図6Aは、実施の形態1に係る音声テキスト変換システム100の音声認識例1を示す図である。図6Bは、実施の形態1に係る音声テキスト変換システム100の音声認識例2を示す図である。図6Aおよび図6Bでは、骨導音声、気導音声、学習モデルを用いて骨度音声から変換された気導音声のそれぞれを音声認識した音声認識結果の一例を示す。発話内容U11,U12のそれぞれは、ユーザによって実際に発話された音声である。
An example of the result of the speech recognition performed by the speech-to-
発話内容U11は、「テレビ ゲーム や パソコンで ゲーム を して 遊ぶ」である。音声認識結果An11は、骨導音声に基づいて音声認識を実行して得られた結果であり、「テレビ ゲーム や 若く 音 で、 ゲーム を し て 遊ぶ」というテキスト情報に変換される。音声認識結果An21は、気導音声に基づいて音声認識を実行して得られた結果であり、「あれ は テレビ ゲーム や パソコン で ワン ゲーム を し て 遊ぶ なあ」というテキスト情報に変換される。音声認識結果An31は、学習モデルを用いて骨導音声から変換された気導音声に基づいて音声認識を実行して得られた結果であり、「テレビ ゲーム や パソコンで ゲーム を し て 遊ぶ」というテキスト情報に変換される。 Utterance content U11 is "I play video games and games on my computer." The voice recognition result An11 is the result obtained by performing voice recognition based on the bone conduction voice, and is converted into text information such as "Play video games and games with young sounds". The voice recognition result An21 is the result obtained by performing voice recognition based on air conduction voice, and is converted into text information such as ``That should be played with a video game or one game on a computer.'' Speech recognition result An31 is the result obtained by performing speech recognition based on air conduction voice converted from bone conduction voice using a learning model, and is the result of performing voice recognition based on air conduction voice converted from bone conduction voice using a learning model. Converted to text information.
発話内容U12は、「あらゆる 現実を すべて 自分の方へ ねじ曲げたのだ」である。音声認識結果An12は、骨導音声に基づいて音声認識を実行して得られた結果であり、「あらゆる 現 F を、ら すべて 自分 の 方 へ、 ねじ曲げ た の だ」というテキスト情報に変換される。音声認識結果An22は、気導音声に基づいて音声認識を実行して得られた結果であり、「うーん あらゆる 現実 を ら すべて の 主婦 の 方 へ、 ねじ曲げ た の だろ う」というテキスト情報に変換される。音声認識結果An32は、学習モデルを用いて骨導音声から変換された気導音声に基づいて音声認識を実行して得られた結果であり、「あらゆる 現実 を、 すべて 自分 の 方 へ、 ねじ曲げ た の だ」というテキスト情報に変換される。 Utterance content U12 is ``I twisted all reality towards myself.'' Speech recognition result An12 is the result obtained by performing speech recognition based on bone conduction speech, and is converted into text information that says, ``I twisted all the current F towards myself.'' . Speech recognition result An22 is the result obtained by performing speech recognition based on air conduction speech, and is converted into text information that says, ``Hmm, I guess you twisted all reality to all the housewives.'' Ru. Speech recognition result An32 is the result obtained by performing speech recognition based on air conduction voice converted from bone conduction voice using a learning model, and is the result of performing voice recognition based on air conduction voice converted from bone conduction voice using a learning model. It is converted into text information such as "No."
以上により、音声テキスト変換システム100は、学習モデルを用いて骨導音声を気導音声に変換することにより、ユーザの発話内容を類似する音声認識結果(テキスト情報)を得ることができる。
As described above, the speech-to-
また、音声テキスト変換システム100は、音声認識結果(テキスト情報)を用いることにより、ノイズを低減した音声信号を生成することができる。
Furthermore, the speech-to-
また、実施の形態1に係る音声テキスト変換システム100について、その他の実施例について説明する。
Further, other examples of the speech-to-
端末装置2は、図2に示す内部構成例に限定されない。端末装置2は、例えば、サーバ3の構成を含んで構成されてもよい。この場合、音声テキスト変換装置100Aは、ネットワークNW1およびサーバ3が不要となり省略することができる。以下、図7を参照して説明する。
The
図7は、音声テキスト変換装置100Aの一例を示す図である。なお、図7に示す音声テキスト変換装置100Aの構成は、実施の形態1に係る音声テキスト変換システム100において説明した構成が有する機能と略同一の機能を有するため、同一の構成については同一の符号を付与して説明を省略する。
FIG. 7 is a diagram showing an example of the speech-to-
図7に示す音声テキスト変換装置100Aは、受音器1と、端末装置2と、を含んで構成される。端末装置2は、さらに音声判別部33と、音声変換部34と、音声認識部35と、出力部36と、記憶部37と、テキスト音声変換部38と、を含んで構成される。なお、テキスト音声変換部38は必須の構成でなく、省略されてもよい。また、端末装置2は、さらにテキスト情報を表示する表示部(不図示)などを備えてもよい。
The speech-to-
以上により、実施の形態1に係る音声テキスト変換システム100は、音声を収音する受音器1が接続された端末装置2とサーバ3との間が通信可能であり、端末装置2は、受音器により収音された音声の音声信号をサーバ3に送信し、サーバ3は、端末装置2から受信された音声信号に基づいて、音声がユーザの声帯の振動に基づく骨導音声あるいは空気を介したユーザの鼓膜の振動に基づく気導音声のいずれかを判別し、骨導音声を気導音声に変換し、気導音声をテキスト情報に変換し、変換されたテキスト情報を出力する。
As described above, in the speech-to-
これにより、実施の形態1に係る音声テキスト変換システム100は、接続されたマイクロホンの種類に応じて、音声を音声認識し、テキスト変換できる。
Thereby, the speech-to-
また、音声テキスト変換システム100は、音声が気導音声の場合、気導音声をテキスト情報に変換し、変換されたテキスト情報を出力する。これにより、実施の形態1に係る音声テキスト変換システム100は、接続されたマイクロホンの種類に応じて、音声を音声認識し、テキスト変換できる。
Furthermore, when the voice is air conduction voice, the speech-to-
また、受音器1は、骨導音声を取得する骨導マイクロホンMC1または気導音声を取得する気導マイクロホンMC2のいずれか一方を備える。これにより、音声テキスト変換システム100は、複数の種類のマイクロホンを接続可能であり、接続されたマイクロホンの種類に応じて、音声を音声認識し、テキスト変換できる。
Further, the
また、サーバ3は、音声信号のスペクトル特性のうち高周波数成分と低周波数成分との比率に基づいて、音声信号が骨導音声あるいは気導音声のいずれかを判別する。これにより、音声テキスト変換システム100は、音声信号の基となる音声が骨導音声あるいは気導音声のいずれかを判別可能であり、接続されたマイクロホンの種類に応じて、音声を音声認識し、テキスト変換できる。
Further, the
また、サーバ3は、端末装置2から音声信号を受信した際に降下する電圧値(つまり、電圧降下値)に基づいて、音声信号が骨導音声あるいは気導音声のいずれかを判別する。これにより、音声テキスト変換システム100は、音声信号の基となる音声が骨導音声あるいは気導音声のいずれかを判別可能であり、接続されたマイクロホンの種類に応じて、音声を音声認識し、テキスト変換できる。
Further, the
また、サーバ3は、受音器1により収音された音声が骨導音声の場合、音声信号に前記音声が骨導音声であることを示す識別子を付与する。これにより、音声テキスト変換システム100は、音声信号の基となる音声が骨導音声であることを、より明確にしてその後の処理を実行できる。
Further, when the sound picked up by the
また、サーバ3は、識別子が付与されているか否かに基づいて、音声が骨導音声または気導音声であるかを判別する。これにより、音声テキスト変換システム100は、音声信号の基となる音声が骨導音声であることをより確実に判別できる。また、音声テキスト変換システム100は、デジタル音声信号の基となる音声が気導音声であるにも関わらず、降下した電圧値が大きくなってしまった場合に骨導音声と誤判別する可能性を低くすることができる。
Furthermore, the
また、識別子は、音声と異なる周波数帯域の音源である。これにより、音声テキスト変換システム100は、ユーザの音声を損なうことなく識別子を付与することができ、さらに誤判別する可能性を低くすることができる。
Further, the identifier is a sound source in a frequency band different from that of the voice. Thereby, the speech-to-
また、サーバ3は、骨導音声を気導音声に変換するための学習モデルを有し、学習モデルは、骨導マイクロホンと気導マイクロホンとから同時に収音された音声に基づいて、骨導音声と気導音声の特徴量をそれぞれ抽出する。サーバ3は、抽出された骨導音声の特徴量を気導音声の特徴量に変換する。これにより、音声テキスト変換システム100は、効率的な音声認識を実行することができるとともに、気導音声の特徴量に変換する際に骨導音声特有の雑音を除去することができる。
The
また、サーバ3は、気導音声をデータベースとする音響モデルを用いて音声認識する。これにより、音声テキスト変換システム100は、効率的な音声認識を実行することができる。
Furthermore, the
また、サーバ3は、受音器1により収音された音声が骨導音声の場合に、骨導音声に基づいて変換された気導音声を第1のテキスト情報に変換する第1の音声認識処理と、骨導音声を第2のテキスト情報に変換する第2の音声認識処理とを実行する。サーバ3は、第1のテキスト情報および第2のテキスト情報のそれぞれにおける信頼度を判定して比較し、信頼度が高い方のテキスト情報を出力する。これにより、音声テキスト変換システム100は、受音器1によって収音された音声をより正確にテキスト情報に変換できる。
In addition, when the sound picked up by the
実施の形態1の変形例に係る音声テキスト変換装置100Aは、音声を収音する受音器1との間で通信可能な音声テキスト変換装置100Aであって、受音器により収音された音声が、ユーザの声帯の振動に基づく骨導音声あるいは空気を介したユーザの鼓膜の振動に基づく気導音声のいずれかを判別する音声判別部と、骨導音声を前記気導音声に変換する音声変換部と、気導音声をテキスト情報に変換する音声認識部と、変換された前記テキスト情報を出力する出力部と、を備える。
A speech-to-
これにより、実施の形態1の変形例に係る音声テキスト変換装置100Aは、接続されたマイクロホンの種類に応じて、音声を音声認識し、テキスト変換できる。
Thereby, the speech-to-
以上、添付図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is clear that those skilled in the art can come up with various changes, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims, and It is understood that it falls within the technical scope of the present disclosure. Further, each of the constituent elements in the various embodiments described above may be arbitrarily combined without departing from the spirit of the invention.
本開示は、音声テキスト変換システムおよび音声テキスト変換装置の提示において、接続されたマイクロホンの種類に応じて、音声を音声認識し、テキスト変換できる音声テキスト変換システムおよび音声テキスト変換装置の提示の提示として有用である。 The present disclosure provides a speech-to-text conversion system and a speech-to-text conversion device that can recognize and convert speech into text according to the type of connected microphone. Useful.
1 受音器
11 マイク接続端子
2 端末装置
20,30 通信部
21,31 プロセッサ
22,32 メモリ
23 A/D変換部
3 サーバ
33 音声判別部
34 音声変換部
35 音声認識部
36 出力部
37 記憶部
100 音声テキスト変換システム
100A 音声テキスト変換装置
NW1 ネットワーク
MC1 骨導マイクロホン
MC2 気導マイクロホン
1
Claims (13)
前記端末装置は、
前記受音器により収音された前記音声の音声信号を前記サーバに送信し、
前記サーバは、
前記端末装置から受信された前記音声信号のスペクトル特性のうち高周波数成分と低周波数成分との比率に基づいて、前記音声がユーザの声帯の振動に基づく骨導音声あるいは空気を介した前記ユーザの鼓膜の振動に基づく気導音声のいずれかを判別し、
前記音声が前記骨導音声の場合、
前記骨導音声を前記気導音声に変換し、
前記気導音声をテキスト情報に変換し、
変換された前記テキスト情報を出力する、
音声テキスト変換システム。 A speech-to-text conversion system capable of communicating between a server and a terminal device connected to a receiver for collecting speech, the system comprising:
The terminal device is
transmitting an audio signal of the voice collected by the sound receiver to the server;
The server is
Based on the ratio of high frequency components to low frequency components among the spectral characteristics of the audio signal received from the terminal device, whether the audio is bone conduction audio based on the vibration of the user's vocal cords or the user's audio via the air is determined. Distinguish one of the air conduction sounds based on the vibration of the eardrum,
When the sound is the bone conduction sound,
converting the bone conduction sound into the air conduction sound;
converting the air conduction voice into text information;
outputting the converted text information;
Speech to text conversion system.
前記端末装置は、
前記受音器により収音された前記音声の音声信号を前記サーバに送信し、
前記サーバは、
前記端末装置から受信された前記音声信号を受信した際に、前記受音器における電圧降下値に基づいて、前記音声がユーザの声帯の振動に基づく骨導音声あるいは空気を介した前記ユーザの鼓膜の振動に基づく気導音声のいずれかを判別し、
前記音声が前記骨導音声の場合、
前記骨導音声を前記気導音声に変換し、
前記気導音声をテキスト情報に変換し、
変換された前記テキスト情報を出力する、
音声テキスト変換システム。 A speech-to-text conversion system capable of communicating between a server and a terminal device connected to a receiver for collecting speech, the system comprising:
The terminal device is
transmitting an audio signal of the voice collected by the sound receiver to the server;
The server is
When receiving the audio signal from the terminal device, it is determined whether the audio is bone conduction audio based on the vibration of the user's vocal cords or the user's eardrum via the air, based on the voltage drop value in the sound receiver. Distinguish any of the air conduction sounds based on the vibrations of the
When the sound is the bone conduction sound,
converting the bone conduction sound into the air conduction sound;
converting the air conduction voice into text information;
outputting the converted text information;
Speech to text conversion system.
請求項1または2に記載の音声テキスト変換システム。 If the voice is the air conduction voice, converting the air conduction voice into text information and outputting the converted text information;
The speech-to-text conversion system according to claim 1 or 2 .
請求項1~3のいずれか1項に記載の音声テキスト変換システム。 The sound receiver includes either a bone conduction microphone that acquires the bone conduction sound or an air conduction microphone that acquires the air conduction sound.
The speech-to-text conversion system according to any one of claims 1 to 3 .
請求項1または2に記載の音声テキスト変換システム。 When the sound picked up by the sound receiver is the bone conduction sound, the server adds an identifier to the audio signal indicating that the sound is the bone conduction sound.
The speech-to-text conversion system according to claim 1 or 2 .
請求項5に記載の音声テキスト変換システム。 The server determines whether the sound is the bone conduction sound or the air conduction sound based on the presence or absence of the identifier.
The speech-to-text conversion system according to claim 5 .
請求項5に記載の音声テキスト変換システム。 The identifier is an audio signal of a sound source in a frequency band different from the audio,
The speech-to-text conversion system according to claim 5 .
前記学習モデルは、前記骨導マイクロホンと前記気導マイクロホンとから同時に収音された前記音声に基づいて、前記骨導音声および前記気導音声のそれぞれの特徴量を抽出し、抽出された前記骨導音声の特徴量を前記気導音声の特徴量に変換する、
請求項4に記載の音声テキスト変換システム。 The server has a learning model for converting the bone conduction sound to the air conduction sound,
The learning model extracts the respective feature amounts of the bone conduction sound and the air conduction sound based on the sound picked up simultaneously from the bone conduction microphone and the air conduction microphone, and converting the feature amount of the guided voice into the feature amount of the air guided voice;
The speech-to-text conversion system according to claim 4 .
請求項1~3のいずれか1項に記載の音声テキスト変換システム。 The server recognizes speech using an acoustic model that uses the air conduction speech as a database.
The speech-to-text conversion system according to any one of claims 1 to 3 .
前記端末装置は、
前記受音器により収音された前記音声の音声信号を前記サーバに送信し、
前記サーバは、
前記端末装置から受信された前記音声信号に基づいて、前記音声がユーザの声帯の振動に基づく骨導音声あるいは空気を介した前記ユーザの鼓膜の振動に基づく気導音声のいずれかを判別し、
前記音声が前記骨導音声の場合、
前記骨導音声に基づいて変換された前記気導音声を第1のテキスト情報に変換する第1の音声認識処理と、前記骨導音声を第2のテキスト情報に変換する第2の音声認識処理とを実行し、
前記第1のテキスト情報および前記第2のテキスト情報のそれぞれにおける信頼度を判定して比較し、前記信頼度が高い方のテキスト情報を出力する、
音声テキスト変換システム。 A speech-to-text conversion system capable of communicating between a server and a terminal device connected to a receiver for collecting speech, the system comprising:
The terminal device is
transmitting an audio signal of the voice collected by the sound receiver to the server;
The server is
Based on the audio signal received from the terminal device, determine whether the audio is bone conduction sound based on the vibration of the user's vocal cords or air conduction sound based on the vibration of the user's eardrum through the air,
When the sound is the bone conduction sound,
a first voice recognition process that converts the air conduction voice converted based on the bone conduction voice into first text information; and a second voice recognition process that converts the bone conduction voice into second text information. and run
determining and comparing the reliability of each of the first text information and the second text information, and outputting the text information with the higher reliability;
Speech to text conversion system.
前記受音器により収音された前記音声のスペクトル特性のうち高周波数成分と低周波数成分との比率に基づいて、前記音声がユーザの声帯の振動に基づく骨導音声あるいは空気を介した前記ユーザの鼓膜の振動に基づく気導音声のいずれかを判別する音声判別部と、
前記骨導音声を前記気導音声に変換する音声変換部と、
前記気導音声をテキスト情報に変換する音声認識部と、
変換された前記テキスト情報を出力する出力部と、を備える、
音声テキスト変換装置。 A speech-to-text conversion device capable of communicating with a sound receiver that picks up speech,
Based on the ratio of high frequency components to low frequency components among the spectral characteristics of the voice picked up by the sound receiver, the voice is determined to be bone conduction voice based on the vibration of the user's vocal cords or bone conduction voice based on the user's voice via the air. a sound discrimination unit that discriminates one of the air conduction sounds based on the vibration of the eardrum;
a voice conversion unit that converts the bone conduction voice to the air conduction voice;
a voice recognition unit that converts the air conduction voice into text information;
an output unit that outputs the converted text information;
Speech-to-text converter.
前記受音器により収音された前記音声を受信した際の、前記受音器における電圧降下値に基づいて、前記音声がユーザの声帯の振動に基づく骨導音声あるいは空気を介した前記ユーザの鼓膜の振動に基づく気導音声のいずれかを判別する音声判別部と、
前記骨導音声を前記気導音声に変換する音声変換部と、
前記気導音声をテキスト情報に変換する音声認識部と、
変換された前記テキスト情報を出力する出力部と、を備える、
音声テキスト変換装置。 A speech-to-text conversion device capable of communicating with a sound receiver that picks up speech,
Based on the voltage drop value in the sound receiver when the sound collected by the sound receiver is received, it is determined whether the sound is bone conduction sound based on the vibration of the user's vocal cords or the user's sound through the air. a sound discrimination unit that discriminates between air conduction sounds based on vibrations of the eardrum;
a voice conversion unit that converts the bone conduction voice to the air conduction voice;
a voice recognition unit that converts the air conduction voice into text information;
an output unit that outputs the converted text information;
Speech-to-text converter.
前記受音器により収音された前記音声が、ユーザの声帯の振動に基づく骨導音声あるいは空気を介した前記ユーザの鼓膜の振動に基づく気導音声のいずれかを判別する音声判別部と、
前記骨導音声を前記気導音声に変換する音声変換部と、
前記気導音声をテキスト情報に変換し、前記骨導音声に基づいて変換された前記気導音声を第1のテキスト情報に変換する第1の音声認識処理と、前記骨導音声を第2のテキスト情報に変換する第2の音声認識処理とを実行する音声認識部と、
前記第1のテキスト情報および前記第2のテキスト情報のそれぞれにおける信頼度を判定して比較し、前記信頼度が高い方のテキスト情報を出力する出力部と、を備える、
音声テキスト変換装置。 A speech-to-text conversion device capable of communicating with a sound receiver that picks up speech,
a voice discrimination unit that determines whether the voice picked up by the sound receiver is bone conduction voice based on the vibration of the user's vocal cords or air conduction voice based on the vibration of the user's eardrum through the air;
a voice conversion unit that converts the bone conduction voice to the air conduction voice;
a first voice recognition process that converts the air conduction voice into text information and converts the air conduction voice converted based on the bone conduction voice into first text information; a speech recognition unit that executes a second speech recognition process for converting into text information ;
an output unit that determines and compares the reliability of each of the first text information and the second text information, and outputs the text information with the higher reliability;
Speech-to-text converter.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019103763A JP7373739B2 (en) | 2019-06-03 | 2019-06-03 | Speech-to-text conversion system and speech-to-text conversion device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019103763A JP7373739B2 (en) | 2019-06-03 | 2019-06-03 | Speech-to-text conversion system and speech-to-text conversion device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020197629A JP2020197629A (en) | 2020-12-10 |
JP7373739B2 true JP7373739B2 (en) | 2023-11-06 |
Family
ID=73649059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019103763A Active JP7373739B2 (en) | 2019-06-03 | 2019-06-03 | Speech-to-text conversion system and speech-to-text conversion device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7373739B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102366057B1 (en) * | 2021-06-07 | 2022-02-23 | (주)한스타일엔지니어링 | Management Method of Shooting Information in Buildings, and User's Terminal Being Installed with Program for Executing the Method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000250577A (en) | 1999-02-24 | 2000-09-14 | Nippon Telegr & Teleph Corp <Ntt> | Voice recognition device and learning method and learning device to be used in the same device and recording medium on which the same method is programmed and recorded |
JP2002258729A (en) | 2000-12-27 | 2002-09-11 | Hiroshi Ono | Foreign language learning system, information processing terminal for the same and server |
JP2004279768A (en) | 2003-03-17 | 2004-10-07 | Mitsubishi Heavy Ind Ltd | Device and method for estimating air-conducted sound |
JP2014191238A (en) | 2013-03-27 | 2014-10-06 | Brother Ind Ltd | Voice recognition device and speech recognition program |
-
2019
- 2019-06-03 JP JP2019103763A patent/JP7373739B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000250577A (en) | 1999-02-24 | 2000-09-14 | Nippon Telegr & Teleph Corp <Ntt> | Voice recognition device and learning method and learning device to be used in the same device and recording medium on which the same method is programmed and recorded |
JP2002258729A (en) | 2000-12-27 | 2002-09-11 | Hiroshi Ono | Foreign language learning system, information processing terminal for the same and server |
JP2004279768A (en) | 2003-03-17 | 2004-10-07 | Mitsubishi Heavy Ind Ltd | Device and method for estimating air-conducted sound |
JP2014191238A (en) | 2013-03-27 | 2014-10-06 | Brother Ind Ltd | Voice recognition device and speech recognition program |
Also Published As
Publication number | Publication date |
---|---|
JP2020197629A (en) | 2020-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8140326B2 (en) | Systems and methods for reducing speech intelligibility while preserving environmental sounds | |
KR101183344B1 (en) | Automatic speech recognition learning using user corrections | |
JP5633042B2 (en) | Speech recognition apparatus, speech recognition method, and speech recognition robot | |
KR101394253B1 (en) | Apparatus for correcting error of speech recognition | |
Doi et al. | Alaryngeal speech enhancement based on one-to-many eigenvoice conversion | |
JP2002014689A (en) | Method and device for improving understandability of digitally compressed speech | |
JPH09500223A (en) | Multilingual speech recognition system | |
KR101836430B1 (en) | Voice recognition and translation method and, apparatus and server therefor | |
JP2000504849A (en) | Speech coding, reconstruction and recognition using acoustics and electromagnetic waves | |
JP6284462B2 (en) | Speech recognition method and speech recognition apparatus | |
CN101114447A (en) | Speech translation device and method | |
US11587547B2 (en) | Electronic apparatus and method for controlling thereof | |
CN110675866B (en) | Method, apparatus and computer readable recording medium for improving at least one semantic unit set | |
JP2023539888A (en) | Synthetic data augmentation using voice conversion and speech recognition models | |
JP4940414B2 (en) | Audio processing method, audio processing program, and audio processing apparatus | |
JP6599828B2 (en) | Sound processing method, sound processing apparatus, and program | |
JP7373739B2 (en) | Speech-to-text conversion system and speech-to-text conversion device | |
Kurian et al. | Continuous speech recognition system for Malayalam language using PLP cepstral coefficient | |
KR20180033875A (en) | Method for translating speech signal and electronic device thereof | |
CN113450760A (en) | Method and device for converting text into voice and electronic equipment | |
JP4883750B2 (en) | Acoustic rating device and program | |
JP2001195087A (en) | Voice recognition system | |
US11043212B2 (en) | Speech signal processing and evaluation | |
JP5752488B2 (en) | Speech recognition apparatus, speech recognition method, and speech recognition program | |
WO2024024122A1 (en) | Voice processing method, program, and voice processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220601 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231012 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7373739 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |