JP2019035818A - Vocalization utterance learning device and microphone - Google Patents

Vocalization utterance learning device and microphone Download PDF

Info

Publication number
JP2019035818A
JP2019035818A JP2017155998A JP2017155998A JP2019035818A JP 2019035818 A JP2019035818 A JP 2019035818A JP 2017155998 A JP2017155998 A JP 2017155998A JP 2017155998 A JP2017155998 A JP 2017155998A JP 2019035818 A JP2019035818 A JP 2019035818A
Authority
JP
Japan
Prior art keywords
voice
user
sound
airway
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017155998A
Other languages
Japanese (ja)
Other versions
JP6979300B2 (en
Inventor
博 小野
Hiroshi Ono
博 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Techno Link Co Ltd
Original Assignee
Techno Link Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Techno Link Co Ltd filed Critical Techno Link Co Ltd
Priority to JP2017155998A priority Critical patent/JP6979300B2/en
Publication of JP2019035818A publication Critical patent/JP2019035818A/en
Application granted granted Critical
Publication of JP6979300B2 publication Critical patent/JP6979300B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

To make it possible to improve language learning efficiency of a user.SOLUTION: A vocalization utterance learning device 10 that makes a user learn languages includes: an input section 132 for inputting respective air passage voice and bone conduction voice of a first voice; and a creation section 134 for converting a rhythm of the first voice into a prescribed rhythm to create a second voice while sound quality of the first voice is maintained based on the input air passage voice and bone conduction voice.SELECTED DRAWING: Figure 3

Description

本発明は、発声・発話学習装置及びマイクロホンに関する。   The present invention relates to an utterance / utterance learning apparatus and a microphone.

従来から、入力されたテキストに基づいてモデル音声を作成する発声・発話学習装置が知られている。   2. Description of the Related Art Conventionally, an utterance / utterance learning apparatus that creates a model voice based on input text is known.

これに関し、特許文献1には、ユーザが発声した音声に基づき、ユーザ音声を作成する技術が開示されている。   In this regard, Patent Document 1 discloses a technique for creating user voice based on voice uttered by the user.

特許第3701850号公報Japanese Patent No. 3701850

しかしながら、特許文献1に記載の技術で作成されたユーザ音声を、音声を発声したユーザ自身が聞いた場合、ユーザは、自分がいつも聞いている自分の音声とは違うと感じて違和感を覚えてしまう。ユーザが違和感を覚えると、日本語や英語等の言語の学習に支障をきたし、言語学習効率が低下する恐れがある。   However, when the user himself / herself who uttered the voice of the user created by the technique described in Patent Document 1 hears it, the user feels it is different from his / her voice that he / she always listens to, and feels uncomfortable. End up. If the user feels uncomfortable, learning of languages such as Japanese and English may be hindered and the language learning efficiency may be reduced.

本発明はこのような課題に鑑みてなされたものであり、その目的は、ユーザの言語学習効率を向上することができる発声・発話学習装置及びマイクロホンを提供することにある。   The present invention has been made in view of such problems, and an object thereof is to provide a speech / speech learning device and a microphone that can improve the language learning efficiency of a user.

まず、本発明者は、ユーザ音声を聞いた場合に、ユーザ自身が違和感を覚える理由について検討した。ユーザの口から出た音は、空中を伝搬し、両耳に到達する。この空気が伝わった音は「気道音声」という。一方で声を出した時の声帯の振動が頭蓋骨を通じて直接的に伝えられる「骨導音声」という音も同時に自分の耳に伝えられる。ユーザ以外の人はこの骨導音声が届かず気道音声だけを聞いている。録音された音も同じく気道音声である。これに対してユーザ自身は、気道音声と骨導音声の両方を聞いているため、結果として、他人が聞く音や録音された音とは異なる認識となり、気道音声をユーザが聞いた場合、違和感を覚えることが分かった。そこで、本発明者は、気道音声だけでなく骨導音声も言語学習に利用することを考えた。   First, the present inventor examined the reason why the user himself felt uncomfortable when listening to the user's voice. The sound emitted from the user's mouth propagates through the air and reaches both ears. This sound transmitted through the air is called “airway sound”. On the other hand, the sound of the “bone-conducted speech” that transmits the vibration of the vocal cords when speaking out directly through the skull is also transmitted to your ear. People other than the user do not receive this bone-conducted voice and only listen to the airway voice. The recorded sound is also airway voice. On the other hand, the user himself / herself listens to both the airway sound and the bone conduction sound, and as a result, the sound is recognized differently from the sound heard by others and the recorded sound. I learned to remember. Therefore, the present inventor considered using not only airway speech but also bone conduction speech for language learning.

本発明の第一態様に係る発声・発話学習装置は、ユーザに言語音声の発声を学習させる発声・発話学習装置であって、第1音声を構成する気道音声及び骨導音声をそれぞれ入力する入力部と、前記第1音声の音質を維持しつつ、入力された前記気道音声及び前記骨導音声を、前記ユーザが聞いている音声を構成する比率で混合して、第2音声を作成する作成部と、を備える発声・発話学習装置。   The utterance / utterance learning apparatus according to the first aspect of the present invention is an utterance / utterance learning apparatus that allows a user to learn utterances of language speech, and inputs an airway voice and a bone-conducted voice constituting the first voice, respectively. The second voice is created by mixing the input airway voice and the bone conduction voice at a ratio constituting the voice that the user is listening to while maintaining the sound quality of the first part and the first voice. An utterance / utterance learning device comprising:

この構成によれば、第1音声を発声したユーザが、作成された第2音声を聞いた場合、第2音声の音質が、自分がいつも聞いている自分の音声の音質と同等と感じるようになり、違和感を覚えることを抑制することができる。違和感を減少することができれば、言語学習効率を向上することができる。   According to this configuration, when the user who utters the first sound hears the created second sound, the sound quality of the second sound feels equivalent to the sound quality of his / her own sound he / she always listens to. It is possible to suppress feeling uncomfortable. If the sense of discomfort can be reduced, language learning efficiency can be improved.

本発明の第二態様に係る発声・発話学習装置は、前記作成部は、伝送特性を修正し、前記第2音声として話者が聞いている音声により近い音声を作成する。   In the utterance / utterance learning device according to the second aspect of the present invention, the creation unit modifies transmission characteristics and creates a voice closer to a voice heard by a speaker as the second voice.

本発明の第三態様に係る発声・発話学習装置は、前記入力部は更に、合成音声を作成するための決められた原稿がユーザにより朗読された際に入力された前記気道音声及び前記骨導音声に基づき、話者の聞いている音声に対応する音素及び音素列を作成し、前記第2音声として、学習のために入力されているテキストデータに沿った合成音声を作成する。   In the utterance / utterance learning device according to the third aspect of the present invention, the input unit further includes the airway speech and the bone guide that are input when a predetermined manuscript for creating synthesized speech is read by a user. Based on the voice, a phoneme and a phoneme string corresponding to the voice that the speaker is listening to are created, and a synthesized voice along the text data inputted for learning is created as the second voice.

本発明の第四態様に係る発声・発話学習装置は、前記入力部は更に、前記気道音声及び前記骨導音声の混合比率のうち一の混合比率の決定操作を入力し、前記作成部は、前記一の混合比率に基づいて、入力された前記気道音声及び前記骨導音声を混合する。   In the utterance / speech learning device according to the fourth aspect of the present invention, the input unit further inputs a determination operation of one mixing ratio among mixing ratios of the airway speech and the bone conduction speech, and the creation unit includes: Based on the one mixing ratio, the inputted airway sound and bone conduction sound are mixed.

本発明の第五態様に係る発声・発話学習装置は、前記入力部は、前記骨導音声を入力し、且つ、ユーザの外耳道内に配置可能に構成された骨導マイクと、前記気道音声を入力し、前記骨導マイクの外部に設置した気道マイクと、を含む。   In the utterance / utterance learning device according to the fifth aspect of the present invention, the input unit inputs the bone-conducted speech and is configured to be disposed in the user's external auditory canal, and the airway speech. And an airway microphone installed outside the bone-conduction microphone.

本発明の第六態様に係るマイクロホンは、ユーザの骨導音声を入力し、ユーザの外耳道内に配置可能に構成された骨導マイクと、ユーザの気道音声を入力し、前記骨導マイクの外側壁に設けられた気道マイクと、を含む、ユーザ自身が聞いている音声を収集する。   A microphone according to a sixth aspect of the present invention inputs a bone conduction sound of a user, inputs a bone conduction microphone configured to be placed in the user's external auditory canal, inputs a user's airway sound, and outside the bone conduction microphone. Collect voices that the user is listening to, including an airway microphone on the wall.

本発明によれば、ユーザの言語学習効率を向上することができる。   ADVANTAGE OF THE INVENTION According to this invention, a user's language learning efficiency can be improved.

図1は、第1実施形態に係る発声・発話学習装置の一例としての日本語学習装置10のハードウェア構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a hardware configuration of a Japanese language learning device 10 as an example of an utterance / utterance learning device according to the first embodiment. 図2は、図1に示す気道マイク116及び骨導マイク118の配置を示す図である。FIG. 2 is a diagram showing the arrangement of the airway microphone 116 and the bone conduction microphone 118 shown in FIG. 図3は、第1実施形態に係る日本語学習装置10の機能構成(機能部)の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a functional configuration (functional unit) of the Japanese language learning device 10 according to the first embodiment. 図4は、第1実施形態に係る日本語学習装置10が実行する準備処理の流れの一例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of a preparation process executed by the Japanese language learning apparatus 10 according to the first embodiment. 図5は、第1実施形態に係る日本語学習装置10が実行する日本語学習処理の流れの一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of the flow of Japanese language learning processing executed by the Japanese language learning device 10 according to the first embodiment. 図6は、図4に示す準備処理に加えて、第2実施形態に係る発声・発話学習装置が実行する他の準備処理の流れの一例を示すフローチャートである。FIG. 6 is a flowchart showing an example of the flow of another preparation process executed by the utterance / utterance learning apparatus according to the second embodiment in addition to the preparation process shown in FIG. 図7は、第2実施形態に係る発声・発話学習装置が実行する言語学習処理の流れの一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of a language learning process performed by the utterance / utterance learning apparatus according to the second embodiment.

以下、添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. In addition, in each figure, what attached | subjected the same code | symbol has the same or similar structure.

―――第1実施形態―――
まず、第1実施形態に係る発声・発話学習装置について説明する。第1実施形態では、発声・発話学習装置の一例として、言語学習装置、特に日本語学習装置について説明する。
――― First embodiment ――――
First, the utterance / utterance learning apparatus according to the first embodiment will be described. In the first embodiment, a language learning device, particularly a Japanese language learning device will be described as an example of the utterance / utterance learning device.

<ハードウェア構成>
図1は、第1実施形態に係る発声・発話学習装置の一例としての日本語学習装置10のハードウェア構成の一例を示す図である。図示のように、日本語学習装置10は、CPU(Central Processing Unit)102と、RAM(Random Access Memory)104と、ROM(Read only Memory)106と、ドライブ装置108と、ネットワークI/F(Interface)110と、入力装置112と、表示装置114と、気道マイク116と、骨導マイク118と、スピーカー120と、を有する。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。
<Hardware configuration>
FIG. 1 is a diagram illustrating an example of a hardware configuration of a Japanese language learning device 10 as an example of an utterance / utterance learning device according to the first embodiment. As shown in the figure, the Japanese language learning device 10 includes a central processing unit (CPU) 102, a random access memory (RAM) 104, a read only memory (ROM) 106, a drive device 108, and a network interface (Interface). ) 110, input device 112, display device 114, airway microphone 116, bone conduction microphone 118, and speaker 120. These components are connected to each other via a bus so as to be able to transmit and receive data.

CPU102は、当該CPU102に接続される各構成の制御やデータの演算、加工を行う制御部である。また、CPU102は、RAM104又はROM106に記憶された、日本語学習処理(音声作成処理を含む)や当該日本語学習処理のための準備処理を行うアプリケーションプログラムを実行する演算装置である。CPU102は、入力装置112やネットワークI/F110等からデータを受け取り、演算、加工した上で、演算結果を表示装置114や記憶装置などに出力する。   The CPU 102 is a control unit that controls each component connected to the CPU 102, calculates and processes data. The CPU 102 is an arithmetic unit that executes an application program stored in the RAM 104 or the ROM 106 for performing Japanese language learning processing (including voice creation processing) and preparation processing for the Japanese language learning processing. The CPU 102 receives data from the input device 112, the network I / F 110, and the like, calculates and processes the data, and then outputs the calculation result to the display device 114 and the storage device.

RAM104は、例えば主記憶部などである。RAM104は、CPU102が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。   The RAM 104 is, for example, a main storage unit. The RAM 104 is a storage device that stores or temporarily stores programs and data such as an OS (Operating System) and application software that are basic software executed by the CPU 102.

ROM106は、例えばアプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。   The ROM 106 is a storage device that stores data related to application software, for example.

ドライブ装置108は、記録媒体108A、例えばCD−ROMやSDカードなどからプログラムやデータを読み出し、記憶装置にインストールしたりダウンロードしたりする。   The drive device 108 reads a program and data from a recording medium 108A, for example, a CD-ROM or an SD card, and installs or downloads the program or data in a storage device.

また、記録媒体108Aに、所定のプログラムを格納し、この記録媒体108Aに格納されたプログラムはドライブ装置108を介して日本語学習装置10にインストールされる。インストールされた所定のプログラムは、日本語学習装置10により実行可能となる。   In addition, a predetermined program is stored in the recording medium 108A, and the program stored in the recording medium 108A is installed in the Japanese language learning device 10 via the drive device 108. The installed predetermined program can be executed by the Japanese language learning device 10.

ネットワークI/F110は、通信機能を有する周辺機器と日本語学習装置10とのインターフェースである。また、ネットワークI/F110は、例えば、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続される。   The network I / F 110 is an interface between a peripheral device having a communication function and the Japanese language learning device 10. The network I / F 110 is connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network) constructed by a data transmission path such as a wired and / or wireless line.

入力装置112は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示装置114の表示画面上でキーの選択等を行うためのマウスやスライドパッド等を有する。また、入力装置112は、日本語の学習者(ユーザ)がCPU102に操作指示を与えたり、データを入力したりするためのユーザインターフェースである。   The input device 112 includes a keyboard having cursor keys, numeric input, various function keys, and the like, a mouse and a slide pad for selecting keys on the display screen of the display device 114, and the like. The input device 112 is a user interface for a Japanese learner (user) to give an operation instruction to the CPU 102 or to input data.

表示装置114は、LCD(Liquid Crystal Display)等により構成され、CPU102から入力される表示データに応じた表示が行われる。   The display device 114 is configured by an LCD (Liquid Crystal Display) or the like, and performs display according to display data input from the CPU 102.

気道マイク116は、ユーザが発声する音声の気道音声を収音して電気信号に変換し、日本語学習装置10の内部に入力する音入力装置である。   The airway microphone 116 is a sound input device that picks up the airway voice of the voice uttered by the user, converts it into an electrical signal, and inputs it into the Japanese language learning device 10.

骨導マイク118は、ユーザが発声する音声の骨導音声を収音して電気信号に変換し、日本語学習装置10の内部に入力する音入力装置である。骨導音声を収音する際に、骨導マイク118を配置する場所としては、ユーザの外耳道内、頭頂、おでこ、側頭骨周辺等が挙げられる。これらの中でも、骨導マイク118を配置する場所としては、ユーザの聴器に近く、安定的に配置でき、且つ、聴器で聞いている骨導音声に最も近い音声を収音できる外耳道内であることが好ましい。言い換えれば、図2に示すように、骨導マイク118は、ユーザの外耳道内に挿入され配置可能なように、形状やサイズ等が構成されていることが好ましい。図2では、気道マイク116と骨導マイク118とがセットになって構成されたマイク119を示している。このマイク119には、外耳道に嵌る円盤状の固定部117が設けられている。この固定部117の内部には、気道マイク116が設けられている。一方で、固定部117からその厚さ方向に延びる骨導マイク118が設けられている。骨導マイク118は、外耳道内に配置され、気道マイク116は外耳道内よりも外側に配置される。
すなわち、気道マイク116は、骨導マイク118の外側壁に設けられている。なお、骨導マイク118は、骨導音声を収音可能なピエゾ素子を内部に含んでいる。このような外耳道内に配置する骨導マイク118は、頭部全体でも聴覚への伝達を考えると本人(ユーザ)が聞いている骨導音に近い音が収集できる。また、この骨導マイク118の外側壁に気道マイク116を設置すると、口腔から放出した音声が実際に自分の耳に到達する音に一番近い気道音をとらえることができる。
The bone-conduction microphone 118 is a sound input device that collects bone-conduction speech uttered by the user, converts it into an electrical signal, and inputs it into the Japanese language learning device 10. The location where the bone-conduction microphone 118 is placed when picking up bone-conducted speech includes the user's ear canal, the top of the head, the forehead, the temporal bone, and the like. Among these, the bone-conducting microphone 118 is placed in the ear canal near the user's hearing device, which can be stably placed and can pick up the sound closest to the bone-conducting sound heard by the hearing device. Is preferred. In other words, as shown in FIG. 2, the bone conduction microphone 118 is preferably configured in shape, size, and the like so that it can be inserted and placed in the user's external auditory canal. FIG. 2 shows a microphone 119 configured with an airway microphone 116 and a bone conduction microphone 118 as a set. The microphone 119 is provided with a disk-shaped fixing portion 117 that fits into the ear canal. An airway microphone 116 is provided inside the fixed portion 117. On the other hand, a bone-conduction microphone 118 extending from the fixing portion 117 in the thickness direction is provided. The bone conduction microphone 118 is disposed in the external auditory canal, and the airway microphone 116 is disposed outside the external auditory canal.
That is, the airway microphone 116 is provided on the outer wall of the bone conduction microphone 118. The bone-conduction microphone 118 includes a piezo element that can collect bone-conduction sound. The bone-conduction microphone 118 disposed in the external auditory canal can collect sounds close to the bone-conduction sound heard by the user (user) even when the entire head is considered to be transmitted to the auditory sense. Further, when the airway microphone 116 is installed on the outer wall of the bone-conduction microphone 118, it is possible to capture the airway sound that is closest to the sound that the sound emitted from the oral cavity actually reaches its own ear.

スピーカー120は、電気信号に基づく音声を、日本語学習装置10の外部に出力する音出力装置である。   The speaker 120 is a sound output device that outputs sound based on an electrical signal to the outside of the Japanese language learning device 10.

<機能構成>
図3は、第1実施形態に係る日本語学習装置10の機能構成(機能部)の一例を示すブロック図である。図示のように、日本語学習装置10は、記憶部130と、入力部132と、作成部134と、出力部136と、評価部138と、を備える。
<Functional configuration>
FIG. 3 is a block diagram illustrating an example of a functional configuration (functional unit) of the Japanese language learning device 10 according to the first embodiment. As illustrated, the Japanese language learning device 10 includes a storage unit 130, an input unit 132, a creation unit 134, an output unit 136, and an evaluation unit 138.

記憶部130は、例えばRAM104やROM106、記録媒体108A等で実現される。記憶部130には、例えば日本語を母国語とするモデルが発声した音声に基づいて作成されたモデル音素130Aが複数記憶されている。また、記憶部130には、気道音声と骨導音声を混合するための混合比率130Bが記憶されている。なお、混合比率130Bは、ユーザ毎に対応付けられ、互いに異なる値が設定されている。   The storage unit 130 is realized by, for example, the RAM 104, the ROM 106, the recording medium 108A, and the like. The storage unit 130 stores a plurality of model phonemes 130A created based on speech uttered by a model whose native language is Japanese, for example. In addition, the storage unit 130 stores a mixing ratio 130B for mixing the airway sound and the bone conduction sound. Note that the mixing ratio 130B is associated with each user, and is set to a different value.

入力部132は、例えば気道マイク116や骨導マイク118で実現される。入力部132は、ユーザが発声した音声(第1音声)の気道音声及び骨導音声をそれぞれ入力する。   The input unit 132 is realized by the airway microphone 116 or the bone conduction microphone 118, for example. The input unit 132 inputs the airway sound and the bone conduction sound of the sound (first sound) uttered by the user.

作成部134は、例えばRAM104又はROM106に記憶されたアプリケーションプログラムをCPU102が実行することにより実現される。作成部134は、第1音声の音質を維持しつつ、入力部132により入力された気道音声及び骨導音声を、ユーザが聞いている音声を構成する比率で混合して、第2音声を作成する。左記「ユーザが聞いている音声を構成する比率」とは、例えば、ユーザが予め指定又は選択した比率である。さらに本実施形態では、作成部134は、第2音声を作成する際、第1音声の韻律を予め定められた韻律に変換する。左記「予め定められた韻律」としては、例えば、日本語を母国語とするモデルが発声した音声の韻律や、そのモデルの音声に基づいた韻律等が挙げられる。韻律は、ピッチ、話速、抑揚等を含む。
なお、作成部134は、第1音声の伝送特性を修正し、第2音声としてユーザが聞いている音声により近い音声を作成してもよい。
The creation unit 134 is realized, for example, when the CPU 102 executes an application program stored in the RAM 104 or the ROM 106. The creation unit 134 creates the second voice by mixing the airway voice and the bone conduction voice input by the input unit 132 at a ratio constituting the voice that the user is listening to while maintaining the sound quality of the first voice. To do. The “ratio constituting the voice the user is listening to” on the left is, for example, a ratio designated or selected in advance by the user. Furthermore, in the present embodiment, the creation unit 134 converts the prosody of the first speech into a predetermined prosody when creating the second speech. The “predetermined prosody” on the left includes, for example, the prosody of speech uttered by a model whose native language is Japanese, and the prosody based on the speech of the model. Prosody includes pitch, speaking speed, intonation and the like.
Note that the creation unit 134 may modify the transmission characteristic of the first voice and create a voice closer to the voice heard by the user as the second voice.

出力部136は、例えばスピーカー120で実現される。出力部136は、モデル音素130Aに基づいたモデル音声や、第2音声等を出力する。   The output unit 136 is realized by the speaker 120, for example. The output unit 136 outputs a model voice based on the model phoneme 130A, a second voice, and the like.

評価部138は、例えばRAM104又はROM106に記憶されたアプリケーションプログラムをCPU102が実行することにより実現される。評価部138は、入力部132により入力された音声を、予め定められた評価基準に基づき評価する。   The evaluation unit 138 is realized by the CPU 102 executing an application program stored in the RAM 104 or the ROM 106, for example. The evaluation unit 138 evaluates the voice input by the input unit 132 based on a predetermined evaluation criterion.

<準備処理>
図4は、第1実施形態に係る日本語学習装置10が実行する準備処理の流れの一例を示すフローチャートである。この準備処理は、例えば、日本語学習装置10の起動時や、予め定められた時期、ユーザの指示時等に開始される。
<Preparation process>
FIG. 4 is a flowchart illustrating an example of a preparation process executed by the Japanese language learning apparatus 10 according to the first embodiment. This preparation process is started, for example, when the Japanese language learning apparatus 10 is activated, at a predetermined time, or when a user gives an instruction.

(ステップSP10)
入力部132は、ユーザが発声した音声の気道音声と骨導音声をそれぞれ入力する。そして、処理は、ステップSP12の処理に移行する。
(Step SP10)
The input unit 132 inputs an airway voice and a bone conduction voice, which are voices uttered by the user. And a process transfers to the process of step SP12.

(ステップSP12)
作成部134は、気道音声と骨導音声を混合する際の混合比率を仮決定する。この際、作成部134は、仮決定する混合比率を選択するための選択画面や混合比率を入力するための入力画面を表示装置114に表示してもよい。また、混合比率を最適な値等に自動的に仮決定してもよい。第1実施形態では、作成部134は、ステップSP12が繰り返される度に、異なる混合比率を自動的に決定する。そして、処理は、ステップSP14の処理に移行する。
(Step SP12)
The creation unit 134 provisionally determines a mixing ratio when mixing the airway sound and the bone conduction sound. At this time, the creating unit 134 may display on the display device 114 a selection screen for selecting a provisionally determined mixture ratio and an input screen for inputting the mixture ratio. Further, the mixing ratio may be automatically and temporarily determined to an optimum value or the like. In the first embodiment, the creation unit 134 automatically determines a different mixing ratio each time step SP12 is repeated. And a process transfers to the process of step SP14.

(ステップSP14)
作成部134は、仮決定した混合比率で(に基づき)、入力された気道音声と骨導音声を混合して、混合音声を作成する。そして、処理は、ステップSP16の処理に移行する。
(Step SP14)
The creating unit 134 creates a mixed sound by mixing the input airway sound and the bone conduction sound at (based on) the provisionally determined mixing ratio. And a process transfers to the process of step SP16.

(ステップSP16)
出力部136は、作成された混合音声を出力する。そして、処理は、ステップSP18の処理に移行する。
(Step SP16)
The output unit 136 outputs the created mixed sound. And a process transfers to the process of step SP18.

(ステップSP18)
作成部134は、ユーザによる一の混合比率(仮決定した混合比率)の決定操作があるか否かを判定する。そして、肯定判定された場合には処理はステップSP20の処理に移行し、否定判定された場合には処理はステップSP12の処理に戻る。
(Step SP18)
The creation unit 134 determines whether or not there is an operation for determining one mixing ratio (provisionally determined mixing ratio) by the user. If a positive determination is made, the process proceeds to step SP20. If a negative determination is made, the process returns to step SP12.

(ステップSP20)
作成部134は、決定操作された一の混合比率を、混合比率130Bとして本決定し、記憶部130に記憶する。
(Step SP20)
The creation unit 134 finally determines the one mixing ratio that has been determined as the mixing ratio 130 </ b> B and stores it in the storage unit 130.

<日本語学習処理>
図5は、第1実施形態に係る日本語学習装置10が実行する日本語学習処理の流れの一例を示すフローチャートである。この日本語学習処理は、例えば、ユーザの指示に応答して開始される。
<Japanese learning process>
FIG. 5 is a flowchart showing an example of the flow of Japanese language learning processing executed by the Japanese language learning device 10 according to the first embodiment. This Japanese language learning process is started in response to a user instruction, for example.

(ステップSP30)
入力部132は、ユーザが作成したテキスト又は予め日本語学習用に用意されたテキストを入力する。ユーザが作成したテキストを入力する場合、入力部132は、ユーザの操作に応じて入力する。また、日本語学習用に用意されたテキストを入力する場合、入力部132は、記憶部130やインターネット等から取得して入力する。そして、処理は、ステップSP32の処理に移行する。
(Step SP30)
The input unit 132 inputs text created by the user or text prepared for Japanese language learning in advance. When inputting the text created by the user, the input unit 132 inputs according to the user's operation. In addition, when inputting text prepared for learning Japanese, the input unit 132 acquires and inputs from the storage unit 130 or the Internet. And a process transfers to the process of step SP32.

(ステップSP32)
作成部134は、入力されたテキストとモデル音素130Aに基づき、当該テキストに沿ったモデル音声を作成する。そして、出力部136は、作成されたモデル音声を出力する。そして、処理は、ステップSP34の処理に移行する。
(Step SP32)
The creation unit 134 creates model speech along the text based on the input text and the model phoneme 130A. Then, the output unit 136 outputs the created model sound. And a process transfers to the process of step SP34.

(ステップSP34)
入力部132は、ユーザがモデル音声に沿って発声した第1音声の気道音声と骨導音声をそれぞれ入力する。そして、処理は、ステップSP36の処理に移行する。なお、ステップSP34において、評価部138が、入力された気道音声と骨導音声に基づき、第1音声を評価し、評価が所定値以上であれば、図5に示す日本語学習処理が終了してもよい。
(Step SP34)
The input unit 132 inputs the first voice airway voice and bone conduction voice uttered by the user along the model voice. And a process transfers to the process of step SP36. In step SP34, the evaluation unit 138 evaluates the first voice based on the input airway voice and bone conduction voice. If the evaluation is equal to or higher than a predetermined value, the Japanese language learning process shown in FIG. May be.

(ステップSP36)
作成部134は、入力された第1音声の気道音声及び骨導音声に基づき、第1音声の音質を維持しつつ、第1音声の韻律を予め定められた韻律に変換し、第2音声を作成する。第1実施形態では、作成部134は、入力された気道音声及び骨導音声を混合比率130Bに基づいて混合し、第2音声を作成する。また、第1実施形態では、作成部134は、第1音声の韻律をモデル音声の韻律に変換する。そして、処理は、ステップSP38の処理に移行する。
(Step SP36)
The creation unit 134 converts the prosody of the first sound into a predetermined prosody while maintaining the sound quality of the first sound, based on the input airway sound and bone-conducted sound of the first sound, and converts the second sound into a predetermined prosody create. In the first embodiment, the creating unit 134 mixes the input airway sound and bone conduction sound based on the mixing ratio 130B to create a second sound. In the first embodiment, the creation unit 134 converts the prosody of the first speech into the prosody of the model speech. And a process transfers to the process of step SP38.

(ステップSP38)
出力部136は、作成された第2音声を出力する。そして、処理は、ステップSP40の処理に移行する。なお、出力部136は、第2音声を出力する前に、例えば「あなたが話すならこのように話すとわかりやすいですよ」という音声も出力してもよい。
(Step SP38)
The output unit 136 outputs the created second sound. And a process transfers to the process of step SP40. Note that the output unit 136 may also output a voice such as “If you speak, it is easy to understand if you speak” before outputting the second voice.

(ステップSP40)
入力部132は、ユーザが第2音声に沿って発声した第3音声を入力する。この際、入力部132は、第3音声の気道音声のみ入力してもよい。そして、処理は、ステップSP42の処理に移行する。
(Step SP40)
The input unit 132 inputs the third voice uttered by the user along the second voice. At this time, the input unit 132 may input only the third voice of the airway voice. And a process transfers to the process of step SP42.

(ステップSP42)
評価部138は、入力された第3音声を認識して、入力されているテキストと照合し、正しく音声認識できているか、言い換えれば、正しく発声できているか評価する。また、評価部138は、第3音声の韻律(音響)を分析して、伝わりやすさ(はっきり度)」の度合いを評価する。そして、評価部138は、評価結果を記憶部130に記憶する。また、評価部138は、評価結果を表示装置114等に表示してもよい。表示装置114に表示する場合は、評価部138は、評価結果に基づき、「抑揚を強調しよう!」や、「言葉を切り、音声の区切りを明確化して話そう!」などのアドバイスを表示してもよい。そして、処理は、ステップSP44の処理に移行する。
(Step SP42)
The evaluation unit 138 recognizes the input third voice, compares it with the input text, and evaluates whether the voice is correctly recognized, in other words, whether the voice is correctly spoken. In addition, the evaluation unit 138 analyzes the prosody (sound) of the third voice, and evaluates the degree of ease of transmission (clarity). Then, the evaluation unit 138 stores the evaluation result in the storage unit 130. The evaluation unit 138 may display the evaluation result on the display device 114 or the like. When displaying on the display device 114, the evaluation unit 138 displays advice such as “Let's emphasize the intonation!” Or “Let's speak with a clear voice break!” May be. And a process transfers to the process of step SP44.

(ステップSP44)
評価部138は、評価が所定値以上か否かを判定する。そして、肯定判定された場合は、処理は終了し、否定判定された場合は、ステップSP38の処理に戻る。なお、否定判定された場合は、ステップSP38に戻って第2音声を出力する代わりに、ステップSP40で入力された第3音声に、抑揚強調や発声の区切りを明確する加工を行ったモデル音声を出力してもよい。
(Step SP44)
The evaluation unit 138 determines whether or not the evaluation is greater than or equal to a predetermined value. If an affirmative determination is made, the process ends. If a negative determination is made, the process returns to step SP38. If a negative determination is made, instead of returning to step SP38 and outputting the second voice, the model voice that has been processed to clarify the inflection emphasis or utterance break is added to the third voice input in step SP40. It may be output.

以上、第1実施形態によれば、第1音声を発声したユーザが、作成された第2音声を聞いた場合、第2音声の音質が、自分がいつも聞いている自分の音質と同等と感じるようになり、違和感を覚えることを抑制することができる。この違和感を減少することができれば、ユーザは、スムーズに言語学習ができる他、自分の音声の韻律を第2音声の韻律に従って変えるだけで、自分の音声が第2音声に近づくという安心感や第2音声に近づいたという達成感を感じ、日本語の発声練習に励むようになり、言語学習効率を向上することができる。   As mentioned above, according to 1st Embodiment, when the user who uttered the 1st audio | voice hears the produced 2nd audio | voice, the sound quality of the 2nd audio | voice feels equivalent to the sound quality of oneself who has always heard. Thus, it is possible to suppress feeling uncomfortable. If this sense of incongruity can be reduced, the user can learn the language smoothly, and can change the prosody of his / her voice according to the prosody of the second voice, so that his / her voice approaches the second voice. I feel a sense of accomplishment that I have approached two voices, and now I am trying to practice Japanese utterances, improving the language learning efficiency.

また、第1実施形態によれば、入力された気道音声及び骨導音声を混合して、第2音声を作成するので、ユーザが、作成された第2音声を聞いた場合、第2音声の音質が、自分がいつも聞いている自分の音質とより同等と感じるようになり、違和感を覚えることをより抑制することができる。   In addition, according to the first embodiment, since the input airway sound and bone conduction sound are mixed to create the second sound, when the user hears the created second sound, the second sound The sound quality becomes more equal to the sound quality that I always listen to, and I can suppress the feeling of strangeness more.

また、第1実施形態によれば、ユーザは、気道音声及び骨導音声の混合比率のうち実際に混合するための一の混合比率を決定操作できるので、混合比率を変えながら混合音声を聞き、混合音声が自分の音声と同じと思う時点で、適切な一の混合比率を決定操作することができる。これにより、ユーザが、作成された第2音声を聞いた場合、第2音声の音質が、自分がいつも聞いている自分の音質とより一層同等と感じるようになり、違和感を覚えることをより一層抑制することができる。   In addition, according to the first embodiment, the user can determine and operate one mixing ratio for actually mixing out of the mixing ratios of the airway sound and the bone conduction sound, so the user listens to the mixed sound while changing the mixing ratio, When the mixed sound is considered to be the same as one's own sound, an appropriate one mixing ratio can be determined and operated. As a result, when the user hears the created second sound, the sound quality of the second sound becomes more equal to his own sound quality that he / she always listens to, and the user feels more uncomfortable. Can be suppressed.

<第2実施形態>
次に、第2実施形態に係る発声・発話学習装置について説明する。第2実施形態は、第2音声として合成音声を作成する点が、第1実施形態と異なる。第2実施形態は、第1実施形態と同様、記憶部130と、入力部132と、作成部134と、出力部136と、評価部138と、を備える。
Second Embodiment
Next, a speech / speech learning apparatus according to the second embodiment will be described. The second embodiment is different from the first embodiment in that a synthesized voice is created as the second voice. Similar to the first embodiment, the second embodiment includes a storage unit 130, an input unit 132, a creation unit 134, an output unit 136, and an evaluation unit 138.

図6は、図4に示す準備処理に加えて、第2実施形態に係る発声・発話学習装置が実行する他の準備処理の流れの一例を示すフローチャートである。他の準備処理は、例えば、日本語学習装置10の起動時や、予め定められた時期、ユーザの指示時等に開始される。   FIG. 6 is a flowchart showing an example of the flow of another preparation process executed by the utterance / utterance learning apparatus according to the second embodiment in addition to the preparation process shown in FIG. The other preparation processing is started, for example, when the Japanese language learning device 10 is activated, at a predetermined time, or when a user gives an instruction.

(ステップSP50)
入力部132は、ユーザが、例えば約60分〜90分の間、合成音声を作成するための決められた原稿を発声(朗読)した音声の気道音声声と骨導音声声をそれぞれ入力する。そして、処理は、ステップSP52の処理に移行する。
(Step SP50)
The input unit 132 inputs an airway voice and a bone-conducted voice, which are voices obtained by the user uttering (reading) a predetermined manuscript for creating a synthesized voice for about 60 to 90 minutes, for example. And a process transfers to the process of step SP52.

(ステップSP52)
作成部134は、入力された気道音声及び骨導音声をそれぞれ分析する。そして、処理は、ステップSP54の処理に移行する。
(Step SP52)
The creation unit 134 analyzes the input airway speech and bone conduction speech. And a process transfers to the process of step SP54.

(ステップSP54)
作成部134は、分析結果に基づき、入力された気道音声及び骨導音声を混合比率130Bに基づき混合し、ユーザの聞いている音声に対応する複数のユーザ音素(及び音素列)を作成する。
(Step SP54)
The creation unit 134 mixes the input airway voice and bone conduction voice based on the analysis result based on the mixing ratio 130 </ b> B, and creates a plurality of user phonemes (and phoneme strings) corresponding to the user's listening voice.

図7は、第2実施形態に係る発声・発話学習装置が実行する言語学習処理の流れの一例を示すフローチャートである。この言語学習処理は、例えば、ユーザの指示に応答して開始される。   FIG. 7 is a flowchart illustrating an example of a language learning process performed by the utterance / utterance learning apparatus according to the second embodiment. This language learning process is started in response to a user instruction, for example.

(ステップSP60)
入力部132は、ユーザが作成した学習のためのテキスト又は予め日本語学習用に用意されたテキストを入力する。ユーザが作成したテキストを入力する場合、入力部132は、ユーザの操作に応じて入力する。また、日本語学習用に用意されたテキストを入力する場合、入力部132は、記憶部130やインターネット等から取得して入力する。そして、処理は、ステップSP62の処理に移行する。
(Step SP60)
The input unit 132 inputs text for learning created by the user or text prepared for Japanese language learning in advance. When inputting the text created by the user, the input unit 132 inputs according to the user's operation. In addition, when inputting text prepared for learning Japanese, the input unit 132 acquires and inputs from the storage unit 130 or the Internet. And a process transfers to the process of step SP62.

(ステップSP62)
作成部134は、入力されたテキストとユーザ音素に基づき、当該テキストに沿った、第2音声としての合成音声を作成する。そして、処理は、ステップSP64の処理に移行する。なお、作成部134は、作成した合成音声を、入力された気道音声とともに積算フーリエ分析を行い、逆差特性を算出し、当該逆差特性を作成した合成音声に与えることで、ユーザがいつも聞いている合成音声に調整してもよい。
(Step SP62)
The creation unit 134 creates a synthesized speech as the second speech along the text based on the input text and the user phoneme. And a process transfers to the process of step SP64. The creation unit 134 performs integrated Fourier analysis on the created synthesized speech together with the input airway speech, calculates an inverse difference characteristic, and gives the inverse synthesized characteristic to the synthesized speech, so that the user always listens. You may adjust to synthetic speech.

(ステップSP64)
出力部136は、作成された合成音声を出力する。そして、処理は、ステップSP66の処理に移行する。
(Step SP64)
The output unit 136 outputs the created synthesized speech. And a process transfers to the process of step SP66.

(ステップSP66)
入力部132は、学習者が合成音声に沿って発声した第3音声を入力する。この際、入力部132は、第3音声の気道音声のみ入力してもよい。そして、処理は、ステップSP68の処理に移行する。
(Step SP66)
The input unit 132 inputs the third voice uttered by the learner along the synthesized voice. At this time, the input unit 132 may input only the third voice of the airway voice. And a process transfers to the process of step SP68.

(ステップSP68)
評価部138は、入力された第3音声を認識して評価し、評価結果を記憶部130に記憶する。また、評価部138は、認識結果や評価結果を表示装置114に表示してもよい。そして、処理は、ステップSP70の処理に移行する。
(Step SP68)
The evaluation unit 138 recognizes and evaluates the input third voice, and stores the evaluation result in the storage unit 130. The evaluation unit 138 may display the recognition result and the evaluation result on the display device 114. And a process transfers to the process of step SP70.

(ステップSP70)
評価部138は、評価が所定値以上か否かを判定する。そして、肯定判定された場合は、処理は終了し、否定判定された場合は、ステップSP64の処理に戻る。
(Step SP70)
The evaluation unit 138 determines whether or not the evaluation is greater than or equal to a predetermined value. If an affirmative determination is made, the process ends. If a negative determination is made, the process returns to step SP64.

以上、第2実施形態によれば、第1実施形態と同様の効果を奏する他、図5のステップSP32に示すような、モデル音声を出力する処理を省略することができる。   As described above, according to the second embodiment, in addition to the same effects as those of the first embodiment, the process of outputting the model sound as shown in step SP32 in FIG. 5 can be omitted.

<変形例>
なお、本発明は上記実施形態に限定されるものではない。すなわち、上記実施形態に、当業者が適宜設計調整を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。また、前述した実施形態が備える各要素は、技術的に可能な限りにおいて組み合わせることができ、これらを組み合わせたものも本発明の特徴を含む限り本発明の範囲に包含される。
<Modification>
The present invention is not limited to the above embodiment. In other words, the above-described embodiment with appropriate design adjustments by those skilled in the art is also included in the scope of the present invention as long as it includes the features of the present invention. Moreover, each element with which embodiment mentioned above is provided can be combined as long as it is technically possible, and the combination of these is also included in the scope of the present invention as long as it includes the features of the present invention.

例えば、第1実施形態では、日本語学習装置10が気道マイク116と骨導マイク118とを備える場合を説明したが、これらの代わりに、骨導・気道一体型マイクロフォンを備えてもよい。   For example, in the first embodiment, the case where the Japanese language learning apparatus 10 includes the airway microphone 116 and the bone conduction microphone 118 has been described, but instead of these, a bone conduction / airway integrated microphone may be provided.

また、第1実施形態では、出力部136や評価部138は、日本語学習装置10に設ける場合を説明したが、日本語学習装置10の外部の装置に設けられてもよい。この場合、日本語学習装置10は、第2音声を外部の装置に送信する。   In the first embodiment, the case where the output unit 136 and the evaluation unit 138 are provided in the Japanese language learning device 10 has been described. However, the output unit 136 and the evaluation unit 138 may be provided in a device outside the Japanese language learning device 10. In this case, the Japanese language learning device 10 transmits the second voice to an external device.

10…日本語学習装置(発声・発話学習装置)、132…入力部、134…作成部 10 ... Japanese language learning device (speech / utterance learning device), 132 ... input unit, 134 ... creation unit

Claims (6)

ユーザに言語音声の発声を学習させる発声・発話学習装置であって、
第1音声を構成する気道音声及び骨導音声をそれぞれ入力する入力部と、
前記第1音声の音質を維持しつつ、入力された前記気道音声及び前記骨導音声を、前記ユーザが聞いている音声を構成する比率で混合して、第2音声を作成する作成部と、
を備える発声・発話学習装置発声・発話学習装置。
An utterance / speech learning device that allows a user to learn speech of speech,
An input unit for inputting the airway voice and the bone conduction voice constituting the first voice;
A creation unit that creates the second voice by mixing the airway voice and the bone conduction voice that are input at a ratio that constitutes the voice that the user is listening to while maintaining the sound quality of the first voice;
A speech / speech learning device comprising:
前記作成部は、伝送特性を修正し、前記第2音声として前記ユーザが聞いている音声により近い音声を作成する、
請求項1に記載の発声・発話学習装置。
The creation unit corrects transmission characteristics and creates a voice closer to the voice that the user is listening to as the second voice.
The utterance / utterance learning apparatus according to claim 1.
前記入力部は更に、
合成音声を作成するための決められた原稿がユーザにより朗読された際に入力された前記気道音声及び前記骨導音声に基づき、前記ユーザの聞いている音声に対応する音素及び音素列を作成し、前記第2音声として、学習のために入力されているテキストに沿った合成音声を作成する、
請求項2に記載の発声・発話学習装置。
The input unit further includes:
Based on the airway speech and the bone conduction speech that were input when a predetermined manuscript for creating synthesized speech was read by the user, a phoneme and a phoneme sequence corresponding to the speech that the user is listening to are created. As the second voice, a synthesized voice along the text input for learning is created.
The utterance / utterance learning apparatus according to claim 2.
前記入力部は更に、前記気道音声及び前記骨導音声の混合比率のうち一の混合比率の決定操作を入力し、
前記作成部は、前記一の混合比率に基づいて、入力された前記気道音声及び前記骨導音声を混合する、
請求項2又は3に記載の発声・発話学習装置。
The input unit further inputs a determination operation of one mixing ratio of mixing ratios of the airway sound and the bone conduction sound,
The creating unit mixes the input airway sound and the bone conduction sound based on the one mixing ratio.
The utterance / utterance learning apparatus according to claim 2.
前記入力部は、前記骨導音声を入力し、且つ、ユーザの外耳道内に配置可能に構成された骨導マイクと、前記気道音声を入力し、前記骨導マイクの外側壁に設けられた気道マイクと、を含む、
請求項1乃至4の何れか1項に記載の発声・発話学習装置。
The input unit inputs the bone conduction sound and is configured to be disposed in a user's external auditory canal; and the airway provided to the outer wall of the bone conduction microphone by inputting the airway sound. Including a microphone,
The utterance / utterance learning apparatus according to claim 1.
ユーザの骨導音声を入力し、ユーザの外耳道内に配置可能に構成された骨導マイクと、
ユーザの気道音声を入力し、前記骨導マイクの外側壁に設けられた気道マイクと、
を含む、ユーザ自身が聞いている音声を収集するマイクロホン。
A bone-conduction microphone configured to input a user's bone-conducted sound and be placed in the user's external auditory canal;
The user inputs the airway voice, and the airway microphone provided on the outer wall of the bone conduction microphone;
A microphone that collects the sound the user is listening to, including
JP2017155998A 2017-08-10 2017-08-10 Vocalization / speech learning device and microphone Active JP6979300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017155998A JP6979300B2 (en) 2017-08-10 2017-08-10 Vocalization / speech learning device and microphone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017155998A JP6979300B2 (en) 2017-08-10 2017-08-10 Vocalization / speech learning device and microphone

Publications (2)

Publication Number Publication Date
JP2019035818A true JP2019035818A (en) 2019-03-07
JP6979300B2 JP6979300B2 (en) 2021-12-08

Family

ID=65637305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017155998A Active JP6979300B2 (en) 2017-08-10 2017-08-10 Vocalization / speech learning device and microphone

Country Status (1)

Country Link
JP (1) JP6979300B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102630356B1 (en) * 2022-07-29 2024-01-30 한림대학교 산학협력단 Electronic device, control method, and computer program for auditory language and cognitive rehabilitation of infants and children

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08275279A (en) * 1995-03-31 1996-10-18 Foster Electric Co Ltd Voice pickup system
JPH11196484A (en) * 1997-12-25 1999-07-21 Iwatsu Electric Co Ltd Transmission/reception integrated electric/acoustic converting device using bone conduction microearphone
JP2000261534A (en) * 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> Handset
JP2003043910A (en) * 2001-07-27 2003-02-14 Kuniko Murase Hearing training system
JP2016126149A (en) * 2014-12-26 2016-07-11 ひとみ 石渡 Voice sound practice assisting tool

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08275279A (en) * 1995-03-31 1996-10-18 Foster Electric Co Ltd Voice pickup system
JPH11196484A (en) * 1997-12-25 1999-07-21 Iwatsu Electric Co Ltd Transmission/reception integrated electric/acoustic converting device using bone conduction microearphone
JP2000261534A (en) * 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> Handset
JP2003043910A (en) * 2001-07-27 2003-02-14 Kuniko Murase Hearing training system
JP2016126149A (en) * 2014-12-26 2016-07-11 ひとみ 石渡 Voice sound practice assisting tool

Also Published As

Publication number Publication date
JP6979300B2 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
US20240157143A1 (en) Somatic, auditory and cochlear communication system and method
US8781836B2 (en) Hearing assistance system for providing consistent human speech
US5340316A (en) Synthesis-based speech training system
US20050244020A1 (en) Microphone and communication interface system
JP5039865B2 (en) Voice quality conversion apparatus and method
US20210375303A1 (en) Natural Ear
Hansen et al. On the issues of intra-speaker variability and realism in speech, speaker, and language recognition tasks
WO2018038235A1 (en) Auditory training device, auditory training method, and program
JP2016105142A (en) Conversation evaluation device and program
WO2008015800A1 (en) Speech processing method, speech processing program, and speech processing device
JP2011186143A (en) Speech synthesizer, speech synthesis method for learning user&#39;s behavior, and program
Zhang et al. Adjustment of cue weighting in speech by speakers and listeners: Evidence from amplitude and duration modifications of Mandarin Chinese tone
US20220036878A1 (en) Speech assessment using data from ear-wearable devices
CN110349565A (en) A kind of auxiliary word pronunciation learning method and its system towards hearing-impaired people
JP6979300B2 (en) Vocalization / speech learning device and microphone
JP6314879B2 (en) Reading aloud evaluation device, reading aloud evaluation method, and program
US9143106B1 (en) Method, device and system for providing speech
Williams Auditory virtual environments
JP2001249675A (en) Method for displaying estimated articulation state and computer-readable recording medium with recorded computer program therefor
US20150380012A1 (en) Speech rehabilitation assistance apparatus and method for controlling the same
JP6918471B2 (en) Dialogue assist system control method, dialogue assist system, and program
Bradford Vocal resonance: Optimising source-filter interactions in voice training
Lukkarila Developing a conversation assistant for the hearing impaired using automatic speech recognition
JP2006330060A (en) Speech synthesizer, speech processor, and program
JP5960792B2 (en) Vocal sound practice aid

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210602

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210602

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210727

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211115

R150 Certificate of patent or registration of utility model

Ref document number: 6979300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350