JP2021081527A - Voice recognition device, voice recognition method, and voice recognition program - Google Patents
Voice recognition device, voice recognition method, and voice recognition program Download PDFInfo
- Publication number
- JP2021081527A JP2021081527A JP2019207512A JP2019207512A JP2021081527A JP 2021081527 A JP2021081527 A JP 2021081527A JP 2019207512 A JP2019207512 A JP 2019207512A JP 2019207512 A JP2019207512 A JP 2019207512A JP 2021081527 A JP2021081527 A JP 2021081527A
- Authority
- JP
- Japan
- Prior art keywords
- information
- utterance
- user
- unit
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000012937 correction Methods 0.000 claims description 39
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 abstract description 39
- 238000004891 communication Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000010365 information processing Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、音声認識装置、音声認識方法、および、音声認識プログラムに関する。 The present invention relates to a voice recognition device, a voice recognition method, and a voice recognition program.
技術革新の進歩により、入力された音声をテキストに変換する技術等の精度も向上し、コミュニケーション手段の拡張性が高まっている。 Advances in technological innovation have improved the accuracy of technologies for converting input voice into text, and the expandability of communication means has increased.
しかし、音声入力については、入力する際の環境への依存度が高く、必要なコミュニケーションに支障をきたす場合がある。例えば、1.公共の場所等、ユーザが大きな声を出せない環境下での音声入力、2.風邪等の体調不良時や聞き取りにくい声質のユーザによる音声入力、3.幹線道路、イベント会場等、周囲の音が大きい場所での音声入力、4.発声障がい等を持つユーザによる音声入力等が行われると、入力された音声を精度よく認識できない場合がある。その結果、高度なコミュニケーションツールを活用できないケースが存在する。 However, voice input is highly dependent on the environment when inputting, which may interfere with necessary communication. For example, 1. 2. Voice input in an environment where the user cannot make a loud voice, such as in a public place. 2. Voice input by a user who is in poor physical condition such as a cold or has a voice quality that is difficult to hear. 4. Voice input in places with loud surrounding sounds such as highways and event venues. When voice input or the like is performed by a user with a vocal disability or the like, the input voice may not be recognized accurately. As a result, there are cases where advanced communication tools cannot be used.
そこで、本発明は、前記した問題を解決し、音声の認識精度を向上させることを課題とする。 Therefore, an object of the present invention is to solve the above-mentioned problems and improve the voice recognition accuracy.
前記した課題を解決するため、本発明は、ユーザがささやき声で発話するときの前記ユーザの口の動きを示す情報および前記ユーザの音声情報を含む発話情報を取得する第1の取得部と、前記第1の取得部により取得された発話情報と当該発話情報の示す発話内容とを用いた学習により作成されたモデルを用いて、認識の対象となる発話情報を入力として、前記発話情報の示す発話内容の認識結果を出力する出力部と、を備えることを特徴とする。 In order to solve the above-mentioned problems, the present invention includes a first acquisition unit that acquires utterance information including information indicating the movement of the user's mouth when the user speaks with a whisper and utterance information including the user's voice information. Using a model created by learning using the utterance information acquired by the first acquisition unit and the utterance content indicated by the utterance information, the utterance indicated by the utterance information is input by inputting the utterance information to be recognized. It is characterized by including an output unit that outputs a content recognition result.
本発明によれば、音声の認識精度を向上させることができる。 According to the present invention, the voice recognition accuracy can be improved.
以下、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。本発明は、以下に説明する実施形態に限定されない。 Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings. The present invention is not limited to the embodiments described below.
図1および図2を用いて本実施形態の読話装置(音声認識装置)10を含むシステムの概要を説明する。システムは、例えば、図1に示すように、読話装置10とユーザの端末装置20とを備える。読話装置10は、端末装置20から取得した、ユーザがささやき声で発話するときの口の動きと音声とに基づき、ユーザがどのような発話をしたかを認識する。そして、読話装置10は、その認識結果(例えば、テキスト情報)を端末装置20へ送信する。なお、以下の説明において、ささやき声とは、ユーザが声帯を振動させずに発した音声(無声音)であるものとする。
The outline of the system including the reading device (speech recognition device) 10 of the present embodiment will be described with reference to FIGS. 1 and 2. The system includes, for example, a
端末装置20は、携帯電話機や、スマートフォン、タブレット端末、パーソナルコンピュータ等である。端末装置20と読話装置10とは、インターネット等のネットワークを介して通信可能に接続される。なお、システムに設置される端末装置20および読話装置10の数は、図2に示す数に限定されない。
The
次に、図2を用いてシステムの概要を説明する。例えば、まず、端末装置20は、カメラ等によりユーザがささやき声で発話するときの口の輪郭の各座標間の変化を取得し、また、マイク等によりささやき声の音声波形を取得する。次に、端末装置20は、例えば、取得した口の輪郭の変化を示す情報(読話情報)と、ささやき声の音声波形を示す情報(音声情報)とを多重化した多重化デジタル信号を作成し、読話装置10へ送信する。読話装置10は、端末装置20から送信された多重化デジタル信号に基づき、ユーザの発話内容を識別する。これにより、読話装置10は、読話情報のみ、あるいは音声情報のみではユーザの発話内容が識別(認識)できないような場合であっても、ユーザの発話内容を識別しやすくすることができる。例えば、読話装置10は、上記の音声情報を用いることにより、読話情報のみでは識別が困難である、発話における子音、単語、文節等の区切りを識別できる。その結果、読話装置10は、ユーザの発話内容の識別精度を向上させることができる。
Next, the outline of the system will be described with reference to FIG. For example, first, the
また、読話装置10は、ユーザがささやき声で発話するときの読話情報および音声情報の学習を行い、その学習結果を用いて、ユーザの発話内容を識別する。これにより、ユーザの発話内容の識別精度をさらに向上させることができる。例えば、読話情報と音声情報との組み合わせによってもユーザの発話内容が識別できないような場合であっても、上記の学習結果を用いることで、ユーザの発話内容を識別しやすくすることができる。
Further, the
[読話装置]
次に、図3を用いて、読話装置10の構成例を説明する。図3に示すように、読話装置10は、通信部11と、記憶部12と、制御部13とを有する。
[Reading device]
Next, a configuration example of the
通信部11は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部11は、ネットワークと有線または無線で接続され、端末装置20との間で情報の送受信を行う。
The communication unit 11 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 11 is connected to the network by wire or wirelessly, and transmits / receives information to / from the
記憶部12は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12は、制御部13が各種処理を行う際に参照する情報や、各種処理により作成された情報を記憶する。例えば、記憶部12は、学習部134により学習(作成)されたモデルを記憶する。このモデルは、端末装置20のユーザごとに作成される。モデルの詳細については後記する。
The storage unit 12 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. The storage unit 12 stores information referred to when the
制御部13は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、読話装置10内部の記憶装置に記憶されている各種プログラム(音声認識プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。
The
制御部13は、読話処理部131と、音声テキスト変換部(テキスト変換部)132とを備える。
The
読話処理部131は、ユーザの発話時におけるユーザの口の動きを示す情報および当該ユーザのささやき声の音声情報(これらの情報をまとめて、「発話情報」と呼ぶ)に基づき、当該ユーザの発話内容を認識する。例えば、読話処理部131は、ユーザの発話情報に基づき当該ユーザの発話内容を示す音声データを生成する。そして、読話処理部131は、生成した音声データを音声テキスト変換部132へ出力する。音声テキスト変換部132は、読話処理部131から出力された音声データをテキスト情報に変換する。
The
読話処理部131について詳細に説明する。読話処理部131は、発話情報取得部(第1の取得部)133と、学習部134と、出力処理部(出力部)135と、修正情報取得部(第2の取得部)136とを備える。
The
発話情報取得部133は、端末装置20からユーザの発話情報を取得する。例えば、発話情報取得部133は、端末装置20からユーザが初回設定用のテキストを発話したときの発話情報や、認識の対象となるユーザの発話情報を取得する。
The utterance information acquisition unit 133 acquires the user's utterance information from the
学習部134は、発話情報取得部133により取得されたユーザの発話情報と、当該発話情報の示す発話内容とを用いた学習を行う。例えば、学習部134は、ユーザの発話情報と当該発話情報の示す発話内容とを学習し、当該ユーザの発話情報の示す発話内容の認識結果を出力するためのモデルを作成する。
The
一例を挙げる。例えば、学習部134は、まず、発話情報取得部133からユーザが初回設定用のテキストを読み上げたときの発話情報と、当該初回設定用のテキストの内容とを対応付けた情報をモデルの初期情報として登録する。
Let me give you an example. For example, the
その後、修正情報取得部136(後記)が、端末装置20から初期情報の登録後のモデルを用いた発話内容の認識結果に関する修正情報を受信した場合、学習部134はその修正情報に基づき当該ユーザのモデルを修正する。また、修正情報取得部136が、端末装置20から、上記の修正後のユーザのモデルを用いた発話内容の認識結果に関する修正情報を受信した場合、学習部134はその修正情報に基づき当該ユーザのモデルを修正する。このような処理を繰り返すことにより、学習部134は、ユーザの発話内容を精度よく認識可能なモデルを作成することができる。
After that, when the correction information acquisition unit 136 (described later) receives the correction information regarding the recognition result of the utterance content using the model after registration of the initial information from the
なお、学習部134が、ユーザの発話情報に基づく学習を行う際、着目している語の前後の語および音声を用いて同音異義語を学習する。例えば、「ツール」、「ルーツ」、「クール」という語を発音するときのユーザの口の動きはほぼ同じである。よって、例えば、学習部134は、以下の文における「ツール」、「ルーツ」、「クール」という語の前後の言葉および音声を用いて同音異義語を学習する。
When the
・日本人が発明するツールは優れもの
・日本人のルーツは縄文人と弥生人
・日本人の使うものはどれもクールだ
・ The tools invented by the Japanese are excellent. ・ The roots of the Japanese are Jomon and Yayoi. ・ The ones used by the Japanese are all cool.
このようにすることで学習部134は、ユーザが発話する語のうち同音異義語についても精度よく認識可能なモデルを作成することができる。
By doing so, the
出力処理部135は、認識の対象となるユーザの発話情報を入力として、学習部134による学習結果(例えば、上記のモデル)を用いて当該ユーザの発話情報の示す発話内容の認識結果を出力する。例えば、出力処理部135は、認識の対象となるユーザの発話情報を入力として、上記のモデルを用いて当該ユーザの発話内容を示す音声データを生成し、音声テキスト変換部132へ出力する。その後、出力処理部135は、音声テキスト変換部132から当該音声データのテキスト情報を受け取ると、当該テキスト情報を当該ユーザの端末装置20へ送信する。
The output processing unit 135 receives the utterance information of the user to be recognized as input, and outputs the recognition result of the utterance content indicated by the utterance information of the user using the learning result (for example, the above model) by the
修正情報取得部136は、端末装置20から、ユーザの発話内容の認識結果に関する修正情報を取得する。例えば、修正情報取得部136は、端末装置20から、ユーザの発話内容を示すテキストデータに関する修正情報を受信する。そして、修正情報取得部136は、当該修正情報を学習部134へ出力する。
The correction information acquisition unit 136 acquires correction information regarding the recognition result of the user's utterance content from the
[端末装置]
次に、図4を用いて、端末装置20の構成例を説明する。図4に示すように、端末装置20は、通信部21と、記憶部22と、マイク23と、カメラ24と、入力部25と、出力部26と、制御部27とを有する。
[Terminal device]
Next, a configuration example of the
通信部21は、ネットワークに通信可能に接続された読話装置10との間で通信するNICなどのインターフェイスである。
The
記憶部22は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。
The
マイク23は、音声を取得する。例えば、マイク23は、ユーザのささやき声で発話する際の音声を取得する。カメラ24は、画像(動画または静止画)を撮影する。例えば、カメラ24は、ユーザがささやき声で発話する際の口の動きの画像を撮影する。
The microphone 23 acquires voice. For example, the microphone 23 acquires the voice when speaking with the whispering voice of the user. The
入力部25は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部25は、キーボードやマウスや操作キー等によって実現される。出力部26は、各種情報を表示するための表示装置である。例えば、出力部26は、液晶ディスプレイ等によって実現される。なお、端末装置20にタッチパネルが採用された場合には、入力部25と出力部26とは一体化される。
The
制御部27は、コントローラであり、例えば、CPUやMPU等によって、端末装置20内部の記憶装置に記憶されている各種プログラム(読話プログラム)がRAMを作業領域として実行されることにより実現される。
The
制御部27は、発話受付部271と、発話情報送信部272と、テキスト受信部273と、表示部274と、修正情報送信部275とを有する。
The
発話受付部271は、カメラ24により発話時におけるユーザの口の動きを示す情報を取得し、また、マイク23により発話時におけるユーザの音声情報を取得する。
The utterance reception unit 271 acquires information indicating the movement of the user's mouth at the time of utterance by the
発話情報送信部272は、発話受付部271により取得された、発話時におけるユーザの口の動きを示す情報および当該ユーザの音声情報を含む発話情報を作成し、読話装置10へ送信する。例えば、発話情報送信部272は、発話受付部271により取得された、発話時におけるユーザの口の動きを示す情報および当該ユーザの音声情報をデジタル信号に変換し、当該デジタル信号を発話情報として読話装置10へ送信する。
The utterance information transmission unit 272 creates utterance information including information indicating the movement of the user's mouth at the time of utterance and voice information of the user acquired by the utterance reception unit 271, and transmits the utterance information to the
テキスト受信部273は、読話装置10から、ユーザの発話内容を示すテキスト情報を受信する。表示部274は、種々の情報を出力部26に表示する。例えば、表示部274は、初回設定用のテキスト情報を出力部26に表示したり、テキスト受信部273が受信したテキスト情報を出力部26に表示したりする。
The text receiving unit 273 receives text information indicating the content of the user's utterance from the
例えば、端末装置20の読話プログラムが起動されると、表示部274は、ユーザに初回設定用のテキスト情報をささやき声で読み上げるよう促すメッセージを出力部26に表示する。そして、ユーザが当該テキスト情報をささやき声で読み上げると、発話受付部271は、カメラ24により読み上げ時におけるユーザの口の動きを示す情報を取得し、また、マイク23により読み上げ時における音声情報を取得する。そして、発話情報送信部272は、発話受付部271により取得された、初回設定用のテキストの読み上げ時におけるユーザの口の動きを示す情報および音声情報を含む発話情報を作成し、読話装置10へ送信する。
For example, when the reading program of the
修正情報送信部275は、読話装置10から受信したテキスト情報の修正情報を読話装置10へ送信する。例えば、表示部274が、読話装置10から受信したテキスト情報を出力部26に表示した後、入力部25から当該テキスト情報の修正情報を受け付けた場合、修正情報送信部275は当該修正情報を読話装置10へ送信する。
The correction
[処理手順]
次に、図5を用いて、読話装置10の処理手順の例を説明する。
[Processing procedure]
Next, an example of the processing procedure of the
なお、図5において説明を省略しているが、読話装置10は、例えば、端末装置20に対しユーザ認証等を行うことにより、アクセス元の端末装置20がどのユーザの端末装置20かを識別するものとする。これにより、読話装置10は、ユーザごとにモデルを管理することができる。
Although the description is omitted in FIG. 5, the
まず、読話装置10の発話情報取得部133は、端末装置20から初回設定用のユーザの発話情報を取得する(S1)。例えば、発話情報取得部133は、ユーザが初回設定用のテキストをささやき声で読み上げたときの発話情報を取得する。そして、学習部134は、S1で取得した初回設定用のユーザの発話情報をモデルの初期情報として登録する(S2:初回設定用のユーザの発話情報の登録)。例えば、学習部134は、ユーザが初回設定用のテキストをささやき声で読み上げたときの発話情報と、初回設定用のテキストの内容とを対応付けた情報をモデルの初期情報として登録する。
First, the utterance information acquisition unit 133 of the
S2の後、読話装置10の発話情報取得部133が、端末装置20から発話内容の認識の対象となるユーザの発話情報を取得すると(S3)、出力処理部135は当該ユーザのモデルを用いて当該発話情報の示す発話内容の認識結果を出力する(S4)。例えば、出力処理部135は、端末装置20から発話内容の認識の対象となるユーザの発話情報を取得すると、当該ユーザのモデルを用いて当該発話情報の示す発話内容を示す音声データを生成する。そして、出力処理部135は、生成した音声データを音声テキスト変換部132へ出力する。その後、出力処理部135は、音声テキスト変換部132から当該音声データのテキスト情報を受け取る。そして、出力処理部135は、受け取ったテキスト情報を当該ユーザの端末装置20へ送信する。
After S2, when the utterance information acquisition unit 133 of the
その後、修正情報取得部136が、当該ユーザの端末装置20から、S4で出力した認識結果の修正情報を取得した場合(S5でYes)、学習部134は、当該修正情報に基づき、当該ユーザのモデルの修正を行い(S6)、S3へ戻る。一方、修正情報取得部136が、当該ユーザの端末装置20から、S4で出力した認識結果の修正情報を取得しなかった場合(S5でNo)、S3へ戻る。
After that, when the correction information acquisition unit 136 acquires the correction information of the recognition result output in S4 from the
読話装置10が上記のS3〜S6の処理を繰り返すことにより、ユーザがささやき声で発話するときに口の動きおよび音声の特徴を学習することができる。その結果、読話装置10は、ユーザのささやき声による発話の発話内容を精度よく認識することができる。
By repeating the above processes S3 to S6, the
[処理手順の例]
次に、図6を用いて、読話装置10を含むシステムの処理手順の例を説明する。処理手順は、例えば、(1)初期情報登録、(2)音声認識サービス利用、(3)認識結果の活用のフェーズに分けられる。
[Example of processing procedure]
Next, an example of the processing procedure of the system including the
(1)初期情報登録
例えば、端末装置20の読話アプリケーションが起動されると、端末装置20は初回設定用のテキスト文を出力部26に表示する。そして、端末装置20のユーザは、当該端末装置20に向かって初回設定用のテキスト文をささやき声で読み上げる(S11)。このとき発話受付部271は、カメラ24により初回設定用のテキスト文の読み上げ時におけるユーザの口の動きを示す情報を取得し、また、マイク23により初回設定用のテキスト文の読み上げ時におけるユーザの音声情報を取得する。その後、発話情報送信部272は、取得した口の動きを示す情報および音声情報をデジタル信号に変換して、読話装置10へ送信する(S12)。
(1) Initial information registration For example, when the reading application of the
S12の後、読話装置10の発話情報取得部133が、端末装置20からデジタル信号を受信すると、学習部134は、受信したデジタル信号を初回設定用のテキストと照合し、モデルに登録する(S13)。つまり、学習部134は、ユーザの発話の初期情報をモエルに登録する。
After S12, when the utterance information acquisition unit 133 of the
(2)音声認識サービス利用
次に、ユーザは端末装置20に向けてささやき声で発話を行う(S21)。そして、発話受付部271は、カメラ24により当該発話におけるユーザの口の動きを示す情報を取得し、また、マイク23により当該発話におけるユーザの音声情報を取得する。その後、発話情報送信部272は、取得した口の動きを示す情報および音声情報をデジタル信号に変換して、読話装置10へ送信する(S22)。
(2) Use of voice recognition service Next, the user makes a whisper to the terminal device 20 (S21). Then, the utterance reception unit 271 acquires information indicating the movement of the user's mouth in the utterance by the
S22の後、読話装置10の発話情報取得部133が、ユーザの端末装置20から上記のデジタル信号を受信すると、出力処理部135は、当該ユーザの初期情報が登録されたモデルを用いて、受信したデジタル信号を音声信号に変換し、音声テキスト変換部132へ出力する(S23)。そして、音声テキスト変換部132は、出力された音声信号をテキスト情報に変換し、出力処理部135へ出力する(S24:音声→テキスト変換)。出力処理部135は、S24で変換されたテキスト情報を当該ユーザの端末装置20へ送信する(S25)。
After S22, when the utterance information acquisition unit 133 of the
S25の後、端末装置20のテキスト受信部273が、読話装置10からテキスト情報を受信すると、表示部274は、受信したテキスト情報を出力部26に表示する(S26:テキスト表示)。次に、ユーザは、端末装置20に表示されたテキスト情報を確認し(S27)、当該テキスト情報に修正が必要な部分があれば、入力部25等によりテキスト情報の修正情報を入力する。そして、修正情報送信部275は、入力されたテキスト情報の修正情報を読話装置10へ送信する(S28:テキスト修正)。その後、読話装置10の修正情報取得部136が、ユーザの端末装置20からテキスト情報の修正情報を受信すると、学習部134は当該修正情報を用いて、当該ユーザのモデルの修正を行う(S29:修正情報を用いたモデルの修正)。
After S25, when the text receiving unit 273 of the
なお、ここでは説明を省略しているが、S29の後、システムが再度当該ユーザの発話を受け付けた場合、読話装置10は、修正後の当該ユーザのモデルに基づき、再度S23以降の処理を実行する。上記の処理を繰り返すことで、読話装置10は、ユーザにカスタマイズされた精度の高い変換を実現するモデルを作成することができる。
Although the description is omitted here, when the system accepts the user's utterance again after S29, the
なお、S27においてユーザが端末装置20に表示されたテキスト情報を確認し、修正の必要な部分がなければ、修正の必要がない旨を端末装置20に入力してもよい。その場合、端末装置20は、当該テキスト情報に修正の必要がない旨の情報を読話装置10へ送信する。
In S27, the user may check the text information displayed on the
(3)認識結果の活用
また、端末装置20は、読話装置10から受信したテキスト情報(発話内容の認識結果)を他のアプリケーションやサービスに活用してもよい。例えば、端末装置20は、受信したテキスト情報を用いてメール、チャット等のコミュニケーションアプリへのテキスト連携を行ってもよい。
(3) Utilization of Recognition Result The
[その他]
また、上記の実施形態において読話装置10は、ユーザの発話内容をテキスト情報に変換したものを端末装置20へ送信することとしたが、これに限定されない。例えば、読話装置10はユーザの発話内容を示す音声データを端末装置20へ送信してもよい。
[Other]
Further, in the above embodiment, the
また、上記の実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above-described embodiment, all or a part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed. It is also possible to automatically perform all or part of the above by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、読話装置10の機能を端末装置20に装備してもよい。
Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured. For example, the function of the
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to practice the present invention in other improved forms.
[プログラム]
また、上記の実施形態で述べた読話装置10の機能を実現するプログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実装できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記のプログラムを情報処理装置に実行させることにより、情報処理装置を読話装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータ、ラック搭載型のサーバコンピュータ等が含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistants)等がその範疇に含まれる。また、読話装置10を、クラウドサーバに実装してもよい。
[program]
Further, it can be implemented by installing a program that realizes the function of the
図7を用いて、上記のプログラム(音声認識プログラム)を実行するコンピュータの一例を説明する。図7に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
An example of a computer that executes the above program (speech recognition program) will be described with reference to FIG. 7. As shown in FIG. 7, the
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
The
ここで、図7に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。
Here, as shown in FIG. 7, the hard disk drive 1090 stores, for example, the
そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
Then, the
なお、上記の音声認識プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、上記のプログラムに係るプログラムモジュール1093やプログラムデータ1094は、LANやWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
The
10 読話装置
11,21 通信部
12,22 記憶部
13,27 制御部
20 端末装置
23 マイク
24 カメラ
25 入力部
26 出力部
131 読話処理部
132 音声テキスト変換部
133 発話情報取得部
134 学習部
135 出力処理部
136 修正情報取得部
271 発話受付部
272 発話情報送信部
273 テキスト受信部
274 表示部
275 修正情報送信部
10
Claims (7)
前記第1の取得部により取得された発話情報と当該発話情報の示す発話内容とを用いた学習により作成されたモデルを用いて、認識の対象となる発話情報を入力として、前記発話情報の示す発話内容の認識結果を出力する出力部と、
を備えることを特徴とする音声認識装置。 A first acquisition unit that acquires utterance information including information indicating the movement of the user's mouth when the user whispers and voice information of the user, and a first acquisition unit.
Using the model created by learning using the utterance information acquired by the first acquisition unit and the utterance content indicated by the utterance information, the utterance information to be recognized is input to indicate the utterance information. An output unit that outputs the recognition result of the utterance content and
A voice recognition device characterized by comprising.
前記出力部は、
前記モデルを用いて、認識の対象となる発話情報を入力として、前記発話情報の示す発話内容の認識結果を出力する
ことを特徴とする請求項1に記載の音声認識装置。 A learning unit for creating a model that outputs a recognition result of the utterance content indicated by the utterance information by learning using the utterance information acquired by the first acquisition unit and the utterance content indicated by the utterance information is further provided.
The output unit
The voice recognition device according to claim 1, wherein the model is used to input utterance information to be recognized and output a recognition result of the utterance content indicated by the utterance information.
前記出力部は、
前記テキスト変換部により変換された前記発話内容の認識結果のテキスト情報を出力する
ことを特徴とする請求項2に記載の音声認識装置。 It is further equipped with a text conversion unit that converts the recognition result of the utterance content into text information.
The output unit
The voice recognition device according to claim 2, wherein the text information of the recognition result of the utterance content converted by the text conversion unit is output.
前記発話内容の音声データであり、
前記テキスト変換部は、
前記発話内容の音声データをテキスト情報に変換する
ことを特徴とする請求項3に記載の音声認識装置。 The recognition result of the utterance content is
It is the voice data of the utterance content,
The text conversion unit
The voice recognition device according to claim 3, wherein the voice data of the utterance content is converted into text information.
前記ユーザにより入力された、前記発話内容の認識結果のテキスト情報の修正情報を取得する第2の取得部をさらに備え、
前記学習部は、
前記第2の取得部により取得された、前記発話内容の認識結果のテキスト情報の修正情報を用いて前記モデルを修正する
ことを特徴とする請求項3に記載の音声認識装置。 The voice recognition device is
Further provided with a second acquisition unit for acquiring correction information of the text information of the recognition result of the utterance content input by the user.
The learning unit
The voice recognition device according to claim 3, wherein the model is modified by using the correction information of the text information of the recognition result of the utterance content acquired by the second acquisition unit.
ユーザがささやき声で発話するときの前記ユーザの口の動きを示す情報および前記ユーザの音声情報を含む発話情報を取得するステップと、
前記取得した発話情報と当該発話情報の示す発話内容とを用いた学習により作成されたモデルを用いて、認識の対象となる発話情報を入力として、前記発話情報の示す発話内容の認識結果を出力するステップと、
を含むことを特徴とする音声認識方法。 A voice recognition method executed by a voice recognition device.
A step of acquiring information indicating the movement of the user's mouth when the user whispers and utterance information including the user's voice information, and
Using a model created by learning using the acquired utterance information and the utterance content indicated by the utterance information, the recognition result of the utterance content indicated by the utterance information is output by inputting the utterance information to be recognized. Steps to do and
A speech recognition method comprising.
前記取得した発話情報と当該発話情報の示す発話内容とを用いた学習により作成されたモデルを用いて、認識の対象となる発話情報を入力として、前記発話情報の示す発話内容の認識結果を出力するステップと、
をコンピュータに実行させることを特徴とする音声認識プログラム。 A step of acquiring information indicating the movement of the user's mouth when the user whispers and utterance information including the user's voice information, and
Using a model created by learning using the acquired utterance information and the utterance content indicated by the utterance information, the recognition result of the utterance content indicated by the utterance information is output by inputting the utterance information to be recognized. Steps to do and
A speech recognition program characterized by having a computer execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019207512A JP7495220B2 (en) | 2019-11-15 | 2019-11-15 | Voice recognition device, voice recognition method, and voice recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019207512A JP7495220B2 (en) | 2019-11-15 | 2019-11-15 | Voice recognition device, voice recognition method, and voice recognition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021081527A true JP2021081527A (en) | 2021-05-27 |
JP7495220B2 JP7495220B2 (en) | 2024-06-04 |
Family
ID=75965003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019207512A Active JP7495220B2 (en) | 2019-11-15 | 2019-11-15 | Voice recognition device, voice recognition method, and voice recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7495220B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000057325A (en) * | 1998-08-17 | 2000-02-25 | Fuji Xerox Co Ltd | Voice detector |
JP2001142477A (en) * | 1999-11-12 | 2001-05-25 | Matsushita Electric Ind Co Ltd | Voiced sound generator and voice recognition device using it |
JP2003255993A (en) * | 2002-03-04 | 2003-09-10 | Ntt Docomo Inc | System, method, and program for speech recognition, and system, method, and program for speech synthesis |
JP2010048890A (en) * | 2008-08-19 | 2010-03-04 | Ntt Docomo Inc | Client device, recognition result feedback method, recognition result feedback program, server device, method and program of updating model of voice recognition, voice recognition system, voice recognition method, voice recognition program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070055520A1 (en) | 2005-08-31 | 2007-03-08 | Microsoft Corporation | Incorporation of speech engine training into interactive user tutorial |
CN108520741B (en) | 2018-04-12 | 2021-05-04 | 科大讯飞股份有限公司 | Method, device and equipment for restoring ear voice and readable storage medium |
-
2019
- 2019-11-15 JP JP2019207512A patent/JP7495220B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000057325A (en) * | 1998-08-17 | 2000-02-25 | Fuji Xerox Co Ltd | Voice detector |
JP2001142477A (en) * | 1999-11-12 | 2001-05-25 | Matsushita Electric Ind Co Ltd | Voiced sound generator and voice recognition device using it |
JP2003255993A (en) * | 2002-03-04 | 2003-09-10 | Ntt Docomo Inc | System, method, and program for speech recognition, and system, method, and program for speech synthesis |
JP2010048890A (en) * | 2008-08-19 | 2010-03-04 | Ntt Docomo Inc | Client device, recognition result feedback method, recognition result feedback program, server device, method and program of updating model of voice recognition, voice recognition system, voice recognition method, voice recognition program |
Also Published As
Publication number | Publication date |
---|---|
JP7495220B2 (en) | 2024-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11514886B2 (en) | Emotion classification information-based text-to-speech (TTS) method and apparatus | |
JP4271224B2 (en) | Speech translation apparatus, speech translation method, speech translation program and system | |
CN111369971B (en) | Speech synthesis method, device, storage medium and electronic equipment | |
JP6633153B2 (en) | Method and apparatus for extracting information | |
CN112309366B (en) | Speech synthesis method, speech synthesis device, storage medium and electronic equipment | |
JP2017058673A (en) | Dialog processing apparatus and method, and intelligent dialog processing system | |
CN110197655B (en) | Method and apparatus for synthesizing speech | |
JP2003044091A (en) | Voice recognition system, portable information terminal, device and method for processing audio information, and audio information processing program | |
CN112840396A (en) | Electronic device for processing user words and control method thereof | |
CN110827803A (en) | Method, device and equipment for constructing dialect pronunciation dictionary and readable storage medium | |
CN112513984A (en) | Electronic device and control method thereof | |
KR20200080400A (en) | Method for providing sententce based on persona and electronic device for supporting the same | |
CN112331176A (en) | Speech synthesis method, speech synthesis device, storage medium and electronic equipment | |
US10216732B2 (en) | Information presentation method, non-transitory recording medium storing thereon computer program, and information presentation system | |
JP2020027132A (en) | Information processing device and program | |
CN112309367A (en) | Speech synthesis method, speech synthesis device, storage medium and electronic equipment | |
EP3679570A1 (en) | Named entity pronunciation generation for speech synthesis and speech recognition | |
EP1899955B1 (en) | Speech dialog method and system | |
JP5510069B2 (en) | Translation device | |
JP7495220B2 (en) | Voice recognition device, voice recognition method, and voice recognition program | |
JP2006259641A (en) | Voice recognition device and program | |
CN114242035A (en) | Speech synthesis method, apparatus, medium, and electronic device | |
US20210398544A1 (en) | Electronic device and control method thereof | |
JP2020119043A (en) | Voice translation system and voice translation method | |
JP2015179198A (en) | Reading device, reading method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7495220 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |