JP2020060735A - Voice recognition system - Google Patents
Voice recognition system Download PDFInfo
- Publication number
- JP2020060735A JP2020060735A JP2018193388A JP2018193388A JP2020060735A JP 2020060735 A JP2020060735 A JP 2020060735A JP 2018193388 A JP2018193388 A JP 2018193388A JP 2018193388 A JP2018193388 A JP 2018193388A JP 2020060735 A JP2020060735 A JP 2020060735A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- file
- speaker
- sound
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、例えば複数の話者に対しても、認識精度の高い音声認識システムに関するものである。 The present invention relates to a voice recognition system having high recognition accuracy even for a plurality of speakers, for example.
マイクロホンから音声入力された音声データをテキスト化する音声認識装置は、広く普及している。そして、特許文献1には話者ごとに発声特徴を学習させて、音声認識の精度を高める音声認識装置が開示されている。 A voice recognition device for converting voice data input from a microphone into text has been widely used. Then, Patent Document 1 discloses a voice recognition device that increases the accuracy of voice recognition by learning the utterance feature for each speaker.
また、様々なクラウドサービスにおいて、ディープラーニング(深層学習)を利用した学習システムが構築されている。これらの学習システムは、インターネットを介して多数のユーザから収集されるデータを基に、ニューラルネットワークベースの処理装置により、自己学習によりデータ分析、解析を行う。 In addition, learning systems using deep learning have been constructed in various cloud services. These learning systems perform data analysis and analysis by self-learning by a neural network-based processing device based on data collected from many users via the Internet.
人間からの指示を待たずに自己学習してゆくことで、効率的に処理装置の出力精度を高めることが可能であり、ディープラーニングを活用したクラウドサービスによってデータ分析された分析結果をユーザは利用している。 By performing self-learning without waiting for human instruction, it is possible to efficiently improve the output accuracy of the processing device, and the user can use the analysis results of data analysis performed by the cloud service that utilizes deep learning. are doing.
しかし、特許文献1の音声認識装置は、マイクロホンから収集される音声のみから学習しているため、収集できる音声データに限界がある。また、上述のクラウドサービスでは演算処理部を並列に多数配置するような大規模のシステムが構築されているのに対して、特許文献1の音声認識装置はシステム規模が小さいものとなってしまう。従って、特許文献1の音声認識装置は学習精度の向上が遅く、テキスト化、話者特定の精度がなかなか向上しないという問題がある。 However, since the voice recognition device of Patent Document 1 learns from only the voice collected from the microphone, there is a limit to the voice data that can be collected. Further, in the cloud service described above, a large-scale system in which a large number of arithmetic processing units are arranged in parallel is constructed, whereas the speech recognition device of Patent Document 1 has a small system scale. Therefore, the speech recognition apparatus of Patent Document 1 has a problem that the learning accuracy is slow to be improved, and the accuracy of text conversion and speaker identification is not easily improved.
本発明の目的は、上述の課題を解決し、インターネットを介したクラウドサービスである学習型サーバを利用することで、収集した音声を精度良くテキスト化すると共に、精度良く話者の特定を行う音声認識システムを提供することにある。 An object of the present invention is to solve the above-mentioned problems and use a learning server that is a cloud service via the Internet to accurately convert collected voices into texts and to accurately identify a speaker. To provide a recognition system.
上記目的を達成するための本発明に係る音声認識システムは、周囲の音を入力する集音部と、該集音部から入力した音データのデータ加工を行うことにより音声ファイルを生成する処理部と、該処理部の処理結果を表示するモニタ部とから構成される音声認識システムであって、前記処理部はインターネットを介して自己学習機能を備えた文字変換サーバ及び話者特定サーバと接続しており、前記音声ファイルを前記文字変換サーバに送信して、前記文字変換サーバから前記音声ファイルをテキスト化した文章ファイルを受信し、前記音声ファイル及び話者のユーザID情報を前記話者特定サーバに送信して、前記音声ファイルに対する前記話者の特定結果を受信し、前記音声ファイルに対応する前記文章ファイル及び前記話者の特定結果を前記モニタ部に表示することを特徴とする。 A voice recognition system according to the present invention for achieving the above object includes a sound collecting unit for inputting ambient sound, and a processing unit for generating a sound file by processing data of sound data input from the sound collecting unit. And a monitor unit that displays a processing result of the processing unit, wherein the processing unit is connected to a character conversion server having a self-learning function and a speaker identification server via the Internet. The voice file is transmitted to the character conversion server, a text file obtained by converting the voice file into a text is received from the character conversion server, and the voice file and the user ID information of the speaker are received by the speaker identification server. And the speaker identification result for the audio file is received, and the sentence file and the speaker identification result corresponding to the audio file are transmitted. And displaying the serial monitor.
本発明に係る音声認識システムによれば、インターネットを介して多数のユーザから収集されるデータを基に、自己学習によりデータ分析、解析を行うクラウドサービスである文字変換サーバ及び話者特定サーバを利用することで、文字変換機能及び話者特定機能を設けることなく、音声ファイルに対して精度よく文字変換及び話者特定を行うことができる。 According to the voice recognition system of the present invention, a character conversion server and a speaker identification server, which are cloud services that perform data analysis and analysis by self-learning, based on data collected from many users via the Internet are used. By doing so, it is possible to perform character conversion and speaker identification with high accuracy for a voice file without providing a character conversion function and a speaker identification function.
また、音声ファイルに文章ファイルと特定結果の話者を対応付けて、モニタ部に時系列順にほぼリアルタイムで表示させることができる。話者と発言内容とを文字で確認することができ、画面のスクロールにより過去の発言も容易に確認することが可能である。 Further, the voice file can be associated with the text file and the speaker of the specific result, and can be displayed on the monitor unit in chronological order in substantially real time. The speaker and the content of the utterance can be confirmed by characters, and past utterances can be easily confirmed by scrolling the screen.
本発明を図示の実施例に基づいて詳細に説明する。
音声認識システム1は、周囲の音を入力する集音部2と、この集音部2から入力した音データのデータ加工を行うことで音声ファイルFを生成し、この音声ファイルFを文字変換サーバ及び話者特定サーバに送信し、文章ファイルWと話者Hの特定結果を受信する処理部3と、処理部3の処理結果を表示するモニタ部4から構成される。
The present invention will be described in detail with reference to the illustrated embodiments.
The voice recognition system 1 generates a voice file F by processing the
音声認識システム1には、市販のノートパソコンやデスクトップパソコンを用いてもよく、集音部2として例えば外付けのマイクロホン等を使用する。集音部2は左右の二重で録音されるステレオタイプではなく、モノラルタイプを使用し、高品質のものが好ましい。このモノラルタイプの集音部2をテーブル等の話者間の中央に設置することになる。
A commercially available notebook computer or desktop computer may be used as the voice recognition system 1, and an external microphone or the like is used as the
処理部3は演算部3a、メモリ部3b及び記憶部3cから成り、記憶部3cに記憶したソフトウェアを起動することで、各種のデータ処理を行う。この処理部3と集音部2とは有線又は無線で接続されている。
The
モニタ部4は処理部3と接続されており、例えば液晶ディスプレイからなり、モニタ部4に処理部3における各種処理結果等を表示されることができる。なお、モニタ部4はネットワークを介して接続した別のPCや携帯端末のモニタ等であってもよい。
The
文字変換サーバ5は、インターネットIN上に存在するニューラルネットワークベースのAPI(Application Programming Interface)であり、音声認識システム1とインターネットINを介して接続されている。
The
文字変換サーバ5は音声認識システム1外であって、音声認識システム1の処理部3から音声ファイルFがアップロードされると、文章ファイルWに変換するテキスト化処理を行い、処理部3は生成した文章ファイルWをダウンロードすることができる。数分間に渡る長い音声ファイルFをアップロードすると、テキスト化処理に時間を要するため、音声データVを数10秒以下に区切り、文字変換サーバ5にアップロードすることが好ましい。
The
また、文字変換サーバ5は大量のユーザからアップロードされる音声ファイルを基にディープラーニングを行い、テキスト化処理の自己修正している。従って、時間が経過するにつれて、テキスト化処理の変換精度が向上することになる。
In addition, the
同時に、文字変換サーバ5と別体である話者特定サーバ6は、インターネットIN上に存在するニューラルネットワークベースのAPIであり、音声認識システム1とインターネットINを介して接続されている。
At the same time, the
この話者特定サーバ6は、予め話者ごとに音声サンプルを登録しておき、音声認識システム1から音声データVを話者特定サーバ6にアップロードすると、登録している話者データに基づいて、音声データVの話者を特定することが可能である。例えば、話者Haの音声データをアップロードすると、話者Haが既に話者特定サーバ6に登録されていれば、音声データの声主は、話者Haであると特定されることになる。また、話者特定サーバ6には多数の話者が登録されているため、登録しているユーザIDのグループを音声データVと共にアップロードすることで、効率的にユーザIDから認識することが可能である。
This
この話者特定サーバ6も大量のユーザからアップロードされる音声ファイルを基に、ディープランニングを利用して自己分析を行いながら、話者特定を行うため、時間が経過するにつれて話者特定のための精度が向上する。
The
例えば、複数の話者である話者Ha、Hb、HcのそれぞれのユーザIDを、話者Ha、Hb、Hcの会話を録音した音声データVと共に話者特定サーバ6にアップロードすることにより、各話者Ha、Hb、Hcの特定は3つのユーザIDから選出されることになる。従って、話者特定の処理速度が速くなると共に、話者特定の精度が向上することになる。
For example, by uploading the user IDs of the speakers Ha, Hb, and Hc, which are a plurality of speakers, to the
図2は集音部2を介して処理部3に入力した音データに対する音声ファイル生成のフローチャート図である。音データは集音部2に入力されたデータであり、録音した音データを加工したものが音声データVとなる。
FIG. 2 is a flow chart of sound file generation for sound data input to the
図1に示すように、例えば話者Ha、Hb、Hcの中心に1個の集音部2を配置し、会議を開始した場合の処理部3の処理について説明する。会議が開始されると、図3に示すように話者Ha、Hb、Hcは時系列にそれぞれ音声を発して、これらが合成された1つの音データが得られる。
As shown in FIG. 1, for example, a process of the
ステップS1において、記憶部3cに記憶した音データに対して、人間の発声周波数のみを抽出して音声データVとして記憶する。この抽出処理は例えば、椅子を動かした音や、救急車のサイレン音等が音データに混入されると、それらの音域をノイズとしてカットしたものを音声データVとして記憶することになる。
In step S1, only the human utterance frequency is extracted from the sound data stored in the
図3は時間t11から録音を開始した音声データVを簡略した波形で表した説明図である。例えば、最初に話者Haが「これから会議を始めます。」と発言し、次に話者Hbが「了解です。」、更に話者Hcが「分かりました。」と続き、その後に話者Haが「それでは議題に移ります。」と発言したときの音声の波形である。 FIG. 3 is an explanatory diagram showing the audio data V, which is recorded at time t11, in a simplified waveform. For example, the speaker Ha first says, "I'm going to start the meeting.", The speaker Hb says "OK," and the speaker Hc says "I understand." This is the waveform of the voice when Ha says, "I will move to the agenda."
続いて、図2のステップS2に移行し、音声データVの発言と発言の間の無音状態である無音時間mを計測する。例えば、無音時間mの閾値を1秒と設定し、1秒以上の無音時間m1が発生すると、ステップS3に移行する。ステップS2で1秒以下の無音時間m0があると、ステップS2の処理を繰り返して行う。 Then, the process proceeds to step S2 of FIG. 2, and the silent time m, which is the silent state between the remarks of the voice data V, is measured. For example, when the threshold value of the silent time m is set to 1 second and the silent time m1 of 1 second or more occurs, the process proceeds to step S3. If there is a silent time m0 of 1 second or less in step S2, the process of step S2 is repeated.
ステップS3では、無音時間m1により区切れた直前の音声データVに対して、話者Hが複数人存在するか否かの判定を行う。この話者Hを識別する処理は、所定間隔でサンプリングした音声データVに対して、話者Hごとに中心周波数が異なることを利用する。中心周波数の変位から、無音時間m1により区切れた直前の音声データの話者Hの人数を判別することが可能である。 In step S3, it is determined whether or not there are a plurality of speakers H for the voice data V immediately before being separated by the silent time m1. The process of identifying the speaker H utilizes the fact that the speaker H has different center frequencies with respect to the voice data V sampled at predetermined intervals. From the displacement of the center frequency, it is possible to determine the number of speakers H of the voice data immediately before being separated by the silent time m1.
話者Hの人数を判別した後にステップS4に移行し、話者Hが複数である場合はステップS5に移行し、話者Hが単数の場合は、ステップS4を省略してステップS6に移行する。 After determining the number of speakers H, the process proceeds to step S4. When the number of the speakers H is plural, the process proceeds to step S5. When the number of the speakers H is one, step S4 is omitted and the process proceeds to step S6. .
図3に示す音声データVでは、時間t12、t13、t14、t15で区切られた直前の音声データVは、何れも1人ずつの周波数特性しかないので、ステップS4では、ステップS5を省略してステップS6に移行する。 In the voice data V shown in FIG. 3, since the voice data V immediately before divided by the times t12, t13, t14, and t15 have only one frequency characteristic for each person, the step S5 is omitted in the step S4. Control goes to step S6.
ステップS5の処理は後述し、先にステップS6における処理を説明すると、区切られた音声データVは、図4に示すように話者Haが最初に発言した「これから会議を始めます。」の音声ファイルF1:t11、話者Hbが発言した「了解です。」の音声ファイルF2:t12、話者Hcが発言した「分かりました。」の音声ファイルF3:t13、話者Haが発言した「それでは議題に移ります。」の音声ファイルF4:t14として保存される。なお、これらの音声ファイルFに対して、処理部3は誰の発言であるかを特定することはできない。
The process of step S5 will be described later, and the process of step S6 will be described first. As shown in FIG. 4, the separated voice data V is the voice of "The conference will be started." File F1: t11, voice file F2: t12 of speaker Hb saying "OK.", Voice file F3: t13 of speaker Hc saying "I understand.", Speaker Ha saying "OK. It will be saved as a voice file F4: t14 of "Go to agenda." It should be noted that the
そして、生成された各音声ファイルFを、文字変換サーバ5及び話者特定サーバ6に送信する。送信後にステップS2に戻り、ステップS2〜ステップS6の処理を繰り返す。
Then, each generated voice file F is transmitted to the
図3は前述のように話者Ha、Hb、Hcが会話をする際に、最初の話者Haの会話が終わった後に、無音時間m1が発生した後に、次の話者Hbの音声が開始する音声データを示しているが、図5は話者Ha、Hb、Hcの会話の間に無音時間が閾値以下の無音時間m0であった場合における音声データVを簡略した波形で表した説明図である。 As shown in FIG. 3, when the speakers Ha, Hb, and Hc have a conversation as described above, after the conversation of the first speaker Ha ends, the silence of the first speaker Ha occurs, and then the voice of the next speaker Hb starts. FIG. 5 is an explanatory diagram showing a simplified waveform of the audio data V in the case where the silent time is less than the threshold m0 during the conversation between the speakers Ha, Hb, and Hc. Is.
図5に示す話者Haの「それでは議題に移ります。」との発言後に、最初の無音時間m1が発生した場合では、ステップS3において、時間t21で区切られた直前の音声データV0に対して、所定時間でサンプリングして中心周波数を測定する。そして、ステップS4において中心周波数が複数の場合に、つまり話者Hが複数の場合にはステップS5に移行する。 In the case where the first silent time m1 occurs after the speaker Ha saying “Then, I will move to the agenda.” Shown in FIG. 5, with respect to the immediately preceding voice data V0 separated by the time t21 in step S3. , The center frequency is measured by sampling at a predetermined time. Then, when there are a plurality of center frequencies in step S4, that is, when there are a plurality of speakers H, the process proceeds to step S5.
ステップS5では、判別した話者Hごとの音声ファイルFを生成する。図6は時間t25で無音時間m1が発生することで区切られた直前の音声データV0に対して、中心周波数の変位から話者Hを判別する場合の説明図である。この音声データV0の中心周波数を判別することで、時間t21から開始する音声データVH1、時間t22から開始する音声データVH2、時間t23から開始する音声データVH3に区分することができる。 In step S5, the voice file F for each of the determined speakers H is generated. FIG. 6 is an explanatory diagram of a case where the speaker H is discriminated from the displacement of the center frequency with respect to the immediately preceding voice data V0 divided by the occurrence of the silent time m1 at time t25. By determining the center frequency of the voice data V0, it is possible to classify the voice data VH1 starting at time t21, the voice data VH2 starting at time t22, and the voice data VH3 starting at time t23.
なお、音声データV0の一部に2人の話者Hが重複して発声して録音されている場合であっても、サンプリング時間を短くする、例えば10msecとすることで、各サンプリング時間を占有する話者Hを特定することができ、重複して発声している音声データV0から個々の音声データVへ区分けすることが可能である。 Even when two speakers H are uttered and recorded in a part of the voice data V0, the sampling time is shortened, for example, 10 msec to occupy each sampling time. It is possible to specify the speaker H to be used, and it is possible to classify the voice data V0 which is uttered redundantly into individual voice data V.
更に、2つの発言から成る音声データVH1は、発言間に無音時間m1が存在することから、2つの音声ファイルFの音声ファイルF1:t21と音声ファイルF4:t24を生成することができる。 Further, the voice data VH1 composed of two utterances can generate the voice files F1: t21 and F4: t24 of the two voice files F because the silent time m1 exists between the utterances.
以上の判別処理を行うことで、図4に示す音声ファイルF1:t11〜F4:t14と同様な音声ファイルF1:t21〜F4:t24を生成することができる。なお、処理部3ではこれらの音声ファイルF1:t21〜F4:t24について話者が異なることは判別できても、誰の発言であるのかを特定することはできない。
By performing the above determination process, the audio files F1: t21 to F4: t24 similar to the audio files F1: t11 to F4: t14 shown in FIG. 4 can be generated. Although the
また、音声データVH1から2つの音声ファイルFを生成する処理を行わず、1つの音声ファイルF1:t21のみを生成するようにしてもよい。この場合は、音声ファイルF1:t21の後半の発言と、音声ファイルF2:t22、F3:t23の発言との時系列を明確にするため、時間t21〜t24の情報を各音声ファイルに記憶する必要がある。つまり、音声ファイルF1:t21に時間t21、t24を記憶することで、後述するモニタ部4に各発言を時間t21〜t24の時系列で表示することができる。
Alternatively, the process of generating the two audio files F from the audio data VH1 may not be performed, and only one audio file F1: t21 may be generated. In this case, in order to clarify the time series of the statements in the latter half of the audio file F1: t21 and the statements in the audio files F2: t22 and F3: t23, it is necessary to store the information of times t21 to t24 in each audio file. There is. That is, by storing the times t21 and t24 in the audio file F1: t21, it is possible to display each utterance on the
図3に示す音声データVと図5に示す音声データVの処理部3における処理の差は、図3の音声データVにおいては無音時間m1が発生する度に、音声ファイルFaが生成され、図4の音声ファイルF1:t11〜F4:t14は上から順に生成されて、生成される都度ステップS6に移行することになる。これに対して、図5の音声データVにおいては音声ファイルF1:t21〜F4:t24がほぼ同時に生成され、ステップS6に移行することになる。 The difference between the processing of the audio data V shown in FIG. 3 and the processing of the audio data V shown in FIG. 5 is that the audio file Fa is generated every time the silent time m1 occurs in the audio data V of FIG. The four audio files F1: t11 to F4: t14 are sequentially generated from the top, and each time they are generated, the process proceeds to step S6. On the other hand, in the audio data V of FIG. 5, the audio files F1: t21 to F4: t24 are generated almost at the same time, and the process proceeds to step S6.
ステップS6において、生成された音声ファイルFを文字変換サーバ5に送信すると、音声ファイルF1:t11〜F4:t14及び音声ファイルF1:t21〜F4:t24は、それぞれテキスト化された文章ファイルW1:t11〜W4:t14及び文章ファイルW1:t21〜W4:t24に変換され、音声認識システム1はこれらのファイルを受信することになる。
When the generated voice file F is transmitted to the
また、生成された音声ファイルFを話者特定サーバ6に送信する際には、音声ファイルF1:t11〜F4:t14及び音声ファイルF1:t21〜F4:t24に加えて、会話を構成する話者Ha〜HcのユーザIDを併せて送信する。話者特定サーバ6は、処理部3から送信された音声ファイルF1:t11〜F4:t14及び音声ファイルF1:t21〜F4:t24に対して、併せて送られてきたユーザIDの中からそれぞれの話者Hを特定し、処理部3は特定結果の話者Ha〜Hcを音声ファイルFに対応して受信する。
In addition, when transmitting the generated voice file F to the
そして処理部3では、音声ファイルFに文章ファイルWと特定結果の話者Hを対応付けて、モニタ部4に時系列順に表示する。つまり、話者Hが特定できなかった「これから会議を始めます。」の音声ファイルF1:t11は、「これから会議を始めます。」の文章ファイルW1:t11と、話者Haが特定されて、図7に示すように表示される。
Then, the
音声ファイルFは、ファイル名末尾が時間tに対する通し番号として保存され、図7に示すように文章ファイルW及び話者Hは時間tの時系列順に表示される。なお、図7では話者Hを識別し易くするために、話者Haを左側に表示し、話者Hb、Hcを右側に表示している。 The voice file F is stored with the end of the file name as a serial number for the time t, and the text file W and the speaker H are displayed in chronological order of the time t as shown in FIG. In FIG. 7, the speaker Ha is displayed on the left side and the speakers Hb and Hc are displayed on the right side in order to easily identify the speaker H.
このように各ファイルの生成、クラウドサービスへの送受信に多少のタイムラグが発生するものの、ほぼリアルタイムで最新の音声ファイルFに対する発言日時、文章ファイルW及び話者Hがモニタ部4の画面下部から順に表示されることになる。
Although a slight time lag occurs in the generation of each file and the transmission / reception to / from the cloud service as described above, the speech date and time for the latest audio file F, the text file W and the speaker H are sequentially displayed from the bottom of the screen of the
なお、音声ファイルFのファイル名を基に表示する順を決定しているが、ファイル名以外にも時間t11〜t14をファイルのヘッダ等に発言日時として記憶することで、それらの情報を基に時系列で表示することができる。 Note that the display order is determined based on the file name of the audio file F. However, in addition to the file name, the times t11 to t14 are stored as the speech date and time in the file header or the like, and based on these informations. It can be displayed in chronological order.
また、表示される発言日時に代えて、画面に表示処理した処理日時を表示するようにしてもよい。この場合は、上述の発言日時を記憶せずに、処理部3から音声ファイルFを生成した順でクラウドサービスに送信し、受信することを条件として次の音声ファイルFをクラウドサービスに送るようにしてもよい。
Further, the processing date and time of the display processing may be displayed on the screen instead of the displayed speech date and time. In this case, the voice files F are transmitted to the cloud service in the order in which they were generated from the
図7に示すように会話形式で表示されることで後日に、誰がどのような発言をしたのかを容易に確認することが可能である。また、図7に示す画面を他の端末装置を接続したPCや携帯端末で閲覧可能とすることで、ほぼリアルタイムで他の場所から会議の内容を目視で確認することができる。 By being displayed in a conversational format as shown in FIG. 7, it is possible to easily confirm who made what kind of speech at a later date. Further, by making the screen shown in FIG. 7 viewable on a PC or a mobile terminal to which another terminal device is connected, the contents of the conference can be visually confirmed from another place in almost real time.
特に、別の場所で会議を音で聞いている場合には、話者Hを特定できずに、全体の内容を把握し難いのに対して、音声認識システム1では話者と発言内容とを文字で確認できるので会議内容を把握し易い。 In particular, when the meeting is heard by sound at another place, the speaker H cannot be specified and it is difficult to grasp the entire content. It is easy to understand the content of the meeting because it can be confirmed by letters.
更には、音声を出力することが困難な場所での会議内容の確認や、聴覚障害者による会議内容を確認する際に、容易に会議の内容を把握することができる。画面のスクロールにより過去の発言を簡単に確認することもできる。 Furthermore, the content of the conference can be easily grasped when confirming the content of the conference in a place where it is difficult to output a voice or when confirming the content of the conference by a hearing impaired person. You can easily check past comments by scrolling the screen.
また、音声認識システム1のテーブル等の話者Ha〜Hcの中央に設置した集音部2により、集音した音データを用いて説明したが、別の場所等で録音した音声データを含む音データのファイルをネットワークや記憶媒体等を経由して記憶部3cに記憶させて、又は直接読み込ませて演算部3aにより前述のフローチャートの処理を行うようにしてもよい。
In addition, although the sound data collected by the
このように、音声認識システム1はインターネットINを介して多数のユーザから収集されるデータを基に、自己学習によりデータ分析、解析を行うクラウドサービスである文字変換サーバ5及び話者特定サーバ6を利用することで、文字変換機能及び話者特定機能を設けることなく、精度のよい文字変換及び話者特定を行うことができる。
As described above, the voice recognition system 1 includes the
また、会議内容をほぼリアルタイムで文章化することができ、また録音した音声ファイルに対しても事後的に文章化することができるので、迅速な会議内容の把握に役立てることが可能である。 In addition, since the conference contents can be written in almost real time, and the recorded voice file can be written in a posterior manner, it can be useful for grasping the conference contents promptly.
1 音声認識システム
2 集音部
3 処理部
4 モニタ部
5 文字変換サーバ
6 話者特定サーバ
IN インターネット
1
Claims (4)
前記処理部はインターネットを介して自己学習機能を備えた文字変換サーバ及び話者特定サーバと接続しており、
前記音声ファイルを前記文字変換サーバに送信して、前記文字変換サーバから前記音声ファイルをテキスト化した文章ファイルを受信し、
前記音声ファイル及び話者のユーザID情報を前記話者特定サーバに送信して、前記音声ファイルに対する前記話者の特定結果を受信し、
前記音声ファイルに対応する前記文章ファイル及び前記話者の特定結果を前記モニタ部に表示することを特徴とする音声認識システム。 It is composed of a processing unit that processes a sound data including sound data input from a sound collection unit that inputs a surrounding sound to generate a sound file, and a monitor unit that displays a processing result of the processing unit. A voice recognition system,
The processing unit is connected to a character conversion server having a self-learning function and a speaker identification server via the Internet,
The voice file is transmitted to the character conversion server, and a text file obtained by converting the voice file into a text is received from the character conversion server,
Transmitting the voice file and the speaker user ID information to the speaker identification server, and receiving the speaker identification result for the voice file,
A voice recognition system, wherein the text file corresponding to the voice file and the speaker identification result are displayed on the monitor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018193388A JP7110057B2 (en) | 2018-10-12 | 2018-10-12 | speech recognition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018193388A JP7110057B2 (en) | 2018-10-12 | 2018-10-12 | speech recognition system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020060735A true JP2020060735A (en) | 2020-04-16 |
JP7110057B2 JP7110057B2 (en) | 2022-08-01 |
Family
ID=70220234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018193388A Active JP7110057B2 (en) | 2018-10-12 | 2018-10-12 | speech recognition system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7110057B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014206896A (en) * | 2013-04-15 | 2014-10-30 | Yamagata Intech株式会社 | Information processing apparatus, and program |
JP2017003611A (en) * | 2015-06-04 | 2017-01-05 | シャープ株式会社 | Voice recognition device, voice recognition system, terminal used in voice recognition system and method for generating speaker identification model |
WO2019187521A1 (en) * | 2018-03-28 | 2019-10-03 | 株式会社村田製作所 | Voice information transmission device, voice information transmission method, voice information transmission program, voice information analysis system, and voice information analysis server |
-
2018
- 2018-10-12 JP JP2018193388A patent/JP7110057B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014206896A (en) * | 2013-04-15 | 2014-10-30 | Yamagata Intech株式会社 | Information processing apparatus, and program |
JP2017003611A (en) * | 2015-06-04 | 2017-01-05 | シャープ株式会社 | Voice recognition device, voice recognition system, terminal used in voice recognition system and method for generating speaker identification model |
WO2019187521A1 (en) * | 2018-03-28 | 2019-10-03 | 株式会社村田製作所 | Voice information transmission device, voice information transmission method, voice information transmission program, voice information analysis system, and voice information analysis server |
Also Published As
Publication number | Publication date |
---|---|
JP7110057B2 (en) | 2022-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9230562B2 (en) | System and method using feedback speech analysis for improving speaking ability | |
US10334384B2 (en) | Scheduling playback of audio in a virtual acoustic space | |
US9070369B2 (en) | Real time generation of audio content summaries | |
US9293133B2 (en) | Improving voice communication over a network | |
CN110149805A (en) | Double-directional speech translation system, double-directional speech interpretation method and program | |
RU2692051C1 (en) | Method and system for speech synthesis from text | |
JP2013534650A (en) | Correcting voice quality in conversations on the voice channel | |
Daniels | Using Web Speech technology with language learning applications. | |
US20230317095A1 (en) | Systems and methods for pre-filtering audio content based on prominence of frequency content | |
CN111462727A (en) | Method, apparatus, electronic device and computer readable medium for generating speech | |
JP2023548157A (en) | Other speaker audio filtering from calls and audio messages | |
Shahriar et al. | A communication platform between bangla and sign language | |
CN106486134B (en) | Language state determination device and method | |
JP2013088552A (en) | Pronunciation training device | |
US11735208B2 (en) | Systems and methods for classification and rating of calls based on voice and text analysis | |
EP2541544A1 (en) | Voice sample tagging | |
JP7110057B2 (en) | speech recognition system | |
JP6733452B2 (en) | Speech analysis program, speech analysis device, and speech analysis method | |
JP2020016949A (en) | Voice recognition data processing device, voice recognition data processing system, and voice recognition data processing method | |
JP7296214B2 (en) | speech recognition system | |
CN111582708A (en) | Medical information detection method, system, electronic device and computer-readable storage medium | |
US10505879B2 (en) | Communication support device, communication support method, and computer program product | |
CN111445925A (en) | Method and apparatus for generating difference information | |
Borghi et al. | Automatic Speech Recognition for Portuguese: A Comparative Study | |
JP2024060181A (en) | Vocabulary evaluation device, vocabulary evaluation method, and vocabulary evaluation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210915 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220623 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7110057 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |