JP7095569B2 - Speech recognition system and speech recognition method - Google Patents

Speech recognition system and speech recognition method Download PDF

Info

Publication number
JP7095569B2
JP7095569B2 JP2018217921A JP2018217921A JP7095569B2 JP 7095569 B2 JP7095569 B2 JP 7095569B2 JP 2018217921 A JP2018217921 A JP 2018217921A JP 2018217921 A JP2018217921 A JP 2018217921A JP 7095569 B2 JP7095569 B2 JP 7095569B2
Authority
JP
Japan
Prior art keywords
voice
voice recognition
voice data
user
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018217921A
Other languages
Japanese (ja)
Other versions
JP2020086048A (en
Inventor
将樹 能勢
紘之 長野
悠斗 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018217921A priority Critical patent/JP7095569B2/en
Publication of JP2020086048A publication Critical patent/JP2020086048A/en
Priority to JP2022097190A priority patent/JP7420166B2/en
Application granted granted Critical
Publication of JP7095569B2 publication Critical patent/JP7095569B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、音声認識システム、及び音声認識方法に関する。 The present invention relates to a voice recognition system and a voice recognition method.

近年、音声認識技術が広く用いられている。例えば、AI(Artificial Intelligence)スピーカにおけるユーザの音声操作の受け付けや、コールセンターでの顧客との会話内容の記録といった用途で、音声認識技術が広く用いられている。
これらの用途では、発話するユーザの口元と、ユーザの発話した音声を収音するマイクとの距離が近い。そのため、音声と、雑音の比を示すS/N比(signal-noise ratio)が高い状態となり、精度良く音声認識をすることができる。
In recent years, speech recognition technology has been widely used. For example, voice recognition technology is widely used for applications such as accepting a user's voice operation on an AI (Artificial Intelligence) speaker and recording the content of a conversation with a customer at a call center.
In these applications, the distance between the mouth of the user who speaks and the microphone that picks up the voice spoken by the user is close. Therefore, the S / N ratio (signal-noise ratio), which indicates the ratio of voice and noise, is in a high state, and voice recognition can be performed with high accuracy.

一方で、例えば、会議における議事録の作成の用途で、会議卓の中央にテーブルマイクを配し、会議参加者の発話をまとめて収音する場合がある。この場合、発話者とマイクの距離が数十cm以上離れる。そのため、S/N比が低い状態となり、音声認識の精度が低下してしまうという問題が生じる。
このような問題を考慮した技術の一例が、特許文献1に開示されている。特許文献1に開示の技術では、会議に参加するユーザそれぞれに、ユーザの口元に対する指向性を有するマイクを装着させる。そして、これら複数のマイクそれぞれが収音した音声データを適宜選択して音声認識処理を行なう。これにより、発話者とマイクの距離が離れてしまうという問題を生じさせることなく、音声認識を行なうことができる。
On the other hand, for example, for the purpose of creating minutes in a conference, a table microphone may be arranged in the center of the conference table to collect the utterances of the conference participants at once. In this case, the distance between the speaker and the microphone is several tens of centimeters or more. Therefore, there arises a problem that the S / N ratio becomes low and the accuracy of speech recognition is lowered.
An example of a technique considering such a problem is disclosed in Patent Document 1. In the technique disclosed in Patent Document 1, each user who participates in the conference is made to wear a microphone having directivity toward the user's mouth. Then, the voice data collected by each of these plurality of microphones is appropriately selected and the voice recognition process is performed. As a result, voice recognition can be performed without causing the problem that the distance between the speaker and the microphone is increased.

しかしながら、特許文献1に開示の技術では、ユーザが、マイクの方向と異なる方向に発話してしまい、ユーザの音声がマイクの指向範囲から外れる場合を考慮していなかった。このようにユーザの音声がマイクの指向範囲から外れた場合、ユーザの音声は、他のユーザの音声や雑音に埋もれて収音されてしまうので、音声認識の精度が低下してしまう。 However, the technique disclosed in Patent Document 1 does not consider the case where the user speaks in a direction different from the direction of the microphone and the user's voice deviates from the direction range of the microphone. When the user's voice is out of the direction range of the microphone in this way, the user's voice is buried in the voice or noise of another user and is picked up, so that the accuracy of voice recognition is lowered.

本発明は、このような状況に鑑みてなされたものであり、ユーザの音声がマイクの指向範囲から外れた場合であっても、音声認識の精度低下を抑制することが可能な、音声認識システム、及び音声認識方法を提供することを目的とする。 The present invention has been made in view of such a situation, and is a voice recognition system capable of suppressing a decrease in voice recognition accuracy even when the user's voice is out of the direction range of the microphone. , And a voice recognition method.

上述した課題を解決し、目的を達成するために、本発明により提供される音声認識システムは、同一空間内にて複数のユーザが発話した音声の音声データを、前記複数のユーザそれぞれが装着した複数の収音機器から取得する取得手段と、前記取得した複数の音声データの音量が閾値未満であるか否かを判定する判定手段と、前記判定手段により、前記複数の音声データの音量が何れも閾値未満であると判定された場合に、前記複数の音声データを併用した所定の処理と共に、音声認識処理を行なう音声認識処理手段と、を備える。 In order to solve the above-mentioned problems and achieve the object, the voice recognition system provided by the present invention is equipped with voice data of voices spoken by a plurality of users in the same space by each of the plurality of users. The acquisition means acquired from the plurality of sound collecting devices, the determination means for determining whether or not the volume of the acquired plurality of audio data is less than the threshold value, and the determination means, whichever the volume of the plurality of audio data is. Also includes a voice recognition processing means for performing voice recognition processing together with a predetermined process using the plurality of voice data when it is determined that the data is less than the threshold value.

本発明によれば、ユーザの音声がマイクの指向範囲から外れた場合であっても、音声認識の精度低下を抑制することが可能な、音声認識システム、及び音声認識方法を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a voice recognition system and a voice recognition method capable of suppressing a decrease in voice recognition accuracy even when the user's voice is out of the direction range of the microphone. ..

本発明の一実施形態に係る音声認識システムの全体構成と、音声認識システムを利用するユーザが存在する空間とを俯瞰した模式図である。It is a schematic diagram which took a bird's-eye view of the whole structure of the voice recognition system which concerns on one Embodiment of this invention, and the space where a user who uses a voice recognition system exists. 首掛け型のウェアラブルマイクにより本発明の一実施形態におけるマイクを実現した場合の装着例を示す模式図である。It is a schematic diagram which shows the wearing example when the microphone in one Embodiment of this invention is realized by the neck-hanging wearable microphone. 各ユーザの発話の状況の一例を示すタイミングチャートである。It is a timing chart which shows an example of the utterance situation of each user. 各ユーザの発話の状況の一例を示すタイミングチャートである。It is a timing chart which shows an example of the utterance situation of each user. 音声認識システムに含まれる、各マイク、会議端末、及び音声認識サーバそれぞれのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware composition of each microphone, a conference terminal, and a voice recognition server included in a voice recognition system. 音声認識システムに含まれる、各マイク、会議端末、及び音声認識サーバの機能的構成のうち、複数音声併用処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional configuration for executing a plurality of voice combined processing among the functional configurations of each microphone, a conference terminal, and a speech recognition server included in a speech recognition system. 会議端末の外観構成及び表示例を示す模式図である。It is a schematic diagram which shows the appearance composition and display example of a conference terminal. 本発明の一実施形態における第1複数音声併用処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the 1st plurality of voice combined processing in one Embodiment of this invention. 本発明の一実施形態における第2複数音声併用処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the 2nd plurality of voice combined processing in one Embodiment of this invention. 第1の変形例における会議端末の外観構成及び表示例を示す模式図である。It is a schematic diagram which shows the appearance composition and display example of the conference terminal in 1st modification. 第1の変形例及び第2の変形例における画像解析に関して示す模式図である。It is a schematic diagram which shows about the image analysis in the 1st modification and the 2nd modification. 第1の変形例における会議端末での表示例を示す模式図である。It is a schematic diagram which shows the display example in the conference terminal in the 1st modification. 第2の変形例における音声認識部の構成例を示す模式図である。It is a schematic diagram which shows the structural example of the voice recognition part in the 2nd modification. 第2の変形例における処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of process in 2nd modification.

以下、本発明の実施形態について、図面を用いて詳細に説明する。
[システム構成]
図1は、本実施形態に係る音声認識システムSの全体構成と、音声認識システムSを利用するユーザが存在する空間(ここでは、一例として会議室)とを俯瞰した模式図である。図1に示すように、音声認識システムSは、複数のマイク10(ここでは、一例としてマイク10A~マイク10F)、会議端末20、及び音声認識サーバ30を含む。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[System configuration]
FIG. 1 is a schematic view of the overall configuration of the voice recognition system S according to the present embodiment and a space in which a user using the voice recognition system S exists (here, a conference room as an example). As shown in FIG. 1, the voice recognition system S includes a plurality of microphones 10 (here, microphones 10A to 10F as an example), a conference terminal 20, and a voice recognition server 30.

また、窓やドアを含む会議室の中央には、テーブルが配置され、テーブル周囲には、会議に参加する複数のユーザU(ここでは、一例としてユーザUA~ユーザUF)が位置する。これらユーザUそれぞれは、符号の末尾のアルファベットが、自身の符号と共通するマイク10を装着している。なお、これらユーザUの人数や各マイク10等の台数は一例に過ぎず、特に限定されない。 Further, a table is arranged in the center of the conference room including windows and doors, and a plurality of users U (here, user UA to user UF as an example) who participate in the conference are located around the table. Each of these users U is equipped with a microphone 10 whose alphabet at the end of the code is the same as its own code. The number of users U and the number of microphones 10 and the like are merely examples, and are not particularly limited.

各マイク10は、各ユーザUの音声を収音する収音機器として機能する。各マイク10の形状は特に限定されないが、例えば、首掛け型、又は、バッジ型としてユーザUに装着されるウェアラブルマイクにより、各マイク10を実現することができる。このようなウェアラブルマイクであれば、例えば、ヘッドセットやピンマイクを煩わしく感じるユーザUや、他人が装着したマイクの使い回しを嫌がるユーザUであっても、気にかけることなく装着することができる。 Each microphone 10 functions as a sound collecting device that collects the voice of each user U. The shape of each microphone 10 is not particularly limited, but each microphone 10 can be realized by, for example, a wearable microphone mounted on the user U as a neck-hanging type or a badge type. With such a wearable microphone, for example, even a user U who feels annoyed with a headset or a pin microphone or a user U who dislikes reusing a microphone worn by another person can wear it without worrying about it.

マイク10の装着例について、図2を参照して説明する。図2は、首掛け型のウェアラブルマイクによりマイク10を実現した場合の装着例を示す模式図である。本例では、マイク10は、マイク10の上方、すなわち、マイク10を装着したユーザUの口から発話される音声を集中的に収音するために、口元への指向性を有している。 An example of mounting the microphone 10 will be described with reference to FIG. FIG. 2 is a schematic view showing a mounting example when the microphone 10 is realized by a neck-mounted wearable microphone. In this example, the microphone 10 has directivity toward the mouth in order to intensively pick up the sound uttered above the microphone 10, that is, from the mouth of the user U wearing the microphone 10.

そのため、図2(A)に示すように、ユーザUが正面を向いて発話した場合、ユーザUの発話する音声を適切に収音することできる。一方で、図2(B)に示すように、ユーザUが、横や上を向いて、マイクの指向方向と異なる方向に発話してしまい、ユーザUの音声がマイクの指向範囲から外れる場合、このユーザUの音声は、他のユーザUの音声や雑音に埋もれて収音されてしまう。本実施形態では、「複数音声併用処理」を行なうことにより、この図2(B)に示すように、ユーザUの音声がマイクの指向範囲から外れる場合であっても、音声認識の精度低下を抑制する。この複数音声併用処理の詳細については後述する。 Therefore, as shown in FIG. 2A, when the user U speaks facing the front, the voice spoken by the user U can be appropriately picked up. On the other hand, as shown in FIG. 2B, when the user U turns sideways or upward and speaks in a direction different from the directivity direction of the microphone, and the voice of the user U deviates from the directivity range of the microphone. The voice of this user U is buried in the voice and noise of another user U and is picked up. In the present embodiment, by performing the "multiple voice combined processing", as shown in FIG. 2B, the accuracy of voice recognition is reduced even when the voice of the user U is out of the direction range of the microphone. Suppress. The details of this combined voice processing will be described later.

各マイク10は、収音した音声に対応するアナログ信号を、A/D変換回路にてアナログ-デジタル変換することにより、デジタル信号の音声データを作成する。そして、各マイク10は、作成した音声データを会議端末20に対して通信により送信する。かかる通信方法は特に限定されないが、例えば、多対多で接続が可能なBluetooth(登録商標)等の無線通信により実現することができる。このように、多対多で接続が可能な通信方法を用いることにより、各ユーザUの発話した音声を同時並行して収集することができる。 Each microphone 10 creates audio data of a digital signal by analog-digital conversion of an analog signal corresponding to the picked-up sound by an A / D conversion circuit. Then, each microphone 10 transmits the created voice data to the conference terminal 20 by communication. Such a communication method is not particularly limited, but can be realized by, for example, wireless communication such as Bluetooth (registered trademark) capable of many-to-many connection. In this way, by using a communication method capable of many-to-many connection, it is possible to collect the voices spoken by each user U in parallel at the same time.

会議端末20は、各マイク10から受信した音声データを、音声認識サーバ30に対して送信する。かかる通信方法は特に限定されないが、例えば、インターネットや、LAN(Local Area Network)等のネットワークを介した、有線又は無線の通信により実現することができる。会議端末20は、通信機能を有する中継装置等で実現してもよいし、ディスプレイ上での入力操作により、ユーザUが文字等を入力できる電子情報ボード等の装置で実現してもよい。以下の説明では、会議端末20を電子情報ボードにより実現する場合を例に取って説明をする。なお、電子情報ボードは、インタラクティブ・ホワイトボード(IWB:Interactive Whiteboard)、または電子黒板等と称されることもある。 The conference terminal 20 transmits the voice data received from each microphone 10 to the voice recognition server 30. Such a communication method is not particularly limited, but can be realized by, for example, wired or wireless communication via a network such as the Internet or a LAN (Local Area Network). The conference terminal 20 may be realized by a relay device or the like having a communication function, or may be realized by a device such as an electronic information board on which the user U can input characters or the like by an input operation on the display. In the following description, a case where the conference terminal 20 is realized by an electronic information board will be described as an example. The electronic information board may also be referred to as an interactive whiteboard (IWB), an electronic blackboard, or the like.

音声認識サーバ30は、各マイク10から受信した複数の音声データに対して、音声認識処理を行なうサーバである。音声認識サーバ30では、マイク10から受信した複数の音声データに対応した、複数の音声認識エンジンが並列に動作する。これにより、各ユーザUの音声データに対して並列的な音声認識処理をリアルタイムに実現できる。音声認識処理の結果は、例えば、テキスト化された上で、会議端末20等の表示部にリアルタイムで表示されたり、会議終了後に紙媒体に印刷されたりすることにより利用される。音声認識サーバ30は、例えば、クラウド上に設けられたクラウドサーバにより実現することができる。 The voice recognition server 30 is a server that performs voice recognition processing on a plurality of voice data received from each microphone 10. In the voice recognition server 30, a plurality of voice recognition engines corresponding to a plurality of voice data received from the microphone 10 operate in parallel. As a result, parallel voice recognition processing can be realized in real time for the voice data of each user U. The result of the voice recognition process is used, for example, by converting it into text and displaying it in real time on a display unit such as a conference terminal 20 or printing it on a paper medium after the conference is completed. The voice recognition server 30 can be realized by, for example, a cloud server provided on the cloud.

[複数音声併用処理]
このような構成を有する音声認識システムSは、上述したように複数音声併用処理を行う。ここで、複数音声併用処理とは、複数のユーザUの音声データを併用することにより、音声認識の精度低下を抑制する一連の処理である。
[Multiple voice processing]
The voice recognition system S having such a configuration performs a plurality of voice combined processing as described above. Here, the plurality of voice combined processing is a series of processes for suppressing a decrease in the accuracy of voice recognition by using the voice data of a plurality of users U in combination.

具体的に、複数音声併用処理において音声認識システムSは、同一空間内にて複数のユーザUが発話した音声の音声データを、複数のユーザUそれぞれが装着した複数のマイク10から取得する。また、音声認識システムSは、取得した複数の音声データの音量が閾値未満であるか否かを判定する。ここで、取得した複数の音声データの音量が閾値未満である場合とは、例えば、上述した図2(B)に示すように、ユーザUの音声がマイクの指向範囲から外れる場合である。 Specifically, in the plurality of voice combined processing, the voice recognition system S acquires the voice data of the voice spoken by the plurality of users U in the same space from the plurality of microphones 10 worn by each of the plurality of users U. Further, the voice recognition system S determines whether or not the volume of the acquired plurality of voice data is less than the threshold value. Here, the case where the volume of the acquired plurality of voice data is less than the threshold value is, for example, the case where the voice of the user U is out of the pointing range of the microphone, as shown in FIG. 2B described above.

そして、音声認識システムSは、複数の音声データの音量が何れも閾値未満であると判定された場合に、複数の音声データを併用した所定の処理と共に、音声認識処理を行なう。この複数の音声データを併用した所定の処理として、例えば、第1複数音声併用処理と、第2複数音声併用処理の2つの処理が挙げられる。 Then, when it is determined that the volume of the plurality of voice data is less than the threshold value, the voice recognition system S performs the voice recognition process together with the predetermined process in which the plurality of voice data are used in combination. As a predetermined process in which the plurality of voice data are used in combination, for example, two processes, a first plurality of voice combination process and a second plurality of voice combination process, can be mentioned.

(第1複数音声併用処理)
第1複数音声併用処理では、音声認識システムSは、複数の音声データを合算し、合算した音声データに対して音声認識処理を行なう。これにより、合算によりS/N比が向上した音声データに対して音声認識処理を行なうことにできるので、音声認識の精度低下を抑制することができる。
(1st multiple voice combined processing)
In the first plurality of voice combined processing, the voice recognition system S adds up a plurality of voice data and performs voice recognition processing on the combined voice data. As a result, it is possible to perform the voice recognition process on the voice data whose S / N ratio is improved by the summation, so that it is possible to suppress the deterioration of the accuracy of the voice recognition.

第1複数音声併用処理について、図3及び図4を参照して説明する。図3及び図4は、各ユーザUの発話の状況の一例を示すタイミングチャートである。
本例では、図4に示すように、3人のユーザU(ユーザUA、ユーザUB、及びユーザUC)が、それぞれ異なるタイミング(一部重複したタイミングを含む)で、順番に発話する場合を想定する。具体的には、時系列に沿って「ユーザUA→ユーザUB→ユーザUC→ユーザUB→ユーザUA」の順番で発話する場合を想定する。ただし、この発話の中で最後に発話したユーザUAが横を向き、上述した図2(B)に示すように、マイクの指向範囲から外れてしまったものとする。
The first plurality of voice combined processing will be described with reference to FIGS. 3 and 4. 3 and 4 are timing charts showing an example of the utterance situation of each user U.
In this example, as shown in FIG. 4, it is assumed that three user Us (user UA, user UB, and user UC) speak in order at different timings (including partially overlapping timings). do. Specifically, it is assumed that the utterances are made in the order of "user UA-> user UB-> user UC-> user UB-> user UA" in chronological order. However, it is assumed that the user UA who made the last utterance in this utterance turned sideways and deviated from the pointing range of the microphone as shown in FIG. 2 (B) described above.

これら3人のユーザUそれぞれが装着しているマイク10(マイク10A、マイク10B、及びマイク10C)はそれぞれ、マイク10を装着しているユーザUの発話した音声を最も大きく収音している一方で、他のユーザUの発話した音声も少量ながら収音している。例えば、図中のT1~T2の間、マイク10AはユーザUAの発話した音声を大きく収音しており、マイク10B及びマイク10CもユーザUAの発話した音声を少量ながら収音している。なお、図中における図示を省略するが、マイク10は、実際には、会議室内のノイズ(例えば、空調やプロジェクタ等の稼動音)も少量ながら収音している。 The microphones 10 (microphones 10A, 10B, and microphones 10C) worn by each of these three users U each pick up the voice spoken by the user U wearing the microphone 10 to the maximum. So, the voice spoken by the other user U is also picked up, albeit in a small amount. For example, between T1 and T2 in the figure, the microphone 10A picks up a large amount of the voice spoken by the user UA, and the microphones 10B and 10C also pick up the voice spoken by the user UA in a small amount. Although not shown in the figure, the microphone 10 actually collects a small amount of noise in the conference room (for example, operating noise of an air conditioner, a projector, or the like).

このような状況において、本実施形態では、上述したように音量に閾値を設定し、少なくとも1つのマイク10の音声データの音量が閾値以上であれば、この閾値以上の音量の音声データに対して音声認識を行なう。すなわち、少なくとも1つのマイク10において、装着しているユーザUの発話した音声を適切に収音できている場合には、この音声の音声データに対して音声認識を行なう。そして、他のマイク10が収音した閾値未満の音量の音声データには音声認識を行わない。 In such a situation, in the present embodiment, a threshold value is set for the volume as described above, and if the volume of the audio data of at least one microphone 10 is equal to or higher than the threshold value, the audio data having a volume equal to or higher than this threshold value is used. Perform voice recognition. That is, when the voice spoken by the wearing user U can be appropriately picked up by at least one microphone 10, voice recognition is performed on the voice data of this voice. Then, voice recognition is not performed on the voice data having a volume lower than the threshold value collected by the other microphone 10.

例えば、T1~T2の期間はマイク10Aが収音したユーザUAの発話した音声の音声データに対して音声認識を行なう。また、T2~T3の期間はマイク10Bが収音したユーザUBの発話した音声の音声データに対して音声認識を行なう。更に、T3~T4の期間はマイク10Cが収音したユーザUCの発話した音声の音声データに対して音声認識を行なう。更に、T4~T5の期間はマイク10Bが収音したユーザUBの発話した音声の音声データに対して音声認識を行なう。そして、それ以外の閾値未満の音量の音声データは音声認識の対象から除外する。 For example, during the period from T1 to T2, voice recognition is performed on the voice data of the voice spoken by the user UA picked up by the microphone 10A. Further, during the period from T2 to T3, voice recognition is performed on the voice data of the voice spoken by the user UB picked up by the microphone 10B. Further, during the period from T3 to T4, voice recognition is performed on the voice data of the voice spoken by the user UC collected by the microphone 10C. Further, during the period from T4 to T5, voice recognition is performed on the voice data of the voice spoken by the user UB picked up by the microphone 10B. Then, voice data having a volume lower than the threshold value other than that is excluded from the target of voice recognition.

なお、T1~T2の期間において、マイク10Aが収音したユーザUAの発話した音声と、マイク10Bが収音したユーザUBの発話した音声とは、時間的に一部重複しているが、それぞれのマイク10で閾値以上の音量で収音できている。そのため、この重複期間においてユーザUAの発話した音声の音声データと、ユーザUBの発話した音声の音声データはそれぞれ音声認識に用いられる。 During the period from T1 to T2, the voice spoken by the user UA picked up by the microphone 10A and the voice spoken by the user UB picked up by the microphone 10B partially overlap in time, but each of them. The sound can be picked up by the microphone 10 of the above at a volume equal to or higher than the threshold value. Therefore, the voice data of the voice spoken by the user UA and the voice data of the voice spoken by the user UB during this overlapping period are used for voice recognition, respectively.

ここで、本実施形態における、複数の音声データを併用した所定の処理が適用されるのは、ユーザUAが横を向いて発話しているT6~T7の期間である。このT6~T7の期間は、マイク10A、マイク10B、及びマイク10Cの何れも閾値未満の音量の音声しか収音していない。そのため、各マイク10が収音した音声のS/N比は低く、このまま各マイク10が収音した音声の音声データに対して音声認識を行ったとしても、ユーザUAの発話した音声は、適切に音声認識されない。 Here, the predetermined process using the plurality of voice data in the present embodiment is applied during the period from T6 to T7 in which the user UA is speaking sideways. During the period from T6 to T7, all of the microphones 10A, the microphones 10B, and the microphones 10C pick up only the sound having a volume lower than the threshold value. Therefore, the S / N ratio of the voice picked up by each microphone 10 is low, and even if voice recognition is performed on the voice data of the voice picked up by each microphone 10 as it is, the voice spoken by the user UA is appropriate. Voice recognition is not possible.

このように、ユーザUが横や上を向いて発話して、ユーザUの音声がマイクの指向範囲から外れ、何れのマイク10の音声データも閾値未満の音量である場合は、複数の音声データを併用した所定の処理を行なう。具体的には、図4に示すように、複数のマイク10で収音した音声の音声データを合算してS/N比を向上させる。そして、S/N比が向上することにより音声が強調された音声データに対して音声認識を行う。
これにより、ユーザUの音声がマイクの指向範囲から外れた場合であっても、音声認識の精度低下を抑制することが可能となる。
In this way, when the user U speaks sideways or upward, the voice of the user U is out of the direction range of the microphones, and the voice data of any of the microphones 10 has a volume below the threshold value, a plurality of voice data. Performs a predetermined process in combination with. Specifically, as shown in FIG. 4, the voice data of the voice picked up by the plurality of microphones 10 is added up to improve the S / N ratio. Then, voice recognition is performed on the voice data in which the voice is emphasized by improving the S / N ratio.
As a result, even when the voice of the user U deviates from the pointing range of the microphone, it is possible to suppress a decrease in the accuracy of voice recognition.

この場合に、複数の音声データの音量の比較結果に基づいて、発話したユーザUを推定するようにしてもよい。例えば、マイク10Aの音声データの音量が、マイク10Bやマイク10の音声データの音量よりも相対的に大きい場合には、マイク10Aに対応するユーザUAが発話したと推定してもよい。ただし、推定が困難な場合には、図4に示すように、発話者不特定として、後述の音声合算部230から出力するようにしてもよい。 In this case, the uttered user U may be estimated based on the comparison result of the volumes of the plurality of voice data. For example, when the volume of the voice data of the microphone 10A is relatively louder than the volume of the voice data of the microphone 10B or the microphone 10, it may be estimated that the user UA corresponding to the microphone 10A has spoken. However, if it is difficult to estimate, as shown in FIG. 4, the speaker may be unspecified and output from the voice summing unit 230 described later.

(第2複数音声併用処理)
上述した第1複数音声併用処理により、音声認識の精度低下を抑制することができるが、音声データの合算を行なうために、各マイク10から取得した音声データの厳密なタイミング制御(例えば、μsecオーダーの厳密な同期制御等)が必要になる。また、加算処理を行なうための処理部も必要となる。そこで、他のより簡易な処理として、第2複数音声併用処理を行なうことも考えられる。
(Second multiple voice combined processing)
Although it is possible to suppress a decrease in the accuracy of voice recognition by the above-mentioned first multiple voice combined processing, strict timing control (for example, μsec order) of the voice data acquired from each microphone 10 is performed in order to add up the voice data. Strict synchronization control, etc.) is required. In addition, a processing unit for performing addition processing is also required. Therefore, as another simpler process, it is conceivable to perform the second plurality of voice combined process.

第2複数音声併用処理においても、第1複数音声併用処理と同様に、複数の音声データを併用した所定の処理を行なう。すなわち、図3に示すT6~T7の期間のようにユーザUが横や上を向いて発話して、ユーザUの音声がマイクの指向範囲から外れ、何れのマイク10の音声データも閾値未満の音量である場合は、複数の音声データを併用した所定の処理を行なう。 Also in the second plurality of voice combination processing, a predetermined process using a plurality of voice data is performed in the same manner as in the first plurality of voice combination processing. That is, as in the period from T6 to T7 shown in FIG. 3, the user U speaks sideways or upward, the voice of the user U is out of the direction range of the microphones, and the voice data of any microphone 10 is less than the threshold value. In the case of volume, a predetermined process is performed using a plurality of voice data in combination.

具体的には、音声認識システムSは、複数の音声データそれぞれに対して音声認識処理を行い、複数の音声データそれぞれの音声認識結果の比較に基づいて、音声認識結果を補正する。これにより、或る1つの音声データの音声認識結果のみならず、複数の音声データそれぞれの音声認識結果を踏まえて補正を行なうことができるので、音声認識の精度低下を抑制することができる。 Specifically, the voice recognition system S performs voice recognition processing on each of the plurality of voice data, and corrects the voice recognition result based on the comparison of the voice recognition results of each of the plurality of voice data. As a result, correction can be performed based not only on the voice recognition result of a certain voice data but also on the voice recognition results of each of the plurality of voice data, so that it is possible to suppress a decrease in the accuracy of voice recognition.

ここで、補正処理の例としては、或る区間(例えば、音声認識結果に基づいて特定される文節に対応する区間等)において、複数の音声データについての音声認識結果が共通している場合は、この共通する音声認識結果が正しいものとして補正を行う。 Here, as an example of the correction process, when the voice recognition results for a plurality of voice data are common in a certain section (for example, a section corresponding to a phrase specified based on the voice recognition result). , Make corrections assuming that this common speech recognition result is correct.

また、この場合に、例えば3つの音声データについての音声認識結果のうち、2つの音声認識結果が同じ結果だった場合は、この音声認識結果が正しいものとして補正を行うというように、いわゆる多数決に基づいた処理としてもよい。 Further, in this case, for example, if two voice recognition results are the same among the voice recognition results for three voice data, the so-called majority decision is made so that the voice recognition result is corrected as correct. It may be a process based on this.

あるいは、複数の音声認識処理の結果が全て異なるような場合は、複数の音声データそれぞれの音量を比較し、音量が最も大きい音声データについての音声認識結果を正しいものとして補正を行うようにしてもよい。
これにより、第2複数音声併用処理においても、ユーザUの音声がマイクの指向範囲から外れた場合であっても、音声認識の精度低下を抑制することが可能となる。
Alternatively, if the results of a plurality of voice recognition processes are all different, the volume of each of the plurality of voice data is compared, and the voice recognition result of the voice data having the highest volume is corrected as correct. good.
As a result, even in the second plurality of voice combined processing, it is possible to suppress a decrease in the accuracy of voice recognition even when the voice of the user U is out of the pointing range of the microphone.

[ハードウェア構成]
次に、図5を参照して、本実施形態における各装置のハードウェア構成について説明をする。図5は、音声認識システムSに含まれる、各マイク10、会議端末20、及び音声認識サーバ30それぞれのハードウェア構成を示すブロック図である。
[Hardware configuration]
Next, the hardware configuration of each device in the present embodiment will be described with reference to FIG. FIG. 5 is a block diagram showing the hardware configurations of each microphone 10, the conference terminal 20, and the voice recognition server 30 included in the voice recognition system S.

マイク10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、通信I/F(Interface)14、操作部15、及び収音部16を含む。これら各部は、バス接続により相互に通信可能に接続される。 The microphone 10 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a communication I / F (Interface) 14, an operation unit 15, and a sound collection unit 16. Each of these parts is connected so as to be able to communicate with each other by a bus connection.

CPU11は、マイク10全体を制御する。具体的には、CPU11は、RAM13をワークエリア(すなわち、作業領域)として、ROM12等に格納されたファームウェアや、OS(Operating System)や、各種のプログラムに基づいた演算処理を行う。そして、CPU11は、この演算処理の結果に基づいて、マイク10に含まれる各ハードウェアを制御する。ここで、各種のプログラムとは、例えば、上述した複数音声併用処理において、音声データを会議端末20に対して送信するためのプログラムである。 The CPU 11 controls the entire microphone 10. Specifically, the CPU 11 uses the RAM 13 as a work area (that is, a work area) to perform arithmetic processing based on the firmware stored in the ROM 12 or the like, the OS (Operating System), and various programs. Then, the CPU 11 controls each hardware included in the microphone 10 based on the result of this arithmetic processing. Here, the various programs are, for example, programs for transmitting voice data to the conference terminal 20 in the above-mentioned plurality of voice combined processing.

ROM12は、ファームウェアや、OSや、各種のプログラムや、これらのプログラムにおいて利用する各種のデータ(例えば、上述した複数音声併用処理において利用する音声データ)を記憶する。 The ROM 12 stores firmware, an OS, various programs, and various data used in these programs (for example, voice data used in the above-mentioned combined voice processing).

RAM13は、上述したように、CPU11のワークエリアとして機能する。
通信I/F14は、マイク10が、音声認識システムSに含まれる他の各装置と通信するためのインターフェースである。
As described above, the RAM 13 functions as a work area of the CPU 11.
The communication I / F 14 is an interface for the microphone 10 to communicate with each other device included in the voice recognition system S.

操作部15は、例えば、各種の釦等で実現され、ユーザUの操作を受け付ける。例えば、操作部15は、マイク10の電源のオンオフの切り替え操作や、収音の開始指示操作を受け付ける。そして、操作部15は、受け付けたユーザUの操作の内容をCPU11に対して出力する。 The operation unit 15 is realized by, for example, various buttons and the like, and accepts the operation of the user U. For example, the operation unit 15 receives an operation of switching the power of the microphone 10 on and off and an operation of instructing the start of sound collection. Then, the operation unit 15 outputs the contents of the received operation of the user U to the CPU 11.

収音部16は、収音した音声をアナログの電気信号に変換するデバイスと、この音声をデジタル変換するためのA/D変換回路とを含む。収音部16は、デジタル変換した音声データを、CPU11に対して出力する。 The sound collecting unit 16 includes a device that converts the collected sound into an analog electric signal, and an A / D conversion circuit for digitally converting the sound. The sound collecting unit 16 outputs the digitally converted voice data to the CPU 11.

会議端末20は、CPU21、ROM22、RAM23、HDD24、通信I/F25、操作部26、表示部27、及び撮像部28を含む。これら各部は、バス接続により相互に通信可能に接続される。 The conference terminal 20 includes a CPU 21, a ROM 22, a RAM 23, an HDD 24, a communication I / F 25, an operation unit 26, a display unit 27, and an image pickup unit 28. Each of these parts is connected so as to be able to communicate with each other by a bus connection.

CPU21は、会議端末20全体を制御する。具体的には、CPU21は、RAM23をワークエリアとして、ROM22やHDD24等に格納されたファームウェアや、OSや、各種のプログラムに基づいた演算処理を行う。そして、CPU21は、この演算処理の結果に基づいて、会議端末20に含まれる各ハードウェアを制御する。ここで、各種のプログラムとは、例えば、上述した複数音声併用処理を実現するためのプログラムや、電子情報ボードの機能を実現するプログラムである。 The CPU 21 controls the entire conference terminal 20. Specifically, the CPU 21 uses the RAM 23 as a work area to perform arithmetic processing based on the firmware stored in the ROM 22, the HDD 24, etc., the OS, and various programs. Then, the CPU 21 controls each hardware included in the conference terminal 20 based on the result of this arithmetic processing. Here, the various programs are, for example, a program for realizing the above-mentioned multiple voice combined processing and a program for realizing the function of the electronic information board.

ROM22及びHDD24は、ファームウェアや、OSや、各種のプログラムや、これらのプログラムにおいて利用する各種のデータ(例えば、上述した複数音声併用処理や、電子情報ボードの機能において利用する各種のデータ)を記憶する。 The ROM 22 and HDD 24 store firmware, an OS, various programs, and various data used in these programs (for example, various data used in the above-mentioned multiple voice combined processing and electronic information board functions). do.

RAM23は、上述したように、CPU21のワークエリアとして機能する。
通信I/F25は、会議端末20が、音声認識システムSに含まれる他の各装置と通信するためのインターフェースである。
As described above, the RAM 23 functions as a work area of the CPU 21.
The communication I / F 25 is an interface for the conference terminal 20 to communicate with each other device included in the voice recognition system S.

操作部26は、例えば、各種の釦等で実現され、ユーザUの操作を受け付ける。例えば、操作部15は、会議端末20の電源のオンオフの切り替え操作や、収音の開始指示操作や、電子情報ボードの機能に関する操作を受け付ける。そして、操作部26は、受け付けたユーザUの操作の内容をCPU21に対して出力する。 The operation unit 26 is realized by, for example, various buttons and the like, and accepts the operation of the user U. For example, the operation unit 15 receives an operation of switching the power of the conference terminal 20 on / off, an operation of instructing the start of sound collection, and an operation related to the function of the electronic information board. Then, the operation unit 26 outputs the contents of the received operation of the user U to the CPU 21.

表示部27は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro Luminescence Display)等で実現され、CPU21から出力された所定の情報をユーザUに対して表示する。表示部27は、所定の情報として、例えば、音声認識結果をテキスト化した情報や、各種のユーザインタフェースをユーザUに対して表示する。
なお、操作部26及び表示部27を、電子情報ボード用のペンやユーザUの手によるタッチ操作を受付可能な、タッチパネルにより一体として実現してもよい。
撮像部28は、カメラを実現するための各種デバイスにより実現され、会議端末20が設置された場所において、例えば、会議に参加しているユーザUを撮像する。撮像部28は、撮像により作成した画像データをCPU21に対して出力する。
The display unit 27 is realized by a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (Organic Electro Luminescence Display), or the like, and displays predetermined information output from the CPU 21 to the user U. The display unit 27 displays, for example, information in which the voice recognition result is converted into text and various user interfaces to the user U as predetermined information.
The operation unit 26 and the display unit 27 may be integrally realized by a pen for an electronic information board or a touch panel capable of receiving a touch operation by the user U.
The image pickup unit 28 is realized by various devices for realizing a camera, and captures, for example, a user U participating in a conference at a place where a conference terminal 20 is installed. The image pickup unit 28 outputs the image data created by the image pickup to the CPU 21.

音声認識サーバ30は、CPU31、ROM32、RAM33、HDD34、及び通信I/F35を含む。これら各部は、バス接続により相互に通信可能に接続される。 The voice recognition server 30 includes a CPU 31, a ROM 32, a RAM 33, an HDD 34, and a communication I / F 35. Each of these parts is connected so as to be able to communicate with each other by a bus connection.

CPU31は、音声認識サーバ30全体を制御する。具体的には、CPU31は、RAM33をワークエリアとして、ROM32やHDD34等に格納されたファームウェアや、OSや、各種のプログラムに基づいた演算処理を行う。そして、CPU31は、この演算処理の結果に基づいて、音声認識サーバ30に含まれる各ハードウェアを制御する。ここで、各種のプログラムとは、例えば、上述した複数音声併用処理を実現するためのプログラムである。 The CPU 31 controls the entire voice recognition server 30. Specifically, the CPU 31 uses the RAM 33 as a work area to perform arithmetic processing based on the firmware, the OS, and various programs stored in the ROM 32, the HDD 34, and the like. Then, the CPU 31 controls each hardware included in the voice recognition server 30 based on the result of this arithmetic processing. Here, the various programs are, for example, programs for realizing the above-mentioned multiple voice combined processing.

ROM32及びHDD34は、ファームウェアや、OSや、各種のプログラムや、これらのプログラムにおいて利用する各種のデータ(例えば、上述した複数音声併用処理において利用する各種のデータ)を記憶する。 The ROM 32 and the HDD 34 store firmware, an OS, various programs, and various data used in these programs (for example, various data used in the above-mentioned combined voice processing).

RAM33は、上述したように、CPU31のワークエリアとして機能する。
通信I/F35は、音声認識サーバ30が、音声認識システムSに含まれる他の各装置と通信するためのインターフェースである。
As described above, the RAM 33 functions as a work area of the CPU 31.
The communication I / F 35 is an interface for the voice recognition server 30 to communicate with each other device included in the voice recognition system S.

[機能的構成]
次に、図5を参照して上述した各ハードウェアによって実現される機能的構成について図6を参照して説明をする。図6は、音声認識システムSに含まれる、各マイク10、会議端末20、及び音声認識サーバ30の機能的構成のうち、複数音声併用処理を実行するための機能的構成を示す機能ブロック図である。
[Functional configuration]
Next, with reference to FIG. 5, the functional configuration realized by each of the above-mentioned hardware will be described with reference to FIG. FIG. 6 is a functional block diagram showing a functional configuration for executing a plurality of voice combined processing among the functional configurations of each microphone 10, the conference terminal 20, and the voice recognition server 30 included in the voice recognition system S. be.

なお、これら機能ブロックは、上述した各マイク10、会議端末20、及び音声認識サーバ30に含まれる各CPUが、複数音声併用処理を実現するためのプログラムに基づいて、各装置に含まれる各ハードウェアを制御することにより実現される。なお、以下で特に言及しない場合も含め、これら機能ブロック間では、複数音声併用処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。 It should be noted that these functional blocks are each hardware included in each device based on a program for each CPU included in each microphone 10, the conference terminal 20, and the voice recognition server 30 described above to realize a plurality of voice combined processing. It is realized by controlling the wear. It should be noted that, even if not specifically mentioned below, data necessary for realizing multiple voice combined processing is appropriately transmitted and received between these functional blocks at an appropriate timing.

また、本実施形態では、各音声データに対して並列的に処理を行なうために、一部の機能ブロックが並列的に複数設けられている。ただし、並列的に複数設けられた同名の機能ブロックの機能はそれぞれ共通している。そのため、以下の説明では、各機能ブロック末尾のアルファベットを省略して説明する。 Further, in the present embodiment, in order to process each voice data in parallel, a plurality of some functional blocks are provided in parallel. However, the functions of a plurality of functional blocks having the same name provided in parallel are common to each other. Therefore, in the following description, the alphabet at the end of each functional block will be omitted.

まず、各マイク10の機能ブロックについて説明をする。
複数音声併用処理が実行される場合、図6に示すように、各マイク10において、音声収音部110と、音声送信部120とが機能する。
First, the functional blocks of each microphone 10 will be described.
When the plurality of voice combined processing is executed, as shown in FIG. 6, the voice pick-up unit 110 and the voice transmission unit 120 function in each microphone 10.

音声収音部110は、各ユーザUの音声を収音及びアナログ-デジタル変換することにより、デジタル信号の音声データを作成する。
音声送信部120は、音声収音部110が作成した音声データを会議端末20に対して送信する。
The voice pick-up unit 110 creates voice data of a digital signal by picking up the voice of each user U and analog-digital conversion.
The voice transmission unit 120 transmits the voice data created by the voice sound collection unit 110 to the conference terminal 20.

次に、会議端末20の機能ブロックについて説明をする。
複数音声併用処理が実行される場合、図6に示すように、会議端末20において、音声取得部210と、音量判定部220と、音声合算部230と、文字列表示部240とが機能する。
Next, the functional block of the conference terminal 20 will be described.
When the plurality of voice combined processing is executed, as shown in FIG. 6, in the conference terminal 20, the voice acquisition unit 210, the volume determination unit 220, the voice summing unit 230, and the character string display unit 240 function.

音声取得部210は、音声送信部120が送信した音声データを受信することにより、音声データを取得する。 The voice acquisition unit 210 acquires voice data by receiving the voice data transmitted by the voice transmission unit 120.

音量判定部220は、音声取得部210が受信した音声データの音量が閾値未満であるか否かを判定する。この閾値の値は、本実施形態を実装する環境等に応じて、予め設定しておくものとする。また、この閾値の値は、各音声データの音量の平均値等に基づいて適宜変更されてもよい。
なお、音量判定部220は、一時的に(例えば、数秒程度)ユーザUの発話が途切れる場合も考慮して、この一時的に途切れる期間よりも長い、一定期間における音声データの音量の平均値が、閾値未満であるか否かを判定するとよい。
The volume determination unit 220 determines whether or not the volume of the voice data received by the voice acquisition unit 210 is less than the threshold value. The value of this threshold value shall be set in advance according to the environment or the like in which the present embodiment is implemented. Further, the value of this threshold value may be appropriately changed based on the average value of the volume of each voice data and the like.
In addition, the volume determination unit 220 considers the case where the utterance of the user U is temporarily interrupted (for example, about several seconds), and the average value of the volume of the voice data in a certain period longer than this temporarily interrupted period is set. , It is good to judge whether or not it is less than the threshold value.

音声合算部230は、もっぱら第1複数音声併用処理を行なう場合に機能する。第1複数音声併用処理を行なう場合、音声合算部230は、音量判定部220により、複数の音声データの音量が何れも閾値未満であると判定された場合に、複数の音声データを合算する。そして、音声合算部230は、合算した音声データを音声認識サーバ30に対して送信する。一方で、音声合算部230は、音量判定部220により、複数の音声データの内の何れかの音声データの音量が閾値以上であると判定された場合に、この閾値以上であると判定された音声データを音声認識サーバ30に対して送信し、閾値未満であると判定された音声データは送信しない。
なお、第2複数音声併用処理を行なう場合には、音声合算部230は、音量判定部220の判定結果に関わらず、複数の音声データの全てを音声認識サーバ30に対して送信する。
The voice summing unit 230 functions exclusively when performing the first plurality of voice combined processing. When the first plurality of voice combined processing is performed, the voice summing unit 230 sums up the plurality of voice data when the volume determination unit 220 determines that the volume of the plurality of voice data is less than the threshold value. Then, the voice summing unit 230 transmits the summed voice data to the voice recognition server 30. On the other hand, when the volume determination unit 220 determines that the volume of any of the voice data of the plurality of voice data is equal to or higher than the threshold value, the voice summing unit 230 determines that the volume is equal to or higher than this threshold value. The voice data is transmitted to the voice recognition server 30, and the voice data determined to be less than the threshold value is not transmitted.
When performing the second plurality of voice combined processing, the voice summing unit 230 transmits all of the plurality of voice data to the voice recognition server 30 regardless of the determination result of the volume determination unit 220.

文字列表示部240は、音声認識サーバ30から受信した、音声認識結果を表示する。音声認識結果は、例えば、テキスト化した文字列として表示される。文字列表示部240による表示の一例を図7に示す。図7に示すように会議端末20は、例えば、電子情報ボードとして実現される。この場合、操作部26及び表示部27はタッチパネルとして実現される。そして、表示部27には処理の表示領域として、例えば、表示領域271が設けられる。文字列表示部240は、この表示領域271に、例えば、ユーザUが発話した時系列に沿って文字列を表示する。 The character string display unit 240 displays the voice recognition result received from the voice recognition server 30. The voice recognition result is displayed as, for example, a character string converted into text. FIG. 7 shows an example of display by the character string display unit 240. As shown in FIG. 7, the conference terminal 20 is realized as, for example, an electronic information board. In this case, the operation unit 26 and the display unit 27 are realized as a touch panel. Then, the display unit 27 is provided with, for example, a display area 271 as a display area for processing. The character string display unit 240 displays, for example, a character string in the display area 271 along a time series spoken by the user U.

この場合に、ユーザU(の装着しているマイク10)を識別する情報(例えば、予め登録したユーザUの名前やマイク10の番号等)を、対応するテキストと共に表示するようにしてもよい。このように表示をする場合には、音声合算部230等と同様に、文字列表示部240も、複数のマイク10に対応して複数設けるようにしてもよい。
このような表示を行うことにより、複数人の発話者が存在する会議シーンにおいて、誰がどのような発言を行ったかという発話履歴が表示される。
In this case, information for identifying the user U (the microphone 10 worn by the user U) (for example, the name of the user U registered in advance, the number of the microphone 10 and the like) may be displayed together with the corresponding text. In the case of displaying in this way, a plurality of character string display units 240 may be provided corresponding to the plurality of microphones 10 in the same manner as the voice summing unit 230 and the like.
By performing such a display, the utterance history of who made what kind of remark in a conference scene in which a plurality of speakers exist is displayed.

次に、音声認識サーバ30の機能ブロックについて説明をする。
複数音声併用処理が実行される場合、図6に示すように、音声認識サーバ30において、音声認識部310と、認識結果補正部320とが機能する。
Next, the functional block of the voice recognition server 30 will be described.
When the plurality of voices combined processing is executed, as shown in FIG. 6, the voice recognition unit 310 and the recognition result correction unit 320 function in the voice recognition server 30.

音声認識部310は、会議端末20から受信した音声データに対して、音声認識処理を行なう。音声認識処理に用いる音声認識エンジンは特に限定されず、本実施形態特有の音声認識エンジンを利用してもよいし、汎用の音声認識エンジンを利用してもよい。 The voice recognition unit 310 performs voice recognition processing on the voice data received from the conference terminal 20. The voice recognition engine used for the voice recognition processing is not particularly limited, and a voice recognition engine peculiar to the present embodiment may be used, or a general-purpose voice recognition engine may be used.

認識結果補正部320は、もっぱら第2複数音声併用処理を行なう場合に機能する。第2複数音声併用処理を行なう場合、認識結果補正部320は、音量判定部220により、複数の音声データの音量が何れも閾値未満であると判定された場合に、複数の音声データの音声認識結果の比較に基づいて、音声認識結果を補正(アンサンブル)する。そして、認識結果補正部320は、補正した音声認識結果を会議端末20に対して送信する。一方で、音声合算部230は、音量判定部220により、複数の音声データの内の何れかの音声データの音量が閾値以上であると判定された場合に、この閾値以上であると判定された音声データに関する音声認識結果を会議端末20に対して送信する。音声認識結果は、例えば、テキスト化した文字列として送信される。 The recognition result correction unit 320 functions exclusively when performing the second plurality of voice combined processing. When the second plurality of voices are used together, the recognition result correction unit 320 recognizes the voices of the plurality of voice data when the volume determination unit 220 determines that the volume of the plurality of voice data is less than the threshold value. The speech recognition result is corrected (ensemble) based on the comparison of the results. Then, the recognition result correction unit 320 transmits the corrected voice recognition result to the conference terminal 20. On the other hand, the voice summing unit 230 is determined to be equal to or higher than this threshold when the volume determination unit 220 determines that the volume of any of the voice data is equal to or higher than the threshold. The voice recognition result regarding the voice data is transmitted to the conference terminal 20. The voice recognition result is transmitted as, for example, a text-converted character string.

なお、第1複数音声併用処理を行なう場合には、音量が閾値以上の音声データや、合算されてS/N比が向上した音声データといった、適切に音声認識できる音声データのみが音声認識の対象となっている。そのため、認識結果補正部320は、音量判定部220の判定結果に関わらず、音声認識部310による音声認識結果の全てを会議端末20に対して送信する。 When performing the first multiple voice combined processing, only voice data that can be appropriately recognized, such as voice data whose volume is equal to or higher than the threshold value and voice data whose S / N ratio is improved by being added up, is the target of voice recognition. It has become. Therefore, the recognition result correction unit 320 transmits all the voice recognition results by the voice recognition unit 310 to the conference terminal 20 regardless of the determination result of the volume determination unit 220.

[動作]
次に、本実施形態における複数音声併用処理の流れについて説明をする。なお、下記の説明にて特に言及しない場合であっても、図6を参照して上述した各機能ブロックは、複数音声併用処理に必要となる処理を適宜実行する。なお、第1複数音声併用処理と、第2複数音声併用処理の何れが行われるかは、予めなされた設定や、ユーザUによる選択操作に応じて決定される。
[motion]
Next, the flow of the multiple voice combined processing in the present embodiment will be described. Even if it is not particularly mentioned in the following description, each functional block described above with reference to FIG. 6 appropriately executes a process required for a plurality of voice combined processes. It should be noted that which of the first plurality of voice combined processing and the second plurality of voice combined processing is performed is determined according to the setting made in advance and the selection operation by the user U.

(第1複数音声併用処理)
図8は、第1複数音声併用処理の流れを説明するフローチャートである。第1複数音声併用処理は、例えば、マイク10による収音が開始されて音声データの取得が開始された場合や、ユーザUによる開始指示操作応じて実行される。
(1st multiple voice combined processing)
FIG. 8 is a flowchart illustrating the flow of the first plurality of voice combined processing. The first plurality of voice combined processing is executed, for example, when the sound collection by the microphone 10 is started and the acquisition of voice data is started, or in response to the start instruction operation by the user U.

ステップS11において、第1音声併用処理のループ処理が開始される。
ステップS12において、会議端末20の各音声取得部210は、各マイク10から音声データを取得する。
In step S11, the loop processing of the first voice combined processing is started.
In step S12, each voice acquisition unit 210 of the conference terminal 20 acquires voice data from each microphone 10.

ステップS13において、会議端末20の各音量判定部220は、一定期間における音声データの音量の平均値が、閾値未満であるか否かを判定する。 In step S13, each volume determination unit 220 of the conference terminal 20 determines whether or not the average value of the volume of the audio data in a certain period is less than the threshold value.

ステップS14において、会議端末20の音声合算部230は、ステップS13における判定結果に基づいて、一定期間における、全ての音声データの音量の平均値が、閾値未満であったか否かを判断する。全ての音声データの音量の平均値が、閾値未満であった場合は、ステップS14においてYesと判定され、処理はステップS15に進む。一方で、少なくとも何れかの音声データの音量の平均値が、閾値以上であった場合は、ステップS14においてNoと判定され、処理はステップS17に進む。 In step S14, the voice summing unit 230 of the conference terminal 20 determines whether or not the average value of the volumes of all the voice data in a certain period is less than the threshold value based on the determination result in step S13. If the average value of the volumes of all the voice data is less than the threshold value, it is determined as Yes in step S14, and the process proceeds to step S15. On the other hand, if the average value of the volume of at least one of the voice data is equal to or higher than the threshold value, it is determined as No in step S14, and the process proceeds to step S17.

ステップS15において、会議端末20の音声合算部230は、各マイク10が収音した各音声データを選択する。この処理は、各音声データに対して並列的に行われる(ここでは、一例としてステップS15A~ステップS15Cが行われる)。
ステップS16において、会議端末20の音声合算部230は、ステップS15において選択された各音声データを合算する。
一方で、ステップS17において、会議端末20の音声合算部230は、閾値以上の音量の音声データを選択する。
In step S15, the voice summing unit 230 of the conference terminal 20 selects each voice data collected by each microphone 10. This process is performed in parallel for each voice data (here, steps S15A to S15C are performed as an example).
In step S16, the voice summing unit 230 of the conference terminal 20 sums up the voice data selected in step S15.
On the other hand, in step S17, the voice summing unit 230 of the conference terminal 20 selects voice data having a volume equal to or higher than the threshold value.

ステップS18において、音声認識サーバ30の音声認識部310は、ステップS16において合算されてS/N比の向上した音声データ、あるいは、ステップS17において選択された閾値以上の音量の音声データに対して音声認識処理を行う。 In step S18, the voice recognition unit 310 of the voice recognition server 30 adds voice in step S16 to improve the S / N ratio, or voice data having a volume equal to or higher than the threshold value selected in step S17. Perform recognition processing.

ステップS19において、会議端末20の文字列表示部240は、ステップS18における音声認識結果をテキスト化した文字列を出力する。この場合、出力は、例えば、図7を参照して上述したような表示や、紙媒体への印刷等により行われる。 In step S19, the character string display unit 240 of the conference terminal 20 outputs a character string in which the voice recognition result in step S18 is converted into text. In this case, the output is performed, for example, by displaying as described above with reference to FIG. 7, printing on a paper medium, or the like.

ステップS20において、第1複数音声併用処理のループ処理が終了する条件が満たされていない場合には、ステップS11から上述のループ処理が繰り返される。一方で、第1複数音声併用処理のループ処理が終了する条件が満たされた場合には、ループ処理は終了する。終了条件は、例えば、マイク10による収音が終了して音声データの取得が終了したことや、ユーザUによる終了指示操作を受け付けたことである。
以上説明した第1複数音声併用処理により、ユーザUの音声がマイクの指向範囲から外れた場合であっても、音声認識の精度低下を抑制することが可能となる。
If the condition for ending the loop processing of the first plurality of voice combined processing is not satisfied in step S20, the above-mentioned loop processing is repeated from step S11. On the other hand, when the condition for ending the loop processing of the first plurality of voice combined processing is satisfied, the loop processing ends. The end conditions are, for example, that the sound collection by the microphone 10 is completed and the acquisition of the voice data is completed, and that the end instruction operation by the user U is accepted.
By the first plurality of voice combined processing described above, it is possible to suppress a decrease in the accuracy of voice recognition even when the voice of the user U deviates from the pointing range of the microphone.

(第2複数音声併用処理)
図9は、第2複数音声併用処理の流れを説明するフローチャートである。第2複数音声併用処理は、例えば、マイク10による収音が開始されて音声データの取得が開始された場合や、ユーザUによる開始指示操作応じて実行される。
(Second multiple voice combined processing)
FIG. 9 is a flowchart illustrating the flow of the second plurality of voice combined processing. The second plurality of voice combined processing is executed, for example, when the sound collection by the microphone 10 is started and the acquisition of voice data is started, or in response to the start instruction operation by the user U.

ステップS31において、第2音声併用処理のループ処理が開始される。
ステップS32において、会議端末20の各音声取得部210は、各マイク10から音声データを取得する。
In step S31, the loop processing of the second voice combined processing is started.
In step S32, each voice acquisition unit 210 of the conference terminal 20 acquires voice data from each microphone 10.

ステップS33において、会議端末20の各音量判定部220は、一定期間における音声データの音量の平均値が、閾値未満であるか否かを判定する。
ステップS34において、会議端末20の音声合算部230は、ステップS33における判定結果に基づいて、一定期間における、全ての音声データの音量の平均値が、閾値未満であったか否かを判断する。全ての音声データの音量の平均値が、閾値未満であった場合は、ステップS34においてYesと判定され、処理はステップS35に進む。一方で、少なくとも何れかの音声データの音量の平均値が、閾値以上であった場合は、ステップS34においてNoと判定され、処理はステップS39に進む。
In step S33, each volume determination unit 220 of the conference terminal 20 determines whether or not the average value of the volume of the audio data in a certain period is less than the threshold value.
In step S34, the voice summing unit 230 of the conference terminal 20 determines whether or not the average value of the volumes of all the voice data in a certain period is less than the threshold value based on the determination result in step S33. If the average value of the volumes of all the voice data is less than the threshold value, it is determined as Yes in step S34, and the process proceeds to step S35. On the other hand, if the average value of the volume of at least one of the voice data is equal to or higher than the threshold value, No is determined in step S34, and the process proceeds to step S39.

ステップS35において、会議端末20の音声合算部230は、各マイク10が収音した各音声データを選択する。この処理及び以後のステップS36及びステップS37の処理は、各音声データに対して並列的に行われる。ここでは、一例としてステップS35A~ステップS35C、ステップS36A~ステップS36C、及びステップS37A~ステップS37Cが行われる。 In step S35, the voice summing unit 230 of the conference terminal 20 selects each voice data collected by each microphone 10. This process and the subsequent processes of steps S36 and S37 are performed in parallel for each voice data. Here, as an example, steps S35A to S35C, steps S36A to S36C, and steps S37A to S37C are performed.

ステップS36において、音声認識サーバ30の音声認識部310は、ステップS35において選択された各音声データに対して音声認識処理を行う。
ステップS37において、音声認識サーバ30の音声認識部310は、ステップS36における音声認識処理の結果を、テキスト化した文字列として出力する。
In step S36, the voice recognition unit 310 of the voice recognition server 30 performs voice recognition processing on each voice data selected in step S35.
In step S37, the voice recognition unit 310 of the voice recognition server 30 outputs the result of the voice recognition process in step S36 as a text string.

ステップS38において、音声認識サーバ30の認識結果補正部320は、複数の音声データそれぞれの音声認識結果の比較に基づいて、音声認識結果を補正する。 In step S38, the recognition result correction unit 320 of the voice recognition server 30 corrects the voice recognition result based on the comparison of the voice recognition results of each of the plurality of voice data.

一方で、ステップS39において、会議端末20の音声合算部230は、閾値以上の音量の音声データを選択する。
ステップS40において、音声認識サーバ30の音声認識部310は、ステップS39において選択された閾値以上の音量の音声データに対して音声認識処理を行う。
On the other hand, in step S39, the voice summing unit 230 of the conference terminal 20 selects voice data having a volume equal to or higher than the threshold value.
In step S40, the voice recognition unit 310 of the voice recognition server 30 performs voice recognition processing on voice data having a volume equal to or higher than the threshold value selected in step S39.

ステップS41において、会議端末20の文字列表示部240は、ステップS38における補正後の文字列、又は、ステップS40における音声認識結果をテキスト化した文字列を出力する。この場合、出力は、例えば、図7を参照して上述したような表示や、紙媒体への印刷等により行われる。 In step S41, the character string display unit 240 of the conference terminal 20 outputs the corrected character string in step S38 or the character string obtained by converting the voice recognition result in step S40 into text. In this case, the output is performed, for example, by displaying as described above with reference to FIG. 7, printing on a paper medium, or the like.

ステップS42において、第2複数音声併用処理のループ処理が終了する条件が満たされていない場合には、ステップS31から上述のループ処理が繰り返される。一方で、第2複数音声併用処理のループ処理が終了する条件が満たされた場合には、ループ処理は終了する。終了条件は、例えば、マイク10による収音が終了して音声データの取得が終了したことや、ユーザUによる終了指示操作を受け付けたことである。
以上説明した第2複数音声併用処理により、ユーザUの音声がマイクの指向範囲から外れた場合であっても、音声認識の精度低下を抑制することが可能となる。
If the condition for ending the loop processing of the second plurality of voice combined processing is not satisfied in step S42, the above-mentioned loop processing is repeated from step S31. On the other hand, when the condition for ending the loop processing of the second plurality of voice combined processing is satisfied, the loop processing ends. The end conditions are, for example, that the sound collection by the microphone 10 is completed and the acquisition of the voice data is completed, and that the end instruction operation by the user U is accepted.
By the second plurality of voice combined processing described above, it is possible to suppress a decrease in the accuracy of voice recognition even when the voice of the user U deviates from the pointing range of the microphone.

[変形例]
本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
[Modification example]
The present invention is not limited to the above-described embodiment, and modifications, improvements, and the like to the extent that the object of the present invention can be achieved are included in the present invention.

[第1の変形例]
上述した実施形態では、音声認識処理に基づいて文字列を表示していた。これに限らず、更に他の情報を表示するようにしてもよい。例えば、文字列に対応する発話を行ったユーザUの画像を対応付けて表示するようにしてもよい。
[First modification]
In the above-described embodiment, the character string is displayed based on the voice recognition process. Not limited to this, other information may be displayed. For example, the image of the user U who made the utterance corresponding to the character string may be displayed in association with each other.

本変形例について図10、図11、及び図12を参照して説明をする。まず、表示の前提として、図10に示すように、撮像部28を、会議に参加している各ユーザUを撮像可能な位置に配置する。例えば、電子情報ボードとして実現された会議端末20の正面上部等に撮像部28を配置する。これにより、会議端末20に正対した位置で会議を行っている各ユーザUを撮像することができる。 This modification will be described with reference to FIGS. 10, 11, and 12. First, as a premise of display, as shown in FIG. 10, the imaging unit 28 is arranged at a position where each user U participating in the conference can be imaged. For example, the image pickup unit 28 is arranged at the upper part of the front surface of the conference terminal 20 realized as an electronic information board. As a result, each user U having a conference at a position facing the conference terminal 20 can be imaged.

次に、図11に示すようにして、撮像部28が撮像することにより作成される各ユーザUが被写体となった画像(あるいは、動画)に対して、画像解析を行うことにより、各ユーザUの顔等を検出し、この各ユーザUの内の誰が発話しているかを特定する。この特定は、一般的に知られているアルゴリズムに基づいた画像解析による、顔検知、あるいは動作検知により実現することができる。これらの画像解析を行う機能は、例えば、会議端末20の音声合算部230に実装する。そして、音声合算部230は、このように特定した発話中のユーザUの顔画像と、同時刻に収音した音声とを紐づけて音声認識サーバ30に送信する。 Next, as shown in FIG. 11, each user U is created by performing image analysis on an image (or moving image) in which each user U is created by taking an image. Detects the face and the like of the user, and identifies who is speaking among the users U. This identification can be realized by face detection or motion detection by image analysis based on a generally known algorithm. These image analysis functions are implemented, for example, in the voice summing unit 230 of the conference terminal 20. Then, the voice summing unit 230 associates the face image of the uttering user U identified in this way with the voice picked up at the same time and transmits it to the voice recognition server 30.

そして、音声認識サーバ30の認識結果補正部320は、音声認識処理の結果である文字列と、紐付けられている発話したユーザUの顔画像とを、会議端末20の文字列表示部240に対して送信する。そして、会議端末20の文字列表示部240は、表示領域271に、文字列と、発話したユーザUの顔画像とを紐づけて表示する。例えば、図12に示すようにして表示する。これにより、表示を参照したユーザUの、発話内容の理解や臨場感が向上する。すなわち、音声認識システムSの利便性が向上する。 Then, the recognition result correction unit 320 of the voice recognition server 30 displays the character string as a result of the voice recognition process and the associated face image of the spoken user U on the character string display unit 240 of the conference terminal 20. Send to. Then, the character string display unit 240 of the conference terminal 20 displays the character string and the face image of the spoken user U in association with each other in the display area 271. For example, it is displayed as shown in FIG. As a result, the user U who refers to the display improves the understanding of the utterance content and the sense of presence. That is, the convenience of the voice recognition system S is improved.

なお、今回の会議に参加しているユーザUの、画像や特徴量等のデータを予め登録しておくことにより、より高い精度で、参加しているユーザUを特定することができる。 By registering data such as images and features of the user U participating in this conference in advance, it is possible to identify the participating user U with higher accuracy.

[第2の変形例]
上述した第1の変形例のようにして、会議に参加しているユーザUを特定した場合に、特定したユーザU個人に特化した音声認識のモデルに切り替えることで、音声認識の精度を向上させることができる。この場合に、仮にユーザU個人までは特定できなくても、男性か女性等の属性が分かれば、それぞれの音声認識のモデルを用いることでも、音声認識の精度を向上させることができる。
[Second modification]
When the user U participating in the conference is specified as in the first modification described above, the accuracy of voice recognition is improved by switching to the voice recognition model specialized for the specified user U individual. Can be made to. In this case, even if the individual user U cannot be identified, if the attributes such as male or female are known, the accuracy of voice recognition can be improved by using each voice recognition model.

本変形例について図13及び図14を参照して説明する。本変形例では、音声認識サーバ30の音声認識部310に、複数の機能ブロックを含ませる。具体的には、図13に示すように、顔認証結果受信部311、第1音声認識モデル312、第2音声認識モデル313、第3音声認識モデル314、及び音声認識処理部315を含ませる。 This modification will be described with reference to FIGS. 13 and 14. In this modification, the voice recognition unit 310 of the voice recognition server 30 includes a plurality of functional blocks. Specifically, as shown in FIG. 13, a face recognition result receiving unit 311, a first voice recognition model 312, a second voice recognition model 313, a third voice recognition model 314, and a voice recognition processing unit 315 are included.

そして、図8におけるステップS18において、図14に示す各処理を行う。具体的には、ステップS181において、顔認証結果受信部311が、会議端末20の音声合算部230による顔認証の結果を受信する。そして、受信した顔認証の結果に基づいて、顔認証結果受信部311が、論理的なスイッチを切り替えることにより、音声認識のモデルを切り替える。例えば、以下のようにして切り替える。 Then, in step S18 in FIG. 8, each process shown in FIG. 14 is performed. Specifically, in step S181, the face authentication result receiving unit 311 receives the result of face authentication by the voice summing unit 230 of the conference terminal 20. Then, based on the received face authentication result, the face authentication result receiving unit 311 switches the voice recognition model by switching the logical switch. For example, switch as follows.

ステップS182において、顔認証の結果が「男性」であるか否かを判定する。「男性」である場合は、ステップS182においてYesと判定され、処理はステップS183に進む。ステップS183では、顔認証結果受信部311が男性用の音声認識モデルである第1音声認識モデル312に切り替えた上で、音声認識処理部315が音声認識処理を行う。一方で、「男性」でない場合は、ステップS182においてNoと判定され、処理はステップS184に進む。 In step S182, it is determined whether or not the result of face recognition is "male". If it is a "male", it is determined to be Yes in step S182, and the process proceeds to step S183. In step S183, the face recognition result receiving unit 311 switches to the first voice recognition model 312, which is a voice recognition model for men, and then the voice recognition processing unit 315 performs voice recognition processing. On the other hand, if it is not "male", it is determined as No in step S182, and the process proceeds to step S184.

ステップS184において、顔認証の結果が「女性」であるか否かを判定する。「女性」である場合は、ステップS184においてYesと判定され、処理はステップS185に進む。ステップS185では、顔認証結果受信部311が女性用の音声認識モデルである第2音声認識モデル313に切り替えた上で、音声認識処理部315が音声認識処理を行う。一方で、「女性」でない場合は、ステップS184においてNoと判定され、処理はステップS186に進む。ステップS185では、顔認証結果受信部311が汎用の音声認識モデルである第3音声認識モデル314に切り替えた上で、音声認識処理部315が音声認識処理を行う。 In step S184, it is determined whether or not the result of face recognition is "female". If it is a "female", it is determined to be Yes in step S184, and the process proceeds to step S185. In step S185, the face recognition result receiving unit 311 switches to the second voice recognition model 313, which is a voice recognition model for women, and then the voice recognition processing unit 315 performs voice recognition processing. On the other hand, if it is not a "female", it is determined as No in step S184, and the process proceeds to step S186. In step S185, the face recognition result receiving unit 311 switches to the third voice recognition model 314, which is a general-purpose voice recognition model, and then the voice recognition processing unit 315 performs voice recognition processing.

このように、顔認証の結果に基づいて、適切な音声モデルを利用することにより、音声認識の精度を向上させることができる。
なお、ステップS18のみならず、図9におけるステップS36やステップS40にも本変形例を適用し、上述したようにして、音声モデルの切り替えを行ってもよい。
As described above, the accuracy of voice recognition can be improved by using an appropriate voice model based on the result of face recognition.
It should be noted that the present modification may be applied not only to step S18 but also to steps S36 and S40 in FIG. 9, and the voice model may be switched as described above.

[第3の変形例]
上述した実施形態における装置構成や、機能ブロックの切り分けは一例に過ぎず、これに限られない。例えば、会議端末20に音声認識サーバ30の機能を実装し、単一の装置として実現してもよい。あるいは、エッジデバイスである会議端末20を単なる通信中継装置により実現し、音声認識サーバ30に会議端末20の機能を実装するようにしてもよい。この場合に、例えば、音声認識処理の結果は、会議端末20以外の他の装置により表示されてもよい。
あるいは、会議端末20や音声認識サーバ30のそれぞれを、複数の装置により実現してもよい。例えば、音声認識サーバ30を、複数のクラウドサーバが協働することにより実現してもよい。
[Third variant]
The device configuration and the separation of functional blocks in the above-described embodiment are merely examples, and are not limited to these. For example, the function of the voice recognition server 30 may be mounted on the conference terminal 20 and realized as a single device. Alternatively, the conference terminal 20 which is an edge device may be realized by a mere communication relay device, and the function of the conference terminal 20 may be implemented in the voice recognition server 30. In this case, for example, the result of the voice recognition process may be displayed by a device other than the conference terminal 20.
Alternatively, each of the conference terminal 20 and the voice recognition server 30 may be realized by a plurality of devices. For example, the voice recognition server 30 may be realized by the cooperation of a plurality of cloud servers.

つまり、上述した各装置が備える機能ブロック、あるいは代替となる機能ブロックを、音声認識システムSに含まれる何れかの装置により実現するようにすればよい。換言すると、図6の機能的構成は例示に過ぎず、特に限定されない。すなわち、上述した一連の処理を全体として実行できる機能が音声認識システムSに含まれる各装置に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図6の例に限定されない。 That is, the functional block included in each of the above-mentioned devices or an alternative functional block may be realized by any of the devices included in the voice recognition system S. In other words, the functional configuration of FIG. 6 is merely an example and is not particularly limited. That is, it is sufficient that each device included in the speech recognition system S has a function capable of executing the above-mentioned series of processes as a whole, and what kind of functional block is used to realize this function is particularly determined in FIG. Not limited to the example of.

なお、一例として上述した実施形態における機能的構成で機能ブロックを実現した場合、音声認識システムSは、本発明における「音声認識システム」に相当する。またこの場合、マイク10は、本発明における「収音機器」に相当する。更にこの場合、音声取得部210は、本発明における「取得手段」に相当する。更にこの場合、音量判定部220は、本発明における「判定手段」に相当する。更にこの場合、音声合算部230、音声認識部310、及び認識結果補正部320は、本発明における「音声認識処理手段」や「識別手段」に相当する。 As an example, when the functional block is realized by the functional configuration in the above-described embodiment, the voice recognition system S corresponds to the "voice recognition system" in the present invention. In this case, the microphone 10 corresponds to the "sound collecting device" in the present invention. Further, in this case, the voice acquisition unit 210 corresponds to the "acquisition means" in the present invention. Further, in this case, the volume determination unit 220 corresponds to the "determination means" in the present invention. Further, in this case, the voice summing unit 230, the voice recognition unit 310, and the recognition result correction unit 320 correspond to the "voice recognition processing means" and the "discrimination means" in the present invention.

[他の変形例]
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。例えば、本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現される。
[Other variants]
The series of processes described above can be executed by hardware or software. Further, one functional block may be configured by a single piece of hardware, a single piece of software, or a combination thereof. For example, the functional configuration in this embodiment is realized by a processor that executes arithmetic processing.

本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものを含む。また、他にも、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。 The processor that can be used in this embodiment includes a processor composed of various processing units such as a single processor, a multiprocessor, and a multicore processor. In addition, the present invention includes a combination of these various processing devices and a processing circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。 When a series of processes are executed by software, a program constituting the software is installed in a computer or the like from a network or a recording medium. The computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布されるリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。 The recording medium containing such a program is not only composed of removable media distributed separately from the device main body in order to provide the program to the user, but is also provided to the user in a state of being preliminarily incorporated in the device main body. It is composed of recording media and the like. The removable media is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like.

光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk),Blu-ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている、図5の、ROM12、ROM22、及びROM32、あるいは、HDD24、及びHDD34等で構成される。 The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), a Blu-ray (registered trademark) Disc (Blu-ray disc), or the like. The magneto-optical disk is composed of MD (Mini-Disk) or the like. Further, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body is composed of, for example, ROM 12, ROM 22, and ROM 32, HDD 24, HDD 34, or the like shown in FIG. 5 in which a program is recorded. To.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。 In the present specification, the steps for describing a program to be recorded on a recording medium are not only processed in chronological order but also in parallel or individually, even if they are not necessarily processed in chronological order. It also includes the processing to be executed. Further, in the present specification, the term of the system means an overall device composed of a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、更に、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and further, various modifications such as omission and substitution can be made without departing from the gist of the present invention. These embodiments and variations thereof are included in the scope and gist of the invention described in the present specification and the like, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

S 印刷システム
10 マイク
20 会議端末
30 音声認識サーバ
11、21、31、41 CPU
12、22、32、42 ROM
13、23、33、43 RAM
14、25、35 通信I/F
16 収音部
24、34 HDD
26 操作部
27 表示部
28 撮像部
110 音声収音部
120 音声送信部
210 音声取得部
220 音量判定部
230 音声合算部
240 文字列表示部
310 音声認識部
311 顔認証結果受信部
312 第1音声認識モデル
313 第2音声認識モデル
314 第3音声認識モデル
315 音声認識処理部
320 認識結果補正部
S printing system 10 microphone 20 conference terminal 30 voice recognition server 11, 21, 31, 41 CPU
12, 22, 32, 42 ROM
13, 23, 33, 43 RAM
14, 25, 35 Communication I / F
16 Sound pickup unit 24, 34 HDD
26 Operation unit 27 Display unit 28 Imaging unit 110 Voice pick-up unit 120 Voice transmission unit 210 Voice acquisition unit 220 Volume determination unit 230 Voice summing unit 240 Character string display unit 310 Voice recognition unit 311 Face recognition result reception unit 312 First voice recognition Model 313 2nd voice recognition model 314 3rd voice recognition model 315 Voice recognition processing unit 320 Recognition result correction unit

特開2017-167318号公報Japanese Unexamined Patent Publication No. 2017-167318

Claims (9)

同一空間内にて複数のユーザが発話した音声の音声データを、前記複数のユーザそれぞれが装着した複数の収音機器から取得する取得手段と、
前記取得した複数の音声データの音量が閾値未満であるか否かを判定する判定手段と、
前記判定手段により、前記複数の音声データの音量が何れも閾値未満であると判定された場合に、前記複数の音声データを併用した所定の処理と共に、音声認識処理を行なう音声認識処理手段と、
を備える音声認識システム。
An acquisition means for acquiring voice data of voices spoken by a plurality of users in the same space from a plurality of sound collecting devices worn by each of the plurality of users.
A determination means for determining whether or not the volume of the acquired plurality of voice data is less than the threshold value, and
When the determination means determines that the volume of the plurality of voice data is less than the threshold value, the voice recognition processing means that performs the voice recognition processing together with the predetermined processing using the plurality of voice data in combination.
A voice recognition system equipped with.
前記音声認識処理手段は、
前記複数の音声データを併用した所定の処理として、前記複数の音声データを合算し、
前記合算した音声データに対して音声認識処理を行なう、
請求項1に記載の音声認識システム。
The voice recognition processing means is
As a predetermined process using the plurality of voice data in combination, the plurality of voice data are added up.
Performs voice recognition processing on the summed voice data.
The voice recognition system according to claim 1.
前記音声認識処理手段は、
前記複数の音声データそれぞれに対して音声認識処理を行い、
前記複数の音声データを併用した所定の処理として、前記複数の音声データそれぞれの音声認識結果の比較に基づいて、音声認識結果を補正する、
請求項1に記載の音声認識システム。
The voice recognition processing means is
A voice recognition process is performed on each of the plurality of voice data, and the voice recognition process is performed.
As a predetermined process using the plurality of voice data in combination, the voice recognition result is corrected based on the comparison of the voice recognition results of each of the plurality of voice data.
The voice recognition system according to claim 1.
前記音声認識処理手段は、前記比較において前記複数の音声データそれぞれの音声認識結果が異なる場合に、最も多い音声認識結果に基づいて音声認識結果を補正する、
請求項3に記載の音声認識システム。
The voice recognition processing means corrects the voice recognition result based on the most voice recognition result when the voice recognition result of each of the plurality of voice data is different in the comparison.
The voice recognition system according to claim 3.
前記音声認識処理手段は、前記判定手段により、前記複数の音声データの音量の少なくとも何れかが閾値以上であると判定された場合に、該閾値以上と判定された音声データに対して音声認識処理を行なう一方で、他の音声データに対しては音声認識処理を行わない、
請求項1乃至4の何れか1項に記載の音声認識システム。
When the determination means determines that at least one of the volumes of the plurality of voice data is equal to or higher than the threshold value, the voice recognition processing means performs voice recognition processing for the voice data determined to be equal to or higher than the threshold value. On the other hand, voice recognition processing is not performed on other voice data.
The voice recognition system according to any one of claims 1 to 4.
前記音声認識処理手段は、前記複数の音声データの音量が何れも閾値未満であると判定された場合に、前記複数の音声データそれぞれの音量の比較結果に基づいて、発話したユーザを推定する、
請求項1乃至5の何れか1項に記載の音声認識システム。
When it is determined that the volume of the plurality of voice data is less than the threshold value, the voice recognition processing means estimates the user who has spoken based on the comparison result of the volume of each of the plurality of voice data.
The voice recognition system according to any one of claims 1 to 5.
前記複数の収音機器を更に備え、
前記複数の収音機器は、首掛け型、又は、バッジ型の収音機器である、
請求項1乃至6の何れか1項に記載の音声認識システム。
Further equipped with the plurality of sound collecting devices,
The plurality of sound collecting devices are neck-mounted or badge-type sound collecting devices.
The voice recognition system according to any one of claims 1 to 6.
前記複数のユーザが被写体となった画像に基づいて、前記ユーザを識別する識別手段を更に備え、
前記音声認識処理手段は、前記ユーザの識別結果に基づいて、前記ユーザそれぞれに対する音声認識処理の方法を異ならせる、
請求項1乃至7の何れか1項に記載の音声認識システム。
Further provided with an identification means for identifying the user based on an image in which the plurality of users are subjects.
The voice recognition processing means makes a difference in the method of voice recognition processing for each of the users based on the identification result of the user.
The voice recognition system according to any one of claims 1 to 7.
音声認識システムが行なう音声認識方法であって、
同一空間内にて複数のユーザが発話した音声の音声データを、前記複数のユーザそれぞれが装着した複数の収音機器から取得する取得ステップと、
前記取得した複数の音声データの音量が閾値未満であるか否かを判定する判定ステップと、
前記判定ステップにより、前記複数の音声データの音量が何れも閾値未満であると判定された場合に、前記複数の音声データを併用した所定の処理と共に、音声認識処理を行なう音声認識処理ステップと、
有する音声認識方法。
It is a voice recognition method performed by a voice recognition system.
An acquisition step of acquiring voice data of voice uttered by a plurality of users in the same space from a plurality of sound collecting devices worn by each of the plurality of users.
A determination step for determining whether or not the volume of the acquired plurality of voice data is less than the threshold value, and
A voice recognition processing step that performs voice recognition processing together with a predetermined process using the plurality of voice data when it is determined by the determination step that the volume of the plurality of voice data is less than the threshold value.
Voice recognition method to have.
JP2018217921A 2018-11-21 2018-11-21 Speech recognition system and speech recognition method Active JP7095569B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018217921A JP7095569B2 (en) 2018-11-21 2018-11-21 Speech recognition system and speech recognition method
JP2022097190A JP7420166B2 (en) 2018-11-21 2022-06-16 Speech recognition system, speech recognition method, and speech processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018217921A JP7095569B2 (en) 2018-11-21 2018-11-21 Speech recognition system and speech recognition method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022097190A Division JP7420166B2 (en) 2018-11-21 2022-06-16 Speech recognition system, speech recognition method, and speech processing device

Publications (2)

Publication Number Publication Date
JP2020086048A JP2020086048A (en) 2020-06-04
JP7095569B2 true JP7095569B2 (en) 2022-07-05

Family

ID=70907772

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018217921A Active JP7095569B2 (en) 2018-11-21 2018-11-21 Speech recognition system and speech recognition method
JP2022097190A Active JP7420166B2 (en) 2018-11-21 2022-06-16 Speech recognition system, speech recognition method, and speech processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022097190A Active JP7420166B2 (en) 2018-11-21 2022-06-16 Speech recognition system, speech recognition method, and speech processing device

Country Status (1)

Country Link
JP (2) JP7095569B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023106649A (en) * 2020-06-15 2023-08-02 ソニーグループ株式会社 Information processing apparatus, information processing method, and computer program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004309965A (en) 2003-04-10 2004-11-04 Advanced Media Inc Conference recording/dictation system
JP2005338571A (en) 2004-05-28 2005-12-08 Sanyo Electric Co Ltd Device and method for recognizing speech
JP2017167318A (en) 2016-03-16 2017-09-21 株式会社アドバンスト・メディア Minute generation device and minute generation program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683388A (en) * 1992-09-04 1994-03-25 Fujitsu Ten Ltd Speech recognition device
JP4867804B2 (en) 2007-06-12 2012-02-01 ヤマハ株式会社 Voice recognition apparatus and conference system
JP6721298B2 (en) 2014-07-16 2020-07-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Voice information control method and terminal device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004309965A (en) 2003-04-10 2004-11-04 Advanced Media Inc Conference recording/dictation system
JP2005338571A (en) 2004-05-28 2005-12-08 Sanyo Electric Co Ltd Device and method for recognizing speech
JP2017167318A (en) 2016-03-16 2017-09-21 株式会社アドバンスト・メディア Minute generation device and minute generation program

Also Published As

Publication number Publication date
JP7420166B2 (en) 2024-01-23
JP2022120164A (en) 2022-08-17
JP2020086048A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP6651989B2 (en) Video processing apparatus, video processing method, and video processing system
JP2016051081A (en) Device and method of sound source separation
US20070120966A1 (en) Speaker predicting apparatus, speaker predicting method, and program product for predicting speaker
JP2012040655A (en) Method for controlling robot, program, and robot
JP2012220959A (en) Apparatus and method for determining relevance of input speech
US8319818B2 (en) Information processing device, information processing method and storage medium storing computer program
JPWO2017130486A1 (en) Information processing apparatus, information processing method, and program
CN104349040B (en) For the camera base and its method in video conferencing system
JP6562790B2 (en) Dialogue device and dialogue program
CN110096251B (en) Interaction method and device
JP7420166B2 (en) Speech recognition system, speech recognition method, and speech processing device
US20210105437A1 (en) Information processing device, information processing method, and storage medium
CN210490904U (en) Intelligent earphone system based on face recognition
US11700325B1 (en) Telephone system for the hearing impaired
CN110475093A (en) A kind of activity scheduling method, device and storage medium
KR20110085160A (en) Stenography input system and method for conference using face recognition
JP7146373B2 (en) Customer service system
JP5111343B2 (en) Playback device
CN113329138A (en) Video shooting method, video playing method and electronic equipment
CN114666454A (en) Intelligent conference system
CN111724793A (en) Vehicle-mounted video call method and system
JP2021197658A (en) Sound collecting device, sound collecting system, and sound collecting method
CN114513622A (en) Speaker detection method, speaker detection apparatus, storage medium, and program product
CN110291768A (en) Information processing unit, information processing method and information processing system
JP2004246095A (en) Mobile telephone unit and remote control method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190814

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210819

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220203

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220517

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R151 Written notification of patent or utility model registration

Ref document number: 7095569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151