JP2019179480A - Conference system, control method therefor, and program - Google Patents

Conference system, control method therefor, and program Download PDF

Info

Publication number
JP2019179480A
JP2019179480A JP2018069481A JP2018069481A JP2019179480A JP 2019179480 A JP2019179480 A JP 2019179480A JP 2018069481 A JP2018069481 A JP 2018069481A JP 2018069481 A JP2018069481 A JP 2018069481A JP 2019179480 A JP2019179480 A JP 2019179480A
Authority
JP
Japan
Prior art keywords
unit
text
input
information
participant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018069481A
Other languages
Japanese (ja)
Other versions
JP7042141B2 (en
Inventor
卓 川内
Suguru Kawauchi
卓 川内
一博 中臺
Kazuhiro Nakadai
一博 中臺
研郎 鵜殿
Kenro Udono
研郎 鵜殿
雅樹 五十嵐
Masaki Igarashi
雅樹 五十嵐
智幸 佐畑
Tomoyuki Satake
智幸 佐畑
一也 眞浦
Kazuya Maura
一也 眞浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Honda R&D Sun Co Ltd
Original Assignee
Honda Motor Co Ltd
Honda R&D Sun Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, Honda R&D Sun Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018069481A priority Critical patent/JP7042141B2/en
Publication of JP2019179480A publication Critical patent/JP2019179480A/en
Application granted granted Critical
Publication of JP7042141B2 publication Critical patent/JP7042141B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)

Abstract

To provide a conference system which makes it easier for normal-hearing and hearing-impaired people to attend a conference together, and to provide a method of controlling the same and a program.SOLUTION: A conference system is provided, comprising: sub units, each having a voice acquisition unit, a text input unit, and a display unit; and a base unit connected with the sub units and configured to generate minutes using text information obtained through voice recognition of voices entered through the sub units or text information entered through the sub units, and to share the generated minutes with the sub units. When somebody participates in a dialog by means of text, the base unit controls the base unit to restrict other conference attendees from speaking and sends information for restricting speech to the sub units.SELECTED DRAWING: Figure 1

Description

本発明は、会議システム、会議システム制御方法およびプログラムに関する。   The present invention relates to a conference system, a conference system control method, and a program.

複数人が会議をする場合において、各発話者の発話内容をテキスト化して、発話内容をテキスト化して各利用者が所有する再生装置に表示することが提案されている(例えば特許文献1参照)。なお、特許文献1に記載の技術では、発話を話題毎に音声メモとして録音し、議事録作成者が、録音された音声メモを再生してテキスト化を行う。そして、特許文献1に記載の技術では、テキスト化したものを用いて議事録を作成する。   In the case where a plurality of people hold a meeting, it has been proposed that the utterance content of each speaker is converted into text and the utterance content is converted into text and displayed on a playback device owned by each user (see, for example, Patent Document 1). . In the technique described in Patent Document 1, the utterance is recorded as a voice memo for each topic, and the minutes creator reproduces the recorded voice memo and converts it into text. And with the technique of patent document 1, the minutes are created using what was converted into text.

特開平08−194492号公報Japanese Patent Laid-Open No. 08-194492

しかしながら、聴覚障がい者と健聴者とが一緒に会議をする場合、健聴者は音声発話によって会議に参加し、聴覚障がい者は子機からテキスト入力をすることにより会議に参加することになる。特許文献1に記載の技術では、聴覚障がい者が、子機でテキスト入力されている間に、健聴者が音声発話されると、聴覚障がい者は会議の内容についていけない可能性がある。   However, when a hearing-impaired person and a normal hearing person hold a meeting together, the normal hearing person participates in the meeting by voice utterance, and the hearing-impaired person participates in the meeting by inputting text from the handset. With the technique described in Patent Document 1, if a hearing impaired person speaks a voice while a person with hearing impairment is inputting text on the handset, the person with hearing impairment may not be able to keep up with the content of the conference.

本発明は、上記の問題点に鑑みてなされたものであって、健聴者と聴覚障がい者とが一緒に会議に参加しやすくすることができる会議システム、会議システム制御方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and provides a conference system, a conference system control method, and a program capable of facilitating a normal hearing person and a hearing impaired person to participate in a conference together. With the goal.

(1)上記目的を達成するため、本発明の一態様に係る会議システム(1)は、収音部(301)と、テキスト入力部(操作部302)、表示部(表示部304)を備えた子機(3、3a、3b、・・・)と、前記子機と接続をし、前記子機から入力された音声を音声認識したテキスト情報または前記子機から入力されたテキスト情報を用いて、議事録を作成し、作成した前記議事録を前記子機と共有する親機(2)と、を備えた会議システムにおいて、前記親機は、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるように前記親機を制御し、発言を待機させる情報を前記子機に送信する。   (1) In order to achieve the above object, a conference system (1) according to an aspect of the present invention includes a sound collection unit (301), a text input unit (operation unit 302), and a display unit (display unit 304). The slave unit (3, 3a, 3b,...) Is connected to the slave unit, and the text information obtained by voice recognition of the voice input from the slave unit or the text information input from the slave unit is used. In a conference system comprising a master unit (2) that creates a minutes and shares the created minutes with the slave unit, when the master unit participates in a conversation by text, The master unit is controlled to wait for the speech of another conference participant, and information for waiting for the speech is transmitted to the slave unit.

(2)また、本発明の一態様に係る会議システムにおいて、前記親機は、前記子機側で音声によって入力されたのかテキストによって入力されたのかを自動判別してその旨を前記親機と前記子機に表示するようにしてもよい。   (2) Also, in the conference system according to one aspect of the present invention, the master unit automatically determines whether the slave unit has been input by voice or text and indicates that fact as the master unit. You may make it display on the said subunit | mobile_unit.

(3)また、本発明の一態様に係る会議システムにおいて、前記親機は、前記親機側または前記子機側でテキスト入力されている場合、その旨を前記親機と前記子機にダイアログで表示するようにしてもよい。   (3) Further, in the conference system according to one aspect of the present invention, when the parent device is inputting text on the parent device side or the child device side, a dialog to that effect is sent to the parent device and the child device. You may make it display with.

(4)また、本発明の一態様に係る会議システムにおいて、前記子機は、テキスト入力が終了した際、テキスト入力を終了したことを示す情報を前記親機に送信し、前記親機は、前記子機から受信したテキスト入力を終了したことを示す情報に基づいて、前記親機と複数の前記子機に音声による発言の入力を許可するようにしてもよい。   (4) In the conference system according to one aspect of the present invention, when the text input is completed, the slave device transmits information indicating the completion of the text input to the master device. Based on the information indicating that the text input received from the slave unit has been completed, voice input may be permitted to the master unit and the plurality of slave units.

(5)また、本発明の一態様に係る会議システムにおいて、通信部と、報知部と、収音部とを備える収音装置を備え、前記親機は、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させる情報を前記子機と前記収音装置に送信し、前記収音装置は、前記親機からの発言を待機させる情報に基づいて、発言が禁止されていることを報知するようにしてもよい。   (5) In the conference system according to one aspect of the present invention, the conference system includes a sound collection device including a communication unit, a notification unit, and a sound collection unit, and the parent device participates in a conversation by text. In addition, information for waiting for the speech of another conference participant is transmitted to the handset and the sound collecting device, and the sound collecting device is prohibited from speaking based on the information for waiting for the speech from the parent device. You may make it alert | report that it is.

(6)上記目的を達成するため、本発明の一態様に係る会議システム制御方法は、収音部と、テキスト入力部、テキスト表示部を備えた子機と、前記子機と接続をし、前記子機から入力された音声を音声認識したテキスト情報または前記子機から入力されたテキスト情報を用いて、議事録を作成し、作成した前記議事録を前記子機と共有する親機と、を備えた会議システムにおける会議システム制御方法であって、前記親機が、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるように前記親機を制御するステップと、前記親機が、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるよう発言を待機させる情報を前記子機に送信するステップと、を含む。   (6) In order to achieve the above object, a conference system control method according to an aspect of the present invention includes a sound collection unit, a text input unit, a slave unit including a text display unit, and a connection to the slave unit. Using the text information obtained by voice recognition of the voice input from the slave unit or the text information input from the slave unit, a minutes is created, and the master unit that shares the created minutes with the slave unit, A control method for a conference system in a conference system comprising the steps of: controlling the master unit to wait for the speech of another conference participant when the master unit participates in a conversation by text; And when the base unit participates in a conversation by text, the base unit transmits information for waiting for a speech to wait for the speech of another conference participant to the base unit.

(7)上記目的を達成するため、本発明の一態様に係るプログラムは、収音部と、テキスト入力部、テキスト表示部を備えた子機と、前記子機と接続をし、前記子機から入力された音声を音声認識したテキスト情報または前記子機から入力されたテキスト情報を用いて、議事録を作成し、作成した前記議事録を前記子機と共有する親機と、を備えた会議システムの親機のコンピュータに、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるように前記親機を制御するステップと、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるよう発言を待機させる情報を前記子機に送信するステップと、を実行させる。   (7) In order to achieve the above object, a program according to one aspect of the present invention connects a slave unit including a sound collection unit, a text input unit, and a text display unit, and the slave unit, and the slave unit Using the text information obtained by voice recognition of the speech input from the text or the text information input from the slave unit, and a master unit for sharing the created minutes with the slave unit When the computer of the parent device of the conference system participates in the conversation by text, the step of controlling the parent device to wait for the utterance of another conference participant, and the case where the conversation is joined by text And a step of transmitting to the slave unit information for waiting to speak so as to wait for the speech of another conference participant.

上述した(1)または(6)あるいは(7)によれば、健聴者と聴覚障がい者とが一緒に会議に参加しやすくなるという効果を奏する。   According to the above (1), (6), or (7), there is an effect that it becomes easy for the normal hearing person and the hearing impaired person to participate in the conference together.

上述した(2)または(3)によれば、子機でテキスト入力された場合に他の参加者の発話やテキスト入力を停止させることができる。
上述した(4)によれば、他の参加者が発言やテキスト入力を再開することができる。
上述した(5)によれば、子機を使用せずにピンマイク等の収音装置を装着している参加者にも、テキスト入力中に発話を禁止させることができる。
According to the above (2) or (3), when a text is input by the slave unit, the speech and text input of other participants can be stopped.
According to (4) described above, other participants can resume speech and text input.
According to (5) described above, a participant who is wearing a sound collecting device such as a pin microphone without using a handset can be prohibited from speaking during text input.

本実施形態に係る会議システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the conference system which concerns on this embodiment. 本実施形態に係る親機が表示装置上に表示させる画像例を示す図である。It is a figure which shows the example of an image which the main | base station which concerns on this embodiment displays on a display apparatus. 本実施形態に係る参加者の子機の表示部に表示される参加者情報の画像例を示す図である。It is a figure which shows the example of an image of the participant information displayed on the display part of the participant's subunit | mobile_unit based on this embodiment. 本実施形態に係るテキスト入力を行っている参加者の子機の表示部に表示される議事録情報の画像例を示す図である。It is a figure which shows the example of an image of the minutes information displayed on the display part of the subunit | mobile_unit of the participant who is performing the text input which concerns on this embodiment. 本実施形態に係るテキスト入力を行っていない参加者の子機の表示部に表示される議事録情報の画像例を示す図である。It is a figure which shows the example of an image of the minutes information displayed on the display part of the subunit | mobile_unit of the participant who is not performing the text input which concerns on this embodiment. 本実施形態に係る親機の表示装置、または子機の表示部上に表示されるアイコン画像例を示す図である。It is a figure which shows the example of an icon image displayed on the display apparatus of the main | base station which concerns on this embodiment, or the display part of a subunit | mobile_unit. 本実施形態に係る親機の記憶部が記憶する情報例を示す図である。It is a figure which shows the example of information which the memory | storage part of the main | base station which concerns on this embodiment memorize | stores. 本実施形態に係る親機が行う処理手順例を示すフローチャートである。It is a flowchart which shows the example of a process sequence which the main | base station which concerns on this embodiment performs. 変形例における収音部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the sound collection part in a modification.

以下、本発明の実施の形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、本実施形態の会議システムが使用される状況例を説明する。
本実施形態の会議システムは、2人以上が参加して行われる会議で用いられる。参加者のうち、発話が不自由な人が会議に参加していてもよい。発話可能な参加者は、参加者毎にマイクロフォンを装着するか、マイクロフォンを備える端末(スマートフォン、タブレット端末、パーソナルコンピュータ等)を用いる。聴覚障がいの参加者は、テキストを入力可能な端末を用いる。会議システムは、参加者の発話した音声信号に対して音声認識、テキスト化して、各自の端末にテキストを表示させる。また、会議システムは、聴覚障がい者が入力したテキスト情報を各自の端末にテキストを表示させる。会議システムは、聴覚障がい者がテキスト情報を入力している際、各自の端末にテキストが入力中であることを表示させる。
First, an example of a situation in which the conference system of this embodiment is used will be described.
The conference system according to the present embodiment is used in a conference held by two or more people. Among the participants, a person who is not able to speak may be participating in the conference. Participants who can speak use a microphone for each participant or use a terminal (smart phone, tablet terminal, personal computer, etc.) equipped with a microphone. Participants with hearing impairments use terminals capable of inputting text. The conference system recognizes the voice signal uttered by the participant and converts it into text, and displays the text on each terminal. In addition, the conference system displays text information input by the hearing impaired person on each terminal. When the hearing impaired person is inputting text information, the conference system displays that the text is being input on each terminal.

図1は、本実施形態に係る会議システム1の構成例を示すブロック図である。
図1に示すように、会議システム1は、親機2と、子機3a、子機3b、・・・を含んで構成される。なお、子機3a、子機3b、・・・のうち1つを特定しない場合は、単に子機3という。
親機2と子機3とは、有線または無線のネットワーク4を介して接続されている。
親機2には、表示装置21が接続されている。なお、表示装置21は、親機2が備えていてもよい。
FIG. 1 is a block diagram illustrating a configuration example of a conference system 1 according to the present embodiment.
As shown in FIG. 1, the conference system 1 includes a master unit 2, a slave unit 3a, a slave unit 3b,. In addition, when not specifying one of the subunit | mobile_unit 3a, the subunit | mobile_unit 3b, ..., it is only called the subunit | mobile_unit 3. FIG.
The parent device 2 and the child device 3 are connected via a wired or wireless network 4.
A display device 21 is connected to the parent device 2. The display device 21 may be included in the parent device 2.

親機2は、収音部201、操作部202、通信部211、認証部212、音響モデル・辞書記憶部221、音声認識部222、テキスト変換部223、係り受け解析部224、議事録作成部225、議事録記憶部226、テキスト取得部231、記憶部240、入力判定部241、アイコン設定部242、アイコン記憶部243、警告生成部244、および画像出力部245を備える。   The master unit 2 includes a sound collection unit 201, an operation unit 202, a communication unit 211, an authentication unit 212, an acoustic model / dictionary storage unit 221, a voice recognition unit 222, a text conversion unit 223, a dependency analysis unit 224, and a minutes creation unit. 225, a minutes storage unit 226, a text acquisition unit 231, a storage unit 240, an input determination unit 241, an icon setting unit 242, an icon storage unit 243, a warning generation unit 244, and an image output unit 245.

子機3は、収音部301、操作部302(テキスト入力部)、処理部303、表示部304、および通信部305を備える。収音部301、操作部302、処理部303、表示部304、および通信部305は、バス306を介して接続されている。   The subunit | mobile_unit 3 is provided with the sound collection part 301, the operation part 302 (text input part), the process part 303, the display part 304, and the communication part 305. The sound collection unit 301, the operation unit 302, the processing unit 303, the display unit 304, and the communication unit 305 are connected via a bus 306.

<子機3>
まず、子機3について説明する。
子機3は、例えばスマートフォン、タブレット端末、パーソナルコンピュータ等である。なお、子機3は、音声出力部、モーションセンサー、GPS(Global Positioning System;全地球測位システム)等を備えていてもよい。
<Slave unit 3>
First, the subunit | mobile_unit 3 is demonstrated.
The subunit | mobile_unit 3 is a smart phone, a tablet terminal, a personal computer etc., for example. In addition, the subunit | mobile_unit 3 may be provided with the audio | voice output part, the motion sensor, GPS (Global Positioning System; Global positioning system) etc.

収音部301は、マイクロフォンである。収音部301は、利用者の音声信号を収音し、収音した音声信号をアナログ信号からデジタル信号に変換して、デジタル信号に変換した音声信号を処理部303に出力する。   The sound collection unit 301 is a microphone. The sound collection unit 301 collects a user's sound signal, converts the collected sound signal from an analog signal to a digital signal, and outputs the sound signal converted into the digital signal to the processing unit 303.

操作部302は、利用者の操作を検出し、検出した結果を処理部303に出力する。操作部302は、例えば表示部304上に設けられたタッチパネル式のセンサー、または優先接続または無線接続のキーボード等である。   The operation unit 302 detects a user operation and outputs the detected result to the processing unit 303. The operation unit 302 is, for example, a touch panel sensor provided on the display unit 304 or a priority connection or wireless connection keyboard.

処理部303は、操作部302が操作された操作結果に基づいて設定情報を生成し、生成した設定情報を通信部305に出力する。ここで、設定情報には、参加者の識別情報、収音部の使用の有無を示す情報、操作部の使用の有無を示す情報が含まれている。処理部303は、操作部302が操作された操作結果に基づいてログイン指示を生成し、生成したログイン指示を通信部305に出力する。ここで、ログイン指示には、参加者の識別情報、子機3の識別情報が含まれている。処理部303は、操作部202が操作された操作結果に基づくテキスト情報に識別情報を付加して通信部305に出力する。処理部303は、収音部301が出力する音声信号に識別情報を付加して通信部305に出力する。処理部303は、通信部305が出力する画像データを取得し、取得した画像データを表示部304に出力する。処理部303は、通信部305が出力するログインを許可する情報に基づいて、親機2との通信を確立する。   The processing unit 303 generates setting information based on the operation result of the operation unit 302 being operated, and outputs the generated setting information to the communication unit 305. Here, the setting information includes participant identification information, information indicating whether the sound collection unit is used, and information indicating whether the operation unit is used. The processing unit 303 generates a login instruction based on the operation result of the operation unit 302 being operated, and outputs the generated login instruction to the communication unit 305. Here, the login instruction includes the identification information of the participant and the identification information of the handset 3. The processing unit 303 adds identification information to text information based on the operation result of the operation unit 202 being operated, and outputs the text information to the communication unit 305. The processing unit 303 adds the identification information to the audio signal output from the sound collection unit 301 and outputs it to the communication unit 305. The processing unit 303 acquires the image data output from the communication unit 305 and outputs the acquired image data to the display unit 304. The processing unit 303 establishes communication with the parent device 2 based on the information permitting login output from the communication unit 305.

表示部304は、処理部303が出力した画像データを表示する。表示部304は、例えば液晶表示装置、有機EL(エレクトロルミネッセンス)表示装置、電子インク表示装置等である。なお、表示部304上に表示される画像については後述する。   The display unit 304 displays the image data output from the processing unit 303. The display unit 304 is, for example, a liquid crystal display device, an organic EL (electroluminescence) display device, an electronic ink display device, or the like. The image displayed on the display unit 304 will be described later.

通信部305は、処理部303が出力する設定情報を、ネットワーク4を介して親機2へ送信する。通信部305は、処理部303が出力するログイン指示を、ネットワーク4を介して親機2へ送信する。通信部305は、処理部303が出力するテキスト情報または音声信号を、ネットワーク4を介して親機2へ送信する。なお、送信するテキスト情報または音声信号には、利用者の識別情報と子機3の識別情報が含まれている。通信部305は、親機2が送信した画像データを受信し、受信した画像データを処理部303に出力する。通信部305は、親機2が送信したログインを許可する情報を受信した場合、受信したログインを許可する情報を処理部303に出力する。   The communication unit 305 transmits the setting information output from the processing unit 303 to the parent device 2 via the network 4. The communication unit 305 transmits a login instruction output from the processing unit 303 to the parent device 2 via the network 4. The communication unit 305 transmits text information or an audio signal output from the processing unit 303 to the parent device 2 via the network 4. Note that the text information or audio signal to be transmitted includes user identification information and slave unit 3 identification information. The communication unit 305 receives the image data transmitted from the parent device 2 and outputs the received image data to the processing unit 303. When the communication unit 305 receives the information allowing the login transmitted by the parent device 2, the communication unit 305 outputs the received information allowing the login to the processing unit 303.

<親機2>
次に親機2について説明する。
親機2は、例えばノートパソコン等である。
<Master unit 2>
Next, the master unit 2 will be described.
The base unit 2 is, for example, a notebook personal computer.

収音部201は、マイクロフォンである。収音部201は、利用者の音声信号を収音し、収音した音声信号をアナログ信号からデジタル信号に変換して、デジタル信号に変換した音声信号を音声認識部222に出力する。   The sound collection unit 201 is a microphone. The sound collection unit 201 collects a user's voice signal, converts the collected voice signal from an analog signal to a digital signal, and outputs the converted voice signal to the voice recognition unit 222.

操作部202は、利用者の操作を検出し、検出した結果をテキスト取得部231と入力判定部241に出力する。操作部202は、例えば表示装置21上に設けられたタッチパネル式のセンサー、またはキーボードである。操作部202は、ログイン処理の際、操作を検出した結果を、認証部212に出力する。   The operation unit 202 detects a user operation and outputs the detected result to the text acquisition unit 231 and the input determination unit 241. The operation unit 202 is, for example, a touch panel sensor provided on the display device 21 or a keyboard. The operation unit 202 outputs an operation detection result to the authentication unit 212 during the login process.

通信部211は、子機3が送信した音声信号を受信し、受信した音声信号を音声認識部222に出力する。通信部211は、子機3が送信したテキスト情報を受信し、受信したテキスト情報を係り受け解析部224と入力判定部241に出力する。通信部211は、子機3が送信したログイン指示を受信し、受信したログイン指示を認証部212に出力する。通信部211は、画像出力部245が出力する画像データを、ネットワーク4を介して子機3へ送信する。通信部211は、認証部212が出力するログインを許可する情報を、ネットワーク4を介して子機3へ送信する。   The communication unit 211 receives the audio signal transmitted from the child device 3 and outputs the received audio signal to the audio recognition unit 222. The communication unit 211 receives the text information transmitted from the handset 3 and outputs the received text information to the dependency analysis unit 224 and the input determination unit 241. The communication unit 211 receives the login instruction transmitted from the child device 3 and outputs the received login instruction to the authentication unit 212. The communication unit 211 transmits the image data output from the image output unit 245 to the child device 3 via the network 4. The communication unit 211 transmits information that allows the login output from the authentication unit 212 to the child device 3 via the network 4.

認証部212は、通信部211が出力するログイン指示に含まれる参加者の識別情報と子機3の識別情報に基づいて、ログインを許可するか否かを判定する。認証部212は、ログインを許可する場合、ログインを許可する情報を通信部211に出力する。認証部212は、操作部202が操作された結果に基づいて、親機2の利用者のログインを許可するか否かを判定する。認証部212は、ログインを許可する場合、各機能部にログインを許可する情報を出力し、各機能部の動作を許可する。なお、各機能部とは、通信部211、認証部212、音響モデル・辞書記憶部221、音声認識部222、テキスト変換部223、係り受け解析部224、議事録作成部225、議事録記憶部226、テキスト取得部231、記憶部240、入力判定部241、アイコン設定部242、アイコン記憶部243、警告生成部244、および画像出力部245である。   Authentication unit 212 determines whether or not to permit login based on the identification information of the participant and the identification information of handset 3 included in the login instruction output from communication unit 211. When the authentication unit 212 permits login, the authentication unit 212 outputs information permitting login to the communication unit 211. The authentication unit 212 determines whether to permit the login of the user of the parent device 2 based on the result of the operation of the operation unit 202. When permitting login, the authentication unit 212 outputs information for permitting login to each functional unit, and permits the operation of each functional unit. The function units include a communication unit 211, an authentication unit 212, an acoustic model / dictionary storage unit 221, a voice recognition unit 222, a text conversion unit 223, a dependency analysis unit 224, a minutes creation unit 225, and a minutes storage unit. 226, a text acquisition unit 231, a storage unit 240, an input determination unit 241, an icon setting unit 242, an icon storage unit 243, a warning generation unit 244, and an image output unit 245.

音響モデル・辞書記憶部221は、例えば音響モデル、言語モデル、単語辞書等を格納している。音響モデルとは、音の特徴量に基づくモデルであり、言語モデルとは、単語とその並び方の情報のモデルである。また、単語辞書とは、多数の語彙による辞書であり、例えば大語彙単語辞書である。なお、親機2は、音響モデル・辞書記憶部221に格納されていない単語等を格納して更新するようにしてもよい。   The acoustic model / dictionary storage unit 221 stores, for example, an acoustic model, a language model, a word dictionary, and the like. The acoustic model is a model based on the feature amount of sound, and the language model is a model of information on words and how to arrange them. The word dictionary is a dictionary with a large number of vocabularies, for example, a large vocabulary word dictionary. The base unit 2 may store and update words and the like that are not stored in the acoustic model / dictionary storage unit 221.

音声認識部222は、収音部201が出力する音声信号、または通信部211が出力する音声信号を取得する。音声認識部222は、音声信号から発話区間の音声信号を検出する。発話区間の検出は、例えば所定のしきい値以上の音声信号を発話区間として検出する。なお、音声認識部222は、発話区間の検出を周知の他の手法を用いて行ってもよい。音声認識部222は、検出した発話区間の音声信号に対して、音響モデル・辞書記憶部221を参照して、周知の手法を用いて音声認識を行う。なお、音声認識部222は、例えば特開2015−64554号公報に開示されている手法等を用いて音声認識を行う。音声認識部222は、認識した認識結果と音声信号をテキスト変換部223に出力する。なお、音声認識部222は、認識結果と音声信号とを、例えば1文毎、または発話句間毎、または発話毎に対応つけて出力する。
なお、音声認識部222は、音声信号が同時に入力された場合、例えば時分割処理によって収音部(201または301)毎に音声認識を行う。また、音声認識部222は、マイクロフォンがマイクロフォンアレイの場合、音源分離処理、音源定位処理、音源同定処理等、周知の音声認識処理も行う。
The voice recognition unit 222 acquires the voice signal output from the sound collection unit 201 or the voice signal output from the communication unit 211. The voice recognition unit 222 detects a voice signal in the utterance section from the voice signal. For the detection of the utterance section, for example, an audio signal having a predetermined threshold value or more is detected as the utterance section. Note that the speech recognition unit 222 may perform detection of the utterance section using another known method. The speech recognition unit 222 performs speech recognition on the detected speech signal of the utterance section with reference to the acoustic model / dictionary storage unit 221 using a known method. Note that the voice recognition unit 222 performs voice recognition using, for example, a method disclosed in JP-A-2015-64554. The voice recognition unit 222 outputs the recognized recognition result and the voice signal to the text conversion unit 223. Note that the speech recognition unit 222 outputs the recognition result and the speech signal in association with each other, for example, for each sentence, between utterance phrases, or for each utterance.
Note that the voice recognition unit 222 performs voice recognition for each sound collection unit (201 or 301), for example, by time division processing when voice signals are input simultaneously. In addition, when the microphone is a microphone array, the speech recognition unit 222 performs known speech recognition processing such as sound source separation processing, sound source localization processing, and sound source identification processing.

テキスト変換部223は、音声認識部222が出力する認識結果に対して、音響モデル・辞書記憶部221を参照して、テキストに変換する。なお、テキスト情報は、少なくとも1文字の情報を含む。テキスト変換部223は、変換したテキスト情報と、取得した音声信号を係り受け解析部224に出力する。なお、テキスト変換部223は、発話情報を認識した結果から「あー」、「えーと」、「えー」、「まあ」等の間投詞を削除してテキストに変換するようにしてもよい。   The text conversion unit 223 converts the recognition result output by the speech recognition unit 222 into text with reference to the acoustic model / dictionary storage unit 221. Note that the text information includes information of at least one character. The text conversion unit 223 outputs the converted text information and the acquired voice signal to the dependency analysis unit 224. Note that the text conversion unit 223 may delete interjections such as “Ah”, “Ut”, “Eh”, and “Well” from the result of recognizing the utterance information and convert it to text.

係り受け解析部224は、テキスト変換部223が出力したテキスト情報または通信部211が出力したテキスト情報に対して、音響モデル・辞書記憶部221を参照して、形態素解析と係り受け解析を行う。なお、係り受け解析には、例えば、Shift−reduce法や全域木の手法やチャンク同定の段階適用手法においてSVM(Support Vector Machines)を用いる。
または、係り受け解析部224は、テキスト取得部231が出力するテキスト情報を取得する。係り受け解析部224は、テキスト情報に対して、音響モデル・辞書記憶部221を参照して、形態素解析と係り受け解析を行う。
係り受け解析部224は、形態素解析と係り受け解析を行ったテキスト情報と、解析した結果を議事録作成部225に出力する。なお、係り受け解析部224は、テキスト変換部223が出力する音声信号を取得した場合、取得した音声信号も議事録作成部225に出力する。
The dependency analysis unit 224 performs morphological analysis and dependency analysis on the text information output by the text conversion unit 223 or the text information output by the communication unit 211 with reference to the acoustic model / dictionary storage unit 221. In the dependency analysis, for example, SVM (Support Vector Machines) is used in the shift-reduce method, the spanning tree method, and the chunk identification step application method.
Alternatively, the dependency analysis unit 224 acquires text information output from the text acquisition unit 231. The dependency analysis unit 224 performs morphological analysis and dependency analysis on the text information with reference to the acoustic model / dictionary storage unit 221.
The dependency analysis unit 224 outputs the text information subjected to morphological analysis and dependency analysis, and the analysis result to the minutes creation unit 225. When the dependency analysis unit 224 acquires the audio signal output from the text conversion unit 223, the dependency analysis unit 224 also outputs the acquired audio signal to the minutes creation unit 225.

議事録作成部225は、係り受け解析部224が出力したテキスト情報に基づいて、発話者毎に分けて、議事録を作成する。議事録作成部225は、作成した議事録と対応する音声信号を議事録記憶部226に記憶させる。また、議事録作成部225は、作成した議事録を画像出力部245に出力する。なお、議事録作成部225は、「あー」、「えーと」、「えー」、「まあ」等の間投詞を削除して議事録を作成するようにしてもよい。   The minutes creation unit 225 creates minutes for each speaker based on the text information output by the dependency analysis unit 224. The minutes creation unit 225 causes the minutes storage unit 226 to store an audio signal corresponding to the created minutes. In addition, the minutes creation unit 225 outputs the created minutes to the image output unit 245. The minutes creation unit 225 may create minutes by deleting the interjections such as “Ah”, “Et”, “Eh”, “Well”.

議事録記憶部226は、議事録と音声信号を対応つけて記憶する。   The minutes storage unit 226 stores the minutes and audio signals in association with each other.

テキスト取得部231は、操作部202が出力する操作結果を取得し、取得した結果に基づいてテキスト情報を生成する。テキスト取得部231は、生成したテキスト情報をテキスト変換部223に出力する。   The text acquisition unit 231 acquires the operation result output by the operation unit 202, and generates text information based on the acquired result. The text acquisition unit 231 outputs the generated text information to the text conversion unit 223.

記憶部240は、参加者または参加予定者の設定情報を記憶する。設定情報には、参加者名、参加者を識別するための識別子、参加者に対応付けられたアイコン、参加者の収音部(201または301)の使用の有無を示す情報、参加者の操作部(202または302)の使用の有無を示す情報等が含まれている。   The storage unit 240 stores setting information of participants or planned participants. The setting information includes a participant name, an identifier for identifying the participant, an icon associated with the participant, information indicating whether or not the participant's sound collection unit (201 or 301) is used, and operation of the participant Information indicating whether or not the part (202 or 302) is used is included.

入力判定部241は、収音部201が出力する音声信号に基づいて、親機2に対して収音部201の使用の有無を判定する。また、入力判定部241は、通信部211が出力する音声信号に基づいて、子機3に対して収音部301の使用の有無を判定する。入力判定部241は、例えば、音声信号の大きさが所定時間継続して所定の閾値未満の場合、音声信号が入力されていないと判定して収音部(201または301)を使用していないと判定するようにしてもよい。また、入力判定部241は、音声信号の大きさが所定時間継続して所定の閾値以上の場合、音声信号が入力されていると判定して収音部(201または301)を使用していると判定するようにしてもよい。
入力判定部241は、操作部202が出力する操作結果に基づいて、親機2に対して操作部202の使用の有無を判定する。また、入力判定部241は、通信部211が出力するテキスト情報に基づいて、子機3に対して操作部302の使用の有無を判定する。入力判定部241は、例えば、所定時間継続して操作部(202または302)から操作結果が検出されない場合、操作部(202または302)を使用していないと判定するようにしてもよい。また、入力判定部241は、所定時間継続して操作部(202または302)から操作結果が検出された場合、操作部(202または302)を使用していると判定するようにしてもよい。
入力判定部241は、収音部(201または301)を使用すると判定した場合、収音部(201または301)の使用を示す情報をアイコン設定部242に出力する。また、入力判定部241は、操作部(202または302)を使用すると判定した場合、操作部(202または302)の使用を示す情報をアイコン設定部242に出力する。
入力判定部241は、操作部202が操作されているか、通信部211からテキスト情報が入力されている期間、他の発話を禁止するため、発話禁止指示(発言を待機させる情報)を警告生成部244に出力する。なお、発話禁止指示には、操作部202が操作されている場合、親機2を使用している利用者を示す情報が含まれ、通信部211からテキスト情報が入力されている場合、子機3を使用してテキスト入力している利用者を示す情報が含まれる。
The input determination unit 241 determines whether or not the sound collection unit 201 is used for the parent device 2 based on the audio signal output from the sound collection unit 201. Further, the input determination unit 241 determines whether or not the sound collection unit 301 is used for the child device 3 based on the audio signal output from the communication unit 211. For example, if the size of the audio signal continues for a predetermined time and is less than a predetermined threshold, the input determination unit 241 determines that no audio signal is input and does not use the sound collection unit (201 or 301). May be determined. Further, the input determination unit 241 determines that the audio signal is being input and uses the sound collection unit (201 or 301) when the size of the audio signal continues for a predetermined time and is equal to or greater than a predetermined threshold. May be determined.
The input determination unit 241 determines whether or not the operation unit 202 is used for the base unit 2 based on the operation result output from the operation unit 202. Further, the input determination unit 241 determines whether or not the operation unit 302 is used for the slave unit 3 based on the text information output from the communication unit 211. For example, the input determination unit 241 may determine that the operation unit (202 or 302) is not used when an operation result is not detected from the operation unit (202 or 302) for a predetermined time. The input determination unit 241 may determine that the operation unit (202 or 302) is being used when an operation result is detected from the operation unit (202 or 302) continuously for a predetermined time.
When it is determined that the sound collection unit (201 or 301) is to be used, the input determination unit 241 outputs information indicating the use of the sound collection unit (201 or 301) to the icon setting unit 242. When the input determination unit 241 determines to use the operation unit (202 or 302), the input determination unit 241 outputs information indicating use of the operation unit (202 or 302) to the icon setting unit 242.
The input determination unit 241 generates an utterance prohibition instruction (information for waiting for utterance) as a warning generation unit in order to prohibit other utterances while the operation unit 202 is operated or text information is input from the communication unit 211. To 244. Note that the utterance prohibition instruction includes information indicating the user who is using the parent device 2 when the operation unit 202 is operated, and when text information is input from the communication unit 211, 3 is included to indicate the user who is inputting text using 3.

アイコン設定部242は、参加者に対応するアイコンの画像をアイコン記憶部243から読み出し、読み出したアイコンの画像を画像出力部245に出力する。なお、参加者は、会議システムに初めてログインして使用を開始する際、記憶されているアイコンの中から自分に対応させるアイコンの画像を選択する。また、アイコン設定部242は、入力判定部241が出力する収音部(201または301)の使用を示す情報に基づいて、収音部(201または301)の使用を示すアイコンの画像を画像出力部245に出力する。アイコン設定部242は、入力判定部241が出力する操作部(202または302)の使用を示す情報に基づいて、操作部(202または302)の使用を示すアイコンの画像を画像出力部245に出力する。なお、アイコンについては後述する。   The icon setting unit 242 reads an icon image corresponding to the participant from the icon storage unit 243, and outputs the read icon image to the image output unit 245. In addition, when a participant logs in to a conference system for the first time and starts using, the participant selects an icon image corresponding to him / her from among the stored icons. The icon setting unit 242 outputs an image of an icon indicating use of the sound collection unit (201 or 301) based on information indicating use of the sound collection unit (201 or 301) output from the input determination unit 241. Output to the unit 245. The icon setting unit 242 outputs an image of an icon indicating use of the operation unit (202 or 302) to the image output unit 245 based on information indicating use of the operation unit (202 or 302) output from the input determination unit 241. To do. The icons will be described later.

アイコン記憶部243は、参加者に対応するアイコンを記憶する。アイコン記憶部243は、収音部(201または301)の使用の有無を示すアイコンを記憶する。アイコン記憶部243は、操作部(202または302)の使用の有無を示すアイコンを記憶する。   The icon storage unit 243 stores an icon corresponding to the participant. The icon storage unit 243 stores an icon indicating whether or not the sound collection unit (201 or 301) is used. The icon storage unit 243 stores an icon indicating whether or not the operation unit (202 or 302) is used.

警告生成部244は、入力判定部241が出力する発話禁止指示に基づいて、警告情報(発言を待機させる情報)を生成する。なお、警告情報には、テキストを入力している利用者の情報が含まれる。警告生成部244は、生成した警告情報を画像出力部245に出力する。   The warning generation unit 244 generates warning information (information for waiting to speak) based on the utterance prohibition instruction output by the input determination unit 241. The warning information includes information about the user who is inputting text. The warning generation unit 244 outputs the generated warning information to the image output unit 245.

画像出力部245は、議事録作成部225が出力する議事録情報と、警告生成部244が出力する警告情報を取得する。画像出力部245は、議事録情報に基づいて画像データを生成し、生成した画像データを通信部211と表示装置21に出力する。画像出力部245は、警告生成部244から警告情報を取得した場合、取得した警告情報に基づいて、表示装置21上にアラートを表示させる。画像出力部245は、警告生成部244から警告情報を取得した場合、取得した警告情報を、通信部211を介して子機3へ送信する。   The image output unit 245 acquires the minutes information output by the minutes generation unit 225 and the warning information output by the warning generation unit 244. The image output unit 245 generates image data based on the minutes information, and outputs the generated image data to the communication unit 211 and the display device 21. When the warning information is acquired from the warning generation unit 244, the image output unit 245 displays an alert on the display device 21 based on the acquired warning information. When the warning information is acquired from the warning generation unit 244, the image output unit 245 transmits the acquired warning information to the child device 3 via the communication unit 211.

表示装置21は、例えば液晶表示装置、有機EL表示装置、電子インク表示装置等である。表示装置21は、画像出力部が出力する画像データを表示する。なお、表示装置21は、親機2が備えていてもよい。   The display device 21 is, for example, a liquid crystal display device, an organic EL display device, an electronic ink display device, or the like. The display device 21 displays the image data output from the image output unit. The display device 21 may be included in the parent device 2.

<親機2の表示画像>
次に、親機2が表示装置21上に表示させる画像例を説明する。
図2は、本実施形態に係る親機2が表示装置21上に表示させる画像例を示す図である。
画像g10が、親機2の表示装置21上に表示される画像である。
<Display image of base unit 2>
Next, an example of an image that the master unit 2 displays on the display device 21 will be described.
FIG. 2 is a diagram illustrating an image example displayed on the display device 21 by the parent device 2 according to the present embodiment.
The image g10 is an image displayed on the display device 21 of the parent device 2.

領域g100の画像は、参加者情報編集を行う領域である。
領域g101は、参加者情報の領域である。符号g102は、参加者に対応したアイコン画像である。符号g103は、参加者の名前である。符号104は、参加者が親機2の操作部202または子機3の操作部302によってテキスト入力を行うことを示すアイコンである。符号g105は、参加者が親機2の収音部201または子機3の収音部301によって発話を行うことを示すアイコンである。符号g106は、参加者が使用するマイクロフォンの番号(または識別情報)である。
The image in the area g100 is an area for editing participant information.
An area g101 is an area for participant information. A symbol g102 is an icon image corresponding to the participant. Symbol g103 is the name of the participant. Reference numeral 104 denotes an icon indicating that the participant inputs text using the operation unit 202 of the parent device 2 or the operation unit 302 of the child device 3. The symbol g105 is an icon indicating that the participant speaks with the sound collecting unit 201 of the parent device 2 or the sound collecting unit 301 of the child device 3. A symbol g106 is a microphone number (or identification information) used by the participant.

領域g200は、議事録を表示する領域である。なお、図2では、ログイン後の状態を示している。
符号g201は、ログイン/ログアウトのボタン画像である。
符号g202は、会議システム1の開始/終了のボタン画像である。符号g203は、会議システム1の使用中に点灯する表示である。
符号g204は、議事録記憶部226が記憶する議事録の表示や音声信号の再生を行うボタン画像である。
符号g205は、親機2の利用者が収音部201の使用有無を選択するボタン画像である。
The area g200 is an area for displaying minutes. FIG. 2 shows a state after login.
Reference numeral g201 denotes a login / logout button image.
A symbol g202 is a button image for starting / ending the conference system 1. A symbol g203 is a display that is lit when the conference system 1 is in use.
A symbol g204 is a button image for displaying the minutes stored in the minutes storage unit 226 and reproducing the audio signal.
A symbol g205 is a button image for the user of the parent device 2 to select whether or not the sound collection unit 201 is used.

符号g211は、参加者のうち、発話した人に対応するアイコン画像である。
符号g212は、第1の参加者が操作部(202または302)を操作して入力したテキスト情報である。
符号g213は、第1の参加者が操作部(202または302)を操作して入力した絵文字である。
符号g214は、第1の参加者が発話した日時を示す情報である。
符号g215は、第1の参加者の名前である。
A symbol g211 is an icon image corresponding to a person who speaks among participants.
Symbol g212 is text information input by the first participant operating the operation unit (202 or 302).
Reference numeral g213 is a pictograph input by the first participant operating the operation unit (202 or 302).
Reference numeral g214 is information indicating the date and time when the first participant speaks.
Symbol g215 is the name of the first participant.

符号g221は、第2の参加者が操作部(202または302)を操作して入力したテキスト情報である。
符号g222は、第2の参加者が発話した内容を音声認識したテキスト情報である。
符号g223は、操作部(202または302)を操作してテキストを入力したことを示すアイコンである。
符号g224は、収音部(201または301)によって発話を入力したことを示すアイコンである。
Symbol g221 is text information input by the second participant operating the operation unit (202 or 302).
A symbol g222 is text information obtained by voice recognition of the content uttered by the second participant.
A symbol g223 is an icon indicating that text has been input by operating the operation unit (202 or 302).
A symbol g224 is an icon indicating that an utterance is input by the sound collection unit (201 or 301).

符号g231は、第3の参加者が発話した内容を音声認識したテキスト情報である。
符号g241は、第1の参加者が操作部(202または302)を操作して入力したテキスト情報である。なお、このテキスト情報は、入力途中を示している。
Symbol g231 is text information obtained by voice recognition of the content uttered by the third participant.
Symbol g241 is text information input by the first participant operating the operation unit (202 or 302). Note that this text information indicates the middle of input.

符号g251は、第1の参加者がテキスト入力中であるため、他の参加者の発話を禁止するためのアラートの一例である。アラートは、例えば『鈴木さん(注;第1の参加者)がテキスト入力中 しばらくお待ちください』である。このように、テキスト入力中に他の参加者の発話を禁止することで、本実施形態によれば、他の参加者の発言を待機させることができる。   Symbol g251 is an example of an alert for prohibiting other participants from speaking because the first participant is inputting text. The alert is, for example, “Please wait while Mr. Suzuki (Note; first participant) is entering text”. Thus, by prohibiting the speech of other participants during text input, according to this embodiment, it is possible to wait for the speech of other participants.

符号g261は、第1の参加者である鈴木さんが親機2を使用している場合、表示装置21上に表示されるアラートの一例である。アラートは、例えば『鈴木さん(第1の参加者);「入力終了により再開OK」を出してください』である。なお、参加者が、子機3によってテキスト入力を行っている場合、その参加者が使用している子機3の表示部304上に符号g261のアラートが表示される。この場合、親機2は、通信部211が受信した情報に基づいて、どの子機3でテキスト入力が行われているのかを判定し、判定した結果に基づいて、警告情報を該当する子機3へ送信する。子機3は、受信した警告情報に基づいて、符号g261のアラートを表示させる。   Reference g261 is an example of an alert displayed on the display device 21 when the first participant, Mr. Suzuki, is using the parent device 2. The alert is, for example, “Mr. Suzuki (first participant);“ Please resume when input is completed ””. When the participant inputs text using the handset 3, an alert indicated by reference numeral g261 is displayed on the display unit 304 of the handset 3 used by the participant. In this case, the parent device 2 determines which child device 3 is inputting the text based on the information received by the communication unit 211, and based on the determined result, sets the warning information to the corresponding child device. 3 to send. The subunit | mobile_unit 3 displays the alert of the code | symbol g261 based on the received warning information.

なお、図2に示した画像は一例であり、表示装置21上に表示される画像はこれに限らない。例えば、親機2を使用する参加者が、操作部202を用いてテキスト入力を行う場合、画像g10に、さらに「再開OK」ボタン画像(図4、g310)を表示させる。テキスト入力を終了したとき、参加者は、「再開OK」ボタン画像を押すことで、他の参加者のテキスト入力を許可するように指示する。これにより、入力判定部241は、発話禁止指示の出力を停止する。   The image shown in FIG. 2 is an example, and the image displayed on the display device 21 is not limited to this. For example, when a participant who uses the parent device 2 performs text input using the operation unit 202, a “Resume OK” button image (FIG. 4, g310) is further displayed on the image g10. When the text input is completed, the participant instructs to allow other participants to input the text by pressing the “resume OK” button image. Thereby, the input determination unit 241 stops outputting the utterance prohibition instruction.

<子機3の表示画面>
次に、子機3の表示部304上に表示される画像例を説明する。
図3は、本実施形態に係る子機3の表示部304に表示される参加者情報の画像例を示す図である。
画像g30は、参加者情報の表示に、子機3の表示部304上に表示される画像である。
<Display screen of handset 3>
Next, an example of an image displayed on the display unit 304 of the slave unit 3 will be described.
FIG. 3 is a diagram showing an example of participant information images displayed on the display unit 304 of the child device 3 according to the present embodiment.
The image g30 is an image displayed on the display unit 304 of the child device 3 for displaying participant information.

領域g301は、会議のディスカッションテーマを表示する領域である。
領域g302は、子機3の利用者に関する情報を表示する領域である。この領域は、参加者に対応するアイコン、参加者の氏名、参加者が操作部302を使用することを示すアイコンが表示されている例である。
An area g301 is an area for displaying a conference discussion theme.
The area g302 is an area for displaying information related to the user of the child device 3. This area is an example in which an icon corresponding to the participant, the name of the participant, and an icon indicating that the participant uses the operation unit 302 are displayed.

領域g303は、状態を示す領域である。図3に示す例では、参加者がテキストを入力中の例である。   A region g303 is a region indicating a state. In the example shown in FIG. 3, the participant is inputting text.

領域g304は、参加者情報を表示する領域である。この領域には、各参加者に対応するアイコン、各参加者が入力に使用するのが収音部(201または301)であることを示すアイコン、操作部(202または302)であることを示すアイコン、各参加者の名前が表示される。   An area g304 is an area for displaying participant information. In this area, an icon corresponding to each participant, an icon indicating that each participant uses the sound collection unit (201 or 301), and an operation unit (202 or 302) are used for input. An icon and the name of each participant are displayed.

領域g305は、操作ボタンの画像等を表示する領域である。操作ボタンとは、例えば、1つ前の画面に戻るボタン、ホーム画面に戻るボタン等である。   An area g305 is an area for displaying an operation button image or the like. The operation buttons are, for example, a button for returning to the previous screen, a button for returning to the home screen, and the like.

図4は、本実施形態に係るテキスト入力を行っている参加者の子機3の表示部304に表示される議事録情報の画像例を示す図である。なお、図4は、子機3の利用者である参加者がテキスト入力中に表示される画面である。
画像g30aは、議事録情報時に、子機3の表示部304上に表示される画像である。
FIG. 4 is a diagram illustrating an image example of minutes information displayed on the display unit 304 of the child device 3 of the participant who is performing text input according to the present embodiment. FIG. 4 is a screen displayed when a participant who is a user of the handset 3 is inputting text.
The image g30a is an image displayed on the display unit 304 of the child device 3 at the time of minutes information.

符号g310は、テキスト入力が終了した後に、他の参加者の発言の再開を許可する再開OKのボタン画像である。
符号g311は、テキストを入力している参加者の子機3に表示されるアラートである。アラートは、例えば『「入力終了により再開OK」を出してください』である。
Reference g310 is a restart OK button image that permits the restart of another participant's speech after the text input is completed.
Symbol g311 is an alert displayed on the child device 3 of the participant who is inputting the text. The alert is, for example, “Please issue“ Restart OK when input is completed ””.

符号g312は、第2の参加者が発話した内容を音声認識したテキスト情報である。
符号g313は、第1の参加者が入力しているテキスト情報である。
領域g314は、テキスト入力部の領域である。この領域の画像は、テキスト入力が禁止されていないとき、すなわち他の参加者がテキスト入力を行っていないときである。
符号g315は、子機3の利用者である参加者が入力しているテキスト情報である。なお、操作部302は、表示部304上に表示されるソフトウェアキーボードであってもよく、子機3と有線または無線で接続されていてもよい。
Reference numeral g312 is text information obtained by voice recognition of the content uttered by the second participant.
Symbol g313 is text information input by the first participant.
A region g314 is a region for the text input unit. The image in this area is when text input is not prohibited, that is, when no other participant is inputting text.
A symbol g315 is text information input by a participant who is a user of the child device 3. The operation unit 302 may be a software keyboard displayed on the display unit 304, and may be connected to the slave unit 3 by wire or wirelessly.

図5は、本実施形態に係るテキスト入力を行っていない参加者の子機3の表示部304に表示される議事録情報の画像例を示す図である。なお、図5は、第1の参加者(鈴木さん)がテキスト入力中に第2の参加者(藤沢さん)の表示される画面である。
画像g40aは、議事録情報時に、第2の参加者の子機3の表示部304上に表示される画像である。
FIG. 5 is a diagram showing an example of minutes information displayed on the display unit 304 of the child device 3 of the participant who is not performing text input according to the present embodiment. FIG. 5 is a screen on which the second participant (Mr. Fujisawa) is displayed while the first participant (Mr. Suzuki) is inputting text.
The image g40a is an image displayed on the display unit 304 of the handset 3 of the second participant during the minutes information.

符号g411は、第1の参加者(鈴木さん)がテキストを入力しているとき、第2の参加者(藤沢さん)の子機3に表示されるアラートである。アラートは、例えば『鈴木さんがテキスト入力中 発言をしばらくお待ちください』である。なお、このアラートは、例えば、子機3の利用者に関する情報を表示する領域(g302、図3)に表示される。なお、図5の例では、この参加者が収音部301と操作部302とによって入力することを示すアイコン画像が、子機3の利用者に関する情報を表示する領域に表示されている。   Reference sign g411 is an alert displayed on the child device 3 of the second participant (Mr. Fujisawa) when the first participant (Mr. Suzuki) is inputting text. The alert is, for example, “Please wait for a while while Mr. Suzuki is entering text”. This alert is displayed, for example, in an area (g302, FIG. 3) for displaying information related to the user of the slave unit 3. In the example of FIG. 5, an icon image indicating that the participant inputs using the sound collection unit 301 and the operation unit 302 is displayed in an area for displaying information regarding the user of the handset 3.

符号g412は、第1の参加者(鈴木さん)がテキストを入力しているため、この子機3の利用者に対してテキスト入力を禁止するアラートの画像である。アラートは、『鈴木さんがテキスト入力中 しばらくお待ちください』である。このアラートは、例えばテキスト入力部の領域に表示される。   Reference numeral g412 is an image of an alert that prohibits the user of the handset 3 from entering text because the first participant (Mr. Suzuki) has entered text. The alert is “Please wait while Mr. Suzuki enters text”. This alert is displayed, for example, in the text input area.

なお、図3〜図5に示した画像は一例であり、表示部304上に表示される画像はこれに限らない。   3 to 5 are examples, and the image displayed on the display unit 304 is not limited to this.

図6は、本実施形態に係る親機2の表示装置21、または子機3の表示部304上に表示されるアイコン画像例を示す図である。
符号g51が示す領域の画像は、収音部(201または301;マイクともいう)によって入力をしている参加者に対するアイコン画像の例である。このように、収音部を用いる利用者の表示は、例えば図2における第3の参加者(吉田さん)に対応する。
FIG. 6 is a diagram illustrating an example of icon images displayed on the display device 21 of the parent device 2 or the display unit 304 of the child device 3 according to the present embodiment.
The image in the region indicated by reference sign g51 is an example of an icon image for a participant who is inputting through the sound collection unit (201 or 301; also referred to as a microphone). In this way, the display of the user using the sound collection unit corresponds to, for example, the third participant (Mr. Yoshida) in FIG.

符号g52が示す領域の画像は、操作部(202または302;子機ともいう)によって入力をしている参加者に対するアイコン画像の例である。このように、操作部を用いる利用者の表示は、例えば図2における第1の参加者(鈴木さん)に対応する。   The image in the region indicated by reference sign g52 is an example of an icon image for a participant who is inputting through the operation unit (202 or 302; also referred to as a slave unit). Thus, the display of the user using the operation unit corresponds to, for example, the first participant (Mr. Suzuki) in FIG.

符号g53が示す領域の画像は、収音部(201または301;マイクともいう)と操作部(202または302)によって入力をしている参加者に対するアイコン画像の例である。このように、収音部と操作部を用いる利用者の表示は、例えば図2における第2の参加者(藤沢さん)に対応する。   The image in the area indicated by reference sign g53 is an example of an icon image for a participant who is inputting through the sound collection unit (201 or 301; also referred to as a microphone) and the operation unit (202 or 302). In this way, the display of the user using the sound collection unit and the operation unit corresponds to, for example, the second participant (Mr. Fujisawa) in FIG.

<記憶部240記憶する情報>
次に、親機2の記憶部240が記憶する情報例を説明する。
図7は、本実施形態に係る親機2の記憶部240が記憶する情報例を示す図である。
図7に示すように、記憶部240は、参加者毎に、参加者名にアイコンと使用部(収音部または操作部)を関連付けて記憶する。図7に示す例では、第1の参加者名が「鈴木」であり、アイコンが「アイコン1」であり、使用部が「操作部」の例である。
<Information stored in the storage unit 240>
Next, an example of information stored in the storage unit 240 of the parent device 2 will be described.
FIG. 7 is a diagram illustrating an example of information stored in the storage unit 240 of the parent device 2 according to the present embodiment.
As illustrated in FIG. 7, the storage unit 240 stores, for each participant, an icon and a use unit (sound collection unit or operation unit) associated with the participant name. In the example illustrated in FIG. 7, the first participant name is “Suzuki”, the icon is “icon 1”, and the usage unit is “operation unit”.

<親機2が行う処理>
次に、親機2が行う処理手順例を説明する。
図8は、本実施形態に係る親機2が行う処理手順例を示すフローチャートである。
<Processing performed by base unit 2>
Next, an example of a processing procedure performed by the parent device 2 will be described.
FIG. 8 is a flowchart illustrating an example of a processing procedure performed by the parent device 2 according to the present embodiment.

(ステップS1)利用者は、操作部202を操作して、ログイン手続きを行う。例えば、利用者は、利用者を識別する識別情報(利用者ID)とパスワードを入力する。続けて、認証部212は、操作部202が操作された操作結果に基づいて、ログイン手続きを行う。   (Step S1) The user operates the operation unit 202 to perform a login procedure. For example, the user inputs identification information (user ID) and a password for identifying the user. Subsequently, the authentication unit 212 performs a login procedure based on the operation result of the operation unit 202 being operated.

(ステップS2)利用者は、操作部202を操作して、アイコンの選択や名前の入力等の設定を行う。なお、利用者は、操作部202を操作して、入力を収音部201によって行うか操作部202によって行うかを設定してもよい。または、利用者は、発話によって、入力を収音部201によって行うか操作部202によって行うかを設定してもよい。入力判定部241は、設定された情報を記憶部240に記憶させる。なお、入力判定部241は、他の参加者の設定情報を通信部211を介して取得し、取得した他の参加者の設定情報を記憶部240に記憶させる。   (Step S2) The user operates the operation unit 202 to perform settings such as icon selection and name input. The user may operate the operation unit 202 to set whether input is performed by the sound collection unit 201 or the operation unit 202. Alternatively, the user may set whether input is performed by the sound collection unit 201 or the operation unit 202 by utterance. The input determination unit 241 stores the set information in the storage unit 240. Note that the input determination unit 241 acquires setting information of other participants via the communication unit 211, and stores the acquired setting information of other participants in the storage unit 240.

(ステップS3)入力判定部241は、親機2の操作部202が出力する操作結果、または通信部211が出力するテキスト情報に基づいて、テキスト入力中であるか否かを判定する。入力判定部241は、テキスト入力中であると判定した場合(ステップS3;YES)、ステップS4の処理に進め、テキスト入力中ではないと判定した場合(ステップS3;NO)、ステップS6の処理に進める。   (Step S <b> 3) The input determination unit 241 determines whether text input is being performed based on the operation result output from the operation unit 202 of the parent device 2 or the text information output from the communication unit 211. If the input determination unit 241 determines that text input is being performed (step S3; YES), the process proceeds to step S4. If it is determined that text input is not being performed (step S3; NO), the process proceeds to step S6. Proceed.

(ステップS4)入力判定部241は、テキスト入力が終了したか否かを判定する。具体的には、入力判定部241は、「再開OK」ボタン画像(図4、g310)が押されたことを検出したことで、テキスト入力が終了したと判定する。入力判定部241は、テキスト入力が終了したと判定した場合(ステップS4;YES)、ステップS8の処理に進め、テキスト入力が終了していないと判定した場合(ステップS4;NO)、ステップS5の処理に進める。   (Step S4) The input determination unit 241 determines whether or not the text input is completed. Specifically, the input determination unit 241 determines that the text input is completed by detecting that the “resume OK” button image (FIG. 4, g310) is pressed. If the input determination unit 241 determines that the text input has ended (step S4; YES), the process proceeds to step S8. If the input determination unit 241 determines that the text input has not ended (step S4; NO), the input determination unit 241 proceeds to step S5. Proceed to processing.

(ステップS5)入力判定部241は、発話禁止指示の出力を継続する。続けて、警告生成部244は、警告情報の出力を継続する。これにより、親機2は、表示装置21にアラートを報知させる。また、子機3は、表示部304上にアラートを報知させる。処理後、入力判定部241は、ステップS3の処理に戻す。   (Step S5) The input determination unit 241 continues outputting the utterance prohibition instruction. Subsequently, the warning generation unit 244 continues to output warning information. Thereby, the main | base station 2 alert | reports an alert to the display apparatus 21. FIG. In addition, the slave unit 3 causes an alert to be notified on the display unit 304. After the process, the input determination unit 241 returns to the process of step S3.

(ステップS6)音声認識部222は、収音部201や収音部301によって収音された音声信号に対して音声認識処理を行う。処理後、音声認識部222は、ステップS7の処理に進める。
(ステップS7)テキスト変換部223は、音声認識された結果に対してテキスト変換処理を行う。処理後、テキスト変換部223は、ステップS8の処理に進める。
(Step S <b> 6) The voice recognition unit 222 performs voice recognition processing on the voice signal collected by the sound collection unit 201 and the sound collection unit 301. After the process, the speech recognition unit 222 proceeds to the process of step S7.
(Step S7) The text conversion unit 223 performs text conversion processing on the result of speech recognition. After the process, the text conversion unit 223 proceeds to the process of step S8.

(ステップS8)係り受け解析部224は、テキスト変換されたテキスト情報に対して、発話者毎に係り受け解析と形態素解析処理を行う。処理後、係り受け解析部224は、ステップS9の処理に進める。
(ステップS9)議事録作成部225は、係り受け解析部224が出力するテキスト情報に基づいて、議事録を作成する。
(Step S8) The dependency analysis unit 224 performs dependency analysis and morphological analysis processing on the text information subjected to text conversion for each speaker. After the process, the dependency analysis unit 224 proceeds to the process of step S9.
(Step S9) The minutes creation unit 225 creates the minutes based on the text information output by the dependency analysis unit 224.

(ステップS10)通信部211は、作成された議事録データを子機3へ送信する。このように、親機2は、収音部(201または301)によって入力された音声信号を音声認識したテキスト情報または操作部(202または302)によって入力されたテキスト情報に基づいて作成した議事録を、参加者が所持する子機3へ送信することで、議事録を共有することができる。   (Step S <b> 10) The communication unit 211 transmits the created minutes data to the child device 3. As described above, the master unit 2 creates the minutes based on the text information obtained by voice recognition of the voice signal input by the sound collection unit (201 or 301) or the text information input by the operation unit (202 or 302). Is transmitted to the handset 3 possessed by the participant, the minutes can be shared.

親機2は、以下、ステップS3〜S10の処理を繰り返す。
なお、図8の処理は一例であり、これに限らない。参加者が会議に途中から参加した場合、ステップS2の設定処理をステップS3〜S10の処理中に行ってもよい。
The base unit 2 repeats the processes of steps S3 to S10 below.
Note that the processing of FIG. 8 is an example, and the present invention is not limited to this. When the participant participates in the conference from the middle, the setting process in step S2 may be performed during the processes in steps S3 to S10.

以上、本実施形態では、子機3または親機2を使用する参加者がテキスト入力を行っている期間、他の参加者の発言(発話、テキスト入力)を禁止するようにした。
これにより、本実施形態によれば、聴覚障がい者が、子機3でテキスト入力している間に、健聴者の音声発話を禁止しているため、聴覚障がい者は会議の内容についていける。これにより、本実施形態によれば、聴覚障がい者は健聴者と一緒の会議に参加しやすくなる。
As described above, in the present embodiment, during the period when the participant who uses the handset 3 or the base unit 2 is inputting text, the speech (utterance, text input) of other participants is prohibited.
Thereby, according to this embodiment, since a hearing impaired person prohibits a speech utterance of a normal hearing person while inputting text with the subunit | mobile_unit 3, a hearing impaired person can follow the content of a meeting. Thereby, according to this embodiment, a hearing impaired person becomes easy to participate in a meeting with a normal hearing person.

なお、上述した例では、テキスト入力中に、他の参加者の発言(発話、テキスト入力)を待機させるために、アラートを表示させる例を説明したが、これに限らない。
例えば、子機3の処理部303は、親機2から受信した警告情報に基づいて、他の参加者がテキスト入力中に、テキスト入力欄(図5、g412)を表示しないようにしてもよい。
また、親機2または子機3は、他の参加者がテキスト入力中に、テキスト入力を受け付けなくてもよく、音声入力を受け付けないようにしてもよい。この場合においても、利用者が入力しても反応がないと不安になるため、親機2や子機3は、発言が禁止されているアラートを表示させることが好ましい。
In the above-described example, an example is described in which an alert is displayed in order to wait for another participant's speech (utterance, text input) during text input. However, the present invention is not limited to this.
For example, the processing unit 303 of the child device 3 may not display the text input field (FIG. 5, g412) while another participant is inputting text based on the warning information received from the parent device 2. .
Further, the parent device 2 or the child device 3 may not accept text input while other participants are inputting text, and may not accept voice input. Even in this case, since there is anxiety that there is no reaction even if the user inputs, it is preferable that the parent device 2 and the child device 3 display an alert that prohibits speaking.

<変形例>
上述した例では、親機2が、子機3の表示部304上の表示を制御することで、テキスト入力中に他の参加者のテキスト入力を制限する例を説明したが、これに限らない。
例えば、健聴者は子機3を使用せずに収音部のみを使用するようにしてもよい。
図9は、変形例における収音部の構成例を示すブロック図である。図9に示すように、変形例の収音部501は、報知部511と通信部512を備える。
<Modification>
In the above-described example, the master unit 2 controls the display on the display unit 304 of the slave unit 3 to limit the text input of other participants during text input. However, the present invention is not limited to this. .
For example, a normal hearing person may use only the sound collection unit without using the handset 3.
FIG. 9 is a block diagram illustrating a configuration example of the sound collection unit in the modification. As illustrated in FIG. 9, the sound collection unit 501 of the modification includes a notification unit 511 and a communication unit 512.

通信部512は、親機2から警告情報を受信した場合、受信した警告情報に基づいてアラート情報を生成し、生成したアラート情報を報知部511に出力する。
報知部511は、通信部512が出力するアラート情報に基づいて、発言(発話、テキスト入力)が制限されていることを報知する。報知部511は、例えばランプやLED(発光ダイオード)や液晶表示装置等である。
利用者は、この報知によって、発言(発話、テキスト入力)の入力が制限されていることを知ることができる。この結果、利用者が制限されている期間、本実施形態によれば、参加者がテキスト入力中の場合、発言(発話、テキスト入力)を制限することができる。
When receiving the warning information from the parent device 2, the communication unit 512 generates alert information based on the received warning information, and outputs the generated alert information to the notification unit 511.
The notification unit 511 notifies that the utterance (utterance, text input) is restricted based on the alert information output from the communication unit 512. The notification unit 511 is, for example, a lamp, an LED (light emitting diode), a liquid crystal display device, or the like.
The user can know that the input of the utterance (utterance, text input) is restricted by this notification. As a result, during the period when the user is restricted, according to the present embodiment, when the participant is inputting text, speech (utterance, text input) can be restricted.

変形例では、収音部が通信部と報知部を備える例を説明したが、操作部302(図1)が、通信部と報知部を備えるようにしてもよい。この場合、操作部302を装着している参加者は、操作部302の報知部が報知する情報に基づいて、発言(発話、テキスト入力)が制限されていることを知ることができる。   In the modification, the example in which the sound collection unit includes the communication unit and the notification unit has been described, but the operation unit 302 (FIG. 1) may include the communication unit and the notification unit. In this case, the participant wearing the operation unit 302 can know that speech (utterance, text input) is restricted based on information notified by the notification unit of the operation unit 302.

なお、本発明における親機2または子機3の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより親機2または子機3が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   Note that a program for realizing all or part of the functions of the parent device 2 or the child device 3 in the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system. By executing, all or part of the processing performed by the parent device 2 or the child device 3 may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。   As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, and various deformation | transformation and substitution are within the range which does not deviate from the summary of this invention. Can be added.

1…会議システム、2…親機、201…収音部、202…操作部、211…通信部、212…認証部、221…音響モデル・辞書記憶部、222…音声認識部、223…テキスト変換部、224…係り受け解析部、225…議事録作成部、226…議事録記憶部、231…テキスト取得部、240…記憶部、241…入力判定部、242…アイコン設定部、243…アイコン記憶部、244…警告生成部、245…画像出力部、3…子機、301…収音部、302…操作部、303…処理部、304…表示部、305…通信部 DESCRIPTION OF SYMBOLS 1 ... Conference system, 2 ... Master machine, 201 ... Sound collection part, 202 ... Operation part, 211 ... Communication part, 212 ... Authentication part, 221 ... Acoustic model and dictionary memory | storage part, 222 ... Voice recognition part, 223 ... Text conversion 224 ... Dependency analysis part 225 ... Minutes creation part 226 ... Minutes storage part 231 ... Text acquisition part 240 ... Storage part 241 ... Input determination part 242 ... Icon setting part 243 ... Icon storage 244 ... Warning generator 245 ... Image output unit 3 ... Slave unit 301 ... Sound pickup unit 302 ... Operation unit 303 ... Processing unit 304 ... Display unit 305 ... Communication unit

Claims (7)

収音部と、テキスト入力部、表示部を備えた子機と、
前記子機と接続をし、前記子機から入力された音声を音声認識したテキスト情報または前記子機から入力されたテキスト情報を用いて、議事録を作成し、作成した前記議事録を前記子機と共有する親機と、を備えた会議システムにおいて、
前記親機は、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるように前記親機を制御し、発言を待機させる情報を前記子機に送信する、会議システム。
A handset equipped with a sound collection unit, a text input unit, and a display unit;
Using the text information that is connected to the slave unit and voice-recognized the voice input from the slave unit or the text information input from the slave unit, the minutes are created and the created minutes are stored in the slave unit In a conference system equipped with a parent machine shared with the machine,
When the base unit participates in a conversation by text, the base unit controls the base unit to wait for the speech of another conference participant, and transmits information for waiting for the speech to the slave unit. .
前記親機は、前記子機側で音声によって入力されたのかテキストによって入力されたのかを自動判別してその旨を前記親機と前記子機に表示する、請求項1に記載の会議システム。   The conference system according to claim 1, wherein the parent device automatically determines whether the input is made by voice or text on the child device side and displays the fact on the parent device and the child device. 前記親機は、前記親機側または前記子機側でテキスト入力されている場合、その旨を前記親機と前記子機にダイアログで表示する、請求項1または請求項2に記載の会議システム。   3. The conference system according to claim 1, wherein, when text is input on the parent device side or the child device side, the parent device displays a message to that effect on the parent device and the child device in a dialog. 4. . 前記子機は、テキスト入力が終了した際、テキスト入力を終了したことを示す情報を前記親機に送信し、
前記親機は、前記子機から受信したテキスト入力を終了したことを示す情報に基づいて、前記親機と複数の前記子機に音声による発言の入力を許可する、請求項3に記載の会議システム。
When the text input is completed, the slave unit transmits information indicating that the text input is completed to the master unit,
The conference according to claim 3, wherein the master unit permits voice input to the master unit and the plurality of slave units based on information indicating completion of text input received from the slave unit. system.
通信部と、報知部と、収音部とを備える収音装置を備え、
前記親機は、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させる情報を前記子機と前記収音装置に送信し、
前記収音装置は、前記親機からの発言を待機させる情報に基づいて、発言が禁止されていることを報知する、請求項1から請求項4のいずれか1項に記載の会議システム。
A sound collection device including a communication unit, a notification unit, and a sound collection unit;
When the base unit participates in a conversation by text, the base unit transmits information to wait for the speech of another conference participant to the sub unit and the sound collection device,
The conference system according to any one of claims 1 to 4, wherein the sound collection device notifies that a speech is prohibited based on information for waiting for a speech from the parent device.
収音部と、テキスト入力部、表示部を備えた子機と、前記子機と接続をし、前記子機から入力された音声を音声認識したテキスト情報または前記子機から入力されたテキスト情報を用いて、議事録を作成し、作成した前記議事録を前記子機と共有する親機と、を備えた会議システムにおける会議システム制御方法であって、
前記親機が、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるように前記親機を制御するステップと、
前記親機が、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるよう発言を待機させる情報を前記子機に送信するステップと、
を含む会議システム制御方法。
Text information obtained by voice recognition of voice input from the slave unit connected to the slave unit and a slave unit including a sound collection unit, a text input unit, and a display unit, or text information input from the slave unit A conference system control method in a conference system comprising: a master device that creates a minutes using the master device, and a master device that shares the created minutes with the slave device,
Controlling the parent machine to wait for the utterances of other conference participants when the parent machine participates in a conversation by text; and
When the parent device participates in a conversation by text, transmitting information to make the utterance stand by so as to wait for the utterance of another conference participant, to the child device;
A conference system control method.
収音部と、テキスト入力部、表示部を備えた子機と、前記子機と接続をし、前記子機から入力された音声を音声認識したテキスト情報または前記子機から入力されたテキスト情報を用いて、議事録を作成し、作成した前記議事録を前記子機と共有する親機と、を備えた会議システムの親機のコンピュータに、
テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるように前記親機を制御するステップと、
テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるよう発言を待機させる情報を前記子機に送信するステップと、
を実行させるプログラム。
Text information obtained by voice recognition of voice input from the slave unit connected to the slave unit and a slave unit including a sound collection unit, a text input unit, and a display unit, or text information input from the slave unit To the computer of the parent machine of the conference system comprising the parent machine that creates the minutes and shares the created minutes with the child machine,
Controlling the parent machine to wait for the speech of another conference participant when participating in a conversation by text;
Sending information to the slave unit to wait for speech to wait for the speech of another conference participant when participating in a conversation by text; and
A program that executes
JP2018069481A 2018-03-30 2018-03-30 Conference system, conference system control method and program Active JP7042141B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018069481A JP7042141B2 (en) 2018-03-30 2018-03-30 Conference system, conference system control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018069481A JP7042141B2 (en) 2018-03-30 2018-03-30 Conference system, conference system control method and program

Publications (2)

Publication Number Publication Date
JP2019179480A true JP2019179480A (en) 2019-10-17
JP7042141B2 JP7042141B2 (en) 2022-03-25

Family

ID=68278799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018069481A Active JP7042141B2 (en) 2018-03-30 2018-03-30 Conference system, conference system control method and program

Country Status (1)

Country Link
JP (1) JP7042141B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6972430B1 (en) * 2020-11-19 2021-11-24 三菱電機株式会社 Terminal, input display method and input display system
JP2022056593A (en) * 2020-09-30 2022-04-11 本田技研工業株式会社 Conference support system, conference support method, and program
JP7384730B2 (en) 2020-03-30 2023-11-21 本田技研工業株式会社 Conference support system, conference support method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050500A (en) * 2004-08-09 2006-02-16 Jfe Systems Inc Conference support system
JP2012257116A (en) * 2011-06-09 2012-12-27 Hitachi Ltd Text and telephone conference system and text and telephone conference method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050500A (en) * 2004-08-09 2006-02-16 Jfe Systems Inc Conference support system
JP2012257116A (en) * 2011-06-09 2012-12-27 Hitachi Ltd Text and telephone conference system and text and telephone conference method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7384730B2 (en) 2020-03-30 2023-11-21 本田技研工業株式会社 Conference support system, conference support method, and program
JP2022056593A (en) * 2020-09-30 2022-04-11 本田技研工業株式会社 Conference support system, conference support method, and program
JP7471979B2 (en) 2020-09-30 2024-04-22 本田技研工業株式会社 Meeting Support System
JP6972430B1 (en) * 2020-11-19 2021-11-24 三菱電機株式会社 Terminal, input display method and input display system

Also Published As

Publication number Publication date
JP7042141B2 (en) 2022-03-25

Similar Documents

Publication Publication Date Title
US10924605B2 (en) System and method for asynchronous multi-mode messaging
JP7194507B2 (en) CONFERENCE SYSTEM, CONFERENCE SYSTEM CONTROL METHOD AND PROGRAM
JP6725006B2 (en) Control device and equipment control system
JP2019179480A (en) Conference system, control method therefor, and program
JPWO2017130486A1 (en) Information processing apparatus, information processing method, and program
US20160294892A1 (en) Storage Medium Storing Program, Server Apparatus, and Method of Controlling Server Apparatus
US20180286388A1 (en) Conference support system, conference support method, program for conference support device, and program for terminal
US20220046310A1 (en) Information processing device, information processing method, and computer program
JP2018174442A (en) Conference support system, conference support method, program of conference support apparatus, and program of terminal
JP2010034695A (en) Voice response device and method
CN107205198B (en) Microphone unlocking method and device
JP2015126524A (en) Remote conference program, terminal device, and remote conference method
CN109348048B (en) Call message leaving method, terminal and device with storage function
JP7119615B2 (en) Server, sound data evaluation method, program, communication system
US9386138B2 (en) Mobile terminal device, operation procedure communication system, and operation communication method
JP6950708B2 (en) Information processing equipment, information processing methods, and information processing systems
JP2010093554A (en) Communication device, text call control method and communication control program
WO2019235013A1 (en) Information processing device and information processing method
JP6962849B2 (en) Conference support device, conference support control method and program
JP7471979B2 (en) Meeting Support System
US11935449B2 (en) Information processing apparatus and information processing method
JP2023148706A (en) Speech recognition result display system, speech recognition result display device, and speech recognition result display method and non-transitory storage medium storing program
JP7384730B2 (en) Conference support system, conference support method, and program
JP2023133782A (en) Speech recognition text display system, speech recognition text display device, speech recognition text display method and program
JP7316971B2 (en) CONFERENCE SUPPORT SYSTEM, CONFERENCE SUPPORT METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220314

R150 Certificate of patent or registration of utility model

Ref document number: 7042141

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350