JP2019179480A - Conference system, control method therefor, and program - Google Patents
Conference system, control method therefor, and program Download PDFInfo
- Publication number
- JP2019179480A JP2019179480A JP2018069481A JP2018069481A JP2019179480A JP 2019179480 A JP2019179480 A JP 2019179480A JP 2018069481 A JP2018069481 A JP 2018069481A JP 2018069481 A JP2018069481 A JP 2018069481A JP 2019179480 A JP2019179480 A JP 2019179480A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- text
- input
- information
- participant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、会議システム、会議システム制御方法およびプログラムに関する。 The present invention relates to a conference system, a conference system control method, and a program.
複数人が会議をする場合において、各発話者の発話内容をテキスト化して、発話内容をテキスト化して各利用者が所有する再生装置に表示することが提案されている(例えば特許文献1参照)。なお、特許文献1に記載の技術では、発話を話題毎に音声メモとして録音し、議事録作成者が、録音された音声メモを再生してテキスト化を行う。そして、特許文献1に記載の技術では、テキスト化したものを用いて議事録を作成する。 In the case where a plurality of people hold a meeting, it has been proposed that the utterance content of each speaker is converted into text and the utterance content is converted into text and displayed on a playback device owned by each user (see, for example, Patent Document 1). . In the technique described in Patent Document 1, the utterance is recorded as a voice memo for each topic, and the minutes creator reproduces the recorded voice memo and converts it into text. And with the technique of patent document 1, the minutes are created using what was converted into text.
しかしながら、聴覚障がい者と健聴者とが一緒に会議をする場合、健聴者は音声発話によって会議に参加し、聴覚障がい者は子機からテキスト入力をすることにより会議に参加することになる。特許文献1に記載の技術では、聴覚障がい者が、子機でテキスト入力されている間に、健聴者が音声発話されると、聴覚障がい者は会議の内容についていけない可能性がある。 However, when a hearing-impaired person and a normal hearing person hold a meeting together, the normal hearing person participates in the meeting by voice utterance, and the hearing-impaired person participates in the meeting by inputting text from the handset. With the technique described in Patent Document 1, if a hearing impaired person speaks a voice while a person with hearing impairment is inputting text on the handset, the person with hearing impairment may not be able to keep up with the content of the conference.
本発明は、上記の問題点に鑑みてなされたものであって、健聴者と聴覚障がい者とが一緒に会議に参加しやすくすることができる会議システム、会議システム制御方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and provides a conference system, a conference system control method, and a program capable of facilitating a normal hearing person and a hearing impaired person to participate in a conference together. With the goal.
(1)上記目的を達成するため、本発明の一態様に係る会議システム(1)は、収音部(301)と、テキスト入力部(操作部302)、表示部(表示部304)を備えた子機(3、3a、3b、・・・)と、前記子機と接続をし、前記子機から入力された音声を音声認識したテキスト情報または前記子機から入力されたテキスト情報を用いて、議事録を作成し、作成した前記議事録を前記子機と共有する親機(2)と、を備えた会議システムにおいて、前記親機は、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるように前記親機を制御し、発言を待機させる情報を前記子機に送信する。 (1) In order to achieve the above object, a conference system (1) according to an aspect of the present invention includes a sound collection unit (301), a text input unit (operation unit 302), and a display unit (display unit 304). The slave unit (3, 3a, 3b,...) Is connected to the slave unit, and the text information obtained by voice recognition of the voice input from the slave unit or the text information input from the slave unit is used. In a conference system comprising a master unit (2) that creates a minutes and shares the created minutes with the slave unit, when the master unit participates in a conversation by text, The master unit is controlled to wait for the speech of another conference participant, and information for waiting for the speech is transmitted to the slave unit.
(2)また、本発明の一態様に係る会議システムにおいて、前記親機は、前記子機側で音声によって入力されたのかテキストによって入力されたのかを自動判別してその旨を前記親機と前記子機に表示するようにしてもよい。 (2) Also, in the conference system according to one aspect of the present invention, the master unit automatically determines whether the slave unit has been input by voice or text and indicates that fact as the master unit. You may make it display on the said subunit | mobile_unit.
(3)また、本発明の一態様に係る会議システムにおいて、前記親機は、前記親機側または前記子機側でテキスト入力されている場合、その旨を前記親機と前記子機にダイアログで表示するようにしてもよい。 (3) Further, in the conference system according to one aspect of the present invention, when the parent device is inputting text on the parent device side or the child device side, a dialog to that effect is sent to the parent device and the child device. You may make it display with.
(4)また、本発明の一態様に係る会議システムにおいて、前記子機は、テキスト入力が終了した際、テキスト入力を終了したことを示す情報を前記親機に送信し、前記親機は、前記子機から受信したテキスト入力を終了したことを示す情報に基づいて、前記親機と複数の前記子機に音声による発言の入力を許可するようにしてもよい。 (4) In the conference system according to one aspect of the present invention, when the text input is completed, the slave device transmits information indicating the completion of the text input to the master device. Based on the information indicating that the text input received from the slave unit has been completed, voice input may be permitted to the master unit and the plurality of slave units.
(5)また、本発明の一態様に係る会議システムにおいて、通信部と、報知部と、収音部とを備える収音装置を備え、前記親機は、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させる情報を前記子機と前記収音装置に送信し、前記収音装置は、前記親機からの発言を待機させる情報に基づいて、発言が禁止されていることを報知するようにしてもよい。 (5) In the conference system according to one aspect of the present invention, the conference system includes a sound collection device including a communication unit, a notification unit, and a sound collection unit, and the parent device participates in a conversation by text. In addition, information for waiting for the speech of another conference participant is transmitted to the handset and the sound collecting device, and the sound collecting device is prohibited from speaking based on the information for waiting for the speech from the parent device. You may make it alert | report that it is.
(6)上記目的を達成するため、本発明の一態様に係る会議システム制御方法は、収音部と、テキスト入力部、テキスト表示部を備えた子機と、前記子機と接続をし、前記子機から入力された音声を音声認識したテキスト情報または前記子機から入力されたテキスト情報を用いて、議事録を作成し、作成した前記議事録を前記子機と共有する親機と、を備えた会議システムにおける会議システム制御方法であって、前記親機が、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるように前記親機を制御するステップと、前記親機が、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるよう発言を待機させる情報を前記子機に送信するステップと、を含む。 (6) In order to achieve the above object, a conference system control method according to an aspect of the present invention includes a sound collection unit, a text input unit, a slave unit including a text display unit, and a connection to the slave unit. Using the text information obtained by voice recognition of the voice input from the slave unit or the text information input from the slave unit, a minutes is created, and the master unit that shares the created minutes with the slave unit, A control method for a conference system in a conference system comprising the steps of: controlling the master unit to wait for the speech of another conference participant when the master unit participates in a conversation by text; And when the base unit participates in a conversation by text, the base unit transmits information for waiting for a speech to wait for the speech of another conference participant to the base unit.
(7)上記目的を達成するため、本発明の一態様に係るプログラムは、収音部と、テキスト入力部、テキスト表示部を備えた子機と、前記子機と接続をし、前記子機から入力された音声を音声認識したテキスト情報または前記子機から入力されたテキスト情報を用いて、議事録を作成し、作成した前記議事録を前記子機と共有する親機と、を備えた会議システムの親機のコンピュータに、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるように前記親機を制御するステップと、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるよう発言を待機させる情報を前記子機に送信するステップと、を実行させる。 (7) In order to achieve the above object, a program according to one aspect of the present invention connects a slave unit including a sound collection unit, a text input unit, and a text display unit, and the slave unit, and the slave unit Using the text information obtained by voice recognition of the speech input from the text or the text information input from the slave unit, and a master unit for sharing the created minutes with the slave unit When the computer of the parent device of the conference system participates in the conversation by text, the step of controlling the parent device to wait for the utterance of another conference participant, and the case where the conversation is joined by text And a step of transmitting to the slave unit information for waiting to speak so as to wait for the speech of another conference participant.
上述した(1)または(6)あるいは(7)によれば、健聴者と聴覚障がい者とが一緒に会議に参加しやすくなるという効果を奏する。 According to the above (1), (6), or (7), there is an effect that it becomes easy for the normal hearing person and the hearing impaired person to participate in the conference together.
上述した(2)または(3)によれば、子機でテキスト入力された場合に他の参加者の発話やテキスト入力を停止させることができる。
上述した(4)によれば、他の参加者が発言やテキスト入力を再開することができる。
上述した(5)によれば、子機を使用せずにピンマイク等の収音装置を装着している参加者にも、テキスト入力中に発話を禁止させることができる。
According to the above (2) or (3), when a text is input by the slave unit, the speech and text input of other participants can be stopped.
According to (4) described above, other participants can resume speech and text input.
According to (5) described above, a participant who is wearing a sound collecting device such as a pin microphone without using a handset can be prohibited from speaking during text input.
以下、本発明の実施の形態について図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
まず、本実施形態の会議システムが使用される状況例を説明する。
本実施形態の会議システムは、2人以上が参加して行われる会議で用いられる。参加者のうち、発話が不自由な人が会議に参加していてもよい。発話可能な参加者は、参加者毎にマイクロフォンを装着するか、マイクロフォンを備える端末(スマートフォン、タブレット端末、パーソナルコンピュータ等)を用いる。聴覚障がいの参加者は、テキストを入力可能な端末を用いる。会議システムは、参加者の発話した音声信号に対して音声認識、テキスト化して、各自の端末にテキストを表示させる。また、会議システムは、聴覚障がい者が入力したテキスト情報を各自の端末にテキストを表示させる。会議システムは、聴覚障がい者がテキスト情報を入力している際、各自の端末にテキストが入力中であることを表示させる。
First, an example of a situation in which the conference system of this embodiment is used will be described.
The conference system according to the present embodiment is used in a conference held by two or more people. Among the participants, a person who is not able to speak may be participating in the conference. Participants who can speak use a microphone for each participant or use a terminal (smart phone, tablet terminal, personal computer, etc.) equipped with a microphone. Participants with hearing impairments use terminals capable of inputting text. The conference system recognizes the voice signal uttered by the participant and converts it into text, and displays the text on each terminal. In addition, the conference system displays text information input by the hearing impaired person on each terminal. When the hearing impaired person is inputting text information, the conference system displays that the text is being input on each terminal.
図1は、本実施形態に係る会議システム1の構成例を示すブロック図である。
図1に示すように、会議システム1は、親機2と、子機3a、子機3b、・・・を含んで構成される。なお、子機3a、子機3b、・・・のうち1つを特定しない場合は、単に子機3という。
親機2と子機3とは、有線または無線のネットワーク4を介して接続されている。
親機2には、表示装置21が接続されている。なお、表示装置21は、親機2が備えていてもよい。
FIG. 1 is a block diagram illustrating a configuration example of a conference system 1 according to the present embodiment.
As shown in FIG. 1, the conference system 1 includes a
The
A
親機2は、収音部201、操作部202、通信部211、認証部212、音響モデル・辞書記憶部221、音声認識部222、テキスト変換部223、係り受け解析部224、議事録作成部225、議事録記憶部226、テキスト取得部231、記憶部240、入力判定部241、アイコン設定部242、アイコン記憶部243、警告生成部244、および画像出力部245を備える。
The
子機3は、収音部301、操作部302(テキスト入力部)、処理部303、表示部304、および通信部305を備える。収音部301、操作部302、処理部303、表示部304、および通信部305は、バス306を介して接続されている。
The subunit | mobile_unit 3 is provided with the
<子機3>
まず、子機3について説明する。
子機3は、例えばスマートフォン、タブレット端末、パーソナルコンピュータ等である。なお、子機3は、音声出力部、モーションセンサー、GPS(Global Positioning System;全地球測位システム)等を備えていてもよい。
<Slave unit 3>
First, the subunit | mobile_unit 3 is demonstrated.
The subunit | mobile_unit 3 is a smart phone, a tablet terminal, a personal computer etc., for example. In addition, the subunit | mobile_unit 3 may be provided with the audio | voice output part, the motion sensor, GPS (Global Positioning System; Global positioning system) etc.
収音部301は、マイクロフォンである。収音部301は、利用者の音声信号を収音し、収音した音声信号をアナログ信号からデジタル信号に変換して、デジタル信号に変換した音声信号を処理部303に出力する。
The
操作部302は、利用者の操作を検出し、検出した結果を処理部303に出力する。操作部302は、例えば表示部304上に設けられたタッチパネル式のセンサー、または優先接続または無線接続のキーボード等である。
The
処理部303は、操作部302が操作された操作結果に基づいて設定情報を生成し、生成した設定情報を通信部305に出力する。ここで、設定情報には、参加者の識別情報、収音部の使用の有無を示す情報、操作部の使用の有無を示す情報が含まれている。処理部303は、操作部302が操作された操作結果に基づいてログイン指示を生成し、生成したログイン指示を通信部305に出力する。ここで、ログイン指示には、参加者の識別情報、子機3の識別情報が含まれている。処理部303は、操作部202が操作された操作結果に基づくテキスト情報に識別情報を付加して通信部305に出力する。処理部303は、収音部301が出力する音声信号に識別情報を付加して通信部305に出力する。処理部303は、通信部305が出力する画像データを取得し、取得した画像データを表示部304に出力する。処理部303は、通信部305が出力するログインを許可する情報に基づいて、親機2との通信を確立する。
The
表示部304は、処理部303が出力した画像データを表示する。表示部304は、例えば液晶表示装置、有機EL(エレクトロルミネッセンス)表示装置、電子インク表示装置等である。なお、表示部304上に表示される画像については後述する。
The
通信部305は、処理部303が出力する設定情報を、ネットワーク4を介して親機2へ送信する。通信部305は、処理部303が出力するログイン指示を、ネットワーク4を介して親機2へ送信する。通信部305は、処理部303が出力するテキスト情報または音声信号を、ネットワーク4を介して親機2へ送信する。なお、送信するテキスト情報または音声信号には、利用者の識別情報と子機3の識別情報が含まれている。通信部305は、親機2が送信した画像データを受信し、受信した画像データを処理部303に出力する。通信部305は、親機2が送信したログインを許可する情報を受信した場合、受信したログインを許可する情報を処理部303に出力する。
The
<親機2>
次に親機2について説明する。
親機2は、例えばノートパソコン等である。
<
Next, the
The
収音部201は、マイクロフォンである。収音部201は、利用者の音声信号を収音し、収音した音声信号をアナログ信号からデジタル信号に変換して、デジタル信号に変換した音声信号を音声認識部222に出力する。
The
操作部202は、利用者の操作を検出し、検出した結果をテキスト取得部231と入力判定部241に出力する。操作部202は、例えば表示装置21上に設けられたタッチパネル式のセンサー、またはキーボードである。操作部202は、ログイン処理の際、操作を検出した結果を、認証部212に出力する。
The
通信部211は、子機3が送信した音声信号を受信し、受信した音声信号を音声認識部222に出力する。通信部211は、子機3が送信したテキスト情報を受信し、受信したテキスト情報を係り受け解析部224と入力判定部241に出力する。通信部211は、子機3が送信したログイン指示を受信し、受信したログイン指示を認証部212に出力する。通信部211は、画像出力部245が出力する画像データを、ネットワーク4を介して子機3へ送信する。通信部211は、認証部212が出力するログインを許可する情報を、ネットワーク4を介して子機3へ送信する。
The
認証部212は、通信部211が出力するログイン指示に含まれる参加者の識別情報と子機3の識別情報に基づいて、ログインを許可するか否かを判定する。認証部212は、ログインを許可する場合、ログインを許可する情報を通信部211に出力する。認証部212は、操作部202が操作された結果に基づいて、親機2の利用者のログインを許可するか否かを判定する。認証部212は、ログインを許可する場合、各機能部にログインを許可する情報を出力し、各機能部の動作を許可する。なお、各機能部とは、通信部211、認証部212、音響モデル・辞書記憶部221、音声認識部222、テキスト変換部223、係り受け解析部224、議事録作成部225、議事録記憶部226、テキスト取得部231、記憶部240、入力判定部241、アイコン設定部242、アイコン記憶部243、警告生成部244、および画像出力部245である。
音響モデル・辞書記憶部221は、例えば音響モデル、言語モデル、単語辞書等を格納している。音響モデルとは、音の特徴量に基づくモデルであり、言語モデルとは、単語とその並び方の情報のモデルである。また、単語辞書とは、多数の語彙による辞書であり、例えば大語彙単語辞書である。なお、親機2は、音響モデル・辞書記憶部221に格納されていない単語等を格納して更新するようにしてもよい。
The acoustic model /
音声認識部222は、収音部201が出力する音声信号、または通信部211が出力する音声信号を取得する。音声認識部222は、音声信号から発話区間の音声信号を検出する。発話区間の検出は、例えば所定のしきい値以上の音声信号を発話区間として検出する。なお、音声認識部222は、発話区間の検出を周知の他の手法を用いて行ってもよい。音声認識部222は、検出した発話区間の音声信号に対して、音響モデル・辞書記憶部221を参照して、周知の手法を用いて音声認識を行う。なお、音声認識部222は、例えば特開2015−64554号公報に開示されている手法等を用いて音声認識を行う。音声認識部222は、認識した認識結果と音声信号をテキスト変換部223に出力する。なお、音声認識部222は、認識結果と音声信号とを、例えば1文毎、または発話句間毎、または発話毎に対応つけて出力する。
なお、音声認識部222は、音声信号が同時に入力された場合、例えば時分割処理によって収音部(201または301)毎に音声認識を行う。また、音声認識部222は、マイクロフォンがマイクロフォンアレイの場合、音源分離処理、音源定位処理、音源同定処理等、周知の音声認識処理も行う。
The
Note that the
テキスト変換部223は、音声認識部222が出力する認識結果に対して、音響モデル・辞書記憶部221を参照して、テキストに変換する。なお、テキスト情報は、少なくとも1文字の情報を含む。テキスト変換部223は、変換したテキスト情報と、取得した音声信号を係り受け解析部224に出力する。なお、テキスト変換部223は、発話情報を認識した結果から「あー」、「えーと」、「えー」、「まあ」等の間投詞を削除してテキストに変換するようにしてもよい。
The
係り受け解析部224は、テキスト変換部223が出力したテキスト情報または通信部211が出力したテキスト情報に対して、音響モデル・辞書記憶部221を参照して、形態素解析と係り受け解析を行う。なお、係り受け解析には、例えば、Shift−reduce法や全域木の手法やチャンク同定の段階適用手法においてSVM(Support Vector Machines)を用いる。
または、係り受け解析部224は、テキスト取得部231が出力するテキスト情報を取得する。係り受け解析部224は、テキスト情報に対して、音響モデル・辞書記憶部221を参照して、形態素解析と係り受け解析を行う。
係り受け解析部224は、形態素解析と係り受け解析を行ったテキスト情報と、解析した結果を議事録作成部225に出力する。なお、係り受け解析部224は、テキスト変換部223が出力する音声信号を取得した場合、取得した音声信号も議事録作成部225に出力する。
The
Alternatively, the
The
議事録作成部225は、係り受け解析部224が出力したテキスト情報に基づいて、発話者毎に分けて、議事録を作成する。議事録作成部225は、作成した議事録と対応する音声信号を議事録記憶部226に記憶させる。また、議事録作成部225は、作成した議事録を画像出力部245に出力する。なお、議事録作成部225は、「あー」、「えーと」、「えー」、「まあ」等の間投詞を削除して議事録を作成するようにしてもよい。
The
議事録記憶部226は、議事録と音声信号を対応つけて記憶する。
The
テキスト取得部231は、操作部202が出力する操作結果を取得し、取得した結果に基づいてテキスト情報を生成する。テキスト取得部231は、生成したテキスト情報をテキスト変換部223に出力する。
The
記憶部240は、参加者または参加予定者の設定情報を記憶する。設定情報には、参加者名、参加者を識別するための識別子、参加者に対応付けられたアイコン、参加者の収音部(201または301)の使用の有無を示す情報、参加者の操作部(202または302)の使用の有無を示す情報等が含まれている。
The
入力判定部241は、収音部201が出力する音声信号に基づいて、親機2に対して収音部201の使用の有無を判定する。また、入力判定部241は、通信部211が出力する音声信号に基づいて、子機3に対して収音部301の使用の有無を判定する。入力判定部241は、例えば、音声信号の大きさが所定時間継続して所定の閾値未満の場合、音声信号が入力されていないと判定して収音部(201または301)を使用していないと判定するようにしてもよい。また、入力判定部241は、音声信号の大きさが所定時間継続して所定の閾値以上の場合、音声信号が入力されていると判定して収音部(201または301)を使用していると判定するようにしてもよい。
入力判定部241は、操作部202が出力する操作結果に基づいて、親機2に対して操作部202の使用の有無を判定する。また、入力判定部241は、通信部211が出力するテキスト情報に基づいて、子機3に対して操作部302の使用の有無を判定する。入力判定部241は、例えば、所定時間継続して操作部(202または302)から操作結果が検出されない場合、操作部(202または302)を使用していないと判定するようにしてもよい。また、入力判定部241は、所定時間継続して操作部(202または302)から操作結果が検出された場合、操作部(202または302)を使用していると判定するようにしてもよい。
入力判定部241は、収音部(201または301)を使用すると判定した場合、収音部(201または301)の使用を示す情報をアイコン設定部242に出力する。また、入力判定部241は、操作部(202または302)を使用すると判定した場合、操作部(202または302)の使用を示す情報をアイコン設定部242に出力する。
入力判定部241は、操作部202が操作されているか、通信部211からテキスト情報が入力されている期間、他の発話を禁止するため、発話禁止指示(発言を待機させる情報)を警告生成部244に出力する。なお、発話禁止指示には、操作部202が操作されている場合、親機2を使用している利用者を示す情報が含まれ、通信部211からテキスト情報が入力されている場合、子機3を使用してテキスト入力している利用者を示す情報が含まれる。
The
The
When it is determined that the sound collection unit (201 or 301) is to be used, the
The
アイコン設定部242は、参加者に対応するアイコンの画像をアイコン記憶部243から読み出し、読み出したアイコンの画像を画像出力部245に出力する。なお、参加者は、会議システムに初めてログインして使用を開始する際、記憶されているアイコンの中から自分に対応させるアイコンの画像を選択する。また、アイコン設定部242は、入力判定部241が出力する収音部(201または301)の使用を示す情報に基づいて、収音部(201または301)の使用を示すアイコンの画像を画像出力部245に出力する。アイコン設定部242は、入力判定部241が出力する操作部(202または302)の使用を示す情報に基づいて、操作部(202または302)の使用を示すアイコンの画像を画像出力部245に出力する。なお、アイコンについては後述する。
The
アイコン記憶部243は、参加者に対応するアイコンを記憶する。アイコン記憶部243は、収音部(201または301)の使用の有無を示すアイコンを記憶する。アイコン記憶部243は、操作部(202または302)の使用の有無を示すアイコンを記憶する。
The
警告生成部244は、入力判定部241が出力する発話禁止指示に基づいて、警告情報(発言を待機させる情報)を生成する。なお、警告情報には、テキストを入力している利用者の情報が含まれる。警告生成部244は、生成した警告情報を画像出力部245に出力する。
The
画像出力部245は、議事録作成部225が出力する議事録情報と、警告生成部244が出力する警告情報を取得する。画像出力部245は、議事録情報に基づいて画像データを生成し、生成した画像データを通信部211と表示装置21に出力する。画像出力部245は、警告生成部244から警告情報を取得した場合、取得した警告情報に基づいて、表示装置21上にアラートを表示させる。画像出力部245は、警告生成部244から警告情報を取得した場合、取得した警告情報を、通信部211を介して子機3へ送信する。
The
表示装置21は、例えば液晶表示装置、有機EL表示装置、電子インク表示装置等である。表示装置21は、画像出力部が出力する画像データを表示する。なお、表示装置21は、親機2が備えていてもよい。
The
<親機2の表示画像>
次に、親機2が表示装置21上に表示させる画像例を説明する。
図2は、本実施形態に係る親機2が表示装置21上に表示させる画像例を示す図である。
画像g10が、親機2の表示装置21上に表示される画像である。
<Display image of
Next, an example of an image that the
FIG. 2 is a diagram illustrating an image example displayed on the
The image g10 is an image displayed on the
領域g100の画像は、参加者情報編集を行う領域である。
領域g101は、参加者情報の領域である。符号g102は、参加者に対応したアイコン画像である。符号g103は、参加者の名前である。符号104は、参加者が親機2の操作部202または子機3の操作部302によってテキスト入力を行うことを示すアイコンである。符号g105は、参加者が親機2の収音部201または子機3の収音部301によって発話を行うことを示すアイコンである。符号g106は、参加者が使用するマイクロフォンの番号(または識別情報)である。
The image in the area g100 is an area for editing participant information.
An area g101 is an area for participant information. A symbol g102 is an icon image corresponding to the participant. Symbol g103 is the name of the participant. Reference numeral 104 denotes an icon indicating that the participant inputs text using the
領域g200は、議事録を表示する領域である。なお、図2では、ログイン後の状態を示している。
符号g201は、ログイン/ログアウトのボタン画像である。
符号g202は、会議システム1の開始/終了のボタン画像である。符号g203は、会議システム1の使用中に点灯する表示である。
符号g204は、議事録記憶部226が記憶する議事録の表示や音声信号の再生を行うボタン画像である。
符号g205は、親機2の利用者が収音部201の使用有無を選択するボタン画像である。
The area g200 is an area for displaying minutes. FIG. 2 shows a state after login.
Reference numeral g201 denotes a login / logout button image.
A symbol g202 is a button image for starting / ending the conference system 1. A symbol g203 is a display that is lit when the conference system 1 is in use.
A symbol g204 is a button image for displaying the minutes stored in the
A symbol g205 is a button image for the user of the
符号g211は、参加者のうち、発話した人に対応するアイコン画像である。
符号g212は、第1の参加者が操作部(202または302)を操作して入力したテキスト情報である。
符号g213は、第1の参加者が操作部(202または302)を操作して入力した絵文字である。
符号g214は、第1の参加者が発話した日時を示す情報である。
符号g215は、第1の参加者の名前である。
A symbol g211 is an icon image corresponding to a person who speaks among participants.
Symbol g212 is text information input by the first participant operating the operation unit (202 or 302).
Reference numeral g213 is a pictograph input by the first participant operating the operation unit (202 or 302).
Reference numeral g214 is information indicating the date and time when the first participant speaks.
Symbol g215 is the name of the first participant.
符号g221は、第2の参加者が操作部(202または302)を操作して入力したテキスト情報である。
符号g222は、第2の参加者が発話した内容を音声認識したテキスト情報である。
符号g223は、操作部(202または302)を操作してテキストを入力したことを示すアイコンである。
符号g224は、収音部(201または301)によって発話を入力したことを示すアイコンである。
Symbol g221 is text information input by the second participant operating the operation unit (202 or 302).
A symbol g222 is text information obtained by voice recognition of the content uttered by the second participant.
A symbol g223 is an icon indicating that text has been input by operating the operation unit (202 or 302).
A symbol g224 is an icon indicating that an utterance is input by the sound collection unit (201 or 301).
符号g231は、第3の参加者が発話した内容を音声認識したテキスト情報である。
符号g241は、第1の参加者が操作部(202または302)を操作して入力したテキスト情報である。なお、このテキスト情報は、入力途中を示している。
Symbol g231 is text information obtained by voice recognition of the content uttered by the third participant.
Symbol g241 is text information input by the first participant operating the operation unit (202 or 302). Note that this text information indicates the middle of input.
符号g251は、第1の参加者がテキスト入力中であるため、他の参加者の発話を禁止するためのアラートの一例である。アラートは、例えば『鈴木さん(注;第1の参加者)がテキスト入力中 しばらくお待ちください』である。このように、テキスト入力中に他の参加者の発話を禁止することで、本実施形態によれば、他の参加者の発言を待機させることができる。 Symbol g251 is an example of an alert for prohibiting other participants from speaking because the first participant is inputting text. The alert is, for example, “Please wait while Mr. Suzuki (Note; first participant) is entering text”. Thus, by prohibiting the speech of other participants during text input, according to this embodiment, it is possible to wait for the speech of other participants.
符号g261は、第1の参加者である鈴木さんが親機2を使用している場合、表示装置21上に表示されるアラートの一例である。アラートは、例えば『鈴木さん(第1の参加者);「入力終了により再開OK」を出してください』である。なお、参加者が、子機3によってテキスト入力を行っている場合、その参加者が使用している子機3の表示部304上に符号g261のアラートが表示される。この場合、親機2は、通信部211が受信した情報に基づいて、どの子機3でテキスト入力が行われているのかを判定し、判定した結果に基づいて、警告情報を該当する子機3へ送信する。子機3は、受信した警告情報に基づいて、符号g261のアラートを表示させる。
Reference g261 is an example of an alert displayed on the
なお、図2に示した画像は一例であり、表示装置21上に表示される画像はこれに限らない。例えば、親機2を使用する参加者が、操作部202を用いてテキスト入力を行う場合、画像g10に、さらに「再開OK」ボタン画像(図4、g310)を表示させる。テキスト入力を終了したとき、参加者は、「再開OK」ボタン画像を押すことで、他の参加者のテキスト入力を許可するように指示する。これにより、入力判定部241は、発話禁止指示の出力を停止する。
The image shown in FIG. 2 is an example, and the image displayed on the
<子機3の表示画面>
次に、子機3の表示部304上に表示される画像例を説明する。
図3は、本実施形態に係る子機3の表示部304に表示される参加者情報の画像例を示す図である。
画像g30は、参加者情報の表示に、子機3の表示部304上に表示される画像である。
<Display screen of handset 3>
Next, an example of an image displayed on the
FIG. 3 is a diagram showing an example of participant information images displayed on the
The image g30 is an image displayed on the
領域g301は、会議のディスカッションテーマを表示する領域である。
領域g302は、子機3の利用者に関する情報を表示する領域である。この領域は、参加者に対応するアイコン、参加者の氏名、参加者が操作部302を使用することを示すアイコンが表示されている例である。
An area g301 is an area for displaying a conference discussion theme.
The area g302 is an area for displaying information related to the user of the child device 3. This area is an example in which an icon corresponding to the participant, the name of the participant, and an icon indicating that the participant uses the
領域g303は、状態を示す領域である。図3に示す例では、参加者がテキストを入力中の例である。 A region g303 is a region indicating a state. In the example shown in FIG. 3, the participant is inputting text.
領域g304は、参加者情報を表示する領域である。この領域には、各参加者に対応するアイコン、各参加者が入力に使用するのが収音部(201または301)であることを示すアイコン、操作部(202または302)であることを示すアイコン、各参加者の名前が表示される。 An area g304 is an area for displaying participant information. In this area, an icon corresponding to each participant, an icon indicating that each participant uses the sound collection unit (201 or 301), and an operation unit (202 or 302) are used for input. An icon and the name of each participant are displayed.
領域g305は、操作ボタンの画像等を表示する領域である。操作ボタンとは、例えば、1つ前の画面に戻るボタン、ホーム画面に戻るボタン等である。 An area g305 is an area for displaying an operation button image or the like. The operation buttons are, for example, a button for returning to the previous screen, a button for returning to the home screen, and the like.
図4は、本実施形態に係るテキスト入力を行っている参加者の子機3の表示部304に表示される議事録情報の画像例を示す図である。なお、図4は、子機3の利用者である参加者がテキスト入力中に表示される画面である。
画像g30aは、議事録情報時に、子機3の表示部304上に表示される画像である。
FIG. 4 is a diagram illustrating an image example of minutes information displayed on the
The image g30a is an image displayed on the
符号g310は、テキスト入力が終了した後に、他の参加者の発言の再開を許可する再開OKのボタン画像である。
符号g311は、テキストを入力している参加者の子機3に表示されるアラートである。アラートは、例えば『「入力終了により再開OK」を出してください』である。
Reference g310 is a restart OK button image that permits the restart of another participant's speech after the text input is completed.
Symbol g311 is an alert displayed on the child device 3 of the participant who is inputting the text. The alert is, for example, “Please issue“ Restart OK when input is completed ””.
符号g312は、第2の参加者が発話した内容を音声認識したテキスト情報である。
符号g313は、第1の参加者が入力しているテキスト情報である。
領域g314は、テキスト入力部の領域である。この領域の画像は、テキスト入力が禁止されていないとき、すなわち他の参加者がテキスト入力を行っていないときである。
符号g315は、子機3の利用者である参加者が入力しているテキスト情報である。なお、操作部302は、表示部304上に表示されるソフトウェアキーボードであってもよく、子機3と有線または無線で接続されていてもよい。
Reference numeral g312 is text information obtained by voice recognition of the content uttered by the second participant.
Symbol g313 is text information input by the first participant.
A region g314 is a region for the text input unit. The image in this area is when text input is not prohibited, that is, when no other participant is inputting text.
A symbol g315 is text information input by a participant who is a user of the child device 3. The
図5は、本実施形態に係るテキスト入力を行っていない参加者の子機3の表示部304に表示される議事録情報の画像例を示す図である。なお、図5は、第1の参加者(鈴木さん)がテキスト入力中に第2の参加者(藤沢さん)の表示される画面である。
画像g40aは、議事録情報時に、第2の参加者の子機3の表示部304上に表示される画像である。
FIG. 5 is a diagram showing an example of minutes information displayed on the
The image g40a is an image displayed on the
符号g411は、第1の参加者(鈴木さん)がテキストを入力しているとき、第2の参加者(藤沢さん)の子機3に表示されるアラートである。アラートは、例えば『鈴木さんがテキスト入力中 発言をしばらくお待ちください』である。なお、このアラートは、例えば、子機3の利用者に関する情報を表示する領域(g302、図3)に表示される。なお、図5の例では、この参加者が収音部301と操作部302とによって入力することを示すアイコン画像が、子機3の利用者に関する情報を表示する領域に表示されている。
Reference sign g411 is an alert displayed on the child device 3 of the second participant (Mr. Fujisawa) when the first participant (Mr. Suzuki) is inputting text. The alert is, for example, “Please wait for a while while Mr. Suzuki is entering text”. This alert is displayed, for example, in an area (g302, FIG. 3) for displaying information related to the user of the slave unit 3. In the example of FIG. 5, an icon image indicating that the participant inputs using the
符号g412は、第1の参加者(鈴木さん)がテキストを入力しているため、この子機3の利用者に対してテキスト入力を禁止するアラートの画像である。アラートは、『鈴木さんがテキスト入力中 しばらくお待ちください』である。このアラートは、例えばテキスト入力部の領域に表示される。 Reference numeral g412 is an image of an alert that prohibits the user of the handset 3 from entering text because the first participant (Mr. Suzuki) has entered text. The alert is “Please wait while Mr. Suzuki enters text”. This alert is displayed, for example, in the text input area.
なお、図3〜図5に示した画像は一例であり、表示部304上に表示される画像はこれに限らない。
3 to 5 are examples, and the image displayed on the
図6は、本実施形態に係る親機2の表示装置21、または子機3の表示部304上に表示されるアイコン画像例を示す図である。
符号g51が示す領域の画像は、収音部(201または301;マイクともいう)によって入力をしている参加者に対するアイコン画像の例である。このように、収音部を用いる利用者の表示は、例えば図2における第3の参加者(吉田さん)に対応する。
FIG. 6 is a diagram illustrating an example of icon images displayed on the
The image in the region indicated by reference sign g51 is an example of an icon image for a participant who is inputting through the sound collection unit (201 or 301; also referred to as a microphone). In this way, the display of the user using the sound collection unit corresponds to, for example, the third participant (Mr. Yoshida) in FIG.
符号g52が示す領域の画像は、操作部(202または302;子機ともいう)によって入力をしている参加者に対するアイコン画像の例である。このように、操作部を用いる利用者の表示は、例えば図2における第1の参加者(鈴木さん)に対応する。 The image in the region indicated by reference sign g52 is an example of an icon image for a participant who is inputting through the operation unit (202 or 302; also referred to as a slave unit). Thus, the display of the user using the operation unit corresponds to, for example, the first participant (Mr. Suzuki) in FIG.
符号g53が示す領域の画像は、収音部(201または301;マイクともいう)と操作部(202または302)によって入力をしている参加者に対するアイコン画像の例である。このように、収音部と操作部を用いる利用者の表示は、例えば図2における第2の参加者(藤沢さん)に対応する。 The image in the area indicated by reference sign g53 is an example of an icon image for a participant who is inputting through the sound collection unit (201 or 301; also referred to as a microphone) and the operation unit (202 or 302). In this way, the display of the user using the sound collection unit and the operation unit corresponds to, for example, the second participant (Mr. Fujisawa) in FIG.
<記憶部240記憶する情報>
次に、親機2の記憶部240が記憶する情報例を説明する。
図7は、本実施形態に係る親機2の記憶部240が記憶する情報例を示す図である。
図7に示すように、記憶部240は、参加者毎に、参加者名にアイコンと使用部(収音部または操作部)を関連付けて記憶する。図7に示す例では、第1の参加者名が「鈴木」であり、アイコンが「アイコン1」であり、使用部が「操作部」の例である。
<Information stored in the
Next, an example of information stored in the
FIG. 7 is a diagram illustrating an example of information stored in the
As illustrated in FIG. 7, the
<親機2が行う処理>
次に、親機2が行う処理手順例を説明する。
図8は、本実施形態に係る親機2が行う処理手順例を示すフローチャートである。
<Processing performed by
Next, an example of a processing procedure performed by the
FIG. 8 is a flowchart illustrating an example of a processing procedure performed by the
(ステップS1)利用者は、操作部202を操作して、ログイン手続きを行う。例えば、利用者は、利用者を識別する識別情報(利用者ID)とパスワードを入力する。続けて、認証部212は、操作部202が操作された操作結果に基づいて、ログイン手続きを行う。
(Step S1) The user operates the
(ステップS2)利用者は、操作部202を操作して、アイコンの選択や名前の入力等の設定を行う。なお、利用者は、操作部202を操作して、入力を収音部201によって行うか操作部202によって行うかを設定してもよい。または、利用者は、発話によって、入力を収音部201によって行うか操作部202によって行うかを設定してもよい。入力判定部241は、設定された情報を記憶部240に記憶させる。なお、入力判定部241は、他の参加者の設定情報を通信部211を介して取得し、取得した他の参加者の設定情報を記憶部240に記憶させる。
(Step S2) The user operates the
(ステップS3)入力判定部241は、親機2の操作部202が出力する操作結果、または通信部211が出力するテキスト情報に基づいて、テキスト入力中であるか否かを判定する。入力判定部241は、テキスト入力中であると判定した場合(ステップS3;YES)、ステップS4の処理に進め、テキスト入力中ではないと判定した場合(ステップS3;NO)、ステップS6の処理に進める。
(Step S <b> 3) The
(ステップS4)入力判定部241は、テキスト入力が終了したか否かを判定する。具体的には、入力判定部241は、「再開OK」ボタン画像(図4、g310)が押されたことを検出したことで、テキスト入力が終了したと判定する。入力判定部241は、テキスト入力が終了したと判定した場合(ステップS4;YES)、ステップS8の処理に進め、テキスト入力が終了していないと判定した場合(ステップS4;NO)、ステップS5の処理に進める。
(Step S4) The
(ステップS5)入力判定部241は、発話禁止指示の出力を継続する。続けて、警告生成部244は、警告情報の出力を継続する。これにより、親機2は、表示装置21にアラートを報知させる。また、子機3は、表示部304上にアラートを報知させる。処理後、入力判定部241は、ステップS3の処理に戻す。
(Step S5) The
(ステップS6)音声認識部222は、収音部201や収音部301によって収音された音声信号に対して音声認識処理を行う。処理後、音声認識部222は、ステップS7の処理に進める。
(ステップS7)テキスト変換部223は、音声認識された結果に対してテキスト変換処理を行う。処理後、テキスト変換部223は、ステップS8の処理に進める。
(Step S <b> 6) The
(Step S7) The
(ステップS8)係り受け解析部224は、テキスト変換されたテキスト情報に対して、発話者毎に係り受け解析と形態素解析処理を行う。処理後、係り受け解析部224は、ステップS9の処理に進める。
(ステップS9)議事録作成部225は、係り受け解析部224が出力するテキスト情報に基づいて、議事録を作成する。
(Step S8) The
(Step S9) The
(ステップS10)通信部211は、作成された議事録データを子機3へ送信する。このように、親機2は、収音部(201または301)によって入力された音声信号を音声認識したテキスト情報または操作部(202または302)によって入力されたテキスト情報に基づいて作成した議事録を、参加者が所持する子機3へ送信することで、議事録を共有することができる。
(Step S <b> 10) The
親機2は、以下、ステップS3〜S10の処理を繰り返す。
なお、図8の処理は一例であり、これに限らない。参加者が会議に途中から参加した場合、ステップS2の設定処理をステップS3〜S10の処理中に行ってもよい。
The
Note that the processing of FIG. 8 is an example, and the present invention is not limited to this. When the participant participates in the conference from the middle, the setting process in step S2 may be performed during the processes in steps S3 to S10.
以上、本実施形態では、子機3または親機2を使用する参加者がテキスト入力を行っている期間、他の参加者の発言(発話、テキスト入力)を禁止するようにした。
これにより、本実施形態によれば、聴覚障がい者が、子機3でテキスト入力している間に、健聴者の音声発話を禁止しているため、聴覚障がい者は会議の内容についていける。これにより、本実施形態によれば、聴覚障がい者は健聴者と一緒の会議に参加しやすくなる。
As described above, in the present embodiment, during the period when the participant who uses the handset 3 or the
Thereby, according to this embodiment, since a hearing impaired person prohibits a speech utterance of a normal hearing person while inputting text with the subunit | mobile_unit 3, a hearing impaired person can follow the content of a meeting. Thereby, according to this embodiment, a hearing impaired person becomes easy to participate in a meeting with a normal hearing person.
なお、上述した例では、テキスト入力中に、他の参加者の発言(発話、テキスト入力)を待機させるために、アラートを表示させる例を説明したが、これに限らない。
例えば、子機3の処理部303は、親機2から受信した警告情報に基づいて、他の参加者がテキスト入力中に、テキスト入力欄(図5、g412)を表示しないようにしてもよい。
また、親機2または子機3は、他の参加者がテキスト入力中に、テキスト入力を受け付けなくてもよく、音声入力を受け付けないようにしてもよい。この場合においても、利用者が入力しても反応がないと不安になるため、親機2や子機3は、発言が禁止されているアラートを表示させることが好ましい。
In the above-described example, an example is described in which an alert is displayed in order to wait for another participant's speech (utterance, text input) during text input. However, the present invention is not limited to this.
For example, the
Further, the
<変形例>
上述した例では、親機2が、子機3の表示部304上の表示を制御することで、テキスト入力中に他の参加者のテキスト入力を制限する例を説明したが、これに限らない。
例えば、健聴者は子機3を使用せずに収音部のみを使用するようにしてもよい。
図9は、変形例における収音部の構成例を示すブロック図である。図9に示すように、変形例の収音部501は、報知部511と通信部512を備える。
<Modification>
In the above-described example, the
For example, a normal hearing person may use only the sound collection unit without using the handset 3.
FIG. 9 is a block diagram illustrating a configuration example of the sound collection unit in the modification. As illustrated in FIG. 9, the
通信部512は、親機2から警告情報を受信した場合、受信した警告情報に基づいてアラート情報を生成し、生成したアラート情報を報知部511に出力する。
報知部511は、通信部512が出力するアラート情報に基づいて、発言(発話、テキスト入力)が制限されていることを報知する。報知部511は、例えばランプやLED(発光ダイオード)や液晶表示装置等である。
利用者は、この報知によって、発言(発話、テキスト入力)の入力が制限されていることを知ることができる。この結果、利用者が制限されている期間、本実施形態によれば、参加者がテキスト入力中の場合、発言(発話、テキスト入力)を制限することができる。
When receiving the warning information from the
The
The user can know that the input of the utterance (utterance, text input) is restricted by this notification. As a result, during the period when the user is restricted, according to the present embodiment, when the participant is inputting text, speech (utterance, text input) can be restricted.
変形例では、収音部が通信部と報知部を備える例を説明したが、操作部302(図1)が、通信部と報知部を備えるようにしてもよい。この場合、操作部302を装着している参加者は、操作部302の報知部が報知する情報に基づいて、発言(発話、テキスト入力)が制限されていることを知ることができる。
In the modification, the example in which the sound collection unit includes the communication unit and the notification unit has been described, but the operation unit 302 (FIG. 1) may include the communication unit and the notification unit. In this case, the participant wearing the
なお、本発明における親機2または子機3の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより親機2または子機3が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
Note that a program for realizing all or part of the functions of the
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。 As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, and various deformation | transformation and substitution are within the range which does not deviate from the summary of this invention. Can be added.
1…会議システム、2…親機、201…収音部、202…操作部、211…通信部、212…認証部、221…音響モデル・辞書記憶部、222…音声認識部、223…テキスト変換部、224…係り受け解析部、225…議事録作成部、226…議事録記憶部、231…テキスト取得部、240…記憶部、241…入力判定部、242…アイコン設定部、243…アイコン記憶部、244…警告生成部、245…画像出力部、3…子機、301…収音部、302…操作部、303…処理部、304…表示部、305…通信部
DESCRIPTION OF SYMBOLS 1 ... Conference system, 2 ... Master machine, 201 ... Sound collection part, 202 ... Operation part, 211 ... Communication part, 212 ... Authentication part, 221 ... Acoustic model and dictionary memory | storage part, 222 ... Voice recognition part, 223 ...
Claims (7)
前記子機と接続をし、前記子機から入力された音声を音声認識したテキスト情報または前記子機から入力されたテキスト情報を用いて、議事録を作成し、作成した前記議事録を前記子機と共有する親機と、を備えた会議システムにおいて、
前記親機は、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるように前記親機を制御し、発言を待機させる情報を前記子機に送信する、会議システム。 A handset equipped with a sound collection unit, a text input unit, and a display unit;
Using the text information that is connected to the slave unit and voice-recognized the voice input from the slave unit or the text information input from the slave unit, the minutes are created and the created minutes are stored in the slave unit In a conference system equipped with a parent machine shared with the machine,
When the base unit participates in a conversation by text, the base unit controls the base unit to wait for the speech of another conference participant, and transmits information for waiting for the speech to the slave unit. .
前記親機は、前記子機から受信したテキスト入力を終了したことを示す情報に基づいて、前記親機と複数の前記子機に音声による発言の入力を許可する、請求項3に記載の会議システム。 When the text input is completed, the slave unit transmits information indicating that the text input is completed to the master unit,
The conference according to claim 3, wherein the master unit permits voice input to the master unit and the plurality of slave units based on information indicating completion of text input received from the slave unit. system.
前記親機は、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させる情報を前記子機と前記収音装置に送信し、
前記収音装置は、前記親機からの発言を待機させる情報に基づいて、発言が禁止されていることを報知する、請求項1から請求項4のいずれか1項に記載の会議システム。 A sound collection device including a communication unit, a notification unit, and a sound collection unit;
When the base unit participates in a conversation by text, the base unit transmits information to wait for the speech of another conference participant to the sub unit and the sound collection device,
The conference system according to any one of claims 1 to 4, wherein the sound collection device notifies that a speech is prohibited based on information for waiting for a speech from the parent device.
前記親機が、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるように前記親機を制御するステップと、
前記親機が、テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるよう発言を待機させる情報を前記子機に送信するステップと、
を含む会議システム制御方法。 Text information obtained by voice recognition of voice input from the slave unit connected to the slave unit and a slave unit including a sound collection unit, a text input unit, and a display unit, or text information input from the slave unit A conference system control method in a conference system comprising: a master device that creates a minutes using the master device, and a master device that shares the created minutes with the slave device,
Controlling the parent machine to wait for the utterances of other conference participants when the parent machine participates in a conversation by text; and
When the parent device participates in a conversation by text, transmitting information to make the utterance stand by so as to wait for the utterance of another conference participant, to the child device;
A conference system control method.
テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるように前記親機を制御するステップと、
テキストによって会話に参加がされた場合に、他の会議参加者の発話を待機させるよう発言を待機させる情報を前記子機に送信するステップと、
を実行させるプログラム。 Text information obtained by voice recognition of voice input from the slave unit connected to the slave unit and a slave unit including a sound collection unit, a text input unit, and a display unit, or text information input from the slave unit To the computer of the parent machine of the conference system comprising the parent machine that creates the minutes and shares the created minutes with the child machine,
Controlling the parent machine to wait for the speech of another conference participant when participating in a conversation by text;
Sending information to the slave unit to wait for speech to wait for the speech of another conference participant when participating in a conversation by text; and
A program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018069481A JP7042141B2 (en) | 2018-03-30 | 2018-03-30 | Conference system, conference system control method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018069481A JP7042141B2 (en) | 2018-03-30 | 2018-03-30 | Conference system, conference system control method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019179480A true JP2019179480A (en) | 2019-10-17 |
JP7042141B2 JP7042141B2 (en) | 2022-03-25 |
Family
ID=68278799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018069481A Active JP7042141B2 (en) | 2018-03-30 | 2018-03-30 | Conference system, conference system control method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7042141B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6972430B1 (en) * | 2020-11-19 | 2021-11-24 | 三菱電機株式会社 | Terminal, input display method and input display system |
JP2022056593A (en) * | 2020-09-30 | 2022-04-11 | 本田技研工業株式会社 | Conference support system, conference support method, and program |
JP7384730B2 (en) | 2020-03-30 | 2023-11-21 | 本田技研工業株式会社 | Conference support system, conference support method, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006050500A (en) * | 2004-08-09 | 2006-02-16 | Jfe Systems Inc | Conference support system |
JP2012257116A (en) * | 2011-06-09 | 2012-12-27 | Hitachi Ltd | Text and telephone conference system and text and telephone conference method |
-
2018
- 2018-03-30 JP JP2018069481A patent/JP7042141B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006050500A (en) * | 2004-08-09 | 2006-02-16 | Jfe Systems Inc | Conference support system |
JP2012257116A (en) * | 2011-06-09 | 2012-12-27 | Hitachi Ltd | Text and telephone conference system and text and telephone conference method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7384730B2 (en) | 2020-03-30 | 2023-11-21 | 本田技研工業株式会社 | Conference support system, conference support method, and program |
JP2022056593A (en) * | 2020-09-30 | 2022-04-11 | 本田技研工業株式会社 | Conference support system, conference support method, and program |
JP7471979B2 (en) | 2020-09-30 | 2024-04-22 | 本田技研工業株式会社 | Meeting Support System |
JP6972430B1 (en) * | 2020-11-19 | 2021-11-24 | 三菱電機株式会社 | Terminal, input display method and input display system |
Also Published As
Publication number | Publication date |
---|---|
JP7042141B2 (en) | 2022-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10924605B2 (en) | System and method for asynchronous multi-mode messaging | |
JP7194507B2 (en) | CONFERENCE SYSTEM, CONFERENCE SYSTEM CONTROL METHOD AND PROGRAM | |
JP6725006B2 (en) | Control device and equipment control system | |
JP2019179480A (en) | Conference system, control method therefor, and program | |
JPWO2017130486A1 (en) | Information processing apparatus, information processing method, and program | |
US20160294892A1 (en) | Storage Medium Storing Program, Server Apparatus, and Method of Controlling Server Apparatus | |
US20180286388A1 (en) | Conference support system, conference support method, program for conference support device, and program for terminal | |
US20220046310A1 (en) | Information processing device, information processing method, and computer program | |
JP2018174442A (en) | Conference support system, conference support method, program of conference support apparatus, and program of terminal | |
JP2010034695A (en) | Voice response device and method | |
CN107205198B (en) | Microphone unlocking method and device | |
JP2015126524A (en) | Remote conference program, terminal device, and remote conference method | |
CN109348048B (en) | Call message leaving method, terminal and device with storage function | |
JP7119615B2 (en) | Server, sound data evaluation method, program, communication system | |
US9386138B2 (en) | Mobile terminal device, operation procedure communication system, and operation communication method | |
JP6950708B2 (en) | Information processing equipment, information processing methods, and information processing systems | |
JP2010093554A (en) | Communication device, text call control method and communication control program | |
WO2019235013A1 (en) | Information processing device and information processing method | |
JP6962849B2 (en) | Conference support device, conference support control method and program | |
JP7471979B2 (en) | Meeting Support System | |
US11935449B2 (en) | Information processing apparatus and information processing method | |
JP2023148706A (en) | Speech recognition result display system, speech recognition result display device, and speech recognition result display method and non-transitory storage medium storing program | |
JP7384730B2 (en) | Conference support system, conference support method, and program | |
JP2023133782A (en) | Speech recognition text display system, speech recognition text display device, speech recognition text display method and program | |
JP7316971B2 (en) | CONFERENCE SUPPORT SYSTEM, CONFERENCE SUPPORT METHOD, AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180607 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210811 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7042141 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |