JP2019179081A - Conference support device, conference support control method, and program - Google Patents

Conference support device, conference support control method, and program Download PDF

Info

Publication number
JP2019179081A
JP2019179081A JP2018066836A JP2018066836A JP2019179081A JP 2019179081 A JP2019179081 A JP 2019179081A JP 2018066836 A JP2018066836 A JP 2018066836A JP 2018066836 A JP2018066836 A JP 2018066836A JP 2019179081 A JP2019179081 A JP 2019179081A
Authority
JP
Japan
Prior art keywords
conference
unit
minutes
meeting
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018066836A
Other languages
Japanese (ja)
Other versions
JP6962849B2 (en
Inventor
卓 川内
Suguru Kawauchi
卓 川内
一博 中臺
Kazuhiro Nakadai
一博 中臺
研郎 鵜殿
Kenro Udono
研郎 鵜殿
雅樹 五十嵐
Masaki Igarashi
雅樹 五十嵐
智幸 佐畑
Tomoyuki Satake
智幸 佐畑
一也 眞浦
Kazuya Maura
一也 眞浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Honda R&D Sun Co Ltd
Original Assignee
Honda Motor Co Ltd
Honda R&D Sun Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, Honda R&D Sun Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018066836A priority Critical patent/JP6962849B2/en
Publication of JP2019179081A publication Critical patent/JP2019179081A/en
Application granted granted Critical
Publication of JP6962849B2 publication Critical patent/JP6962849B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a conference support device, a conference support control method, and a program that can select a conference desired to be continued with a voice even after the conference is restarted after being interrupted.SOLUTION: A conference support device comprises: a sound collection part; a voice recognition part which performs voice recognition on an utterance voice-input by the sound collection part using a dictionary for voice recognition; a display part which displays a voice-recognized text as a minute book; a storage part which stores minute books and also stores information representing interruption of a minute book of a conference being interrupted associated with the minute book; and a narrowing-down selection part which displays candidates for interrupted conferences when an interrupted conference is restarted, and narrows down the displayed candidates based upon a result of the voice recognition on the voice utterance to determine a candidate for a conference desired to be continued.SELECTED DRAWING: Figure 1

Description

本発明は、会議支援装置、会議支援制御方法およびプログラムに関する。   The present invention relates to a conference support apparatus, a conference support control method, and a program.

複数人が会議をする場合において、各発言者の発話内容をテキスト化して、発話内容をテキスト化して各利用者が所有する再生装置に表示することが提案されている(例えば特許文献1参照)。なお、特許文献1に記載の技術では、発話を話題毎に音声メモとして録音し、議事録作成者が、録音された音声メモを再生してテキスト化を行う。そして、特許文献1に記載の技術では、テキスト化したものを用いて議事録を作成する。   In the case where a plurality of people hold a meeting, it is proposed that the utterance content of each speaker is converted into text, and the utterance content is converted into text and displayed on a playback device owned by each user (see, for example, Patent Document 1). . In the technique described in Patent Document 1, the utterance is recorded as a voice memo for each topic, and the minutes creator reproduces the recorded voice memo and converts it into text. And with the technique of patent document 1, the minutes are created using what was converted into text.

特開平08−194492号公報Japanese Patent Laid-Open No. 08-194492

会議は、一回の開催で終了する場合もあるが、中断したり一回の開催で終了しない場合もある。このような会議では、別途、会議が再開される。
しかしながら、特許文献1に記載の技術では、会議毎に議事録を作成するため、会議を再開した場合でも異なる議事録となってしまう。
The conference may end with a single session, but may be interrupted or may not end with a single session. In such a meeting, the meeting is resumed separately.
However, in the technique described in Patent Document 1, since the minutes are created for each meeting, even if the meeting is resumed, the minutes are different.

本発明は、上記の問題点に鑑みてなされたものであって、会議が中断された後に再開された場合であっても継続したい会議を音声によって選択可能な会議支援装置、会議支援制御方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and can provide a conference support apparatus, a conference support control method, and a conference support control method that can select a conference to be continued even if the conference is resumed after being suspended. The purpose is to provide a program.

(1)上記目的を達成するため、本発明の一態様に係る会議支援装置(1)は、収音部(101)と、前記収音部にて音声入力された発話に対して音声認識用辞書(音声認識辞書DB103)を用いて音声認識を行う音声認識部(音声認識部104、テキスト変換部105、係り受け解析部106)と、前記音声認識されたテキストを議事録として表示する表示部(議事録作成部107、画像生成部110、表示部111)と、前記議事録を記憶し、中断している会議の前記議事録に対して中断していることを示す情報を前記議事録に関連付けて記憶する記憶部(議事録記憶部108)と、中断された会議を再開する場合において、前記中断された会議の候補を表示し、表示した前記会議の候補を、音声発話を音声認識した結果に基づいて継続したい会議の候補を絞り込む選択部(議事録選択部109)と、を備える。   (1) In order to achieve the above object, a conference support apparatus (1) according to an aspect of the present invention provides a sound collection unit (101) and a speech recognition unit for speech input by the sound collection unit. A speech recognition unit (speech recognition unit 104, text conversion unit 105, dependency analysis unit 106) that performs speech recognition using a dictionary (speech recognition dictionary DB 103), and a display unit that displays the speech-recognized text as minutes (The minutes creation unit 107, the image generation unit 110, the display unit 111) and the minutes are stored in the minutes, and information indicating that the minutes for the meeting that has been suspended is suspended is stored in the minutes. In the case of resuming an interrupted meeting with a storage section (the minutes storage section 108) that stores the information in association, the interrupted meeting candidate is displayed, and the displayed meeting candidate is recognized as a voice utterance. Based on the results Comprising a selection unit to narrow down the candidates of the conference to be (Minutes selection unit 109), the.

(2)また、本発明の一態様に係る会議支援装置において、前記選択部は、継続したい会議の絞込みを、前記会議の出席者、前記会議に関する時刻、および前記議事録から抽出されたキーワードのうち少なくとも1つで絞込みを行うようにしてもよい。   (2) Moreover, in the conference support apparatus according to an aspect of the present invention, the selection unit is configured to select a conference to be continued, a meeting attendee, a time related to the conference, and a keyword extracted from the minutes. You may make it narrow down by at least one of them.

(3)また、本発明の一態様に係る会議支援装置において、前記音声認識部は、継続する会議で使用された音声認識用辞書を用いるようにしてもよい。   (3) Moreover, in the conference support apparatus according to an aspect of the present invention, the voice recognition unit may use a voice recognition dictionary used in a continuous meeting.

(4)また、本発明の一態様に係る会議支援装置において、前記選択部は、継続したい会議の2回目以降の絞り込みの際に、前記会議の出席者を追加して提示、および前記議事録から抽出されたキーワードを追加して提示のうち少なくとも1つを行うようにするようにしてもよい。   (4) Further, in the conference support apparatus according to one aspect of the present invention, the selection unit additionally presents the attendees of the conference when narrowing down the conference to be continued for the second time or later, and the minutes It is also possible to add at least one of the presentations by adding the keywords extracted from.

(5)また、本発明の一態様に係る会議支援装置において、前記会議支援装置に通信によって接続される子機(3、3a、3b、・・・)であって、前記子機が、収音部(301)と子機表示部(表示部304)と操作部(302)とを備え、前記音声認識部は、前記子機が送信した音声信号に対して前記音声認識用辞書を用いて音声認識を行い、前記収音部が収音した音声信号と、前記子機の収音部が収音した音声新語とに対して音声認識した結果を、前記表示部と前記子機表示部とに表示させるようにしてもよい。   (5) In the conference support device according to one aspect of the present invention, the slave device (3, 3a, 3b,...) Connected to the conference support device by communication, A sound unit (301), a slave unit display unit (display unit 304), and an operation unit (302) are provided, and the voice recognition unit uses the voice recognition dictionary for voice signals transmitted by the slave unit. Performing speech recognition, and performing speech recognition on the speech signal collected by the sound collection unit and the new speech word collected by the sound collection unit of the handset, the display unit and the handset display unit You may make it display on.

(6)上記目的を達成するため、本発明の一態様に係る会議支援制御方法は、会議の議事録を記憶する記憶部を備える会議支援装置における会議支援方法であって、収音部が、音声入力された発話を取得する収音ステップと、音声認識部が、前記収音ステップにて音声入力された発話に対して音声認識用辞書を用いて音声認識を行う音声認識ステップと、議事録作成部が、前記音声認識ステップによって音声認識されたテキストの議事録を作成し、前記会議が中断された場合に中断されたことを示す情報を前記議事録に関連付けて記憶させる議事録作成ステップと、選択部が、中断された会議を再開する場合において、前記中断された会議の候補を表示し、表示した前記会議の候補を、音声発話を音声認識した結果に基づいて継続したい会議の候補を絞り込む選択ステップと、を含む。   (6) In order to achieve the above object, a conference support control method according to an aspect of the present invention is a conference support method in a conference support apparatus including a storage unit that stores the minutes of a conference, and the sound collection unit includes: A sound collection step for acquiring a speech input speech, a speech recognition unit for performing speech recognition using a speech recognition dictionary for the speech input in the sound collection step, and a minutes A creation section for creating a minutes of the text recognized by the speech recognition step and storing information indicating that the meeting is interrupted in association with the meeting when the meeting is interrupted; When the selection unit resumes the suspended meeting, the meeting candidate is displayed, and the displayed meeting candidate is to be continued based on the result of voice recognition of voice utterance. Including a selection step to narrow down the candidate, the.

(7)上記目的を達成するため、本発明の一態様に係るプログラムは、会議の議事録を記憶する記憶部を備える会議支援装置のコンピュータに、音声入力された発話を取得する収音ステップと、前記収音ステップにて音声入力された発話に対して音声認識用辞書を用いて音声認識を行う音声認識ステップと、前記音声認識ステップによって音声認識されたテキストの議事録を作成し、前記会議が中断された場合に中断されたことを示す情報を前記議事録に関連付けて記憶させる議事録作成ステップと、中断された会議を再開する場合において、前記中断された会議の候補を表示し、表示した前記会議の候補を、音声発話を音声認識した結果に基づいて継続したい会議の候補を絞り込む選択ステップと、を実行させる。   (7) In order to achieve the above object, a program according to an aspect of the present invention includes a sound collection step of acquiring an utterance input by voice to a computer of a conference support apparatus including a storage unit that stores conference minutes. A speech recognition step of performing speech recognition using a speech recognition dictionary for the speech input in the sound collection step, and creating a minutes of the text recognized by the speech recognition step, When a meeting is interrupted, a minutes creation step for storing information indicating that the meeting has been suspended is stored in association with the minutes, and when the suspended meeting is resumed, the suspended meeting candidate is displayed and displayed. A selection step of narrowing down the conference candidates to be continued based on the result of speech recognition of the speech utterance.

上述した(1)または(6)あるいは(7)によれば、音声入力によって簡単な手法にて継続したい会議を選択することができる。   According to the above (1), (6) or (7), it is possible to select a conference to be continued by a simple method by voice input.

上述した(2)によれば、絞込みがしやすくなるという効果を奏する。
上述した(3)によれば、同音異義語等の変換等を適切に行わせることができる。
上述した(4)によれば、一回の音声入力によって候補を絞り込めなかった場合に、会議に関する情報を追加して提示できるので、絞込みがしやすくなるという効果を奏する。
上述した(5)によれば、子機にも会議の議事録を表示させることができるので、健聴者と聴覚障がい者とが一緒に会議に参加しやすくすることができる。
According to the above (2), there is an effect that it is easy to narrow down.
According to (3) described above, conversion of homonyms and the like can be performed appropriately.
According to the above (4), when candidates cannot be narrowed down by a single voice input, information related to the conference can be added and presented, so that it is easy to narrow down.
According to (5) described above, since the minutes of the conference can be displayed on the slave unit, it is possible to make it easier for a normal hearing person and a hearing impaired person to participate in the conference together.

本実施形態に係る会議支援装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the meeting assistance apparatus which concerns on this embodiment. 本実施形態に係る議事録記憶部が記憶する情報例を示す図である。It is a figure which shows the example of information which the minutes memory | storage part which concerns on this embodiment memorize | stores. 本実施形態に係る会議状態と議事録の作成例を示す図である。It is a figure which shows the example of creation of the meeting state and minutes based on this embodiment. 本実施形態に係る中断した会議を再開する際に表示部に提示される情報例を示す図である。It is a figure which shows the example of information shown on a display part when restarting the interrupted meeting which concerns on this embodiment. 本実施形態に係る会議録記憶部が記憶する情報を説明するための図である。It is a figure for demonstrating the information which the conference record memory | storage part concerning this embodiment memorize | stores. 本実施形態に係る会議開始時に会議支援装置が行う処理手順例を示すフローチャートである。It is a flowchart which shows the example of a process sequence which a meeting assistance apparatus performs at the time of the meeting start which concerns on this embodiment. 本実施形態に係る会議中と会議終了時に表示部上に表示される画像例を示す図である。It is a figure which shows the example of an image displayed on a display part during the meeting which concerns on this embodiment, and the meeting end. 図7において、会議終了または会議継続が選択された場合に表示部上に表示される画像例である。FIG. 7 is an example of an image displayed on the display unit when conference end or conference continuation is selected. 本実施形態に係る会議開始時に表示部上に表示される画像例を示す図である。It is a figure which shows the example of an image displayed on a display part at the time of the meeting start which concerns on this embodiment. 本実施形態に係る中断された会議リストの画像の他の例である。It is another example of the image of the interrupted meeting list which concerns on this embodiment. 本実施形態の第1変形例における会議継続時に議事録を絞り込めなかった際に表示される画像例を示す図である。It is a figure which shows the example of an image displayed when the minutes cannot be narrowed down at the time of the meeting continuation in the 1st modification of this embodiment. 本実施形態に係る第2変形例における会議支援システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the meeting assistance system in the 2nd modification which concerns on this embodiment.

以下、本発明の実施の形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、本実施形態の会議支援装置が使用される状況例を説明する。
本実施形態の会議支援装置は、例えば2人以上が参加して行われる会議で用いられる。会議支援装置は、会議の終了時に、その会議が中断なのか終了なのかフラグを付与して記憶する。そして、会議支援装置は、会議に関する情報(参加者、キーワード等)を議事録に関連づけて記憶する。会議支援装置は、会議が再開される際に、利用者の音声を音声認識した結果に基づいて中断されている会議の議事録から候補の議事録を提示する。会議支援装置は、利用者の音声によって、候補の中から再開したい会議を選び、再開された会議の議事録の作成を継続する。
First, an example of a situation in which the conference support apparatus according to the present embodiment is used will be described.
The conference support apparatus according to the present embodiment is used in a conference held by two or more people, for example. When the conference ends, the conference support device assigns and stores a flag indicating whether the conference is interrupted or ended. The conference support apparatus stores information related to the conference (participants, keywords, etc.) in association with the minutes. When the conference is resumed, the conference support device presents candidate minutes from the conference minutes that have been suspended based on the result of voice recognition of the user's voice. The conference support apparatus selects a conference to be resumed from the candidates according to the user's voice, and continues to create the minutes of the resumed conference.

図1は、本実施形態に係る会議支援装置1の構成例を示すブロック図である。
図1に示すように、会議支援装置1は、収音部101、取得部102、音声認識辞書DB103(音声認識用辞書)、音声認識部104、テキスト変換部105(音声認識部)、係り受け解析部106(音声認識部)、議事録作成部107(キーワード抽出部)、議事録記憶部108、議事録選択部109(選択部)、画像生成部110、表示部111、および操作部112を備える。
FIG. 1 is a block diagram illustrating a configuration example of a conference support apparatus 1 according to the present embodiment.
As shown in FIG. 1, the conference support apparatus 1 includes a sound collection unit 101, an acquisition unit 102, a speech recognition dictionary DB 103 (speech recognition dictionary), a speech recognition unit 104, a text conversion unit 105 (speech recognition unit), a dependency. Analysis unit 106 (voice recognition unit), minutes creation unit 107 (keyword extraction unit), minutes storage unit 108, minutes selection unit 109 (selection unit), image generation unit 110, display unit 111, and operation unit 112 Prepare.

会議支援装置1は、例えばタブレット端末、スマートフォン、ノートパソコン等である。   The meeting support apparatus 1 is, for example, a tablet terminal, a smartphone, a notebook computer, or the like.

収音部101は、マイクロフォンである。収音部101は、利用者の音声信号を収音し、収音した音声信号を取得部102に出力する。なお、収音部101は、参加者毎に装着される。また、収音部101は、マイクロフォンアレイであってもよい。   The sound collection unit 101 is a microphone. The sound collection unit 101 collects the user's voice signal and outputs the collected voice signal to the acquisition unit 102. The sound collection unit 101 is attached to each participant. The sound collection unit 101 may be a microphone array.

取得部102は、収音部101が出力する音声信号をアナログ信号からデジタル信号に変換して、デジタル信号に変換した音声信号を音声認識部104に出力する。なお、収音部101が複数の場合、取得部102は、収音部101毎に例えば時分割処理を行う。   The acquisition unit 102 converts the audio signal output from the sound collection unit 101 from an analog signal to a digital signal, and outputs the audio signal converted into the digital signal to the audio recognition unit 104. When there are a plurality of sound collection units 101, the acquisition unit 102 performs, for example, time-division processing for each sound collection unit 101.

音声認識辞書DB103は、例えば音響モデル、言語モデル、単語辞書等を格納しているデータベースである。音響モデルとは、音の特徴量に基づくモデルであり、言語モデルとは、単語とその並び方の情報のモデルである。また、単語辞書とは、多数の語彙による辞書であり、例えば大語彙単語辞書である。なお、会議支援装置1は、音声認識辞書DB103に格納されていない単語等を格納して更新するようにしてもよい。なお、音声認識辞書DB103は、例えば会議毎にDB(データベース)を備えている。例えば、第1のDBが一般の会議用で有り、第2のDBが発表会用であり、第3のDBが国際会議用である。このように会議に合わせたDBを用いることで、同音異義語等の変換等を適切に行わせることができる。   The speech recognition dictionary DB 103 is a database that stores, for example, an acoustic model, a language model, a word dictionary, and the like. The acoustic model is a model based on the feature amount of sound, and the language model is a model of information on words and how to arrange them. The word dictionary is a dictionary with a large number of vocabularies, for example, a large vocabulary word dictionary. The conference support apparatus 1 may store and update words and the like that are not stored in the speech recognition dictionary DB 103. Note that the speech recognition dictionary DB 103 includes a DB (database) for each conference, for example. For example, the first DB is for a general conference, the second DB is for a presentation, and the third DB is for an international conference. In this way, conversion of homonyms and the like can be performed appropriately by using a DB that matches the conference.

音声認識部104は、取得部102が出力する音声信号を取得する。音声認識部104は、音声信号から発話区間の音声信号を検出する。発話区間の検出は、例えば所定のしきい値以上の音声信号を発話区間として検出する。なお、音声認識部104は、発話区間の検出を周知の他の手法を用いて行ってもよい。音声認識部104は、検出した発話区間の音声信号に対して、音声認識辞書DB103を参照して、周知の手法を用いて音声認識を行う。なお、音声認識部104は、例えば特開2015−64554号公報に開示されている手法等を用いて音声認識を行う。音声認識部104は、認識した認識結果と音声信号をテキスト変換部105に出力する。なお、音声認識部104は、認識結果と音声信号とを、例えば1文毎、または発話句間毎、または話者毎に対応つけて出力する。
なお、音声認識部104は、音声信号が同時に入力された場合、例えば時分割処理によって収音部101毎に音声認識を行う。また、音声認識部104は、マイクロフォンがマイクロフォンアレイの場合、音源分離処理、音源定位処理、音源同定処理等、周知の音声認識処理も行う。
音声認識部104は、議事録選択部109が出力する使用する音声認識辞書DB103を示す情報に基づいて、音声認識処理等に使用する音声認識辞書DB103を切り替える。
The voice recognition unit 104 acquires a voice signal output from the acquisition unit 102. The voice recognition unit 104 detects a voice signal in the utterance section from the voice signal. For the detection of the utterance section, for example, an audio signal having a predetermined threshold value or more is detected as the utterance section. Note that the speech recognition unit 104 may detect the utterance section using another known method. The speech recognition unit 104 performs speech recognition on the detected speech signal in the utterance section with reference to the speech recognition dictionary DB 103 using a known method. Note that the voice recognition unit 104 performs voice recognition using, for example, a method disclosed in JP-A-2015-64554. The voice recognition unit 104 outputs the recognized recognition result and the voice signal to the text conversion unit 105. Note that the speech recognition unit 104 outputs the recognition result and the speech signal in association with each other, for example, for each sentence, between utterance phrases, or for each speaker.
Note that the speech recognition unit 104 performs speech recognition for each sound collection unit 101 by, for example, time division processing when speech signals are input simultaneously. In addition, when the microphone is a microphone array, the voice recognition unit 104 also performs known voice recognition processing such as sound source separation processing, sound source localization processing, and sound source identification processing.
The speech recognition unit 104 switches the speech recognition dictionary DB 103 used for speech recognition processing and the like based on information indicating the speech recognition dictionary DB 103 to be used output from the minutes selection unit 109.

テキスト変換部105は、音声認識部104が出力する認識結果に対して、音声認識辞書DB103を参照して、テキストに変換する。なお、テキスト情報は、少なくとも1文字の情報を含む。テキスト変換部105は、変換したテキスト情報と、取得した音声信号を係り受け解析部106に出力する。なお、テキスト変換部105は、発話情報を認識した結果から「あー」、「えーと」、「えー」、「まあ」等の間投詞を削除してテキストに変換するようにしてもよい。   The text conversion unit 105 converts the recognition result output from the voice recognition unit 104 into text with reference to the voice recognition dictionary DB 103. Note that the text information includes information of at least one character. The text conversion unit 105 outputs the converted text information and the acquired voice signal to the dependency analysis unit 106. Note that the text conversion unit 105 may delete the interjections such as “Ah”, “Ut”, “Eh”, “Oh” from the result of recognizing the utterance information and convert it to text.

係り受け解析部106は、テキスト変換部105が出力したテキスト情報に対して、音声認識辞書DB103を参照して、形態素解析と係り受け解析を行う。なお、係り受け解析には、例えば、Shift−reduce法や全域木の手法やチャンク同定の段階適用手法においてSVM(Support Vector Machines)を用いる。
係り受け解析部106は、会議を再開する際、形態素解析と係り受け解析を行ったテキスト情報と、解析した結果を議事録選択部109に出力する。
なお、議事録の作成は、例えば、「会議を開始します」等、予め定められたキーワードを検出した後に開始される。または、議事録の作成は、表示部111上に表示されるアイコン(例えば図7参照)を利用者が操作部112を操作した結果に基づいて開始される。会議開始後に、係り受け解析部106は、形態素解析と係り受け解析を行ったテキスト情報と、解析した結果を議事録作成部107に出力する。なお、係り受け解析部106は、テキスト変換部105が出力する音声信号も議事録作成部107に出力する。
また、係り受け解析部106は、議事録作成部107が会議の終了または中断後に議事録を作成する場合、解析した結果に発話者と発話時間を付与して画像生成部110に出力する。なお、発話者(参加者)名は、参加者が使用する収音部101毎に予め係り受け解析部106が記憶していてもよく、会議開始時に参加者が発話によって入力してもよい。
The dependency analysis unit 106 performs morphological analysis and dependency analysis on the text information output from the text conversion unit 105 with reference to the speech recognition dictionary DB 103. In the dependency analysis, for example, SVM (Support Vector Machines) is used in the shift-reduce method, the spanning tree method, and the chunk identification step application method.
When resuming the conference, the dependency analysis unit 106 outputs the text information subjected to the morphological analysis and dependency analysis and the analysis result to the minutes selection unit 109.
The minutes are created after detecting a predetermined keyword such as “Start meeting”. Alternatively, the creation of the minutes is started based on the result of the user operating the operation unit 112 with an icon (for example, see FIG. 7) displayed on the display unit 111. After the start of the meeting, the dependency analysis unit 106 outputs the text information subjected to morphological analysis and dependency analysis and the analysis result to the minutes creation unit 107. The dependency analysis unit 106 also outputs the audio signal output from the text conversion unit 105 to the minutes creation unit 107.
Further, when the minutes creation unit 107 creates the minutes after the meeting is ended or interrupted, the dependency analysis unit 106 gives the speaker and the duration of the analysis to the analysis result and outputs the result to the image generation unit 110. Note that the speaker (participant) name may be stored in advance by the dependency analysis unit 106 for each sound collection unit 101 used by the participant, or may be input by the participant at the start of the conference.

議事録作成部107は、係り受け解析部106が出力したテキスト情報に基づいて、発話者毎に分けて、議事録を作成する。議事録作成部107は、作成した議事録(テキスト情報)と対応する音声信号を議事録記憶部108に記憶させる。なお、議事録作成部107は、会議の開催中に議事録を作成するようにしてもよく、会議が終了または中断された後に議事録を作成するようにしてもよい。議事録作成部107は、議事録を作成する際、または議事録作成後に会議におけるキーワードを抽出し、抽出したキーワードを議事録に関連づけて記憶させる。議事録作成部107は、例えばキーワードマッチングや表層パターンや特開2008−146150号公報に記載の発明の手法等を用いてキーワードを抽出する。または、議事録作成部107は、出現回数が多い言葉をキーワードとして抽出するようにしてもよい。また、議事録作成部107は、発話毎に発話者と発話日時を付与する。なお、発話者(参加者)名は、参加者が使用する収音部101毎に予め議事録作成部107が記憶していてもよく、会議開始時に参加者が発話によって入力してもよい。なお、議事録作成部107は、「あー」、「えーと」、「えー」、「まあ」等の間投詞を削除して議事録を作成するようにしてもよい。
議事録作成部107は、議事録選択部109が出力する選択された議事録を示す情報と、継続指示に応じて、選択された議事録の作成を継続する(再開する)。
The minutes creation unit 107 creates minutes separately for each speaker based on the text information output by the dependency analysis unit 106. The minutes creation unit 107 stores the created minutes (text information) and the corresponding audio signal in the minutes storage unit 108. Note that the minutes creation unit 107 may create the minutes during the conference, or may create the minutes after the conference is ended or interrupted. The minutes creation unit 107 extracts keywords in the meeting when creating the minutes or after the minutes are created, and stores the extracted keywords in association with the minutes. The minutes creation unit 107 extracts keywords using, for example, keyword matching, surface layer patterns, the method of the invention described in Japanese Patent Laid-Open No. 2008-146150, and the like. Alternatively, the minutes creation unit 107 may extract words having a large number of appearances as keywords. In addition, the minutes creation unit 107 assigns the utterer and the utterance date and time for each utterance. Note that the name of the speaker (participant) may be stored in advance by the minutes creation unit 107 for each sound collection unit 101 used by the participant, or may be input by the participant by speaking at the start of the conference. The minutes creation unit 107 may create minutes by deleting the interjections such as “Ah”, “Et”, “Eh”, “Well”.
The minutes creation unit 107 continues (restarts) the creation of the selected minutes in accordance with the information indicating the selected minutes output from the minutes selection unit 109 and the continuation instruction.

議事録記憶部108は、議事録と音声信号を対応付けて記憶する。なお、議事録記憶部108は、議事録に、参加者やキーワードを関連づけて、さらに会議状態(終了か中断か)を関連づけて記憶する。なお、議事録記憶部108が記憶する情報については後述する。   The minutes storage unit 108 stores the minutes and audio signals in association with each other. Note that the minutes storage unit 108 associates and stores the minutes and the keywords, and further associates the meeting state (finished or suspended) with the minutes. Information stored in the minutes storage unit 108 will be described later.

議事録選択部109は、係り受け解析部106が出力する形態素解析と係り受け解析を行ったテキスト情報と、解析した結果を取得する。議事録選択部109は、取得した情報に基づいて、条件に合う議事録を、議事録記憶部108を参照して探索する。議事録選択部109は、探索した議事録に関する情報を画像生成部110に出力する。また、議事録選択部109は、会議開始前に議事録選択のために行われた発話のテキスト情報を画像生成部110に出力する。
また、議事録選択部109は、議事録作成部107が会議の開催中に議事録を作成している場合、作成させた議事録を議事録記憶部108から読み出し、読み出した議事録を画像生成部110に出力する。
議事録選択部109は、中断されている会議の中から、発話によって入力された音声信号に対して音声認識処理等を行った結果に基づいて、継続する会議を選択する。議事録選択部109は、選択した会議の議事録を示す情報と継続指示を議事録作成部107に出力する。また、議事録選択部109は、選択した会議の議事録に含まれる使用する音声認識辞書DB103を示す情報を音声認識部104に出力する。
The minutes selection unit 109 acquires the morphological analysis output by the dependency analysis unit 106 and the text information subjected to the dependency analysis, and the analysis result. The minutes selection unit 109 searches the minutes storage unit 108 for the minutes meeting the conditions based on the acquired information. The minutes selection unit 109 outputs information on the searched minutes to the image generation unit 110. In addition, the minutes selection unit 109 outputs the text information of the utterances made for selecting the minutes before the start of the meeting to the image generation unit 110.
In addition, when the minutes creation unit 107 creates the minutes during the meeting, the minutes selection unit 109 reads the created minutes from the minutes storage unit 108 and generates an image of the read minutes Output to the unit 110.
The minutes selection unit 109 selects a meeting to be continued based on a result of performing speech recognition processing or the like on the voice signal input by the utterance from the suspended meetings. The minutes selection unit 109 outputs information indicating the minutes of the selected meeting and a continuation instruction to the minutes creation unit 107. In addition, the minutes selection unit 109 outputs information indicating the voice recognition dictionary DB 103 to be used included in the minutes of the selected meeting to the voice recognition unit 104.

画像生成部110は、議事録選択部109が出力する議事録に関する情報とテキスト情報とに基づいて画像データを生成する。画像生成部110は、生成した画像データを表示部111に出力する。   The image generation unit 110 generates image data based on the information on the minutes output from the minutes selection unit 109 and the text information. The image generation unit 110 outputs the generated image data to the display unit 111.

表示部111は、例えば液晶表示装置、有機EL表示装置、電子インク表示装置等である。表示部111は、画像生成部110が出力する画像データを表示する。   The display unit 111 is, for example, a liquid crystal display device, an organic EL display device, an electronic ink display device, or the like. The display unit 111 displays the image data output from the image generation unit 110.

操作部112は、例えば表示部111上に設けられたタッチパネル式のセンサー、または優先接続または無線接続のキーボード等である。操作部112は、利用者の操作を検出し、検出した結果を議事録選択部109に出力する。   The operation unit 112 is, for example, a touch panel sensor provided on the display unit 111 or a priority connection or wireless connection keyboard. The operation unit 112 detects a user operation and outputs the detected result to the minutes selection unit 109.

<議事録記憶部108が記憶する情報>
次に、議事録記憶部108が記憶する情報例を説明する。
図2は、本実施形態に係る議事録記憶部108が記憶する情報例を示す図である。
図2に示すように、議事録記憶部108は、会議の名称に、番号と、出席者と、議事録の最終更新日時と、会議状態と、キーワードと、を関連付けて記憶する。例えば、議事録記憶部108は、会議の名称が「経営会議A」に、番号「1」と、出席者「山田、佐藤、竹田」と、最終更新日時「2018.1.13 17:30」と、会議状態「中断」と、キーワード「開発方針、経費削減、業務改善、・・・」を関連付けて記憶する。なお、会議の名称は、利用者が音声で入力してもよく、操作部112を操作して入力してもよい。また、キーワードは、利用者が音声で入力してもよく、操作部112を操作して入力してもよい。なお、最終更新日時は、例えば会議が終了または中断された日時である。
<Information stored in the minutes storage unit 108>
Next, an example of information stored in the minutes storage unit 108 will be described.
FIG. 2 is a diagram illustrating an example of information stored in the minutes storage unit 108 according to the present embodiment.
As shown in FIG. 2, the minutes storage unit 108 stores the number of the meeting, the attendees, the latest update date / time of the minutes, the meeting state, and the keywords in association with each other. For example, the minutes storage unit 108 has the name of the meeting “Management Meeting A”, the number “1”, the attendees “Yamada, Sato, Takeda”, and the last update date “2018.1.13 17:30”. And the conference state “suspended” and the keyword “development policy, cost reduction, business improvement,...” Are stored in association with each other. Note that the name of the conference may be input by the user by voice, or may be input by operating the operation unit 112. The keyword may be input by the user by voice, or may be input by operating the operation unit 112. The last update date / time is, for example, the date / time when the conference is ended or interrupted.

<会議状態>
次に、会議状態と議事録の作成例を説明する。
図3は、本実施形態に係る会議状態と議事録の作成例を示す図である。図3において、横軸は時間tである。
符号g11の示す例では、新規会議が時刻t1に開始され時刻t2に終了した例である。
符号g12の示す例では、新規会議が時刻t11に開始され時刻t12に中断され、時刻12〜t13の期間に休憩が入り、時刻t13に再開され時刻t14に終了した例である。
<Conference status>
Next, an example of creating a meeting state and minutes will be described.
FIG. 3 is a diagram showing an example of creating a meeting state and minutes according to the present embodiment. In FIG. 3, the horizontal axis represents time t.
In the example indicated by reference sign g11, the new conference is started at time t1 and ended at time t2.
The example indicated by reference sign g12 is an example in which a new conference is started at time t11, interrupted at time t12, rested during the period from time 12 to t13, resumed at time t13, and ended at time t14.

符号g13の示す例では、新規会議Aが時刻t21に開始され時刻t22に中断され、時刻22〜t23の期間に休憩が入り、新規会議Bが時刻t23に開始され時刻t24に中断され、時刻24〜t25の期間に休憩が入り、新規会議Aが翌日の時刻t25に再開され時刻t26に終了した例である。   In the example indicated by reference sign g13, the new meeting A is started at time t21 and is interrupted at time t22, a break is entered during the period of time 22 to t23, and the new meeting B is started at time t23 and is interrupted at time t24. This is an example in which a break is entered during the period of t25, and the new meeting A is resumed at time t25 on the next day and ended at time t26.

このように、会議によっては、再開が別の日になる場合がある。また、中断された会議の間に、他の会議が行われ、その他の会議も中断状態の場合もあり得る。符号g13の場合、中断された会議が2つあるため、会議を再開する際に、どの会議を再開するか選択する必要が生じる。中断された会議が多数の場合や、中断された日時が数日前や数週間前の場合、継続したい会議のデータである議事録を探すのは会議名称だけでは困難である。
このため、本実施形態では、利用者の音声入力に応じて、中断されている会議の議事録に関する情報(会議の名称、出席者、議事録の最終更新日時、会議状態、キーワード)を提示し、更に提示された情報から利用者の音声入力によって絞り込みを行う。
Thus, depending on the conference, resumption may be on another day. In addition, another conference may be held between the interrupted conferences, and other conferences may be in a suspended state. In the case of the symbol g13, since there are two suspended conferences, it is necessary to select which conference to resume when the conference is resumed. When there are many suspended meetings, or when the suspended date and time is several days ago or several weeks ago, it is difficult to find the minutes that are the data of the meeting that you want to continue with just the meeting name.
For this reason, in this embodiment, according to the user's voice input, information (meeting name, attendee, last update date / time of meeting, meeting status, keyword) regarding the meeting minutes that have been interrupted is presented. Further, narrowing down is performed by voice input of the user from the presented information.

<中断した会議を再開する際に表示部に提示される情報>
次に、中断した会議を再開する際に表示部に提示される情報例を説明する。
図4は、本実施形態に係る中断した会議を再開する際に表示部に提示される情報例を示す図である。
<Information presented on the display when resuming an interrupted meeting>
Next, an example of information presented on the display unit when resuming the interrupted conference will be described.
FIG. 4 is a diagram illustrating an example of information presented on the display unit when resuming the interrupted conference according to the present embodiment.

画像g20は、中断した会議を再開する際に、まず表示部111に提示される画像例である。符号g21は、中断された会議のリストであり、右のスクロール部を操作部112を操作することで、リストを上下にスクロールさせることができる。符号g22は、利用者が、再開したい会議を選択するために入力した音声に対して音声認識処理を行った結果である。この場合、音声入力は「伊藤さんと一緒に会議をやった続きを再開したい。」である。   The image g20 is an image example first presented on the display unit 111 when resuming the interrupted conference. Reference g21 is a list of interrupted meetings, and the list can be scrolled up and down by operating the operation unit 112 on the right scroll unit. Reference sign g22 is a result of the voice recognition process performed on the voice input by the user to select the conference to be resumed. In this case, the voice input is “I want to resume the continuation of the meeting with Mr. Ito”.

画像g30は、画像g20において入力された音声に基づいて抽出された議事録の候補を提示した画像である。
符号g31は、第1候補であり、番号、会議の名称、参加者、最終更新日時およびキーワードを含む。符号g32は、第2候補であり、番号、会議の名称、参加者、最終更新日時およびキーワードを含む。
符号g33は、利用者が入力した音声に対して音声認識処理を行った結果である。この場合、音声入力は「管理職会議Bをお願いします。」である。
The image g30 is an image presenting candidate minutes extracted based on the voice input in the image g20.
The symbol g31 is a first candidate and includes a number, a meeting name, a participant, a last update date and time, and a keyword. The symbol g32 is a second candidate and includes a number, a meeting name, a participant, a last update date and time, and a keyword.
A symbol g33 is a result of performing speech recognition processing on the speech input by the user. In this case, the voice input is “Please give manager meeting B”.

画像g40は、画像g30において入力された音声に基づいて抽出された議事録の候補を提示した画像である。
符号g41は、候補であり、番号、会議の名称、参加者、最終更新日時およびキーワードを含む。
符号g42は、利用者が、利用者が入力した音声に対して音声認識処理を行った結果である。この場合、音声入力は「それでお願いします。」である。
The image g40 is an image presenting candidate minutes extracted based on the voice input in the image g30.
A symbol g41 is a candidate, and includes a number, a meeting name, a participant, a last update date and time, and a keyword.
The symbol g42 is the result of the user performing speech recognition processing on the speech input by the user. In this case, the voice input is “Thank you.”

画像g50は、再開したい会議の議事録が選択された後、会議が再開した際に、表示部111上に表示される画像である。
符号g51は、会議の参加者の発話を音声認識した結果のテキスト情報である。テキスト情報には、例えば、発話者と発話日時が含まれている。
なお、図4に示した表示例は一例であり、これに限らない。
The image g50 is an image displayed on the display unit 111 when the meeting is resumed after the minutes of the meeting to be resumed are selected.
Symbol g51 is text information obtained as a result of voice recognition of the speech of the conference participant. The text information includes, for example, the speaker and the utterance date / time.
The display example shown in FIG. 4 is an example, and the present invention is not limited to this.

図5は、本実施形態に係る会議録記憶部118が記憶する情報を説明するための図である。
図5に示すように、会議状態が終了の場合、会議録記憶部118は、その会議の議事録を記憶(保存)するが、その議事録に対して継続して記録することができない。
また、会議状態が中断の場合、会議録記憶部118は、その会議の議事録を記憶(保存)し、その議事録に対して再開が選択された場合、中断された議事録に再開された会議に議事録を追加して記録することができる。
FIG. 5 is a diagram for explaining information stored in the conference record storage unit 118 according to the present embodiment.
As shown in FIG. 5, when the conference state is ended, the minutes storage unit 118 stores (saves) the minutes of the meeting, but cannot continuously record the minutes.
When the meeting state is interrupted, the minutes storage unit 118 stores (saves) the minutes of the meeting, and when the resume is selected for the minutes, the minutes are resumed to the interrupted minutes. Minutes can be added to the meeting and recorded.

<会議支援装置1の処理>
次に、会議支援装置1が行う処理手順例を説明する。
図6は、本実施形態に係る会議開始時に会議支援装置1が行う処理手順例を示すフローチャートである。
<Processing of Conference Support Device 1>
Next, an example of a processing procedure performed by the conference support apparatus 1 will be described.
FIG. 6 is a flowchart illustrating an example of a processing procedure performed by the conference support apparatus 1 at the start of the conference according to the present embodiment.

(ステップS1)利用者は、音声入力によって、ログイン手続きを行う。例えば、利用者は、利用者を識別する識別情報(利用者ID)とパスワードを入力する。または、利用者は、操作部112を操作して、ログイン手続きを行う。会議支援装置1は、参加者毎にログイン手続きを行う。   (Step S1) The user performs a login procedure by voice input. For example, the user inputs identification information (user ID) and a password for identifying the user. Alternatively, the user operates the operation unit 112 to perform a login procedure. The conference support apparatus 1 performs a login procedure for each participant.

(ステップS2)議事録選択部109は、参加者の音声、または操作部112が操作指された結果に基づいて、新規の会議を行うのか、中断された会議を再開するのかを設定する。なお、ステップS3〜S11の処理は、会議を再開する際の処理である。新規の会議の場合は、ステップS3〜S1の処理が行われない。また、会議支援装置1は、その会議に参加する参加者名の登録、参加者が使用する収音部101の登録等、会議の設定を行う。会議の設定には、収音部101がピンマイクであるのかマイクロフォンアレイであるか等の設定も含まれている。なお、議事録作成部107は、これらの会議の設定情報を議事録に対応付けて、議事録記憶部108に記憶させる。なお、議事録作成部107は、終了した会議については、会議の設定情報を記憶させないようにしてもよい。   (Step S2) The minutes selection unit 109 sets whether to start a new meeting or resume an interrupted meeting based on the voice of the participant or the result of the operation unit 112 being pointed. In addition, the process of step S3-S11 is a process at the time of restarting a meeting. In the case of a new conference, steps S3 to S1 are not performed. In addition, the conference support apparatus 1 performs conference settings such as registration of names of participants who participate in the conference and registration of the sound collection unit 101 used by the participants. The conference setting includes settings such as whether the sound collection unit 101 is a pin microphone or a microphone array. Note that the minutes creation unit 107 stores the setting information of these meetings in the minutes storage unit 108 in association with the minutes. Note that the minutes creation unit 107 may not store conference setting information for a completed conference.

(ステップS3)議事録選択部109は、議事録記憶部108が記憶する情報を探索して、中断されている会議の議事録のリストの画像データ(例;図4、画像g20、符号g21)を生成し、生成した画像データを画像生成部110に出力して表示部111上に表示させる。続けて、議事録選択部109は、どの会議を継続するか選択するため、発話を促す画像データ(例;図4、画像g20の「継続中の会議は以下のとおりです。音声を発話してください」)を生成し、生成した画像データを画像生成部110に出力して表示部111上に表示させる。   (Step S3) The minutes selection unit 109 searches the information stored in the minutes storage unit 108, and the image data of the list of minutes of the meeting that has been interrupted (eg, FIG. 4, image g20, code g21) , And the generated image data is output to the image generation unit 110 and displayed on the display unit 111. Subsequently, the minutes selector 109 selects image data for prompting speech in order to select which conference to continue (for example, “Continuing conference in FIG. 4, image g20 is as follows. Please generate ") and output the generated image data to the image generation unit 110 to display on the display unit 111.

(ステップS4)参加者は、発話(例;図4、画像g20、「伊藤さんと一緒に会議をやった続きを再開したい。」)を行う。収音部101は、発話された音声を取得する。   (Step S4) The participant speaks (eg; FIG. 4, image g20, “I want to resume the continuation of the meeting with Mr. Ito”). The sound collection unit 101 acquires the spoken voice.

(ステップS5)会議支援装置1は、収音部101が収音した音声信号に対して、音声認識処置、テキスト変換処理、係り受け解析処理を行う。   (Step S5) The conference support apparatus 1 performs voice recognition processing, text conversion processing, and dependency analysis processing on the voice signal picked up by the sound pickup unit 101.

(ステップS6)議事録選択部109は、ステップS5の処理により取得したテキスト情報(例;「伊藤さんと一緒に会議をやった続きを再開したい。」)に基づいて、その条件に合う中断されている会議の議事録を絞り込んで議事録記憶部108から読み出す。なお、絞り込みに使用するワードは、参加者名、会議に関する時刻(開催開始日時、または終了日時)、および会議で用いられたキーワードのうちの少なくとも1つである。   (Step S6) The minutes selection unit 109 is suspended according to the conditions based on the text information acquired by the process of step S5 (eg, “I want to resume the continuation of the meeting with Mr. Ito”). The minutes of the conference being narrowed down are read out from the minutes storage unit 108. The word used for narrowing down is at least one of the participant name, the time related to the conference (the start date and time or the end date and time), and the keyword used in the conference.

(ステップS7)議事録選択部109は、読み出した条件に合う会議の議事録の画像データ(例;図5、画像g30、符号g31、符号g32)を生成し、生成した画像データを画像生成部110に出力して表示部111上に表示させる。   (Step S7) The minutes selection unit 109 generates image data (for example, FIG. 5, image g30, code g31, code g32) of the meeting minutes meeting the read conditions, and the generated image data is an image generation unit. 110 to display on the display unit 111.

(ステップS8)参加者は、発話(例;図4、画像g30の符号g33「管理職会議Bを御願いします。」または図4、画像g40の符号42「それで御願いします。」)を行う。収音部101は、発話された音声を取得する。   (Step S8) The participant speaks (eg; FIG. 4, reference g33 of the image g30 “Please give me a managerial meeting B” or FIG. 4, reference g42 of the image g40 “Thank you.”) I do. The sound collection unit 101 acquires the spoken voice.

(ステップS9)会議支援装置1は、収音部101が収音した音声信号に対して、音声認識処置、テキスト変換処理、係り受け解析処理を行う。   (Step S9) The conference support apparatus 1 performs voice recognition processing, text conversion processing, and dependency analysis processing on the voice signal picked up by the sound pickup unit 101.

(ステップS10)議事録選択部109は、再開したい(継続したい)会議を絞り込めたか否かを判定する。例えば、議事録選択部109は、表示した結果に対して同意する発話内容であった場合に絞り込めたと判定し、同意しない発話であった場合に絞り込めていないと判定する。または、議事録選択部109は、ステップS7で表示部111上に表示させた候補の議事録が1つであった場合、再開したい(継続したい)会議を絞り込めたと判定し、ステップS7で表示部111上に表示させた候補の議事録が2つ以上であった場合、再開したい(継続したい)会議を絞り込めていないと判定する。議事録選択部109は、再開したい(継続したい)会議を絞り込めたと判定した場合(ステップS10;YES)、ステップS11の処理に進め、再開したい(継続したい)会議を絞り込めていないと判定した場合(ステップS10;NO)、ステップS7の処理に戻す。   (Step S10) The minutes selection unit 109 determines whether or not the meetings that are to be resumed (required to be continued) have been narrowed down. For example, the minutes selection unit 109 determines that the utterance content agrees with the displayed result, and determines that the utterance has not been narrowed down. Alternatively, if the number of candidate minutes displayed on the display unit 111 in step S7 is one, the minutes selection unit 109 determines that the meeting to be resumed (to be continued) has been narrowed down and displayed in step S7. If there are two or more candidate minutes displayed on the section 111, it is determined that the meeting to be resumed (to be continued) has not been narrowed down. When the minutes selection unit 109 determines that the meetings that it wants to resume (want to continue) have been narrowed down (step S10; YES), it proceeds to the process of step S11 and determines that the meetings that it wants to resume (want to continue) have not been narrowed down In the case (step S10; NO), the process returns to step S7.

(ステップS11)会議支援装置1は、会議の再開が音声入力または操作部112の操作によって行われたとき、選択した議事録に対して議事録の作成を再開する。なお、会議支援装置1は、会議が再開された場合、ステップS2で設定された会議の設定を議事録記憶部108から読み出す。これにより、参加者は、再開する会議の再設定を行わずに済む。続けて、会議支援装置1は、会議を継続し、選択した議事録に継続した会議の内容を使いして1つの議事録として作成を継続する。続けて、会議支援装置1は、会議の終了時に会議を終了するか中断するかを示す情報を表示させる(図7参照)。続けて、会議支援装置1は、会議を中断する際に、議事録に会議が中断されたことを示す情報(フラグ)を付加して議事録記憶部108に記憶させる。なお、会議支援装置1は、会議の設定情報を表示部111上に表示させる。これにより、参加者は、参加者の確認、参加者が使用する収音部101の番号を確認することができる。   (Step S11) When the conference is resumed by voice input or operation of the operation unit 112, the conference support apparatus 1 resumes the creation of the minutes for the selected minutes. Note that, when the conference is resumed, the conference support apparatus 1 reads the conference settings set in step S2 from the minutes storage unit 108. Thereby, the participant does not need to reset the conference to be resumed. Subsequently, the conference support apparatus 1 continues the conference, and continues to create a single minutes using the content of the continued conference for the selected minutes. Subsequently, the conference support apparatus 1 displays information indicating whether the conference is to be ended or interrupted at the end of the conference (see FIG. 7). Subsequently, when the conference is interrupted, the conference support apparatus 1 adds information (flag) indicating that the conference is interrupted to the minutes and stores the information in the minutes storage unit 108. The conference support apparatus 1 displays conference setting information on the display unit 111. Thereby, the participant can confirm the participant and the number of the sound collection unit 101 used by the participant.

<会議中と会議終了時に表示部111上に表示される画像>
次に、会議中と会議終了時に表示部111上に表示される画像例を説明する。
図7は、本実施形態に係る会議中と会議終了時に表示部111上に表示される画像例を示す図である。
画像g100は、表示部111上に表示される画像である。
<Images displayed on the display unit 111 during and at the end of the meeting>
Next, an example of an image displayed on the display unit 111 during the meeting and at the end of the meeting will be described.
FIG. 7 is a diagram illustrating an example of an image displayed on the display unit 111 during the meeting and at the end of the meeting according to the present embodiment.
The image g100 is an image displayed on the display unit 111.

領域g101は、参加者情報編集を行う領域である。領域g101の画像には、参加者に対応したアイコン画像、参加者の名前、参加者が使用するマイクロフォンの番号(または識別情報)等が含まれている。   An area g101 is an area for editing participant information. The image in the region g101 includes an icon image corresponding to the participant, the name of the participant, a microphone number (or identification information) used by the participant, and the like.

領域g102は、議事録を表示する領域である。なお、図7では、ログイン後の状態を示している。領域g102の画像には、ログイン/ログアウトのボタン画像、会議の開始/終了のボタン画像、会議の開催中に点灯する表示、議事録の表示や音声信号の再生を行うボタン画像、収音部101の使用有無を選択するボタン画像、参加者の人数を示す画像、参加者の音声入力を音声認識処理した結果の画像等が含まれている。   The area g102 is an area for displaying minutes. FIG. 7 shows a state after login. The image in the region g102 includes a login / logout button image, a conference start / end button image, a display that lights up during the conference, a button image for displaying the minutes and playing the audio signal, and the sound collection unit 101. A button image for selecting whether or not to use, an image indicating the number of participants, an image obtained as a result of performing speech recognition processing on the speech input of the participants, and the like are included.

会議の終了が指示された場合、例えば操作部112の操作によって会議終了のボタン画像g103が選択された場合、議事録選択部109は、画像g110を表示させる指示を画像生成部110に出力することで、画像g110を表示部111上に表示させる。
画像g110には、会議の中断のボタン画像g111、会議終了のボタン画像g112、および会議終了の選択をキャンセルのボタン画像g113が含まれている。参加者は、操作部112を操作して、または音声入力によって、これら3つのうちから1つを選択する。
なお、会議開催中は、画像g110が表示されず、領域g101と領域g102の画像が表示部111上に表示される。聴覚障がい者の参加者は、表示部111上に表示される音声認識されて結果を見ることで、他の参加者の発話内容を理解することができる。
When the end of the conference is instructed, for example, when the button image g103 of the end of the conference is selected by operating the operation unit 112, the minutes selection unit 109 outputs an instruction to display the image g110 to the image generation unit 110. Thus, the image g110 is displayed on the display unit 111.
The image g110 includes a conference stop button image g111, a conference end button image g112, and a conference end selection cancel button image g113. The participant operates the operation unit 112 or selects one of these three by voice input.
During the conference, the image g110 is not displayed, and the images of the areas g101 and g102 are displayed on the display unit 111. Participants who are hearing impaired can recognize the speech contents of other participants by recognizing the voice displayed on the display unit 111 and viewing the result.

図8は、図7において、会議終了または会議継続が選択された場合に表示部111上に表示される画像例である。
画像g200は、表示部111上に表示される画像である。
FIG. 8 is an example of an image displayed on the display unit 111 when the conference end or the conference continuation is selected in FIG.
The image g200 is an image displayed on the display unit 111.

画像g210は、ログアウト処理を開始することを示す画像である。画像g210には、処理に同意するOKのボタン画像g211が含まれている。なお、OKのボタン画像g211が選択されない場合であっても、会議支援装置1は、所定の時間(例えば3秒)後にログアウト処理を行う。   The image g210 is an image indicating that logout processing is started. The image g210 includes an OK button image g211 that agrees to the processing. Even when the OK button image g211 is not selected, the conference support apparatus 1 performs logout processing after a predetermined time (for example, 3 seconds).

なお、図7と図8に示した画像は一例であり、表示部111上に表示される画像は、会議によって異なる。また、画像g110や画像g210も一例であり、画像は異なっていてもよい。例えば画像g210にはキャンセルのボタン画像が含まれていてもよい。   Note that the images shown in FIGS. 7 and 8 are examples, and the images displayed on the display unit 111 differ depending on the conference. Further, the image g110 and the image g210 are also examples, and the images may be different. For example, the image g210 may include a cancel button image.

<会議開始時に表示部111上に表示される画像>
次に、会議開始時に表示部111上に表示される画像例を説明する。
図9は、本実施形態に係る会議開始時に表示部111上に表示される画像例を示す図である。利用者は、操作部112を操作して、各設定を行う。画像g300は、表示部111上に表示される画像である。
領域g301の画像は、会議設定を行う画像である。領域g301の画像には、例えば、音声認識を行うマイクロフォンの設定領域、音声録音の選択を行う設定領域、および会議形態(会議、テレビ会議、ワイガヤ、発表会等)を選択する設定領域等が含まれている。なお、「ワイガヤ」とは、ワイワイガヤガヤの略であり、自由に発言を行う会議である。
なお、各設定領域は一例であり、これに限らない。
<Image displayed on display unit 111 at the start of the conference>
Next, an example of an image displayed on the display unit 111 at the start of the conference will be described.
FIG. 9 is a diagram illustrating an example of an image displayed on the display unit 111 at the start of the conference according to the present embodiment. The user operates the operation unit 112 to make each setting. The image g300 is an image displayed on the display unit 111.
The image in the region g301 is an image for performing conference setting. The image in the area g301 includes, for example, a microphone setting area for voice recognition, a setting area for selecting voice recording, and a setting area for selecting a meeting form (conference, video conference, Waigaya, presentation, etc.). It is. Note that “waigaya” is an abbreviation for “waiwaigayayaya”, and is a conference where people can speak freely.
Each setting area is an example, and the present invention is not limited to this.

また、図9に示すように、会議支援装置1は、会議の開始時に、画像g310の画像を表示させる。画像g310の画像には、新規の会議を開催する際に選択される新規のボタン画像g311、中断していた会議を再開する際に選択される継続のボタン画像g312が含まれる。
利用者は、操作部112を操作、または音声入力により、新規の会議を行うのか、中断されている会議を継続するのかを選択する。継続が選択された場合、図4に示した画像g20が表示される。
As shown in FIG. 9, the conference support apparatus 1 displays an image g310 at the start of the conference. The image g310 includes a new button image g311 that is selected when a new conference is held, and a continuation button image g312 that is selected when the suspended conference is resumed.
The user selects whether to hold a new meeting or continue a suspended meeting by operating the operation unit 112 or by voice input. When continuation is selected, the image g20 shown in FIG. 4 is displayed.

図10は、本実施形態に係る中断された会議リストの画像の他の例である。
画像g400は、表示部111上に表示される画像である。
領域301は、図9と同様に会議設定の領域の画像である。
符号g410は、中断された会議リストの画像の他の例である。中断された会議リストは、会議の名称、会議が行われた場所、開催日時(開始時間)との情報を含んでいてもよい。なお、図10に示した画像は一例であり、中断された会議リストに含まれる情報は、これに限らない。
FIG. 10 is another example of an interrupted conference list image according to the present embodiment.
The image g400 is an image displayed on the display unit 111.
An area 301 is an image of a conference setting area as in FIG.
Reference numeral g410 is another example of an image of an interrupted conference list. The suspended conference list may include information on the name of the conference, the location where the conference was held, and the date and time (start time) of the conference. Note that the image shown in FIG. 10 is an example, and the information included in the suspended conference list is not limited to this.

上述した実施形態によれば、中断されている会議の中から再開したい(継続したい)会議を、参加者の発話に基づいて絞って提示するようにした。これにより、参加者は、中断されている会議の中から再開したい(継続したい)会議を音声によって選択することができる。   According to the above-described embodiment, the conference that the user wants to resume (continue) from the suspended conferences is presented based on the utterances of the participants. Thereby, the participant can select the conference that he / she wants to resume (continue) from among the suspended conferences by voice.

<第1変形例>
図4に示した例では、画像g30において音声入力によって画像g40のように1つの議事録に絞り込めた(会議を絞り込めた)例を説明したが、この処理によっても議事録を絞り込めない場合もあり得る。変形例では、このような場合の処理例を説明する。
<First Modification>
In the example illustrated in FIG. 4, the example in which the minutes of the image g30 are narrowed down to one minutes (the meeting is narrowed down) as in the image g40 by voice input has been described. There may be cases. In the modification, a processing example in such a case will be described.

図11は、本実施形態の第1変形例における会議継続時に議事録を絞り込めなかった際に表示される画像例を示す図である。
画像g30aは、例えば2回の音声入力によっても会議を絞り込めなかった例に表示される画像例である。画像g30aには、第1の候補の画像g31aと、第2の候補の画像g32aが含まれている。参加者は、この画像からでは、再開したい会議を絞り込めなかったため、音声入力「絞り込めません。」(画像g33a)を行う。
FIG. 11 is a diagram showing an example of an image displayed when the minutes cannot be narrowed down during the conference in the first modified example of the present embodiment.
The image g30a is an example of an image that is displayed in an example in which the conference cannot be narrowed down by two voice inputs, for example. The image g30a includes a first candidate image g31a and a second candidate image g32a. From this image, the participant has not been able to narrow down the conference to be resumed, and therefore performs voice input “cannot be narrowed down” (image g33a).

議事録選択部109は、音声入力「絞り込めません。」に基づいて、第1の候補と第2の候補について、情報を追加して再表示させる。画像g30bは、情報を追加して再表示させた画像例である。画像g30bでは、第1の候補の画像g31aに対して画像g31bのように、参加者として「鈴木」が追加され、キーワードとして「課題、欧州」が追加されている。また、画像g30bでは、第2の候補の画像g32aに対して画像g32bのように、参加者として「渡辺」が追加され、キーワードとして「米国、中国」が追加されている。
なお、追加される情報の個数は1つ以上であればよい。また、議事録選択部109は、追加した情報のみを表示させるようにしてもよい。
The minutes selection unit 109 adds information about the first candidate and the second candidate and re-displays them based on the voice input “cannot be narrowed down”. The image g30b is an image example in which information is added and redisplayed. In the image g30b, “Suzuki” is added as a participant to the first candidate image g31a, and “Issue, Europe” is added as a keyword, as in the image g31b. In the image g30b, “Watanabe” is added as a participant and “US, China” is added as a keyword, as in the image g32b, with respect to the second candidate image g32a.
Note that the number of information to be added may be one or more. Further, the minutes selection unit 109 may display only the added information.

利用者は、この追加された情報によって、継続したい会議を1つに絞り込みことができる。なお、参加者である利用者は、画像g30aの表示の際、追加してほしい情報を音声によって入力するようにしてもよい。利用者は、例えば、「絞り込めないので、キーワードをもっと表示してください。」等の発話を行うようにしてもよい。会議支援装置1は、この発話に対して音声認識等の処理を行い、画像g30bを表示させるようにしてもよい。   The user can narrow down the conference to be continued to one by this added information. It should be noted that the user who is a participant may input information desired to be added by voice when displaying the image g30a. For example, the user may make an utterance such as “please display more keywords because it cannot be narrowed down”. The meeting support apparatus 1 may perform processing such as voice recognition on the utterance and display the image g30b.

第1変形例によれば、参加者が発話した内容で会議を絞りきれなかった場合に、候補の会議の議事録の情報を追加して提示する。これにより、参加者は、中断されている会議の中から再開したい(継続したい)会議を音声によって選択することができる。   According to the first modified example, when the conference cannot be narrowed down by the content uttered by the participant, information on the minutes of the candidate conference is additionally presented. Thereby, the participant can select the conference that he / she wants to resume (continue) from among the suspended conferences by voice.

<第2変形例>
上述した会議支援装置1では、図1に示す構成例を説明したが、会議支援装置に子機が接続されていてもよい。
この場合は、例えば会議の進行者が会議支援装置を使用し、他の参加者が子機を使用する。
<Second Modification>
In the conference support apparatus 1 described above, the configuration example illustrated in FIG. 1 has been described. However, a slave unit may be connected to the conference support apparatus.
In this case, for example, a conference proceeding person uses the conference support apparatus, and other participants use the slave units.

参加者のうち、発話が不自由な人が会議に参加していてもよい。発話可能な参加者は、参加者毎に収音部を装着するか、収音部を備える端末(スマートフォン、タブレット端末、パーソナルコンピュータ等)を用いる。聴覚障がいの参加者は、テキストを入力可能な端末を用いる。会議支援装置は、参加者の発話した音声信号に対して音声認識、テキスト化して、各自の端末にテキストを表示させる。また、会議支援装置は、聴覚障がい者が入力したテキスト情報を各自の端末にテキストを表示させる。   Among the participants, a person who is not able to speak may be participating in the conference. Participants who can speak use a sound collection unit for each participant or use a terminal (smart phone, tablet terminal, personal computer, etc.) equipped with a sound collection unit. Participants with hearing impairments use terminals capable of inputting text. The conference support apparatus recognizes voices of voice signals uttered by the participants, converts the voice signals into text, and displays the text on each terminal. In addition, the conference support apparatus displays text information input by the hearing impaired person on each terminal.

図12は、本実施形態に係る第2変形例における会議支援システム2の構成例を示すブロック図である。
図12に示すように、会議支援システム2は、会議支援装置1Aと、子機3a、3b、・・・を備える。なお、子機3a、子機3b、・・・のうち1つを特定しない場合は、単に子機3という。
会議支援装置1Aと子機3とは、有線または無線のネットワークを介して接続されている。
FIG. 12 is a block diagram illustrating a configuration example of the conference support system 2 in the second modification example according to the present embodiment.
As shown in FIG. 12, the conference support system 2 includes a conference support device 1A and slave units 3a, 3b,. In addition, when not specifying one of the subunit | mobile_unit 3a, the subunit | mobile_unit 3b, ..., it is only called the subunit | mobile_unit 3. FIG.
The conference support apparatus 1A and the child device 3 are connected via a wired or wireless network.

会議支援装置1Aは、収音部101、取得部102A、音声認識辞書DB103、音声認識部104、テキスト変換部105、係り受け解析部106A、議事録作成部107A、議事録記憶部108、議事録選択部109、画像生成部110A、表示部111、操作部112、および通信部113を備える。なお、会議支援装置1と同様の機能を有する機能部には同じ符号を用いて説明を省略する。   The conference support apparatus 1A includes a sound collection unit 101, an acquisition unit 102A, a speech recognition dictionary DB 103, a speech recognition unit 104, a text conversion unit 105, a dependency analysis unit 106A, a minutes creation unit 107A, a minutes storage unit 108, and minutes. A selection unit 109, an image generation unit 110A, a display unit 111, an operation unit 112, and a communication unit 113 are provided. In addition, the description which abbreviate | omits the function part which has a function similar to the meeting assistance apparatus 1 using the same code | symbol.

子機3は、収音部301、操作部302(テキスト入力部)、処理部303、表示部304、および通信部305を備える。収音部301、操作部302、処理部303、表示部304(子機表示部)、および通信部305は、バス306を介して接続されている。   The subunit | mobile_unit 3 is provided with the sound collection part 301, the operation part 302 (text input part), the process part 303, the display part 304, and the communication part 305. The sound collection unit 301, the operation unit 302, the processing unit 303, the display unit 304 (child device display unit), and the communication unit 305 are connected via a bus 306.

子機3は、例えばスマートフォン、タブレット端末、パーソナルコンピュータ等である。なお、子機3は、音声出力部、モーションセンサー、GPS(Global Positioning System;全地球測位システム)等を備えていてもよい。   The subunit | mobile_unit 3 is a smart phone, a tablet terminal, a personal computer etc., for example. In addition, the subunit | mobile_unit 3 may be provided with the audio | voice output part, the motion sensor, GPS (Global Positioning System; Global positioning system) etc.

収音部301は、マイクロフォンである。収音部301は、利用者の音声信号を収音し、収音した音声信号をアナログ信号からデジタル信号に変換して、デジタル信号に変換した音声信号を処理部303に出力する。   The sound collection unit 301 is a microphone. The sound collection unit 301 collects a user's sound signal, converts the collected sound signal from an analog signal to a digital signal, and outputs the sound signal converted into the digital signal to the processing unit 303.

操作部302は、利用者の操作を検出し、検出した結果を処理部303に出力する。操作部302は、例えば表示部304上に設けられたタッチパネル式のセンサー、または優先接続または無線接続のキーボード等である。   The operation unit 302 detects a user operation and outputs the detected result to the processing unit 303. The operation unit 302 is, for example, a touch panel sensor provided on the display unit 304 or a priority connection or wireless connection keyboard.

処理部303は、操作部302が操作された操作結果に基づいて設定情報を生成し、生成した設定情報を通信部305に出力する。ここで、設定情報には、参加者の識別情報が含まれている。処理部303は、操作部302が操作された操作結果に基づいてログイン指示を生成し、生成したログイン指示を通信部305に出力する。ここで、ログイン指示には、参加者の識別情報、子機3の識別情報が含まれている。処理部303は、操作部302が操作された操作結果に基づくテキスト情報に識別情報を付加して通信部305に出力する。処理部303は、収音部301が出力する音声信号に識別情報を付加して通信部305に出力する。処理部303は、通信部305が出力する画像データを取得し、取得した画像データを表示部304に出力する。処理部303は、通信部305が出力するログインを許可する情報に基づいて、会議支援装置1Aとの通信を確立する。処理部303は、会議支援装置1Aから発言制限指示(入力制限指示)を受信した場合、テキスト入力に対して制限を行う。また、処理部303は、会議支援装置1Aから発言制限指示を受信した場合、音声入力に対しても制限を行うようにしてもよい。   The processing unit 303 generates setting information based on the operation result of the operation unit 302 being operated, and outputs the generated setting information to the communication unit 305. Here, the setting information includes identification information of the participant. The processing unit 303 generates a login instruction based on the operation result of the operation unit 302 being operated, and outputs the generated login instruction to the communication unit 305. Here, the login instruction includes the identification information of the participant and the identification information of the handset 3. The processing unit 303 adds identification information to text information based on the operation result of the operation unit 302 being operated, and outputs the text information to the communication unit 305. The processing unit 303 adds the identification information to the audio signal output from the sound collection unit 301 and outputs it to the communication unit 305. The processing unit 303 acquires the image data output from the communication unit 305 and outputs the acquired image data to the display unit 304. The processing unit 303 establishes communication with the conference support apparatus 1 </ b> A based on the information permitting login output from the communication unit 305. When the processing unit 303 receives a speech restriction instruction (input restriction instruction) from the conference support apparatus 1A, the processing unit 303 restricts text input. In addition, when the processing unit 303 receives a speech restriction instruction from the conference support apparatus 1A, the processing unit 303 may perform restriction on voice input.

表示部304は、処理部303が出力した画像データを表示する。表示部304は、例えば液晶表示装置、有機EL(エレクトロルミネッセンス)表示装置、電子インク表示装置等である。なお、表示部304上に表示される画像については後述する。   The display unit 304 displays the image data output from the processing unit 303. The display unit 304 is, for example, a liquid crystal display device, an organic EL (electroluminescence) display device, an electronic ink display device, or the like. The image displayed on the display unit 304 will be described later.

通信部305は、処理部303が出力する設定情報を、ネットワークを介して会議支援装置1Aへ送信する。通信部305は、処理部303が出力するログイン指示を、ネットワークを介して会議支援装置1Aへ送信する。通信部305は、処理部303が出力するテキスト情報または音声信号を、ネットワークを介して会議支援装置1Aへ送信する。なお、送信するテキスト情報または音声信号には、利用者の識別情報と子機3の識別情報が含まれている。通信部305は、会議支援装置1Aが送信した画像データを受信し、受信した画像データを処理部303に出力する。通信部305は、会議支援装置1Aが送信したログインを許可する情報を受信した場合、受信したログインを許可する情報を処理部303に出力する。   The communication unit 305 transmits the setting information output from the processing unit 303 to the conference support apparatus 1A via the network. The communication unit 305 transmits a login instruction output from the processing unit 303 to the conference support apparatus 1A via the network. The communication unit 305 transmits the text information or the audio signal output from the processing unit 303 to the conference support apparatus 1A via the network. Note that the text information or audio signal to be transmitted includes user identification information and slave unit 3 identification information. The communication unit 305 receives the image data transmitted by the conference support apparatus 1A and outputs the received image data to the processing unit 303. When the communication unit 305 receives information permitting login transmitted from the conference support apparatus 1 </ b> A, the communication unit 305 outputs the received information permitting login to the processing unit 303.

取得部102Aは、取得部102が行う処理に加えて、通信部113が出力する子機3が送信した音声信号を取得する。   In addition to the process performed by the acquisition unit 102, the acquisition unit 102A acquires the audio signal transmitted by the slave unit 3 output from the communication unit 113.

係り受け解析部106Aは、係り受け解析部106が行う処理に加えて、通信部113が出力する子機3が送信したテキスト情報を取得する。   In addition to the processing performed by the dependency analysis unit 106, the dependency analysis unit 106A acquires text information transmitted from the slave unit 3 and output from the communication unit 113.

議事録作成部107Aは、議事録作成部107が行う処理に加えて、通信部113が出力する子機3が送信した設定情報を取得する。   In addition to the processing performed by the minutes creation unit 107, the minutes creation unit 107A acquires the setting information transmitted by the handset 3 output from the communication unit 113.

画像生成部110Aは、生成した画像データを通信部113に出力する。画像データには、会議中に参加者が発話した結果を音声認識等の処理を行った結果(例えば図7の符号g102の領域)が含まれている。   The image generation unit 110A outputs the generated image data to the communication unit 113. The image data includes a result (for example, a region indicated by reference sign g102 in FIG. 7) obtained by performing processing such as speech recognition on the result of the participant speaking during the conference.

通信部113は、子機3が送信した設定情報を取得し、取得した設定情報を議事録作成部107Aに出力する。通信部113は、子機3が送信したログイン指示を受信する。会議支援装置1Aは、受信したログイン指示に応じて、子機3のログイン手続きを行う。通信部113は、子機3から受信した音声信号を取得部102Aに出力する。通信部113は、子機3から受信した音声信号を係り受け解析部106Aに出力する。通信部113は、画像生成部110Aが出力する画像データを子機3へ送信する。   The communication unit 113 acquires the setting information transmitted by the child device 3, and outputs the acquired setting information to the minutes creation unit 107A. The communication unit 113 receives the login instruction transmitted by the child device 3. The conference support apparatus 1A performs a login procedure for the slave unit 3 in response to the received login instruction. Communication unit 113 outputs the audio signal received from handset 3 to acquisition unit 102A. The communication unit 113 outputs the audio signal received from the child device 3 to the dependency analysis unit 106A. The communication unit 113 transmits the image data output from the image generation unit 110A to the child device 3.

この構成によって、第2変形例によれば、参加者は、他の参加者の発話内容を子機3の表示部304の表示によって理解することができる。この結果、第2変形例によれば、健聴者と聴覚障がい者とが一緒に会議に参加しやすくすることができる。   With this configuration, according to the second modification, the participant can understand the utterance contents of other participants by displaying the display unit 304 of the child device 3. As a result, according to the second modification, it is possible to make it easier for the normal hearing person and the hearing impaired person to participate in the conference together.

なお、本発明における会議支援装置1(または1A)の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより会議支援装置1(または1A)が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   A program for realizing all or part of the functions of the conference support apparatus 1 (or 1A) in the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is stored in a computer system. You may perform all or one part of the process which the meeting assistance apparatus 1 (or 1A) performs by reading and performing. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。   As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, and various deformation | transformation and substitution are within the range which does not deviate from the summary of this invention. Can be added.

1,1A…会議支援装置、2…会議支援システム、101…収音部、102,102A…取得部、103…音声認識辞書DB、104…音声認識部、105…テキスト変換部、106,106A…係り受け解析部、107,107A…議事録作成部、108…議事録記憶部、109…議事録選択部、110,110A…画像生成部、111…表示部、112…操作部、113…通信部、3…子機、301…収音部、302…操作部、303…処理部、304…表示部、305…通信部 DESCRIPTION OF SYMBOLS 1,1A ... Conference support apparatus, 2 ... Conference support system, 101 ... Sound collection part, 102, 102A ... Acquisition part, 103 ... Speech recognition dictionary DB, 104 ... Speech recognition part, 105 ... Text conversion part, 106, 106A ... Dependency analysis unit, 107, 107A ... Minutes creation unit, 108 ... Minutes storage unit, 109 ... Minutes selection unit, 110, 110A ... Image generation unit, 111 ... Display unit, 112 ... Operation unit, 113 ... Communication unit 3 ... Slave unit, 301 ... Sound collection unit, 302 ... Operation unit, 303 ... Processing unit, 304 ... Display unit, 305 ... Communication unit

Claims (7)

収音部と、
前記収音部にて音声入力された発話に対して音声認識用辞書を用いて音声認識を行う音声認識部と、
前記音声認識されたテキストを議事録として表示する表示部と、
前記議事録を記憶し、中断している会議の前記議事録に対して中断していることを示す情報を前記議事録に関連付けて記憶する記憶部と、
中断された会議を再開する場合において、前記中断された会議の候補を表示し、表示した前記会議の候補を、音声発話を音声認識した結果に基づいて継続したい会議の候補を絞り込む選択部と、
を備える会議支援装置。
A sound collection unit;
A speech recognition unit that performs speech recognition using a speech recognition dictionary for speech input by the sound collection unit;
A display unit for displaying the voice-recognized text as a minutes;
A storage unit for storing the minutes and storing information indicating that the meeting is suspended with respect to the minutes of the suspended meeting;
In the case of resuming a suspended conference, the selection unit displays the suspended conference candidates, and narrows down the conference candidates to be displayed based on the result of speech recognition of the displayed conference candidates.
A meeting support apparatus.
前記選択部は、継続したい会議の絞込みを、前記会議の出席者、前記会議に関する時刻、および前記議事録から抽出されたキーワードのうち少なくとも1つで絞込みを行う、請求項1に記載の会議支援装置。   The conference support according to claim 1, wherein the selection unit narrows down a conference to be continued by at least one of a participant extracted from the conference, a time related to the conference, and a keyword extracted from the minutes. apparatus. 前記音声認識部は、継続する会議で使用された音声認識用辞書を用いる、請求項1または請求項2に記載の会議支援装置。   The conference support apparatus according to claim 1, wherein the voice recognition unit uses a voice recognition dictionary used in a continuous conference. 前記選択部は、継続したい会議の2回目以降の絞り込みの際に、前記会議の出席者を追加して提示、および前記議事録から抽出されたキーワードを追加して提示のうち少なくとも1つを行うようにする、請求項1から請求項3のいずれか1項に記載の会議支援装置。   The selection unit performs at least one of presentation by adding the attendees of the conference and adding a keyword extracted from the minutes when narrowing down the conference to be continued for the second time or later. The conference support device according to claim 1, wherein the conference support device is configured as described above. 前記会議支援装置に通信によって接続される子機であって、前記子機が、収音部と子機表示部と操作部とを備え、
前記音声認識部は、前記子機が送信した音声信号に対して前記音声認識用辞書を用いて音声認識を行い、
前記収音部が収音した音声信号と、前記子機の収音部が収音した音声新語とに対して音声認識した結果を、前記表示部と前記子機表示部とに表示させる、請求項1から請求項4のいずれか1項に記載の会議支援装置。
A slave unit connected to the conference support apparatus by communication, wherein the slave unit includes a sound collection unit, a slave unit display unit, and an operation unit,
The voice recognition unit performs voice recognition on the voice signal transmitted by the slave using the voice recognition dictionary,
A voice recognition result of the voice signal picked up by the sound pickup unit and a new voice word picked up by the sound pickup unit of the slave unit is displayed on the display unit and the slave unit display unit; The conference support device according to any one of claims 1 to 4.
会議の議事録を記憶する記憶部を備える会議支援装置における会議支援方法であって、
収音部が、音声入力された発話を取得する収音ステップと、
音声認識部が、前記収音ステップにて音声入力された発話に対して音声認識用辞書を用いて音声認識を行う音声認識ステップと、
議事録作成部が、前記音声認識ステップによって音声認識されたテキストの議事録を作成し、前記会議が中断された場合に中断されたことを示す情報を前記議事録に関連付けて記憶させる議事録作成ステップと、
選択部が、中断された会議を再開する場合において、前記中断された会議の候補を表示し、表示した前記会議の候補を、音声発話を音声認識した結果に基づいて継続したい会議の候補を絞り込む選択ステップと、
を含む会議支援方法。
A meeting support method in a meeting support apparatus having a storage unit for storing meeting minutes,
A sound collection step for obtaining a speech input by the sound collection unit;
A voice recognition step in which a voice recognition unit performs voice recognition using the voice recognition dictionary for the utterance inputted by voice in the sound collecting step;
Minutes creation of the minutes of the text recognized by the voice recognition step in the minutes creation unit, and storing the information indicating that the meeting is interrupted in association with the minutes when the meeting is interrupted Steps,
When the selection unit resumes an interrupted conference, the candidate for the interrupted conference is displayed, and the candidates for the conference to be continued are narrowed down based on the result of voice recognition of the speech utterance. A selection step;
Meeting support method including
会議の議事録を記憶する記憶部を備える会議支援装置のコンピュータに、
音声入力された発話を取得する収音ステップと、
前記収音ステップにて音声入力された発話に対して音声認識用辞書を用いて音声認識を行う音声認識ステップと、
前記音声認識ステップによって音声認識されたテキストの議事録を作成し、前記会議が中断された場合に中断されたことを示す情報を前記議事録に関連付けて記憶させる議事録作成ステップと、
中断された会議を再開する場合において、前記中断された会議の候補を表示し、表示した前記会議の候補を、音声発話を音声認識した結果に基づいて継続したい会議の候補を絞り込む選択ステップと、
を実行させるプログラム。
In the computer of the conference support apparatus having a storage unit for storing the minutes of the conference,
A sound collection step for acquiring speech input speech;
A speech recognition step of performing speech recognition using the speech recognition dictionary for the utterance input by the sound collection step;
Creating a minutes of the text recognized by the speech recognition step, and storing the information indicating that the meeting is interrupted in association with the meeting when the meeting is interrupted;
In the case of resuming an interrupted meeting, a selection step of displaying the interrupted meeting candidates and narrowing down the meeting candidates to be continued based on a result of voice recognition of the displayed speech candidates,
A program that executes
JP2018066836A 2018-03-30 2018-03-30 Conference support device, conference support control method and program Active JP6962849B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018066836A JP6962849B2 (en) 2018-03-30 2018-03-30 Conference support device, conference support control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018066836A JP6962849B2 (en) 2018-03-30 2018-03-30 Conference support device, conference support control method and program

Publications (2)

Publication Number Publication Date
JP2019179081A true JP2019179081A (en) 2019-10-17
JP6962849B2 JP6962849B2 (en) 2021-11-05

Family

ID=68278548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018066836A Active JP6962849B2 (en) 2018-03-30 2018-03-30 Conference support device, conference support control method and program

Country Status (1)

Country Link
JP (1) JP6962849B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022030595A1 (en) * 2020-08-07 2022-02-10 株式会社東芝 Input assistance system, input assistance method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10135949A (en) * 1996-10-31 1998-05-22 Canon Inc Information common sharing management system, information common share system management equipment and its method
JP2007233075A (en) * 2006-03-01 2007-09-13 Murata Mach Ltd Minutes preparation device
JP2012208630A (en) * 2011-03-29 2012-10-25 Mizuho Information & Research Institute Inc Speech management system, speech management method and speech management program
JP2014038545A (en) * 2012-08-20 2014-02-27 Ricoh Co Ltd Information processing device, electronic conference system and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10135949A (en) * 1996-10-31 1998-05-22 Canon Inc Information common sharing management system, information common share system management equipment and its method
JP2007233075A (en) * 2006-03-01 2007-09-13 Murata Mach Ltd Minutes preparation device
JP2012208630A (en) * 2011-03-29 2012-10-25 Mizuho Information & Research Institute Inc Speech management system, speech management method and speech management program
JP2014038545A (en) * 2012-08-20 2014-02-27 Ricoh Co Ltd Information processing device, electronic conference system and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022030595A1 (en) * 2020-08-07 2022-02-10 株式会社東芝 Input assistance system, input assistance method, and program

Also Published As

Publication number Publication date
JP6962849B2 (en) 2021-11-05

Similar Documents

Publication Publication Date Title
KR102100389B1 (en) Personalized entity pronunciation learning
US9053096B2 (en) Language translation based on speaker-related information
US20200175890A1 (en) Device, method, and graphical user interface for a group reading environment
US20140315163A1 (en) Device, method, and graphical user interface for a group reading environment
US20210327454A1 (en) Systems and methods for processing and presenting conversations
US10741172B2 (en) Conference system, conference system control method, and program
US20220231873A1 (en) System for facilitating comprehensive multilingual virtual or real-time meeting with real-time translation
JP2018174439A (en) Conference support system, conference support method, program of conference support apparatus, and program of terminal
JP2018174442A (en) Conference support system, conference support method, program of conference support apparatus, and program of terminal
CN111813301B (en) Content playing method and device, electronic equipment and readable storage medium
JP2018170743A (en) Conference support system, conference support method, program of conference support device, and program of terminal
WO2018105373A1 (en) Information processing device, information processing method, and information processing system
JPWO2018043138A1 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
US9881611B2 (en) System and method for providing voice communication from textual and pre-recorded responses
WO2018043137A1 (en) Information processing device and information processing method
JP2019179480A (en) Conference system, control method therefor, and program
JP6962849B2 (en) Conference support device, conference support control method and program
WO2019235013A1 (en) Information processing device and information processing method
JP6950708B2 (en) Information processing equipment, information processing methods, and information processing systems
CN110890095A (en) Voice detection method, recommendation method, device, storage medium and electronic equipment
US9697851B2 (en) Note-taking assistance system, information delivery device, terminal, note-taking assistance method, and computer-readable recording medium
JP6401488B2 (en) Foreign language conversation understanding support device, foreign language conversation understanding support method and program
US10657202B2 (en) Cognitive presentation system and method
WO2020026799A1 (en) Information processing device, information processing method, and program
JP7471979B2 (en) Meeting Support System

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211014

R150 Certificate of patent or registration of utility model

Ref document number: 6962849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350