JP6402447B2 - Support device, support method, and program - Google Patents

Support device, support method, and program Download PDF

Info

Publication number
JP6402447B2
JP6402447B2 JP2014008909A JP2014008909A JP6402447B2 JP 6402447 B2 JP6402447 B2 JP 6402447B2 JP 2014008909 A JP2014008909 A JP 2014008909A JP 2014008909 A JP2014008909 A JP 2014008909A JP 6402447 B2 JP6402447 B2 JP 6402447B2
Authority
JP
Japan
Prior art keywords
conference
minutes
meeting
map
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014008909A
Other languages
Japanese (ja)
Other versions
JP2015138103A (en
Inventor
直也 守田
直也 守田
宮崎 慎也
慎也 宮崎
賢 青木
賢 青木
康子 橋本
康子 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014008909A priority Critical patent/JP6402447B2/en
Publication of JP2015138103A publication Critical patent/JP2015138103A/en
Application granted granted Critical
Publication of JP6402447B2 publication Critical patent/JP6402447B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、支援装置、支援方法およびプログラムに関する。   The present invention relates to a support device, a support method, and a program.

従来、議事録作成の効率を上げるために、音声認識処理してテキスト化し、議事録作成の支援を行うシステムが既に知られている。   Conventionally, in order to increase the efficiency of creating minutes, a system for supporting the creation of minutes by voice recognition processing and converting it into text has already been known.

例えば、特許文献1には、議事録の作成効率を上げる目的で、会議の進行内容を会議映像に関連付けるメモ編集部を備えるシステムが記載されている。このシステムでは、会議中の音声とメモとの関連付けを行っており、音声のテキストデータとメモとを関連付けた議事録を作成することができる。   For example, Patent Document 1 describes a system including a memo editing unit that associates the progress of a conference with a conference video for the purpose of improving the efficiency of creating minutes. In this system, the voice during the meeting is associated with the memo, and the minutes in which the voice text data and the memo are associated can be created.

しかしながら、従来の議事録作成支援システムでは、主催者側が議事進行のスケジュールを把握していたが、参加者が、会議中に議論全体の流れと現状の議論の展開を把握することが困難であった。このため、従来の議事録作成支援システムでは、議論が発散し、目的に合わなくなり、冗長な内容が多く、議事録作成に手間がかかっていた。   However, in the conventional minutes creation support system, the organizer has grasped the schedule of proceedings, but it was difficult for the participants to grasp the overall flow of the discussion and the development of the current discussion during the meeting. It was. For this reason, in the conventional minutes preparation support system, discussions diverge, they do not meet the purpose, there are many redundant contents, and it takes time to create the minutes.

本発明は、上記に鑑みてなされたものであって、会議の進行を適切に支援するとともに、議事録の作成の手間を小さくすることが可能な支援装置、支援方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and provides a support device, a support method, and a program that can appropriately support the progress of a meeting and can reduce the time and effort of creating minutes. Objective.

上述した課題を解決し、目的を達成するために、本発明は、入力された議事録の雛形を表す議事録テンプレートを分析して、会議の会議名および議題を少なくともノードとするグラフ形式の会議マップを作成する会議マップ生成部と、前記会議における音声認識結果を取得する音声認識部と、前記音声認識結果に基づき前記会議における単語間の距離を判断し、前記会議における前記単語および前記単語間の距離に応じて前記会議マップを更新して画像出力部に表示させ、前記単語間の距離が遠いことにより議論が発散している場合、議論の収束を促す通知を前記画像出力部に表示させる会話補助制御部と、前記会議マップと前記音声認識結果とに基づき、前記議事録テンプレートに従った議事録を作成する議事録出力部と、を備える支援装置を提供する。 In order to solve the above-described problems and achieve the object, the present invention analyzes a minutes template representing a template of an inputted minutes, and displays a meeting in a graph format having a meeting name and agenda of the meeting as nodes. A conference map generation unit for creating a map; a speech recognition unit for obtaining a speech recognition result in the conference; and determining a distance between words in the conference based on the speech recognition result; The conference map is updated according to the distance of the image and displayed on the image output unit, and when the discussion is divergent because the distance between the words is long, a notification that prompts the convergence of the discussion is displayed on the image output unit. A support device comprising: a conversation assistance control unit; and a minutes output unit that creates a minutes according to the minutes template based on the meeting map and the voice recognition result. To provide.

本発明によれば、会議の進行を適切に支援するとともに、議事録の作成の手間を小さくすることができるという有利な効果を奏する。   ADVANTAGE OF THE INVENTION According to this invention, while progressing a meeting appropriately, there exists an advantageous effect that the effort of preparation of minutes can be made small.

図1は、支援装置の機能構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a functional configuration example of the support apparatus. 図2は、会話補助制御部の詳細な構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a detailed configuration example of the conversation assistance control unit. 図3は、発言内容の種別と音声認識結果の種別リスト例を示す図である。FIG. 3 is a diagram showing an example of a content list and a speech recognition result type list. 図4は、音声認識結果から発言内容の種別をラベリングした結果例を示す図である。FIG. 4 is a diagram illustrating an example of the result of labeling the type of content of speech from the speech recognition result. 図5は、会議の準備段階における支援装置の動作例を示すフローチャートである。FIG. 5 is a flowchart illustrating an operation example of the support apparatus in the conference preparation stage. 図6は、会議開催通知例を示す図である。FIG. 6 is a diagram illustrating an example of a conference opening notification. 図7は、対象資料例を示す図である。FIG. 7 is a diagram illustrating an example of the target material. 図8は、議事進行表例を示す図である。FIG. 8 is a diagram showing an example of the proceeding progress table. 図9は、会議マップ生成部による会議マップの作成例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of creating a conference map by the conference map generation unit. 図10は、議事録テンプレート例を示す図である。FIG. 10 is a diagram showing an example of a minutes template. 図11は、議事録ツリー構造例を示す図である。FIG. 11 is a diagram illustrating an example of a minutes tree structure. 図12は、会議の開始段階における会議マップ例を示す図である。FIG. 12 is a diagram illustrating an example of a conference map at the conference start stage. 図13は、会議中における支援装置の動作例を示すフローチャートである。FIG. 13 is a flowchart illustrating an operation example of the support device during the conference. 図14は、会議進行状況情報例および音声認識結果例を示す図である。FIG. 14 is a diagram illustrating an example of conference progress status information and an example of speech recognition results. 図15は、議論内容の制御例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of controlling the discussion content. 図16は、議論が収束している状態の会議マップの一部分の一例を示す図である。FIG. 16 is a diagram illustrating an example of a part of a conference map in a state where discussions have converged. 図17は、議論が発散している状態の会議マップの一部分の一例、および、通知例を示す図である。FIG. 17 is a diagram illustrating an example of a part of the conference map in a state where discussions are diverging and a notification example. 図18は、会議時間の制御例を示すフローチャートである。FIG. 18 is a flowchart illustrating an example of conference time control. 図19は、完成した会議マップ例を示す図である。FIG. 19 is a diagram illustrating an example of a completed conference map. 図20は、会議後における支援装置の動作例を示すフローチャートである。FIG. 20 is a flowchart illustrating an operation example of the support apparatus after the conference. 図21は、議事録例を示す図である。FIG. 21 is a diagram showing an example of minutes. 図22は、会議進行状況情報および完成した会議マップとの関連付けの例を示す図である。FIG. 22 is a diagram illustrating an example of association between conference progress status information and a completed conference map. 図23は、変形例に係る支援装置の機能構成例を示すブロック図である。FIG. 23 is a block diagram illustrating a functional configuration example of the support device according to the modification.

以下、添付図面を参照しながら、本発明に係る支援装置、支援方法およびプログラムの実施形態を詳細に説明する。   Hereinafter, embodiments of a support device, a support method, and a program according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、支援装置100の機能構成例を示すブロック図である。支援装置100は、会議の進行の支援、および、議事録作成の支援を行う。支援装置100は、議題入力部10と、会議マップ生成部15と、音声認識部20と、会話補助制御部30と、記憶部40と、議事録出力部50と、画像出力部60と、音声合成部70とを備える。支援装置100は、例えば、プロジェクタ等を備えるコンピュータにより実現される。支援装置100は、例えばテレビ会議システム(UCS)などにも適用可能である。   FIG. 1 is a block diagram illustrating a functional configuration example of the support device 100. The support device 100 supports the progress of the conference and supports the creation of the minutes. The support device 100 includes an agenda input unit 10, a conference map generation unit 15, a voice recognition unit 20, a conversation assistance control unit 30, a storage unit 40, a minutes output unit 50, an image output unit 60, and a voice. And a combining unit 70. The support device 100 is realized by a computer including a projector or the like, for example. The support device 100 can be applied to, for example, a video conference system (UCS).

議題入力部10は、入力された会議開催情報を分析し、会議の議事進行計画に相当する議事進行表を作成する。すなわち、会議の準備段階で、ユーザは、ネットワーク経由で、事前に会議開催情報(会議開催通知)を議題入力部10へ送る。そして、議題入力部10は、会議開催情報より、会議進行可能か判断し、進行可能であれば、議事進行計画(議事進行表)を作成し、各出席者へ開催通知を送り、進行不可能であれば、主催者へ会議開催内容を見直すように指示をする。   The agenda input unit 10 analyzes the input meeting holding information and creates an agenda progress table corresponding to the agenda progress plan of the meeting. That is, at the conference preparation stage, the user sends conference holding information (conference holding notification) to the agenda input unit 10 in advance via the network. Then, the agenda input unit 10 determines from the meeting holding information whether the meeting can proceed, and if it can proceed, creates an agenda progress plan (procedure progress table), sends a notice of the meeting to each attendee, and cannot proceed If so, the organizer is instructed to review the contents of the conference.

また、議題入力部10は、議事録の雛形を表す議事録テンプレートを入力する。議題入力部10は、入力された議事録テンプレートを会議マップ生成部15へ送り、会議マップ生成部15から、議事録テンプレートに基づき生成された会議マップを受け取る。   The agenda input unit 10 inputs a minutes template representing a template of minutes. The agenda input unit 10 sends the input minutes template to the meeting map generator 15 and receives the meeting map generated based on the minutes template from the meeting map generator 15.

会議マップ生成部15は、受け取った議事録テンプレートに基づき、会議マップを生成する。会議マップは、会議の会議名および議題等の項目名を少なくともノードとし、それぞれのノードがリンクにより接続されたグラフ形式の情報である。   The conference map generation unit 15 generates a conference map based on the received minutes template. The conference map is information in a graph format in which item names such as the conference name and agenda of the conference are at least nodes, and each node is connected by a link.

音声認識部20は、会議における音声認識結果を取得する。また、音声認識部20は、会議における発言の韻律情報に基づいて発言の文の種類を判断し、判断結果を含む音声認識結果を取得する。すなわち、音声認識部20は、マイクロフォン(マイク)で捕らえた会議における参加者の発言の韻律情報(発言の強勢、抑揚、リズム、強弱、高低、または、長短等)をもとに平叙文や疑問文などを判断する。また、文の種類とは、平叙文、疑問文、命令文、感嘆文、祈願文、または、強調文等である。   The voice recognition unit 20 acquires a voice recognition result in the conference. Further, the speech recognition unit 20 determines the type of a statement sentence based on the prosody information of the statement in the conference, and acquires a speech recognition result including the determination result. In other words, the speech recognition unit 20 uses the prosody or question based on the prosodic information (speech strength, intonation, rhythm, strength, weakness, high / low, etc.) of the participant's speech in the conference captured by the microphone (microphone). Judging sentences. The sentence type is a plain text, a question sentence, a command sentence, an exclamation sentence, a prayer sentence, an emphasized sentence, or the like.

会話補助制御部30は、議事進行計画(議事進行表)と音声認識結果とから会議の進行状況を監視し、当該進行状況に合わせて議事進行計画(議事進行表)を更新する。すなわち、会議中は、音声認識部20が認識した音声認識結果をもとに、会話補助制御部30が議事進行を監視し、音声認識結果と会議の進行状況に関する会議進行状況情報とを記憶部40へ送る。そして、会話補助制御部30は、議事進行が早い場合は、議事進行表を見直し、議事進行に遅れが出ている場合は、会議の参加者に進行の判断を委ねるために、画像出力部60へ判断情報を出力させ、議事進行表を見直す。例えば、会話補助制御部30は、進行状況に合わせて会議の参加者へ進行の判断を促し、会議進行を再計画する。   The conversation assistance control unit 30 monitors the progress of the conference from the proceeding plan (procedure progress table) and the speech recognition result, and updates the proceeding plan (procedure progress table) according to the progress. That is, during the conference, the conversation assistance control unit 30 monitors the proceedings based on the speech recognition results recognized by the speech recognition unit 20, and stores the speech recognition results and the conference progress information regarding the progress of the conference. Send to 40. Then, the conversation assisting control unit 30 reviews the proceeding table when the proceeding progresses early, and when the proceeding progress is delayed, the image output unit 60 in order to entrust the attendees to determine the proceeding. The decision information is output to and the proceeding table is reviewed. For example, the conversation assistance control unit 30 prompts the conference participants to determine the progress according to the progress, and reschedules the progress of the conference.

また、会話補助制御部30は、会議マップを画像出力部60に送って、プロジェクタから出力させる。さらに、会話補助制御部30は、それぞれの議題の議論の内容に合わせて会議マップを更新するために、情報の入力を会議の参加者に促す通知を画像出力部60に送って、プロジェクタから出力させる。会議の参加者は、この通知に従って音声を発生する。会話補助制御部30は、通知に従って発生された音声の音声認識結果をもとに、会議マップの内容を更新する。そして、会話補助制御部30は、会議が終了して会議マップが完成すると、完成した会議マップを記憶部40へ送る。   In addition, the conversation assistance control unit 30 sends the conference map to the image output unit 60 to be output from the projector. Furthermore, in order to update the conference map according to the content of the discussion on each agenda, the conversation assistance control unit 30 sends a notification prompting the participants of the conference to input information to the image output unit 60 and outputs it from the projector. Let A conference participant generates a sound according to the notification. The conversation assistance control unit 30 updates the content of the conference map based on the voice recognition result of the voice generated according to the notification. Then, when the conference ends and the conference map is completed, the conversation assistance control unit 30 sends the completed conference map to the storage unit 40.

記憶部40は、音声認識結果と会議進行状況情報と完成した会議マップとを記憶する。また、記憶部40は、議事進行計画(議事進行表)を記憶する。記憶部40において扱う情報の記憶先としては、例えば支援装置100内の不揮発性記憶デバイス(例えばハードディスク等の補助記憶装置)などが挙げられる。   The storage unit 40 stores a voice recognition result, conference progress status information, and a completed conference map. In addition, the storage unit 40 stores an agenda progress plan (agenda progress table). As a storage destination of information handled in the storage unit 40, for example, a nonvolatile storage device (for example, an auxiliary storage device such as a hard disk) in the support apparatus 100 can be cited.

議事録出力部50は、会議の進行状況に関する会議進行状況情報と音声認識結果と完成した会議マップとから議事録を作成する。すなわち、議事録出力部50は、会議進行状況の結果と音声認識結果と完成した会議マップとから議事録を作成する。例えば、議事録出力部50は、会議後に、記憶部40に記憶(記録)された会議進行状況情報と音声認識結果と完成した会議マップとをもとに議事録を作成する。また、議事録出力部50は、作成した議事録を主催者へ送信する。これにより会議出席者が筆記することなく会議情報を記録することができる。   The minutes output unit 50 creates the minutes from the meeting progress information on the progress of the meeting, the voice recognition result, and the completed meeting map. That is, the minutes output unit 50 creates the minutes from the result of the meeting progress, the voice recognition result, and the completed meeting map. For example, after the meeting, the minutes output unit 50 creates the minutes based on the meeting progress status information stored (recorded) in the storage unit 40, the voice recognition result, and the completed meeting map. In addition, the minutes output unit 50 transmits the created minutes to the organizer. Thereby, meeting information can be recorded without the attendees writing.

画像出力部60は、進行状況に応じた確認情報を表示する。すなわち、画像出力部60は、確認情報をプロジェクタに投影させる。画像出力部60は、会話補助制御部30から現項目を延長するか、次項目に移るかを選択させる等の確認情報を受け取る。   The image output unit 60 displays confirmation information corresponding to the progress status. That is, the image output unit 60 causes the projector to project confirmation information. The image output unit 60 receives confirmation information from the conversation assistance control unit 30 such as selecting whether to extend the current item or move to the next item.

また、画像出力部60は、会議マップを表示する。さらに、画像出力部60は、それぞれの議題の議論の内容に合わせて会議マップを更新するための情報の入力を促す通知を表示する。   The image output unit 60 displays a conference map. Furthermore, the image output unit 60 displays a notification that prompts input of information for updating the conference map in accordance with the contents of the discussion of each agenda item.

音声合成部70は、確認情報を音声合成し、音声出力する。すなわち、音声合成部70は、画像出力部60が表示している情報(確認情報)を音声合成し、スピーカーから音声出力する。音声合成部70は、会話補助制御部30から画像出力部60へ送っているものと同一の確認情報を受け取る。例えば、音声合成部70は、「現項目を延長しますか?それとも次項目に移りますか?」とのテキストデータを音声データに変換し、スピーカーから出力する。これにより、会議進行の効率が向上する。   The voice synthesizer 70 synthesizes the confirmation information and outputs the voice. That is, the voice synthesizer 70 synthesizes the information (confirmation information) displayed by the image output unit 60 and outputs the voice from the speaker. The voice synthesizer 70 receives the same confirmation information as that sent from the conversation assistance controller 30 to the image output unit 60. For example, the speech synthesizer 70 converts text data “Do you want to extend the current item or move to the next item?” Into speech data and output from the speaker. This improves the efficiency of the conference progress.

図2は、会話補助制御部30の詳細な構成例を示すブロック図である。図2に示すように、会話補助制御部30は、会話ラベラー31と会議進行制御部32とタイマー33とを備える。   FIG. 2 is a block diagram illustrating a detailed configuration example of the conversation assistance control unit 30. As shown in FIG. 2, the conversation assistance control unit 30 includes a conversation labeler 31, a conference progress control unit 32, and a timer 33.

会話ラベラー31(付与部)は、音声認識結果に発言内容の種別(意見、質問、回答または指摘等)を付与(ラベリングなど)する。また、会話ラベラー31は、会議における各話者(会議の参加者)の発言に対応する会議の対象資料のページ数および時刻を記録する。また、会話ラベラー31は、音声認識部20から音声認識結果を受け取り、タイマー33から時刻を受け取る。これにより、議事録修正の手間が省ける。   The conversation labeler 31 (granting unit) gives (labeling, etc.) the type of comment content (opinion, question, answer, indication, etc.) to the speech recognition result. In addition, the conversation labeler 31 records the number of pages and the time of the target material of the conference corresponding to the speech of each speaker (conference participant) in the conference. The conversation labeler 31 receives the speech recognition result from the speech recognition unit 20 and receives the time from the timer 33. This saves the trouble of correcting the minutes.

図3は、発言内容の種別と音声認識結果(韻律情報)の種別リスト例を示す図である。また、図4は、音声認識結果から発言内容の種別(意見、質問、回答または指摘等)をラベリングした結果例を示す図である。会話ラベラー31は、図3に示すような予め発言内容の種別と音声認識結果(平叙文、または、疑問文等)との種別リストを保持しており、音声認識部20の音声認識結果の文法から発言内容の種別へと変換し、図4に示すような結果を出力する。   FIG. 3 is a diagram illustrating an example of a list of types of speech contents and a type list of speech recognition results (prosodic information). FIG. 4 is a diagram showing an example of the result of labeling the type of comment content (opinion, question, answer, indication, etc.) from the speech recognition result. The conversation labeler 31 holds in advance a list of types of speech contents and speech recognition results (plain text, question sentences, etc.) as shown in FIG. 4 is converted into the content type of the message, and the result as shown in FIG. 4 is output.

図2に戻って説明を続ける。会議進行制御部32は、議事進行計画(議事進行表)と会議進行状況情報とを比較する。また、会議進行制御部32は、会話ラベラー31により記録されたページ数および時刻と会議進行状況情報とを比較する。これにより、対象資料の品質が向上する。また、会議進行制御部32が会議を監視し、状況に合わせて議事進行表を更新するため、会議後の結果は、最終更新した議事進行表とその所用時間として会議進行状況情報が出力される。また、会議準備時に作成した議事進行表も記憶部40に保存しておき、会議後に出力された会議進行状況情報の所要時間と比較することで、当初予定していた時間内に収まっているか確認が可能となる。すなわち、時間内に収まらないということは、対象資料の情報量が多すぎるか検討不足という判断が可能となる。   Returning to FIG. 2, the description will be continued. The conference progress control unit 32 compares the proceeding plan (procedure progress table) with the conference progress status information. The conference progress control unit 32 compares the number of pages and time recorded by the conversation labeler 31 with the conference progress status information. This improves the quality of the target material. In addition, since the conference progress control unit 32 monitors the conference and updates the proceeding progress table according to the situation, the conference progress status information is output as the last updated proceeding progress table and its required time. . In addition, the proceeding table created at the time of meeting preparation is also stored in the storage unit 40 and compared with the required time of the meeting progress status information output after the meeting to confirm whether it is within the originally scheduled time. Is possible. That is, if it does not fit within the time, it is possible to judge that the amount of information of the target material is too large or insufficiently examined.

また、会議進行制御部32は、会話ラベラー31から音声認識結果と会議進行状況情報とを受け取り、議題入力部10から議事進行計画(議事進行表)と会議マップとを受け取り、タイマー33から時刻を受け取る。また、会議進行制御部32は、画像出力部60に、会議の参加者に進行の判断を委ねるための判断情報(ユーザ指示)を送る。   The conference progress control unit 32 receives the speech recognition result and conference progress status information from the conversation labeler 31, receives the proceeding plan (procedure progress table) and the conference map from the agenda input unit 10, and sets the time from the timer 33. receive. In addition, the conference progress control unit 32 sends determination information (user instruction) to the image output unit 60 for entrusting the determination of progress to the participants of the conference.

また、会議進行制御部32は、会議マップを画像出力部60に送って、プロジェクタから出力させる。さらに、会話補助制御部30は、会議マップを更新するための情報入力を促す通知を画像出力部60から出力させる。会議進行制御部32は、通知に従って発生された音声の音声認識結果をもとに、会議マップの内容を更新する。   In addition, the conference progress control unit 32 sends the conference map to the image output unit 60 to be output from the projector. Furthermore, the conversation assistance control unit 30 causes the image output unit 60 to output a notification for prompting information input for updating the conference map. The conference progress control unit 32 updates the content of the conference map based on the voice recognition result of the voice generated according to the notification.

また、会議進行制御部32は、記憶部40に音声認識結果と会議進行状況情報とを送る。また、会議進行制御部32は、完成した会議マップを記憶部40へ送る。   Further, the conference progress control unit 32 sends the speech recognition result and the conference progress status information to the storage unit 40. In addition, the conference progress control unit 32 sends the completed conference map to the storage unit 40.

タイマー33は、割り当て時間の監視をする。また、タイマー33は、割り当て時間が過ぎたことを会話ラベラー31または会議進行制御部32に通知する。   The timer 33 monitors the allocated time. In addition, the timer 33 notifies the conversation labeler 31 or the conference progress control unit 32 that the allocated time has passed.

次に、会議の準備段階における支援装置100の動作例を説明する。図5は、会議の準備段階における支援装置100の動作例を示すフローチャートである。   Next, an operation example of the support apparatus 100 in the conference preparation stage will be described. FIG. 5 is a flowchart showing an operation example of the support apparatus 100 in the conference preparation stage.

まず、議題入力部10は、主催者からネットワーク経由で会議開催通知と議事録テンプレートを受け付ける(ステップS1)。すなわち、会議の準備段階では、主催者が会議開催通知と議事録テンプレートを議題入力部10へ送る。図6は、会議開催通知例を示す図である。図6に示すように、会議開催通知は、XML等の解析可能なデータ構造となっており、主催者、日時、参加者、場所、および、対象資料の名称もしくはURL等に関する情報を含んでいる。   First, the agenda input unit 10 receives a conference opening notice and a minutes template from the organizer via the network (step S1). That is, at the conference preparation stage, the organizer sends a conference opening notice and a minutes template to the agenda input unit 10. FIG. 6 is a diagram illustrating an example of a conference opening notification. As shown in FIG. 6, the meeting opening notification has an analyzable data structure such as XML, and includes information on the organizer, date and time, participants, location, and the name or URL of the target material. .

図5に戻って説明を続ける。次に、議題入力部10は、会議開催通知から対象資料の文書を解析する(ステップS2)。すなわち、議題入力部10は、会議開催通知に含まれる対象資料のURL情報よりWord文書などを取り寄せる。図7は、対象資料例を示す図である。図7に示すように、対象資料もXML等の解析可能なデータ構造となっており、章、節、ページ、文字数、ならびに、図および表の数に関する情報を含んでいる。   Returning to FIG. Next, the agenda input unit 10 analyzes the document of the target material from the meeting holding notification (step S2). That is, the agenda input unit 10 obtains a Word document or the like from the URL information of the target material included in the meeting holding notification. FIG. 7 is a diagram illustrating an example of the target material. As shown in FIG. 7, the target material also has an analyzable data structure such as XML, and includes information on chapters, sections, pages, the number of characters, and the number of figures and tables.

そして、議題入力部10は、対象資料に含まれる情報をもとに章、節、ページ、文字数、ならびに、図および表の数を文書構造の分析結果として出力する。また、議題入力部10は、会議開催通知に含まれる参加者人数および打ち合わせ時間に関する情報を抽出する。   Then, the agenda input unit 10 outputs chapters, sections, pages, the number of characters, and the number of figures and tables as analysis results of the document structure based on the information included in the target material. In addition, the agenda input unit 10 extracts information on the number of participants and the meeting time included in the meeting notification.

図5に戻って説明を続ける。次に、議題入力部10は、会議開催通知に含まれる参加者人数と打ち合わせ時間より、議事進行表を作成する(ステップS3)。すなわち、議題入力部10は、会議開催通知と対象資料の文書構成を解析し、議事進行表を作成する。ここで、議題入力部10は、対象資料の文書構造の分析結果をもとに打ち合わせ時間を分配する。例えば、議題入力部10は、文字数、ならびに、図および表の数に基づく重みをつけ、分析結果の数を掛け合わせて、それらの比で打ち合わせ時間を割り当てる。   Returning to FIG. Next, the agenda input unit 10 creates an agenda progress table based on the number of participants included in the meeting opening notice and the meeting time (step S3). In other words, the agenda input unit 10 analyzes the meeting holding notice and the document structure of the target material, and creates an agenda progress table. Here, the agenda input unit 10 distributes the meeting time based on the analysis result of the document structure of the target material. For example, the agenda input unit 10 assigns a weight based on the number of characters and the number of figures and tables, multiplies the number of analysis results, and assigns a meeting time based on the ratio.

図8は、議事進行表例を示す図である。図8に示すように、議事進行表は、会議開催通知と対象資料との文書構成を解析することにより作成され、対象資料の各項目に対する割り当て時間を含んでいる。   FIG. 8 is a diagram showing an example of the proceeding progress table. As shown in FIG. 8, the proceeding table is created by analyzing the document structure of the meeting holding notice and the target material, and includes an allocation time for each item of the target material.

図5に戻って説明を続ける。次に、議題入力部10は、議事進行が可能か否か判定する(ステップS4)。議題入力部10は、議事進行が可能と判定した場合(ステップS4の結果:Yesの場合)、議事録テンプレートを会議マップ生成部15へ送る(ステップS5)。次に、議題入力部10は、議事録テンプレートをもとに生成された会議マップを会議マップ生成部15から受け取る(ステップS6)。そして、議題入力部10は、会議マップと議事進行表を会話補助制御部30へ送り(ステップS7)、処理を終了する。すなわち、議題入力部10は、議事進行が可能であれば、議事録テンプレートを元に生成された会議マップを会話補助制御部30へ送るとともに、割り当て時間を示した情報を議事進行表として会話補助制御部30へ送る。   Returning to FIG. Next, the agenda input unit 10 determines whether or not the proceeding of the proceedings is possible (step S4). If the agenda input unit 10 determines that the proceeding is possible (result of step S4: Yes), the agenda input unit 10 sends the minutes template to the conference map generation unit 15 (step S5). Next, the agenda input part 10 receives the meeting map produced | generated based on the minutes template from the meeting map production | generation part 15 (step S6). Then, the agenda input unit 10 sends the conference map and the proceeding progress table to the conversation assistance control unit 30 (step S7), and ends the process. That is, if the proceedings can be proceeded, the agenda input unit 10 sends a conference map generated based on the minutes template to the conversation assistance control unit 30 and also uses the information indicating the allocated time as a proceeding table to assist the conversation. The data is sent to the control unit 30.

一方、議題入力部10は、議事進行が可能でないと判定した場合(ステップS4の結果:Noの場合)、入力した会議開催通知だと会議が成り立たないことをユーザに知らせ(ステップS8)、処理を終了する。すなわち、議題入力部10は、割り当てた時間が、参加者の持ち時間と比較して不足していれば、議事進行が不可能だと判断し、主催者へ会議開催不可能であることを知らせる。   On the other hand, if the agenda input unit 10 determines that the proceeding is not possible (result of step S4: No), the agenda input unit 10 informs the user that the conference does not hold if the input conference holding notification is input (step S8), and processing Exit. That is, the agenda input unit 10 determines that the proceedings are impossible if the allocated time is insufficient as compared to the time of the participants, and informs the organizer that the conference cannot be held. .

次に、会議の準備段階における会議マップ生成部15による会議マップの作成方法について説明する。図9は、会議マップ生成部15による会議マップの作成例を示すフローチャートである。   Next, a method for creating a conference map by the conference map generator 15 at the conference preparation stage will be described. FIG. 9 is a flowchart illustrating an example of creating a conference map by the conference map generation unit 15.

まず、会議マップ生成部15は、議題入力部10から議事録テンプレートを受け取る(ステップS11)。図10は、議事録テンプレート例を示す図である。議事録テンプレートは、例えば、項目名がテキストで記載された文書ファイルである。議事録テンプレートには、一例として、項目名が、1行毎に改行されており、且つ、それぞれの項目が階層構造で区別されている。   First, the conference map generation unit 15 receives a minutes template from the agenda input unit 10 (step S11). FIG. 10 is a diagram showing an example of a minutes template. The minutes template is, for example, a document file in which item names are described in text. In the minutes template, as an example, the item names are broken for each line, and each item is distinguished by a hierarchical structure.

図10の例においては、議事録テンプレートには、「会議名」、1または複数個の「議題」、議題毎の「議論内容」、議題毎の「結論」、結論の「理由」、議題毎の「決定事項」、会議の「結果」、会議により決定された「アクションアイテム」等が項目名として記載されている。この議事録テンプレートは、段下げ数でそれぞれの項目名の階層構造が表されている。段下げ数が0個の「会議名」は最上位階層の項目名である。段下げ数が1個の「議題」、「結果」、「アクションアイテム」が第2階層の項目名である。段下げ数が2個の「議論内容」、「結論」、「決定事項」が第3階層の項目名である。段下げ数が3個の「理由」が第4階層の項目名である。なお、段下げは、テキストが記載された文書ファイルの場合であれば、空白またはタブで区別してもよいし、XMLファイルであればタグで区別してもよい。   In the example of FIG. 10, the minutes template includes “meeting name”, one or more “agenda”, “discussion contents” for each agenda, “conclusion” for each agenda, “reason” for conclusion, and for each agenda. “Determination items”, “results” of the conference, “action items” determined by the conference, and the like are described as item names. In this minutes template, the hierarchical structure of each item name is represented by the number of steps down. The “conference name” with 0 step down is the item name of the highest hierarchy. “Agenda”, “Result”, and “Action Item” with one step down are item names in the second hierarchy. “Discussion contents”, “conclusion”, and “decision items” with two steps down are item names in the third hierarchy. The “reason” with three step downs is the item name of the fourth layer. In the case of a document file in which text is written, the step-down may be distinguished by a blank or a tab, and if it is an XML file, it may be distinguished by a tag.

図9に戻って説明を続ける。次に、会議マップ生成部15は、議事録テンプレートの項目名を先頭から順に1つずつ読み込み、項目名毎にステップS12からステップS17のループ処理を実行する。例えば、会議マップ生成部15は、項目名がテキストで記載された文書ファイルの議事録テンプレートにおける先頭の行から、1ラインずつテキストを読み込む。   Returning to FIG. 9, the description will be continued. Next, the conference map generation unit 15 reads the item names of the minutes template one by one from the top in order, and executes the loop processing from step S12 to step S17 for each item name. For example, the conference map generation unit 15 reads the text line by line from the first line in the minutes template of the document file in which the item name is described in text.

ループ処理内では、まず、会議マップ生成部15は、読み込んだ項目名の階層を確認する(ステップS13)。本例では、会議マップ生成部15は、段下げ数から階層数を確認する。次に、会議マップ生成部15は、最上位階層か否かを判断する(ステップS14)。例えば、会議マップ生成部15は、読み込んだ項目名の段下げ数が0であるか否かを判断する。最上位階層である場合、すなわち、段下げ数が0である場合(ステップS14の結果:Yesの場合)、会議マップ生成部15は、読み込んだ項目名を、親ノードとして議事録ツリー構造に追加する(ステップS15)。また、最上位階層ではない場合、すなわち、段下げ数が0ではない場合(ステップS14の結果:Noの場合)、会議マップ生成部15は、読み込んだ項目名を、1つ上の階層の直近に読み込んだ項目名のノードに下の子ノードとして議事録ツリー構造に追加する(ステップS16)。   In the loop process, first, the conference map generation unit 15 checks the hierarchy of the read item name (step S13). In this example, the conference map generation unit 15 confirms the number of layers from the number of steps down. Next, the conference map generator 15 determines whether or not it is the highest hierarchy (step S14). For example, the conference map generation unit 15 determines whether or not the number of steps down in the read item name is zero. In the case of the highest hierarchy, that is, when the number of steps down is 0 (result of step S14: Yes), the conference map generation unit 15 adds the read item name to the minutes tree structure as a parent node. (Step S15). If it is not the highest hierarchy, that is, if the number of steps down is not 0 (result of step S14: No), the conference map generation unit 15 assigns the read item name to the next higher hierarchy. Is added to the minutes tree structure as a child node below the node of the item name read in (step S16).

そして、会議マップ生成部15は、議事録テンプレートの全ての項目名の読み込みが完了すると、ステップS12からステップS17のループ処理を終了する。図11は、議事録テンプレートに記載された全ての項目名を読み込んだ後の議事録ツリー構造の一例を示す。本例の議事録ツリー構造は、親ノードとして会議名を有し、親ルートの直下の子ノードとして、第1議題、第2議題、第3議題、結果、アクションアイテムを有する。また、本例の議事録ツリー構造は、第1議題のノードの直下の子ノードとして、議論の内容、結論、決定事項を有し、結論のノードの直下の子ノードとして理由を有する。   Then, when the reading of all item names of the minutes template is completed, the conference map generation unit 15 ends the loop processing from step S12 to step S17. FIG. 11 shows an example of the minutes tree structure after all item names described in the minutes template have been read. The minutes tree structure of this example has a meeting name as a parent node, and has a first agenda item, a second agenda item, a third agenda item, a result, and an action item as a child node immediately below the parent route. Also, the minutes tree structure of this example has the content, conclusion, and decision items of the discussion as child nodes immediately below the first agenda node, and has a reason as a child node immediately below the conclusion node.

図9に戻って説明を続ける。次に、会議マップ生成部15は、議事録ツリー構造から会議マップを生成する(ステップS18)。会議マップは、それぞれの項目名がノードとされ、それぞれのノードが階層構造に従ってリンクにより接続されたグラフ形式の情報である。図12は、会議の開始段階における会議マップ例を示す図である。会議マップは、例えば、図12に示されるようにマインドマップの形式で表示がされる。なお、マインドマップのようにリンクが曲線で記載されておらず、直線で記載されていてもよい。   Returning to FIG. 9, the description will be continued. Next, the conference map generation unit 15 generates a conference map from the minutes tree structure (step S18). The conference map is information in a graph format in which each item name is a node and each node is connected by a link according to a hierarchical structure. FIG. 12 is a diagram illustrating an example of a conference map at the conference start stage. For example, the conference map is displayed in the form of a mind map as shown in FIG. In addition, the link may not be described with the curve like a mind map, but may be described with the straight line.

図9に戻って説明を続ける。次に、会議マップ生成部15は、生成した会議マップを、開始段階の会議マップとして議題入力部10へ送る(ステップS19)。なお、会議マップ生成部15は、予め会議名および議題が決定されている場合には、会議マップの会議名および議題に、具体的な文字列を追加してから、議題入力部10へ送ってもよい。   Returning to FIG. 9, the description will be continued. Next, the conference map generation unit 15 sends the generated conference map to the agenda input unit 10 as a conference map at the start stage (step S19). If the conference name and agenda are determined in advance, the conference map generation unit 15 adds a specific character string to the conference name and the agenda on the conference map, and sends them to the agenda input unit 10. Also good.

次に、会議中における支援装置100の動作例を説明する。図13は、会議中における支援装置100の動作例を示すフローチャートである。   Next, an operation example of the support apparatus 100 during the meeting will be described. FIG. 13 is a flowchart illustrating an operation example of the support apparatus 100 during a conference.

まず、会話補助制御部30の会議進行制御部32は、会議が開始されると、会議マップに会議名および議題が事前に入力済みか否かを判断する(ステップS31)。会議名および議題が事前に入力済みではない場合(ステップS31の結果:Noの場合)、会議進行制御部32は、会議名および議題の入力を促す通知を、画像出力部60を介してプロジェクタから出力させる(ステップS32)。会議名および議題の入力を促す通知がされると、会議の参加者(主催者)は、通知に従って、会議名および議題を発言する。次に、会話ラベラー31は、音声認識部20から受け取った音声認識結果より、会議の参加者の発言から会議名および議題のテキスト情報を抽出し、抽出した会議名および議題のテキスト情報を会議マップにおける対応するノードに追加する(ステップS33)。   First, when the conference is started, the conference progress control unit 32 of the conversation assistance control unit 30 determines whether or not the conference name and the agenda are already input in the conference map (step S31). When the conference name and the agenda have not been input in advance (result of step S31: No), the conference progress control unit 32 sends a notification prompting the input of the conference name and the agenda from the projector via the image output unit 60. Output (step S32). When a notification prompting the user to input a conference name and agenda is given, a conference participant (host) speaks the conference name and agenda in accordance with the notification. Next, the conversation labeler 31 extracts the meeting name and the text information of the agenda from the speech of the meeting participant from the speech recognition result received from the voice recognition unit 20, and the extracted meeting name and the text information of the agenda are stored in the meeting map. Is added to the corresponding node (step S33).

ステップS33の処理を終えた場合、または、会議名および議題が事前に入力済の場合(ステップS31の結果:Yesの場合)、会議進行制御部32は、処理をステップS34に進める。   When the process of step S33 is completed, or when the meeting name and the agenda have been input in advance (result of step S31: Yes), the meeting progress control unit 32 advances the process to step S34.

次に、会議進行制御部32は、議事進行表に基づき、次の議題があるか否かを判断して、進行すべき議題を特定する(ステップS34)。会議進行制御部32は、会議を開始した場合には、議事進行表の最初の議題を特定する。   Next, the conference progress control unit 32 determines whether there is a next agenda based on the agenda progress table, and specifies the agenda to be advanced (step S34). When the conference is started, the conference progress control unit 32 specifies the first agenda in the agenda progress table.

会議進行制御部32は、次の議題があると判断した場合(ステップS34の結果:Yesの場合)、処理をステップS35に進め、次の議題が無いと判断した場合(ステップS34の結果:Noの場合)、処理をステップS45に進める。   When the conference progress control unit 32 determines that there is the next agenda (result of step S34: Yes), the process proceeds to step S35, and when it is determined that there is no next agenda (result of step S34: No) ), The process proceeds to step S45.

次の議題があると判断した場合(ステップS34の結果:Yesの場合)、会話補助制御部30は、ステップS35、ステップS36、ステップS37およびステップS38の処理を議論が終了するまで実行し続ける。ステップS35においては、会話補助制御部30の会話ラベラー31は、音声認識部20から受け取った音声認識結果より、会議の参加者(主催者)の発言の対象資料のページ数、章、または、節のキーワードを抽出する。   When it is determined that there is the next agenda (result of step S34: Yes), the conversation assistance control unit 30 continues to execute the processes of step S35, step S36, step S37, and step S38 until the discussion ends. In step S <b> 35, the conversation labeler 31 of the conversation assistance control unit 30 determines the number of pages, chapters, or sections of the target material of the conference participant (host) from the speech recognition result received from the speech recognition unit 20. Extract keywords.

ここで、会議中に交わされる音声データについて、音声が飛び交った際などに話者(例えば、AまたはB)を特定するには、音声認識部20が、マイクから入力された音声の特徴を抽出してA用、または、B用の特徴モデルを作ることにより特定する。また、複数のマイクを用意し、音声認識部20が、音の届く距離によって話者(会議の参加者)が誰か特定してもよい。また、個人毎にマイクをもつことにより、音声認識部20が、より精度高く話者を識別することができる。   Here, with respect to audio data exchanged during the conference, in order to identify a speaker (for example, A or B) when the audio flies, the voice recognition unit 20 extracts the characteristics of the voice input from the microphone. Then, it is specified by creating a feature model for A or B. Alternatively, a plurality of microphones may be prepared, and the voice recognition unit 20 may identify who is a speaker (participant of the conference) depending on the distance that the sound reaches. In addition, since each individual has a microphone, the speech recognition unit 20 can identify a speaker with higher accuracy.

また、主催者の発言を判別する点について、音声認識部20は、あらかじめ主催者用の特徴モデルを用意しておき、マイクから入力された音声をモデル化し、その特徴モデルと合致すれば、主催者と判断する。また、主催者用のマイクを予め用意しておき、音声認識部20は、そのマイクからの入力が大きいものであれば主催者であると判断してもよい。   In addition, the speech recognition unit 20 prepares a feature model for the organizer in advance to determine the organizer's remarks. If the speech input from the microphone is modeled and matches the feature model, the organizer Judge. Moreover, a microphone for the organizer may be prepared in advance, and the voice recognition unit 20 may determine that the host is an organizer if the input from the microphone is large.

ステップS36においては、会話ラベラー31は、ページ数、章、または、節のキーワードと、タイマー33から取得したその時刻と、を会議進行状況情報として保持する(ステップS36)。すなわち、会話ラベラー31は、音声認識結果から抽出したキーワードを、会議進行状況情報の形式で保持する。図14は、会議進行状況情報例および音声認識結果例を示す図である。図14左側に示すように、会議進行状況情報には、議事進行表と、会議の参加者の発言時刻(所要時間)と、が対応付けて構成されている。また、図14の右側に示すように、音声認識結果と議事進行表の対応する項目に関連付けられている。   In step S36, the conversation labeler 31 holds the page number, chapter or section keyword, and the time obtained from the timer 33 as conference progress information (step S36). That is, the conversation labeler 31 holds the keywords extracted from the speech recognition result in the form of conference progress information. FIG. 14 is a diagram illustrating an example of conference progress status information and an example of speech recognition results. As shown on the left side of FIG. 14, the conference progress status information is configured by associating the proceeding table and the speech time (required time) of the participants of the conference. Further, as shown on the right side of FIG. 14, the voice recognition result and the proceeding table are associated with corresponding items.

ステップS37においては、会議進行制御部32は、議論内容の制御を実行する。具体的には、会議進行制御部32は、図15に示されるフローを実行する。すなわち、会議進行制御部32は、議題の議論が開始されてから(ステップS61)、議題の議論が終了するまで(ステップS68)までの間、繰り返してステップS62からステップS67の処理を実行する。   In step S37, the conference progress control unit 32 controls the content of the discussion. Specifically, the conference progress control unit 32 executes the flow shown in FIG. That is, the conference progress control unit 32 repeatedly executes the processing from step S62 to step S67 until the discussion of the agenda ends (step S68) after the discussion of the agenda starts (step S61).

ステップS62においては、会議進行制御部32は、音声認識により抽出されたキーワードのノードを、会議マップの対応する議論内容のノードの下にプロットする。この場合において、会議進行制御部32は、単語間の距離が計測して、計測した距離も蓄積する。単語間の距離とは、単語の意味合いの近さを表し、意味が同義の場合には短く、意味が反対の場合には長くなる。会議進行制御部32は、一例として、予め準備された辞書に含まれる単語間の距離を表したテーブルを参照して、単語間の距離を算出する。   In step S62, the conference progress control unit 32 plots the keyword nodes extracted by the speech recognition under the corresponding discussion content node of the conference map. In this case, the conference progress control unit 32 measures the distance between words and accumulates the measured distance. The distance between words represents the closeness of the meaning of the word, and is short when the meaning is synonymous and long when the meaning is opposite. As an example, the conference progress control unit 32 refers to a table representing the distance between words included in a dictionary prepared in advance, and calculates the distance between words.

この場合、例えば、会議進行制御部32は、単語間の距離が近いキーワードを同一のノードの下に位置するように会議マップにプロットし、単語間の距離が遠いキーワードを異なるノードの下に位置するように会議マップにプロットする。従って、意味合いの似通ったキーワードが多数発言されるような場合(すなわち、議論が収束している場合)、図16に示されるように、会議マップにプロットされたキーワードの階層構造が深くなる(例えば階層数が予め定められた数より多い)。また、意味合いの異なるキーワードが多数発言されるような場合(すなわち、議論が発散している場合)、図17に示されるように、会議マップにプロットされたキーワードの階層数が浅くなる(例えば階層数が予め定められた数より少ない)。   In this case, for example, the conference progress control unit 32 plots keywords having a short distance between words on the conference map so as to be located under the same node, and positions keywords having a long distance between words under different nodes. To plot on the conference map. Therefore, when many keywords having similar meanings are spoken (that is, when the discussion has converged), as shown in FIG. 16, the hierarchical structure of the keywords plotted on the conference map becomes deeper (for example, The number of hierarchies is greater than a predetermined number). In addition, when many keywords having different meanings are remarked (that is, when discussions are diverged), as shown in FIG. 17, the number of keyword hierarchies plotted on the conference map becomes shallow (for example, hierarchies). The number is less than a predetermined number).

次に、ステップS63において、会議進行制御部32は、議論を収束させるべき時刻であるか否か、すなわち、議事録進行表の割り当て時間における予め定められた割合の時間が経過したか否か(例えば、議事録進行表の割り当て時間の80パーセントの時間が経過したか否か)を判断する。議論を収束させるべき時刻ではない場合(ステップS63の結果:Noの場合)、会議進行制御部32は、ステップS64において、単語間の距離が近いノードが多いか否か、すなわち、議論が収束しているか否かを判断する。議論が収束している場合(ステップS64の結果:Yesの場合)、ステップS65において、会議進行制御部32は、辞書から単語間の距離が遠い新たな単語のノードを、会議マップに追加する。例えば、図16の例においては、「FAX機能」という新たなノードが追加されている。自動的に新たな単語のノードを追加することにより、会議進行制御部32は、会議の参加者に新たな観点からの議論を促すことができる。議論が収束していない場合(ステップS64の結果:Noの場合)、会議進行制御部32は、何ら処理を実行しない。   Next, in step S63, the conference progress control unit 32 determines whether or not it is time to converge the discussion, that is, whether or not a predetermined proportion of the minutes allocated in the minutes progress table has elapsed ( For example, it is determined whether or not 80% of the allocated time of the minutes progress table has elapsed. When it is not time to converge the discussion (result of Step S63: No), the conference progress control unit 32 determines in Step S64 whether or not there are many nodes with close distances between words, that is, the discussion converges. Judge whether or not. If the discussion has converged (result of step S64: Yes), in step S65, the conference progress control unit 32 adds a new word node whose distance between words is far from the dictionary to the conference map. For example, in the example of FIG. 16, a new node “FAX function” is added. By automatically adding a new word node, the conference progress control unit 32 can prompt the conference participants to discuss from a new viewpoint. If the discussion has not converged (the result of step S64: No), the conference progress control unit 32 performs no processing.

議論を収束させるべき時刻である場合(ステップS63の結果:Yesの場合)、会議進行制御部32は、ステップS66において、単語間の距離が遠いノードが多いか否か、すなわち、議論が発散しているか否かを判断する。議論が発散している場合(ステップS66の結果:Yesの場合)、ステップS67において、会議進行制御部32は、例えば、議論の収束を促す通知を表示させる。例えば、図17の例においては、「まもなく割り当て時間が終了となりますので、議論の収束をお願い致します」という通知を表示させている。議論の収束を促す通知を表示させることにより、会議進行制御部32は、割り当て時間内に議論を収束させるように進行時間を制御することができる。議論が発散していない場合(ステップS66の結果:Noの場合)、会議進行制御部32は、何ら処理を実行しない。   When it is time to converge the discussion (result of step S63: Yes), the conference progress control unit 32 determines whether or not there are many nodes far from each other in step S66, that is, the discussion diverges. Judge whether or not. If the discussion is diverging (result of step S66: Yes), in step S67, the conference progress control unit 32 displays, for example, a notification that prompts the convergence of the discussion. For example, in the example of FIG. 17, the notification “The allocation time will soon be finished, so please converge the discussion” is displayed. By displaying the notification that prompts the convergence of the discussion, the conference progress control unit 32 can control the progress time so that the discussion is converged within the allocated time. If the discussion has not diverged (result of step S66: No), the conference progress control unit 32 performs no processing.

会議進行制御部32は、タイマー33を定期的にチェックしながら、以上の処理を議論が終了するまで繰り返して実行する(ステップS61〜ステップS68)。このように、会議進行制御部32は、議論の内容を制御することができる。   The conference progress control unit 32 repeatedly executes the above processing until the discussion ends while periodically checking the timer 33 (steps S61 to S68). In this way, the conference progress control unit 32 can control the content of the discussion.

図13に戻って説明を続ける。ステップS38においては、会議の進行時間の制御を実行する。具体的には、会議進行制御部32は、図18に示されるステップS71からステップS80の処理を実行する。   Returning to FIG. In step S38, control of the conference progress time is executed. Specifically, the conference progress control unit 32 executes the processing from step S71 to step S80 shown in FIG.

まず、ステップS71において、会議進行制御部32は、会話ラベラー31から次項目(次の議題)の時間監視の依頼を受ける、または、タイマー33から当該項目(当該議題)の割り当て時間を過ぎたことの通知を受ける。次に、ステップS72において、会議進行制御部32は、議事進行表と現時刻とを比較して、議事進行が早いか否か判定する。   First, in step S71, the conference progress control unit 32 receives a request for monitoring the time of the next item (next agenda) from the conversation labeler 31, or has passed the allocated time of the item (the agenda) from the timer 33. Get notified. Next, in step S72, the conference progress control unit 32 compares the proceeding progress table with the current time, and determines whether or not the proceeding progress is early.

議事進行が等しいと判定した場合(ステップS72の結果:Matchの場合)、会議進行制御部32は、なんら処理をせずに本フローの処理を終える。   If it is determined that the proceedings are equal (result of step S72: Match), the conference progress control unit 32 ends the processing of this flow without performing any processing.

議事進行が早いと判定した場合(ステップS72の結果:Yesの場合)、ステップS73において、会議進行制御部32は、余裕時間を議事進行表の次項目以降に再配分し、議事進行表を更新して本フローの処理を終える。   When it is determined that the proceedings are fast (result of step S72: Yes), in step S73, the conference progress control unit 32 redistributes the spare time to the items following the proceedings and updates the proceedings Then, the process of this flow is finished.

議事進行が遅いと判定した場合(ステップS72の結果:Noの場合)、ステップS74において、会議進行制御部32は、会議の参加者に現項目の議論を延長するか、次項目の議論に移るかを確認させる確認情報を画像出力部60に送る。次に、ステップS75において、会議進行制御部32は、音声認識結果より、現項目を延長するか、次項目に移るか否か判断する。次項目に移ると判断した場合(ステップS75の結果:Noの場合)、会議進行制御部32は、本フローの処理を終える。   When it is determined that the proceedings are slow (result of step S72: No), in step S74, the conference progress control unit 32 extends the discussion of the current item to the participants of the conference or moves to the discussion of the next item. Confirmation information for confirming is sent to the image output unit 60. Next, in step S75, the conference progress control unit 32 determines whether to extend the current item or move to the next item from the voice recognition result. If it is determined to move to the next item (result of step S75: No), the conference progress control unit 32 ends the process of this flow.

現項目を延長すると判断した場合(ステップS75の結果:Yesの場合)、ステップS76において、会議進行制御部32は、現項目に延長時間を議事進行表に割り当て、次項目以降の割り当て時間を再構成し、議事進行表を更新する。次に、ステップS77において、会議進行制御部32は、議事進行表の割り当て時間の再構成が可能か否か判定する。割り当て時間の再構成が可能と判定した場合(ステップS77の結果:Yesの場合)、会議進行制御部32は、処理をステップS71に戻して、ステップS72から処理を繰り返す。   If it is determined that the current item is to be extended (result of step S75: Yes), in step S76, the conference progress control unit 32 assigns the extended time to the proceeding table for the current item, and re-assigns the allocated time for the next item and thereafter. Configure and update the agenda. Next, in step S77, the conference progress control unit 32 determines whether or not the allocation time of the proceeding table can be reconfigured. When it is determined that the allocation time can be reconfigured (result of step S77: Yes), the conference progress control unit 32 returns the process to step S71 and repeats the process from step S72.

割り当て時間の再構成が不可能と判定した場合(ステップS77の結果:Noの場合)、ステップS78において、会議進行制御部32は、会議の参加者に次項目以降の割り当て時間をなくし、現項目を継続するか、次項目に移るかを確認させる確認情報を画像出力部60に送る。次に、ステップS79において、会議進行制御部32は、音声認識結果より、現項目を延長するか、次項目に移るか否か判断する。次項目に移ると判断した場合(ステップS79の結果:Noの場合)、会議進行制御部32は、本フローの処理を終る。   When it is determined that the allocation time cannot be reconfigured (result of step S77: No), in step S78, the conference progress control unit 32 eliminates the allocation time after the next item for the conference participant, and the current item. Confirmation information for confirming whether to continue or to move to the next item is sent to the image output unit 60. Next, in step S79, the conference progress control unit 32 determines whether to extend the current item or move to the next item from the voice recognition result. If it is determined to move to the next item (result of step S79: No), the conference progress control unit 32 ends the process of this flow.

現項目を延長すると判断した場合(ステップS79の結果:Yesの場合)、ステップS80において、会議進行制御部32は、次項目以降の割り当て時間を再構成し、時間内に収まらない項目は実施しないことにし、議事進行表を更新し、処理をステップS71に戻して、ステップS72から処理を繰り返す。このように、会議進行制御部32は、会議の進行時間を制御することができる。   When it is determined that the current item is to be extended (result of step S79: Yes), in step S80, the conference progress control unit 32 reconfigures the allocated time after the next item and does not implement items that do not fall within the time. The agenda progress table is updated, the process returns to step S71, and the process is repeated from step S72. Thus, the conference progress control unit 32 can control the conference progress time.

図13に戻って説明を続ける。ステップS39において、会議進行制御部32は、当該議題の議論が終了したか否かを判定する。例えば、会議進行制御部32は、例えば「本議題の議論を終了する」といった発言がされた場合には、当該議題の議論が終了したと判定する。会議進行制御部32は、当該議題の議論が終了した場合(ステップS39の結果:Yesの場合)、処理をステップS40に進める。   Returning to FIG. In step S39, the conference progress control unit 32 determines whether or not the discussion on the subject has been completed. For example, the conference progress control unit 32 determines that the discussion on the agenda has ended when a statement such as “end the discussion on the agenda” is made. When the discussion on the subject has been completed (result of step S39: Yes), the conference progress control unit 32 advances the process to step S40.

ステップS40において、会議進行制御部32は、その議題の議論中における音声認識結果と会議進行状況情報とを記憶部40に送り、記憶させる。   In step S <b> 40, the conference progress control unit 32 sends the speech recognition result and the conference progress status information during the discussion of the agenda to the storage unit 40 for storage.

次に、ステップS41において、会議進行制御部32は、議題の結論の入力を促す通知を画像出力部60から出力させる。会議参加者は、この通知に促されて、議題の結論を発言する。次に、ステップS42において、会議進行制御部32は、発言の音声認識結果から、議題の結論のテキストを抽出して、会議マップの対応するノードに追加する。   Next, in step S <b> 41, the conference progress control unit 32 causes the image output unit 60 to output a notification urging input of the agenda conclusion. The conference participants are prompted by this notification and speak the agenda conclusion. Next, in step S42, the conference progress control unit 32 extracts the text of the agenda conclusion from the speech recognition result of the statement, and adds it to the corresponding node of the conference map.

次に、ステップS43において、会議進行制御部32は、議題の決定事項の入力を促す通知を画像出力部60から出力させる。会議参加者は、この通知に促されて、議題の決定事項を発言する。次に、ステップS44において、会議進行制御部32は、発言の音声認識結果から、議題の決定事項のテキストを抽出して、会議マップの対応するノードに追加する。   Next, in step S <b> 43, the conference progress control unit 32 causes the image output unit 60 to output a notification that prompts the user to input agenda items. The conference participants are prompted by this notification and speak the agenda decisions. Next, in step S44, the conference progress control unit 32 extracts the text of the agenda decision item from the speech recognition result of the speech and adds it to the corresponding node of the conference map.

そして、会議進行制御部32は、ステップS44の処理を終えると、処理をステップS34に戻す。ステップS34において、会議進行制御部32は、次の議題があるか否かを判断して、次の議題があればステップS35からの処理を繰り返して実行する。   And conference progress control part 32 returns processing to Step S34, after finishing processing of Step S44. In step S34, the conference progress control unit 32 determines whether or not there is a next agenda. If there is a next agenda, the process from step S35 is repeatedly executed.

一方、次の議題が無いと判断した場合(ステップS34の結果:Noの場合)、すなわち、全ての議題についての議論が終了して会議を終了させる場合、会話補助制御部30は、処理をステップS45に進める。   On the other hand, when it is determined that there is no next agenda (result of step S34: No), that is, when the discussion on all the agendas ends and the conference ends, the conversation assistance control unit 30 performs the processing step Proceed to S45.

ステップS45において、会議進行制御部32は、会議の結果の入力を促す通知を画像出力部60から出力させる。会議参加者は、この通知に促されて、会議の結果を発言する。次に、ステップS46において、会議進行制御部32は、発言の音声認識結果から、会議の結果のテキストを抽出して、会議マップの対応するノードに追加する。   In step S <b> 45, the conference progress control unit 32 causes the image output unit 60 to output a notification urging input of the conference result. The conference participant is prompted by this notification and speaks the result of the conference. Next, in step S46, the conference progress control unit 32 extracts the text of the conference result from the speech recognition result of the statement, and adds it to the corresponding node of the conference map.

次に、ステップS47において、会議進行制御部32は、会議のアクションアイテムの入力を促す通知を画像出力部60から出力させる。会議参加者は、この通知に促されて、会議のアクションアイテムを発言する。次に、ステップS48において、会議進行制御部32は、発言の音声認識結果から、会議のアクションアイテムのテキストを抽出して、会議マップの対応するノードに追加する。このステップS48までの処理が終了することにより、会議マップが完成する。例えば、図19に示されるような会議マップが完成する。   Next, in step S <b> 47, the conference progress control unit 32 causes the image output unit 60 to output a notification urging input of a conference action item. The conference participant is prompted by this notification and speaks the conference action item. Next, in step S48, the conference progress control unit 32 extracts the text of the conference action item from the speech recognition result, and adds it to the corresponding node of the conference map. By completing the processing up to step S48, the conference map is completed. For example, a conference map as shown in FIG. 19 is completed.

そして、最後に、ステップS49において、会議進行制御部32は、完成した会議マップを記憶部40に送り、記憶させて、本フローの処理を終了する。以上のように、支援装置100は、会議中において、議論の内容を適切に制御するとともに、会議が予定通りに進行されるように進行時間を制御することができる。   Finally, in step S49, the conference progress control unit 32 sends the completed conference map to the storage unit 40, stores it, and ends the processing of this flow. As described above, the support apparatus 100 can appropriately control the content of the discussion during the conference and can control the progress time so that the conference proceeds as scheduled.

次に、会議後における支援装置100の動作(議事録作成)例を説明する。図20は、会議後における支援装置100の動作例を示すフローチャートである。   Next, an example of the operation of the support apparatus 100 after the meeting (preparation of minutes) will be described. FIG. 20 is a flowchart illustrating an operation example of the support apparatus 100 after the conference.

まず、ステップS91において、議事録出力部50は、会議後に記憶部40より会議進行状況情報と音声認識結果と完成した会議マップとを受け取る。すなわち、会議後において、記憶部40は、会議進行状況情報と音声認識結果と完成した会議マップとを議事録出力部50へ送る。   First, in step S91, the minutes output unit 50 receives the conference progress information, the voice recognition result, and the completed conference map from the storage unit 40 after the conference. That is, after the conference, the storage unit 40 sends the conference progress status information, the voice recognition result, and the completed conference map to the minutes output unit 50.

次に、ステップS92において、議事録出力部50は、議事録を作成する。すなわち、議事録出力部50は、議題毎に関連付けられた会議進行状況情報と音声認識結果とを整形し、割り当て時間および所用時間の情報を削除し、さらに、会議マップの内容と会議開催通知と合わせて議事録を出力する。   Next, in step S92, the minutes output unit 50 creates the minutes. That is, the minutes output unit 50 shapes the conference progress information and the speech recognition result associated with each agenda, deletes the allocated time and the required time information, and further, the content of the conference map, the conference opening notification, In addition, the minutes are output.

図21は、議事録例を示す図である。図21に示すように、議事録出力部50は、割り当て時間および所用時間の情報が削除された会議進行状況情報と、音声認識結果と、議題毎の結論、理由、決定事項、並びに、会議の結果およびアクションアイテムを含む議事録を作成する。   FIG. 21 is a diagram showing an example of minutes. As shown in FIG. 21, the minutes output unit 50 includes the conference progress information from which the information on the allocated time and the required time is deleted, the speech recognition result, the conclusion, reason, decision items for each agenda, and the conference Create minutes containing results and action items.

図22は、会議進行状況情報および完成した会議マップとの関連付けの例を示す図である。さらに、図22に示すように、議事録出力部50は、会議マップとそれぞれのノードと、議事録の対応する箇所とを関連付けるリンク情報を生成して保存する。例えば、議事録出力部50は、会議マップの議論内容のノードと、対応する会議進行状況情報とを関連付けるリンク情報を生成する。これにより、会議マップと議事録とを合わせて参照することが可能となり、例えば会議に出席していない人が、会議に出席していない人が理由の文章をクリックすることで、効率良く議事録を確認することができる。   FIG. 22 is a diagram illustrating an example of association between conference progress status information and a completed conference map. Further, as shown in FIG. 22, the minutes output unit 50 generates and stores link information that associates the conference map, each node, and the corresponding location of the minutes. For example, the minutes output unit 50 generates link information associating the discussion content node of the conference map with the corresponding conference progress information. This makes it possible to refer to the meeting map and the minutes together. For example, if a person who has not attended the meeting clicks on the reasoning statement for a person who has not attended the meeting, the minutes can be efficiently viewed. Can be confirmed.

図20に戻って説明を続ける。次に、ステップS93において、議事録出力部50は、議事録をネットワーク経由で主催者へ送信し、処理を終了する。すなわち、議事録出力部50は、受け取った情報から議事録を作成し、主催者へ議事録を送信する。   Returning to FIG. 20, the description will be continued. Next, in step S93, the minutes output unit 50 transmits the minutes to the organizer via the network and ends the process. That is, the minutes output unit 50 creates the minutes from the received information and transmits the minutes to the organizer.

以上のように、本実施形態に係る支援装置100によれば、会議マップを作成することにより、会議の進行を適切に支援するとともに、議事録の作成の手間を小さくすることができる。   As described above, according to the support device 100 according to the present embodiment, by creating a conference map, it is possible to appropriately support the progress of the conference and reduce the time and effort of creating the minutes.

次に、変形例に係る支援装置100について説明する。図23は、変形例に係る支援装置100の機能構成例を示すブロック図である。   Next, the support device 100 according to the modification will be described. FIG. 23 is a block diagram illustrating a functional configuration example of the support device 100 according to the modification.

支援装置100は、図23に示すように、マップ操作認識部110、会議比較部120および匿名化処理部130をさらに備えてもよい。   As illustrated in FIG. 23, the support device 100 may further include a map operation recognition unit 110, a conference comparison unit 120, and an anonymization processing unit 130.

マップ操作認識部110は、会議の参加者(ユーザ)による、会議マップのそれぞれのノードと議事録の対応する箇所との関連付けの操作を受け付ける。マップ操作認識部110は、一例として、プロジェクタに投影された会議マップと議事録とを操作して、関連付けの操作をする。そして、議事録出力部50は、マップ操作認識部110により受け付けた操作に応じてリンク情報を作成する。これにより、より正確に会議マップと議事録との関連付けをすることが可能となる。   The map operation recognition unit 110 accepts an operation of associating each node of the conference map with a corresponding portion of the minutes by a conference participant (user). For example, the map operation recognizing unit 110 operates the conference map and the minutes projected on the projector to perform the association operation. Then, the minutes output unit 50 creates link information according to the operation received by the map operation recognition unit 110. This makes it possible to associate the conference map with the minutes more accurately.

会議比較部120は、過去の議事録を例えばネットワーク等を介して入力する。会議比較部120は、議題入力部10が入力した会議開催情報に示された会議の議題と、過去の議事録とを比較して、会議開催情報に示された会議の議題が過去の会議において議論されたか否かを判断する。会議比較部120は、過去の会議において議論された議題については会議の参加者等に通知する。これにより、会議比較部120は、重複した議題についての議論を無くし、会議の無駄を省くことができる。   The meeting comparison unit 120 inputs past minutes, for example, via a network or the like. The meeting comparison unit 120 compares the meeting agenda shown in the meeting holding information input by the agenda input unit 10 with the past minutes, and the meeting agenda shown in the meeting holding information is Determine if it has been discussed. The meeting comparison unit 120 notifies the participants of the meeting about the agenda items discussed in the past meeting. Thereby, the meeting comparison part 120 can eliminate the discussion about the duplicate agenda and can save the waste of the meeting.

匿名化処理部130は、記憶部40に記憶されている音声認識結果を読み出して、話者を特定できないように匿名化して議事録出力部50に送る。この場合において、匿名化処理部130は、記憶部40に音声ファイルが保存されている場合には、音声ファイルの音質を変更して、話の内容は理解できるが誰が発言しているかを特定できないようにする。これにより、匿名化処理部130は、話者が特定されずセキュリティを保つことができる。   The anonymization processing unit 130 reads the voice recognition result stored in the storage unit 40, anonymizes the speaker so that the speaker cannot be specified, and sends it to the minutes output unit 50. In this case, when an audio file is stored in the storage unit 40, the anonymization processing unit 130 can change the sound quality of the audio file and understand the content of the story but cannot specify who is speaking. Like that. Thereby, the anonymization processing unit 130 can maintain security without specifying a speaker.

以上、本発明の実施形態について説明したが、本発明は上述の各実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の変形が可能である。また、上述の各実施形態は任意に組み合わせることもできる。   As mentioned above, although embodiment of this invention was described, this invention is not limited to each above-mentioned embodiment, A various deformation | transformation is possible within the range which does not deviate from the summary of this invention. Moreover, each above-mentioned embodiment can also be combined arbitrarily.

なお、上述の実施形態の支援装置100は、例えば汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現可能である。すなわち、上述の各記憶部40はハードウェア回路で実現される。一方、上述の議題入力部10、会議マップ生成部15、音声認識部20、会話補助制御部30、議事録出力部50、画像出力部60、音声合成部70の各々は、上記のコンピュータ装置に搭載されたCPUがROMやRAMなどの記憶装置などに格納されたプログラムを実行することにより実現することができる。また、上述の議題入力部10、会議マップ生成部15、音声認識部20、会話補助制御部30、議事録出力部50、画像出力部60、音声合成部70の各々は、HDD、CDドライブ装置などの外部記憶装置などに格納されたプログラムを実行することにより実現することができる。なお、これに限らず、例えば上述の議題入力部10、会議マップ生成部15、音声認識部20、会話補助制御部30、議事録出力部50、画像出力部60、音声合成部70の機能のうちの少なくとも一部がハードウェア回路で実現されてもよい。   Note that the support apparatus 100 of the above-described embodiment can also be realized by using, for example, a general-purpose computer apparatus as basic hardware. That is, each storage unit 40 described above is realized by a hardware circuit. On the other hand, each of the agenda input unit 10, conference map generation unit 15, speech recognition unit 20, conversation assistance control unit 30, minutes output unit 50, image output unit 60, and speech synthesis unit 70 is connected to the computer device described above. This can be realized by an on-board CPU executing a program stored in a storage device such as a ROM or a RAM. The agenda input unit 10, conference map generation unit 15, speech recognition unit 20, conversation assistance control unit 30, minutes output unit 50, image output unit 60, and speech synthesis unit 70 are each an HDD, a CD drive device. This can be realized by executing a program stored in an external storage device. For example, the functions of the agenda input unit 10, the conference map generation unit 15, the speech recognition unit 20, the conversation assistance control unit 30, the minutes output unit 50, the image output unit 60, and the speech synthesis unit 70 are described above. At least a part of them may be realized by a hardware circuit.

上述の実施形態の支援装置100で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。さらに、上述の実施形態の支援装置100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の実施形態の支援装置100で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。   The program executed by the support apparatus 100 of the above-described embodiment is a file in an installable format or an executable format, and is a computer such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk). The information may be provided by being recorded on a recording medium that can be read by the user. Furthermore, the program executed by the support apparatus 100 according to the above-described embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the program executed by the support apparatus 100 of the above-described embodiment may be configured to be provided or distributed via a network such as the Internet.

また、本実施の形態の支援装置100で実行されるプログラムは、上述した各部(議題入力部10、会議マップ生成部15、音声認識部20、会話補助制御部30、議事録出力部50、画像出力部60、音声合成部70)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、議題入力部10、会議マップ生成部15、音声認識部20、会話補助制御部30、議事録出力部50、画像出力部60、音声合成部70が主記憶装置上に生成されるようになっていてもよい。   The program executed by the support device 100 of the present embodiment includes the above-described units (the agenda input unit 10, the conference map generation unit 15, the speech recognition unit 20, the conversation assistance control unit 30, the minutes output unit 50, the image The module configuration includes an output unit 60 and a speech synthesis unit 70). As actual hardware, a CPU (processor) reads out and executes a program from the storage medium, and the respective units are loaded onto the main storage device. The agenda input unit 10, the conference map generation unit 15, the speech recognition unit 20, the conversation assistance control unit 30, the minutes output unit 50, the image output unit 60, and the speech synthesis unit 70 are generated on the main storage device. It may be.

また、支援装置100が、上述の会話補助制御部30(会話ラベラー31、会議進行制御部32、タイマー33)の機能を有し、その他の機能(議題入力部10、会議マップ生成部15、音声認識部20、記憶部40、議事録出力部50、画像出力部60、音声合成部70)が、支援装置100と接続可能な外部サーバ装置に搭載されてもよい。外部サーバ装置の数は1以上であればよく、例えば、会話補助制御部30以外の機能(議題入力部10、音声認識部20、記憶部40、議事録出力部50、画像出力部60、音声合成部70)が、2以上の外部装置に分散されて搭載されてもよい。   Further, the support device 100 has the functions of the above-described conversation assistance control unit 30 (conversation labeler 31, conference progress control unit 32, timer 33), and other functions (the agenda input unit 10, the conference map generation unit 15, voice) The recognition unit 20, the storage unit 40, the minutes output unit 50, the image output unit 60, and the voice synthesis unit 70) may be mounted on an external server device that can be connected to the support device 100. The number of external server devices may be one or more. For example, functions other than the conversation assistance control unit 30 (the agenda input unit 10, the voice recognition unit 20, the storage unit 40, the minutes output unit 50, the image output unit 60, the voice The combining unit 70) may be distributed and mounted on two or more external devices.

10 議題入力部
20 音声認識部
30 会話補助制御部
31 会話ラベラー
32 会議進行制御部
33 タイマー
40 記憶部
50 議事録出力部
60 画像出力部
70 音声合成部
100 支援装置
110 マップ操作認識部
120 会議比較部
130 匿名化処理部
10 Agenda Input Unit 20 Speech Recognition Unit 30 Conversation Auxiliary Control Unit 31 Conversation Labeler 32 Conference Progress Control Unit 33 Timer 40 Storage Unit 50 Minutes Output Unit 60 Image Output Unit 70 Speech Synthesis Unit 100 Support Device 110 Map Operation Recognition Unit 120 Conference Comparison Part 130 Anonymization processing part

特開2006−268800号公報JP 2006-268800 A

Claims (8)

入力された議事録の雛形を表す議事録テンプレートを分析して、会議の会議名および議題を少なくともノードとするグラフ形式の会議マップを作成する会議マップ生成部と、
前記会議における音声認識結果を取得する音声認識部と、
前記音声認識結果に基づき前記会議における単語間の距離を判断し、前記会議における前記単語および前記単語間の距離に応じて前記会議マップを更新して画像出力部に表示させ、前記単語間の距離が遠いことにより議論が発散している場合、議論の収束を促す通知を前記画像出力部に表示させる会話補助制御部と、
前記会議マップと前記音声認識結果とに基づき、前記議事録テンプレートに従った議事録を作成する議事録出力部と、
を備える支援装置。
A meeting map generation unit that analyzes a minutes template that represents a template of the input minutes and creates a meeting map in a graph format including at least the meeting name and the agenda of the meeting as a node;
A voice recognition unit for obtaining a voice recognition result in the conference;
The distance between words in the conference is determined based on the speech recognition result, the conference map is updated according to the word in the conference and the distance between the words and displayed on the image output unit, and the distance between the words If the discussion is divergent due to being far away, a conversation assistance control unit that causes the image output unit to display a notification that prompts the convergence of the discussion, and
A minutes output unit for creating minutes according to the minutes template based on the meeting map and the voice recognition result;
A support device comprising:
前記議事録出力部は、前記会議マップのそれぞれのノードと、前記議事録の対応する箇所とを関連付けるリンク情報をさらに作成する
請求項1に記載の支援装置。
The support apparatus according to claim 1, wherein the minutes output unit further creates link information that associates each node of the meeting map with a corresponding portion of the minutes.
ユーザによる、前記会議マップのそれぞれのノードと前記議事録の対応する箇所との関連付けの操作を受け付けるマップ操作認識部をさらに備え、
前記議事録出力部は、前記マップ操作認識部により受け付けた操作に応じて前記リンク情報をさらに作成する
請求項2に記載の支援装置。
A map operation recognizing unit that accepts an operation of associating each node of the conference map with a corresponding portion of the minutes by the user;
The support apparatus according to claim 2, wherein the minutes output unit further creates the link information according to an operation received by the map operation recognition unit.
前記音声認識結果を話者を特定できないように匿名化する匿名化処理部をさらに備える
請求項1から3の何れか一項に記載の支援装置。
The support apparatus as described in any one of Claim 1 to 3 further provided with the anonymization process part which anonymizes the said speech recognition result so that a speaker cannot be specified.
前記会議の議題と過去の議事録とを比較する会議比較部をさらに備える
請求項1から4の何れか一項に記載の支援装置。
The support apparatus as described in any one of Claim 1 to 4 further provided with the meeting comparison part which compares the agenda of the said meeting and the past minutes.
入力された会議開催情報を分析し、会議の議事進行計画に相当する議事進行表を作成する議題入力部をさらに備え、
前記会話補助制御部は、前記議事進行表と前記音声認識結果とから前記会議の進行状況を監視し、当該進行状況に合わせて前記議事進行表を更新し、
前記議事録出力部は、前記会議マップと前記進行状況に関する会議進行状況情報と前記音声認識結果とから議事録を作成する
請求項1から5の何れか一項に記載の支援装置。
It further includes an agenda input unit that analyzes the conference information that has been input and creates an agenda that corresponds to the agenda of the conference,
The conversation assistance control unit monitors the progress of the conference from the proceeding progress table and the voice recognition result, and updates the proceeding progress table according to the progress status,
The support apparatus according to any one of claims 1 to 5, wherein the minutes output unit creates a minutes from the meeting map, meeting progress information regarding the progress, and the voice recognition result.
入力された議事録の雛形を表す議事録テンプレートを分析して、会議の会議名および議題を少なくともノードとするグラフ形式の会議マップを作成する会議マップ生成ステップと、
前記会議における音声認識結果を取得する音声認識ステップと、
前記音声認識結果に基づき前記会議における単語間の距離を判断し、前記会議における前記単語および前記単語間の距離に応じて前記会議マップを更新して画像出力部に表示させ、前記単語間の距離が遠いことにより議論が発散している場合、議論の収束を促す通知を前記画像出力部に表示させる会話補助制御ステップと、
前記会議マップと前記音声認識結果とに基づき、前記議事録テンプレートに従った議事録を作成する議事録出力ステップと、
を含む支援方法。
A meeting map generation step of analyzing a meeting minutes template representing a template of the inputted meeting minutes and creating a meeting map in a graph format having a meeting name and agenda of the meeting as nodes at least;
A voice recognition step of obtaining a voice recognition result in the conference;
The distance between words in the conference is determined based on the speech recognition result, the conference map is updated according to the word in the conference and the distance between the words and displayed on the image output unit, and the distance between the words If the discussion is divergent due to being far away, a conversation assistance control step for causing the image output unit to display a notification for promoting the convergence of the discussion ;
Minutes output step of creating a minutes according to the minutes template based on the meeting map and the voice recognition result;
Support method including.
コンピュータを、請求項1から6の何れか一項に記載の支援装置として機能させるためのプログラム。   The program for functioning a computer as an assistance apparatus as described in any one of Claim 1 to 6.
JP2014008909A 2014-01-21 2014-01-21 Support device, support method, and program Active JP6402447B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014008909A JP6402447B2 (en) 2014-01-21 2014-01-21 Support device, support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014008909A JP6402447B2 (en) 2014-01-21 2014-01-21 Support device, support method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018171148A Division JP6601545B2 (en) 2018-09-13 2018-09-13 Support device, support method, and program

Publications (2)

Publication Number Publication Date
JP2015138103A JP2015138103A (en) 2015-07-30
JP6402447B2 true JP6402447B2 (en) 2018-10-10

Family

ID=53769145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014008909A Active JP6402447B2 (en) 2014-01-21 2014-01-21 Support device, support method, and program

Country Status (1)

Country Link
JP (1) JP6402447B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6655378B2 (en) * 2015-12-17 2020-02-26 株式会社イトーキ Meeting support system
JP2017167433A (en) * 2016-03-17 2017-09-21 株式会社東芝 Summary generation device, summary generation method, and summary generation program
US10614162B2 (en) * 2016-05-27 2020-04-07 Ricoh Company, Ltd. Apparatus, system, and method of assisting information sharing, and recording medium
JP2019061491A (en) * 2017-09-26 2019-04-18 株式会社東芝 Interactive idea assisting method and interactive idea assisting device
JP2019159544A (en) * 2018-03-09 2019-09-19 東京瓦斯株式会社 Proceedings guidance system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3087388B2 (en) * 1991-05-30 2000-09-11 富士ゼロックス株式会社 Collaborative work equipment
JP2011053629A (en) * 2009-09-04 2011-03-17 Sharp Corp Conference relay device and computer program

Also Published As

Publication number Publication date
JP2015138103A (en) 2015-07-30

Similar Documents

Publication Publication Date Title
JP6402447B2 (en) Support device, support method, and program
Arnold et al. Audience design affects acoustic reduction via production facilitation
JP5068802B2 (en) System and method for facilitating media customization
US8717915B2 (en) Process-integrated tree view control for interactive voice response design
US11823074B2 (en) Intelligent communication manager and summarizer
JP5123591B2 (en) Idea support device, idea support system, idea support program, and idea support method
JP2014179010A (en) Minutes creation support device, minutes creation support method, and program
US7792673B2 (en) Method of generating a prosodic model for adjusting speech style and apparatus and method of synthesizing conversational speech using the same
JP6705956B1 (en) Education support system, method and program
CN108744521A (en) The method and device of game speech production, electronic equipment, storage medium
JPH08106298A (en) Device and method for conversation processing
JP6280312B2 (en) Minutes recording device, minutes recording method and program
US20160189103A1 (en) Apparatus and method for automatically creating and recording minutes of meeting
KR101669339B1 (en) Method and system for constructing corpus for chatting system
Leite et al. Semi-situated learning of verbal and nonverbal content for repeated human-robot interaction
JP2018092365A (en) Information processing system, information processing device, information processing method, and program
Pérez-Soler et al. Towards Conversational Syntax for Domain-Specific Languages using Chatbots.
WO2019165732A1 (en) Robot emotional state-based reply information generating method and apparatus
JP6601545B2 (en) Support device, support method, and program
JP2006236037A (en) Voice interaction content creation method, device, program and recording medium
Varga et al. Development of an online subjective evaluation system for recorded speech of deaf and hard of hearing children
JP2012226651A (en) Information processing apparatus, information processing method, and program
KR20110064964A (en) The intelligent language system which has a improve on pronunciation
JP2004020739A (en) Device, method and program for preparing minutes
Johansson et al. Flexible integration of voice recognition components for an automotive android platform: A design science research

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180827

R151 Written notification of patent or utility model registration

Ref document number: 6402447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151