JP7046546B2 - Conference support system and conference support program - Google Patents

Conference support system and conference support program Download PDF

Info

Publication number
JP7046546B2
JP7046546B2 JP2017187373A JP2017187373A JP7046546B2 JP 7046546 B2 JP7046546 B2 JP 7046546B2 JP 2017187373 A JP2017187373 A JP 2017187373A JP 2017187373 A JP2017187373 A JP 2017187373A JP 7046546 B2 JP7046546 B2 JP 7046546B2
Authority
JP
Japan
Prior art keywords
attendee
conference
meeting
support system
attendees
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017187373A
Other languages
Japanese (ja)
Other versions
JP2019061594A (en
Inventor
治 福本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2017187373A priority Critical patent/JP7046546B2/en
Publication of JP2019061594A publication Critical patent/JP2019061594A/en
Application granted granted Critical
Publication of JP7046546B2 publication Critical patent/JP7046546B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、会議を支援する技術に関し、特に、複数の拠点間での会議を支援する会議支援システムおよび会議支援プログラムに適用して有効な技術に関するものである。 The present invention relates to a technique for supporting a conference, and more particularly to a technique applicable to a conference support system and a conference support program for supporting a conference between a plurality of bases.

遠隔地を含む複数の拠点間での会議をIT技術により支援する仕組みとして、例えば、いわゆるテレビ会議システムやホワイトボードシステム等が知られている。例えば、「Skype(登録商標、以下同様) for Business」(非特許文献1)では、複数拠点間で音声・ビデオによるオンラインでのグループ会議やメッセージングを行うことができ、画像や資料等の内容を共有するデジタルホワイトボードの機能等も有している。また、「Microsoft Surface(登録商標、以下同様) Hub」(非特許文献2)は、大画面のディスプレイにカメラやセンサ等を備え、外部のPC(Personal Computer)等の情報処理装置と連携することができる装置として、上記のようなオンラインでのグループ会議を実現するものである。 For example, a so-called video conference system, a whiteboard system, or the like is known as a mechanism for supporting a conference between a plurality of bases including a remote location by using IT technology. For example, in "Skype (registered trademark, the same applies hereinafter) for Business" (Non-Patent Document 1), online group meetings and messaging can be conducted by voice and video between multiple bases, and the contents of images and materials can be displayed. It also has the function of a shared digital whiteboard. In addition, "Microsoft Surface (registered trademark, the same applies hereinafter) Hub" (Non-Patent Document 2) is equipped with a camera, sensor, etc. on a large screen display and cooperates with an external information processing device such as a PC (Personal Computer). As a device capable of this, the above-mentioned online group meeting is realized.

また、例えば、特開2006-50500号公報(特許文献1)には、会議の参加者がクライアント装置を介して、自らの会議中の発言の情報を会議サーバ装置に送付し、会議支援を受けるとともに、音声の発言は、クライアント装置または会議サーバ装置の音声認識によって、議事進行中にリアルタイムでテキストデータに変換する旨が記載されている。 Further, for example, in Japanese Patent Application Laid-Open No. 2006-50500 (Patent Document 1), a conference participant sends information on his / her remarks during the conference to the conference server device via a client device, and receives conference support. At the same time, it is described that the voice statement is converted into text data in real time while the proceedings are in progress by voice recognition of the client device or the conference server device.

また、会議の品質を評価する技術も種々検討されており、例えば、会議出席者の議題別の発言数や、平均肯定率等の統計情報を取得することなどが提案されている。これに関連する技術として、例えば、特開2013-8114号公報(特許文献2)には、発言者の発言状態から形成された発言品質評価値と、発言者以外の出席者の回転方向姿勢(うつ伏せ、仰向け、および直立不動)から形成された姿勢評価値とに基づいて会議の品質評価を演算する旨が記載されている。 In addition, various techniques for evaluating the quality of the conference have been studied, and for example, it has been proposed to acquire statistical information such as the number of remarks by the agenda of the conference attendees and the average affirmative rate. As a technique related to this, for example, Japanese Patent Application Laid-Open No. 2013-8114 (Patent Document 2) describes a speech quality evaluation value formed from the speech state of a speaker and a rotational posture of attendees other than the speaker (patent document 2). It is stated that the quality evaluation of the meeting is calculated based on the posture evaluation values formed from prone, supine, and upright immobility).

特開2006-50500号公報Japanese Unexamined Patent Publication No. 2006-50500 特開2013-8114号公報Japanese Unexamined Patent Publication No. 2013-8114

“Skype for Business - あらゆるデバイスで、あらゆる人とコラボレーション”、[online]、2017年、Skype and/or Microsoft、[平成29年8月22日検索]、インターネット<URL:https://www.skype.com/ja/business/skype-for-business/>“Skype for Business-Collaborate with Everyone on Any Device”, [online], 2017, Skype and / or Microsoft, [Search August 22, 2017], Internet <URL: https://www.skype .com / ja / business / skype-for-business /> “Microsoft Surface Hub | コラボレーション デバイス”、[online]、2017年、Microsoft、[平成29年8月22日検索]、インターネット<URL:https://www.microsoft.com/microsoft-surface-hub/ja-jp>“Microsoft Surface Hub | Collaboration Device”, [online], 2017, Microsoft, [Search August 22, 2017], Internet <URL: https://www.microsoft.com/microsoft-surface-hub/en -jp >

従来技術によれば、複数の拠点間での会議も含めて、情報の共有や発言のテキスト化による議事録の自動作成等、会議の運営を効率化するとともに、会議の内容や品質について評価を行い、会議の効率を向上させることが可能であるとされる。一方で、会議の運営の効率化という点では様々な観点があり、効率をより一層向上させる余地がある。特に、会議で議論された内容を資産化し、組織内で横断的に共有可能とすることで、組織内において多数実施される会議のより一層の効率化を図ることが可能であると考えられる。 According to the conventional technology, the operation of the meeting is streamlined, including the sharing of information and the automatic creation of minutes by converting the remarks into text, including the meeting between multiple bases, and the content and quality of the meeting are evaluated. It is said that it is possible to improve the efficiency of meetings. On the other hand, there are various viewpoints in terms of improving the efficiency of conference management, and there is room for further improvement in efficiency. In particular, by capitalizing the content discussed at the meeting and making it possible to share it across the organization, it is considered possible to further improve the efficiency of many meetings held within the organization.

そこで本発明の目的は、会議の内容を資産化し、会議の運営を効率化することが可能な会議支援システムおよび会議支援プログラムを提供することにある。 Therefore, an object of the present invention is to provide a conference support system and a conference support program capable of capitalizing the contents of a conference and streamlining the operation of the conference.

本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。 The above and other objects and novel features of the invention will become apparent from the description and accompanying drawings herein.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、以下のとおりである。 A brief description of the representative inventions disclosed in the present application is as follows.

本発明の代表的な実施の形態による会議支援システムは、組織における会議の運営を支援する会議支援システムであって、複数の拠点間でのオンラインでのビデオ会議を可能とするビデオ会議装置と、前記ビデオ会議装置により取得された映像データから画像認識技術により各出席者に係る画像を認識する画像認識部と、前記ビデオ会議装置により取得された各出席者の音声データを取得し、前記音声データと、予め登録された各出席者の音声の特徴情報との比較、および、前記画像認識部により取得された各出席者の動きの情報に基づいて、前記音声データにおける各発言の発言者を特定する音声認識部と、前記音声認識部により取得された各出席者の音声データを発言の時系列でタイムラインとして出力するタイムライン管理部と、を有するものである。 The conference support system according to a typical embodiment of the present invention is a conference support system that supports the operation of a conference in an organization, and is a video conference device that enables online video conference between a plurality of bases. An image recognition unit that recognizes an image related to each attendee by an image recognition technique from video data acquired by the video conferencing device, and audio data of each attendee acquired by the video conferencing apparatus are acquired, and the audio data is obtained. And, based on the comparison with the voice feature information of each attendee registered in advance and the motion information of each attendee acquired by the image recognition unit, the speaker of each remark in the voice data is specified. It has a voice recognition unit and a timeline management unit that outputs the voice data of each attendee acquired by the voice recognition unit as a timeline in the time series of remarks.

また、本発明は、コンピュータを上記のような会議支援プログラムとして動作させる会議支援プログラムにも適用することができる。 The present invention can also be applied to a conference support program that operates a computer as a conference support program as described above.

本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。 Among the inventions disclosed in the present application, the effects obtained by representative ones are briefly described as follows.

すなわち、本発明の代表的な実施の形態によれば、会議の内容を資産化し、会議の運営を効率化することが可能となる。 That is, according to a typical embodiment of the present invention, it is possible to capitalize the contents of the conference and improve the efficiency of the operation of the conference.

本発明の一実施の形態である会議支援システムの各部の構成例について概要を示した図である。It is a figure which showed the outline about the structural example of each part of the conference support system which is one Embodiment of this invention. 本発明の一実施の形態である会議支援システムの動作時の構成例について概要を示した図である。It is a figure which showed the outline about the configuration example at the time of operation of the conference support system which is one Embodiment of this invention. 本発明の一実施の形態におけるビデオ会議装置のディスプレイに表示される画面例について概要を示した図である。It is a figure which showed the outline about the screen example which is displayed on the display of the video conference apparatus in one Embodiment of this invention. 本発明の一実施の形態におけるビデオ会議装置のディスプレイに表示される画面例について概要を示した図である。It is a figure which showed the outline about the screen example which is displayed on the display of the video conference apparatus in one Embodiment of this invention. 本発明の一実施の形態におけるビデオ会議装置のディスプレイに表示される画面例について概要を示した図である。It is a figure which showed the outline about the screen example which is displayed on the display of the video conference apparatus in one Embodiment of this invention. 本発明の一実施の形態におけるビデオ会議装置のディスプレイに表示される画面例について概要を示した図である。It is a figure which showed the outline about the screen example which is displayed on the display of the video conference apparatus in one Embodiment of this invention. 本発明の一実施の形態におけるビデオ会議装置のディスプレイに表示される画面例について概要を示した図である。It is a figure which showed the outline about the screen example which is displayed on the display of the video conference apparatus in one Embodiment of this invention. 本発明の一実施の形態におけるビデオ会議装置のディスプレイに表示される画面例について概要を示した図である。It is a figure which showed the outline about the screen example which is displayed on the display of the video conference apparatus in one Embodiment of this invention. 本発明の一実施の形態におけるビデオ会議装置のディスプレイに表示される画面例について概要を示した図である。It is a figure which showed the outline about the screen example which is displayed on the display of the video conference apparatus in one Embodiment of this invention.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一の符号を付し、その繰り返しの説明は省略する。一方で、ある図において符号を付して説明した部位について、他の図の説明の際に再度の図示はしないが同一の符号を付して言及する場合がある。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, in all the drawings for explaining the embodiment, the same parts are in principle the same reference numerals, and the repeated description thereof will be omitted. On the other hand, the parts described with reference numerals in one figure may be referred to with the same reference numerals in the description of other figures, although they are not shown again.

<システム構成>
図2は、本発明の一実施の形態である会議支援システムの動作時の構成例について概要を示した図である。本実施の形態の会議支援システム1は、例えば、サーバ機器やクラウドコンピューティングサービス上に構築された仮想サーバ等により構成されたサーバシステム10と、会議の出席者が集まる会議室等の各拠点(図中の例では「拠点A」および「拠点B」)にそれぞれ設置されたビデオ会議装置20を有する。サーバシステム10および各ビデオ会議装置20は、それぞれ、インターネットやイントラネット等のネットワーク40への接続を介して相互に通信可能なように構成されている。
<System configuration>
FIG. 2 is a diagram showing an outline of a configuration example of the conference support system according to the embodiment of the present invention at the time of operation. The conference support system 1 of the present embodiment is, for example, a server system 10 composed of a server device, a virtual server built on a cloud computing service, etc., and each base such as a conference room where attendees of the conference gather. In the example in the figure, it has a video conference device 20 installed at each of "base A" and "base B"). The server system 10 and each video conference device 20 are configured to be able to communicate with each other via a connection to a network 40 such as the Internet or an intranet.

ビデオ会議装置20は、複数の拠点間でのオンラインでのビデオ会議を可能とする装置やシステムであり、例えば、上述した「Microsoft Surface Hub」等、大型のディスプレイやカメラ、マイク、各種センサ等を備える専用の装置を適宜使用することができる。汎用のPC(Personal Computer)とこれに接続されたWebカメラやマイク、スピーカー等の周辺デバイス、およびビデオ会議用の既存のソフトウェアを用いて構成されていてもよい。出席者は、ビデオ会議装置20を介して他の拠点の出席者の映像等を参照しつつ、オンラインでのビデオ会議を行うことができる。その際、デジタルホワイトボードの機能により、例えば、タッチパネルにより構成されたディスプレイに出席者が手書きで記載した情報を拠点間・出席者間で共有することができる。 The video conference device 20 is a device or system that enables online video conferences between a plurality of bases. For example, a large display, a camera, a microphone, various sensors, etc. such as the above-mentioned "Microsoft Surface Hub" can be used. A dedicated device provided can be used as appropriate. It may be configured by using a general-purpose PC (Personal Computer), peripheral devices such as a Web camera, a microphone, and a speaker connected to the PC, and existing software for video conference. Attendees can hold an online video conference while referring to images of attendees at other sites via the video conference device 20. At that time, by the function of the digital whiteboard, for example, the information handwritten by the attendees on the display configured by the touch panel can be shared between the bases and the attendees.

各拠点での出席者は、さらに、PC(Personal Computer)やタブレット端末、スマートフォン等の情報処理端末である出席者端末30を介して会議支援システム1に接続することができる。接続に際しては、例えば、自身の拠点に設置されたビデオ会議装置20に対してLAN(Local Area Network)等を介して接続してもよいし、ネットワーク40を介してサーバシステム10に接続してもよい。各出席者は、出席者端末30での操作により、各拠点のビデオ会議装置20のディスプレイに資料や入力したテキスト情報等を表示させ、拠点間・出席者間で情報を共有することができる。また、ビデオ会議装置20のディスプレイに表示された情報を自身の出席者端末30上で参照することもできる。 Attendees at each site can further connect to the conference support system 1 via the attendee terminal 30, which is an information processing terminal such as a PC (Personal Computer), a tablet terminal, or a smartphone. At the time of connection, for example, the video conference device 20 installed at its own base may be connected via a LAN (Local Area Network) or the like, or may be connected to the server system 10 via the network 40. good. Each attendee can display materials, input text information, and the like on the display of the video conference device 20 at each base by operating the attendee terminal 30, and share the information between the bases and the attendees. In addition, the information displayed on the display of the video conference device 20 can be referred to on the attendee terminal 30.

サーバシステム10は、例えば、図示しないCPU(Central Processing Unit)により、HDD(Hard Disk Drive)等の記録装置からメモリ上に展開したOS(Operating System)やDBMS(DataBase Management System)、Webサーバプログラム等のミドルウェアや、その上で稼働するソフトウェアを実行することで、複数の拠点間での会議を含む会議運営の支援に係る後述する各種機能を実現する。 The server system 10 includes, for example, an OS (Operating System), a DBMS (DataBase Management System), a Web server program, etc. developed on memory from a recording device such as an HDD (Hard Disk Drive) by a CPU (Central Processing Unit) (not shown). By executing the middleware and the software running on it, various functions related to support for conference management including conferences between multiple bases will be realized.

図1は、本発明の一実施の形態である会議支援システムの各部の構成例について概要を示した図である。上述したように、本実施の形態の会議支援システム1は、例えば、サーバシステム10と、各拠点に設置されたビデオ会議装置20とがネットワーク40を介して相互に接続された構成を有する。 FIG. 1 is a diagram showing an outline of a configuration example of each part of the conference support system according to the embodiment of the present invention. As described above, the conference support system 1 of the present embodiment has, for example, a configuration in which the server system 10 and the video conference equipment 20 installed at each base are connected to each other via the network 40.

会議支援システム1は、例えば、ソフトウェアにより実装されたビデオ会議処理部11、音声認識部12、画像認識部13、認証部14、タイムライン管理部15、評価・分析部16、会議制御部17、および要約生成部18等の各部を有する。また、データベース(DB)やファイル等により実装されたユーザDB101、コンテンツDB102、タイムラインDB103、および議事録DB104等の各データを有する。なお、これらの各部や各DBは、その全部もしくは一部がそれぞれ、サーバシステム10上に一元的に実装されていてもよいし、ビデオ会議装置20が個別に備えていてもよく、システム要件に応じて柔軟に構成することができる(図1の例では、各部がサーバシステム10およびビデオ会議装置20のいずれに実装されるのかを特定していない)。 The conference support system 1 includes, for example, a video conference processing unit 11 implemented by software, a voice recognition unit 12, an image recognition unit 13, an authentication unit 14, a timeline management unit 15, an evaluation / analysis unit 16, and a conference control unit 17. It also has each part such as a summary generation part 18. It also has data such as a user DB 101, a content DB 102, a timeline DB 103, and a minutes DB 104 implemented by a database (DB), a file, or the like. It should be noted that all or part of each of these parts and each DB may be centrally mounted on the server system 10, or may be individually provided by the video conference device 20, which is a system requirement. It can be flexibly configured accordingly (in the example of FIG. 1, it is not specified whether each part is mounted on the server system 10 or the video conference device 20).

ビデオ会議処理部11は、複数の拠点間のオンラインでのビデオ会議に係る基本的・一般的な処理を行う機能を有する。例えば、ビデオ会議装置20が備えるカメラやマイクにより取得された拠点(会議室)の映像や音声のデータをファイル等に記録するとともに、他の拠点のビデオ会議装置20のディスプレイに出力する。また、デジタルホワイトボードの機能により、資料や入力された情報等を各拠点のビデオ会議装置20のディスプレイに表示させて拠点間で共有する。これらの機能は、例えば、上述した「Skype for Business」等、ビデオ会議を実現可能とする既存のソフトウェアやシステムを適宜使用することで実装できる。 The video conference processing unit 11 has a function of performing basic and general processing related to an online video conference between a plurality of bases. For example, the video and audio data of the base (meeting room) acquired by the camera and microphone included in the video conference device 20 are recorded in a file or the like and output to the display of the video conference device 20 of another base. Further, by the function of the digital whiteboard, materials, input information, and the like are displayed on the display of the video conference device 20 of each base and shared between the bases. These functions can be implemented by appropriately using existing software and systems that enable video conferencing, such as the above-mentioned "Skype for Business".

音声認識部12は、ビデオ会議処理部11により取得・録音された会議中の音声データをコンテンツDB102に記録するとともに、公知の音声認識技術によりリアルタイムでテキスト化し、可能な場合には発話者を特定した上で、会議および発話者(ユーザ)に関連付けてコンテンツDB102に記録する機能を有する。発話者の特定手法は特に限定されないが、例えば、ユーザ毎にユーザDB101に予め登録されている(もしくは会議中に音声データから取得した)声紋等の特徴情報と音声データとを比較することで行う。複数のマイクから取得された音声データに基づいて音声が発せられた方向を特定し、後述する画像認識部13により特定された映像データ中の出席者の情報(さらにはその(口の)動きの情報)と照合する等、音声データと映像データとを複合的に用いて特定するようにしてもよい。 The voice recognition unit 12 records the voice data during the conference acquired and recorded by the video conference processing unit 11 in the content DB 102, converts it into text in real time by a known voice recognition technology, and identifies the speaker if possible. Then, it has a function of recording in the content DB 102 in association with the conference and the speaker (user). The method for specifying the speaker is not particularly limited, but for example, it is performed by comparing the feature information such as the voiceprint registered in advance in the user DB 101 (or acquired from the voice data during the meeting) with the voice data for each user. .. The direction in which the voice is emitted is specified based on the voice data acquired from a plurality of microphones, and the attendee information (and the (mouth) movement) in the video data specified by the image recognition unit 13 described later is used. Information) may be collated, and the audio data and the video data may be used in combination to specify the data.

画像認識部13は、ビデオ会議処理部11により取得・録画された会議中の拠点(会議室)の映像データ(音声を含んでいなくてもよい)をコンテンツDB102に記録するとともに、公知の画像認識技術により、各出席者やその動作等をリアルタイムで特定・把握する機能を有する。会議への出席予定者の情報を事前に会議支援システム1が取得している場合は、当該出席予定者の中から特定するようにしてもよい。特定した出席者の情報(特に顔の情報)は、例えば、後述する認証部14での出席者の認証処理において用いることができる。また、出席者の動作の情報は、例えば、後述する会議制御部17においてジェスチャーとして把握され、会議中の出席者からの各種の情報の取得や、出席者による会議の運営の制御に用いることができる。また、後述する評価・分析部16により、居眠りや姿勢等、出席者の状態の情報を把握することも可能である。 The image recognition unit 13 records the video data (which does not have to include audio) of the base (meeting room) during the conference acquired and recorded by the video conference processing unit 11 in the content DB 102, and also a known image. It has a function to identify and grasp each attendee and their actions in real time by using recognition technology. If the conference support system 1 has acquired the information of the prospective attendees in advance, it may be specified from the prospective attendees. The identified attendee information (particularly face information) can be used, for example, in the attendee authentication process in the authentication unit 14 described later. Further, the information on the movements of the attendees is grasped as a gesture by the conference control unit 17 described later, and can be used for acquiring various information from the attendees during the conference and for controlling the operation of the conference by the attendees. can. In addition, the evaluation / analysis unit 16 described later can grasp information on the state of attendees such as dozing and posture.

なお、コンテンツDB102には、音声認識部12により取得された音声データや画像認識部13により取得された映像データに加えて、ビデオ会議処理部11により取得された会議資料やホワイトボードのデータ等が、会議毎に関連付けて記録される。具体的には、例えば、各コンテンツのデータを対象の会議にそれぞれ関連付けたリストを保持する。もしくは、各コンテンツのデータに係るファイル名を用いて関連付けを行う(例えば、ファイル名に会議を識別可能な情報を含める)等によって実現してもよい。 In addition, in the content DB 102, in addition to the voice data acquired by the voice recognition unit 12 and the video data acquired by the image recognition unit 13, conference materials and whiteboard data acquired by the video conference processing unit 11 are stored in the content DB 102. , Recorded in association with each meeting. Specifically, for example, it holds a list in which the data of each content is associated with the target conference. Alternatively, it may be realized by associating using the file name related to the data of each content (for example, including the information that can identify the conference in the file name).

認証部14は、会議の出席者に対する認証処理を行う機能を有する。本実施の形態では、出席者(ユーザ)が認証という会議自体とは無関係の動作や処理を意識する必要がないよう、例えば、画像認識部13により特定された出席者の顔の画像を、予めユーザDB101に登録されている各出席者の顔画像と照合することで自動的に顔認証を行うとともに、各出席者を特定する。顔に限らず、音声等を照合してもよい。なお、出席者端末30上でのユーザID/パスワードの入力という通常の手法を用いることも当然可能であるし、例えば、会議室の入口等に設けられたIDカードの読取装置や生体認証装置等による外部の認証システムと連携して、認証された旨の情報を取得するようにしてもよい。認証を経て特定された出席者の情報に基づいて、例えば、後述する会議制御部17が会議の座席表を作成するようにしてもよい。 The authentication unit 14 has a function of performing authentication processing for the attendees of the conference. In the present embodiment, for example, an image of the face of the attendee specified by the image recognition unit 13 is previously displayed so that the attendee (user) does not need to be aware of the operation or process of authentication, which is unrelated to the conference itself. Face authentication is automatically performed by collating with the face image of each attendee registered in the user DB 101, and each attendee is specified. Not limited to the face, voice or the like may be collated. Of course, it is also possible to use a normal method of inputting a user ID / password on the attendee terminal 30, and for example, an ID card reading device or a biometric authentication device provided at the entrance of a conference room or the like. In cooperation with an external authentication system by the user, information indicating that the user has been authenticated may be acquired. For example, the conference control unit 17, which will be described later, may create a seating plan for the conference based on the information of the attendees identified through the authentication.

タイムライン管理部15は、会議の中での各出席者による発言やコメント投稿の流れをタイムラインDB103に記録して時系列で管理するとともに、後述する画面例に示すようにビデオ会議装置20のディスプレイ上にリアルタイムで表示する機能を有する。 The timeline management unit 15 records the flow of remarks and comment postings by each attendee in the meeting in the timeline DB 103 and manages them in chronological order, and as shown in the screen example described later, the video conference device 20 It has a function to display in real time on the display.

評価・分析部16は、会議の内容についてリアルタイムで、もしくは事後的に各種の評価やスコアリングを行う機能を有する。評価の対象には、会議全体に加えて、例えば、その中に含まれる各出席者の個々の発言や、態度・状態等が含まれる。また、評価に加えて、例えば、会議中の発言の内容から、トピックや頻出するキーワードを分析したり、音声認識部12や画像認識部13により取得された各出席者の音声や動作、姿勢等の情報から、出席者の感情や状態等を分析したりすることも可能である。また、議事録DB104に蓄積された議事録の内容を分析して、どの会議(会議体)においてどのような内容が議論されているのか等を把握し、組織内で横断的に利用可能な知的資産として活用することも可能である。 The evaluation / analysis unit 16 has a function of performing various evaluations and scoring of the contents of the meeting in real time or after the fact. In addition to the entire conference, the evaluation targets include, for example, the individual remarks of each attendee included in the conference, and the attitude / state of the conference. In addition to the evaluation, for example, topics and frequently-used keywords can be analyzed from the contents of remarks during the meeting, and the voices, actions, postures, etc. of each attendee acquired by the voice recognition unit 12 and the image recognition unit 13 can be analyzed. It is also possible to analyze the emotions and conditions of the attendees from the information in. In addition, by analyzing the contents of the minutes accumulated in the minutes DB 104, it is possible to grasp what kind of content is being discussed at which meeting (meeting body), and the knowledge that can be used across the organization. It can also be used as a target asset.

会議制御部17は、会議の運営・進行を制御する機能を有する。例えば、後述するような会議の形式やモードに応じた画面制御や、会議の終了時間を含む時間管理、現在のトピックや各出席者の発言数等に応じた次の発言者の指定・提案、出席者からのジェスチャー等での指示・要求に基づく休憩やオフレコ、アイスブレイク等(すなわち、議事録に残さない部分)の開始とその解除の制御等が含まれ得る。タイムラインや議事録、その他のビデオ会議装置20の画面上に付箋やブックマーク等を付する機能を有していてもよい。会議全体について事前に指定された内容、もしくは各出席者について予めユーザDB101に登録された内容に基づいて、会議内での発言や資料等について公開してもよい項目や範囲等を制限するアクセス制御を行うようにしてもよい。 The conference control unit 17 has a function of controlling the operation and progress of the conference. For example, screen control according to the format and mode of the meeting as described later, time management including the end time of the meeting, designation / suggestion of the next speaker according to the current topic and the number of comments of each attendee, etc. It may include control of breaks, off-records, ice breaks, etc. (that is, parts not left in the minutes) based on instructions / requests from attendees, and their cancellation. It may have a function of attaching a sticky note, a bookmark, or the like on the screen of the timeline, minutes, or other video conference device 20. Access control that limits the items and scope that may be disclosed about remarks and materials in the meeting based on the contents specified in advance for the entire meeting or the contents registered in the user DB 101 in advance for each attendee. May be done.

コンテンツDB102やタイムラインDB103、議事録DB104に記録された会議の内容に係るデータについて、これらがビデオ会議装置20上に記録されている場合には、会議の終了とともに、これらのデータをサーバシステム10(もしくは図示しない他の管理サーバ等)にアップロードする制御を行ってもよい。 When the data related to the contents of the meeting recorded in the content DB 102, the timeline DB 103, and the minutes DB 104 are recorded on the video conference device 20, these data are stored in the server system 10 at the end of the meeting. You may control uploading to (or another management server, etc. not shown).

要約生成部18は、会議の内容のテキストデータに基づいて、公知の自然言語処理によりこれを要約した議事録を生成して議事録DB104に記録する機能を有する。議事録は、会議終了後に一括して生成してもよいし、リアルタイムもしくは一定時間毎に都度生成し、会議中に各出席者が確認できるようにしてもよい。議事録中においてToDoやタスクが設定された場合、その内容を外部の図示しないタスク管理システムやワークフローシステムに対して出力して連携するようにしてもよい。議事録DB104に蓄積された内容は、ビデオ会議装置20や出席者端末30から適宜参照することができる。 The summary generation unit 18 has a function of generating minutes by a known natural language process based on the text data of the contents of the meeting and recording the minutes in the minutes DB 104. Minutes may be generated collectively after the meeting is over, or may be generated in real time or at regular intervals so that each attendee can check them during the meeting. When ToDo or a task is set in the minutes, the contents may be output to an external task management system or workflow system (not shown) and linked. The contents stored in the minutes DB 104 can be appropriately referred to from the video conference device 20 and the attendee terminal 30.

<画面例と機能の内容>
図3~図9は、本実施の形態におけるビデオ会議装置20のディスプレイに表示される画面例について概要を示した図である。
<Screen example and function contents>
3 to 9 are diagrams showing an outline of a screen example displayed on the display of the video conference device 20 according to the present embodiment.

[会議開始時]
図3の画面例では、会議開始時において出席者の認識・認証と出席者としての登録を行っている状態を示している。画面左側の領域では、ビデオ会議装置20が備えるカメラにより、当該ビデオ会議装置20が設置された拠点の会議室を撮影した映像を表示しており、出席者全員がカメラに顔を向けることで、画像認識部13により顔を認識し、認証部14により、予めユーザDB101に登録されている顔画像のデータと照合することで顔認証と出席者の特定を行う。会議への出席予定者の情報を事前に会議支援システム1が取得している場合は、当該出席予定者の中から顔認証により特定するようにしてもよい。
[At the start of the meeting]
The screen example of FIG. 3 shows a state in which attendees are recognized / authenticated and registered as attendees at the start of the meeting. In the area on the left side of the screen, the camera provided in the video conference device 20 displays an image of the conference room of the base where the video conference device 20 is installed, and all the attendees turn their faces to the camera. The image recognition unit 13 recognizes the face, and the authentication unit 14 performs face recognition and identification of attendees by collating with the face image data registered in advance in the user DB 101. If the conference support system 1 has acquired the information of the prospective attendees in advance, the prospective attendees may be identified by face recognition.

なお、顔認証は、図示するように、複数の出席者が集合した状態で一括して行ってもよいし、各出席者が会議室に入室する際などにおいて一人ずつ個別に行うようにしてもよい。顔認証に加えて、図示するように、予めユーザDB101に登録されている音声データとの照合も行って認証するようにしてもよい。 As shown in the figure, face recognition may be performed collectively with a plurality of attendees gathered, or may be performed individually when each attendee enters the conference room. good. In addition to face recognition, as shown in the figure, the voice data registered in the user DB 101 in advance may be collated for authentication.

顔認識がされた出席者の情報は、画面右側の領域に、例えば、各出席者を示すアイコンや顔マーク等の画像により一覧として表示される。図3の例では、顔認識の結果、画面左側の領域で「1」~「4」の番号が割り振られた出席者のうち、画面右側の領域において、「4」が割り振られた出席者については顔認証ができず特定できなかったことを示している。この場合、「新規登録する」ボタンを選択することで、手動で出席者として登録することができる。 The information of the attendees whose faces have been recognized is displayed as a list in the area on the right side of the screen, for example, by an image such as an icon indicating each attendee or a face mark. In the example of FIG. 3, among the attendees assigned the numbers "1" to "4" in the area on the left side of the screen as a result of face recognition, the attendees assigned "4" in the area on the right side of the screen. Indicates that face recognition could not be performed and could not be identified. In this case, you can manually register as an attendee by selecting the "Register new" button.

手動での登録は、例えば、社員証や入館証等のIDカードをリーダ装置等により読み取ることで行ってもよい。また、出席者が保有するスマートフォン等の出席者端末30上にインストールされたアプリケーション等を介して会議支援システム1にログインすることで登録するようにしてもよい。氏名や社員番号等をキーとしてユーザDB101を直接検索することで登録してもよい。 Manual registration may be performed, for example, by reading an ID card such as an employee ID card or an admission card with a reader device or the like. Alternatively, the attendee may register by logging in to the conference support system 1 via an application installed on the attendee terminal 30 such as a smartphone owned by the attendee. You may register by directly searching the user DB 101 using your name, employee number, or the like as a key.

なお、手動で出席者を登録する場合、例えば、当該出席者がIDカード等を持たず、またユーザDB101にも登録されていない場合は、既に認証された他の出席者、あるいは予め権限が付与されたユーザによって手動で登録できるようにしてもよい。例えば、図3の例において、既に認証されてファシリテータとして登録されている「1」の番号が割り振られた出席者が、図示しない「未認証の出席者を確認」ボタンを選択することで、まだ認証されていない出席者(図3の例では「4」の番号が割り振られた出席者等)を一覧表示させ、手動によりそれぞれ個別に、もしくは一括で登録できるようにしてもよい。 When manually registering attendees, for example, if the attendee does not have an ID card or the like and is not registered in the user DB 101, another attendee who has already been authenticated or is granted authority in advance. It may be possible to manually register by the user who has been authenticated. For example, in the example of FIG. 3, an attendee assigned a number of "1" who has already been authenticated and registered as a facilitator can still select the "Confirm unauthenticated attendees" button (not shown). Unauthenticated attendees (attendees assigned the number "4" in the example of FIG. 3) may be displayed in a list and manually registered individually or collectively.

外部(他の拠点)からの出席者についても、会議支援システム1にログインすることで認証され、出席者として登録される。なお、認証および登録がされた出席者を示すアイコンや顔マーク等の画像は、ビデオ会議装置20の画面上に加えて、各出席者の出席者端末30上にも表示される。 Attendees from outside (other bases) are also authenticated by logging in to the conference support system 1 and registered as attendees. Images such as icons and face marks indicating attendees who have been authenticated and registered are displayed on the attendee terminal 30 of each attendee in addition to the screen of the video conference device 20.

出席者の認証と登録に際して、会議中に各出席者を映像や音声から特定することができるよう、会議開始までの間に各出席者の特徴データを音声認識部12や画像認識部13により取得して、特定された出席者と関連付けて記憶しておくようにしてもよい。例えば、会議当日の各出席者の顔以外に、音声や、服装の色等の特徴、髪の色や長さ、メガネの有無等の情報を特徴データとして記憶しておく。会議開始後もこれらの特徴データは適宜取得して更新するようにしてもよい。 At the time of attendee authentication and registration, the characteristic data of each attendee is acquired by the voice recognition unit 12 and the image recognition unit 13 until the start of the conference so that each attendee can be identified from the video and audio during the conference. It may be associated with the identified attendees and remembered. For example, in addition to the faces of each attendee on the day of the meeting, information such as voice, features such as clothing color, hair color and length, and the presence or absence of glasses is stored as feature data. Even after the start of the meeting, these feature data may be appropriately acquired and updated.

会議の開始に際して、会議内容(発言や資料等)について共有・公開してもよい範囲をファシリテータ(図3の例では「1」が割り振られた「鈴木 一郎」)や司会者等の代表者が設定するようにしてもよい。その際、具体的な内容を個別に設定してもよいが、会議の種類(例えば、「アイデア出し」や「部会」、「事業評価会議」、「業務推進委員会」、「本社全体会議」等)に応じて予め公開範囲(例えば、「全社」や「出席者限定」、「所属部内限定」、「所定の権限を有する者のみ」等)をパターン化しておき、その中から選択することで設定の負荷を低減させるようにしてもよい。当該パターンに対して、ユーザが手動で動的に修正を加えてもよいし、新しいパターンをその場で作成してもよい。会議開始時に代えて会議招集時に設定するようにしてもよい。 At the start of the meeting, representatives such as the facilitator (“Ichiro Suzuki” to which “1” is assigned in the example of Fig. 3) and the moderator will share and disclose the contents of the meeting (statements, materials, etc.). You may set it. At that time, specific contents may be set individually, but the types of meetings (for example, "idea generation", "subcommittee", "business evaluation meeting", "business promotion committee", "head office general meeting"" Etc.), and the disclosure range (for example, "company-wide", "attendee-only", "affiliation-only", "only those with predetermined authority", etc.) should be patterned in advance and selected from them. You may try to reduce the setting load with. The user may manually and dynamically modify the pattern, or a new pattern may be created on the spot. It may be set at the time of convening the meeting instead of at the start of the meeting.

[会議中(および会議後)]
図4の画面例では、会議中の画面の例として、各出席者の発言内容を記録・管理するタイムラインの例を示している。画面上部には、会議の出席者を示すアイコンや顔マーク等の画像が横方向に並べて表示され、各出席者に対応する縦方向の列に、タイムラインとして、それぞれの発言内容のテキストが時系列で表示されている。また、各出席者の発言数や発言時間等の統計情報も表示されている。発言数や発言時間が多い出席者ほど、当該出席者を示すアイコンや顔マーク等の画像を大きくしたり色を濃くしたりする等の強調表示を行うようにしてもよい。
[During (and after)]
In the screen example of FIG. 4, as an example of the screen during the meeting, an example of a timeline for recording and managing the remarks of each attendee is shown. Images such as icons and face marks indicating the attendees of the meeting are displayed side by side at the top of the screen, and the text of each statement is displayed as a timeline in the vertical column corresponding to each attendee. It is displayed in series. In addition, statistical information such as the number of remarks and the remark time of each attendee is also displayed. Attendees who have a large number of remarks or a long remark time may be highlighted by enlarging or darkening the image such as an icon or a face mark indicating the attendee.

会議中のタイムラインの表示方法は、図4に示すような各出席者を横方向に一列に並べた形式での表示に限られず、例えば、各出席者のアイコン等を、会議室内での実際の座席配置と対応する位置に表示するものであってもよい。その際、実際の座席配置をそのまま表す位置に表示してもよいし(例えば、円形テーブルに着席している場合は円形に配置する)、着席順序や位置に応じた状態で、画面端部にアイコン等を並べて配置するようにしてもよい。いずれの場合も、出席者、特に他の拠点での出席者は、出席者の着席位置を直感的に把握することができる。これらの表示方法を出席者の指示により切り替えられるようにしてもよい。 The display method of the timeline during the meeting is not limited to the display in which each attendee is arranged in a horizontal row as shown in FIG. 4, for example, the icon of each attendee is actually displayed in the meeting room. It may be displayed at a position corresponding to the seat arrangement of. At that time, the actual seating arrangement may be displayed as it is (for example, if the seat is seated on a circular table, the seating arrangement may be arranged in a circle), or the seating order and position may be displayed on the edge of the screen. The icons and the like may be arranged side by side. In either case, the attendees, especially those at other locations, can intuitively grasp the seating position of the attendees. These display methods may be switched according to the instructions of the attendees.

各出席者が座席を移動した場合に、対応するアイコン等の表示位置を自動的に変更するようにしてもよい。また、各出席者のアイコン等の表示は、出席者からの指示に基づいて個別に非表示とできるようにしてもよい。また、出席者の実際の着席位置と、画面上のアイコン等の表示が対応していない誤認識がある場合は、例えば、対象のアイコン等を正しい位置にドラッグする等の操作により移動させる。その際、顔認証等の認証処理と出席者としての登録を再度行うようにしてもよい。 When each attendee moves a seat, the display position of the corresponding icon or the like may be automatically changed. Further, the display of the icon or the like of each attendee may be individually hidden based on the instruction from the attendee. If there is a misrecognition that the actual seating position of the attendee does not correspond to the display of the icon or the like on the screen, for example, the target icon or the like is moved by an operation such as dragging to the correct position. At that time, authentication processing such as face recognition and registration as an attendee may be performed again.

会議中の各発言の発話者の特定は、例えば、音声認識部12により、ユーザDB101に予め登録されている、もしくは会議開始時に取得した各出席者の音声データから抽出した声紋等の特徴情報と、対象の発話に係る音声データの特徴情報とを比較することで行う。これに加えて、さらに、会議中の映像データから画像認識部13により特定された各出席者の状態の情報に基づいて行うようにしてもよい。 The identification of the speaker of each utterance during the meeting is, for example, with characteristic information such as a voiceprint registered in advance in the user DB 101 by the voice recognition unit 12 or extracted from the voice data of each attendee acquired at the start of the meeting. , It is performed by comparing with the feature information of the voice data related to the target utterance. In addition to this, it may be performed based on the information on the state of each attendee specified by the image recognition unit 13 from the video data during the meeting.

例えば、画像認識部13により特定された出席者の口や体の動きを映像から解析し、発言者を特定するようにしてもよい。例えば、口が発言時の動きをしている、もしくは、体が発言時特有の動き(身振り手振りやジェスチャー、肩の上下動等)をしている出席者を発言者として特定する。実際の発言者を含む複数の出席者がビデオ会議装置20(が備えるカメラ)に対して正対しておらず、顔画像を取得できない場合は、例えば、まず、顔画像を取得できる出席者の口が動いているか否かを判定し、動いていない場合はこれらの出席者を発言者の候補から除外する。そして、残った出席者の中で、体が発言時特有の動きをしていない出席者をさらに除外し、残った出席者を発言者の候補として画面上に提示する。例えば、発言者候補のリストをポップアップ画面で表示してもよいし、発言者候補に係るアイコン等を強調表示するようにしてもよい。 For example, the movement of the mouth and body of the attendee specified by the image recognition unit 13 may be analyzed from the video to identify the speaker. For example, an attendee whose mouth is moving when speaking or whose body is making movements peculiar to speaking (gestures, gestures, vertical movement of shoulders, etc.) is specified as a speaker. If a plurality of attendees including the actual speaker do not face the video conference device 20 (the camera provided therein) and cannot acquire a facial image, for example, first, the mouth of the attendee who can acquire the facial image. Determines if is moving, and if not, excludes these attendees from the candidates for speakers. Then, among the remaining attendees, the attendees whose bodies do not move peculiarly at the time of speaking are further excluded, and the remaining attendees are presented on the screen as candidates for speaking. For example, a list of speaker candidates may be displayed on a pop-up screen, or icons and the like related to speaker candidates may be highlighted.

発言者に限らず、例えば、ビデオ会議装置20が備えるディスプレイ(タッチパネル)にデジタルホワイトボードの機能によって書き込みを行った出席者について、書き込み中の出席者の映像データから当該出席者を特定するようにしてもよい。 Not limited to the speaker, for example, for the attendee who wrote on the display (touch panel) of the video conference device 20 by the function of the digital whiteboard, the attendee is identified from the video data of the attendee who is writing. You may.

発言者が特定できた場合は、図4に示したタイムラインにおいて、特定された発言者に係るアイコン等の画像に対して、例えば、「発言中」の吹き出しやマークを付したり、アイコン等の表示形態を変えたりして、対象の出席者が発言中である旨を示すようにしてもよい。発言中である旨が示された出席者が実際には発言者ではなく、他の出席者が発言者である場合(誤認識の場合)は、例えば、真の発言者に係るアイコン等を画面上でタップする等により選択し、ポップアップメニューから「発言中」の項目を選択する等の操作により、システムの誤認識を訂正できるようにしてもよい。 When the speaker can be identified, for example, a balloon or a mark of "speaking" is added to the image such as an icon related to the specified speaker in the timeline shown in FIG. 4, or an icon or the like. You may change the display form of to indicate that the target attendee is speaking. If the attendee who is indicated to be speaking is not actually the speaker and another attendee is the speaker (in the case of misrecognition), for example, an icon related to the true speaker is displayed on the screen. You may be able to correct the misrecognition of the system by selecting it by tapping it on the top and selecting the "speaking" item from the pop-up menu.

音声認識部12では、音声データに基づく発言者の特定に加えて、発言内容を声認識技術によりリアルタイムでテキスト化し、特定された発言者に関連付けて記録する。これにより、タイムライン管理部15は、図4に示すように、タイムライン上において、対象の出席者の発言としてテキスト情報をリアルタイムで表示することができる。また、このテキスト情報に基づいて議事録を自動的に生成することも可能である。自動的に関連付けた発言者が誤認識であった場合は、例えば、画面上で対象のテキストを選択して表示されるポップアップ画面の候補者のリストから他の候補者を選択して発言者を訂正することができる。 In the voice recognition unit 12, in addition to specifying the speaker based on the voice data, the content of the speech is converted into text in real time by the voice recognition technology and recorded in association with the specified speaker. As a result, as shown in FIG. 4, the timeline management unit 15 can display text information in real time as the remarks of the target attendees on the timeline. It is also possible to automatically generate minutes based on this textual information. If the automatically associated speaker is misrecognized, for example, select another candidate from the list of candidates on the pop-up screen that is displayed by selecting the target text on the screen and select the speaker. Can be corrected.

発言内容は、会議中の音声データをテキスト化したものに限らず、他の内容や情報に基づいてテキスト化したものを含んでいてもよい。例えば、出席者の特定の法則に基づく動作(手話やジェスチャー等)に基づいてテキスト化したものでもよい。例えば、ユーザが手話を用いる場合、予め、ユーザDB101における当該ユーザに係る情報として、「(音声に代えて)動作(手話)をテキストに変換する」旨のフラグ等の情報を設定しておく。会議中は、この設定情報に基づいて、画像認識部13により認識された動作(手話)をテキスト化する処理を自動的に行う。 The content of the remark is not limited to the textualized voice data during the meeting, and may include the textualized content based on other contents and information. For example, it may be converted into text based on actions (sign language, gestures, etc.) based on a specific law of attendees. For example, when a user uses sign language, information such as a flag to "convert an action (sign language) into text (instead of voice)" is set in advance as information related to the user in the user DB 101. During the meeting, the process of converting the operation (sign language) recognized by the image recognition unit 13 into text is automatically performed based on this setting information.

もしくは、ユーザ毎に、「テキスト化する元として用いる情報」をコード値等によりユーザDB101に予め設定できるようにしてもよい。例えば、「音声のみ(デフォルト)」、「音声+動作(手話)」、「動作(手話)」、「目の動き」等、様々な発言方法をユーザ毎に設定可能とする。これにより、多様な出席者が同時に一つの会議を行う場合も、不自由を感じることなく出席することが可能になる。 Alternatively, for each user, "information used as a source for text conversion" may be set in advance in the user DB 101 by a code value or the like. For example, various speaking methods such as "voice only (default)", "voice + motion (sign language)", "motion (sign language)", and "eye movement" can be set for each user. As a result, even when various attendees hold one meeting at the same time, they can attend without feeling inconvenience.

会議中に出席者宛に通話やメッセージ、メール等が届いた場合、対象の出席者に係るアイコン等の画像に対して、例えば、「お知らせあり」の吹き出しやマークを付したり、アイコン等の表示形態を変えたりして、出席者に伝えるようにしてもよい
また、会議中に、現在の出席者とは異なる他のユーザが会議室に入ってきたことを、ビデオ会議装置20が備えるセンサにより検知した場合、会議前に顔認証したユーザであるか否かを画像認識部13により解析し、認証済みのユーザである場合(すなわち、会議室への再入室である場合)は何もしない。一方、未認証のユーザである場合は、例えば、顔認証、または社員証等のIDカードやスマートフォン等の出席者端末30による認証のいずれかを用いて認証および登録を行うための画面をビデオ会議装置20に表示し、ユーザが選択した方法でユーザ認証を行う。可能な場合にはいずれかの方法で自動的に認証処理を行うようにしてもよい。なお、会議の性質や目的等に応じて、会議開始前に、遅れて出席するユーザについての認証を、ビデオ会議装置20を介してではなく連携する出席者端末30等の他の端末を用いて行えるよう設定できるようにしてもよい。
When a call, message, email, etc. arrives at the attendees during the meeting, for example, a balloon or mark "Notice" is added to the image such as the icon related to the target attendee, or the icon etc. The display form may be changed to inform the attendees. Further, the sensor provided in the video conference device 20 that another user different from the current attendee has entered the conference room during the conference. When detected by, the image recognition unit 13 analyzes whether or not the user has face-authenticated before the conference, and if the user has been authenticated (that is, when the user is re-entering the conference room), nothing is done. .. On the other hand, in the case of an unauthenticated user, a video conference is displayed on the screen for authentication and registration using, for example, face authentication or authentication by an ID card such as an employee ID card or an attendee terminal 30 such as a smartphone. It is displayed on the device 20 and the user is authenticated by the method selected by the user. If possible, the authentication process may be automatically performed by either method. Depending on the nature and purpose of the conference, authentication for users who attend late before the start of the conference is performed using other terminals such as the attendee terminal 30 that cooperates with each other, not through the video conference device 20. It may be possible to set it so that it can be done.

本実施の形態では、議事進行形式の会議に限らず、各種の形式の会議についても支援することができる。図5の画面例では、ブレーンストーミング形式の会議において出席者を支援する機能の例を示している。例えば、画面左側の領域では、出席者間で情報を共有できるデジタルホワイトボードの例を示している。この画面上で、各出席者がテキスト情報の入力(音声認識によるものであってもよい)や資料の表示等の操作に加えて、自由に付箋を付したりはがしたりすることで、ブレーンストーミングを行うことができる。また、ホワイトボード上においてキーワードとして認識された語句等について、画面右側の領域では、当該キーワードに関連する情報を、自動的に各種の情報源からリアルタイムで取得して表示することで、出席者がこれらの情報を自ら収集する負荷を低減し、議論に集中できるように支援する。 In this embodiment, it is possible to support not only a proceeding-type meeting but also various types of meetings. The screen example of FIG. 5 shows an example of a function of assisting attendees in a brainstorming type conference. For example, the area on the left side of the screen shows an example of a digital whiteboard that allows information to be shared among attendees. On this screen, in addition to operations such as inputting text information (which may be by voice recognition) and displaying materials, each attendee can freely attach and remove sticky notes for brainstorming. It can be performed. In addition, for words and phrases recognized as keywords on the whiteboard, in the area on the right side of the screen, information related to the keywords is automatically acquired from various information sources in real time and displayed by attendees. Reduce the burden of collecting this information on your own and help you focus on the discussion.

情報源としては、例えば、インターネット上の各種のWebサイトや検索エンジン、SNSサービス等に加えて、企業内に蓄積された情報を用いてもよい。その際、会議支援システム1の議事録DB104等に記録・蓄積された過去の会議内容を資産として用いることもできる。例えば、会議制御部17等により、議事録DB104等からキーワードに関連する議事録やファイル、会議での発言者等の情報を抽出して、図示するように提示し、容易にアクセスできるようにする。これにより、現在もしくは過去に社内で議論されている内容について情報を得ることができ、重複した会議や議論を回避することができる。また、必要な情報やスキル等を保有する人や組織を容易に把握してコンタクトをとることが可能となる。 As the information source, for example, in addition to various websites on the Internet, search engines, SNS services, and the like, information accumulated in the company may be used. At that time, the past meeting contents recorded and accumulated in the minutes DB 104 or the like of the meeting support system 1 can be used as an asset. For example, the meeting control unit 17 or the like extracts information such as minutes and files related to keywords from the minutes DB 104 and the like, presents them as shown in the figure, and makes them easily accessible. .. This makes it possible to obtain information about what is currently or in the past being discussed internally, and to avoid duplicate meetings and discussions. In addition, it is possible to easily grasp and contact people and organizations that possess necessary information and skills.

議事録DB104等の検索に際しては、現在実施中の会議もしくは今後開催予定の会議におけるキーワードを用いて、例えば、議事録DB104に蓄積された全ての議事録を対象として検索してもよいし、現在実施中の会議もしくは今後開催予定の会議と関連する会議の議事録に対象を限定して検索するようにしてもよい。これにより、検索のノイズを低減して精度を高め、効率的に検索を行うことが可能となる。例えば、各会議に対して会議種別・種類を識別するコード値等(例えば、「○○システム定例会議」は「01」、「△△システム定例会議」は「02」等)が自動もしくは手動で設定されているような場合は、このコード値を用いて関連する会議を特定することができる。コード値等に限らず、例えば、会議名や出席者の内訳等の他の情報から関連する会議を特定することも可能である。 When searching the minutes DB 104 or the like, for example, all the minutes stored in the minutes DB 104 may be searched by using keywords in the current meeting or the meeting scheduled to be held in the future. The search may be limited to the minutes of meetings that are in progress or related to upcoming meetings. This makes it possible to reduce search noise, improve accuracy, and perform an efficient search. For example, the code value that identifies the meeting type / type for each meeting (for example, "01" for "○○ system regular meeting", "02" for "△△ system regular meeting", etc.) is automatically or manually performed. If so, this code value can be used to identify the relevant conference. Not limited to the code value, it is also possible to specify the related conference from other information such as the conference name and the breakdown of attendees.

また、議事録DB104等に記録・蓄積された過去の会議内容の情報を用いて、以降の新たな会議の開催要否やその実施形式等を判断するようにしてもよい。例えば、図示しないデータ入出力インタフェース等を介して、ユーザから新たに開催を検討している会議のアジェンダや出席予定者リスト、参照予定の資料等の情報を取得し、議事録DB104等に記録・蓄積された過去の会議の内容のデータと組み合わせた上で、対象の会議の開催要否や開催形式(例えば、ブロードキャスト形式や、電子メールでの回覧・持ち回りの形式、イントラネット上のWebサイトへの掲載のみの形式等)を評価・分析部16や会議制御部17等により自動的に判断してユーザに提示するようにしてもよい。 Further, the information on the contents of the past meeting recorded / accumulated in the minutes DB 104 or the like may be used to determine whether or not a new meeting is to be held after that and the implementation format thereof. For example, through a data input / output interface (not shown), information such as the agenda of the meeting newly considered to be held, the list of prospective attendees, and the materials to be referred to is acquired from the user and recorded in the minutes DB 104 or the like. In combination with the accumulated data of the contents of past meetings, the necessity and format of holding the target meeting (for example, broadcast format, circulation / rotation format by e-mail, posting on the website on the intranet) The format of only) may be automatically determined by the evaluation / analysis unit 16 or the conference control unit 17 and presented to the user.

また、議事録DB104等に記録・蓄積された過去の会議内容における各出席者の発言内容や、ユーザDB101に登録されている属性情報等に基づいて、出席予定者毎に出席の「必須」、「任意」、「不要」を判定するようにしてもよい。また、新たに開催予定の会議の所要時間を推測し、他の予定表管理システムやスケジュール管理システム等における各出席予定者の予定やスケジュールと照合して、適切な開催日時を判定してユーザに提示するようにしてもよい。さらに、提示された開催日時をユーザが承認した場合に、各出席予定者の予定やスケジュールとして対象の会議の開催予定が自動的に登録されるようにしてもよい。上記のような判定処理は、例えば、予め設定された所定のルールや条件等に基づいて行ってもよいし、公知の機械学習や人工知能等の技術を利用して行うようにしてもよい。 In addition, based on the remarks of each attendee in the past meeting contents recorded and accumulated in the minutes DB 104, etc., and the attribute information registered in the user DB 101, attendance is "required" for each prospective attendee. You may decide "arbitrary" or "unnecessary". In addition, the time required for a new meeting to be held is estimated, and the schedule and schedule of each scheduled attendee in other schedule management systems and schedule management systems are collated to determine an appropriate date and time for the user. It may be presented. Further, when the user approves the presented date and time, the schedule of the target conference may be automatically registered as the schedule or schedule of each prospective attendee. The determination process as described above may be performed based on, for example, predetermined rules and conditions set in advance, or may be performed by using known techniques such as machine learning and artificial intelligence.

会議中はさらに、図6の画面例のように、社内において現在どのようなトピックやキーワードに興味が持たれ、議論がされているのか等のトレンド情報の集計や分析を評価・分析部16によりリアルタイムで行い、結果をビデオ会議装置20上に表示して出席者間で共有できるようにしてもよい。例えば、イントラネットサイトのコンテンツに現れる頻度が高いキーワードや、各社員が検索エンジンを利用する際に指定する頻度が高いキーワード、社内の各種の会議(議事録)に現れる頻度が高いキーワード等を集計・分析して表示する。これにより、現在もしくは過去に社内で議論されている内容等についてより広範に情報を得ることができ、重複した会議や議論を回避することができる。なお、このような社内の会議情報の資産化による会議の支援は、ブレーンストーミング形式の会議に限らず、他の形式の会議でも同様に行うことができる。 During the meeting, the evaluation / analysis department 16 further aggregates and analyzes trend information such as what topics and keywords are currently interested in and discussed within the company, as shown in the screen example in FIG. It may be done in real time and the results may be displayed on the video conference device 20 for sharing among attendees. For example, keywords that frequently appear in the contents of intranet sites, keywords that are frequently specified by each employee when using a search engine, keywords that frequently appear in various internal meetings (minutes), etc. are aggregated. Analyze and display. As a result, it is possible to obtain a wider range of information about the contents currently or in the past being discussed in the company, and it is possible to avoid duplicate meetings and discussions. It should be noted that such support for meetings by capitalizing in-house meeting information can be similarly provided not only for brainstorming type meetings but also for other types of meetings.

図7の画面例では、例えば、部長が部門内の各メンバーに対して一斉に部門状況の説明等を行うような、ブロードキャスト形式の会議において出席者を支援する機能の例を示している。例えば、画面左側の領域では、上部の領域に部長等の発言者・説明者のカメラ画像が表示されており、下部の領域には説明に用いられる、もしくは説明を補足するための図表等の資料が表示されている。また、画面中央の領域では、当該会議の出席者、すなわち、カメラ画像に表示されている発言者の発言や説明を聞いている出席者とその所在場所の一覧が表示されている。 The screen example of FIG. 7 shows an example of a function of supporting attendees in a broadcast-type meeting, for example, in which the department manager explains the department status to each member in the department all at once. For example, in the area on the left side of the screen, the camera image of the speaker / explainer such as the director is displayed in the upper area, and the lower area is used for explanation or materials such as figures and tables for supplementing the explanation. Is displayed. Further, in the area in the center of the screen, a list of attendees of the conference, that is, attendees listening to the remarks and explanations of the speakers displayed on the camera image and their whereabouts is displayed.

また、画面右側の領域では、各出席者による音声もしくは出席者端末30を介したテキスト入力による発言の経緯がタイムラインとして表示されている。図7の例では、出席者の数が多いことから、図4に示したような出席者毎に列が独立したタイムラインではなく、1列のタイムラインに各出席者の発言(コメント)を時系列で混在させる形式をとっている。 Further, in the area on the right side of the screen, the process of speech by each attendee or by text input via the attendee terminal 30 is displayed as a timeline. In the example of FIG. 7, since the number of attendees is large, the remarks (comments) of each attendee are put on the timeline of one column instead of the timeline in which the columns are independent for each attendee as shown in FIG. It is in the form of being mixed in chronological order.

[議事録作成]
上述したように、会議中の各出席者の発言に係る音声データはリアルタイムでテキスト化され、コンテンツDB102に記録される。これに対して、要約生成部18により、既存の文書要約技術等を利用して、要約(図表を含んでいてもよい)の形で議事録をリアルタイムで(もしくは会議終了後に)作成し、対象の会議を識別する情報(例えば、会議名や開催日等)と関連付けて議事録DB104に記録するようにしてもよい。
[Making minutes]
As described above, the voice data related to the remarks of each attendee during the meeting is converted into text in real time and recorded in the content DB 102. On the other hand, the summary generation unit 18 creates minutes in real time (or after the meeting) in the form of a summary (which may include figures and tables) using existing document summarization technology and the like, and targets the minutes. It may be recorded in the minutes DB 104 in association with the information for identifying the meeting (for example, the meeting name, the date, etc.).

図8の画面例では、作成された議事録を参照する画面を示しており、画面左側の領域には議事録の書誌事項と自動的に要約された議事内容が表示されている。また、画面右側の領域の上段には、会議において決定・作成されたタスクの一覧と、期限および割り当てられた担当者の情報が表示されており、下段には、当該議事録の参照可能範囲として自動もしくは手動により設定された内容が表示されている。 The screen example of FIG. 8 shows a screen for referring to the created minutes, and the bibliographic items of the minutes and the automatically summarized agenda contents are displayed in the area on the left side of the screen. In addition, a list of tasks decided and created at the meeting, information on deadlines and assigned persons in charge are displayed in the upper part of the area on the right side of the screen, and the referenceable range of the minutes is displayed in the lower part. The contents set automatically or manually are displayed.

要約された議事内容の表示においては、単にテキスト情報を表示するだけではなく、各種の付加機能を有する形で表示することができる。例えば、評価・分析部16により、発言者の発言の強弱や、修飾語の内容、過去の会議記録の内容等に基づいて重要なキーワードを特定し、議事録のテキスト中の対応箇所の文字色やフォント、書体等を変化させて強調表示するようにしてもよい。 In the display of the summarized agenda, it is possible to display not only the text information but also the form having various additional functions. For example, the evaluation / analysis unit 16 identifies important keywords based on the strength of the speaker's remarks, the content of modifiers, the content of past meeting records, etc., and the character color of the corresponding part in the text of the minutes. , Font, typeface, etc. may be changed to highlight.

また、例えば、音声認識部12や図示しない他のデータ変換部等が、議事録の内容のテキストを逆に音声データに変換して、会議中もしくは会議後に随時再生できる機能を有していてもよい。例えば、ビデオ会議装置20や出席者の出席者端末30の画面上に表示されたアイコン等を選択することで議事録を再生可能とする。また、議事録の内容に対してタグやブックマーク等を付すことができるようにし、音声での再生時に、ユーザにより指定されたタグに対応する部分のみを再生できるようにしてもよい。 Further, for example, even if the voice recognition unit 12 or another data conversion unit (not shown) has a function of converting the text of the minutes into voice data and playing it back at any time during or after the meeting. good. For example, the minutes can be reproduced by selecting an icon displayed on the screen of the video conference device 20 or the attendee terminal 30 of the attendees. In addition, tags, bookmarks, and the like may be attached to the contents of the minutes so that only the part corresponding to the tag specified by the user can be reproduced at the time of audio reproduction.

なお、議事録の内容のテキストは、音声データへの変換に限らず、図示しないデータ変換部等により他の形式に変換するようにしてもよい。例えば、点字データに変換することで、目の不自由なユーザが議事録の内容を確認できるようにしてもよい。また、1つ以上の他の種類の言語に翻訳し、翻訳後の内容をテキストや音声データ、もしくはこれらの組み合わせによってユーザに提供するようにしてもよい。なお、翻訳先の言語は、例えば、ユーザが任意に指定してもよいし、対象の会議の出席者や議事録の閲覧権限を有するユーザの属性(例えば、ユーザDB101等から取得する)に応じて最適な言語を自動的に判定するようにしてもよい。 The text of the minutes is not limited to conversion to voice data, and may be converted to another format by a data conversion unit or the like (not shown). For example, by converting to Braille data, a visually impaired user may be able to check the contents of the minutes. Further, it may be translated into one or more other types of languages, and the translated content may be provided to the user by text, voice data, or a combination thereof. The language of the translation destination may be arbitrarily specified by the user, for example, depending on the attributes of the attendees of the target meeting and the user who has the authority to view the minutes (for example, acquired from the user DB 101 or the like). The optimum language may be automatically determined.

会議中は、会議制御部17により、会議内容における不要部分(例えば、アイスブレイクや、不適切な発言、NGワード等)を自動もしくは手動で特定し、これらの内容をタイムラインや議事録に残さないようにしてもよい。例えば、図4に示したようなタイムラインの画面上に、図示しない「アイスブレイク」のアイコンやボタン等が配置され、出席者がこれを選択して有効としている間(例えば、アイコン等にタッチを継続している間のみ有効としてもよいし、タッチ毎に有効/無効を切り替えるようにしてもよい)の会話や発言はタイムラインや議事録に記録されないように制御する。なお、この場合でも、オリジナルの音声や映像のデータをコンテンツDB102や他の管理者用のシステム/データベース等に記録するようにしてもよい。 During the meeting, the meeting control unit 17 automatically or manually identifies unnecessary parts (for example, ice breaks, inappropriate remarks, NG words, etc.) in the meeting contents, and leaves these contents in the timeline and minutes. You may not have it. For example, an "ice break" icon or button (not shown) is arranged on the screen of the timeline as shown in FIG. 4, and while the attendees select and enable it (for example, touch the icon or the like). It may be enabled only while the operation is continued, or it may be enabled / disabled for each touch.) Conversations and remarks are controlled so as not to be recorded in the timeline or minutes. Even in this case, the original audio or video data may be recorded in the content DB 102, another system / database for the administrator, or the like.

画面上でのアイコン等の操作のような明示的な手法による有効/無効の指示に代えて、より目立たない他の指示方法を用いてもよい。例えば、出席者が首に掛けた社員証のストラップを首の後ろに回したら、オフレコとしてタイムラインや議事録への記録を停止し、前に戻したら再開する、というような黙示的な手法により有効/無効の指示を行うようにしてもよい。 Instead of the valid / invalid instruction by an explicit method such as the operation of an icon or the like on the screen, another less conspicuous instruction method may be used. For example, if an attendee turns the strap of the employee ID card around his neck behind his neck, it will stop recording on the timeline or minutes as an off-record, and if it is returned to the front, it will resume. You may give a valid / invalid instruction.

また、会議制御部17により、会議中の発言等の内容のうち、特定の単語や内容を、略語や黒塗り等の表現に自動的に変換するようにしてもよい。例えば、顧客企業名の略語(例えば、頭文字のアルファベット2~3文字からなる文字列)のマスタ情報を予め保持しておき、会議中の発言に特定の顧客企業名が出てきた場合に、タイムラインや議事録上ではこれを自動的に略語に変換して記録するようにしてもよい。また、予め登録されているNGワードに該当する場合は、タイムラインや議事録上で黒塗り等に変換してマスクするようにしてもよい。 Further, the conference control unit 17 may automatically convert a specific word or content among the contents such as remarks during the conference into an expression such as an abbreviation or black paint. For example, when the master information of the abbreviation of the customer company name (for example, a character string consisting of two or three initial letters of the alphabet) is stored in advance and a specific customer company name appears in the remarks during the meeting, This may be automatically converted into an abbreviation and recorded on the timeline or minutes. In addition, if it corresponds to a pre-registered NG word, it may be masked by converting it to black on the timeline or minutes.

これらの変換やマスクは、会議中にリアルタイムで行ってもよいし、会議後に別途行ってもよい。会議後に行う場合は、対象の会議の特性に応じて、例えば、金額が記載されている箇所や特定の氏名が記載されている箇所等を、一律に黒塗りに変換してマスクしてもよいし、ユーザが変換する権限を有する表現についてのみ変換可能としてもよい。 These conversions and masks may be performed in real time during the conference or separately after the conference. When the meeting is held after the meeting, for example, the place where the amount of money is described or the place where a specific name is described may be uniformly converted to black and masked according to the characteristics of the target meeting. However, it may be possible to convert only the expressions for which the user has the authority to convert.

また、タイムラインや議事録中において、例えば、出席者が理解できない用語や、関連分野を知りたい用語等があった場合、当該用語をタッチ等により選択することで、当該用語の意味や関連する記事(タイトル、要約、リンク等)の情報が当該出席者の出席者端末30に表示されるようにしてもよい。これらの情報は、例えば、各種のWebサイトや検索エンジン等から取得することができる。これらの情報を当該出席者が他の出席者と共有したいと考えた場合には、指示により他の出席者の出席者端末30やビデオ会議装置20に表示して共有できるようにしてもよい。これらの情報に対するリンクをタイムラインや議事録中の対象箇所に関連付けて記録するようにしてもよい。 In addition, if there is a term that the attendees do not understand or want to know the related field in the timeline or minutes, for example, by selecting the term by touch etc., the meaning of the term and related terms are related. Information on articles (titles, summaries, links, etc.) may be displayed on the attendee terminal 30 of the attendee. These information can be obtained from, for example, various websites, search engines, and the like. If the attendee wants to share this information with other attendees, he / she may display and share the information on the attendee terminal 30 or the video conference device 20 of the other attendees according to the instruction. Links to this information may be recorded in association with the target points in the timeline or minutes.

会議中もしくは会議後に、各出席者は、議事録に対してブックマークやタグ、感情を示すフラグ、付箋や簡易メモ等を付することができる。例えば、図4に示したようなタイムラインの画面において、各出席者を示すアイコンや顔マークの画像に対して、出席者がタッチや長押し等の予め定められた方法やジェスチャーを行う、もしくはポップアップメニューを介した指示を行うことで、タイムライン管理部15により、タイムライン上の現在の発言内容に対して容易にブックマークや自身の感情の記録等を行うことができる。これらの情報は、議事録の作成時に取り込まれ、議事録に反映される。 During or after the meeting, each attendee can attach bookmarks, tags, emotional flags, sticky notes, simple memos, etc. to the minutes. For example, on the screen of the timeline as shown in FIG. 4, the attendee performs a predetermined method or gesture such as touch or long press on the image of the icon or face mark indicating each attendee, or By giving an instruction via the pop-up menu, the timeline management unit 15 can easily bookmark the current content of the statement on the timeline, record one's own emotions, and the like. This information is taken in when the minutes are created and reflected in the minutes.

また、図8に示したような議事録の参照画面を介して議事録中のテキストに対して直接にブックマークや感情を示すフラグ、付箋等を付することができる。多くの出席者が付箋や好感情・悪感情のフラグを付した箇所を評価・分析部16により検出し、当該箇所を「重要ポイント」として強調表示等するようにしてもよい。「重要ポイント」」と認識された箇所を中心に、要約生成部18により議事録をさらに自動的に要約し、これを会議の出席者全員で共有するようにしてもよい。 Further, a bookmark, a flag indicating emotions, a sticky note, or the like can be directly attached to the text in the minutes via the reference screen of the minutes as shown in FIG. The evaluation / analysis unit 16 may detect a part with a sticky note or a flag of good feeling / bad feeling by many attendees, and may highlight the part as an “important point”. The minutes may be further automatically summarized by the summary generation unit 18 centering on the points recognized as “important points” and shared by all the attendees of the meeting.

ブックマークや感情を示すフラグ等は、出席者の所定の動作やジェスチャーを画像認識部13により検知して付するようにしてもよい。例えば、ブックマークや感情フラグの内容と、動作やジェスチャーとの対応をパターン化して予め記憶しておく。例えば、ユーザの手の「サムアップ」のジェスチャーと、「いいね!」という感情フラグを関連付けておくことで、会議中に出席者が「サムアップ」のジェスチャーをとったことをビデオ会議装置20のカメラやセンサが検知した場合に、「いいね!」の感情フラグに係る画像等の情報を、タイムライン上の対象の発言に係る箇所に表示する。議事録の対象箇所に当該感情フラグを関連付けて議事録DB104に記録するようにしてもよい。 A bookmark, a flag indicating an emotion, or the like may be attached by detecting a predetermined action or gesture of an attendee by the image recognition unit 13. For example, the correspondence between the contents of bookmarks and emotion flags and actions and gestures is patterned and stored in advance. For example, by associating the "thumbs up" gesture of the user's hand with the emotion flag "like", the video conference device 20 indicates that the attendee took the "thumbs up" gesture during the conference. When detected by the camera or sensor of the above, information such as an image related to the emotion flag of "Like!" Is displayed at the place related to the target remark on the timeline. The emotion flag may be associated with the target part of the minutes and recorded in the minutes DB 104.

「サムアップ」のように一般的な意味を有する動作やジェスチャーに限らず、無意味な動作やその組み合わせにより表現するものであってもよい。例えば、手のひらを結んで開く「グーパー」の動作を2回繰り返すとブックマークを付する、というようなものであってもよい。また、動作やジェスチャーに限らず、出席者の音声指示の内容を音声認識部12により認識して、対応するブックマークや感情フラグ等を付すようにしてもよい。 It is not limited to movements and gestures having a general meaning such as "thumbs up", but may be expressed by meaningless movements and combinations thereof. For example, a bookmark may be added by repeating the operation of "gooper" that ties the palms together and opens it twice. Further, the content of the voice instruction of the attendee may be recognized by the voice recognition unit 12 and a corresponding bookmark, emotion flag, or the like may be attached, not limited to the movement or the gesture.

また、例えば、ビデオ会議装置20が備えるカメラやマイクにより取得された拠点(会議室)の映像データについて、予め定められた方法によってユーザが指定した時点の静止画として記録し、これに対して「フォト」フラグを付して管理するようにしてもよい。また、例えば、ビデオ会議装置20が備えるディスプレイに表示された画面を、予め定められた方法によって静止画として記録し、これに対して「キャプチャ」フラグを付して管理するようにしてもよい。「フォト」や「キャプチャ」のフラグによって管理される画像データについて、予め定められた方法(チェックボックスでの選択や、タッチ、長押し等)によって、会議中もしくは会議後にユーザにより選択されたデータのみを議事録に反映するようにしてもよい。 Further, for example, the video data of the base (meeting room) acquired by the camera or microphone included in the video conferencing device 20 is recorded as a still image at a time specified by the user by a predetermined method, and " It may be managed by adding a "photo" flag. Further, for example, the screen displayed on the display of the video conference device 20 may be recorded as a still image by a predetermined method, and may be managed by adding a “capture” flag to the screen. For image data managed by the "Photo" and "Capture" flags, only the data selected by the user during or after the meeting by a predetermined method (selection with a check box, touch, long press, etc.) May be reflected in the minutes.

議事録に付与・反映されたブックマークやタグ、感情フラグ、付箋や簡易メモ等の挿入情報は、それを付与した人のみが参照、編集可能としてもよいし、他の出席者や出席者以外のユーザも参照、編集可能としてもよい。これらの権限設定を対象の挿入情報を付与したユーザが行うようにしてもよい。逆に、これらの挿入情報を参照する側のユーザも、自身が指定したユーザが付与した挿入情報のみに限定して表示できるようにしてもよい。これらにより、不要な挿入情報をフィルタリングして見えないようにすることができる。 Insertion information such as bookmarks and tags, emotion flags, sticky notes and simple memos given / reflected in the minutes may be referenced and edited only by the person who gave them, or other attendees or non-attendants. The user may also be able to refer to and edit. These authority settings may be set by the user who has given the target insertion information. On the contrary, the user who refers to these insertion information may also be able to display only the insertion information given by the user specified by himself / herself. With these, it is possible to filter unnecessary insertion information so that it cannot be seen.

議事録の内容に対しては、ブックマークや付箋等以外に、図8の例に示すように、タスクを割り当てることができるようにしてもよい。タスクが設定された議事内容(テキストや音声、映像、資料等)の前後の内容やその要約を評価・分析部16により分析して、割り当てるべき担当者を自動的に設定するとともに、他のタスク管理システムやワークフローシステムに対して、当該担当者の予定として期限とタスク内容を自動的に登録するようにしてもよい。担当者を自動設定できなかった場合は、図示するように、ユーザが適切な担当者を検索により特定して設定してもよい。 As shown in the example of FIG. 8, tasks may be assigned to the contents of the minutes in addition to bookmarks and sticky notes. The evaluation / analysis unit 16 analyzes the contents before and after the agenda (text, audio, video, materials, etc.) for which the task is set, and the evaluation / analysis unit 16 automatically sets the person in charge to be assigned, and other tasks. The deadline and task content may be automatically registered in the management system or workflow system as the schedule of the person in charge. If the person in charge cannot be set automatically, the user may identify and set an appropriate person in charge by searching as shown in the figure.

また、当該タスクがグループワークか個人ワークかを判別して属性情報として付与してもよい。このとき、個人ワークの場合は、出席者の属性や会議中の発言内容等に基づいて担当者の候補を推奨してもよいし、グループワークの場合は、主担当者の候補を推奨した上で、さらに、グループのメンバーとなり得る候補者のリストを主担当者に推奨するようにしてもよい。 Further, it may be determined whether the task is group work or individual work and given as attribute information. At this time, in the case of individual work, the candidate for the person in charge may be recommended based on the attributes of the attendees and the content of the remarks during the meeting, and in the case of group work, the candidate for the main person in charge may be recommended. In addition, the main person may be recommended to list the candidates who can be members of the group.

会議中にビデオ会議装置20の画面上に表示された議事録は、各出席者が出席者端末30上で表示することができるとともに、これを共有できるようにしてもよい。そして、出席者は、出席者端末30に表示された議事録の内容が誤っていたり不適切であった場合に、出席者端末30上での操作を介してこれを修正して上書きすることができる。対象の内容についての発言者および予め権限を付与されたユーザ(例えば、事務局のメンバー等)のみが修正できるようにしてもよい。 The minutes displayed on the screen of the video conference device 20 during the meeting may be displayed on the attendee terminal 30 by each attendee and may be shared. Then, if the content of the minutes displayed on the attendee terminal 30 is incorrect or inappropriate, the attendee may correct and overwrite the minutes through the operation on the attendee terminal 30. can. Only the speaker about the content of the subject and the user who has been granted the authority in advance (for example, a member of the secretariat) may be able to modify it.

修正の方法は、例えば、議事録中の対象箇所をユーザが選択した場合に、図示しないポップアップメニューが表示され、メニュー中の実行可能な処理の中から「修正」を選択した場合に、対象箇所のテキストを修正入力するためのポップアップウィンドウが表示されるようにする。ユーザがテキストを修正し、「確定」ボタンを押下することで、議事録中の対象箇所のテキストが修正後の内容に置換される。 The method of correction is, for example, when the user selects the target part in the minutes, a pop-up menu (not shown) is displayed, and when "correction" is selected from the executable processes in the menu, the target part is corrected. Make sure that a pop-up window is displayed for you to correct and enter the text of. When the user corrects the text and presses the "OK" button, the text of the target part in the minutes is replaced with the corrected content.

上述の図5の例に示したようなブレーンストーミング形式の会議においては、議事録に対して出席者が自由に修正したりコメント等を追加したりすることができるようにしてもよい。加えられた修正やコメント等は、例えば、暫定的なものとしてオリジナルの議事録とは別の画面に表示し、出席者が確定の旨の操作や指示を行った場合に、オリジナルの議事録に対して上書きにより反映されるようにしてもよい。 In a brainstorming type meeting as shown in the example of FIG. 5 above, the attendees may be allowed to freely modify or add comments to the minutes. The added corrections and comments are displayed on a screen separate from the original minutes as a provisional one, and when the attendees perform an operation or instruction to the effect of confirmation, the original minutes are displayed. On the other hand, it may be reflected by overwriting.

上述したように、議事録DB104には、例えば、社内の他の会議体のものも含む過去の議事録の内容が広く履歴として記録・蓄積されている。この議事録DB104に対して、会議中もしくは会議後に、任意のキーワードを指定して検索することで、対象のキーワードが頻出する他の会議の議事録を抽出して表示するようにしてもよい。表示できる議事録は、公開が許可されているもののみを対象とし、さらに、ユーザの権限により公開可否を制御するようにしてもよい。抽出された議事録が現在会議中の他の会議のものである場合は、その開催場所や出席者、連絡手段等の情報を取得して表示するようにしてもよい。これにより、例えば、重複もしくは類似した内容の他の会議が行われている場合に、無駄な会議が行われるのを回避したり、逆に、参考情報をヒアリングして情報を共有したりして、会議の運営の効率化を図ることができる。 As described above, in the minutes DB 104, for example, the contents of the past minutes including those of other conference bodies in the company are widely recorded and accumulated as a history. By designating and searching for the minutes DB 104 during or after a meeting by designating an arbitrary keyword, the minutes of another meeting in which the target keyword frequently appears may be extracted and displayed. The minutes that can be displayed are limited to those that are permitted to be published, and the availability of publication may be controlled by the user's authority. If the extracted minutes are from another meeting currently being held, information such as the venue, attendees, contact means, etc. may be acquired and displayed. This allows, for example, to avoid unnecessary meetings when other meetings with duplicate or similar contents are being held, or conversely, to hear reference information and share information. , It is possible to improve the efficiency of conference management.

会議終了後は、出席者に加えて、権限のある非出席者についても、終了した会議のタイムラインや議事録に対して音声もしくはテキストによりコメントを挿入できるようにしてもよい。例えば、会議中の発言内容を補足するコメントを追加してもよいし、アイデア出しや企画事業会議等、アウトプットが要求される会議の議事録の内容(アウトプット)を上長がレビューして、レビュー内容を議事録に関連付けて記録できるようにしてもよい。さらに、レビューされた議事録に対する承認プロセスのワークフローを自動的に発生させてもよい。 After the meeting, in addition to the attendees, authorized non-attendants may be able to insert audio or text comments on the timeline and minutes of the finished meeting. For example, you may add a comment that supplements the content of the remarks during the meeting, or the supervisor reviews the content (output) of the minutes of the meeting that requires output, such as idea generation and planning business meeting. , The review content may be recorded in association with the minutes. In addition, the workflow of the approval process for the reviewed minutes may be automatically generated.

上述したように、議事録DB014に記録された議事録は、社内や組織間で共有することが可能であるが、その共有方法に応じて、例えば、ユーザの設定により、議事録に反映させる内容を抑制したり、議事録の構成を自動的に変更したりできるようにしてもよい。例えば、図8に示したような議事録の参照画面を、ビデオ会議装置20の画面上や各出席者端末30上に表示する際に、上述した「フォト」や「キャプチャ」のフラグによって管理される画像データの表示を抑制したり、予めユーザが設定した方法によって処理・加工した上で表示したりしてもよい。 As described above, the minutes recorded in the minutes DB014 can be shared within the company or between organizations, but depending on the sharing method, for example, the contents to be reflected in the minutes by the user's setting. It may be possible to suppress the number of minutes or automatically change the structure of the minutes. For example, when the reference screen of the minutes as shown in FIG. 8 is displayed on the screen of the video conference device 20 or on each attendee terminal 30, it is managed by the above-mentioned "photo" and "capture" flags. The display of the image data may be suppressed, or the image data may be processed and processed by a method set in advance by the user before being displayed.

また、図8の画面例における「ダウンロード」ボタンをユーザが押下することによってデータとして出力される議事録のデータに対して、「フォト」や「キャプチャ」のフラグによって管理される画像データを、記録した時刻に応じて議事録の適切な箇所に挿入するようにしてもよい。もしくは、図示しないデータ入出力インタフェース等を介してユーザにより予め登録された複数の議事録テンプレートのうち、ユーザが指定した議事録テンプレート、あるいは会議支援システム1が自動的にレコメンドした議事録テンプレートの所定の場所に挿入するようにしてもよい。 Further, the image data managed by the "photo" and "capture" flags is recorded with respect to the minutes data output as data when the user presses the "download" button in the screen example of FIG. It may be inserted in the appropriate place of the minutes according to the time when it was done. Alternatively, among a plurality of minutes templates registered in advance by the user via a data input / output interface (not shown), the minutes template specified by the user or the minutes template automatically recommended by the conference support system 1 is specified. You may insert it in the place of.

また、図8の画面例における「メール送信」ボタンをユーザが押下することによって議事録のデータを他のユーザに電子メールで送信して共有する際、当該電子メールに会議名称・開催日時・会議の要約等の最小限の内容を表示するようにしてもよい。また、議事録のデータ自体を送信するのに代えて、会議支援システム1にアクセスするためのURL(Uniform Resource Locator)をハイパーリンクにより表示し、当該電子メールを受信した他のユーザが上記のURLのリンクを選択することで対象の議事録を閲覧できるようにしてもよい。 Further, when the user presses the "send mail" button in the screen example of FIG. 8 to send the minutes data to another user by e-mail and share it, the meeting name, the date and time of the meeting, and the meeting are sent to the e-mail. The minimum content such as the summary of the above may be displayed. In addition, instead of transmitting the minutes data itself, a URL (Uniform Resource Locator) for accessing the conference support system 1 is displayed by a hyperlink, and another user who receives the e-mail displays the above URL. You may be able to view the minutes of interest by selecting the link.

[会議運営の効率化]
会議の運営の効率化を図る他の手段として、例えば、進行中の会議の内容と各出席者の経歴等の属性情報とを考慮して、会議制御部17により発言すべき出席者を特定して当該出席者に対して発言を促すような表示を行ったり、発言すべき出席者の候補の一覧をファシリテータや司会者の出席者端末30に表示するようにしてもよい。候補者の一覧を表示する際に、過去に感情フラグを付した/付された実績の情報や、過去の会議における貢献度の評価値等を参考情報として追加表示するようにしてもよい。
[Efficiency of meeting management]
As another means for improving the efficiency of the operation of the meeting, for example, the meeting control unit 17 identifies the attendees who should speak in consideration of the contents of the meeting in progress and the attribute information such as the background of each attendee. The attendees may be displayed to encourage them to speak, or a list of candidates for attendees to speak may be displayed on the attendee terminal 30 of the facilitator or the moderator. When displaying the list of candidates, the information on the achievements with / attached the emotion flag in the past, the evaluation value of the degree of contribution in the past meeting, and the like may be additionally displayed as reference information.

出席者は、会議に際して、出席者端末30に代えてもしくはこれに加えていわゆるスマートグラスを装着することも可能である。これにより、例えば、ビデオ会議装置20や出席者端末30に表示されている内容をスマートグラスに連携し、もしくはスマートグラスにより出席者が見ている内容(画像)をビデオ会議装置20に連携することができる。また、例えば、会議前や会議中に、各出席者の情報(例えば、公開されている属性や経歴、過去に出席した会議の名称等)をスマートグラス(もしくは出席者端末30)に表示して参照・確認できるようにしてもよい。 Attendees may wear so-called smart glasses in place of or in addition to the attendee terminal 30 at the time of the meeting. As a result, for example, the content displayed on the video conference device 20 or the attendee terminal 30 is linked to the smart glasses, or the content (image) seen by the attendees by the smart glasses is linked to the video conference device 20. Can be done. In addition, for example, information on each attendee (for example, public attributes and careers, names of meetings attended in the past, etc.) is displayed on smart glasses (or attendee terminal 30) before or during the meeting. It may be possible to refer to and confirm.

各出席者のアイコンや顔マークの画像に対して、例えば、会議制御部17等により、その近傍に当該出席者の感情や状態を示す感情アイコンを表示するようにしてもよい。出席者のアイコンや顔マークの画像自体を感情や状態に応じて変更するようにしてもよい。例えば、会議が長引いて、終了時刻が当該出席者の当日の退社予定時間や当月の残業上限時間等を超えると予想される場合は、焦っている表情の感情アイコンを表示したり、出席者のアイコンの色を緑から赤に変化させたりする。表示内容の変更を自動的に行うのに代えて、各出席者が出席者端末30等からの操作により表示内容を変更できるようにしてもよい。 For the image of each attendee's icon or face mark, for example, the conference control unit 17 or the like may display an emotion icon indicating the emotion or state of the attendee in the vicinity thereof. The image of the attendee's icon or face mark itself may be changed according to the emotion or state. For example, if the meeting is prolonged and the end time is expected to exceed the attendee's scheduled leaving time on the day or the maximum overtime hours of the current month, an emotional icon with an impatient expression may be displayed or the attendee's emotion icon may be displayed. Change the color of the icon from green to red. Instead of automatically changing the display content, each attendee may be able to change the display content by an operation from the attendee terminal 30 or the like.

感情アイコンによる表示内容として、例えば、「暑い」、「寒い」、「ちょうどよい」、「風が強い」等、会議室の室温に関する感想を示す情報を含めてもよい。会議中に各出席者が選択した当該感情アイコンの内容を会議制御部17によりリアルタイムで集計して、集計結果に基づいて会議室の空調の設定を自動的に変更するようにしてもよい。会議室の室温に関する感想に限らず、会議室の照明の明るさ等、自動的に設定の変更・調節が可能な他の環境に関する感想を示すものであってもよい。 The content displayed by the emotion icon may include information indicating an impression about the room temperature of the conference room, such as "hot", "cold", "just right", and "windy". The content of the emotion icon selected by each attendee during the meeting may be aggregated in real time by the conference control unit 17, and the air conditioning setting of the conference room may be automatically changed based on the aggregation result. Not only the impression about the room temperature of the conference room, but also the impression about other environment where the setting can be automatically changed / adjusted such as the brightness of the lighting of the conference room.

[会議の評価・分析]
会議中もしくは会議後には、会議の内容を評価・分析部16により評価・分析し、その結果をビデオ会議装置20や出席者端末30上に表示するようにしてもよい。例えば、タイムラインや議事録から要約や重要なキーワードを抽出し、得られたテキストに対してポジネガ分析を行って評価スコアを算出し、これを表示するようにしてもよい。
[Meeting evaluation / analysis]
During or after the meeting, the content of the meeting may be evaluated and analyzed by the evaluation / analysis unit 16 and the result may be displayed on the video conference device 20 or the attendee terminal 30. For example, a summary or important keywords may be extracted from the timeline or minutes, and the obtained text may be subjected to positive / negative analysis to calculate an evaluation score and displayed.

タイムラインや議事録における発言内容に加えて、例えば、画像認識部13により把握された出席者の表情や動き(居眠りしている、会議に関係ない作業を行っている等)、出席者が付した感情フラグやメッセージ等に基づいて会議の状況を分析し、項目毎に評価スコアを算出して、これを表示するようにしてもよい。例えば、図9の画面例に示すように、中央に会議全体の評価スコアを表示するとともに、周辺には項目毎の評価スコアを表示する。上述の図4の例に示したような会議中の画面に、リアルタイムでの評価内容をダッシュボードとして表示するようにしてもよい。 In addition to the content of statements in the timeline and minutes, for example, the facial expressions and movements of the attendees grasped by the image recognition unit 13 (sleeping, doing work not related to the meeting, etc.), attendees are attached. The situation of the meeting may be analyzed based on the emotional flag, the message, etc., the evaluation score may be calculated for each item, and this may be displayed. For example, as shown in the screen example of FIG. 9, the evaluation score of the entire conference is displayed in the center, and the evaluation score of each item is displayed in the periphery. The evaluation contents in real time may be displayed as a dashboard on the screen during the meeting as shown in the example of FIG. 4 above.

また、例えば、会議のタイトルやタグ、キーワード、期間等を指定して、該当する過去および開催中の会議を抽出し、これらを要約するとともに、時系列に並び替えて、発言・意見の変化の推移や、ポジネガ分析のスコアの推移、会議の結論(決定事項等)等の情報を表示するようにしてもよい。定例会議等、同一の会議体により複数回開催される会議について、各回の会議についての要約や感情フラグの分布等の情報を集計・分析して効率性をスコアリングし、会議毎のスコアの推移をダッシュボード化して表示するようにしてもよい。 In addition, for example, by specifying the title, tag, keyword, period, etc. of the meeting, the relevant past and ongoing meetings are extracted, summarized, and sorted in chronological order to change the remarks and opinions. Information such as the transition, the transition of the score of the positive / negative analysis, the conclusion of the meeting (decision, etc.) may be displayed. For meetings held multiple times by the same conference body, such as regular meetings, information such as a summary of each meeting and distribution of emotion flags is aggregated and analyzed to score efficiency, and the score changes for each meeting. May be displayed as a dashboard.

また、会議の評価に加えて、出席者の会議への貢献度を評価するようにしてもよい。例えば、会議中において各出席者による発言のテンポが落ちた状態からテンポが上がった状態に遷移した場合や、各出席者により「疲れた」や「つまらない」の感情フラグが一定数以上付された状態から「いいね!」の感情フラグが一定数以上付された状態に遷移した場合等、会議の状態が低調な状態から好調な状態に遷移したことを検出する。そして、その遷移の間に発言した複数の出席者を特定し、特定された各出席者の発言内容にそれぞれ含まれるキーワードを所定の条件に基づいて重み付けして出席者毎にスコアリングし、各出席者の貢献度とすることができる。キーワードの重み付けは、例えば、会議全体の議事録や要約のテキストとの間の関連度(例えば、テキスト中の出現頻度等)が高い順に自動的に値を設定してもよい。 In addition to the evaluation of the meeting, the degree of contribution of the attendees to the meeting may be evaluated. For example, during a meeting, when the tempo of each attendee's speech changed from slow to high, or when each attendee gave a certain number of "tired" or "boring" emotion flags. It is detected that the state of the conference has changed from a low state to a good state, such as when the state has changed to a state in which a certain number or more of "like" emotion flags are attached. Then, a plurality of attendees who have spoken during the transition are identified, keywords included in the content of each identified attendee's speech are weighted based on predetermined conditions, and scored for each attendee. It can be the contribution of attendees. The keyword weighting may be automatically set, for example, in descending order of relevance (for example, frequency of appearance in the text) with the minutes of the entire meeting or the text of the summary.

出席者の会議への貢献度は、各出席者の発言内容に対して他の出席者により付された感情フラグの数に基づいて評価するようにしてもよい。また、例えば、居眠りしている、発言がない、会議に関係ない作業を行っている等、会議への貢献度が低いと思われる出席者を特定し、当該出席者について、例えば、上長であるか否か、会議内容に関連する業務についているか否か、代行出席であるか否か等の属性情報を考慮した上で評価するようにしてもよい。 Attendees' contributions to the meeting may be assessed based on the number of emotion flags assigned by other attendees to each attendee's remarks. In addition, identify attendees who are considered to have a low contribution to the meeting, such as being asleep, having no remarks, or performing work unrelated to the meeting. The evaluation may be made after considering attribute information such as whether or not there is, whether or not it is related to the contents of the meeting, and whether or not it is attending on behalf of the person.

また、ある出席者について、発言時間が長い(発言数が多い)にも関わらず、マイナスの感情フラグが多かったり、他の作業をする出席者や居眠りしている出席者が増えたり等、会議の効率が低下していると評価される場合は、ビデオ会議装置20の画面上に、他の発言、もしくは他の発言者を促すコメントやメッセージを表示するようにしてもよい。例えば、会議の司会者やファシリテータ等の他の出席者を指定して、「○○さんはどう思いますか?」や、「いったん休憩しませんか?」等のメッセージや音声を出力するようにしてもよい。なお、特定の出席者の発言に対する評価や貢献度に関わりなく、例えば、「疲れた」や「つまらない」等の特定の感情フラグが一定数以上の出席者から付された場合に、「いったん休憩しませんか?」等のメッセージや音声を出力するようにしてもよい。 In addition, for a certain attendee, even though the speech time is long (the number of speeches is large), there are many negative emotion flags, attendees doing other work and attendees who are dozing off, etc. If it is evaluated that the efficiency of the video conference device is reduced, a comment or a message urging another speaker or another speaker may be displayed on the screen of the video conference device 20. For example, specify other attendees such as the conference moderator and facilitator to output messages and voices such as "What do you think about Mr. XX?" And "Would you like to take a break?" You may. In addition, regardless of the evaluation and contribution to the remarks of a specific attendee, for example, when a specific emotion flag such as "tired" or "boring" is attached by a certain number of attendees, "temporary break". You may output a message such as "Would you like to do it?" Or voice.

以上に説明したように、本発明の一実施の形態である会議支援システム1によれば、社内等の組織内で行われる会議、特に、複数拠点間での音声・ビデオによるオンライン会議において、出席者の認証処理や特定、タイムラインや議事録の作成、会議の内容の評価等の処理を自動的に行うことが可能であり、これにより、会議の運営を支援し効率化することができる。 As described above, according to the conference support system 1 which is an embodiment of the present invention, attendance is held in a conference held within an organization such as an in-house, particularly in an online conference by voice or video between a plurality of bases. It is possible to automatically perform processing such as authentication processing and identification of persons, creation of timelines and minutes, evaluation of meeting contents, etc., which can support and improve the efficiency of meeting management.

また、複数の会議体で議論された会議の内容を資産化し、組織内で横断的に共有可能とすることで、現在もしくは過去に社内で議論されている内容について情報を得ることができ、重複した会議や議論を回避することが可能となる。また、必要な情報やスキル等を保有する人や組織を容易に把握してコンタクトをとることも可能となる。これらにより、組織内において多数実施される会議のより一層の効率化を図ることが可能である。 In addition, by capitalizing the content of meetings discussed by multiple conference bodies and making it possible to share them across the organization, it is possible to obtain information on the content currently or in the past being discussed internally, which is duplicated. It is possible to avoid meetings and discussions that have been held. In addition, it is possible to easily grasp and contact people and organizations that possess necessary information and skills. As a result, it is possible to further improve the efficiency of many meetings held within the organization.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、上記の実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、上記の実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Although the invention made by the present inventor has been specifically described above based on the embodiment, the present invention is not limited to the above embodiment and can be variously modified without departing from the gist thereof. Needless to say. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to add / delete / replace a part of the configuration of the above embodiment with another configuration.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、またはICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

本発明は、複数の拠点間での会議を支援する会議支援システムおよび会議支援プログラムに利用可能である。 The present invention can be used for a conference support system and a conference support program that support a conference between a plurality of bases.

1…会議支援システム、
10…サーバシステム、11…ビデオ会議処理部、12…音声認識部、13…画像認識部、14…認証部、15…タイムライン管理部、16…評価・分析部、17…会議制御部、18…要約生成部、20…ビデオ会議システム、30…出席者端末、40…ネットワーク、101…ユーザDB、102…コンテンツDB、103…タイムラインDB、104…議事録DB
1 ... Meeting support system,
10 ... Server system, 11 ... Video conference processing unit, 12 ... Voice recognition unit, 13 ... Image recognition unit, 14 ... Authentication unit, 15 ... Timeline management unit, 16 ... Evaluation / analysis unit, 17 ... Conference control unit, 18 ... Summary generator, 20 ... Video conference system, 30 ... Attendee terminal, 40 ... Network, 101 ... User DB, 102 ... Content DB, 103 ... Timeline DB, 104 ... Minutes DB

Claims (9)

組織における会議の運営を支援する会議支援システムであって、
複数の拠点間でのオンラインでのビデオ会議を可能とするビデオ会議装置と、
前記ビデオ会議装置により各出席者の音声データを取得し、前記音声データと、予め登録された各出席者の音声の特徴情報との比較に基づいて、前記音声データにおける各発言の発言者を特定する音声認識部と、
前記音声認識部により取得された各出席者の音声データを発言の時系列でタイムラインとして出力するタイムライン管理部と、を有し、
前記タイムライン管理部は、出力される前記タイムラインにおいて、出席者の発言数または発言時間の多さに応じて前記出席者を示す画像を強調する、会議支援システム。
A conference support system that supports the operation of conferences in an organization.
A video conference device that enables online video conferences between multiple locations, and
The voice data of each attendee is acquired by the video conferencing device, and the speaker of each remark in the voice data is specified based on the comparison between the voice data and the voice feature information of each attendee registered in advance. Voice recognition unit and
It has a timeline management unit that outputs the voice data of each attendee acquired by the voice recognition unit as a timeline in chronological order of speech.
The timeline management unit is a conference support system that emphasizes an image showing the attendees according to the number of remarks or the amount of remarks of the attendees in the output timeline.
請求項1に記載の会議支援システムにおいて、
さらに、前記タイムラインの内容を自然言語処理により要約して議事録を取得し、対象の会議に係る情報と関連付けて議事録記録部に記録する要約生成部と、
前記タイムラインもしくは前記議事録から抽出されたキーワードに基づいて、前記議事録記録部に記録された、前記組織内で開催されたもしくは現在開催されている他の会議も含む議事録から、関連する議事録に係る情報を取得して出力する会議制御部と、を有する、会議支援システム。
In the conference support system according to claim 1,
Further, a summary generation unit that summarizes the contents of the timeline by natural language processing, acquires minutes, associates them with information related to the target meeting, and records them in the minutes recording unit.
Relevant from the minutes recorded in the Minutes Recording Department, including other meetings held within or currently being held within the organization, based on the timeline or keywords extracted from the minutes. A conference support system that has a conference control unit that acquires and outputs information related to minutes.
請求項2に記載の会議支援システムにおいて、
前記タイムライン管理部は、出席者からの指示に基づいて、当該出席者の感情に係る情報を前記タイムラインおよび/または前記議事録に付加する、会議支援システム。
In the conference support system according to claim 2,
The timeline management unit is a conference support system that adds information related to the emotions of the attendees to the timeline and / or the minutes based on instructions from the attendees.
請求項1または2に記載の会議支援システムにおいて、
さらに、会議の内容および/または各出席者の会議への貢献度を評価して出力する評価・分析部を有し、
前記評価・分析部は、各出席者の会議への貢献度を、前記音声認識部により取得された各出席者の発言に基づいて評価して出力する、会議支援システム。
In the conference support system according to claim 1 or 2.
In addition, it has an evaluation / analysis unit that evaluates and outputs the content of the meeting and / or the contribution of each attendee to the meeting.
The evaluation / analysis unit is a conference support system that evaluates and outputs the degree of contribution of each attendee to the conference based on the remarks of each attendee acquired by the voice recognition unit.
請求項1に記載の会議支援システムにおいて、
前記ビデオ会議装置により取得された映像データから画像認識技術により各出席者の顔を認識する画像認識部と、
前記画像認識部により認識された顔を、予め登録されている顔画像と照合することにより、各出席者を特定する認証処理を行う認証部と、を有し、
前記認証部は、前記認証処理により特定された出席者とは異なる出席者の手動による登録を受け付ける、会議支援システム。
In the conference support system according to claim 1,
An image recognition unit that recognizes the faces of each attendee by image recognition technology from the video data acquired by the video conference device, and
It has an authentication unit that performs an authentication process for identifying each attendee by collating the face recognized by the image recognition unit with a face image registered in advance.
The authentication unit is a conference support system that accepts manual registration of attendees different from the attendees specified by the authentication process.
請求項1に記載の会議支援システムにおいて、
前記タイムライン管理部は、前記音声認識部により特定された発言者の手動による訂正を受け付ける、会議支援システム。
In the conference support system according to claim 1,
The timeline management unit is a conference support system that accepts manual corrections of speakers specified by the voice recognition unit.
請求項1に記載の会議支援システムにおいて、
前記タイムライン管理部は、出力される前記タイムラインにおいて、会議中の発言内容のうち予め定められた特定の単語または内容を、別の表現に変換する、会議支援システム。
In the conference support system according to claim 1,
The timeline management unit is a conference support system that converts a predetermined specific word or content among the contents of remarks during a conference into another expression in the output timeline.
請求項7に記載の会議支援システムにおいて、
前記別の表現は、略語またはマスクである、会議支援システム。
In the conference support system according to claim 7,
The other expression is an abbreviation or mask, a conference support system.
組織における会議の運営を支援する会議支援システムとして機能するよう、コンピュータに処理を実行させる会議支援プログラムであって、
複数の拠点間でのオンラインでのビデオ会議を可能とするビデオ会議装置により各出席者の音声データを取得し、前記音声データと、予め登録された各出席者の音声の特徴情報との比較に基づいて、前記音声データにおける各発言の発言者を特定する音声認識処理と、
前記音声認識処理により取得された各出席者の音声データを発言の時系列でタイムラインとして出力するタイムライン管理処理と、
出力される前記タイムラインにおいて、出席者の発言数または発言時間の多さに応じて前記出席者を示す画像を強調する強調処理と、を前記コンピュータに実行させる、会議支援プログラム。
A conference support program that lets a computer perform processing so that it functions as a conference support system that supports the operation of a conference in an organization.
The audio data of each attendee is acquired by a video conferencing device that enables online video conferencing between multiple bases, and the audio data is compared with the audio feature information of each attendee registered in advance. Based on the voice recognition process that identifies the speaker of each statement in the voice data,
A timeline management process that outputs the voice data of each attendee acquired by the voice recognition process as a timeline in chronological order of speech, and
A conference support program for causing the computer to perform an enhancement process for emphasizing an image showing an attendee according to the number of remarks or the amount of remark time of the attendee in the output timeline.
JP2017187373A 2017-09-28 2017-09-28 Conference support system and conference support program Active JP7046546B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017187373A JP7046546B2 (en) 2017-09-28 2017-09-28 Conference support system and conference support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017187373A JP7046546B2 (en) 2017-09-28 2017-09-28 Conference support system and conference support program

Publications (2)

Publication Number Publication Date
JP2019061594A JP2019061594A (en) 2019-04-18
JP7046546B2 true JP7046546B2 (en) 2022-04-04

Family

ID=66178235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017187373A Active JP7046546B2 (en) 2017-09-28 2017-09-28 Conference support system and conference support program

Country Status (1)

Country Link
JP (1) JP7046546B2 (en)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020159326A (en) 2019-03-27 2020-10-01 いすゞ自動車株式会社 Vehicle speed control device
CN111427638B (en) * 2019-05-05 2024-05-07 杭州海康威视数字技术股份有限公司 Method and device for displaying note data
JP7400231B2 (en) * 2019-07-11 2023-12-19 株式会社リコー Communication systems, information processing devices, communication methods and programs
JP7347994B2 (en) * 2019-08-23 2023-09-20 株式会社日立製作所 Conference support system
CN110636245B (en) * 2019-08-28 2021-09-10 视联动力信息技术股份有限公司 Audio processing method and device, electronic equipment and storage medium
JP7272223B2 (en) * 2019-09-30 2023-05-12 株式会社リコー Program, communication method, communication terminal and communication system
JP6795668B1 (en) * 2019-10-24 2020-12-02 日本金銭機械株式会社 Minutes creation system
JP7347124B2 (en) * 2019-10-30 2023-09-20 株式会社リコー Programs, information processing methods, information processing devices, and communication systems
JP7400832B2 (en) * 2019-12-20 2023-12-19 日本電気株式会社 Information processing device, control method and program
JP2021111239A (en) * 2020-01-14 2021-08-02 住友電気工業株式会社 Providing system, providing method, providing device, and computer program
JP2021114167A (en) * 2020-01-20 2021-08-05 トッパン・フォームズ株式会社 Document management/viewing system and annotation text display method thereof
JP2021114166A (en) * 2020-01-20 2021-08-05 トッパン・フォームズ株式会社 Document management/viewing system and annotation text generation and display method thereof
JP7464107B2 (en) 2020-02-27 2024-04-09 日本電気株式会社 Server device, conference support system, conference support method and program
JP7431068B2 (en) * 2020-03-13 2024-02-14 トヨタ自動車株式会社 Contribution calculation device
JP2021177321A (en) * 2020-05-08 2021-11-11 Line株式会社 Program, displaying method and terminal
WO2022009335A1 (en) * 2020-07-08 2022-01-13 日本電気株式会社 Server device, online conference system, business card exchange method, and computer readable storage medium
JP2022018733A (en) * 2020-07-16 2022-01-27 ヤフー株式会社 Provision program, provision method, and provision device
JP2022023459A (en) * 2020-07-27 2022-02-08 株式会社東芝 Communication system and evaluation method
WO2022024371A1 (en) * 2020-07-31 2022-02-03 マクセル株式会社 Web meeting system and web meeting program
JPWO2022064618A1 (en) * 2020-09-24 2022-03-31
JPWO2022064620A1 (en) * 2020-09-24 2022-03-31
JP7152453B2 (en) * 2020-09-29 2022-10-12 ソフトバンク株式会社 Information processing device, information processing method, information processing program, and information processing system
JPWO2022074785A1 (en) * 2020-10-08 2022-04-14
WO2022079767A1 (en) * 2020-10-12 2022-04-21 日本電気株式会社 Analysis device, system, method, and non-transitory computer-readable medium storing program
US20230377369A1 (en) 2020-10-12 2023-11-23 Nec Corporation Analysis apparatus, analysis method, and non-transitory computer readable medium storing program
WO2022079777A1 (en) * 2020-10-12 2022-04-21 日本電気株式会社 Analysis device, analysis system, analysis method, and non-transitory computer-readable medium having program stored thereon
US20230351806A1 (en) * 2020-10-12 2023-11-02 Nec Corporation Analysis apparatus, analysis system, analysis method, and non-transitory computer readable medium storing program
WO2022079773A1 (en) * 2020-10-12 2022-04-21 日本電気株式会社 Analysis device, system, method, and non-transitory computer-readable medium having program stored therein
CN112270918A (en) * 2020-10-22 2021-01-26 北京百度网讯科技有限公司 Information processing method, device, system, electronic equipment and storage medium
KR102448356B1 (en) * 2020-10-23 2022-09-28 네이버 주식회사 Method, system, and computer readable record medium to record conversations in connection with video communication service
JP7096626B2 (en) * 2020-10-27 2022-07-06 株式会社I’mbesideyou Information extraction device
JPWO2022091230A1 (en) * 2020-10-27 2022-05-05
JP7130290B2 (en) * 2020-10-27 2022-09-05 株式会社I’mbesideyou information extractor
JP6948449B1 (en) * 2020-11-13 2021-10-13 株式会社アドバンスクリエイト Insurance consultation system, insurance consultation terminal, recording method, and recording program
CN112532912A (en) * 2020-11-20 2021-03-19 北京搜狗科技发展有限公司 Video processing method and device and electronic equipment
JP7445331B2 (en) * 2020-11-26 2024-03-07 株式会社I’mbesideyou Video meeting evaluation terminal and video meeting evaluation method
JPWO2022145039A1 (en) * 2020-12-31 2022-07-07
WO2022145041A1 (en) * 2020-12-31 2022-07-07 株式会社I’mbesideyou Video meeting evaluation terminal, video meeting evaluation system, and video meeting evaluation program
CN112786045B (en) * 2021-01-04 2024-03-12 上海明略人工智能(集团)有限公司 Device, server, method and system for conference recording
CN112766095B (en) * 2021-01-06 2023-10-31 安徽商信政通信息技术股份有限公司 System and method for evaluating input degree of participants
JPWO2022168177A1 (en) * 2021-02-02 2022-08-11
JPWO2022168176A1 (en) * 2021-02-02 2022-08-11
WO2022173044A1 (en) * 2021-02-12 2022-08-18 正林 真之 Information processing device
JPWO2022180857A1 (en) * 2021-02-26 2022-09-01
WO2022180856A1 (en) * 2021-02-26 2022-09-01 株式会社I’mbesideyou Video session evaluation terminal, video session evaluation system, and video session evaluation program
JP7082224B1 (en) 2021-03-02 2022-06-07 レノボ・シンガポール・プライベート・リミテッド Information processing device and control method
JP7284204B2 (en) * 2021-03-03 2023-05-30 ソフトバンク株式会社 Information processing device, information processing method and information processing program
JP6952384B1 (en) * 2021-03-10 2021-10-20 株式会社JIYU Laboratories Information processing equipment, programs and information processing methods
JP7237381B1 (en) * 2021-11-22 2023-03-13 株式会社RevComm Program, information processing system and information processing method
CN116193179A (en) * 2021-11-26 2023-05-30 华为技术有限公司 Conference recording method, terminal equipment and conference recording system
WO2023100905A1 (en) * 2021-12-03 2023-06-08 パナソニックIpマネジメント株式会社 Authentication device and authentication method
JP7245944B1 (en) 2022-03-29 2023-03-24 グリー株式会社 Information processing device, information processing method, and program
CN114928713B (en) * 2022-07-18 2022-10-21 广州市保伦电子有限公司 Voice analysis system for user remote video conference
CN117640861A (en) * 2022-08-16 2024-03-01 华为技术有限公司 Guide broadcast control method and device
WO2024070651A1 (en) * 2022-09-26 2024-04-04 ソニーグループ株式会社 Information processing device, information processing method, and program
JP7361961B1 (en) * 2023-01-10 2023-10-16 Tis株式会社 Information processing device, information processing method, and information processing program
JP7471026B1 (en) 2023-06-06 2024-04-19 SmartNote株式会社 Information processing device and information processing program
CN117577115B (en) * 2024-01-15 2024-03-29 杭州讯意迪科技有限公司 Intelligent paperless conference system
CN117676072B (en) * 2024-01-31 2024-04-09 国网湖北省电力有限公司信息通信公司 AR-based multi-person complex interactive conference method and device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099570A (en) 1998-09-22 2000-04-07 Fuji Xerox Co Ltd Conference suppoprting system
JP2004295834A (en) 2003-03-28 2004-10-21 Csk Corp Analysis device, analysis method and analysis program for character speech record, and analysis device, analysis method and analysis program for information group
JP2009171119A (en) 2008-01-15 2009-07-30 Mizuho Information & Research Institute Inc Remote conference management system, remote conference management method, and remote conference management program
JP2013031008A (en) 2011-07-28 2013-02-07 Fujitsu Ltd Information processor, digest generating method, and digest generating program
JP2013222347A (en) 2012-04-17 2013-10-28 Canon Inc Minute book generation device and minute book generation method
JP2015156099A (en) 2014-02-20 2015-08-27 株式会社リコー Conference support device, conference support device control method, and program
US20160037129A1 (en) 2014-08-01 2016-02-04 Cisco Technology, Inc. Method and Apparatus for Enhanced Caller ID

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099570A (en) 1998-09-22 2000-04-07 Fuji Xerox Co Ltd Conference suppoprting system
JP2004295834A (en) 2003-03-28 2004-10-21 Csk Corp Analysis device, analysis method and analysis program for character speech record, and analysis device, analysis method and analysis program for information group
JP2009171119A (en) 2008-01-15 2009-07-30 Mizuho Information & Research Institute Inc Remote conference management system, remote conference management method, and remote conference management program
JP2013031008A (en) 2011-07-28 2013-02-07 Fujitsu Ltd Information processor, digest generating method, and digest generating program
JP2013222347A (en) 2012-04-17 2013-10-28 Canon Inc Minute book generation device and minute book generation method
JP2015156099A (en) 2014-02-20 2015-08-27 株式会社リコー Conference support device, conference support device control method, and program
US20160037129A1 (en) 2014-08-01 2016-02-04 Cisco Technology, Inc. Method and Apparatus for Enhanced Caller ID

Also Published As

Publication number Publication date
JP2019061594A (en) 2019-04-18

Similar Documents

Publication Publication Date Title
JP7046546B2 (en) Conference support system and conference support program
US11645630B2 (en) Person detection, person identification and meeting start for interactive whiteboard appliances
EP3467822B1 (en) Speech-to-text conversion for interactive whiteboard appliances in multi-language electronic meetings
EP3467821B1 (en) Selection of transcription and translation services and generation of combined results
US10956875B2 (en) Attendance tracking, presentation files, meeting services and agenda extraction for interactive whiteboard appliances
US11062271B2 (en) Interactive whiteboard appliances with learning capabilities
JP6481723B2 (en) Managing electronic conferences using artificial intelligence and conference rule templates
US20200005248A1 (en) Meeting preparation manager
US10510051B2 (en) Real-time (intra-meeting) processing using artificial intelligence
US11307735B2 (en) Creating agendas for electronic meetings using artificial intelligence
US10860985B2 (en) Post-meeting processing using artificial intelligence
Thanem et al. Just doing gender? Transvestism and the power of underdoing gender in everyday life and work
US20180101760A1 (en) Selecting Meeting Participants for Electronic Meetings Using Artificial Intelligence
JP2018170009A (en) Electronic conference system
US20190279619A1 (en) Device and method for voice-driven ideation session management
US20160065539A1 (en) Method of sending information about a user
US20210158302A1 (en) System and method of authenticating candidates for job positions
Woo et al. Navigating water cooler talks without the water cooler: Uncertainty and information seeking during remote socialization
Constantinides et al. The future of hybrid meetings
US20210306384A1 (en) Event registration system, user terminal, and storage medium
JP6986589B2 (en) Information processing equipment, information processing methods and information processing programs
Bay Communicating through social media: How persons with ALS use the internet to maintain social connections
Nyawaga Examining Identity Management in Enterprise Social Media Among Black Professionals
Nazarko Job interviews: how to be your best
Heini et al. Remote data collection in sociolinguistics: lessons from the COVID-19 pandemic

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220323

R150 Certificate of patent or registration of utility model

Ref document number: 7046546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150