JP2021077111A - Communication system, information processing method, information processor and program - Google Patents

Communication system, information processing method, information processor and program Download PDF

Info

Publication number
JP2021077111A
JP2021077111A JP2019203428A JP2019203428A JP2021077111A JP 2021077111 A JP2021077111 A JP 2021077111A JP 2019203428 A JP2019203428 A JP 2019203428A JP 2019203428 A JP2019203428 A JP 2019203428A JP 2021077111 A JP2021077111 A JP 2021077111A
Authority
JP
Japan
Prior art keywords
unit
data
speaker
text data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019203428A
Other languages
Japanese (ja)
Inventor
香川 正明
Masaaki Kagawa
正明 香川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019203428A priority Critical patent/JP2021077111A/en
Publication of JP2021077111A publication Critical patent/JP2021077111A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide a communication system, an information processing method, an information processing device and a program that can efficiently search for minutes of a target meeting.SOLUTION: A communication system includes a management server that manages text data converted by a conversion server for sound data recorded in a video conference, and an information processor. The management server includes a storage processing unit that associates the text data with a speaker who emitted sound data corresponding to the text data and stores it in a storage unit as at least a part of the minutes. The information processor includes a first transmission unit that transmits at least a keyword and a speaker specified as search conditions according to an input operation received by a reception unit to the management server. In addition, the management server includes a search unit that searches for the minutes including the keyword transmitted from the first transmission unit and corresponding to the speaker transmitted from the first transmission unit, from the minutes stored in the storage unit.SELECTED DRAWING: Figure 8

Description

本発明は、通信システム、情報処理方法、情報処理装置およびプログラムに関する。 The present invention relates to communication systems, information processing methods, information processing devices and programs.

ビデオ会議において収録した音声データを、クラウドサービスを用いてテキスト化し、議事録として自動生成した後、議事録として記憶する技術が知られている。このように記憶された議事録に対して、目的の内容を効率よく検索できる技術が求められている。 A technique is known in which audio data recorded in a video conference is converted into text using a cloud service, automatically generated as minutes, and then stored as minutes. There is a need for a technology that can efficiently search for the desired content of the minutes stored in this way.

このような議事録を検索可能なビデオ会議システムとして、表示させた議事録について発話者およびキーワードで検索可能なシステムが開示されている(例えば特許文献1)。 As a video conferencing system that can search such minutes, a system that can search the displayed minutes by speaker and keyword is disclosed (for example, Patent Document 1).

しかしながら、従来のビデオ会議システムでは、期間、会議名称、参加者、議事録のテキスト検索等が可能である、検索結果が大量にでてきてしまい、検索者が目的とする会議の議事録を見つけるのに手間がかかるという問題がある。さらに、特許文献1に記載された技術では、既に開いている議事録に対して発話者およびキーワードにより該当部分を検索可能としているに過ぎない。 However, in the conventional video conferencing system, it is possible to perform a text search of the period, the conference name, the participants, the minutes, etc., and a large amount of search results are obtained, and the searcher finds the minutes of the desired conference. There is a problem that it takes time and effort. Further, the technique described in Patent Document 1 merely makes it possible to search the relevant part of the minutes that have already been opened by the speaker and the keyword.

本発明は、上記に鑑みてなされたものであって、目的とする会議の議事録を効率的に検索することができる通信システム、情報処理方法、情報処理装置およびプログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a communication system, an information processing method, an information processing device, and a program capable of efficiently searching the minutes of a target meeting. To do.

上述した課題を解決し、目的を達成するために、本発明は、ビデオ会議で録音された音データについて変換サーバにより変換されたテキストデータを管理する管理サーバと、情報処理装置と、を有する通信システムであって、前記管理サーバは、前記テキストデータと、該テキストデータに対応する前記音データの音声を発した発話者とを関連付けて議事録の少なくとも一部として記憶部に記憶させる記憶処理部を備え、前記情報処理装置は、受付部により受け付けられた入力操作に従って検索条件として指定された、少なくともキーワードと、発話者とを前記管理サーバへ送信する第1送信部を備え、前記管理サーバは、前記記憶部に記憶された議事録から、前記第1送信部から送信されたキーワードを含み、かつ該第1送信部から送信された発話者に対応する議事録を検索する検索部と、を備えたことを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the present invention has a communication having a management server for managing text data converted by a conversion server for sound data recorded in a video conference, and an information processing device. In the system, the management server is a storage processing unit that associates the text data with the speaker who has emitted the sound data corresponding to the text data and stores the text data in the storage unit as at least a part of the minutes. The information processing apparatus includes a first transmission unit that transmits at least a keyword and a speaker specified as search conditions according to an input operation received by the reception unit to the management server. , A search unit that searches the minutes stored in the storage unit for the minutes that include the keyword transmitted from the first transmission unit and that corresponds to the speaker transmitted from the first transmission unit. It is characterized by being prepared.

本発明によれば、目的とする会議の議事録を効率的に検索することができる。 According to the present invention, the minutes of a target meeting can be efficiently searched.

図1は、実施形態に係る共用システムの概略図である。FIG. 1 is a schematic view of a shared system according to an embodiment. 図2は、実施形態に係る電子黒板のハードウェア構成の一例を示す図である。FIG. 2 is a diagram showing an example of the hardware configuration of the electronic blackboard according to the embodiment. 図3は、実施形態に係るビデオ会議端末のハードウェア構成の一例を示す図である。FIG. 3 is a diagram showing an example of the hardware configuration of the video conferencing terminal according to the embodiment. 図4は、実施形態に係るカーナビゲーション装置のハードウェア構成の一例を示す図である。FIG. 4 is a diagram showing an example of the hardware configuration of the car navigation device according to the embodiment. 図5は、実施形態に係るPCおよびサーバのハードウェア構成の一例を示す図である。FIG. 5 is a diagram showing an example of the hardware configuration of the PC and the server according to the embodiment. 図6は、実施形態に係る電子黒板のソフトウェア構成の一例を示す図である。FIG. 6 is a diagram showing an example of the software configuration of the electronic blackboard according to the embodiment. 図7は、実施形態に係るPCのソフトウェア構成の一例を示す図である。FIG. 7 is a diagram showing an example of the software configuration of the PC according to the embodiment. 図8は、実施形態に係る共用システムの機能ブロック図である。FIG. 8 is a functional block diagram of the shared system according to the embodiment. 図9は、利用者認証管理テーブル、アクセス管理テーブル、および予定管理テーブルの概念図である。FIG. 9 is a conceptual diagram of a user authentication management table, an access management table, and a schedule management table. 図10は、コンテンツ管理テーブルおよび話者情報管理テーブルを示す概念図である。FIG. 10 is a conceptual diagram showing a content management table and a speaker information management table. 図11は、利用者認証管理テーブル、利用者管理テーブル、および共用体管理テーブルを示す概念図である。FIG. 11 is a conceptual diagram showing a user authentication management table, a user management table, and a union management table. 図12は、共用体予約管理テーブルおよびイベント管理テーブルを示す概念図である。FIG. 12 is a conceptual diagram showing a union reservation management table and an event management table. 図13は、サーバ認証管理テーブルおよび実行イベント履歴管理テーブルを示す概念図である。FIG. 13 is a conceptual diagram showing a server authentication management table and an execution event history management table. 図14は、実行イベント管理テーブルおよび関連情報管理テーブルを示す概念図である。FIG. 14 is a conceptual diagram showing an execution event management table and a related information management table. 図15は、テキスト情報管理テーブルを示す概念図である。FIG. 15 is a conceptual diagram showing a text information management table. 図16は、利用者音声情報管理テーブルを示す概念図である。FIG. 16 is a conceptual diagram showing a user voice information management table. 図17は、実施形態に係る共用システムのスケジュールの登録処理の流れの一例を示すシーケンス図である。FIG. 17 is a sequence diagram showing an example of the flow of the schedule registration process of the shared system according to the embodiment. 図18は、サインイン画面を示す図である。FIG. 18 is a diagram showing a sign-in screen. 図19は、PCの初期画面の一例を示す図である。FIG. 19 is a diagram showing an example of an initial screen of a PC. 図20は、スケジュール入力画面を示す図である。FIG. 20 is a diagram showing a schedule input screen. 図21は、実施形態に係る共用システムの利用者音声データの登録処理の流れの一例を示すシーケンス図である。FIG. 21 is a sequence diagram showing an example of the flow of the user voice data registration process of the shared system according to the embodiment. 図22は、利用者音声データの登録のためのサインイン画面を示す図である。FIG. 22 is a diagram showing a sign-in screen for registering user voice data. 図23は、利用者音声データ登録画面を示す図である。FIG. 23 is a diagram showing a user voice data registration screen. 図24は、実施形態に係る共用システムのイベントの開始処理の流れの一例を示すシーケンス図である。FIG. 24 is a sequence diagram showing an example of a flow of event start processing of the shared system according to the embodiment. 図25は、電子黒板に表示されるサインイン画面を示す図である。FIG. 25 is a diagram showing a sign-in screen displayed on the electronic blackboard. 図26は、共用体の予約リスト画面を示す図である。FIG. 26 is a diagram showing a reservation list screen of the union. 図27は、実施形態に係る共用システムのイベントの開始処理の流れの一例を示すシーケンス図である。FIG. 27 is a sequence diagram showing an example of a flow of event start processing of the shared system according to the embodiment. 図28は、イベントの詳細情報画面を示す図である。FIG. 28 is a diagram showing a detailed information screen of the event. 図29は、イベント開始時に電子黒板に表示される表示画面を示す図である。FIG. 29 is a diagram showing a display screen displayed on the electronic blackboard at the start of the event. 図30は、利用者が電子黒板を利用する状態を示すイメージ図である。FIG. 30 is an image diagram showing a state in which the user uses the electronic blackboard. 図31は、実施形態に係る共用システムの実行イベント履歴の登録処理の流れの一例を示すシーケンス図である。FIG. 31 is a sequence diagram showing an example of a flow of registration processing of the execution event history of the shared system according to the embodiment. 図32は、実施形態に係る共用システムの音声テキスト変換処理の流れの一例を示すフローチャートである。FIG. 32 is a flowchart showing an example of the flow of the voice-text conversion process of the shared system according to the embodiment. 図33は、実施形態に係る共用システムの話者特定処理の流れの一例を示すフローチャートである。FIG. 33 is a flowchart showing an example of the flow of the speaker identification process of the shared system according to the embodiment. 図34は、実施形態に係る共用システムの音声テキスト変換処理の流れの一例を示すシーケンス図である。FIG. 34 is a sequence diagram showing an example of the flow of the voice-text conversion process of the shared system according to the embodiment. 図35は、テキストデータを含むデータファイルの一例を示す図である。FIG. 35 is a diagram showing an example of a data file including text data. 図36は、実施形態に係る共用システムの実行イベント履歴の登録処理の流れの一例を示すシーケンス図である。FIG. 36 is a sequence diagram showing an example of a flow of registration processing of the execution event history of the shared system according to the embodiment. 図37は、実施形態に係る共用システムのイベントの終了処理の流れの一例を示すシーケンス図である。FIG. 37 is a sequence diagram showing an example of a flow of end processing of an event of the shared system according to the embodiment. 図38は、実施形態に係る共用システムのイベントの終了処理の流れの一例を示すシーケンス図である。FIG. 38 is a sequence diagram showing an example of a flow of end processing of an event of the shared system according to the embodiment. 図39は、電子黒板上に表示されるイベント終了画面を示す図である。FIG. 39 is a diagram showing an event end screen displayed on the electronic blackboard. 図40は、電子黒板上に表示されるファイルデータのアップロード画面を示す図である。FIG. 40 is a diagram showing an upload screen of file data displayed on the electronic blackboard. 図41は、電子黒板上に表示されるファイルデータのアップロード完了画面を示す図である。FIG. 41 is a diagram showing an upload completion screen of file data displayed on the electronic blackboard. 図42は、実施形態に係る共用システムの実行イベント履歴の閲覧処理の流れの一例を示すシーケンス図である。FIG. 42 is a sequence diagram showing an example of a flow of browsing processing of the execution event history of the shared system according to the embodiment. 図43は、実施形態に係る共用システムの実行イベント履歴の閲覧処理の流れの一例を示すシーケンス図である。FIG. 43 is a sequence diagram showing an example of a flow of browsing processing of the execution event history of the shared system according to the embodiment. 図44は、実施形態に係るPC上に表示される実行イベントリスト画面を示す図である。FIG. 44 is a diagram showing an execution event list screen displayed on the PC according to the embodiment. 図45は、実施形態に係るPC上に表示される実行イベント履歴画面を示す図である。FIG. 45 is a diagram showing an execution event history screen displayed on the PC according to the embodiment. 図46は、実施形態に係るPC上に表示される実行イベント履歴画面を示す図である。FIG. 46 is a diagram showing an execution event history screen displayed on the PC according to the embodiment. 図47は、実施形態に係る共用システムの実行イベント履歴の選択処理の流れの一例を示すシーケンス図である。FIG. 47 is a sequence diagram showing an example of a flow of selection processing of the execution event history of the shared system according to the embodiment. 図48は、実施形態に係るPC上に表示される実行イベント履歴画面を示す図である。FIG. 48 is a diagram showing an execution event history screen displayed on the PC according to the embodiment. 図49は、実施形態に係るPC上に表示される実行イベント履歴画面を示す図である。FIG. 49 is a diagram showing an execution event history screen displayed on the PC according to the embodiment. 図50は、実施形態に係る共用システムの実行イベント履歴の選択処理の流れの一例を示すシーケンス図である。FIG. 50 is a sequence diagram showing an example of a flow of selection processing of the execution event history of the shared system according to the embodiment. 図51は、実施形態に係る共用システムの実行イベント履歴の選択処理の流れの一例を示すシーケンス図である。FIG. 51 is a sequence diagram showing an example of a flow of selection processing of the execution event history of the shared system according to the embodiment. 図52は、実施形態に係る共用システムのテキストデータの編集処理の流れの一例を示すシーケンス図である。FIG. 52 is a sequence diagram showing an example of the flow of the text data editing process of the shared system according to the embodiment. 図53は、実施形態に係るPC上に表示される実行イベント履歴画面を示す図である。FIG. 53 is a diagram showing an execution event history screen displayed on the PC according to the embodiment. 図54は、実施形態に係るPC上に表示されるテキスト編集画面を示す図である。FIG. 54 is a diagram showing a text editing screen displayed on the PC according to the embodiment. 図55は、更新されたテキスト情報管理テーブルを示す概念図である。FIG. 55 is a conceptual diagram showing an updated text information management table. 図56は、実施形態に係るPC上に表示される実行イベント履歴画面を示す図である。FIG. 56 is a diagram showing an execution event history screen displayed on the PC according to the embodiment. 図57は、実施形態に係る共用システムの編集履歴の閲覧処理の流れの一例を示すシーケンス図である。FIG. 57 is a sequence diagram showing an example of a flow of browsing processing of the editing history of the shared system according to the embodiment. 図58は、実施形態に係るPC上に表示される編集履歴画面を示す図である。FIG. 58 is a diagram showing an edit history screen displayed on the PC according to the embodiment. 図59は、実施形態に係る共用システムの議事録の検索処理の流れの一例を示すシーケンス図である。FIG. 59 is a sequence diagram showing an example of the flow of the search process of the minutes of the shared system according to the embodiment. 図60は、実施形態に係るPC上に表示される議事録検索画面を示す図である。FIG. 60 is a diagram showing a minutes search screen displayed on the PC according to the embodiment. 図61は、実施形態に係るPC上に表示される検索結果を含む議事録検索画面を示す図である。FIG. 61 is a diagram showing a minutes search screen including search results displayed on the PC according to the embodiment. 図62は、実施形態に係るPC上に表示される検索結果を含む議事録検索画面を示す図である。FIG. 62 is a diagram showing a minutes search screen including search results displayed on the PC according to the embodiment.

以下に図面を用いて、本実施形態に係る共用システム1を詳細に説明する。なお、本実施形態において「ファイル」は、「電子ファイル」を示す。 The shared system 1 according to the present embodiment will be described in detail below with reference to the drawings. In the present embodiment, the "file" indicates an "electronic file".

(システム構成の概略)
図1は、実施形態に係る共用システムの概略図である。図1を参照しながら、共用システム1の構成の概略について説明する。
(Outline of system configuration)
FIG. 1 is a schematic view of a shared system according to an embodiment. The outline of the configuration of the shared system 1 will be described with reference to FIG.

図1に示されているように、本実施形態の共用システム1は、電子黒板2と、ビデオ会議端末3と、カーナビゲーション装置4と、PC(Personal Computer)5と、共用支援サーバ6と、スケジュール管理サーバ8(管理サーバの一例)と、音声テキスト変換サーバ9(変換サーバの一例)と、を含む。 As shown in FIG. 1, the shared system 1 of the present embodiment includes an electronic whiteboard 2, a video conferencing terminal 3, a car navigation device 4, a PC (Personal Computer) 5, a shared support server 6, and the like. It includes a schedule management server 8 (an example of a management server) and a voice-text conversion server 9 (an example of a conversion server).

また、電子黒板2、ビデオ会議端末3、カーナビゲーション装置4、PC5、共用支援サーバ6、スケジュール管理サーバ8および音声テキスト変換サーバ9は、通信ネットワーク10を介して通信することができる。通信ネットワーク10は、インターネット、移動体通信網、LAN(Local Area Network)等によって構築されている。通信ネットワーク10には、有線通信だけでなく、3G(3rd Generation)、WiMAX(Worldwide Interoperability for Microwave Access)またはLTE(Long Term Evolution)等の無線通信によるネットワークが含まれてもよい。 Further, the electronic blackboard 2, the video conferencing terminal 3, the car navigation device 4, the PC 5, the sharing support server 6, the schedule management server 8 and the voice text conversion server 9 can communicate with each other via the communication network 10. The communication network 10 is constructed by the Internet, a mobile communication network, a LAN (Local Area Network), or the like. The communication network 10 may include not only wired communication but also wireless communication networks such as 3G (3rd Generation), WiMAX (Worldwide Interoperability for Microwave Access), and LTE (Long Term Evolution).

また、電子黒板2(情報処理装置の一例)は、会議室Xで利用される。ビデオ会議端末3(情報処理装置の一例)は、会議室Yで利用される。また、共用体は、各利用者による予約対象となる。カーナビゲーション装置4(情報処理装置の一例)は、車両αで利用される。この場合の車両αは、カーシェアリングの対象となる車両である。車両には、車、バイク、自転車、車椅子等が含まれる。 Further, the electronic blackboard 2 (an example of the information processing device) is used in the conference room X. The video conferencing terminal 3 (an example of an information processing device) is used in the conference room Y. In addition, the union is subject to reservation by each user. The car navigation device 4 (an example of an information processing device) is used in the vehicle α. The vehicle α in this case is a vehicle that is subject to car sharing. Vehicles include cars, motorcycles, bicycles, wheelchairs and the like.

「共用体」は、複数の人または団体が共同で使用する物、サービス、空間(部屋)、場所、または情報を示す。会議室X、会議室Yおよび車両αは、複数の利用者が共用する共用体の一例である。共用体に付与された情報の例として、アカウントの場合が挙げられる。例えば、Webで提供されている特定のサービスにおいて、使用されるアカウントが1つに制限されているような場合である。 A "union" refers to an object, service, space (room), location, or information shared by multiple people or groups. The conference room X, the conference room Y, and the vehicle α are examples of a union shared by a plurality of users. An example of the information given to a union is an account. For example, in a specific service provided on the Web, the account used is limited to one.

電子黒板2、ビデオ会議端末3、およびカーナビゲーション装置4は、通信端末の一例である。「通信端末」は、例えば、ユーザによるサインイン(後述のS32参照)で使用可能となる端末である。なお、車両αで利用される通信端末は、カーナビゲーション装置4だけでなく、カーナビゲーションのアプリケーションがインストールされたスマートフォンまたはスマートウォッチ等も含む。 The electronic blackboard 2, the video conferencing terminal 3, and the car navigation device 4 are examples of communication terminals. The "communication terminal" is, for example, a terminal that can be used by a user signing in (see S32 described later). The communication terminal used in the vehicle α includes not only the car navigation device 4 but also a smartphone or a smart watch in which a car navigation application is installed.

PC5(情報処理装置の一例)は、表示端末の一例であり、スケジュール管理サーバ8に対して、各共用体の利用の予約の登録および各利用者が実行予定のイベントを登録する登録装置の一例である。イベントは、例えば、会議、会合、集い、寄り合い、相談、打ち合わせ、運転、乗車または移動等である。 The PC 5 (an example of an information processing device) is an example of a display terminal, and is an example of a registration device for registering a reservation for use of each union and registering an event scheduled to be executed by each user to the schedule management server 8. Is. Events include, for example, meetings, meetings, gatherings, gatherings, consultations, meetings, driving, boarding or traveling.

共用支援サーバ6は、コンピュータであり、各通信端末に対して遠隔的に共用体を共用する場合の支援を行う。 The sharing support server 6 is a computer, and provides support when sharing a union remotely to each communication terminal.

スケジュール管理サーバ8は、コンピュータであり、各共用体の予約および各利用者の予定のスケジュールを管理する。 The schedule management server 8 is a computer and manages reservations for each union and schedules for each user.

音声テキスト変換サーバ9は、コンピュータであり、外部のコンピュータ(例えば、共用支援サーバ6)から受信した音(音声)データを、テキストデータに変換する。なお、音声テキスト変換サーバ9は、WebSocektにより接続され、音声をテキストに変換する外部サービス(例えばWatsonまたはBing Speech等)によって実現されるものとしてもよい。 The voice-text conversion server 9 is a computer, and converts sound (voice) data received from an external computer (for example, a shared support server 6) into text data. The voice-text conversion server 9 may be connected by WebSockt and realized by an external service (for example, Watson or Bing Speech) that converts voice into text.

ここで、共用支援サーバ6、スケジュール管理サーバ8および音声テキスト変換サーバ9は、管理システムと称する。なお、管理システムは、例えば、共用支援サーバ6、スケジュール管理サーバ8および音声テキスト変換サーバ9の各機能の全てまたは一部を集約させたコンピュータであってもよい。また、共用支援サーバ6、スケジュール管理サーバ8および音声テキスト変換サーバ9のそれぞれは、複数のコンピュータに各機能を分散させて実現させる構成であってもよい。さらに、共用支援サーバ6、スケジュール管理サーバ8および音声テキスト変換サーバ9は、クラウド環境に存在するサーバコンピュータであるものとして説明するが、共用支援サーバ6および音声テキスト変換サーバ9は、電子黒板2等の通信端末上で動作するサーバであってもよく、オンプレミス環境に存在するサーバであってもよい。また、スケジュール管理サーバ8は、オンプレミス環境に存在するサーバであってもよい。 Here, the shared support server 6, the schedule management server 8, and the voice-text conversion server 9 are referred to as a management system. The management system may be, for example, a computer in which all or part of the functions of the shared support server 6, the schedule management server 8, and the voice-text conversion server 9 are integrated. Further, each of the shared support server 6, the schedule management server 8, and the voice-text conversion server 9 may be configured to distribute and realize each function among a plurality of computers. Further, the shared support server 6, the schedule management server 8 and the voice text conversion server 9 will be described as being server computers existing in the cloud environment, but the shared support server 6 and the voice text conversion server 9 are electronic blackboards 2 and the like. It may be a server that operates on the communication terminal of the above, or it may be a server that exists in the on-premises environment. Further, the schedule management server 8 may be a server existing in the on-premises environment.

(ハードウェア構成)
続いて、図2〜図5を用いて、共用システム1を構築する装置または端末のハードウェア構成を説明する。
(Hardware configuration)
Subsequently, the hardware configuration of the device or terminal for constructing the shared system 1 will be described with reference to FIGS. 2 to 5.

<電子黒板のハードウェア構成>
図2は、実施形態に係る電子黒板のハードウェア構成の一例を示す図である。図2に示されているように、電子黒板2は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、SSD(Solid State Drive)204と、ネットワークI/F205と、外部機器接続I/F(Interface)206と、を備えている。
<Hardware configuration of electronic blackboard>
FIG. 2 is a diagram showing an example of the hardware configuration of the electronic blackboard according to the embodiment. As shown in FIG. 2, the electronic blackboard 2 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, and an SSD (Solid State Drive) 204. , Network I / F 205 and external device connection I / F (Interface) 206.

これらのうち、CPU201は、電子黒板2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、電子黒板用のプログラム等の各種データを記憶する。ネットワークI/F205は、通信ネットワーク10との通信を制御する。外部機器接続I/F206は、USB(Universal Serial Bus)メモリ2600、PC2700、外付け機器(マイク2200、スピーカ2300、カメラ2400)との通信を制御する。 Of these, the CPU 201 controls the operation of the entire electronic blackboard 2. The ROM 202 stores a program used for driving the CPU 201 such as the CPU 201 and the IPL (Initial Program Loader). The RAM 203 is used as a work area of the CPU 201. The SSD 204 stores various data such as a program for an electronic blackboard. The network I / F 205 controls communication with the communication network 10. The external device connection I / F 206 controls communication with a USB (Universal Bus) memory 2600, a PC 2700, and an external device (microphone 2200, speaker 2300, camera 2400).

また、電子黒板2は、キャプチャデバイス211、GPU212、ディスプレイコントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、近距離通信回路219、近距離通信回路219のアンテナ219a、および電源スイッチ222を備えている。 Further, the electronic blackboard 2 includes a capture device 211, a GPU 212, a display controller 213, a contact sensor 214, a sensor controller 215, an electronic pen controller 216, a short-range communication circuit 219, an antenna 219a of the short-range communication circuit 219, and a power switch 222. I have.

これらのうち、キャプチャデバイス211は、ディスプレイコントローラ213を介して表示部の一例であるディスプレイ220上に表示されている画像データを取得し、RAM203等に保存する。GPU(Graphics Processing Unit)212は、グラフィクスを専門に扱う半導体チップである。ディスプレイコントローラ213は、キャプチャデバイス211またはGPU212からの出力画像をディスプレイ220等へ出力するために、画面表示の制御および管理を行う。接触センサ214は、ディスプレイ220上に電子ペン2500やユーザの手H等が接触したことを検知する。センサコントローラ215は、接触センサ214の処理を制御する。接触センサ214は、赤外線遮断方式による座標の入力および座標の検出を行う。この座標の入力および座標の検出する方法は、ディスプレイ220の上側両端部に設置された2つ受発光装置が、ディスプレイ220に平行して複数の赤外線を放射し、ディスプレイ220の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。電子ペンコントローラ216は、電子ペン2500と通信することで、ディスプレイ220へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路219は、NFC(Near Field Communication)、Bluetooth(登録商標)等の通信回路である。電源スイッチ222は、電子黒板2の電源のON/OFFを切り換えるためのスイッチである。 Of these, the capture device 211 acquires the image data displayed on the display 220, which is an example of the display unit, via the display controller 213, and stores the image data in the RAM 203 or the like. The GPU (Graphics Processing Unit) 212 is a semiconductor chip that specializes in graphics. The display controller 213 controls and manages the screen display in order to output the output image from the capture device 211 or the GPU 212 to the display 220 or the like. The contact sensor 214 detects that the electronic pen 2500, the user's hand H, or the like has come into contact with the display 220. The sensor controller 215 controls the processing of the contact sensor 214. The contact sensor 214 inputs and detects the coordinates by the infrared blocking method. In this method of inputting coordinates and detecting coordinates, two light receiving and emitting devices installed at both upper ends of the display 220 emit a plurality of infrared rays in parallel with the display 220 and are provided around the display 220. This is a method of receiving light that is reflected by a reflecting member and returns on the same optical path as the light path emitted by the light receiving element. The contact sensor 214 outputs an infrared ID emitted by two light emitting / receiving devices blocked by the object to the sensor controller 215, and the sensor controller 215 specifies a coordinate position which is a contact position of the object. The electronic pen controller 216 determines whether or not there is a touch of the pen tip or a touch of the pen tip on the display 220 by communicating with the electronic pen 2500. The short-range communication circuit 219 is a communication circuit such as NFC (Near Field Communication) and Bluetooth (registered trademark). The power switch 222 is a switch for switching the power ON / OFF of the electronic blackboard 2.

さらに、電子黒板2は、バスライン210を備えている。バスライン210は、図2に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the electronic blackboard 2 is provided with a bus line 210. The bus line 210 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 201 shown in FIG.

なお、接触センサ214は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネル等の種々の検出手段を用いてもよい。また、電子ペンコントローラ216が、電子ペン2500のペン先およびペン尻だけでなく、電子ペン2500のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。 The contact sensor 214 is not limited to the infrared blocking method, but is a capacitive touch panel that specifies a contact position by detecting a change in capacitance, and a contact position is specified by a voltage change between two opposing resistance films. Various detection means such as a resistance film type touch panel, an electromagnetic induction type touch panel that detects electromagnetic induction generated by contact of a contact object with a display unit, and specifies a contact position may be used. Further, the electronic pen controller 216 may determine whether or not there is a touch not only on the pen tip and pen end of the electronic pen 2500, but also on a portion held by the user of the electronic pen 2500 and other electronic pen portions.

<ビデオ会議端末のハードウェア構成>
図3は、実施形態に係るビデオ会議端末のハードウェア構成の一例を示す図である。図3に示されているように、ビデオ会議端末3は、CPU301と、ROM302と、RAM303と、フラッシュメモリ304と、SSD305と、メディアI/F307と、操作ボタン308と、電源スイッチ309と、バスライン310と、ネットワークI/F311と、CMOS(Complementary Metal Oxide Semiconductor)センサ312と、撮像素子I/F313と、マイク314と、スピーカ315と、音入出力I/F316と、ディスプレイI/F317と、外部機器接続I/F318と、近距離通信回路319と、近距離通信回路319のアンテナ319aと、を備えている。これらのうち、CPU301は、ビデオ会議端末3全体の動作を制御する。ROM302は、IPL等のCPU301の駆動に用いられるプログラムを記憶する。RAM303は、CPU301のワークエリアとして使用される。フラッシュメモリ304は、通信用プログラム、画像データおよび音データ等の各種データを記憶する。SSD305は、CPU301の制御にしたがってフラッシュメモリ304に対する各種データの読み出しまたは書き込みを制御する。なお、SSDに代えてHDDを用いてもよい。メディアI/F307は、フラッシュメモリ等の記録メディア306に対するデータの読み出しまたは書き込み(記憶)を制御する。操作ボタン308は、ビデオ会議端末3の宛先を選択する場合等に操作されるボタンである。電源スイッチ309は、ビデオ会議端末3の電源のON/OFFを切り換えるためのスイッチである。
<Hardware configuration of video conferencing terminal>
FIG. 3 is a diagram showing an example of the hardware configuration of the video conferencing terminal according to the embodiment. As shown in FIG. 3, the video conferencing terminal 3 includes a CPU 301, a ROM 302, a RAM 303, a flash memory 304, an SSD 305, a media I / F 307, an operation button 308, a power switch 309, and a bus. Line 310, network I / F311 and CMOS (Complementary Metal Switch Sensor) sensor 312, image pickup element I / F313, microphone 314, speaker 315, sound input / output I / F316, display I / F317, and so on. It includes an external device connection I / F 318, a short-range communication circuit 319, and an antenna 319a of the short-range communication circuit 319. Of these, the CPU 301 controls the operation of the entire video conferencing terminal 3. The ROM 302 stores a program used to drive the CPU 301 such as an IPL. The RAM 303 is used as a work area of the CPU 301. The flash memory 304 stores various data such as a communication program, image data, and sound data. The SSD 305 controls reading or writing of various data to the flash memory 304 according to the control of the CPU 301. An HDD may be used instead of the SSD. The media I / F 307 controls reading or writing (storage) of data to the recording medium 306 such as a flash memory. The operation button 308 is a button that is operated when selecting a destination of the video conferencing terminal 3. The power switch 309 is a switch for switching the power ON / OFF of the video conferencing terminal 3.

また、ネットワークI/F311は、インターネット等の通信ネットワーク10を利用してデータ通信をするためのインターフェースである。CMOSセンサ312は、CPU301の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F313は、CMOSセンサ312の駆動を制御する回路である。マイク314は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F316は、CPU301の制御に従ってマイク314およびスピーカ315との間で音信号の入出力を処理する回路である。ディスプレイI/F317は、CPU301の制御に従って外付けのディスプレイ320(表示部の一例)に画像データを送信する回路である。外部機器接続I/F318は、各種の外部機器を接続するためのインターフェースである。近距離通信回路319は、NFC、Bluetooth等の通信回路である。 Further, the network I / F311 is an interface for data communication using a communication network 10 such as the Internet. The CMOS sensor 312 is a kind of built-in imaging means that images a subject and obtains image data under the control of the CPU 301. The image sensor I / F 313 is a circuit that controls the drive of the CMOS sensor 312. The microphone 314 is a kind of built-in sound collecting means for inputting voice. The sound input / output I / F 316 is a circuit that processes sound signal input / output between the microphone 314 and the speaker 315 under the control of the CPU 301. The display I / F 317 is a circuit that transmits image data to an external display 320 (an example of a display unit) under the control of the CPU 301. The external device connection I / F 318 is an interface for connecting various external devices. The short-range communication circuit 319 is a communication circuit such as NFC or Bluetooth.

また、バスライン310は、図3に示されているCPU301等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the bus line 310 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 301 shown in FIG.

ディスプレイ320は、被写体の画像や操作用アイコン等を表示する液晶や有機ELによって構成された表示部(表示手段)の一種である。また、ディスプレイ320は、ケーブル320cによってディスプレイI/F317に接続される。このケーブル320cは、アナログRGB(VGA)信号用のケーブルであってもよいし、コンポーネントビデオ用のケーブルであってもよいし、DisplayPort、HDMI(登録商標)(High−Definition Multimedia Interface)またはDVI(Digital Video Interactive)信号用のケーブルであってもよい。 The display 320 is a kind of display unit (display means) composed of a liquid crystal or an organic EL for displaying an image of a subject, an operation icon, and the like. Further, the display 320 is connected to the display I / F 317 by a cable 320c. The cable 320c may be a cable for analog RGB (VGA) signals, a cable for component video, DisplayPort, HDMI® (High-Definition Multimedia Interface) or DVI ( It may be a cable for a Digital Visual Interface) signal.

なお、CMOSセンサ312ではなく、CCD(Charge Coupled Device)センサ等の撮像素子であってもよい。外部機器接続I/F318には、USBケーブル等によって、外付けカメラ、外付けマイクおよび外付けスピーカ等の外部機器がそれぞれ接続可能である。外付けカメラが接続された場合には、CPU301の制御に従って、内蔵型のCMOSセンサ312に優先して、外付けカメラが駆動する。同じく、外付けマイクが接続された場合、または外付けスピーカが接続された場合には、CPU301の制御に従って、それぞれが内蔵型のマイク314または内蔵型のスピーカ315に優先して、外付けマイクまたは外付けスピーカが駆動する。 Instead of the CMOS sensor 312, it may be an image sensor such as a CCD (Charge Coupled Device) sensor. External devices such as an external camera, an external microphone, and an external speaker can be connected to the external device connection I / F318 by a USB cable or the like. When an external camera is connected, the external camera is driven in preference to the built-in CMOS sensor 312 according to the control of the CPU 301. Similarly, when an external microphone is connected, or when an external speaker is connected, the external microphone or the external speaker is given priority over the built-in microphone 314 or the built-in speaker 315, respectively, according to the control of the CPU 301. The external speaker is driven.

また、記録メディア306は、ビデオ会議端末3に対して着脱自在な構成となっている。また、CPU301の制御にしたがってデータの読み出しまたは書き込みを行う不揮発性メモリであれば、フラッシュメモリ304に限らず、EEPROM等を用いてもよい。 Further, the recording medium 306 has a structure that is detachable from the video conferencing terminal 3. Further, as long as it is a non-volatile memory that reads or writes data under the control of the CPU 301, not only the flash memory 304 but also an EEPROM or the like may be used.

<カーナビゲーション装置のハードウェア構成>
図4は、実施形態に係るカーナビゲーション装置のハードウェア構成の一例を示す図である。図4に示されているように、カーナビゲーション装置4は、CPU401と、ROM402と、RAM403と、EEPROM404と、電源スイッチ405と、加速度・方位センサ406と、メディアI/F408と、GPS受信部409と、を備えている。
<Hardware configuration of car navigation device>
FIG. 4 is a diagram showing an example of the hardware configuration of the car navigation device according to the embodiment. As shown in FIG. 4, the car navigation device 4 includes a CPU 401, a ROM 402, a RAM 403, an EEPROM 404, a power switch 405, an acceleration / orientation sensor 406, a media I / F 408, and a GPS receiver 409. And have.

これらのうち、CPU401は、カーナビゲーション装置4全体の動作を制御する。ROM402は、IPL等のCPU401の駆動に用いられるプログラムを記憶する。RAM403は、CPU401のワークエリアとして使用される。EEPROM404は、CPU401の制御にしたがって、カーナビゲーション装置4用プログラム等の各種データの読み出しまたは書き込みを行う。電源スイッチ405は、カーナビゲーション装置4の電源のON/OFFを切り換えるためのスイッチである。加速度・方位センサ406は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F408は、フラッシュメモリ等の記録メディア407に対するデータの読み出しまたは書き込み(記憶)を制御する。GPS受信部409は、GPS衛星からGPS信号を受信する。 Of these, the CPU 401 controls the operation of the entire car navigation device 4. The ROM 402 stores a program used to drive the CPU 401 such as an IPL. The RAM 403 is used as a work area for the CPU 401. The EEPROM 404 reads or writes various data such as a program for the car navigation device 4 under the control of the CPU 401. The power switch 405 is a switch for switching the power ON / OFF of the car navigation device 4. The acceleration / orientation sensor 406 is a variety of sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor that detect the geomagnetism. The media I / F 408 controls reading or writing (storage) of data to a recording medium 407 such as a flash memory. The GPS receiving unit 409 receives a GPS signal from a GPS satellite.

また、カーナビゲーション装置4は、遠距離通信回路411と、遠距離通信回路411のアンテナ411aと、CMOSセンサ412と、撮像素子I/F413と、マイク414と、スピーカ415と、音入出力I/F416と、ディスプレイ417(表示部の一例)と、ディスプレイI/F418と、外部機器接続I/F419と、近距離通信回路420と、近距離通信回路420のアンテナ420aと、を備えている。 Further, the car navigation device 4 includes a long-distance communication circuit 411, an antenna 411a of the long-distance communication circuit 411, a CMOS sensor 412, an image pickup element I / F 413, a microphone 414, a speaker 415, and a sound input / output I / output. It includes an F416, a display 417 (an example of a display unit), a display I / F418, an external device connection I / F419, a short-range communication circuit 420, and an antenna 420a of the short-range communication circuit 420.

これらのうち、遠距離通信回路411は、車外のインフラから提供される渋滞情報、道路工事情報、交通事故情報等を受信し、逆に、自車位置や緊急時の救命信号等を外部へ発信するための回路である。外部のインフラは、例えば、VICS(登録商標)(Vehicle Information and Communication System)システム等の道路情報案内システムである。CMOSセンサ412は、CPU401の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F413は、CMOSセンサ412の駆動を制御する回路である。マイク414は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F416は、CPU401の制御に従ってマイク414およびスピーカ415との間で音信号の入出力を処理する回路である。ディスプレイ417は、被写体の画像や各種アイコン等を表示する液晶や有機EL等の表示部(表示手段)の一種であり、タッチパネルの機能を有している。タッチパネルは、利用者がカーナビゲーション装置4を操作するための入力手段の一種である。ディスプレイI/F418は、ディスプレイ417に画像を表示させる回路である。外部機器接続I/F419は、各種の外部機器を接続するためのインターフェースである。近距離通信回路420は、NFCやBluetooth等の通信回路である。また、カーナビゲーション装置4は、バスライン410を備えている。バスライン410は、図4に示されているCPU401等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Of these, the long-distance communication circuit 411 receives congestion information, road construction information, traffic accident information, etc. provided from the infrastructure outside the vehicle, and conversely transmits the vehicle position, emergency lifesaving signal, etc. to the outside. It is a circuit to do. The external infrastructure is, for example, a road information guidance system such as a VICS (registered trademark) (Vehicle Information and Communication System) system. The CMOS sensor 412 is a kind of built-in imaging means that images a subject and obtains image data under the control of the CPU 401. The image sensor I / F 413 is a circuit that controls the drive of the CMOS sensor 412. The microphone 414 is a kind of built-in sound collecting means for inputting voice. The sound input / output I / F 416 is a circuit that processes sound signal input / output between the microphone 414 and the speaker 415 under the control of the CPU 401. The display 417 is a kind of display unit (display means) such as a liquid crystal or an organic EL for displaying an image of a subject, various icons, and the like, and has a touch panel function. The touch panel is a kind of input means for the user to operate the car navigation device 4. The display I / F 418 is a circuit for displaying an image on the display 417. The external device connection I / F419 is an interface for connecting various external devices. The short-range communication circuit 420 is a communication circuit such as NFC or Bluetooth. Further, the car navigation device 4 includes a bus line 410. The bus line 410 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 401 shown in FIG.

<PC、サーバのハードウェア構成>
図5は、実施形態に係るPCおよびサーバのハードウェア構成の一例を示す図である。PC5は、コンピュータによって構築されており、図5に示されているように、CPU501と、ROM502と、RAM503と、HD504と、HDD(Hard Disk Drive)コントローラ505と、メディアI/F507と、ディスプレイ508(表示部の一例)と、ネットワークI/F509と、キーボード511と、マウス512と、CD−RWドライブ514と、スピーカ515と、バスライン510と、を備えている。
<Hardware configuration of PC and server>
FIG. 5 is a diagram showing an example of the hardware configuration of the PC and the server according to the embodiment. The PC 5 is constructed by a computer, and as shown in FIG. 5, the CPU 501, the ROM 502, the RAM 503, the HD 504, the HDD (Hard Disk Drive) controller 505, the media I / F 507, and the display 508. (An example of a display unit), a network I / F 509, a keyboard 511, a mouse 512, a CD-RW drive 514, a speaker 515, and a bus line 510 are provided.

これらのうち、CPU501は、PC5全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出しまたは書き込みを制御する。メディアI/F507は、フラッシュメモリ等の記録メディア506に対するデータの読み出しまたは書き込み(記憶)を制御する。ディスプレイ508は、カーソル、メニュー、ウインドウ、文字または画像等の各種情報を表示する。ディスプレイ508は、表示部(表示手段)の一例である。ネットワークI/F509は、通信ネットワーク10を利用してデータ通信をするためのインターフェースである。キーボード511は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。マウス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動等を行う入力手段の一種である。CD−RWドライブ514は、着脱可能な記録媒体の一例としてのCD−RW(Compact Disc−ReWritable)513に対する各種データの読み出しまたは書き込みを制御する。スピーカ515は、CPU501の制御に従って音信号の出力を行う。 Of these, the CPU 501 controls the operation of the entire PC 5. The ROM 502 stores a program used to drive the CPU 501 such as an IPL. The RAM 503 is used as a work area of the CPU 501. The HD504 stores various data such as programs. The HDD controller 505 controls reading or writing of various data to the HD 504 according to the control of the CPU 501. The media I / F 507 controls reading or writing (storage) of data to a recording medium 506 such as a flash memory. The display 508 displays various information such as cursors, menus, windows, characters or images. The display 508 is an example of a display unit (display means). The network I / F 509 is an interface for performing data communication using the communication network 10. The keyboard 511 is a kind of input means including a plurality of keys for inputting characters, numerical values, various instructions, and the like. The mouse 512 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The CD-RW drive 514 controls reading or writing of various data to a CD-RW (Compact Disk-Rewritable) 513 as an example of a removable recording medium. The speaker 515 outputs a sound signal according to the control of the CPU 501.

また、PC5は、バスライン510を備えている。バスライン510は、図5に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスおよびデータバス等である。 The PC 5 also includes a bus line 510. The bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501 shown in FIG.

また、共用支援サーバ6は、コンピュータによって構築されており、図5に示されているように、CPU601と、ROM602と、RAM603と、HD604と、HDDコントローラ605と、記録メディア606と、メディアI/F607と、ディスプレイ608と、ネットワークI/F609と、キーボード611と、マウス612と、CD−RWドライブ614と、バスライン610と、を備えている。これらは、それぞれPC5におけるCPU501、ROM502、RAM503、HD504、HDDコントローラ505、記録メディア506、メディアI/F507、ディスプレイ508、ネットワークI/F509、キーボード511、マウス512、CD−RWドライブ514およびバスライン510と同様の構成である。 Further, the shared support server 6 is constructed by a computer, and as shown in FIG. 5, the CPU 601 and the ROM 602, the RAM 603, the HD 604, the HDD controller 605, the recording media 606, and the media I / It includes an F607, a display 608, a network I / F609, a keyboard 611, a mouse 612, a CD-RW drive 614, and a bus line 610. These are CPU 501, ROM 502, RAM 503, HD 504, HDD controller 505, recording media 506, media I / F 507, display 508, network I / F 509, keyboard 511, mouse 512, CD-RW drive 514 and bus line 510 in PC5, respectively. It has the same configuration as.

さらに、スケジュール管理サーバ8は、コンピュータによって構築されており、図5に示されているように、CPU801と、ROM802と、RAM803と、HD804と、HDDコントローラ805と、記録メディア806と、メディアI/F807と、ディスプレイ808と、ネットワークI/F809と、キーボード811と、マウス812と、CD−RWドライブ814と、バスライン810と、を備えている。これらは、それぞれPC5におけるCPU501、ROM502、RAM503、HD504、HDDコントローラ505、記録メディア506、メディアI/F507、ディスプレイ508、ネットワークI/F509、キーボード511、マウス512、CD−RWドライブ514およびバスライン510と同様の構成である。 Further, the schedule management server 8 is constructed by a computer, and as shown in FIG. 5, the CPU 801 and the ROM 802, the RAM 803, the HD 804, the HDD controller 805, the recording media 806, and the media I / It includes an F807, a display 808, a network I / F809, a keyboard 811, a mouse 812, a CD-RW drive 814, and a bus line 810. These are CPU 501, ROM 502, RAM 503, HD 504, HDD controller 505, recording media 506, media I / F 507, display 508, network I / F 509, keyboard 511, mouse 512, CD-RW drive 514 and bus line 510 in PC5, respectively. It has the same configuration as.

また、音声テキスト変換サーバ9は、コンピュータによって構築されており、図5に示されているように、CPU901と、ROM902と、RAM903と、HD904と、HDDコントローラ905と、記録メディア906と、メディアI/F907と、ディスプレイ908と、ネットワークI/F909と、キーボード911と、マウス912と、CD−RWドライブ914と、バスライン910と、を備えている。これらは、それぞれPC5におけるCPU501、ROM502、RAM503、HD504、HDDコントローラ505、記録メディア506、メディアI/F507、ディスプレイ508、ネットワークI/F509、キーボード511、マウス512、CD−RWドライブ514およびバスライン510と同様の構成である。 Further, the voice-to-text conversion server 9 is constructed by a computer, and as shown in FIG. 5, the CPU 901, the ROM 902, the RAM 903, the HD 904, the HDD controller 905, the recording medium 906, and the media I It includes a / F907, a display 908, a network I / F909, a keyboard 911, a mouse 912, a CD-RW drive 914, and a bus line 910. These are CPU 501, ROM 502, RAM 503, HD 504, HDD controller 505, recording media 506, media I / F 507, display 508, network I / F 509, keyboard 511, mouse 512, CD-RW drive 514 and bus line 510 in PC5, respectively. It has the same configuration as.

なお、上記各プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。記録媒体の例として、CD−R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、ブルーレイディスク、SDカード等が挙げられる。また、記録媒体は、プログラム製品(Program Product)として、国内または国外へ提供されることができる。 Each of the above programs may be a file in an installable format or an executable format, and may be recorded and distributed on a computer-readable recording medium. Examples of the recording medium include a CD-R (Compact Disk Recordable), a DVD (Digital Versaille Disk), a Blu-ray disc, an SD card, and the like. In addition, the recording medium can be provided domestically or internationally as a program product (Program Product).

さらに、共用支援サーバ6は、単一のコンピュータによって構築されてもよいし、各部(機能、手段または記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。スケジュール管理サーバ8および音声テキスト変換サーバ9についても同様である。 Further, the shared support server 6 may be constructed by a single computer, or may be constructed by a plurality of computers arbitrarily assigned by dividing each unit (function, means or storage unit). The same applies to the schedule management server 8 and the voice-to-text conversion server 9.

(電子黒板のソフトウェア構成)
続いて、図6を用いて、電子黒板2にインストールされるコンピュータソフトウェアについて説明する。ここで、コンピュータソフトウェア(以下、ソフトウェアと称する)とは、コンピュータの動作に関するプログラム、その他コンピュータによる処理の用に供する情報であってプログラムに準ずるものである。プログラムとは、コンピュータに対する指令であって、一の結果を得ることができるように組み合わせたものをいう。また、プログラムに準ずるものとは、コンピュータに対する直接の指令ではないためプログラムとは呼べないが、コンピュータの処理を規定するという点でプログラムに類似する性質を有するものをいう。例えば、データ構造(データ要素間の相互関係で表される、データの有する論理的構造)がプログラムに準ずるものに該当する。
(Software configuration of electronic blackboard)
Subsequently, the computer software installed on the electronic blackboard 2 will be described with reference to FIG. Here, the computer software (hereinafter referred to as software) is a program related to the operation of the computer and other information used for processing by the computer, and is similar to the program. A program is a command to a computer that is combined so that one result can be obtained. In addition, a program-like thing cannot be called a program because it is not a direct command to the computer, but it has properties similar to a program in that it regulates the processing of the computer. For example, a data structure (a logical structure of data represented by an interrelationship between data elements) corresponds to a program.

また、アプリケーションとは、ソフトウェアの分類のうち、特定の処理を行うために使用されるソフトウェアの総称である。一方、オペレーティングシステム(以下、OSと称する)とは、コンピュータを制御し、アプリケーション等がコンピュータ資源を利用可能にするためのソフトウェアである。OSは、入出力の制御、メモリおよびハードディスク等のハードウェアの管理、プロセスの管理といった、コンピュータの基本的な管理・制御を行っている。アプリケーションは、OSが提供する機能を利用して動作する。 In addition, application is a general term for software used to perform a specific process in the classification of software. On the other hand, an operating system (hereinafter referred to as an OS) is software for controlling a computer and making computer resources available to applications and the like. The OS performs basic computer management and control such as input / output control, hardware management such as memory and hard disk, and process management. The application operates by using the function provided by the OS.

図6は、実施形態に係る電子黒板のソフトウェア構成の一例を示す図である。図6に示すように、OS101、Launcher102、スケジュールビューワ103a、ファイルビューワ103bおよびブラウザアプリ103cは、RAM203の作業領域15上で動作する。OS101は、電子黒板2の基本的な機能を提供し、電子黒板2の全体を管理する基本ソフトウェアである。 FIG. 6 is a diagram showing an example of the software configuration of the electronic blackboard according to the embodiment. As shown in FIG. 6, the OS 101, the Launcher 102, the schedule viewer 103a, the file viewer 103b, and the browser application 103c operate on the work area 15 of the RAM 203. OS101 is basic software that provides the basic functions of the electronic blackboard 2 and manages the entire electronic blackboard 2.

Launcher102は、OS101上で動作するランチャーアプリケーションである。Launcher102は、例えば、電子黒板2で実行される会議等のイベントの開始および終了の管理、またはイベントの実行中に利用するスケジュールビューワ103a、ファイルビューワ103bおよびブラウザアプリ103c等の外部アプリケーションの管理を行う。 Launcher 102 is a launcher application that runs on OS 101. The Launcher 102 manages, for example, the start and end of an event such as a conference executed on the electronic blackboard 2, or the management of external applications such as the schedule viewer 103a, the file viewer 103b, and the browser application 103c used during the execution of the event.

スケジュールビューワ103a、ファイルビューワ103bおよびブラウザアプリ103cは、Launcher102上で動作する外部アプリケーション(以下、特に区別する必要がないときは、外部アプリ103と称する)である。外部アプリ103は、Launcher102とは独立して処理が実行され、OS101上で提供されるサービスまたは機能を実行する。なお、図6は、スケジュールビューワ103a、ファイルビューワ103bおよびブラウザアプリ103cの三つの外部アプリが電子黒板2にインストールされている例を示すが、外部アプリの数は、これに限られない。 The schedule viewer 103a, the file viewer 103b, and the browser application 103c are external applications (hereinafter, referred to as an external application 103 when it is not necessary to distinguish them) that operate on the Launcher 102. The external application 103 executes the process independently of the Launcher 102, and executes the service or function provided on the OS 101. Note that FIG. 6 shows an example in which three external applications, a schedule viewer 103a, a file viewer 103b, and a browser application 103c, are installed on the electronic blackboard 2, but the number of external applications is not limited to this.

(PCのソフトウェア構成)
図7は、実施形態に係るPCのソフトウェア構成の一例を示す図である。図7を用いて、PC5にインストールされるコンピュータソフトウェアについて説明する。図7に示すように、OS5501、議事録アプリ5502aおよびブラウザ5502bは、RAM503の作業領域5500上で動作する。OS5501は、PC5の基本的な機能を提供し、PC5の全体を管理する基本ソフトウェアである。
(PC software configuration)
FIG. 7 is a diagram showing an example of the software configuration of the PC according to the embodiment. The computer software installed on the PC 5 will be described with reference to FIG. 7. As shown in FIG. 7, the OS5501, the minutes application 5502a and the browser 5502b operate on the work area 5500 of the RAM 503. OS5501 is basic software that provides the basic functions of the PC5 and manages the entire PC5.

議事録アプリ5502aおよびブラウザ5502bは、スケジュール管理サーバ8から送信された各種データを用いて、電子黒板2によって実行されたイベントの議事録である実行イベント履歴画面の生成および表示を行うためのアプリケーションである。なお、図7は、議事録アプリ5502aおよびブラウザ5502bの二つの外部アプリがPC5にインストールされている例を示すが、外部アプリの数は、これに限られない。なお、議事録アプリ5502aは、ブラウザ5502b上で実行されるWebアプリであってもよい。 The minutes application 5502a and the browser 5502b are applications for generating and displaying an execution event history screen which is a minutes of an event executed by the electronic blackboard 2 using various data transmitted from the schedule management server 8. is there. Note that FIG. 7 shows an example in which two external applications, the minutes application 5502a and the browser 5502b, are installed on the PC 5, but the number of external applications is not limited to this. The minutes application 5502a may be a Web application executed on the browser 5502b.

(共用システムの機能構成)
続いて、図8〜図15を用いて、本実施形態の機能構成について説明する。
(Functional configuration of shared system)
Subsequently, the functional configuration of the present embodiment will be described with reference to FIGS. 8 to 15.

図8は、実施形態に係る共用システムの機能ブロック図である。なお、図8では、図1に示されている各端末、装置、サーバのうち、後述の処理または動作に関連しているものが示されている。 FIG. 8 is a functional block diagram of the shared system according to the embodiment. Note that, in FIG. 8, among the terminals, devices, and servers shown in FIG. 1, those related to the processing or operation described later are shown.

<電子黒板の機能構成>
図8に示されているように、電子黒板2は、送受信部21と、受付部22と、画像処理部23−1と、音処理部23−2と、表示制御部24と、判断部25と、音制御部26と、取得・提供部28と、記憶・読出処理部29と、を有している。これら各部は、図2に示されている各構成要素のいずれかが、SSD204からRAM203上に展開されたプログラムに従ったCPU201からの命令によって動作することで実現される機能、または機能する手段である。また、電子黒板2は、図2に示されているRAM203、SSD204またはUSBメモリ2600によって構築される記憶部2000を有している。
<Functional configuration of electronic blackboard>
As shown in FIG. 8, the electronic blackboard 2 includes a transmission / reception unit 21, a reception unit 22, an image processing unit 23-1, a sound processing unit 23-2, a display control unit 24, and a determination unit 25. It has a sound control unit 26, an acquisition / provision unit 28, and a storage / reading processing unit 29. Each of these parts is a function or means of functioning that any of the components shown in FIG. 2 is operated by an instruction from the CPU 201 according to a program developed on the RAM 203 from the SSD 204. is there. Further, the electronic blackboard 2 has a storage unit 2000 constructed by the RAM 203, SSD 204 or USB memory 2600 shown in FIG.

<<電子黒板の各機能構成>>
次に、電子黒板2の各構成要素について説明する。送受信部21は、図2に示されているCPU201からの命令、並びにネットワークI/F205および外部機器接続I/F206によって実現され、通信ネットワーク10を介して他の端末、装置またはシステムと各種データ(または情報)の送受信を行う。
<< Each function configuration of the electronic blackboard >>
Next, each component of the electronic blackboard 2 will be described. The transmission / reception unit 21 is realized by the command from the CPU 201 shown in FIG. 2 and the network I / F205 and the external device connection I / F206, and various data (various data) with other terminals, devices or systems via the communication network 10. Or information) is sent and received.

受付部22は、主に、図2に示されているCPU201からの命令、並びに接触センサ214および電子ペンコントローラ216によって実現され、利用者による各種入力を受け付ける。 The reception unit 22 is mainly realized by the command from the CPU 201 shown in FIG. 2, the contact sensor 214, and the electronic pen controller 216, and receives various inputs by the user.

画像処理部23−1は、図2に示されているCPU201からの命令、およびキャプチャデバイス211によって実現され、ディスプレイ220上に表示されている画像データを保存する。また、画像処理部23−1は、図2に示されているCPU201からの命令、およびGPU212によって実現され、ディスプレイ220に画像を表示するための画像処理を行う。また、画像処理部23−1は、利用者によって電子ペン2500または手Hでディスプレイ220上に描画されることにより得た描画像データを座標データに変換する処理を行う。例えば、任意の拠点の電子黒板(2a)が、他の拠点の電子黒板(2b)に座標データを送信すると、電子黒板(2b)は、座標データに基づいて他の電子黒板(2b)側のディスプレイ220上に同じ内容の描画を表示する。さらに、画像処理部23−1は、カメラ2400が被写体を撮像して得た画像データに対しての画像処理を行う。 The image processing unit 23-1 stores the image data displayed on the display 220, which is realized by the command from the CPU 201 shown in FIG. 2 and the capture device 211. Further, the image processing unit 23-1 is realized by the command from the CPU 201 shown in FIG. 2 and the GPU 212, and performs image processing for displaying an image on the display 220. In addition, the image processing unit 23-1 performs a process of converting the drawn image data obtained by drawing on the display 220 with the electronic pen 2500 or the hand H by the user into coordinate data. For example, when the electronic blackboard (2a) of an arbitrary base transmits coordinate data to the electronic blackboard (2b) of another base, the electronic blackboard (2b) is on the side of the other electronic blackboard (2b) based on the coordinate data. The same drawing is displayed on the display 220. Further, the image processing unit 23-1 performs image processing on the image data obtained by the camera 2400 taking an image of the subject.

音処理部23−2は、図2に示されているCPU201からの命令によって実現され、マイク2200によって取得された利用者の音声を音声信号に変換し、音声信号に基づく音データに対して音声処理を行う。 The sound processing unit 23-2 is realized by the command from the CPU 201 shown in FIG. 2, converts the user's voice acquired by the microphone 2200 into a voice signal, and voices the sound data based on the voice signal. Perform processing.

表示制御部24は、図2に示されているCPU201からの命令、および図2に示されているディスプレイコントローラ213によって実現され、ディスプレイ220に描画像を表示させたり、Webブラウザを用いて共用支援サーバ6にアクセスして各種画面データを表示させたりする。具体的には、表示制御部24は、図6に示したOS101上で動作するLauncher102、および外部アプリ103を起動・実行することで、OS101が提供するAPI(Application Programming Interface)によって描画される各種画面を、ディスプレイ220に表示させる。 The display control unit 24 is realized by a command from the CPU 201 shown in FIG. 2 and a display controller 213 shown in FIG. 2, and displays a drawn image on the display 220 or supports sharing using a Web browser. Access the server 6 to display various screen data. Specifically, the display control unit 24 starts and executes the Launcher 102 running on the OS 101 shown in FIG. 6 and the external application 103, and various types of drawings are drawn by the API (Application Programming Interface) provided by the OS 101. The screen is displayed on the display 220.

判断部25は、図2に示されているCPU201からの命令によって実現され、各種判断を行う。 The determination unit 25 is realized by an instruction from the CPU 201 shown in FIG. 2 and makes various determinations.

音制御部26は、図2に示されているCPU201からの命令によって実現され、スピーカ2300から音信号を出力する機能である。音制御部26は、スピーカ2300から出力させる音データを設定し、設定した音データに係る音信号をスピーカ2300から出力することにより、音データを再生する。 The sound control unit 26 is a function realized by a command from the CPU 201 shown in FIG. 2 and outputs a sound signal from the speaker 2300. The sound control unit 26 sets the sound data to be output from the speaker 2300, and outputs the sound signal related to the set sound data from the speaker 2300 to reproduce the sound data.

取得・提供部28は、図2に示されているCPU201からの命令、並びに近距離通信回路219およびアンテナ219aによって実行され、ICカードまたはスマートフォン等の専有端末との間で、近距離通信により、データの取得および提供を行う。 The acquisition / provision unit 28 is executed by the instruction from the CPU 201 shown in FIG. 2 and the short-range communication circuit 219 and the antenna 219a, and is executed by the short-range communication with a dedicated terminal such as an IC card or a smartphone. Acquires and provides data.

記憶・読出処理部29は、図2に示されているCPU201からの命令およびSSD204によって実行され、記憶部2000に各種データを記憶したり、記憶部2000に記憶された各種データを読み出したりする処理を行う。さらに、記憶部2000には、他の電子黒板やビデオ会議端末との通信を行う際に受信される画像データおよび音データが、受信される度に上書き記憶される。このうち、上書きされる前の画像データによってディスプレイ220に画像が表示され、上書きされる前の音データによってスピーカ2300から音声が出力される。 The storage / reading processing unit 29 is executed by the instruction from the CPU 201 and SSD204 shown in FIG. 2, and is a process of storing various data in the storage unit 2000 and reading various data stored in the storage unit 2000. I do. Further, the storage unit 2000 overwrites and stores the image data and the sound data received when communicating with another electronic blackboard or the video conferencing terminal each time it is received. Of these, the image is displayed on the display 220 by the image data before being overwritten, and the sound is output from the speaker 2300 by the sound data before being overwritten.

なお、ビデオ会議端末3およびカーナビゲーション装置4は、電子黒板2と同様の機能を有するため、ここでは説明を省略する。 Since the video conferencing terminal 3 and the car navigation device 4 have the same functions as the electronic blackboard 2, the description thereof will be omitted here.

また、図8に示す電子黒板2の送受信部21、受付部22、画像処理部23−1、音処理部23−2、表示制御部24、判断部25、音制御部26、取得・提供部28および記憶・読出処理部29は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図8に示す電子黒板2で独立した機能のブロックとして図示した複数の機能のブロックを、1つの機能のブロックとして構成してもよい。一方、図8に示す電子黒板2で1つの機能のブロックが有する機能を複数に分割し、複数の機能のブロックとして構成するものとしてもよい。 Further, the transmission / reception unit 21, the reception unit 22, the image processing unit 23-1, the sound processing unit 23-2, the display control unit 24, the judgment unit 25, the sound control unit 26, and the acquisition / provision unit of the electronic blackboard 2 shown in FIG. The 28 and the storage / reading processing unit 29 conceptually show the functions, and are not limited to such a configuration. For example, a plurality of functional blocks illustrated as independent functional blocks on the electronic blackboard 2 shown in FIG. 8 may be configured as one functional block. On the other hand, in the electronic blackboard 2 shown in FIG. 8, the function of one function block may be divided into a plurality of functions and configured as a plurality of function blocks.

<PCの機能構成>
図8に示されているように、PC5は、送受信部51(第1送信部、送信部)と、受付部52と、表示制御部54と、生成部56と、音制御部58と、記憶・読出処理部59と、を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能または機能する手段である。また、PC5は、図5に示されているHD504により構築される記憶部5000を有している。
<Functional configuration of PC>
As shown in FIG. 8, the PC 5 stores the transmission / reception unit 51 (first transmission unit, transmission unit), the reception unit 52, the display control unit 54, the generation unit 56, the sound control unit 58, and the storage unit. -Has a read processing unit 59. Each of these parts is a function or a functioning means realized by operating any of the components shown in FIG. 5 by an instruction from the CPU 501 according to a program developed on the RAM 503 from the HD 504. .. Further, the PC 5 has a storage unit 5000 constructed by the HD 504 shown in FIG.

<<PCの各機能構成>>
次に、PC5の各構成要素について説明する。送受信部51は、図5に示されているCPU501からの命令およびネットワークI/F509によって実現され、通信ネットワーク10を介して他の端末、装置またはシステムと各種データ(または情報)の送受信を行う。
<< PC function configuration >>
Next, each component of the PC 5 will be described. The transmission / reception unit 51 is realized by the command from the CPU 501 and the network I / F 509 shown in FIG. 5, and transmits / receives various data (or information) to / from another terminal, device, or system via the communication network 10.

受付部52は、主に、図5に示されているCPU501からの命令、並びにキーボード511およびマウス512によって実現され、利用者による各種入力を受け付ける。 The reception unit 52 is mainly realized by the instructions from the CPU 501 shown in FIG. 5 and the keyboard 511 and the mouse 512, and receives various inputs by the user.

表示制御部54は、図5に示されているCPU501からの命令によって実現され、ディスプレイ508に画像を表示させたり、Webブラウザを用いて共用支援サーバ6にアクセスして各種画面データを表示させたりする。具体的には、表示制御部54は、例えば、図7に示したOS5501上で動作する議事録アプリ5502aまたはブラウザ5502bを起動・実行することで、共用支援サーバ6またはスケジュール管理サーバ8にアクセスする。そして、表示制御部54は、例えば、HTML(HyperText Markup Language)を少なくとも含み、CSS(Cascading Style Sheets)またはJavaScript(登録商標)等を含むWebAPP(WebApplication)をダウンロードし、そのWebAPPによって生成された各種画像データを、ディスプレイ508に表示させる。表示制御部54は、例えば、XML(Extensible Markup Language)、JSON(JavaScript Object Notation)またはSOAP(Simple Object Access Protocol)形式等のデータを含むHTML5によって生成された画像データを、ディスプレイ508に表示させる。 The display control unit 54 is realized by a command from the CPU 501 shown in FIG. 5, and displays an image on the display 508 or accesses the sharing support server 6 using a Web browser to display various screen data. To do. Specifically, the display control unit 54 accesses the shared support server 6 or the schedule management server 8 by, for example, starting and executing the minutes application 5502a or the browser 5502b running on the OS 5501 shown in FIG. .. Then, the display control unit 54 downloads, for example, HTML (HyperText Markup Language) and downloads WebAPP (WebApplication) including CSS (Cascading Style Sheets) or Javascript (registered trademark) and the like, and generates the WebAPP. The image data is displayed on the display 508. The display control unit 54 displays, for example, HTML5 (Extendable Markup Language), JSON (JavaScript Object Notification), SOAP (Simple Object Access Protocol) format, or the like.

生成部56は、図5に示されているCPU501からの命令によって実現され、ディスプレイ508に表示させる各種画像データを生成する機能である。生成部56は、送受信部51によって受信されたコンテンツデータを用いて、各種画像データを生成する。生成部56は、例えば、コンテンツデータであるテキストデータをレンダリングし、レンダリングされたデータを表示させるために、コンテンツ画像データであるテキストデータに係る画像データを生成する。レンダリングとは、Webページ記述用の言語(HTML、CSSまたはXML等)で記述されたデータを解釈し、実際に画面に表示される文字や画像データ等の配置を計算する処理である。生成部56は、生成手段の一例である。 The generation unit 56 is a function realized by a command from the CPU 501 shown in FIG. 5 and generates various image data to be displayed on the display 508. The generation unit 56 generates various image data using the content data received by the transmission / reception unit 51. The generation unit 56, for example, renders the text data which is the content data and generates the image data related to the text data which is the content image data in order to display the rendered data. Rendering is a process of interpreting data described in a language for describing a Web page (HTML, CSS, XML, etc.) and calculating the arrangement of characters, image data, and the like actually displayed on the screen. The generation unit 56 is an example of the generation means.

音制御部58は、図5に示されているCPU501からの命令によって実現され、スピーカ515から音信号を出力する機能である。音制御部58は、スピーカ515から出力させる音データを設定し、設定した音データに係る音信号をスピーカ515から出力することにより、音データを再生する。音制御部58は、再生手段の一例である。 The sound control unit 58 is a function realized by a command from the CPU 501 shown in FIG. 5 and outputs a sound signal from the speaker 515. The sound control unit 58 sets the sound data to be output from the speaker 515, and outputs the sound signal related to the set sound data from the speaker 515 to reproduce the sound data. The sound control unit 58 is an example of the reproduction means.

記憶・読出処理部59は、図5に示されているCPU501からの命令、およびHDDコントローラ505等によって実行され、記憶部5000に各種データを記憶したり、記憶部5000から各種データを読み出したりする処理を行う。 The storage / reading processing unit 59 is executed by an instruction from the CPU 501 shown in FIG. 5 and an HDD controller 505 or the like to store various data in the storage unit 5000 or read various data from the storage unit 5000. Perform processing.

なお、図8に示すPC5の送受信部51、受付部52、表示制御部54、生成部56、音制御部58および記憶・読出処理部59は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図8に示すPC5で独立した機能のブロックとして図示した複数の機能のブロックを、1つの機能のブロックとして構成してもよい。一方、図8に示すPC5で1つの機能のブロックが有する機能を複数に分割し、複数の機能のブロックとして構成するものとしてもよい。 The transmission / reception unit 51, the reception unit 52, the display control unit 54, the generation unit 56, the sound control unit 58, and the storage / reading processing unit 59 of the PC 5 shown in FIG. 8 conceptually show the functions. It is not limited to such a configuration. For example, a block of a plurality of functions shown as a block of an independent function in the PC 5 shown in FIG. 8 may be configured as a block of one function. On the other hand, in the PC 5 shown in FIG. 8, the function of one function block may be divided into a plurality of functions and configured as a plurality of function blocks.

<共用支援サーバの機能構成>
共用支援サーバ6は、送受信部61、認証部62、作成部63、生成部64、判断部65および記憶・読出処理部69を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD604からRAM603上に展開された共用支援用プログラムに従ったCPU601からの命令によって動作することで実現される機能または機能する手段である。また、共用支援サーバ6は、図5に示されているHD604等により構築される記憶部6000を有している。
<Functional configuration of shared support server>
The shared support server 6 has a transmission / reception unit 61, an authentication unit 62, a creation unit 63, a generation unit 64, a determination unit 65, and a storage / reading processing unit 69. Each of these parts functions or functions as any of the components shown in FIG. 5 operates by an instruction from the CPU 601 according to the sharing support program developed on the RAM 603 from the HD 604. It is a means. Further, the shared support server 6 has a storage unit 6000 constructed by the HD 604 or the like shown in FIG.

<<利用者認証管理テーブル>>
図9(A)は、利用者認証管理テーブルを示す概念図である。記憶部6000には、図9(A)に示されているような利用者認証管理テーブルによって構成されている利用者認証管理DB6001が構築されている。この利用者認証管理テーブルでは、利用者を識別するための利用者ID、利用者名、利用者が属する組織を識別するための組織IDおよびパスワードが関連付けられて管理されている。なお、組織IDには、通信ネットワーク上の複数のコンピュータを管理するためのグループや組織を表すドメイン名も含まれる。
<< User Authentication Management Table >>
FIG. 9A is a conceptual diagram showing a user authentication management table. In the storage unit 6000, a user authentication management DB 6001 configured by a user authentication management table as shown in FIG. 9A is constructed. In this user authentication management table, a user ID for identifying a user, a user name, an organization ID for identifying an organization to which the user belongs, and a password are associated and managed. The organization ID also includes a domain name representing a group or organization for managing a plurality of computers on a communication network.

<<アクセス管理テーブル>>
図9(B)は、アクセス管理テーブルを示す概念図である。記憶部6000には、図9(B)に示されているようなアクセス管理テーブルによって構成されているアクセス管理DB6002が構築されている。このアクセス管理テーブルでは、組織ID、スケジュール管理サーバ8へアクセスする際の認証に必要なアクセスIDおよびアクセスパスワードが関連付けられて管理されている。このアクセスIDおよびアクセスパスワードは、共用支援サーバ6が、HTTP(Hypertext Transfer Protocol)またはHTTPS(Hypertext Transfer Protocol Secure)のプロトコルを用いて、WebAPI等を介して、スケジュール管理サーバ8によって提供されるサービス(機能)を利用するために必要である。スケジュール管理サーバ8は、複数のスケジューラを管理しており、組織が異なれば使用するスケジューラも異なることがあるため、アクセス管理テーブルで管理が必要である。
<< Access control table >>
FIG. 9B is a conceptual diagram showing an access management table. In the storage unit 6000, an access management DB 6002 configured by an access management table as shown in FIG. 9B is constructed. In this access management table, the organization ID, the access ID required for authentication when accessing the schedule management server 8, and the access password are associated and managed. The access ID and access password are provided by the shared support server 6 by the schedule management server 8 via WebAPI or the like using the protocol of HTTP (Hypertext Transfer Protocol) or HTTPS (Hypertext Transfer Protocol). It is necessary to use the function). The schedule management server 8 manages a plurality of schedulers, and the schedulers used may differ depending on the organization. Therefore, it is necessary to manage the schedule management server 8 using the access management table.

<<予定管理テーブル>>
図9(C)は、予定管理テーブルを示す概念図である。記憶部6000には、図9(C)に示されているような予定管理テーブルによって構成されている予定管理DB6003が構築されている。この予定管理テーブルでは、予定イベントIDおよび実行イベントID毎に、組織ID、予約者の利用者ID、この予約者の参加の有無、予約者名、開始予定時刻、終了予定時刻、イベント名、他の参加者の利用者ID、この他の参加者の参加の有無、他の参加者名およびファイルデータが関連付けられて管理されている。
<< Schedule management table >>
FIG. 9C is a conceptual diagram showing a schedule management table. In the storage unit 6000, a schedule management DB 6003 composed of a schedule management table as shown in FIG. 9C is constructed. In this schedule management table, for each scheduled event ID and execution event ID, the organization ID, the user ID of the reservation person, the presence / absence of participation of this reservation person, the reservation person name, the scheduled start time, the scheduled end time, the event name, etc. The user ID of the participant, the presence / absence of participation of other participants, the names of other participants, and the file data are associated and managed.

これらのうち、予定イベントIDは、予約されたイベントを識別するための識別情報である。予定イベントIDは、実行予定のイベントを識別するための予定イベント識別情報の一例である。実行イベントIDは、予約されたイベントのうち実際に実行されたイベントまたは実行されているイベントを識別するための識別情報である。実行イベントIDは、実行されたイベントまたは実行されているイベントを識別するための実行イベント識別情報の一例である。予約者名は、共用体を予約した者の名前であり、共用体が会議室の場合は例えば主催者の名前であり、共用体が車両の場合は例えば運転者の名前である。開始予定時刻は、共用体の利用開始予定時刻を示している。終了予定時刻は、共用体の利用終了予定時刻を示している。イベント名は、予約者が実行予定のイベントの名称を示している。他の参加者の利用者IDは、予約者以外の参加者を識別するための識別情報である。他の参加者名は、予約者以外の参加者の名前であり、共用体も含まれる。つまり、この場合の利用者には、予約者および他の参加者のほか、共用体も含まれる。ファイルデータは、後述するスケジュール入力画面550(図20参照)を用いて利用者Aによって登録された、予定イベントIDに対応するイベントで用いる資料ファイルのファイルデータである。また、ファイルデータは、各種アプリケーションを用いて作成された所定のファイル形式のデータである。ファイルデータのファイル形式は、例えば、パワーポイントファイル、エクセルファイル等である。 Of these, the scheduled event ID is identification information for identifying a reserved event. The scheduled event ID is an example of scheduled event identification information for identifying an event scheduled to be executed. The execution event ID is identification information for identifying an event that is actually executed or an event that is being executed among the reserved events. The execution event ID is an example of execution event identification information for identifying an executed event or an executed event. The reservation person's name is the name of the person who reserved the union, for example, the name of the organizer when the union is a conference room, and the name of the driver, for example, when the union is a vehicle. The scheduled start time indicates the scheduled start time of the union. The scheduled end time indicates the scheduled end time of use of the union. The event name indicates the name of the event scheduled to be executed by the reservation person. The user IDs of other participants are identification information for identifying participants other than the reservation person. Other participant names are the names of participants other than the booker, and include unions. That is, the users in this case include unions as well as reservations and other participants. The file data is the file data of the material file used in the event corresponding to the scheduled event ID registered by the user A using the schedule input screen 550 (see FIG. 20) described later. The file data is data in a predetermined file format created by using various applications. The file format of the file data is, for example, a PowerPoint file, an Excel file, or the like.

<<コンテンツ管理テーブル>>
図10(A)は、コンテンツ管理テーブルを示す概念図である。記憶部6000には、図10に示されているようなコンテンツ管理テーブルによって構成されているコンテンツ管理DB6005が構築されている。このコンテンツ管理テーブルでは、実行イベントID毎に、コンテンツ処理ID、コンテンツ処理の種類、コンテンツの内容、並びにコンテンツ処理の開始日時および終了日時が関連付けられて管理されている。ここで、コンテンツは、会議等のイベントで発生した実行イベントの内容、または当該イベントで用いた資料等である。コンテンツ処理の種類には、録音、スナップショット、音声テキスト変換、アクションアイテムの発生および資料送付等が含まれる。また、コンテンツ処理IDは、各イベントで発生したコンテンツの処理を識別するための識別情報である。
<< Content management table >>
FIG. 10A is a conceptual diagram showing a content management table. In the storage unit 6000, a content management DB 6005 composed of a content management table as shown in FIG. 10 is constructed. In this content management table, the content processing ID, the type of content processing, the content of the content, and the start date and time and the end date and time of the content processing are managed in association with each execution event ID. Here, the content is the content of an execution event that occurred in an event such as a meeting, or the material used in the event. Types of content processing include recording, snapshots, voice-to-text conversion, action item generation, and material delivery. Further, the content processing ID is identification information for identifying the processing of the content generated in each event.

ここで、コンテンツには、イベントの実行内容を示す履歴情報と、実行されたイベントによって生じたアクションアイテムとが含まれている。履歴情報は、録音データ、スナップショット、音声テキストまたは資料等のデータである。スナップショットとは、実行中のイベントのある時点における表示画面を画像データとして取得する処理である。なお、スナップショットは、例えば、キャプチャまたは画像認識とも称される。 Here, the content includes historical information indicating the execution content of the event and action items generated by the executed event. The history information is data such as recorded data, snapshots, voice texts or materials. A snapshot is a process of acquiring a display screen as image data at a certain point in time of an event being executed. Note that snapshots are also referred to as, for example, capture or image recognition.

コンテンツ処理の種類が「録音」である場合、コンテンツの内容は、録音された音データの保存先を示すURLを含む。また、コンテンツ処理の種類が「スナップショット」である場合、コンテンツの内容は、スナップショット(キャプチャ)によって取得された画面の画像データの保存先を示すURLを含む。キャプチャとは、ディスプレイ220に表示されている画像(静止画像、動画像)を、画像データとして保存することである。さらに、コンテンツ処理の種類が「音声テキスト変換」である場合、コンテンツの内容は、受信された音声テキストのテキストデータの保存先を示すURLを含む。 When the type of content processing is "recording", the content of the content includes a URL indicating a storage destination of the recorded sound data. When the type of content processing is "snapshot", the content of the content includes a URL indicating a save destination of the image data of the screen acquired by the snapshot (capture). The capture is to save the image (still image, moving image) displayed on the display 220 as image data. Further, when the type of content processing is "voice-text conversion", the content of the content includes a URL indicating a storage destination of the text data of the received voice text.

ここで、アクションアイテムは、会議等のイベントで発生し、イベントに関連する者が対応すべき行動の内容を示す。コンテンツ処理の種類が「アクションアイテム発生」である場合、コンテンツの内容は、アクションアイテムの実行者の利用者ID、アクションアイテムを完了させる期限日、およびアクションアイテムを示す画像データの保存先を示すURLを含む。 Here, the action item indicates the content of an action that occurs at an event such as a meeting and should be dealt with by a person related to the event. When the type of content processing is "action item occurrence", the content content is the user ID of the performer of the action item, the deadline date for completing the action item, and the URL indicating the storage destination of the image data indicating the action item. including.

<<話者情報管理テーブル>>
図10(B)は、話者情報管理テーブルを示す概念図である。記憶部6000には、図10(B)に示されているような話者情報管理テーブルによって構成されている話者情報管理DB6007が構築されている。この話者情報管理テーブルでは、利用者IDおよび話者IDが関連付けられて管理されている。ここで、話者IDは、会議等のイベントによって発生した音データの話者(speaker)を識別するための識別情報である。
<< Speaker Information Management Table >>
FIG. 10B is a conceptual diagram showing a speaker information management table. In the storage unit 6000, a speaker information management DB 6007 composed of a speaker information management table as shown in FIG. 10B is constructed. In this speaker information management table, the user ID and the speaker ID are managed in association with each other. Here, the speaker ID is identification information for identifying a speaker of sound data generated by an event such as a conference.

<<共用支援サーバの各機能構成>>
次に、共用支援サーバ6の各機能構成について詳細に説明する。なお、以下では、共用支援サーバ6の各機能構成を説明するにあたって、図5に示されている各構成要素のうち、共用支援サーバ6の各機能構成を実現させるための主な構成要素との関係も説明する。
<< Each function configuration of the shared support server >>
Next, each functional configuration of the shared support server 6 will be described in detail. In the following description of each functional configuration of the shared support server 6, among the constituent elements shown in FIG. 5, the main constituent elements for realizing each functional configuration of the shared support server 6 are used. The relationship is also explained.

図8に示されている共用支援サーバ6の送受信部61は、図5に示されているCPU601からの命令、および図5に示されているネットワークI/F609によって実現され、通信ネットワーク10を介して他の端末、装置またはシステムと各種データ(または情報)の送受信を行う。 The transmission / reception unit 61 of the shared support server 6 shown in FIG. 8 is realized by the instruction from the CPU 601 shown in FIG. 5 and the network I / F 609 shown in FIG. 5, and is realized via the communication network 10. Sends and receives various data (or information) to and from other terminals, devices, or systems.

認証部62は、図5に示されているCPU601からの命令によって実現され、通信端末から送られて来る情報(利用者ID、組織IDおよびパスワード)が、利用者認証管理DB6001に予め登録されている情報であるかを判断することで、認証を行う。 The authentication unit 62 is realized by the command from the CPU 601 shown in FIG. 5, and the information (user ID, organization ID and password) sent from the communication terminal is registered in the user authentication management DB 6001 in advance. Authentication is performed by determining whether the information is present.

作成部63は、図5に示されているCPU601からの命令によって実現され、スケジュール管理サーバ8から送られて来た予約情報および予定情報に基づいて、後述の図26に示されているような予約リスト画面230を作成する。 The creation unit 63 is realized by the instruction from the CPU 601 shown in FIG. 5, and is as shown in FIG. 26, which will be described later, based on the reservation information and the schedule information sent from the schedule management server 8. Create a reservation list screen 230.

生成部64は、図5に示されているCPU601からの命令によって実現され、実行イベントID、コンテンツ処理IDおよび保存先のURLを生成する。 The generation unit 64 is realized by the instruction from the CPU 601 shown in FIG. 5, and generates the execution event ID, the content processing ID, and the URL of the storage destination.

判断部65は、図5に示されているCPU601からの命令によって実現され、各種判断を行う。この判断については後述する。 The determination unit 65 is realized by an instruction from the CPU 601 shown in FIG. 5 and makes various determinations. This determination will be described later.

記憶・読出処理部69は、図5に示されているCPU601からの命令、および図5に示されているHDDコントローラ605によって実現され、記憶部6000に各種データを記憶したり、記憶部6000に記憶された各種データを読み出したりする処理を行う。 The storage / reading processing unit 69 is realized by the command from the CPU 601 shown in FIG. 5 and the HDD controller 605 shown in FIG. 5, and various data can be stored in the storage unit 6000 or stored in the storage unit 6000. Performs processing such as reading various stored data.

なお、図8に示す共用支援サーバ6の送受信部61、認証部62、作成部63、生成部64、判断部65および記憶・読出処理部69は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図8に示す共用支援サーバ6で独立した機能のブロックとして図示した複数の機能のブロックを、1つの機能のブロックとして構成してもよい。一方、図8に示す共用支援サーバ6で1つの機能のブロックが有する機能を複数に分割し、複数の機能のブロックとして構成するものとしてもよい。 The transmission / reception unit 61, the authentication unit 62, the creation unit 63, the generation unit 64, the judgment unit 65, and the storage / reading processing unit 69 of the shared support server 6 shown in FIG. 8 conceptually show the functions. , The configuration is not limited to this. For example, a block of a plurality of functions shown as a block of an independent function in the shared support server 6 shown in FIG. 8 may be configured as a block of one function. On the other hand, in the shared support server 6 shown in FIG. 8, the functions of one function block may be divided into a plurality of functions and configured as a plurality of function blocks.

<スケジュール管理サーバの機能構成>
スケジュール管理サーバ8は、送受信部81(第2送信部)と、認証部82と、生成部83と、検索部84と、記憶・読出処理部89(記憶処理部)と、を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD804からRAM803上に展開されたスケジュール管理用プログラムに従ったCPU801からの命令によって動作することで実現される機能または機能する手段である。また、スケジュール管理サーバ8は、図5に示されているHD804により構築される記憶部8000を有している。
<Functional configuration of schedule management server>
The schedule management server 8 has a transmission / reception unit 81 (second transmission unit), an authentication unit 82, a generation unit 83, a search unit 84, and a storage / reading processing unit 89 (memory processing unit). .. Each of these parts functions or functions as any of the components shown in FIG. 5 operates by an instruction from the CPU 801 according to a schedule management program developed on the RAM 803 from the HD 804. It is a means. Further, the schedule management server 8 has a storage unit 8000 constructed by the HD 804 shown in FIG.

<<利用者認証管理テーブル>>
図11(A)は、利用者認証管理テーブルを示す概念図である。記憶部8000には、図11(A)に示されているような利用者認証管理テーブルによって構成されている利用者認証管理DB8001が構築されている。この利用者認証管理テーブルでは、利用者を識別するための利用者IDに、利用者が属する組織を識別するための組織IDおよびパスワードが関連付けられて管理されている。
<< User Authentication Management Table >>
FIG. 11A is a conceptual diagram showing a user authentication management table. In the storage unit 8000, a user authentication management DB 8001 composed of a user authentication management table as shown in FIG. 11A is constructed. In this user authentication management table, a user ID for identifying a user is managed by associating an organization ID and a password for identifying the organization to which the user belongs.

<<利用者管理テーブル>>
図11(B)は、利用者管理テーブルを示す概念図である。記憶部8000には、図11(B)に示されているような利用者管理テーブルによって構成されている利用者管理DB8002が構築されている。この利用者管理テーブルでは、組織ID毎に、利用者IDおよび利用者IDで示される利用者の名称(利用者名)が関連付けられて管理されている。
<< User management table >>
FIG. 11B is a conceptual diagram showing a user management table. In the storage unit 8000, a user management DB 8002 configured by a user management table as shown in FIG. 11B is constructed. In this user management table, the user ID and the user name (user name) indicated by the user ID are associated and managed for each organization ID.

<<共用体管理テーブル>>
図11(C)は、共用体管理テーブルを示す概念図である。記憶部8000には、図11(C)に示されているような共用体管理テーブルによって構成されている共用体管理DB8003が構築されている。この共用体管理テーブルでは、組織ID毎に、共用体を識別するための共用体IDおよび共用体の名称(共用体名)が関連付けられて管理されている。
<< Union management table >>
FIG. 11C is a conceptual diagram showing a union management table. In the storage unit 8000, a union management DB 8003 composed of a union management table as shown in FIG. 11C is constructed. In this union management table, a union ID for identifying a union and a union name (union name) are associated and managed for each organization ID.

<<共用体予約管理テーブル>>
図12(A)は、共用体予約管理テーブルを示す概念図である。記憶部8000には、図12(A)に示されているような共用体予約管理テーブルによって構成されている共用体予約管理DB8004が構築されている。この共用体予約管理テーブルでは、各情報が関連付けられた状態の予約情報が管理されている。予約情報には、組織ID毎に、共用体ID、共用体名、予約者の利用者ID、利用開始予定日時、利用終了予定日時およびイベント名が含まれている。これらのうち、利用開始予定日時は、共用体の利用開始予定日時を示している。利用終了予定日時は、共用体の利用終了予定日時を示している。各日時は、年・月・日・時・分・秒・タイムゾーンを示しているが、図12(A)では紙面の関係上、年・月・日・時・分まで表している。
<< Union reservation management table >>
FIG. 12A is a conceptual diagram showing a union reservation management table. In the storage unit 8000, a union reservation management DB 8004 configured by a union reservation management table as shown in FIG. 12A is constructed. In this union reservation management table, reservation information in a state in which each information is associated is managed. The reservation information includes a union ID, a union name, a user ID of the reservation person, a scheduled start date and time of use, a scheduled date and time of end of use, and an event name for each organization ID. Of these, the scheduled start date and time of use indicates the scheduled start date and time of use of the union. The scheduled end date and time of use indicates the scheduled end date and time of use of the union. Each date and time shows the year, month, day, hour, minute, second, and time zone, but in FIG. 12A, due to space limitations, the year, month, day, hour, and minute are also shown.

<<イベント管理テーブル>>
図12(B)は、イベント管理テーブルを示す概念図である。記憶部8000には、図12(B)に示されているようなイベント管理テーブルによって構成されているイベント管理DB8005が構築されている。このイベント管理テーブルでは、各情報が関連付けられた状態の予定情報が管理されている。予定情報には、予定イベントID毎に、組織ID、利用者ID、利用者名、イベント開始予定日時、イベント終了予定日時およびイベント名が関連付けられて管理されている。これらのうち、イベント開始予定日時は、イベントを実行する場合の開始予定日時を示している。イベント終了予定日時は、イベントの実行する場合の終了予定日時を示している。各日時は、年・月・日・時・分・秒・タイムゾーンを示しているが、図12(B)では紙面の関係上、年・月・日・時・分まで表している。また、イベント管理テーブルでは、予定イベントIDに関連付けて、予定情報に示されるイベントで使用される資料ファイルのファイルデータが管理されている。
<< Event Management Table >>
FIG. 12B is a conceptual diagram showing an event management table. In the storage unit 8000, an event management DB 8005 composed of an event management table as shown in FIG. 12B is constructed. In this event management table, schedule information in a state in which each information is associated is managed. The schedule information is managed by associating an organization ID, a user ID, a user name, an event start scheduled date and time, an event end scheduled date and time, and an event name for each scheduled event ID. Of these, the scheduled start date and time of the event indicates the scheduled start date and time when the event is executed. The scheduled end date and time of the event indicates the scheduled end date and time when the event is executed. Each date and time shows the year, month, day, hour, minute, second, and time zone, but in FIG. 12B, due to space limitations, the year, month, day, hour, and minute are also shown. Further, in the event management table, the file data of the material file used in the event shown in the schedule information is managed in association with the schedule event ID.

<<サーバ認証管理テーブル>>
図13(A)は、サーバ認証管理テーブルを示す概念図である。記憶部8000には、図13(A)に示されているようなサーバ認証管理テーブルによって構成されているサーバ認証管理DB8006が構築されている。このサーバ認証管理テーブルでは、アクセスIDおよびアクセスパスワードが関連付けられて管理されている。アクセスIDおよびアクセスパスワードは、共用支援サーバ6のアクセス管理DB6002で管理されているアクセスIDおよびアクセスパスワードと同じ概念である。
<< Server Authentication Management Table >>
FIG. 13A is a conceptual diagram showing a server authentication management table. In the storage unit 8000, a server authentication management DB 8006 configured by a server authentication management table as shown in FIG. 13A is constructed. In this server authentication management table, an access ID and an access password are associated and managed. The access ID and access password have the same concept as the access ID and access password managed by the access management DB 6002 of the shared support server 6.

<<実行イベント履歴管理テーブル>>
図13(B)は、実行イベント履歴管理テーブルを示す概念図である。記憶部8000には、図13(B)に示されているような実行イベント履歴管理テーブルによって構成されている実行イベント履歴管理DB8008が構築されている。この実行イベント履歴管理テーブルでは、実行イベントID毎に、コンテンツ処理ID、コンテンツ処理の種類、コンテンツの内容、並びにコンテンツ処理の開始日時および終了日時が関連付けられて管理されている。この実行イベント履歴管理DB8008は、コンテンツ管理DB6005と一部同じデータを管理している。同じデータは、実行イベントID、コンテンツ処理ID、コンテンツ処理の種類、コンテンツ処理の開始日時および終了日時である。コンテンツの内容は、コンテンツデ−タの保存先の表記方法(http://またはc://)が異なるのみで、保存先は同じである。
<< Execution event history management table >>
FIG. 13B is a conceptual diagram showing an execution event history management table. In the storage unit 8000, an execution event history management DB 8008 configured by an execution event history management table as shown in FIG. 13B is constructed. In this execution event history management table, the content processing ID, the type of content processing, the content of the content, and the start date and time and the end date and time of the content processing are managed in association with each execution event ID. The execution event history management DB 8008 manages a part of the same data as the content management DB 6005. The same data is the execution event ID, the content processing ID, the type of content processing, the start date and time and the end date and time of the content processing. The contents of the content are the same, except that the notation method (http: // or c: //) of the save destination of the content data is different.

<<実行イベント管理テーブル>>
図14(A)は、実行イベント管理テーブルを示す概念図である。記憶部8000には、図14(A)に示されているような実行イベント管理テーブルによって構成されている実行イベント管理DB8009が構築されている。この実行イベント管理テーブルでは、実行イベントIDに、イベント名、イベントの開始日時および終了日時が関連付けられて管理されている。この実行イベント管理DB8009は、イベント管理DB8005において管理されている予定情報のうち、実際に実行されたイベントに関する情報を管理している。
<< Execution event management table >>
FIG. 14A is a conceptual diagram showing an execution event management table. In the storage unit 8000, an execution event management DB 8009 configured by an execution event management table as shown in FIG. 14A is constructed. In this execution event management table, the event name, the start date and time of the event, and the end date and time are associated with the execution event ID and managed. The execution event management DB 8009 manages information related to an actually executed event among the schedule information managed in the event management DB 8005.

<<関連情報管理テーブル>>
図14(B)は、関連情報管理テーブルを示す概念図である。記憶部8000には、図14(B)に示されているような関連情報管理テーブルによって構成されている関連情報管理DB8010が構築されている。この関連情報管理テーブルでは、実行イベントID毎に、各情報(データ)が関連付けられた状態の関連情報が管理されている。関連情報には、コンテンツの発生時間帯、音データ、音声テキストデータおよび画面データが関連付けられて管理されている。コンテンツの発生時間帯は、実行されたイベントにおいてコンテンツが発生した時点における、イベントの開始日時からの経過時間を示す。ここで、コンテンツの発生時間帯は、イベント管理DB8005に記憶されたイベントの開始日時、および実行イベント履歴管理DB8008に記憶されたコンテンツ処理の開始日時および終了日時に基づいて、生成部83によって生成される。コンテンツの発生時間帯は、時間情報の一例である。また、音データには、コンテンツ処理IDおよびコンテンツの種類が含まれる。音声テキストデータおよび画面データには、コンテンツ処理ID、コンテンツの種類およびシーケンスNoが含まれる。シーケンスNoは、音声テキストデータおよび画面データのそれぞれにコンテンツ処理が発生した発生時間順を示す。
<< Related information management table >>
FIG. 14B is a conceptual diagram showing a related information management table. In the storage unit 8000, a related information management DB 8010 configured by a related information management table as shown in FIG. 14B is constructed. In this related information management table, related information in a state in which each information (data) is associated is managed for each execution event ID. The related information is managed in association with the time zone in which the content is generated, the sound data, the voice text data, and the screen data. The content occurrence time zone indicates the elapsed time from the start date and time of the event at the time when the content is generated in the executed event. Here, the content generation time zone is generated by the generation unit 83 based on the event start date and time stored in the event management DB 8005 and the content processing start date and time and end date and time stored in the execution event history management DB 8008. To. The time zone in which the content is generated is an example of time information. Further, the sound data includes a content processing ID and a content type. The voice text data and the screen data include a content processing ID, a content type, and a sequence number. The sequence No. indicates the order of occurrence time when the content processing occurs in each of the voice text data and the screen data.

<<テキスト情報管理テーブル>>
図15は、テキスト情報管理テーブルを示す概念図である。記憶部8000には、図15に示されているようなテキスト情報管理テーブルによって構成されているテキスト情報管理DB8012が構築されている。このテキスト情報管理テーブルでは、実行イベントID毎に、実行されたイベントにおいて生成された音声テキストデータを含むテキスト情報が管理されている。このテキスト情報には、コンテンツ処理ID、テキストデータを識別するためのテキストID、テキストデータの内容を示すtranscript、利用者IDおよびテキストデータの状態を示す状態情報が関連付けられている。このうち、コンテンツ処理IDは、コンテンツ処理の種類が「音声テキスト変換」であるコンテンツ処理を識別するものである。また、transcript(テキストデータ)は、テキスト情報として関連付けられたコンテンツ処理IDと同様のコンテンツ処理IDに、実行イベント履歴管理DB8008において関連付けられたコンテンツの内容を示すテキストデータである。さらに、状態情報は、テキストデータの編集の有無を示す情報である。状態情報には、関連付けられたテキストデータが音声テキスト変換サーバ9によって生成されたテキストデータから編集されていない場合、テキストデータが編集されていないことを示す「Original」の情報が示されている。
<< Text information management table >>
FIG. 15 is a conceptual diagram showing a text information management table. In the storage unit 8000, a text information management DB 8012 composed of a text information management table as shown in FIG. 15 is constructed. In this text information management table, text information including voice text data generated in the executed event is managed for each execution event ID. The text information is associated with a content processing ID, a text ID for identifying the text data, a transcrit indicating the content of the text data, a user ID, and state information indicating the state of the text data. Of these, the content processing ID identifies the content processing whose type of content processing is "speech-to-text conversion". Further, the transcript (text data) is text data indicating the content of the content associated with the content processing ID similar to the content processing ID associated with the text information in the execution event history management DB 8008. Further, the state information is information indicating whether or not the text data is edited. The state information indicates "Original" information indicating that the text data has not been edited when the associated text data has not been edited from the text data generated by the voice-to-text conversion server 9.

<<スケジュール管理サーバの各機能構成>>
次に、スケジュール管理サーバ8の各機能構成について詳細に説明する。なお、以下では、スケジュール管理サーバ8の各機能構成を説明するにあたって、図5に示されている各構成要素のうち、スケジュール管理サーバ8の各機能構成を実現させるための主な構成要素との関係も説明する。
<< Each function configuration of the schedule management server >>
Next, each functional configuration of the schedule management server 8 will be described in detail. In the following description of each functional configuration of the schedule management server 8, among the constituent elements shown in FIG. 5, the main constituent elements for realizing each functional configuration of the schedule management server 8 are used. The relationship is also explained.

図8に示されているスケジュール管理サーバ8の送受信部81は、図5に示されているCPU801からの命令、および図5に示されているネットワークI/F809によって実現され、通信ネットワーク10を介して他の端末、装置、またはシステムと各種データ(または情報)の送受信を行う。 The transmission / reception unit 81 of the schedule management server 8 shown in FIG. 8 is realized by the instruction from the CPU 801 shown in FIG. 5 and the network I / F809 shown in FIG. 5, and is realized via the communication network 10. Sends and receives various data (or information) to and from other terminals, devices, or systems.

認証部82は、図5に示されているCPU801からの命令によって実現され、共用体から送られて来る情報(利用者ID、組織IDおよびパスワード)が、利用者認証管理DB8001に予め登録されている情報であるかを判断することで、認証を行う。また、認証部82は、共用支援サーバ6から送られて来る情報(アクセスIDおよびアクセスパスワード)が、サーバ認証管理DB8006に予め登録されている情報であるかを判断することで、認証を行う。 The authentication unit 82 is realized by the command from the CPU 801 shown in FIG. 5, and the information (user ID, organization ID and password) sent from the common entity is registered in the user authentication management DB 8001 in advance. Authentication is performed by determining whether the information is present. Further, the authentication unit 82 authenticates by determining whether the information (access ID and access password) sent from the shared support server 6 is the information registered in advance in the server authentication management DB 8006.

生成部83は、図5に示されているCPU801からの命令によって実現され、関連情報管理DB8010に登録される関連情報を生成する機能である。 The generation unit 83 is a function of generating related information registered in the related information management DB 8010, which is realized by an instruction from the CPU 801 shown in FIG.

検索部84は、図5に示されているCPU801からの命令によって実現され、後述する図60に示す議事録検索画面590で入力されたキーワード、期間および発話者のうち少なくともいずれかを指定した検索条件に合致する議事録を検索する。例えば、キーワード、期間および発話者のうち少なくともキーワードおよび発話者により検索が必須であるものとしてもよい。 The search unit 84 is realized by a command from the CPU 801 shown in FIG. 5, and a search specifying at least one of a keyword, a period, and a speaker input on the minutes search screen 590 shown in FIG. 60, which will be described later. Search for minutes that match the conditions. For example, the search may be mandatory by at least the keyword and speaker among the keywords, period and speaker.

記憶・読出処理部89は、図5に示されているCPU801からの命令、および図5に示されているHDDコントローラ805によって実現され、記憶部8000に各種データを記憶したり、記憶部8000に記憶された各種データを読み出したりする処理を行う。 The storage / reading processing unit 89 is realized by the command from the CPU 801 shown in FIG. 5 and the HDD controller 805 shown in FIG. 5, and various data can be stored in the storage unit 8000 or stored in the storage unit 8000. Performs processing such as reading various stored data.

なお、図8に示すスケジュール管理サーバ8の送受信部81、認証部82、生成部83、検索部84および記憶・読出処理部89は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図8に示すスケジュール管理サーバ8で独立した機能のブロックとして図示した複数の機能のブロックを、1つの機能のブロックとして構成してもよい。一方、図8に示すスケジュール管理サーバ8で1つの機能のブロックが有する機能を複数に分割し、複数の機能のブロックとして構成するものとしてもよい。 The transmission / reception unit 81, the authentication unit 82, the generation unit 83, the search unit 84, and the storage / reading processing unit 89 of the schedule management server 8 shown in FIG. 8 conceptually show the functions as described above. It is not limited to the configuration. For example, a block of a plurality of functions shown as a block of an independent function in the schedule management server 8 shown in FIG. 8 may be configured as a block of one function. On the other hand, the schedule management server 8 shown in FIG. 8 may divide the function of one function block into a plurality of functions and configure the schedule management server 8 as a block of a plurality of functions.

<音声テキスト変換サーバの機能構成>
音声テキスト変換サーバ9は、送受信部91と、変換部93と、話者特定部95と、生成部97と、記憶・読出処理部99と、を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD904からRAM903上に展開されたプログラムに従ったCPU901からの命令によって動作することで実現される機能または機能する手段である。また、音声テキスト変換サーバ9は、図5に示されているHD904により構築される記憶部9000を有している。
<Functional configuration of voice-text conversion server>
The voice-text conversion server 9 includes a transmission / reception unit 91, a conversion unit 93, a speaker identification unit 95, a generation unit 97, and a storage / reading processing unit 99. Each of these parts is a function or a functioning means realized by operating any of the components shown in FIG. 5 by an instruction from the CPU 901 according to a program developed on the RAM 903 from the HD 904. .. Further, the voice-text conversion server 9 has a storage unit 9000 constructed by the HD904 shown in FIG.

<<利用者音声情報管理テーブル>>
図16は、利用者音声情報管理テーブルを示す概念図である。記憶部9000には、図16に示されているような利用者音声情報管理テーブルによって構成されている利用者音声情報管理DB9001が構築されている。この利用者音声情報管理テーブルでは、利用者を識別するための音声(voice)データである利用者音声データ、および話者IDが関連付けられて管理されている。利用者音声データには、電子黒板2等を用いて録音された利用者の声が記憶された音声ファイルが含まれている。音声テキスト変換サーバ9は、会議等のイベントによって発生した音データと利用者音声データとを用いて、当該音データの話者(speaker)を特定するための話者特定処理を実行する。
<< User voice information management table >>
FIG. 16 is a conceptual diagram showing a user voice information management table. In the storage unit 9000, a user voice information management DB 9001 configured by a user voice information management table as shown in FIG. 16 is constructed. In this user voice information management table, user voice data, which is voice data for identifying a user, and a speaker ID are managed in association with each other. The user voice data includes a voice file in which the voice of the user recorded using the electronic blackboard 2 or the like is stored. The voice-text conversion server 9 executes a speaker identification process for identifying a speaker of the sound data by using the sound data generated by an event such as a conference and the user voice data.

<<音声テキスト変換サーバの各機能構成>>
次に、音声テキスト変換サーバ9の各機能構成について詳細に説明する。なお、以下では、音声テキスト変換サーバ9の各機能構成を説明するにあたって、図5に示されている各構成要素のうち、音声テキスト変換サーバ9の各機能構成を実現させるための主な構成要素との関係も説明する。
<< Each function configuration of the voice-text conversion server >>
Next, each functional configuration of the voice-text conversion server 9 will be described in detail. In the following, in explaining each functional configuration of the voice-text conversion server 9, among the constituent elements shown in FIG. 5, the main constituent elements for realizing each functional configuration of the voice-text conversion server 9. The relationship with is also explained.

図8に示されている音声テキスト変換サーバ9の送受信部91は、図5に示されているCPU901からの命令、および図5に示されているネットワークI/F909によって実現され、通信ネットワーク10を介して他の端末、装置、またはシステムと各種データ(または情報)の送受信を行う。 The transmission / reception unit 91 of the voice-to-text conversion server 9 shown in FIG. 8 is realized by the command from the CPU 901 shown in FIG. 5 and the network I / F 909 shown in FIG. Sends and receives various data (or information) to and from other terminals, devices, or systems via.

変換部93は、図5に示されているCPU901からの命令によって実現され、送受信部91により通信ネットワーク10を介して受信された音データを、テキストデータに変換する。 The conversion unit 93 is realized by the instruction from the CPU 901 shown in FIG. 5, and converts the sound data received by the transmission / reception unit 91 via the communication network 10 into text data.

話者特定部95は、図5に示されているCPU901からの命令によって実現され、通信ネットワーク10を介して送受信部91により受信された音データの話者を特定する。 The speaker identification unit 95 identifies the speaker of the sound data realized by the instruction from the CPU 901 shown in FIG. 5 and received by the transmission / reception unit 91 via the communication network 10.

生成部97は、図5に示されているCPU901からの命令によって実現され、会議等のイベントによって発生した音データの話者を識別するための話者IDを生成する。 The generation unit 97 is realized by the instruction from the CPU 901 shown in FIG. 5, and generates a speaker ID for identifying the speaker of the sound data generated by an event such as a conference.

記憶・読出処理部99は、図5に示されているCPU901からの命令、および図5に示されているHDDコントローラ905によって実現され、記憶部9000に各種データを記憶したり、記憶部9000に記憶された各種データを読み出したりする処理を行う。 The storage / reading processing unit 99 is realized by the command from the CPU 901 shown in FIG. 5 and the HDD controller 905 shown in FIG. 5, and various data can be stored in the storage unit 9000 or stored in the storage unit 9000. Performs processing such as reading various stored data.

なお、上記各IDは、識別情報の一例である。また、組織IDには、社名、事業所名、部署名、地域名等が含まれる。利用者IDには、社員番号、運転免許書番号、日本の社会保障・税番号制度におけるマイナンバー等が含まれる。 Each of the above IDs is an example of identification information. In addition, the organization ID includes a company name, a business establishment name, a department name, an area name, and the like. The user ID includes an employee number, a driver's license number, my number in the Japanese social security / tax number system, and the like.

また、図8に示す音声テキスト変換サーバ9の送受信部91、変換部93、話者特定部95、生成部97および記憶・読出処理部99は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図8に示す音声テキスト変換サーバ9で独立した機能のブロックとして図示した複数の機能のブロックを、1つの機能のブロックとして構成してもよい。一方、図8に示す音声テキスト変換サーバ9で1つの機能のブロックが有する機能を複数に分割し、複数の機能のブロックとして構成するものとしてもよい。 Further, the transmission / reception unit 91, the conversion unit 93, the speaker identification unit 95, the generation unit 97, and the storage / reading processing unit 99 of the voice-text conversion server 9 shown in FIG. 8 conceptually show the functions. It is not limited to such a configuration. For example, a block of a plurality of functions shown as a block of an independent function in the voice-text conversion server 9 shown in FIG. 8 may be configured as a block of one function. On the other hand, in the voice-text conversion server 9 shown in FIG. 8, the function of one function block may be divided into a plurality of functions and configured as a plurality of function blocks.

(実施形態の処理または動作)
以降、各実施形態の処理または動作について説明する。
(Processing or operation of the embodiment)
Hereinafter, the processing or operation of each embodiment will be described.

<スケジュールの登録処理>
図17は、実施形態に係る共用システムのスケジュールの登録処理の流れの一例を示すシーケンス図である。図18は、サインイン画面を示す図である。図19は、PCの初期画面の一例を示す図である。図20は、スケジュール入力画面を示す図である。図17〜図20を用いて、利用者A(理光太郎)がPC5からスケジュール管理サーバ8に自己のスケジュールを登録する処理について説明する。
<Schedule registration process>
FIG. 17 is a sequence diagram showing an example of the flow of the schedule registration process of the shared system according to the embodiment. FIG. 18 is a diagram showing a sign-in screen. FIG. 19 is a diagram showing an example of an initial screen of a PC. FIG. 20 is a diagram showing a schedule input screen. A process in which the user A (Rikotaro) registers his / her own schedule from the PC 5 to the schedule management server 8 will be described with reference to FIGS. 17 to 20.

まず、利用者AがPC5のキーボード511等を操作することで、PC5の表示制御部54が、図18に示されているように、ディスプレイ508上にサインインを行うためのサインイン画面530を表示させる(ステップS11)。このサインイン画面530には、利用者の利用者IDおよび組織IDを入力する入力欄531、およびパスワードを入力する入力欄532、サインインを行う場合に押下されるサインインボタン538、サインインを中止する場合に押下されるキャンセルボタン539が含まれている。ここでは、利用者IDおよび組織IDが、利用者Aの電子メールアドレスになっている。電子メールアドレスのユーザ名部分が利用者IDで、ドメイン名部分が組織IDを示している。なお、入力欄531は、電子メールアドレスではなく、利用者IDおよび組織IDを別々に入力する入力欄であってもよい。 First, when the user A operates the keyboard 511 or the like of the PC 5, the display control unit 54 of the PC 5 displays the sign-in screen 530 for signing in on the display 508 as shown in FIG. Display (step S11). On the sign-in screen 530, an input field 531 for inputting a user ID and an organization ID of a user, an input field 532 for inputting a password, a sign-in button 538 pressed when signing in, and sign-in are displayed. It includes a cancel button 539 that is pressed when canceling. Here, the user ID and the organization ID are the e-mail addresses of the user A. The user name part of the e-mail address is the user ID, and the domain name part is the organization ID. The input field 531 may be an input field for separately inputting the user ID and the organization ID instead of the e-mail address.

次に、利用者Aが、入力欄531に自己の利用者IDおよび組織IDを入力し、入力欄532に自己のパスワードを入力し、サインインボタン538を押下すると、受付部52が、サインインの要求を受け付ける(ステップS12)。そして、PC5の送受信部51は、スケジュール管理サーバ8に対して、サインインの要求を示すサインイン要求情報を送信する(ステップS13)。このサインイン要求情報には、ステップS12によって受け付けられた情報(利用者ID、組織ID、およびパスワード)が含まれている。これにより、スケジュール管理サーバ8の送受信部81は、サインイン要求情報を受信する。 Next, when the user A inputs his / her user ID and organization ID in the input field 531, enters his / her password in the input field 532, and presses the sign-in button 538, the reception unit 52 signs in. (Step S12). Then, the transmission / reception unit 51 of the PC 5 transmits the sign-in request information indicating the sign-in request to the schedule management server 8 (step S13). The sign-in request information includes the information (user ID, organization ID, and password) received in step S12. As a result, the transmission / reception unit 81 of the schedule management server 8 receives the sign-in request information.

次に、スケジュール管理サーバ8の認証部82は、利用者ID、組織ID、およびパスワードを利用して利用者Aの認証を行う(ステップS14)。具体的には、記憶・読出処理部89は、利用者認証管理DB8001(図11(A)参照)において、ステップS13によって受信された利用者ID、組織ID、およびパスワードの組に対応する利用者ID、組織IDおよびパスワードの組を検索する。対応する組がある場合には、認証部82は、要求元の利用者Aを正当な利用者であると判断する。対応する組がない場合には、認証部82は、利用者Aを不当な(正当でない)利用者であると判断する。正当でない場合には、送受信部81がPC5に対して、正当でない旨の通知を行うが、ここでは、正当である場合について説明を続ける。 Next, the authentication unit 82 of the schedule management server 8 authenticates the user A by using the user ID, the organization ID, and the password (step S14). Specifically, the storage / reading processing unit 89 is a user corresponding to the set of the user ID, the organization ID, and the password received in step S13 in the user authentication management DB 8001 (see FIG. 11 (A)). Search for ID, organization ID and password pairs. If there is a corresponding pair, the authentication unit 82 determines that the requesting user A is a legitimate user. If there is no corresponding pair, the authentication unit 82 determines that the user A is an unjust (illegal) user. If it is not valid, the transmission / reception unit 81 notifies the PC5 that it is not valid, but here, the case where it is valid will be continued.

次に、送受信部81は、PC5に対して、認証結果を送信する(ステップS15)。これにより、PC5の送受信部51は、認証結果を受信する。 Next, the transmission / reception unit 81 transmits the authentication result to the PC 5 (step S15). As a result, the transmission / reception unit 51 of the PC 5 receives the authentication result.

次に、PC5の生成部56は、ステップS15によって正当である旨の認証結果が受信された場合、図19に示されているような初期画面540を生成する(ステップS16)。そして、PC5の表示制御部54は、ディスプレイ508上に、図19に示されているような初期画面540を表示させる(ステップS17)。この初期画面540には、スケジュールを登録する場合に押下される「スケジュール登録」ボタン541、実行イベント履歴を閲覧する場合に押下される「実行イベント履歴閲覧」ボタン543、および初期画面を閉じるための「閉じる」ボタン549が含まれている。ここで、利用者が「スケジュール登録」ボタン541を押下すると、受付部52は、スケジュール登録を受け付ける(ステップS18)。そして、送受信部51は、スケジュール管理サーバ8に対して、スケジュール登録要求を送信する(ステップS19)。これにより、スケジュール管理サーバ8の送受信部81は、スケジュール登録要求を受信する。 Next, when the authentication result to the effect that it is valid is received in step S15, the generation unit 56 of the PC 5 generates the initial screen 540 as shown in FIG. 19 (step S16). Then, the display control unit 54 of the PC 5 displays the initial screen 540 as shown in FIG. 19 on the display 508 (step S17). The initial screen 540 includes a "schedule registration" button 541 pressed when registering a schedule, an "execution event history browsing" button 543 pressed when viewing the execution event history, and a closing of the initial screen. A "close" button 549 is included. Here, when the user presses the "schedule registration" button 541, the reception unit 52 accepts the schedule registration (step S18). Then, the transmission / reception unit 51 transmits a schedule registration request to the schedule management server 8 (step S19). As a result, the transmission / reception unit 81 of the schedule management server 8 receives the schedule registration request.

次に、スケジュール管理サーバ8の記憶・読出処理部89は、ステップS13によって受信された組織IDを検索キーとして利用者管理DB8002(図11(B)参照)を検索することにより、対応する全ての利用者IDおよび全ての利用者名を読み出す(ステップS20)。そして、送受信部81は、PC5に対して、スケジュール入力画面情報を送信する(ステップS21)。このスケジュール入力画面情報には、ステップS20によって読み出された全ての利用者IDおよび全ての利用者名が含まれている。全ての利用者名には、ステップS12でサインインのための入力を行った利用者Aである予約者の名称(名前)も含まれている。これにより、PC5の送受信部51は、スケジュール入力画面情報を受信する。 Next, the storage / reading processing unit 89 of the schedule management server 8 searches the user management DB 8002 (see FIG. 11B) using the organization ID received in step S13 as a search key, and all the corresponding items. Read the user ID and all user names (step S20). Then, the transmission / reception unit 81 transmits the schedule input screen information to the PC 5 (step S21). The schedule input screen information includes all user IDs and all user names read out in step S20. All the user names also include the name (name) of the reservation person who is the user A who input for sign-in in step S12. As a result, the transmission / reception unit 51 of the PC 5 receives the schedule input screen information.

次に、PC5では、生成部56がステップS21によって受信されたスケジュール入力画面情報を用いて、スケジュール入力画面550を生成する。(ステップS22)。そして、PC5の表示制御部24は、ディスプレイ508上に、図20に示されているようなスケジュール入力画面550を表示させる(ステップS23)。 Next, in the PC 5, the generation unit 56 generates the schedule input screen 550 using the schedule input screen information received in step S21. (Step S22). Then, the display control unit 24 of the PC 5 displays the schedule input screen 550 as shown in FIG. 20 on the display 508 (step S23).

このスケジュール入力画面550には、イベント名を入力するための入力欄551、共用体IDまたは共用体名を入力するための入力欄552、イベントの実行(共用体の利用)開始予定日時を入力するための入力欄553、イベントの実行(共用体の利用)終了予定日時を入力するための入力欄554、アジェンダ等のメモを入力するための入力欄555、予約者名を表示するための表示領域556、予約者以外の他の参加者の参加者名を選択するための選択メニュー557、予約を登録する場合に押下される「OK」ボタン558、入力中または入力された内容をキャンセルする場合に押下される「CANCEL」ボタン559が含まれている。予約者名は、ステップS12でPC5にサインインのための入力を行った利用者の名称である。また、マウスポインタp1も表示されている。 In this schedule input screen 550, input the input field 551 for inputting the event name, the input field 552 for inputting the common entity ID or the common entity name, and the scheduled start date and time of the event execution (use of the common entity). Input field 553 for inputting, input field 554 for inputting scheduled end date and time of event execution (use of common entity), input field 555 for inputting memos such as agenda, display area for displaying the name of the person making the reservation 556, selection menu 557 for selecting the participant name of a participant other than the reservation person, "OK" button 558 pressed when registering the reservation, when inputting or canceling the input contents Includes a "CANCEL" button 559 that is pressed. The reservation person name is the name of the user who entered the PC5 for sign-in in step S12. The mouse pointer p1 is also displayed.

なお、入力欄552には、電子メールアドレスを入力してもよい。また、選択メニュー557で、共用体名が選択されると、共用体も他の参加者として追加される。 An e-mail address may be entered in the input field 552. Also, when a union name is selected in the selection menu 557, the union is also added as another participant.

次に、利用者Aが、入力欄551〜555に所定の事項を入力し、マウスポインタp1を利用して選択メニュー557からイベントに参加させたい利用者の名称(利用者名)を選択し、「OK」ボタン558を押下すると、受付部52は、スケジュール情報の入力を受け付ける(ステップS24)。そして、送受信部51は、スケジュール管理サーバ8に対して、スケジュール情報を送信する(ステップS25)。このスケジュール情報には、イベント名、共用体ID(または共用体名)、開始予定日時、終了予定日時、各参加者の利用者ID、およびメモが含まれている。なお、スケジュール入力画面550において、入力欄552に共用体IDが入力された場合には、この共用体IDが送信され、入力欄552に共用体名が入力された場合には、この共用体名が送信される。また、スケジュール入力画面550では、選択メニュー557で利用者名が選択されるが、ステップS21で利用者IDも受信されているため、利用者名に対応する利用者IDが送信される。これにより、スケジュール管理サーバ8の送受信部81は、スケジュール情報を受信する。 Next, the user A inputs a predetermined item in the input fields 551 to 555, selects the name (user name) of the user who wants to participate in the event from the selection menu 557 using the mouse pointer p1. When the "OK" button 558 is pressed, the reception unit 52 accepts the input of the schedule information (step S24). Then, the transmission / reception unit 51 transmits the schedule information to the schedule management server 8 (step S25). This schedule information includes an event name, a union ID (or union name), a scheduled start date and time, a scheduled end date and time, a user ID of each participant, and a memo. When the union ID is entered in the input field 552 on the schedule input screen 550, the union ID is transmitted, and when the union name is entered in the input field 552, the union name is entered. Is sent. Further, on the schedule input screen 550, the user name is selected in the selection menu 557, but since the user ID is also received in step S21, the user ID corresponding to the user name is transmitted. As a result, the transmission / reception unit 81 of the schedule management server 8 receives the schedule information.

次に、スケジュール管理サーバ8では、ステップS25によって受信された共用体ID(または共用体名)を検索キーとして共用体管理DB8003(図11(C)参照)を検索することにより、対応する共用体名(または共用体ID)を読み出す(ステップS26)。 Next, the schedule management server 8 searches the union management DB 8003 (see FIG. 11 (C)) using the union ID (or union name) received in step S25 as a search key to search for the corresponding union. Read the name (or union ID) (step S26).

次に、記憶・読出処理部89は、共用体予約管理DB8004(図12(A)参照)に対して、予約情報を記憶する(ステップS27)。この場合、記憶・読出処理部89は、予め登録しているスケジューラで管理されている共用体予約管理DB8004の共用体予約管理テーブルに1レコード分の予約情報を追加する。予約情報は、ステップS25によって受信されたスケジュール情報、およびステップS26によって読み出された共用体名(または共用体ID)に基づいて構成されている。なお、共用体予約管理DB8004における利用開始予定日時は、スケジュール情報における開始予定日時に相当する。また、共用体予約管理DB8004における利用終了予定日時は、スケジュール情報における終了予定日時に相当する。 Next, the storage / reading processing unit 89 stores the reservation information in the union reservation management DB 8004 (see FIG. 12A) (step S27). In this case, the storage / reading processing unit 89 adds the reservation information for one record to the union reservation management table of the union reservation management DB 8004 managed by the scheduler registered in advance. The reservation information is configured based on the schedule information received in step S25 and the union name (or union ID) read in step S26. The scheduled start date and time in the union reservation management DB 8004 corresponds to the scheduled start date and time in the schedule information. Further, the scheduled end date and time of use in the union reservation management DB 8004 corresponds to the scheduled end date and time in the schedule information.

さらに、記憶・読出処理部89は、イベント管理DB8005(図12(B)参照)に対して、予定情報を記憶する(ステップS28)。この場合、記憶・読出処理部89は、予め登録しているスケジューラで管理されているイベント管理DB8005のイベント管理テーブルに1レコード分の予定情報を追加する。予定情報は、ステップS25によって受信されたスケジュール情報に基づいて構成されている。なお、イベント管理DB8005におけるイベント開始予定日時は、スケジュール情報における開始予定日時に相当する。また、イベント管理DB8005におけるイベント終了予定日時は、スケジュール情報における終了予定日時に相当する。 Further, the storage / reading processing unit 89 stores the schedule information in the event management DB 8005 (see FIG. 12B) (step S28). In this case, the storage / reading processing unit 89 adds schedule information for one record to the event management table of the event management DB 8005 managed by the scheduler registered in advance. The schedule information is configured based on the schedule information received in step S25. The scheduled event start date and time in the event management DB 8005 corresponds to the scheduled start date and time in the schedule information. The scheduled event end date and time in the event management DB 8005 corresponds to the scheduled end date and time in the schedule information.

以上により、利用者Aは、スケジュール管理サーバ8に自己のスケジュールを登録することができる。なお、図17〜図20では、PC5によってスケジュール登録を行う場合について説明したが、同様の処理によって、電子黒板2、ビデオ会議端末3またはカーナビゲーション装置4でスケジュール登録を行ってもよい。 As described above, the user A can register his / her own schedule in the schedule management server 8. Although the case where the schedule is registered by the PC 5 is described in FIGS. 17 to 20, the schedule may be registered by the electronic blackboard 2, the video conferencing terminal 3, or the car navigation device 4 by the same processing.

<利用者音声データの登録処理>
図21は、実施形態に係る共用システムの利用者音声データの登録処理の流れの一例を示すシーケンス図である。図22は、利用者音声データの登録のためのサインイン画面を示す図である。図23は、利用者音声データ登録画面を示す図である。図21〜図23を参照しながら、会議等のイベントによって発生した音データに対する話者の特定に用いる利用者音声データを登録する処理について説明する。
<User voice data registration process>
FIG. 21 is a sequence diagram showing an example of the flow of the user voice data registration process of the shared system according to the embodiment. FIG. 22 is a diagram showing a sign-in screen for registering user voice data. FIG. 23 is a diagram showing a user voice data registration screen. A process of registering user voice data used for identifying a speaker with respect to sound data generated by an event such as a conference will be described with reference to FIGS. 21 to 23.

まず、利用者Aが電子黒板2の接触センサ214等に対して操作することによって、電子黒板2の表示制御部24が、図22に示されているように、ディスプレイ220上に話者登録を実行する際のサインインを行うためのサインイン画面520を表示させる(ステップS231)。このサインイン画面520は、利用者の利用者IDおよび組織IDを入力する入力欄521と、およびパスワードを入力する入力欄522と、サインインを行う場合に押下されるサインインボタン528と、サインインを中止する場合に押下されるキャンセルボタン529と、を含む。ここでは、利用者IDおよび組織IDが、利用者Aの電子メールアドレスになっている。電子メールアドレスのユーザ名部分が利用者IDで、ドメイン名部分が組織IDを示している。なお、入力欄521は、電子メールアドレスではなく、利用者IDおよび組織IDを別々に入力する入力欄であってもよい。 First, when the user A operates the contact sensor 214 or the like of the electronic blackboard 2, the display control unit 24 of the electronic blackboard 2 registers the speaker on the display 220 as shown in FIG. The sign-in screen 520 for sign-in at the time of execution is displayed (step S231). The sign-in screen 520 has an input field 521 for entering the user ID and organization ID of the user, an input field 522 for entering the password, a sign-in button 528 pressed when signing in, and a sign. Includes a cancel button 529, which is pressed when canceling the login. Here, the user ID and the organization ID are the e-mail addresses of the user A. The user name part of the e-mail address is the user ID, and the domain name part is the organization ID. The input field 521 may be an input field for separately inputting the user ID and the organization ID instead of the e-mail address.

次に、利用者Aが、入力欄521に自己の利用者IDおよび組織IDを入力し、入力欄522に自己のパスワードを入力し、サインインボタン528を押下すると、受付部22が、サインインの要求を受け付ける(ステップS232)。そして、電子黒板2の送受信部21は、スケジュール管理サーバ8に対して、サインインの要求を示すサインイン要求情報を送信する(ステップS233)。このサインイン要求情報には、ステップS232によって受け付けられた情報(利用者ID、組織ID、およびパスワード)が含まれている。これにより、スケジュール管理サーバ8の送受信部81は、サインイン要求情報を受信する。 Next, when the user A inputs his / her user ID and organization ID in the input field 521, enters his / her password in the input field 522, and presses the sign-in button 528, the reception unit 22 signs in. (Step S232). Then, the transmission / reception unit 21 of the electronic blackboard 2 transmits the sign-in request information indicating the sign-in request to the schedule management server 8 (step S233). The sign-in request information includes the information (user ID, organization ID, and password) received in step S232. As a result, the transmission / reception unit 81 of the schedule management server 8 receives the sign-in request information.

次に、スケジュール管理サーバ8の認証部82は、利用者ID、組織ID、およびパスワードを利用して利用者Aの認証を行う(ステップS234)。具体的には、記憶・読出処理部89は、利用者認証管理DB8001(図11(A)参照)において、ステップS233によって受信された利用者ID、組織ID、およびパスワードの組に対応する利用者ID、組織IDおよびパスワードの組を検索する。対応する組がある場合には、認証部82は、要求元の利用者Aを正当な利用者であると判断する。対応する組がない場合には、認証部82は、利用者Aを不当な(正当でない)利用者であると判断する。正当でない場合には、送受信部81が電子黒板2に対して、正当でない旨の通知を行うが、ここでは、正当である場合について説明を続ける。 Next, the authentication unit 82 of the schedule management server 8 authenticates the user A by using the user ID, the organization ID, and the password (step S234). Specifically, the storage / reading processing unit 89 is a user corresponding to the set of the user ID, the organization ID, and the password received in step S233 in the user authentication management DB 8001 (see FIG. 11 (A)). Search for ID, organization ID and password pairs. If there is a corresponding pair, the authentication unit 82 determines that the requesting user A is a legitimate user. If there is no corresponding pair, the authentication unit 82 determines that the user A is an unjust (illegal) user. If it is not valid, the transmission / reception unit 81 notifies the electronic blackboard 2 that it is not valid, but here, the case where it is valid will be continued.

次に、送受信部81は、電子黒板2に対して、認証結果を送信する(ステップS235)。これにより、電子黒板2の送受信部21は、認証結果を受信する。 Next, the transmission / reception unit 81 transmits the authentication result to the electronic blackboard 2 (step S235). As a result, the transmission / reception unit 21 of the electronic blackboard 2 receives the authentication result.

次に、電子黒板2の表示制御部24は、ステップS235によって正当である旨の認証結果が受信された場合、図23に示されているような利用者音声データ登録画面560を生成する(ステップS236)。そして、PC5の表示制御部24は、ディスプレイ508上に、図23に示されているような利用者音声データ登録画面560を表示させる(ステップS237)。この利用者音声データ登録画面560は、利用者の声が録音された利用者音声データのファイル名を表示する音声データ表示領域561と、利用者の声を録音する場合に押下される録音ボタン562と、録音された利用者音声データを再生する場合に押下される再生ボタン563と、録音された利用者音声データを登録する場合に押下される「登録」ボタン568と、利用者音声データの登録処理を中止する場合に押下される「キャンセル」ボタン569と、を含む。 Next, when the display control unit 24 of the electronic blackboard 2 receives the authentication result to the effect that it is valid in step S235, the display control unit 24 generates the user voice data registration screen 560 as shown in FIG. 23 (step). S236). Then, the display control unit 24 of the PC 5 displays the user voice data registration screen 560 as shown in FIG. 23 on the display 508 (step S237). The user voice data registration screen 560 has a voice data display area 561 for displaying the file name of the user voice data in which the user's voice is recorded, and a recording button 562 pressed when recording the user's voice. The play button 563 pressed when playing back the recorded user voice data, the "register" button 568 pressed when registering the recorded user voice data, and the registration of the user voice data. Includes a "Cancel" button 569 that is pressed when the process is cancelled.

次に、利用者Aが、録音ボタン562を選択し、マイク2200を用いて自らの声の録音を行うと、音処理部23−2は、録音された利用者Aの音声を含む利用者音声データを取得する(ステップS238)。そして、利用者Aが、「登録」ボタン568を押下すると、受付部22は、利用者音声データの登録要求を受け付ける(ステップS239)。 Next, when the user A selects the record button 562 and records his / her own voice using the microphone 2200, the sound processing unit 23-2 causes the user voice including the recorded voice of the user A. Acquire data (step S238). Then, when the user A presses the "register" button 568, the reception unit 22 accepts the user voice data registration request (step S239).

そして、送受信部21は、音声テキスト変換サーバ9に対して、ステップS238によって取得された利用者音声データを送信する(ステップS240)。これにより、音声テキスト変換サーバ9の送受信部91は、利用者音声データを受信する。 Then, the transmission / reception unit 21 transmits the user voice data acquired in step S238 to the voice text conversion server 9 (step S240). As a result, the transmission / reception unit 91 of the voice-text conversion server 9 receives the user voice data.

次に、音声テキスト変換サーバ9の生成部97は、イベントによって発生する音データの話者(speaker)を特定するための話者IDを生成する(ステップS241)。また、記憶・読出処理部99は、利用者音声情報管理DB9001(図16参照)に対して、利用者音声情報を記憶する(ステップS242)。利用者音声情報には、ステップS240によって受信された利用者音声データ、およびステップS241によって生成された話者IDが含まれている。 Next, the generation unit 97 of the voice-text conversion server 9 generates a speaker ID for identifying the speaker of the sound data generated by the event (step S241). Further, the storage / reading processing unit 99 stores the user voice information in the user voice information management DB 9001 (see FIG. 16) (step S242). The user voice information includes the user voice data received in step S240 and the speaker ID generated in step S241.

そして、送受信部91は、共用支援サーバ6に対して、ステップS241によって生成された話者IDを送信する(ステップS243)。これにより、共用支援サーバ6の送受信部61は、話者IDを受信する。共用支援サーバ6の記憶・読出処理部69は、話者情報管理DB6007(図10(B)参照)に対して、話者情報を記憶する(ステップS244)。この話者情報には、ステップ234によって認証された利用者Aの利用者ID、およびステップS243によって受信された話者IDが含まれている。 Then, the transmission / reception unit 91 transmits the speaker ID generated in step S241 to the sharing support server 6 (step S243). As a result, the transmission / reception unit 61 of the sharing support server 6 receives the speaker ID. The storage / reading processing unit 69 of the sharing support server 6 stores speaker information in the speaker information management DB 6007 (see FIG. 10B) (step S244). This speaker information includes the user ID of the user A authenticated in step 234 and the speaker ID received in step S243.

以上により、利用者Aは、会議等のイベントが開始される前に、予め自らの声のデータである利用者音声データを、予め音声テキスト変換サーバ9へ登録することができる。なお、図21〜図23では、電子黒板2によって話者情報の登録を行う場合について説明したが、同様の処理によって、ビデオ会議端末3、カーナビゲーション装置4またはPC5でスケジュール登録を行ってもよい。 As described above, the user A can register the user voice data, which is the data of his / her own voice, in the voice text conversion server 9 in advance before the event such as the conference is started. Although the case where the speaker information is registered by the electronic blackboard 2 is described in FIGS. 21 to 23, the schedule registration may be performed by the video conferencing terminal 3, the car navigation device 4, or the PC 5 by the same processing. ..

<イベント開始処理>
図24および図27は、実施形態に係る共用システムのイベントの開始処理の流れの一例を示すシーケンス図である。図25は、電子黒板に表示されるサインイン画面を示す図である。図26は、共用体の予約リスト画面を示す図である。図28は、イベントの詳細情報画面を示す図である。図29は、イベント開始時に電子黒板に表示される表示画面を示す図である。図30は、利用者が電子黒板を利用する状態を示すイメージ図である。図24〜図30を用いて、利用者A(理光太郎)が予約しておいた会議室Xで、電子黒板2を利用して他の参加者と会議をする処理について説明する。
<Event start processing>
24 and 27 are sequence diagrams showing an example of a flow of event start processing of the shared system according to the embodiment. FIG. 25 is a diagram showing a sign-in screen displayed on the electronic blackboard. FIG. 26 is a diagram showing a reservation list screen of the union. FIG. 28 is a diagram showing a detailed information screen of the event. FIG. 29 is a diagram showing a display screen displayed on the electronic blackboard at the start of the event. FIG. 30 is an image diagram showing a state in which the user uses the electronic blackboard. A process of having a meeting with other participants using the electronic blackboard 2 in the meeting room X reserved by the user A (Rikotaro) will be described with reference to FIGS. 24 to 30.

まず、利用者Aが電子黒板2の電源スイッチ222を押下することで、電子黒板2の受付部22が、利用者から電源ONを受け付ける(ステップS31)。受付部22によって電源ONが受け付けられることで、図6に示したLauncher102が起動する。そして、電子黒板2の表示制御部24は、図25に示されているように、ディスプレイ220上にサインインを行うためのサインイン画面110を表示させる(ステップS32)。このサインイン画面110には、利用者Aが自己のICカードを用いてサインインを行う場合に押下される選択アイコン111、利用者Aが自己の電子メールアドレス(利用者IDおよび組織ID)並びにパスワードを入力することによってサインインを行う場合に押下される選択アイコン113、およびサインインを行わずに電源OFFする場合に押下される電源アイコン115が含まれている。 First, when the user A presses the power switch 222 of the electronic blackboard 2, the reception unit 22 of the electronic blackboard 2 receives the power ON from the user (step S31). When the power ON is received by the reception unit 22, the Launcher 102 shown in FIG. 6 is activated. Then, as shown in FIG. 25, the display control unit 24 of the electronic blackboard 2 displays the sign-in screen 110 for signing in on the display 220 (step S32). On the sign-in screen 110, a selection icon 111 pressed when user A signs in using his / her own IC card, user A's own e-mail address (user ID and organization ID), and It includes a selection icon 113 that is pressed when signing in by entering a password, and a power icon 115 that is pressed when the power is turned off without signing in.

次に、利用者Aが、選択アイコン111を押下して、ICカードリーダ等の近距離通信回路219に対する通信を行うか、または、利用者Aが、選択アイコン113を押下して、利用者Aによる自己の電子メールアドレスおよびパスワードを入力が行うことで、受付部22が、サインインの要求を受け付ける(ステップS33)。そして、送受信部21は、共用支援サーバ6に対して、サインイン要求を示すサインイン要求情報を送信する(ステップS34)。このサインイン要求情報には、ステップS33によって受け付けられた情報(利用者ID、組織IDおよびパスワード)、電子黒板2が設置されている国もしくは地域のタイムゾーン情報、並びに通信端末(ここでは電子黒板2)の利用者ID、組織IDおよびパスワードが含まれている。これにより、共用支援サーバ6の送受信部61は、サインイン要求情報を受信する。 Next, the user A presses the selection icon 111 to communicate with the short-range communication circuit 219 such as an IC card reader, or the user A presses the selection icon 113 to perform the communication with the user A. The reception unit 22 accepts the sign-in request by inputting its own e-mail address and password (step S33). Then, the transmission / reception unit 21 transmits the sign-in request information indicating the sign-in request to the shared support server 6 (step S34). The sign-in request information includes information received in step S33 (user ID, organization ID and password), time zone information of the country or region where the electronic blackboard 2 is installed, and a communication terminal (here, the electronic whiteboard). The user ID, organization ID and password of 2) are included. As a result, the transmission / reception unit 61 of the sharing support server 6 receives the sign-in request information.

次に、共用支援サーバ6の認証部62は、ステップS34によって受信された利用者Aの利用者ID、組織IDおよびパスワードを利用して利用者Aの認証を行う(ステップS35)。具体的には、記憶・読出処理部69は、ステップS34によって受信された利用者Aの利用者ID、組織IDおよびパスワードを検索キーとして、利用者認証管理DB6001(図9(A)参照)において、上記受信された利用者Aの利用者ID、組織IDおよびパスワードの組に対応する利用者ID、組織IDおよびパスワードの組を検索する。対応する組がある場合、認証部62は、要求元の利用者Aを正当な利用者であると判断する。対応する組がない場合、認証部62は、要求元の利用者Aを不当な(正当でない)利用者であると判断する。正当でない場合には、送受信部61が電子黒板2に対して、正当でない旨の通知を行うが、ここでは、正当である場合について説明を続ける。 Next, the authentication unit 62 of the shared support server 6 authenticates the user A by using the user ID, the organization ID, and the password of the user A received in step S34 (step S35). Specifically, the storage / reading processing unit 69 uses the user ID, organization ID, and password of the user A received in step S34 as search keys in the user authentication management DB 6001 (see FIG. 9A). , The set of the user ID, the organization ID and the password corresponding to the set of the user ID, the organization ID and the password of the received user A is searched. If there is a corresponding pair, the authentication unit 62 determines that the requesting user A is a legitimate user. If there is no corresponding pair, the authentication unit 62 determines that the requesting user A is an unjust (illegal) user. If it is not valid, the transmission / reception unit 61 notifies the electronic blackboard 2 that it is not valid, but here, the case where it is valid will be continued.

次に、共用支援サーバ6の記憶・読出処理部69は、ステップS34によって受信された利用者Aの組織IDを検索キーとしてアクセス管理DB6002(図9(B)参照)を検索することにより、対応するアクセスIDおよびアクセスパスワードを読み出す(ステップS36)。 Next, the storage / reading processing unit 69 of the shared support server 6 responds by searching the access management DB 6002 (see FIG. 9B) using the organization ID of the user A received in step S34 as a search key. The access ID and access password to be used are read (step S36).

次に、送受信部61は、スケジュール管理サーバ8に対して、共用体の予約情報の要求を示す予約要求情報および利用者の予定情報の要求を示す予定要求情報を送信する(ステップS37)。予約要求情報および予定要求情報には、ステップS34によって受信された、タイムゾーン情報、通信端末の利用者IDおよび組織ID、並びにステップS36によって読み出された、アクセスIDおよびアクセスパスワードが含まれている。これにより、スケジュール管理サーバ8の送受信部81は、予約要求情報および予定要求情報を受信する。 Next, the transmission / reception unit 61 transmits the reservation request information indicating the request for the reservation information of the union and the schedule request information indicating the request for the user's schedule information to the schedule management server 8 (step S37). The reservation request information and the schedule request information include the time zone information received in step S34, the user ID and organization ID of the communication terminal, and the access ID and access password read in step S36. .. As a result, the transmission / reception unit 81 of the schedule management server 8 receives the reservation request information and the schedule request information.

次に、スケジュール管理サーバ8の認証部82は、アクセスIDおよびアクセスパスワードを利用して共用支援サーバ6の認証を行う(ステップS38)。具体的には、記憶・読出処理部89は、サーバ認証管理DB8006(図13(A)参照)において、ステップS37によって受信されたアクセスIDおよびアクセスパスワードの組に対応するアクセスIDおよびアクセスパスワードの組を検索する。対応する組がある場合、認証部82は、要求元の共用支援サーバ6を正当なアクセス者であると判断する。対応する組がない場合、認証部82は、要求元の共用支援サーバ6を不当な(正当でない)アクセス者であると判断する。正当でない場合には、送受信部81が共用支援サーバ6に対して、正当でない旨の通知を行うが、ここでは、正当である場合について説明を続ける。 Next, the authentication unit 82 of the schedule management server 8 authenticates the shared support server 6 by using the access ID and the access password (step S38). Specifically, the storage / reading processing unit 89 sets the access ID and the access password corresponding to the set of the access ID and the access password received in step S37 in the server authentication management DB 8006 (see FIG. 13 (A)). To search for. If there is a corresponding pair, the authentication unit 82 determines that the requesting shared support server 6 is a legitimate accessor. If there is no corresponding pair, the authentication unit 82 determines that the requesting shared support server 6 is an unjust (illegal) accessor. If it is not valid, the transmission / reception unit 81 notifies the shared support server 6 that it is not valid, but here, the case where it is valid will be continued.

スケジュール管理サーバ8の記憶・読出処理部89は、ステップS37によって受信された通信端末の利用者IDを検索キーとして、スケジューラで管理している共用体予約管理DB8004(図12(A)参照)を検索することにより、対応する予約情報を読み出す(ステップS39)。この場合、記憶・読出処理部89は、利用開始予定日時が本日である予約情報を読み出す。 The storage / reading processing unit 89 of the schedule management server 8 uses the user ID of the communication terminal received in step S37 as a search key, and uses the union reservation management DB 8004 managed by the scheduler (see FIG. 12A). By searching, the corresponding reservation information is read out (step S39). In this case, the storage / reading processing unit 89 reads out the reservation information whose scheduled start date and time is today.

さらに、記憶・読出処理部89は、ステップS37によって受信された通信端末の利用者IDを検索キーとして、スケジューラで管理しているイベント管理DB8005(図12(B)参照)を検索することにより、対応する予定情報を読み出す(ステップS40)。この場合、記憶・読出処理部89は、イベント開始予定日時が本日である予定情報を読み出す。スケジュール管理サーバ8が、電子黒板2等の通信端末とは別の国や地域にあった場合には、タイムゾーン情報に基づいて、タイムゾーンを通信端末が設置されている国や地域に併せて調整している。 Further, the storage / reading processing unit 89 uses the user ID of the communication terminal received in step S37 as a search key to search the event management DB 8005 (see FIG. 12B) managed by the scheduler. Read the corresponding schedule information (step S40). In this case, the storage / reading processing unit 89 reads out the schedule information whose scheduled event start date and time is today. If the schedule management server 8 is located in a country or region different from the communication terminal such as the electronic blackboard 2, the time zone is set according to the country or region where the communication terminal is installed based on the time zone information. I'm adjusting.

次に、送受信部81は、共用支援サーバ6に対して、ステップS39によって読み出された予約情報、およびステップS40によって読み出された予定情報を送信する(ステップS41)。これにより、共用支援サーバ6の送受信部61は、予約情報および予定情報を受信する。 Next, the transmission / reception unit 81 transmits the reservation information read in step S39 and the schedule information read in step S40 to the sharing support server 6 (step S41). As a result, the transmission / reception unit 61 of the sharing support server 6 receives the reservation information and the schedule information.

次に、共用支援サーバ6の作成部63は、ステップS41によって受信された予約情報および予定情報に基づいて、予約リストを作成する(ステップS42)。そして、送受信部61は、電子黒板2に対して、予約リストの内容を示す予約リスト情報を送信する(ステップS43)。これにより、電子黒板2の送受信部21は、予約リスト情報を受信する。 Next, the creation unit 63 of the sharing support server 6 creates a reservation list based on the reservation information and the schedule information received in step S41 (step S42). Then, the transmission / reception unit 61 transmits the reservation list information indicating the contents of the reservation list to the electronic blackboard 2 (step S43). As a result, the transmission / reception unit 21 of the electronic blackboard 2 receives the reservation list information.

次に、電子黒板2では、表示制御部24が、ディスプレイ220上に、図22に示されているような予約リスト画面230を表示させる(ステップS44)。この予約リスト画面230には、共用体名(ここでは場所名)を表示する表示領域231、および本日の日時を表示する表示領域232が含まれている。さらに、予約リスト画面230には、本日の本共用体(ここでは、会議室X)を利用するイベントを示すイベント情報235、236、237等が表示されている。各イベント情報には、イベント毎に、本共用体の利用開始予定時刻および利用終了予定時刻、イベント名、本共用体を予約した予約者の名称(予約者名)が含まれている。イベント情報には、利用者が開始するイベントを特定する場合に押下される開始ボタン235s、236s、237s等が含まれている。 Next, on the electronic blackboard 2, the display control unit 24 displays the reservation list screen 230 as shown in FIG. 22 on the display 220 (step S44). The reservation list screen 230 includes a display area 231 for displaying a union name (here, a place name) and a display area 232 for displaying today's date and time. Further, on the reservation list screen 230, event information 235, 236, 237 and the like indicating an event using today's union (here, conference room X) are displayed. Each event information includes the scheduled start time and end time of use of the union, the event name, and the name of the person who reserved the union (reserver name) for each event. The event information includes start buttons 235s, 236s, 237s, and the like that are pressed when the user identifies an event to be started.

次に、図27において、利用者Aが、例えば、電子ペン2500等で開始ボタン235sを押下すると、受付部22が、イベント情報235で示されるイベントの選択を受け付ける(ステップS51)。次に、電子黒板2の送受信部21は、共用支援サーバ6に対して、上記ステップS51で選択された予定イベントを示す予定イベントIDを送信する(ステップS52)。ステップS52の処理は、実行イベント識別情報の送信要求処理である。これにより、共用支援サーバ6の送受信部61は、選択された予定イベントIDを受信する。 Next, in FIG. 27, when the user A presses the start button 235s with, for example, the electronic pen 2500, the reception unit 22 accepts the selection of the event indicated by the event information 235 (step S51). Next, the transmission / reception unit 21 of the electronic blackboard 2 transmits a scheduled event ID indicating the scheduled event selected in step S51 to the shared support server 6 (step S52). The process of step S52 is the process of requesting the transmission of the execution event identification information. As a result, the transmission / reception unit 61 of the shared support server 6 receives the selected scheduled event ID.

次に、共用支援サーバ6では、生成部64が、固有の実行イベントIDを生成する(ステップS53)。そして、記憶・読出処理部69が、ステップS53によって生成された実行イベントID、ステップS52によって受信された予約イベントID、予約者の利用者IDおよび組織ID、並びにイベント情報を関連付けて管理する(ステップS54)。なお、予約者の利用者IDおよび組織ID、並びにイベント情報は、ステップS41によって受信された予約情報および予定情報に基づくIDおよび情報である。なお、この時点では、予約管理テーブル(図9(C)参照)における参加有無欄への入力はない。 Next, in the shared support server 6, the generation unit 64 generates a unique execution event ID (step S53). Then, the storage / reading processing unit 69 manages the execution event ID generated in step S53, the reservation event ID received in step S52, the user ID and organization ID of the reservation person, and the event information in association with each other (step). S54). The user ID and organization ID of the reservation person, and the event information are IDs and information based on the reservation information and the schedule information received in step S41. At this point, there is no entry in the participation / non-participation column in the reservation management table (see FIG. 9C).

次に、共用支援サーバ6では、送受信部61が、スケジュール管理サーバ8に登録されたファイルデータの送信要求を示すファイルデータ送信要求情報を、スケジュール管理サーバ8へ送信する(ステップS55)。ファイルデータ送信要求情報には、ステップS52によって受信された予定イベントID、ステップS34によって受信された通信端末の利用者IDおよび組織ID、並びにステップS36によって読み出されたアクセスIDおよびアクセスパスワードが含まれている。これにより、スケジュール管理サーバ8の送受信部81は、ファイルデータ送信要求情報を受信する。 Next, in the sharing support server 6, the transmission / reception unit 61 transmits the file data transmission request information indicating the transmission request of the file data registered in the schedule management server 8 to the schedule management server 8 (step S55). The file data transmission request information includes the scheduled event ID received in step S52, the user ID and organization ID of the communication terminal received in step S34, and the access ID and access password read in step S36. ing. As a result, the transmission / reception unit 81 of the schedule management server 8 receives the file data transmission request information.

次に、スケジュール管理サーバ8の記憶・読出処理部89は、ステップS55によって受信された予定イベントIDを検索キーとしてイベント管理DB8005(図12(B)参照)を検索することにより、予定イベントIDに関連付けられたファイルデータを読み出す(ステップS56)。そして、送受信部81は、ステップS56によって読み出されたファイルデータを、共用支援サーバ6へ送信する(ステップS57)。これにより、共用支援サーバ6の送受信部61は、ファイルデータを受信する。 Next, the storage / reading processing unit 89 of the schedule management server 8 searches the event management DB 8005 (see FIG. 12B) using the scheduled event ID received in step S55 as a search key to obtain the scheduled event ID. Read the associated file data (step S56). Then, the transmission / reception unit 81 transmits the file data read in step S56 to the sharing support server 6 (step S57). As a result, the transmission / reception unit 61 of the sharing support server 6 receives the file data.

次に、共用支援サーバ6の記憶・読出処理部69は、ステップS52によって受信された予定イベントID、およびステップS53によって生成された実行イベントIDに関連付けて、ステップS57によって受信されたファイルデータを、予定管理DB6003(図9(C)参照)に記憶して管理する(ステップS58)。 Next, the storage / reading processing unit 69 of the shared support server 6 associates the scheduled event ID received in step S52 and the execution event ID generated in step S53 with the file data received in step S57. It is stored and managed in the schedule management DB 6003 (see FIG. 9C) (step S58).

そして、送受信部61は、電子黒板2に対して、ステップS53によって生成された実行イベントID、およびステップS57によって受信されたファイルデータを送信する(ステップS59)。これにより、電子黒板2の送受信部21は、実行イベントIDおよびファイルデータを受信する。 Then, the transmission / reception unit 61 transmits the execution event ID generated in step S53 and the file data received in step S57 to the electronic blackboard 2 (step S59). As a result, the transmission / reception unit 21 of the electronic blackboard 2 receives the execution event ID and the file data.

次に、電子黒板2では、記憶・読出処理部29が、記憶部2000に、実行イベントIDおよびファイルデータを記憶しておく(ステップS60)。ここで、共用支援サーバ6から送信されたファイルデータは、記憶部2000の特定の記憶領域に記憶される。これにより、電子黒板2は、イベントの実行中に、特定の記憶領域にアクセスすることによって、表示制御部24が特定の記憶領域に記憶されたファイルデータをディスプレイ220に表示させる。ここで、特定の記憶領域は、実行中のイベント毎に設けられたデータの一時的な記憶先であり、記憶部2000内での所在を示す任意のパス(文字列)によって特定される記憶領域である。なお、特定の記憶領域は、電子黒板2の内部に設けられる構成に限られず、電子黒板2に接続される外部記憶装置、またはオンプレミス環境に存在し、電子黒板2と通信可能なローカルサーバ等に設けられる構成であってもよい。 Next, in the electronic blackboard 2, the storage / reading processing unit 29 stores the execution event ID and the file data in the storage unit 2000 (step S60). Here, the file data transmitted from the shared support server 6 is stored in a specific storage area of the storage unit 2000. As a result, the electronic blackboard 2 accesses the specific storage area during the execution of the event, so that the display control unit 24 displays the file data stored in the specific storage area on the display 220. Here, the specific storage area is a temporary storage destination of data provided for each event being executed, and is a storage area specified by an arbitrary path (character string) indicating the location in the storage unit 2000. Is. The specific storage area is not limited to the configuration provided inside the electronic blackboard 2, but is present in an external storage device connected to the electronic blackboard 2, or a local server that exists in the on-premises environment and can communicate with the electronic blackboard 2. It may be provided.

次に、表示制御部24は、ディスプレイ220上に、図28に示されているように、選択されたイベントの詳細情報画面250を表示させる(ステップS61)。このイベントの詳細情報画面250には、イベント名の表示領域251、イベントの実施予定時間(開始予定時間および終了予定時間)の表示領域252、および予約者名の表示領域253が含まれている。さらに、イベントの詳細情報画面250には、メモの内容を表示するための表示領域256、参加予定者名を表示するための表示領域257、および記憶部2000の特定の記憶領域に記憶されたファイルデータを識別するための識別情報(例えば、ファイル名)を表示するための表示領域258が表示されている。表示領域257には、図20によって示されている予約者名および選択された他の参加者名が表示されると共に、各参加予定者名には実際に会議に参加している人をチェックするためのチェックボックスが表示されている。また、表示領域258には、記憶部2000の特定の記憶領域に記憶されたファイルデータ、すなわち共用支援サーバ6からダウンロードされたファイルデータのファイル名が表示されているとともに、共用支援サーバ6からダウンロード中のファイルデータのファイル名も表示されている。さらに、イベントの詳細情報画面250の右下側には、この詳細情報画面250を閉じるための「閉じる」ボタン259が含まれている。 Next, the display control unit 24 displays the detailed information screen 250 of the selected event on the display 220 as shown in FIG. 28 (step S61). The detailed information screen 250 of this event includes a display area 251 for the event name, a display area 252 for the scheduled event implementation time (scheduled start time and scheduled end time), and a display area 253 for the reserved person name. Further, on the event detailed information screen 250, a display area 256 for displaying the contents of the memo, a display area 257 for displaying the names of prospective participants, and a file stored in a specific storage area of the storage unit 2000 are displayed. A display area 258 for displaying identification information (for example, a file name) for identifying data is displayed. The display area 257 displays the names of the bookers and other selected participants shown in FIG. 20, and each prospective participant name checks who is actually attending the meeting. Check box is displayed. Further, in the display area 258, the file data stored in the specific storage area of the storage unit 2000, that is, the file name of the file data downloaded from the shared support server 6 is displayed, and the file data is downloaded from the shared support server 6. The file name of the file data inside is also displayed. Further, the lower right side of the event detailed information screen 250 includes a "close" button 259 for closing the detailed information screen 250.

次に、利用者が、参加予定者名のうち、実際に参加している利用者のチェックボックスにチェックして、「閉じる」ボタン259を押下すると、受付部22は、参加者の選択を受け付ける(ステップS62)。そして、送受信部21は、共用支援サーバ6に対して、各参加予定者の利用者IDおよび参加の有無を示す情報を送信する(ステップS63)。これにより、共用支援サーバ6の送受信部61は、各参加予定者の利用者IDおよび参加の有無を示す情報を受信する。 Next, when the user checks the check box of the user who is actually participating among the names of the prospective participants and presses the "close" button 259, the reception unit 22 accepts the selection of the participant. (Step S62). Then, the transmission / reception unit 21 transmits the user ID of each prospective participant and information indicating the presence / absence of participation to the shared support server 6 (step S63). As a result, the transmission / reception unit 61 of the shared support server 6 receives the user ID of each prospective participant and information indicating the presence / absence of participation.

次に、共用支援サーバ6では、予定管理DB6003において、入力されていなかった参加有無欄に、参加の有無を記憶して管理する(ステップS64)。また、共用支援サーバ6の記憶・読出処理部69は、ステップS63によって受信された参加者の利用者IDを検索キーとして話者情報管理DB6007を検索することにより対応する話者IDを読み出す(ステップS65)。そして、送受信部61は、音声テキスト変換サーバ9に対して、ステップS65によって読み出された参加者の話者IDを、音声テキスト変換サーバ9へ送信する(ステップS66)。これにより、音声テキスト変換サーバ9の送受信部91は、参加者の話者IDを受信する。音声テキスト変換サーバ9は、ステップS66によって受信された参加者の話者IDの情報を、後述する話者特定処理(図33等参照)における話者候補として使用する。 Next, in the shared support server 6, in the schedule management DB 6003, the presence / absence of participation is stored and managed in the participation presence / absence column that has not been entered (step S64). Further, the storage / reading processing unit 69 of the sharing support server 6 reads out the corresponding speaker ID by searching the speaker information management DB 6007 using the user ID of the participant received in step S63 as a search key (step). S65). Then, the transmission / reception unit 61 transmits the speaker ID of the participant read in step S65 to the voice / text conversion server 9 (step S66). As a result, the transmission / reception unit 91 of the voice-text conversion server 9 receives the speaker ID of the participant. The voice-text conversion server 9 uses the information on the speaker ID of the participant received in step S66 as a speaker candidate in the speaker identification process (see FIG. 33 and the like) described later.

以上により、利用者Aは、共用体(ここでは、会議室X)および通信端末(ここでは、電子黒板2)を利用して、イベント(ここでは、方針決定会議)を開始する。電子黒板2の表示制御部24は、イベントが開始されると、ディスプレイ220に、図29に示されているような表示画面100aを表示させる。図29に示す表示画面100aには、メニューバー121、イベント開始からの経過時間またはイベント終了までの残り時間を示す時間情報124、並びに電子黒板2の電源をOFFする場合に押下される電源アイコン117が含まれている。メニューバー121は、Launcher102の操作表示画面(ウインドウ)の一例である。このメニューバー121には、イベント実行中の各種処理を行う際に選択(押下)される複数の操作アイコン125(125a〜125j)を含まれている。操作アイコン125aは、実行中のイベントの詳細情報を閲覧するために選択(押下)される。操作アイコン125bは、各種外部アプリ103を起動させる際に選択(押下)される。操作アイコン125cは、記憶部2000の特定の記憶領域に記憶されたファイルデータを閲覧する際に選択(押下)される。操作アイコン125dは、起動中の外部アプリ103のアプリ表示画面の表示を切り替える際に選択(押下)される。操作アイコン125eは、外部アプリ103のアプリ表示画面の画面サイズを変更する際に選択(押下)される。操作アイコン125fは、実行されているイベントに関する各種操作を行う際に選択(押下)される。操作アイコン125gは、ディスプレイ220に表示されている表示画面100aをキャプチャする際に選択(押下)される。操作アイコン125hは、実行中のイベントを終了する際に選択(押下)される。操作アイコン125iは、ブラウザを用いた検索を行うためにブラウザアプリ103cを起動させる際に選択(押下)される。操作アイコン125jは、文字または数値等の入力を行う際に選択(押下)される。 As described above, the user A starts the event (here, the policy decision meeting) by using the union (here, the conference room X) and the communication terminal (here, the electronic blackboard 2). When the event is started, the display control unit 24 of the electronic blackboard 2 causes the display 220 to display the display screen 100a as shown in FIG. 29. On the display screen 100a shown in FIG. 29, the menu bar 121, the time information 124 indicating the elapsed time from the start of the event or the remaining time until the end of the event, and the power icon 117 pressed when the power of the electronic blackboard 2 is turned off. It is included. The menu bar 121 is an example of the operation display screen (window) of the Launcher 102. The menu bar 121 includes a plurality of operation icons 125 (125a to 125j) that are selected (pressed) when performing various processes during event execution. The operation icon 125a is selected (pressed) to view detailed information about the event being executed. The operation icon 125b is selected (pressed) when the various external applications 103 are started. The operation icon 125c is selected (pressed) when browsing the file data stored in the specific storage area of the storage unit 2000. The operation icon 125d is selected (pressed) when switching the display of the application display screen of the running external application 103. The operation icon 125e is selected (pressed) when changing the screen size of the application display screen of the external application 103. The operation icon 125f is selected (pressed) when performing various operations related to the event being executed. The operation icon 125g is selected (pressed) when capturing the display screen 100a displayed on the display 220. The operation icon 125h is selected (pressed) when ending the event being executed. The operation icon 125i is selected (pressed) when the browser application 103c is started to perform a search using the browser. The operation icon 125j is selected (pressed) when inputting characters, numerical values, or the like.

ここで、電子黒板2に表示される表示画面に含まれる各種アイコンは、「受付領域」の一例である。受付領域は、アイコンやボタン等の画像だけでなく、「変更」等の文字、または画像と文字を組み合わせたものであってもよい。ここでの画像は、記号や図形だけでなく、イラストや模様等のユーザが視認できる画像であればよい。また、各種アイコンの選択(押下)は、各種アイコンに対する操作の一例である。各種アイコンに対する操作には、例えば、電子ペン2500を用いたディスプレイ220への入力操作、PC2700が有する入力手段の一例であるマウスによるダブルクリックまたはシングルクリック、PC2700が有する入力手段の一例であるキーボードを用いた入力操作が挙げられる。 Here, the various icons included in the display screen displayed on the electronic blackboard 2 are examples of the “reception area”. The reception area may be not only an image such as an icon or a button, but also a character such as "change" or a combination of the image and the character. The image here may be an image that can be visually recognized by the user, such as an illustration or a pattern, as well as a symbol or a figure. Further, the selection (pressing) of various icons is an example of operations for various icons. The operations for various icons include, for example, an input operation to the display 220 using the electronic pen 2500, a double click or a single click with a mouse which is an example of the input means of the PC 2700, and a keyboard which is an example of the input means of the PC 2700. The input operation used can be mentioned.

そして、図30に示されているように、利用者Aは、会議室Xで、電子黒板2を利用して会議を行うことができる。電子黒板2の表示制御部24は、イベント実行画面Rとして、表示画面100aに含まれるメニューバー121が縮小されたメニューバー120および資料ファイルのファイルデータr4を、ディスプレイ220に表示させる。例えば、電子黒板2の利用者Aは、操作アイコン125cを押下することで、受付部22が操作アイコン125cの選択を受け付け、表示制御部24が記憶部2000の特定の記憶領域に記憶された資料ファイルのファイルデータr4を表示させる。なお、電子黒板2の表示制御部24は、ステップS59によって受信されたファイルデータだけでなく、記憶部2000に予め記憶されたファイルデータ、または開始されているイベントにおいて新たに生成されるファイルデータを表示させてもよい。この場合、電子黒板2の記憶・読出処理部29は、開始されているイベントにおいて生成または更新されたファイルデータを、記憶部2000の特定の記憶領域に記憶させる。 Then, as shown in FIG. 30, the user A can hold a conference in the conference room X by using the electronic blackboard 2. The display control unit 24 of the electronic blackboard 2 causes the display 220 to display the menu bar 120 in which the menu bar 121 included in the display screen 100a is reduced and the file data r4 of the material file as the event execution screen R. For example, the user A of the electronic blackboard 2 presses the operation icon 125c, the reception unit 22 accepts the selection of the operation icon 125c, and the display control unit 24 stores the material in the specific storage area of the storage unit 2000. Display the file data r4 of the file. The display control unit 24 of the electronic blackboard 2 stores not only the file data received in step S59, but also the file data stored in advance in the storage unit 2000 or the file data newly generated at the started event. It may be displayed. In this case, the storage / reading processing unit 29 of the electronic blackboard 2 stores the file data generated or updated in the started event in a specific storage area of the storage unit 2000.

<実行イベント履歴の登録処理>
続いて、図31〜図36を用いて、実行イベント履歴の登録処理について説明する。
<Registration process of execution event history>
Subsequently, the process of registering the execution event history will be described with reference to FIGS. 31 to 36.

図31および図36は、実施形態に係る共用システムの実行イベント履歴の登録処理の流れの一例を示すシーケンス図である。図32は、実施形態に係る共用システムの音声テキスト変換処理の流れの一例を示すフローチャートである。図33は、実施形態に係る共用システムの話者特定処理の流れの一例を示すフローチャートである。 31 and 36 are sequence diagrams showing an example of the flow of registration processing of the execution event history of the shared system according to the embodiment. FIG. 32 is a flowchart showing an example of the flow of the voice-text conversion process of the shared system according to the embodiment. FIG. 33 is a flowchart showing an example of the flow of the speaker identification process of the shared system according to the embodiment.

まず、電子黒板2の判断部25は、開始されているイベントにおけるコンテンツの処理の種類を判断する(ステップS71)。具体的には、コンテンツが音処理部23−2による録音によって生じる音データの場合には、判断部25は、コンテンツの処理の種類が「録音」であると判断する。コンテンツが画像処理部23−1によるスナップショット(キャプチャ)によって取得された画像データの場合には、判断部25は、コンテンツの処理の種類が「スナップショット」であると判断する。コンテンツが送受信部21によって送信された資料ファイルデータの場合には、判断部25は、コンテンツの処理の種類が「資料送信」であると判断する。 First, the determination unit 25 of the electronic blackboard 2 determines the type of content processing in the started event (step S71). Specifically, when the content is sound data generated by recording by the sound processing unit 23-2, the determination unit 25 determines that the type of content processing is "recording". When the content is image data acquired by a snapshot (capture) by the image processing unit 23-1, the determination unit 25 determines that the processing type of the content is “snapshot”. When the content is the material file data transmitted by the transmission / reception unit 21, the determination unit 25 determines that the processing type of the content is "material transmission".

次に、送受信部21は、共用支援サーバ6へ、発生したコンテンツの登録要求を示す登録要求情報を送信する(ステップS72)。この場合、送受信部21は、コンテンツが発生するたびに自動的に登録要求情報を送信する。この登録要求情報には、実行イベントID、コンテンツの送信元の利用者ID、コンテンツデータ、およびコンテンツ処理の種類情報が含まれている。これにより、共用支援サーバ6の送受信部61は、登録要求情報を受信する。 Next, the transmission / reception unit 21 transmits the registration request information indicating the registration request of the generated content to the sharing support server 6 (step S72). In this case, the transmission / reception unit 21 automatically transmits the registration request information each time the content is generated. The registration request information includes an execution event ID, a user ID of a content sender, content data, and content processing type information. As a result, the transmission / reception unit 61 of the sharing support server 6 receives the registration request information.

次に、共用支援サーバ6の判断部65は、送受信部61によって受信された登録要求情報に含まれる種類情報に基づいて、受信されたコンテンツ処理の種類を判断する(ステップS73)。そして、共用支援サーバ6の送受信部61は、判断部65によってコンテンツ処理の種類が「録音」であると判断された場合、音声テキスト変換サーバ9へ、コンテンツデータである音データを送信する(ステップS74)。これにより、音声テキスト変換サーバ9の送受信部91は、音データを受信する。なお、コンテンツ処理の種類が「録音」以外である場合、共用支援サーバ6は、ステップS74〜ステップS78の処理は行わずに、ステップS79の処理へ移行する。 Next, the determination unit 65 of the sharing support server 6 determines the type of content processing received based on the type information included in the registration request information received by the transmission / reception unit 61 (step S73). Then, when the transmission / reception unit 61 of the sharing support server 6 determines that the content processing type is "recording" by the determination unit 65, the transmission / reception unit 61 transmits the sound data which is the content data to the voice text conversion server 9 (step). S74). As a result, the transmission / reception unit 91 of the voice-text conversion server 9 receives the sound data. When the type of content processing is other than "recording", the sharing support server 6 shifts to the processing of step S79 without performing the processing of steps S74 to S78.

次に、音声テキスト変換サーバ9の変換部93は、送受信部91によって受信された音データを、テキストデータに変換する(ステップS75)。ここで、図32を用いて、ステップS75の音声テキスト変換サーバ9における音声テキスト変換処理について説明する。まず、変換部93は、送受信部91によって音データが受信された日時を示す情報を取得する(ステップS75−1)。なお、ステップS75−1によって取得される情報は、共用支援サーバ6が音データを受信した日時または共用支援サーバ6が音データを送信した日時を示す情報であってもよい。この場合、音声テキスト変換サーバ9の送受信部91は、ステップS74において、共用支援サーバ6から送信された音データおよび上記日時を示す情報を受信する。 Next, the conversion unit 93 of the voice-text conversion server 9 converts the sound data received by the transmission / reception unit 91 into text data (step S75). Here, the voice-text conversion process in the voice-text conversion server 9 in step S75 will be described with reference to FIG. 32. First, the conversion unit 93 acquires information indicating the date and time when the sound data was received by the transmission / reception unit 91 (step S75-1). The information acquired in step S75-1 may be information indicating the date and time when the shared support server 6 received the sound data or the date and time when the shared support server 6 transmitted the sound data. In this case, the transmission / reception unit 91 of the voice-text conversion server 9 receives the sound data transmitted from the sharing support server 6 and the information indicating the date and time in step S74.

次に、変換部93は、送受信部91によって受信された音データのテキスト変換処理を実行する(ステップS75−2)。そして、変換部93は、音データのテキスト変換処理が完了した場合(ステップS75−3のYES)、処理をステップS75−4へ移行させる。一方で、変換部93は、音データのテキスト変換処理が完了するまでステップS75−2の処理を繰り返す。ここで、ステップS75−3において、変換部93は、送受信部91によって受信された音データに基づいて、所定の分量のテキスト変換が行われた場合、音データのテキスト変換処理が完了したと判断する。例えば、変換部93は、1センテンス分のテキスト変換が行われた場合、音データのテキスト変換処理が完了したと判断する。そして、変換部93は、音データから変換されたテキストデータを生成する(ステップS75−4)。これにより、音声テキスト変換サーバ9は、共用支援サーバ6から送信された音データをテキストデータに変換する。音声テキスト変換サーバ9は、共用支援サーバ6から送信された音データを随時受信しているため、図32に示す処理を繰り返し実行する。 Next, the conversion unit 93 executes a text conversion process of the sound data received by the transmission / reception unit 91 (step S75-2). Then, when the text conversion process of the sound data is completed (YES in step S75-3), the conversion unit 93 shifts the process to step S75-4. On the other hand, the conversion unit 93 repeats the process of step S75-2 until the text conversion process of the sound data is completed. Here, in step S75-3, the conversion unit 93 determines that the text conversion process of the sound data is completed when a predetermined amount of text conversion is performed based on the sound data received by the transmission / reception unit 91. To do. For example, when the text conversion for one sentence is performed, the conversion unit 93 determines that the text conversion process for the sound data is completed. Then, the conversion unit 93 generates the text data converted from the sound data (step S75-4). As a result, the voice-text conversion server 9 converts the sound data transmitted from the sharing support server 6 into text data. Since the voice-text conversion server 9 receives the sound data transmitted from the sharing support server 6 at any time, the process shown in FIG. 32 is repeatedly executed.

ここで、図34を用いて、図31のステップS74、S75およびS77、および図32で説明した音声テキスト変換処理について、より詳細に説明する。図34は、実施形態に係る共用システムの音声テキスト変換処理の流れの一例を示すシーケンス図である。なお、図34では、図31のステップS76の処理は省略して説明する。 Here, with reference to FIG. 34, the voice-to-text conversion process described in steps S74, S75 and S77 of FIG. 31 and FIG. 32 will be described in more detail. FIG. 34 is a sequence diagram showing an example of the flow of the voice-text conversion process of the shared system according to the embodiment. In FIG. 34, the process of step S76 in FIG. 31 will be omitted.

図31のステップS74に示すように、電子黒板2の送受信部21は、共用支援サーバ6に対して、実行されているイベントによって発生した音データを随時送信する(ステップSa1、ステップSa2)。これにより、共用支援サーバ6の送受信部61は、電子黒板2から送信された音データを随時受信する。そして、共用支援サーバ6の送受信部61は、電子黒板2から送信された音データを、音声テキスト変換サーバ9へ随時送信する(ステップSb1、ステップSb2)。これにより、音声テキスト変換サーバ9の送受信部91は、共用支援サーバ6から送信された音データを随時受信する。 As shown in step S74 of FIG. 31, the transmission / reception unit 21 of the electronic blackboard 2 transmits sound data generated by the event being executed to the shared support server 6 at any time (steps Sa1 and Sa2). As a result, the transmission / reception unit 61 of the sharing support server 6 receives the sound data transmitted from the electronic blackboard 2 at any time. Then, the transmission / reception unit 61 of the sharing support server 6 transmits the sound data transmitted from the electronic blackboard 2 to the voice-text conversion server 9 at any time (steps Sb1 and Sb2). As a result, the transmission / reception unit 91 of the voice-text conversion server 9 receives the sound data transmitted from the sharing support server 6 at any time.

ここで、ステップSa1によって電子黒板2から共用支援サーバ6へ送信された音データは、ステップSb1によって共用支援サーバ6から音声テキスト変換サーバ9へ送信された音データに対応し、ステップSa2によって電子黒板2から共用支援サーバ6へ送信された音データは、ステップSb2によって共用支援サーバ6からスケジュール管理サーバ8へ送信された音データに対応する。このように、電子黒板2の音処理部23−2によって集音されて処理された音データは、随時音声テキスト変換サーバ9へ送信される。 Here, the sound data transmitted from the electronic blackboard 2 to the shared support server 6 in step Sa1 corresponds to the sound data transmitted from the shared support server 6 to the voice text conversion server 9 in step Sb1, and corresponds to the sound data transmitted from the shared support server 6 to the voice text conversion server 9 in step Sb1. The sound data transmitted from 2 to the shared support server 6 corresponds to the sound data transmitted from the shared support server 6 to the schedule management server 8 in step Sb2. In this way, the sound data collected and processed by the sound processing unit 23-2 of the electronic blackboard 2 is transmitted to the voice-text conversion server 9 at any time.

音声テキスト変換サーバ9の変換部93は、送受信部91によって受信された音データを、テキストデータに変換する。そして、音声テキスト変換サーバ9の送受信部91は、共用支援サーバ6に対して、変換部93によって変換されたテキストデータを送信する(ステップSc1)。この場合、ステップSc1によって送信されるテキストデータは、ステップSb1およびステップSb2によって受信された音データがテキスト変換されたテキストデータである。 The conversion unit 93 of the voice-text conversion server 9 converts the sound data received by the transmission / reception unit 91 into text data. Then, the transmission / reception unit 91 of the voice-text conversion server 9 transmits the text data converted by the conversion unit 93 to the sharing support server 6 (step Sc1). In this case, the text data transmitted in step Sc1 is text data obtained by converting the sound data received in steps Sb1 and Sb2 into text.

ここで、ステップSc1によって音声テキスト変換サーバ9から共用支援サーバ6に送信されるテキストデータは、未確定のテキストデータである。音声テキスト変換サーバ9の変換部93は、所定の分量のテキスト変換が行われた場合、音データのテキスト変換が完了し、テキストデータが確定したと判断する。例えば、変換部93は、1センテンス分のテキスト変換が行われた場合、音データのテキスト変換が完了し、テキストデータが確定したと判断する。ステップSc1では、未確定のテキストデータであるため、送受信部91は、変換部93によって変換されたテキストデータ(「In this fiscal year, more」)とともに、テキストデータが確定していない(未確定)ことを示す未確定フラグを送信する。 Here, the text data transmitted from the voice-text conversion server 9 to the sharing support server 6 in step Sc1 is undetermined text data. When the text conversion of a predetermined amount is performed, the conversion unit 93 of the voice-text conversion server 9 determines that the text conversion of the sound data is completed and the text data is confirmed. For example, when the text conversion for one sentence is performed, the conversion unit 93 determines that the text conversion of the sound data is completed and the text data is confirmed. In step Sc1, since the text data is unconfirmed, the transmission / reception unit 91 has not determined the text data together with the text data (“Inthis flag ear, more”) converted by the conversion unit 93 (undecided). Send an unconfirmed flag to indicate that.

そして、共用支援サーバ6の送受信部61は、音声テキスト変換サーバ9から送信されたテキストデータ(未確定のテキストデータ)を、電子黒板2へ送信する(ステップSc2)。これにより、電子黒板2の送受信部21は、共用支援サーバ6から送信されたテキストデータ(未確定のテキストデータ)を受信する。そして、電子黒板2の表示制御部24は、送受信部21によって受信されたテキストデータを、ディスプレイ508に表示させる。電子黒板2は、図30に示されているようなイベント実行画面Rに、実行中のイベントによって発生した音データの字幕表示としてテキストデータを表示させることができる。なお、電子黒板2は、未確定のテキストデータであっても受信して表示させることで、電子黒板2の利用者に、音声テキスト変換サーバ9による音声テキスト変換処理が随時行われていることを確認させることができる。 Then, the transmission / reception unit 61 of the sharing support server 6 transmits the text data (unconfirmed text data) transmitted from the voice text conversion server 9 to the electronic blackboard 2 (step Sc2). As a result, the transmission / reception unit 21 of the electronic blackboard 2 receives the text data (unconfirmed text data) transmitted from the sharing support server 6. Then, the display control unit 24 of the electronic blackboard 2 causes the display 508 to display the text data received by the transmission / reception unit 21. The electronic blackboard 2 can display text data as a subtitle display of sound data generated by the event being executed on the event execution screen R as shown in FIG. By receiving and displaying even unconfirmed text data on the electronic blackboard 2, the user of the electronic blackboard 2 is informed that the voice-text conversion process by the voice-text conversion server 9 is being performed at any time. You can check it.

共用システム1は、上記で示されるような処理を繰り返す(ステップSa3〜Sa7、Sb3〜Sb7、Sc3〜Sc4)ことにより、電子黒板2の音処理部23−2によって集音されて処理された音データのテキスト変換処理を繰り返し実行する。なお、音声テキスト変換サーバ9によって未確定のテキストデータを送信すされる回数(頻度)は、適宜設定可能である。 The shared system 1 repeats the processing as shown above (steps Sa3 to Sa7, Sb3 to Sb7, Sc3 to Sc4), so that the sound is collected and processed by the sound processing unit 23-2 of the electronic blackboard 2. Repeat the data text conversion process. The number of times (frequency) that undetermined text data is transmitted by the voice-to-text conversion server 9 can be set as appropriate.

音声テキスト変換サーバ9の送受信部91は、変換部93によって音データのテキスト変換が完了し、テキストデータが確定したと判断された場合、確定のテキストデータを、共用支援サーバ6に対して送信する(ステップSc5)。この場合、送受信部91は、変換部93によって変換されたテキストデータ(「In this fiscal year, more than twice the results of last year.」)とともに、テキストデータが確定したことを示す確定フラグを送信する。これにより、共用支援サーバ6の送受信部61は、音声テキスト変換サーバ9から送信されたテキストデータ(確定のテキストデータ)を受信する。 When the transmission / reception unit 91 of the voice text conversion server 9 completes the text conversion of the sound data by the conversion unit 93 and determines that the text data is confirmed, the transmission / reception unit 91 transmits the confirmed text data to the shared support server 6. (Step Sc5). In this case, the transmission / reception unit 91 transmits a confirmation flag indicating that the text data has been confirmed together with the text data converted by the conversion unit 93 (“Inthis fiscal year, more TWICE the last year.”). .. As a result, the transmission / reception unit 61 of the sharing support server 6 receives the text data (confirmed text data) transmitted from the voice-text conversion server 9.

ここで、ステップSc5によって受信されたテキストデータは、図31のステップS81の処理によってコンテンツ管理DB6005に記憶されて管理される。この場合、ステップSc5によって受信されたテキストデータの処理に係る日時は、ステップSb1よって音データが送信された日時から、ステップSc5によってテキストデータが受信された日時となる。すなわち、コンテンツ管理DB6005に記憶されるコンテンツ処理の開始日時は、ステップSb1によって音データが送信された日時であり、コンテンツ処理の終了日時は、ステップSc5によってテキストデータが受信された日時である。このように、共用支援サーバ6は、音声テキスト変換サーバ9から送信されたテキストデータ(確定したテキストデータ)とともに、テキストデータに対応する音データの音声テキスト変換サーバ9への送信が開始された日時から確定したテキストデータを受信した日時を、コンテンツ処理の開始および終了日時として管理することができる。 Here, the text data received in step Sc5 is stored and managed in the content management DB 6005 by the process of step S81 in FIG. In this case, the date and time related to the processing of the text data received in step Sc5 is the date and time when the text data was received in step Sc5 from the date and time when the sound data was transmitted in step Sb1. That is, the start date and time of the content processing stored in the content management DB 6005 is the date and time when the sound data is transmitted in step Sb1, and the end date and time of the content processing is the date and time when the text data is received in step Sc5. In this way, the sharing support server 6 starts transmitting the sound data corresponding to the text data to the voice-text conversion server 9 together with the text data (fixed text data) transmitted from the voice-text conversion server 9. The date and time when the text data confirmed from is received can be managed as the start and end date and time of the content processing.

そして、共用支援サーバ6の送受信部61は、電子黒板2に対して、音声テキスト変換サーバ9から送信されたテキストデータ(確定のテキストデータ)を送信する(ステップSc6)。これにより、電子黒板2の送受信部21は、共用支援サーバ6から送信されたテキストデータを受信する。そして、電子黒板2の送受信部21は、共用支援サーバ6から送信されたテキストデータをディスプレイ220に表示させる。 Then, the transmission / reception unit 61 of the sharing support server 6 transmits the text data (confirmed text data) transmitted from the voice-text conversion server 9 to the electronic blackboard 2 (step Sc6). As a result, the transmission / reception unit 21 of the electronic blackboard 2 receives the text data transmitted from the sharing support server 6. Then, the transmission / reception unit 21 of the electronic blackboard 2 causes the display 220 to display the text data transmitted from the sharing support server 6.

このように、共用システム1は、実行されているイベントによって発生した音データを、音声テキスト変換サーバ9を用いてテキストデータに変換することができるとともに、テキストデータの発生時間に関する情報(コンテンツ処理の開始日時および終了日時)を共用支援サーバ6およびスケジュール管理サーバ8に記憶させて管理させることができる。 In this way, the shared system 1 can convert the sound data generated by the event being executed into text data by using the voice-text conversion server 9, and also provides information on the generation time of the text data (content processing). The start date and time and the end date and time) can be stored and managed in the shared support server 6 and the schedule management server 8.

図31に戻り、実行イベント履歴の登録処理の説明を続ける。話者特定部95は、送受信部91によって受信された音データに係る音声の話者を特定する(ステップS76)。ここで、図33を用いて、ステップS76の音声テキスト変換サーバ9における話者特定処理について説明する。 Returning to FIG. 31, the description of the execution event history registration process will be continued. The speaker identification unit 95 identifies the speaker of the voice related to the sound data received by the transmission / reception unit 91 (step S76). Here, the speaker identification process in the voice-to-text conversion server 9 in step S76 will be described with reference to FIG. 33.

まず、記憶・読出処理部99は、利用者音声情報管理DB9001から、実行されているイベントの話者候補の利用者音声データを読み出す(ステップS76−1)。具体的には、記憶・読出処理部99は、ステップS66によって受信された参加者の話者IDを検索キーとして利用者音声情報管理DB9001(図16参照)を検索することにより、対応する利用者音声データを読み出す。 First, the storage / reading processing unit 99 reads the user voice data of the speaker candidate of the event being executed from the user voice information management DB 9001 (step S76-1). Specifically, the storage / reading processing unit 99 searches the user voice information management DB 9001 (see FIG. 16) using the speaker ID of the participant received in step S66 as a search key, and thereby corresponds to the corresponding user. Read voice data.

次に、話者特定部95は、ステップS76−1によって読み出された利用者音声データのうち、ステップS74によって受信された音データに対応する利用者音声データを抽出する(ステップS76−2)。すなわち、話者特定部95は、ステップS76−1で読み出された利用者音声データと、ステップS74で受信された音データとを比較する。ここで、話者特定部95による利用者音声データの抽出処理は、例えば、人工知能(AI:Artificial Intelligence)による機械学習プログラムを用いる。話者特定部95は、受信された音データに含まれる声の高さ、声質、抑揚、強勢、音長またはリズム等の特徴に基づいて、予め記憶された利用者音声データとの一致度を判別し、最も一致度の高い利用者音声データを抽出する。なお、話者特定部95による利用者音声データの抽出処理は、汎用的な技術を用いるため詳細な説明は省略する。また、話者特定部95による利用者音声データの抽出処理は、機械学習によるものに限定されない。 Next, the speaker identification unit 95 extracts the user voice data corresponding to the sound data received in step S74 from the user voice data read in step S76-1 (step S76-2). .. That is, the speaker identification unit 95 compares the user voice data read in step S76-1 with the sound data received in step S74. Here, for the extraction process of the user voice data by the speaker identification unit 95, for example, a machine learning program by artificial intelligence (AI) is used. The speaker identification unit 95 determines the degree of agreement with the user voice data stored in advance based on the characteristics such as voice pitch, voice quality, intonation, emphatic consonant, sound length, and rhythm contained in the received sound data. Determine and extract the user voice data with the highest degree of matching. Since the extraction process of the user voice data by the speaker identification unit 95 uses a general-purpose technique, detailed description thereof will be omitted. Further, the extraction process of the user voice data by the speaker identification unit 95 is not limited to the one by machine learning.

次に、話者特定部95は、ステップS76−2の処理において対応する利用者音声データが存在するか否かを判断する(ステップS76−3)。話者特定部95は、対応する利用者音声データが存在する場合、処理をステップS76−4へ移行させる(ステップS76−3のYES)。そして、記憶・読出処理部99は、ステップS76−2によって抽出された利用者音声データを検索キーとして利用者音声情報管理DB9001を検索することにより、対応する話者IDを読み出す(ステップS76−4)。これにより、音声テキスト変換サーバ9は、受信された音データの話者IDを特定することができる。 Next, the speaker identification unit 95 determines whether or not the corresponding user voice data exists in the process of step S76-2 (step S76-3). When the corresponding user voice data exists, the speaker identification unit 95 shifts the process to step S76-4 (YES in step S76-3). Then, the storage / reading processing unit 99 reads out the corresponding speaker ID by searching the user voice information management DB 9001 using the user voice data extracted in step S76-2 as a search key (step S76-4). ). As a result, the voice-text conversion server 9 can identify the speaker ID of the received sound data.

一方で、話者特定部95は、対応する利用者音声データが存在しない場合、処理を終了する(ステップS76−3のNO)。このように、音声テキスト変換サーバ9は、予め登録された利用者音声データを用いて、イベントによって発生した音データの話者IDを特定することができる。また、共用システム1は、イベントの参加者の情報を、話者特定処理を行う音声テキスト変換サーバ9に伝えることで、そのイベントの参加者のみを話者特定処理に用いる話者候補とすることができる。これにより、音声テキスト変換サーバ9は、従来、利用者音声データが登録された全員にする必要があった話者候補を、イベントの参加者のみに限定することができるので、話者特定処理の精度を高める向上させることができる。 On the other hand, the speaker identification unit 95 ends the process when the corresponding user voice data does not exist (NO in step S76-3). In this way, the voice-text conversion server 9 can specify the speaker ID of the sound data generated by the event by using the user voice data registered in advance. Further, the shared system 1 transmits the information of the participants of the event to the voice-text conversion server 9 that performs the speaker identification process, so that only the participants of the event are candidates for the speaker to be used for the speaker identification process. Can be done. As a result, the voice-to-text conversion server 9 can limit the speaker candidates, which conventionally had to be all registered user voice data, to only the participants of the event, so that the speaker identification process can be performed. It can be improved to improve the accuracy.

なお、図32の音声テキスト変換処理および図33の話者特定処理の順序は、前後してもよく、または並行して行われてもよい。また、図31のステップS75およびステップS76、並びに図32〜図34において、音声テキスト変換サーバ9が音声テキスト変換処理および話者特定処理の両方を実行する例を説明したが、音声テキスト変換処理と話者特定処理とは別のサーバで実行される構成であってもよい。この場合、共用支援サーバ6は、複数のサーバに音データを送信し、それぞれの処理を担うサーバは、共用支援サーバ6に対して、テキストデータまたは話者IDを送信する。このうち、話者特定処理を担うサーバは、受信された音データに対して特定された話者IDを、共用支援サーバ6へ随時送信する。そして、共用支援サーバ6の判断部65は、確定したテキストデータを受信した際に、随時受信されている話者IDのうち、最も受信された回数の多い(割合の高い)話者IDを、確定したテキストデータに対応する話者IDとして特定する。 The order of the voice-to-text conversion process of FIG. 32 and the speaker identification process of FIG. 33 may be changed back and forth, or may be performed in parallel. Further, in steps S75 and S76 of FIG. 31, and FIGS. 32 to 34, an example in which the voice-text conversion server 9 executes both the voice-text conversion process and the speaker identification process has been described. It may be configured to be executed on a server different from the speaker identification process. In this case, the shared support server 6 transmits sound data to a plurality of servers, and the server responsible for each process transmits text data or a speaker ID to the shared support server 6. Of these, the server responsible for the speaker identification process transmits the speaker ID specified for the received sound data to the shared support server 6 at any time. Then, when the determination unit 65 of the shared support server 6 receives the confirmed text data, the speaker ID that has been received most frequently (high proportion) among the speaker IDs that have been received at any time is selected. It is specified as a speaker ID corresponding to the confirmed text data.

図31に戻り、実行イベント履歴の登録処理の説明を続ける。送受信部91は、変換部93によって変換されたテキストデータ、および話者特定部95によって特定された話者IDを、共用支援サーバ6へ送信する(ステップS77)。ここで、送受信部91は、テキストデータおよび話者IDとともに、ステップS75−1によって取得された日時を示す情報を、共用支援サーバ6へ送信する。これにより、共用支援サーバ6の送受信部61は、テキストデータおよび話者IDを受信する。次に、共用支援サーバ6の記憶・読出処理部69は、ステップS77で受信された話者IDを検索キーとして話者情報管理DB6007を検索することにより、対応する利用者IDを読み出す(ステップS78)。 Returning to FIG. 31, the description of the execution event history registration process will be continued. The transmission / reception unit 91 transmits the text data converted by the conversion unit 93 and the speaker ID specified by the speaker identification unit 95 to the sharing support server 6 (step S77). Here, the transmission / reception unit 91 transmits the text data and the speaker ID, as well as the information indicating the date and time acquired in step S75-1, to the sharing support server 6. As a result, the transmission / reception unit 61 of the sharing support server 6 receives the text data and the speaker ID. Next, the storage / reading processing unit 69 of the sharing support server 6 reads out the corresponding user ID by searching the speaker information management DB 6007 using the speaker ID received in step S77 as a search key (step S78). ).

次に、生成部64は、イベントにより発生したコンテンツ処理を識別するための固有のコンテンツ処理IDを生成する(ステップS79)。また、生成部64は、コンテンツの内容を示したコンテンツデータのURLを生成する(ステップS80)。そして、記憶・読出処理部69は、コンテンツ管理DB6005(図10参照)に対して、ステップS72によって受信された実行イベントID毎に、コンテンツ処理の種類、コンテンツ処理の開始日時および終了日時、ステップS79によって生成されたコンテンツ処理ID、並びにステップS80によって生成されたコンテンツの保存先を示すURLを関連付けて管理する(ステップS81)。 Next, the generation unit 64 generates a unique content processing ID for identifying the content processing generated by the event (step S79). In addition, the generation unit 64 generates a URL of content data indicating the content of the content (step S80). Then, the storage / reading processing unit 69 informs the content management DB 6005 (see FIG. 10) of the type of content processing, the start date / time and end date / time of the content processing, and step S79 for each execution event ID received in step S72. The content processing ID generated by the above and the URL indicating the storage destination of the content generated by the step S80 are associated and managed (step S81).

ここで、コンテンツ処理の種類が「音声テキスト変換」である場合、コンテンツ処理の開始日時および終了日時は、音データがテキストデータに変換された日時である。ここで、音データがテキストデータに変換された日時とは、図34に示されているように、共用支援サーバ6の送受信部61によって音データを送信された日時および共用支援サーバ6の送受信部61によってテキストデータが受信された日時である。なお、音データがテキストデータに変換された日時は、音声テキスト変換サーバ9の送受信部91によって音データが受信された日時および音声テキスト変換サーバ9の送受信部91によってテキストデータが送信された日時であってもよい。また、コンテンツ処理の種類が「音声テキスト変換」である場合、コンテンツ処理の開始日時および終了日時は、テキスト変換対象の音データに係るコンテンツ処理の開始日時および終了日時と同じ日時であってもよい。 Here, when the type of content processing is "speech-text conversion", the start date and time and end date and time of the content processing are the date and time when the sound data is converted into text data. Here, the date and time when the sound data is converted into text data are the date and time when the sound data was transmitted by the transmission / reception unit 61 of the shared support server 6 and the transmission / reception unit of the shared support server 6, as shown in FIG. It is the date and time when the text data was received by 61. The date and time when the sound data is converted into text data is the date and time when the sound data is received by the transmission / reception unit 91 of the voice text conversion server 9 and the date and time when the text data is transmitted by the transmission / reception unit 91 of the voice text conversion server 9. There may be. When the type of content processing is "voice text conversion", the start date and time and end date and time of the content processing may be the same as the start date and time and end date and time of the content processing related to the sound data to be text-converted. ..

また、コンテンツ処理の種類が「録音」、「スナップショット」および「資料送信」である場合、コンテンツの処理の開始日時および終了日時は、共用支援サーバ6の送受信部61によってコンテンツデータ(音データ、画像データ、ファイルデータ)が受信された日時である。なお、コンテンツ処理の種類が「録音」、「スナップショット」および「資料送信」である場合、コンテンツの処理の開始日時および終了日時は、電子黒板2の送受信部21によってコンテンツデータが送信された日時であってもよい。また、コンテンツ処理の種類が「録音」である場合、音処理部23−2による録音が行われた開始日時および終了日時であってもよい。さらに、コンテンツ処理の種類が「スナップショット」である場合、コンテンツの処理の開始日時および終了日時は、画像処理部23−1によるスナップショット(キャプチャ)が行われた日時であってもよい。 When the types of content processing are "recording", "snapshot", and "material transmission", the start date and time and end date and time of the content processing are determined by the transmission / reception unit 61 of the shared support server 6 as content data (sound data, sound data, It is the date and time when the image data and file data) were received. When the types of content processing are "recording", "snapshot", and "material transmission", the start date and time and end date and time of the content processing are the date and time when the content data is transmitted by the transmission / reception unit 21 of the electronic blackboard 2. It may be. When the type of content processing is "recording", it may be the start date and time and the end date and time when the recording by the sound processing unit 23-2 was performed. Further, when the type of content processing is "snapshot", the start date and time and end date and time of the content processing may be the date and time when the snapshot (capture) was performed by the image processing unit 23-1.

次に、図36において、共用支援サーバ6の記憶・読出処理部69は、ステップS72によって受信された利用者IDを検索キーとして利用者認証管理DB6001(図9(A)参照)を検索することにより、対応する組織IDを読み出す(ステップS91)。 Next, in FIG. 36, the storage / reading processing unit 69 of the sharing support server 6 searches the user authentication management DB 6001 (see FIG. 9A) using the user ID received in step S72 as a search key. Reads the corresponding organization ID (step S91).

次に、記憶・読出処理部69は、ステップS91によって読み出された組織IDを検索キーとしてアクセス管理DB6002(図9(B)参照)を検索することにより、対応するアクセスIDおよびアクセスパスワードを読み出す(ステップS92)。 Next, the storage / reading processing unit 69 reads the corresponding access ID and access password by searching the access management DB 6002 (see FIG. 9B) using the organization ID read in step S91 as a search key. (Step S92).

次に、送受信部61は、スケジュール管理サーバ8に対して、実行イベント履歴の登録要求を示す実行イベント履歴の登録要求情報を送信する(ステップS93)。この実行イベント履歴の登録要求情報には、ステップS72によって受信された実行イベントID、送信元の利用者ID、コンテンツデータ、ステップS77によって生成されたコンテンツ処理ID、ステップS78によって生成されたコンテンツデータのURL、ステップS92によって読み出されたアクセスIDおよびアクセスパスワード、並びにコンテンツ処理の開始日時および終了日時が含まれている。ここで、ステップS77によって受信されたテキストデータがコンテンツデータとして送信される場合、送受信部61は、テキストデータとともに、ステップS78によって読み出された利用者IDを送信する。これにより、スケジュール管理サーバ8の送受信部81は、実行イベント履歴の登録要求情報を受信する。 Next, the transmission / reception unit 61 transmits the execution event history registration request information indicating the execution event history registration request to the schedule management server 8 (step S93). The registration request information of the execution event history includes the execution event ID received in step S72, the user ID of the sender, the content data, the content processing ID generated in step S77, and the content data generated in step S78. The URL, the access ID and access password read in step S92, and the start date and time and end date and time of the content processing are included. Here, when the text data received in step S77 is transmitted as content data, the transmission / reception unit 61 transmits the user ID read in step S78 together with the text data. As a result, the transmission / reception unit 81 of the schedule management server 8 receives the registration request information of the execution event history.

次に、スケジュール管理サーバ8では、認証部82が、アクセスIDおよびアクセスパスワードを利用して共用支援サーバ6の認証を行う(ステップS94)。この認証は、ステップS38と同様の処理であるため、説明を省略する。ここでは、正当である場合について説明を続ける。 Next, in the schedule management server 8, the authentication unit 82 authenticates the shared support server 6 by using the access ID and the access password (step S94). Since this authentication is the same process as in step S38, the description thereof will be omitted. Here, the case where it is valid will be continued.

次に、記憶・読出処理部89は、実行イベント履歴管理DB8008(図13(B)参照)に対して、ステップS93によって受信された各種データ(情報)を記憶して管理する(ステップS95)。記憶・読出処理部89は、ステップS93によって受信された実行イベントIDに関連付けて、各種データ(情報)を、実行イベント履歴管理DB8008に記憶する。これにより、スケジュール管理サーバ8は、共用支援サーバ6側と同様の内容のデータを管理する。 Next, the storage / reading processing unit 89 stores and manages various data (information) received in step S93 in the execution event history management DB 8008 (see FIG. 13B) (step S95). The storage / reading processing unit 89 stores various data (information) in the execution event history management DB 8008 in association with the execution event ID received in step S93. As a result, the schedule management server 8 manages data having the same contents as the shared support server 6 side.

また、スケジュール管理サーバ8の生成部83は、ステップS93によって受信されたコンテンツデータを、コンテンツの発生時間帯毎に関連付けた関連情報を生成する(ステップS96)。ここで、関連情報に含まれるコンテンツの発生時間帯は、イベント管理DB8005に記憶されたイベントの開始日時、および実行イベント履歴管理DB8008に記憶されたコンテンツ処理の開始日時および終了日時を用いて生成される。すなわち、コンテンツの発生時間帯は、実行されたイベントにおいてコンテンツが発生した時点における、イベントの開始日時からの経過時間を示す。そして、スケジュール管理サーバ8の記憶・読出処理部89は、関連情報管理DB8010(図14(B)参照)に対して、ステップS93によって受信された実行イベントIDに関連付けて、生成部83によって生成された関連情報を記憶して管理する(ステップS97)。これにより、スケジュール管理サーバ8は、コンテンツ処理の種別が異なるコンテンツデータを、各コンテンツの発生時間毎に関連付けて管理する。 In addition, the generation unit 83 of the schedule management server 8 generates related information in which the content data received in step S93 is associated with each content generation time zone (step S96). Here, the occurrence time zone of the content included in the related information is generated by using the start date and time of the event stored in the event management DB 8005 and the start date and time and end date and time of the content processing stored in the execution event history management DB 8008. To. That is, the content generation time zone indicates the elapsed time from the start date and time of the event at the time when the content is generated in the executed event. Then, the storage / reading processing unit 89 of the schedule management server 8 is generated by the generation unit 83 in association with the execution event ID received in step S93 with respect to the related information management DB 8010 (see FIG. 14B). The related information is stored and managed (step S97). As a result, the schedule management server 8 manages the content data having different types of content processing in association with each content generation time.

そして、スケジュール管理サーバ8の記憶・読出処理部89は、テキスト情報管理DB8012(図15参照)に対して、ステップS93によって受信された実行イベントIDに関連付けて、ステップS93によって受信されたテキストデータを含むテキスト情報を記憶して管理する(ステップS98)。具体的には、生成部83は、ステップS93によって受信されたテキストデータおよびコンテンツ処理ID、ステップS93によって受信されたテキストデータを識別するテキストID、ステップS93によってテキストデータとともに受信された利用者ID、並びに状態情報を含むテキスト情報を生成する。そして、記憶・読出処理部89は、生成部83によって生成されたテキスト情報を、ステップS93によって受信された実行イベントIDに関連付けてテキスト情報管理DB8012に記憶する。この場合、テキスト情報に含まれる状態情報は、関連付けられたテキストデータが編集されていないことを示す「Original」の情報が付与される。 Then, the storage / reading processing unit 89 of the schedule management server 8 associates the text information management DB 8012 (see FIG. 15) with the execution event ID received in step S93 with the text data received in step S93. The text information to be included is stored and managed (step S98). Specifically, the generation unit 83 includes a text data and content processing ID received in step S93, a text ID for identifying the text data received in step S93, and a user ID received together with the text data in step S93. In addition, it generates text information including state information. Then, the storage / reading processing unit 89 stores the text information generated by the generation unit 83 in the text information management DB 8012 in association with the execution event ID received in step S93. In this case, the state information included in the text information is given "Original" information indicating that the associated text data has not been edited.

ここで、図35を用いて、共用支援サーバ6およびスケジュール管理サーバ8に記憶されるテキストデータのデータ形式について説明する。図35は、テキストデータを含むデータファイルの一例を示す図である。図35に示されるデータファイルd1は、コンテンツ管理DB6005および実行イベント履歴管理DB8008に示されるコンテンツの保存先のURLに記憶されて管理されている。 Here, the data format of the text data stored in the sharing support server 6 and the schedule management server 8 will be described with reference to FIG. 35. FIG. 35 is a diagram showing an example of a data file including text data. The data file d1 shown in FIG. 35 is stored and managed in the URL of the content storage destination shown in the content management DB 6005 and the execution event history management DB 8008.

図35に示すように、データファイルd1には、10個のテキストデータ(transcript)が含まれている。また、各テキストデータ(0〜9)には、コンテンツ処理が発生した順番を示すシーケンス番号(seq_num)、テキストデータ(text)、コンテンツ処理の開始日時(start time)、コンテンツ処理の終了日時(end_time)、コンテンツ処理ID(id)および話者情報(speaker)がそれぞれ含まれている。これらの情報は、コンテンツ管理DB6005および実行イベント履歴管理DB8006のそれぞれの項目に対応する情報と同じである。このうち、話者情報(speaker)には、このテキストデータに対応する音データの話者として特定された利用者の利用者IDが示されている。なお、話者情報(speaker)には、利用者IDとともに、または利用者IDに変えて、話者IDまたは利用者名が示される構成であってもよい。また、データファイルd1に含まれるテキストデータの数は、これに限られない。 As shown in FIG. 35, the data file d1 contains 10 text data (transscripts). In addition, each text data (0 to 9) includes a sequence number (seq_num) indicating the order in which content processing occurs, text data (text), a start date and time of content processing (start time), and an end date and time of content processing (end_time). ), Content processing ID (id) and speaker information (speaker) are included, respectively. These pieces of information are the same as the information corresponding to the respective items of the content management DB 6005 and the execution event history management DB 8006. Among them, the speaker information (speaker) indicates the user ID of the user specified as the speaker of the sound data corresponding to the text data. The speaker information (speaker) may be configured to show the speaker ID or the user name together with the user ID or in place of the user ID. Further, the number of text data included in the data file d1 is not limited to this.

このように、共用支援サーバ6およびスケジュール管理サーバ8は、テキストデータ、テキストデータに対応する音データの話者に関する情報(利用者ID)、およびそのテキストデータの処理に関する時間の情報(コンテンツ処理の開始日時および終了日時)を関連付けて、図35に示されているようなデータファイルd1で管理することができる。 In this way, the sharing support server 6 and the schedule management server 8 include text data, information regarding the speaker of the sound data corresponding to the text data (user ID), and time information regarding the processing of the text data (content processing). The start date and time and the end date and time) can be associated and managed in the data file d1 as shown in FIG. 35.

以上により、電子黒板2は、実行されているイベントの実行イベントIDと、対応するイベントによって生じたコンテンツを、スケジュール管理サーバ8へ送信することができる。また、スケジュール管理サーバ8は、受信したコンテンツを、実行イベントID毎に、実行イベント履歴管理DB8008に記憶することができる。これによって、共用システム1は、実行されたイベントにより生じたコンテンツを、イベント毎に記憶することができる。 As described above, the electronic blackboard 2 can transmit the execution event ID of the event being executed and the content generated by the corresponding event to the schedule management server 8. Further, the schedule management server 8 can store the received contents in the execution event history management DB 8008 for each execution event ID. As a result, the shared system 1 can store the content generated by the executed event for each event.

<イベントの終了処理>
続いて、図37〜図41を用いて、実行中のイベントを終了する処理について説明する。
<Event end processing>
Subsequently, the process of ending the event being executed will be described with reference to FIGS. 37 to 41.

図37および図38は、実施形態に係る共用システムのイベントの終了処理の流れの一例を示すシーケンス図である。図39は、電子黒板上に表示されるイベント終了画面を示す図である。図40は、電子黒板上に表示されるファイルデータのアップロード画面を示す図である。図41は、電子黒板上に表示されるファイルデータのアップロード完了画面を示す図である。 37 and 38 are sequence diagrams showing an example of a flow of event termination processing of the shared system according to the embodiment. FIG. 39 is a diagram showing an event end screen displayed on the electronic blackboard. FIG. 40 is a diagram showing an upload screen of file data displayed on the electronic blackboard. FIG. 41 is a diagram showing an upload completion screen of file data displayed on the electronic blackboard.

図37において、利用者Aがディスプレイ220に表示されている画面を閉じることによって、受付部22は、実行されているイベントの終了を受け付ける(ステップS301)。 In FIG. 37, when the user A closes the screen displayed on the display 220, the reception unit 22 accepts the end of the event being executed (step S301).

そして、送受信部21は、共用支援サーバ6に対して、実行イベントの開始日時および終了日時を示す実行イベント開始終了情報、並びにファイルデータの登録要求を示すファイルデータの登録要求情報を送信する(ステップS302)。この実行イベント開始終了情報には、実行イベントID、イベント名、イベントの開始日時および終了日時が含まれる。また、このファイルデータの登録要求情報には、実行イベントID、送信元の利用者ID、およびファイルデータが含まれる。これにより、共用支援サーバ6の送受信部61は、実行イベント開始終了情報、およびファイルデータの登録要求情報を受信する。 Then, the transmission / reception unit 21 transmits the execution event start / end information indicating the start date / time and the end date / time of the execution event, and the file data registration request information indicating the file data registration request to the shared support server 6 (step). S302). The execution event start / end information includes the execution event ID, the event name, the start date / time of the event, and the end date / time. Further, the registration request information of the file data includes the execution event ID, the user ID of the transmission source, and the file data. As a result, the transmission / reception unit 61 of the sharing support server 6 receives the execution event start / end information and the file data registration request information.

次に、共用支援サーバ6の生成部64は、イベントにより発生したコンテンツ処理を識別するための固有のコンテンツ処理IDを生成する(ステップS303)。また、生成部64は、コンテンツの内容を示したコンテンツデータのURLを生成する(ステップS304)。そして、記憶・読出処理部69は、コンテンツ管理DB6005(図10(A)参照)に対して、ステップS302によって受信された実行イベントID毎に、コンテンツ処理の種類、コンテンツ処理の開始日時および終了日時、ステップS303によって生成されたコンテンツ処理ID、並びにステップS304によって生成されたコンテンツの保存先を示すURLを関連付けて管理する(ステップ305)。 Next, the generation unit 64 of the sharing support server 6 generates a unique content processing ID for identifying the content processing generated by the event (step S303). In addition, the generation unit 64 generates a URL of content data indicating the content of the content (step S304). Then, the storage / reading processing unit 69 refers to the content management DB 6005 (see FIG. 10A) for each execution event ID received in step S302, such as the type of content processing, the start date / time and end date / time of content processing. , The content processing ID generated in step S303, and the URL indicating the storage destination of the content generated in step S304 are associated and managed (step 305).

次に、共用支援サーバ6の記憶・読出処理部69は、ステップS72によって受信された利用者IDを検索キーとして利用者認証管理DB6001(図9(A)参照)を検索することにより、対応する組織IDを読み出す(ステップS306)。 Next, the storage / reading processing unit 69 of the sharing support server 6 responds by searching the user authentication management DB 6001 (see FIG. 9A) using the user ID received in step S72 as a search key. Read the tissue ID (step S306).

次に、記憶・読出処理部69は、ステップS91によって読み出された組織IDを検索キーとしてアクセス管理DB6002(図9(B)参照)を検索することにより、対応するアクセスIDおよびアクセスパスワードを読み出す(ステップS307)。 Next, the storage / reading processing unit 69 reads the corresponding access ID and access password by searching the access management DB 6002 (see FIG. 9B) using the organization ID read in step S91 as a search key. (Step S307).

次に、図38において、送受信部61は、スケジュール管理サーバ8に対して、ステップS302によって受信された実行イベント開始終了情報、およびファイルデータの登録要求を示すファイルデータの登録要求情報を送信する(ステップS308)。このファイルデータの登録要求情報には、ステップS302によって受信された実行イベントID、送信元の利用者IDおよびファイルデータ、ステップS303によって生成されたコンテンツ処理ID、ステップS304によって生成されたファイルデータのURL、ステップS307によって読み出されたアクセスIDおよびアクセスパスワード、並びにコンテンツ処理の開始日時および終了日時が含まれている。これにより、スケジュール管理サーバ8の送受信部81は、実行イベント開始終了情報、およびファイルデータの登録要求情報を受信する。 Next, in FIG. 38, the transmission / reception unit 61 transmits the execution event start / end information received in step S302 and the file data registration request information indicating the file data registration request to the schedule management server 8 ( Step S308). The file data registration request information includes the execution event ID received in step S302, the source user ID and file data, the content processing ID generated in step S303, and the URL of the file data generated in step S304. , The access ID and access password read in step S307, and the start date and time and end date and time of the content processing. As a result, the transmission / reception unit 81 of the schedule management server 8 receives the execution event start / end information and the file data registration request information.

次に、スケジュール管理サーバ8では、認証部82が、アクセスIDおよびアクセスパスワードを利用して共用支援サーバ6の認証を行う(ステップS309)。この認証は、ステップS38と同様の処理であるため、説明を省略する。ここでは、正当である場合について説明を続ける。 Next, in the schedule management server 8, the authentication unit 82 authenticates the shared support server 6 by using the access ID and the access password (step S309). Since this authentication is the same process as in step S38, the description thereof will be omitted. Here, the case where it is valid will be continued.

次に、スケジュール管理サーバ8の記憶・読出処理部89は、実行イベント管理DB8009(図14(A)参照)に対して、ステップS308によって受信された実行イベント開始終了情報を記憶する(ステップS310)。この場合、記憶・読出処理部89は、実行イベント管理DB8009の実行イベント管理テーブルに1レコード分の実行イベント開始終了情報を追加する。 Next, the storage / reading processing unit 89 of the schedule management server 8 stores the execution event start / end information received in step S308 in the execution event management DB 8009 (see FIG. 14A) (step S310). .. In this case, the storage / reading processing unit 89 adds execution event start / end information for one record to the execution event management table of the execution event management DB 8009.

次に、記憶・読出処理部89は、実行イベント履歴管理DB8008に対して、ステップS308によって受信された各種データ(情報)を記憶して管理する(ステップS311)。記憶・読出処理部89は、ステップS308によって受信された実行イベントIDに関連付けて、ファイルデータを含む各種データ(情報)を、実行イベント履歴管理DB8008(図13(B)参照)に記憶する。これにより、スケジュール管理サーバ8は、共用支援サーバ6側と同様のファイルデータを管理する。 Next, the storage / reading processing unit 89 stores and manages various data (information) received in step S308 in the execution event history management DB 8008 (step S311). The storage / reading processing unit 89 stores various data (information) including file data in the execution event history management DB 8008 (see FIG. 13B) in association with the execution event ID received in step S308. As a result, the schedule management server 8 manages the same file data as the shared support server 6 side.

次に、送受信部81は、共用支援サーバ6に対して、ファイルデータが登録されたことを示すファイルデータ登録情報を送信する(ステップS312)。これにより、共用支援サーバ6の送受信部61は、ファイルデータ登録情報を受信する。 Next, the transmission / reception unit 81 transmits the file data registration information indicating that the file data has been registered to the sharing support server 6 (step S312). As a result, the transmission / reception unit 61 of the sharing support server 6 receives the file data registration information.

そして、共用支援サーバ6の送受信部61は、スケジュール管理サーバ8から送信されたファイルデータ登録情報を、電子黒板2へ送信する(ステップS313)。これによって、電子黒板2の送受信部21は、ファイルデータ登録情報を受信する。 Then, the transmission / reception unit 61 of the sharing support server 6 transmits the file data registration information transmitted from the schedule management server 8 to the electronic blackboard 2 (step S313). As a result, the transmission / reception unit 21 of the electronic blackboard 2 receives the file data registration information.

次に、電子黒板2の記憶・読出処理部29は、送受信部21によってファイルデータ登録情報が受信された場合、記憶部2000の特定の記憶領域に記憶されたファイルデータを削除する(ステップS314)。これにより、電子黒板2は、共用支援サーバ6に送信済みのファイルデータを削除することで、会議情報等の漏えいのリスクを低減させることができる。 Next, when the file data registration information is received by the transmission / reception unit 21, the storage / reading processing unit 29 of the electronic blackboard 2 deletes the file data stored in the specific storage area of the storage unit 2000 (step S314). .. As a result, the electronic blackboard 2 can reduce the risk of leakage of conference information and the like by deleting the file data transmitted to the sharing support server 6.

ここで、実行中のイベントを終了する際における電子黒板2に表示される画面の画面遷移を説明する。まず、ステップS301において、受付部22により実行されているイベントの終了が受け付けられた場合、表示制御部24は、ディスプレイ220上に、図39に示されているようなイベント終了画面270を表示させる。このイベント終了画面270には、ファイル表示領域272、ファイルアップロード選択領域273、実行中のイベントの終了処理を進める場合に押下される「Close」ボタン278、実行中のイベントの終了処理をキャンセルする場合に押下される「CANCEL」ボタン279が含まれる。ファイル表示領域272は、記憶部2000の特定の記憶領域に記憶された資料ファイルのファイルデータを識別するためのファイルデータ画像272a、272b、272cが表示される。ファイルアップロード選択領域273には、ファイル表示領域272に表示されたファイルデータ画像に対応するファイルデータを、共用支援サーバ6にアップロードするか否かの選択を受け付けるチェックボックスが含まれる。 Here, the screen transition of the screen displayed on the electronic blackboard 2 at the end of the event being executed will be described. First, in step S301, when the end of the event being executed by the reception unit 22 is received, the display control unit 24 displays the event end screen 270 as shown in FIG. 39 on the display 220. .. The event end screen 270 has a file display area 272, a file upload selection area 273, a "Close" button 278 that is pressed when proceeding with the end processing of the event being executed, and a case of canceling the end processing of the event being executed. Includes a "CANCEL" button 279 that is pressed to. In the file display area 272, file data images 272a, 272b, and 272c for identifying the file data of the material file stored in the specific storage area of the storage unit 2000 are displayed. The file upload selection area 273 includes a check box for accepting a selection as to whether or not to upload the file data corresponding to the file data image displayed in the file display area 272 to the sharing support server 6.

ファイルアップロード選択領域273が選択された状態で、受付部22が「Close」ボタン278の選択を受け付けた場合、表示制御部24は、ディスプレイ220上に、図40に示されるようなファイルアップロード画面280aを表示させる。このファイルアップロード画面280aは、記憶部2000の特定の記憶領域に記憶されたファイルデータが、共用支援サーバ6にアップロードされている際に、ディスプレイ220上に表示される。ファイルアップロード画面280aは、終了するイベントのイベント名281、イベントの終了日時282、ファイルデータのアップロード進捗表示領域283、ファイルデータのアップロードを中断(中止)する場合に押下される「CANCEL」ボタン288が含まれている。アップロード進捗表示領域283には、アップロードするファイルデータの数(例えば、図40に示されている「3」)とアップロードが完了したファイルデータの数(例えば、図40に示されている「0」)が表示される。 When the reception unit 22 accepts the selection of the "Close" button 278 while the file upload selection area 273 is selected, the display control unit 24 displays the file upload screen 280a as shown in FIG. 40 on the display 220. Is displayed. The file upload screen 280a is displayed on the display 220 when the file data stored in the specific storage area of the storage unit 2000 is uploaded to the sharing support server 6. On the file upload screen 280a, the event name 281 of the event to end, the end date and time 282 of the event, the file data upload progress display area 283, and the "CANCEL" button 288 pressed when interrupting (stopping) the file data upload are displayed. include. In the upload progress display area 283, the number of file data to be uploaded (for example, "3" shown in FIG. 40) and the number of file data for which upload has been completed (for example, "0" shown in FIG. 40). ) Is displayed.

そして、ファイルデータのアップロードが完了した場合、表示制御部24は、図41に示されるようなアップロード完了画面280bを表示させる。アップロード完了画面280bには、イベントを終了させる場合に押下される「Close」ボタン288が含まれている。ディスプレイ220上にアップロード完了画面280bが表示された場合、ステップS314で示したように、電子黒板2の記憶・読出処理部29は、アップロードが完了したファイルデータを、記憶部2000の特定の記憶領域から削除する。 Then, when the upload of the file data is completed, the display control unit 24 displays the upload completion screen 280b as shown in FIG. 41. The upload completion screen 280b includes a "Close" button 288 that is pressed when the event is terminated. When the upload completion screen 280b is displayed on the display 220, as shown in step S314, the storage / reading processing unit 29 of the electronic blackboard 2 stores the uploaded file data in a specific storage area of the storage unit 2000. Remove from.

一方で、ディスプレイ220上にファイルアップロード画面280aが表示されている状態において、ファイルデータのアップロードに失敗した場合、表示制御部24は、アップロードに失敗したファイルデータを特定するための情報(例えば、ファイル名)を表示する。これにより、例えば、通信ネットワーク10の障害等の発生時に、イベントの参加者は、イベントで作成または編集したファイルデータを印刷したり、電子黒板2に接続されたUSBメモリ2600にファイルデータを記憶したりすることによって、アップロードに失敗したファイルデータを持ち帰ることができる。 On the other hand, when the file upload screen 280a is displayed on the display 220 and the file data upload fails, the display control unit 24 receives information (for example, a file) for identifying the file data for which the upload failed. First name) is displayed. As a result, for example, when a failure of the communication network 10 occurs, the event participants can print the file data created or edited at the event, or store the file data in the USB memory 2600 connected to the electronic blackboard 2. By doing so, you can bring back the file data that failed to be uploaded.

また、イベントが終了した後も記憶部2000の特定の記憶領域にファイルデータが残っている場合、電子黒板2の記憶・読出処理部29は、例えば、電子黒板2を使用した次のイベントの開始時に、特定の記憶領域に記憶されたファイルデータを削除する。これによって、電子黒板2は、会議情報等の漏えいのリスクを低減させることができる。 Further, when the file data remains in the specific storage area of the storage unit 2000 even after the event ends, the storage / reading processing unit 29 of the electronic whiteboard 2 starts, for example, the next event using the electronic whiteboard 2. Sometimes, the file data stored in a specific storage area is deleted. As a result, the electronic blackboard 2 can reduce the risk of leakage of conference information and the like.

<実行イベント履歴の閲覧処理>
図42および図43は、実施形態に係る共用システムの実行イベント履歴の閲覧処理の流れの一例を示すシーケンス図である。図44は、実施形態に係るPC上に表示される実行イベントリスト画面を示す図である。図45および図46は、実施形態に係るPC上に表示される実行イベント履歴画面を示す図である。図42〜図46を用いて、実行イベント履歴の閲覧処理について説明する。なお、図42に示すステップS111〜S117の処理は、それぞれ図17に示すステップS11〜S17の処理と同様である。
<Browsing process of execution event history>
42 and 43 are sequence diagrams showing an example of a flow of browsing processing of the execution event history of the shared system according to the embodiment. FIG. 44 is a diagram showing an execution event list screen displayed on the PC according to the embodiment. 45 and 46 are diagrams showing an execution event history screen displayed on the PC according to the embodiment. The process of browsing the execution event history will be described with reference to FIGS. 42 to 46. The processes of steps S111 to S117 shown in FIG. 42 are the same as the processes of steps S11 to S17 shown in FIG. 17, respectively.

図19に示されている初期画面540において、利用者が「実行イベント履歴閲覧」ボタン543を押下すると、受付部52は、実行イベント履歴の閲覧を受け付ける(ステップS118)。 When the user presses the "execution event history viewing" button 543 on the initial screen 540 shown in FIG. 19, the reception unit 52 accepts the viewing of the execution event history (step S118).

そして、送受信部51は、スケジュール管理サーバ8に対して、実行イベント履歴閲覧要求を示す実行イベント履歴閲覧要求情報を送信する(ステップS119)。これにより、スケジュール管理サーバ8の送受信部81は、実行イベント履歴閲覧要求情報を受信する。 Then, the transmission / reception unit 51 transmits the execution event history browsing request information indicating the execution event history browsing request to the schedule management server 8 (step S119). As a result, the transmission / reception unit 81 of the schedule management server 8 receives the execution event history viewing request information.

次に、スケジュール管理サーバ8では、記憶・読出処理部89が、実行イベント管理DB8009に記憶された実行イベント開始終了情報を読み出す(ステップS120)。この実行イベント開始終了情報には、実行イベントID、イベント名、開始日時および終了日時が含まれる。 Next, in the schedule management server 8, the storage / reading processing unit 89 reads the execution event start / end information stored in the execution event management DB 8009 (step S120). The execution event start / end information includes the execution event ID, the event name, the start date / time, and the end date / time.

そして、送受信部81は、PC5に対して、ステップS120で読み出された実行イベントID、イベント名、開始日時および終了日時を送信する(ステップS121)。これにより、PC5の送受信部51は、実行イベントID、イベント名、開始日時および終了日時を受信する。 Then, the transmission / reception unit 81 transmits the execution event ID, the event name, the start date / time, and the end date / time read in step S120 to the PC 5 (step S121). As a result, the transmission / reception unit 51 of the PC 5 receives the execution event ID, the event name, the start date / time, and the end date / time.

次に、PC5の生成部56は、ステップS121で受信されたデータ(情報)を用いて、図44に示されているような実行イベントリスト画面570を生成する(ステップS122)。そして、PC5では、表示制御部54がディスプレイ508上に、生成部56によって生成された実行イベントリスト画面570を表示させる(ステップS123)。図44に示されているように、実行イベントリスト画面570には、実行イベントを示す情報571〜573が含まれている。例えば、実行イベントを示す情報571〜573には、実行イベント名、イベントの開始日時および終了日時が表示されている。実行イベントを示す情報571〜573は、イベントの実行内容を示す履歴情報を表示させるための選択を受け付ける履歴情報選択領域の一例である。また、実行イベントリスト画面570の右下部分には、実行イベントリスト画面570を閉じるための「閉じる」ボタン575が含まれている。 Next, the generation unit 56 of the PC 5 uses the data (information) received in step S121 to generate the execution event list screen 570 as shown in FIG. 44 (step S122). Then, in the PC 5, the display control unit 54 displays the execution event list screen 570 generated by the generation unit 56 on the display 508 (step S123). As shown in FIG. 44, the execution event list screen 570 includes information 571 to 573 indicating the execution event. For example, the information 571 to 573 indicating the execution event displays the execution event name, the start date and time of the event, and the end date and time. The information 571 to 573 indicating the execution event is an example of the history information selection area that accepts the selection for displaying the history information indicating the execution content of the event. Further, the lower right portion of the execution event list screen 570 includes a "close" button 575 for closing the execution event list screen 570.

次に、PC5の受付部52は、実行イベントリスト画面570に含まれる実行イベントの選択を受け付ける(ステップS124)。具体的には、利用者が実行イベントリスト画面570に含まれる実行イベントを示す情報571〜573のいずれかを選択した場合、受付部52が実行イベントを示す情報の選択を受け付ける。そして、PC5の送受信部51は、受付部52によって選択された実行イベントの実行イベントIDを、スケジュール管理サーバ8へ送信する(ステップS125)。これにより、スケジュール管理サーバ8の送受信部81は、実行イベントIDを受信する。 Next, the reception unit 52 of the PC 5 accepts the selection of the execution event included in the execution event list screen 570 (step S124). Specifically, when the user selects any of the information 571 to 573 indicating the execution event included in the execution event list screen 570, the reception unit 52 accepts the selection of the information indicating the execution event. Then, the transmission / reception unit 51 of the PC 5 transmits the execution event ID of the execution event selected by the reception unit 52 to the schedule management server 8 (step S125). As a result, the transmission / reception unit 81 of the schedule management server 8 receives the execution event ID.

次に、スケジュール管理サーバ8の記憶・読出処理部89は、ステップS125によって受信された実行イベントIDを検索キーとして実行イベント履歴管理DB8008を検索することにより、対応する実行イベント履歴情報を読み出す(ステップS126)。この実行イベント履歴情報には、コンテンツ処理ID、コンテンツ処理の種類、コンテンツ処理の開始日時および終了日時が含まれている。 Next, the storage / reading processing unit 89 of the schedule management server 8 reads the corresponding execution event history information by searching the execution event history management DB 8008 using the execution event ID received in step S125 as a search key (step). S126). The execution event history information includes the content processing ID, the type of content processing, the start date and time and the end date and time of the content processing.

また、スケジュール管理サーバ8の記憶・読出処理部89は、ステップS125によって受信された実行イベントIDを検索キーとして関連情報管理DB8010を検索することにより、対応する関連情報を読み出す(ステップS127)。この関連情報には、コンテンツの発生時間帯、コンテンツ処理ID、コンテンツ処理の種類およびシーケンスNoが含まれている。関連情報に含まれるコンテンツの発生時間帯は、時間情報の一例である。 Further, the storage / reading processing unit 89 of the schedule management server 8 reads out the corresponding related information by searching the related information management DB 8010 using the execution event ID received in step S125 as a search key (step S127). This related information includes a content generation time zone, a content processing ID, a content processing type, and a sequence number. The time zone in which the content included in the related information occurs is an example of the time information.

そして、記憶・読出処理部89は、ステップS126によって読み出された実行イベント履歴の内容を示すコンテンツデータの保存先から、実行イベント履歴の内容を示すコンテンツデータを読み出す(ステップS128)。そして、送受信部81は、読み出された関連情報およびコンテンツデータを、PC5へ送信する(ステップS129)。ここで、テキストデータをコンテンツデータとして送信される場合、送受信部81は、テキストデータとともに、テキスト情報管理DB8012によって管理されている利用者IDによって識別される利用者名の情報を送信する。ここで、利用者名の情報は、テキスト情報管理DB8012によって管理されている利用者IDを検索キーとして利用者管理DB8002(図11(B)参照)を検索することによって読み出される利用者名である。これにより、PC5の送受信部51は、関連情報、コンテンツデータおよび実行イベント履歴情報を受信する。 Then, the storage / reading processing unit 89 reads out the content data indicating the content of the execution event history from the storage destination of the content data indicating the content of the execution event history read in step S126 (step S128). Then, the transmission / reception unit 81 transmits the read related information and content data to the PC 5 (step S129). Here, when the text data is transmitted as the content data, the transmission / reception unit 81 transmits the information of the user name identified by the user ID managed by the text information management DB 8012 together with the text data. Here, the user name information is a user name read by searching the user management DB 8002 (see FIG. 11B) using the user ID managed by the text information management DB 8012 as a search key. .. As a result, the transmission / reception unit 51 of the PC 5 receives the related information, the content data, and the execution event history information.

次に、PC5の音制御部58は、ステップS129によって受信されたコンテンツデータである音データの再生箇所を設定する(ステップS130)。この場合、音制御部58は、受信された関連情報のうち、コンテンツ発生時間帯「00:00」に関連付けられた音データに対応する箇所を、音データの再生箇所として設定する。 Next, the sound control unit 58 of the PC 5 sets the reproduction location of the sound data, which is the content data received in step S129 (step S130). In this case, the sound control unit 58 sets the portion of the received related information corresponding to the sound data associated with the content generation time zone “0:00:00” as the reproduction portion of the sound data.

次に、PC5の生成部56は、ステップS129によって受信された関連情報およびコンテンツデータを用いて、図45に示されているような実行イベント履歴画面580を生成する(ステップS131)。図45に示されているように、実行イベント履歴画面580には、実行されたイベントによって生じたコンテンツのデータが、コンテンツ処理の種類毎に示されている。実行イベント履歴画面580には、録音データの再生箇所を表示する再生箇所表示領域581、音声テキストとして表示させる録音データの話者を選択させるための話者表示候補選択領域670、音声テキストを表示するテキストデータ表示領域582、スナップショットを表示するスナップショット表示領域583、イベントで用いた資料を閲覧する場合に押下される「資料ファイル」ボタン585が含まれている。より具体的には、生成部56は、受信されたコンテンツデータであるテキストデータに係る画像を、受信された関連情報に含まれるシーケンスNoの順序でテキストデータ表示領域582に表示させるように実行イベント履歴画面580を生成する。また、生成部56は、テキストデータに対応する話者情報(利用者名)を示す画像を、テキストデータに係る画像のそれぞれに関連付けて表示されるように実行イベント履歴画面580を生成する。さらに、生成部56は、受信されたコンテンツデータである画面データに係る画像を、受信された関連情報に含まれるシーケンスNoの順序でスナップショット表示領域583に表示させるように実行イベント履歴画面580を生成する。さらに、生成部56は、音データの全再生時間における、ステップS130によって設定された再生箇所に対応する位置に、再生箇所表示領域581に含まれる再生ポイント581pが表示されるように実行イベント履歴画面580を生成する。 Next, the generation unit 56 of the PC 5 uses the related information and the content data received in step S129 to generate the execution event history screen 580 as shown in FIG. 45 (step S131). As shown in FIG. 45, the execution event history screen 580 shows the data of the content generated by the executed event for each type of content processing. On the execution event history screen 580, a playback location display area 581 for displaying the playback location of the recorded data, a speaker display candidate selection area 670 for selecting a speaker of the recorded data to be displayed as voice text, and a voice text are displayed. It includes a text data display area 582, a snapshot display area 583 for displaying snapshots, and a "material file" button 585 that is pressed when viewing materials used in an event. More specifically, the generation unit 56 causes the execution event to display the image related to the text data, which is the received content data, in the text data display area 582 in the order of the sequence numbers included in the received related information. Generate a history screen 580. In addition, the generation unit 56 generates an execution event history screen 580 so that an image showing speaker information (user name) corresponding to the text data is displayed in association with each of the images related to the text data. Further, the generation unit 56 displays the execution event history screen 580 in the snapshot display area 583 in the order of the sequence numbers included in the received related information so that the image related to the screen data which is the received content data is displayed. Generate. Further, the generation unit 56 displays the execution event history screen so that the reproduction point 581p included in the reproduction location display area 581 is displayed at the position corresponding to the reproduction portion set by step S130 in the total reproduction time of the sound data. Generate 580.

そして、PC5の表示制御部54は、ディスプレイ508上に、生成部56によって生成された実行イベント履歴画面580を表示させる(ステップS132)。また、PC5の音制御部58は、ステップS130によって設定された再生箇所の音データを再生する。 Then, the display control unit 54 of the PC 5 displays the execution event history screen 580 generated by the generation unit 56 on the display 508 (step S132). Further, the sound control unit 58 of the PC 5 reproduces the sound data of the reproduction portion set in step S130.

ここで、再生箇所表示領域581には、全再生時間における再生箇所を示す再生ポイント581p、録音データの再生履歴(再生過程)を示すスライダ581b、および全再生時間における再生時間を示す再生時間表示画像581tが含まれる。また、再生ポイント581pおよびスライダ581bは、シークバーを構成する。シークバーとは、録音データの再生箇所を表示するものであるとともに、録音データの再生箇所を指定する操作領域である。利用者は、録音データの始めから終わりまでのうちどこを再生しているのかを再生ポイント581pおよびスライダ581bの位置によって視覚的に把握することができる。また、利用者は、再生ポイント581pをマウス507等の入力手段を用いて移動させ、それによって任意の再生箇所から録音データを再生させることができる。再生ポイント581pは、再生箇所特定画像の一例である。また、再生ポイント581pおよびスライダ581bを含むシークバーは、再生履歴表示画像の一例である。 Here, in the reproduction location display area 581, a reproduction point 581p indicating the reproduction portion in the total reproduction time, a slider 581b indicating the reproduction history (reproduction process) of the recorded data, and a reproduction time display image indicating the reproduction time in the total reproduction time 581t is included. The reproduction point 581p and the slider 581b form a seek bar. The seek bar is an operation area for displaying the reproduction location of the recorded data and for designating the reproduction location of the recorded data. The user can visually grasp which part of the recorded data is being reproduced from the beginning to the end by the positions of the reproduction point 581p and the slider 581b. Further, the user can move the reproduction point 581p by using an input means such as a mouse 507, whereby the recorded data can be reproduced from an arbitrary reproduction point. The reproduction point 581p is an example of a reproduction location specific image. The seek bar including the reproduction point 581p and the slider 581b is an example of the reproduction history display image.

また、話者表示候補選択領域670には、選択対象である話者の候補を示す話者表示候補671(671a〜671e)が含まれている。話者表示候補671には、イベントの参加者それぞれの名称(利用者名)が示されている。このうち、話者表示候補671e(「unknown」)は、話者が特定できなかったテキストデータに関連付けられているものである。 Further, the speaker display candidate selection area 670 includes speaker display candidates 671 (671a to 671e) indicating candidates for speakers to be selected. The speaker display candidate 671 indicates the name (user name) of each participant of the event. Of these, the speaker display candidate 671e (“unknown”) is associated with the text data that the speaker could not identify.

さらに、テキストデータ表示領域582には、テキストデータを示す画像582a、582b、582c、582d、582eが上から下に向けて時系列に表示されている。同様に、スナップショット表示領域583には、スナップショット(キャプチャ)画像583a、583b、583cが上から下に向けて時系列に表示されている。このように、テキストデータ表示領域582およびスナップショット表示領域583は、時系列に並列に表示されている。これにより、利用者は、例えば、画像583bを閲覧すれば、会議で円グラフを説明した時間帯を容易に把握することができるため、この画像583bと並列に表示されているテキストデータを示す画像582c、582dを容易に探し出すことができる。ここで、画像583a、583b、583cは、ディスプレイ220に表示された画面全体のスナップショット画像である。 Further, in the text data display area 582, images 582a, 582b, 582c, 582d, and 582e showing the text data are displayed in chronological order from top to bottom. Similarly, in the snapshot display area 583, snapshot (capture) images 583a, 583b, and 583c are displayed in chronological order from top to bottom. In this way, the text data display area 582 and the snapshot display area 583 are displayed in parallel in chronological order. As a result, for example, if the user browses the image 583b, he / she can easily grasp the time zone in which the pie chart was explained at the conference. Therefore, the image showing the text data displayed in parallel with the image 583b. 582c and 582d can be easily found. Here, the images 583a, 583b, and 583c are snapshot images of the entire screen displayed on the display 220.

また、テキストデータ表示領域582には、テキストデータを示す画像582a〜582eに対して、各テキストデータに対応する話者情報を示す画像673a〜673eが対応付けられて表示されている。この話者情報を示す画像673a〜673eには、ステップS129によってテキストデータとともに受信された利用者名の情報が含まれている。 Further, in the text data display area 582, images 673a to 673e showing speaker information corresponding to each text data are displayed in association with images 582a to 582e showing the text data. The images 673a to 673e showing the speaker information include the information of the user name received together with the text data in step S129.

ここで、図46に示すように、マウスポインタp3を用いて特定の話者表示候補671(例えば、話者表示候補671a)が選択されると、受付部52は、話者表示候補671に対する選択を受け付ける。そして、表示制御部54は、選択された特定の話者表示候補671に対応する話者情報に関連付けられたテキストデータをハイライト表示させる。図46の例の場合、表示制御部54は、話者表示候補671a(「理光 太郎」)に対応する話者情報(「理光 太郎」)を示す画像673d、673e、並びに画像673d、673eに関連付けられたテキストデータを示す画像582d、582eをハイライト表示させる。なお、ハイライト表示の例として、特定の画像の色を変えて表示させる例を示したが、これに限られず、特定の画像を強調して利用者に認識させることが可能な表示形式であればよい。また、図46に示した実行イベント履歴画面580には、話者情報を示す画像673d、673eおよびテキストデータを示す画像582d、582eの双方がハイライト表示される例を説明したが、表示制御部54は、話者情報を示す画像673d、673eのみをハイライト表示させる構成、またはテキストデータを示す画像582d、582eのみをハイライト表示させる構成であってもよい。さらに、表示制御部54は、選択された特定の話者表示候補671に対応する話者情報に関連付けられたテキストデータを、フィルタリングして表示させる構成であってもよい。 Here, as shown in FIG. 46, when a specific speaker display candidate 671 (for example, speaker display candidate 671a) is selected using the mouse pointer p3, the reception unit 52 selects the speaker display candidate 671. Accept. Then, the display control unit 54 highlights the text data associated with the speaker information corresponding to the selected specific speaker display candidate 671. In the case of the example of FIG. 46, the display control unit 54 is associated with the images 673d and 673e showing the speaker information (“Riko Taro”) corresponding to the speaker display candidate 671a (“Riko Taro”), and the images 673d and 673e. The images 582d and 582e showing the text data are highlighted. As an example of highlighting, an example of displaying a specific image in different colors has been shown, but the present invention is not limited to this, and any display format that can emphasize a specific image and make the user recognize it. Just do it. Further, on the execution event history screen 580 shown in FIG. 46, an example in which both the images 673d and 673e showing speaker information and the images 582d and 582e showing text data are highlighted has been described. The 54 may have a configuration in which only the images 673d and 673e showing speaker information are highlighted, or a configuration in which only the images 582d and 582e showing text data are highlighted. Further, the display control unit 54 may be configured to filter and display the text data associated with the speaker information corresponding to the selected specific speaker display candidate 671.

これにより、共用システム1は、実行されたイベントにより生じた実行イベント履歴を、イベントに参加したメンバ(参加者)間で簡単に共有することができる。また、PC5は、実行イベント履歴に含まれるテキストデータに、そのテキストデータに対応する音データの話者の情報を対応づけて表示させることによって、音データを聞き直さなくても、テキストデータの内容が誰の発言であるかを利用者に確認させることができる。さらに、PC5は、選択された特定の話者表示候補671に対応する話者情報に関連付けられたテキストデータをハイライト表示させることで、利用者が確認したい話者の発言に係るテキストデータを、強調して利用者に確認させることができる。なお、共用システム1は、イベントの実行後に利用者の登録または変更を行うことによって、利用者が実行イベント履歴を閲覧するための参照権限を編集可能な構成であってもよい。 As a result, the shared system 1 can easily share the execution event history generated by the executed event among the members (participants) who participated in the event. Further, the PC 5 displays the text data included in the execution event history in association with the speaker information of the sound data corresponding to the text data, so that the contents of the text data can be displayed without re-listening to the sound data. It is possible to let the user confirm who is saying. Further, the PC 5 highlights the text data associated with the speaker information corresponding to the selected specific speaker display candidate 671, so that the text data related to the speaker's remark that the user wants to confirm can be displayed. It can be emphasized and confirmed by the user. The shared system 1 may have a configuration in which the user can edit the reference authority for viewing the execution event history by registering or changing the user after executing the event.

<実行イベント履歴の選択処理>
図47、図50および図51は、実施形態に係る共用システムの実行イベント履歴の選択処理の流れの一例を示すシーケンス図である。図48および図49は、実施形態に係るPC上に表示される実行イベント履歴画面を示す図である。図47〜図51を用いて、実行イベント履歴の選択処理について説明する。
<Selection process of execution event history>
47, 50, and 51 are sequence diagrams showing an example of a flow of selection processing of the execution event history of the shared system according to the embodiment. 48 and 49 are diagrams showing an execution event history screen displayed on the PC according to the embodiment. The execution event history selection process will be described with reference to FIGS. 47 to 51.

まず、PC5の受付部52は、実行イベント履歴画面580のテキストデータ表示領域582に含まれる特定の画像の選択を受け付ける(ステップS151)。具体的には、例えば、図48に示すように、利用者が実行イベント履歴画面580のテキストデータ表示領域582に含まれる特定のテキストデータを示す画像(例えば、画像582t)を、マウスポインタp3を用いて選択した場合、受付部52は、テキストデータ表示領域582に含まれる特定の画像に対する選択を受け付ける。 First, the reception unit 52 of the PC 5 accepts the selection of a specific image included in the text data display area 582 of the execution event history screen 580 (step S151). Specifically, for example, as shown in FIG. 48, the user uses the mouse pointer p3 to display an image (for example, image 582t) showing specific text data included in the text data display area 582 of the execution event history screen 580. When selected by using, the reception unit 52 accepts the selection for a specific image included in the text data display area 582.

PC5の送受信部51は、受付部52によって受け付けられた選択に係る選択情報を、スケジュール管理サーバ8へ送信する(ステップS152)。ここで、選択情報には、選択が受け付けられた特定の画像(例えば、画像582t)に対応するコンテンツ処理IDが含まれる。これにより、スケジュール管理サーバ8の送受信部81は、PC5から送信された選択情報を受信する。 The transmission / reception unit 51 of the PC 5 transmits the selection information related to the selection received by the reception unit 52 to the schedule management server 8 (step S152). Here, the selection information includes a content processing ID corresponding to a specific image (for example, image 582t) for which selection has been accepted. As a result, the transmission / reception unit 81 of the schedule management server 8 receives the selection information transmitted from the PC 5.

次に、スケジュール管理サーバ8の記憶・読出処理部89は、ステップS152によって受信された選択情報に含まれるコンテンツ処理IDを検索キーとして関連情報管理DB8010を検索することにより、対応する関連情報を読み出す(ステップS153)。より具体的には、記憶・読出処理部89は、選択情報に含まれるコンテンツ処理IDが関連付けられた関連情報を、関連情報管理DB8010から読み出す。この関連情報には、コンテンツの発生時間帯、コンテンツ処理ID、コンテンツ処理の種類およびシーケンスNoが含まれている。関連情報に含まれるコンテンツの発生時間帯は、時間情報の一例である。これにより、スケジュール管理サーバ8は、ユーザによる選択が受け付けられた画像と同じ時間帯に発生したコンテンツを、関連情報に含まれる各種コンテンツに係るデータ(情報)から特定することができる。 Next, the storage / reading processing unit 89 of the schedule management server 8 reads out the corresponding related information by searching the related information management DB 8010 using the content processing ID included in the selection information received in step S152 as a search key. (Step S153). More specifically, the storage / reading processing unit 89 reads out the related information associated with the content processing ID included in the selection information from the related information management DB 8010. This related information includes a content generation time zone, a content processing ID, a content processing type, and a sequence number. The time zone in which the content included in the related information occurs is an example of the time information. As a result, the schedule management server 8 can identify the content generated in the same time zone as the image for which the user has received the selection from the data (information) related to the various contents included in the related information.

また、スケジュール管理サーバ8の記憶・読出処理部89は、ステップS153によって読み出された関連情報に含まれるコンテンツ処理IDを検索キーとして実行イベント履歴管理DB8008を検索することにより、対応する実行イベント履歴情報を読み出す(ステップS154)。この実行イベント履歴情報には、コンテンツ処理ID、コンテンツ処理の種類、コンテンツの内容が含まれている。 Further, the storage / reading processing unit 89 of the schedule management server 8 searches the execution event history management DB 8008 using the content processing ID included in the related information read in step S153 as a search key, and thereby performs the corresponding execution event history. Read the information (step S154). The execution event history information includes the content processing ID, the type of content processing, and the content of the content.

そして、記憶・読出処理部89は、ステップS154によって読み出された実行イベント履歴情報に含まれるコンテンツの内容を示すコンテンツデータの保存先から、実行イベント履歴の内容を示すコンテンツデータを読み出す(ステップS155)。そして、送受信部81は、読み出された関連情報およびコンテンツデータを、PC5へ送信する(ステップS156)。これにより、PC5の送受信部51は、関連情報およびコンテンツデータを受信する。 Then, the storage / reading processing unit 89 reads out the content data indicating the content of the execution event history from the storage destination of the content data indicating the content of the content included in the execution event history information read in step S154 (step S155). ). Then, the transmission / reception unit 81 transmits the read related information and content data to the PC 5 (step S156). As a result, the transmission / reception unit 51 of the PC 5 receives the related information and the content data.

次に、PC5の音制御部58は、ステップS156によって受信されたコンテンツデータである音データに対応する再生箇所を、音データの再生箇所(音データの開始時間)として設定する(ステップS157)。 Next, the sound control unit 58 of the PC 5 sets the reproduction location corresponding to the sound data, which is the content data received in step S156, as the reproduction location of the sound data (start time of the sound data) (step S157).

次に、PC5の生成部56は、ステップS156によって受信されたコンテンツデータに基づいて、実行イベント履歴画面580を生成する(ステップS158)。具体的には、生成部56は、受信されたコンテンツデータであるテキストデータに係る画像を、テキストデータ表示領域582に表示させるように実行イベント履歴画面580を生成する。また、生成部56は、テキストデータに対応する話者情報(利用者名)を示す画像を、テキストデータに係る画像のそれぞれに関連付けて表示されるように実行イベント履歴画面580を生成する。また、生成部56は、受信されたコンテンツデータである画面データに係る画像を、スナップショット表示領域583に表示させるように実行イベント履歴画面580を生成する。 Next, the generation unit 56 of the PC 5 generates the execution event history screen 580 based on the content data received in step S156 (step S158). Specifically, the generation unit 56 generates the execution event history screen 580 so that the image related to the text data, which is the received content data, is displayed in the text data display area 582. In addition, the generation unit 56 generates an execution event history screen 580 so that an image showing speaker information (user name) corresponding to the text data is displayed in association with each of the images related to the text data. In addition, the generation unit 56 generates the execution event history screen 580 so that the image related to the screen data, which is the received content data, is displayed in the snapshot display area 583.

さらに、生成部56は、音データの全再生時間における、ステップS157によって設定された音データに係る位置に、再生箇所表示領域581に含まれる再生ポイント581pが表示されるように実行イベント履歴画面580を生成する。 Further, the generation unit 56 executes the execution event history screen 580 so that the reproduction point 581p included in the reproduction location display area 581 is displayed at the position related to the sound data set in step S157 in the total reproduction time of the sound data. To generate.

表示制御部54は、ステップS158によって生成された実行イベント履歴画面580を、ディスプレイ508に表示させる(ステップS159)。ステップS159において、ディスプレイ508に表示される実行イベント履歴画面580を図49に示す。図49に示す実行イベント履歴画面580は、再生箇所表示領域581に含まれる再生ポイント581pの位置が、ユーザによって選択された画像582tに対応する時間位置に移動している。このように、PC5は、音データをテキスト変換したテキストデータに係る画像のうち、特定の画像が選択されることによって、選択された特定の画像に係るコンテンツの発生時間帯が示す時間位置に、再生ポイント581pを移動させる。これにより、PC5は、利用者が音声を確認したいテキストデータに係る画像を選択するだけで、当該画像に対応する再生箇所の音データの再生することができる。例えば、利用者は、実行イベント履歴画面580においてハイライト表示された特定の話者情報に対応づけられたテキストデータに係る画像を選択することで、特定の話者の発言に係る音データを再生することができる。また、PC5は、テキストデータに係る画像の移動に対応させて再生ポイント581pを移動させることで、全再生時間のうちどの再生箇所に係る音データが再生されているのかを利用者に容易に把握させることができる。 The display control unit 54 displays the execution event history screen 580 generated in step S158 on the display 508 (step S159). FIG. 49 shows an execution event history screen 580 displayed on the display 508 in step S159. In the execution event history screen 580 shown in FIG. 49, the position of the reproduction point 581p included in the reproduction location display area 581 is moved to the time position corresponding to the image 582t selected by the user. In this way, the PC 5 sets the time position indicated by the generation time zone of the content related to the selected specific image by selecting the specific image from the images related to the text data obtained by converting the sound data into text. The reproduction point 581p is moved. As a result, the PC 5 can reproduce the sound data of the reproduction portion corresponding to the image only by selecting the image related to the text data for which the user wants to confirm the voice. For example, the user reproduces the sound data related to the remark of a specific speaker by selecting the image related to the text data associated with the specific speaker information highlighted on the execution event history screen 580. can do. Further, the PC 5 moves the playback point 581p in correspondence with the movement of the image related to the text data, so that the user can easily grasp which playback point of the total playback time the sound data is being played back. Can be made to.

また、図50および図51に示す処理は、図47に示したテキストデータ(実行イベント履歴)とは種別が異なるコンテンツデータ(実行イベント履歴)が選択される場合の処理である。図50は、スナップショット表示領域583に表示された画面データに係る画像が選択される場合の処理を示す。まず、PC5の受付部52は、実行イベント履歴画面580のスナップショット表示領域583に含まれる特定の画像の選択を受け付ける(ステップS161)。具体的には、例えば、利用者が実行イベント履歴画面580のスナップショット表示領域583に含まれる特定の画像(例えば、スナップショット画像583r)を、マウスポインタp3を用いて選択した場合、受付部52は、スナップショット表示領域583に含まれる特定の画像に対する選択を受け付ける。なお、ステップS162〜ステップS169の処理は、図47に示したステップS152〜ステップS159の処理とそれぞれ同様である。 Further, the processes shown in FIGS. 50 and 51 are processes when content data (execution event history) whose type is different from the text data (execution event history) shown in FIG. 47 is selected. FIG. 50 shows a process when an image related to screen data displayed in the snapshot display area 583 is selected. First, the reception unit 52 of the PC 5 accepts the selection of a specific image included in the snapshot display area 583 of the execution event history screen 580 (step S161). Specifically, for example, when the user selects a specific image (for example, snapshot image 583r) included in the snapshot display area 583 of the execution event history screen 580 by using the mouse pointer p3, the reception unit 52 Accepts selections for a particular image contained in the snapshot display area 583. The processing of steps S162 to S169 is the same as the processing of steps S152 to S159 shown in FIG. 47, respectively.

また、図51は、再生箇所表示領域581に表示された再生ポイント581pが選択される場合の処理を示す。まず、PC5の受付部52は、実行イベント履歴画面580の再生箇所表示領域581に含まれる再生ポイント581pの移動を受け付ける(ステップS181)。具体的には、例えば、利用者が実行イベント履歴画面580の再生箇所表示領域581に含まれる再生ポイント581pを、マウスポインタp3を用いて移動した場合、受付部52は、再生箇所表示領域581に含まれる再生ポイント581pの移動を受け付ける。 Further, FIG. 51 shows a process when the reproduction point 581p displayed in the reproduction portion display area 581 is selected. First, the reception unit 52 of the PC 5 accepts the movement of the reproduction point 581p included in the reproduction location display area 581 of the execution event history screen 580 (step S181). Specifically, for example, when the user moves the playback point 581p included in the playback location display area 581 of the execution event history screen 580 using the mouse pointer p3, the reception unit 52 moves to the playback location display area 581. Accepts the movement of the included playback point 581p.

PC5の送受信部51は、受付部52によって受け付けられた移動に係る選択情報を、スケジュール管理サーバ8へ送信する(ステップS182)。ここで、選択情報には、受け付けられた移動先の再生箇所の音データに係るコンテンツ処理IDが含まれる。これにより、スケジュール管理サーバ8の送受信部81は、PC5から送信された選択情報を受信する。なお、ステップS182〜ステップS189の処理は、図47に示したステップS152〜ステップS159の処理とそれぞれ同様であるため、説明を省略する。 The transmission / reception unit 51 of the PC 5 transmits the selection information related to the movement received by the reception unit 52 to the schedule management server 8 (step S182). Here, the selection information includes the content processing ID related to the sound data of the received reproduction destination of the moving destination. As a result, the transmission / reception unit 81 of the schedule management server 8 receives the selection information transmitted from the PC 5. Since the processes of steps S182 to S189 are the same as the processes of steps S152 to S159 shown in FIG. 47, the description thereof will be omitted.

<テキストデータの編集処理>
続いて、図52〜図58を用いて、実行イベント履歴画面に表示された各テキストデータを編集する処理について説明する。
<Editing process of text data>
Subsequently, the process of editing each text data displayed on the execution event history screen will be described with reference to FIGS. 52 to 58.

図52は、実施形態に係る共用システムのテキストデータの編集処理の流れの一例を示すシーケンス図である。図53および図56は、実施形態に係るPC上に表示される実行イベント履歴画面を示す図である。図54は、実施形態に係るPC上に表示されるテキスト編集画面を示す図である。図55は、更新されたテキスト情報管理テーブルを示す概念図である。なお、PC5のディスプレイ508には、図45に示されているような実行イベント履歴画面580が表示されているものとして説明する。 FIG. 52 is a sequence diagram showing an example of the flow of the text data editing process of the shared system according to the embodiment. 53 and 56 are diagrams showing an execution event history screen displayed on the PC according to the embodiment. FIG. 54 is a diagram showing a text editing screen displayed on the PC according to the embodiment. FIG. 55 is a conceptual diagram showing an updated text information management table. It is assumed that the execution event history screen 580 as shown in FIG. 45 is displayed on the display 508 of the PC 5.

まず、利用者がマウスポインタp3を用いてテキストデータ表示領域582を押下すると、PC5の表示制御部54は、図53に示されている実行イベント履歴画面580aを表示させる(ステップS201)。具体的には、利用者がマウスポインタp3を用いてテキストデータ表示領域582に含まれる特定のテキストデータを示す画像(例えば、画像582c)を押下すると、受付部52は、特定のテキストデータの選択を受け付ける。そして、表示制御部54は、選択が受け付けられた特定のテキストデータに対応させた位置に表示された「編集」ボタン620を含む実行イベント履歴画面580aを表示させる。この「編集」ボタン620は、選択された特定のテキストデータの編集を要求する場合に押下される。「編集」ボタン620は、編集要求画像の一例である。 First, when the user presses the text data display area 582 using the mouse pointer p3, the display control unit 54 of the PC 5 displays the execution event history screen 580a shown in FIG. 53 (step S201). Specifically, when the user presses an image (for example, image 582c) indicating specific text data included in the text data display area 582 using the mouse pointer p3, the reception unit 52 selects the specific text data. Accept. Then, the display control unit 54 displays the execution event history screen 580a including the "edit" button 620 displayed at the position corresponding to the specific text data for which the selection has been accepted. This "edit" button 620 is pressed when requesting editing of the selected specific text data. The "edit" button 620 is an example of an edit request image.

次に、利用者がマウスポインタp3を用いて「編集」ボタン620を押下すると、受付部52は、「編集」ボタン620の選択を受け付け、テキストデータの編集要求を受け付ける(ステップS202)。次に、表示制御部54は、ディスプレイ508に表示されている実行イベント履歴画面580a上に、図54に示されているようなテキスト編集画面630を表示させる(ステップS203)。テキスト編集画面630は、選択された特定のテキストデータ(例えば、画像582cに示されているテキストデータ)の内容の編集を受け付ける編集画面である。テキスト編集画面630には、特定のテキストデータを編集するための入力領域631、入力領域631で編集された特定のテキストデータを保存する場合に押下される「保存」ボタン633、テキストデータの編集処理を中断(中止)する場合に押下される「キャンセル」ボタン635、編集対象の特定のテキストデータに対応する音データを再生する場合に押下される「再生」ボタン637、特定のテキストデータに対応づけられた話者情報638、および話者情報638を変更(編集)するための話者選択メニュー639が含まれている。 Next, when the user presses the "edit" button 620 using the mouse pointer p3, the reception unit 52 accepts the selection of the "edit" button 620 and accepts the text data edit request (step S202). Next, the display control unit 54 causes the text editing screen 630 as shown in FIG. 54 to be displayed on the execution event history screen 580a displayed on the display 508 (step S203). The text editing screen 630 is an editing screen that accepts editing of the contents of the selected specific text data (for example, the text data shown in the image 582c). On the text editing screen 630, an input area 631 for editing specific text data, a "save" button 633 pressed when saving the specific text data edited in the input area 631, and a text data editing process. "Cancel" button 635 pressed when interrupting (stopping), "Play" button 637 pressed when playing sound data corresponding to specific text data to be edited, associating with specific text data The speaker information 638 and the speaker selection menu 639 for changing (editing) the speaker information 638 are included.

次に、利用者が入力領域631に対する入力を行うことで、受付部52は、特定のテキストデータまたは話者情報の編集を受け付ける(ステップS204)。これにより、利用者は、入力領域631に対する入力によって、選択された特定のテキストデータの編集を行うことができる。また、受付部52によって「再生」ボタン637の選択が受け付けられると、音制御部58は、編集対象の特定のテキストデータに対応する音データを再生する。さらに、利用者が話者選択メニュー639を用いて話者情報638の編集を行う。図54に示すテキスト編集画面630に示されている話者情報638は、話者情報が「unknown」から「令和 三郎」に変更(編集)された状態である。これにより、利用者は、編集対象の特定のテキストデータに対応する音データを聞きながら、テキストデータまたは話者情報の編集を行うことができる。 Next, when the user inputs to the input area 631, the reception unit 52 accepts editing of specific text data or speaker information (step S204). Thereby, the user can edit the selected specific text data by inputting to the input area 631. When the reception unit 52 accepts the selection of the "play" button 637, the sound control unit 58 reproduces the sound data corresponding to the specific text data to be edited. Further, the user edits the speaker information 638 using the speaker selection menu 639. The speaker information 638 shown on the text editing screen 630 shown in FIG. 54 is a state in which the speaker information has been changed (edited) from "unknown" to "Reiwa Saburo". As a result, the user can edit the text data or the speaker information while listening to the sound data corresponding to the specific text data to be edited.

次に、受付部52で「保存」ボタン633の選択が受け付けられると、PC5の送受信部51は、スケジュール管理サーバ8に対して、テキスト情報の更新要求を示すテキスト情報更新要求情報を送信する(ステップS205)。このテキスト情報更新要求情報には、ステップS204によって編集されたテキストデータおよび話者情報、ステップS156によって受信されたコンテンツ処理ID、およびステップS112によって受け付けられた利用者IDを送信する。この場合のコンテンツ処理IDは、編集されたテキストデータに対応するコンテンツ処理IDである。これにより、スケジュール管理サーバ8の送受信部81は、テキスト情報更新要求情報を受信する。 Next, when the reception unit 52 accepts the selection of the "save" button 633, the transmission / reception unit 51 of the PC 5 transmits the text information update request information indicating the update request of the text information to the schedule management server 8 ( Step S205). The text data and speaker information edited in step S204, the content processing ID received in step S156, and the user ID received in step S112 are transmitted to the text information update request information. The content processing ID in this case is a content processing ID corresponding to the edited text data. As a result, the transmission / reception unit 81 of the schedule management server 8 receives the text information update request information.

スケジュール管理サーバ8の記憶・読出処理部89は、ステップS205によって受信されたテキストデータを、テキスト情報管理DB8012(図15参照)に記憶する(ステップS206)。この場合、テキスト情報管理DB8012には、図55に示されているようなテキスト情報管理テーブルが記憶される。図55のテキスト情報管理テーブルには、図15に示したテキスト情報管理テーブルに記憶されたテキスト情報に、ステップS205によって受信された編集後のテキストデータおよび話者情報を含むテキスト情報が追加されている。このテキスト情報は、編集前のテキストデータと同様のコンテンツ処理IDと、編集前のテキストデータのテキストID(例えば、text12)からバージョンが更新されたテキストID(例えば、text12.2)と、テキストデータが編集されたことを示す状態情報とが関連付けられている。このうち、状態情報には、テキストデータの編集を行った編集者を示す編集者名およびテキストデータの編集が行われた日時を示す編集日時が含まれている。 The storage / reading processing unit 89 of the schedule management server 8 stores the text data received in step S205 in the text information management DB 8012 (see FIG. 15) (step S206). In this case, the text information management DB 8012 stores a text information management table as shown in FIG. 55. To the text information management table of FIG. 55, text information including the edited text data and speaker information received in step S205 is added to the text information stored in the text information management table shown in FIG. There is. This text information includes a content processing ID similar to the text data before editing, a text ID (for example, text12.2) whose version has been updated from the text ID of the text data before editing (for example, text12), and text data. Is associated with status information indicating that has been edited. Of these, the state information includes an editor name indicating the editor who edited the text data and an edit date and time indicating the date and time when the text data was edited.

スケジュール管理サーバ8の送受信部81は、PC5に対して、ステップS206で記憶されたテキストデータおよび話者情報を送信する(ステップS207)。これにより、PC5の送受信部51は、スケジュール管理サーバ8から送信されたテキストデータおよび話者情報を受信する。 The transmission / reception unit 81 of the schedule management server 8 transmits the text data and speaker information stored in step S206 to the PC 5 (step S207). As a result, the transmission / reception unit 51 of the PC 5 receives the text data and speaker information transmitted from the schedule management server 8.

PC5の生成部56は、ステップS207によって受信されたテキストデータを用いて、図56に示されている実行イベント履歴画面580bを生成する(ステップS208)。より具体的には、生成部56は、実行イベント履歴画面580aに含まれる編集前のテキストデータが、ステップS207によって受信された編集後のテキストデータに変更された実行イベント履歴画面580bを生成する。 The generation unit 56 of the PC 5 uses the text data received in step S207 to generate the execution event history screen 580b shown in FIG. 56 (step S208). More specifically, the generation unit 56 generates the execution event history screen 580b in which the unedited text data included in the execution event history screen 580a is changed to the edited text data received in step S207.

そして、PC5の表示制御部54は、ディスプレイ508上に、生成部56によって生成された実行イベント履歴画面580bを表示させる(ステップS209)。図53に示されているように、実行イベント履歴画面580bに含まれるテキストデータ表示領域582には、編集後のテキストデータを示す画像582cが表示されている。また、実行イベント履歴画面580bには、画像582cに示されているテキストデータの編集が行われたことを示す「編集済」ボタン625が含まれている。「編集済」ボタン625は、編集済画像の一例である。これにより、利用者は、実行イベント履歴画面580bに含まれる「編集済」ボタン625を確認することで、テキストデータ表示領域582に表示されているテキストデータが編集されたものであるかどうかを把握することができる。 Then, the display control unit 54 of the PC 5 displays the execution event history screen 580b generated by the generation unit 56 on the display 508 (step S209). As shown in FIG. 53, an image 582c showing the edited text data is displayed in the text data display area 582 included in the execution event history screen 580b. Further, the execution event history screen 580b includes an "edited" button 625 indicating that the text data shown in the image 582c has been edited. The “REDACTED” button 625 is an example of an edited image. As a result, the user can grasp whether or not the text data displayed in the text data display area 582 has been edited by checking the "edited" button 625 included in the execution event history screen 580b. can do.

以上説明したように、PC5は、実行イベント履歴画面580に表示されたテキストデータまたは話者情報を利用者に編集させるとともに、編集前のテキストデータに代えて編集されたテキストデータまたは話者情報を表示させることによって、編集されたテキストデータまたは話者情報を議事録として表示させることができる。また、音データからテキストデータへの変換精度が低い場合であっても、PC5は、表示されたテキストデータを利用者に編集させることで、実行イベント履歴画面580をイベントの議事録として利用者に有効に活用させることができる。さらに、PC5は、編集後のテキストデータを表示させることで、利用者が編集後のテキストデータを見て、利用者が聞きたい箇所の音データを再生することができる。 As described above, the PC 5 causes the user to edit the text data or speaker information displayed on the execution event history screen 580, and at the same time, edits the text data or speaker information in place of the text data before editing. By displaying it, the edited text data or speaker information can be displayed as the minutes. Further, even when the conversion accuracy from the sound data to the text data is low, the PC5 allows the user to edit the displayed text data so that the execution event history screen 580 is used as the minutes of the event. It can be used effectively. Further, the PC 5 can display the edited text data so that the user can see the edited text data and reproduce the sound data of the part that the user wants to hear.

図57は、実施形態に係る共用システムの編集履歴の閲覧処理の流れの一例を示すシーケンス図である。図58は、実施形態に係るPC上に表示される編集履歴画面を示す図である。図57および図58を用いて、実行イベント履歴画面580に表示されたテキストデータの編集履歴を閲覧する処理について説明する。なお、PC5のディスプレイ508には、図56に示されているような実行イベント履歴画面580bが表示されているものとして説明する。 FIG. 57 is a sequence diagram showing an example of a flow of browsing processing of the editing history of the shared system according to the embodiment. FIG. 58 is a diagram showing an edit history screen displayed on the PC according to the embodiment. A process of viewing the editing history of the text data displayed on the execution event history screen 580 will be described with reference to FIGS. 57 and 58. It is assumed that the execution event history screen 580b as shown in FIG. 56 is displayed on the display 508 of the PC 5.

まず、利用者が「編集済」ボタン625を押下すると、PC5の受付部52は、「編集済」ボタン625の選択を受け付け、編集履歴の閲覧要求を受け付ける(ステップS211)。次に、送受信部51は、スケジュール管理サーバ8に対して、テキストデータの編集履歴の送信要求を示す編集履歴送信要求情報を送信する(ステップS212)。この編集履歴送信要求情報には、閲覧要求の対象となるテキストデータに対応するコンテンツ処理IDが含まれている。これにより、スケジュール管理サーバ8の送受信部81は、編集履歴送信要求情報を受信する。 First, when the user presses the "edited" button 625, the reception unit 52 of the PC 5 accepts the selection of the "edited" button 625 and accepts the viewing request of the editing history (step S211). Next, the transmission / reception unit 51 transmits the edit history transmission request information indicating the transmission request of the edit history of the text data to the schedule management server 8 (step S212). The edit history transmission request information includes a content processing ID corresponding to the text data that is the target of the browsing request. As a result, the transmission / reception unit 81 of the schedule management server 8 receives the edit history transmission request information.

次に、スケジュール管理サーバ8の記憶・読出処理部89は、ステップS212によって受信されたコンテンツ処理IDを検索キーとしてテキスト情報管理DB8012を検索することによって、対応するテキスト情報を読み出す(ステップS213)。この場合、記憶・読出処理部89は、図55に示されているような更新されたテキスト情報管理テーブルに含まれるテキスト情報を読み出す。例えば、ステップS212によって受信されたコンテンツ処理IDが「c269」である場合、記憶・読出処理部89は、テキストID「text12」および「text12.1」が含まれているテキスト情報を読み出す。送受信部81は、PC5に対して、ステップS213によって読み出されたテキスト情報を送信する(ステップS214)。このテキスト情報には、コンテンツ処理ID、テキストID、テキストデータおよび状態情報が含まれている。これにより、PC5の送受信部51は、スケジュール管理サーバ8から送信されたテキスト情報を受信する。 Next, the storage / reading processing unit 89 of the schedule management server 8 reads out the corresponding text information by searching the text information management DB 8012 using the content processing ID received in step S212 as a search key (step S213). In this case, the storage / reading processing unit 89 reads out the text information included in the updated text information management table as shown in FIG. 55. For example, when the content processing ID received in step S212 is "c269", the storage / reading processing unit 89 reads out the text information including the text IDs "ext12" and "ext12.1." The transmission / reception unit 81 transmits the text information read in step S213 to the PC 5 (step S214). This text information includes a content processing ID, a text ID, text data, and state information. As a result, the transmission / reception unit 51 of the PC 5 receives the text information transmitted from the schedule management server 8.

そして、PC5の表示制御部54は、ディスプレイ508に表示されている実行イベント履歴画面580a上に、図58に示されているような編集履歴画面640を表示させる(ステップS215)。この編集履歴画面640には、編集前のテキストデータが表示されるオリジナルデータ表示領域641、編集後のテキストデータが表示される編集履歴表示領域643、およびこの編集履歴画面640を閉じるための「閉じる」ボタン649が含まれている。このうち、オリジナルデータ表示領域641には、ステップS214によって受信されたテキスト情報のうち、「Original」を示す状態情報が関連付けられているテキストデータが含まれている。また、編集履歴表示領域643には、ステップS214によって受信されたテキスト情報のうち、編集者名および編集日時を示す状態情報が関連付けられているテキストデータが含まれている。この編集履歴表示領域643には、対応するテキストデータが複数回編集された場合、複数の編集後のテキストデータを表示する編集後テキストデータ表示領域(644a、644b)が状態情報に示される編集日時に基づいて、時系列に表示されている。また、編集履歴表示領域643には、各テキストデータに関連付けられた状態情報に基づいて、それぞれのテキストデータを表示する編集後テキストデータ表示領域(644a、644b)に対応する位置に、テキストデータの編集を行った編集者を示す編集者情報(645a、645b)、およびテキストデータの編集が行われた時間を示す編集日時情報(646a、645b)がそれぞれ表示されている。 Then, the display control unit 54 of the PC 5 displays the edit history screen 640 as shown in FIG. 58 on the execution event history screen 580a displayed on the display 508 (step S215). The edit history screen 640 has an original data display area 641 in which text data before editing is displayed, an edit history display area 643 in which text data after editing is displayed, and a “close” for closing the edit history screen 640. Button 649 is included. Of these, the original data display area 641 includes text data associated with the state information indicating "Original" among the text information received in step S214. Further, the edit history display area 643 includes text data associated with the editor name and the state information indicating the edit date and time among the text information received in step S214. In the edit history display area 643, when the corresponding text data is edited a plurality of times, the edited text data display area (644a, 644b) for displaying the plurality of edited text data is indicated in the state information. It is displayed in chronological order based on. Further, in the edit history display area 643, the text data is displayed at a position corresponding to the edited text data display area (644a, 644b) for displaying each text data based on the state information associated with each text data. Editor information (645a, 645b) indicating the editor who made the edit and edit date / time information (646a, 645b) indicating the time when the text data was edited are displayed, respectively.

これにより、PC5は、ディスプレイ508に実行イベント履歴画面580bを表示させることによって、テキストデータが編集されたことを利用者に確認させることができるとともに、編集されたテキストデータの編集履歴を、編集履歴画面640を用いて利用者に確認することができる。また、PC5は、テキストデータの編集を行った編集者の情報および編集が行われた編集日時の情報をテキストデータの内容と併せて表示させることで、編集されたテキストデータの信憑性を利用者に確認させることができる。 As a result, the PC 5 can make the user confirm that the text data has been edited by displaying the execution event history screen 580b on the display 508, and can display the edited history of the edited text data in the editing history. It can be confirmed by the user using the screen 640. In addition, the PC 5 displays the information of the editor who edited the text data and the information of the editing date and time when the editing was performed together with the content of the text data, so that the credibility of the edited text data can be improved by the user. Can be confirmed by.

なお、図42〜図58では、PC5によって実行イベント履歴を閲覧する場合について説明したが、同様の処理によって、電子黒板2で実行イベント履歴を閲覧することができる。また、図42〜図58に示されている処理および画面例は、PC5だけでなく、電子黒板2、ビデオ会議端末3またはカーナビゲーション装置4においても同様の処理および同様の画面の表示を行ってもよい。 Although FIGS. 42 to 58 have described the case where the execution event history is browsed by the PC 5, the execution event history can be browsed on the electronic blackboard 2 by the same processing. Further, in the processing and screen examples shown in FIGS. 42 to 58, the same processing and the same screen display are performed not only on the PC 5 but also on the electronic blackboard 2, the video conferencing terminal 3, or the car navigation device 4. May be good.

さらに、図42〜図58では、PC5に表示させる各画面に係る画像データを、PC5の生成部56によって生成する場合について説明したが、この画像データは、スケジュール管理サーバ8によって生成されてもよい。この場合、スケジュール管理サーバ8では、生成部83によって画像データを生成され、生成された画像データが送受信部81によってPC5へ送信される。 Further, in FIGS. 42 to 58, the case where the image data related to each screen to be displayed on the PC 5 is generated by the generation unit 56 of the PC 5 has been described, but the image data may be generated by the schedule management server 8. .. In this case, in the schedule management server 8, image data is generated by the generation unit 83, and the generated image data is transmitted to the PC 5 by the transmission / reception unit 81.

<議事録の検索処理>
続いて、図59〜図62を用いて、共用システム1において議事録を検索する処理について説明する。
<Minutes search process>
Subsequently, the process of searching the minutes in the shared system 1 will be described with reference to FIGS. 59 to 62.

図59は、実施形態に係る共用システムの議事録の検索処理の流れの一例を示すシーケンス図である。図60は、実施形態に係るPC上に表示される議事録検索画面を示す図である。図61は、実施形態に係るPC上に表示される検索結果を含む議事録検索画面を示す図である。図62は、実施形態に係るPC上に表示される検索結果を含む議事録検索画面を示す図である。 FIG. 59 is a sequence diagram showing an example of the flow of the search process of the minutes of the shared system according to the embodiment. FIG. 60 is a diagram showing a minutes search screen displayed on the PC according to the embodiment. FIG. 61 is a diagram showing a minutes search screen including search results displayed on the PC according to the embodiment. FIG. 62 is a diagram showing a minutes search screen including search results displayed on the PC according to the embodiment.

まず、利用者がPC5のキーボード511等を操作することで、PC5の表示制御部54が、図60に示されているように、ディスプレイ508上に議事録検索を行うための議事録検索画面590を表示させる(ステップS241)。この議事録検索画面590は、期間開始入力欄591aと、期間終了入力欄591bと、カレンダーボタン592aと、カレンダーボタン592bと、キーワード入力欄593と、発話者入力欄594と、検索開始ボタン595と、検索結果表示領域596と、を含む。期間開始入力欄591aは、検索対象とする議事録が発生した会議の開催期間の開始日(期間情報)を入力する欄である。期間終了入力欄591bは、検索対象とする議事録が発生した会議の開催期間の終了日(期間情報)を入力する欄である。カレンダーボタン592aは、期間開始入力欄591aへの開始日の入力を補助するためのカレンダーを表示させるボタンである。カレンダーボタン592bは、期間終了入力欄591bへの終了日の入力を補助するためのカレンダーを表示させるボタンである。キーワード入力欄593は、議事録のテキスト情報に対して検索を行うためのキーワードを入力する欄である。発話者入力欄594は、検索する議事録のテキスト情報についての発話者を入力する欄である。検索開始ボタン595は、議事録の検索を実行するボタンである。検索結果表示領域596は、議事録の検索結果を表示する領域である。上述の期間開始入力欄591a、期間終了入力欄591b、キーワード入力欄593および発話者入力欄594に入力された情報のうち少なくともいずれかは、議事録の検索を実行するための検索条件となる。 First, when the user operates the keyboard 511 or the like of the PC 5, the display control unit 54 of the PC 5 performs the minutes search screen 590 on the display 508 as shown in FIG. 60. Is displayed (step S241). The minutes search screen 590 includes a period start input field 591a, a period end input field 591b, a calendar button 592a, a calendar button 592b, a keyword input field 593, a speaker input field 594, and a search start button 595. , Search result display area 596, and the like. The period start input field 591a is a field for inputting the start date (period information) of the holding period of the meeting in which the minutes to be searched are generated. The period end input field 591b is a field for inputting the end date (period information) of the holding period of the meeting in which the minutes to be searched are generated. The calendar button 592a is a button for displaying a calendar for assisting the input of the start date in the period start input field 591a. The calendar button 592b is a button for displaying a calendar for assisting the input of the end date in the period end input field 591b. The keyword input field 593 is a field for inputting a keyword for searching the text information of the minutes. The speaker input field 594 is a field for inputting a speaker for the text information of the minutes to be searched. The search start button 595 is a button for executing a search for minutes. The search result display area 596 is an area for displaying the search results of the minutes. At least one of the information input in the period start input field 591a, the period end input field 591b, the keyword input field 593, and the speaker input field 594 is a search condition for executing the search of the minutes.

次に、利用者が、期間開始入力欄591a、期間終了入力欄591b、キーワード入力欄593および発話者入力欄594に入力された情報のうち少なくともいずれかに上述の情報を入力して検索条件を指定し、検索開始ボタン595を押下すると、受付部52が、議事録の検索の要求を受け付ける(ステップS242)。ここでは、期間開始入力欄591a、期間終了入力欄591b、キーワード入力欄593および発話者入力欄594に、それぞれ、開始日および終了日(期間情報)、キーワード、ならびに発話者が入力されたものとする。 Next, the user inputs the above information into at least one of the information input in the period start input field 591a, the period end input field 591b, the keyword input field 593, and the speaker input field 594, and sets the search condition. When the designation is made and the search start button 595 is pressed, the reception unit 52 accepts the request for the search of the minutes (step S242). Here, it is assumed that the start date and end date (period information), keywords, and speaker are entered in the period start input field 591a, the period end input field 591b, the keyword input field 593, and the speaker input field 594, respectively. To do.

そして、PC5の送受信部51は、スケジュール管理サーバ8に対して、議事録の検索の要求を示す検索要求情報を送信する(ステップS243)。この検索要求情報には、ステップS242で入力された情報(キーワード、発話者、期間情報)が含まれている。これにより、スケジュール管理サーバ8の送受信部81は、検索要求情報を受信する。 Then, the transmission / reception unit 51 of the PC 5 transmits the search request information indicating the request for the search of the minutes to the schedule management server 8 (step S243). The search request information includes the information (keyword, speaker, period information) input in step S242. As a result, the transmission / reception unit 81 of the schedule management server 8 receives the search request information.

次に、スケジュール管理サーバ8の検索部84は、ステップS243で受信された検索要求情報に含まれる発話者(利用者名)を検索キーとして利用者管理DB8002を検索することにより、対応する利用者IDを読み出す(ステップS244)。次に、検索部84は、ステップS243で受信された検索要求情報に含まれる期間情報を検索キーとして実行イベント履歴管理DB8008を検索することにより、当該期間情報に含まれる開始日時・終了日時に対応するコンテンツ処理ID、および当該コンテンツ処理IDに対応する実行イベントIDを読み出す(ステップS245)。 Next, the search unit 84 of the schedule management server 8 searches the user management DB 8002 using the speaker (user name) included in the search request information received in step S243 as a search key to search the corresponding user. Read the ID (step S244). Next, the search unit 84 responds to the start date and time and end date and time included in the period information by searching the execution event history management DB 8008 using the period information included in the search request information received in step S243 as a search key. The content processing ID to be performed and the execution event ID corresponding to the content processing ID are read out (step S245).

次に、検索部84は、ステップS245で読み出した実行イベントIDを検索キーとして実行イベント管理DB8009を検索することにより、当該実行イベントIDに対応するイベント名、開始日時および終了日時を読み出す(ステップS246)。そして、検索部84は、ステップS245で読み出した実行イベントIDおよびコンテンツ処理ID、ステップS244で読み出した利用者ID、ならびに、ステップS243で受信された検索要求情報に含まれるキーワードを検索キーとして、テキスト情報管理DB8012を検索することにより、テキストデータを読み出す(ステップS247)。具体的には、検索部84は、テキスト情報管理DB8012を参照し、当該実行イベントID、コンテンツ処理IDおよび利用者IDに対応するテキストデータのうち、当該キーワードを含むテキストデータを読み出す。 Next, the search unit 84 reads the event name, start date and time, and end date and time corresponding to the execution event ID by searching the execution event management DB 8009 using the execution event ID read in step S245 as a search key (step S246). ). Then, the search unit 84 uses the execution event ID and content processing ID read in step S245, the user ID read in step S244, and the keywords included in the search request information received in step S243 as search keys to text. Text data is read out by searching the information management DB 8012 (step S247). Specifically, the search unit 84 refers to the text information management DB 8012, and reads out the text data including the keyword among the text data corresponding to the execution event ID, the content processing ID, and the user ID.

次に、スケジュール管理サーバ8の送受信部81は、PC5に対して、検索部84により読み出されたテキストデータ、ならびに当該テキストデータに対応する発話者、イベント名、開始日時および終了日時の組み合わせの一覧の情報を送信する(ステップS248)。これにより、PC5の送受信部51は、当該組み合わせの一覧の情報を受信する。そして、表示制御部54は、図62に示すように、検索結果表示領域596に、受信された一覧の情報を表示した議事録検索画面590を表示させる(ステップS249)。図62に示す議事録検索画面590は、期間開始入力欄591aに「2019/01/01」、期間終了入力欄591bに「2019/06/01」、キーワード入力欄593に「bar」、発話者入力欄594に「上田 聡子」と入力して検索を実行した場合における検索結果の表示例である。図62に示す例では、検索結果表示領域596には、検索結果として、各議事録の概要を示す議事録概要表示領域596r〜596tが表示されている。発話者入力欄594に「上田 聡子」という発話者を指定して検索しているので、検索結果に含まれる一覧のキーワードは、すべて「上田 聡子」は発した音声に基づくものとなっている。図62に示すように、検索結果表示領域596に表示される一覧のうち、テキストデータについては、当該テキストデータのうちキーワードを含む一部のみを表示するものとしてもよい。これによって、検索結果表示領域596においてスペースを確保しながら一覧表示させることができ、利用者は、キーワードの周辺の単語を確認することによって迅速に目的の議事録を発見することができる。 Next, the transmission / reception unit 81 of the schedule management server 8 makes a combination of the text data read by the search unit 84 and the speaker, event name, start date / time, and end date / time corresponding to the text data for the PC 5. The list information is transmitted (step S248). As a result, the transmission / reception unit 51 of the PC 5 receives the information of the list of the combinations. Then, as shown in FIG. 62, the display control unit 54 causes the search result display area 596 to display the minutes search screen 590 displaying the information of the received list (step S249). The minutes search screen 590 shown in FIG. 62 has "2019/01/01" in the period start input field 591a, "2019/06/01" in the period end input field 591b, "bar" in the keyword input field 593, and the speaker. This is a display example of the search result when the search is executed by inputting "Satoko Ueda" in the input field 594. In the example shown in FIG. 62, the minutes summary display area 596r to 596t showing the summary of each minutes is displayed as the search result in the search result display area 596. Since the search is performed by designating the speaker "Satoko Ueda" in the speaker input field 594, all the keywords in the list included in the search results are based on the voice "Satoko Ueda" uttered. As shown in FIG. 62, of the list displayed in the search result display area 596, as for the text data, only a part of the text data including the keyword may be displayed. As a result, the list can be displayed while securing a space in the search result display area 596, and the user can quickly find the target minutes by checking the words around the keyword.

また、図61に開始日、終了日およびキーワードのみを指定して検索を実行した場合の議事録検索画面590における一覧表示の一例を示す。図61に示す例では、発話者入力欄594に発話者を指定しない検索条件としているので、指定した開始日、終了日およびキーワードに対応する、膨大なテキストデータが検索されたことを示す。図61に示す例では、検索結果表示領域596には、検索結果の一部として、各議事録の概要を示す議事録概要表示領域596a〜596eが表示されている。これに対し、図62に示すように、さらには発話者を指定して検索することによって、会議中の誰かの発言に基づいて検索することが可能となり、検索結果を絞り込むことができる。 Further, FIG. 61 shows an example of the list display on the minutes search screen 590 when the search is executed by designating only the start date, the end date, and the keyword. In the example shown in FIG. 61, since the search condition is set so that the speaker is not specified in the speaker input field 594, it is shown that a huge amount of text data corresponding to the specified start date, end date, and keyword has been searched. In the example shown in FIG. 61, in the search result display area 596, minutes summary display areas 596a to 596e showing an outline of each minutes are displayed as a part of the search result. On the other hand, as shown in FIG. 62, by further designating the speaker and searching, it is possible to search based on the remarks of someone in the meeting, and the search results can be narrowed down.

そして、利用者が、PC5のマウス512等を操作することにより、議事録検索画面590の検索結果表示領域596に表示された一覧の中からいずれかの議事録を選択すると、受付部52が、当該選択操作を受け付ける(ステップS250)。すると、表示制御部54は、選択された議事録を表示させる(ステップS251)。例えば、表示制御部54は、一覧から選択された議事録として、テキストデータの全体、ならびに当該テキストデータに対応する発話者、イベント名、開始日時および終了日時を、ダイアログボックスに表示させる。なお、表示制御部54は、選択された議事録を表示するダイアログボックスを表示させることに限定されるものではなく、例えば、当該テキストデータおよび発話者の画像をテキストデータ表示領域582に含む図45等に示す実行イベント履歴画面580を表示させるものとしてもよい。これによって、指定した発話者のキーワードを含むテキストデータだけでなく、当該テキストデータに対応する会議で発生した他のテキストデータおよびスナップショット等を確認することができ、検索を実行した利用者は、目的とする議事録であるか否かを最終的に判断することが容易となる。 Then, when the user selects any minutes from the list displayed in the search result display area 596 of the minutes search screen 590 by operating the mouse 512 or the like of the PC 5, the reception unit 52 receives the minutes. The selection operation is accepted (step S250). Then, the display control unit 54 displays the selected minutes (step S251). For example, the display control unit 54 displays the entire text data and the speaker, event name, start date and time, and end date and time corresponding to the text data as minutes selected from the list in a dialog box. The display control unit 54 is not limited to displaying a dialog box for displaying the selected minutes. For example, FIG. 45 includes the text data and an image of the speaker in the text data display area 582. The execution event history screen 580 shown in the above may be displayed. As a result, not only the text data including the keyword of the specified speaker but also other text data and snapshots generated in the conference corresponding to the text data can be confirmed, and the user who executed the search can check the text data. It becomes easy to finally judge whether or not the minutes are the target minutes.

なお、図60〜図62に示した議事録検索画面590の例では、開始日、終了日、発話者、およびキーワードで議事録を検索するものとしたが、これに限定されるものではなく、発話者の名称の代わりに、発話者のメールアドレス等で指定して検索できるものとしてもよい。また、開始日、終了日および発話者に加えて、または代えて、例えば、共用体把握している場合には共用体名、イベント名を把握している場合には当該イベント名を検索条件に含めることができるものとしてもよい。 In the example of the minutes search screen 590 shown in FIGS. 60 to 62, the minutes are searched by the start date, the end date, the speaker, and the keyword, but the minutes are not limited to this. Instead of the speaker's name, the speaker's e-mail address or the like may be specified for search. In addition to or instead of the start date, end date, and speaker, for example, the union name is used when the union is known, and the event name is used as the search condition when the event name is known. It may be included.

また、上述では、PC5において議事録の検索処理を行うものとして説明したが、これに限定されるものではなく、電子黒板2、ビデオ会議端末3またはカーナビゲーション装置4において議事録の検索処理が行われるものとしてもよい。また、ビデオ会議端末3の場合、検索された議事録は、ビデオ会議端末3に接続されるディスプレイ320に表示させるものとすればよい。 Further, in the above description, the minutes search process is performed on the PC 5, but the present invention is not limited to this, and the minutes search process is performed on the electronic blackboard 2, the video conference terminal 3, or the car navigation device 4. It may be the one to be called. Further, in the case of the video conferencing terminal 3, the searched minutes may be displayed on the display 320 connected to the video conferencing terminal 3.

(実施形態の主な効果)
以上のように、本実施形態に係る共用システム1では、会議において発話された音声から発話者を特定し、特定した発話者と、当該音声に対応するテキストデータとを関連付けて議事録の一部として記憶するものとしている。そして、議事録を検索する際には、少なくとも、目的とする発話者およびキーワードを検索条件として指定して検索を実行ことによって、当該発話者およびキーワードに該当する議事録を検索して一覧表示するものとしている。これによって、会議中の誰かの発言に基づいて検索することが可能となり、検索結果を絞り込むことができ、目的とする会議の議事録を効率的に検索することができる。
(Main effects of the embodiment)
As described above, in the shared system 1 according to the present embodiment, the speaker is identified from the voice spoken at the meeting, and the identified speaker is associated with the text data corresponding to the voice to form a part of the minutes. It is supposed to be remembered as. Then, when searching the minutes, at least by specifying the target speaker and keyword as search conditions and executing the search, the minutes corresponding to the speaker and keyword are searched and displayed in a list. It is supposed to be. This makes it possible to search based on someone's remarks during the meeting, narrow down the search results, and efficiently search the minutes of the target meeting.

また、検索結果として表示される一覧のうち、テキストデータについては、当該テキストデータのうちキーワードを含む一部のみを表示するものとしてもよい。これによって、検索結果の表示領域においてスペースを確保しながら一覧表示させることができ、利用者は、キーワードの周辺の単語を確認することによって迅速に目的の議事録を発見することができる。 Further, in the list displayed as the search result, as for the text data, only a part of the text data including the keyword may be displayed. As a result, the list can be displayed while securing a space in the display area of the search result, and the user can quickly find the target minutes by checking the words around the keyword.

(補足)
なお、上記で説明した実施形態の各機能は、一または複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、SoC(System on a Chip)、GPU(Graphics Processing Unit)や従来の回路モジュール等のデバイスを含むものとする。
(Supplement)
It should be noted that each function of the embodiment described above can be realized by one or a plurality of processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. ASIC (Application Special Integrated Circuit), DSP (Digital Signal Processor), FPGA (Field Program Gate Array), SoC (System on a Chip), SoC (System on a Chip), GPU, etc.

また、上述の実施形態において、電子黒板2、PC5、共用支援サーバ6、スケジュール管理サーバ8および音声テキスト変換サーバ9の各機能部の少なくともいずれかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、上述の実施形態に係る電子黒板2、PC5、共用支援サーバ6、スケジュール管理サーバ8および音声テキスト変換サーバ9で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk−Recordable)、DVDまたはSDカード等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、上述の実施形態に係る電子黒板2、PC5、共用支援サーバ6、スケジュール管理サーバ8および音声テキスト変換サーバ9で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の実施形態に係る電子黒板2、PC5、共用支援サーバ6、スケジュール管理サーバ8および音声テキスト変換サーバ9で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、上述の実施形態に係る電子黒板2、PC5、共用支援サーバ6、スケジュール管理サーバ8および音声テキスト変換サーバ9で実行されるプログラムは、上述した各機能部のうち少なくともいずれかを含むモジュール構成となっており、実際のハードウェアとしてはCPUが上述の記憶装置からプログラムを読み出して実行することにより、上述の各機能部が主記憶装置上にロードされて生成されるようになっている。 Further, in the above-described embodiment, when at least one of the functional parts of the electronic blackboard 2, the PC 5, the shared support server 6, the schedule management server 8 and the voice-text conversion server 9 is realized by executing the program, the program is , ROM, etc. are provided in advance. Further, the programs executed by the electronic blackboard 2, PC5, shared support server 6, schedule management server 8 and voice-text conversion server 9 according to the above-described embodiment are CD-CDs in an installable format or an executable format file. Even if it is configured to be recorded and provided on a computer-readable recording medium such as a ROM (Compact Disk Read Only Memory), a flexible disk (FD), a CD-R (Compact Disk-Recordable), a DVD or an SD card, etc. Good. Further, the programs executed by the electronic blackboard 2, PC5, shared support server 6, schedule management server 8 and voice-text conversion server 9 according to the above-described embodiment are stored on a computer connected to a network such as the Internet. It may be configured to be provided by downloading it via a network. Further, the programs executed by the electronic blackboard 2, the PC 5, the shared support server 6, the schedule management server 8, and the voice-text conversion server 9 according to the above-described embodiment are configured to be provided or distributed via a network such as the Internet. You may. Further, the program executed by the electronic blackboard 2, the PC 5, the shared support server 6, the schedule management server 8 and the voice text conversion server 9 according to the above-described embodiment has a module configuration including at least one of the above-mentioned functional units. As the actual hardware, the CPU reads a program from the above-mentioned storage device and executes it, so that each of the above-mentioned functional units is loaded on the main storage device and generated.

1 共用システム
2 電子黒板
3 ビデオ会議端末
4 カーナビゲーション装置
5 PC
6 共用支援サーバ
8 スケジュール管理サーバ
9 音声テキスト変換サーバ
10 通信ネットワーク
21 送受信部
22 受付部
23−1 画像処理部
23−2 音処理部
24 表示制御部
25 判断部
26 音制御部
28 取得・提供部
29 記憶・読出処理部
51 送受信部
52 受付部
54 表示制御部
56 生成部
58 音制御部
59 記憶・読出処理部
61 送受信部
62 認証部
63 作成部
64 生成部
65 判断部
69 記憶・読出処理部
81 送受信部
82 認証部
83 生成部
84 検索部
89 記憶・読出処理部
91 送受信部
93 変換部
95 話者特定部
97 生成部
99 記憶・読出処理部
2000 記憶部
5000 記憶部
6000 記憶部
6001 利用者認証管理DB
6002 アクセス管理DB
6003 予定管理DB
6005 コンテンツ管理DB
6007 話者情報管理DB
8000 記憶部
8001 利用者認証管理DB
8002 利用者管理DB
8003 共用体管理DB
8004 共用体予約管理DB
8005 イベント管理DB
8006 サーバ認証管理DB
8008 実行イベント履歴管理DB
8009 実行イベント管理DB
8010 関連情報管理DB
8012 テキスト情報管理DB
9000 記憶部
9001 利用者音声情報管理DB
1 Shared system 2 Electronic blackboard 3 Video conferencing terminal 4 Car navigation device 5 PC
6 Shared support server 8 Schedule management server 9 Voice text conversion server 10 Communication network 21 Transmission / reception unit 22 Reception unit 23-1 Image processing unit 23-2 Sound processing unit 24 Display control unit 25 Judgment unit 26 Sound control unit 28 Acquisition / provision unit 29 Storage / reading processing unit 51 Transmission / reception unit 52 Reception unit 54 Display control unit 56 Generation unit 58 Sound control unit 59 Storage / reading processing unit 61 Transmission / reception unit 62 Authentication unit 63 Creation unit 64 Generation unit 65 Judgment unit 69 Storage / reading processing unit 81 Transmission / reception unit 82 Authentication unit 83 Generation unit 84 Search unit 89 Storage / reading processing unit 91 Transmission / reception unit 93 Conversion unit 95 Speaker identification unit 97 Generation unit 99 Storage / reading processing unit 2000 Storage unit 5000 Storage unit 6000 Storage unit 6001 User Authentication management DB
6002 Access management DB
6003 Schedule management DB
6005 Content management DB
6007 Speaker information management DB
8000 Storage 8001 User authentication management DB
8002 User management DB
8003 Union management DB
8004 Union reservation management DB
8005 Event management DB
8006 Server authentication management DB
8008 Execution event history management DB
8009 Execution event management DB
8010 Related information management DB
8012 Text information management DB
9000 Storage unit 9001 User voice information management DB

特開2014−146066号公報Japanese Unexamined Patent Publication No. 2014-146066

Claims (10)

ビデオ会議で録音された音データについて変換サーバにより変換されたテキストデータを管理する管理サーバと、情報処理装置と、を有する通信システムであって、
前記管理サーバは、
前記テキストデータと、該テキストデータに対応する前記音データの音声を発した発話者とを関連付けて議事録の少なくとも一部として記憶部に記憶させる記憶処理部を備え、
前記情報処理装置は、
受付部により受け付けられた入力操作に従って検索条件として指定された、少なくともキーワードと、発話者とを前記管理サーバへ送信する第1送信部を備え、
前記管理サーバは、
前記記憶部に記憶された議事録から、前記第1送信部から送信されたキーワードを含み、かつ該第1送信部から送信された発話者に対応する議事録を検索する検索部と、
を備えた通信システム。
A communication system having a management server that manages text data converted by a conversion server for sound data recorded in a video conference, and an information processing device.
The management server
A storage processing unit is provided which associates the text data with the speaker who has emitted the sound of the sound data corresponding to the text data and stores the text data in the storage unit as at least a part of the minutes.
The information processing device
It is provided with a first transmission unit that transmits at least a keyword and a speaker specified as search conditions according to an input operation received by the reception unit to the management server.
The management server
From the minutes stored in the storage unit, a search unit that includes a keyword transmitted from the first transmission unit and searches for minutes corresponding to the speaker transmitted from the first transmission unit, and a search unit.
Communication system equipped with.
前記管理サーバは、前記検索部により検索された議事録を、前記情報処理装置へ送信する第2送信部を、さらに備え、
前記情報処理装置は、前記第2送信部から送信された議事録を、表示部に一覧表示させる表示制御部を、さらに備えた請求項1に記載の通信システム。
The management server further includes a second transmission unit that transmits the minutes searched by the search unit to the information processing apparatus.
The communication system according to claim 1, wherein the information processing device further includes a display control unit for displaying a list of minutes transmitted from the second transmission unit on the display unit.
前記表示制御部は、一覧表示する議事録に含まれるテキストデータのうち、前記キーワードを含む一部を表示させる請求項2に記載の通信システム。 The communication system according to claim 2, wherein the display control unit displays a part of the text data included in the minutes to be displayed in a list, including the keyword. 前記第1送信部は、前記受付部により受け付けられた入力操作に従って、前記検索条件として指定されたビデオ会議の開催期間を、前記管理サーバへ送信し、
前記検索部は、前記記憶部に記憶された議事録から、前記第1送信部により送信されたキーワードを含み、該第1送信部から送信された発話者に対応し、かつ該第1送信部により送信された開催期間に含まれるビデオ会議の議事録を検索する請求項1〜3のいずれか一項に記載の通信システム。
The first transmission unit transmits the holding period of the video conference specified as the search condition to the management server according to the input operation received by the reception unit.
The search unit includes a keyword transmitted by the first transmission unit from the minutes stored in the storage unit, corresponds to the speaker transmitted from the first transmission unit, and is the first transmission unit. The communication system according to any one of claims 1 to 3, which searches the minutes of a video conference included in the holding period transmitted by.
前記表示制御部は、一覧表示した議事録のうち、前記受付部により受け付けられた操作により選択された議事録に含まれるテキストデータの全体を表示させる請求項2または3に記載の通信システム。 The communication system according to claim 2 or 3, wherein the display control unit displays the entire text data included in the minutes selected by the operation received by the reception unit among the minutes displayed in the list. 前記変換サーバを、さらに有し、
前記変換サーバは、ビデオ会議で録音された音データと、予め登録されている利用者音声データとを比較して、該音データの発話者を特定する話者特定部を備え、
前記記憶処理部は、前記テキストデータと、該テキストデータに対応する前記音データについて前記話者特定部により特定された発話者とを関連付けて前記記憶部に記憶させる請求項1〜5のいずれか一項に記載の通信システム。
It also has the conversion server
The conversion server includes a speaker identification unit that identifies the speaker of the sound data by comparing the sound data recorded in the video conference with the user voice data registered in advance.
Any one of claims 1 to 5, wherein the storage processing unit associates the text data with the speaker specified by the speaker identification unit for the sound data corresponding to the text data and stores the text data in the storage unit. The communication system according to paragraph 1.
受付部により受け付けられた入力操作に従って検索条件として指定された、少なくともキーワードと、発話者とを、ビデオ会議で録音された音データについて変換サーバにより変換されたテキストデータを管理する管理サーバへ送信する送信部と、
前記管理サーバにおける記憶部であって、前記テキストデータと、該テキストデータに対応する前記音データの音声を発した発話者とを関連付けて議事録の少なくとも一部として記憶する該記憶部に記憶された該議事録から、該管理サーバによって検索された前記送信部により送信されたキーワードを含み、かつ該送信部により送信された発話者に対応する議事録を、表示部に一覧表示させる表示制御部と、
を備えた情報処理装置。
At least the keyword and the speaker specified as the search conditions according to the input operation received by the reception unit are transmitted to the management server that manages the text data converted by the conversion server for the sound data recorded in the video conference. With the transmitter
It is a storage unit in the management server, and is stored in the storage unit that stores the text data as at least a part of the minutes by associating the text data with the speaker who uttered the sound data corresponding to the text data. A display control unit that displays a list of minutes that include the keywords transmitted by the transmission unit searched by the management server and that corresponds to the speaker transmitted by the transmission unit. When,
Information processing device equipped with.
ビデオ会議で録音された音データについて変換サーバにより変換されたテキストデータを管理する管理サーバと、情報処理装置と、を有する通信システムの情報処理方法であって、
前記テキストデータと、該テキストデータに対応する前記音データの音声を発した発話者とを関連付けて議事録の少なくとも一部として記憶部に記憶させる記憶処理ステップと、
受付部により受け付けられた入力操作に従って検索条件として指定された、少なくともキーワードと、発話者とを前記管理サーバへ送信する送信ステップと、
前記記憶部に記憶された議事録から、送信したキーワードを含み、かつ送信した発話者に対応する議事録を検索する検索ステップと、
を有する情報処理方法。
It is an information processing method of a communication system having a management server that manages text data converted by a conversion server for sound data recorded in a video conference and an information processing device.
A storage processing step of associating the text data with the speaker who emitted the sound of the sound data corresponding to the text data and storing the text data in the storage unit as at least a part of the minutes.
A transmission step of transmitting at least a keyword and a speaker specified as search conditions according to an input operation received by the reception unit to the management server, and a transmission step.
A search step for searching the minutes stored in the storage unit, including the transmitted keyword, and corresponding to the transmitted speaker, and
Information processing method having.
受付部により受け付けられた入力操作に従って検索条件として指定された、少なくともキーワードと、発話者とを、ビデオ会議で録音された音データについて変換サーバにより変換されたテキストデータを管理する管理サーバへ送信する送信ステップと、
前記管理サーバにおける記憶部であって、前記テキストデータと、該テキストデータに対応する前記音データの音声を発した発話者とを関連付けて議事録の少なくとも一部として記憶する該記憶部に記憶された該議事録から、該管理サーバによって検索された、送信したキーワードを含み、かつ送信した発話者に対応する議事録を、表示部に一覧表示させる表示制御ステップと、
を有する情報処理方法。
At least the keyword and the speaker specified as the search conditions according to the input operation received by the reception unit are transmitted to the management server that manages the text data converted by the conversion server for the sound data recorded in the video conference. Send step and
It is a storage unit in the management server, and is stored in the storage unit that stores the text data as at least a part of the minutes by associating the text data with the speaker who emitted the voice of the sound data corresponding to the text data. A display control step for displaying a list of minutes, including the transmitted keyword and corresponding to the transmitted speaker, searched by the management server from the minutes.
Information processing method having.
コンピュータを、
受付部により受け付けられた入力操作に従って検索条件として指定された、少なくともキーワードと、発話者とを、ビデオ会議で録音された音データについて変換サーバにより変換されたテキストデータを管理する管理サーバへ送信する送信部と、
前記管理サーバにおける記憶部であって、前記テキストデータと、該テキストデータに対応する前記音データの音声を発した発話者とを関連付けて議事録の少なくとも一部として記憶する該記憶部に記憶された該議事録から、該管理サーバによって検索された前記送信部により送信されたキーワードを含み、かつ該送信部から送信された発話者に対応する議事録を、表示部に一覧表示させる表示制御部と、
して機能させるためのプログラム。
Computer,
At least the keyword and the speaker specified as the search conditions according to the input operation received by the reception unit are transmitted to the management server that manages the text data converted by the conversion server for the sound data recorded in the video conference. With the transmitter
It is a storage unit in the management server, and is stored in the storage unit that stores the text data as at least a part of the minutes by associating the text data with the speaker who uttered the sound data corresponding to the text data. A display control unit that displays a list of minutes corresponding to the speaker transmitted from the transmission unit, including the keyword transmitted by the transmission unit searched by the management server, from the minutes. When,
A program to make it work.
JP2019203428A 2019-11-08 2019-11-08 Communication system, information processing method, information processor and program Pending JP2021077111A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019203428A JP2021077111A (en) 2019-11-08 2019-11-08 Communication system, information processing method, information processor and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203428A JP2021077111A (en) 2019-11-08 2019-11-08 Communication system, information processing method, information processor and program

Publications (1)

Publication Number Publication Date
JP2021077111A true JP2021077111A (en) 2021-05-20

Family

ID=75899713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203428A Pending JP2021077111A (en) 2019-11-08 2019-11-08 Communication system, information processing method, information processor and program

Country Status (1)

Country Link
JP (1) JP2021077111A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277037A (en) * 2008-05-15 2009-11-26 Konica Minolta Business Technologies Inc Data processing apparatus, speech conversion method, and speech conversion program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277037A (en) * 2008-05-15 2009-11-26 Konica Minolta Business Technologies Inc Data processing apparatus, speech conversion method, and speech conversion program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"音声認識 議事録作成プラットフォームサービス AmiVoice スーパーミーティングメモ", 2019 JAPAN IT WEEK 関西, JPN6023026707, 23 January 2019 (2019-01-23), ISSN: 0005098120 *
西堀 良久: "同期・非同期統合型マルチメディア会議システムASSISTの開発 −音声によるマルチメディア議事録の検", 第57回(平成10年後期)全国大会講演論文集(4) インタフェース コンピュータと人間社会, JPN6023026705, 5 October 1998 (1998-10-05), pages 4 - 41, ISSN: 0005098118 *
鈴木 泰山: "音声認識技術の活用による国会審議映像検索システムの実現", 情報処理学会 研究報告 音声言語情報処理(SLP) 2014−SLP−103 [ONLINE], JPN6023026706, 17 October 2014 (2014-10-17), ISSN: 0005098119 *

Similar Documents

Publication Publication Date Title
JP7302270B2 (en) Display terminal, shared system, display control method and program
US11289093B2 (en) Apparatus, system, and method of display control, and recording medium
JP7205697B2 (en) Communication terminal, shared system, display control method and program
US11669534B2 (en) Information processing apparatus, system, display control method, and recording medium
US20190327104A1 (en) Communication terminal, sharing system, data transmission control method, and recording medium
JP7314522B2 (en) Shared terminal, shared system, shared support method and program
JP7284449B2 (en) Display terminal, display control method and program
JP7314635B2 (en) Display terminal, shared system, display control method and program
JP7338214B2 (en) Communication terminal, management system, display method, and program
US11349888B2 (en) Text data transmission-reception system, shared terminal, and method of processing information
JP7413660B2 (en) Communication terminals, shared systems, storage control methods and programs
JP2021077111A (en) Communication system, information processing method, information processor and program
JP2020095689A (en) Display terminal, shared system, display control method, and program
JP7463690B2 (en) Server device, communication system, information processing method, program and recording medium
JP7380109B2 (en) Information processing device, communication system, information processing method and program
JP7347124B2 (en) Programs, information processing methods, information processing devices, and communication systems
JP7413735B2 (en) Server device, information processing method, and information processing system
JP7338211B2 (en) Communication terminal, shared system, communication method and program
JP7322480B2 (en) Communication terminal, management system, display method, and program
JP7342918B2 (en) Information processing device, text data editing method, communication system, program
JP7115014B2 (en) Information processing device, shared system, display method and program
JP7395845B2 (en) shared system
KR102427213B1 (en) Method, system, and computer readable record medium to manage together text conversion record and memo for audio file
JP7395825B2 (en) Display terminal, shared system, display control method and program
JP2021163459A (en) Text data transmission and reception system, shared terminal, information processing apparatus, user terminal, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240319