JP2013117879A - Material display and audio reproduction system - Google Patents

Material display and audio reproduction system Download PDF

Info

Publication number
JP2013117879A
JP2013117879A JP2011265269A JP2011265269A JP2013117879A JP 2013117879 A JP2013117879 A JP 2013117879A JP 2011265269 A JP2011265269 A JP 2011265269A JP 2011265269 A JP2011265269 A JP 2011265269A JP 2013117879 A JP2013117879 A JP 2013117879A
Authority
JP
Japan
Prior art keywords
terminal
recording
storage unit
data
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011265269A
Other languages
Japanese (ja)
Inventor
Naomi Kokubu
尚美 国分
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2011265269A priority Critical patent/JP2013117879A/en
Publication of JP2013117879A publication Critical patent/JP2013117879A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system, associated mainly with materials of a conference, a lecture class, etc., for efficiently reproducing and understanding details of conference and lecture class materials by not only enabling a person who did not attend to reproduce the materials and voice of the conference or lecture class later as he or she were there, but also devising how to make people hear data of recorded voice and how to show the materials.SOLUTION: A material voice reproduction system for material sharing includes means of listing recorded voice data on materials being displayed in a conference or lecture class along the time base, and means of displaying recorded parts close to details of the material as a voice list when they are available. Further, the system includes means of displaying all material screens related to voice when the displayed recording list is selected and the voice in the recording is heard.

Description

本発明は、資料表示及び音声再現システムに係り、特に、資料共有における資料表示及び音声再現システムに関する。   The present invention relates to a material display and sound reproduction system, and more particularly to a material display and sound reproduction system in material sharing.

本技術分野の背景技術として、会議や講習会において資料をサーバーに格納し、複数の端末間を無線LANや有線のネットワークで相互接続し、資料を電子的に共有するシステムが利用されペーパーレス化が図られている。このような資料共有システムを利用した会議や講習会において、その内容を記録する為に音声録音装置を用いて音声を録音することが一般的に行われている。たとえば特開2009−187462号公報(特許文献1)がある。この公報には、PCに格納した資料を用いて会議や講義を開始し、同時に録音を行う。その音声データを再生する時間とページめくりのタイミングに合わせてPCの画面に該当するページの資料を表示することが提案されている。また、特開2009−098882号公報(特許文献2)がある。この公報には、「会議に関する文書の検索を行った場合に、その文書に関連しておりその会議において発生した情報を出力するようにした情報処理システムを提供する」と記載されている。   As a background technology in this technical field, paper is saved by using a system in which materials are stored in a server at a conference or seminar, a plurality of terminals are interconnected by a wireless LAN or a wired network, and the materials are electronically shared. It is illustrated. In a meeting or a workshop using such a material sharing system, it is generally performed to record a voice using a voice recording device in order to record the contents. For example, there exists Unexamined-Japanese-Patent No. 2009-187462 (patent document 1). In this gazette, a meeting or a lecture is started using materials stored in a PC, and recording is performed at the same time. It has been proposed to display the material of the corresponding page on the screen of the PC in accordance with the time for reproducing the audio data and the timing of turning the page. Moreover, there exists Unexamined-Japanese-Patent No. 2009-098882 (patent document 2). This gazette states that “when a document related to a conference is searched, an information processing system that outputs information related to the document and generated in the conference is provided”.

特開2009−186462号公報JP 2009-186462 A 特開2009−098882号公報JP 2009-098882 A

これまでの技術は音声を主として考慮された資料表示であった。そのため、音声データの時間とページめくりの時間を合わせて表示し、会議をそのまま再現することが多かった。また、会議の議論の質の向上を着眼点にして資料を検索する技術などでは、検索した資料のみを表示するものであって会議や講習会を再現するものではなかった。さらに録音内容が資料の何ページにも関与する内容で、参照すべき資料が複数ページある場合などは録音内容と表示されている資料の内容が必ずしも合致していなかった。また、会議の進行は資料に関係なく進む可能性も大きく、会議や講習会に関係のない余談や間の録音を一気に飛ばしたり一部を聞き逃した場合やピンポイントでそこだけ聞きたい場合など資料に合致した録音内容を探し出すのに労力を要していた。
以上の点に鑑み、本発明は、会議や講習会などの資料を主とし、その場に参加できなかった人でも、後日あたかもその場にいたように会議や講習会の資料と音声をそのまま再現するだけでなく、録音音声のデータの聞かせ方と資料の見せ方を工夫し、会議や講習会資料の内容を効率よく再現し使用者の理解を向上させるシステムを提供する事を目的する。
The technology so far has been the display of materials mainly considering voice. For this reason, the audio data time and the page turning time are often displayed together to reproduce the conference as it is. In addition, the technology for searching for materials focusing on improving the quality of discussions in a conference displays only the searched materials and does not reproduce the conference or workshop. Furthermore, if the recorded content is related to any number of pages of the material, and there are multiple pages to be referred to, the recorded content and the content of the displayed material did not necessarily match. In addition, there is a high possibility that the progress of the conference will proceed regardless of the materials, such as when you skip a part of the abandonment or recording that is not related to the conference or workshop at once, or if you want to hear only part of it or pinpoint It took a lot of effort to find a recording that matched the material.
In view of the above points, the present invention is mainly based on materials such as conferences and workshops, and even if those who could not participate in the meeting, the materials and audio of the conference and workshop were reproduced as they were as if they were there at a later date. It aims to provide a system that improves the understanding of users by efficiently reproducing the contents of conference and seminar materials by devising how to listen to recorded audio data and how to display the materials.

本資料共有における資料音声再現システムでは、例えば、会議や講習会において表示中の資料の録音音声データを時間軸でリストに表示する手段とその資料の内容に近い録音箇所があればそれらを音声リストとして表示する手段とを有することを特徴のひとつとする。
また、本資料音声再現システムは、例えば、表示した録音リストを選択して聞く際に、その音声と結び付けた資料画面を全て表示する手段を有することを特徴のひとつとする。
In the material sound reproduction system for sharing this material, for example, there are means for displaying recorded sound data of a material being displayed in a meeting or a seminar in a list on a time axis, and if there is a recording portion close to the content of the material, the sound list is used. One of the features is that it has a display means.
In addition, this material sound reproduction system has, for example, a means for displaying all the material screens associated with the sound when selecting and listening to the displayed recording list.

本発明の解決手段によると、
第1端末及び第2端末を含む複数の端末とサーバーとを備え、記録段階において、第1端末に表示された資料及び第1端末の操作を特定する操作イベントと音声データとを、タイムスタンプに対応して前記サーバーに記録し、再現段階において音声の再生と資料の表示を第2端末で再現する資料表示及び音声再現システムであって、
前記サーバーは、
予め登録された資料内のキーワードが記憶された資料分析データ記憶部と、
録音された音声データを記憶する録音音声記憶部と、
録音された音声データをテキスト化した録音キャラクタリストが、タイムスタンプに対応して記憶された録音分析データ記憶部と、
前記第1端末に表示された資料及び該第1端末の操作を特定する操作イベントが、タイムスタンプに対応して記憶された操作データ記憶部と、
前記録音音声記憶部に記憶された音声データの再生と、前記操作データ記憶部に記憶された操作イベントに応じた資料の表示とを、前記第2端末で再現させる処理部と
を有し、
前記処理部は、再現段階において、
前記第2端末に再現表示された資料のキーワードを、前記資料分析データ記憶部を参照して特定し、
特定されたキーワードに基づき前記録音分析データ記憶部を検索し、該キーワードを含む録音キャラクタリストと、対応するタイムスタンプとを抽出し、
抽出されたひとつ又は複数の録音キャラクタリストを含む録音リストを前記第2端末に送信し、
前記第2端末は、
受信した録音リストを表示し、表示された録音リストに含まれる録音キャラクタリストのひとつが選択されると、選択された録音キャラクタリストに対応するタイムスタンプに従い、選択された録音キャラクタリストに対応する音声データを再生する資料表示及び音声再現システムが提供される。
According to the solution of the present invention,
A plurality of terminals including a first terminal and a second terminal and a server are provided, and in a recording stage, a material displayed on the first terminal, an operation event specifying the operation of the first terminal, and audio data are used as a time stamp. Correspondingly recorded on the server, a material display and sound reproduction system for reproducing the sound and displaying the material on the second terminal in the reproduction stage,
The server
A material analysis data storage unit in which keywords in pre-registered materials are stored;
A recorded voice storage unit for storing recorded voice data;
A recording character list in which the recorded voice data is converted into text, a recording analysis data storage unit stored corresponding to the time stamp, and
An operation data storage unit in which the material displayed on the first terminal and the operation event for specifying the operation of the first terminal are stored corresponding to the time stamp;
A processing unit that reproduces the audio data stored in the recorded audio storage unit and the display of the material according to the operation event stored in the operation data storage unit on the second terminal;
In the reproduction stage, the processing unit
The material keyword reproduced and displayed on the second terminal is identified with reference to the material analysis data storage unit,
Search the recording analysis data storage unit based on the identified keyword, extract a recording character list including the keyword, and a corresponding time stamp,
Transmitting a recording list including the extracted one or more recording character lists to the second terminal;
The second terminal is
When the received recording list is displayed and one of the recording character lists included in the displayed recording list is selected, the sound corresponding to the selected recording character list is displayed according to the time stamp corresponding to the selected recording character list. A material display and sound reproduction system for reproducing data is provided.

上述の資料表示及び音声再現システムでは、音声データを 選択する方法として早送りや巻き戻しだけでなく、録音リストの表示と選択聴取、また表示している資料をもとに内容に近い録音リストが表示するため、資料に合致した録音内容を探し出すことができる。
また、上述の資料表示及び音声再現システムにおいて、
前記複数の端末に表示する資料のデータが予め登録された資料記憶部
をさらに備え、
前記録音分析データ記憶部は、録音キャラクタリストに対応して、該録音キャラクタリストに含まれる前記キーワードが記憶され、
前記処理部は、再現段階において、
前記録音分析データ記憶部を参照して、選択された録音キャラクタリストに対応するキーワードを特定し、
特定されたキーワードに基づき前記資料分析データ記憶部を参照して、該キーワードを含む資料を特定し、
該資料のデータを前記端末に送信して表示させる。
In the above-mentioned material display and sound reproduction system, not only fast-forward and rewind as a method of selecting sound data, but also a recording list display and selective listening, and a recording list close to the content based on the displayed material are displayed. Therefore, it is possible to find the recording content that matches the material.
In the above-described document display and sound reproduction system,
Further comprising a material storage unit in which data of materials to be displayed on the plurality of terminals is registered in advance,
The recording analysis data storage unit stores the keyword included in the recording character list in correspondence with the recording character list,
In the reproduction stage, the processing unit
Referring to the recording analysis data storage unit, identify a keyword corresponding to the selected recording character list,
Refer to the material analysis data storage unit based on the identified keyword, identify the material containing the keyword,
The data of the material is transmitted to the terminal and displayed.

この資料表示及び音声再現システムでは、表示した録音リストを選択して聞く際に、その音声と結び付けた資料画面を表示可能なため、ユーザが自分で探す労力も半減する。このように、資料を用いた会議や講習会の再現時や資料を見ながら録音音声を聴取する際に、従来よりも見たい資料と聞きたい音声をより的確に再現し使用者の理解を向上させることができる。   In this material display and sound reproduction system, when the displayed recording list is selected and listened to, a material screen associated with the sound can be displayed, so that the user's effort to search for himself is halved. In this way, when reproducing recorded conferences and workshops using materials and listening to recorded audio while viewing the materials, the materials you want to see and the sounds you want to hear are reproduced more accurately than before, improving the user's understanding. Can be made.

本発明によると、会議や講習会などの資料を主とし、その場に参加できなかった人でも、後日あたかもその場にいたように会議や講習会の資料と音声をそのまま再現するだけでなく、録音音声のデータの聞かせ方と資料の見せ方を工夫し、会議や講習会資料の内容を効率よく再現し使用者の理解を向上させるシステムを提供する事ができる。   According to the present invention, not only the materials such as conferences and workshops, but also those who could not participate in the place, as well as reproducing the materials and audio of the conference and workshops as if they were there at a later date, It is possible to provide a system that improves the user's understanding by efficiently reproducing the contents of the conference and workshop materials by devising how to listen to the recorded audio data and displaying the materials.

資料共有システムの構成図の例である。It is an example of a block diagram of a document sharing system. サーバーの構成図の例である。It is an example of the block diagram of a server. 端末の構成図の例である。It is an example of the block diagram of a terminal. サーバーの資料登録画面の例である。It is an example of the data registration screen of a server. サーバーの会議資料記憶部の構成例である。It is a structural example of the meeting material storage part of a server. 資料分析データの例である。It is an example of data analysis data. 資料分析データの作成フローチャート図である。It is a creation flowchart figure of data analysis data. 操作データの作成フローチャート図である。It is a creation flowchart figure of operation data. 録音分析データ作成フローチャート図である。It is a recording analysis data creation flowchart figure. 時系列録音リストの表示方法フローチャート図である。It is a display method flowchart figure of a time-sequential recording list. 候補録音リストの表示方法フローチャート図である。It is a display method flowchart figure of a candidate recording list. 候補録音リスト選択時別画面表示方法フローチャート図である。FIG. 10 is a flowchart of another screen display method when a candidate recording list is selected. 会議再現データ記憶部の例である。It is an example of a meeting reproduction data storage part. 操作データの例である。It is an example of operation data. 録音分析データの例である。It is an example of recording analysis data. 端末の画面の例である。It is an example of the screen of a terminal. 端末の再現画面1の例である。It is an example of the reproduction screen 1 of a terminal. 端末の再現画面2の例である。It is an example of the reproduction screen 2 of a terminal. 資料共有システムを利用した会議のシーケンスの例である。It is an example of the sequence of the meeting using a document sharing system. 会議再現のシーケンス図の例である。It is an example of the sequence diagram of meeting reproduction. 表示中の資料の内容に近い録音内容候補のデータである。This is a candidate recording content that is close to the content of the material being displayed.

以下、実施例を図面を用いて説明する。   Hereinafter, examples will be described with reference to the drawings.

本実施例は、資料共有システム(資料表示及び音声再現システム)を利用した会議と会議再現の例をあげて説明する。
図17は資料共有システムを利用した会議のシーケンスの例である。まず、図17のシーケンスの順番に、会議や講習会に必要な資料をサーバー11が登録する例と、会議、講習会の進行の例、その会議や講習会の再現に必要なデータをサーバーが作成する例を説明する。
In the present embodiment, a conference using a document sharing system (document display and voice reproduction system) and an example of conference reproduction will be described.
FIG. 17 shows an example of a conference sequence using the document sharing system. First, in the sequence of FIG. 17, the server 11 registers an example in which the server 11 registers materials necessary for the meeting and the workshop, an example of the progress of the meeting and the workshop, and data necessary for reproducing the meeting and the workshop. An example of creation will be described.

(システム構成)
まず、図1に、この資料共有システムを構成する機器の例を示す。
資料共有システムは、サーバー11とアクセスポイント12と複数台の端末13で構成される。サーバー11と端末13〜14はアクセスポイントAP12を介してLANでつながっており、HTTPなどのプロトコルを用いてメッセージの送受信など通信を行うことができる。端末13〜14は無線端末でもよく、アクセルポイント12と端末が無線で通信してもよい。端末13〜14は、例えばスマートフォン端末、タブレット端末、ネットブック、無線LAN機能を有するPC等の端末、有線でサーバーと通信可能なPC等の端末などでもよい。
図2に、サーバー11の構成例を示す。サーバー11は、例えば処理を行うCPU(処理部)21、記憶部22、入力装置23、出力装置24、及び、LANなどの通信回線インターフェース25を有し、サーバーとして構築できるパソコンである。記憶部22は、例えば、Webアプリケーション221、サーバアプリケーション228を記憶する。また、記憶部22は、例えば、会議資料記憶部222、資料分析データ記憶部223、会議再現データ記憶部224、録音音声記憶部225、操作データ記憶部226、及び、録音分析データ記憶部227を含む。入力装置23は、例えば、キーボード231、マイク232、マウス233、及び、CD、USBドライブ234を含む。出力装置24は、例えば、モニタ241、スピーカ242を含む。
図3に、端末13、14の構成例を示す。端末13、14は、録音可能なマイク331と録音機能を有する。端末13、14は、例えば、CPU31、記憶部32、入力装置33、出力装置34、LANなどの通信回線インターフェース35を有する。例えばパソコン、Android端末など端末が適している。記憶部32は、例えば、録音音声記憶部321及びAndroidアプリケーション322を含む。入力装置33は、例えば、キーボード331、マイク332、及び、マウス333を含む。出力装置34は、例えば、モニタ341、スピーカ342を含む。
(System configuration)
First, FIG. 1 shows an example of devices constituting the document sharing system.
The document sharing system includes a server 11, an access point 12, and a plurality of terminals 13. The server 11 and the terminals 13 to 14 are connected by a LAN via the access point AP12, and can perform communication such as message transmission and reception using a protocol such as HTTP. The terminals 13 to 14 may be wireless terminals, and the accelerator point 12 and the terminals may communicate wirelessly. The terminals 13 to 14 may be, for example, a smartphone terminal, a tablet terminal, a netbook, a terminal such as a PC having a wireless LAN function, or a terminal such as a PC that can communicate with a server by wire.
FIG. 2 shows a configuration example of the server 11. The server 11 is a personal computer that has a CPU (processing unit) 21 that performs processing, a storage unit 22, an input device 23, an output device 24, and a communication line interface 25 such as a LAN, and can be constructed as a server. The storage unit 22 stores, for example, a Web application 221 and a server application 228. The storage unit 22 includes, for example, a conference material storage unit 222, a material analysis data storage unit 223, a conference reproduction data storage unit 224, a recording voice storage unit 225, an operation data storage unit 226, and a recording analysis data storage unit 227. Including. The input device 23 includes, for example, a keyboard 231, a microphone 232, a mouse 233, a CD, and a USB drive 234. The output device 24 includes, for example, a monitor 241 and a speaker 242.
FIG. 3 shows a configuration example of the terminals 13 and 14. The terminals 13 and 14 have a recordable microphone 331 and a recording function. The terminals 13 and 14 include, for example, a CPU 31, a storage unit 32, an input device 33, an output device 34, and a communication line interface 35 such as a LAN. For example, a terminal such as a personal computer or an Android terminal is suitable. The storage unit 32 includes, for example, a recorded voice storage unit 321 and an Android application 322. The input device 33 includes, for example, a keyboard 331, a microphone 332, and a mouse 333. The output device 34 includes a monitor 341 and a speaker 342, for example.

(会議の記録段階の動作)
最初にサーバー11は、会議や講習会に使用する資料を保存する(図17の171)。そのためにサーバー11は、図2のWebアプリケーション221を起動し、図4の会議、講習会に使用する資料を登録する画面を表示する。サーバー11の画面に表示した図4の例は、符号48の会議名の欄に会議Cを入力し、日時の欄に2011/9/5を入力した例である。サーバー11は、図2の234で示すCDまたはUSBの入力装置によりこれらの記憶媒体から、または、ハードディスクから資料C1を読み込む。符号49の資料名の欄に資料C1の名称などの識別情報を表示する。ユーザがキーボード231、マウス233等を操作することにより資料C1が選択され、入力装置23から選択された情報を入力する。サーバー11は、図4の登録41が押されたことを認識して、選択された資料を図2の会議資料記憶部222に登録する。なお、サーバー11への資料データへの登録は、端末13、14がサーバー11にアクセスして行うこともできる。
図5は、図2の会議資料記憶部222の構成図である。この図5のようにサーバーは会議毎に複数の資料を登録することができる。例えば、会議資料記憶部222は、会議の日付、会議名に対応して、資料を記憶する。資料はひとつの会議に対して、複数でもよいし、ひとつでもよい。
次に、サーバー11はこの登録した資料C1の会議Cの再現に使用するキーワードを自動または手動、または、それらの両方で登録する。自動の場合はサーバー11は図4の開始42が押されたことを認識し、キーワード検索を行う。例えば、資料のタイトル、タイトルに含まれている文字・単語や、資料中の使用頻度が高い単語などを1ページより検索し、一致すると図2の資料分析データ223に記憶する。タイトルは、入力装置23から入力されることもできる。また、使用頻度は、例えば、使用頻度が多い上位いくつかを抽出してもよいし、使用回数の閾値、又は全体に対する使用割合の閾値が予め定められ、それ以上のものを抽出してもよい。なお、キーワードは、単語、熟語、文節など適宜の文字列でもよい。その資料分析データの構成例を図6に示す。例えば、会議Cの資料C1を資料C1の分析データ64を格納する。分析データは、会議の資料ごとに、ページ番号と、そのページに含まれるキーワードとの対応を含む。
また、サーバー11は、図4の符号47のリストに、登録したキーワードを表示する。サーバー11は自動でページを更新して全ページの検索を行い、全ページの資料分析データを作成する。さらにキーワードが必要な場合は、サーバー11は図4の符号43の入力位置からのキーワード入力とサーチ744が押されたことを検知し、前に述べた自動キーワードの検索と同様に全ページ検索を行い、会議Cの資料C1を資料C1の分析データ64に追加格納し、図4の符号47のリストに追加表示する。
また、サーバー11は、資料追加46が押されたことを検知すると、図2の231のCDまたはUSBの入力装置によりこれらの記憶媒体から、または、ハードディスクから別資料を読み込む作業に戻り、以下同じ手順で別資料を登録する。このようにサーバー11は、図5の53の資料C1の部分に資料C1を格納し、図6の641にその資料C1の作成した分析データを格納し、日時と会議名と登録した複数の資料とそれぞれの分析データを結び付けて管理する。
(Operation at the recording stage of the meeting)
First, the server 11 stores materials used for a meeting or a seminar (171 in FIG. 17). For this purpose, the server 11 activates the Web application 221 shown in FIG. 2 and displays a screen for registering materials to be used for the meeting and seminar shown in FIG. The example of FIG. 4 displayed on the screen of the server 11 is an example in which the conference C is input in the conference name column 48 and 2011/9/5 is input in the date / time column. The server 11 reads the material C1 from these storage media or from the hard disk using a CD or USB input device indicated by reference numeral 234 in FIG. Identification information such as the name of the material C1 is displayed in the material name column 49. The user operates the keyboard 231 and the mouse 233 to select the material C1 and inputs the selected information from the input device 23. The server 11 recognizes that the registration 41 in FIG. 4 has been pressed, and registers the selected material in the conference material storage unit 222 in FIG. Registration of the material data in the server 11 can also be performed by the terminals 13 and 14 accessing the server 11.
FIG. 5 is a configuration diagram of the conference material storage unit 222 of FIG. As shown in FIG. 5, the server can register a plurality of materials for each conference. For example, the meeting material storage unit 222 stores materials corresponding to the meeting date and meeting name. There may be multiple documents or one document for a meeting.
Next, the server 11 registers the keyword used for reproducing the meeting C of the registered material C1 automatically or manually, or both. In the case of automatic, the server 11 recognizes that the start 42 in FIG. 4 has been pressed and performs a keyword search. For example, the title of the material, characters / words included in the title, frequently used words in the material, etc. are searched from one page, and if they match, the data is stored in the material analysis data 223 of FIG. The title can also be input from the input device 23. In addition, as for the usage frequency, for example, some of the top usage frequencies may be extracted, or a threshold value for the number of times of use or a threshold value for the usage ratio with respect to the whole may be determined in advance, and more than that may be extracted. . The keyword may be an appropriate character string such as a word, idiom, or phrase. A configuration example of the material analysis data is shown in FIG. For example, the analysis data 64 of the material C1 is stored for the material C1 of the conference C. The analysis data includes a correspondence between a page number and a keyword included in the page for each meeting material.
Further, the server 11 displays the registered keyword in the list 47 shown in FIG. The server 11 automatically updates the page, searches all pages, and creates material analysis data for all pages. If more keywords are required, the server 11 detects the keyword input from the input position indicated by reference numeral 43 in FIG. 4 and that the search 744 has been pressed, and searches all pages in the same manner as the automatic keyword search described above. Then, the material C1 of the meeting C is additionally stored in the analysis data 64 of the material C1, and is additionally displayed in the list 47 in FIG.
When the server 11 detects that the material addition 46 is pressed, the server 11 returns to the operation of reading another material from these storage media or from the hard disk by the CD or USB input device 231 in FIG. Register another document in the procedure. As described above, the server 11 stores the material C1 in the portion of the material C1 of 53 in FIG. 5, stores the analysis data created by the material C1 in 641 of FIG. And manage each analysis data.

図7に、資料分析データ作成のフローチャートを示す。各処理については、上述の通りであるので、説明を省略する。
このように資料をサーバー11が登録した後、端末13、14は図3のアプリケーション322を起動する。複数の端末のうち、会議や講習会を進行させる例えば1台の端末をプレゼンタ端末(第1端末)13とする。プレゼンタ端末13は、図15の画面を表示する。プレゼンタ端末13は、資料一覧152が押されたことを検知すると、会議資料一覧表示要求(17−1)を図3の通信回線インターフェース35へメッセージを出力し、サーバー11に送信する。サーバー11は、図2の通信回線インターフェース25からプレゼンタ端末13が送信したメッセージを受信し、図5の会議資料記憶部222もとに会議資料一覧データを送信(17−2)する。会議資料一覧データは、例えば、会議名と資料名とを含む。以下、メッセージの送受信は同じくプレゼンタ端末13側は図3の35、サーバー側は図2の25の通信回線インターフェースを介して行われる。プレゼンタ端末13は、受信した会議資料一覧データをもとに、資料一覧をプレゼンタ端末13の図3のモニタ342に表示する。例えば、図15の領域151に表示する。プレゼンタ端末13は、図3のマウス332等の入力装置により資料C1が選択されたことを検知し、資料C1要求(17−3)をサーバー11に送信する。
サーバー11は、会議資料記憶部222に記憶された資料C1の1ページ目のデータをプレゼンタ端末13に送信する(17−4)。また、サーバー11は、会議に参加している端末全てに資料C1の1ページ目を送信する(17−5)。端末13、14のうち、会議に参加している端末は予め登録されることができる。資料C1の1ページ目のデータを受信したそれぞれの端末13、14は、各自の画面に同じ資料C1の1ページ目を表示する。プレゼンタ端末13は、ここで図5の録音会議153が押されたことを検知し、録音会議指定174を行い録音指定のメッセージ(17−6)をサーバー11に送信する。サーバー11は、この録音指定のメッセージを受信し、操作データ175の作成を開始する。例えば、プレゼンタ端末13が送信するメッセージである操作イベントとタイムスタンプを、例えば図13の操作データの構成で、図2の操作データ記憶部226に記憶開始する。また、プレゼンタ端末13は、図3の入力装置33のマイク332により音声を入力し、録音音声記憶部321に会議、講習会の音声を録音開始する。
FIG. 7 shows a flowchart for creating the material analysis data. Since each process is as described above, a description thereof will be omitted.
After the server 11 registers the material in this way, the terminals 13 and 14 activate the application 322 in FIG. Of the plurality of terminals, for example, one terminal for proceeding with a conference or a seminar is a presenter terminal (first terminal) 13. The presenter terminal 13 displays the screen of FIG. When the presenter terminal 13 detects that the material list 152 is pressed, the presenter terminal 13 outputs a conference material list display request (17-1) to the communication line interface 35 of FIG. The server 11 receives the message transmitted by the presenter terminal 13 from the communication line interface 25 in FIG. 2, and transmits the conference material list data to the conference material storage unit 222 in FIG. 5 (17-2). The conference material list data includes, for example, a conference name and a material name. The message transmission / reception is similarly performed via the communication line interface 35 in FIG. 3 on the presenter terminal 13 side and 25 in FIG. 2 on the server side. The presenter terminal 13 displays a material list on the monitor 342 of FIG. 3 of the presenter terminal 13 based on the received meeting material list data. For example, it is displayed in the area 151 of FIG. The presenter terminal 13 detects that the material C1 is selected by the input device such as the mouse 332 of FIG. 3 and transmits a material C1 request (17-3) to the server 11.
The server 11 transmits the data of the first page of the material C1 stored in the conference material storage unit 222 to the presenter terminal 13 (17-4). Further, the server 11 transmits the first page of the document C1 to all terminals participating in the conference (17-5). Of the terminals 13 and 14, terminals participating in the conference can be registered in advance. Each terminal 13 and 14 that has received the data of the first page of the document C1 displays the first page of the same document C1 on its own screen. The presenter terminal 13 detects that the recording conference 153 in FIG. 5 has been pressed, performs a recording conference designation 174, and transmits a recording designation message (17-6) to the server 11. The server 11 receives the recording designation message and starts creating the operation data 175. For example, an operation event and a time stamp, which are messages transmitted from the presenter terminal 13, are started to be stored in the operation data storage unit 226 in FIG. 2 with the operation data configuration in FIG. 13, for example. In addition, the presenter terminal 13 inputs a voice through the microphone 332 of the input device 33 in FIG. 3 and starts recording the voice of the conference and the seminar in the recording voice storage unit 321.

図8に、操作データ作成のフローチャートを示す。サーバー11は、プレゼンタ端末13からのメッセージが録音指定であれば(81〜83)、操作データを初期化し、データ作成を開始する(87)。また、サーバー11は、プレゼンタ端末13からのメッセージが会議終了であれば(81〜84)、操作データの作成を終了する。プレゼンタ端末13からのメッセージが操作イベントであり、会議が開始していれば(81〜85)、タイムスタンプと操作イベントを対応して操作データ記憶部227に記憶する。
図17に戻り、処理の説明を続ける。プレゼンタ端末13は、会議が進行し、ページを変更する場合は、例えばボタン156が押されることでページ送りを行い、資料C1の2ページ指定(17−7)をサーバー11に送信する。サーバー11は、図5の資料C1の2ページ目のデータをプレゼンタ端末13に送信する(17−8)。また、それとともに、サーバー11は会議に参加している端末全てに資料C1の2ページ目を送信(17−9)する。また、図13の操作データ記憶部226に、タイムスタンプ131と操作イベント132のページ送り1322を追加する。資料C1の2ページ目のデータを受信したそれぞれの端末は、各自の画面に同じ資料C1の2ページを表示する。
以下、プレゼンタ端末13はページ送り、ページ戻しなどのイベント毎にサーバー11にメッセージを送信する。サーバー11はそのメッセージを解析しそれに合致した図2の会議資料記憶部222に保管していた資料データの指定ページを、端末全てに送信する。そして端末13、14が資料データの指定ページを受信し、画面に一斉に表示する。
また、図4のサーバー11の資料登録画面で会議Cの資料を複数登録した場合は、他の資料も指定可能である。図17の例では、プレゼンタ端末13は適宜の操作により再び資料一覧を表示し、資料C2が選択されると、資料C2要求(17−13)をサーバー11に送信する。
FIG. 8 shows a flowchart for creating operation data. If the message from the presenter terminal 13 is a recording designation (81-83), the server 11 initializes the operation data and starts data creation (87). If the message from the presenter terminal 13 is the conference end (81 to 84), the server 11 ends the operation data creation. If the message from the presenter terminal 13 is an operation event and the conference has started (81-85), the time stamp and the operation event are stored in the operation data storage unit 227 in association with each other.
Returning to FIG. 17, the description of the processing is continued. When the conference progresses and the page is changed, the presenter terminal 13 performs page turning by pressing a button 156, for example, and transmits the 2-page designation (17-7) of the material C1 to the server 11. The server 11 transmits the data on the second page of the material C1 in FIG. 5 to the presenter terminal 13 (17-8). At the same time, the server 11 transmits the second page of the document C1 to all the terminals participating in the conference (17-9). Further, the time stamp 131 and the page feed 1322 of the operation event 132 are added to the operation data storage unit 226 of FIG. Each terminal that has received the data on the second page of the document C1 displays the second page of the same document C1 on its own screen.
Hereinafter, the presenter terminal 13 transmits a message to the server 11 for each event such as page feed or page return. The server 11 analyzes the message and transmits the designated page of the material data stored in the conference material storage unit 222 of FIG. Then, the terminals 13 and 14 receive the designated page of the material data and display them simultaneously on the screen.
In addition, when a plurality of materials for the conference C are registered on the material registration screen of the server 11 of FIG. 4, other materials can be designated. In the example of FIG. 17, the presenter terminal 13 displays the material list again by an appropriate operation, and when the material C2 is selected, a material C2 request (17-13) is transmitted to the server 11.

サーバー11は、図5の資料C2の1ページ目のデータをプレゼンタ端末13に送信する(17−14)。それとともに、サーバー11は、会議に参加している端末全てに資料C2の1ページ目を送信(17−15)する。資料C2の1ページ目のデータを受信したそれぞれの端末は、各自の画面に同じ資料C2の1ページ目を表示する。ページ送りを行う場合は、資料C2の2ページ指定(17−17)をサーバー11に送信する。サーバー11は、ページ指定に応答して、図5の資料C2の2ページ目のデータをプレゼンタ端末13に送信する(17−18)。それとともに、サーバー11は会議に参加している端末全てに資料C2の2ページ目を送信(17−19)する。また、図13の操作データ記憶部226にタイムスタンプ131と、今回の操作イベント132である「資料C2を開く」1325とを追加する。資料C2の2ページ目のデータを受信したそれぞれの端末は、各自の画面に同じ資料C2の2ページを表示する。以下、先に述べたようにプレゼンタ端末13で発生したイベント毎にサーバー11にメッセージを送信し、サーバー11がそのメッセージを解析しそれに合致した図2の会議資料記憶部222に保管していた資料データの指定ページを、会議に参加する端末全てに送信し、図13の操作データ記憶部226を更新し、端末13、14がその資料のデータを受信し、画面に各々表示する事を繰り返す。このように、資料共有を行い会議を行う。   The server 11 transmits the data of the first page of the material C2 in FIG. 5 to the presenter terminal 13 (17-14). At the same time, the server 11 transmits the first page of the document C2 to all the terminals participating in the conference (17-15). Each terminal that has received the data of the first page of the document C2 displays the first page of the same document C2 on its own screen. When performing page feed, the two-page designation (17-17) of the material C2 is transmitted to the server 11. In response to the page designation, the server 11 transmits the data on the second page of the material C2 in FIG. 5 to the presenter terminal 13 (17-18). At the same time, the server 11 transmits the second page of the document C2 to all terminals participating in the conference (17-19). Further, the time stamp 131 and the current operation event 132 “open document C2” 1325 are added to the operation data storage unit 226 of FIG. Each terminal that has received the data of the second page of the document C2 displays the second page of the same document C2 on its own screen. Hereinafter, as described above, a message is transmitted to the server 11 for each event that occurred in the presenter terminal 13, and the server 11 analyzes the message and stores it in the meeting material storage unit 222 in FIG. The data designation page is transmitted to all the terminals participating in the conference, the operation data storage unit 226 in FIG. 13 is updated, and the terminals 13 and 14 receive the data of the material and repeatedly display them on the screen. In this way, materials are shared and conferences are held.

プレゼンタ端末13は、会議を終了する際に図15の会議終了ボタン154が押されたことを検知し、会議終了通知(17−20)をサーバー11に送信する。サーバー11は、会議終了通知をプレゼンタ端末13に送信して(17−21)、会議参加者の端末全台にも会議終了通知(17−22)を送信する。続いてサーバー11は、図13の操作データ記憶部226に13211で示す停止とタイムスタンプを記憶し、操作データの作成を終了(177)し、会議Cの操作データを完成する。プレゼンタ端末13は、サーバー11から送られた会議終了通知を受信すると、録音作業を停止し、録音音声ファイルを作成する(178)。ここで作成した録音ファイルを、プレゼンタ端末13はサーバー11にアップロードする(17−23)。サーバー11は、受信した録音音声ファイルを図2の録音音声記憶部225に記憶する(179)。
次にサーバー11は、この録音音声データを用いて図14の録音分析データを作成する。サーバー11は、録音音声データを音声認識などによってテキスト化し、自然言語検索や構文解析の一般的な技術によって音声キャラクタを文章毎にわけて、タイムスタンプと共にデータとし、図14に示す録音分析データ記憶部227のタイムスタンプと録音キャラクタリストに記憶する。なお、音声キャラクタは文章毎に分ける以外にも、時間で分けてもよいし、適宜の文の長さで分けるなど適宜の分け方を用いてもよい。さらにサーバー11は、この録音キャラクタリスト毎に、図4で登録したキーワード47を検索し、キーワード47が含まれていればその単語を図14の録音分析データのキーワード143に記憶する。この作業を音声キャラクタが終了するまで行い、録音分析データを完成させる(1710)。図9に、録音分析データ作成のフローチャートを示す。各処理については、上述の通りであるので、説明を省略する。
The presenter terminal 13 detects that the conference end button 154 of FIG. 15 has been pressed when the conference is ended, and transmits a conference end notification (17-20) to the server 11. The server 11 transmits a conference end notification to the presenter terminal 13 (17-21), and also transmits a conference end notification (17-22) to all conference participant terminals. Subsequently, the server 11 stores the stop and time stamp indicated by 13211 in the operation data storage unit 226 of FIG. 13, ends the creation of the operation data (177), and completes the operation data of the conference C. Upon receiving the conference end notification sent from the server 11, the presenter terminal 13 stops the recording operation and creates a recorded audio file (178). The presenter terminal 13 uploads the recording file created here to the server 11 (17-23). The server 11 stores the received recorded sound file in the recorded sound storage unit 225 of FIG. 2 (179).
Next, the server 11 creates recording analysis data shown in FIG. 14 using the recorded voice data. The server 11 converts the recorded voice data into text by speech recognition, etc., divides the voice characters into sentences by general techniques of natural language search and syntax analysis, and uses them as data together with time stamps. The recording analysis data storage shown in FIG. The time stamp of the part 227 and the recorded character list are stored. In addition to dividing the voice character for each sentence, it may be divided by time, or an appropriate division method such as dividing by an appropriate sentence length may be used. Further, the server 11 searches the keyword 47 registered in FIG. 4 for each recording character list, and if the keyword 47 is included, stores the word in the keyword 143 of the recording analysis data in FIG. This operation is performed until the voice character is completed, and the recording analysis data is completed (1710). FIG. 9 shows a flowchart of recording analysis data creation. Since each process is as described above, a description thereof will be omitted.

サーバー11は、図12の例に示す通り、前述した録音音声ファイル、操作データ、及び、録音分析データを結び付け、図2の会議再現データ記憶部224に会議再現データとして格納する。例えば、各データの識別情報や格納場所を記憶してもよい。さらに、図5で示すように会議資料と資料分析データを会議毎に管理し、図1の端末13、14のどの端末からでも会議Cを再現することができる。また、再現は資料共有と同様に他の端末と同期し、一斉に複数の端末で会議や講習会を再現することも可能である。仮にそれを再現Cファイル(図12の123)とする。   As shown in the example of FIG. 12, the server 11 links the above-described recorded audio file, operation data, and recording analysis data, and stores them as conference reproduction data in the conference reproduction data storage unit 224 of FIG. For example, the identification information and storage location of each data may be stored. Further, as shown in FIG. 5, the conference material and the material analysis data are managed for each conference, and the conference C can be reproduced from any of the terminals 13 and 14 in FIG. In addition, the reproduction is synchronized with other terminals in the same way as the document sharing, and it is also possible to reproduce a meeting or a workshop on a plurality of terminals all at once. Let it be a reproduction C file (123 in FIG. 12).

(会議の再現動作)
図18は会議再現の流れのシーケンスを表した図である。これまで図17で説明したとおり文書共有の会議を行い作成した再現ファイル(図12の123)を端末(再現端末、第2端末)15で再現し、端末15のユーザが会議の資料を見ながら録音された音声を聞く会議の再現方法を説明する。端末15は、プレゼンタ端末13でも、端末14でもよい。
会議の再現は、資料共有のときと同じ図1の機器構成によって行うことができる。ここでは、端末は少なくともひとつあればよい。図18において、会議の再現希望の端末15は、図15に示す画面を表示し、会議再現155が押されたことを検知すると、サーバー11に対して会議再現ファイル一覧の要求(18−1)を送信する。サーバー11は、図12の会議再現データ記憶部122をもとに会議再現ファイル一覧データを作成して、会議再現一覧データを端末15に送信する(18−2)。会議再現ファイル一覧データは、例えば、会議再現データ記憶部122に記憶された会議名、再現ファイル名を含むことができる。
端末15は、受信した会議再現ファイル一覧データをもとに図16−1の画面を表示し、例えば領域166に会議再現ファイル一覧を表示する。次に端末15は、例えば再現Cファイルが指定され、図16−1の開始163が押されたことを検知すると、再現Cファイルを要求(18−3)するメッセージをサーバー11に送信する。サーバー11は、要求された再現ファイルに対応する音声ファイル、操作データ及び録音分析データを会議再現データ記憶部122を参照して特定する。サーバー11は、再現する会議の録音音声ファイルを録音音声記憶部225から読みだして端末15に送信(18−4)し、端末15はその音声ファイルを端末15の図3の記憶部32(録音音声記憶部321)に保管する。なお、録音音声ファイルはタイムスタンプと音声データを含む。
(Meeting reproduction)
FIG. 18 is a diagram showing a sequence of a conference reproduction flow. The reproduction file (123 in FIG. 12) created by the document sharing conference as described above with reference to FIG. 17 is reproduced on the terminal (reproduction terminal, second terminal) 15, and the user of the terminal 15 is viewing the conference material. Explain how to reproduce a meeting to hear the recorded audio. The terminal 15 may be the presenter terminal 13 or the terminal 14.
The reproduction of the conference can be performed by the same device configuration as in FIG. Here, at least one terminal is sufficient. In FIG. 18, the terminal 15 that wishes to reproduce the conference displays the screen shown in FIG. 15, and upon detecting that the conference reproduction 155 has been pressed, the server 11 requests the conference reproduction file list (18-1). Send. The server 11 creates conference reproduction file list data based on the conference reproduction data storage unit 122 of FIG. 12, and transmits the conference reproduction list data to the terminal 15 (18-2). The meeting reproduction file list data can include, for example, a meeting name and a reproduction file name stored in the meeting reproduction data storage unit 122.
The terminal 15 displays the screen of FIG. 16A based on the received conference reproduction file list data, and displays the conference reproduction file list in the area 166, for example. Next, for example, when the terminal 15 detects that the reproduction C file is designated and the start 163 in FIG. 16A is pressed, the terminal 15 transmits a message requesting the reproduction C file (18-3) to the server 11. The server 11 identifies the audio file, operation data, and recording analysis data corresponding to the requested reproduction file with reference to the meeting reproduction data storage unit 122. The server 11 reads the recorded audio file of the conference to be reproduced from the recorded audio storage unit 225 and transmits it to the terminal 15 (18-4). The terminal 15 stores the audio file in the storage unit 32 (recording unit) of FIG. It is stored in the voice storage unit 321). Note that the recorded audio file includes a time stamp and audio data.

サーバー11は、図13の操作データのタイムスタンプ131を監視し、操作イベント132応じた処理を行う。例えば、操作イベント1321では、サーバー11は、資料の最初のページである情報資料C1の1ページを端末15に送信する(18−5)。端末15は、受信された情報をもとに資料の画像を図16−1の端末画面の領域166に表示する。サーバー11は、要求された再現Cファイルに関連付けられた図14の録音分析データより、表示している資料のページに合致した録音リストに必要なデータ(録音リストデータ)を作成し、端末15に送信する(18−6)。ここで、録音リストデータは、現在開いている資料のページのキーワードを資料分析データ記憶部223の資料分析データから特定し(図の63、66、69)、そのキーワードに基づき図14の録音分析データのキーワード143を検索し、一致したキーワードに対応する録音キャラクタリスト142とタイムスタンプ141を抽出することにより得られる。なお、一例では、端末15へは抽出されたひとつ又は複数の録音キャラクタリスト142を送信すればよい。一度に送れない場合は分割して送ってもよい。この際、スクロール表示のデータを含めて端末で制御してもよい。   The server 11 monitors the time stamp 131 of the operation data in FIG. 13 and performs processing according to the operation event 132. For example, in the operation event 1321, the server 11 transmits one page of the information material C1, which is the first page of the material, to the terminal 15 (18-5). The terminal 15 displays an image of the document on the area 166 of the terminal screen in FIG. 16A based on the received information. The server 11 creates data (recording list data) necessary for the recording list that matches the displayed material page from the recording analysis data of FIG. 14 associated with the requested reproduction C file, and stores it in the terminal 15. Transmit (18-6). Here, in the recording list data, the keyword of the currently opened material page is specified from the material analysis data in the material analysis data storage unit 223 (63, 66, 69 in the figure), and the sound recording analysis of FIG. 14 is performed based on the keyword. It is obtained by searching the data keyword 143 and extracting the recorded character list 142 and the time stamp 141 corresponding to the matched keyword. In one example, one or more extracted recorded character lists 142 may be transmitted to the terminal 15. If it cannot be sent all at once, it may be sent separately. At this time, the terminal may be controlled including the scroll display data.

端末15は、受信された録音リストデータをもとに、図16−1の端末画面の録音リスト161に各リスト(例えば、録音キャラクタリスト)162の文字を表示する。また、端末15は、図3の記憶部32に保管された音声ファイルの再生を開始する。このとき、端末15と同期する複数の端末があってもよい。
図10は、端末15が資料を表示し、録音リストに必要なデータを受け取って一番最初に画面に表示するときのフローチャートである。画面に表示しきれないときは、スクロールのマークを表示する(スクロール表示)。動作は上述の通りであるので説明を省略する。
再生中、サーバー11は、図13の操作データを監視し、操作イベントが発生した場合に備える。サーバー11の操作イベント132が発生すると、サーバー11はそのイベントにあったメッセージ、資料等を端末15に送信し、それにしたがって端末15は資料の表示を行う。例えば、操作イベントが資料C2の2ページ表示ならば、サーバー11は資料C2の2ページ目(18−7)を端末15に送信する。加えて、サーバー11は資料C2の2ページ目の録音リストに必要なデータを抽出して送信する(18−8)。このように、サーバー11は操作イベント132の検出を行い、検出した場合はそれにあった表示資料のデータと録音リストのメッセージを端末15に送信し、端末15はこのデータをもとに画面に資料を表示する。この繰り返しにより会議再現を行っていく。
ここで、会議等の再現において、資料に関係ない内容の音声などを飛ばしたい場合などがある。その場合、ユーザが図16−1の端末15の画面の録音リスト162から聞きたい場所を想定し、例えばリスト161の録音キャラクタリスト162が選択されることにより、端末15は選択された録音リスト162の指定メッセージ(18−9)をサーバー11に送信する。サーバー11は図14の録音分析データ141を参照して、選択された録音キャラクタリストのタイムスタンプを特定し、特定されたタイムスタンプを含むメッセージ(18−10)を端末15に送信する。端末15は、受信したタイムスタンプをもとに再生する位置を検出し、該当する音声の位置から再生する(ジャンプする)。なお、サーバー11が送信する録音リストは、録音キャラクタリストと、対応するタイムスタンプとを含めてもよく、この場合端末15は録音キャラクタリストが選択されると、自端末で対応するタイムスタンプを特定して音声データを再生してもよい。このように会議や講習会に関係のない余談や間の録音を一気に飛ばしたり、ピンポイントで音声を選択可能となる。
Based on the received recording list data, the terminal 15 displays the characters of each list (for example, recording character list) 162 in the recording list 161 on the terminal screen of FIG. Further, the terminal 15 starts reproduction of the audio file stored in the storage unit 32 of FIG. At this time, there may be a plurality of terminals synchronized with the terminal 15.
FIG. 10 is a flowchart when the terminal 15 displays the material, receives the data necessary for the recording list, and displays it on the screen for the first time. When it cannot be displayed on the screen, a scroll mark is displayed (scroll display). Since the operation is as described above, the description is omitted.
During playback, the server 11 monitors the operation data shown in FIG. 13 and prepares for an operation event. When the operation event 132 of the server 11 occurs, the server 11 transmits a message, a material, and the like corresponding to the event to the terminal 15, and the terminal 15 displays the material accordingly. For example, if the operation event is a two-page display of the document C2, the server 11 transmits the second page (18-7) of the document C2 to the terminal 15. In addition, the server 11 extracts necessary data from the recording list on the second page of the material C2 and transmits it (18-8). As described above, the server 11 detects the operation event 132, and if detected, transmits the display material data and the recording list message corresponding to the operation event 132 to the terminal 15, and the terminal 15 displays the data on the screen based on this data. Is displayed. The meeting is reproduced by repeating this process.
Here, when reproducing a meeting or the like, there is a case where it is desired to skip audio or the like that is not related to the material. In that case, assuming a place where the user wants to hear from the recording list 162 on the screen of the terminal 15 in FIG. 16A, for example, when the recording character list 162 of the list 161 is selected, the terminal 15 selects the selected recording list 162. The designated message (18-9) is transmitted to the server 11. The server 11 refers to the recording analysis data 141 of FIG. 14 to identify the time stamp of the selected recording character list and transmits a message (18-10) including the identified time stamp to the terminal 15. The terminal 15 detects a playback position based on the received time stamp, and plays back (jumps) from the corresponding audio position. The recording list transmitted by the server 11 may include a recording character list and a corresponding time stamp. In this case, when the recording character list is selected, the terminal 15 identifies the corresponding time stamp on its own terminal. Then, the audio data may be reproduced. In this way, it is possible to skip aside talks and recordings that are not related to a conference or a workshop, or to select a voice at a pinpoint.

また、さらに、録音リストを全て聞いても再生した録音内容と表示されている資料の内容が必ずしも合致していない場合などがある。その場合は、ユーザは図16−1の画面の候補165のキーを押す。端末15は、候補165が押されたことを検知すると、候補リスト要求(18−11)をサーバー11に送信する。サーバー11は端末15からの候補リスト要求により、図6の資料分析データを参照して表示しているページのキーワードを抽出し、そのキーワードに基づき図14の録音分析データのキーワード143を検索し、一致した録音キャラクタリスト142をもとに候補リストを作成する。
図19は候補リストの内容の例である。候補リストは、表示しているページに含まれるキーワードと、そのキーワードを含む録音キャラクタと、録音キャラクタに対応するタイムスタンプと、そのタイムスタンプの際に表示されていた資料名およびページの各情報を含む。なお、各候補を識別する識別情報をつけてもよい。例えば、会議Cの資料C2の2ページ目の候補は、キーワードword1はタイムスタンプ0:05:40と0:32:11と2か所存在し、それぞれのキャラクタリストがデータ(194)となる。キーワードword2はタイムスタンプ0:23:32と0:48:40と0:51:32の3か所存在し、それぞれのキャラクタリストがデータ(194)となる。その際、図11−1のようにスクロールの情報も加えてもいいが、端末15で制御してもよい。
このようにサーバー11にて作成した候補リストを端末15に送信する(18−12)。端末15は、受信した候補リストの情報に基づき、図16−2に示す再現画面の他候補リスト169を表示する。このように、図16−1の領域166に表示していた資料のページの内容に近い録音箇所があれば、それらを音声リストとして表示するための候補リストが表示可能となる。
Furthermore, there are cases where the recorded content played back does not necessarily match the content of the displayed material even after listening to the entire recording list. In that case, the user presses the key of the candidate 165 on the screen in FIG. When the terminal 15 detects that the candidate 165 has been pressed, the terminal 15 transmits a candidate list request (18-11) to the server 11. In response to the candidate list request from the terminal 15, the server 11 extracts the keyword of the displayed page with reference to the material analysis data of FIG. 6, searches the keyword 143 of the recording analysis data of FIG. 14 based on the keyword, A candidate list is created based on the matching recorded character list 142.
FIG. 19 shows an example of the contents of the candidate list. The candidate list includes a keyword included in the displayed page, a recording character including the keyword, a time stamp corresponding to the recording character, and information on the material name and page displayed at the time of the time stamp. Including. In addition, you may attach the identification information which identifies each candidate. For example, as for the candidate for the second page of the document C2 of the conference C, the keyword word1 has two places with time stamps 0:05:40 and 0:32:11, and the respective character lists become data (194). There are three keyword words 2 of time stamps 0:23:32, 0:48:40, and 0:51:32, and each character list becomes data (194). At that time, scroll information may be added as shown in FIG.
The candidate list created in the server 11 in this way is transmitted to the terminal 15 (18-12). The terminal 15 displays the other candidate list 169 of the reproduction screen shown in FIG. 16B based on the received candidate list information. As described above, if there are recorded portions close to the content of the page of the material displayed in the area 166 of FIG. 16A, a candidate list for displaying them as an audio list can be displayed.

図11−1に、他候補キーが押された場合の、サーバー11と端末15の処理の流れの概要を示す。動作は上述の通りであるので、説明を省略する。
この候補リストにより、ユーザは聞きたい音声(又は参照したい関連資料)に検討を付け、例えば、候補リストの中のひとつである図16−2の候補リスト169を選択して押す。端末15は、候補リストが押されたことを検知すると、選択された候補リスト169の指定メッセージ(18−13)をサーバー11に送信する。例えば、選択された候補の識別子を送信してもよい。サーバー11はまず、指定された候補リストに対応するタイムスタンプを求める。例えば、図19の候補リストを適宜の記憶部に記憶しておき、指定された候補の識別子に対応するタイムスタンプを求めてもよい。また、録音分析データをサーチして、対応するタイムスタンプを求めてもよい。サーバー11は、求められたタイムスタンプの値を端末15が音声のどこから再生するかの情報としてメッセージ(18−14)を送信する。端末15はその情報をもとに再生する音声データの位置を検出し、該当する位置より再生を行う。タイムスタンプの特定は、上述と同様に端末側で行っても良い。
FIG. 11A shows an outline of the processing flow of the server 11 and the terminal 15 when another candidate key is pressed. Since the operation is as described above, the description is omitted.
With this candidate list, the user reviews the voice he / she wants to hear (or related material he / she wishes to refer to), and selects and pushes the candidate list 169 of FIG. 16-2, which is one of the candidate lists. When the terminal 15 detects that the candidate list has been pressed, the terminal 15 transmits a designation message (18-13) of the selected candidate list 169 to the server 11. For example, the identifier of the selected candidate may be transmitted. The server 11 first obtains a time stamp corresponding to the designated candidate list. For example, the candidate list of FIG. 19 may be stored in an appropriate storage unit, and the time stamp corresponding to the specified candidate identifier may be obtained. Alternatively, the recording analysis data may be searched to obtain a corresponding time stamp. The server 11 transmits a message (18-14) as information on where the terminal 15 reproduces the obtained time stamp value from the voice. The terminal 15 detects the position of the audio data to be reproduced based on the information, and performs reproduction from the corresponding position. The time stamp may be specified on the terminal side as described above.

サーバー11はさらに、上記で押された候補リストの169をもとに、図14の録音分析データの該当する録音キャラクタリストのキーワード143を特定し、図6の資料分析データのキーワード62を検索し、一致していたら、その資料及びページ表示の情報を端末15に送信する。例えば、該当する資料の該当ページを送信してもよいし、すでに送信している場合には、資料とページの識別情報を送信してもよい。例えば、図18では、資料C2の3ページが一致したと仮定して、サーバー11より端末15へ資料C2の3ページ目のデータ情報を送信している(18−15)。端末15はこれらの情報を受信し、資料の3ページ目のデータをサーバー11より読み込み、図16−2の領域167のように資料ページを先の資料ページ166の上に重ねて表示する。なお、表示方法は他の適宜の方法でもよい。このように表示した録音リスト169を選択してその音声を聞くことと併せて、その音声にキーワードで結び付いた資料画面も併せて表示することが可能となる。
図11−2に、候補リストが指定された場合の、サーバー11と端末15の処理の流れの概要を示す。動作は上述の通りであるので、説明を省略する。
再現の終了は、操作データ132のイベントによって自動に終了するが、端末15が図16−2の停止164が押されたことを検知し、サーバー11へ再生終了のメッセージ(18−17)を送信することも可能である。サーバー11はそれを受信して、終了通知を返送し(18−18)終了する。
このように会議や講習会などの資料を主とし、その場に参加できなかった人でも、後日あたかもその場にいたように会議や講習会の資料と音声をそのまま再現するだけでなく、録音音声のデータの聞かせ方と資料の見せ方を工夫し、会議や講習会資料の内容を効率よく再現し理解するシステムを提供する事ができる。
The server 11 further specifies the keyword 143 of the recording character list corresponding to the recording analysis data of FIG. 14 based on the candidate list 169 pressed above, and searches the keyword 62 of the material analysis data of FIG. If they match, the material and page display information are transmitted to the terminal 15. For example, the corresponding page of the corresponding material may be transmitted, and when the information has already been transmitted, the identification information of the material and the page may be transmitted. For example, in FIG. 18, assuming that the third page of the material C2 matches, the server 11 transmits the data information of the third page of the material C2 to the terminal 15 (18-15). The terminal 15 receives these pieces of information, reads the data on the third page of the material from the server 11, and displays the material page superimposed on the previous material page 166 as shown in an area 167 of FIG. The display method may be other appropriate methods. In addition to selecting the recording list 169 displayed in this way and listening to the sound, it is also possible to display a material screen linked to the sound with a keyword.
FIG. 11B shows an outline of the processing flow of the server 11 and the terminal 15 when the candidate list is designated. Since the operation is as described above, the description is omitted.
The end of reproduction is automatically ended by an event of the operation data 132, but the terminal 15 detects that the stop 164 of FIG. 16-2 is pressed, and transmits a reproduction end message (18-17) to the server 11. It is also possible to do. The server 11 receives it, returns an end notice (18-18), and ends.
In this way, those who mainly attended meetings and workshops, and who could not attend the meeting, not only reproduced the meeting and workshop materials and audio as if they were there, but also recorded audio. It is possible to provide a system that efficiently reproduces and understands the contents of conference and workshop materials by devising how to let the data be presented and how to display the materials.

本発明は、例えば会議や講習会などの資料と音声を記録し、再現するコンピュータシステムに利用可能である。   The present invention can be used in a computer system that records and reproduces materials and sounds such as conferences and seminars.

11 サーバー
12 アクセスポイント
13 端末(プレゼンタ)
14 端末n
15 再現端末
21 サーバーのCPU
22 サーバーの記憶部
23 サーバーの入力装置
24 サーバーの出力装置
25 サーバーの通信回線インターフェースLAN
31 端末のCPU
32 端末の記憶部
321 録音音声記録ファイル
322 端末のアプリケーション
33 端末の入力装置
331 マイク
34 端末の出力装置
35 端末の通信回線インターフェースLAN
41 資料登録画面の資料登録キー
42 資料登録画面の自動キーワード登録開始キー
43 資料登録画面の手動キーワード入力位置
44 資料登録画面の手動キーワードサーチキー
45 資料登録画面のキーワード削除キー
46 資料登録画面の資料追加キー
47 資料登録画面の資料のキーワード表示部
151 端末の再現画面の録音リスト表示部
152 端末の再現画面の録音リストのキー
153 端末の再現画面の候補録音リストのキー
154 端末の再現画面の資料表示部
155 端末の再現画面の再現開始キー
156 端末の再現画面の再現停止キー
11 server 12 access point 13 terminal (presenter)
14 Terminal n
15 Reproduction terminal 21 CPU of server
22 Server storage unit 23 Server input device 24 Server output device 25 Server communication line interface LAN
31 Terminal CPU
32 Terminal storage unit 321 Recording audio recording file 322 Terminal application 33 Terminal input device 331 Microphone 34 Terminal output device 35 Terminal communication line interface LAN
41 Material Registration Key on Material Registration Screen 42 Automatic Keyword Registration Start Key 43 on Material Registration Screen Manual Keyword Input Position 44 on Material Registration Screen Manual Keyword Search Key 45 on Material Registration Screen 46 Keyword Delete Key 46 on Material Registration Screen Material on Material Registration Screen Additional key 47 Material keyword display section 151 of document registration screen Recording list display section 152 of terminal reproduction screen Recording list key 153 of terminal reproduction screen Candidate recording list key 154 of terminal reproduction screen Material of reproduction screen of terminal Display unit 155 Terminal reproduction screen reproduction start key 156 Terminal reproduction screen reproduction stop key

Claims (9)

第1端末及び第2端末を含む複数の端末とサーバーとを備え、記録段階において、第1端末に表示された資料及び第1端末の操作を特定する操作イベントと音声データとを、タイムスタンプに対応して前記サーバーに記録し、再現段階において音声の再生と資料の表示を第2端末で再現する資料表示及び音声再現システムであって、
前記サーバーは、
予め登録された資料内のキーワードが記憶された資料分析データ記憶部と、
録音された音声データを記憶する録音音声記憶部と、
録音された音声データをテキスト化した録音キャラクタリストが、タイムスタンプに対応して記憶された録音分析データ記憶部と、
前記第1端末に表示された資料及び該第1端末の操作を特定する操作イベントが、タイムスタンプに対応して記憶された操作データ記憶部と、
前記録音音声記憶部に記憶された音声データの再生と、前記操作データ記憶部に記憶された操作イベントに応じた資料の表示とを、前記第2端末で再現させる処理部と
を有し、
前記処理部は、再現段階において、
前記第2端末に再現表示された資料のキーワードを、前記資料分析データ記憶部を参照して特定し、
特定されたキーワードに基づき前記録音分析データ記憶部を検索し、該キーワードを含む録音キャラクタリストと、対応するタイムスタンプとを抽出し、
抽出されたひとつ又は複数の録音キャラクタリストを含む録音リストを前記第2端末に送信し、
前記第2端末は、
受信した録音リストを表示し、表示された録音リストに含まれる録音キャラクタリストのひとつが選択されると、選択された録音キャラクタリストに対応するタイムスタンプに従い、選択された録音キャラクタリストに対応する音声データを再生する資料表示及び音声再現システム。
A plurality of terminals including a first terminal and a second terminal and a server are provided, and in a recording stage, a material displayed on the first terminal, an operation event specifying the operation of the first terminal, and audio data are used as a time stamp. Correspondingly recorded on the server, a material display and sound reproduction system for reproducing the sound and displaying the material on the second terminal in the reproduction stage,
The server
A material analysis data storage unit in which keywords in pre-registered materials are stored;
A recorded voice storage unit for storing recorded voice data;
A recording character list in which the recorded voice data is converted into text, a recording analysis data storage unit stored corresponding to the time stamp, and
An operation data storage unit in which the material displayed on the first terminal and the operation event for specifying the operation of the first terminal are stored corresponding to the time stamp;
A processing unit that reproduces the audio data stored in the recorded audio storage unit and the display of the material according to the operation event stored in the operation data storage unit on the second terminal;
In the reproduction stage, the processing unit
The material keyword reproduced and displayed on the second terminal is identified with reference to the material analysis data storage unit,
Search the recording analysis data storage unit based on the identified keyword, extract a recording character list including the keyword, and a corresponding time stamp,
Transmitting a recording list including the extracted one or more recording character lists to the second terminal;
The second terminal is
When the received recording list is displayed and one of the recording character lists included in the displayed recording list is selected, the sound corresponding to the selected recording character list is displayed according to the time stamp corresponding to the selected recording character list. Data display and audio reproduction system for reproducing data.
前記複数の端末に表示する資料のデータが予め登録された資料記憶部
をさらに備え、
前記録音分析データ記憶部は、録音キャラクタリストに対応して、該録音キャラクタリストに含まれる前記キーワードが記憶され、
前記処理部は、再現段階において、
前記録音分析データ記憶部を参照して、選択された録音キャラクタリストに対応するキーワードを特定し、
特定されたキーワードに基づき前記資料分析データ記憶部を参照して、該キーワードを含む資料を特定し、
該資料のデータを前記端末に送信して表示させる請求項1に記載の資料表示及び音声再現システム。
Further comprising a material storage unit in which data of materials to be displayed on the plurality of terminals is registered in advance,
The recording analysis data storage unit stores the keyword included in the recording character list in correspondence with the recording character list,
In the reproduction stage, the processing unit
Referring to the recording analysis data storage unit, identify a keyword corresponding to the selected recording character list,
Refer to the material analysis data storage unit based on the identified keyword, identify the material containing the keyword,
The material display and sound reproduction system according to claim 1, wherein data of the material is transmitted to the terminal for display.
前記処理部は、記録段階において、
音声データを記憶した前記複数の端末のひとつから該音声データを受信して、前記録音音声記憶部に記憶し、
記憶された音声データを音声認識によりテキスト化した録音キャラクタリストを作成し、前記資料分析データ記憶部に記憶されたキーワードに基づき該録音キャラクタリストを検索して、文章毎又は所定時間毎の録音キャラクタリストに含まれるキーワードを求めて、タイムスタンプと、文章毎又は所定時間毎の録音キャラクタリストと、該キーワードとを対応して前記録音分析データ記憶部に記憶する請求項2に記載の資料表示及び音声再現システム。
The processing unit, in the recording stage,
Receiving the voice data from one of the plurality of terminals storing the voice data, storing the voice data in the recorded voice storage unit;
A recorded character list in which the stored voice data is converted into text by voice recognition is created, and the recorded character list is searched based on the keyword stored in the material analysis data storage unit, and the recorded character list is recorded for each sentence or every predetermined time. 3. The material display according to claim 2, wherein a keyword included in the list is obtained, and a time stamp, a recorded character list for each sentence or every predetermined time, and the keyword are stored in the recording analysis data storage unit in association with each other. Voice reproduction system.
前記処理部は、再現段階において、前記録音音声記憶部に記憶された音声データと、タイムスタンプを前記第2端末に予め送信し、
録音キャラクタリストのひとつが選択されることで前記第2端末から送信される録音リスト指定メッセージに対して、対応するタイムスタンプを返信する請求項1に記載の資料表示及び音声再現システム。
In the reproduction stage, the processing unit transmits in advance the voice data stored in the recorded voice storage unit and a time stamp to the second terminal,
The material display and sound reproduction system according to claim 1, wherein a time stamp corresponding to the recording list designation message transmitted from the second terminal is returned by selecting one of the recording character lists.
前記第2端末に送信される録音リストは、録音キャラクタリストに対応するタイムスタンプをさらに含み、
前記第2端末は、録音キャラクタリストにひとつが選択されると、対応するタイムスタンプに従い音声データを再生する請求項1に記載の資料表示及び音声再現システム。
The recording list transmitted to the second terminal further includes a time stamp corresponding to the recording character list,
The material display and sound reproduction system according to claim 1, wherein when the second terminal selects one of the recorded character lists, the second terminal reproduces sound data according to a corresponding time stamp.
前記処理部は、
資料データを入力して記憶し、該資料データから資料のページごとに所定のキーワードを抽出して前記資料分析データ記憶部に記憶する請求項1に記載の資料表示及び音声再現システム。
The processor is
The material display and sound reproduction system according to claim 1, wherein the material data is inputted and stored, a predetermined keyword is extracted from the material data for each page of the material, and is stored in the material analysis data storage unit.
前記処理部は、資料名をさらに入力し、資料名又は資料名に含まれる単語をキーワードとする請求項1に記載の資料表示及び音声再現システム。   The material display and sound reproduction system according to claim 1, wherein the processing unit further inputs a material name and uses the material name or a word included in the material name as a keyword. 前記処理部は、資料データの中で、出現する回数が多い単語をキーワードとする請求項1に記載の資料表示及び音声再現システム。   The material display and sound reproduction system according to claim 1, wherein the processing unit uses a word that appears frequently in the material data as a keyword. 記録段階において、前記第1端末は、
音声データ入力部から音声データを入力して記憶し、該端末の操作イベントを前記サーバーへ送信し、
前記サーバーの前記処理部は、
受信した操作イベントをタイムスタンプに対応して前記操作データ記憶部に記憶し、
受信した音声データを前記録音音声記憶部に記憶する請求項1に記載の資料表示及び音声再現システム。
In the recording stage, the first terminal
Voice data is input and stored from the voice data input unit, and an operation event of the terminal is transmitted to the server.
The processing unit of the server is
Store the received operation event in the operation data storage unit corresponding to the time stamp,
The material display and sound reproduction system according to claim 1, wherein the received sound data is stored in the recorded sound storage unit.
JP2011265269A 2011-12-02 2011-12-02 Material display and audio reproduction system Pending JP2013117879A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011265269A JP2013117879A (en) 2011-12-02 2011-12-02 Material display and audio reproduction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011265269A JP2013117879A (en) 2011-12-02 2011-12-02 Material display and audio reproduction system

Publications (1)

Publication Number Publication Date
JP2013117879A true JP2013117879A (en) 2013-06-13

Family

ID=48712395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011265269A Pending JP2013117879A (en) 2011-12-02 2011-12-02 Material display and audio reproduction system

Country Status (1)

Country Link
JP (1) JP2013117879A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099290A (en) * 2013-11-20 2015-05-28 日本電信電話株式会社 In-utterance important word extraction device and in-utterance important word extraction using the device, and method and program thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099290A (en) * 2013-11-20 2015-05-28 日本電信電話株式会社 In-utterance important word extraction device and in-utterance important word extraction using the device, and method and program thereof

Similar Documents

Publication Publication Date Title
US9697871B2 (en) Synchronizing recorded audio content and companion content
US7848493B2 (en) System and method for capturing media
US8391455B2 (en) Method and system for live collaborative tagging of audio conferences
JP2008172582A (en) Minutes generating and reproducing apparatus
US20130222526A1 (en) System and Method of a Remote Conference
JP2005341015A (en) Video conference system with minute creation support function
JP5206553B2 (en) Browsing system, method, and program
KR100849900B1 (en) Content delivery method, scenario data, recording medium, and scenario data creation method
JP5750946B2 (en) Content distribution system, content distribution server, content distribution method, program, and recording medium
WO2016202176A1 (en) Method, device and apparatus for synthesizing media file
US20120059493A1 (en) Media playing apparatus and media processing method
JP2002109099A (en) System and device for recording data and video image/ voice, and computer readable recording medium
JP2006268800A (en) Apparatus and method for minutes creation support, and program
US20110113357A1 (en) Manipulating results of a media archive search
TW200509089A (en) Information storage medium storing scenario, apparatus and method of recording the scenario on the information storage medium, apparatus for reproducing data from the information storage medium, and method of searching for the scenario
WO2007043427A1 (en) Viewing/hearing device
JP2002335478A (en) Video recording reproducing system
JP2013117879A (en) Material display and audio reproduction system
JP2004023661A (en) Recorded information processing method, recording medium, and recorded information processor
JP2000267639A (en) Information processor
JP2004279897A (en) Method, device, and program for voice communication record generation
JP6627315B2 (en) Information processing apparatus, information processing method, and control program
JP2002304420A (en) Audio-visual content distribution system
KR100459668B1 (en) Index-based authoring and editing system for video contents
JP2021067845A (en) Voice reproduction system and program