JP2013117879A - Material display and audio reproduction system - Google Patents
Material display and audio reproduction system Download PDFInfo
- Publication number
- JP2013117879A JP2013117879A JP2011265269A JP2011265269A JP2013117879A JP 2013117879 A JP2013117879 A JP 2013117879A JP 2011265269 A JP2011265269 A JP 2011265269A JP 2011265269 A JP2011265269 A JP 2011265269A JP 2013117879 A JP2013117879 A JP 2013117879A
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- recording
- storage unit
- data
- list
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、資料表示及び音声再現システムに係り、特に、資料共有における資料表示及び音声再現システムに関する。 The present invention relates to a material display and sound reproduction system, and more particularly to a material display and sound reproduction system in material sharing.
本技術分野の背景技術として、会議や講習会において資料をサーバーに格納し、複数の端末間を無線LANや有線のネットワークで相互接続し、資料を電子的に共有するシステムが利用されペーパーレス化が図られている。このような資料共有システムを利用した会議や講習会において、その内容を記録する為に音声録音装置を用いて音声を録音することが一般的に行われている。たとえば特開2009−187462号公報(特許文献1)がある。この公報には、PCに格納した資料を用いて会議や講義を開始し、同時に録音を行う。その音声データを再生する時間とページめくりのタイミングに合わせてPCの画面に該当するページの資料を表示することが提案されている。また、特開2009−098882号公報(特許文献2)がある。この公報には、「会議に関する文書の検索を行った場合に、その文書に関連しておりその会議において発生した情報を出力するようにした情報処理システムを提供する」と記載されている。 As a background technology in this technical field, paper is saved by using a system in which materials are stored in a server at a conference or seminar, a plurality of terminals are interconnected by a wireless LAN or a wired network, and the materials are electronically shared. It is illustrated. In a meeting or a workshop using such a material sharing system, it is generally performed to record a voice using a voice recording device in order to record the contents. For example, there exists Unexamined-Japanese-Patent No. 2009-187462 (patent document 1). In this gazette, a meeting or a lecture is started using materials stored in a PC, and recording is performed at the same time. It has been proposed to display the material of the corresponding page on the screen of the PC in accordance with the time for reproducing the audio data and the timing of turning the page. Moreover, there exists Unexamined-Japanese-Patent No. 2009-098882 (patent document 2). This gazette states that “when a document related to a conference is searched, an information processing system that outputs information related to the document and generated in the conference is provided”.
これまでの技術は音声を主として考慮された資料表示であった。そのため、音声データの時間とページめくりの時間を合わせて表示し、会議をそのまま再現することが多かった。また、会議の議論の質の向上を着眼点にして資料を検索する技術などでは、検索した資料のみを表示するものであって会議や講習会を再現するものではなかった。さらに録音内容が資料の何ページにも関与する内容で、参照すべき資料が複数ページある場合などは録音内容と表示されている資料の内容が必ずしも合致していなかった。また、会議の進行は資料に関係なく進む可能性も大きく、会議や講習会に関係のない余談や間の録音を一気に飛ばしたり一部を聞き逃した場合やピンポイントでそこだけ聞きたい場合など資料に合致した録音内容を探し出すのに労力を要していた。
以上の点に鑑み、本発明は、会議や講習会などの資料を主とし、その場に参加できなかった人でも、後日あたかもその場にいたように会議や講習会の資料と音声をそのまま再現するだけでなく、録音音声のデータの聞かせ方と資料の見せ方を工夫し、会議や講習会資料の内容を効率よく再現し使用者の理解を向上させるシステムを提供する事を目的する。
The technology so far has been the display of materials mainly considering voice. For this reason, the audio data time and the page turning time are often displayed together to reproduce the conference as it is. In addition, the technology for searching for materials focusing on improving the quality of discussions in a conference displays only the searched materials and does not reproduce the conference or workshop. Furthermore, if the recorded content is related to any number of pages of the material, and there are multiple pages to be referred to, the recorded content and the content of the displayed material did not necessarily match. In addition, there is a high possibility that the progress of the conference will proceed regardless of the materials, such as when you skip a part of the abandonment or recording that is not related to the conference or workshop at once, or if you want to hear only part of it or pinpoint It took a lot of effort to find a recording that matched the material.
In view of the above points, the present invention is mainly based on materials such as conferences and workshops, and even if those who could not participate in the meeting, the materials and audio of the conference and workshop were reproduced as they were as if they were there at a later date. It aims to provide a system that improves the understanding of users by efficiently reproducing the contents of conference and seminar materials by devising how to listen to recorded audio data and how to display the materials.
本資料共有における資料音声再現システムでは、例えば、会議や講習会において表示中の資料の録音音声データを時間軸でリストに表示する手段とその資料の内容に近い録音箇所があればそれらを音声リストとして表示する手段とを有することを特徴のひとつとする。
また、本資料音声再現システムは、例えば、表示した録音リストを選択して聞く際に、その音声と結び付けた資料画面を全て表示する手段を有することを特徴のひとつとする。
In the material sound reproduction system for sharing this material, for example, there are means for displaying recorded sound data of a material being displayed in a meeting or a seminar in a list on a time axis, and if there is a recording portion close to the content of the material, the sound list is used. One of the features is that it has a display means.
In addition, this material sound reproduction system has, for example, a means for displaying all the material screens associated with the sound when selecting and listening to the displayed recording list.
本発明の解決手段によると、
第1端末及び第2端末を含む複数の端末とサーバーとを備え、記録段階において、第1端末に表示された資料及び第1端末の操作を特定する操作イベントと音声データとを、タイムスタンプに対応して前記サーバーに記録し、再現段階において音声の再生と資料の表示を第2端末で再現する資料表示及び音声再現システムであって、
前記サーバーは、
予め登録された資料内のキーワードが記憶された資料分析データ記憶部と、
録音された音声データを記憶する録音音声記憶部と、
録音された音声データをテキスト化した録音キャラクタリストが、タイムスタンプに対応して記憶された録音分析データ記憶部と、
前記第1端末に表示された資料及び該第1端末の操作を特定する操作イベントが、タイムスタンプに対応して記憶された操作データ記憶部と、
前記録音音声記憶部に記憶された音声データの再生と、前記操作データ記憶部に記憶された操作イベントに応じた資料の表示とを、前記第2端末で再現させる処理部と
を有し、
前記処理部は、再現段階において、
前記第2端末に再現表示された資料のキーワードを、前記資料分析データ記憶部を参照して特定し、
特定されたキーワードに基づき前記録音分析データ記憶部を検索し、該キーワードを含む録音キャラクタリストと、対応するタイムスタンプとを抽出し、
抽出されたひとつ又は複数の録音キャラクタリストを含む録音リストを前記第2端末に送信し、
前記第2端末は、
受信した録音リストを表示し、表示された録音リストに含まれる録音キャラクタリストのひとつが選択されると、選択された録音キャラクタリストに対応するタイムスタンプに従い、選択された録音キャラクタリストに対応する音声データを再生する資料表示及び音声再現システムが提供される。
According to the solution of the present invention,
A plurality of terminals including a first terminal and a second terminal and a server are provided, and in a recording stage, a material displayed on the first terminal, an operation event specifying the operation of the first terminal, and audio data are used as a time stamp. Correspondingly recorded on the server, a material display and sound reproduction system for reproducing the sound and displaying the material on the second terminal in the reproduction stage,
The server
A material analysis data storage unit in which keywords in pre-registered materials are stored;
A recorded voice storage unit for storing recorded voice data;
A recording character list in which the recorded voice data is converted into text, a recording analysis data storage unit stored corresponding to the time stamp, and
An operation data storage unit in which the material displayed on the first terminal and the operation event for specifying the operation of the first terminal are stored corresponding to the time stamp;
A processing unit that reproduces the audio data stored in the recorded audio storage unit and the display of the material according to the operation event stored in the operation data storage unit on the second terminal;
In the reproduction stage, the processing unit
The material keyword reproduced and displayed on the second terminal is identified with reference to the material analysis data storage unit,
Search the recording analysis data storage unit based on the identified keyword, extract a recording character list including the keyword, and a corresponding time stamp,
Transmitting a recording list including the extracted one or more recording character lists to the second terminal;
The second terminal is
When the received recording list is displayed and one of the recording character lists included in the displayed recording list is selected, the sound corresponding to the selected recording character list is displayed according to the time stamp corresponding to the selected recording character list. A material display and sound reproduction system for reproducing data is provided.
上述の資料表示及び音声再現システムでは、音声データを 選択する方法として早送りや巻き戻しだけでなく、録音リストの表示と選択聴取、また表示している資料をもとに内容に近い録音リストが表示するため、資料に合致した録音内容を探し出すことができる。
また、上述の資料表示及び音声再現システムにおいて、
前記複数の端末に表示する資料のデータが予め登録された資料記憶部
をさらに備え、
前記録音分析データ記憶部は、録音キャラクタリストに対応して、該録音キャラクタリストに含まれる前記キーワードが記憶され、
前記処理部は、再現段階において、
前記録音分析データ記憶部を参照して、選択された録音キャラクタリストに対応するキーワードを特定し、
特定されたキーワードに基づき前記資料分析データ記憶部を参照して、該キーワードを含む資料を特定し、
該資料のデータを前記端末に送信して表示させる。
In the above-mentioned material display and sound reproduction system, not only fast-forward and rewind as a method of selecting sound data, but also a recording list display and selective listening, and a recording list close to the content based on the displayed material are displayed. Therefore, it is possible to find the recording content that matches the material.
In the above-described document display and sound reproduction system,
Further comprising a material storage unit in which data of materials to be displayed on the plurality of terminals is registered in advance,
The recording analysis data storage unit stores the keyword included in the recording character list in correspondence with the recording character list,
In the reproduction stage, the processing unit
Referring to the recording analysis data storage unit, identify a keyword corresponding to the selected recording character list,
Refer to the material analysis data storage unit based on the identified keyword, identify the material containing the keyword,
The data of the material is transmitted to the terminal and displayed.
この資料表示及び音声再現システムでは、表示した録音リストを選択して聞く際に、その音声と結び付けた資料画面を表示可能なため、ユーザが自分で探す労力も半減する。このように、資料を用いた会議や講習会の再現時や資料を見ながら録音音声を聴取する際に、従来よりも見たい資料と聞きたい音声をより的確に再現し使用者の理解を向上させることができる。 In this material display and sound reproduction system, when the displayed recording list is selected and listened to, a material screen associated with the sound can be displayed, so that the user's effort to search for himself is halved. In this way, when reproducing recorded conferences and workshops using materials and listening to recorded audio while viewing the materials, the materials you want to see and the sounds you want to hear are reproduced more accurately than before, improving the user's understanding. Can be made.
本発明によると、会議や講習会などの資料を主とし、その場に参加できなかった人でも、後日あたかもその場にいたように会議や講習会の資料と音声をそのまま再現するだけでなく、録音音声のデータの聞かせ方と資料の見せ方を工夫し、会議や講習会資料の内容を効率よく再現し使用者の理解を向上させるシステムを提供する事ができる。 According to the present invention, not only the materials such as conferences and workshops, but also those who could not participate in the place, as well as reproducing the materials and audio of the conference and workshops as if they were there at a later date, It is possible to provide a system that improves the user's understanding by efficiently reproducing the contents of the conference and workshop materials by devising how to listen to the recorded audio data and displaying the materials.
以下、実施例を図面を用いて説明する。 Hereinafter, examples will be described with reference to the drawings.
本実施例は、資料共有システム(資料表示及び音声再現システム)を利用した会議と会議再現の例をあげて説明する。
図17は資料共有システムを利用した会議のシーケンスの例である。まず、図17のシーケンスの順番に、会議や講習会に必要な資料をサーバー11が登録する例と、会議、講習会の進行の例、その会議や講習会の再現に必要なデータをサーバーが作成する例を説明する。
In the present embodiment, a conference using a document sharing system (document display and voice reproduction system) and an example of conference reproduction will be described.
FIG. 17 shows an example of a conference sequence using the document sharing system. First, in the sequence of FIG. 17, the
(システム構成)
まず、図1に、この資料共有システムを構成する機器の例を示す。
資料共有システムは、サーバー11とアクセスポイント12と複数台の端末13で構成される。サーバー11と端末13〜14はアクセスポイントAP12を介してLANでつながっており、HTTPなどのプロトコルを用いてメッセージの送受信など通信を行うことができる。端末13〜14は無線端末でもよく、アクセルポイント12と端末が無線で通信してもよい。端末13〜14は、例えばスマートフォン端末、タブレット端末、ネットブック、無線LAN機能を有するPC等の端末、有線でサーバーと通信可能なPC等の端末などでもよい。
図2に、サーバー11の構成例を示す。サーバー11は、例えば処理を行うCPU(処理部)21、記憶部22、入力装置23、出力装置24、及び、LANなどの通信回線インターフェース25を有し、サーバーとして構築できるパソコンである。記憶部22は、例えば、Webアプリケーション221、サーバアプリケーション228を記憶する。また、記憶部22は、例えば、会議資料記憶部222、資料分析データ記憶部223、会議再現データ記憶部224、録音音声記憶部225、操作データ記憶部226、及び、録音分析データ記憶部227を含む。入力装置23は、例えば、キーボード231、マイク232、マウス233、及び、CD、USBドライブ234を含む。出力装置24は、例えば、モニタ241、スピーカ242を含む。
図3に、端末13、14の構成例を示す。端末13、14は、録音可能なマイク331と録音機能を有する。端末13、14は、例えば、CPU31、記憶部32、入力装置33、出力装置34、LANなどの通信回線インターフェース35を有する。例えばパソコン、Android端末など端末が適している。記憶部32は、例えば、録音音声記憶部321及びAndroidアプリケーション322を含む。入力装置33は、例えば、キーボード331、マイク332、及び、マウス333を含む。出力装置34は、例えば、モニタ341、スピーカ342を含む。
(System configuration)
First, FIG. 1 shows an example of devices constituting the document sharing system.
The document sharing system includes a
FIG. 2 shows a configuration example of the
FIG. 3 shows a configuration example of the
(会議の記録段階の動作)
最初にサーバー11は、会議や講習会に使用する資料を保存する(図17の171)。そのためにサーバー11は、図2のWebアプリケーション221を起動し、図4の会議、講習会に使用する資料を登録する画面を表示する。サーバー11の画面に表示した図4の例は、符号48の会議名の欄に会議Cを入力し、日時の欄に2011/9/5を入力した例である。サーバー11は、図2の234で示すCDまたはUSBの入力装置によりこれらの記憶媒体から、または、ハードディスクから資料C1を読み込む。符号49の資料名の欄に資料C1の名称などの識別情報を表示する。ユーザがキーボード231、マウス233等を操作することにより資料C1が選択され、入力装置23から選択された情報を入力する。サーバー11は、図4の登録41が押されたことを認識して、選択された資料を図2の会議資料記憶部222に登録する。なお、サーバー11への資料データへの登録は、端末13、14がサーバー11にアクセスして行うこともできる。
図5は、図2の会議資料記憶部222の構成図である。この図5のようにサーバーは会議毎に複数の資料を登録することができる。例えば、会議資料記憶部222は、会議の日付、会議名に対応して、資料を記憶する。資料はひとつの会議に対して、複数でもよいし、ひとつでもよい。
次に、サーバー11はこの登録した資料C1の会議Cの再現に使用するキーワードを自動または手動、または、それらの両方で登録する。自動の場合はサーバー11は図4の開始42が押されたことを認識し、キーワード検索を行う。例えば、資料のタイトル、タイトルに含まれている文字・単語や、資料中の使用頻度が高い単語などを1ページより検索し、一致すると図2の資料分析データ223に記憶する。タイトルは、入力装置23から入力されることもできる。また、使用頻度は、例えば、使用頻度が多い上位いくつかを抽出してもよいし、使用回数の閾値、又は全体に対する使用割合の閾値が予め定められ、それ以上のものを抽出してもよい。なお、キーワードは、単語、熟語、文節など適宜の文字列でもよい。その資料分析データの構成例を図6に示す。例えば、会議Cの資料C1を資料C1の分析データ64を格納する。分析データは、会議の資料ごとに、ページ番号と、そのページに含まれるキーワードとの対応を含む。
また、サーバー11は、図4の符号47のリストに、登録したキーワードを表示する。サーバー11は自動でページを更新して全ページの検索を行い、全ページの資料分析データを作成する。さらにキーワードが必要な場合は、サーバー11は図4の符号43の入力位置からのキーワード入力とサーチ744が押されたことを検知し、前に述べた自動キーワードの検索と同様に全ページ検索を行い、会議Cの資料C1を資料C1の分析データ64に追加格納し、図4の符号47のリストに追加表示する。
また、サーバー11は、資料追加46が押されたことを検知すると、図2の231のCDまたはUSBの入力装置によりこれらの記憶媒体から、または、ハードディスクから別資料を読み込む作業に戻り、以下同じ手順で別資料を登録する。このようにサーバー11は、図5の53の資料C1の部分に資料C1を格納し、図6の641にその資料C1の作成した分析データを格納し、日時と会議名と登録した複数の資料とそれぞれの分析データを結び付けて管理する。
(Operation at the recording stage of the meeting)
First, the
FIG. 5 is a configuration diagram of the conference
Next, the
Further, the
When the
図7に、資料分析データ作成のフローチャートを示す。各処理については、上述の通りであるので、説明を省略する。
このように資料をサーバー11が登録した後、端末13、14は図3のアプリケーション322を起動する。複数の端末のうち、会議や講習会を進行させる例えば1台の端末をプレゼンタ端末(第1端末)13とする。プレゼンタ端末13は、図15の画面を表示する。プレゼンタ端末13は、資料一覧152が押されたことを検知すると、会議資料一覧表示要求(17−1)を図3の通信回線インターフェース35へメッセージを出力し、サーバー11に送信する。サーバー11は、図2の通信回線インターフェース25からプレゼンタ端末13が送信したメッセージを受信し、図5の会議資料記憶部222もとに会議資料一覧データを送信(17−2)する。会議資料一覧データは、例えば、会議名と資料名とを含む。以下、メッセージの送受信は同じくプレゼンタ端末13側は図3の35、サーバー側は図2の25の通信回線インターフェースを介して行われる。プレゼンタ端末13は、受信した会議資料一覧データをもとに、資料一覧をプレゼンタ端末13の図3のモニタ342に表示する。例えば、図15の領域151に表示する。プレゼンタ端末13は、図3のマウス332等の入力装置により資料C1が選択されたことを検知し、資料C1要求(17−3)をサーバー11に送信する。
サーバー11は、会議資料記憶部222に記憶された資料C1の1ページ目のデータをプレゼンタ端末13に送信する(17−4)。また、サーバー11は、会議に参加している端末全てに資料C1の1ページ目を送信する(17−5)。端末13、14のうち、会議に参加している端末は予め登録されることができる。資料C1の1ページ目のデータを受信したそれぞれの端末13、14は、各自の画面に同じ資料C1の1ページ目を表示する。プレゼンタ端末13は、ここで図5の録音会議153が押されたことを検知し、録音会議指定174を行い録音指定のメッセージ(17−6)をサーバー11に送信する。サーバー11は、この録音指定のメッセージを受信し、操作データ175の作成を開始する。例えば、プレゼンタ端末13が送信するメッセージである操作イベントとタイムスタンプを、例えば図13の操作データの構成で、図2の操作データ記憶部226に記憶開始する。また、プレゼンタ端末13は、図3の入力装置33のマイク332により音声を入力し、録音音声記憶部321に会議、講習会の音声を録音開始する。
FIG. 7 shows a flowchart for creating the material analysis data. Since each process is as described above, a description thereof will be omitted.
After the
The
図8に、操作データ作成のフローチャートを示す。サーバー11は、プレゼンタ端末13からのメッセージが録音指定であれば(81〜83)、操作データを初期化し、データ作成を開始する(87)。また、サーバー11は、プレゼンタ端末13からのメッセージが会議終了であれば(81〜84)、操作データの作成を終了する。プレゼンタ端末13からのメッセージが操作イベントであり、会議が開始していれば(81〜85)、タイムスタンプと操作イベントを対応して操作データ記憶部227に記憶する。
図17に戻り、処理の説明を続ける。プレゼンタ端末13は、会議が進行し、ページを変更する場合は、例えばボタン156が押されることでページ送りを行い、資料C1の2ページ指定(17−7)をサーバー11に送信する。サーバー11は、図5の資料C1の2ページ目のデータをプレゼンタ端末13に送信する(17−8)。また、それとともに、サーバー11は会議に参加している端末全てに資料C1の2ページ目を送信(17−9)する。また、図13の操作データ記憶部226に、タイムスタンプ131と操作イベント132のページ送り1322を追加する。資料C1の2ページ目のデータを受信したそれぞれの端末は、各自の画面に同じ資料C1の2ページを表示する。
以下、プレゼンタ端末13はページ送り、ページ戻しなどのイベント毎にサーバー11にメッセージを送信する。サーバー11はそのメッセージを解析しそれに合致した図2の会議資料記憶部222に保管していた資料データの指定ページを、端末全てに送信する。そして端末13、14が資料データの指定ページを受信し、画面に一斉に表示する。
また、図4のサーバー11の資料登録画面で会議Cの資料を複数登録した場合は、他の資料も指定可能である。図17の例では、プレゼンタ端末13は適宜の操作により再び資料一覧を表示し、資料C2が選択されると、資料C2要求(17−13)をサーバー11に送信する。
FIG. 8 shows a flowchart for creating operation data. If the message from the
Returning to FIG. 17, the description of the processing is continued. When the conference progresses and the page is changed, the
Hereinafter, the
In addition, when a plurality of materials for the conference C are registered on the material registration screen of the
サーバー11は、図5の資料C2の1ページ目のデータをプレゼンタ端末13に送信する(17−14)。それとともに、サーバー11は、会議に参加している端末全てに資料C2の1ページ目を送信(17−15)する。資料C2の1ページ目のデータを受信したそれぞれの端末は、各自の画面に同じ資料C2の1ページ目を表示する。ページ送りを行う場合は、資料C2の2ページ指定(17−17)をサーバー11に送信する。サーバー11は、ページ指定に応答して、図5の資料C2の2ページ目のデータをプレゼンタ端末13に送信する(17−18)。それとともに、サーバー11は会議に参加している端末全てに資料C2の2ページ目を送信(17−19)する。また、図13の操作データ記憶部226にタイムスタンプ131と、今回の操作イベント132である「資料C2を開く」1325とを追加する。資料C2の2ページ目のデータを受信したそれぞれの端末は、各自の画面に同じ資料C2の2ページを表示する。以下、先に述べたようにプレゼンタ端末13で発生したイベント毎にサーバー11にメッセージを送信し、サーバー11がそのメッセージを解析しそれに合致した図2の会議資料記憶部222に保管していた資料データの指定ページを、会議に参加する端末全てに送信し、図13の操作データ記憶部226を更新し、端末13、14がその資料のデータを受信し、画面に各々表示する事を繰り返す。このように、資料共有を行い会議を行う。
The
プレゼンタ端末13は、会議を終了する際に図15の会議終了ボタン154が押されたことを検知し、会議終了通知(17−20)をサーバー11に送信する。サーバー11は、会議終了通知をプレゼンタ端末13に送信して(17−21)、会議参加者の端末全台にも会議終了通知(17−22)を送信する。続いてサーバー11は、図13の操作データ記憶部226に13211で示す停止とタイムスタンプを記憶し、操作データの作成を終了(177)し、会議Cの操作データを完成する。プレゼンタ端末13は、サーバー11から送られた会議終了通知を受信すると、録音作業を停止し、録音音声ファイルを作成する(178)。ここで作成した録音ファイルを、プレゼンタ端末13はサーバー11にアップロードする(17−23)。サーバー11は、受信した録音音声ファイルを図2の録音音声記憶部225に記憶する(179)。
次にサーバー11は、この録音音声データを用いて図14の録音分析データを作成する。サーバー11は、録音音声データを音声認識などによってテキスト化し、自然言語検索や構文解析の一般的な技術によって音声キャラクタを文章毎にわけて、タイムスタンプと共にデータとし、図14に示す録音分析データ記憶部227のタイムスタンプと録音キャラクタリストに記憶する。なお、音声キャラクタは文章毎に分ける以外にも、時間で分けてもよいし、適宜の文の長さで分けるなど適宜の分け方を用いてもよい。さらにサーバー11は、この録音キャラクタリスト毎に、図4で登録したキーワード47を検索し、キーワード47が含まれていればその単語を図14の録音分析データのキーワード143に記憶する。この作業を音声キャラクタが終了するまで行い、録音分析データを完成させる(1710)。図9に、録音分析データ作成のフローチャートを示す。各処理については、上述の通りであるので、説明を省略する。
The
Next, the
サーバー11は、図12の例に示す通り、前述した録音音声ファイル、操作データ、及び、録音分析データを結び付け、図2の会議再現データ記憶部224に会議再現データとして格納する。例えば、各データの識別情報や格納場所を記憶してもよい。さらに、図5で示すように会議資料と資料分析データを会議毎に管理し、図1の端末13、14のどの端末からでも会議Cを再現することができる。また、再現は資料共有と同様に他の端末と同期し、一斉に複数の端末で会議や講習会を再現することも可能である。仮にそれを再現Cファイル(図12の123)とする。
As shown in the example of FIG. 12, the
(会議の再現動作)
図18は会議再現の流れのシーケンスを表した図である。これまで図17で説明したとおり文書共有の会議を行い作成した再現ファイル(図12の123)を端末(再現端末、第2端末)15で再現し、端末15のユーザが会議の資料を見ながら録音された音声を聞く会議の再現方法を説明する。端末15は、プレゼンタ端末13でも、端末14でもよい。
会議の再現は、資料共有のときと同じ図1の機器構成によって行うことができる。ここでは、端末は少なくともひとつあればよい。図18において、会議の再現希望の端末15は、図15に示す画面を表示し、会議再現155が押されたことを検知すると、サーバー11に対して会議再現ファイル一覧の要求(18−1)を送信する。サーバー11は、図12の会議再現データ記憶部122をもとに会議再現ファイル一覧データを作成して、会議再現一覧データを端末15に送信する(18−2)。会議再現ファイル一覧データは、例えば、会議再現データ記憶部122に記憶された会議名、再現ファイル名を含むことができる。
端末15は、受信した会議再現ファイル一覧データをもとに図16−1の画面を表示し、例えば領域166に会議再現ファイル一覧を表示する。次に端末15は、例えば再現Cファイルが指定され、図16−1の開始163が押されたことを検知すると、再現Cファイルを要求(18−3)するメッセージをサーバー11に送信する。サーバー11は、要求された再現ファイルに対応する音声ファイル、操作データ及び録音分析データを会議再現データ記憶部122を参照して特定する。サーバー11は、再現する会議の録音音声ファイルを録音音声記憶部225から読みだして端末15に送信(18−4)し、端末15はその音声ファイルを端末15の図3の記憶部32(録音音声記憶部321)に保管する。なお、録音音声ファイルはタイムスタンプと音声データを含む。
(Meeting reproduction)
FIG. 18 is a diagram showing a sequence of a conference reproduction flow. The reproduction file (123 in FIG. 12) created by the document sharing conference as described above with reference to FIG. 17 is reproduced on the terminal (reproduction terminal, second terminal) 15, and the user of the terminal 15 is viewing the conference material. Explain how to reproduce a meeting to hear the recorded audio. The terminal 15 may be the
The reproduction of the conference can be performed by the same device configuration as in FIG. Here, at least one terminal is sufficient. In FIG. 18, the terminal 15 that wishes to reproduce the conference displays the screen shown in FIG. 15, and upon detecting that the
The terminal 15 displays the screen of FIG. 16A based on the received conference reproduction file list data, and displays the conference reproduction file list in the
サーバー11は、図13の操作データのタイムスタンプ131を監視し、操作イベント132応じた処理を行う。例えば、操作イベント1321では、サーバー11は、資料の最初のページである情報資料C1の1ページを端末15に送信する(18−5)。端末15は、受信された情報をもとに資料の画像を図16−1の端末画面の領域166に表示する。サーバー11は、要求された再現Cファイルに関連付けられた図14の録音分析データより、表示している資料のページに合致した録音リストに必要なデータ(録音リストデータ)を作成し、端末15に送信する(18−6)。ここで、録音リストデータは、現在開いている資料のページのキーワードを資料分析データ記憶部223の資料分析データから特定し(図の63、66、69)、そのキーワードに基づき図14の録音分析データのキーワード143を検索し、一致したキーワードに対応する録音キャラクタリスト142とタイムスタンプ141を抽出することにより得られる。なお、一例では、端末15へは抽出されたひとつ又は複数の録音キャラクタリスト142を送信すればよい。一度に送れない場合は分割して送ってもよい。この際、スクロール表示のデータを含めて端末で制御してもよい。
The
端末15は、受信された録音リストデータをもとに、図16−1の端末画面の録音リスト161に各リスト(例えば、録音キャラクタリスト)162の文字を表示する。また、端末15は、図3の記憶部32に保管された音声ファイルの再生を開始する。このとき、端末15と同期する複数の端末があってもよい。
図10は、端末15が資料を表示し、録音リストに必要なデータを受け取って一番最初に画面に表示するときのフローチャートである。画面に表示しきれないときは、スクロールのマークを表示する(スクロール表示)。動作は上述の通りであるので説明を省略する。
再生中、サーバー11は、図13の操作データを監視し、操作イベントが発生した場合に備える。サーバー11の操作イベント132が発生すると、サーバー11はそのイベントにあったメッセージ、資料等を端末15に送信し、それにしたがって端末15は資料の表示を行う。例えば、操作イベントが資料C2の2ページ表示ならば、サーバー11は資料C2の2ページ目(18−7)を端末15に送信する。加えて、サーバー11は資料C2の2ページ目の録音リストに必要なデータを抽出して送信する(18−8)。このように、サーバー11は操作イベント132の検出を行い、検出した場合はそれにあった表示資料のデータと録音リストのメッセージを端末15に送信し、端末15はこのデータをもとに画面に資料を表示する。この繰り返しにより会議再現を行っていく。
ここで、会議等の再現において、資料に関係ない内容の音声などを飛ばしたい場合などがある。その場合、ユーザが図16−1の端末15の画面の録音リスト162から聞きたい場所を想定し、例えばリスト161の録音キャラクタリスト162が選択されることにより、端末15は選択された録音リスト162の指定メッセージ(18−9)をサーバー11に送信する。サーバー11は図14の録音分析データ141を参照して、選択された録音キャラクタリストのタイムスタンプを特定し、特定されたタイムスタンプを含むメッセージ(18−10)を端末15に送信する。端末15は、受信したタイムスタンプをもとに再生する位置を検出し、該当する音声の位置から再生する(ジャンプする)。なお、サーバー11が送信する録音リストは、録音キャラクタリストと、対応するタイムスタンプとを含めてもよく、この場合端末15は録音キャラクタリストが選択されると、自端末で対応するタイムスタンプを特定して音声データを再生してもよい。このように会議や講習会に関係のない余談や間の録音を一気に飛ばしたり、ピンポイントで音声を選択可能となる。
Based on the received recording list data, the terminal 15 displays the characters of each list (for example, recording character list) 162 in the
FIG. 10 is a flowchart when the terminal 15 displays the material, receives the data necessary for the recording list, and displays it on the screen for the first time. When it cannot be displayed on the screen, a scroll mark is displayed (scroll display). Since the operation is as described above, the description is omitted.
During playback, the
Here, when reproducing a meeting or the like, there is a case where it is desired to skip audio or the like that is not related to the material. In that case, assuming a place where the user wants to hear from the
また、さらに、録音リストを全て聞いても再生した録音内容と表示されている資料の内容が必ずしも合致していない場合などがある。その場合は、ユーザは図16−1の画面の候補165のキーを押す。端末15は、候補165が押されたことを検知すると、候補リスト要求(18−11)をサーバー11に送信する。サーバー11は端末15からの候補リスト要求により、図6の資料分析データを参照して表示しているページのキーワードを抽出し、そのキーワードに基づき図14の録音分析データのキーワード143を検索し、一致した録音キャラクタリスト142をもとに候補リストを作成する。
図19は候補リストの内容の例である。候補リストは、表示しているページに含まれるキーワードと、そのキーワードを含む録音キャラクタと、録音キャラクタに対応するタイムスタンプと、そのタイムスタンプの際に表示されていた資料名およびページの各情報を含む。なお、各候補を識別する識別情報をつけてもよい。例えば、会議Cの資料C2の2ページ目の候補は、キーワードword1はタイムスタンプ0:05:40と0:32:11と2か所存在し、それぞれのキャラクタリストがデータ(194)となる。キーワードword2はタイムスタンプ0:23:32と0:48:40と0:51:32の3か所存在し、それぞれのキャラクタリストがデータ(194)となる。その際、図11−1のようにスクロールの情報も加えてもいいが、端末15で制御してもよい。
このようにサーバー11にて作成した候補リストを端末15に送信する(18−12)。端末15は、受信した候補リストの情報に基づき、図16−2に示す再現画面の他候補リスト169を表示する。このように、図16−1の領域166に表示していた資料のページの内容に近い録音箇所があれば、それらを音声リストとして表示するための候補リストが表示可能となる。
Furthermore, there are cases where the recorded content played back does not necessarily match the content of the displayed material even after listening to the entire recording list. In that case, the user presses the key of the
FIG. 19 shows an example of the contents of the candidate list. The candidate list includes a keyword included in the displayed page, a recording character including the keyword, a time stamp corresponding to the recording character, and information on the material name and page displayed at the time of the time stamp. Including. In addition, you may attach the identification information which identifies each candidate. For example, as for the candidate for the second page of the document C2 of the conference C, the keyword word1 has two places with time stamps 0:05:40 and 0:32:11, and the respective character lists become data (194). There are three keyword words 2 of time stamps 0:23:32, 0:48:40, and 0:51:32, and each character list becomes data (194). At that time, scroll information may be added as shown in FIG.
The candidate list created in the
図11−1に、他候補キーが押された場合の、サーバー11と端末15の処理の流れの概要を示す。動作は上述の通りであるので、説明を省略する。
この候補リストにより、ユーザは聞きたい音声(又は参照したい関連資料)に検討を付け、例えば、候補リストの中のひとつである図16−2の候補リスト169を選択して押す。端末15は、候補リストが押されたことを検知すると、選択された候補リスト169の指定メッセージ(18−13)をサーバー11に送信する。例えば、選択された候補の識別子を送信してもよい。サーバー11はまず、指定された候補リストに対応するタイムスタンプを求める。例えば、図19の候補リストを適宜の記憶部に記憶しておき、指定された候補の識別子に対応するタイムスタンプを求めてもよい。また、録音分析データをサーチして、対応するタイムスタンプを求めてもよい。サーバー11は、求められたタイムスタンプの値を端末15が音声のどこから再生するかの情報としてメッセージ(18−14)を送信する。端末15はその情報をもとに再生する音声データの位置を検出し、該当する位置より再生を行う。タイムスタンプの特定は、上述と同様に端末側で行っても良い。
FIG. 11A shows an outline of the processing flow of the
With this candidate list, the user reviews the voice he / she wants to hear (or related material he / she wishes to refer to), and selects and pushes the
サーバー11はさらに、上記で押された候補リストの169をもとに、図14の録音分析データの該当する録音キャラクタリストのキーワード143を特定し、図6の資料分析データのキーワード62を検索し、一致していたら、その資料及びページ表示の情報を端末15に送信する。例えば、該当する資料の該当ページを送信してもよいし、すでに送信している場合には、資料とページの識別情報を送信してもよい。例えば、図18では、資料C2の3ページが一致したと仮定して、サーバー11より端末15へ資料C2の3ページ目のデータ情報を送信している(18−15)。端末15はこれらの情報を受信し、資料の3ページ目のデータをサーバー11より読み込み、図16−2の領域167のように資料ページを先の資料ページ166の上に重ねて表示する。なお、表示方法は他の適宜の方法でもよい。このように表示した録音リスト169を選択してその音声を聞くことと併せて、その音声にキーワードで結び付いた資料画面も併せて表示することが可能となる。
図11−2に、候補リストが指定された場合の、サーバー11と端末15の処理の流れの概要を示す。動作は上述の通りであるので、説明を省略する。
再現の終了は、操作データ132のイベントによって自動に終了するが、端末15が図16−2の停止164が押されたことを検知し、サーバー11へ再生終了のメッセージ(18−17)を送信することも可能である。サーバー11はそれを受信して、終了通知を返送し(18−18)終了する。
このように会議や講習会などの資料を主とし、その場に参加できなかった人でも、後日あたかもその場にいたように会議や講習会の資料と音声をそのまま再現するだけでなく、録音音声のデータの聞かせ方と資料の見せ方を工夫し、会議や講習会資料の内容を効率よく再現し理解するシステムを提供する事ができる。
The
FIG. 11B shows an outline of the processing flow of the
The end of reproduction is automatically ended by an event of the
In this way, those who mainly attended meetings and workshops, and who could not attend the meeting, not only reproduced the meeting and workshop materials and audio as if they were there, but also recorded audio. It is possible to provide a system that efficiently reproduces and understands the contents of conference and workshop materials by devising how to let the data be presented and how to display the materials.
本発明は、例えば会議や講習会などの資料と音声を記録し、再現するコンピュータシステムに利用可能である。 The present invention can be used in a computer system that records and reproduces materials and sounds such as conferences and seminars.
11 サーバー
12 アクセスポイント
13 端末(プレゼンタ)
14 端末n
15 再現端末
21 サーバーのCPU
22 サーバーの記憶部
23 サーバーの入力装置
24 サーバーの出力装置
25 サーバーの通信回線インターフェースLAN
31 端末のCPU
32 端末の記憶部
321 録音音声記録ファイル
322 端末のアプリケーション
33 端末の入力装置
331 マイク
34 端末の出力装置
35 端末の通信回線インターフェースLAN
41 資料登録画面の資料登録キー
42 資料登録画面の自動キーワード登録開始キー
43 資料登録画面の手動キーワード入力位置
44 資料登録画面の手動キーワードサーチキー
45 資料登録画面のキーワード削除キー
46 資料登録画面の資料追加キー
47 資料登録画面の資料のキーワード表示部
151 端末の再現画面の録音リスト表示部
152 端末の再現画面の録音リストのキー
153 端末の再現画面の候補録音リストのキー
154 端末の再現画面の資料表示部
155 端末の再現画面の再現開始キー
156 端末の再現画面の再現停止キー
11
14 Terminal n
15
22
31 Terminal CPU
32
41 Material Registration Key on
Claims (9)
前記サーバーは、
予め登録された資料内のキーワードが記憶された資料分析データ記憶部と、
録音された音声データを記憶する録音音声記憶部と、
録音された音声データをテキスト化した録音キャラクタリストが、タイムスタンプに対応して記憶された録音分析データ記憶部と、
前記第1端末に表示された資料及び該第1端末の操作を特定する操作イベントが、タイムスタンプに対応して記憶された操作データ記憶部と、
前記録音音声記憶部に記憶された音声データの再生と、前記操作データ記憶部に記憶された操作イベントに応じた資料の表示とを、前記第2端末で再現させる処理部と
を有し、
前記処理部は、再現段階において、
前記第2端末に再現表示された資料のキーワードを、前記資料分析データ記憶部を参照して特定し、
特定されたキーワードに基づき前記録音分析データ記憶部を検索し、該キーワードを含む録音キャラクタリストと、対応するタイムスタンプとを抽出し、
抽出されたひとつ又は複数の録音キャラクタリストを含む録音リストを前記第2端末に送信し、
前記第2端末は、
受信した録音リストを表示し、表示された録音リストに含まれる録音キャラクタリストのひとつが選択されると、選択された録音キャラクタリストに対応するタイムスタンプに従い、選択された録音キャラクタリストに対応する音声データを再生する資料表示及び音声再現システム。 A plurality of terminals including a first terminal and a second terminal and a server are provided, and in a recording stage, a material displayed on the first terminal, an operation event specifying the operation of the first terminal, and audio data are used as a time stamp. Correspondingly recorded on the server, a material display and sound reproduction system for reproducing the sound and displaying the material on the second terminal in the reproduction stage,
The server
A material analysis data storage unit in which keywords in pre-registered materials are stored;
A recorded voice storage unit for storing recorded voice data;
A recording character list in which the recorded voice data is converted into text, a recording analysis data storage unit stored corresponding to the time stamp, and
An operation data storage unit in which the material displayed on the first terminal and the operation event for specifying the operation of the first terminal are stored corresponding to the time stamp;
A processing unit that reproduces the audio data stored in the recorded audio storage unit and the display of the material according to the operation event stored in the operation data storage unit on the second terminal;
In the reproduction stage, the processing unit
The material keyword reproduced and displayed on the second terminal is identified with reference to the material analysis data storage unit,
Search the recording analysis data storage unit based on the identified keyword, extract a recording character list including the keyword, and a corresponding time stamp,
Transmitting a recording list including the extracted one or more recording character lists to the second terminal;
The second terminal is
When the received recording list is displayed and one of the recording character lists included in the displayed recording list is selected, the sound corresponding to the selected recording character list is displayed according to the time stamp corresponding to the selected recording character list. Data display and audio reproduction system for reproducing data.
をさらに備え、
前記録音分析データ記憶部は、録音キャラクタリストに対応して、該録音キャラクタリストに含まれる前記キーワードが記憶され、
前記処理部は、再現段階において、
前記録音分析データ記憶部を参照して、選択された録音キャラクタリストに対応するキーワードを特定し、
特定されたキーワードに基づき前記資料分析データ記憶部を参照して、該キーワードを含む資料を特定し、
該資料のデータを前記端末に送信して表示させる請求項1に記載の資料表示及び音声再現システム。 Further comprising a material storage unit in which data of materials to be displayed on the plurality of terminals is registered in advance,
The recording analysis data storage unit stores the keyword included in the recording character list in correspondence with the recording character list,
In the reproduction stage, the processing unit
Referring to the recording analysis data storage unit, identify a keyword corresponding to the selected recording character list,
Refer to the material analysis data storage unit based on the identified keyword, identify the material containing the keyword,
The material display and sound reproduction system according to claim 1, wherein data of the material is transmitted to the terminal for display.
音声データを記憶した前記複数の端末のひとつから該音声データを受信して、前記録音音声記憶部に記憶し、
記憶された音声データを音声認識によりテキスト化した録音キャラクタリストを作成し、前記資料分析データ記憶部に記憶されたキーワードに基づき該録音キャラクタリストを検索して、文章毎又は所定時間毎の録音キャラクタリストに含まれるキーワードを求めて、タイムスタンプと、文章毎又は所定時間毎の録音キャラクタリストと、該キーワードとを対応して前記録音分析データ記憶部に記憶する請求項2に記載の資料表示及び音声再現システム。 The processing unit, in the recording stage,
Receiving the voice data from one of the plurality of terminals storing the voice data, storing the voice data in the recorded voice storage unit;
A recorded character list in which the stored voice data is converted into text by voice recognition is created, and the recorded character list is searched based on the keyword stored in the material analysis data storage unit, and the recorded character list is recorded for each sentence or every predetermined time. 3. The material display according to claim 2, wherein a keyword included in the list is obtained, and a time stamp, a recorded character list for each sentence or every predetermined time, and the keyword are stored in the recording analysis data storage unit in association with each other. Voice reproduction system.
録音キャラクタリストのひとつが選択されることで前記第2端末から送信される録音リスト指定メッセージに対して、対応するタイムスタンプを返信する請求項1に記載の資料表示及び音声再現システム。 In the reproduction stage, the processing unit transmits in advance the voice data stored in the recorded voice storage unit and a time stamp to the second terminal,
The material display and sound reproduction system according to claim 1, wherein a time stamp corresponding to the recording list designation message transmitted from the second terminal is returned by selecting one of the recording character lists.
前記第2端末は、録音キャラクタリストにひとつが選択されると、対応するタイムスタンプに従い音声データを再生する請求項1に記載の資料表示及び音声再現システム。 The recording list transmitted to the second terminal further includes a time stamp corresponding to the recording character list,
The material display and sound reproduction system according to claim 1, wherein when the second terminal selects one of the recorded character lists, the second terminal reproduces sound data according to a corresponding time stamp.
資料データを入力して記憶し、該資料データから資料のページごとに所定のキーワードを抽出して前記資料分析データ記憶部に記憶する請求項1に記載の資料表示及び音声再現システム。 The processor is
The material display and sound reproduction system according to claim 1, wherein the material data is inputted and stored, a predetermined keyword is extracted from the material data for each page of the material, and is stored in the material analysis data storage unit.
音声データ入力部から音声データを入力して記憶し、該端末の操作イベントを前記サーバーへ送信し、
前記サーバーの前記処理部は、
受信した操作イベントをタイムスタンプに対応して前記操作データ記憶部に記憶し、
受信した音声データを前記録音音声記憶部に記憶する請求項1に記載の資料表示及び音声再現システム。
In the recording stage, the first terminal
Voice data is input and stored from the voice data input unit, and an operation event of the terminal is transmitted to the server.
The processing unit of the server is
Store the received operation event in the operation data storage unit corresponding to the time stamp,
The material display and sound reproduction system according to claim 1, wherein the received sound data is stored in the recorded sound storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011265269A JP2013117879A (en) | 2011-12-02 | 2011-12-02 | Material display and audio reproduction system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011265269A JP2013117879A (en) | 2011-12-02 | 2011-12-02 | Material display and audio reproduction system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013117879A true JP2013117879A (en) | 2013-06-13 |
Family
ID=48712395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011265269A Pending JP2013117879A (en) | 2011-12-02 | 2011-12-02 | Material display and audio reproduction system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013117879A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015099290A (en) * | 2013-11-20 | 2015-05-28 | 日本電信電話株式会社 | In-utterance important word extraction device and in-utterance important word extraction using the device, and method and program thereof |
-
2011
- 2011-12-02 JP JP2011265269A patent/JP2013117879A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015099290A (en) * | 2013-11-20 | 2015-05-28 | 日本電信電話株式会社 | In-utterance important word extraction device and in-utterance important word extraction using the device, and method and program thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9697871B2 (en) | Synchronizing recorded audio content and companion content | |
US7848493B2 (en) | System and method for capturing media | |
US8391455B2 (en) | Method and system for live collaborative tagging of audio conferences | |
JP2008172582A (en) | Minutes generating and reproducing apparatus | |
US20130222526A1 (en) | System and Method of a Remote Conference | |
JP2005341015A (en) | Video conference system with minute creation support function | |
JP5206553B2 (en) | Browsing system, method, and program | |
KR100849900B1 (en) | Content delivery method, scenario data, recording medium, and scenario data creation method | |
JP5750946B2 (en) | Content distribution system, content distribution server, content distribution method, program, and recording medium | |
WO2016202176A1 (en) | Method, device and apparatus for synthesizing media file | |
US20120059493A1 (en) | Media playing apparatus and media processing method | |
JP2002109099A (en) | System and device for recording data and video image/ voice, and computer readable recording medium | |
JP2006268800A (en) | Apparatus and method for minutes creation support, and program | |
US20110113357A1 (en) | Manipulating results of a media archive search | |
TW200509089A (en) | Information storage medium storing scenario, apparatus and method of recording the scenario on the information storage medium, apparatus for reproducing data from the information storage medium, and method of searching for the scenario | |
WO2007043427A1 (en) | Viewing/hearing device | |
JP2002335478A (en) | Video recording reproducing system | |
JP2013117879A (en) | Material display and audio reproduction system | |
JP2004023661A (en) | Recorded information processing method, recording medium, and recorded information processor | |
JP2000267639A (en) | Information processor | |
JP2004279897A (en) | Method, device, and program for voice communication record generation | |
JP6627315B2 (en) | Information processing apparatus, information processing method, and control program | |
JP2002304420A (en) | Audio-visual content distribution system | |
KR100459668B1 (en) | Index-based authoring and editing system for video contents | |
JP2021067845A (en) | Voice reproduction system and program |