JP2002101398A - Electronic conference system - Google Patents

Electronic conference system

Info

Publication number
JP2002101398A
JP2002101398A JP2001204207A JP2001204207A JP2002101398A JP 2002101398 A JP2002101398 A JP 2002101398A JP 2001204207 A JP2001204207 A JP 2001204207A JP 2001204207 A JP2001204207 A JP 2001204207A JP 2002101398 A JP2002101398 A JP 2002101398A
Authority
JP
Japan
Prior art keywords
information
index
audio
video
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001204207A
Other languages
Japanese (ja)
Inventor
Shinichiro Taniguchi
慎一郎 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2001204207A priority Critical patent/JP2002101398A/en
Publication of JP2002101398A publication Critical patent/JP2002101398A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an electronic conference system by which the prehistory of sources in conference item contents can be recorded and the recorded information can be retrieved and reproduced. SOLUTION: When the conference is started, conference speech and image are stored in time series from a speech and image input means 10 into a speech and image storing means 4. Information from an input means 2 is displayed on a display means 1. When an input interval detecting means 5 detects that an instruction or input from the means 2 is not made for a fixed period, display information is stored in a display information storing means 3, and index information to be made speech and image information correspond to the display information is generated by an index information generating means 6, then is stored in an index information storing means 7. A speech and image information accessing means 8 reads the index information from the means 7, obtains a storage address in the means 4, accesses the speech and image information, and a speech and image information reproducing means 9 reproduces the speech and image information.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、電子会議システムに関
するものであり、特に、会議の途中における会議データ
の保存、および呼び出しに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic conference system, and more particularly to storage and recall of conference data during a conference.

【0002】[0002]

【従来の技術】従来の一般的な会議では、会議の途中に
おける議事内容を書き留めておくために、黒板やホワイ
トボードが用いられてきた。近年、黒板やホワイトボー
ドの代わりとして、電子黒板、電子OHP、大型ディス
プレイ、ボードノーター(Boardnoter)など
を用いた電子会議システムが導入されてきている。例え
ば、電子黒板は、特開昭64−78889号公報等に記
載されている。また、ボードノーター(Boardno
ter)は、Communications of t
he ACM,Vol.30,No.1,1987,M
ark Stefik他,“BEYOND THE C
HALKBOARD:COMPUTERSUPPORT
FOR COLLABORATION AND PR
OBLEM SOLVING IN MEETING
S”,pp.32−47に記載されている。これらの機
器を用いた会議システムでは、会議の途中における議事
内容は、電子的に蓄えられ、プリントアウトされ、表示
される。しかし、従来の電子黒板やボードノーター(B
oardnoter)では、書き留められた議事内容の
みを記録するだけであり、その議事内容が出てきた経緯
等が記録されず、会議の記録された結果以外の重要な情
報が失われるという欠点があった。
2. Description of the Related Art In a conventional general meeting, a blackboard or a whiteboard has been used to write down the contents of agenda during the meeting. In recent years, instead of a blackboard or whiteboard, an electronic conference system using an electronic blackboard, an electronic OHP, a large display, a board notter (Boardnotter), or the like has been introduced. For example, an electronic blackboard is described in JP-A-64-78889. Also, boardnoter (Boardno)
ter) is the Communications of
he ACM, Vol. 30, no. 1,1987, M
ark Stefik et al., “BEYOND THE C
HALBBOARD: COMPUTERSSUPPORT
FOR COLLABORATION AND PR
OBLEM SOLVING IN MEETING
S ", pp. 32-47. In a conference system using these devices, the contents of the proceedings during the conference are stored electronically, printed out, and displayed. Electronic blackboard and board noter (B
In the case of an order noter, only the written contents of the meeting are recorded, and the history of the contents of the meeting is not recorded, and important information other than the recorded result of the meeting is lost. .

【0003】そのため、例えば、特願平3−13854
2号公報や、特開昭62−199186号公報等に記載
されているような、時系列的に会議中の議事内容を記憶
する電子会議システムや、特開昭64−32751号公
報に記載されてるように、会議中のコメントを音声で記
録する電子会議システムが提案されている。しかし、特
願平3−138542号公報では、記入され、表示され
た情報は時系列的に記録されるが、記入されない音声や
ジェスチャといった情報は失われてしまうという欠点が
あった。また、特開昭62−199186号公報では、
画像や音声は時系列的に残るが、所望の情報を検索する
ときには、時系列的に記録された音声や画像を最初から
見て行くか、あるいは、経過時間を勘により入力して前
後を探したりしなければならず、検索が困難であるとい
う欠点があった。特開昭64−32751号公報では、
文書との対応をつけることによって検索できるが、時系
列的な記録がないため、会議の流れを再現することはで
きないという欠点がある。さらに、会議中に文書の変更
や削除があった場合、それらの場所に付けられた音声メ
モが検索できなくなるという欠点があり、また、音声メ
モは、メモを付けるときに発話者が文書の特定箇所を指
示しなければならず、先に発言し、その発言に基づいた
記述を追加しても、先の発言が記録されないという欠点
があった。
[0003] For this reason, for example, Japanese Patent Application No. Hei.
No. 2, Japanese Patent Application Laid-Open No. 62-199186, an electronic conferencing system for storing the contents of a meeting in a time series, and Japanese Patent Application Laid-Open No. 64-32751. As described above, an electronic conference system has been proposed in which comments during a conference are recorded by voice. However, Japanese Patent Application No. 3-138542 has a drawback in that information that is entered and displayed is recorded in chronological order, but information such as voices and gestures that are not entered is lost. In Japanese Patent Application Laid-Open No. 62-199186,
Images and sounds remain in chronological order, but when searching for desired information, look at the sounds and images recorded in chronological order from the beginning, or input the elapse of time to search for the previous or next. And it is difficult to search. In JP-A-64-32751,
Although it is possible to search by associating with a document, there is a drawback that the flow of the conference cannot be reproduced because there is no chronological record. In addition, if a document is changed or deleted during a meeting, voice memos attached to those locations cannot be searched, and voice memos can be identified by the speaker when attaching a memo. There is a drawback in that even if the user has to specify a location and speaks first, and a description based on the statement is added, the previous statement is not recorded.

【0004】[0004]

【発明が解決しようとする課題】本発明は、上述した事
情に鑑みてなされたもので、会議の議事内容が出てきた
経緯等を記録しておき、記録しておいた情報を検索し、
再現することのできる電子会議システムを提供すること
を目的とするものである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and records the history of the contents of a meeting, and searches the recorded information.
It is an object to provide an electronic conference system that can be reproduced.

【0005】[0005]

【課題を解決するための手段】本発明は、電子会議シス
テムにおいて、表示手段と、前記表示手段に表示させる
情報を入力する入力手段と、前記表示手段に表示された
情報を記憶する表示情報記憶手段と、会議参加者の音声
および映像を入力する音声映像入力手段と、前記音声映
像入力手段に入力された音声および映像を記憶する音声
映像記憶手段と、前記入力手段からの入力の間隔を検出
する入力間隔検出手段と、前記入力間隔検出手段の検出
結果または利用者からの指示に基づき前記表示情報記憶
手段に記憶されている表示情報と前記音声映像記憶手段
に記憶されている音声映像情報を対応づけるインデック
ス情報を生成するインデックス生成手段と、前記インデ
ックス生成手段により生成されたインデックス情報を記
憶するインデックス情報記憶手段と、前記インデックス
情報記憶手段に記憶されたインデックス情報を基に前記
音声映像記憶手段から音声映像情報を呼び出す音声映像
呼出手段と、前記音声映像呼出手段により呼び出された
音声映像情報を順次再生する音声映像情報再生手段を有
することを特徴とするものである。
According to the present invention, in an electronic conference system, display means, input means for inputting information to be displayed on the display means, and display information storage for storing information displayed on the display means. Means, audio-video input means for inputting audio and video of a conference participant, audio-video storage means for storing audio and video input to the audio-video input means, and detecting an interval between inputs from the input means Input interval detection means, and the display information stored in the display information storage means and the audio / video information stored in the audio / video storage means based on the detection result of the input interval detection means or an instruction from a user. Index generating means for generating index information to be associated, and an index for storing the index information generated by the index generating means Information storage means, audio-video calling means for calling audio-video information from the audio-video storage means based on the index information stored in the index information storage means, and audio-video information called by the audio-video calling means in sequence. It is characterized by having audio-video information reproducing means for reproducing.

【0006】[0006]

【作用】本発明によれば、順次記録される表示情報およ
び音声映像情報は、インデックス生成手段により生成さ
れたインデックス情報により対応づけられる。このイン
デックス情報を基に、例えば、ブラウズ表示等により、
検索を容易に行なうことができ、検索された音声映像情
報を再生することができる。
According to the present invention, the display information and the audiovisual information which are sequentially recorded are associated with each other by the index information generated by the index generating means. Based on this index information, for example, by browsing
The search can be easily performed, and the searched audio / video information can be reproduced.

【0007】[0007]

【実施例】図1は、本発明の電子会議システムの第1の
実施例を示す概略構成図である。図中、1は表示手段、
2は入力手段、3は表示情報記憶手段、4は音声映像記
憶手段、5は入力間隔検出手段、6はインデックス情報
生成手段、7はインデックス情報記憶手段、8は音声映
像情報呼出手段、9は音声映像情報再生手段、10は音
声映像入力手段である。
FIG. 1 is a schematic block diagram showing a first embodiment of the electronic conference system of the present invention. In the figure, 1 is a display means,
2 is input means, 3 is display information storage means, 4 is audio-video storage means, 5 is input interval detection means, 6 is index information generation means, 7 is index information storage means, 8 is audio-video information calling means, 9 is The audio / video information reproducing means 10 is an audio / video input means.

【0008】表示手段1には、会議で用いる資料や、入
力手段2から入力された情報、以前表示した情報などを
表示する。入力手段2は、電子ペンなどにより構成され
ており、表示手段1と対応して設置され、表示手段1に
表示させる情報が入力される。入力手段2は、キーボー
ドとマウスで構成することも可能である。表示情報記憶
手段3は、表示手段1に表示された情報を記憶する。音
声映像記憶手段4は、音声映像入力手段10から入力さ
れる会議参加者の音声および映像を記憶する。入力間隔
検出手段5は、入力手段2から入力されるデータ間の間
隔を検出し、入力が一定時間途切れたかどうかを検知す
る。インデックス生成手段6は、表示情報記憶手段3に
記憶された表示情報と音声映像記憶手段4に記憶された
音声映像情報を対応づけるインデックス情報を生成す
る。インデックス情報記憶手段7は、インデックス生成
手段6により生成されたインデックス情報を記憶する。
音声映像情報呼出手段8は、ユーザーの指示に従い、イ
ンデックス情報記憶手段7に記憶されているインデック
ス情報に対応する音声映像情報を音声映像記憶手段4か
ら呼び出す。音声映像情報再生手段9は、音声映像情報
呼出手段8により呼び出された音声映像情報を、音声お
よび画像として、順次再生表示する。音声映像情報再生
手段9は、表示手段1と兼用する構成も可能である。兼
用とする構成の場合、システムを安価に構成することが
できる。音声映像入力手段10は、ビデオカメラやマイ
ク等からなり、会議中の音声、映像を入力し、音声映像
記憶手段4に記憶させる。音声映像入力手段10中のビ
デオカメラやマイクなどを複数配置することにより、会
議場内の死角をなくし、より細やかな情報を記録再現す
ることができる。
[0008] The display means 1 displays materials used in the conference, information input from the input means 2 and information previously displayed. The input unit 2 is configured by an electronic pen or the like, is installed in correspondence with the display unit 1, and inputs information to be displayed on the display unit 1. The input means 2 can be composed of a keyboard and a mouse. The display information storage unit 3 stores information displayed on the display unit 1. The audio / video storage unit 4 stores the audio and video of the conference participants input from the audio / video input unit 10. The input interval detecting means 5 detects an interval between data input from the input means 2 and detects whether the input has been interrupted for a predetermined time. The index generation means 6 generates index information for associating the display information stored in the display information storage means 3 with the audio / video information stored in the audio / video storage means 4. The index information storage unit 7 stores the index information generated by the index generation unit 6.
The audio / video information calling means 8 calls the audio / video information corresponding to the index information stored in the index information storage means 7 from the audio / video storage means 4 according to a user's instruction. The audio / video information reproducing means 9 sequentially reproduces and displays the audio / video information called by the audio / video information calling means 8 as audio and images. The audio-video information reproducing means 9 can be configured to also serve as the display means 1. In the case of a dual-purpose configuration, the system can be configured at low cost. The audio / video input unit 10 is composed of a video camera, a microphone, and the like, and inputs audio and video during a conference and stores the audio and video in the audio / video storage unit 4. By arranging a plurality of video cameras and microphones in the audio-video input means 10, it is possible to eliminate blind spots in the conference hall and record and reproduce more detailed information.

【0009】図2は、本発明の電子会議システムの第1
の実施例の動作を説明するためのフローチャートであ
る。会議が開始されると、S21において、ビデオカメ
ラやマイクなどの音声映像入力手段10から入力された
会議の情景や音声が、音声映像記憶手段4に順次記憶さ
れてゆく。それとともに、S22において、記録されて
ゆく音声映像情報に対して、インデックス情報生成手段
6において、インデックス情報を生成する。次に、S2
3において、入力手段2からコマンドを読み込み、その
指示に従い、各種の処理を行なう。まず、読み込まれた
コマンドが書き込みであれば、S28において、書き込
みの処理を行ない、表示手段1に線や図形、文字等を表
示する。また、コマンドが消去であれば、S27におい
て、消去の処理を行ない、表示手段1に表示されている
表示情報の一部または全部を消去する。この書き込み、
消去により、電子黒板としての機能を実現することがで
きる。また、保存の指示が入力されると、S26におい
て、表示手段1に表示されている表示情報を、表示情報
記憶手段3に保存する。保存された表示情報は、ユーザ
ーからの頁選択指示により、S29において、頁選択処
理が行なわれ、所望の頁の表示情報を表示情報記憶手段
3から読み出し、表示手段1に表示することができる。
頁の選択の際に表示手段1に表示する表示情報は、時間
に沿って全ての頁をユーザーに提示したり、または、あ
る頁に関してのみ、時間に沿ってユーザーに提示した
り、あるいは、各ページの最新の表示情報をユーザーに
提示し、ユーザーはこれらの表示情報を基に、頁の選択
を行なうことができる。S30において、これらの書き
込み、消去、頁選択等の処理を行なった後、情報の入力
が一定時間ないことを入力間隔検出手段5が検出した場
合、S31において、インデックス生成手段6は、表示
情報と音声映像情報を対応づけるインデックス情報を生
成し、生成したインデックス情報をインデックス情報記
憶手段7に記憶する。また、ユーザーからインデックス
生成指示が行なわれた場合も、S25において、インデ
ックス生成手段6はインデックス情報の生成を行ない、
インデックス情報をインデックス情報記憶手段7に記憶
する。音声映像情報の再生が指示された場合は、S24
において、現在選択されている頁中の領域を選択し、そ
の領域に対応するインデックス情報をインデックス情報
記憶手段7から検索する。音声映像情報呼出手段8は、
検索されたインデックス情報を基に、音声映像記憶手段
4から音声映像情報を呼び出し、音声映像情報再生手段
9に表示再生する。会議の終わりには、終了が指示さ
れ、S32において終了処理を行なった後、S33にお
いて、音声映像情報の記録を停止し、処理を終了する。
FIG. 2 shows a first example of the electronic conference system according to the present invention.
6 is a flowchart for explaining the operation of the embodiment. When the conference is started, scenes and sounds of the conference input from the audio / video input unit 10 such as a video camera and a microphone are sequentially stored in the audio / video storage unit 4 in S21. At the same time, in S22, the index information generating means 6 generates index information for the audio / video information to be recorded. Next, S2
At 3, a command is read from the input means 2 and various processes are performed according to the instruction. First, if the read command is a write, a write process is performed in S28, and lines, figures, characters, and the like are displayed on the display unit 1. If the command is an erasure, the erasure process is performed in S27 to erase a part or all of the display information displayed on the display unit 1. This writing,
By erasing, a function as an electronic blackboard can be realized. When a save instruction is input, the display information displayed on the display unit 1 is stored in the display information storage unit 3 in S26. According to the page selection instruction from the user, the stored display information is subjected to page selection processing in S29, and the display information of the desired page can be read out from the display information storage unit 3 and displayed on the display unit 1.
The display information to be displayed on the display means 1 when a page is selected may be such that all pages are presented to the user over time, or only a certain page is presented to the user over time; The latest display information of the page is presented to the user, and the user can select a page based on the display information. In S30, after performing these processes such as writing, erasing, and page selection, if the input interval detecting unit 5 detects that there is no input of information for a certain period of time, in S31, the index generating unit 6 sets the display information and Index information that associates audio and video information is generated, and the generated index information is stored in the index information storage unit 7. Also, when the user issues an index generation instruction, the index generation unit 6 generates index information in S25,
The index information is stored in the index information storage means 7. If the reproduction of the audiovisual information is instructed, the process proceeds to S24.
In, an area in the currently selected page is selected, and index information corresponding to the area is searched from the index information storage means. The audio / video information calling means 8
Based on the searched index information, the audio / video information is called from the audio / video storage means 4 and displayed and reproduced on the audio / video information reproducing means 9. At the end of the meeting, an end is instructed. After the end processing is performed in S32, the recording of the audiovisual information is stopped in S33, and the processing is ended.

【0010】図3は、本発明の電子会議システムの第1
の実施例におけるインデックス生成処理の流れを示すフ
ローチャートである。インデックス情報生成手段6が起
動されると、まず、S41において、音声映像記憶手段
4に現在書き込まれている番地を取得する。S42にお
いて、新しい頁か否かを判断し、何も書かれていない新
しいページならば、インデックス番号を1にセットし、
S43において、インデックス情報記憶手段7に記憶領
域を確保して、先に取得した音声映像記憶手段4の番地
を、確保した記憶領域に書き込む。
FIG. 3 shows a first example of the electronic conference system of the present invention.
13 is a flowchart showing a flow of an index generation process in the embodiment of FIG. When the index information generating means 6 is started, first, in S41, the address currently written in the audio / video storage means 4 is obtained. In S42, it is determined whether or not the page is a new page. If the page is a new page in which nothing is written, the index number is set to 1, and
In S43, a storage area is secured in the index information storage means 7, and the address of the audio / video storage means 4 acquired earlier is written in the secured storage area.

【0011】S42において、新しい頁でないと判断さ
れたときは、S45において、現在の表示情報を表示情
報記憶手段3に保存し、S46において、同じ頁の前回
保存した表示情報を表示情報記憶手段3から読み出す。
S47において、読み出した前回の表示情報と現在の表
示情報の差を取り、S48において、差があるか否かを
判断する。差がなければインデックス生成処理を終了
し、差があれば、S49において、指示された処理が書
き込みか削除かを判断する。指示された処理が書き込み
の場合には、S50において、前回の表示情報と現在の
表示情報の差の部分を含む領域の情報と、S41におい
て取得した音声映像情報の記憶番地を、インデックス情
報に追加する。また、指示された処理が削除の場合に
は、S51において、差の部分、すなわち削除された部
分を含む領域の情報と、S41において取得した音声映
像情報の記憶番地を、前回のインデックス情報に追加す
るとともに、削除された情報を含むインデックス情報を
修正して、今回のインデックス情報として保存する。イ
ンデックス情報の追加、修正の後、S52において、新
しいインデックス情報をインデックス情報記憶手段7に
保存し、インデックス情報生成処理を終了する。
If it is determined in S42 that the page is not a new page, the current display information is stored in the display information storage means 3 in S45, and the previously stored display information of the same page is stored in S46 in S46. Read from
In S47, the difference between the read previous display information and the current display information is obtained, and in S48, it is determined whether or not there is a difference. If there is no difference, the index generation processing ends. If there is a difference, it is determined in S49 whether the designated processing is writing or deletion. If the designated process is writing, in S50, the information of the area including the difference between the previous display information and the current display information and the storage address of the audiovisual information acquired in S41 are added to the index information. I do. When the designated process is a deletion, in S51, the difference information, that is, the information of the area including the deleted portion and the storage address of the audiovisual information acquired in S41 are added to the previous index information. At the same time, the index information including the deleted information is corrected and stored as the current index information. After the addition and modification of the index information, in S52, the new index information is stored in the index information storage unit 7, and the index information generation processing ends.

【0012】図3に示した動作の流れを、図4乃至図7
の具体例を用いて説明する。図4は、新しい頁のインデ
ックス情報の説明図である。まず、S42において、新
しい頁と判断された場合、インデックス情報生成手段6
は、図4に示すようなインデックス情報を生成する。こ
のインデックス情報は、頁の番号、表示情報番号、イン
デックス番号、インデックス領域、音声映像情報記憶番
地等からなる。新しい頁の場合には、インデックス番号
は1である。図4では、生成したという特性の情報
「C」を付加し、インデックス番号として「1C」が書
き込まれている。また、新しい頁では、前回の表示情報
との差は有り得ないので、インデックス領域の欄は、使
用しない。図4では、「−」が書き込まれている。音声
映像情報記憶番地の欄には、S41で取得した音声映像
記憶手段4の番地、例えば「1000」が書き込まれ
る。
The flow of the operation shown in FIG.
This will be described using a specific example. FIG. 4 is an explanatory diagram of index information of a new page. First, in S42, when it is determined that the page is a new page, the index information generating means 6
Generates index information as shown in FIG. The index information includes a page number, a display information number, an index number, an index area, an audio-video information storage address, and the like. For a new page, the index number is 1. In FIG. 4, information “C” having the characteristic of being generated is added, and “1C” is written as an index number. Also, in the new page, since there is no difference from the previous display information, the column of the index area is not used. In FIG. 4, "-" is written. The address of the audio / video storage unit 4 acquired in S41, for example, “1000” is written in the audio / video information storage address column.

【0013】図5は、書き込みによるインデックス情報
の追加の説明図である。書き込みが行なわれる前は、図
5(A)に示すような表示情報が表示情報記憶手段3に
記憶されているものとする。そのときのインデックス情
報としては、図5(B)のような情報がインデックス情
報記憶手段7に記憶されている。図5(B)において、
インデックス番号「1C」は、この頁の最初に生成され
たインデックス情報であり、インデックス番号「2C」
は、表示情報「○○○○」が書き込まれた際に生成され
たインデックス情報である。ここで、図5(C)に示す
ように、「ア△△△△」という情報が書き込まれ、イン
デックス情報生成手段6が起動されたとする。まず、S
41で音声映像記憶手段4の番地、「100450」が
取得される。次に、S45で、現在の表示情報、すなわ
ち図5(C)に示した情報が保存される。そして、S4
6で前回の表示情報、すなわち図5(B)が読み出さ
れ、S47で図5(B)と図5(C)の差が検出され
る。検出される差は、「ア△△△△」である。S50に
おいて、新たなインデックス番号「3C」を生成し、イ
ンデックス領域は、差である「ア△△△△」が含まれる
領域を示す情報、例えば、領域の四隅の座標を記憶させ
る。さらに、音声映像情報記憶番地には、先に取得した
番地「100450」を記憶する。追加の行なわれたイ
ンデックス情報を図5(D)に示す。このようにして、
新たに書き込まれた表示情報と、書き込まれる際の音声
映像情報が対応づけられて保存される。
FIG. 5 is an explanatory diagram of adding index information by writing. It is assumed that display information as shown in FIG. 5A is stored in the display information storage unit 3 before writing is performed. As the index information at that time, information as shown in FIG. 5B is stored in the index information storage means 7. In FIG. 5B,
The index number “1C” is index information generated at the beginning of this page, and the index number “2C”
Is index information generated when the display information “XXXXX” is written. Here, as shown in FIG. 5 (C), it is assumed that information "A" is written and the index information generating means 6 is activated. First, S
At 41, the address of the audio / video storage means 4, "100450", is acquired. Next, in S45, the current display information, that is, the information shown in FIG. 5C is stored. And S4
6 reads the previous display information, that is, FIG. 5B, and detects the difference between FIG. 5B and FIG. 5C in S47. The detected difference is “A”. In S50, a new index number “3C” is generated, and information indicating an area including the difference “A”, for example, coordinates of four corners of the area is stored in the index area. Furthermore, the previously acquired address “100450” is stored in the audio / video information storage address. FIG. 5D shows the added index information. In this way,
The newly written display information and the audiovisual information at the time of writing are stored in association with each other.

【0014】図6は、消去によるインデックス情報の追
加の説明図である。消去前の表示情報は、図6(A)に
示されている。この時のインデックス情報は、図6
(C)に示されている。ここで、図6(A)の表示情報
中、「▽▽」が削除され、インデックス情報生成手段6
が起動されたとする。削除後の表示情報を図6(B)に
示す。まず、S41において、現在の音声映像記憶手段
4の番地、「1001500」を取得する。S45で現
在の表示情報、すなわち、図6(B)に示した表示情報
を表示情報記憶手段3に保存する。S46で前回保存し
た表示情報、すなわち、図6(A)に示した表示情報を
読み出し、S47で図6(A)と図6(B)の表示情報
の差が検出される。検出される差は、「▽▽」である。
S51において、削除のインデックス情報である旨の新
たなインデックス番号「4E」を生成し、インデックス
領域には、削除された「▽▽」が含まれる領域を示す情
報、および、音声映像情報記憶番地には、先に取得した
番地「1001500」を、前回のインデックス情報に
追加して記憶する。今回のインデックス情報は、削除し
た情報が含まれるインデックス情報のインデックス領域
を、削除後の領域となるように修正し、また、インデッ
クス番号を修正された旨のインデックス番号「4M」に
変更して、保存する。削除のインデックス情報の追加さ
れた前回のインデックス情報を図6(D)に、また、今
回のインデックス情報を図6(E)に示す。このように
して、表示情報の削除された経緯を示す音声映像情報
が、削除された表示情報と対応づけられて保存される。
FIG. 6 is an explanatory diagram of adding index information by erasing. The display information before the erasure is shown in FIG. The index information at this time is shown in FIG.
It is shown in (C). Here, “▽▽” is deleted from the display information of FIG.
Is activated. FIG. 6B shows the display information after the deletion. First, in S41, the current address of the audiovisual storage means 4, "1001500", is obtained. In S45, the current display information, that is, the display information shown in FIG. In S46, the display information stored last time, that is, the display information shown in FIG. 6A is read, and in S47, the difference between the display information in FIGS. 6A and 6B is detected. The detected difference is “Δ”.
In S51, a new index number “4E” indicating that the index information is the deletion index information is generated, and the index area includes information indicating an area including the deleted “Δ” and an audio-video information storage address. Stores the previously acquired address "1001500" in addition to the previous index information. In this index information, the index area of the index information including the deleted information is corrected so as to be the area after the deletion, and the index number is changed to the index number “4M” indicating that it has been corrected. save. FIG. 6D shows the previous index information to which the index information of the deletion is added, and FIG. 6E shows the current index information. In this way, the audiovisual information indicating how the display information was deleted is stored in association with the deleted display information.

【0015】上述のインデックス情報は、図示したよう
なフォーマットで保存される必要はなく、例えば、デー
タ構造体や、リスト構造など、種々のフォーマットで構
成することができる。また、保存する項目も、図示した
データ以外の、例えば、日時や時間情報などを一緒に保
存するようにしてもよいし、また、インデックス番号に
含めている特性情報を別の項目として保存するように構
成することもできる。さらに、保存するデータも、図示
したような数値や文字でなくともよく、コードデータな
ど、その他の形式のデータであってもよい。
The above-mentioned index information does not need to be stored in the format shown in the figure, but can be configured in various formats such as a data structure and a list structure. In addition, items to be stored may be stored together with data other than the illustrated data, such as date and time and time information, or characteristic information included in the index number may be stored as another item. Can also be configured. Further, the data to be stored need not be numerical values or characters as shown in the figure, but may be data in other formats such as code data.

【0016】図7は、1つの頁の表示情報とそれに対応
するインデックス情報の変化の説明図である。会議中、
時間の経過とともに、情報の書き込みおよび消去がなさ
れる。図7では、上から下へ時間の経過とともに書き込
みおよび消去を行なったときの、表示情報とインデック
ス情報の変化の様子を示している。図中、(1)乃至
(5)は、それぞれ会議中の経過時間を示しており、ま
た、(a)は表示情報を、(b)は表示情報の差を、
(c)は各インデックス情報を、(d)はこの頁の生成
されたインデックス情報を、(e)はこの頁の消去イン
デックス情報をそれぞれ示している。この図では、イン
デックス情報は、インデックス領域のみを示している。
FIG. 7 is an explanatory diagram of changes in display information of one page and index information corresponding thereto. In a meeting,
Information is written and erased over time. FIG. 7 shows how the display information and the index information change when writing and erasing are performed over time from the top to the bottom. In the figure, (1) to (5) respectively indicate the elapsed time during the meeting, (a) shows the display information, (b) shows the difference between the display information,
(C) shows each index information, (d) shows generated index information of this page, and (e) shows erase index information of this page. In this figure, the index information indicates only the index area.

【0017】まず、時間(1)において、表示情報は、
「○○○○」が書き込まれている。このときまでに生成
されるインデックス情報は、この頁が最初に選択された
ときのインデックス情報と、縦のハッチングで示した領
域のインデックス情報である。続いて、時間(2)にお
いて、「ア△△△△」が書き込まれる。すると、時間
(1)の表示情報と、時間(2)の表示情報の差が、
(b)欄のように検出される。この差に対して、(c)
欄のようなインデックス情報が生成され、時間(1)の
インデックス情報に追加された形で時間(2)の生成イ
ンデックス情報が保存される。さらに、時間(3)にお
いて、「イ▽▽▽▽」が書き込まれる。時間(2)のと
きと同様に、時間(2)の表示情報と、時間(3)の表
示情報の差を検出し、その差に対応するインデックス情
報を生成し、時間(2)の生成インデックス情報に追加
して時間(3)の生成インデックス情報として保存す
る。
First, at time (1), the display information is
"OOOO" is written. The index information generated up to this time is the index information when this page is first selected and the index information of the area indicated by vertical hatching. Subsequently, at time (2), “△△△△” is written. Then, the difference between the display information at time (1) and the display information at time (2) is
It is detected as shown in column (b). For this difference, (c)
Column-like index information is generated, and the generated index information at time (2) is stored in a form added to the index information at time (1). Further, at time (3), “「 ”is written. As in the case of the time (2), a difference between the display information of the time (2) and the display information of the time (3) is detected, index information corresponding to the difference is generated, and a generation index of the time (2) is generated. In addition to the information, it is stored as generation index information at time (3).

【0018】時間(4)では、「イ▽▽▽▽」が消去さ
れている。時間(3)の表示情報と時間(4)の表示情
報との差を検出し、その差に対応するインデックス情報
を生成する。この生成されたインデックス情報は、消去
された情報に対するインデックス情報であるから、前
回、すなわち時間(3)の消去インデックスとして、
(e)欄の時間(3)に示している。このとき、時間
(3)のインデックス情報は、時間(3)のときに保存
した生成インデックス情報と、時間(4)で追加された
消去インデックス情報となる。それとともに、時間
(3)の生成インデックスから、消去された情報に対応
する生成インデックス情報を消去し、時間(4)の生成
インデックス情報として保存する。時間(5)では、
「△△」が消去されている。時間(4)と同様に、消去
された部分の情報を検出し、そのインデックス情報を生
成し、これを時間(4)の消去インデックス情報として
追加する。また、時間(5)の消去は、部分的なもので
あるので、時間(4)の生成インデックス情報のインデ
ックス領域を修正して、時間(5)の生成インデックス
情報として保存する。
At time (4), “▽▽▽▽” has been erased. A difference between the display information at time (3) and the display information at time (4) is detected, and index information corresponding to the difference is generated. Since the generated index information is the index information for the erased information, it is used as the previous time, that is, as the erase index at time (3).
This is shown at time (3) in column (e). At this time, the index information at time (3) is the generated index information stored at time (3) and the erasure index information added at time (4). At the same time, the generation index information corresponding to the deleted information is deleted from the generation index at time (3), and stored as the generation index information at time (4). At time (5),
“△△” has been deleted. Similarly to the time (4), the information of the erased portion is detected, the index information thereof is generated, and this is added as the erase index information of the time (4). Since the erasure at time (5) is partial, the index area of the generation index information at time (4) is modified and stored as the generation index information at time (5).

【0019】図8は、本発明の電子会議システムの第1
の実施例における音声映像情報再生処理の流れを示すフ
ローチャートである。この処理は、音声映像情報呼出手
段8で行なわれる。音声映像情報の再生が指示され、音
声映像情報読み出し処理が開始されると、S61におい
て、現在の頁のインデックス情報をインデックス情報記
憶手段7から読み出す。続いて、S62において、入力
手段2により指示されている座標を取得する。S63に
おいて、指示された座標がインデックス情報に記憶され
ている領域内か否かが判定され、指示された座標がイン
デックス情報に記憶されている領域内に入っていないな
ら、S64において、現在の音声映像情報記憶番地を再
生終了番地にセットし、次に、S65において、その頁
が生成されたときの音声映像情報記憶番地をインデック
ス情報から読み出して、再生開始番地にセットする。S
63において、入力手段2より指示された座標が、イン
デックス情報に記憶されているインデックスの領域内に
入っていたなら、S66において、その領域に対応する
インデックス番号よりも1つ小さいインデックス番号に
対応する音声映像情報記憶番地を読み出し、再生開始番
地にセットする。次に、S67において、指示された座
標の入っている領域に対応するインデックス番号よりも
1つ大きいインデックス番号があれば、そのインデック
ス番号に対応する音声映像情報記憶番地を読み出し、再
生終了番地にセットし、なければ現在の音声映像情報の
記憶番地を読み出し、再生終了番地にセットする。最後
に、S68において、再生開始番地から再生終了番地ま
での音声映像情報を音声映像情報再生手段9に再生表示
する。再生中に、ユーザーからの中断指示があれば、そ
の時点で音声映像情報再生処理を終了する。なお、ユー
ザーから指示された座標により、複数のインデックス情
報が指定された場合、それぞれのインデックス情報に対
応する再生開始番地と再生終了番地を指定された順番で
順次連結し、再生することにより、任意の順序で音声映
像情報を再生表示させることができる。
FIG. 8 shows a first example of the electronic conference system of the present invention.
It is a flowchart which shows the flow of the audio-video information reproduction | regeneration process in Example of FIG. This processing is performed by the audiovisual information calling means 8. When the reproduction of the audio / video information is instructed and the audio / video information reading process is started, the index information of the current page is read from the index information storage means 7 in S61. Subsequently, in S62, the coordinates designated by the input unit 2 are obtained. In S63, it is determined whether or not the designated coordinates are in the area stored in the index information. If the designated coordinates are not in the area stored in the index information, in S64, the current audio The video information storage address is set to the reproduction end address. Next, in S65, the audio / video information storage address at the time when the page is generated is read from the index information and set to the reproduction start address. S
In 63, if the coordinates specified by the input means 2 are within the area of the index stored in the index information, in S66, the coordinate corresponding to the index number one smaller than the index number corresponding to the area is obtained. The audio-video information storage address is read out and set to the reproduction start address. Next, in S67, if there is an index number one larger than the index number corresponding to the area containing the designated coordinates, the audio / video information storage address corresponding to the index number is read out and set to the reproduction end address. If not, the storage address of the current audiovisual information is read out and set to the reproduction end address. Finally, in S68, the audio-video information from the reproduction start address to the reproduction end address is reproduced and displayed on the audio-video information reproducing means 9. If there is an interruption instruction from the user during the reproduction, the audio / video information reproduction processing is terminated at that point. When a plurality of pieces of index information are specified by coordinates specified by the user, the reproduction start address and the reproduction end address corresponding to each index information are sequentially connected in the specified order, and are reproduced. The audio-video information can be reproduced and displayed in the following order.

【0020】図9は、音声映像情報再生処理の具体例の
説明図である。図9(A)は表示画面上の座標を入力手
段で指示しているところを示している。この場合、1つ
の「△」を指し示している。音声映像情報呼出手段8で
は、この座標を検出する。また、図9(B)は、インデ
ックス情報を模式的に示しており、図9(C)は、イン
デックス情報をデータとして示している。音声映像情報
呼出手段8は、図9(C)のような、現在の頁のインデ
ックス情報をインデックス情報記憶手段7から読み出
す。この例では、「△」が指示され、図9(B)に示し
ているハッチングを施したインデックス情報の領域のう
ち、中央のインデックス情報の領域内の座標が指示され
ている。すなわち、図9(C)のインデックス情報のう
ち、インデックス番号が「3C」が指示されている。こ
の判断は、それぞれのインデックス情報のうちのインデ
ックス領域の情報を参照することにより行なわれる。指
示されているインデックス番号が「3C」と判定される
と、このインデックス番号より1つ小さいインデックス
番号「2C」に対応する音声映像情報記憶番地「100
200」が読み出され、再生開始番地としてセットされ
る。また、インデックス番号「3C」より1つ大きいイ
ンデックス番号「4C」に対応する音声映像情報記憶番
地「10600」が読み出され、再生終了番地としてセ
ットされる。これらのデータのセットが終了すると、音
声映像記憶手段4から、セットされた再生開始番地から
再生終了番地までに記録されている音声映像情報が読み
出され、音声映像情報再生手段9に再生表示される。こ
のようにして、指定した表示情報が書かれる前の経緯
や、書かれた後の説明など、指定した表示情報に関する
前後の会議の様子を知ることができる。指定した表示情
報の保存前だけや、保存後、次の表示情報の保存までだ
けの音声映像情報を再生表示するように構成することも
可能である。
FIG. 9 is an explanatory diagram of a specific example of the audio / video information reproducing process. FIG. 9A shows a state in which coordinates on the display screen are indicated by the input means. In this case, one “△” is indicated. The audio / video information calling means 8 detects the coordinates. FIG. 9B schematically shows the index information, and FIG. 9C shows the index information as data. The audio / video information calling means 8 reads the index information of the current page from the index information storage means 7 as shown in FIG. In this example, “△” is indicated, and the coordinates in the index information area at the center of the hatched index information area shown in FIG. 9B are indicated. That is, of the index information in FIG. 9C, the index number “3C” is indicated. This determination is made by referring to the information of the index area in each index information. If the designated index number is determined to be "3C", the audiovisual information storage address "100" corresponding to the index number "2C" which is one smaller than this index number.
200 "is read out and set as the reproduction start address. Also, the audio / video information storage address “10600” corresponding to the index number “4C” which is one greater than the index number “3C” is read out and set as the reproduction end address. When the setting of these data is completed, the audio / video information recorded from the set reproduction start address to the reproduction end address is read from the audio / video storage means 4 and reproduced and displayed on the audio / video information reproduction means 9. You. In this way, it is possible to know the state of the meeting before and after the specified display information, such as the background before the specified display information is written and the description after the writing. It is also possible to configure to reproduce and display the audio / video information only before the storage of the designated display information or only after the storage until the storage of the next display information.

【0021】図10は、本発明の電子会議システムの第
2の実施例を示す概略構成図である。図中、図1と同様
の部分には同じ符号を付して説明を省略する。11は指
示動作検出手段である。指示動作検出手段11は、入力
手段2から入力される動作のうち、書き込みや消去を行
なわない動作を監視しており、書き込みや消去を行なわ
ない動作を検出する。会議のときには、発言者は表示さ
れた情報を指し示したり、表示部分を囲んで示して、説
明を加えることがしばしば行われる。これらの指示動作
は、入力手段2からのカーソルなどの移動により行われ
る。指示動作検出手段11では、これらの指示動作、例
えば、表示されている項目の下に線を引くような動作
や、表示されている項目を楕円で囲むような動作、表示
されている項目の前に丸を書くような動作、表示されて
いる項目をつつくような動作などを検出し、指示動作を
検出すると、インデックス情報生成手段6に対してイン
デックス情報の生成を依頼して、指示動作と音声映像情
報を対応づけて保存することができる。
FIG. 10 is a schematic configuration diagram showing a second embodiment of the electronic conference system of the present invention. In the figure, the same parts as those in FIG. Reference numeral 11 denotes an instruction operation detecting means. The instruction operation detecting unit 11 monitors an operation that does not perform writing or erasing among operations input from the input unit 2, and detects an operation that does not perform writing or erasing. At the time of a meeting, the speaker often points to the displayed information or surrounds the displayed portion to add an explanation. These instruction operations are performed by moving a cursor or the like from the input unit 2. The pointing operation detecting means 11 performs these pointing operations, for example, an operation of drawing a line below a displayed item, an operation of enclosing a displayed item with an ellipse, and a preceding operation of a displayed item. When detecting an operation such as writing a circle in the mark, an operation of pecking a displayed item, and the like, and instructing the index information generating means 6 to generate index information, the instruction operation and the audio are requested. The video information can be stored in association with the video information.

【0022】本発明の電子会議システムの第2の実施例
の動作を説明するが、指示動作検出手段11を除くその
他の動作は、第1の実施例の動作と同様であるので、こ
こでは、指示動作検出手段11による指示動作の検出及
び指示動作に基づくインデックス情報の生成動作につい
てのみ述べる。
The operation of the second embodiment of the electronic conference system according to the present invention will be described. The operation other than the instruction operation detecting means 11 is the same as the operation of the first embodiment. Only the detection of the instruction operation by the instruction operation detecting means 11 and the operation of generating index information based on the instruction operation will be described.

【0023】図11は、指示動作に基づくインデックス
情報生成処理の流れを示すフローチャートである。指示
動作検出手段11は、書き込みや消去を行なわない動
作、例えば、カーソルの移動等を監視しており、書き込
みや消去を行なわない動作を検出すると、S71におい
て、現在の音声映像情報の記録番地を取得するととも
に、S72において、カーソルの移動開始位置の座標を
取得する。次に、カーソルが動いた軌跡を取得するた
め、S73において、順次、カーソルの位置の座標を取
得し、S74において、カーソルが一定時間停止したか
否かを判断し、カーソルが一定時間停止するまで、S7
3におけるカーソルの位置の座標の取得が行われる。カ
ーソルが一定時間停止すると、S75において、取得し
たカーソルの座標から移動軌跡を求め、この移動軌跡
と、予め登録されている指示動作、例えば、表示されて
いる項目の下に線を引くような動作や、表示されている
項目を楕円で囲むような動作、表示されている項目の前
に丸を書くような動作、表示されている項目をつつくよ
うな動作などと一致するか否かを判断し、このような予
め登録されている指示動作を検出すると、S76におい
て、その指示動作に対応する指示位置を求め、指示位置
に対応する表示手段1上の座標を取得する。取得した指
示座標は、インデックス情報生成手段6に送られる。S
77において、インデックス情報生成手段6は、送られ
てきた指示座標が、今までに生成したインデックス情報
のうちのどれに対応しているかを調べ、対応するインデ
ックス情報を取得する。S78において、取得したイン
デックス情報を基に、指示された旨のインデックス情
報、すなわち、ポインティングインデックスと音声映像
情報の記憶番地を追加する。S79において、情報の追
加されたインデックス情報を保存し、指示動作に基づく
インデックス情報生成処理を終了する。S71で行った
音声映像情報の記憶番地の取得の処理は、S75におい
て、予め登録された指示動作と判断されてから、S78
において、インデックス情報を生成するまでの間のどこ
かで行うようにしてもよい。
FIG. 11 is a flowchart showing the flow of the index information generation process based on the instruction operation. The instruction operation detecting means 11 monitors an operation that does not perform writing or erasing, for example, movement of a cursor, and if an operation that does not perform writing or erasing is detected, in S71, the present audio-video information recording address is determined. At the same time, in S72, the coordinates of the movement start position of the cursor are obtained. Next, in order to acquire the trajectory of the movement of the cursor, the coordinates of the position of the cursor are sequentially acquired in S73, and in S74, it is determined whether or not the cursor has stopped for a certain period of time. , S7
The coordinates of the position of the cursor in 3 are obtained. When the cursor stops for a certain period of time, in S75, a movement locus is obtained from the acquired coordinates of the cursor, and this movement locus and an instruction operation registered in advance, for example, an operation of drawing a line below the displayed item. And whether it matches the action of enclosing the displayed item with an ellipse, the action of writing a circle in front of the displayed item, the action of pecking the displayed item, etc. When such an instruction operation registered in advance is detected, in S76, an instruction position corresponding to the instruction operation is obtained, and coordinates on the display unit 1 corresponding to the instruction position are acquired. The acquired designated coordinates are sent to the index information generating means 6. S
At 77, the index information generating means 6 checks which of the index information that has been sent corresponds to the index information generated so far, and acquires the corresponding index information. In S78, based on the obtained index information, the index information indicating the instruction, that is, the pointing index and the storage address of the audiovisual information are added. In S79, the index information with the added information is stored, and the index information generation processing based on the instruction operation ends. In the process of acquiring the storage address of the audiovisual information performed in S71, the process proceeds to S78 after it is determined in S75 that the instruction operation is registered in advance.
May be performed somewhere before the index information is generated.

【0024】図12は、指示動作に基づくインデックス
情報生成処理の具体例の説明図である。図12(A)
は、指示動作中の表示情報を示し、図12(B)は、指
示動作前のインデックス情報を示し、図12(C)は、
指示動作後のインデックス情報を示している。また、図
12(D)は、登録されている指示動作の例を示してい
る。
FIG. 12 is an explanatory diagram of a specific example of index information generation processing based on an instruction operation. FIG. 12 (A)
Shows the display information during the instruction operation, FIG. 12B shows the index information before the instruction operation, and FIG.
It shows the index information after the instruction operation. FIG. 12D shows an example of a registered instruction operation.

【0025】会議中に、表示情報を指し示す動作、例え
ば、図12(A)のように、入力手段によってカーソル
を動かし、表示情報の1つである「ア△△△△」の下を
アンダーラインを引くように指し示すと、指示動作検出
手段11はこれを検出し、カーソルの動きに対応して、
カーソルの表示画面上の座標位置を順次取得する。取得
した座標から、図12(D)に示すような、予め登録さ
れている指示動作のうちに、該当する動作があるかどう
かを判断する。図12(D)において、登録されている
指示動作は、直線、例えば、アンダーラインを引いたよ
うに指示動作を行った場合、楕円を描くように表示情報
を囲んだ場合、指示位置に小さな円を描くように指示動
作を行った場合の3つの指示動作が登録されている。こ
の他の指示動作、例えば、四角で囲む動作や、表示情報
をつつく動作などを登録しておくこともできる。各指示
動作には、その指示動作によって指示される指示位置が
設定されており、図12(A)のように、アンダーライ
ンを引くように指示動作が行われた場合には、アンダー
ラインの左端の少し上を指示位置として登録してある。
この指示位置は、指示動作によって指示された表示情報
が特定できる位置であればよく、例えば、アンダーライ
ンの中央部の位置でも、右端の位置でもよい。この具体
例では、表示情報の「ア」のあたりが指示位置となり、
この座標が指示座標として取得される。取得された指示
座標は、インデックス情報生成手段6に送られる。イン
デックス情報生成手段6では、図12(B)に示す指示
動作前のインデックス情報中から、送られてきた指示座
標をインデックス領域に含むようなインデックス情報を
検索する。そして、指示された「ア△△△△」に対応し
たインデックス番号「3C」を取得し、同じインデック
ス番号「3」に、ポインティングインデックスであるこ
とを示す「P」を付加したインデックス番号「3P」を
有するインデックス情報を生成する。このとき、生成前
に得ておいた音声映像情報の記憶番地「100150
0」とともに、インデックス情報の追加を行なう。追加
の行われた後のインデックス情報を図12(C)に示
す。インデックス領域の情報は不用なので、「−」が格
納されている。このようにして、会議中に表示情報が指
示された場合、指示された時の会議の様子や、表示情報
に対する説明などを、表示情報に対応付けて保存するこ
とができる。
During a meeting, an operation of pointing to display information, for example, as shown in FIG. 12A, a cursor is moved by an input means and an underline is displayed under "A" which is one of the display information. When the pointing operation is performed, the pointing operation detecting means 11 detects this, and in accordance with the movement of the cursor,
The coordinate positions of the cursor on the display screen are sequentially acquired. Based on the acquired coordinates, it is determined whether or not there is a corresponding operation among the instruction operations registered in advance as shown in FIG. In FIG. 12D, the registered pointing operation is a straight line, for example, when the pointing operation is performed as if an underline is drawn, when the display information is surrounded so as to draw an ellipse, a small circle is placed at the pointing position. Are registered when an instruction operation is performed so as to draw. It is also possible to register other instruction operations, for example, an operation of enclosing in a square, an operation of pecking display information, and the like. In each instruction operation, an instruction position indicated by the instruction operation is set. When the instruction operation is performed so as to draw an underline as shown in FIG. 12A, the left end of the underline is set. A little above is registered as the designated position.
The designated position may be any position at which the display information designated by the designated operation can be specified. For example, the designated position may be the center position of the underline or the right end position. In this specific example, the area around "A" in the display information is the designated position,
These coordinates are obtained as designated coordinates. The acquired designated coordinates are sent to the index information generating means 6. The index information generating means 6 searches the index information before the pointing operation shown in FIG. 12B for index information that includes the sent pointing coordinates in the index area. Then, an index number “3C” corresponding to the designated “A” is acquired, and an index number “3P” obtained by adding “P” indicating the pointing index to the same index number “3”. Is generated. At this time, the storage address “100150” of the audiovisual information obtained before the generation.
With "0", index information is added. FIG. 12C shows the index information after the addition is performed. Since the information of the index area is unnecessary, "-" is stored. In this way, when the display information is instructed during the meeting, the state of the meeting at the time of the instruction, the explanation for the display information, and the like can be stored in association with the display information.

【0026】図13は、本発明の電子会議システムの第
3の実施例を示す概略構成図である。図中、図1と同様
の部分には同じ符号を付して説明を省略する。12はイ
ンデックス情報ブラウズ手段である。
FIG. 13 is a schematic block diagram showing a third embodiment of the electronic conference system of the present invention. In the figure, the same parts as those in FIG. Reference numeral 12 denotes index information browsing means.

【0027】会議の終了した後や、会議の途中で、会議
の経緯を知りたいという要求が発生すると、上述の第
1,第2の実施例において保存されているインデックス
情報に基づいて、音声映像情報を再生することになる。
このインデックス情報を簡単に検索できるようにするた
め、保存している表示情報の一覧表示、すなわち、ブラ
ウズ表示が便利である。インデックス情報ブラウズ手段
12は、ユーザーからの指示に従い、インデックス情報
記憶手段7に保存されているインデックス情報を参照し
ながら、表示情報記憶手段3に保存されている表示情報
の一部分のみ、または、全部を縮小して、複数の表示情
報を表示手段1に表示させる。
When a request to know the history of the meeting occurs after the meeting or during the meeting, based on the index information stored in the above-described first and second embodiments, the audio-video The information will be reproduced.
In order to easily search the index information, a list display of the stored display information, that is, a browse display is convenient. The index information browsing unit 12 refers to the index information stored in the index information storage unit 7 and reads only a part or all of the display information stored in the display information storage unit 3 according to an instruction from the user. The display is reduced and the display means 1 displays a plurality of pieces of display information.

【0028】図14は、頁単位でのブラウズ表示時の表
示画面例の説明図である。何頁もの資料をもとに会議を
行っている場合、所望の表示情報がどの頁にあるかわか
らない場合もある。このようなときには、図14に示す
ように、各頁の表示情報をブラウズ表示することによ
り、所望の頁を確認し、選択することができる。図14
では、9頁の表示情報をそれぞれ縮小して1つの画面に
表示している。現在の表示情報は、太枠により表示され
ている。ここでは、6頁目が現在の表示情報である。1
0頁目以降の表示情報は、次頁の指定によりブラウズ表
示する表示情報を替えたり、スクロールするように構成
することもできる。表示する表示情報の頁数は、適宜決
めればよい。各頁の表示情報の下には、頁番号を一緒に
表示し、頁の選択を容易にしている。頁の選択は、頁数
の入力のほか、ブラウズ表示されている表示情報を指し
示すことにより選択できるようにすることも可能であ
る。
FIG. 14 is an explanatory diagram of an example of a display screen at the time of browse display in page units. When a meeting is held based on many pages of materials, it may not be possible to determine which page has desired display information. In such a case, by browsing and displaying the display information of each page as shown in FIG. 14, a desired page can be confirmed and selected. FIG.
In this example, the display information on page 9 is reduced and displayed on one screen. The current display information is displayed in a bold frame. Here, the sixth page is the current display information. 1
The display information of the 0th page and thereafter can be configured so that the display information to be browse-displayed is changed or scrolled by designating the next page. The number of pages of display information to be displayed may be determined as appropriate. A page number is displayed below the display information of each page to facilitate selection of the page. In addition to inputting the number of pages, it is also possible to select a page by pointing to browsed display information.

【0029】図15は、任意頁の時間経過に基づくブラ
ウズ表示時の表示画面例の説明図である。ある1頁を取
り出してみた場合、その1頁には、情報が追加され、ま
たは、削除される場合がある。情報の追加や、削除の経
緯を知りたい場合、本発明では、インデックス情報およ
び表示情報を保存している。そのため、保存しておいた
表示情報を、その頁の時間経過に基づきブラウズ表示す
ることにより、どのような経緯で最終的な表示情報が出
来上がったのかを知ることができるとともに、追加,削
除など、所望の操作について選択し、音声映像情報を得
ることが可能となる。図15では、選択された任意の頁
の表示情報を、会議の開始からの経過時間とともに、経
過時間順にブラウズ表示している。会議の開始からの経
過時間は、それぞれのインデックス情報とともに保存し
ておくことができる。また、画面の左上には、頁番号を
表示している。このブラウズ表示を確認し、所望の情報
の選択により、またはブラウズ表示されている表示情報
の選択を行ない、その後、所望の情報の選択を行なうこ
とにより、所望の情報の追加削除などの経緯に関する音
声映像情報を得ることができる。この表示例では、9枚
の表示情報を1度に表示できるように構成しているが、
表示情報の枚数や、各情報のレイアウトなどは、見やす
さなどにより、適宜変更可能である。10枚目以降の表
示情報についても、もちろん表示可能である。このと
き、スクロールできると、時間を追って表示情報を確認
することができる。また、本発明の第2の実施例のよう
に、指示動作により、インデックス情報が作成されてい
る場合には、その指示動作を含めて、ブラウズ表示を行
なうことができる。
FIG. 15 is an explanatory diagram of an example of a display screen at the time of browse display based on the passage of time of an arbitrary page. When a certain page is taken out, information may be added to or deleted from that one page. When it is desired to know the history of addition or deletion of information, the present invention stores index information and display information. Therefore, by browsing the stored display information based on the passage of time of the page, it is possible to know how the final display information was created, and to add or delete information. It is possible to select a desired operation and obtain audiovisual information. In FIG. 15, the display information of the selected arbitrary page is browsed and displayed in order of the elapsed time together with the elapsed time from the start of the conference. The elapsed time from the start of the conference can be stored together with the respective index information. The page number is displayed at the upper left of the screen. After confirming the browse display, the user selects desired information or selects the display information displayed in the browse mode, and then selects the desired information. Video information can be obtained. In this display example, the configuration is such that nine pieces of display information can be displayed at one time.
The number of pieces of display information, the layout of each piece of information, and the like can be appropriately changed depending on the visibility. Of course, the display information for the tenth and subsequent sheets can also be displayed. At this time, if the user can scroll, the display information can be confirmed over time. When index information is created by an instruction operation as in the second embodiment of the present invention, browse display can be performed including the instruction operation.

【0030】図16は、会議の時間経過に基づくブラウ
ズ表示時の表示画面例の説明図である。任意の1頁の時
間経過だけでなく、時間経過に基づく会議全体の流れを
知りたいことも多い。そのような場合、会議の時間経過
に基づき、表示情報がブラウズ表示できれば、会議の流
れを容易に把握することができる。図16では、会議の
時間経過に基づき、表示情報と、表示情報の頁番号、会
議開始からの経過時間を組にして、12枚の表示情報を
1つの表示画面にブラウズ表示している。また、現在の
表示情報は、太枠で囲まれている。会議の開始時間は、
左上に表示されている。これらの表示を確認し、所望の
表示情報を選択し、会議の経緯を音声映像情報により知
ることができる。表示されている項目のレイアウトおよ
び表示方法は、適宜変更可能である。また、1つの表示
画面に表示する表示情報の枚数も変更可能である。13
枚目以降の表示情報についても、もちろん表示可能であ
る。ブラウズ表示する表示情報は、保存されている表示
情報のすべてでなくともよく、ある条件により、ピック
アップしてブラウズ表示することも可能である。このよ
うにすると、長時間の会議の場合でも、会議の流れを把
握することができる。
FIG. 16 is an explanatory diagram of an example of a display screen at the time of browse display based on the passage of time of a conference. Often, one wants to know not only the time lapse of an arbitrary page, but also the flow of the entire meeting based on the time lapse. In such a case, if the display information can be browsed and displayed based on the elapsed time of the meeting, the flow of the meeting can be easily grasped. In FIG. 16, the display information, the page number of the display information, and the elapsed time from the start of the conference are grouped based on the elapsed time of the conference, and the 12 pieces of display information are browsed and displayed on one display screen. The current display information is surrounded by a bold frame. The meeting start time is
It is displayed on the upper left. The user can confirm these displays, select desired display information, and know the history of the conference from the audiovisual information. The layout and display method of the displayed items can be changed as appropriate. The number of pieces of display information displayed on one display screen can also be changed. 13
Of course, the display information of the subsequent sheets can also be displayed. The display information to be browse-displayed may not be all of the stored display information, but may be picked up and browse-displayed under certain conditions. In this way, even in the case of a long-time conference, the flow of the conference can be grasped.

【0031】第3の実施例において、インデックス情報
ブラウズ手段12を設けたことにより、上述のように様
々な形式でのブラウズ表示を行なうことができ、表示手
段1上で指示するだけで所望の音声映像情報が再現でき
るので、会議後あるいは会議中に参照、利用することに
より、議論の経緯を容易に再現することができる。
In the third embodiment, the browsing display in various formats can be performed by providing the index information browsing means 12 as described above. Since the video information can be reproduced, the details of the discussion can be easily reproduced by referring to and using the information after or during the conference.

【0032】図17は、本発明の電子会議システムの第
4の実施例を示す概略構成図である。図中、図1と同様
の部分には同じ符号を付して説明を省略する。13はイ
ンデックス情報構造化手段である。インデックス情報構
造化手段13は、ユーザーが指定するインデックス情報
の関係を、ユーザー定義項目としてインデックス情報に
追加する処理を行なう。このユーザー定義項目には、文
字,数値,他のインデックスの指定など、自由に記述す
ることができる。このユーザー定義項目により各インデ
ックスを自由に構造化することが可能となる。また、ユ
ーザー定義項目は、複数の定義ができ、より自由な構造
化を可能としている。このユーザー定義項目は、音声映
像情報の再生表示のときや、第3の実施例のようにブラ
ウズ表示のときに使用され、定義されている項目に従っ
て再生表示や、ブラウズ表示等が行なわれる。
FIG. 17 is a schematic block diagram showing a fourth embodiment of the electronic conference system of the present invention. In the figure, the same parts as those in FIG. Reference numeral 13 denotes an index information structuring unit. The index information structuring unit 13 performs a process of adding the relationship of the index information specified by the user to the index information as a user-defined item. In this user-defined item, characters, numerical values, designation of other indexes, and the like can be freely described. With this user-defined item, each index can be freely structured. In addition, a plurality of user-defined items can be defined, enabling more flexible structuring. The user-defined items are used when reproducing and displaying audio-video information or when browsing as in the third embodiment, and the reproduction and browsing are performed according to the defined items.

【0033】図18は、本発明の電子会議システムの第
4の実施例の具体例の説明図である。図18(A)は、
表示情報を示し、図18(B)は、インデックス情報を
示している。図18(A)のような表示情報の場合、第
1の実施例でも述べたように、インデックス情報として
は、インデックス番号、インデックス領域、音声映像情
報記憶番地等が保存される。インデックス情報構造化手
段13により、各インデックスに対して、n個のユーザ
ー定義項目が付加される場合、図18(B)のようなイ
ンデックス情報となる。例えば、インデックス番号「2
C」には、ユーザー定義項目1として、「サブテーマ」
が付加され、また、ユーザー定義項目nには、「1−2
−3C」が付加されている。また、インデックス番号
「3C」には、ユーザー定義項目1として「選択枝1」
が、インデックス番号「4C」には、「選択枝2」が付
加されている。例えば、第3の実施例のように、ブラウ
ズ表示の機能がある場合、ユーザー定義項目が付加され
ていると、このユーザー定義項目を参照し、条件に合致
するインデックス情報を検索して、表示情報をブラウズ
表示することができる。具体的には、ユーザーからユー
ザー定義項目1に「選択枝」という情報が存在する表示
情報をブラウズ表示するように指示されると、インデッ
クス情報ブラウズ手段12は、インデックス情報記憶手
段7の中から、「選択枝」の情報がユーザー定義項目1
に存在するインデックス情報、すなわち、インデックス
番号「3C」,「4C」を検索し、対応する表示情報を
表示情報記憶手段3から集めてブラウズ表示を行なう。
このように、インデックス情報構造化手段13と、イン
デックス情報ブラウズ手段12を組み合わせて用いるこ
とにより、いろいろな条件でブラウズ表示を行なうこと
ができる。また、他のインデックスの指定をユーザー定
義項目に持つ場合、ユーザー定義項目に書かれたインデ
ックスの指定に従って、順次、音声映像記憶番地を取得
し、必要な音声映像情報の再生表示を行なう。例えば、
インデックス番号「2C」のユーザー定義項目nにおい
て「1−2−3C」のように、インデックス1,2,3
が指定されていると、インデックス番号「2C」の音声
映像情報の再生表示が指示されたときには、インデック
ス番号「1C」,「2C」,「3C」の順で音声映像情
報記憶番地が取得され、音声映像情報の再生表示が順次
行なわれる。このようにして、会議中に保存された表示
情報および音声映像情報に、ユーザー定義項目を付加す
ることにより、ユーザー独自の分類により会議中の情報
を整理し、必要なときに迅速に会議の情報を検索するこ
とができる。
FIG. 18 is an explanatory diagram of a specific example of the fourth embodiment of the electronic conference system of the present invention. FIG. 18 (A)
FIG. 18B shows display information, and FIG. 18B shows index information. In the case of display information as shown in FIG. 18A, as described in the first embodiment, an index number, an index area, an audio-video information storage address, and the like are stored as index information. When n user-defined items are added to each index by the index information structuring means 13, the index information becomes as shown in FIG. For example, the index number "2
"C" has "sub-theme" as user-defined item 1.
Is added, and “1-2” is added to the user-defined item n.
-3C ". The index number “3C” has “selection 1” as the user-defined item 1.
However, “selection 2” is added to the index number “4C”. For example, when a browse display function is provided as in the third embodiment, if a user-defined item is added, the user-defined item is referred to, index information matching the condition is searched, and the display information is searched. Can be browsed and displayed. Specifically, when the user instructs to browse and display the display information in which the information “selection” exists in the user-defined item 1, the index information browsing unit 12 reads the index information from the index information storage unit 7. "Selection" information is user defined item 1
Is retrieved, that is, index numbers "3C" and "4C" are retrieved, and corresponding display information is collected from the display information storage means 3 and browsed.
As described above, by using the index information structuring unit 13 and the index information browsing unit 12 in combination, browse display can be performed under various conditions. When another index is specified in the user-defined item, the audio-video storage addresses are sequentially acquired in accordance with the index specified in the user-defined item, and the necessary audio-video information is reproduced and displayed. For example,
In the user-defined item n of the index number “2C”, as in “1-2-3C”, the indexes 1, 2, 3
Is designated, when the reproduction and display of the audiovisual information of the index number "2C" is instructed, the audiovisual information storage addresses are acquired in the order of the index numbers "1C", "2C", and "3C", The reproduction and display of the audiovisual information is sequentially performed. In this way, by adding user-defined items to the display information and audio / video information stored during the meeting, the information during the meeting can be organized according to the user's own classification, and the information of the meeting can be quickly obtained when necessary. Can be searched.

【0034】上述した第1乃至4の実施例で説明した手
段を、適宜組み合わせて構成することもできる。例え
ば、第4の実施例でも述べたように、第4の実施例のイ
ンデックス情報構造化手段13と、第3の実施例で説明
したインデックス情報ブラウズ手段12を組み合わせて
構成したり、さらに、第2の実施例で説明した指示動作
検出手段11を組み合わせることも可能である。
The means described in the first to fourth embodiments can be combined as appropriate. For example, as described in the fourth embodiment, the index information structuring unit 13 of the fourth embodiment may be combined with the index information browsing unit 12 described in the third embodiment. It is also possible to combine the instruction operation detecting means 11 described in the second embodiment.

【0035】[0035]

【発明の効果】以上の説明から明らかなように、本発明
によれば、会議における議事内容である表示情報だけで
なく、議事内容の記録される過程における会議情報の会
話や身振りなども記録することができる。このことによ
り、従来のように議事録等の記載だけでは記録されない
経緯等が失われることなく、記録し、再現することがで
きるという効果がある。このとき、議事内容が削除され
た場合でも、インデックス情報が生成され、削除前の表
示情報とともに保存されるので、修正や処理された経緯
や、削除された部分の音声映像情報も再現することがで
きる。会議中、音声映像情報は会議開始から終了まで連
続してなされ、インデックスはその音声映像情報に対
し、自動生成されるので、会議参加者の発言や身振りを
もれなく記録することができる、という効果もある。
As is apparent from the above description, according to the present invention, not only the display information which is the contents of the meeting in the meeting, but also the conversation and the gesture of the meeting information in the process of recording the contents of the meeting are recorded. be able to. As a result, there is an effect that recording and reproduction can be performed without losing a process or the like that is not recorded only by describing minutes or the like as in the related art. At this time, even if the contents of the agenda are deleted, the index information is generated and stored together with the display information before the deletion, so that the details of the correction and processing and the audio / video information of the deleted part can be reproduced. it can. During the conference, audio and video information is continuously generated from the start to the end of the conference, and an index is automatically generated for the audio and video information, so that the speech and gesture of the conference participants can be recorded without omission. is there.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の電子会議システムの第1の実施例を
示す概略構成図である。
FIG. 1 is a schematic configuration diagram showing a first embodiment of an electronic conference system of the present invention.

【図2】 本発明の電子会議システムの第1の実施例の
動作を説明するためのフローチャートである。
FIG. 2 is a flowchart for explaining the operation of the first embodiment of the electronic conference system of the present invention.

【図3】 本発明の電子会議システムの第1の実施例に
おけるインデックス生成処理の流れを示すフローチャー
トである。
FIG. 3 is a flowchart showing a flow of an index generation process in the first embodiment of the electronic conference system of the present invention.

【図4】 新しい頁のインデックス情報の説明図であ
る。
FIG. 4 is an explanatory diagram of index information of a new page.

【図5】 書き込みによるインデックス情報の追加の説
明図である。
FIG. 5 is an explanatory diagram of adding index information by writing.

【図6】 消去によるインデックス情報の追加の説明図
である。
FIG. 6 is an explanatory diagram of adding index information by erasing;

【図7】 1つの頁の表示情報とそれに対応するインデ
ックス情報の変化の説明図である。
FIG. 7 is an explanatory diagram of a change in display information of one page and index information corresponding thereto.

【図8】 本発明の電子会議システムの第1の実施例に
おける音声映像情報再生処理の流れを示すフローチャー
トである。
FIG. 8 is a flowchart showing a flow of audio / video information reproduction processing in the first embodiment of the electronic conference system of the present invention.

【図9】 音声映像情報再生処理の具体例の説明図であ
る。
FIG. 9 is an explanatory diagram of a specific example of audio-video information reproduction processing.

【図10】 本発明の電子会議システムの第2の実施例
を示す概略構成図である。
FIG. 10 is a schematic configuration diagram showing a second embodiment of the electronic conference system of the present invention.

【図11】 指示動作に基づくインデックス情報生成処
理の流れを示すフローチャートである。
FIG. 11 is a flowchart illustrating a flow of index information generation processing based on an instruction operation.

【図12】 指示動作に基づくインデックス情報生成処
理の具体例の説明図である。
FIG. 12 is an explanatory diagram of a specific example of index information generation processing based on an instruction operation.

【図13】 本発明の電子会議システムの第3の実施例
を示す概略構成図である。
FIG. 13 is a schematic configuration diagram showing a third embodiment of the electronic conference system of the present invention.

【図14】 頁単位でのブラウズ表示時の表示画面例の
説明図である。
FIG. 14 is an explanatory diagram of an example of a display screen at the time of browse display in page units.

【図15】 任意頁の時間経過に基づくブラウズ表示時
の表示画面例の説明図である。
FIG. 15 is an explanatory diagram of an example of a display screen at the time of browse display based on the passage of time of an arbitrary page.

【図16】 会議の時間経過に基づくブラウズ表示時の
表示画面例の説明図である。
FIG. 16 is an explanatory diagram of an example of a display screen at the time of browse display based on the passage of time of a conference.

【図17】 本発明の電子会議システムの第4の実施例
を示す概略構成図である。
FIG. 17 is a schematic configuration diagram showing a fourth embodiment of the electronic conference system of the present invention.

【図18】 本発明の電子会議システムの第4の実施例
の具体例の説明図である。
FIG. 18 is an explanatory diagram of a specific example of the fourth embodiment of the electronic conference system of the present invention.

【符号の説明】[Explanation of symbols]

1…表示手段、2…入力手段、3…表示情報記憶手段、
4…音声映像記憶手段、5…入力間隔検出手段、6…イ
ンデックス情報生成手段、7…インデックス情報記憶手
段、8…音声映像情報呼出手段、9…音声映像情報再生
手段、10…音声映像入力手段、11…指示動作検出手
段、12…インデックス情報ブラウズ手段、13…イン
デックス情報構造化手段。
1 display means, 2 input means, 3 display information storage means,
4 audio-video storage means, 5 input interval detection means, 6 index information generation means, 7 index information storage means, 8 audio-video information calling means, 9 audio-video information reproduction means, 10 audio-video input means .. 11 instruction operation detecting means, 12 index information browsing means, 13 index information structuring means.

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成13年8月3日(2001.8.3)[Submission date] August 3, 2001 (2001.8.3)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】特許請求の範囲[Correction target item name] Claims

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【特許請求の範囲】[Claims]

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0005[Correction target item name] 0005

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0005】[0005]

【課題を解決するための手段】本発明は、電子会議シス
テムにおいて、表示手段と、前記表示手段に表示させる
情報を入力する入力手段と、前記表示手段に表示された
情報を記憶する表示情報記憶手段と、会議参加者の音声
および映像を入力する音声映像入力手段と、前記音声映
像入力手段に入力された音声および映像を記憶する音声
映像記憶手段と、前記音声映像記憶手段から音声映像情
報を呼び出す音声映像呼出手段と、前記音声映像呼出手
段により呼び出された音声映像情報を再生する音声映像
情報再生手段を有することを特徴とするものである。
According to the present invention, in an electronic conference system, display means, input means for inputting information to be displayed on the display means, and display information storage for storing information displayed on the display means. Means, audio-video input means for inputting audio and video of conference participants, audio-video storage means for storing audio and video input to the audio-video input means, and audio-video information from the audio-video storage means. It is characterized by having audio-video calling means for calling and audio-video information reproducing means for reproducing audio-video information called by the audio / video calling means.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 表示手段と、前記表示手段に表示させる
情報を入力する入力手段と、前記表示手段に表示された
情報を記憶する表示情報記憶手段と、会議参加者の音声
および映像を入力する音声映像入力手段と、前記音声映
像入力手段に入力された音声および映像を記憶する音声
映像記憶手段と、前記入力手段からの入力の間隔を検出
する入力間隔検出手段と、前記入力間隔検出手段の検出
結果または利用者からの指示に基づき前記表示情報記憶
手段に記憶されている表示情報と前記音声映像記憶手段
に記憶されている音声映像情報を対応づけるインデック
ス情報を生成するインデックス生成手段と、前記インデ
ックス生成手段により生成されたインデックス情報を記
憶するインデックス情報記憶手段と、前記インデックス
情報記憶手段に記憶されたインデックス情報を基に前記
音声映像記憶手段から音声映像情報を呼び出す音声映像
呼出手段と、前記音声映像呼出手段により呼び出された
音声映像情報を順次再生する音声映像情報再生手段を有
することを特徴とする電子会議システム。
1. Display means, input means for inputting information to be displayed on the display means, display information storage means for storing information displayed on the display means, and input of audio and video of conference participants Audio-video input means, audio-video storage means for storing audio and video input to the audio-video input means, input interval detection means for detecting an input interval from the input means, and input interval detection means An index generation unit that generates index information that associates display information stored in the display information storage unit with audio-video information stored in the audio-video storage unit based on a detection result or an instruction from a user; Index information storage means for storing the index information generated by the index generation means, and storage in the index information storage means Audio / video calling means for calling audio / video information from the audio / video storage means based on the index information obtained, and audio / video information reproducing means for sequentially reproducing the audio / video information called by the audio / video calling means. Electronic conference system.
JP2001204207A 2001-07-05 2001-07-05 Electronic conference system Pending JP2002101398A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001204207A JP2002101398A (en) 2001-07-05 2001-07-05 Electronic conference system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001204207A JP2002101398A (en) 2001-07-05 2001-07-05 Electronic conference system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP01689193A Division JP3266959B2 (en) 1993-01-07 1993-01-07 Electronic conference system

Publications (1)

Publication Number Publication Date
JP2002101398A true JP2002101398A (en) 2002-04-05

Family

ID=19040712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001204207A Pending JP2002101398A (en) 2001-07-05 2001-07-05 Electronic conference system

Country Status (1)

Country Link
JP (1) JP2002101398A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293589A (en) * 2004-03-30 2005-10-20 Ricoh Co Ltd Method for creating compound electronic expressive article, computer program and data processing system
JP2007179083A (en) * 2005-12-26 2007-07-12 Fuji Xerox Co Ltd Conference system, control method therefor and program
WO2018168508A1 (en) 2017-03-14 2018-09-20 ソニー株式会社 Recording device, recording method, playback device, playback method, and recording/playback device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293589A (en) * 2004-03-30 2005-10-20 Ricoh Co Ltd Method for creating compound electronic expressive article, computer program and data processing system
JP2007179083A (en) * 2005-12-26 2007-07-12 Fuji Xerox Co Ltd Conference system, control method therefor and program
WO2018168508A1 (en) 2017-03-14 2018-09-20 ソニー株式会社 Recording device, recording method, playback device, playback method, and recording/playback device
CN110383830A (en) * 2017-03-14 2019-10-25 索尼公司 Recording device, recording method, transcriber, reproducting method and data recording/reproducing device
KR20190122709A (en) 2017-03-14 2019-10-30 소니 주식회사 Recording device, recording method, playback device, playback method and recording and playback device
EP3598742A4 (en) * 2017-03-14 2020-01-22 Sony Corporation Recording device, recording method, playback device, playback method, and recording/playback device
US10714146B2 (en) 2017-03-14 2020-07-14 Sony Corporation Recording device, recording method, reproducing device, reproducing method, and recording/reproducing device
CN110383830B (en) * 2017-03-14 2022-02-18 索尼公司 Recording device, recording method, reproducing device, reproducing method, and recording/reproducing device

Similar Documents

Publication Publication Date Title
JP3266959B2 (en) Electronic conference system
US6332147B1 (en) Computer controlled display system using a graphical replay device to control playback of temporal data representing collaborative activities
US5786814A (en) Computer controlled display system activities using correlated graphical and timeline interfaces for controlling replay of temporal data representing collaborative activities
US5717869A (en) Computer controlled display system using a timeline to control playback of temporal data representing collaborative activities
US5717879A (en) System for the capture and replay of temporal data representing collaborative activities
US5818436A (en) Apparatus and method for playing back continuous data
JP4347223B2 (en) System and method for annotating multimodal characteristics in multimedia documents
JPH10268996A (en) System for writing in digital notebook
JP2008084110A (en) Information display device, information display method and information display program
JP2007148904A (en) Method, apparatus and program for presenting information
JPH05334374A (en) System for scene information input and method therefor
US5546565A (en) Input/output apparatus having a pen, and method of associating and processing handwritten image data and voice data
JP2005228178A (en) System and program for supporting preparation of written text
JP6865015B2 (en) Information display device
KR101523971B1 (en) Terminal executing function of voice recording and method for processing image thereof
JP2018180519A (en) Voice recognition error correction support device and program therefor
CN111787391A (en) Information card display method, device, equipment and storage medium
JP2002101398A (en) Electronic conference system
CN115437736A (en) Method and device for recording notes
JP3409999B2 (en) Data editing device and data editing method
JP2006164005A (en) Device and program for outputting file information
JP2011095809A (en) Presentation support system
JP2005284490A (en) Data recording device and data regenerating device
KR101775626B1 (en) Apparatus for recording and playing written contents and method for controlling the same
JP2019144507A (en) Output device, data output system, and outputting method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050506