JP2005222431A - Cooperative work system - Google Patents

Cooperative work system Download PDF

Info

Publication number
JP2005222431A
JP2005222431A JP2004031517A JP2004031517A JP2005222431A JP 2005222431 A JP2005222431 A JP 2005222431A JP 2004031517 A JP2004031517 A JP 2004031517A JP 2004031517 A JP2004031517 A JP 2004031517A JP 2005222431 A JP2005222431 A JP 2005222431A
Authority
JP
Japan
Prior art keywords
character string
input
data
media data
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004031517A
Other languages
Japanese (ja)
Inventor
Yusuke Kano
雄介 狩野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004031517A priority Critical patent/JP2005222431A/en
Publication of JP2005222431A publication Critical patent/JP2005222431A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system for recording/filing, in a form allowing easy reuse, a character string (chat) by user input, and the other media such as a voice, video in synchronous communications such as a conference. <P>SOLUTION: Monitoring means 24, 25 monitor the input of the other media data. An association processing means 21 associates by inserting character string notations M1, M2... specifying the other media data, in a location in character string data by the user input corresponding to the inputted other media data at input time timing. An association filing means 22 records associated information on the character string data by the user input and the other media data. Furthermore, a display means 14 outputs the character string by the user input and the character string notations of the other media data in accordance with the associated information by using a recording file and by the control of a conference reproduction control means 16. The other media data corresponding to the character string notations are reproduced and outputted on condition that the picture of the character string notations is displayed. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、不連続な複数の文字列からなるデータに対して、当該文字列データを入力した同じ作業環境において入力された他のメディアデータを関連付けて記録する技術に関し、例えば、ネットワーク技術を利用した会議システムのように、複数のユーザが各々端末を用いて共同して作業するシステムに適用して好適な技術に関する。   The present invention relates to a technique for recording data composed of a plurality of discontinuous character strings in association with other media data input in the same work environment in which the character string data is input. For example, using network technology The present invention relates to a technique suitable for being applied to a system in which a plurality of users work together using terminals, such as a conference system.

コンピュータ技術及びネットワーク通信技術の発展により、ユーザ端末をネットワーク接続したシステムを用いて複数のユーザ間でリアルタイムにコミュニケーションを図ることが行われている。
このようなコミュニケーションには、ユーザ端末に接続したマイクロフォンとスピーカを用いた音声通信の他、ユーザ端末からキーボード操作で入力した文字列を各ユーザ端末の画面に時系列に表示するチャットも利用されている。
With the development of computer technology and network communication technology, real-time communication among a plurality of users has been attempted using a system in which user terminals are connected to a network.
For such communication, in addition to voice communication using a microphone and a speaker connected to the user terminal, a chat that displays a character string input from the user terminal by a keyboard operation on the screen of each user terminal is also used. Yes.

このようなチャットにおいては、コミュニケーションに参加している各ユーザのキャラクタを各ユーザ端末の画面に表示して、或るユーザは「ははは」と言った特定の文字列を入力した場合に、当該ユーザのキャラクタを笑い動作させると言ったイベントを発生させる技術が知られている(特許文献1参照。)。
また、ユーザ端末の三次元ブラウザを用いてチャットを行い、文字列内に特定のコマンドが存在するときには、当該文字列を三次元化する技術が知られている(特許文献2参照。)。
In such a chat, when a character of each user participating in communication is displayed on the screen of each user terminal and a certain user inputs a specific character string such as “hahaha”, A technique for generating an event that causes the user's character to laugh is known (see Patent Document 1).
Also, a technique is known in which chat is performed using a three-dimensional browser of a user terminal, and when a specific command exists in the character string, the character string is three-dimensionalized (see Patent Document 2).

また、同様な遠隔同期コミュニケーションを実現するネットワークシステムにより文字列によるチャットの他、音声、画像(動画、静止画)、図形等の様々なメディアを用いて、複数のユーザ間での会議、講演、講義等を実現するシステムも知られており、例えば、ウェブ会議システムとして実現されている。
特開2002―325965号公報 特開2002―288101号公報
In addition to chatting with character strings using a network system that realizes similar remote synchronous communication, various media such as voice, images (moving images, still images), graphics, etc. can be used for meetings, lectures, A system for realizing a lecture or the like is also known, for example, a web conference system.
JP 2002-325965 A JP 2002-288101 A

上記のように同期コミュニケーションにおいては、ユーザ入力による文字列(チャット)に加えて、音声、動画(ビデオ)、共同作業環境で共有されるホワイトボード上に描かれた図形等の様々なメディアが用いられるが、この共同作業をそのまま記録してファイリングした場合には、この記録ファイルを後に利用することが煩雑であるという課題があった。   As described above, in synchronous communication, various media such as voice, video (video), graphics drawn on a whiteboard shared in a collaborative work environment, etc. are used in addition to a character string (chat) input by a user. However, when this collaborative work is recorded and filed as it is, there is a problem that it is complicated to use the recorded file later.

具体的には、コンピュータにより記録ファイルを読み出して再生した場合、ユーザ入力の文字列による発言記録は、各文字列が時間的に間欠的なものであり、また、各文字列の内容が簡潔であるので、これら記録された複数の文字列を画面上でスクロール表示等すれば、ユーザは目的とする文字列を容易に見付け出すことができる。これに対して、会議で表示された或るビデオを再生したい場合、或いは、会議で表示された或る文献の或るページの画像を再生したい場合、或いは、会議中で音声により発言された或る事項を再生したい場合、会議中でホワイトボードに描かれた或る図形を再生したい場合等では、場合によっては記録ファイルを全て再生しなければ目的とする部分を見付け出して再生することができず、会議の収録時と同じ位の時間が要する煩雑な作業となってしまう。   Specifically, when a recorded file is read out and played back by a computer, the utterance recording by a character string input by the user is such that each character string is intermittent in time, and the contents of each character string are concise. Therefore, if the plurality of recorded character strings are scroll-displayed on the screen, the user can easily find the target character string. On the other hand, when you want to play a certain video displayed at a meeting, or when you want to play an image of a certain page of a document displayed at a meeting, If you want to replay the information that you want to replay, or if you want to replay a graphic drawn on the whiteboard during a meeting, you can find and replay the target part if you do not replay all the recorded files. Therefore, it becomes a complicated work that requires as much time as the recording of the conference.

本発明は、上記従来の事情に鑑みなされたもので、ユーザ入力された文字列データと音声やビデオ等の他のメディアデータとを使用した作業環境に対して、文字列データの性質を利用してこれらデータ間の関連付けを行うことで、再利用し易い記録ファイルを作成することを目的としている。
また、本発明は、ユーザ入力された文字列データ(複数が間欠的に連続するデータ)と音声やビデオ等の他のメディアデータ(例えば時間的に切れ目なく連続するデータや複数ページの文書を各ページ毎にめくって表示したような複数が間欠的に連続するデータ等のユーザ入力された文字列データとは異なる種類のデータ)とを使用した作業環境に対して、間欠的データの性質を利用して連続データを関連付けることで、再利用し易い記録ファイルを作成することを目的としている。
また、本発明は、このような記録ファイルを作成することにより、共同作業記録の再利用を容易にすることを目的としている。
なお、本発明の更なる目的は、以下に説明するところにより明らかである。
The present invention has been made in view of the above-described conventional circumstances, and utilizes the property of character string data for a work environment using character string data input by a user and other media data such as voice and video. The purpose of this is to create a recording file that can be easily reused by associating these data.
In addition, the present invention also includes character string data input by the user (a plurality of intermittently continuous data) and other media data such as voice and video (for example, continuous data that is continuous in time and a document of a plurality of pages). Uses the nature of intermittent data for work environments that use data that is different from user-entered character string data, such as data that is displayed intermittently on a page-by-page basis. The purpose is to create a recording file that can be easily reused by associating continuous data.
Another object of the present invention is to facilitate the reuse of collaborative work records by creating such a record file.
Further objects of the present invention will be apparent from the following description.

本発明に係るファイリング装置は、ユーザ入力された複数の文字列データ(例えば、メッセージ、コメント、メモ等のテキストデータ)と、当該文字列データ入力を行った同じ作業環境に入力された文字列と異なる種類の他のメディアデータ(例えば、音声、画像、アプリケーションデータ等の連続データ)とを関連付けて記録する装置であって、監視手段が他のメディアデータの入力を監視し、関連付け手段が入力された他のメディアデータを入力時間タイミングで対応するユーザ入力の文字列データ中の位置に当該他のメディアデータを特定する文字列表記を挿入して関連付け、ファイリング手段がユーザ入力の文字列データと他のメディアデータとの関連情報を記録する。
したがって、チャット形式でユーザ入力される毎の間欠的な時系列で蓄積される複数の文字列中の他のメディアデータの入力があった位置に当該他のメディアデータがチャットと同様な文字列表示を挿入して形式で関連付られる。
The filing device according to the present invention includes a plurality of character string data input by a user (for example, text data such as a message, a comment, and a memo), and a character string input in the same work environment where the character string data is input. A device that records other media data of different types (for example, continuous data such as voice, image, application data, etc.) in association with each other, the monitoring means monitors the input of other media data, and the association means is input In addition, a character string notation that identifies the other media data is inserted at the position in the character string data of the user input corresponding to the input time timing and related to the other media data, and the filing means associates the character string data of the user input with the other Record related information with other media data.
Therefore, the other media data is displayed in the same character string as the chat at the position where the other media data is input in a plurality of character strings accumulated in intermittent time series every time the user input in the chat format. Is associated with the form.

また、本発明に係る再生装置は、上記のようにして作成された記録ファイルを利用し、表示手段がファイリング手段に記憶された関連情報にしたがってユーザ入力の文字列と他のメディアデータの文字列表記とを表示出力し、再生手段が、文字列表記の画面表示を条件に、当該文字列表示に対応する他のメディアデータを再生出力する。
したがって、例えば、文字列表記が画面表示されることに応じて自動的に、或いは、画面表示された文字列表示をユーザが選択したことに応じて、チャット中の対応位置に同じような文字列表記が再生表示され、当該文字列表記によって当該位置でどのようなメディアデータが使用されていたかをユーザが一目で判別し得るようになるとともに、当該メディアデータを再生出力することができる。
Also, the playback device according to the present invention uses the recording file created as described above, and the display means displays a character string table of user input character strings and other media data according to the related information stored in the filing means. The reproduction means reproduces and outputs other media data corresponding to the character string display on the condition that the character string is displayed on the screen.
Therefore, for example, a character string table similar to the corresponding position in the chat depending on whether the character string notation is displayed on the screen automatically or when the user selects the character string display displayed on the screen. Is reproduced and displayed, and the user can discriminate at a glance what kind of media data is used at the position by the character string notation, and the media data can be reproduced and output.

本発明は、会議、講演、講義等のように複数のユーザが参加して何らかのコミュニケーションを図る環境を提供する共同作業システムとして実現することができ、他のメディアデータの入力を監視する監視手段、入力された前記他のメディアデータを入力時間タイミングで対応するユーザ入力の文字列データ中の位置に当該他のメディアデータを特定する文字列表記を挿入することによって関連付ける関連付け手段、ユーザ入力の文字列データと他のメディアデータとの関連情報を記録するファイリング手段と言った機能は、各ユーザ端末とネットワークで接続される管理装置(管理サーバ)において実現してもよく、また、管理装置とユーザ端末とで分担して実現してもよく、また、このような管理装置を設けずに、ユーザ端末において実現してもよい。   The present invention can be realized as a collaborative work system that provides an environment in which a plurality of users participate and perform some kind of communication such as conferences, lectures, lectures, etc., and monitoring means for monitoring the input of other media data, Associating means for associating the inputted other media data by inserting a character string notation that identifies the other media data at a position in the character string data of the user input corresponding to the input time timing, a character string of the user input A function called filing means for recording related information between data and other media data may be realized in a management device (management server) connected to each user terminal via a network. Also, the management device and the user terminal It is also possible to implement this in a user terminal without providing such a management device. It may be.

したがって、本発明は、時系列でユーザ入力された文字列からなるテキストデータと当該文字列入力の際に入力されたテキストデータとは異なる種類の他のメディアデータとを含む作業フィールドを複数のユーザ端末をネットワーク接続して構成したファイリング方法でもあり、 ネットワーク上に接続された管理サーバが、ユーザ端末に画面表示される文字列中の入力時間で対応する位置に入力された他のメディアデータを特定する文字列表記を挿入するとともに、ユーザ入力文字列データと他のメディアデータとの関連情報を記録するファイリング方法である。   Therefore, the present invention provides a work field including text data composed of character strings input by a user in time series and other media data of a different type from the text data input at the time of inputting the character strings to a plurality of users. It is also a filing method configured by connecting terminals to the network, and the management server connected on the network identifies other media data input at the corresponding position in the input time in the character string displayed on the screen of the user terminal This is a filing method that inserts a character string notation and records related information between user input character string data and other media data.

また、本発明は、ユーザ入力された複数の文字列データと、当該文字列データ入力を行った同じ作業環境に入力された文字列と異なる種類の他のメディアデータとを関連付けて記録するファイリング方法であって、コンピュータにより監視手段と、関連付け手段と、ファイリング手段とを構成し、監視手段が他のメディアデータの入力を監視し、関連付け手段が入力された前記他のメディアデータを入力時間タイミングで対応するユーザ入力の文字列データ中の位置に当該他のメディアデータを特定する文字列表記を挿入して関連付け、ファイリング手段がユーザ入力の文字列データと他のメディアデータとの関連情報を記録するファイリング方法である。   The present invention also relates to a filing method for associating and recording a plurality of character string data input by a user and a character string input in the same work environment in which the character string data is input and other types of media data. The computer comprises a monitoring means, an associating means, and a filing means, the monitoring means monitors the input of other media data, and the other media data input by the associating means is detected at an input time timing. A character string notation that identifies the other media data is inserted and associated at a position in the corresponding character string data of the user input, and the filing unit records related information between the character string data of the user input and the other media data. It is a filing method.

また、本発明は、コンピュータによりファイリング手段と、表示手段と、再生手段とを構成し、ファイリング手段が間欠的にユーザ入力された複数の文字列データと当該文字列データ入力を行った同じ作業環境に入力された連続的なメディアデータとを連続メディアデータを入力時間タイミングで対応するユーザ入力の文字列データ中の位置に当該連続メディアデータを特定する文字列表記を挿入することによって関連付けた関連情報を記憶し、表示手段がファイリング手段に記憶された関連情報にしたがってユーザ入力の文字列と他のメディアデータを特定する文字列表記とを表示出力し、再生手段が文字列表記の画面表示を条件に、当該文字列表示に対応する他のメディアデータを再生出力する再生方法である。   The present invention also comprises a filing means, a display means, and a reproducing means configured by a computer, wherein the filing means intermittently inputs a plurality of character string data and the same work environment in which the character string data is input. Related information that is associated with continuous media data that is input to the user by inserting a character string notation that identifies the continuous media data at a position in the user-input character string data corresponding to the continuous media data at the input time timing. The display means displays and outputs a user input character string and a character string notation that identifies other media data in accordance with the related information stored in the filing means, and the playback means is required to display the character string notation on the screen. In addition, this is a reproduction method for reproducing and outputting other media data corresponding to the character string display.

本発明によると、共同作業において発生したユーザ入力による文字列と音声や動画等の他のメディアデータ(典型的には連続データ)とを、他のメディアデータを特定する文字列表示をユーザ入力文字列中の対応位置に挿入することで関連付けるようにしたため、当該共同作業の記録ファイルを再利用する際に、目的とする他のメディアデータを目視で容易に見付け出して、再生出力することができる。   According to the present invention, a character string displayed by a user input generated in collaborative work and other media data (typically continuous data) such as voice and video, and a character string display for specifying the other media data are displayed as user input characters. Since it is related by inserting it at the corresponding position in the row, when reusing the recording file of the joint work, other target media data can be easily found and reproduced and output. .

本発明を実施例に基づいて具体的に説明する。
図1には本発明の一実施例に係る共同作業システムとしての会議システムの全体構成を示してある。
本例の会議システムは、複数のユーザ端末1と、管理サーバ2とをネットワークNにより接続したシステム構成であり、これらユーザ端末1と管理サーバ2とは共にネットワーク通信機能を有したコンピュータに本発明に係る諸機能を実施するためのプログラムを保持実行させることにより構成されている。
The present invention will be specifically described based on examples.
FIG. 1 shows the overall configuration of a conference system as a collaborative work system according to an embodiment of the present invention.
The conference system of this example has a system configuration in which a plurality of user terminals 1 and a management server 2 are connected by a network N. The user terminal 1 and the management server 2 are both computers that have a network communication function. It is comprised by hold | maintaining and executing the program for implementing the various functions which concern.

このような構成により、会議システムでは、複数のユーザがそれぞれユーザ端末1を使用してコミュニケーションを図る共同作業環境が形成される。すなわち、ユーザ端末1からユーザがテキスト形式の文字列を入力して発言すると、当該入力された文字列は自己のユーザ端末1に画面表示されるとともに他のユーザ端末1にも同期して画面表示されるチャットが実現され、また、音声やビデオ等の他の種類のメディアデータも各ユーザ端末1間で共有して入力又は出力することができる。   With such a configuration, in the conference system, a collaborative work environment in which a plurality of users communicate with each other using the user terminal 1 is formed. That is, when a user inputs a text string in the text format from the user terminal 1 and speaks, the input character string is displayed on the screen of the user terminal 1 and also displayed on the other user terminals 1 in synchronization with the screen. In addition, other types of media data such as voice and video can be shared and input or output between the user terminals 1.

ユーザ端末1は、発言文字列や動作指示をユーザが入力するためのキーボード等を備えた入力操作手段10、ユーザ端末1を使用して参加しているユーザのビデオ画像を撮影するカメラ11、ユーザ端末1を使用して参加しているユーザの発言音声を収音するマイクロフォン12、会議(共同作業環境)で発言された他のユーザの音声を出力するスピーカ13、ユーザ入力された発言文字列や当該会議環境で入力された音声や画像等の他のメディアデータを表示出力するディスプレイを有した表示手段14を備えている。   The user terminal 1 includes an input operation unit 10 including a keyboard for a user to input a remark character string and an operation instruction, a camera 11 that captures a video image of a user who is participating using the user terminal 1, a user A microphone 12 that picks up the speech of a user who is participating using the terminal 1, a speaker 13 that outputs the voice of another user who has spoken in a conference (joint work environment), a speech string input by the user, A display unit 14 having a display for displaying and outputting other media data such as audio and images input in the conference environment is provided.

更に、ユーザ端末1は、管理サーバ2による制御管理の下で他のユーザ端末1と協調して共同作業環境を実現するために、ユーザ端末1から入力された文字列や他のメディアデータを管理サーバ2に送信し、また、他のユーザ端末1から入力された文字列や他のメディアデータを管理サーバ2から受信して、他のユーザ端末1と同期したコミュニケーション入出力を実現する会議制御手段15を備えており、共同作業環境としての会議フィールへのユーザインタフェースを構成する。
また、ユーザ端末1は、管理サーバ2に保持された会議の記録ファイルを再生出力させる装置としても機能し、管理サーバ2から記録ファイルのデータを受信して、スピーカ13による音声出力や表示手段14による画面表示出力により会議の再生出力を実現する会議再生制御手段16を備えており、管理サーバ2に保持された会議の記録ファイルを再生するためのユーザインタフェースを構成する。
Further, the user terminal 1 manages character strings and other media data input from the user terminal 1 in order to realize a collaborative work environment in cooperation with other user terminals 1 under control management by the management server 2. Conference control means for transmitting to the server 2 and receiving a character string or other media data input from another user terminal 1 from the management server 2 and realizing communication input / output synchronized with the other user terminal 1 15, and constitutes a user interface to the conference feel as a collaborative work environment.
The user terminal 1 also functions as an apparatus for reproducing and outputting a recording file of the conference held in the management server 2. The user terminal 1 receives data of the recording file from the management server 2, and outputs sound from the speaker 13 and display means 14. Is provided with a meeting reproduction control means 16 that realizes a meeting reproduction output by a screen display output by the above, and constitutes a user interface for reproducing a meeting recording file held in the management server 2.

管理サーバ2は、各ユーザ端末1とのデータ通信を行って各端末間で同期した出力を制御することにより参加している複数のユーザ端末1が共有する会議フィールドを実現する会議制御手段20、会議フィールドに入力されたユーザ入力のテキスト文字列データと他のメディアデータとを関連付け処理する関連付け処理手段21、関連付けられたテキスト文字列データと他のメディアデータとの関連付け情報を少なくとも含む記録ファイルを保持する関連付けファイル手段22、ユーザ端末1からの再生要求に応答して関連付けファイル手段に保持されているデータを当該ユーザ端末1へ提供する再生出力手段23を備えており、会議フィールドの統括制御及び会議の記録ファイルを作成保持する管理装置を構成する。   The management server 2 performs a data communication with each user terminal 1 and controls a synchronized output among the terminals, thereby controlling a conference field shared by a plurality of participating user terminals 1, An association processing means 21 for associating and processing user input text character string data input to the conference field with other media data, and a recording file including at least association information between the associated text character string data and other media data The association file means 22 to be held, and the reproduction output means 23 for providing the data held in the association file means to the user terminal 1 in response to the reproduction request from the user terminal 1 are provided. A management apparatus for creating and holding a conference recording file is configured.

ここで特に、関連付け処理手段21は、ユーザ端末1からのユーザ入力による会議フィールドへのテキスト文字列入力を監視するテキスト入力監視手段24と、会議フィールドへの音声やビデオ画像等のテキストとは異なる種類の他のメディアデータ入力を監視する他メディア監視手段25とを有しており、図4〜図6に示すように、入力された他のメディアデータを入力時間タイミングで対応するユーザ入力の文字列データ中の位置に当該他のメディアデータを特定する文字列表記を挿入して関連付ける処理を行う。
すなわち、関連付け処理手段21は、各メディアデータに付加されている属性情報に基づいて当該メディアデータの種別を判別して特定し、これに基づいた文字列表記を生成してテキスト文字列中の対応する位置に挿入する。
Here, in particular, the association processing means 21 is different from the text input monitoring means 24 for monitoring the text string input to the conference field by the user input from the user terminal 1 and the text such as voice or video image to the conference field. And other media monitoring means 25 for monitoring other types of media data input, and as shown in FIGS. 4 to 6, the user input characters corresponding to the input other media data at the input time timing A process of inserting and relating a character string notation specifying the other media data at a position in the column data is performed.
That is, the association processing means 21 determines and specifies the type of the media data based on the attribute information added to each media data, generates a character string notation based on the type, and handles the correspondence in the text character string. Insert it at the position you want.

他のメディアデータを特定する文字列表記としては、例えば、ビデオ画像の場合には種別を表す文字列「Video」と当該ビデオの時間長さを表す文字列「10mim」をユーザ入力の他のテキスト文字列と区別するための区別記号<>で囲んだ文字列表記<Video、10mim>とし、音声の場合には種別を表す文字列「Sound」と当該音声の時間長さを表す文字列「5mim」を区別記号<>で囲んだ文字列表記<Sound、5mim>とし、ホワイトボードに描かれた図形の場合には種別を表す文字列「WhiteBoard」と当該図形を描画するストロークデータを表す文字列「source=AA」を区別記号<>で囲んだ文字列表記<WhiteBoard、source=AA>とし、PDF形式などの文書資料ファイル画像の場合には種別を表す文字列「Image」と当該文書資料やその頁を表す文字列「file=XX、YYpage」を区別記号<>で囲んだ文字列表記<Image、file=XX、YYpage>とする。   For example, in the case of a video image, a character string “Video” indicating the type and a character string “10 mim” indicating the time length of the video are used as other text input by the user as the character string notation specifying other media data. In the case of speech, a character string “Sound” representing a type and a character string “5 mim” representing a time length of the speech are used. Is a character string notation <Sound, 5 mim> surrounded by a distinguishing symbol <>, and in the case of a graphic drawn on a whiteboard, a character string “WhiteBoard” indicating a type and a character string indicating stroke data for drawing the graphic A document notation such as PDF format is set as a character string notation <WhiteBoard, source = AA> in which “source = AA” is surrounded by a distinction symbol <>. In the case of a file image, a character string notation <Image, file = XX, in which a character string “Image” representing a type and a character string “file = XX, YYpage” representing the document material or its page are surrounded by a distinguishing symbol <>. YYpage>.

この文字列表記は、チャットの文字列と同じテキストデータであるので、チャット中に挿入することによりチャットの文字列とともに画面表示される。また、当該文字列表記は対応するメディアデータ(実データ)へのリンク表記でもあり、再生に際しては、当該文字列表記が画面表示することにより又は画面表示された文字列表記をユーザが選択指示することにより、必要なメディアデータ用アプリケーションが起動されて関連付けられているメディアデータがユーザ端末1で再生出力される。
なお、これらの文字列表記はその都度生成してもよいが、関連付け処理手段21が、予め用意された変換テーブルを参照して、当該テーブルから抽出してテキスト文字列のチャット中に挿入するようにしてもよい。
Since this character string notation is the same text data as the chat character string, it is displayed on the screen together with the chat character string by being inserted during the chat. In addition, the character string notation is also a link notation to the corresponding media data (actual data). Upon reproduction, the character string notation is displayed on the screen or the user selects and instructs the character string notation displayed on the screen. As a result, the necessary media data application is activated and the associated media data is reproduced and output on the user terminal 1.
These character string representations may be generated each time, but the association processing means 21 refers to a conversion table prepared in advance and extracts it from the table and inserts it into the text character string chat. It may be.

関連付け処理されて関連付ファイル手段22に保持される関連付ファイルは、例えば図3に示すように、テキストデータ(チャットのメッセージ文字列)に対して他のメディアデータ(音声データ、画像データ、図形データ等)を各会議毎の記録ファイルとしたものであり、これらの関連付けは追って詳述するような構造となっている。
なお、各会議毎の記録ファイルにはテキストデータや他のメディアデータの実データを関連付け保持するようにしても又はこれらの実データを特定する識別子だけを関連付け保持するようにしてもよく、後者の場合には、再生に際しては識別子に基づいて実データを取得して出力するようにすればよい。
As shown in FIG. 3, for example, associating files that are associated and stored in the associating file means 22 include text data (chat message character strings) and other media data (voice data, image data, graphics). Data, etc.) is a recording file for each conference, and the association is structured in detail later.
The recording file for each meeting may be associated with text data or other media data actual data, or may be associated with only an identifier for identifying these actual data. In this case, actual data may be acquired and output based on the identifier during reproduction.

図2には、各ユーザ端末1のユーザインタフェースを構成する表示手段14の画面表示例を示してある。当該画面14には、メッセージ入力表示部14aと、メッセージ表示部14bと、参加者画像部14cと、共用資料部14dとが同一画面上に表示領域として設けられている。
入力操作手段のキーボード10からユーザが発言として文字列(メッセージ)を入力すると、当該入力操作に応じた文字列がメッセージ入力表示部14aに表示され、メッセージ入力表示部14aに表示され文字列に対してユーザが決定のキー操作を行うと、メッセージ入力表示部14aに表示されている文字列がユーザ名を付加してメッセージ表示部14bに表示される。
FIG. 2 shows a screen display example of the display means 14 constituting the user interface of each user terminal 1. In the screen 14, a message input display unit 14a, a message display unit 14b, a participant image unit 14c, and a shared material unit 14d are provided as display areas on the same screen.
When the user inputs a character string (message) as an utterance from the keyboard 10 of the input operation means, the character string corresponding to the input operation is displayed on the message input display unit 14a and displayed on the message input display unit 14a. When the user performs a determination key operation, the character string displayed on the message input display unit 14a is added to the user name and displayed on the message display unit 14b.

すなわち、入力作業領域であるメッセージ入力表示部14aに例えば“今日の議題は、”という文字列メッセージを入力して決定すると、当該入力文字列は会議制御手段15によって管理サーバ2の会議制御手段20に送信され、会議制御手段20によってユーザ名Aを付加した“A)今日の議題は、”という形式のメッセージとされて各ユーザ端末1に配信されて、会議に参加している全てのユーザ端末1のメッセージ表示部14bに表示される。したがって、各ユーザ端末1から入力される文字列メッセージはそれぞれのユーザ名を付した形式で全てのユーザ端末1のメッセージ表示部14bに順次表示され、全てのユーザ端末1のメッセージ表示部14bには参加者ユーザ間での文字列メッセージによるチャットが表示される。なお、これら文字列メッセージはユーザ入力された順に並ぶ時系列データであるが、その時間的な並びは連続したものではなく間欠的なものといえる。   That is, for example, when a character string message “Today's agenda is” is entered in the message input display section 14a which is an input work area, the input character string is determined by the conference control unit 15 by the conference control unit 20 of the management server 2. All the user terminals participating in the conference are sent to each user terminal 1 as a message of the form “A) Today's agenda” added with the user name A by the conference control means 20 1 is displayed on the message display section 14b. Therefore, the character string message input from each user terminal 1 is sequentially displayed on the message display units 14b of all the user terminals 1 in a format with the respective user names, and is displayed on the message display units 14b of all the user terminals 1. A chat with a text message between participant users is displayed. These character string messages are time-series data arranged in the order of user input, but the temporal arrangement is not continuous but intermittent.

また、カメラ11から撮影されたユーザの画像は会議制御手段15によって管理サーバ2の会議制御手段20に送信され、会議制御手段20によって他のユーザ端末1に配信されて、会議に参加している他の全てのユーザ端末1の参加者画像部14cに表示される。例えば、会議に3人のユーザA、B、Cが参加している場合、ユーザAの端末の参加者画像部14cには他のユーザB、Cの画像が表示される。
共用資料部14dは会議フィールドに入力されたビデオ画像、描画図形、文献資料画像等の会議で共用される文字列メッセージとは異なる種類のメディアデータを画像表示する領域であり、ユーザ端末1から入力された共用資料データ又はネットワーク上のファイルサーバ(図示せず)からユーザ端末1により取得された共用資料データが会議制御手段15によって管理サーバ2の会議制御手段20に送信され、会議制御手段20によって他のユーザ端末1に配信されて、全てのユーザ端末1の共用資料部14dに共用資料が画像表示される。なお、ビデオ画像、描画図形、音声等の文字メッセージとは異なるメディアデータは、時間的に連続した連続データと言える。
In addition, the user image taken from the camera 11 is transmitted to the conference control unit 20 of the management server 2 by the conference control unit 15 and distributed to the other user terminals 1 by the conference control unit 20 to participate in the conference. It is displayed on the participant image part 14c of all the other user terminals 1. For example, when three users A, B, and C are participating in the conference, images of other users B and C are displayed in the participant image portion 14c of the user A's terminal.
The shared material part 14d is an area for displaying an image of media data of a different type from the character string message shared in the conference, such as a video image, a drawing figure, and a document material image input in the conference field. Shared material data or shared material data acquired by the user terminal 1 from a file server (not shown) on the network is transmitted to the conference control unit 20 of the management server 2 by the conference control unit 15, and the conference control unit 20 It is distributed to other user terminals 1 and the shared material is displayed as an image in the shared material part 14d of all user terminals 1. Note that media data different from text messages such as video images, drawing figures, and voices can be said to be continuous data that is temporally continuous.

なお、ユーザ端末1のマイクロフォン12から入力された音声は会議制御手段15によって管理サーバ2の会議制御手段20に送信され、会議制御手段20によって他のユーザ端末1に配信されて、会議に参加している他の全てのユーザ端末1のスピーカ13から出力される。
したがって、管理サーバ2による制御下で、会議フィールドに入力された文字列、画像、音声が会議に参加している全てのユーザ端末1で同期して出力される。
The voice input from the microphone 12 of the user terminal 1 is transmitted to the conference control unit 20 of the management server 2 by the conference control unit 15 and distributed to the other user terminals 1 by the conference control unit 20 to participate in the conference. Are output from the speakers 13 of all other user terminals 1.
Therefore, under the control of the management server 2, the character string, image, and sound input in the conference field are output synchronously at all user terminals 1 participating in the conference.

図4には前記関連付け処理手段21による共用資料や音声と文字列メッセージとの関連付け態様の一例を示し、図5には関連付け態様の他の一例を示してある。
図4に示すように、メッセージ表示部14bに表示される複数の文字列メッセージa〜l・・がそれぞれユーザ入力された順で間欠的な時系列に記録されるが、例えば、文字列メッセージaと文字列メッセージbとの間の時間タイミングでマイクロフォン12から会議フィールドに音声が入力されると、当該音声データを特定する文字列表記M1が文字列メッセージaと文字列メッセージbとの間に挿入され、当該文字列表記M1に対して音声データがリンク付けされる。また、例えば、文字列メッセージgと文字列メッセージhとの間の時間タイミングで共用資料部14dにビデオ画像が入力されると、当該ビデオ動画像データを特定する文字列表記M2が文字列メッセージgと文字列メッセージhとの間に挿入され、当該文字列表記M2に対してビデオ動画像データがリンク付けされる。
FIG. 4 shows an example of an association mode of the shared material or voice and the character string message by the association processing means 21, and FIG. 5 shows another example of the association mode.
As shown in FIG. 4, a plurality of character string messages a to l... Displayed on the message display unit 14b are recorded in an intermittent time series in the order of user input. When the voice is input from the microphone 12 to the conference field at the time timing between the character string message b and the character string message b, the character string notation M1 specifying the voice data is inserted between the character string message a and the character string message b. Then, the voice data is linked to the character string notation M1. Further, for example, when a video image is input to the shared material part 14d at a time timing between the character string message g and the character string message h, a character string notation M2 for specifying the video moving image data is displayed in the character string message g. And the character string message h, and the video moving image data is linked to the character string notation M2.

図4に示す例では、ビデオや音声のように時間的な途切れのない連続データを、それらが入力された時間タイミングで対応する文字列メッセージ中の位置(すなわち、文字表記の挿入位置)を起点にそのままリンク付けしたが、図5に示すように、このような連続データを幾つかに区切って文字列メッセージに関連付けするようにしてもよい。
例えば、或る長さのビデオ動画像データが入力された場合、関連付け処理部21が、当該ビデオ動画像データを一定時間間隔に区切って複数のビデオデータ部分a−1、a―2とし、各ビデオデータ部分a−1、a―2の先頭に対応する文字列メッセージ中の位置の位置にそれぞれ文字列表記M3、M4を挿入して、各各ビデオデータ部分a−1、a―2を各々の文字列表記M3、M4にリンク付けする。
このように連続データを区切って部分毎に関連付けを行うようにすると、連続データが長時間に及ぶ場合でも、文字列メッセージ中に挿入された文字列表記に基づいて、連続データ中の必要部分を容易に見付け出すことができる。
In the example shown in FIG. 4, continuous data such as video and audio without interruption in time is started from the position (that is, the insertion position of character notation) in the corresponding character string message at the time timing when they are input. However, as shown in FIG. 5, such continuous data may be divided into several pieces and associated with the character string message.
For example, when video moving image data having a certain length is input, the association processing unit 21 divides the video moving image data into a plurality of video data portions a-1 and a-2 at regular time intervals. Character string notations M3 and M4 are respectively inserted at positions in the character string message corresponding to the heads of the video data parts a-1 and a-2, and the respective video data parts a-1 and a-2 are respectively inserted. Are linked to the character string notations M3 and M4.
In this way, if continuous data is divided and association is performed for each part, even if continuous data extends for a long time, the necessary part in the continuous data is determined based on the character string notation inserted in the character string message. Can be easily found.

図6には上記のように関連付けが施された文字列メッセージ(チャット)の画面表示例を示してあり、このような態様のチャット表示は、記録ファイルの再生において、ユーザ端末1が会議再生制御手段16により管理サーバ2の関連付けファイル手段22から記録ファイルを取得して表示手段14に表示出力することでなされる。
図示の例では、3人のユーザA、B、Cによる会議において、各人が文字列メッセージで発言した記録中に、上記のように会議フィールドに入力された他のメディアデータを特定する文字列表記が特殊文字<>で囲われて表示される。これら文字列表記は対応するメディアデータの種類、長さ、頁等といった当該メディアデータをユーザが想像するための記述を含んでいる。したがって、ユーザは、このような文字列メッセージと文字列表記とに基づいて、メディアデータが会議中のどのような場面で入力されたか(使用されたか)、メディアデータがどのようなものであったかと言った情報を容易に得ることができ、再生操作において、必要なメディアデータ(更には、その必要部分)を迅速に探し出して再生出力することができる。
FIG. 6 shows a screen display example of the character string message (chat) associated as described above. The chat display in such a mode is performed when the user terminal 1 controls conference playback during playback of a recorded file. The recording file is obtained from the association file unit 22 of the management server 2 by the unit 16 and displayed on the display unit 14 for output.
In the illustrated example, a character string table that identifies other media data input in the conference field as described above during recording of each person speaking in a character string message in a conference by three users A, B, and C. Is displayed surrounded by special characters <>. These character string representations include descriptions for the user to imagine the media data, such as the type, length, page, etc. of the corresponding media data. Therefore, based on the character string message and the character string notation, the user is asked about where the media data was input (used) during the meeting, what the media data was. The above-mentioned information can be easily obtained, and necessary media data (and necessary portions thereof) can be quickly found and reproduced and output in the reproduction operation.

図7には、主に管理サーバ2の関連付け処理部21が行う文字列メッセージと他のメディアデータとの関連付け記録処理の概要を示してある。
ユーザ端末1から会議フィールドにデータが入力されると、入力データが文字列メッセージであるか否かを判定し(ステップS1)、文字列メッセージである場合には当該文字列メッセージをチャットとして全てのユーザ端末1に送信してメッセージ表示部14bに表示させる(ステップS2)。一方、入力データが文字列メッセージでない場合には、上記のような他のメディアデータであるか否かを判定し(ステップS3)、入力された他のメディアデータを特定するテキスト文字列表記を生成し(ステップS4)、当該文字列表記をチャット中の入力タイミングに対応する位置に挿入してリンク付けする関連付け処理を行う(ステップS5)。
会議フィールドがアクティブな状態では入力データの監視が常時行われ、関連付けされたデータ(少なくとも関連関係を特定する関連情報)は当該会議の記録ファイルとして関連付けファイル手段22に記憶される。
FIG. 7 shows an outline of the association recording process of the character string message and other media data mainly performed by the association processing unit 21 of the management server 2.
When data is input from the user terminal 1 to the conference field, it is determined whether or not the input data is a character string message (step S1). It transmits to the user terminal 1 and displays it on the message display part 14b (step S2). On the other hand, if the input data is not a character string message, it is determined whether or not it is other media data as described above (step S3), and a text character string notation that specifies the other input media data is generated. (Step S4), an association process for inserting and linking the character string notation at a position corresponding to the input timing during the chat is performed (Step S5).
When the conference field is active, the input data is constantly monitored, and the associated data (at least related information for specifying the related relationship) is stored in the related file means 22 as a recording file of the conference.

図8には、主にユーザ端末の会議再生制御手段16が行う会議の記録ファイルに基づいた再生処理の概要を示してある。
ユーザによる入力操作部10からの指示に基づいて会議再生制御手段16が管理サーバ2の関連付けファイル手段22から目的の会議の記録ファイルを取得し、表示手段14のディスプレイ画面に図6に示すような文字列メッセージのチャットを表示する(ステップS11)。一般に、会議等のチャット記録は長時間に及ぶものが殆どであり、チャット全体を一度に画面表示することができないので、ユーザは入力操作部10から指示して画面表示をスクロールさせてチャットを閲覧することとなる。このようなスクロール操作により画面表示された部分に文字列表記が存在するときには(ステップS12)、会議再生制御手段16が当該文字列表記によって特定されるメディアデータを再生処理するに必要なアプリケーションを起動して(ステップS13)、当該メディアデータを再生して出力する(ステップS14)。例えば、音声データである場合にはスピーカ13から再生出力し、動画や静止画の画像データや描画図形データである場合には画面14上に表示ウインドウを形成して画像を再生表示する。
FIG. 8 shows an outline of a reproduction process based on a conference recording file mainly performed by the conference reproduction control means 16 of the user terminal.
Based on an instruction from the input operation unit 10 by the user, the conference reproduction control unit 16 obtains a recording file of the target conference from the association file unit 22 of the management server 2 and displays on the display screen of the display unit 14 as shown in FIG. A character string message chat is displayed (step S11). In general, most chat recordings such as conferences take a long time, and the entire chat cannot be displayed on the screen at one time. Therefore, the user can instruct the input operation unit 10 to scroll the screen display and view the chat. Will be. When a character string notation is present in the portion displayed on the screen by such a scroll operation (step S12), the conference reproduction control means 16 starts an application necessary for reproducing the media data specified by the character string notation. (Step S13), the media data is reproduced and output (Step S14). For example, in the case of audio data, it is reproduced and output from the speaker 13, and in the case of moving image or still image data or drawing graphic data, a display window is formed on the screen 14 to reproduce and display the image.

ここで、上記の再生処理では文字列表記が画面表示されると自動的に対応する他のメディアデータが再生出力されるが、本発明では、画面表示された文字列表記に対してユーザが選択指示を行った場合に対応する他のメディアデータが再生出力されるようにしてもよい。
すなわち、画面表示されたチャット中の文字列表記に対して、ユーザによる入力操作部10からの選択指示が入力されると、会議再生制御手段16が当該文字列表記によって特定されるメディアデータを再生処理するに必要なアプリケーションを起動して、当該メディアデータを再生して出力する。
Here, in the above reproduction process, when the character string notation is displayed on the screen, other corresponding media data is automatically reproduced and output. In the present invention, however, the user selects the character string notation displayed on the screen. Other media data corresponding to the instruction may be reproduced and output.
In other words, when a selection instruction is input from the input operation unit 10 by the user to the character string notation in the chat displayed on the screen, the conference reproduction control means 16 reproduces the media data specified by the character string notation. An application necessary for processing is activated, and the media data is reproduced and output.

本発明の一実施例に係る会議システムの構成を示す図である。It is a figure which shows the structure of the conference system which concerns on one Example of this invention. 本発明の一実施例に係るユーザ端末の画面表示例を示す図である。It is a figure which shows the example of a screen display of the user terminal which concerns on one Example of this invention. 本発明の一実施例に係る関連付けファイルを説明する図である。It is a figure explaining the association file which concerns on one Example of this invention. 本発明の一実施例に係る関連付け構造を説明する図である。It is a figure explaining the association structure which concerns on one Example of this invention. 本発明の一実施例に係る関連付け構造を説明する図である。It is a figure explaining the association structure which concerns on one Example of this invention. 本発明の一実施例に係る文字列表記を含む文字列メッセージの画面表示例を示す図である。It is a figure which shows the example of a screen display of the character string message containing the character string description concerning one Example of this invention. 本発明の一実施例に係る関連付け記録処理を説明する図である。It is a figure explaining the association recording process which concerns on one Example of this invention. 本発明の一実施例に係る再生処理を説明する図である。It is a figure explaining the reproduction | regeneration processing based on one Example of this invention.

符号の説明Explanation of symbols

1:ユーザ端末、 2:管理サーバ、
10:入力操作手段、 11:カメラ、
12:マイクロフォン、 14:表示手段、
14a:メッセージ入力表示部、 14b:メッセージ表示部、
14c:参加者画像部、 14d:共用資料部、
15:会議制御手段、 16:会議再生制御手段、
20:会議制御手段、 21:関連付け処理手段、
22:関連付けファイル手段、 24:テキスト入力監視手段、
25:他メディア入力監視手段、 M1、M2、M3、M4:文字列表記、
1: user terminal, 2: management server,
10: input operation means, 11: camera,
12: Microphone, 14: Display means,
14a: message input display section, 14b: message display section,
14c: Participant image part, 14d: Shared document part,
15: Conference control means, 16: Conference playback control means,
20: Conference control means, 21: Association processing means,
22: Association file means 24: Text input monitoring means,
25: Other media input monitoring means, M1, M2, M3, M4: character string notation,

Claims (9)

ユーザ入力された複数の文字列データと、当該文字列データ入力を行った同じ作業環境に入力された文字列と異なる種類の他のメディアデータとを関連付けて記録するファイリング装置であって、
前記他のメディアデータの入力を監視する監視手段と、入力された前記他のメディアデータを入力時間タイミングで対応するユーザ入力の文字列データ中の位置に当該他のメディアデータを特定する文字列表記を挿入して関連付ける関連付け手段と、ユーザ入力の文字列データと他のメディアデータとの関連情報を記録するファイリング手段と、を備えたことを特徴とするファイリング装置。
A filing device that records a plurality of character string data input by a user and a character string input to the same work environment where the character string data is input and other types of media data in association with each other.
A monitoring means for monitoring the input of the other media data, and a character string notation that identifies the other media data at a position in the character string data of the user input corresponding to the input other media data at an input time timing A filing apparatus comprising: association means for inserting and associating; and filing means for recording related information between user-input character string data and other media data.
請求項1に記載のファイリング装置において、
前記ユーザ入力された複数の文字列データは文字列データが時間的に間欠的な複数のデータ集合であり、
前記他のメディアデータは時間的に連続した連続データであることを特徴とするファイリング装置。
The filing device according to claim 1, wherein
The plurality of character string data input by the user is a plurality of data sets in which the character string data is intermittent in time,
The filing apparatus according to claim 1, wherein the other media data is continuous data that is continuous in time.
間欠的にユーザ入力された複数の文字列データと、当該文字列データ入力を行った同じ作業環境に入力された連続的なメディアデータとを、連続メディアデータを入力時間タイミングで対応するユーザ入力の文字列データ中の位置に当該連続メディアデータを特定する文字列表記を挿入することによって関連付けた関連情報を記憶するファイリング手段と、
ファイリング手段に記憶された関連情報にしたがってユーザ入力の文字列と他のメディアデータを特定する文字列表記とを表示出力する表示手段と、
文字列表記が画面表示されることに応じて、当該文字列表示に対応する他のメディアデータを再生出力する再生手段と、を備えたことを特徴とする再生装置。
A plurality of character string data intermittently input by a user and continuous media data input in the same work environment in which the character string data was input are converted to user input corresponding to continuous media data at input time timing. Filing means for storing related information by inserting a character string notation specifying the continuous media data at a position in the character string data; and
Display means for displaying and outputting a user input character string and other character string notation specifying other media data according to the related information stored in the filing means;
A playback device comprising playback means for playing back and outputting other media data corresponding to the character string display when the character string notation is displayed on the screen.
間欠的にユーザ入力された複数の文字列データと、当該文字列データ入力を行った同じ作業環境に入力された連続的なメディアデータとを、連続メディアデータを入力時間タイミングで対応するユーザ入力の文字列データ中の位置に当該連続メディアデータを特定する文字列表記を挿入することによって関連付けた関連情報を記憶するファイリング手段と、
ファイリング手段に記憶された関連情報にしたがってユーザ入力の文字列と他のメディアデータを特定する文字列表記とを表示出力する表示手段と、
画面表示された文字列表示をユーザが選択したことに応じて、当該文字列表示に対応する他のメディアデータを再生出力する再生手段と、を備えたことを特徴とする再生装置。
A plurality of character string data intermittently input by a user and continuous media data input in the same work environment in which the character string data was input are converted to user input corresponding to continuous media data at input time timing. Filing means for storing related information by inserting a character string notation specifying the continuous media data at a position in the character string data; and
Display means for displaying and outputting a user input character string and other character string notation specifying other media data according to the related information stored in the filing means;
A playback device comprising: playback means for playing back and outputting other media data corresponding to the character string display in response to the user selecting the character string display displayed on the screen.
共同作業環境を構成するために複数のユーザ端末をネットワークで接続し、ユーザ端末から入力された文字列をユーザ端末間で共有して時系列に画面表示し、当該共同作業において発生した文字列データとは異なる種類の他のメディアデータをユーザ端末間で共有して出力する共同作業システムであって、
前記他のメディアデータの入力を監視する監視手段と、入力された前記他のメディアデータを入力時間タイミングで対応するユーザ入力の文字列データ中の位置に当該他のメディアデータを特定する文字列表記を挿入することによって関連付ける関連付け手段と、ユーザ入力の文字列データと他のメディアデータとの関連情報を記録するファイリング手段と、を備えたことを特徴とする共同作業システム。
Character string data generated in the joint work by connecting multiple user terminals over the network to form a collaborative work environment, sharing the character strings input from the user terminals among the user terminals and displaying them in time series A collaborative work system for sharing and outputting other media data of different types between user terminals,
A monitoring means for monitoring the input of the other media data, and a character string notation that identifies the other media data at a position in the character string data of the user input corresponding to the input other media data at an input time timing A collaborative work system comprising: association means for associating by inserting a file; and filing means for recording related information between character string data input by a user and other media data.
請求項5に記載の共同作業システムにおいて、
前記ファイリング手段に記憶された関連情報にしたがってユーザ入力の文字列と他のメディアデータを特定する文字列表記とを表示出力する表示手段と、
文字列表記が画面表示されること又は画面表示された文字列表示をユーザが選択したことの少なくともいずれかの一方の条件に応じて、当該文字列表示に対応する他のメディアデータを再生出力する再生手段と、を備えたことを特徴とする共同作業システム。
The collaborative work system according to claim 5,
Display means for displaying and outputting a user input character string and other character string notation specifying other media data according to the related information stored in the filing means;
Other media data corresponding to the character string display is reproduced and output according to at least one of the conditions that the character string notation is displayed on the screen or the user selects the character string display displayed on the screen. And a reproducing means.
時系列でユーザ入力された文字列からなるテキストデータと当該文字列入力の際に入力されたテキストデータとは異なる種類の他のメディアデータとを含む作業フィールドを複数のユーザ端末をネットワーク接続して構成し、
ネットワーク上に接続された管理サーバが、ユーザ端末に画面表示される文字列中の入力時間で対応する位置に入力された他のメディアデータを特定する文字列表記を挿入するとともに、ユーザ入力文字列データと他のメディアデータとの関連情報を記録することを特徴とするファイリング方法。
A work field including text data composed of character strings input by a user in time series and other media data of a different type from the text data input at the time of inputting the character strings is connected to a plurality of user terminals over a network. Configure
The management server connected to the network inserts a character string notation that identifies other media data input at the corresponding position in the character string displayed on the screen of the user terminal, and the user input character string A filing method characterized by recording information related to data and other media data.
ユーザ入力された複数の文字列データと、当該文字列データ入力を行った同じ作業環境に入力された文字列と異なる種類の他のメディアデータとを関連付けて記録するファイリング方法であって、
コンピュータにより監視手段と、関連付け手段と、ファイリング手段とを構成し、
監視手段が、前記他のメディアデータの入力を監視し、
関連付け手段が、入力された前記他のメディアデータを入力時間タイミングで対応するユーザ入力の文字列データ中の位置に当該他のメディアデータを特定する文字列表記を挿入して関連付け、
ファイリング手段が、ユーザ入力の文字列データと他のメディアデータとの関連情報を記録することを特徴とするファイリング方法。
A filing method for recording a plurality of character string data input by a user and a character string input in the same work environment in which the character string data is input and other types of media data in association with each other.
The computer constitutes monitoring means, associating means, and filing means,
The monitoring means monitors the input of the other media data,
The associating means inserts and associates the inputted other media data by inserting a character string notation that identifies the other media data at a position in the character string data of the user input corresponding to the input time timing,
A filing method characterized in that filing means records related information between user-input character string data and other media data.
コンピュータによりファイリング手段と、表示手段と、再生手段とを構成し、
ファイリング手段が、間欠的にユーザ入力された複数の文字列データと、当該文字列データ入力を行った同じ作業環境に入力された連続的なメディアデータとを、連続メディアデータを入力時間タイミングで対応するユーザ入力の文字列データ中の位置に当該連続メディアデータを特定する文字列表記を挿入することによって関連付けた関連情報を記憶し、
表示手段が、ファイリング手段に記憶された関連情報にしたがってユーザ入力の文字列と他のメディアデータを特定する文字列表記とを表示出力し、
再生手段が、文字列表記の画面表示を条件に、当該文字列表示に対応する他のメディアデータを再生出力することを特徴とする再生方法。
The computer constitutes filing means, display means, and playback means,
The filing means supports a plurality of character string data input intermittently by the user and continuous media data input to the same work environment in which the character string data is input, with continuous media data at the input time timing. Storing the related information associated by inserting a character string notation that identifies the continuous media data at a position in the character string data of the user input
The display means displays and outputs a user input character string and a character string notation that identifies other media data in accordance with the related information stored in the filing means,
A reproducing method, wherein the reproducing means reproduces and outputs other media data corresponding to the character string display on the condition that the character string notation is displayed on the screen.
JP2004031517A 2004-02-09 2004-02-09 Cooperative work system Pending JP2005222431A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004031517A JP2005222431A (en) 2004-02-09 2004-02-09 Cooperative work system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004031517A JP2005222431A (en) 2004-02-09 2004-02-09 Cooperative work system

Publications (1)

Publication Number Publication Date
JP2005222431A true JP2005222431A (en) 2005-08-18

Family

ID=34997989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004031517A Pending JP2005222431A (en) 2004-02-09 2004-02-09 Cooperative work system

Country Status (1)

Country Link
JP (1) JP2005222431A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215875A (en) * 2010-03-31 2011-10-27 Fujitsu General Ltd Collaboration system and program thereof
JP2012513693A (en) * 2008-12-22 2012-06-14 フランス・テレコム Method and apparatus for processing text data
CN102713872A (en) * 2010-01-18 2012-10-03 日本鼎意株式会社 System for generating information performing display of intermingled characters and pictures

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012513693A (en) * 2008-12-22 2012-06-14 フランス・テレコム Method and apparatus for processing text data
US8848015B2 (en) 2008-12-22 2014-09-30 Orange Method and device for processing text data
CN102713872A (en) * 2010-01-18 2012-10-03 日本鼎意株式会社 System for generating information performing display of intermingled characters and pictures
JP2011215875A (en) * 2010-03-31 2011-10-27 Fujitsu General Ltd Collaboration system and program thereof

Similar Documents

Publication Publication Date Title
WO2018227761A1 (en) Correction device for recorded and broadcasted data for teaching
JP2008172582A (en) Minutes generating and reproducing apparatus
JP2002202941A (en) Multimedia electronic learning system and learning method
JP2006146415A (en) Conference support system
JP5206553B2 (en) Browsing system, method, and program
JP2007180828A (en) Network conference system, network conference method, and program for executing the method
JP2005341015A (en) Video conference system with minute creation support function
JP2002109099A (en) System and device for recording data and video image/ voice, and computer readable recording medium
JP2000099524A (en) Multimedia information viewing device
JP3663960B2 (en) Information processing apparatus and information processing method
JP3601314B2 (en) Multimedia information processing device
JP2018180519A (en) Voice recognition error correction support device and program therefor
JP2005524867A (en) System and method for providing low bit rate distributed slide show presentation
JP2005222431A (en) Cooperative work system
JP4308235B2 (en) Shared whiteboard history reproduction method, shared whiteboard system, program, and recording medium
JP2004266578A (en) Moving image editing method and apparatus
JP2002008052A (en) Presentation system and recording medium
JP2004336289A (en) Shared white board history reproducing method, shared white board system, client, program and recording medium
JP3945081B2 (en) Document processing apparatus and processing method
JP2005260513A (en) System and method for processing content and computer program
JP2005326811A (en) Voice synthesizer and voice synthesis method
JP4250983B2 (en) Device for associating user data with continuous data
JP6610076B2 (en) Information processing apparatus, information processing system, program, and recording medium
JP5777233B1 (en) Movie generation apparatus and movie generation method
JP7205844B1 (en) Report recording method, report recording program and report recording system