JP2014183324A - Information processing system, server device, information processing method, and program - Google Patents

Information processing system, server device, information processing method, and program Download PDF

Info

Publication number
JP2014183324A
JP2014183324A JP2013054432A JP2013054432A JP2014183324A JP 2014183324 A JP2014183324 A JP 2014183324A JP 2013054432 A JP2013054432 A JP 2013054432A JP 2013054432 A JP2013054432 A JP 2013054432A JP 2014183324 A JP2014183324 A JP 2014183324A
Authority
JP
Japan
Prior art keywords
data
display
display data
server device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013054432A
Other languages
Japanese (ja)
Other versions
JP6209835B2 (en
Inventor
Masaya Mukogasa
真哉 向笠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013054432A priority Critical patent/JP6209835B2/en
Publication of JP2014183324A publication Critical patent/JP2014183324A/en
Application granted granted Critical
Publication of JP6209835B2 publication Critical patent/JP6209835B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To more easily synthesize data used for explanation in a presentation and data recorded during the explanation, as moving image data.SOLUTION: An information processing system comprises a server device and one or more client devices. The client device comprises: a data request unit which makes a request of the server device for display data; a display control unit which controls display of the display data; an update information acquisition unit which acquires update information including a time when the display of the display data is updated; a sound recording unit which records a voice during the display of the display data, to acquire voice data; and a transmission unit which transmits the update information and the voice data to the server device. The server device comprises: a storage unit which stores the display data; a data processing unit which transmits the display data to the client device; and a generation unit which, when the update information and the voice data are received, generates moving image data obtained by synthesizing the display data and the voice data, on the basis of the update information.

Description

本発明は、情報処理システム、サーバ装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing system, a server device, an information processing method, and a program.

プレゼンテーションや会議中などに、ビデオカメラを使用して説明の内容を撮影し、発表資料に使用されたデータと撮影動画とを合成することで、動画データなどのマルチメディアコンテンツを生成する技術が知られている。当該マルチメディアコンテンツを参照することにより、プレゼンテーションや会議などに参加できなかった人が、発表内容を把握することができる。   We know the technology to generate multimedia contents such as video data by shooting the contents of explanation using a video camera during a presentation or meeting, and synthesizing the data used for the presentation material and the shot video. It has been. By referring to the multimedia content, a person who could not participate in the presentation or conference can grasp the contents of the presentation.

本発明に関連する文献公知発明としては、特許文献1がある。特許文献1には、プレゼンテーションなどにおいて自動的に映像・音声を含むマルチメディアコンテンツを生成する装置の発明が開示されている。   Patent Document 1 is a known invention related to the present invention. Patent Document 1 discloses an invention of an apparatus that automatically generates multimedia contents including video and audio in a presentation or the like.

しかしながら、従来の技術では、発表資料に使用されたデータと撮影動画とを合成するために、ユーザによる編集操作や、特別な装置が必要だった。また、プレゼンテーションの傍聴者が記録したデータなどの予め準備された特別な装置以外で記録したデータは合成できなかった。   However, in the prior art, in order to synthesize the data used for the presentation material and the captured video, an editing operation by the user and a special device are required. Further, data recorded by a special device prepared in advance, such as data recorded by a presentation observer, could not be synthesized.

本発明は、上記に鑑みてなされたものであって、プレゼンテーションなどで説明に使用されたデータと、説明中に記録されたデータとを、より容易に動画データとして合成できる情報処理システム、サーバ装置、情報処理方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above, and is an information processing system and server device that can more easily synthesize data used for explanation in a presentation or the like and data recorded during the explanation as moving image data. It is an object to provide an information processing method and program.

上述した課題を解決し、目的を達成するために、本発明の情報処理システムは、サーバ装置と、1以上のクライアント装置とを備える情報処理システムであって、前記クライアント装置は、前記サーバ装置に表示データを要求するデータ要求部と、前記表示データの表示を制御する表示制御部と、前記表示データの表示を更新した時刻を含む更新情報を取得する更新情報取得部と、前記表示データを表示中の音声を録音し、音声データを取得する録音部と、前記更新情報と前記音声データとを前記サーバ装置に送信する送信部と、を備え、前記サーバ装置は、前記表示データを記憶する記憶部と、前記クライアント装置の要求に応じて、前記クライアント装置に前記表示データを送信するデータ処理部と、前記クライアント装置から前記更新情報と前記音声データとを受信した場合に、前記更新情報に基づいて、前記表示データと前記音声データとを合成した動画データを生成する生成部と、を備える。   In order to solve the above-described problems and achieve the object, an information processing system of the present invention is an information processing system including a server device and one or more client devices, and the client device is connected to the server device. A data request unit that requests display data; a display control unit that controls display of the display data; an update information acquisition unit that acquires update information including a time when the display of the display data is updated; and the display data is displayed. A recording unit that records voice in the recording unit and acquires voice data; and a transmission unit that transmits the update information and the voice data to the server device, wherein the server device stores the display data. A data processing unit that transmits the display data to the client device in response to a request from the client device, and the update from the client device. When receiving the broadcast with the voice data, based on said update information, and a generating unit that generates moving image data obtained by synthesizing the said audio data and the display data.

本発明によれば、プレゼンテーションなどで説明に使用されたデータと、説明中に記録されたデータとを、より容易に動画データとして合成できるという効果を奏する。   According to the present invention, there is an effect that the data used for the explanation in the presentation or the like and the data recorded during the explanation can be more easily combined as moving image data.

図1は、第1の実施の形態の情報処理システムの機能ブロックの一例を示す図である。FIG. 1 is a diagram illustrating an example of functional blocks of the information processing system according to the first embodiment. 図2は、第1の実施の形態の情報処理システムのハードウェアの接続関係の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware connection relationship of the information processing system according to the first embodiment. 図3は、第1の実施の形態の情報処理システムの更新情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of update information of the information processing system according to the first embodiment. 図4は、第1の実施の形態の制御部の機能ブロックの一例を示す図である。FIG. 4 is a diagram illustrating an example of functional blocks of the control unit according to the first embodiment. 図5は、第1の実施の形態の情報処理方法の一例を説明するためのフローチャートである。FIG. 5 is a flowchart for explaining an example of the information processing method according to the first embodiment. 図6は、第1の実施の形態の情報処理システムの動画データの生成について説明するための図である。FIG. 6 is a diagram for describing generation of moving image data in the information processing system according to the first embodiment. 図7は、第2の実施の形態の情報処理システムの機能ブロックの一例を示す図である。FIG. 7 is a diagram illustrating an example of functional blocks of the information processing system according to the second embodiment. 図8は、第2の実施の形態の情報処理システムのハードウェアの接続関係の一例を示す図である。FIG. 8 is a diagram illustrating an example of a hardware connection relationship of the information processing system according to the second embodiment. 図9は、第2の実施の形態のクライアント装置(傍聴者)から追加されるデータ(ファイル)の一例を示す図である。FIG. 9 is a diagram illustrating an example of data (file) added from the client device (listener) according to the second embodiment. 図10は、第2の実施の形態のクライアント装置(傍聴者)から追加されるテキストデータのデータ形式の一例を示す図である。FIG. 10 is a diagram illustrating an example of a data format of text data added from the client device (listener) according to the second embodiment. 図11は、第2の実施の形態の情報処理システムの動画データの生成について説明するための図である。FIG. 11 is a diagram for describing generation of moving image data in the information processing system according to the second embodiment. 図12は、第1及び第2の実施の形態のサーバ装置及びクライアント装置のハードウェア構成の一例を説明するための図である。FIG. 12 is a diagram for explaining an example of a hardware configuration of the server device and the client device according to the first and second embodiments.

(第1の実施の形態)
以下に添付図面を参照して、情報処理システム、サーバ装置、情報処理方法及びプログラムの実施の形態を詳細に説明する。図1は、第1の実施の形態の情報処理システム100の機能ブロックの一例を示す図である。本実施の形態の情報処理システム100は、サーバ装置10、クライアント装置20、モニタ30及びプロジェクタ40を備える。
(First embodiment)
Hereinafter, embodiments of an information processing system, a server device, an information processing method, and a program will be described in detail with reference to the accompanying drawings. FIG. 1 is a diagram illustrating an example of functional blocks of the information processing system 100 according to the first embodiment. The information processing system 100 according to the present embodiment includes a server device 10, a client device 20, a monitor 30, and a projector 40.

図2は、第1の実施の形態の情報処理システム100のハードウェアの接続関係の一例を示す図である。本実施の形態の情報処理システム100では、サーバ装置10、クライアント装置20、モニタ30及びプロジェクタ40が、ネットワーク60により互いに接続されている。クライアント装置20は、例えば、スマートデバイスやPC(Personal Computer)などである。モニタ30及びプロジェクタ40は、クライアント装置20のデータを表示(投影)するための出力装置である。モニタ30は、例えば、大型ディスプレイである。以下、本実施の形態の説明では、表示データの表示は、プロジェクタ40に表示データを投影画像として投影することによって表示することも含むものとする。   FIG. 2 is a diagram illustrating an example of a hardware connection relationship of the information processing system 100 according to the first embodiment. In the information processing system 100 according to the present embodiment, the server device 10, the client device 20, the monitor 30, and the projector 40 are connected to each other via a network 60. The client device 20 is, for example, a smart device or a PC (Personal Computer). The monitor 30 and the projector 40 are output devices for displaying (projecting) data of the client device 20. The monitor 30 is a large display, for example. Hereinafter, in the description of the present embodiment, display of display data includes display by projecting the display data on the projector 40 as a projection image.

なお、ネットワーク60の通信方式は、有線方式であっても無線方式であってもよい。また、ネットワーク60は、有線方式及び無線方式を組み合わせて実現してもよい。なお、情報処理システム100は、クライアント装置20、モニタ30及びプロジェクタ40を、それぞれ複数備えていてもよい。例えば、クライアント装置20を複数備え、複数のユーザが同時にサーバ装置10と通信してもよい。また、サーバ装置10を、負荷分散などの理由により、複数台で構成してもよい。   Note that the communication method of the network 60 may be a wired method or a wireless method. The network 60 may be realized by combining a wired method and a wireless method. Note that the information processing system 100 may include a plurality of client devices 20, monitors 30, and projectors 40, respectively. For example, a plurality of client devices 20 may be provided, and a plurality of users may communicate with the server device 10 at the same time. Moreover, you may comprise the server apparatus 10 by multiple units | sets for reasons, such as load distribution.

図1に戻り、サーバ装置10は、データ処理部11、生成部12及び記憶部13を備える。クライアント装置20は、制御部21、録音部22及び送信部23を備える。制御部21は、発表者(クライアント装置20のユーザ)の操作に応じて、モニタ30又はプロジェクタ40に表示(投影)する表示データの表示(投影)開始の指示を受信する。次に、制御部21は、サーバ装置10に、発表者により指定された表示データを要求する。サーバ装置10のデータ処理部11は、記憶部13から、要求された表示データを取得し、クライアント装置20に送信する。クライアント装置20の制御部21は、サーバ装置10から受信した表示データを、表示データの表示(投影)開始の指示に応じて、モニタ30又はプロジェクタ40に表示(投影)する。また、制御部21は、音声の録音の開始を録音部22に指示する。録音部22は、音声の録音を開始し、表示データの表示中の音声を録音する。   Returning to FIG. 1, the server device 10 includes a data processing unit 11, a generation unit 12, and a storage unit 13. The client device 20 includes a control unit 21, a recording unit 22, and a transmission unit 23. The control unit 21 receives an instruction to start displaying (projecting) display data to be displayed (projected) on the monitor 30 or the projector 40 in accordance with the operation of the presenter (user of the client device 20). Next, the control unit 21 requests display data designated by the presenter from the server device 10. The data processing unit 11 of the server device 10 acquires the requested display data from the storage unit 13 and transmits it to the client device 20. The control unit 21 of the client device 20 displays (projects) the display data received from the server device 10 on the monitor 30 or the projector 40 in response to an instruction to start display (projection) of the display data. In addition, the control unit 21 instructs the recording unit 22 to start voice recording. The recording unit 22 starts recording sound and records the sound being displayed.

制御部21は、発表者による表示ページの更新などの操作により、表示データの表示(投影)更新の指示を受信する。制御部21は、表示データの表示(投影)内容を更新するとともに、表示データの表示を更新した時刻を含む更新情報を取得する。図3は、第1の実施の形態の情報処理システム100の更新情報の一例を示す図である。図3の例では、更新情報は、ID、ページ番号及び更新時間を有する。IDは、更新情報に含まれるデータを一意に識別するための情報である。ページ番号は、表示データのページ番号である。更新時間は、表示データの表示が、該当のページ番号の表示に更新されたときの時間である。例えば、ID=2のデータは、表示データの表示が2ページ目に更新された時間が12:04:00であることを示す。   The control unit 21 receives a display data display (projection) update instruction by an operation such as updating the display page by the presenter. The control unit 21 updates the display (projection) content of the display data and acquires update information including the time when the display data display is updated. FIG. 3 is a diagram illustrating an example of update information of the information processing system 100 according to the first embodiment. In the example of FIG. 3, the update information has an ID, a page number, and an update time. The ID is information for uniquely identifying data included in the update information. The page number is a page number of display data. The update time is the time when the display data display is updated to display the corresponding page number. For example, the data of ID = 2 indicates that the time when the display data display is updated on the second page is 12:00:00.

図1に戻り、制御部21は、発表者の操作に応じて、表示データの表示(投影)終了の指示を受信する。制御部21は、表示データの表示(投影)を終了する。また、制御部21は、更新情報を送信部23に送信する。また、制御部21は、音声の録音の終了を録音部22に指示する。録音部22は、音声の録音を終了し、音声データを送信部23に送信する。送信部23は、音声データと更新情報とをサーバ装置10に送信する。なお、送信部23が送信に使用するプロトコルは任意でよい。例えば、HTTP(HyperText Transfer Protocol)や、FTP(File Transfer Protocol)などを使用してもよい。   Returning to FIG. 1, the control unit 21 receives an instruction to end display (projection) of display data in accordance with the operation of the presenter. The control unit 21 ends the display (projection) of the display data. In addition, the control unit 21 transmits update information to the transmission unit 23. Further, the control unit 21 instructs the recording unit 22 to end the recording of the voice. The recording unit 22 ends the audio recording and transmits the audio data to the transmission unit 23. The transmission unit 23 transmits the audio data and the update information to the server device 10. Note that the protocol used by the transmission unit 23 for transmission may be arbitrary. For example, HTTP (Hyper Text Transfer Protocol) or FTP (File Transfer Protocol) may be used.

サーバ装置10のデータ処理部11は、クライアント装置20から受信した音声データ及び更新情報、並びに表示データを、表示データが記憶されている記憶部13の記憶領域と同じ場所に記憶する。当該記憶領域は、例えば、サーバ装置10のファイルシステムのフォルダである。また、データ処理部11は、クライアント装置20から受信した音声データ及び更新情報、並びに表示データを、生成部12に送信する。生成部12は、更新情報に基づいて、表示データと音声データとを合成した動画データを生成する。動画データの生成方法の詳細については後述する。生成部12は、動画データをデータ処理部11に送信する。データ処理部11は、生成部12から受信した動画データを、表示データが記憶されている記憶部13の記憶領域と同じ場所に記憶する。なお、同じ記憶領域に記憶されたデータは、データの拡張子やデータ名により区別する。   The data processing unit 11 of the server device 10 stores the audio data, update information, and display data received from the client device 20 in the same location as the storage area of the storage unit 13 in which the display data is stored. The storage area is, for example, a file system folder of the server device 10. In addition, the data processing unit 11 transmits the audio data, the update information, and the display data received from the client device 20 to the generation unit 12. The generation unit 12 generates moving image data obtained by combining display data and audio data based on the update information. Details of the moving image data generation method will be described later. The generation unit 12 transmits the moving image data to the data processing unit 11. The data processing unit 11 stores the moving image data received from the generation unit 12 in the same location as the storage area of the storage unit 13 in which display data is stored. The data stored in the same storage area is distinguished by the data extension and data name.

図4は、第1の実施の形態の制御部21の機能ブロックの一例を示す図である。本実施の形態の制御部21は、操作受付部51、データ要求部52、表示制御部53及び更新情報取得部54を備える。操作受付部51は、発表者(クライアント装置20のユーザ)から、表示データの表示を制御するための操作を受け付ける。データ要求部52は、サーバ装置10に表示データを要求する。表示制御部53は、表示データの表示の開始、更新及び終了などを制御する。更新情報取得部54は、表示データの表示を更新した時刻を含む更新情報を取得する。   FIG. 4 is a diagram illustrating an example of functional blocks of the control unit 21 according to the first embodiment. The control unit 21 according to the present embodiment includes an operation reception unit 51, a data request unit 52, a display control unit 53, and an update information acquisition unit 54. The operation reception unit 51 receives an operation for controlling display of display data from a presenter (user of the client device 20). The data request unit 52 requests display data from the server device 10. The display control unit 53 controls the start, update, and end of display of display data. The update information acquisition unit 54 acquires update information including the time when the display of the display data is updated.

図5は、第1の実施の形態の情報処理方法の一例を説明するためのフローチャートである。クライアント装置20のデータ要求部52は、操作受付部51から、表示(投影)開始要求を受けると、サーバ装置10に表示データを要求する(ステップS1)。サーバ装置10のデータ処理部11は、データ要求部52から要求された表示データを記憶部13から取り出す(ステップS2)。データ処理部11は、クライアント装置20に表示データを送信する(ステップS3)。表示制御部53は、サーバ装置10から受信した表示データをプロジェクタ40に投影することにより、表示データを表示する(ステップS4)。録音部22は、音声の録音を開始する(ステップS5)。   FIG. 5 is a flowchart for explaining an example of the information processing method according to the first embodiment. When receiving a display (projection) start request from the operation receiving unit 51, the data request unit 52 of the client device 20 requests display data from the server device 10 (step S1). The data processing unit 11 of the server device 10 extracts the display data requested from the data requesting unit 52 from the storage unit 13 (step S2). The data processing unit 11 transmits display data to the client device 20 (step S3). The display control unit 53 displays the display data by projecting the display data received from the server device 10 onto the projector 40 (step S4). The recording unit 22 starts recording audio (step S5).

表示制御部53は、操作受付部51から表示(投影)更新要求を受信すると、プロジェクタ40で投影している画像(表示データ)を更新する(ステップS6)。更新情報取得部54は、表示データの表示が更新されるときに、表示データの表示を更新した時刻を含む更新情報を記録する(ステップS7)。   When receiving a display (projection) update request from the operation reception unit 51, the display control unit 53 updates the image (display data) projected by the projector 40 (step S6). When the display data display is updated, the update information acquisition unit 54 records the update information including the time when the display data display is updated (step S7).

表示制御部53は、操作受付部51から表示(投影)終了要求を受信すると、プロジェクタ40に投影している画像(表示データ)の表示(投影)を終了する(ステップS8)。録音部22は、音声の録音を終了し、音声データを取得する(ステップS9)。送信部23は、音声データと更新情報とをサーバ装置10に送信する(ステップS10)。   When receiving the display (projection) end request from the operation receiving unit 51, the display control unit 53 ends the display (projection) of the image (display data) projected on the projector 40 (step S8). The recording unit 22 ends the sound recording and acquires the sound data (step S9). The transmission part 23 transmits audio | voice data and update information to the server apparatus 10 (step S10).

サーバ装置10のデータ処理部11は、クライアント装置20からアップロードされた音声データを記憶部13に記憶する(ステップS11)。生成部12は、更新情報に基づいて、表示データと音声データとを合成した動画データを生成する(ステップS12)。   The data processing unit 11 of the server device 10 stores the audio data uploaded from the client device 20 in the storage unit 13 (step S11). The generation unit 12 generates moving image data obtained by combining display data and audio data based on the update information (step S12).

図6は、本実施の形態の情報処理システム100の動画データの生成について説明するための図である。生成部12は、更新情報の更新時間を、表示(投影)開始時を00:00:00とすることにより、相対的な時間として使用する。生成部12は、音声データの再生時間を基準にして、更新情報に基づく表示データのページの切り換えを行うことにより、音声データと表示データとを合成した動画データを生成する。   FIG. 6 is a diagram for describing generation of moving image data in the information processing system 100 according to the present embodiment. The generation unit 12 uses the update time of the update information as a relative time by setting the display (projection) start time to 00:00:00. The generation unit 12 generates moving image data obtained by synthesizing the audio data and the display data by switching the display data page based on the update information on the basis of the reproduction time of the audio data.

図5に戻り、データ処理部11は、生成した動画データを、記憶部13の表示データが記憶されている記憶領域と同じ場所に記憶する(ステップS13)。   Returning to FIG. 5, the data processing unit 11 stores the generated moving image data in the same location as the storage area where the display data of the storage unit 13 is stored (step S <b> 13).

本実施の形態の情報処理システム100によれば、プレゼンテーションなどで説明に使用されたデータと、説明中に記録された音声データとを、より容易に動画データとして合成できるという効果を奏する。   According to the information processing system 100 of the present embodiment, there is an effect that the data used for the explanation in the presentation and the audio data recorded during the explanation can be more easily synthesized as moving image data.

(第2の実施の形態)
次に、第2の実施の形態について説明する。図7は、第2の実施の形態の情報処理システム100の機能ブロックの一例を示す図である。第2の実施形態の情報処理システム100では、発表者のクライアント装置20aだけではなく、傍聴者のクライアント装置20bからも、サーバ装置10にデータがアップロードされる場合について説明する。本実施の形態の情報処理システム100は、サーバ装置10、クライアント装置20a、クライアント装置20b、モニタ30及びプロジェクタ40を備える。クライアント装置20aは、発表者により使用される。クライアント装置20bは、傍聴者により使用される。
(Second Embodiment)
Next, a second embodiment will be described. FIG. 7 is a diagram illustrating an example of functional blocks of the information processing system 100 according to the second embodiment. In the information processing system 100 of the second embodiment, a case will be described in which data is uploaded to the server device 10 not only from the client device 20a of the presenter but also from the client device 20b of the listener. The information processing system 100 according to the present embodiment includes a server device 10, a client device 20a, a client device 20b, a monitor 30, and a projector 40. The client device 20a is used by the presenter. The client device 20b is used by a listener.

図8は、第2の実施の形態の情報処理システム100のハードウェアの接続関係の一例を示す図である。本実施の形態の情報処理システム100では、サーバ装置10、クライアント装置20a、クライアント装置20b、モニタ30及びプロジェクタ40が、ネットワーク60により互いに接続されている。本実施の形態のハードウェアの接続関係の説明は、第1の実施形態の説明と同様なので省略する。   FIG. 8 is a diagram illustrating an example of a hardware connection relationship of the information processing system 100 according to the second embodiment. In the information processing system 100 according to the present embodiment, the server device 10, the client device 20 a, the client device 20 b, the monitor 30, and the projector 40 are connected to each other via a network 60. The description of the hardware connection relationship of the present embodiment is the same as the description of the first embodiment, and will be omitted.

図7に戻り、クライアント装置20a、クライアント装置20b、モニタ30及びプロジェクタ40の構成の説明は、第1の実施の形態と同じであるため説明を省略する。以下、サーバ装置10について説明する。第1の実施の形態のサーバ装置10の生成部12は、クライアント装置20aから音声データと更新情報とを受信したときに、動画データを生成した。すなわち、第1の実施の形態の情報処理システム100では、クライアント装置20aの操作受付部51が、発表者から表示(投影)の終了を示す操作を受け付けたときを契機にして、生成部12が、更新情報に基づいて動画データを生成していた。本実施のサーバ装置10は、クライアント装置20aを利用した発表者の発表の終了後に、更に、クライアント装置20b(クライアント装置20aでもよい)から、サーバ装置10にデータ(画像データ、動画データ及びテキストデータなど)が追加されたときを契機にして、動画データを生成する。   Returning to FIG. 7, the description of the configuration of the client device 20a, the client device 20b, the monitor 30, and the projector 40 is the same as that of the first embodiment, and thus the description thereof is omitted. Hereinafter, the server apparatus 10 will be described. The generating unit 12 of the server device 10 according to the first embodiment generates moving image data when receiving audio data and update information from the client device 20a. That is, in the information processing system 100 according to the first embodiment, the generation unit 12 is triggered when the operation reception unit 51 of the client device 20a receives an operation indicating the end of display (projection) from the presenter. The moving image data was generated based on the update information. After the presenter's presentation using the client device 20a is completed, the server device 10 of the present embodiment further transfers data (image data, moving image data, and text data) from the client device 20b (or the client device 20a) to the server device 10. Etc.) is added as a trigger when moving image data is generated.

次に、発表者の発表の終了後に、サーバ装置10に追加されるデータの例について説明する。図9は、第2の実施の形態のクライアント装置(傍聴者)20bから追加されるデータ(ファイル)の一例を示す図である。image1.jpg及びimage2.jpgは、例えば、発表の傍観者が、表示データが投影されたホワイトボードなどに追記された情報などを、クライアント装置20bにより撮影した画像データなどである。なお、画像データのデータ形式は、jpgに限られず、任意の形式でよい。また、movie.mpgは、例えば、発表の傍観者が、発表中の様子を撮影した動画データなどである。なお、動画データの形式は、mpgに限られず、任意の形式でよい。   Next, an example of data added to the server device 10 after the presentation of the presenter is completed will be described. FIG. 9 is a diagram illustrating an example of data (file) added from the client device (listener) 20b according to the second embodiment. image1. jpg and image2. jpg is, for example, image data taken by the client device 20b, such as information added on the whiteboard on which the display data is projected by the bystander of the presentation. Note that the data format of the image data is not limited to jpg and may be any format. Also, movie. The mpg is, for example, moving image data in which a presentation bystander has taken a picture of the presentation. Note that the format of the moving image data is not limited to mpg, and may be any format.

なお、生成部12が、複数のデータを合成して動画データを生成するときに、データの作成日時(作成時間)が参照される。そのため、クライアント装置20a及び20bは、NTP(Network Time Protocol)サーバなどを利用して、クライアント装置20a及び20bの時刻を合わせる機能を有していてもよい。   In addition, when the production | generation part 12 synthesize | combines several data and produces | generates moving image data, the creation date (creation time) of data is referred. Therefore, the client devices 20a and 20b may have a function of adjusting the time of the client devices 20a and 20b using an NTP (Network Time Protocol) server or the like.

図10は、第2の実施の形態のクライアント装置(傍聴者)20bから追加されるテキストデータのデータ形式の一例を示す図である。テキストデータは、例えば、発表の傍観者が、発表中のメモなどを記録したデータである。本実施の形態のテキストデータは、テキストと、当該テキストと表示データのページとを対応付ける対応情報とが含まれるデータ形式を有する。当該対応情報は、例えば、表示データのページ番号である。   FIG. 10 is a diagram illustrating an example of a data format of text data added from the client device (listener) 20b according to the second embodiment. The text data is, for example, data in which a bystander of a presentation records a memo being presented. The text data of the present embodiment has a data format including text and correspondence information that associates the text with a page of display data. The correspondence information is, for example, a page number of display data.

図11は、第2の実施の形態の情報処理システム100の動画データの生成について説明するための図である。図11の例で生成される動画データは、第1の実施の形態の情報処理システムにより生成される動画データに、図9及び10に例示されたデータが更に追加されている。すなわち、生成部12は、テキストデータに含まれるテキスト(テキスト1〜3)、image1.jpg、image2.jpg及びmovie.mpgを更に追加した状態で動画データを生成する。   FIG. 11 is a diagram for describing generation of moving image data in the information processing system 100 according to the second embodiment. In the moving image data generated in the example of FIG. 11, the data illustrated in FIGS. 9 and 10 is further added to the moving image data generated by the information processing system according to the first embodiment. That is, the generation unit 12 generates texts (texts 1 to 3) included in the text data, image1. jpg, image2. jpg and movie. Movie data is generated with mpg added.

生成部12は、表示データが記憶されている記憶領域に画像データが更に追加された場合は、例えば、画像データの作成日時に基づいて、表示データが記憶されている記憶領域に既に記憶されていたデータと、追加された画像データとを合成した動画データを生成する。   When the image data is further added to the storage area in which the display data is stored, the generation unit 12 is already stored in the storage area in which the display data is stored, for example, based on the creation date and time of the image data. The moving image data is generated by combining the acquired data and the added image data.

また、生成部12は、表示データが記憶されている記憶領域に動画データが更に追加された場合に、例えば、当該動画データの作成日時と再生時間の長さとに基づいて、表示データが記憶されている記憶領域に既に記憶されていたデータと、当該動画データとを合成した動画データを生成する。すなわち、生成部12は、追加された動画データの作成日時から、当該追加された動画データの再生時間の長さだけ遡った時間から、当該追加された動画データを再生するように合成する。   Further, when the moving image data is further added to the storage area in which the display data is stored, the generation unit 12 stores the display data based on, for example, the creation date and time of the moving image data and the length of the reproduction time. Moving image data is generated by combining the data already stored in the storage area and the moving image data. In other words, the generation unit 12 combines the added moving image data so that the added moving image data is reproduced from the date and time when the added moving image data is created.

また、生成部12は、表示データが記憶されている記憶領域に、例えば、テキストと、当該テキストと表示データのページとを対応付ける対応情報とが含まれるテキストデータが更に追加された場合に、当該対応情報に基づいて、表示データが記憶されている記憶領域に既に記憶されていたデータと、追加されたテキストデータとを合成した動画データを生成する。   In addition, when the generation unit 12 further adds, for example, text data including correspondence information that associates the text with the page of the display data to the storage area in which the display data is stored, Based on the correspondence information, moving image data is generated by synthesizing the data already stored in the storage area where the display data is stored and the added text data.

なお、生成部12は、同じ記憶領域に、複数の動画データを記憶する場合は、動画データの名称に、プレフィックスなどを付けるなどして区別できるようにする。当該プレフィックスは、例えば、動画データの作成日時や番号などである。   In addition, when storing a plurality of moving image data in the same storage area, the generation unit 12 makes a distinction by adding a prefix to the name of the moving image data. The prefix is, for example, the creation date and number of moving image data.

また、生成部12は、表示データが記憶されている記憶領域に既に記憶されていたデータを、データの名称やデータの拡張子などにより、データの合成に使用するデータと、データの合成に使用しないデータとに識別してもよい。例えば、生成部12は、表示データが記憶されている記憶領域に、既に記憶されている合成された動画データを、動画データの合成に使用しなくてもよい。   In addition, the generation unit 12 uses the data already stored in the storage area in which the display data is stored, the data used for data synthesis and the data synthesis by the data name, the data extension, etc. It may be distinguished from data that is not. For example, the generation unit 12 may not use the synthesized moving image data already stored in the storage area where the display data is stored for the synthesis of the moving image data.

また、生成部12は、データの合成に使用するデータに、音声データを持つデータが複数ある場合は、音声データを優先的に使用するデータの形式などを定めておいてもよい。また、サーバ装置10の設定により、音声データを有効にするデータを、適宜変更できるようにしてもよい。   In addition, when the data used for data synthesis includes a plurality of data having audio data, the generation unit 12 may determine a data format that preferentially uses the audio data. Further, the data for validating the audio data may be appropriately changed by the setting of the server device 10.

本実施の形態の情報処理システム100によれば、クライアント装置20aを利用した発表者の発表の終了後に、更に、クライアント装置20b(クライアント装置20aでもよい)から、サーバ装置10にデータが追加されたときにも、当該データを合成した動画データを生成することができる。   According to the information processing system 100 of the present embodiment, after the presentation of the presenter using the client device 20a is completed, data is further added to the server device 10 from the client device 20b (or the client device 20a). Sometimes, it is possible to generate moving image data by combining the data.

図12は、第1及び第2の実施の形態のサーバ装置10及びクライアント装置20のハードウェア構成の一例を説明するための図である。   FIG. 12 is a diagram for describing an example of a hardware configuration of the server device 10 and the client device 20 according to the first and second embodiments.

第1及び第2の実施の形態のサーバ装置10及びクライアント装置20は、制御装置71、主記憶装置72、補助記憶装置73、表示装置74、入力装置75及び通信装置76を備える。制御装置71、主記憶装置72、補助記憶装置73、表示装置74、入力装置75及び通信装置76は、バス77を介して互いに接続されている。以下、サーバ装置10が、PCなどと同じ構成のコンピュータであり、クライアント装置20がスマートデバイスなどである場合について説明する。なお、サーバ装置10及びクライアント装置20は、PCやスマートデバイスに限られず、プログラムを実行することができる任意のコンピュータでよい。   The server device 10 and the client device 20 according to the first and second embodiments include a control device 71, a main storage device 72, an auxiliary storage device 73, a display device 74, an input device 75, and a communication device 76. The control device 71, the main storage device 72, the auxiliary storage device 73, the display device 74, the input device 75, and the communication device 76 are connected to each other via a bus 77. Hereinafter, a case where the server apparatus 10 is a computer having the same configuration as a PC and the client apparatus 20 is a smart device will be described. The server device 10 and the client device 20 are not limited to PCs and smart devices, and may be any computer that can execute a program.

制御装置71は、補助記憶装置73から主記憶装置72に読み出されたプログラムを実行する。主記憶装置72は、ROM(Read Only Memory)やRAM(Random Access Memory)等のメモリである。補助記憶装置73は、例えば、サーバ装置10の場合は、ハードディスク等である。また、クライアント装置20の場合は、メモリカード等である。表示装置74は、サーバ装置10及びクライアント装置20の状態等を表示する画面である。表示装置74は、例えば、サーバ装置10の場合は、液晶ディスプレイ等である。また、クライアント装置20の場合は、タッチパネル等である。入力装置75は、サーバ装置10及びクライアント装置20を操作するためのインターフェースである。入力装置75は、例えば、サーバ装置10の場合は、キーボードやマウス等である。また、クライアント装置20の場合は、タッチパネルやボタン等である。通信装置76は、ネットワークに接続するためのインターフェースである。   The control device 71 executes the program read from the auxiliary storage device 73 to the main storage device 72. The main storage device 72 is a memory such as a ROM (Read Only Memory) or a RAM (Random Access Memory). For example, in the case of the server device 10, the auxiliary storage device 73 is a hard disk or the like. In the case of the client device 20, it is a memory card or the like. The display device 74 is a screen that displays the statuses of the server device 10 and the client device 20. For example, in the case of the server device 10, the display device 74 is a liquid crystal display or the like. In the case of the client device 20, a touch panel or the like is used. The input device 75 is an interface for operating the server device 10 and the client device 20. For example, in the case of the server device 10, the input device 75 is a keyboard, a mouse, or the like. In the case of the client device 20, a touch panel, a button, or the like is used. The communication device 76 is an interface for connecting to a network.

第1及び第2の実施の形態のサーバ装置10及びクライアント装置20で実行されるプログラムを、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R及びDVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録し、コンピュータ・プログラム・プロダクトとして提供してもよい。また、第1及び第2の実施の形態のサーバ装置10及びクライアント装置20で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供してもよい。また、第1及び第2の実施の形態のサーバ装置10及びクライアント装置20で実行されるプログラムをダウンロードさせずに、インターネット等のネットワーク経由で提供、又は配布してもよい。また、第1及び第2の実施の形態のサーバ装置10及びクライアント装置20のプログラムを、ROM等に予め組み込んで提供してもよい。   The programs to be executed on the server device 10 and the client device 20 according to the first and second embodiments are installed in an installable format or an executable format file, such as a CD-ROM, a memory card, a CD-R, and a DVD (Digital The program may be recorded on a computer-readable recording medium such as Versatile Disk) and provided as a computer program product. In addition, the programs executed by the server device 10 and the client device 20 of the first and second embodiments are stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Also good. Further, the program executed by the server device 10 and the client device 20 of the first and second embodiments may be provided or distributed via a network such as the Internet without downloading. The programs of the server device 10 and the client device 20 according to the first and second embodiments may be provided by being incorporated in advance in a ROM or the like.

第1及び第2の実施の形態のサーバ装置10で実行されるプログラムは、上述したサーバ装置10の各機能ブロックのうち、プログラムとしても実現可能な機能ブロック(データ処理部11及び生成部12)を含むモジュール構成となっている。   The program executed by the server device 10 according to the first and second embodiments is a functional block (data processing unit 11 and generation unit 12) that can be realized as a program among the functional blocks of the server device 10 described above. The module configuration includes

また、第1及び第2の実施の形態のクライアント装置20で実行されるプログラムは、上述したクライアント装置20の各機能ブロックのうち、プログラムとしても実現可能な機能ブロック(制御部21(操作受付部51、データ要求部52、表示制御部53及び更新情報取得部54)及び送信部23)を含むモジュール構成となっている。   The program executed by the client device 20 of the first and second embodiments is a functional block (control unit 21 (operation receiving unit) that can be realized as a program among the functional blocks of the client device 20 described above. 51, a data request unit 52, a display control unit 53, an update information acquisition unit 54), and a transmission unit 23).

当該モジュールは、実際のハードウェアとしては、制御装置71が上記記憶媒体からプログラムを読み出して実行することにより、上記各モジュールが主記憶装置72上にロードされる。すなわち、上記各モジュールは、主記憶装置72上に生成される。なお、サーバ装置10及びクライアント装置20の各機能ブロックの一部、又は全部を、プログラムにより実現せずに、IC(Integrated Circuit)等のハードウェアにより実現してもよい。   As the actual hardware, the control device 71 reads the program from the storage medium and executes the module, whereby the modules are loaded onto the main storage device 72. That is, each module is generated on the main storage device 72. Note that some or all of the functional blocks of the server device 10 and the client device 20 may be realized by hardware such as an IC (Integrated Circuit) without being realized by a program.

第1及び第2の実施の形態の情報処理システム100によれば、プレゼンテーションなどで説明に使用されたデータと、説明中に記録されたデータとを、より容易に動画データとして合成できるという効果を奏する。   According to the information processing system 100 of the first and second embodiments, there is an effect that the data used for the description in the presentation and the data recorded during the description can be more easily combined as the moving image data. Play.

10 サーバ装置
20 クライアント装置
30 モニタ
40 プロジェクタ
60 ネットワーク
11 データ処理部
12 生成部
13 記憶部
21 制御部
22 録音部
23 送信部
51 操作受付部
52 データ要求部
53 表示制御部
54 更新情報取得部
71 制御装置
72 主記憶装置
73 補助記憶装置
74 表示装置
75 入力装置
76 通信装置
77 バス
100 情報処理システム
DESCRIPTION OF SYMBOLS 10 Server apparatus 20 Client apparatus 30 Monitor 40 Projector 60 Network 11 Data processing part 12 Generation part 13 Storage part 21 Control part 22 Recording part 23 Transmission part 51 Operation reception part 52 Data request part 53 Display control part 54 Update information acquisition part 71 Control Device 72 Main storage device 73 Auxiliary storage device 74 Display device 75 Input device 76 Communication device 77 Bus 100 Information processing system

特開2005−252574号公報JP 2005-252574 A

Claims (10)

サーバ装置と、1以上のクライアント装置とを備える情報処理システムであって、
前記クライアント装置は、
前記サーバ装置に表示データを要求するデータ要求部と、
前記表示データの表示を制御する表示制御部と、
前記表示データの表示を更新した時刻を含む更新情報を取得する更新情報取得部と、
前記表示データを表示中の音声を録音し、音声データを取得する録音部と、
前記更新情報と前記音声データとを前記サーバ装置に送信する送信部と、
を備え、
前記サーバ装置は、
前記表示データを記憶する記憶部と、
前記クライアント装置の要求に応じて、前記クライアント装置に前記表示データを送信するデータ処理部と、
前記クライアント装置から前記更新情報と前記音声データとを受信した場合に、前記更新情報に基づいて、前記表示データと前記音声データとを合成した動画データを生成する生成部と、
を備える情報処理システム。
An information processing system comprising a server device and one or more client devices,
The client device is
A data requesting unit that requests display data from the server device;
A display control unit for controlling display of the display data;
An update information acquisition unit for acquiring update information including a time when the display of the display data is updated;
A sound recording unit for recording the sound displaying the display data and obtaining the sound data;
A transmission unit for transmitting the update information and the audio data to the server device;
With
The server device
A storage unit for storing the display data;
A data processing unit that transmits the display data to the client device in response to a request from the client device;
A generator that generates moving image data by combining the display data and the audio data based on the update information when the update information and the audio data are received from the client device;
An information processing system comprising:
前記生成部は、
前記表示データが記憶されている記憶領域に画像データが更に追加された場合に、前記画像データの作成日時に基づいて、前記表示データが記憶されている記憶領域に既に記憶されていたデータと、前記追加された画像データとを合成した動画データを生成する
請求項1に記載の情報処理システム。
The generator is
When image data is further added to the storage area where the display data is stored, based on the creation date and time of the image data, the data already stored in the storage area where the display data is stored; The information processing system according to claim 1, wherein moving image data is generated by combining the added image data.
前記生成部は、
前記表示データが記憶されている記憶領域に動画データが更に追加された場合に、前記動画データの作成日時と再生時間の長さとに基づいて、前記表示データが記憶されている記憶領域に既に記憶されていたデータと、前記追加された動画データとを合成した動画データを生成する
請求項1又は2に記載の情報処理システム。
The generator is
When moving image data is further added to the storage area in which the display data is stored, the moving image data is already stored in the storage area in which the display data is stored based on the creation date and time of the moving image data and the length of the playback time. The information processing system according to claim 1, wherein moving image data obtained by combining the added data and the added moving image data is generated.
前記生成部は、
前記表示データが記憶されている記憶領域に、テキストと、前記テキストと前記表示データのページとを対応付ける対応情報とが含まれるテキストデータが更に追加された場合に、前記対応情報に基づいて、前記表示データが記憶されている記憶領域に既に記憶されていたデータと、前記追加されたテキストデータとを合成した動画データを生成する
請求項1乃至3のいずれか1項に記載の情報処理システム。
The generator is
When text data including correspondence information that associates the text with the text and the page of the display data is further added to the storage area in which the display data is stored, based on the correspondence information, The information processing system according to any one of claims 1 to 3, wherein moving image data is generated by combining data already stored in a storage area in which display data is stored and the added text data.
前記表示制御部は、
前記表示データを、プロジェクタから投影される投影画像として表示する
請求項1乃至4のいずれか1項に記載の情報処理システム。
The display control unit
The information processing system according to any one of claims 1 to 4, wherein the display data is displayed as a projection image projected from a projector.
前記記憶領域は、
前記サーバ装置のファイルシステムのフォルダである
請求項1乃至5のいずれか1項に記載の情報処理システム。
The storage area is
The information processing system according to any one of claims 1 to 5, wherein the information processing system is a file system folder of the server device.
サーバ装置と、1以上のプログラムとを備える情報処理システムであって、
前記プログラムは、
前記サーバ装置に表示データを要求するデータ要求部と、
前記表示データの表示を制御する表示制御部と、
前記表示データの表示を更新した時刻を含む更新情報を取得する更新情報取得部と、
前記表示データを表示中の音声を録音し、音声データを取得する録音部と、
前記更新情報と前記音声データとを前記サーバ装置に送信する送信部と、
を備え、
前記サーバ装置は、
前記表示データを記憶する記憶部と、
前記プログラムの要求に応じて、前記プログラムに前記表示データを送信するデータ処理部と、
前記プログラムから前記更新情報と前記音声データとを受信した場合に、前記更新情報に基づいて、前記表示データと前記音声データとを合成した動画データを生成する生成部と、
を備える情報処理システム。
An information processing system comprising a server device and one or more programs,
The program is
A data requesting unit that requests display data from the server device;
A display control unit for controlling display of the display data;
An update information acquisition unit for acquiring update information including a time when the display of the display data is updated;
A sound recording unit for recording the sound displaying the display data and obtaining the sound data;
A transmission unit for transmitting the update information and the audio data to the server device;
With
The server device
A storage unit for storing the display data;
A data processing unit for transmitting the display data to the program in response to a request from the program;
A generator that generates video data obtained by combining the display data and the audio data based on the update information when the update information and the audio data are received from the program;
An information processing system comprising:
1以上のクライアント装置と接続されるサーバ装置であって、
前記サーバ装置は、
表示データを記憶する記憶部と、
前記クライアント装置の要求に応じて、前記クライアント装置に前記表示データを送信するデータ処理部と、
前記クライアント装置から、前記表示データの表示を更新した時刻を含む更新情報と、前記表示データを表示中の音声が録音された音声データとを受信した場合に、前記更新情報に基づいて、前記表示データと前記音声データとを合成した動画データを生成する生成部と、
を備えるサーバ装置。
A server device connected to one or more client devices,
The server device
A storage unit for storing display data;
A data processing unit that transmits the display data to the client device in response to a request from the client device;
When the update information including the time when the display of the display data is updated and the voice data in which the voice displaying the display data is recorded are received from the client device, the display is performed based on the update information. A generation unit that generates moving image data obtained by combining data and the audio data;
A server device comprising:
表示データを記憶する記憶部を備えるサーバ装置と、1以上のクライアント装置とを備える情報処理システムの情報処理方法であって、
前記クライアント装置が、前記サーバ装置に前記表示データを要求するステップと、
前記クライアント装置が、前記表示データの表示を制御するステップと、
前記クライアント装置が、前記表示データの表示を更新した時刻を含む更新情報を取得するステップと、
前記クライアント装置が、前記表示データを表示中の音声を録音し、音声データを取得するステップと、
前記クライアント装置が、前記更新情報と前記音声データとを前記サーバ装置に送信するステップと、
前記サーバ装置が、前記クライアント装置の要求に応じて、前記クライアント装置に前記表示データを送信するステップと、
前記サーバ装置が、前記クライアント装置から前記更新情報と前記音声データとを受信した場合に、前記更新情報に基づいて、前記表示データと前記音声データとを合成した動画データを生成するステップと、
を含む情報処理方法。
An information processing method of an information processing system including a server device including a storage unit that stores display data and one or more client devices,
The client device requesting the display data from the server device;
The client device controlling the display of the display data;
Obtaining update information including a time when the client device has updated the display of the display data; and
The client device records the voice displaying the display data and obtains voice data;
The client device transmitting the update information and the audio data to the server device;
The server device transmitting the display data to the client device in response to a request from the client device;
When the server device receives the update information and the audio data from the client device, and based on the update information, generates video data that combines the display data and the audio data;
An information processing method including:
表示データを記憶する記憶部を備え、1以上のクライアント装置と接続されるコンピュータを、
前記クライアント装置の要求に応じて、前記クライアント装置に前記表示データを送信するデータ処理部と、
前記クライアント装置から、前記表示データの表示を更新した時刻を含む更新情報と、前記表示データを表示中の音声が録音された音声データとを受信した場合に、前記更新情報に基づいて、前記表示データと前記音声データとを合成した動画データを生成する生成部と、
として機能させるためのプログラム。
A computer having a storage unit for storing display data and connected to one or more client devices,
A data processing unit that transmits the display data to the client device in response to a request from the client device;
When the update information including the time when the display of the display data is updated and the voice data in which the voice displaying the display data is recorded are received from the client device, the display is performed based on the update information. A generation unit that generates moving image data obtained by combining data and the audio data;
Program to function as.
JP2013054432A 2013-03-15 2013-03-15 Information processing system, server device, and program Expired - Fee Related JP6209835B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013054432A JP6209835B2 (en) 2013-03-15 2013-03-15 Information processing system, server device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013054432A JP6209835B2 (en) 2013-03-15 2013-03-15 Information processing system, server device, and program

Publications (2)

Publication Number Publication Date
JP2014183324A true JP2014183324A (en) 2014-09-29
JP6209835B2 JP6209835B2 (en) 2017-10-11

Family

ID=51701692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013054432A Expired - Fee Related JP6209835B2 (en) 2013-03-15 2013-03-15 Information processing system, server device, and program

Country Status (1)

Country Link
JP (1) JP6209835B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331614A (en) * 2000-05-19 2001-11-30 Sony Corp Network conference system, conference minutes generating method, conference managing server, and conference minutes generating method
JP2005252574A (en) * 2004-03-03 2005-09-15 Ricoh Co Ltd Device and method for creating multimedia content, program for making computer execute method, and multimedia content creating system
JP2008293219A (en) * 2007-05-23 2008-12-04 Ricoh Co Ltd Content management system, information processor in content management system, link information generation system in information processor, link information generation program in information processor, and recording medium with link information generation program recorded thereon
JP2010146116A (en) * 2008-12-16 2010-07-01 Konica Minolta Business Technologies Inc Presentation system, data management device and program
JP2010193440A (en) * 2009-01-26 2010-09-02 Kimura Information Technology Co Ltd Presentation recording device
JP2011095809A (en) * 2009-10-27 2011-05-12 Konica Minolta Business Technologies Inc Presentation support system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331614A (en) * 2000-05-19 2001-11-30 Sony Corp Network conference system, conference minutes generating method, conference managing server, and conference minutes generating method
JP2005252574A (en) * 2004-03-03 2005-09-15 Ricoh Co Ltd Device and method for creating multimedia content, program for making computer execute method, and multimedia content creating system
JP2008293219A (en) * 2007-05-23 2008-12-04 Ricoh Co Ltd Content management system, information processor in content management system, link information generation system in information processor, link information generation program in information processor, and recording medium with link information generation program recorded thereon
JP2010146116A (en) * 2008-12-16 2010-07-01 Konica Minolta Business Technologies Inc Presentation system, data management device and program
JP2010193440A (en) * 2009-01-26 2010-09-02 Kimura Information Technology Co Ltd Presentation recording device
JP2011095809A (en) * 2009-10-27 2011-05-12 Konica Minolta Business Technologies Inc Presentation support system

Also Published As

Publication number Publication date
JP6209835B2 (en) 2017-10-11

Similar Documents

Publication Publication Date Title
JP7053869B2 (en) Video generation methods, devices, electronics and computer readable storage media
WO2020077856A1 (en) Video photographing method and apparatus, electronic device and computer readable storage medium
JP5335087B2 (en) Information processing system and information processing apparatus
JP2009003446A (en) Content generation system, content generation device, and content generation program
JP2008293219A (en) Content management system, information processor in content management system, link information generation system in information processor, link information generation program in information processor, and recording medium with link information generation program recorded thereon
JP2009193344A (en) Complex content information creating system, complex content information creating method, terminal device, content management device, and program
JP2014112766A (en) Electronic apparatus, control method, and control program
JP2012190149A (en) Content distribution system, content distribution server, content distribution method, program, and storage medium
JP2023153790A (en) program
JP2009246861A (en) Apparatus and method for imaging and distributing information, and program
JP2005079913A (en) Content creation system, lecture video creation system, video conference system
JP6209835B2 (en) Information processing system, server device, and program
JP5324108B2 (en) Computer system, moving image editing method, program, moving image editing terminal
JP5074537B2 (en) Presentation recording device
JP2014106618A (en) Server device, terminal equipment, ar content providing method, and program
JP6590433B2 (en) Video playback management method, system and program
JP5794934B2 (en) Collaboration song recording system
CN107852523B (en) Method, terminal and equipment for synchronizing media rendering between terminals
JP2006279294A (en) Content reproduction system, content reproduction method, and computer program
JP2019012973A (en) Video distribution system, communication device, video distribution server, and video distribution method
JP6108723B2 (en) Information processing apparatus, information processing method, and program
JP2017228253A (en) Terminal device, program for terminal device, communication server, and communication method
JP2014199282A (en) Singing motion picture data generation device capable of using still picture imaged by user camera
TW201423417A (en) Real-time digital content sharing system and method
KR101607084B1 (en) Apparatus for providing smart tv movie using still image and the method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170828

R151 Written notification of patent or utility model registration

Ref document number: 6209835

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees