JP2008165559A - Information delivery device and program - Google Patents

Information delivery device and program Download PDF

Info

Publication number
JP2008165559A
JP2008165559A JP2006355443A JP2006355443A JP2008165559A JP 2008165559 A JP2008165559 A JP 2008165559A JP 2006355443 A JP2006355443 A JP 2006355443A JP 2006355443 A JP2006355443 A JP 2006355443A JP 2008165559 A JP2008165559 A JP 2008165559A
Authority
JP
Japan
Prior art keywords
information
distribution
image
moving image
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006355443A
Other languages
Japanese (ja)
Other versions
JP4946433B2 (en
Inventor
Noritoshi Suzuki
理敏 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2006355443A priority Critical patent/JP4946433B2/en
Publication of JP2008165559A publication Critical patent/JP2008165559A/en
Application granted granted Critical
Publication of JP4946433B2 publication Critical patent/JP4946433B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information delivery device capable of performing delivery to equipment limited in computer resources or communication conditions while reducing the load in receiving or reproduction. <P>SOLUTION: In the information delivery device, delivery information containing a plurality of synchronously deliverable dynamic information elements is acquired, at least two or more dynamic information elements of the plurality of dynamic information elements contained in the acquired delivery information are taken as processing objects, and the contents of the two or more dynamic information elements of the processing objects are composed according to a predetermined rule to generate one piece of composition information. The generated composition information is delivered. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、情報配信装置及びプログラムに関する。   The present invention relates to an information distribution apparatus and a program.

遠隔地の利用者に対して、動画像や資料映像、音声情報などを同期させて配信し、研修などの用途に資するシステムがある(例えば特許文献1)。
特開2005−4543号公報
There is a system that distributes moving images, document videos, audio information, and the like to users in remote locations in a synchronized manner and contributes to uses such as training (for example, Patent Document 1).
JP 2005-4543 A

近年、携帯電話機やPDA(Personal Digital Assistant)など、携帯端末が広く普及しており、かかる携帯端末においても、上述の配信を受けたいという要望がある。そこで、携帯端末など、計算機資源や、通信条件に制限のある機器にして受信や再生時の負担を軽減できる情報配信装置やプログラムが求められている。   In recent years, mobile terminals such as mobile phones and PDAs (Personal Digital Assistants) have become widespread, and there is a demand for such mobile terminals to receive the above distribution. Accordingly, there is a need for an information distribution apparatus and program that can reduce the burden during reception and reproduction by using a computer with limited computer resources and communication conditions such as a portable terminal.

請求項1記載の発明は、情報配信装置であって、互いに同期させて配信可能な動的情報要素を複数含む配信情報を取得する取得手段と、前記取得した配信情報に含まれる、少なくとも一部複数の動的情報要素を処理の対象とし、予め定めた規則に応じて、当該処理の対象となった前記一部複数の動的情報要素の内容を合成した一つの合成情報を生成する生成手段と、前記生成した合成情報を配信する配信手段と、を含むこととしたものである。   The invention according to claim 1 is an information distribution apparatus, an acquisition means for acquiring distribution information including a plurality of dynamic information elements that can be distributed in synchronization with each other, and at least a part of the acquired distribution information Generation means for generating a plurality of dynamic information elements to be processed, and generating one composite information by combining the contents of the part of the plurality of dynamic information elements to be processed according to a predetermined rule And distribution means for distributing the generated composite information.

請求項2記載の発明は、請求項1記載の情報配信装置であって、前記生成手段が、前記処理の対象となった一部複数の動的情報要素を時分割的に合成し、合成情報を生成することとしたものである。   The invention according to claim 2 is the information distribution apparatus according to claim 1, wherein the generation unit synthesizes a part of the plurality of dynamic information elements to be processed in a time-sharing manner. Is to be generated.

請求項3記載の発明は、請求項1記載の情報配信装置であって、前記生成手段が、前記処理の対象となった動的情報要素の少なくとも一つについて、前記規則によって定められる時点で配信されるべき静止情報を抽出し、当該抽出した情報を含む合成情報を生成することとしたものである。   The invention according to claim 3 is the information distribution apparatus according to claim 1, wherein the generation unit distributes at least one of the dynamic information elements to be processed at a time determined by the rule. Still information to be performed is extracted, and composite information including the extracted information is generated.

請求項4記載の発明は、プログラムであって、互いに同期させて配信可能な動的情報要素を複数含む配信情報を取得する取得手段と、前記取得した配信情報に含まれる、少なくとも一部複数の動的情報要素を処理の対象とし、予め定めた規則に従って、当該処理の対象となった前記一部複数の動的情報要素の内容を合成した一つの合成情報を生成する生成手段と、前記生成した合成情報を配信する配信手段と、を含む情報配信装置として、コンピュータを機能させることとしたものである。   The invention according to claim 4 is a program, an acquisition means for acquiring distribution information including a plurality of dynamic information elements that can be distributed in synchronization with each other, and at least a plurality of at least some of the plurality of information included in the acquired distribution information Generating means for generating dynamic information elements as processing targets, and generating one composite information by combining the contents of the plurality of dynamic information elements subjected to the processing according to a predetermined rule; The computer is caused to function as an information distribution apparatus including distribution means for distributing the combined information.

請求項1または4記載の発明によると、配信情報の受信や再生時の負担を軽減できる。   According to the first or fourth aspect of the invention, it is possible to reduce the burden at the time of receiving or reproducing the distribution information.

請求項2記載の発明によると、複数の動的情報要素を時分割的に合成した配信情報を生成できる。   According to the second aspect of the present invention, it is possible to generate distribution information obtained by combining a plurality of dynamic information elements in a time division manner.

請求項3記載の発明によると、動的情報から静止情報を抽出して配信を行うことができる。   According to the third aspect of the present invention, it is possible to perform distribution by extracting still information from dynamic information.

本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る情報配信装置1は、図1に示すように、制御部11と、記憶部12と、通信部13と、を含んで構成される。また、この情報配信装置1は、情報配信を受け入れるクライアント装置2に対して、ネットワークなどの通信手段を介して接続されている。ここでクライアント装置2は、パーソナルコンピュータだけでなく、携帯電話機などであってもよい。携帯電話機に対しては、情報配信装置1は、携帯電話回線網を介して通信可能になっている。   Embodiments of the present invention will be described with reference to the drawings. As shown in FIG. 1, the information distribution apparatus 1 according to the embodiment of the present invention includes a control unit 11, a storage unit 12, and a communication unit 13. The information distribution apparatus 1 is connected to a client apparatus 2 that accepts information distribution via a communication means such as a network. Here, the client device 2 may be not only a personal computer but also a mobile phone. For the mobile phone, the information distribution apparatus 1 can communicate via the mobile phone network.

制御部11は、CPUなどのプログラム制御デバイスであり、記憶部12に格納されているプログラムに従って動作する。この制御部11は、記憶部12に格納されている配信情報を、要求に応じて配信する。ここで配信情報は、図2に例示するように、動画像(V)と、音声情報(A)と、提供開始時点の情報に関連づけられている画像情報(S)とを含む。これらの情報は互いに同期させて、時間経過とともに配信される。つまり動画像(V)、音声情報(A)、画像情報(S)は、再生時間の経過とともに配信される情報の内容が変化する、動的な情報要素の一例であり、配信対象の情報に含まれる動的情報要素は、これらに限られない。   The control unit 11 is a program control device such as a CPU, and operates according to a program stored in the storage unit 12. The control unit 11 distributes the distribution information stored in the storage unit 12 in response to a request. Here, as illustrated in FIG. 2, the distribution information includes a moving image (V), audio information (A), and image information (S) associated with information at the start of provision. These pieces of information are synchronized with each other and distributed over time. That is, the moving image (V), the audio information (A), and the image information (S) are examples of dynamic information elements in which the content of the information distributed changes with the passage of the reproduction time. The included dynamic information elements are not limited to these.

制御部11は、また、この配信情報に含まれる動的情報要素の全部または一部複数を処理の対象として、予め定めた規則に従って、当該処理の対象となった一部複数の動的情報要素の内容を合成した一つの合成情報を生成する。そして生成した合成情報を配信する。この制御部11の具体的な処理例については後に詳しく述べる。   The control unit 11 also sets all or some of the dynamic information elements included in the distribution information as processing targets, and according to a predetermined rule, sets some dynamic information elements that are targets of the processing. One composition information is generated by combining the contents of. Then, the generated composite information is distributed. A specific processing example of the control unit 11 will be described in detail later.

記憶部12は、RAM(Random Access Memory)などの記憶素子や、ハードディスクなどのストレージデバイスを含んで構成される。この記憶部12は、制御部11によって実行されるプログラムを格納する記憶媒体として機能する。また、このプログラムは、他の記憶媒体(例えばDVD−ROMなど)から複写されたものであってもよい。さらに記憶部12は、制御部11のワークメモリとしても動作する。またこの記憶部12は既に述べたように、少なくとも一つの配信情報を保持している。   The storage unit 12 includes a storage element such as a RAM (Random Access Memory) and a storage device such as a hard disk. The storage unit 12 functions as a storage medium that stores a program executed by the control unit 11. The program may be copied from another storage medium (for example, a DVD-ROM). Furthermore, the storage unit 12 also operates as a work memory for the control unit 11. The storage unit 12 holds at least one piece of distribution information as already described.

通信部13は、ネットワークなどの通信手段を介してクライアント装置2との間で情報を送受する。また、この通信部13は、電話回線を介して携帯電話機などのクライアント装置2との間で通信可能に接続されている。   The communication unit 13 transmits / receives information to / from the client device 2 via communication means such as a network. The communication unit 13 is communicably connected to the client device 2 such as a mobile phone via a telephone line.

ここで制御部11による合成情報の生成動作について説明する。この制御部11は、記憶部12に格納されたプログラムを実行することにより、機能的に図3に示すように、配信情報取得部21と、動的情報要素処理部22と、合成部23と、出力部24とを含んで構成される。   Here, an operation of generating composite information by the control unit 11 will be described. As shown in FIG. 3 functionally, the control unit 11 executes a program stored in the storage unit 12 so that a distribution information acquisition unit 21, a dynamic information element processing unit 22, a synthesis unit 23, And the output unit 24.

本実施の形態のクライアント装置2は、要求する配信情報の参照情報(URL:Uniform Resource Locatorなど)と、再生環境に関する情報とを情報配信装置1に対して送出するものとする。ここに再生環境に関する情報は、例えばクライアント装置2の映像表示機能に関する情報である。その具体的な例としては、クライアント装置2のディスプレイの表示領域サイズや、動画表示機能の有無(動画表示アプリケーションプログラムを実行可能か否かといった、実行可能なアプリケーションの種類を表す情報等)、また再生の対象となる情報を保持するための記憶容量や、記憶媒体(RAMであるか、メモリカードなど、外部の半導体記憶素子であるかなど)、画像表示処理速度(1秒あたりフレームいくつまでの表示が可能か)などがある。   Assume that the client device 2 of the present embodiment sends reference information (URL: Uniform Resource Locator, etc.) of requested distribution information and information related to the reproduction environment to the information distribution device 1. Here, the information related to the reproduction environment is information related to the video display function of the client device 2, for example. Specific examples thereof include the display area size of the display of the client device 2, the presence / absence of a moving image display function (information indicating the type of executable application, such as whether a moving image display application program can be executed, etc.) Storage capacity for holding information to be played back, storage media (RAM, memory card, etc.), image display processing speed (up to frames per second) Display is possible).

配信情報取得部21は、要求に係る参照情報や、再生環境に関する情報などをクライアント装置2から受信すると、当該参照情報で特定される配信情報を、記憶部12から読み出して動的情報要素処理部22に出力する。また、受信した再生環境に係る情報を動的情報要素処理部22に出力する。   When the distribution information acquisition unit 21 receives the reference information related to the request, information about the reproduction environment, and the like from the client device 2, the distribution information specified by the reference information is read from the storage unit 12 and the dynamic information element processing unit 22 for output. In addition, the received information related to the reproduction environment is output to the dynamic information element processing unit 22.

動的情報要素処理部22は、配信情報取得部21から入力される配信情報を受け入れる。以下、区別の必要があるときには、この配信情報を「オリジナル情報」と呼ぶ。動的情報要素処理部22は、オリジナル情報に含まれる動的情報要素のうち、少なくとも一部を処理の対象として、予め定めた規則に従い、当該処理の対象となった動的情報要素を処理し、処理の結果を合成部23に出力する。   The dynamic information element processing unit 22 accepts distribution information input from the distribution information acquisition unit 21. Hereinafter, when it is necessary to distinguish, this distribution information is referred to as “original information”. The dynamic information element processing unit 22 processes at least a part of the dynamic information elements included in the original information as a processing target and processes the dynamic information element that is the target of the processing according to a predetermined rule. The processing result is output to the synthesis unit 23.

合成部23は、入力された動的情報要素を合成して、合成配信情報を生成し、出力部24に出力する。出力部24は、入力された情報(オリジナル情報または合成部23から入力される合成配信情報)を、要求元のクライアント装置2へ出力する。   The synthesizer 23 synthesizes the input dynamic information elements, generates synthesized delivery information, and outputs it to the output unit 24. The output unit 24 outputs the input information (original information or combined distribution information input from the combining unit 23) to the requesting client device 2.

なお、動的情報要素処理部22が参照する規則は、クライアント装置2から受信される再生環境の情報によって特定される条件に対して、処理の内容を関連づけ、記憶部12に予め格納したものである。その一例を図4を参照しつつ説明する。図4では、ウィンドウ表示が可能か否か(複数の映像を一斉に表示可能か否か)、動画再生可能か否か、画像表示が可能であるか否かなどを表す再生環境の情報に関連づけて、処理の内容が規定されている。   The rules referred to by the dynamic information element processing unit 22 are associated with the conditions specified by the reproduction environment information received from the client device 2 and stored in the storage unit 12 in advance. is there. One example will be described with reference to FIG. In FIG. 4, the information is associated with the reproduction environment information indicating whether or not window display is possible (whether or not a plurality of videos can be displayed all at once), whether or not movie playback is possible, and whether or not image display is possible. The contents of the processing are specified.

すなわち、(1)ウィンドウ表示、動画再生、及び画像表示のすべてが可能である場合(例えばパーソナルコンピュータなどで再生される場合)は、動的情報要素処理部22に、入力されたオリジナル情報をそのまま出力させる指示が記述されている。   That is, (1) when all of window display, movie playback, and image display are possible (for example, when playback is performed by a personal computer or the like), the input original information is directly input to the dynamic information element processing unit 22. The instruction to output is described.

また(2)ウィンドウ表示ができず、動画再生が可能である場合は、画像情報(S)を動画像に変換して合成する指示が記述されており、(3)ウィンドウ表示、動画再生ができず、画像表示が可能である場合は、動画像(V)を削除する指示が記述されており、(4)ウィンドウ表示、動画再生、及び画像表示のすべてができない場合は、動画像(V)と画像情報(S)とを削除して音声情報(A)のみを出力するべき指示が記述されている。   In addition, (2) when window display is not possible and video playback is possible, an instruction to convert the image information (S) into a moving image is described, and (3) window display and video playback are possible. If the image display is possible, an instruction to delete the moving image (V) is described. (4) If the window display, the moving image reproduction, and the image display cannot be performed, the moving image (V) And an instruction to output only the audio information (A) by deleting the image information (S).

動的情報要素処理部22は、この指示に従って、入力された配信情報を処理することになる。例えば、要求元のクライアント装置2から受信した再生環境に係る情報によって、当該クライアント装置2においてウィンドウ表示、動画再生、及び画像表示のすべてが可能であると判断されたとする。この場合は、上述の規則に従って、動的情報要素処理部22は入力されたオリジナル情報をそのまま出力部24に出力する。   The dynamic information element processing unit 22 processes the input distribution information in accordance with this instruction. For example, it is assumed that window display, moving image playback, and image display are all possible in the client device 2 based on information related to the playback environment received from the requesting client device 2. In this case, the dynamic information element processing unit 22 outputs the input original information as it is to the output unit 24 in accordance with the rules described above.

また要求元のクライアント装置2においてウィンドウ表示、動画再生ができず、画像表示が可能である場合について述べる。この場合、動的情報要素処理部22は、オリジナル情報から画像情報(S)と、動画像(V)と、音声情報(A)とを抽出する。そして動画像(V)を削除する指示に従って、画像情報(S)と、音声情報(A)とを合成部23に出力する。合成部23は、従って、画像情報(S)と音声情報(A)とを含み、動画像(V)を含まない配信情報を生成して、出力部24へ出力する。   A case will be described in which window display and moving image reproduction cannot be performed in the requesting client apparatus 2 and image display is possible. In this case, the dynamic information element processing unit 22 extracts image information (S), moving image (V), and audio information (A) from the original information. Then, according to the instruction to delete the moving image (V), the image information (S) and the audio information (A) are output to the synthesis unit 23. Therefore, the synthesizer 23 generates distribution information that includes the image information (S) and the audio information (A) but does not include the moving image (V), and outputs the distribution information to the output unit 24.

さらに、要求元のクライアント装置2においてウィンドウ表示、動画再生、画像表示のいずれも可能でない場合について述べる。この場合、動的情報要素処理部22は、オリジナル情報から画像情報(S)と、動画像(V)と、音声情報(A)とを抽出する。そして動画像(V)と画像情報(S)とを削除する指示に従い、音声情報(A)を合成部23に出力する。合成部23は、これら入力された情報から音声情報(A)を含み、動画像(V)と画像情報(S)とを含まない配信情報を生成して、出力部24へ出力する。   Furthermore, a case will be described in which none of the window display, the moving image reproduction, and the image display is possible in the requesting client device 2. In this case, the dynamic information element processing unit 22 extracts image information (S), moving image (V), and audio information (A) from the original information. Then, in accordance with an instruction to delete the moving image (V) and the image information (S), the audio information (A) is output to the synthesis unit 23. The synthesizing unit 23 generates distribution information including the audio information (A) and not including the moving image (V) and the image information (S) from the input information, and outputs the distribution information to the output unit 24.

さらに、要求元のクライアント装置2においてウィンドウ表示ができず、動画再生が可能である場合、動的情報要素処理部22は、画像情報(S)を動画像に変換する。ここでは画像情報(S)は、複数の静止画像G1,G2,…と、各静止画像の表示開始時刻T1,T2,…とを互いに関連づけた情報となっている。動的情報要素処理部22は、オリジナル情報から画像情報(S)と、動画像(V)と、音声情報(A)とを抽出する。そして動的情報要素処理部22は、画像情報(S)を参照しつつ、表示開始時刻Tiから次の静止画像の表示開始時刻Ti+1までの間、対応する静止画像Giを表示するような動画像(V2)を生成する(図5)。動的情報要素処理部22は、この生成した動画像(V2)と、音声情報(A)とを合成部23に出力する。   Furthermore, when window display cannot be performed on the requesting client device 2 and video playback is possible, the dynamic information element processing unit 22 converts the image information (S) into a moving image. Here, the image information (S) is information that associates a plurality of still images G1, G2,... With display start times T1, T2,. The dynamic information element processing unit 22 extracts the image information (S), the moving image (V), and the audio information (A) from the original information. The dynamic information element processing unit 22 displays the corresponding still image Gi from the display start time Ti to the display start time Ti + 1 of the next still image while referring to the image information (S). A moving image (V2) is generated (FIG. 5). The dynamic information element processing unit 22 outputs the generated moving image (V2) and audio information (A) to the synthesis unit 23.

この場合、合成部23は画像情報(S)に基づいて作成した動画像(V2)と音声情報(A)とを含み、元の動画像(V)を含まない配信情報を生成して、出力部24へ出力する。   In this case, the synthesizing unit 23 generates distribution information including the moving image (V2) created based on the image information (S) and the audio information (A), and not including the original moving image (V). To the unit 24.

さらにここで述べた動的情報要素処理部22の処理では、オリジナル情報に含まれていた動画像(V)に代えて、画像情報(S)から生成した動画像(V2)を配信させることとなるが、動的情報要素処理部22の処理例は、これに限られない。   Further, in the processing of the dynamic information element processing unit 22 described here, the moving image (V2) generated from the image information (S) is distributed instead of the moving image (V) included in the original information. However, the processing example of the dynamic information element processing unit 22 is not limited to this.

例えば、オリジナル情報に含まれていた動画像(V)と、画像情報(S)から生成した動画像(V2)とのいずれかを、所定の方法で定めた時間ごとに、選択的に抽出して合成(つまり各動画像(V,V2)を時分割的に合成)した合成動画像(V′)を生成してもよい。この場合、合成動画像(V′)と、音声情報(A)とを含む配信情報が配信されることとなる。   For example, either the moving image (V) included in the original information or the moving image (V2) generated from the image information (S) is selectively extracted at a time determined by a predetermined method. Thus, a synthesized moving image (V ′) obtained by synthesizing (that is, synthesizing each moving image (V, V2) in a time division manner) may be generated. In this case, distribution information including the synthesized moving image (V ′) and the audio information (A) is distributed.

具体的な処理の例として、パラメータp(0<p<1)を予め設定しておき、このpの値を用いて、例えば動画像(V)のうち、i番目の静止画像の表示期間Tiから(Ti+1−Ti)×p+Tiまでに相当する部分を動画像(V2)の対応部分に置き換える。これにより動画像(V)のうち、i番目の静止画像の表示期間Tiから(Ti+1−Ti)×p+Tiまでに相当する部分に、i番目の静止画像が挿入されることとなる(図6)。このパラメータpは、画像情報内の情報をどれだけ優先的に表示するかを表すパラメータであり、事前に設定されてもよいし、クライアント装置2から、再生条件を表す情報に含めて受け渡されてもよい。   As an example of specific processing, a parameter p (0 <p <1) is set in advance, and the display period Ti of the i-th still image of the moving image (V), for example, using the value of p. To (Ti + 1−Ti) × p + Ti is replaced with the corresponding portion of the moving image (V2). As a result, in the moving image (V), the i-th still image is inserted into a portion corresponding to the display period Ti from the i-th still image to (Ti + 1−Ti) × p + Ti (FIG. 6). This parameter p is a parameter indicating how preferentially the information in the image information is displayed, and may be set in advance, or passed from the client device 2 as information indicating the reproduction condition. May be.

さらに、要求元のクライアント装置2においてウィンドウ表示、動画再生ができず、画像表示が可能である場合に、動画像(V)を削除する例について述べたが、この場合もこの処理に限られるものではない。すなわち動的情報要素処理部22は、動画像(V)から代表静止画像を抽出して、静止画像列を生成してもよい。   Furthermore, an example has been described in which the moving image (V) is deleted when window display and moving image reproduction cannot be performed in the client apparatus 2 that requested the request, and image display is possible. However, this case is also limited to this processing. is not. That is, the dynamic information element processing unit 22 may extract a representative still image from the moving image (V) and generate a still image sequence.

例えば動的情報要素処理部22は、動画像(V)を、それに同期する画像情報(S)の各静止画像の表示期間ごとに区切り、区分動画像を生成する。   For example, the dynamic information element processing unit 22 generates a segmented moving image by dividing the moving image (V) for each still image display period of the image information (S) synchronized with the moving image (V).

そして各区分動画像を、さらに再生時間Δtの動画像要素VI1,VI2,…に分割する。そして各動画像要素から所定の特徴量を演算する。ここで特徴量は、動画像要素に含まれる特定の範囲の色部分の面積や、動きベクトルの長さの総和など、動画像を特徴づけるための広く知られた量で構わない。動的情報要素処理部22は、各動画像要素の特徴量の経時変化を調べる。例えばVIj+1と、VIjとの特徴量の差を算出し、当該差が所定しきい値を超えた場合に、VIj+1の再生開始時刻τ=j×Δtを、再生区間区分点として記録する。ここに、jはインデックスであり、j=1,2,…である。また別の例では、例えばVIjの特徴量が所定しきい値を超えた、または所定しきい値を下回った場合に、VIjの再生開始時刻τ=(j−1)×Δtを、再生区間区分点として記録する。   Each divided moving image is further divided into moving image elements VI1, VI2,. Then, a predetermined feature amount is calculated from each moving image element. Here, the feature amount may be a well-known amount for characterizing a moving image, such as the area of a color portion in a specific range included in the moving image element or the total length of motion vectors. The dynamic information element processing unit 22 examines the temporal change of the feature amount of each moving image element. For example, the difference between the feature values of VIj + 1 and VIj is calculated, and when the difference exceeds a predetermined threshold, the playback start time τ = j × Δt of VIj + 1 is recorded as a playback segment division point. To do. Here, j is an index, and j = 1, 2,. In another example, for example, when the VIj feature amount exceeds or falls below a predetermined threshold, VIj playback start time τ = (j−1) × Δt Record as a point.

こうして動的情報要素処理部22は、各動画像要素についての特徴量に基づいて、各区分動画像について、再生区間区分点の情報を得る。なお、区分動画像によっては、この再生区間区分点が存在しないものがあってもよい。   In this way, the dynamic information element processing unit 22 obtains information on the playback section segment point for each segmented moving image based on the feature amount for each moving image element. Depending on the segmented moving image, there may be a segment where the playback segment segment point does not exist.

次に動的情報要素処理部22は、各再生区間区分点によって区切られる区分動画像の各再生区間について、代表画像情報を生成する。すなわち、各再生区間内において、予め定めた条件を満足する画像を代表画像情報として抽出する。この抽出方式としては、例えば動画像(V)を構成する前後のフレームの映像の差から、撮像されている対象物の動きの激しさを検出し、最も動きの激しい場面での画像を代表画像情報として抽出してもよい。また、最も動きのない場面での画像を代表画像情報として抽出してもよい。さらに、再生区間の先頭、中央、最後の位置での画像を代表画像情報として抽出してもよい。なお、再生区間区分点が見出されていない区分動画像については、区分動画像全体から代表画像情報を抽出する。   Next, the dynamic information element processing unit 22 generates representative image information for each playback section of the segmented moving image divided by each playback section segment point. That is, in each reproduction section, an image that satisfies a predetermined condition is extracted as representative image information. As this extraction method, for example, the intensity of the motion of the object being imaged is detected from the difference between the images of the frames before and after the moving image (V), and the image in the scene with the most motion is represented as the representative image. It may be extracted as information. Further, an image in a scene with the least movement may be extracted as representative image information. Further, images at the beginning, center, and last position of the playback section may be extracted as representative image information. Note that representative image information is extracted from the entire segmented moving image for the segmented moving image in which no playback segment segment point is found.

動的情報要素処理部22は、各区分動画像について、予め指定されたパラメータp(0<p<1)を用いて、画像情報(S)に含まれるi番目の静止画像Siの表示時間tsiを、
tsi=p×(Ti+1−Ti)
と定める(ただし、T0=0とする)。ここに、(Ti+1−Ti)は、オリジナル情報において、i番目の静止画像Siが表示されるべき時間を表す。
The dynamic information element processing unit 22 uses the parameter p (0 <p <1) designated in advance for each segmented moving image to display the display time tsi of the i-th still image Si included in the image information (S). The
tsi = p × (Ti + 1−Ti)
(However, T0 = 0). Here, (Ti + 1−Ti) represents the time during which the i-th still image Si should be displayed in the original information.

また、動画像(V)を分割して得た、i番目の区分動画像において、再生区間区分点が見出されていなければ、当該区分動画像から得られた代表画像情報の表示時間triを、
tri=(1−p)×(Ti+1−Ti)
と定める。
In addition, in the i-th segmented video obtained by dividing the video (V), if the playback segment segment point is not found, the display time tri of the representative image information obtained from the segmented video is set. ,
tri = (1-p) * (Ti + 1-Ti)
It is determined.

さらに、動画像(V)を分割して得た、i番目の区分動画像において、再生区間区分点が見出されていれば、動的情報要素処理部22は、次のように処理を行う。すなわち、各再生区間区分点で区分される各再生区間の再生時間を、Δτ1,Δτ2,…,Δτj,…として、再生区間から抽出した代表画像情報の表示時間を、
tri,j=(1−p)×Δτj
と定める。ここで、tsiとΔτjをjについて総和した値との和は、
Δτ1+Δτ2+…+tsi=Ti+1−Ti
である。
Furthermore, if the playback section segment point is found in the i-th segment movie obtained by dividing the movie (V), the dynamic information element processing unit 22 performs the following process. . That is, the display time of the representative image information extracted from the playback section is set as Δτ1, Δτ2,..., Δτj,.
tri, j = (1-p) × Δτj
It is determined. Here, the sum of tsi and the sum of Δτj for j is
Δτ1 + Δτ2 + ... + tsi = Ti + 1−Ti
It is.

そして、動的情報要素処理部22は、各区分動画像の再生開始時間からオリジナル情報の画像情報(S)に含まれるi番目の静止画像Siを表示させる指示を生成する。つまり、この静止画像Siと、時刻Tiを表す情報とを関連づけて、新たな画像情報(S′)に含める。   Then, the dynamic information element processing unit 22 generates an instruction to display the i-th still image Si included in the image information (S) of the original information from the reproduction start time of each segmented moving image. That is, the still image Si and information representing the time Ti are associated with each other and included in the new image information (S ′).

さらに、動画像(V)を分割して得た、i番目の区分動画像において、再生区間区分点が見出されていなければ、i番目の区分動画像から抽出した代表画像情報と、時刻tsとを関連づけて、新たな画像情報(S′)に含める。   Furthermore, in the i-th segmented video obtained by dividing the video (V), if no playback section segment point is found, representative image information extracted from the i-th segmented video and time ts Are included in the new image information (S ′).

また、動画像(V)を分割して得た、i番目の区分動画像において、再生区間区分点が見出されていれば、当該区分動画像内の最初の再生区間から抽出した代表画像情報と、時刻tsとを関連づけて、新たな画像情報(S′)に含める。そして、2番目以下のj番目の再生区間については、各再生区間から抽出した代表画像情報Ijと、時刻

Figure 2008165559
とを関連づけて、新たな画像情報(S′)に含める。 In addition, if a playback segment division point is found in the i-th segmented video obtained by dividing the video (V), the representative image information extracted from the first playback segment in the segmented video. And the time ts are associated with each other and included in the new image information (S ′). For the jth playback section that is less than or equal to the second, the representative image information Ij extracted from each playback section and the time
Figure 2008165559
Are included in the new image information (S ′).

これによりクライアント装置2では、各区分動画像について、当該区分動画像に同期して表示されるべきであった画像情報内の静止画像が時間tsiに亘って表示される。そして次に、所定の条件によって区分された再生区間ごとに抽出した代表画像情報が、それぞれの再生区間の時間に応じた時間(tri,j=(1−p)×Δτj)だけ表示される。   Thereby, in the client apparatus 2, the still image in the image information that should have been displayed in synchronization with the divided moving image is displayed for the time tsi for each divided moving image. Then, the representative image information extracted for each playback section divided according to a predetermined condition is displayed for a time (tri, j = (1-p) × Δτj) corresponding to the time of each playback section.

なお、各再生区間から抽出する代表画像情報は1つでなくてもよい。また、動画像が表示可能なクライアント装置2に対して配信する情報を生成する場合であっても、ここでの処理と同様にして、各画像の表示時間を算出し、各表示時間ずつの動画像要素を生成して連結し、新たな動画像を生成してもよい。   The representative image information extracted from each reproduction section may not be one. In addition, even when generating information to be distributed to the client device 2 that can display moving images, the display time of each image is calculated in the same manner as the processing here, and the moving image for each display time is calculated. Image elements may be generated and connected to generate a new moving image.

すなわち、上述のように、i番目の区分動画像におけるj番目の再生区間について表示時間
tri,j=(1−p)×Δτj
を定めた後、当該j番目の再生区間に対応する動画像の部分(再生時間Δτj)に対して、要約処理を実行して、tri,jの時間の動画像(要約動画像)を生成する。また、i番目の静止画像Siを、時間tsiに亘って表示し続ける動画像を生成し、これらを連結して、時間(Ti+1−Ti)だけの動画像を生成する。
That is, as described above, the display time tr i, j = (1−p) × Δτ j for the j th playback section in the i th segmented moving image.
Then, a digest process is performed on the portion of the moving image (reproduction time Δτj) corresponding to the j-th reproduction section to generate a moving image (summary moving image) at the time of tri, j. . Further, a moving image that continues to display the i-th still image Si over time tsi is generated, and these are connected to generate a moving image for only time (Ti + 1−Ti).

この場合、他の区分動画像についても同様に処理し、各区分動画像を互いに連結して、オリジナル情報と同じ再生時間で、一部に画像情報の静止画像を含めた動画像と、音声情報とを含み、画像情報を除去した配信情報を生成することとなる。   In this case, the other segmented moving images are processed in the same manner, and the segmented moving images are connected to each other, and the moving image including part of the still image of the image information and the audio information with the same reproduction time as the original information. And the distribution information from which the image information is removed is generated.

本実施の形態によると、例えば利用者が一つの動画像を表示可能な(ウィンドウ表示不能な)携帯電話機などのクライアント装置2から配信情報にアクセスを要求する操作を行うと、クライアント装置2が要求に係る配信情報を特定する情報と、再生環境を表す情報とを送出する。ここでの再生環境情報は、ウィンドウ表示ができないことと、動画像表示が可能であることとを表すものとなる。ここで要求される配信情報は、一例として、講義情報であるものとし、講師の映像が撮影された動画像と、講師が示す資料を静止画として提示する画像情報と、講師の音声を表す音声情報とを含むものとする。   According to the present embodiment, for example, when a user performs an operation for requesting access to distribution information from a client device 2 such as a mobile phone that can display one moving image (cannot display a window), the client device 2 requests The information for specifying the distribution information related to and the information indicating the reproduction environment are transmitted. The reproduction environment information here represents that window display is not possible and that moving image display is possible. The distribution information requested here is, for example, lecture information, a moving image in which the lecturer's video is captured, image information that presents the material indicated by the lecturer as a still image, and audio that represents the lecturer's voice. Information.

情報配信装置1は、当該要求と再生環境の情報とを受信する。そして要求された配信情報を読み出す。また、再生環境の情報を参照する。この再生環境の情報では、動画像と画像情報に含まれる静止画像とを一斉に表示できないので、予め静止画像と動画像とを時分割的に合成した動画像を生成する旨の指示がされているものとする。   The information distribution device 1 receives the request and the reproduction environment information. Then, the requested distribution information is read out. Also, information on the reproduction environment is referred to. In this reproduction environment information, since the moving image and the still image included in the image information cannot be displayed at the same time, an instruction to generate a moving image in which the still image and the moving image are combined in a time-division manner is given in advance. It shall be.

情報配信装置1は、この指示に従って、読み出した配信情報に含まれる画像情報(資料映像)を動画像に変換する。これにより、ある資料Xを提示するべき時刻から、次の資料Yを提示するべき時刻までの間、資料Xの映像が再生され続ける動画像(ここでは資料動画像と呼ぶ)が生成される。   In accordance with this instruction, the information distribution apparatus 1 converts the image information (material video) included in the read distribution information into a moving image. As a result, a moving image (herein referred to as a document moving image) in which the video of the document X is continuously reproduced from the time at which a certain document X is to be presented to the time at which the next document Y is to be presented is generated.

そして情報配信装置1は、変換によって得た資料動画像と、講師を撮像した動画像とを時分割的に合成した動画像を生成する。さらに情報配信装置1は、ここで合成した動画像と、要求された配信情報の音声情報とを合成して、新たな配信情報とし、この新たな配信情報を、要求元のクライアント装置2へ配信する。   Then, the information distribution apparatus 1 generates a moving image in which the material moving image obtained by the conversion and the moving image obtained by capturing the lecturer are synthesized in a time division manner. Furthermore, the information distribution apparatus 1 combines the moving image synthesized here and the audio information of the requested distribution information to obtain new distribution information, and distributes the new distribution information to the requesting client apparatus 2. To do.

これより、計算機資源や、通信条件に制限のある機器に対する配信のために、受信や再生時の負担を軽減した配信情報を提供できることとなる。なお、クライアント装置2では、資料動画像と講師の画像とが交互に配された動画像とともに講師の音声が提供され、利用者は、資料画像を損なわない講義映像を受け取っている。   As a result, it is possible to provide distribution information that reduces the burden during reception and reproduction for distribution to computer resources and devices with limited communication conditions. The client device 2 is provided with the lecturer's voice along with the moving image in which the document moving image and the lecturer's image are alternately arranged, and the user receives a lecture video that does not impair the document image.

本発明の実施の形態に係る情報配信システムの一例を表す構成ブロック図である。1 is a configuration block diagram illustrating an example of an information distribution system according to an embodiment of the present invention. 本発明の実施の形態に係る情報配信装置が保持する配信情報の内容例を表す説明図である。It is explanatory drawing showing the example of the content of the delivery information which the information delivery apparatus which concerns on embodiment of this invention hold | maintains. 本発明の実施の形態に係る情報配信装置の一例を表す機能ブロック図である。It is a functional block diagram showing an example of the information delivery apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報配信装置において行うべき処理の設定例を表す説明図である。It is explanatory drawing showing the example of a setting of the process which should be performed in the information delivery apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報配信装置の処理動作の例を表す説明図である。It is explanatory drawing showing the example of the processing operation of the information delivery apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報配信装置のまた別の処理動作の例を表す説明図である。It is explanatory drawing showing the example of another process operation | movement of the information delivery apparatus which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1 情報配信装置、2 クライアント装置、11 制御部、12 記憶部、13 通信部、21 配信情報取得部、22 動的情報要素処理部、23 合成部、24 出力部。   DESCRIPTION OF SYMBOLS 1 Information delivery apparatus, 2 Client apparatus, 11 Control part, 12 Storage part, 13 Communication part, 21 Delivery information acquisition part, 22 Dynamic information element processing part, 23 Synthesis | combination part, 24 Output part

Claims (4)

互いに同期させて配信可能な動的情報要素を複数含む配信情報を取得する取得手段と、
前記取得した配信情報に含まれる、少なくとも一部複数の動的情報要素を処理の対象とし、予め定めた規則に応じて、当該処理の対象となった前記一部複数の動的情報要素の内容を合成した一つの合成情報を生成する生成手段と、
前記生成した合成情報を配信する配信手段と、
を含むことを特徴とする情報配信装置。
Acquisition means for acquiring distribution information including a plurality of dynamic information elements that can be distributed in synchronization with each other;
At least a part of the plurality of dynamic information elements included in the acquired distribution information is a target of processing, and contents of the part of the plurality of dynamic information elements that are the target of the processing according to a predetermined rule Generating means for generating one synthesis information obtained by synthesizing
Distribution means for distributing the generated composite information;
An information distribution apparatus comprising:
前記生成手段は、
前記処理の対象となった一部複数の動的情報要素を時分割的に合成し、合成情報を生成することを特徴とする請求項1に記載の情報配信装置。
The generating means includes
The information distribution apparatus according to claim 1, wherein a plurality of dynamic information elements to be processed are combined in a time-sharing manner to generate combined information.
前記生成手段は、前記処理の対象となった動的情報要素の少なくとも一つについて、前記規則によって定められる時点で配信されるべき静止情報を抽出し、当該抽出した情報を含む合成情報を生成することを特徴とする請求項1に記載の情報配信装置。   The generation means extracts static information to be distributed at a time determined by the rule for at least one of the dynamic information elements to be processed, and generates composite information including the extracted information The information distribution apparatus according to claim 1. 互いに同期させて配信可能な動的情報要素を複数含む配信情報を取得する取得手段と、
前記取得した配信情報に含まれる、少なくとも一部複数の動的情報要素を処理の対象とし、予め定めた規則に従って、当該処理の対象となった前記一部複数の動的情報要素の内容を合成した一つの合成情報を生成する生成手段と、
前記生成した合成情報を配信する配信手段と、
を含む情報配信装置として、コンピュータを機能させることを特徴とするプログラム。
Acquisition means for acquiring distribution information including a plurality of dynamic information elements that can be distributed in synchronization with each other;
Process at least some of the plurality of dynamic information elements included in the acquired distribution information, and synthesize the contents of the some of the plurality of dynamic information elements subject to the processing according to a predetermined rule. Generating means for generating the combined information,
Distribution means for distributing the generated composite information;
A program for causing a computer to function as an information distribution apparatus including:
JP2006355443A 2006-12-28 2006-12-28 Information distribution apparatus and program Expired - Fee Related JP4946433B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006355443A JP4946433B2 (en) 2006-12-28 2006-12-28 Information distribution apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006355443A JP4946433B2 (en) 2006-12-28 2006-12-28 Information distribution apparatus and program

Publications (2)

Publication Number Publication Date
JP2008165559A true JP2008165559A (en) 2008-07-17
JP4946433B2 JP4946433B2 (en) 2012-06-06

Family

ID=39694956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006355443A Expired - Fee Related JP4946433B2 (en) 2006-12-28 2006-12-28 Information distribution apparatus and program

Country Status (1)

Country Link
JP (1) JP4946433B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010220057A (en) * 2009-03-18 2010-09-30 Fuji Xerox Co Ltd Information distribution apparatus, and information distribution system
JP2015207294A (en) * 2015-05-20 2015-11-19 株式会社リコー Content distribution server, content distribution method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0983565A (en) * 1995-09-13 1997-03-28 Toshiba Corp Communication system
JPH11341449A (en) * 1998-05-22 1999-12-10 Ricoh Co Ltd Broadcast type distribution method, and computer readable recording medium recorded with program for executing the method by computer
JP2002297496A (en) * 2001-04-02 2002-10-11 Hitachi Ltd Media delivery system and multimedia conversion server
JP2003037830A (en) * 2001-07-23 2003-02-07 Fuji Xerox Co Ltd Information distribution system and therefor, server apparatus, client terminal, distribution source terminal, program, and record medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0983565A (en) * 1995-09-13 1997-03-28 Toshiba Corp Communication system
JPH11341449A (en) * 1998-05-22 1999-12-10 Ricoh Co Ltd Broadcast type distribution method, and computer readable recording medium recorded with program for executing the method by computer
JP2002297496A (en) * 2001-04-02 2002-10-11 Hitachi Ltd Media delivery system and multimedia conversion server
JP2003037830A (en) * 2001-07-23 2003-02-07 Fuji Xerox Co Ltd Information distribution system and therefor, server apparatus, client terminal, distribution source terminal, program, and record medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010220057A (en) * 2009-03-18 2010-09-30 Fuji Xerox Co Ltd Information distribution apparatus, and information distribution system
JP2015207294A (en) * 2015-05-20 2015-11-19 株式会社リコー Content distribution server, content distribution method, and program

Also Published As

Publication number Publication date
JP4946433B2 (en) 2012-06-06

Similar Documents

Publication Publication Date Title
JP6570646B2 (en) Audio video file live streaming method, system and server
JP4676852B2 (en) Content transmission device
JP5903187B1 (en) Automatic video content generation system
KR101643238B1 (en) Cooperative provision of personalized user functions using shared and personal devices
KR20150014722A (en) Device, system and method for providing screen shot
JP2011171903A (en) Information transmission display system
US20130335594A1 (en) Enhancing captured data
KR100901111B1 (en) Live-Image Providing System Using Contents of 3D Virtual Space
JP4946433B2 (en) Information distribution apparatus and program
WO2018042963A1 (en) Attention object-related information providing system and information providing method
JP2011045084A (en) Method and device for requesting data and method and device for acquiring data
CN113784169B (en) Video recording method and device with barrage
JP2023082098A (en) Information processing device and information processing method
JP2017059121A (en) Image management device, image management method and program
KR101328270B1 (en) Annotation method and augmenting video process in video stream for smart tv contents and system thereof
JP2006148425A (en) Method and apparatus for image processing, and content generation system
JP2023072567A (en) Live distribution system, method for live distribution, and live distribution program
CN113905254A (en) Video synthesis method, device, system and readable storage medium
CN113568551A (en) Picture saving method and device
JP2010045486A (en) Still image extracting device, and still image extracting program
JP2016174289A (en) Server device, moving image data reproduction method and program
JP2009049510A (en) Still image extracting device, and still image extracting program
JP7237927B2 (en) Information processing device, information processing device and program
KR20150106472A (en) Method and apparatus for providing contents
JP6977847B2 (en) Image management device, image management method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4946433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees