JP2006121267A - Continuous reproduction system - Google Patents

Continuous reproduction system Download PDF

Info

Publication number
JP2006121267A
JP2006121267A JP2004305325A JP2004305325A JP2006121267A JP 2006121267 A JP2006121267 A JP 2006121267A JP 2004305325 A JP2004305325 A JP 2004305325A JP 2004305325 A JP2004305325 A JP 2004305325A JP 2006121267 A JP2006121267 A JP 2006121267A
Authority
JP
Japan
Prior art keywords
playback
effect
processing
file
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004305325A
Other languages
Japanese (ja)
Inventor
Susumu Hasegawa
進 長谷川
Nobuo Kusumoto
伸男 楠本
Nobuyuki Ema
信行 江間
Yasuhiro Nakamura
康洋 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004305325A priority Critical patent/JP2006121267A/en
Publication of JP2006121267A publication Critical patent/JP2006121267A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem of a conventionally proposed method for using two decoders to switch and reproduce a plurality of moving picture files that is prone to be monotonous because the proposed method merely continuously decodes the plurality of moving picture files and switches display. <P>SOLUTION: A continuous reproduction system for carrying out effect processing by using image frame data by a plurality of optional frames is proposed. The system informs an effect processing section for carrying out the effect processing about a degree of effective effect information, and the effect processing section carries out the effect processing on the basis of a degree of the effective effect information, the image data by a plurality of frames used for the effect processing, and effect type information. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、連続再生システムに関するものである。   The present invention relates to a continuous reproduction system.

従来から、2つのデコーダを使用して複数の動画ファイルを切り替えて再生する手法が提案されている。
特開2001−177829号公報
Conventionally, a method of switching and reproducing a plurality of moving image files using two decoders has been proposed.
JP 2001-177829 A

しかしながら、上記手法においては、複数の動画ファイルを単に連続的に復号し、表示を切り替えるのみであり、表示切替時にワイプ、オーバーラップ等の特殊効果を表示することはできない。   However, in the above method, a plurality of moving image files are simply decoded continuously and the display is switched, and special effects such as wipe and overlap cannot be displayed when the display is switched.

本発明は、かかる実情に鑑み、任意の複数フレーム分の画像フレームデータを使用してエフェクト処理を行ない、2つのファイル間が自然に切り替わるようにエフェクト処理を行う連続再生システムを提案するものである。かかる連続再生システムを実現するため、再生情報ファイルという概念を採用したことに特徴を有する。動画ファイルに含まれる異なる種別のデータを種別毎に再生処理しながら、再生情報ファイルに基づいて生成した画像フレームデータを動作管理部が管理するメモリに蓄積しておいてエフェクト処理を行なう。このとき、動画ファイル再生処理部は、動画ファイルの再生処理中の再生経過時間を動作管理部に通知する場合がある。さらに、再生情報管理部は、再生情報ファイル処理部にて読み込んだ再生情報ファイルを解析した解析結果を動作管理部へ通知する場合もある。また、エフェクト処理部に対してエフェクトのかかり具合度情報の通知が行われ、このかかり具合度情報と、エフェクト処理に使用する複数のフレーム分の画像データと、エフェクト種別情報に基づいてエフェクト処理を行う場合もある。   In view of such circumstances, the present invention proposes a continuous playback system that performs effect processing using image frame data for an arbitrary plurality of frames and performs effect processing so that the two files are naturally switched. . In order to realize such a continuous reproduction system, it is characterized by adopting a concept of a reproduction information file. While reproducing different types of data included in the moving image file for each type, the image frame data generated based on the reproduction information file is accumulated in a memory managed by the operation management unit and effect processing is performed. At this time, the moving image file reproduction processing unit may notify the operation management unit of the elapsed reproduction time during the reproduction processing of the moving image file. Further, the reproduction information management unit may notify the operation management unit of an analysis result obtained by analyzing the reproduction information file read by the reproduction information file processing unit. In addition, the effect processing unit is notified of the effect degree information, and the effect process is performed based on the degree information, the image data for a plurality of frames used for the effect process, and the effect type information. Sometimes it is done.

さらに、記憶部は連続再生システムを搭載する端末内部あるいは、端末外部の周辺機器、外部のネットワーク上のいずれにあってもよく、動画ファイルのストリーミング再生を行なう時には、連続再生する2つめ以降の動画ファイルのバッファリング中にエフェクト処理を行なう場合がある。また、動画ファイルのストリーミング再生を行なう時に、エフェクト処理に使用する複数フレーム分の画像データは、クライアント側かまたはサーバ側で生成することを指定する場合がある。   Furthermore, the storage unit may be inside the terminal equipped with the continuous playback system, on a peripheral device outside the terminal, or on an external network. When streaming video files, the second and subsequent videos that are continuously played back are used. Effect processing may be performed during file buffering. In addition, when streaming playback of a moving image file, it may be specified that image data for a plurality of frames used for effect processing is generated on the client side or the server side.

以上、説明したように本件発明のいずれか一又は二以上の発明に係る連続再生システムは、2つの動画ファイルの再生を切り替える際に再生情報ファイルに基づくエフェクト効果を用いることで、利用者に人の手を介することなくバリエーション豊富な画像表示を提供することが可能となる。また、再生情報ファイルに基づくエフェクト効果を用いることで急激な画像の切り替えを和らげられるため、連続して多数の動画ファイルの再生、視聴を利用者に促進する効果も期待できる。さらに、再生情報ファイル内には、再生制御に関わる情報を記述できるために、動画間のエフェクト種別、エフェクトを行うタイミング、表示期間などを任意に設定することが可能であり、利用者にとって利便性が高い。   As described above, the continuous playback system according to any one or more of the inventions of the present invention uses the effect effect based on the playback information file when switching between playback of two moving image files, so that the user can Thus, it is possible to provide a variety of image display without the need for the user. In addition, since the effect of the effect based on the playback information file can be used to alleviate rapid image switching, an effect of promoting the playback and viewing of a large number of moving image files to the user can be expected. Furthermore, since information related to playback control can be described in the playback information file, it is possible to arbitrarily set the effect type between videos, the timing for effecting, the display period, etc. Is expensive.

また、再生情報ファイルの記述に基づいて画像フレームデータを作成するタイミングを管理することで、2つの動画を復号しながら、エフェクト処理した画像を表示することが可能となり、様々な画像切り替えの効果を得ることができる。一方、再生経過時間の通知が行われれば、再生経過時間と、再生情報ファイル内に含まれるエフェクト開始時間情報と比較することができるため、エフェクト処理を開始する必要があるかどうかを即座に判別し対応することができる。他方、再生情報ファイル処理部にて読み込んだ再生情報ファイルの解析結果が動作管理部へ通知されれば、その解析結果に応じて様々な態様のエフェクト処理に即座に対応することができる。これらは特に、再生情報ファイル内にて、再生制御に関わる情報を記述して、エフェクトを行うタイミングなどを任意に設定する場合に有効である。また、かかり具合度の通知を受け付けることで、偏ることなく自然なエフェクト効果を施すことができる。   Also, by managing the timing of creating image frame data based on the description of the playback information file, it is possible to display the effect-processed image while decoding the two moving images, and various image switching effects can be achieved. Obtainable. On the other hand, if the playback elapsed time is notified, the elapsed playback time can be compared with the effect start time information contained in the playback information file, so it is immediately determined whether effect processing needs to be started. Can respond. On the other hand, if the analysis result of the reproduction information file read by the reproduction information file processing unit is notified to the operation management unit, various types of effect processing can be immediately handled according to the analysis result. These are particularly effective when information related to playback control is described in the playback information file and the timing for effecting is arbitrarily set. In addition, by receiving the notification of the degree of application, a natural effect effect can be applied without being biased.

さらに、記憶部が連続再生システムを搭載する端末内部にある場合には、動画ファイルや、再生情報ファイルへのアクセスが即座にできることが利点である。一方、記憶部が端末外部の周辺機器、外部のネットワーク上にある場合には、サイズの大きなファイルも記憶させることができるところが利点である。さらに、ストリーミング再生を行なう時であっても、動画ファイルのバッファリング中にエフェクト処理を行なう場合には、エフェクト処理がスムーズに行われることが期待できる。また、クライアント側か、サーバ側かを指定して、エフェクト処理に使用する画像データを生成させる場合には、画像データの生成処理を分散できるため、端末装置や、連続再生システム全体の処理負荷を軽減できるという効果を有する。   Furthermore, when the storage unit is inside a terminal equipped with a continuous reproduction system, it is advantageous that a moving image file and a reproduction information file can be accessed immediately. On the other hand, when the storage unit is on a peripheral device outside the terminal or on an external network, it is advantageous that a large file can be stored. Furthermore, even when streaming playback is performed, if effect processing is performed during buffering of a moving image file, it can be expected that the effect processing is performed smoothly. In addition, when generating the image data to be used for effect processing by specifying the client side or the server side, the image data generation processing can be distributed, so the processing load on the terminal device and the continuous playback system as a whole can be reduced. It has the effect that it can be reduced.

以下に、各発明を実施するための最良の形態を説明する。なお、本発明はこれら実施の形態に何ら限定されるものではなく、その要旨を逸脱しない範囲において、種々なる態様で実施しうる。   The best mode for carrying out each invention will be described below. Note that the present invention is not limited to these embodiments, and can be implemented in various modes without departing from the spirit of the present invention.

実施形態1は、主に請求項1、6、11などについて説明する。 実施形態2は、主に請求項2、12などについて説明する。 実施形態3は、主に請求項3、13などについて説明する。 実施形態4は、主に請求項4、14などについて説明する。 実施形態5は、主に請求項5、15などについて説明する。 実施形態6は、主に請求項7、16などについて説明する。 実施形態7は、主に請求項8、17などについて説明する。 実施形態8は、主に請求項9、18などについて説明する。 実施形態9は、主に請求項10、19などについて説明する。   The first embodiment will mainly describe claims 1, 6, and 11. In the second embodiment, claims 2 and 12 will be mainly described. The third embodiment will mainly describe claims 3 and 13. In the fourth embodiment, claims 4 and 14 will be mainly described. In the fifth embodiment, claims 5 and 15 will be mainly described. In the sixth embodiment, claims 7 and 16 will be mainly described. In the seventh embodiment, claims 8 and 17 will be mainly described. In the eighth embodiment, claims 9 and 18 will be mainly described. In the ninth embodiment, claims 10 and 19 will be mainly described.

<<実施形態1>>   << Embodiment 1 >>

<実施形態1:概要> 実施形態1について説明する。本実施形態は、任意の複数フレーム分の画像フレームデータを使用してエフェクト処理を行なう連続再生システムである。   <Embodiment 1: Overview> Embodiment 1 will be described. The present embodiment is a continuous reproduction system that performs effect processing using image frame data for an arbitrary plurality of frames.

図1は、本実施形態の概念の一例を示すものである。図は、動画ファイルM+1の最初のフレームの画像フレームデータを使用して動画ファイルMとM+1とを連続的にエフェクト再生する場面を示したものである。ここでは、動画ファイルMはタンポポの綿毛が飛散する状況を、動画ファイルM+1は卵からひなが孵る状況を示したものである。動画ファイルMの後、動画ファイルM+1を再生する際にエフェクト処理をしない場合には、動画ファイルMの最終シーンである綿毛のなくなったタンポポのシーンの直後に、動画ファイルM+1の先頭シーンである卵にひびが入り始めるシーンが再生される。   FIG. 1 shows an example of the concept of this embodiment. The figure shows a scene in which the moving image files M and M + 1 are continuously effect-reproduced using the image frame data of the first frame of the moving image file M + 1. Here, the moving image file M shows a situation where dandelion fluff is scattered, and the moving image file M + 1 shows a situation where chicks crawl from eggs. If the effect processing is not performed after the movie file M when the movie file M + 1 is played back, the egg that is the first scene of the movie file M + 1 immediately after the dandelion scene with no fluff that is the final scene of the movie file M The scene where the crack begins to crack is played back.

しかしここでは、動画ファイルMとM+1とを連続的に再生処理するための制御情報を記述した再生情報ファイルが準備されており、再生情報ファイルに示されたようなエフェクト再生が行われる。再生情報ファイルには、動画ファイルから1フレーム分の画像フレームデータを生成する時間間隔を示す画像フレームデータ生成間隔や、エフェクトを開始する時間、期間、種別などを示す動画情報などが含まれている。今、画像フレームデータ生成間隔は30msであり、動画ファイルMから30msごとに1フレーム分の画像フレームデータを生成することができる。ここで、動画ファイルMの最後から4つ分(120ms分)のフレームをF1からF4と呼び、動画ファイルM+1の先頭から3つ分(90ms分)のフレームをF´1からF´3と呼ぶこととする。   However, here, a reproduction information file describing control information for continuously reproducing the moving image files M and M + 1 is prepared, and effect reproduction as shown in the reproduction information file is performed. The reproduction information file includes an image frame data generation interval indicating a time interval for generating one frame of image frame data from the moving image file, moving image information indicating an effect start time, period, type, and the like. . Now, the image frame data generation interval is 30 ms, and one frame of image frame data can be generated every 30 ms from the moving image file M. Here, the four frames (120 ms) from the end of the moving image file M are called F1 to F4, and the three frames (90 ms) from the beginning of the moving image file M + 1 are called F'1 to F'3. I will do it.

動画ファイルMの動画情報によれば、エフェクト開始時間(先頭から3S経過後)であるフレームF2の時点から、エフェクト期間である90msの間、エフェクト種別で示されたスライド効果のエフェクト再生を行う。図では、画像右から画像ファイルM+1の先頭フレームであるF´1が徐々に上に重なるようにスライドする態様を示した。エフェクト期間終了後は、動画ファイルM+1が再生される。このとき動画ファイルM+1についての再生情報ファイルに示されたようなエフェクト再生が行われることになるが、ここでは省略する。   According to the moving image information of the moving image file M, the effect reproduction of the slide effect indicated by the effect type is performed for 90 ms that is the effect period from the time point of the frame F2 that is the effect start time (after 3S has elapsed from the beginning). In the figure, a mode is shown in which F′1, which is the first frame of the image file M + 1, slides from the right side so as to gradually overlap. After the end of the effect period, the moving image file M + 1 is played back. At this time, effect reproduction as shown in the reproduction information file for the moving image file M + 1 is performed, but is omitted here.

<実施形態1:構成> 本実施形態での機能ブロックの一例を図2に示した。 図2に示す本実施形態の「連続再生システム」(0200)は、「記憶部」(0201)と、「動画ファイル再生処理部」(0202)と、「再生情報ファイル処理部」(0203)と、「エフェクト処理部」(0204)と、「動作管理部」(0205)と、からなる。   <Embodiment 1: Configuration> FIG. 2 shows an example of functional blocks in the present embodiment. The “continuous playback system” (0202) of this embodiment shown in FIG. 2 includes a “storage unit” (0201), a “moving image file playback processing unit” (0202), and a “playback information file processing unit” (0203). , “Effect processing section” (0204) and “Operation management section” (0205).

本件発明の構成要素である各部は、ハードウエア、ソフトウエア、ハードウエアとソフトウエアの両者、のいずれかによって構成される。たとえば、これらを実現する一例として、コンピュータを利用する場合には、CPU、メモリ、バス、インターフェイス、周辺装置などから構成されるハードウエアと、これらのハードウエア上にて実行可能なソフトウエアを挙げることができる。 具体的には、メモリ上に展開されたプログラムを順次実行することで、メモリ上のデータや、インターフェイスを介して入力されるデータの加工、蓄積、出力などにより各部の機能が実現される。(本明細書の全体を通じて同様である。)   Each unit, which is a component of the present invention, is configured by either hardware, software, or both hardware and software. For example, as an example for realizing these, when a computer is used, hardware composed of a CPU, a memory, a bus, an interface, a peripheral device, and the like and software executable on these hardware are listed. be able to. Specifically, the functions of the respective units are realized by sequentially executing the programs developed on the memory, by processing, storing, and outputting data on the memory and data input through the interface. (The same applies throughout this specification.)

「連続再生システム」(0200)は、動画データの再生を行うシステムである。   The “continuous playback system” (0200) is a system that plays back moving image data.

「記憶部」(0201)は、動画ファイルと、再生情報ファイルと、を記憶する。「動画ファイル」は、画像データ、音声データ、テロップデータなど複数の異なる種別のデータの一または二以上の組み合わせによって構成される。   The “storage unit” (0201) stores a moving image file and a reproduction information file. The “moving image file” is configured by one or a combination of two or more of a plurality of different types of data such as image data, audio data, and telop data.

「再生情報ファイル」は、動画ファイルの再生位置を含む再生処理に関する制御情報を記述したファイルである。再生情報ファイルは、連続再生する動画ファイルと、前後の動画ファイル間でのエフェクト処理に関する情報を記述したものである。図3に示すように、再生情報ファイルは、エフェクト処理に使用する画像フレームデータを生成するタイミングを示す画像フレームデータ生成タイミング情報と、動画ファイル数分だけの動画情報とからなる。ここでは再生情報ファイルは、複数の動画ファイルにつき、単一の画像フレームデータ生成タイミング情報からなる構成を示したが、必ずしもこれに限定される必要はなく、動画ファイルごとに個別の画像フレームデータ生成タイミング情報を有する構成となる場合もある。画像フレームデータ生成タイミング情報で示されるタイミング(例えば、30ms)ごとに動画ファイルの復号がなされないなど、基になる画像フレームデータが存在しない場合には、現に存在する最新の画像フレームデータを用いてエフェクト処理に使用する画像フレームデータを生成することになる。   The “playback information file” is a file describing control information related to playback processing including the playback position of a moving image file. The reproduction information file describes information relating to effect processing between the moving image file to be continuously reproduced and the preceding and subsequent moving image files. As shown in FIG. 3, the reproduction information file includes image frame data generation timing information indicating timing for generating image frame data used for effect processing, and moving image information corresponding to the number of moving image files. Here, the playback information file has a structure composed of single image frame data generation timing information for a plurality of video files. However, the present invention is not necessarily limited to this, and individual video frame data generation for each video file is possible. There may be a configuration having timing information. If the underlying image frame data does not exist, such as when a moving image file is not decoded every timing (for example, 30 ms) indicated by the image frame data generation timing information, the latest image frame data that currently exists is used. Image frame data used for effect processing is generated.

また、図3(a)で示すように動画情報は、再生すべき動画ファイル名情報、再生開始する時間情報、エフェクト処理を開始する時間を示すエフェクト開始時間情報、エフェクト処理をどれだけの時間で行なうかを示すエフェクト期間情報、その他、エフェクト効果の種類を示すエフェクト種別などを含む場合がある。なお、エフェクト種別としては、後述するようにディゾルブ、フェード、スライド、ターンなどが該当する。またその他の応用例としては、図3(b)で示すように、どのフレームを利用してエフェクト処理を行うかを特定するための情報である利用フレーム情報(例えば、F´1等の指定ができる。なお、エフェクトに利用する専用のフレームがあるとしてもよい。)や、動作ファイルの再生順序を示す情報である再生順情報(例えば、動画ファイルM、M+1の順等の指定ができる。)などを含む場合もある。その他、エフェクトのかかり具合度の変化状態を表す情報であるかかり具合度変化率情報が含まれるとしてもよい。かかり具合度変化率情報は、図3(c)にて示したように、例えば、動画ファイルMとM+1の間において、どのようにエフェクトの効果が作用されるのかを示す目安となる。(1)の場合には動画ファイルMからM+1へと比例的に変化することが認められる(かかり具合度変化率情報は50%)。一方、(2)の場合には動画ファイルMに偏重して変化し(かかり具合度変化率情報は90%)、その反対に、(3)の場合には動画ファイルM+1に偏重して変化する(かかり具合度変化率情報は10%)。   As shown in FIG. 3A, the moving image information includes moving image file name information to be reproduced, time information for starting reproduction, effect start time information indicating the time for starting effect processing, and how long the effect processing is performed. There may be included effect period information indicating whether to perform, other effect types indicating the type of effect, and the like. The effect type corresponds to dissolve, fade, slide, turn, etc., as will be described later. As another application example, as shown in FIG. 3B, use frame information (for example, designation of F′1 or the like, which is information for specifying which frame is used for effect processing) is used. Note that there may be a dedicated frame used for the effect.) And playback order information that is information indicating the playback order of the operation file (for example, the order of the moving image files M and M + 1 can be specified). And so on. In addition, the degree-of-change change rate information, which is information indicating the change state of the degree of effect, may be included. As shown in FIG. 3C, the degree-of-appearance change rate information is a standard indicating how the effect is applied between the moving image files M and M + 1, for example. In the case of (1), it is recognized that the moving image file M changes in a proportional manner from M + 1 (the degree of change rate information is 50%). On the other hand, in the case of (2), the moving image file M is preferentially changed (the degree of change rate information is 90%), and in the case of (3), the moving image file M + 1 is preferentially changed. (The degree-of-change information is 10%).

「動画ファイル再生処理部」(0202)は、前記動画ファイルの再生処理を行う。記憶部(0201)に記憶された動画ファイルを、動作管理部(0205)からの制御に応じて連続的に再生する。このとき、動作管理部から動画ファイルの再生順序の制御が行われるとしてもよい。   The “moving image file reproduction processing unit” (0202) performs reproduction processing of the moving image file. The moving image file stored in the storage unit (0201) is continuously reproduced according to the control from the operation management unit (0205). At this time, the reproduction order of the moving image file may be controlled from the operation management unit.

「再生情報ファイル処理部」(0203)は、前記再生情報ファイルの読み書きおよび解析を行う。再生情報ファイルは再生処理に関する制御情報を記述したファイルであり、記憶部(0201)から再生情報ファイルを読み込んで解析することで、動画ファイルの再生時にどのようなエフェクト処理を行えばよいかという情報が得られる。この情報は、エフェクト処理部(0204)にて、エフェクト処理を行なう際に用いられる。なお、再生情報ファイルは、予め記憶部に記憶されている場合だけでなく、利用者の操作に応じてGUIによって順次生成される場合もある。エフェクト効果の変更、追加などを行う場合、利用者の操作に応じて修正後の再生情報ファイルが順次生成されことで実現してもよいし、予め記憶部に記憶されている再生情報ファイルに修正書き込みを行うことで実現してもよい。また、再生情報ファイルの修正は、例えば、エフェクト期間や、エフェクト種別などの個々の情報について修正を行うこともできるし、動画情報単位で追加、修正を行うこともできる。   The “reproduction information file processing unit” (0203) reads / writes and analyzes the reproduction information file. The reproduction information file is a file describing control information related to reproduction processing, and information on what kind of effect processing should be performed when reproducing a moving image file by reading the reproduction information file from the storage unit (0201) and analyzing it. Is obtained. This information is used when effect processing is performed in the effect processing unit (0204). Note that the reproduction information file is not only stored in the storage unit in advance, but may be sequentially generated by the GUI according to the user's operation. When changing or adding effect effects, it may be realized by sequentially generating corrected playback information files according to user operations, or correcting to playback information files stored in the storage unit in advance. You may implement | achieve by writing. The reproduction information file can be corrected, for example, for individual information such as the effect period and the effect type, or can be added or corrected in units of moving image information.

「エフェクト処理部」(0204)は、任意の複数フレーム分の画像フレームデータを使用してエフェクト処理を行なう。再生情報ファイルに含まれる動画ファイル名で示される動画ファイルのエフェクト開始時間からエフェクト期間だけ、任意の複数フレーム分の画像フレームデータを用いてエフェクト種別で識別されるエフェクトを作用させた再生を行う。このとき、図1で示した例では、任意の複数フレーム分の画像フレームデータとしては、次に再生すべき動画ファイルM+1の最初のフレームであるF´1のみを用いたが、用いられる動画ファイルや、フレーム数はこれに限定されない。   The “effect processing unit” (0204) performs effect processing using image frame data for an arbitrary plurality of frames. Playback is performed using the effect identified by the effect type using image frame data for a plurality of arbitrary frames during the effect period from the effect start time of the movie file indicated by the movie file name included in the playback information file. At this time, in the example shown in FIG. 1, only F′1, which is the first frame of the moving image file M + 1 to be reproduced next, is used as the image frame data for an arbitrary plurality of frames. In addition, the number of frames is not limited to this.

なお、エフェクト処理としては、ディゾルブ、フェード、スライド、ターンなどが該当する。「ディゾルブ」とは、動画ファイルMの画像を、徐々に次の動画ファイルM+1の画像へと切り替える画像の表示方法をいう。ディゾルブは、例えば、画像が粒状に拡散、集結する切り替え方法や、色や輝度の変換などによって様々な表示が可能である。「フェード」とは、動画ファイルMの画像が消えていくにつれ、次の動画ファイルM+1の画像が表示される画像の表示方法をいう。フェードは、画像をオーバーラップさせる方法や、色や輝度の変換などによって様々な表示が可能である。「スライド」とは、動画ファイルMの画像に対して、次の動画ファイルM+1の画像がすべりこむように表示される画像の表示方法をいう。スライドは、動画ファイルM+1の画像がスライドする際に、選択前アイコン画像が押し出されるのか、あるいは、動画ファイルMの画像の上に重なるのかの別や、動画ファイルM+1の画像がスライドしてくる方向、速度などにより様々な表示が可能である。「ターン」とは、動画ファイルMの画像が回転し、動画ファイルM+1の画像が表示される画像の表示方法をいう。ターンは、回転の方向、角度、速度の違いにより様々な表示が可能である。   Note that the effect processing includes dissolve, fade, slide, turn, and the like. “Dissolve” refers to an image display method for gradually switching the image of the moving image file M to the image of the next moving image file M + 1. The dissolve can be displayed in various ways, for example, by a switching method in which images are diffused and collected in a granular manner, or by conversion of color and brightness. “Fade” refers to an image display method in which the image of the next moving image file M + 1 is displayed as the image of the moving image file M disappears. Fade can be displayed in various ways, such as by overlapping images, or by converting colors and brightness. “Slide” refers to an image display method in which the image of the next moving image file M + 1 slides with respect to the image of the moving image file M. When the image of the moving image file M + 1 slides, whether the pre-selection icon image is pushed out or whether it overlaps with the moving image file M, or the direction in which the moving image file M + 1 slides. Various displays are possible depending on the speed. “Turn” refers to an image display method in which the image of the moving image file M is rotated and the image of the moving image file M + 1 is displayed. The turn can be displayed in various ways depending on the direction of rotation, angle, and speed.

「動作管理部」(0205)は、前記動画ファイル再生処理部(0202)と、前記再生情報ファイル処理部(0203)と、前記エフェクト処理部(0204)を制御する。動画ファイル再生処理部(0202)にて動画ファイルの再生時に、再生情報ファイル処理部(0203)にて解析を行った再生情報ファイルに基づいて、エフェクト処理部(0204)にてエフェクト処理を行なうが、動作管理部(0205)ではこれらの処理を統括的に制御する。   The “operation management unit” (0205) controls the moving image file reproduction processing unit (0202), the reproduction information file processing unit (0203), and the effect processing unit (0204). When the moving image file is reproduced by the moving image file reproduction processing unit (0202), the effect processing unit (0204) performs effect processing based on the reproduction information file analyzed by the reproduction information file processing unit (0203). The operation management unit (0205) controls these processes centrally.

具体的には、最初に、利用者の操作に応じてGUIによって、再生情報ファイル名を取得し、これを再生情報ファイル処理部に通知する。また、再生情報ファイル処理部にて解析された後に再生情報ファイルが、動作管理部を経由して、動画ファイル再生処理部へ通知される。また、エフェクト処理部へエフェクト命令を行うことでエフェクト処理開始のトリガとする。その他、放送波に含まれて送られたニュース速報などをエフェクト処理開始のトリガとしてもよい。   Specifically, first, the reproduction information file name is acquired by the GUI according to the operation of the user, and this is notified to the reproduction information file processing unit. Further, after being analyzed by the reproduction information file processing unit, the reproduction information file is notified to the moving image file reproduction processing unit via the operation management unit. In addition, an effect instruction is sent to the effect processing unit to trigger the effect processing start. In addition, a breaking news or the like sent in a broadcast wave may be used as a trigger for starting the effect processing.

<実施形態1:処理の流れ> 図4は、実施形態1でのエフェクト処理の流れの一例を示したものである。まず、動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う(再生情報ファイル処理ステップ S0401)。次に、前記動画ファイルの再生処理を行う(動画ファイル再生処理ステップ S0402)。その次に、動画ファイルの再生が進んだ時間(ここでは再生経過時間と称する)とエフェクト開始時間を比較する(エフェクト開始時間比較ステップ S0403)。再生経過時間がエフェクト開始時間に達していない場合、動画ファイル再生処理ステップ(S0402)に戻る。他方、再生経過時間がエフェクト開始時間に達した場合には、動画ファイルの1フレーム分のデータと、次の動画ファイルの1フレーム分の画像フレームデータを生成し、ワークメモリに蓄積し、再生情報ファイルに基づいてワークメモリ内の複数の画像フレームデータを使用してエフェクト処理を行なう(エフェクト処理ステップ S0404)。このエフェクト処理ステップ(S0404)をエフェクト期間繰り返すことで、複数フレームに渡ってエフェクト処理を施すことが可能となる。   <Embodiment 1: Process Flow> FIG. 4 shows an example of the flow of effect processing in the first embodiment. First, reading / writing and analysis of a reproduction information file describing control information related to reproduction processing including the reproduction position of the moving image file are performed (reproduction information file processing step S0401). Next, the moving image file is reproduced (moving image file reproduction processing step S0402). Next, the effect start time is compared with the time when the playback of the moving image file has progressed (referred to here as elapsed playback time) (effect start time comparison step S0403). If the elapsed playback time has not reached the effect start time, the process returns to the moving image file playback processing step (S0402). On the other hand, when the playback elapsed time reaches the effect start time, data for one frame of the moving image file and image frame data for one frame of the next moving image file are generated, stored in the work memory, and reproduced information Based on the file, effect processing is performed using a plurality of image frame data in the work memory (effect processing step S0404). By repeating this effect processing step (S0404) for an effect period, it is possible to perform effect processing over a plurality of frames.

以上の処理は、計算機に実行させるためのプログラムで実行することができ、また、このプログラムを計算機によって読取り可能な記録媒体に記録することができる。(本明細書の全体を通して同様である。)   The above processing can be executed by a program for causing a computer to execute, and the program can be recorded on a recording medium readable by the computer. (The same applies throughout the specification.)

<実施形態1:効果> 本実施形態は、任意の複数フレーム分の画像フレームデータを使用して2つのファイル間が自然に切り替わるようにエフェクト処理を行う連続再生システムである。2つの動画ファイルの再生を切り替える際にエフェクト効果を用いることで、利用者に人の手を介することなくバリエーション豊富な画像表示を提供することが可能となる。また、再生情報ファイルに基づくエフェクト効果を用いることで急激な画像の切り替えを和らげられるため、連続して多数の動画ファイルの再生、視聴を利用者に促進する効果も期待できる。さらに、再生情報ファイル内には、再生制御に関わる情報を記述できるために、動画間のエフェクト種別、エフェクトを行うタイミング、表示期間などを任意に設定することが可能であり、利用者にとって利便性が高い。   <Embodiment 1: Effect> This embodiment is a continuous reproduction system that performs effect processing using image frame data for an arbitrary plurality of frames so that two files are switched naturally. By using the effect effect when switching the reproduction of two moving image files, it is possible to provide the user with a rich image display without human intervention. In addition, since the effect of the effect based on the playback information file can be used to alleviate rapid image switching, an effect of promoting the playback and viewing of a large number of moving image files to the user can be expected. Furthermore, since information related to playback control can be described in the playback information file, it is possible to arbitrarily set the effect type between videos, the timing for effecting, the display period, etc. Is expensive.

<<実施形態2>>   << Embodiment 2 >>

<実施形態2:概要> 実施形態2について説明する。本実施形態は、記憶部が連続再生システムを搭載する端末内部または、端末外部の周辺機器、外部のネットワーク上の少なくともいずれか一つにあることを特徴とする連続再生システムである。   <Embodiment 2: Overview> Embodiment 2 will be described. The present embodiment is a continuous reproduction system characterized in that the storage unit is located in at least one of a terminal on which a continuous reproduction system is mounted, a peripheral device outside the terminal, or an external network.

<実施形態2:構成> 本実施形態での機能ブロックの一例を図5に示した。 図5に示す本実施形態の「連続再生システム」(0500)は、「記憶部」(0501)と、「端末装置」(0510)とからなり、端末装置は、「動画ファイル再生処理部」(0511)と、「再生情報ファイル処理部」(0512)と、「エフェクト処理部」(0513)と、「動作管理部」(0514)と、からなる。   <Embodiment 2: Configuration> FIG. 5 shows an example of functional blocks in the present embodiment. The “continuous playback system” (0500) of this embodiment shown in FIG. 5 includes a “storage unit” (0501) and a “terminal device” (0510). The terminal device is a “video file playback processing unit” ( 0511), “reproduction information file processing unit” (0512), “effect processing unit” (0513), and “operation management unit” (0514).

「記憶部」(0501)は、連続再生システムを搭載する端末内部または、端末外部の周辺機器、外部のネットワーク上の少なくともいずれか一つにある。図2においては、記憶部が連続再生システムを搭載する端末内部にある図を示したので、図5においては、記憶部が端末外部の周辺機器、外部のネットワーク上にある状態を模式的に図示した。端末内部の記憶部と、外部ネットワーク上の記憶部との使い分けは、通常、ファイル名指定の際のパス名を判別することにより行う。具体的には、端末内部の記憶部の場合には、ドライブ名の後に再生情報ファイル名からなる組み合せが、外部ネットワーク上の記憶部の場合には、URLの後に再生情報ファイル名からなる組み合せが該当する。 その他各部の処理は実施形態1と同様である。   The “storage unit” (0501) is in at least one of the inside of the terminal on which the continuous reproduction system is mounted, a peripheral device outside the terminal, or an external network. 2 shows a diagram in which the storage unit is inside the terminal equipped with the continuous playback system. FIG. 5 schematically shows a state in which the storage unit is on a peripheral device outside the terminal and on an external network. did. The storage part inside the terminal and the storage part on the external network are normally used by determining the path name when specifying the file name. Specifically, in the case of a storage unit inside the terminal, a combination consisting of a reproduction information file name after the drive name is used. In a case of a storage unit on an external network, a combination consisting of a reproduction information file name after the URL is used. Applicable. The processing of each other part is the same as in the first embodiment.

<実施形態2:処理の流れ> 図6は、実施形態2での処理の流れの一例を示したものである。まず、連続再生システムを搭載する端末内部または、端末外部の周辺機器、外部のネットワーク上の少なくともいずれか一つにある記憶部から、動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み出し、解析を行う(再生情報ファイル処理ステップ S0601)。次に、前記記憶部から、動画ファイルを読み出し、動画ファイルの再生処理を行う(動画ファイル再生処理ステップ S0602)。その次に、動画ファイルの再生が進んだ時間(ここでは再生経過時間と称する)とエフェクト開始時間を比較する(エフェクト開始時間比較ステップ S0603)。再生経過時間がエフェクト開始時間に達していない場合、動画ファイル再生処理ステップ(S0602)に戻る。他方、再生経過時間がエフェクト開始時間に達した場合には、動画ファイルの1フレーム分のデータと、次の動画ファイルの1フレーム分の画像フレームデータを生成し、ワークメモリに蓄積し、再生情報ファイルに基づいてワークメモリ内の複数の画像フレームデータを使用してエフェクト処理を行なう(エフェクト処理ステップ S0604)。エフェクト処理ステップ(S0604)をエフェクト期間繰り返す。   <Embodiment 2: Process Flow> FIG. 6 shows an example of the process flow in the second embodiment. First, playback that describes control information related to playback processing, including the playback position of a video file, from a storage unit inside a terminal equipped with a continuous playback system, a peripheral device outside the terminal, or a storage unit on the external network The information file is read and analyzed (reproduction information file processing step S0601). Next, the moving image file is read out from the storage unit and the moving image file is reproduced (moving image file reproduction processing step S0602). Next, the effect start time is compared with the time when reproduction of the moving image file has progressed (referred to here as elapsed playback time) (effect start time comparison step S0603). If the elapsed playback time has not reached the effect start time, the process returns to the moving image file playback processing step (S0602). On the other hand, when the playback elapsed time reaches the effect start time, data for one frame of the moving image file and image frame data for one frame of the next moving image file are generated, stored in the work memory, and reproduced information Based on the file, effect processing is performed using a plurality of image frame data in the work memory (effect processing step S0604). The effect processing step (S0604) is repeated for the effect period.

<実施形態2:効果> 本実施形態は、記憶部が連続再生システムを搭載する端末内部または、端末外部の周辺機器、外部のネットワーク上の少なくともいずれか一つにあることを特徴とする連続再生システムである。記憶部が連続再生システムを搭載する端末内部にある場合には、動画ファイルや、再生情報ファイルへのアクセスが即座にできることが利点である。一方、記憶部が端末外部の周辺機器、外部のネットワーク上にある場合には、サイズの大きなファイルも記憶させることができるところが利点である。特に動画ファイルは、ファイルサイズが大きいため、端末外部に記憶部を有することは好ましい。また、管理者など利用者以外の第三者が記憶部の管理やメンテナンスを行うことができるため、利便性が高い。   <Embodiment 2: Effect> In this embodiment, continuous playback is characterized in that the storage unit is in at least one of the inside of the terminal equipped with the continuous playback system, the peripheral device outside the terminal, or the external network. System. When the storage unit is inside a terminal equipped with a continuous reproduction system, it is advantageous that a moving image file and a reproduction information file can be accessed immediately. On the other hand, when the storage unit is on a peripheral device outside the terminal or on an external network, it is advantageous that a large file can be stored. In particular, since a moving image file has a large file size, it is preferable to have a storage unit outside the terminal. Further, since a third party other than the user such as an administrator can manage and maintain the storage unit, it is highly convenient.

<<実施形態3>>   << Embodiment 3 >>

<実施形態3:概要> 実施形態3について説明する。本実施形態は、任意の数のフレーム分の画像フレームデータを作成するタイミングの管理と、動画ファイルに含まれる異なる種別のデータを種別毎に再生する処理を行い生成した画像フレームデータを、動作管理部が管理するメモリに蓄積することを特徴とする連続再生システムである。   <Embodiment 3: Overview> Embodiment 3 will be described. In this embodiment, the management of the timing for creating image frame data for an arbitrary number of frames, and the operation management of the image frame data generated by performing processing for reproducing different types of data included in the moving image file for each type. The continuous reproduction system is characterized in that it is stored in a memory managed by the unit.

<実施形態3:構成> 本実施形態での機能ブロックの一例を図7に示した。 図7に示す本実施形態の「連続再生システム」(0700)は、「記憶部」(0701)と、「動画ファイル再生処理部」(0702)と、「再生情報ファイル処理部」(0703)と、「エフェクト処理部」(0704)と、「動作管理部」(0705)と、からなる。さらに、動画ファイル再生処理部(0702)は、「データ処理手段」(0706)と、「画像フレームデータ生成手段」(0707)とを有する。   <Embodiment 3: Configuration> FIG. 7 shows an example of functional blocks in the present embodiment. The “continuous playback system” (0700) of this embodiment shown in FIG. 7 includes a “storage unit” (0701), a “movie file playback processing unit” (0702), and a “playback information file processing unit” (0703). , “Effect processing unit” (0704) and “Operation management unit” (0705). Furthermore, the moving image file reproduction processing unit (0702) includes a “data processing unit” (0706) and an “image frame data generation unit” (0707).

「データ処理手段」(0706)は、動画ファイルに含まれる異なる種別のデータを種別毎に再生する処理を行う。動画ファイルは、画像データ、音声データ、テロップデータなど複数の異なる種別のデータの一または二以上の組み合わせによって構成される。これらの種別に応じて再生が行われる。ファイルの容量を小さくするために、画像データ、音声データには符号化処理を施し、データを圧縮して保持される場合が多く、その場合はデータを再生するために、復号処理を行う必要がある。   The “data processing means” (0706) performs processing for reproducing different types of data included in the moving image file for each type. The moving image file is composed of one or a combination of two or more different types of data such as image data, audio data, and telop data. Reproduction is performed according to these types. In order to reduce the file capacity, image data and audio data are often encoded and stored in a compressed state. In this case, it is necessary to perform a decoding process to reproduce the data. is there.

符号化の方式としては、1つの基本フレームデータおよび、その差分フレームデータを生成して符号化する方法と、1つ1つのフレームで完結したデータを生成して符号化する方法がある。前者はフレーム間予測を用いた画像の符号化方式および復号方式として公知の手法である。画像ではMPEG4,H.263等の方式があり、音声ではAMRという方式が有名である。他方、後者はモーションJPGという方式があり、1つ1つのフレームをJPGという符号化方式を用いて符号化したものを連続的に記録している。前後のフレームとの差分情報を利用しないため、前者の方法と比較して同一ビットレートでの圧縮効率は悪いが、任意の個所を簡単に編集することが可能である。ここでは、動画ファイルに含まれる画像データ、音声データはフレーム間予測を用いて符号化されており、画像データ、音声データ、さらにテキストデータ(テロップ)等、異なる種別のデータが多重化されているファイル形式である場合を前提として説明する。ただし、その他の形式を排斥するものではない。   As encoding methods, there are a method of generating and encoding one basic frame data and its difference frame data, and a method of generating and encoding data completed in each frame. The former is a known method as an image encoding method and decoding method using inter-frame prediction. For images, MPEG4, H.264. There is a system such as H.263, and the AMR system is famous for voice. On the other hand, the latter is a method called motion JPG, in which each frame is coded continuously using a coding method called JPG. Since the difference information between the preceding and succeeding frames is not used, the compression efficiency at the same bit rate is lower than that of the former method, but any part can be easily edited. Here, image data and audio data included in a moving image file are encoded using inter-frame prediction, and different types of data such as image data, audio data, and text data (telop) are multiplexed. A description will be made assuming that the file format is used. However, other forms are not excluded.

図8に示すように、動画ファイルは、ヘッダ部(0800)とデータ部(0810)とに大別される。ヘッダ部は、動画ファイルの再生時間情報(0801)、ファイル内に含まれる画像符号化形式情報(0802)、音声符号化形式等の符号化形式種別情報(0803)と、データ部内において、最小管理単位に分割して格納されている画像データ、音声データ、テロップデータのそれぞれの管理単位の位置を示すアドレス情報(0804)等が含まれている。データ部には、画像データ、音声データ、テロップデータのそれぞれの最小管理単位が複数格納されている(0811〜0816)。ここで、データの最小管理単位とは、画像、音声のストリームデータ、および、一連の文字列に分割したものであり、例えば、画像では1フレームが1最小管理単位V1、V2、…からなり、音声では任意の複数フレームが1最小管理単位A1、A2、…からなり、テロップでは同一のテロップ属性を持つ任意の複数文字が1最小管理単位T1、T2、…となるように定義されている。   As shown in FIG. 8, the moving image file is roughly divided into a header portion (0800) and a data portion (0810). The header portion includes playback time information (0801) of the moving image file, image encoding format information (0802) included in the file, encoding format type information (0803) such as an audio encoding format, and minimum management in the data portion. Address information (0804) indicating the position of each management unit of image data, audio data, and telop data stored separately in units is included. The data portion stores a plurality of minimum management units of image data, audio data, and telop data (0811 to 0816). Here, the minimum management unit of data is an image, audio stream data, and a series of character strings. For example, in an image, one frame is composed of one minimum management unit V1, V2,. In a voice, an arbitrary plurality of frames are composed of one minimum management unit A1, A2,..., And in a telop, an arbitrary plurality of characters having the same telop attribute are defined as one minimum management unit T1, T2,.

まず、データの処理に先立って、動画ファイルのヘッダに含まれる最小管理単位のアドレスを検索し、画像、音声、テロップ毎に最小管理単位のデータを取り出し、一連の画像および音声のストリームデータ、テロップ全文字を、ワークメモリ上に再構築する処理を行う。次に、動画ファイルに含まれる異なる種別のデータを種別毎に再生する処理を行うために、各ブロック(画像処理ブロック、音声処理ブロック、テロップ処理ブロック)にそれぞれ対応するデータを転送し、動画ファイルの復号処理を行う。   First, prior to data processing, the address of the minimum management unit included in the header of the moving image file is searched, the data of the minimum management unit is extracted for each image, audio, and telop, and a series of image and audio stream data and telop are extracted. Performs processing to reconstruct all characters on the work memory. Next, in order to perform processing for reproducing different types of data included in the video file for each type, data corresponding to each block (image processing block, audio processing block, telop processing block) is transferred to the video file. Is decrypted.

ここで、画像のストリームデータの内容について説明する。ストリームデータは、フレーム単位のデータが連続した一連のデータであり、基本フレームデータすなわちIフレームと、差分フレームデータすなわちPフレームとからなる。Iフレームは、1フレームの復号に必要な情報の全てのデータを含むフレームであり、Pフレームは、直前のフレームからの差分データのみを有するフレームである。すなわち、例えば画像データを復号する際には、最初に、Iフレームを用いて1フレーム分の復号処理を行い、引き続き、1フレーム分の復号処理済みデータと、差分のみのPフレームとに基づいて、次の1フレーム分の復号処理を行う。音声やテロップについてもエフェクト処理を行うとしてもよい。そのとき、画像、音声、テロップの各々が同期してエフェクト処理を行うとしてもよいし、非同期的にエフェクト処理を行うとしてもよい。   Here, the contents of the stream data of the image will be described. The stream data is a series of data in which data in units of frames are continuous, and is composed of basic frame data, that is, I frames, and difference frame data, that is, P frames. The I frame is a frame including all data of information necessary for decoding one frame, and the P frame is a frame having only difference data from the immediately preceding frame. That is, for example, when decoding image data, first, decoding processing for one frame is performed using an I frame, and then based on decoding-completed data for one frame and a P frame with only a difference. Then, the decoding process for the next one frame is performed. Effect processing may also be performed for audio and telop. At that time, each of the image, the sound, and the telop may perform the effect processing synchronously or may perform the effect processing asynchronously.

「画像フレームデータ生成手段」(0707)は、任意の数のフレーム分の画像フレームデータを作成するタイミングの管理と、前記データ処理手段(0706)が処理した動画ファイルから画像フレームデータを生成し、動作管理部(0705)が管理するメモリに蓄積する。具体的には、データ処理手段(0706)にて動画ファイルの再生が進んだ時間(ここでは再生経過時間と称する)とエフェクト開始時間を比較することで画像フレームデータを作成するタイミングの管理を行う。再生経過時間がエフェクト開始時間に達するまで、動画ファイルの再生処理を継続する。他方、再生経過時間がエフェクト開始時間に達した場合には、復号済みフレームデータのうち最新の動画ファイルの1フレーム分のデータを動作管理部(0705)が管理するメモリに蓄積する。次に、後続の動画ファイルを読み込み、1フレーム分の画像フレームデータを生成し、動作管理部が管理するメモリに蓄積する。エフェクト処理部(0704)において、メモリ内の2枚の画像フレームデータを使用して特殊効果をかけた1枚の画像データを生成する。エフェクト処理で生成した画像データを連続的に画面表示することで、種々の画面切り替えの効果を得ることができる。   “Image frame data generation means” (0707) manages the timing for creating image frame data for an arbitrary number of frames, generates image frame data from the moving image file processed by the data processing means (0706), The data is stored in a memory managed by the operation management unit (0705). Specifically, the timing for creating the image frame data is managed by comparing the effect start time with the time at which the reproduction of the moving image file has progressed (referred to here as the elapsed playback time) in the data processing means (0706). . The video file playback process is continued until the playback elapsed time reaches the effect start time. On the other hand, when the playback elapsed time reaches the effect start time, data of one frame of the latest moving image file among the decoded frame data is stored in the memory managed by the operation management unit (0705). Next, the subsequent moving image file is read, image frame data for one frame is generated, and stored in a memory managed by the operation management unit. The effect processing unit (0704) generates one piece of image data to which a special effect is applied using two pieces of image frame data in the memory. By continuously displaying the image data generated by the effect processing on the screen, various screen switching effects can be obtained.

その他各部の処理は実施形態1と同様である。また、実施形態2のように本実施形態の記憶部が連続再生システムを搭載する端末内部または、端末外部の周辺機器、外部のネットワーク上の少なくともいずれか一つにあるとしてもよい。   The processing of each other part is the same as in the first embodiment. Further, as in the second embodiment, the storage unit of the present embodiment may be provided in at least one of the inside of the terminal on which the continuous reproduction system is mounted, the peripheral device outside the terminal, or the external network.

<実施形態3:処理の流れ> 図9は、実施形態3でのエフェクト処理の流れの一例を示したものである。まず、動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う(再生情報ファイル処理ステップ S0901)。次に、動画ファイルに含まれる異なる種別のデータを種別毎に再生する処理を行う(データ処理ステップ S0902)。その次に、動画ファイルの再生が進んだ時間(ここでは再生経過時間と称する)とエフェクト開始時間を比較する(エフェクト開始時間比較ステップ S0903)。再生経過時間がエフェクト開始時間に達していない場合、データ処理ステップ(S0902)に戻る。他方、再生経過時間がエフェクト開始時間に達した場合には、復号済みの動画ファイルの最新1フレーム分のデータと、次の動画ファイルの1フレーム分の画像フレームデータを生成し、メモリに蓄積する(画像フレームデータ生成ステップ S0904)。最後に、メモリ内の画像フレームデータを使用してエフェクト処理を行なう(エフェクト処理ステップ S0905)。これら画像フレームデータ生成ステップ(S0904)と、エフェクト処理ステップ(S0905)をエフェクト期間繰り返す。   <Third Embodiment: Flow of Processing> FIG. 9 shows an example of the flow of effect processing in the third embodiment. First, read / write and analysis of a reproduction information file describing control information related to reproduction processing including the reproduction position of a moving image file is performed (reproduction information file processing step S0901). Next, a process of reproducing different types of data included in the moving image file for each type is performed (data processing step S0902). Next, the effect start time is compared with the time when the playback of the moving image file has progressed (referred to here as elapsed playback time) (effect start time comparison step S0903). If the elapsed playback time has not reached the effect start time, the process returns to the data processing step (S0902). On the other hand, when the playback elapsed time reaches the effect start time, the latest one frame data of the decoded video file and the image frame data of one frame of the next video file are generated and stored in the memory. (Image frame data generation step S0904). Finally, effect processing is performed using the image frame data in the memory (effect processing step S0905). These image frame data generation step (S0904) and effect processing step (S0905) are repeated for the effect period.

<実施形態3:効果> 本実施形態は、任意の数のフレーム分の画像フレームデータを作成するタイミングの管理と、動画ファイルに含まれる異なる種別のデータを種別毎に再生する処理を行い生成した画像フレームデータを、動作管理部が管理するメモリに蓄積することを特徴とする連続再生システムである。画像フレームデータを作成するタイミングを管理することで、2つの動画を復号しながら、エフェクト処理した画像を表示することが可能となり、様々な画像切り替えの効果を得ることができる。   <Embodiment 3: Effect> This embodiment is generated by managing the timing of creating image frame data for an arbitrary number of frames and processing for reproducing different types of data included in a video file for each type A continuous reproduction system characterized in that image frame data is stored in a memory managed by an operation management unit. By managing the timing of creating the image frame data, it is possible to display the effect-processed image while decoding the two moving images, and various image switching effects can be obtained.

<<実施形態4>>   << Embodiment 4 >>

<実施形態4:概要> 実施形態4について説明する。本実施形態は、動画ファイルの再生処理中の再生経過時間を前記動作管理部へ通知することを特徴とする連続再生システムである。   <Embodiment 4: Overview> Embodiment 4 will be described. The present embodiment is a continuous playback system that notifies the operation management unit of an elapsed playback time during playback processing of a moving image file.

<実施形態4:構成> 本実施形態での機能ブロックの一例を図10に示した。 図10に示す本実施形態の「連続再生システム」(1000)は、「記憶部」(1001)と、「動画ファイル再生処理部」(1002)と、「再生情報ファイル処理部」(1003)と、「エフェクト処理部」(1004)と、「動作管理部」(1005)と、からなる。さらに、動画ファイル再生処理部(1002)は、「再生経過時間通知手段」(1006)を有する。   <Embodiment 4: Configuration> FIG. 10 shows an example of functional blocks in the present embodiment. The “continuous playback system” (1000) of this embodiment shown in FIG. 10 includes a “storage unit” (1001), a “moving image file playback processing unit” (1002), and a “playback information file processing unit” (1003). , “Effect processing section” (1004) and “Operation management section” (1005). Furthermore, the moving image file reproduction processing unit (1002) has “reproduction elapsed time notification means” (1006).

「再生経過時間通知手段」(1006)は、動画ファイルの再生処理中の再生経過時間を前記動作管理部(1005)へ通知する。動画ファイルの再生処理に伴い、再生経過時間が動作管理部へ通知されれば、再生情報ファイル処理部(1003)にて解析された再生情報ファイル内のエフェクト開始時間情報と比較することができる。再生経過時間がエフェクト開始時間に達していない場合は、通常通りの再生処理を続行すればよい。他方、再生経過時間がエフェクト開始時間に達した場合には、エフェクト処理部(1004)にてエフェクト処理を開始する必要がある。   The “reproduction elapsed time notification means” (1006) notifies the operation management unit (1005) of the elapsed reproduction time during the reproduction process of the moving image file. If the elapsed playback time is notified to the operation management unit along with the playback processing of the moving image file, it can be compared with the effect start time information in the playback information file analyzed by the playback information file processing unit (1003). If the elapsed playback time has not reached the effect start time, normal playback processing may be continued. On the other hand, when the elapsed playback time reaches the effect start time, it is necessary to start effect processing in the effect processing unit (1004).

その他各部の処理は実施形態1と同様である。また、実施形態2のように本実施形態の記憶部が連続再生システムを搭載する端末内部または、端末外部の周辺機器、外部のネットワーク上の少なくともいずれか一つにあるとしてもよい。さらに、実施形態3のように本実施形態の動画ファイル再生処理部にて、任意の数のフレーム分の画像フレームデータを作成するタイミングの管理と、動画ファイルに含まれる異なる種別のデータを種別毎に再生する処理を行い生成した画像フレームデータを、動作管理部が管理するメモリに蓄積する場合もある。   The processing of each other part is the same as in the first embodiment. Further, as in the second embodiment, the storage unit of the present embodiment may be provided in at least one of the inside of the terminal on which the continuous reproduction system is mounted, the peripheral device outside the terminal, or the external network. Further, as in the third embodiment, the moving image file reproduction processing unit of the present embodiment manages the timing for creating image frame data for an arbitrary number of frames, and sets different types of data included in the moving image file for each type. In some cases, the image frame data generated by performing the reproduction process is stored in a memory managed by the operation management unit.

<実施形態4:処理の流れ> 図11は、実施形態4でのエフェクト処理の流れの一例を示したものである。まず、動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う(再生情報ファイル処理ステップ S1101)。次に、前記動画ファイルの再生処理を行う(動画ファイル再生処理ステップ S1102)。その次に、動画ファイルの再生処理中の再生経過時間を通知する(再生経過時間通知手段ステップ S1103)。さらに、前記再生経過時間通知ステップ(S1103)にて通知された再生経過時間とエフェクト開始時間を比較する(エフェクト開始時間比較ステップ S1104)。再生経過時間がエフェクト開始時間に達していない場合、動画ファイル再生処理ステップ(S1102)に戻る。他方、再生経過時間がエフェクト開始時間に達した場合には、動画ファイルの1フレーム分のデータと、次の動画ファイルの1フレーム分の画像フレームデータを生成し、ワークメモリに蓄積し、ワークメモリ内の複数の画像フレームデータを使用してエフェクト処理を行なう(エフェクト処理ステップ S1105)。エフェクト処理ステップ(S1105)をエフェクト期間繰り返す。   <Fourth Embodiment: Processing Flow> FIG. 11 shows an example of the flow of effect processing in the fourth embodiment. First, reading / writing and analysis of a reproduction information file describing control information related to reproduction processing including the reproduction position of a moving image file are performed (reproduction information file processing step S1101). Next, reproduction processing of the moving image file is performed (moving image file reproduction processing step S1102). Then, the elapsed playback time during the playback process of the moving image file is notified (reproduction elapsed time notification means step S1103). Further, the reproduction elapsed time notified in the reproduction elapsed time notification step (S1103) is compared with the effect start time (effect start time comparison step S1104). If the elapsed playback time has not reached the effect start time, the process returns to the moving image file playback processing step (S1102). On the other hand, when the elapsed playback time reaches the effect start time, data for one frame of the moving image file and image frame data for one frame of the next moving image file are generated and stored in the work memory. The effect processing is performed using the plurality of image frame data (effect processing step S1105). The effect processing step (S1105) is repeated for the effect period.

<実施形態4:効果> 本実施形態は、動画ファイルの再生処理中の再生経過時間を前記動作管理部へ通知することを特徴とする連続再生システムである。再生経過時間と、エフェクト開始時間情報と比較することができるため、エフェクト処理を開始する必要があるかどうかを即座に判別し対応することができる。さらに、再生情報ファイル内にて、再生制御に関わる情報を記述して、エフェクトを行うタイミングなどを任意に設定する場合に、有効である。   <Embodiment 4: Effect> This embodiment is a continuous playback system characterized by notifying the operation management unit of the elapsed playback time during the playback processing of a moving image file. Since it is possible to compare the playback elapsed time and the effect start time information, it is possible to immediately determine whether or not to start the effect processing and respond accordingly. Furthermore, it is effective when information related to playback control is described in the playback information file and the timing for effecting is arbitrarily set.

<<実施形態5>>   << Embodiment 5 >>

<実施形態5:概要> 実施形態5について説明する。本実施形態は、再生情報ファイル処理部にて読み込んだ再生情報ファイルを解析し、解析結果を前記動作管理部へ通知することを特徴とする連続再生システムである。   <Embodiment 5: Overview> Embodiment 5 will be described. The present embodiment is a continuous reproduction system characterized in that a reproduction information file read by a reproduction information file processing unit is analyzed and an analysis result is notified to the operation management unit.

<実施形態5:構成> 本実施形態での機能ブロックの一例を図12に示した。 図12に示す本実施形態の「連続再生システム」(1200)は、「記憶部」(1201)と、「動画ファイル再生処理部」(1202)と、「再生情報ファイル処理部」(1203)と、「エフェクト処理部」(1204)と、「動作管理部」(1205)と、からなる。さらに、再生情報ファイル処理部(1203)は、「再生情報ファイル解析結果通知手段」(1206)を有する。   <Embodiment 5: Configuration> FIG. 12 shows an example of functional blocks in the present embodiment. The “continuous playback system” (1200) of the present embodiment shown in FIG. 12 includes a “storage unit” (1201), a “moving image file playback processing unit” (1202), and a “playback information file processing unit” (1203). , “Effect processing section” (1204) and “Operation management section” (1205). Furthermore, the reproduction information file processing unit (1203) has “reproduction information file analysis result notification means” (1206).

「再生情報ファイル解析結果通知手段」(1206)は、読み込んだ再生情報ファイルを解析し、解析結果を前記動作管理部(1205)へ通知する。再生情報ファイルの解析処理に伴い、解析結果が前記動作管理部へ通知されれば、再生経過時間と比較することができる。また、再生情報ファイル内にて、再生制御に関わる情報を記述して、エフェクトを行うタイミングなどを任意に設定する場合に、有効である。   “Reproduction information file analysis result notifying means” (1206) analyzes the read reproduction information file and notifies the operation management unit (1205) of the analysis result. If the analysis result is notified to the operation management unit along with the analysis processing of the reproduction information file, it can be compared with the elapsed reproduction time. Further, it is effective when information related to playback control is described in the playback information file and the timing for effecting is arbitrarily set.

その他各部の処理は実施形態1と同様である。また、実施形態2のように本実施形態の記憶部が連続再生システムを搭載する端末内部または、端末外部の周辺機器、外部のネットワーク上の少なくともいずれか一つにあるとしてもよい。さらに、実施形態3のように本実施形態の動画ファイル再生処理部にて、任意の数のフレーム分の画像フレームデータを作成するタイミングの管理と、動画ファイルに含まれる異なる種別のデータを種別毎に再生する処理を行い生成した画像フレームデータを、動作管理部が管理するメモリに蓄積する場合もある。さらに、実施形態4のように、動画ファイルの再生処理中の再生経過時間を前記動作管理部へ通知する場合もある。   The processing of each other part is the same as in the first embodiment. Further, as in the second embodiment, the storage unit of the present embodiment may be provided in at least one of the inside of the terminal on which the continuous reproduction system is mounted, the peripheral device outside the terminal, or the external network. Further, as in the third embodiment, the moving image file reproduction processing unit of the present embodiment manages the timing for creating image frame data for an arbitrary number of frames, and sets different types of data included in the moving image file for each type. In some cases, the image frame data generated by performing the reproduction process is stored in a memory managed by the operation management unit. Furthermore, as in the fourth embodiment, the operation management unit may be notified of the elapsed playback time during the playback process of the moving image file.

<実施形態5:処理の流れ> 図13は、実施形態5でのエフェクト処理の流れの一例を示したものである。まず、動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み込む(再生情報ファイル処理ステップ S1301)。次に、読み込んだ再生情報ファイルを解析し、解析結果を通知する(再生情報ファイル解析結果通知ステップ S1302)。その次に、前記動画ファイルの再生処理を行う(動画ファイル再生処理ステップ S1303)。さらに、解析結果に基づいてエフェクト処理を行うべきか判断する(解析結果判断ステップ S1304)。解析結果はエフェクト処理を行うべきでないとの判断結果の場合、動画ファイル再生処理ステップ(S1303)に戻る。他方、解析結果はエフェクト処理を行うべきであるとの判断結果の場合には、動画ファイルの1フレーム分のデータと、次の動画ファイルの1フレーム分の画像フレームデータを生成し、ワークメモリに蓄積し、ワークメモリ内の複数の画像フレームデータを使用して、前記再生情報ファイル解析結果通知ステップ(S1302)にて通知された解析結果に基づいてエフェクト処理を行なう(エフェクト処理ステップ S1305)。エフェクト処理ステップ(S1305)をエフェクト期間繰り返す。   <Fifth Embodiment: Process Flow> FIG. 13 shows an example of the flow of an effect process in the fifth embodiment. First, a reproduction information file describing control information related to reproduction processing including the reproduction position of the moving image file is read (reproduction information file processing step S1301). Next, the read reproduction information file is analyzed, and the analysis result is notified (reproduction information file analysis result notification step S1302). Next, the moving image file is reproduced (moving image file reproduction processing step S1303). Further, it is determined whether effect processing should be performed based on the analysis result (analysis result determination step S1304). If the analysis result is a determination result that the effect processing should not be performed, the process returns to the moving image file reproduction processing step (S1303). On the other hand, if the analysis result is a determination result that effect processing should be performed, data for one frame of the moving image file and image frame data for one frame of the next moving image file are generated and stored in the work memory. Using the plurality of image frame data stored in the work memory, effect processing is performed based on the analysis result notified in the reproduction information file analysis result notifying step (S1302) (effect processing step S1305). The effect processing step (S1305) is repeated for the effect period.

<実施形態5:効果> 本実施形態は、再生情報ファイル処理部にて読み込んだ再生情報ファイルを解析し、解析結果を前記動作管理部へ通知することを特徴とする連続再生システムである。解析結果に応じて、様々な態様のエフェクト処理に即座に対応することができる。さらに、再生情報ファイル内にて、再生制御に関わる情報を記述して、エフェクトを行うタイミングなどを任意に設定する場合に、有効である。   <Embodiment 5: Effect> This embodiment is a continuous reproduction system characterized in that a reproduction information file read by a reproduction information file processing unit is analyzed and an analysis result is notified to the operation management unit. Depending on the analysis result, it is possible to immediately cope with various types of effect processing. Furthermore, it is effective when information related to playback control is described in the playback information file and the timing for effecting is arbitrarily set.

<<実施形態6>>   << Embodiment 6 >>

<実施形態6:概要> 実施形態6について説明する。本実施形態は、エフェクト処理に使用する複数のフレーム分の画像データと、エフェクト種別情報と、かかり具合度情報の通知に基づいてエフェクト処理を行うことを特徴とする連続再生システムである。   <Sixth Embodiment: Overview> A sixth embodiment will be described. The present embodiment is a continuous reproduction system characterized in that effect processing is performed based on notification of image data for a plurality of frames used for effect processing, effect type information, and degree of application information.

<実施形態6:構成> 本実施形態での機能ブロックの一例を図14に示した。 図14に示す本実施形態の「連続再生システム」(1400)は、「記憶部」(1401)と、「動画ファイル再生処理部」(1402)と、「再生情報ファイル処理部」(1403)と、「エフェクト処理部」(1404)と、「動作管理部」(1405)と、からなる。さらに、エフェクト処理部(1404)は、「エフェクト通知受手段」(1406)を有する。   <Embodiment 6: Configuration> FIG. 14 shows an example of functional blocks in the present embodiment. The “continuous playback system” (1400) of this embodiment shown in FIG. 14 includes a “storage unit” (1401), a “moving image file playback processing unit” (1402), and a “playback information file processing unit” (1403). , “Effect processing section” (1404) and “Operation management section” (1405). Furthermore, the effect processing unit (1404) includes an “effect notification receiving unit” (1406).

「エフェクト通知受手段」(1406)は、エフェクト処理に使用する複数のフレーム分の画像データと、エフェクト種別情報と、かかり具合度情報の通知を受ける。また、受けた通知に基づいてエフェクト処理を行う。通知元は、動画ファイル再生処理部(1402)、再生情報ファイル処理部(1403)、動作管理部(1405)などが想定される。「エフェクト処理に使用する複数のフレーム分の画像データ」は、記憶部に格納されている動画ファイルの中からエフェクト処理に使用する任意の画像データを読み出すことで取得できる。また、「エフェクト種別情報」は、再生情報ファイルに含まれており、再生情報ファイル処理部(1403)にて再生情報ファイルを解析する際に取得できる。   The “effect notification receiving unit” (1406) receives notification of image data for a plurality of frames, effect type information, and degree-of-appearance information used for effect processing. Also, effect processing is performed based on the received notification. As a notification source, a moving image file reproduction processing unit (1402), a reproduction information file processing unit (1403), an operation management unit (1405), and the like are assumed. “Image data for a plurality of frames used for effect processing” can be acquired by reading arbitrary image data used for effect processing from a moving image file stored in the storage unit. The “effect type information” is included in the reproduction information file and can be acquired when the reproduction information file processing unit (1403) analyzes the reproduction information file.

「かかり具合度情報」とは、エフェクト処理の際に、どれだけのなめらかさでフレームを処理するかを示す情報である。かかり具合度の値が大きくなるほど、密にエフェクト処理を行いなめらかな再生となることを示す。本実施形態では、動作管理部などからかかり具合度情報を受け付ける処理を行うが、再生情報ファイルに含まれている画像フレームデータ生成間隔情報と、エフェクト期間情報とからかかり具合度情報を算出する例を図15に示す。画像フレームデータ生成タイミング情報で示される画像フレームデータ生成間隔をVTミリ秒、エフェクト期間情報で示されるエフェクト期間をEDミリ秒とした場合、ED÷VTによって求められる値がかかり具合度の段数である。なお、小数点以下の値は切り捨ててよい。ここでは、画像フレームデータ生成タイミング(VT)は30ミリ秒で、エフェクト期間(ED)は90ミリ秒であるから、90(ms)÷30(ms)=3と求められ、かかり具合度の段数は3段である。つまり、図で示したようにエフェクト効果が3段階に渡って施されることになる。   “Depth level information” is information indicating how smoothly the frame is processed during the effect processing. As the degree of application increases, the effect processing is performed densely and smooth playback is performed. In the present embodiment, processing for receiving the degree of degree information from the operation management unit or the like is performed, but an example of calculating the degree of degree information from the image frame data generation interval information included in the reproduction information file and the effect period information. Is shown in FIG. When the image frame data generation interval indicated by the image frame data generation timing information is VT milliseconds and the effect period indicated by the effect period information is ED milliseconds, the value obtained by ED ÷ VT is the number of steps. . The value after the decimal point may be rounded down. Here, since the image frame data generation timing (VT) is 30 milliseconds and the effect period (ED) is 90 milliseconds, 90 (ms) ÷ 30 (ms) = 3 is obtained. Is three stages. That is, as shown in the figure, the effect is applied in three stages.

図16では、かかり具合度に基づくエフェクト処理の一例を示した。前述のようにかかり具合度の段数は3段であることが算出できたので、動画ファイルMに対して、エフェクト種別情報で示されたエフェクト種別であるスライド効果を3段階に渡って施す。ここでは、動画ファイルMの上に、エフェクト処理に使用する画像データである動画ファイルM+1を重ねて表示し、その重ねる範囲を右から左へとスライドさせて段階を追うごとに拡大していくことにする。1段目はF1フレームのままが表示され、2段目では動画ファイルMにM+1が重なり、F2とF´1の中間の状態のフレームが表示される。3段目では、動画ファイルMにM+1が重なる範囲が広がり、F´1寄りの状態のフレームが表示される。   FIG. 16 shows an example of effect processing based on the degree of application. As described above, since the number of steps of the degree of application can be calculated to be 3, the slide effect that is the effect type indicated by the effect type information is applied to the moving image file M in three stages. Here, the moving image file M + 1, which is image data used for effect processing, is displayed over the moving image file M, and the overlapping range is slid from the right to the left, and is expanded with each step. To. In the first row, the F1 frame is displayed as it is, and in the second row, M + 1 is overlapped with the moving image file M, and a frame in the middle state between F2 and F′1 is displayed. In the third row, the range in which M + 1 overlaps the moving image file M is widened, and a frame near F′1 is displayed.

図17では、かかり具合度に基づくエフェクト処理の別の一例を示した。動画ファイルMに対して、動画ファイルM+1の先頭から3フレームを用いて3段階に渡ってエフェクト効果を施す態様を模式的に示した。1段目ではF1とF´1フレームを用いてエフェクト処理を行われ、結果的にはF1フレームのままが表示される。次に、2段目ではF2とF´2フレームを用いてエフェクト処理を行われ、動画ファイルMにM+1が重なり、F2とF´2の中間の状態のフレームが表示される。3段目では、F3とF´3フレームを用いてエフェクト処理を行われ、動画ファイルMにM+1が重なる範囲が広がり、F´3寄りの状態のフレームが表示される。   FIG. 17 shows another example of effect processing based on the degree of application. A mode in which the effect is applied to the moving image file M in three stages using three frames from the beginning of the moving image file M + 1 is schematically shown. In the first row, effect processing is performed using the F1 and F′1 frames, and as a result, the F1 frame is displayed as it is. Next, in the second stage, effect processing is performed using the F2 and F′2 frames, M + 1 is overlapped with the moving image file M, and a frame in the middle state between F2 and F′2 is displayed. In the third row, effect processing is performed using the F3 and F′3 frames, the range in which M + 1 overlaps the moving image file M is expanded, and frames in a state closer to F′3 are displayed.

その他各部の処理は実施形態1と同様である。また、実施形態2のように本実施形態の記憶部が連続再生システムを搭載する端末内部または、端末外部の周辺機器、外部のネットワーク上の少なくともいずれか一つにあるとしてもよい。さらに、実施形態3のように本実施形態の動画ファイル再生処理部にて、任意の数のフレーム分の画像フレームデータを作成するタイミングの管理と、動画ファイルに含まれる異なる種別のデータを種別毎に再生する処理を行い生成した画像フレームデータを、動作管理部が管理するメモリに蓄積する場合もある。さらに、実施形態4のように、動画ファイルの再生処理中の再生経過時間を前記動作管理部へ通知する場合もある。また、実施形態5のように、本実施形態の再生情報ファイル処理部にて読み込んだ再生情報ファイルを解析し、解析結果を前記動作管理部へ通知する場合もある。   The processing of each other part is the same as in the first embodiment. Further, as in the second embodiment, the storage unit of the present embodiment may be provided in at least one of the inside of the terminal on which the continuous reproduction system is mounted, the peripheral device outside the terminal, or the external network. Further, as in the third embodiment, the moving image file reproduction processing unit of the present embodiment manages the timing for creating image frame data for an arbitrary number of frames, and sets different types of data included in the moving image file for each type. In some cases, the image frame data generated by performing the reproduction process is stored in a memory managed by the operation management unit. Furthermore, as in the fourth embodiment, the operation management unit may be notified of the elapsed playback time during the playback process of the moving image file. Further, as in the fifth embodiment, there is a case where the reproduction information file read by the reproduction information file processing unit of the present embodiment is analyzed and the analysis result is notified to the operation management unit.

<実施形態6:処理の流れ> 図18は、実施形態6でのエフェクト処理の流れの一例を示したものである。まず、動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う(再生情報ファイル処理ステップ S1801)。次に、前記動画ファイルの再生処理を行う(動画ファイル再生処理ステップ S1802)。その次に、動画ファイルの再生が進んだ時間(ここでは再生経過時間と称する)とエフェクト開始時間を比較する(エフェクト開始時間比較ステップ S1803)。再生経過時間がエフェクト開始時間に達していない場合、動画ファイル再生処理ステップ(S1802)に戻る。他方、再生経過時間がエフェクト開始時間に達した場合には、エフェクト処理に使用する複数のフレーム分の画像データと、エフェクト種別情報と、かかり具合度情報の通知に基づいてエフェクト処理を行う(エフェクト処理ステップ S1804)。   <Sixth Embodiment: Flow of Processing> FIG. 18 shows an example of the flow of effect processing in the sixth embodiment. First, reading / writing and analysis of a reproduction information file describing control information related to reproduction processing including the reproduction position of a moving image file are performed (reproduction information file processing step S1801). Next, reproduction processing of the moving image file is performed (moving image file reproduction processing step S1802). Next, the effect start time is compared with the time when the playback of the moving image file has progressed (referred to here as elapsed playback time) (effect start time comparison step S1803). If the elapsed playback time has not reached the effect start time, the process returns to the moving image file playback processing step (S1802). On the other hand, when the elapsed playback time reaches the effect start time, the effect processing is performed based on the notification of the image data for a plurality of frames used for the effect processing, the effect type information, and the degree of depth information (effects). Processing step S1804).

<実施形態6:効果> 本実施形態は、エフェクト処理に使用する複数のフレーム分の画像データと、エフェクト種別情報と、かかり具合度情報の通知に基づいてエフェクト処理を行うことを特徴とする連続再生システムである。かかり具合度の通知を受け付けることで、偏ることなく自然なエフェクト効果を施すことができる。   <Embodiment 6: Effect> In this embodiment, effect processing is performed based on notification of image data for a plurality of frames used for effect processing, effect type information, and degree-of-work information. It is a playback system. By receiving the notification of the degree of application, a natural effect can be applied without bias.

<<実施形態7>>   << Embodiment 7 >>

<実施形態7:概要> 実施形態7について説明する。本実施形態は、前記記憶部が外部のネットワーク上にあり、動画ファイルのストリーミング再生を行なう時には、連続再生する2つめ以降の動画ファイルのバッファリング中にエフェクト処理を行なうことを特徴とする連続再生システムである。   <Embodiment 7: Overview> Embodiment 7 will be described. In this embodiment, when the storage unit is on an external network and when streaming playback of a moving image file is performed, effect processing is performed during buffering of the second and subsequent moving image files to be continuously played back. System.

<実施形態7:構成> 本実施形態での機能ブロックの一例はすでに図5に示したものと同様である。 図4に示す「連続再生システム」(0500)は、「記憶部」(0501)と、「端末装置」(0510)とからなり、端末装置は、「動画ファイル再生処理部」(0511)と、「再生情報ファイル処理部」(0512)と、「エフェクト処理部」(0513)と、「動作管理部」(0514)と、からなる。   <Embodiment 7: Configuration> An example of functional blocks in the present embodiment is the same as that already shown in FIG. The “continuous playback system” (0500) shown in FIG. 4 includes a “storage unit” (0501) and a “terminal device” (0510). The terminal device includes a “moving image file playback processing unit” (0511), A “reproduction information file processing unit” (0512), an “effect processing unit” (0513), and an “operation management unit” (0514).

「記憶部」(0501)は、連続再生システムを搭載する端末外部の周辺機器、外部のネットワーク上の少なくともいずれか一つにある。「動画ファイル再生処理部」(0511)においては動画ファイルのストリーミング再生を行なう。このとき、「エフェクト処理部」(0513)では、連続再生する2つめ以降の動画ファイルのバッファリング中にエフェクト処理を行なう。バッファリングとは、配信されたデータを一定量メモリに一時的に保存して、データを順次再生していく技術であるが、動画ファイルを一時的に保存する間にエフェクト処理を行う。   The “storage unit” (0501) is in at least one of a peripheral device outside the terminal on which the continuous reproduction system is mounted and an external network. The “moving image file playback processing unit” (0511) performs streaming playback of moving image files. At this time, the “effect processing unit” (0513) performs effect processing during buffering of the second and subsequent moving image files to be continuously played back. Buffering is a technique for temporarily storing distributed data in a certain amount of memory and sequentially reproducing the data, but effects processing is performed while the moving image file is temporarily stored.

その他各部の処理は実施形態1と同様である。また、実施形態3のように本実施形態の動画ファイル再生処理部にて、任意の数のフレーム分の画像フレームデータを作成するタイミングの管理と、動画ファイルに含まれる異なる種別のデータを種別毎に再生する処理を行い生成した画像フレームデータを、動作管理部が管理するメモリに蓄積する場合もある。さらに、実施形態4のように、動画ファイルの再生処理中の再生経過時間を前記動作管理部へ通知する場合もある。また、実施形態5のように、本実施形態の再生情報ファイル処理部にて読み込んだ再生情報ファイルを解析し、解析結果を前記動作管理部へ通知する場合もある。さらに、実施形態6のように、エフェクト処理に使用する複数のフレーム分の画像データと、エフェクト種別情報と、かかり具合度情報の通知に基づいてエフェクト処理を行う場合もある。   The processing of each other part is the same as in the first embodiment. Further, as in the third embodiment, in the moving image file reproduction processing unit of the present embodiment, the timing management for creating image frame data for an arbitrary number of frames, and different types of data included in the moving image file for each type In some cases, the image frame data generated by performing the reproduction process is stored in a memory managed by the operation management unit. Furthermore, as in the fourth embodiment, the operation management unit may be notified of the elapsed playback time during the playback process of the moving image file. Further, as in the fifth embodiment, there is a case where the reproduction information file read by the reproduction information file processing unit of the present embodiment is analyzed and the analysis result is notified to the operation management unit. Further, as in the sixth embodiment, the effect processing may be performed based on the notification of the image data for a plurality of frames used for the effect processing, the effect type information, and the degree of degree information.

<実施形態7:処理の流れ> 図19は、実施形態7でのエフェクト処理の流れの一例を示したものである。まず、動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う(再生情報ファイル処理ステップ S1901)。次に、外部のネットワーク上にある記憶部に記憶された動画ファイルのストリーミング再生を行なう(動画ファイルストリーミング再生処理ステップ S1902)。連続再生する2つめ以降の動画ファイルのバッファリング中にエフェクト処理を行なう(エフェクト処理ステップ S1903、S1904)。   <Seventh Embodiment: Flow of Processing> FIG. 19 shows an example of the flow of effect processing in the seventh embodiment. First, reading / writing and analysis of a reproduction information file describing control information related to reproduction processing including the reproduction position of a moving image file are performed (reproduction information file processing step S1901). Next, streaming playback of the moving image file stored in the storage unit on the external network is performed (moving image file streaming playback processing step S1902). Effect processing is performed during buffering of the second and subsequent moving image files to be continuously reproduced (effect processing steps S1903 and S1904).

<実施形態7:効果> 本実施形態は、前記記憶部が外部のネットワーク上にあり、動画ファイルのストリーミング再生を行なう時には、連続再生する2つめ以降の動画ファイルのバッファリング中にエフェクト処理を行なうことを特徴とする連続再生システムである。これにより、ストリーミング再生を行なう場合であっても、エフェクト処理がスムーズに行われることが期待できる。   <Embodiment 7: Effect> In this embodiment, when the storage unit is on an external network and streaming playback of a moving image file is performed, effect processing is performed during buffering of the second and subsequent moving image files to be continuously played back. This is a continuous reproduction system characterized by the above. As a result, even when streaming playback is performed, it can be expected that effect processing is performed smoothly.

<<実施形態8>>   << Embodiment 8 >>

<実施形態8:概要> 実施形態8について説明する。本実施形態は、前記記憶部が外部のネットワーク上にあり、動画ファイルのストリーミング再生を行なう時に、エフェクト処理に使用する複数フレーム分の画像データは、クライアント側かまたはサーバ側で生成することを指定することを特徴とする連続再生システムである。   <Embodiment 8: Overview> Embodiment 8 will be described. In this embodiment, the storage unit is on an external network, and when performing streaming playback of a moving image file, it is specified that image data for a plurality of frames used for effect processing is generated on the client side or the server side The continuous reproduction system is characterized by that.

<実施形態8:構成> 本実施形態での機能ブロックの一例を図20に示した。 図20に示す本実施形態は「連続再生システム」(2000)は、「端末装置」(2010)と、「サーバ装置」(2020)とからなる。サーバ装置は「記憶部」(2021)を有し、端末装置は、「動画ファイル再生処理部」(2011)と、「再生情報ファイル処理部」(2012)と、「エフェクト処理部」(2013)と、「動作管理部」(2014)と、からなる。さらに、動画ファイル再生処理部(2011)は、「エフェクト処理フレーム生成指定手段」(2015)を有する。   <Embodiment 8: Configuration> FIG. 20 shows an example of functional blocks in this embodiment. In the present embodiment shown in FIG. 20, the “continuous playback system” (2000) includes a “terminal device” (2010) and a “server device” (2020). The server device includes a “storage unit” (2021), and the terminal device includes a “video file playback processing unit” (2011), a “playback information file processing unit” (2012), and an “effect processing unit” (2013). And “operation management unit” (2014). Furthermore, the moving image file reproduction processing unit (2011) includes “effect processing frame generation designation unit” (2015).

「記憶部」(2001)は、連続再生システムを搭載する端末外部の周辺機器、外部のネットワーク上の少なくともいずれか一つにある。「動画ファイル再生処理部」(2011)においては動画ファイルのストリーミング再生を行なう。このとき、「エフェクト処理フレーム生成指定手段」(2015)は、エフェクト処理に使用する複数フレーム分の画像データの生成主体をクライアント側かまたはサーバ側と指定する。クライアント側との指定を行った場合には、端末装置内のエフェクト処理部(2013)などにて画像データを生成する。一方、サーバ側との指定を行った場合には、例えば、記憶部(2001)を有する端末外部の周辺機器であるサーバ装置などにて画像データを生成する。   The “storage unit” (2001) is in at least one of peripheral devices outside the terminal on which the continuous playback system is mounted, and an external network. The “moving image file playback processing unit” (2011) performs streaming playback of moving image files. At this time, the “effect processing frame generation designation means” (2015) designates the generation side of the image data for a plurality of frames used for the effect processing as the client side or the server side. When the designation on the client side is performed, image data is generated by the effect processing unit (2013) in the terminal device. On the other hand, when designation with the server side is performed, for example, image data is generated in a server device that is a peripheral device outside the terminal having the storage unit (2001).

その他各部の処理は実施形態1と同様である。また、実施形態3のように本実施形態の動画ファイル再生処理部にて、任意の数のフレーム分の画像フレームデータを作成するタイミングの管理と、動画ファイルに含まれる異なる種別のデータを種別毎に再生する処理を行い生成した画像フレームデータを、動作管理部が管理するメモリに蓄積する場合もある。さらに、実施形態4のように、動画ファイルの再生処理中の再生経過時間を前記動作管理部へ通知する場合もある。また、実施形態5のように、本実施形態の再生情報ファイル処理部にて読み込んだ再生情報ファイルを解析し、解析結果を前記動作管理部へ通知する場合もある。さらに、実施形態6のように、エフェクト処理に使用する複数のフレーム分の画像データと、エフェクト種別情報と、かかり具合度情報の通知に基づいてエフェクト処理を行う場合もある。また、実施形態7のように、動画ファイルのストリーミング再生を行なう時には、連続再生する2つめ以降の動画ファイルのバッファリング中にエフェクト処理を行なう場合もある。   The processing of each other part is the same as in the first embodiment. Further, as in the third embodiment, in the moving image file reproduction processing unit of the present embodiment, the timing management for creating image frame data for an arbitrary number of frames, and different types of data included in the moving image file for each type In some cases, the image frame data generated by performing the reproduction process is stored in a memory managed by the operation management unit. Furthermore, as in the fourth embodiment, the operation management unit may be notified of the elapsed playback time during the playback process of the moving image file. Further, as in the fifth embodiment, there is a case where the reproduction information file read by the reproduction information file processing unit of the present embodiment is analyzed and the analysis result is notified to the operation management unit. Further, as in the sixth embodiment, the effect processing may be performed based on the notification of the image data for a plurality of frames used for the effect processing, the effect type information, and the degree of degree information. In addition, as in the seventh embodiment, when streaming a moving image file, effect processing may be performed during buffering of the second and subsequent moving image files that are continuously reproduced.

<実施形態8:処理の流れ> 図21は、実施形態8でのエフェクト処理の流れの一例を示したものである。まず、動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う(再生情報ファイル処理ステップ S2101)。次に、外部のネットワーク上にある記憶部に記憶された動画ファイルのストリーミング再生を行なう(動画ファイルストリーミング再生処理ステップ S2102)。エフェクト処理に使用する複数フレーム分の画像データは、クライアント側かまたはサーバ側で生成することを指定する(エフェクト処理フレーム生成指定ステップ S2103)。最後に、指定された側で生成された画像データを使用して、エフェクト処理を行なう(エフェクト処理ステップ S2104)。   <Eighth Embodiment: Process Flow> FIG. 21 shows an example of the flow of an effect process in the eighth embodiment. First, reading / writing and analysis of a reproduction information file describing control information related to reproduction processing including the reproduction position of a moving image file are performed (reproduction information file processing step S2101). Next, streaming reproduction of the moving image file stored in the storage unit on the external network is performed (moving image file streaming reproduction processing step S2102). It is specified that image data for a plurality of frames used for effect processing is generated on the client side or on the server side (effect processing frame generation specifying step S2103). Finally, effect processing is performed using the image data generated on the designated side (effect processing step S2104).

<実施形態8:効果> 本実施形態は、前記記憶部が外部のネットワーク上にあり、動画ファイルのストリーミング再生を行なう時に、エフェクト処理に使用する複数フレーム分の画像データは、クライアント側かまたはサーバ側で生成することを指定することを特徴とする連続再生システムである。これにより、エフェクト処理に使用する画像データの生成処理を分散できるため、端末装置や、連続再生システム全体の処理負荷を軽減できるという効果を有する。   <Embodiment 8: Effects> In the present embodiment, the storage unit is on an external network, and when performing moving image file streaming playback, image data for a plurality of frames used for effect processing is stored on the client side or the server It is the continuous reproduction system characterized by designating to produce | generate by the side. Thereby, since the generation processing of the image data used for the effect processing can be distributed, the processing load of the terminal device and the entire continuous reproduction system can be reduced.

<<実施形態9>>   << Embodiment 9 >>

<実施形態9:概要> 実施形態9について説明する。本実施形態は、動作管理部は、エフェクト処理部に対してエフェクトのかかり具合情報を通知することを特徴とする連続再生システムである。   <Ninth Embodiment: Overview> A ninth embodiment will be described. The present embodiment is a continuous playback system in which the operation management unit notifies the effect processing unit of the degree of effect application.

<実施形態9:構成> 本実施形態での機能ブロックの一例を図22に示した。 図22に示す本実施形態の「連続再生システム」(2200)は、「記憶部」(2201)と、「動画ファイル再生処理部」(2202)と、「再生情報ファイル処理部」(2203)と、「エフェクト処理部」(2204)と、「動作管理部」(2205)と、からなる。さらに、動作管理部(2205)は、「エフェクト通知手段」(2206)を有する。   <Ninth Embodiment: Configuration> FIG. 22 shows an example of functional blocks in the present embodiment. The “continuous playback system” (2200) of this embodiment shown in FIG. 22 includes a “storage unit” (2201), a “moving image file playback processing unit” (2202), and a “playback information file processing unit” (2203). , “Effect processing section” (2204) and “Operation management section” (2205). Furthermore, the operation management unit (2205) includes an “effect notification unit” (2206).

「エフェクト通知手段」(2206)は、エフェクト処理部(2204)に対してエフェクトのかかり具合度情報を通知する。かかり具合度情報は、エフェクト効果のかかり具合を示す情報であり、例えば、数値が大きいほど大きなエフェクト効果がかかることなどを示すために用いられる。すでに、実施形態6にて述べたように、再生情報ファイルに含まれている画像フレームデータ生成間隔情報と、エフェクト期間情報とからかかり具合度情報を算出することができる。画像フレームデータ生成タイミング情報で示される画像フレームデータ生成間隔をVTミリ秒、エフェクト期間情報で示されるエフェクト期間をEDミリ秒とした場合、ED÷VTによって求められる値がかかり具合度の段数である。かかり具合度などの情報を含むかかり具合度情報は、エフェクト処理部のエフェクト通知受手段などにて受け付けられ、エフェクト処理に活用される。   The “effect notification means” (2206) notifies the effect processing unit (2204) of the degree of effect application. The degree-of-appearance degree information is information indicating the degree of effect effect, and is used, for example, to indicate that a larger effect effect is applied as the value increases. As already described in the sixth embodiment, the degree of degree information can be calculated from the image frame data generation interval information and the effect period information included in the reproduction information file. When the image frame data generation interval indicated by the image frame data generation timing information is VT milliseconds and the effect period indicated by the effect period information is ED milliseconds, the value obtained by ED ÷ VT is the number of steps. . The degree of detail information including information such as the degree of application is received by the effect notification receiving means of the effect processing unit and used for effect processing.

その他各部の処理は実施形態1と同様である。また、実施形態2のように本実施形態の記憶部が連続再生システムを搭載する端末内部または、端末外部の周辺機器、外部のネットワーク上の少なくともいずれか一つにあるとしてもよい。さらに、実施形態3のように本実施形態の動画ファイル再生処理部にて、任意の数のフレーム分の画像フレームデータを作成するタイミングの管理と、動画ファイルに含まれる異なる種別のデータを種別毎に再生する処理を行い生成した画像フレームデータを、動作管理部が管理するメモリに蓄積する場合もある。さらに、実施形態4のように、動画ファイルの再生処理中の再生経過時間を前記動作管理部へ通知する場合もある。また、実施形態5のように、本実施形態の再生情報ファイル処理部にて読み込んだ再生情報ファイルを解析し、解析結果を前記動作管理部へ通知する場合もある。さらに、実施形態6のように、エフェクト処理に使用する複数のフレーム分の画像データと、エフェクト種別情報と、かかり具合度情報の通知に基づいてエフェクト処理を行う場合もある。また、実施形態7のように、動画ファイルのストリーミング再生を行なう時には、連続再生する2つめ以降の動画ファイルのバッファリング中にエフェクト処理を行なう場合もある。さらに、実施形態8のように、動画ファイルのストリーミング再生を行なう時に、エフェクト処理に使用する複数フレーム分の画像データは、クライアント側かまたはサーバ側で生成することを指定する場合もある。   The processing of each other part is the same as in the first embodiment. Further, as in the second embodiment, the storage unit of the present embodiment may be provided in at least one of the inside of the terminal on which the continuous reproduction system is mounted, the peripheral device outside the terminal, or the external network. Further, as in the third embodiment, the moving image file reproduction processing unit of the present embodiment manages the timing for creating image frame data for an arbitrary number of frames, and sets different types of data included in the moving image file for each type. In some cases, the image frame data generated by performing the reproduction process is stored in a memory managed by the operation management unit. Furthermore, as in the fourth embodiment, the operation management unit may be notified of the elapsed playback time during the playback process of the moving image file. Further, as in the fifth embodiment, there is a case where the reproduction information file read by the reproduction information file processing unit of the present embodiment is analyzed and the analysis result is notified to the operation management unit. Further, as in the sixth embodiment, the effect processing may be performed based on the notification of the image data for a plurality of frames used for the effect processing, the effect type information, and the degree of degree information. In addition, as in the seventh embodiment, when streaming a moving image file, effect processing may be performed during buffering of the second and subsequent moving image files that are continuously reproduced. Further, as in the eighth embodiment, when streaming a moving image file, it may be specified that image data for a plurality of frames used for effect processing is generated on the client side or the server side.

<実施形態9:処理の流れ> 図23は、実施形態9でのエフェクト処理の流れの一例を示したものである。まず、動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う(再生情報ファイル処理ステップ S2301)。次に、動画ファイルの再生を行なう(動画ファイル再生処理ステップ S2302)。その次に、エフェクトのかかり具合度情報を通知する(エフェクト通知ステップ S2303)。エフェクト処理に使用する複数のフレーム分の画像データと、エフェクト種別情報と、かかり具合度情報の通知に基づいてエフェクト処理を行う(エフェクト処理ステップ S2304)。   <Ninth Embodiment: Processing Flow> FIG. 23 shows an example of the flow of effect processing in the ninth embodiment. First, reading / writing and analysis of a reproduction information file describing control information related to reproduction processing including the reproduction position of a moving image file are performed (reproduction information file processing step S2301). Next, the moving image file is reproduced (moving image file reproduction processing step S2302). Then, the effect degree information is notified (effect notification step S2303). The effect processing is performed based on the notification of the image data for a plurality of frames used for the effect processing, the effect type information, and the degree of application information (effect processing step S2304).

<実施形態9:効果> 本実施形態は、動作管理部は、エフェクト処理部に対してエフェクトのかかり具合情報を通知することを特徴とする連続再生システムである。かかり具合度を算出して通知することで、偏ることなく自然なエフェクト効果を施すことができる。   <Embodiment 9: Effect> This embodiment is a continuous reproduction system characterized in that the operation management unit notifies the effect processing unit of the degree of effect application. By calculating and notifying the degree of application, natural effects can be applied without bias.

実施形態1を説明するための概念図Conceptual diagram for explaining the first embodiment 実施形態1を説明するための機能ブロック図Functional block diagram for explaining the first embodiment 再生情報ファイルの構成を示した図Diagram showing the structure of the playback information file 実施形態1の処理の流れを説明する図The figure explaining the flow of processing of Embodiment 1. 実施形態2を説明するための機能ブロック図Functional block diagram for explaining the second embodiment 実施形態2の処理の流れを説明する図The figure explaining the flow of processing of Embodiment 2. 実施形態3を説明するための機能ブロック図Functional block diagram for explaining the third embodiment 動画ファイルの構成を示した図Diagram showing the structure of a video file 実施形態3の処理の流れを説明する図The figure explaining the flow of processing of Embodiment 3. 実施形態4を説明するための機能ブロック図Functional block diagram for explaining the fourth embodiment 実施形態4の処理の流れを説明する図The figure explaining the flow of processing of Embodiment 4 実施形態5を説明するための機能ブロック図Functional block diagram for explaining the fifth embodiment 実施形態5の処理の流れを説明する図The figure explaining the flow of processing of Embodiment 5 実施形態6を説明するための機能ブロック図Functional block diagram for explaining the sixth embodiment かかり具合度を算出するための図Figure for calculating the degree of application かかり具合度情報に基づいてエフェクト処理をする図A figure that performs effect processing based on depth information かかり具合度情報に基づいてエフェクト処理をする図(その2)Figure (2) for effect processing based on depth information 実施形態6の処理の流れを説明する図The figure explaining the flow of processing of Embodiment 6. 実施形態7の処理の流れを説明する図The figure explaining the flow of processing of Embodiment 7. 実施形態8を説明するための機能ブロック図Functional block diagram for explaining the eighth embodiment 実施形態8の処理の流れを説明する図The figure explaining the flow of processing of Embodiment 8. 実施形態9を説明するための機能ブロック図Functional block diagram for explaining the ninth embodiment 実施形態9の処理の流れを説明する図The figure explaining the flow of processing of Embodiment 9

符号の説明Explanation of symbols

0200 連続再生システム
0210 端末装置
0211 記憶部
0212 動画ファイル再生処理部
0213 再生情報ファイル処理部
0214 エフェクト処理部
0215 動作管理部
0200 Continuous playback system 0210 Terminal device 0211 Storage unit 0212 Video file playback processing unit 0213 Playback information file processing unit 0214 Effect processing unit 0215 Operation management unit

Claims (19)

動画データの再生を行うシステムであって、
動画ファイルと、前記動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルと、を記憶する記憶部と、
前記動画ファイルの再生処理を行う動画ファイル再生処理部と、
前記再生情報ファイルの読み書きおよび解析を行う再生情報ファイル処理部と、
任意の複数フレーム分の画像フレームデータを使用してエフェクト処理を行なうエフェクト処理部と、
前記動画ファイル再生処理部と、前記再生情報ファイル処理部と、前記エフェクト処理部を制御する動作管理部と、
を有する連続再生システム。
A system for playing back video data,
A storage unit for storing a movie file and a playback information file describing control information related to playback processing including a playback position of the movie file;
A video file playback processing unit for performing playback processing of the video file;
A reproduction information file processing unit for reading / writing and analyzing the reproduction information file;
An effect processing unit that performs effect processing using image frame data for an arbitrary plurality of frames;
An operation management unit that controls the video file reproduction processing unit, the reproduction information file processing unit, and the effect processing unit;
A continuous playback system.
前記記憶部は連続再生システムを搭載する端末内部または、端末外部の周辺機器、外部のネットワーク上の少なくともいずれか一つにあることを特徴とする請求項1記載の連続再生システム。   The continuous playback system according to claim 1, wherein the storage unit is at least one of a terminal on which the continuous playback system is mounted, a peripheral device outside the terminal, and an external network. 前記動画ファイル再生処理部は、
動画ファイルに含まれる異なる種別のデータを種別毎に再生する処理を行うデータ処理手段と、
任意の数のフレーム分の画像フレームデータを作成するタイミングの管理と、前記データ処理手段が処理した動画ファイルから画像フレームデータを生成し、動作管理部が管理するメモリに蓄積する画像フレームデータ生成手段と、
を有することを特徴とする請求項1に記載の連続再生システム。
The moving image file reproduction processing unit
Data processing means for performing processing of reproducing different types of data included in the video file for each type;
Management of timing for creating image frame data for an arbitrary number of frames, and image frame data generation means for generating image frame data from a moving image file processed by the data processing means and storing it in a memory managed by the operation management unit When,
The continuous reproduction system according to claim 1, comprising:
前記動画ファイル再生処理部は、
動画ファイルの再生処理中の再生経過時間を前記動作管理部へ通知する再生経過時間通知手段を有することを特徴とする請求項1に記載の連続再生システム。
The moving image file reproduction processing unit
The continuous playback system according to claim 1, further comprising a playback elapsed time notifying unit that notifies the operation management unit of the playback elapsed time during the playback process of the moving image file.
前記再生情報ファイル処理部は、読み込んだ再生情報ファイルを解析し、解析結果を前記動作管理部へ通知する再生情報ファイル解析結果通知手段を有することを特徴とする請求項1に記載の連続再生システム。   The continuous reproduction system according to claim 1, wherein the reproduction information file processing unit includes reproduction information file analysis result notifying means for analyzing the read reproduction information file and notifying the operation management unit of the analysis result. . 前記再生情報ファイルには、再生すべき動画ファイルのファイル名情報と、再生を開始する時間情報と、エフェクト処理を開始すべきエフェクト開始時間情報と、エフェクト処理をどれだけの時間で行なうかを示すエフェクト期間情報と、エフェクト処理に使用する画像フレームデータを生成するタイミングを示す画像フレームデータ生成タイミング情報が含まれていることを特徴とする請求項1に記載の連続再生システム。   The playback information file indicates file name information of a video file to be played back, time information for starting playback, effect start time information for starting effect processing, and how long the effect processing is performed. 2. The continuous reproduction system according to claim 1, further comprising effect period information and image frame data generation timing information indicating a timing of generating image frame data used for effect processing. 前記エフェクト処理部は、エフェクト処理に使用する複数のフレーム分の画像データと、
エフェクト種別情報と、かかり具合度情報の通知を受けるエフェクト通知受手段を持ち、
前記エフェクト通知受手段にて受けた通知に基づいてエフェクト処理を行うことを特徴とする請求項1に記載の連続再生システム。
The effect processing unit includes image data for a plurality of frames used for effect processing;
Has effect notification receiving means for receiving notification of effect type information and degree of coverage information,
2. The continuous reproduction system according to claim 1, wherein effect processing is performed based on the notification received by the effect notification receiving means.
前記記憶部が外部のネットワーク上にあり、動画ファイルのストリーミング再生を行なう時には、連続再生する2つめ以降の動画ファイルのバッファリング中にエフェクト処理を行なうことを特徴とする請求項1に記載の連続再生システム。   2. The continuous processing according to claim 1, wherein when the storage unit is on an external network and when streaming playback of a moving image file is performed, effect processing is performed during buffering of the second and subsequent moving image files to be continuously played back. Playback system. 前記記憶部が外部のネットワーク上にあり、動画ファイルのストリーミング再生を行なう時に、エフェクト処理に使用する複数フレーム分の画像データは、クライアント側かまたはサーバ側で生成することを指定するエフェクト処理フレーム生成指定手段を有することを特徴とする請求項1に記載の連続再生システム。   When the storage unit is on an external network and streaming playback of a moving image file is performed, effect processing frame generation that specifies that image data for a plurality of frames used for effect processing is generated on the client side or the server side The continuous reproduction system according to claim 1, further comprising a designation unit. 前記動作管理部は、エフェクト処理部に対してエフェクトのかかり具合度情報を通知するエフェクト通知手段を有することを特徴とする請求項1に記載の連続再生システム。   The continuous reproduction system according to claim 1, wherein the operation management unit includes an effect notification unit that notifies the effect processing unit of the degree of effect application. 動画データの再生を行う装置によって構成される連続再生システムにおける動画データの連続再生方法であって、
動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う再生情報ファイル処理ステップと、
前記動画ファイルの再生処理を行う動画ファイル再生処理ステップと、
動画ファイルの再生が進んだ時間である再生経過時間と、エフェクト開始時間とを比較するエフェクト開始時間比較ステップと、
再生経過時間がエフェクト開始時間に達した場合には、任意の複数フレーム分の画像フレームデータを使用してエフェクト処理を行なうエフェクト処理ステップと、
を有する動画データの連続再生方法。
A method for continuously reproducing moving image data in a continuous reproduction system configured by a device for reproducing moving image data,
A playback information file processing step for reading / writing and analyzing a playback information file describing control information related to playback processing including the playback position of the video file;
A video file playback processing step for performing playback processing of the video file;
An effect start time comparison step for comparing the playback elapsed time, which is the time when the playback of the video file has progressed, and the effect start time;
When the playback elapsed time reaches the effect start time, an effect processing step for performing effect processing using image frame data for an arbitrary plurality of frames, and
A method for continuously reproducing moving image data.
動画データの再生を行う装置によって構成される連続再生システムにおける動画データの連続再生方法であって、
連続再生システムを搭載する端末内部または、端末外部の周辺機器、外部のネットワーク上の少なくともいずれか一つにある記憶部から、動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み出し、解析を行う再生情報ファイル処理ステップと、
前記記憶部から、動画ファイルを読み出し、動画ファイルの再生処理を行う動画ファイル再生処理ステップと、
動画ファイルの再生が進んだ時間である再生経過時間と、エフェクト開始時間とを比較するエフェクト開始時間比較ステップと、
再生経過時間がエフェクト開始時間に達した場合には、任意の複数フレーム分の画像フレームデータを使用してエフェクト処理を行なうエフェクト処理ステップと、
を有する動画データの連続再生方法。
A method for continuously reproducing moving image data in a continuous reproduction system configured by a device for reproducing moving image data,
A playback information file that describes control information related to playback processing including the playback position of a video file from a storage unit in at least one of the terminal on which the continuous playback system is installed, a peripheral device outside the terminal, or an external network A playback information file processing step for reading and analyzing
A video file playback process step of reading a video file from the storage unit and performing a playback process of the video file;
An effect start time comparison step for comparing the playback elapsed time, which is the time when the playback of the video file has progressed, and the effect start time;
When the playback elapsed time reaches the effect start time, an effect processing step for performing effect processing using image frame data for an arbitrary plurality of frames, and
A method for continuously reproducing moving image data.
動画データの再生を行う装置によって構成される連続再生システムにおける動画データの連続再生方法であって、
動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う再生情報ファイル処理ステップと、
前記動画ファイルに含まれる異なる種別のデータを種別毎に再生する処理を行うデータ処理ステップと、
動画ファイルの再生が進んだ時間である再生経過時間と、エフェクト開始時間とを比較するエフェクト開始時間比較ステップと、
再生経過時間がエフェクト開始時間に達した場合には、復号済みの動画ファイルの最新1フレーム分のデータと、次の動画ファイルの1フレーム分の画像フレームデータを生成し、メモリに蓄積する画像フレームデータ生成ステップと、
メモリ内の画像フレームデータを使用してエフェクト処理を行なうエフェクト処理ステップと、
を有する動画データの連続再生方法。
A method for continuously reproducing moving image data in a continuous reproduction system configured by a device for reproducing moving image data,
A playback information file processing step for reading / writing and analyzing a playback information file describing control information related to playback processing including the playback position of the video file;
A data processing step for performing processing of reproducing different types of data included in the video file for each type;
An effect start time comparison step for comparing the playback elapsed time, which is the time when the playback of the video file has progressed, and the effect start time;
When the elapsed playback time reaches the effect start time, the latest one frame data of the decoded video file and the image frame data of one frame of the next video file are generated and stored in the memory. A data generation step;
An effect processing step for effect processing using image frame data in memory;
A method for continuously reproducing moving image data.
動画データの再生を行う装置によって構成される連続再生システムにおける動画データの連続再生方法であって、
動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う再生情報ファイル処理ステップと、
前記動画ファイルの再生処理を行う動画ファイル再生処理ステップと、
前記動画ファイルの再生処理中の再生経過時間を通知する再生経過時間通知ステップと、
前記再生経過時間通知ステップにて通知された再生経過時間と、エフェクト開始時間とを比較するエフェクト開始時間比較ステップと、
再生経過時間がエフェクト開始時間に達した場合には、任意の複数フレーム分の画像フレームデータを使用してエフェクト処理を行なうエフェクト処理ステップと、
を有する動画データの連続再生方法。
A method for continuously reproducing moving image data in a continuous reproduction system configured by a device for reproducing moving image data,
A playback information file processing step for reading / writing and analyzing a playback information file describing control information related to playback processing including the playback position of the video file;
A video file playback processing step for performing playback processing of the video file;
A playback elapsed time notification step of notifying a playback elapsed time during the playback process of the video file;
An effect start time comparing step for comparing the playback elapsed time notified in the playback elapsed time notifying step and the effect start time;
When the playback elapsed time reaches the effect start time, an effect processing step for performing effect processing using image frame data for an arbitrary plurality of frames, and
A method for continuously reproducing moving image data.
動画データの再生を行う装置によって構成される連続再生システムにおける動画データの連続再生方法であって、
動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み込む再生情報ファイル処理ステップと、
前記再生情報ファイル処理ステップにて読み込んだ再生情報ファイルを解析し、解析結果を通知する再生情報ファイル解析結果通知ステップと、
前記動画ファイルの再生処理を行う動画ファイル再生処理ステップと、
前記解析結果に基づいてエフェクト処理を行うべきか判断する解析結果判断ステップと、
前記解析結果判断ステップにおいて、解析結果はエフェクト処理を行うべきであるとの判断結果の場合には、前記再生情報ファイル解析結果通知ステップにて通知された解析結果に基づいて、任意の複数フレーム分の画像フレームデータを使用してエフェクト処理を行なうエフェクト処理ステップと、
を有する動画データの連続再生方法。
A method for continuously reproducing moving image data in a continuous reproduction system configured by a device for reproducing moving image data,
A playback information file processing step of reading a playback information file describing control information related to playback processing including the playback position of the video file;
A reproduction information file analysis result notification step of analyzing the reproduction information file read in the reproduction information file processing step and notifying the analysis result;
A video file playback processing step for performing playback processing of the video file;
An analysis result determining step for determining whether to perform effect processing based on the analysis result;
In the analysis result determination step, if the analysis result is a determination result that the effect processing should be performed, an arbitrary plurality of frames can be determined based on the analysis result notified in the reproduction information file analysis result notification step. Effect processing step for effect processing using the image frame data of
A method for continuously reproducing moving image data.
動画データの再生を行う装置によって構成される連続再生システムにおける動画データの連続再生方法であって、
動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う再生情報ファイル処理ステップと、
前記動画ファイルの再生処理を行う動画ファイル再生処理ステップと、
前記動画ファイルの再生処理中の再生経過時間と、エフェクト開始時間とを比較するエフェクト開始時間比較ステップと、
再生経過時間がエフェクト開始時間に達した場合には、エフェクト処理に使用する複数のフレーム分の画像データと、エフェクト種別情報と、かかり具合度情報の通知に基づいてエフェクト処理を行うエフェクト処理ステップと、
を有する動画データの連続再生方法。
A method for continuously reproducing moving image data in a continuous reproduction system configured by a device for reproducing moving image data,
A playback information file processing step for reading / writing and analyzing a playback information file describing control information related to playback processing including the playback position of the video file;
A video file playback processing step for performing playback processing of the video file;
An effect start time comparison step of comparing the playback elapsed time during the playback process of the video file and the effect start time;
When the elapsed playback time reaches the effect start time, an effect processing step for performing the effect processing based on the notification of the image data for a plurality of frames used for the effect processing, the effect type information, and the degree of application information, ,
A method for continuously reproducing moving image data.
動画データの再生を行う装置によって構成される連続再生システムにおける動画データの連続再生方法であって、
動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う再生情報ファイル処理ステップと、
外部のネットワーク上にある記憶部に記憶された動画ファイルのストリーミング再生を行なう動画ファイルストリーミング再生処理ステップと、
連続再生する2つめ以降の動画ファイルのバッファリング中にエフェクト処理を行なうエフェクト処理ステップと、
を有する動画データの連続再生方法。
A method for continuously reproducing moving image data in a continuous reproduction system configured by a device for reproducing moving image data,
A playback information file processing step for reading / writing and analyzing a playback information file describing control information related to playback processing including the playback position of the video file;
A video file streaming playback processing step for streaming playback of a video file stored in a storage unit on an external network;
An effect processing step for effect processing during buffering of the second and subsequent video files to be played continuously;
A method for continuously reproducing moving image data.
動画データの再生を行う装置によって構成される連続再生システムにおける動画データの連続再生方法であって、
動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う再生情報ファイル処理ステップと、
外部のネットワーク上にある記憶部に記憶された動画ファイルのストリーミング再生を行なう動画ファイルストリーミング再生処理ステップと、
エフェクト処理に使用する複数フレーム分の画像データは、クライアント側かまたはサーバ側で生成することを指定するエフェクト処理フレーム生成指定ステップと、
指定された側で生成された画像データを使用して、エフェクト処理を行なうエフェクト処理ステップと、
を有する動画データの連続再生方法。
A method for continuously reproducing moving image data in a continuous reproduction system configured by a device for reproducing moving image data,
A playback information file processing step for reading / writing and analyzing a playback information file describing control information related to playback processing including the playback position of the video file;
A video file streaming playback processing step for streaming playback of a video file stored in a storage unit on an external network;
An effect processing frame generation specifying step for specifying that image data for a plurality of frames used for effect processing is generated on the client side or the server side;
An effect processing step for effect processing using image data generated on the designated side;
A method for continuously reproducing moving image data.
動画データの再生を行う装置によって構成される連続再生システムにおける動画データの連続再生方法であって、
動画ファイルの再生位置を含む再生処理に関する制御情報を記述した再生情報ファイルの読み書きおよび解析を行う再生情報ファイル処理ステップと、
動画ファイルの再生を行なう動画ファイル再生処理ステップと、
エフェクトのかかり具合度情報を通知するエフェクト通知ステップと、
エフェクト処理に使用する複数のフレーム分の画像データと、エフェクト種別情報と、かかり具合度情報の通知に基づいてエフェクト処理を行うエフェクト処理ステップと、
を有する動画データの連続再生方法。
A method for continuously reproducing moving image data in a continuous reproduction system configured by a device for reproducing moving image data,
A playback information file processing step for reading / writing and analyzing a playback information file describing control information related to playback processing including the playback position of the video file;
Movie file playback processing step for playing a movie file;
An effect notification step for notifying the degree of effect application;
An effect processing step for performing effect processing based on notification of image data for a plurality of frames used for effect processing, effect type information, and degree of coverage information;
A method for continuously reproducing moving image data.
JP2004305325A 2004-10-20 2004-10-20 Continuous reproduction system Pending JP2006121267A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004305325A JP2006121267A (en) 2004-10-20 2004-10-20 Continuous reproduction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004305325A JP2006121267A (en) 2004-10-20 2004-10-20 Continuous reproduction system

Publications (1)

Publication Number Publication Date
JP2006121267A true JP2006121267A (en) 2006-05-11

Family

ID=36538757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004305325A Pending JP2006121267A (en) 2004-10-20 2004-10-20 Continuous reproduction system

Country Status (1)

Country Link
JP (1) JP2006121267A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5481606B1 (en) * 2013-07-22 2014-04-23 株式会社fuzz Image generation system and image generation program
JP2021149753A (en) * 2020-03-23 2021-09-27 グリー株式会社 Computer program, server device, terminal device, and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5481606B1 (en) * 2013-07-22 2014-04-23 株式会社fuzz Image generation system and image generation program
WO2015011762A1 (en) * 2013-07-22 2015-01-29 株式会社fuzz Image generation system and image generation-purpose program
JP2021149753A (en) * 2020-03-23 2021-09-27 グリー株式会社 Computer program, server device, terminal device, and method
JP7250721B2 (en) 2020-03-23 2023-04-03 グリー株式会社 Computer program, server device, terminal device, and method

Similar Documents

Publication Publication Date Title
US7720349B2 (en) Image processing apparatus, method, and program, and program storage medium
US20210183408A1 (en) Gapless video looping
JP5231928B2 (en) Information processing apparatus and information processing method
KR101919475B1 (en) Device and methodfor providing user interface
US7729590B2 (en) Digital video stream trick play
JP2004040791A (en) Method and system for processing digital data rate and directional playback changes
JP2010219983A (en) Image processing apparatus and method
JP2008141746A (en) System and method for playing moving images
JP2008072336A (en) Decoding device and decoding method
KR101323331B1 (en) Method and apparatus of reproducing discontinuous AV data
US9055272B2 (en) Moving image reproduction apparatus, information processing apparatus, and moving image reproduction method
US8391688B2 (en) Smooth rewind media playback
JP2010022003A (en) Moving image file reproduction device, moving image file reproduction method, and program
JP2007036495A (en) Reproducer, compressor, recorder and reproducing method
JP6424331B2 (en) Still image information processing method
JPWO2005088964A1 (en) Recording / playback editing device
KR101005588B1 (en) Apparatus for editing multi-picture and apparatus for displaying multi-picture
US8185815B1 (en) Live preview
JP2004112769A (en) Device and method for controlling decoding, device and method for processing information, and program
WO2008035459A1 (en) Dynamic image reproducing method and device
JP2006121267A (en) Continuous reproduction system
JP6066712B2 (en) Recording apparatus, recording method, and program
NO346123B1 (en) Video decoding method and device enabling improved user interaction with video content
JP2008277880A (en) Video data recording and reproducing device, system, and method
JP2013046357A (en) Image reproduction apparatus, image reproduction method, and image reproduction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090317