JP5147487B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5147487B2
JP5147487B2 JP2008084999A JP2008084999A JP5147487B2 JP 5147487 B2 JP5147487 B2 JP 5147487B2 JP 2008084999 A JP2008084999 A JP 2008084999A JP 2008084999 A JP2008084999 A JP 2008084999A JP 5147487 B2 JP5147487 B2 JP 5147487B2
Authority
JP
Japan
Prior art keywords
file
difference
image processing
data
base file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008084999A
Other languages
Japanese (ja)
Other versions
JP2009238042A (en
Inventor
康英 田中
勝巳 薮野
政佳 岩井
操 松下
優 菅原
康秀 小薄
浩 合田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CRI Middleware Co Ltd
Sammy Corp
Original Assignee
CRI Middleware Co Ltd
Sammy Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CRI Middleware Co Ltd, Sammy Corp filed Critical CRI Middleware Co Ltd
Priority to JP2008084999A priority Critical patent/JP5147487B2/en
Publication of JP2009238042A publication Critical patent/JP2009238042A/en
Application granted granted Critical
Publication of JP5147487B2 publication Critical patent/JP5147487B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、3Dゲーム装置やアクションパズルゲームなど、例えば、遊技機に適応される画像処理技術に係り、特に、動画の一部を書き換える技術の改良に関する。   The present invention relates to an image processing technique applied to, for example, a gaming machine such as a 3D game device or an action puzzle game, and more particularly to an improvement of a technique for rewriting a part of a moving image.

従来、2D/3DのリアルタイムCGで画面を構成する手法が一般的であったが、近年、動画圧縮技術の進歩に伴い、ムービー再生で画面を構成する手法が広がってきた。ムービー再生で画面を構成する手法は、全画面に適用するケースもあるし、画面の一部に適用して、リアルタイムCGと併用して両者を合成表示するケースもある。   Conventionally, the method of composing a screen with 2D / 3D real-time CG has been common, but in recent years, with the advancement of video compression technology, the method of composing the screen with movie playback has spread. The method of configuring the screen by movie playback may be applied to the entire screen, or may be applied to a part of the screen and combined with the real-time CG to display both.

ムービー再生を利用する手法には次のようなメリットがある。
(1)プリレンダリングCGはリアルタイムCGより高画質で高度な映像表現がきる 。
(2)ライブ映像を表示できる。
(3)ムービー再生制御はリアルタイムCG制御よりプログラムが簡単である。
(4)プログラマーの負荷が軽減できる。
(5)プログラマーを介在させずデザイナーだけで画面を作り、画面調整を完結 できる。
(6)開発工数を削減できる。
The method of using movie playback has the following advantages.
(1) Pre-rendering CG provides higher image quality and higher image quality than real-time CG.
(2) Live video can be displayed.
(3) Movie playback control is easier to program than real-time CG control.
(4) The load on the programmer can be reduced.
(5) The screen can be created by the designer alone without any programmers, and the screen adjustment can be completed.
(6) Development man-hours can be reduced.

ムービー再生で画面を構成する手法のデメリットとして、画面の一部の些細な違いであっても、違いがあるものを表現するには、個別の動画ファイルを準備しなければならない、ということがある。   Disadvantage of the method of configuring the screen in movie playback is that even if a small difference in part of the screen, to express what is different, you must prepare a separate video file .

例えば、色鉛筆を1本購入するシーンの映像について、8色の色鉛筆に対応するためには、8本の動画ファイルを準備しなければならない。これらの動画ファイルは、鉛筆部分の色の情報が異なるだけで、その他の部分は完全に同一である。この例のように、画面の一部が異なるが、その他の部分は共通であるムービーが複数あった場合に、それらのムービーを色違いムービーと呼ぶ。   For example, for a video of a scene where one colored pencil is purchased, in order to support eight colored pencils, eight moving image files must be prepared. These moving image files differ only in the color information of the pencil part, and the other parts are completely the same. As in this example, when there are a plurality of movies in which a part of the screen is different but the other parts are common, these movies are called different color movies.

相違が画面内の特定部分に限定されて、その他の部分が共通であるものは、色違いムービーとみなせる。上記の例で、色鉛筆の他にボールペンを購入するシーンがあっても、ボールペンが色鉛筆とほぼ重複する位置にあり、その他の部分が共通であれば、同じ色違いムービーとして扱うことができる。色違いムービーを個別に扱えば、圧縮したとしても、ムービーの本数に比例したデータサイズが必要となってしまう。   A difference is limited to a specific part in the screen and the other parts are common, and can be regarded as a different color movie. In the above example, even if there is a scene where a ballpoint pen is purchased in addition to a color pencil, if the ballpoint pen is in a position almost overlapping with the color pencil and other parts are common, it can be handled as the same color-different movie. If different color movies are handled individually, even if they are compressed, a data size proportional to the number of movies is required.

本発明が解決しようとする課題は、色違いムービーの冗長性を廃し、圧縮効率を高めることにある。   The problem to be solved by the present invention is to eliminate the redundancy of different color movies and increase the compression efficiency.

本発明に係る画像処理装置および画像処理方法は、一部の領域の色のみが異なる複数の動画像をベースファイルと差分ファイルとに変換し、変換されたベースファイルと差分ファイルとを圧縮することを特徴とする。 An image processing apparatus and an image processing method according to the present invention convert a plurality of moving images that differ only in the colors of some areas into a base file and a difference file, and compress the converted base file and the difference file. It is characterized by.

係る構成によれば、複数の動画像からベースファイルと差分ファイルとに変換することで、差分ファイルの情報量が少なくなり、ベースファイルと情報量の削減された差分ファイルを圧縮することで、全体の圧縮効率を高めることができる。 With such a configuration, by converting a plurality of video images into a base file and differencing file, information of the difference file becomes small, compressing the reduced-differencing file base file and the amount of information Thus, the overall compression efficiency can be increased.

好ましくは、前記映像処理手段は、前記複数の動画像のうちピクセルごとに各色成分の最小値を抽出して前記ベースファイルを作成したり、前記複数の動画像のうち各色成分ごとに全ピクセルの平均値を算出して前記ベースファイルを作成したりる。また、前記映像処理手段は、前記複数の動画像のうちピクセルごとに各色成分の最大値を抽出して前記ベースファイルを作成したり、前記複数の動画像の中から対象となる1つの色違いムービ映像を選択して前記ベースファイルとしたりする。さらに、前記映像処理手段は、前記変換された差分ファイルのうち有効エリアから外れたデータを切り捨て、前記有効エリア内のデータを前記差分ファイルのデータとするとともに、当該差分ファイルのデータと前記ベースファイルのデータの相対位置を記録る。 Preferably, the image processing means, to create the base file by extracting the minimum value of each color component for each pixel of the plurality of moving images, of all pixels for each color component of the plurality of moving image It can create the base file to calculate the average value. Further, the video processing means creates the base file by extracting the maximum value of each color component for each pixel from the plurality of moving images , or selects one color difference to be a target from the plurality of moving images. movie select the image you or with the base file. Further, the image processing means, truncate data out of the effective area of the converted differencing file, along with the data before Symbol differencing file data in the effective area, of those said difference file that records the relative position of the data of the data before and Kibe over scan file.

また、本発明は、上記画像処理装置および画像処理方法により処理された動画像を再生する画像再生装置および画像再生方法であって、ベースファイルと差分ファイルを取り出し、前記ベースファイルのデータと前記差分ファイルのデータとを加算合成することを特徴とする。 Further, the present invention is an image reproducing apparatus and an image reproducing method for reproducing a moving image processed by the image processing apparatus and image processing method, and eject the base file and the difference file, data of the base file characterized by additively synthesizing the data of the difference file and.

また、本発明は、前記いずれかの画像処理方法をコンピュータに実行させるプログラムが格納された機械読取り可能な記録媒体を構成した。   Further, the present invention configures a machine-readable recording medium storing a program for causing a computer to execute any one of the image processing methods.

ここで、記録媒体とは、何らかの物理的手段により情報、主にデジタルデータ、プログラムが記録されているものであって、コンピュータ、専用プロセッサなどの処理装置に所定の機能を行わせることができるものである。   Here, the recording medium is a medium in which information, mainly digital data, and a program are recorded by some physical means, and can cause a processing device such as a computer or a dedicated processor to perform a predetermined function. It is.

要するに、何らかの手段でもってコンピュータにプログラムをダウンロードし、所定の機能を実行させるものであればよい。例えば、フレキシブルディスク、固定ディスク、磁気テープ、光磁気ディスクCD、CD−ROM、CD−R、DVD−RAM、DVD−ROM、DVD−R、PD、MD、DCC、ROMカートリッジ、バッテリバックアップ付のRMメモリカートリッジ、フラッシュメモリカートリッジ、不揮発性RAMカートリッジなどを含む。   In short, what is necessary is just to download a program to a computer and execute a predetermined function by some means. For example, flexible disk, fixed disk, magnetic tape, magneto-optical disk CD, CD-ROM, CD-R, DVD-RAM, DVD-ROM, DVD-R, PD, MD, DCC, ROM cartridge, RM with battery backup Includes memory cartridges, flash memory cartridges, non-volatile RAM cartridges and the like.

本発明によれば、一部の領域の色のみが異なる動画像が複数あった場合の圧縮効率を高めることができる。 According to the present invention, it is possible to increase the compression efficiency when there are a plurality of moving images that differ only in the color of a partial region.

以下、本発明の好適な実施の形態を図面を参照して説明する。   Preferred embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の一実施の形態を示す画像処理装置のブロック構成図である。図1において、画像処理装置は、3D処理部301とムービ映像処理部303を備えている。ムービ映像処理部303ではCD−ROMのデータをデコーダ310によってムービ映像MVに変換する。3D処理部301はデコーダ311によりCD−ROMのデータをデコードし、3Dモデル(3DM)を得て、モデリング部312においてポリゴン生成などのモデリングを行う。なお、描画プロセッサ305は、ムービ映像MVの1枚ずつの画像を一旦テクスチャバッファ313に格納し、これを適宜読み出してキャラクタとともに描画することができる。   FIG. 1 is a block diagram of an image processing apparatus showing an embodiment of the present invention. In FIG. 1, the image processing apparatus includes a 3D processing unit 301 and a movie video processing unit 303. The movie video processing unit 303 converts the CD-ROM data into movie video MV by the decoder 310. The 3D processing unit 301 decodes the CD-ROM data by the decoder 311 to obtain a 3D model (3DM), and the modeling unit 312 performs modeling such as polygon generation. Note that the drawing processor 305 can temporarily store each image of the movie video MV in the texture buffer 313, read it appropriately, and draw it together with the character.

ここで、動画(動画像)の一部を書き換える場合、色違いムービとして、例えば、図2に示すように、矢印A、B、C、D、Eの色のみが異なる動画像30、32、34、36、38をエンコードするに際しては、各動画像30〜38をそれぞれディスクに収納するには、そのままでは情報量が大きくなり、特定の容量のディスクには収めることができなくなり、圧縮効率を高めることができなくなる。   Here, when rewriting a part of a moving image (moving image), for example, as shown in FIG. 2, moving images 30, 32, When encoding 34, 36, and 38, if each moving image 30 to 38 is stored on a disk, the amount of information becomes large as it is, and cannot be stored on a disk of a specific capacity, and compression efficiency is improved. It cannot be raised.

そこで、図3に示すように、矢印Aを含む動画像30をベースファイル(親)とし、動画像30と各動画像32、34、36、38との差分(子差分)を抽出し、差分抽出ムービ(差分ファイル)42、44、46、48とすると、差分抽出ムービ42、44、46、48の情報量は動画像32、34、36、38よりも少なくなり、これらを圧縮した際にはその圧縮率は非常に高く、動画像30を圧縮した場合の1/5〜1/7となる。差分抽出ムービ42〜48を再生する場合には、ベース(親)となる動画像30と子差分である差分抽出ムービ42〜48をそれぞれ加算合成することで、元の動画像32、34、36、38を再現することができる。   Therefore, as shown in FIG. 3, the moving image 30 including the arrow A is used as a base file (parent), and the difference (child difference) between the moving image 30 and each moving image 32, 34, 36, 38 is extracted. If the extracted movies (difference files) 42, 44, 46, and 48 are used, the amount of information of the difference extracting movies 42, 44, 46, and 48 is smaller than that of the moving images 32, 34, 36, and 38. Has a very high compression ratio, which is 1/5 to 1/7 when the moving image 30 is compressed. When reproducing the difference extraction movies 42 to 48, the original moving images 32, 34, and 36 are obtained by adding and synthesizing the moving image 30 serving as the base (parent) and the difference extracting movies 42 to 48 serving as child differences, respectively. , 38 can be reproduced.

動画像30〜38をエンコード処理するに際しては、図4に示すように、動画像30のRGB形式の素材(A)を保存するファイルF1と、動画像32のRGB形式の素材(B)を保存するファイルF2からそれぞれ動画像30、32を差分器50に取り込み、差分器50で動画像30(A)と動画像32(B)との差分(B−A)を抽出し、抽出された差分抽出ムービ(子差分)(B−A)をRGB形式のファイルF3に保存する。   When encoding the moving images 30 to 38, as shown in FIG. 4, the file F1 for storing the RGB format material (A) of the moving image 30 and the RGB format material (B) of the moving image 32 are stored. The moving images 30 and 32 are fetched from the file F2 to be processed into the differentiator 50, and the difference 50 extracts the difference (B−A) between the moving image 30 (A) and the moving image 32 (B). The extracted movie (child difference) (BA) is stored in the RGB file F3.

次に、ファイルF1から動画像30(A)を、ファイルF3からは差分抽出ムービ(子差分)(B−A)を変換器52に取り込み、変換機において、動画像30(A)の動画ファイルと差分抽出ムービ(子差分)(B−A)に対するRGB・YUV変換52を行い、変換された動画像30(A)をYUV形式のデータD1としてMPEG等のエンコーダ54に出力し、変換された差分抽出ムービ(子差分)(B−A)をYUV形式のデータD2としてエンコーダ54に出力する。この後、エンコーダ54において、動画像30(A)と差分抽出ムービ(子差分)(B−A)をそれぞれエンコードし、動画像30(A)をMPEG等の動画ファイルF4に保存し、差分抽出ムービ(子差分)(B−A)をMPEG等の動画ファイルF5に保存する。また動画像30と各動画像34、36、38との差分も同様に抽出することができる。   Next, the moving image 30 (A) from the file F1 and the difference extraction movie (child difference) (BA) from the file F3 are taken into the converter 52, and the moving image file of the moving image 30 (A) is read by the converter. RGB / YUV conversion 52 is performed on the difference extraction movie (child difference) (BA), and the converted moving image 30 (A) is output as YUV format data D1 to an encoder 54 such as MPEG and converted. The difference extraction movie (child difference) (BA) is output to the encoder 54 as YUV data D2. Thereafter, the encoder 54 encodes the moving image 30 (A) and the difference extraction movie (child difference) (BA), stores the moving image 30 (A) in a moving image file F4 such as MPEG, and extracts the difference. The movie (child difference) (BA) is stored in a moving image file F5 such as MPEG. Differences between the moving image 30 and the moving images 34, 36, and 38 can be similarly extracted.

なお、一般的には、素材データの色空間がRGBで、エンコード処理直前の色空間がYUVである場合には、エンコード前にRGBからYUVに色変換を実施する。   In general, when the color space of the material data is RGB and the color space immediately before the encoding process is YUV, color conversion from RGB to YUV is performed before encoding.

これに対して、本実施例における色違いムービをベースムービと差分ムービに変換する処理は、RGB−YUV変換の前でも、後でも実施することができる。   On the other hand, the process of converting the different color movie into the base movie and the difference movie in this embodiment can be performed before or after the RGB-YUV conversion.

但し、実機上では、ベースムービと差分ムービから色違いムービを再現する逆変換の処理(デコード処理)は、エンコードにおける変換処理で行った色空間と同一の色空間で実施する必要がある。これは、実機上の処理は、限られたハードウエアスペックでリアルタイム処理が求められるので、実機上の処理のしやすさを考慮して、本方式を適用する色空間や、ベースムービの作成方式を選択する。   However, on an actual machine, it is necessary to perform the reverse conversion process (decoding process) for reproducing the different color movie from the base movie and the difference movie in the same color space as that used in the conversion process in the encoding. This is because real-time processing requires real-time processing with limited hardware specifications, so the color space to which this method is applied and the base movie creation method, taking into account the ease of processing on the actual device. Select.

次に、デコード処理を行うに際しては、図5に示すように、MPEG等の動画ファイルF4に保存された動画像30と、MPEG等の動画ファイルF5に保存された、MPEG等の差分抽出ムービ(B−A、C−A、D−A、E−A)をデコーダ56に取り込んでデコードする。例えば、動画像30に関するデータ(A)と差分抽出ムービ(B−A、)をデコーダ56でデコードし、デコードで得られたデータ(A)とデータ(B−A)をそれぞれYUV形式のデータD3、D4として変換器58に出力する。このあと変換器58において、YUV形式のデータD3、D4に対するYUV−RGB変換処理を行い、変換されたデータ(A)とデータ(B−A)をそれぞれRGB形式のデータD5、D6として加算合成器60に出力する。加算合成器60は、RGB形式のデータ(A)D5とデータ(B−A)D6をそれぞれ加算合成し、RGB形式のデータ(B)D7として出力する。   Next, when performing the decoding process, as shown in FIG. 5, the moving image 30 stored in the moving image file F4 such as MPEG and the difference extraction movie such as MPEG stored in the moving image file F5 such as MPEG ( B-A, C-A, DA, and EA) are taken into the decoder 56 and decoded. For example, the data (A) and the difference extraction movie (BA) relating to the moving image 30 are decoded by the decoder 56, and the data (A) and the data (BA) obtained by the decoding are respectively YUV-format data D3. , D4 to the converter 58. Thereafter, in the converter 58, YUV-RGB conversion processing is performed on the YUV format data D3 and D4, and the converted data (A) and data (BA) are converted into RGB format data D5 and D6, respectively. 60. The adder / synthesizer 60 adds and synthesizes the RGB format data (A) D5 and the data (BA) D6, and outputs the resultant data as RGB format data (B) D7.

同様にして、動画像30に関するデータ(A)と差分抽出ムービ(C−A、D−A、E−A)をデコードし、デコードで得られたYUV形式のデータ(A)とデータ(C−A、D−A、E−A)をそれぞれYUVからRGB形式に変換し、変換されたRGB形式のデータ(A)とデータ(C−A、D−A、E−A)をそれぞれ加算合成し、加算合成されたデータをRGB形式の動画像34、36、38のデータ(C、D、E)として出力する。   Similarly, the data (A) and the difference extraction movie (CA, DA, EA) relating to the moving image 30 are decoded, and the YUV format data (A) and the data (C-) obtained by decoding are decoded. A, DA, EA) are converted from YUV to RGB format, and the converted RGB format data (A) and data (CA, DA, EA) are added and synthesized. The added and combined data is output as data (C, D, E) of moving images 34, 36, 38 in RGB format.

色違いの複数の動画像30〜38のうち動画像(ムービ)30をベースファイル(親)として、動画像42、44、46、48を子差分としてのサブファイル(差分ファイル)に変換するに際しては、エンコードの前後で処理を施すことで情報量が少なくなり、圧縮効率を高めることができる。特に、動画像として形は同じだが色だけが違うオブジェクトが含まれるものに対してはより圧縮効率を高めることができる。   When converting a moving image (movie) 30 among a plurality of moving images 30 to 38 of different colors as a base file (parent) and moving images 42, 44, 46, and 48 into sub-files (difference files) as child differences Since the amount of information is reduced by performing processing before and after encoding, the compression efficiency can be increased. In particular, the compression efficiency can be further improved for a moving image including objects having the same shape but different colors.

対象となる色違いムービからベースファイルを作成するに際しては、次の4通りがある。   There are four ways to create a base file from a different color movie.

(a)最小値法
複数の色違いムービ映像のうちピクセル毎に各色成分の最小値を抽出してベースファイルを作成する。
(A) Minimum Value Method A base file is created by extracting the minimum value of each color component for each pixel from a plurality of different-color movie images.

具体的には、各フレーム毎、各ピクセル毎、各色成分毎それぞれ独立に最小値を計算する。このとき、複数(n)本の色違いムービがある場合、nサンプルの最小値を計算する。   Specifically, the minimum value is calculated independently for each frame, each pixel, and each color component. At this time, if there are a plurality (n) of different color movies, the minimum value of n samples is calculated.

(b)平均値法
複数の色違いムービのうち色成分毎に全ピクセルの平均値を算出してベースファイルを作成する。
(B) Average Value Method A base file is created by calculating an average value of all pixels for each color component among a plurality of different color movies.

具体的には、各フレーム毎、各ピクセル毎、各色成分毎それぞれ独立に平均値を計算する。このとき、複数(n)本の色違いムービがある場合、nサンプルの相加平均を計算する。   Specifically, the average value is calculated independently for each frame, for each pixel, and for each color component. At this time, if there are a plurality (n) of different color movies, an arithmetic average of n samples is calculated.

(c)最大値法
複数の色違いムービのうちピクセル毎に各色成分の最大値を抽出してベースファイルを作成する。
(C) Maximum Value Method A base file is created by extracting the maximum value of each color component for each pixel from a plurality of different color movies.

具体的には、各フレーム毎、各ピクセル毎、各色成分毎それぞれ独立に最大値を計算する。このとき、複数(n)本の色違いムービがある場合、nサンプルの最大値を計算する。   Specifically, the maximum value is calculated independently for each frame, each pixel, and each color component. At this time, when there are a plurality (n) of different color movies, the maximum value of n samples is calculated.

(d)選択法
複数の色違いムービの中から対象となる1つの色違いムービ映像を選択してベースファイルとみなす。
(D) Selection Method One target different color movie image is selected from a plurality of different color movies and regarded as a base file.

上記いずれかの方法を用いてベースファイルを作成するに際しては、RGBで計算する方法とYUVで計算する2つの方法のいずれかを用いることができる。   When creating a base file using any one of the above methods, either a method of calculating with RGB or two methods of calculating with YUV can be used.

次に、エンコード時の処理を図6のフローチャートにしたがって説明する。まず、ベースファイルを作成するに際しては、複数の色違いムービMV0〜MVn−1基にベースファイルを作成し親ビームとする(S1)。   Next, the encoding process will be described with reference to the flowchart of FIG. First, when creating a base file, a base file is created based on a plurality of different-color movies MV0 to MVn-1 and used as a parent beam (S1).

次に、ベースファイルと各色違いムービとの差分ムービ(子差分ファイル)を生成し(S2)、生成した差分ムービとベースファイルを基にMPEGなどによるエンコードを行い(S3)、このルーチンでの処理を終了する。   Next, a difference movie (child difference file) between the base file and each color difference movie is generated (S2), encoding is performed by MPEG or the like based on the generated difference movie and the base file (S3), and processing in this routine Exit.

次に、再生時の処理を図7のフローチャートにしたがって説明する。まず圧縮された親圧縮ムービと圧縮された子差分ムービを基にMPEGなどによるフレームのデコード処理を行い(S11)、この処理結果から色違いムービのフレームを復元し(S12)、全フレームを終了するまでステップS11とステップS12の処理を継続し、全てのフレームについて処理を終了したときには(S13)、このルーチンでの処理を終了する。   Next, processing during reproduction will be described with reference to the flowchart of FIG. First, based on the compressed parent compression movie and the compressed child difference movie, a frame decoding process such as MPEG is performed (S11), and the frame of the different color movie is restored from this processing result (S12), and all the frames are finished. Steps S11 and S12 are continued until all the frames have been processed (S13), and the processing in this routine is ended.

次に、最小値法によってベースファイル(親)を作成するときの処理方法を図8のフローチャートにしたがって説明する。まず複数の色違いムービ映像のうちピクセル毎の色成分として、例えばR、G、Bについてその最小値を選択し(S21)、この処理を全ピクセルについて終了したか否かを判定し(S22)、全てのピクセルについて処理を終了したときにはこのルーチンでの処理を終了する。   Next, a processing method for creating a base file (parent) by the minimum value method will be described with reference to the flowchart of FIG. First, as color components for each pixel among a plurality of different-color movie images, for example, the minimum values for R, G, and B are selected (S21), and it is determined whether or not this process is completed for all pixels (S22). When the processing is finished for all the pixels, the processing in this routine is finished.

この最小値法によれば、差分の計算式がシンプルであり、グラフィックチップのレンダラーの加算合成機能を用いれば、CPUに負荷がかからない。   According to this minimum value method, the calculation formula of the difference is simple, and if the addition synthesis function of the graphic chip renderer is used, the CPU is not burdened.

次に、平均値法を基にベースファイルを作成するときの処理方法を図9のフローチャートにしたがって説明する。複数の色違いムービ映像に対して、各色成分毎、例えばR、G、Bについて全ピクセルの和を求めたあと、全ピクセルの数を示すnで割り算して、各色成分毎に全ピクセルの平均値を算出する(S31)、そのあと全ピクセルおよび各色成分についての処理を終了したか否かを判定し(S32)、全ピクセルについて処理を終了したときには、このルーチンでの処理を終了する。   Next, a processing method for creating a base file based on the average value method will be described with reference to the flowchart of FIG. After obtaining the sum of all pixels for each color component, for example, R, G, B, for a plurality of different color movie images, dividing by n indicating the number of all pixels, and averaging all pixels for each color component After the value is calculated (S31), it is determined whether or not the processing for all the pixels and the respective color components is finished (S32). When the processing is finished for all the pixels, the processing in this routine is finished.

この平均値法によれば、差分ムービの色の値が小さめになるので、圧縮効率をより高くすることができる。   According to this average value method, the color value of the difference movie becomes smaller, so that the compression efficiency can be further increased.

次に、最大値法によってベースファイルを作成するときの処理方法を図10のフローチャートにしたがって説明する。まず、複数の色違いムービ映像のうちピクセル毎に各色成分R、G、Bについてその最大値を選択し(S41)、この処理を全ピクセルについて終了したか否かを判定し(S42)、全てのピクセルについて処理を終了したときには、このルーチンでの処理を終了する。   Next, a processing method for creating a base file by the maximum value method will be described with reference to the flowchart of FIG. First, the maximum value is selected for each of the color components R, G, and B for each pixel among a plurality of different-color movie images (S41), and it is determined whether or not this process has been completed for all pixels (S42). When the process is finished for this pixel, the process in this routine is finished.

この最大値法によれば、差分の計算式がシンプルであり、グラフィックチップのレンダラーの減算合成機能を用いれば、CPUに負荷がかからない。   According to this maximum value method, the calculation formula of the difference is simple, and if the subtracting and synthesizing function of the graphic chip renderer is used, no load is applied to the CPU.

選択法を用いてベースファイルを作成するに際しては、素材となる色違いムービのどれか1つをそのまま用いてベースファイルを作成することができる。この際、任意に色違いムービを1つ選ぶこともできるが、平均値ムービに近いものを選べば、差分ムービの値が小さくなるため、より圧縮しやすくなる。例えば、全フレーム、全ピクセル、全色成分の2乗誤差が最小値となる色違いムービを採用する。   When creating a base file using the selection method, it is possible to create a base file by using any one of the different color movies that are the materials. At this time, it is possible to arbitrarily select one movie of different colors, but if a value close to the average value movie is selected, the value of the difference movie becomes small, so that compression becomes easier. For example, a different color movie in which the square error of all frames, all pixels, and all color components is a minimum value is adopted.

また、選択法によれば、総ムービ数を1本節約でき、その分圧縮効率を高くすることができる。   Further, according to the selection method, the total number of movies can be saved, and the compression efficiency can be increased accordingly.

次に、平均値法または選択法を適用した場合の差分ムービの生成方法を図11のフローチャートにしたがって説明する。ベースファイルとして平均値法または選択法によって得られたものを用い、各色成分、例えばR、G、Bについて色違いムービと親ムービとの差に256を加え、その総和を2で割り算する(S51)。この処理を全ピクセルについて終了したか否かを判定し(S52)、全ピクセルについて終了したときには、子差分ムービの有効エリア切り出し処理を実行し(S53)、このルーチンでの処理を終了する。   Next, a method of generating a difference movie when the average value method or the selection method is applied will be described with reference to the flowchart of FIG. A base file obtained by the average value method or the selection method is used, and for each color component, for example, R, G, B, 256 is added to the difference between the different color movie and the parent movie, and the sum is divided by 2 (S51). ). It is determined whether or not this process has been completed for all pixels (S52). When all the pixels have been completed, a child difference movie effective area cutout process is executed (S53), and the process in this routine is terminated.

次に、最小値法を適用した場合の差分ムービの生成方法を図12のフローチャートに従って説明する。ベースファイルとして最小値法によって得られたものを用い、各色成分、例えばR、G、Bについて色違いムービと最小値ムービとの差を算出する(S61)。この処理を全ピクセルについて終了したか否かを判定し(S62)、全ピクセルについて終了したときには、子差分ムービの有効エリア切り出し処理を実行し(S63)、このルーチンでの処理を終了する。   Next, a method of generating a difference movie when the minimum value method is applied will be described with reference to the flowchart of FIG. A base file obtained by the minimum value method is used, and the difference between the color difference movie and the minimum value movie is calculated for each color component, for example, R, G, B (S61). It is determined whether or not this process has been completed for all pixels (S62). When all the pixels have been completed, a child difference movie effective area cutout process is executed (S63), and the process in this routine is terminated.

次に、最大値法を適用した場合の差分ムービの生成方法を図13のフローチャートに従って説明する。ベースファイルとして最大値法によって得られたものを用い、各色成分、例えばR、G、Bについて最大値ムービと色違いムービとの差を算出する(S71)。この処理を全ピクセルについて終了したか否かを判定し(S72)、全ピクセルについて終了したときには、子差分ムービの有効エリア切り出し処理を実行し(S73)、このルーチンでの処理を終了する。   Next, a method of generating a difference movie when the maximum value method is applied will be described with reference to the flowchart of FIG. The base file obtained by the maximum value method is used, and the difference between the maximum value movie and the color difference movie is calculated for each color component, for example, R, G, B (S71). It is determined whether or not this process has been completed for all the pixels (S72). When all the pixels have been completed, the child difference movie effective area cutout process is executed (S73), and the process in this routine is terminated.

次に、差分ムービの有効エリア切り出し処理を図14のフローチャートに従って説明する。図11〜図13の差分ムービ生成処理を基に差分ムービを生成したあと、差分データが0以外の値を持つエリアを調べる(S81)。差分エリアが有効エリアから外れたエリアに属する差分データを抽出し、この処理を全フレームについて終了したが否かの判定を行う(S82)。   Next, the effective area cutout process of the difference movie will be described with reference to the flowchart of FIG. After the difference movie is generated based on the difference movie generation process of FIGS. 11 to 13, the area where the difference data has a value other than 0 is examined (S81). Difference data belonging to an area where the difference area is out of the effective area is extracted, and it is determined whether or not this process has been completed for all frames (S82).

全フレームについて処理が終了したときには、差分データとして、外周に全フレームに渡って無効なエリアがあったときには、無効エリアに属する差分データを切り捨て、ムービの画面サイズを小さくするとともに、親ムービに対するこの差分ムービの相対位置x、yを記憶しておく(S83)。記録された情報は再生時に使用され、ムービの画面サイズを小さくすることで、このルーチンでの処理を終了する。   When processing is completed for all frames, if there is an invalid area around the entire frame as the difference data, the difference data belonging to the invalid area is truncated to reduce the screen size of the movie and The relative positions x and y of the difference movie are stored (S83). The recorded information is used at the time of reproduction, and the processing in this routine is completed by reducing the movie screen size.

なお、小さくされた画面サイズのデータは圧縮コーディックや再生プログラムの都合の良いように、その境界を調整しても良い。この場合MPEGなら16整数倍とすることもできる。   Note that the boundary of the reduced screen size data may be adjusted for the convenience of the compression codec and playback program. In this case, in the case of MPEG, it can be set to 16 integer multiples.

また、ゼロデータを小さく圧縮できるので、圧縮効率を改善する効果は小さいが、再生時のデコード、合成処理では、負荷を軽減する効果がある。   Also, since zero data can be compressed small, the effect of improving the compression efficiency is small, but the decoding and composition processing during reproduction has the effect of reducing the load.

次に、平均値法または選択法を適用した場合の色違いムービのフレームの復元方法を図15に従って説明する。まず、平均値法または選択法を適用して色違いムービのフレームを復元するに際しては、各色成分、例えばR、G、B毎に、親ムービ+2×子差分ムービ−256についてクリップ演算を実行する(S91)。 Next, a method for restoring a frame of a different color movie when the average value method or the selection method is applied will be described with reference to FIG. First, when a frame of a different color movie is restored by applying an average value method or a selection method, a clip operation is performed on the parent movie + 2 × child difference movie-256 for each color component, for example, R, G, B. (S91).

clip(x)では、例えば、[0、255]の飽和演算として、0以下なら0とし、255以上なら255とする演算を実行する。これは、圧縮によっては演算結果が範囲外となる場合があるので、飽和演算が必要なためである。この処理を全ピクセルについて終了したか否かを判定し(S92)、全ピクセルについて終了したときには、このルーチンでの処理を終了する。   In clip (x), for example, as a saturation calculation of [0, 255], an operation of 0 is performed if 0 or less, and 255 is performed if 255 or more. This is because, depending on the compression, the calculation result may be out of range, so a saturation calculation is necessary. It is determined whether or not this process has been completed for all pixels (S92), and when this process has been completed for all pixels, the process in this routine is terminated.

次に、最小値法を適用した場合の色違いムービのフレームの復元方法を図16に従って説明する。まず、最小値法を適用して色違いムービのフレームを復元するに際しては、各色成分、例えばR、G、B毎に、(親ムービ+子差分ムービ)についてクリップ演算を実行する(S101)。この処理を全ピクセルについて実行し、全ピクセルについて処理を終了したか否かを判定し(S102)、全ピクセルについて終了したときには、このルーチンでの処理を終了する。   Next, a method for restoring a frame of a different color movie when the minimum value method is applied will be described with reference to FIG. First, when restoring a frame of a different color movie by applying the minimum value method, a clip operation is executed for (parent movie + child difference movie) for each color component, for example, R, G, B (S101). This process is executed for all pixels, and it is determined whether or not the process has been completed for all pixels (S102). When the process is completed for all pixels, the process in this routine is ended.

次に、最大値法を適用した場合の色違いムービのフレームの復元方法を図17に従って説明する。まず、最大値法を適用して色違いムービのフレームを復元するに際しては、各色成分、例えばR、G、B毎に、(親ムービ−子差分ムービ)についてクリップ演算を実行する(S111)。この処理を全ピクセルについて実行し、全ピクセルについて処理を終了したか否かを判定し(S112)、全ピクセルについて終了したときには、このルーチンでの処理を終了する。   Next, a method for restoring a frame of a different color movie when the maximum value method is applied will be described with reference to FIG. First, when restoring a frame of a different color movie by applying the maximum value method, a clip operation is executed for each of the color components, for example, R, G, and B (parent movie-child difference movie) (S111). This process is executed for all the pixels, and it is determined whether or not the process has been completed for all the pixels (S112). When all the pixels are completed, the process in this routine is ended.

本実施形態においては、1.5秒のムービを512×160に成形し、色違いムービとして、たとえば、各動画像の矢印の色を変更し、全部で8種類の色違いムービを作成し、差分ファイルを作らないで8本エンコードした場合、全て親ファイル(ベースファイル)となるため、全体の容量は2880KBとなった。   In this embodiment, a movie of 1.5 seconds is formed into 512 × 160, and as the different color movie, for example, the color of the arrow of each moving image is changed to create a total of eight different color movies. When eight files were encoded without creating a difference file, all of them were parent files (base files), so the total capacity was 2880 KB.

これに対して、1本をベースファイル(親)とし、7本を差分ムービ(差分ファイル)としたときには、親ファイル+7差分ファイル=748KBとなった。   On the other hand, when one is a base file (parent) and seven are difference movies (difference files), the parent file + 7 difference files = 748 KB.

この場合、データ削減率は0.78/2.8=26%となり、元のサイズと比べて約1/4にデータを削減できることが分かった。   In this case, the data reduction rate is 0.78 / 2.8 = 26%, and it has been found that the data can be reduced to about 1/4 compared to the original size.

本実施形態によれば、複数の色違いムービ映像のデータをベースファイルと複数の差分ファイルに変換することで、差分ファイルの情報量が少なくなり、ベースファイルと情報量の削減された各差分ファイルを圧縮することで、全体の圧縮効率を高めることができる。   According to the present embodiment, by converting a plurality of different color video data into a base file and a plurality of difference files, the information amount of the difference file is reduced, and each difference file in which the information amount of the base file and the information amount is reduced is reduced. The overall compression efficiency can be increased by compressing.

なお、図4,5において、動画コーディックとしてMPEGを用いた実施形態について説明したが、MPEGは一例であり他の動画コーディックに変更したり、任意の動画コーディックと組み合わせて、本発明を実現できることは勿論である。   4 and 5, the embodiment using MPEG as the video codec has been described. However, MPEG is an example, and it can be changed to another video codec or combined with any video codec to realize the present invention. Of course.

なお、本発明の画像処理装置は、上記実施形態で説明したゲーム装置のみならず、複数の色違いムービー映像に基づいて画像を表示する装置、例えば、パチンコ機(第一種パチンコ機、第二種パチンコ機を含む。)、回動式遊技機(スロットマシン)、じゃん球等の遊技機、画像を利用したシミュレーション装置等に適用することも可能である。   Note that the image processing apparatus of the present invention is not limited to the game apparatus described in the above embodiment, but also an apparatus that displays an image based on a plurality of different color movie images, for example, a pachinko machine (first type pachinko machine, second type). It can also be applied to a game machine such as a rotary pachinko machine (slot machine), a game machine such as a ball ball, a simulation device using an image, or the like.

本発明の一実施形態を示す画像処理装置のブロック図である。1 is a block diagram of an image processing apparatus showing an embodiment of the present invention. ベースファイルのままエンコードするときの動画像の状態を説明するための図である。It is a figure for demonstrating the state of a moving image when encoding with a base file. 1つのベースファイルと4つの差分ファイルを基にエンコードするときの動画像の状態を説明するための図である。It is a figure for demonstrating the state of a moving image when encoding based on one base file and four difference files. 本実施形態に係るエンコード処理の機能ブロック図である。It is a functional block diagram of the encoding process which concerns on this embodiment. 本実施形態に係るデコード処理機能のブロック図である。It is a block diagram of a decoding processing function according to the present embodiment. 本実施形態に係るエンコード時の処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process at the time of the encoding which concerns on this embodiment. 本実施形態に係る再生時の処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process at the time of the reproduction | regeneration which concerns on this embodiment. 本実施形態に係る最小値法によってベースファイルを作成する方法を説明するためのフローチャートである。It is a flowchart for demonstrating the method of producing a base file by the minimum value method which concerns on this embodiment. 本実施形態に係る平均値法によってベースファイルを作成する方法を説明するためのフローチャートである。It is a flowchart for demonstrating the method of producing a base file by the average value method which concerns on this embodiment. 本実施形態に係る最大値法によってベースファイルを作成する方法を説明するためのフローチャートである。It is a flowchart for demonstrating the method of producing a base file by the maximum value method which concerns on this embodiment. 本実施形態に係る平均値法または選択法による差分ムービ生成法を説明するためのフローチャートである。It is a flowchart for demonstrating the difference movie production | generation method by the average value method or selection method which concerns on this embodiment. 本実施形態に係る最小値法による差分ムービ生成法を説明するためのフローチャートである。It is a flowchart for demonstrating the difference movie production | generation method by the minimum value method which concerns on this embodiment. 本実施形態に係る最大値法による差分ムービ生成法を説明するためのフローチャートである。It is a flowchart for demonstrating the difference movie production | generation method by the maximum value method which concerns on this embodiment. 本実施形態に係る差分ムービの有効エリア切り出し法を説明するためのフローチャートである。It is a flowchart for demonstrating the effective area cutout method of the difference movie which concerns on this embodiment. 本実施形態に係る平均値法または選択法による色違いムービのフレームの復元方法を説明するためのフローチャートである。5 is a flowchart for explaining a method of restoring a frame of a different color movie by an average value method or a selection method according to the present embodiment. 本実施形態に係る最小値法による色違いムービのフレームの復元方法を説明するためのフローチャートである。It is a flowchart for demonstrating the restoration method of the frame of a different color movie by the minimum value method which concerns on this embodiment. 本実施形態に係る最大値法による色違いムービのフレームの復元方法を説明するためのフローチャートである。It is a flowchart for demonstrating the restoration method of the frame of a different color movie by the maximum value method which concerns on this embodiment.

符号の説明Explanation of symbols

301 3D処理部、303 ムービ映像処理部、304 音声処理部、305 描画プロセッサ、306 同期制御部、400〜430 オブジェクト   301 3D processing unit, 303 movie video processing unit, 304 audio processing unit, 305 drawing processor, 306 synchronization control unit, 400 to 430 object

Claims (16)

画像を処理する画像処理装置であって、
一部の領域の色のみが異なる複数の動画像を格納する記憶手段と、
前記記憶手段に格納された前記複数の動画像を取り出して処理する映像処理手段と、を備え、
前記映像処理手段は、
前記複数の動画像に基づいて、ベースファイルと差分ファイルとを生成し、当該生成されたベースファイルと差分ファイルとを圧縮して処理する、
ことを特徴とする画像処理装置。
An image processing apparatus for processing an image,
Storage means for storing a plurality of moving images in which only colors of some areas are different;
Video processing means for extracting and processing the plurality of moving images stored in the storage means,
The video processing means includes
Based on the plurality of moving images, a base file and a difference file are generated, and the generated base file and the difference file are compressed and processed.
An image processing apparatus.
前記映像処理手段は、前記複数の動画像から、各フレーム毎、各ピクセル毎、各色成分毎にそれぞれ独立に最小値を算出して前記ベースファイルを生成する、ことを特徴とする請求項1に記載の画像処理装置。   2. The video processing unit according to claim 1, wherein the base file is generated by calculating a minimum value independently for each frame, each pixel, and each color component from the plurality of moving images. The image processing apparatus described. 前記映像処理手段は、前記複数の動画像から、各フレーム毎、各ピクセル毎、各色成分毎にそれぞれ独立に平均値を算出して前記ベースファイルを生成する、ことを特徴とする請求項1に記載の画像処理装置。   The video processing means generates the base file by calculating an average value independently for each frame, each pixel, and each color component from the plurality of moving images. The image processing apparatus described. 前記映像処理手段は、前記複数の動画像から、各フレーム毎、各ピクセル毎、各色成分毎にそれぞれ独立に最大値を算出して前記ベースファイルを生成する、ことを特徴とする請求項1に記載の画像処理装置。   The video processing means generates the base file by calculating a maximum value independently for each frame, each pixel, and each color component from the plurality of moving images. The image processing apparatus described. 前記映像処理手段は、前記複数の動画像の中から対象となる1つの動画像を選択して前記ベースファイルとする、ことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the video processing unit selects one target moving image from the plurality of moving images as the base file. 前記映像処理手段は、前記ベースファイルと前記差分ファイルとの差分情報が存在しない領域を無効エリアとし、それ以外の領域を有効エリアとしたときに、前記変換された差分ファイルのうち前記有効エリアから外れたデータを切り捨て、前記有効エリア内のデータを前記差分ファイルのデータとするとともに、当該差分ファイルのデータと前記ベースファイルのデータとの相対位置を記録する、ことを特徴とする請求項1に記載の画像処理装置。   The video processing means uses an area where no difference information exists between the base file and the difference file as an invalid area and an area other than the effective area as an effective area from the effective area of the converted difference file. 2. The data of the effective area is used as data of the difference file, and the relative position between the data of the difference file and the data of the base file is recorded. The image processing apparatus described. 請求項1乃至6のいずれか一項に記載の画像処理装置により処理された動画像を再生する画像再生装置であって、
前記ベースファイルと前記差分ファイルを含む動画像を格納する記憶手段と、
前記記憶手段に格納された前記動画像を取り出して再生する映像再生手段と、を備え、
前記映像再生手段は、前記ベースファイルのデータと前記差分ファイルのデータとを加算合成する、ことを特徴とする画像再生装置。
An image reproduction device for reproducing a moving image processed by the image processing device according to any one of claims 1 to 6,
Storage means for storing a moving image including the base file and the difference file;
Video playback means for taking out and playing back the moving image stored in the storage means,
The image reproduction device characterized in that the video reproduction means adds and synthesizes the data of the base file and the data of the difference file.
記憶手段に格納された動画像を取り出して処理する画像処理方法であって、
一部の領域の色のみが異なる複数の動画像をベースファイルと差分ファイルとに変換する第1工程と、
前記変換されたベースファイルと差分ファイルとを圧縮する第2工程と、
備える、ことを特徴とする画像処理方法。
An image processing method for extracting and processing a moving image stored in a storage means,
A first step of converting a plurality of moving images having different colors only in some areas into a base file and a difference file;
A second step of compressing the converted base file and the difference file;
An image processing method characterized by comprising:
前記第1工程では、前記複数の動画像から、各フレーム毎、各ピクセル毎、各色成分毎にそれぞれ独立に最小値を算出して前記ベースファイルを生成する、ことを特徴とする請求項8に記載の画像処理方法。   9. The base file is generated by calculating the minimum value independently for each frame, each pixel, and each color component from the plurality of moving images in the first step. The image processing method as described. 前記第1工程では、前記複数の動画像から、各フレーム毎、各ピクセル毎、各色成分毎にそれぞれ独立に平均値を算出して前記ベースファイルを生成する、ことを特徴とする請求項8に記載の画像処理方法。   The base file is generated by calculating an average value independently for each frame, each pixel, and each color component from the plurality of moving images in the first step. The image processing method as described. 前記第1工程では、前記複数の動画像から、各フレーム毎、各ピクセル毎、各色成分毎にそれぞれ独立に最大値を算出して前記ベースファイルを生成する、ことを特徴とする請求項7に記載の画像処理方法。   The base file is generated by calculating the maximum value independently for each frame, each pixel, and each color component from the plurality of moving images in the first step. The image processing method as described. 前記第1工程では、前記複数の動画像の中から対象となる1つの動画像を選択して前記ベースファイルとする、ことを特徴とする請求項8に記載の画像処理方法。   9. The image processing method according to claim 8, wherein, in the first step, one target moving image is selected from the plurality of moving images as the base file. 前記ベースファイルと前記差分ファイルとの差分情報が存在しない領域を無効エリアとし、それ以外の領域を有効エリアとしたときに、前記変換された差分ファイルのうち前記有効エリアから外れたデータを切り捨て、前記有効エリア内のデータを前記差分ファイルのデータとする第3工程と、当該差分ファイルのデータと前記変換されたベースファイルとのデータの相対位置を記録する第4工程を備える、ことを特徴とする請求項8に記載の画像処理方法。   When the area where the difference information between the base file and the difference file does not exist is set as an invalid area, and the other area is set as an effective area, data outside the effective area of the converted difference file is truncated, A third step of setting the data in the effective area as the data of the difference file, and a fourth step of recording a relative position of the data of the difference file and the converted base file. The image processing method according to claim 8. 請求項8乃至13のいずれか一項に記載の画像処理方法により処理された動画像を取り出して再生する画像再生方法であって、
記憶手段に格納された前記ベースファイルと前記差分ファイルとを取り出し、前記ベースファイルのデータと前記差分ファイルのデータとを加算合成する、画像再生方法。
An image reproduction method for extracting and reproducing a moving image processed by the image processing method according to any one of claims 8 to 13,
An image reproduction method for extracting the base file and the difference file stored in a storage unit and adding and synthesizing the base file data and the difference file data.
請求項8乃至請求項14のいずれか1項に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute the image processing method according to any one of claims 8 to 14. 請求項15記載のプログラムが格納されたことを特徴とする機械読取り可能な記録媒体。   16. A machine-readable recording medium in which the program according to claim 15 is stored.
JP2008084999A 2008-03-27 2008-03-27 Image processing apparatus and image processing method Active JP5147487B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008084999A JP5147487B2 (en) 2008-03-27 2008-03-27 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008084999A JP5147487B2 (en) 2008-03-27 2008-03-27 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2009238042A JP2009238042A (en) 2009-10-15
JP5147487B2 true JP5147487B2 (en) 2013-02-20

Family

ID=41251878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008084999A Active JP5147487B2 (en) 2008-03-27 2008-03-27 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5147487B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0630445A (en) * 1992-07-08 1994-02-04 Canon Inc Image pickup device
JP3533754B2 (en) * 1995-05-10 2004-05-31 松下電器産業株式会社 Image synthesis device

Also Published As

Publication number Publication date
JP2009238042A (en) 2009-10-15

Similar Documents

Publication Publication Date Title
CN103098466B (en) Image processing apparatus and image processing method
JP3133299B2 (en) Game device, moving image display method, and recording medium
CN111193876B (en) Method and device for adding special effect in video
CN111899322B (en) Video processing method, animation rendering SDK, equipment and computer storage medium
JP5120987B2 (en) Apparatus, method and system for image processing
CN108924584A (en) The packaging method and device of interactive video
CN113709554A (en) Animation video generation method and device, and animation video playing method and device in live broadcast room
CN109788212A (en) A kind of processing method of segmenting video, device, terminal and storage medium
JP2019527899A (en) System and method for generating a 3D interactive environment using virtual depth
CN111179391A (en) Three-dimensional animation production method, system and storage medium
CN114598937A (en) Animation video generation and playing method and device
CN113784167B (en) Method and terminal for making and playing interactive video based on 3D rendering
JP6307716B2 (en) Image information processing method
JP2010092138A (en) Animation edition system, animation edition program and recording medium with the same program recorded
JP5147487B2 (en) Image processing apparatus and image processing method
KR101457045B1 (en) The manufacturing method for Ani Comic by applying effects for 2 dimensional comic contents and computer-readable recording medium having Ani comic program manufacturing Ani comic by applying effects for 2 dimensional comic contents
US7980955B2 (en) Method and apparatus for continuous execution of a game program via multiple removable storage mediums
CN109640019B (en) Method for recording and editing long video through mobile terminal
JP2012060611A (en) Image processing system, image processing method, and data structure of dynamic image file
JP5484276B2 (en) Data compression apparatus, data decoding apparatus, data compression method, data decoding method, and data structure of compressed video file
KR20070098364A (en) Apparatus and method for coding and saving a 3d moving image
Jackson Pro Java 9 Games Development: Leveraging the JavaFX APIs
CN116824007A (en) Animation playing method, animation generating device and electronic equipment
Lou The LOST: An Attempt to Combine Film and Game
JP4339390B1 (en) Movie display device using computer, display method, program, and information recording medium

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121127

R150 Certificate of patent or registration of utility model

Ref document number: 5147487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250