JP2006033142A - Moving picture coder, moving picture coding method, program, recording medium, image processing apparatus, and image processing system - Google Patents

Moving picture coder, moving picture coding method, program, recording medium, image processing apparatus, and image processing system Download PDF

Info

Publication number
JP2006033142A
JP2006033142A JP2004205767A JP2004205767A JP2006033142A JP 2006033142 A JP2006033142 A JP 2006033142A JP 2004205767 A JP2004205767 A JP 2004205767A JP 2004205767 A JP2004205767 A JP 2004205767A JP 2006033142 A JP2006033142 A JP 2006033142A
Authority
JP
Japan
Prior art keywords
frame images
image
motion vector
encoding
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004205767A
Other languages
Japanese (ja)
Inventor
Kenji Matsuzaka
健治 松坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004205767A priority Critical patent/JP2006033142A/en
Publication of JP2006033142A publication Critical patent/JP2006033142A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving picture coder for detecting a shift amount usable by an image processing apparatus for composing images and using a motion vector on the basis of the shift amount, so as to code a moving picture. <P>SOLUTION: The moving picture coder generates coded data provided to an image processing apparatus using a plurality of frame images composing a moving picture so as to apply processing with respect to a deviation between frame images includes: a shift amount detection means that detects a deviation of a position of the noted frame images between the two frame images among the plurality of frame images; a motion vector calculation means for converting the detected shift amount into a form of vector information, so as to calculate a motion vector used for the coding; and a coding means for generating the coded data in a form capable of extracting the motion vector at the image processing apparatus side. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像間のずれ量に基づく動きベクトルを用いて、動画像のデータを符号化する動画像符号化装置,動画像符号化方法,プログラム,記録媒体、この動画像符号化装置により符号化されたデータを入力して一の静止画像を生成する画像処理装置、および、画像処理システムに関する。   The present invention relates to a moving image encoding device, a moving image encoding method, a program, a recording medium, and a moving image encoding device for encoding moving image data using a motion vector based on a shift amount between images. The present invention relates to an image processing apparatus that inputs digitized data and generates one still image, and an image processing system.

従来から、複数の画像を合成して一枚の高解像度の画像を生成する画像処理装置および画像処理方法がある。例えば、デジタルビデオカメラで撮影された動画像を構成する複数のフレーム画像から、一のフレーム画像を決定し、決定したフレーム画像よりも高解像度(高い画素密度)の静止画像を生成する技術が知られている。この技術では、基準となるフレーム画像と対象となるフレーム画像との間のずれ量をそれぞれ算出し、このずれ量に基づいて、各フレーム画像を合成して静止画像を生成している(例えば、特許文献1参照)。   Conventionally, there are an image processing apparatus and an image processing method for generating a single high-resolution image by combining a plurality of images. For example, a technique is known in which one frame image is determined from a plurality of frame images constituting a moving image taken by a digital video camera, and a still image having a higher resolution (higher pixel density) than the determined frame image is generated. It has been. In this technique, a shift amount between a reference frame image and a target frame image is calculated, and based on the shift amount, each frame image is synthesized to generate a still image (for example, Patent Document 1).

特開2000−244851号公報Japanese Patent Laid-Open No. 2000-244851

こうした画像の合成処理において素材となる動画像の多くは、例えばMPEG(Moving Picture Expert Group)等に代表される動きベクトルを用いた符号化方式で圧縮された動画像である。MPEG形式では、隣接フレーム間の相関性を有効に利用し、動き補償予測を用いて動き部分についても差分を小さくすることで、符号化情報量を低減し、動画像全体を圧縮している。   Many of the moving images that are materials in such image composition processing are moving images that are compressed by an encoding method using a motion vector typified by, for example, MPEG (Moving Picture Expert Group). In the MPEG format, the correlation between adjacent frames is effectively used, and the difference in the motion portion is reduced using motion compensation prediction, thereby reducing the amount of encoded information and compressing the entire moving image.

しかしながら、こうしたMPEG形式で圧縮された画像を合成する場合には、圧縮データを復号してフレーム画像を生成し、その上でフレーム画像間のずれ量の検出を行なうため、画像処理に時間がかかるという問題があった。MPEG形式の動きベクトルは、データ量の圧縮を目的とするものであり、フレーム画像間の全体の位置のずれを表わすものではない。つまり、MPEG形式の動きベクトルは、フレーム画像間のずれに関連する情報ではあるものの、その値を画像全体のずれ量として合成処理に用いるには信頼性が低い場合があり、画像合成処理に適したものではなかった。   However, when synthesizing images compressed in the MPEG format, the compressed data is decoded to generate a frame image, and then the amount of shift between the frame images is detected. There was a problem. The motion vector in the MPEG format is for the purpose of compressing the amount of data, and does not represent the overall position shift between frame images. That is, although the motion vector in the MPEG format is information related to the shift between the frame images, its value may be low in reliability for use in the synthesis process as the shift amount of the entire image, and is suitable for the image synthesis process. It was not.

本発明は、こうした問題を踏まえ、画像の合成を行なう画像処理装置で使用可能なずれ量を検出し、そのずれ量に基づく動きベクトルを用いて動画像を符号化する動画像符号化装置を提供し、その動画像符号化装置により符号化されたデータを用いて効率的な画像処理を実行する画像処理装置および画像処理システムを構築することを目的とする。   In view of these problems, the present invention provides a moving image encoding device that detects a shift amount that can be used in an image processing apparatus that performs image synthesis and encodes a moving image using a motion vector based on the shift amount. It is an object of the present invention to construct an image processing apparatus and an image processing system that perform efficient image processing using data encoded by the moving image encoding apparatus.

本発明の動画像符号化装置は、上記課題に鑑み、以下の手法を採った。すなわち、動画像を構成する複数のフレーム画像を用いて該フレーム画像間のずれに関する処理を行なう画像処理装置に提供する符号化データを生成する動画像符号化装置であって、前記複数のフレーム画像のうち、着目した2枚のフレーム画像間におけるフレーム画像全体の位置のずれを検出するずれ量検出手段と、前記検出されたずれ量をベクトル情報の形式に変換し、符号化に用いる動きベクトルを算出する動きベクトル算出手段と、前記画像処理装置側において前記動きベクトルを抽出可能な形式で、前記符号化データを生成する符号化手段とを備えたことを要旨としている。   In view of the above problems, the moving picture encoding apparatus of the present invention employs the following technique. That is, a moving image encoding apparatus that generates encoded data to be provided to an image processing apparatus that uses a plurality of frame images constituting a moving image to perform a process related to a shift between the frame images. Among these, a shift amount detecting means for detecting a shift in the position of the entire frame image between the two frame images of interest, and converting the detected shift amount into a vector information format to obtain a motion vector used for encoding. The gist of the invention is that it comprises a motion vector calculation means for calculating, and an encoding means for generating the encoded data in a format in which the motion vector can be extracted on the image processing apparatus side.

また、本発明の動画像符号化装置に対応した符号化方法は、動画像を構成する複数のフレーム画像を用いて該フレーム画像間のずれに関する処理を行なう画像処理装置に提供する符号化データを生成する動画像符号化方法であって、前記複数のフレーム画像のうち、着目した2枚のフレーム画像間におけるフレーム画像全体の位置のずれを検出し、前記検出されたずれ量をベクトル情報の形式に変換し、符号化に用いる動きベクトルを算出し、前記画像処理装置側において前記動きベクトルを抽出可能な形式で、前記符号化データを生成することを要旨としている。   Also, the encoding method corresponding to the moving image encoding apparatus of the present invention provides encoded data to be provided to an image processing apparatus that performs processing relating to a shift between the frame images using a plurality of frame images constituting the moving image. A moving image encoding method to be generated, comprising: detecting a shift of a position of an entire frame image between two focused frame images out of the plurality of frame images, and converting the detected shift amount into a format of vector information The gist is to calculate the motion vector used for encoding, and to generate the encoded data in a format in which the motion vector can be extracted on the image processing apparatus side.

本発明の動画像符号化装置およびその符号化方法によれば、フレーム画像全体の位置のずれ量に基づいて動きベクトルを算出し、これを用いて符号化データを生成する。つまり、符号化データが有する動きベクトルは、フレーム画像間の位置のずれを表わすものとなる。したがって、画像処理装置側では、種々の検出方法を駆使してフレーム画像間のずれ量を検出する必要はなく、動きベクトルを用いて画像処理を実行することができ、画像処理に費やす処理時間を短縮することができる。動画像のデータ量圧縮のための符号化方式において必要となる動きベクトルを、画像処理に適した形として、符号化データに付加することで、省リソース化を図ることができる。   According to the moving picture coding apparatus and the coding method of the present invention, a motion vector is calculated based on the amount of position shift of the entire frame image, and coded data is generated using this. That is, the motion vector included in the encoded data represents a positional shift between frame images. Therefore, on the image processing apparatus side, it is not necessary to detect the amount of shift between frame images by using various detection methods, image processing can be executed using motion vectors, and processing time spent on image processing can be reduced. It can be shortened. Resource saving can be achieved by adding a motion vector necessary for an encoding method for compressing the data amount of a moving image to encoded data in a form suitable for image processing.

なお、フレーム画像を2分割、4分割程度の数個のブロックに分け、ブロック単位の位置のずれを検出するものも、ここでの「フレーム画像全体の位置のずれの検出」と見なすことができる。   It should be noted that a frame image that is divided into several blocks of about 2 or 4 and detects a positional shift in units of blocks can be regarded as “detecting a positional shift of the entire frame image”. .

上記の構成を有する動画像符号化装置のずれ量検出手段は、フレーム画像間の並進方向のずれ量に加え、回転方向のずれ量を検出する手段であるものとしても良い。   The shift amount detection means of the moving picture coding apparatus having the above configuration may be a means for detecting a shift amount in the rotation direction in addition to the shift amount in the translation direction between the frame images.

かかる動画像符号化装置によれば、フレーム画像全体の位置のずれとして、並進方向と回転方向とのずれ量を検出し、このずれ量に基づいて動きベクトル求める。この動きベクトルを画像処理に用いる場合、回転方向のずれも加味した画像処理を実行することができる。したがって、ずれに関する処理を行なう画像処理装置、例えば、フレーム画像間のずれを補正し、合成して一の静止画像を生成する画像処理装置において、処理時間を短縮すると共に、画像処理の精度の向上を図ることができる。   According to such a moving image coding apparatus, the shift amount between the translation direction and the rotation direction is detected as a shift in the position of the entire frame image, and a motion vector is obtained based on the shift amount. When this motion vector is used for image processing, it is possible to execute image processing that takes into account the rotational direction deviation. Therefore, in an image processing apparatus that performs processing related to shift, for example, an image processing apparatus that corrects shift between frame images and combines them to generate one still image, the processing time is shortened and the accuracy of image processing is improved. Can be achieved.

上記の構成を有する動画像符号化装置は、更に、前記フレーム画像間のずれ量に基づく動きベクトルによる符号化データであることを識別する識別子を、前記符号化データ内の所定領域に付加する手段を備えるものとしても良い。   The moving image encoding apparatus having the above configuration further includes means for adding an identifier for identifying that the encoded data is based on a motion vector based on a shift amount between the frame images to a predetermined area in the encoded data. It is good also as a thing provided.

かかる動画像符号化装置によれば、符号化データ内の所定領域に識別子を付加する。この識別子は、動きベクトルがフレーム画像間のずれ量に基づくもの、特別な動きベクトルであることを示すものとなる。符号化データにこうした情報を付加することで、通常の符号化方式による動きベクトルとの違いを容易に認識することができる。   According to such a moving image encoding apparatus, an identifier is added to a predetermined area in the encoded data. This identifier indicates that the motion vector is based on a shift amount between frame images or a special motion vector. By adding such information to the encoded data, it is possible to easily recognize the difference from the motion vector according to the normal encoding method.

上記の構成を有する動画像符号化装置における符号化の形式は、MPEG規格およびH.26x規格に準拠した符号化形式であるものとすることができる。   The encoding format in the moving image encoding apparatus having the above configuration is the MPEG standard and H.264 standard. The encoding format may conform to the 26x standard.

かかる動画像符号化装置によれば、動きベクトルを用いた符号化形式として代表的なMPEG形式およびH.26x形式の符号化を利用して、符号化データを生成する。したがって、ずれ量に基づく動きベクトルを求めれば、既存の符号化技術を利用することができる。   According to such a moving image encoding apparatus, typical MPEG formats and H.264 encoding formats using motion vectors. Encoded data is generated using 26x format encoding. Therefore, if a motion vector based on the shift amount is obtained, an existing encoding technique can be used.

こうした符号化データを取扱う画像処理装置は、上記の動画像符号化装置によって生成された符号化データを復号して、動画像を構成する複数のフレーム画像を生成し、該生成されたフレーム画像から所定数のフレーム画像を取得し、当該所定数のフレーム画像を合成して一の静止画像を生成する画像処理装置であって、前記フレーム画像の合成に先立って、該フレーム画像間のずれ量を補正するずれ量補正手段を備え、該ずれ量補正手段は、前記フレーム画像に対応する前記動きベクトルを抽出し、該動きベクトルを用いて前記ずれ量の補正を実行するものとすることができる。   An image processing apparatus that handles such encoded data decodes the encoded data generated by the moving image encoding apparatus, generates a plurality of frame images constituting the moving image, and generates the frame images from the generated frame images. An image processing apparatus that obtains a predetermined number of frame images and generates a single still image by combining the predetermined number of frame images, wherein a deviation amount between the frame images is determined prior to the synthesis of the frame images. It is possible to provide a deviation amount correcting means for correcting, the deviation amount correcting means extracting the motion vector corresponding to the frame image, and executing the correction of the deviation amount using the motion vector.

かかる画像処理装置によれば、符号化データに付加された動きベクトルを抽出し、これを用いてずれ量を補正して、合成処理を実行するため、フレーム画像間のずれ量補正に用いるずれ量の検出が容易となる。したがって、一連の画像処理、特にずれ量の検出処理の処理時間を短縮することができる。   According to such an image processing apparatus, the motion vector added to the encoded data is extracted, the shift amount is corrected using the extracted motion vector, and the synthesizing process is executed. Therefore, the shift amount used for correcting the shift amount between frame images. Is easy to detect. Accordingly, it is possible to shorten the processing time of a series of image processing, particularly detection processing of the shift amount.

また、上記とは別な態様の画像処理装置は、上記の動画像符号化装置によって生成された符号化データを復号して、動画像を構成する複数のフレーム画像を生成し、該生成されたフレーム画像から所定数のフレーム画像を取得し、当該所定数のフレーム画像を合成して一の静止画像を生成する画像処理装置であって、前記フレーム画像の合成に先立って、該フレーム画像間における該フレーム画像全体の位置のずれの検出を行ない、該検出値に基づいて該フレーム画像間のずれ量を補正するずれ量補正手段を備え、該ずれ量補正手段は、前記符号化データの前記所定領域を読み、該所定領域内のデータが前記識別子であると判断した場合には、前記フレーム画像全体の位置のずれの検出に代えて、該フレーム画像に対応する前記動きベクトルを抽出し、該動きベクトルを用いてずれ量を検出するものとすることができる。   The image processing apparatus according to a different aspect from the above decodes the encoded data generated by the moving image encoding apparatus to generate a plurality of frame images constituting the moving image, and the generated An image processing apparatus that acquires a predetermined number of frame images from a frame image and generates a single still image by combining the predetermined number of frame images, and before the frame images are combined, A shift amount correcting unit that detects a shift of the position of the entire frame image and corrects a shift amount between the frame images based on the detected value, and the shift amount correcting unit includes the predetermined amount of the encoded data. When the area is read and it is determined that the data in the predetermined area is the identifier, the motion vector corresponding to the frame image is used instead of detecting the position shift of the entire frame image. Extracted, it can be assumed that the amount of deviation is detected by using a motion vector.

かかる画像処理装置によれば、ずれ量の補正に先立って、符号化データの所定領域を読む。その結果、所定領域内のデータが識別子であると判断した場合には、フレーム画像に対応する動きベクトルを用いて画像処理を実行する。例えば、通常のMPEG形式の符号化データであれば、フレーム画像全体の位置のずれの検出を行ない、ずれ量に基づく動きベクトルを備えたMPEG形式の符号化データであれば、動きベクトルを抽出してずれ量を検出する。どちらの処理を行なうかの判断は、識別子を確認することで行なわれる。したがって、動きベクトルの画像処理での利用可能性を、画像処理の早い段階で容易に判断することができる。   According to such an image processing apparatus, a predetermined area of encoded data is read prior to correction of the shift amount. As a result, when it is determined that the data in the predetermined area is an identifier, image processing is executed using a motion vector corresponding to the frame image. For example, if the encoded data is normal MPEG format, the position shift of the entire frame image is detected, and if the encoded data is MPEG format data including a motion vector based on the shift amount, the motion vector is extracted. To detect the amount of deviation. The determination of which process is performed is made by confirming the identifier. Therefore, the availability of motion vectors in image processing can be easily determined at an early stage of image processing.

こうした動画像符号化装置と画像処理装置とからなる画像処理システムは、動画像のデータを符号化して符号化データを生成する動画像符号化装置と、該符号化データを入力し、動画像を構成する複数のフレーム画像から一の静止画像を生成する画像処理装置と、を備えた画像処理システムであって、前記動画像符号化装置は、前記動画像を構成する複数のフレーム画像のうち、着目した2枚のフレーム画像間におけるフレーム画像全体の位置のずれを検出するずれ量検出手段と、前記検出されたずれ量をベクトル情報の形式に変換し、前記符号化に用いる動きベクトルを算出する動きベクトル算出手段と、前記画像処理装置側において前記動きベクトルを抽出可能な形式で、前記符号化データを生成する符号化手段とを備え、前記画像処理装置は、前記符号化データを復号し、動画像を構成する複数のフレーム画像を生成する復号手段と、前記複数のフレーム画像から所定数のフレーム画像を取得するフレーム画像取得手段と、前記取得されたフレーム画像に対する前記動きベクトルを抽出する動きベクトル抽出手段と、前記抽出した動きベクトルを用いて、前記所定数のフレーム画像間のずれ量を補正するずれ量補正手段と、前記補正された所定数のフレーム画像を合成して一の静止画像を生成する合成手段とを備えたものとすることができる。   An image processing system including such a moving image encoding device and an image processing device includes a moving image encoding device that encodes moving image data to generate encoded data, and inputs the encoded data, An image processing system comprising: an image processing device that generates a single still image from a plurality of frame images that are configured, wherein the moving image encoding device includes a plurality of frame images that constitute the moving image, A shift amount detecting means for detecting a shift in the position of the entire frame image between the two frame images of interest, and converting the detected shift amount into a vector information format to calculate a motion vector used for the encoding. A motion vector calculating unit; and an encoding unit configured to generate the encoded data in a format in which the motion vector can be extracted on the image processing apparatus side. A decoding unit that decodes the encoded data and generates a plurality of frame images constituting a moving image; a frame image acquisition unit that acquires a predetermined number of frame images from the plurality of frame images; A motion vector extracting means for extracting the motion vector for the frame image, a shift amount correcting means for correcting a shift amount between the predetermined number of frame images using the extracted motion vector, and the corrected predetermined number And a synthesizing unit for synthesizing the frame images to generate one still image.

かかる画像処理システムによれば、動画像符号化装置は、画像処理装置のずれ量に関する処理に適した符号化データを生成し、画像処理装置は、画像処理に適した符号化データの動きベクトルを用いてずれ量に関する処理を実行する。従来、符号化に必要なフレーム画像間における動きベクトルの検出処理と、画像処理に利用するフレーム画像間のずれ量の検出処理との類似した2つの処理を、ずれ量に基づく動きベクトルとして1つにまとめ、有効に利用する。したがって、画像処理の時間を短縮し、省リソース化を図るシステムを構築することができる。   According to such an image processing system, the moving image encoding device generates encoded data suitable for processing related to the shift amount of the image processing device, and the image processing device generates a motion vector of the encoded data suitable for image processing. Used to execute processing related to the deviation amount. Conventionally, two similar processes, ie, a motion vector detection process between frame images necessary for encoding and a shift amount detection process between frame images used for image processing, are used as a motion vector based on the shift amount. Summarize and use effectively. Therefore, it is possible to construct a system that shortens the image processing time and saves resources.

本発明は、コンピュータプログラムおよびコンピュータプログラムを記録した媒体としても実装することができる。記録媒体としては、フレキシブルディスク,CD−ROM,DVD−ROM/RAM,光磁気ディスク、メモリカード、ハードディスクなどコンピュータが読取り可能な種々の媒体を利用することができる。   The present invention can also be implemented as a computer program and a medium recording the computer program. As the recording medium, various computer-readable media such as a flexible disk, a CD-ROM, a DVD-ROM / RAM, a magneto-optical disk, a memory card, and a hard disk can be used.

以下、本発明の実施の形態について、実施例に基づき以下の順序で説明する。
A1.画像処理システムの構成:
A2.符号化処理:
A2−1.動きベクトル算出処理:
A3.高解像度化処理:
B.変形例:
Hereinafter, embodiments of the present invention will be described in the following order based on examples.
A1. Image processing system configuration:
A2. Encoding process:
A2-1. Motion vector calculation processing:
A3. High resolution processing:
B. Variations:

A1.画像処理システムの構成:
図1は、本発明の一実施例としての画像処理システム100を示す説明図である。図示するように、この画像処理システム100は、動画像データを備えた画像データベース20、画像データベース20から入力した動画像データに対して所定形式の符号化を実行する動画像符号化装置、あるいは、動画像データに対して画像処理を実行する画像処理装置としてのパーソナルコンピュータ30、データの符号化や画像処理の実行をユーザが指示するためのユーザインターフェース40、画像処理を施した画像を出力するカラープリンタ50等から構成されている。
A1. Image processing system configuration:
FIG. 1 is an explanatory diagram showing an image processing system 100 as an embodiment of the present invention. As shown in the figure, the image processing system 100 includes an image database 20 including moving image data, a moving image encoding apparatus that performs encoding of a predetermined format on moving image data input from the image database 20, or A personal computer 30 as an image processing apparatus that performs image processing on moving image data, a user interface 40 for a user to instruct execution of data encoding and image processing, and a color that outputs an image subjected to image processing It comprises a printer 50 and the like.

画像データベース20は、デジタルビデオカメラ21,DVD23,ハードディスク24などの動画像データを取り扱う機器を有している。本実施例で取り扱う動画像データは、デジタルビデオカメラ21で取得したデータである。この動画像データは、動画像を構成する複数のフレーム画像から構成されている。なお、本実施例の動画像データは、非可逆的な圧縮処理はされていないものとする。   The image database 20 includes devices that handle moving image data such as a digital video camera 21, a DVD 23, and a hard disk 24. The moving image data handled in this embodiment is data acquired by the digital video camera 21. This moving image data is composed of a plurality of frame images constituting the moving image. It is assumed that the moving image data of the present embodiment is not subjected to irreversible compression processing.

ユーザインターフェース40は、ユーザがデータの符号化や画像処理の実行操作を行なうためのキーボード41やマウス42、画像処理を実行する前の静止画像や合成処理後の静止画像を表示するディスプレイ43などを備えている。   The user interface 40 includes a keyboard 41 and a mouse 42 for a user to perform data encoding and image processing execution operations, a display 43 for displaying still images before image processing and still images after composition processing, and the like. I have.

パーソナルコンピュータ30(以下、PC30と記す)は、画像処理を実行するCPU31、ROM32、RAM33、種々のソフトウェアをインストールするハードディスク34、画像データベース20、ユーザインターフェース40やカラープリンタ50などの外部機器とやり取りするためのI/F回路部35等を有し、それぞれ内部バスにより接続されている。   A personal computer 30 (hereinafter referred to as a PC 30) communicates with external devices such as a CPU 31 that executes image processing, a ROM 32, a RAM 33, a hard disk 34 that installs various software, an image database 20, a user interface 40, and a color printer 50. I / F circuit unit 35 and the like are connected to each other by an internal bus.

ハードディスク34には、所定のオペレーションシステムや、このオペレーションシステム上で動作する複数のアプリケーションプログラムがインストールされている。このプログラムの一つは、動画像を構成する複数枚のフレーム画像から所定数のフレーム画像を抽出し、そのフレーム画像間のずれを補正し、補正したフレーム画像を合成して一枚の高解像度の静止画像を生成する(以下、高解像度化処理と呼ぶ)プログラムである。もう一つは、高解像度化処理におけるずれの補正に使用するフレーム画像間のずれ量を、「動きベクトル」で表わし、この動きベクトルを用いて動画像データを所定形式に符号化(以下、符号化処理と呼ぶ)するプログラムである。つまり、後者はいわゆるソフトウェアエンコーダであり、前者はソフトウェアデコーダかつデコードされたデータを利用する画像処理プログラムである。CPU31は、こうしたプログラムをRAM33に展開して実行する。   A predetermined operation system and a plurality of application programs that operate on the operation system are installed in the hard disk 34. One of these programs extracts a predetermined number of frame images from a plurality of frame images constituting a moving image, corrects a deviation between the frame images, and combines the corrected frame images to produce a single high-resolution image. Is a program for generating a still image (hereinafter referred to as high resolution processing). The other is represented by “motion vector” indicating the amount of shift between frame images used for correction of shift in the resolution enhancement processing, and using this motion vector, moving image data is encoded in a predetermined format (hereinafter referred to as code). This is a program to be referred to as a conversion process. In other words, the latter is a so-called software encoder, and the former is a software decoder and an image processing program that uses decoded data. The CPU 31 develops such a program in the RAM 33 and executes it.

本実施例では、所定形式の符号化として、動きベクトルを用いた代表的な符号化形式であるMPEG(Moving Picture Expert Group)形式(MPEG−1,MPEG−2,MPEG−4)を利用する。なお、動画像データの符号化としては、動きベクトルを用いた符号化であれば、H.261,H.263,H.264のいわゆるH.26x規格など、MPEG形式以外の種々の規格に準拠したものであっても良い。   In the present embodiment, the MPEG (Moving Picture Expert Group) format (MPEG-1, MPEG-2, MPEG-4), which is a typical encoding format using motion vectors, is used as the encoding of the predetermined format. As the encoding of the moving image data, if the encoding is performed using a motion vector, H.264 is used. 261, H.M. 263, H.M. H.264 H.264. It may be compliant with various standards other than the MPEG format, such as the 26x standard.

図2は、本実施例の画像処理システム100における処理の流れを示した説明図である。図示するように、上記構成の画像処理システム100では、動画像データを入力し、符号化処理を実行して、ずれ量に基づく動きベクトルを備えたMPEG形式の符号化データを生成する。生成された符号化データをハードディスク24,34などのメモリに記憶し、動画像符号化装置としての処理を終了する。ユーザがメモリから一の符号化データを選択すると、選択された符号化データを復号して動画像データを生成し、その動画像データの所定のフレーム画像に対して高解像度化処理を実行し、一の静止画像を生成する。こうして生成した一の静止画像を出力して画像処理装置としての処理を終了する。以下に、符号化処理および高解像度化処理について説明する。   FIG. 2 is an explanatory diagram showing the flow of processing in the image processing system 100 of the present embodiment. As shown in the figure, in the image processing system 100 configured as described above, moving image data is input, encoding processing is performed, and encoded data in MPEG format including a motion vector based on the shift amount is generated. The generated encoded data is stored in a memory such as the hard disks 24 and 34, and the processing as the moving image encoding apparatus is completed. When the user selects one piece of encoded data from the memory, the selected encoded data is decoded to generate moving image data, and a high-resolution process is performed on a predetermined frame image of the moving image data. One still image is generated. One still image generated in this way is output, and the processing as the image processing apparatus is terminated. Hereinafter, the encoding process and the high resolution process will be described.

A2.符号化処理:
本実施例の画像処理システム100で実行する2つの処理のうち、まず符号化処理について説明する。図3は、動画像データの符号化処理のフローチャートである。この処理は、ユーザの符号化指示により、PC30のCPU31にて実行される。
A2. Encoding process:
Of the two processes executed by the image processing system 100 of the present embodiment, the encoding process will be described first. FIG. 3 is a flowchart of the moving image data encoding process. This process is executed by the CPU 31 of the PC 30 according to the user's encoding instruction.

処理が開始されると、PC30は、符号化する対象となるデジタルビデオカメラ21で取得した動画像データを入力し、動画像データからフレーム画像を取得する(ステップS300)。取得したフレーム画像は、図示しない所定の記憶領域であるフレームメモリ内に記憶される。   When the process is started, the PC 30 inputs the moving image data acquired by the digital video camera 21 to be encoded, and acquires a frame image from the moving image data (step S300). The acquired frame image is stored in a frame memory which is a predetermined storage area (not shown).

取得した符号化しようとするフレーム画像に対し、MPEG規格の符号化方式に準拠して、3つのピクチャ種別のいずれにするかの設定および制御を実行する(ステップS310)。MPEG形式の符号化では、順方向、逆方向、双方向の3つの動きベクトルによる予測方向があり、こうした予測方向の組み合わせにより、3つのピクチャ種別(画像タイプ)が用意されている。この3つの画像タイプは、予測を使わず元のデータをそのまま符号化したIピクチャ、順方向の動き補償予測を用いたPピクチャ、双方向の動き補償予測を用いたBピクチャである。これらのピクチャは、GOP(Group of Pictures)と呼ばれるグループ単位で取り扱われ、一のGOP内には最低1枚のIピクチャを備えている。Iピクチャは、GOP内のピクチャの基準となり、GOP内で最初に符号化される。したがって、繰り返し実行される符号化処理の最初の段階では、Iピクチャの生成が設定される。   The obtained frame image to be encoded is set and controlled as to which of the three picture types in accordance with the MPEG encoding method (step S310). In the MPEG format encoding, there are three prediction directions based on the motion vectors of the forward direction, the reverse direction, and the bidirectional direction, and three picture types (image types) are prepared by combining these prediction directions. The three image types are an I picture obtained by encoding the original data without using prediction, a P picture using forward motion compensation prediction, and a B picture using bidirectional motion compensation prediction. These pictures are handled in group units called GOP (Group of Pictures), and at least one I picture is provided in one GOP. The I picture serves as a reference for the picture in the GOP, and is encoded first in the GOP. Therefore, in the first stage of the encoding process that is repeatedly executed, generation of an I picture is set.

続いて、設定されたピクチャ種別に基づいて、符号化しようとするフレーム画像が、動きベクトルによる動き補償予測を必要とするか否かを判断する(ステップS320)。上述のように、P,Bピクチャは、予測画像となる過去や未来の画像を基に、動きベクトルを用いて符号化される。したがって、ステップS320では、ピクチャ種別がP,Bピクチャ、またはIピクチャのいずれであるかを判断している。   Subsequently, based on the set picture type, it is determined whether or not the frame image to be encoded requires motion compensation prediction using a motion vector (step S320). As described above, P and B pictures are encoded using motion vectors based on past and future images that are predicted images. Therefore, in step S320, it is determined whether the picture type is P, B picture, or I picture.

ステップS320で、符号化しようとするフレーム画像がPピクチャまたはBピクチャである場合には、動きベクトル算出処理を実行する(ステップS330)。この動きベクトル算出処理は、フレーム画像間におけるフレーム画像全体の位置のずれを検出し、そのずれ量に基づいて、符号化しようとするフレーム画像の動きベクトルを算出する処理である。この処理では、ずれ量に基づいて、16×16画素のマクロブロック単位毎に動きベクトルを算出している。   In step S320, if the frame image to be encoded is a P picture or a B picture, a motion vector calculation process is executed (step S330). This motion vector calculation process is a process for detecting a position shift of the entire frame image between frame images and calculating a motion vector of the frame image to be encoded based on the shift amount. In this processing, a motion vector is calculated for each macro block unit of 16 × 16 pixels based on the shift amount.

具体的には、P,Bピクチャの符号化に際し、フレームメモリ内の予測画像の基準となるフレーム画像(以下、符号化基準フレーム画像と呼ぶ)を読み出し、符号化しようとするフレーム画像(以下、符号化対象フレーム画像と呼ぶ)とのフレーム画像間のずれを検出している。なお、フレーム画像間のずれ量に基づく動きベクトルの算出処理内容については、本発明の要部であるため、後に詳しく説明する。   Specifically, when encoding P and B pictures, a frame image (hereinafter referred to as an encoding reference frame image) serving as a reference of a predicted image in the frame memory is read, and a frame image (hereinafter referred to as an encoding reference frame image) to be encoded is read out. A shift between frame images with a frame image to be encoded) is detected. Note that the details of the motion vector calculation processing based on the amount of shift between frame images are the main part of the present invention, and will be described in detail later.

続いて、ステップS330において、マクロブロック単位で求められた動きベクトルを用いて、動き補償予測を行なう(ステップS340)。動き補償予測は、一般的なMPEG形式の符号化で行なわれており、符号化対象フレーム画像の一マクロブロック(処理マクロブロック)と、符号化基準フレーム画像上において処理マクロブロックに対応する位置から動きベクトル分だけずらした位置の予測マクロブロックとの差分(予測誤差)を求める処理である。MPEG形式では、こうした動き補償予測により、データ量を圧縮している。なお、動き補償予測の実行の際には、フレームメモリ内のローカルデコーダを用いて、逆量子化、逆DCT(逆離散コサイン変換)変換等の復号時と同様な処理を実行し、そのデータを用いて差分の算出が行なわれている。   Subsequently, in step S330, motion compensation prediction is performed using the motion vector obtained for each macroblock (step S340). Motion-compensated prediction is performed by general MPEG encoding, from one macroblock (processing macroblock) of the encoding target frame image and a position corresponding to the processing macroblock on the encoding reference frame image. This is a process for obtaining a difference (prediction error) from a predicted macroblock at a position shifted by a motion vector. In the MPEG format, the amount of data is compressed by such motion compensation prediction. When performing motion compensation prediction, a local decoder in the frame memory is used to execute the same processing as in decoding such as inverse quantization and inverse DCT (inverse discrete cosine transform) transformation, and the data is The difference is calculated using this.

PC30は、動き補償予測により求められた差分のデータに対して、データを水平および垂直方向の周波数成分に分離する処理であるDCT(離散コサイン変換)処理を実行し(ステップS350)、次の処理へ移行する。   The PC 30 executes DCT (discrete cosine transform) processing, which is processing for separating the data into horizontal and vertical frequency components, for the difference data obtained by motion compensation prediction (step S350), and performs the following processing Migrate to

他方、ステップS320で、符号化対象フレーム画像がIピクチャである場合には、動き補償予測を行なうことなく、DCT処理を実行し(ステップS350)、次のステップへ移行する。上述のように、Iピクチャは予測を用いず符号化を行なうピクチャであるため、動きベクトルによる動き補償予測は実行されない。   On the other hand, when the encoding target frame image is an I picture in step S320, DCT processing is executed without performing motion compensation prediction (step S350), and the process proceeds to the next step. As described above, since an I picture is a picture that is encoded without using prediction, motion compensation prediction using a motion vector is not executed.

こうしてDCT処理されたデータに対して、量子化処理を実行する(ステップS360)。量子化処理は、DCT処理されたデータのDCT係数が周波数成分の順に配列されていることを利用して圧縮する処理である。具体的には、DCT係数を所定単位の値で除算し、その結果が一定値以下となるものをゼロにする処理(量子化)を実行している。   A quantization process is performed on the data thus DCT processed (step S360). The quantization process is a process of compressing using DCT coefficients of DCT-processed data arranged in the order of frequency components. Specifically, a process (quantization) is performed in which the DCT coefficient is divided by a predetermined unit value, and the result of which the result becomes a certain value or less is made zero.

続いて、ジグザグ・スキャンしながら読み出した量子化値に対し、ランレングス符号とハフマン符号との組み合わせによるVLC(可変長符号化)処理を実行する(ステップS370)。量子化の結果、高周波成分は一般にゼロとなるため、VLC処理によりデータは圧縮される。   Subsequently, a VLC (variable length coding) process using a combination of a run-length code and a Huffman code is executed on the quantized value read while performing zigzag scanning (step S370). As a result of quantization, the high-frequency component is generally zero, so the data is compressed by the VLC process.

こうした動き補償、DCT、量子化、VLCといった一般的なMPEG形式の符号化において実行される処理を施した後、PC30は、生成したVLCデータの書込みを行なう(ステップS380)。VLCデータの書込み自体は、通常のMPEG形式による処理と同様であるが、このステップでは、GOPとして一まとまりとしたデータのヘッダ内に、「ずれ量に基づく動きベクトル」である旨を書き込む処理を実行している。つまり、一連の符号化処理を繰り返して一のGOPを形成する際に、GOPヘッダ内のユーザ領域に、後述する高解像化処理に対応したMPEG形式であることを示す識別子IDを格納している。   After performing the processing executed in the general MPEG format encoding such as motion compensation, DCT, quantization, and VLC, the PC 30 writes the generated VLC data (step S380). The writing of the VLC data itself is the same as the processing in the normal MPEG format, but in this step, the processing of writing “motion vector based on deviation amount” in the header of a group of data as a GOP is performed. Running. That is, when a series of encoding processes are repeated to form one GOP, an identifier ID indicating that the MPEG format is compatible with a high-resolution process described later is stored in the user area in the GOP header. Yes.

PC30は、入力した動画像データを構成する全てのフレーム画像に対して、一連のMPEG形式に準拠した符号化処理が終了したか否かについて判断を行なう(ステップS390)。ステップS390にて、全てのフレーム画像に対して処理が終了していないと判断した場合には、ステップS300に戻り、一連の符号化処理を繰り返す。他方、ステップS390にて、全てのフレーム画像に対して処理が終了したと判断した場合には、ファイルを閉じ、一連の符号化処理を終了する。こうしてずれ量に基づく動きベクトルを備えたMPEG形式の符号化データが生成される。生成された符号化データは、画像データベース20としてのDVD23,ハードディスク24に記憶される。   The PC 30 determines whether or not a series of encoding processing conforming to the MPEG format has been completed for all the frame images constituting the input moving image data (step S390). If it is determined in step S390 that the processing has not been completed for all frame images, the process returns to step S300, and a series of encoding processes is repeated. On the other hand, if it is determined in step S390 that the processing has been completed for all the frame images, the file is closed and the series of encoding processing is terminated. In this way, MPEG-format encoded data having a motion vector based on the deviation amount is generated. The generated encoded data is stored in the DVD 23 and the hard disk 24 as the image database 20.

こうして生成されたMPEG形式の符号化データは、6層の階層構造からなる。図4は、MPEG形式の符号化データのデータ構造を示す概念図である。図示するように、符号化データは、シーケンス,GOP,ピクチャ,スライス,マクロブロック,ブロックの6層から構成されている。動きベクトルは、このマクロブロック層に書き込まれる。   The encoded data in the MPEG format thus generated has a 6-layer hierarchical structure. FIG. 4 is a conceptual diagram showing a data structure of encoded data in the MPEG format. As shown in the figure, the encoded data is composed of six layers of sequence, GOP, picture, slice, macro block, and block. The motion vector is written into this macroblock layer.

上述の符号化処理では、一般的なMPEG形式の符号化処理(ステップS340以降)についての処理内容を簡単に説明したが、実際には、動き補償予測処理はマクロブロック単位で実行し、DCT処理等はブロック単位で実行している。つまり、図4に示したデータ構造を形成するにあたり、符号化処理のステップS330に示した動きベクトルの算出処理までは、ピクチャ単位で実行し、ピクチャを構成するマクロブロック単位で求めた動きベクトルを、一旦フレームメモリに記憶する。その後の一般的なMPEG処理である動き補償,DCT,量子化,VLCの処理は、マクロブロック、ブロック単位で実行している。このMPEG処理では、一のマクロブロックに対応する動きベクトルをフレームメモリから読み出して動き補償等の処理を行ない、一のピクチャを構成する全てのマクロブロックに対して、処理が終了するまで繰り返し実行する。したがって、ステップS380のデータの書込み処理では、処理されたマクロブロック単位に動きベクトルを書き込んでピクチャ単位まで処理を繰り返し、複数ピクチャからなるGOP単位の処理段階で、識別子IDの書込みを行なっている。   In the above-described encoding process, the processing content of the general MPEG format encoding process (step S340 and subsequent steps) has been briefly described. In practice, however, the motion compensation prediction process is executed in units of macroblocks, and the DCT process is performed. Etc. are executed in block units. That is, in forming the data structure shown in FIG. 4, the process up to the motion vector calculation process shown in step S330 of the encoding process is executed for each picture, and the motion vector obtained for each macroblock constituting the picture is obtained. Once stored in the frame memory. Subsequent motion compensation, DCT, quantization, and VLC processes, which are general MPEG processes, are executed in units of macroblocks and blocks. In this MPEG processing, a motion vector corresponding to one macroblock is read from the frame memory and subjected to processing such as motion compensation, and is repeatedly executed for all macroblocks constituting one picture until the processing is completed. . Therefore, in the data writing process in step S380, the motion vector is written in the processed macroblock unit, the process is repeated up to the picture unit, and the identifier ID is written in the GOP unit processing stage including a plurality of pictures.

A2−1.動きベクトル算出処理:
図5は、符号化処理においてずれ量に基づいた動きベクトルを求める動きベクトル算出処理のフローチャートである。この処理は、図3のステップS330に示したように、PピクチャまたはBピクチャの符号化の際に実行される。
A2-1. Motion vector calculation processing:
FIG. 5 is a flowchart of a motion vector calculation process for obtaining a motion vector based on the shift amount in the encoding process. This process is executed at the time of encoding a P picture or a B picture, as shown in step S330 of FIG.

処理が開始されると、PC30は、フレーム画像間のずれ量を検出する処理を実行する(ステップS500)。具体的には、フレームメモリ内から抽出した符号化基準フレーム画像と、符号化対象フレーム画像とのフレーム画像間における位置のずれ量を検出する。   When the process is started, the PC 30 executes a process for detecting a shift amount between frame images (step S500). Specifically, a positional shift amount between the frame images of the encoding reference frame image extracted from the frame memory and the encoding target frame image is detected.

ここで検出する「ずれ量」とは、パン、チルトといったカメラワークや、手ブレ等によるフレーム画像間の並進方向および回転方向の位置のずれを意味している。以下、並進方向のずれ量を並進ずれ量(u,v)と、回転方向のずれ量を回転ずれ量δと記す。   The “deviation amount” detected here means a deviation in position in the translation direction and the rotation direction between the frame images due to camera work such as panning and tilting or camera shake. Hereinafter, the shift amount in the translation direction is referred to as a translation shift amount (u, v), and the shift amount in the rotation direction is referred to as a rotation shift amount δ.

ずれ量の検出には、フレーム画像間の各画素の輝度を用いて1画素よりも細かい単位で画素の位置を推定する勾配法に基づいている。図6は、この勾配法による並進ずれ量(u,v)の算出方法を示す説明図である。図6(a)には、各画像上の画素の輝度を示し、図6(b)には、勾配法の原理を示した。ここで、(x1i,y1i)は、符号化基準フレーム画像Fr上の一の画素の座標を示し、Z1(x1i,y1i)は、その画素の輝度を表している。なお、ここでは、符号化対象フレーム画像Ft上の座標(x2i,y2i)の画素が、符号化基準フレーム画像Fr上の座標(x1i〜x1i+1,y1i〜y1i+1)の間にあるものとし、その座標を(x1i+Δx,y1i+Δy)とする。   The detection of the shift amount is based on a gradient method in which the pixel position is estimated in units smaller than one pixel using the luminance of each pixel between frame images. FIG. 6 is an explanatory diagram showing a method of calculating the translational deviation (u, v) by this gradient method. FIG. 6A shows the luminance of the pixels on each image, and FIG. 6B shows the principle of the gradient method. Here, (x1i, y1i) represents the coordinates of one pixel on the encoding reference frame image Fr, and Z1 (x1i, y1i) represents the luminance of the pixel. Here, it is assumed that the pixel of the coordinate (x2i, y2i) on the encoding target frame image Ft is between the coordinates (x1i to x1i + 1, y1i to y1i + 1) on the encoding reference frame image Fr. Is (x1i + Δx, y1i + Δy).

図6(b)に示すように、符号化対象フレーム画像Ftにおける座標(x2i,y2i)の画素が、符号化基準フレーム画像Fr上の座標(x1i+Δx,y1i)にあるものとし、
Px=Z1(x1i+1,y1i)−Z1(x1i,y1i) ・・・(1)
とすると、
Px・Δx=Z2(x2i,y2i)−Z1(x1i,y1i) ・・・(2)
が成り立つ。この場合、Z1(x1i,y1i)およびZ2(x2i,y2i)を単にZ1,Z2と置くと、
{Px・Δx−(Z2−Z1)}2=0 ・・・(3)
を満たすΔxを求めれば、符号化対象フレーム画像F2のx軸方向の並進ずれ量を求めることができる。実際には、各画素についてΔxを算出し、平均をとることとなる。
As shown in FIG. 6B, it is assumed that the pixel at the coordinates (x2i, y2i) in the encoding target frame image Ft is at the coordinates (x1i + Δx, y1i) on the encoding reference frame image Fr.
Px = Z1 (x1i + 1, y1i) −Z1 (x1i, y1i) (1)
Then,
Px · Δx = Z2 (x2i, y2i) −Z1 (x1i, y1i) (2)
Holds. In this case, if Z1 (x1i, y1i) and Z2 (x2i, y2i) are simply placed as Z1, Z2,
{Px · Δx− (Z2−Z1)} 2 = 0 (3)
If Δx that satisfies the above is obtained, the translational deviation amount in the x-axis direction of the encoding target frame image F2 can be obtained. Actually, Δx is calculated for each pixel and averaged.

同様にして、符号化対象フレーム画像Ftにおける座標(x2i,y2i)の画素が、符号化基準フレーム画像Fr上の座標(x1i,y1i+Δy)にあるものとし、
Py=Z1(x1i,y1i+1)−Z1(x1i,y1i) ・・・(4)
とすると、
Py・Δy=Z2(x2i,y2i)−Z1(x1i,y1i) ・・・(5)
が成り立つ。この場合、Z1(x1i,y1i)およびZ2(x2i,y2i)を単にZ1,Z2と置くと、
{Py・Δy−(Z2−Z1)}2=0 ・・・(6)
を満たすΔyを求めれば、符号化対象フレーム画像Ftのy軸方向の並進ずれ量を求めることができる。実際には、各画素についてΔyを算出し、平均をとることとなる。
Similarly, it is assumed that the pixel at the coordinates (x2i, y2i) in the encoding target frame image Ft is at the coordinates (x1i, y1i + Δy) on the encoding reference frame image Fr,
Py = Z1 (x1i, y1i + 1) −Z1 (x1i, y1i) (4)
Then,
Py · Δy = Z2 (x2i, y2i) −Z1 (x1i, y1i) (5)
Holds. In this case, if Z1 (x1i, y1i) and Z2 (x2i, y2i) are simply placed as Z1, Z2,
{Py · Δy− (Z2−Z1)} 2 = 0 (6)
If Δy that satisfies the above is obtained, the translational deviation amount in the y-axis direction of the encoding target frame image Ft can be obtained. In practice, Δy is calculated for each pixel and averaged.

上記式(3)はx軸方向のみを、上記式(6)はy軸方向のみを考慮した場合であるため、これをx軸方向、y軸方向の両方向について拡張すると、
2=Σ{Px・Δx+Py・Δy−(Z2−Z1)}2 ・・・(7)
を最小とするΔx,Δyを最小自乗法により求めれば良いこととなる。こうして求められたΔx,Δyが並進ずれ量u,vに相当する。
The above formula (3) is a case where only the x-axis direction is considered, and the above formula (6) is a case where only the y-axis direction is considered. Therefore, when this is expanded in both the x-axis direction and the y-axis direction,
S 2 = Σ {Px · Δx + Py · Δy− (Z2−Z1)} 2 (7)
.DELTA.x and .DELTA.y that minimize the .sigma. Can be obtained by the method of least squares. Δx and Δy thus obtained correspond to the translational deviation amounts u and v.

以上は、フレーム画像間において、単に並進ずれのみがある場合についての計算であるが、加えて、回転ずれ量δを考慮したずれ量の算出方法について説明する。図7は、画素の回転ずれ量を模式的に示す説明図である。図示するように、符号化基準フレーム画像Frのある座標(x,y)の原点Oからの距離をr、x軸からの回転角度をθとすると、r、θは以下の一般式により求められる。
r=(x2+y21/2 ・・・(8)
θ=tan-1(x/y) ・・・(9)
The above is a calculation for the case where there is only a translational deviation between frame images. In addition, a method for calculating a deviation amount in consideration of the rotational deviation amount δ will be described. FIG. 7 is an explanatory diagram schematically showing the amount of pixel rotation deviation. As shown in the figure, assuming that the distance from the origin O of a certain coordinate (x, y) of the encoded reference frame image Fr is r and the rotation angle from the x-axis is θ, r and θ are obtained by the following general expressions. .
r = (x 2 + y 2 ) 1/2 (8)
θ = tan −1 (x / y) (9)

ここで、並進ずれが補正されているものとして、符号化基準フレーム画像Frと符号化対象フレーム画像Ftとの原点Oを合わせ、原点Oを中心に、符号化対象フレーム画像Ftの座標(x1,y1)を角度δだけ回転させたときに、符号化対象フレーム画像Ftの座標(x2,y2)と一致するものとする。この回転によるx軸方向の移動量Δxとy軸方向の移動量Δyは、以下の式により求められる。なお、回転ずれ量δは微小量であるとして、cosδ≒1、sinδ≒δの近似式を用いている。
Δx=x2−x1≒−r・δ・sinδ=−δ・y1 ・・・(10)
Δy=y2−y1≒r・δ・cosδ=δ・x1 ・・・(11)
Here, assuming that the translational deviation is corrected, the origin O of the encoding reference frame image Fr and the encoding target frame image Ft are matched, and the coordinates (x1, x1) of the encoding target frame image Ft are centered on the origin O. It is assumed that when y1) is rotated by an angle δ, it coincides with the coordinates (x2, y2) of the encoding target frame image Ft. The amount of movement Δx in the x-axis direction and the amount of movement Δy in the y-axis direction due to this rotation can be obtained by the following equations. In addition, assuming that the rotational deviation amount δ is a minute amount, an approximate expression of cos δ≈1 and sin δ≈δ is used.
Δx = x2−x1≈−r · δ · sinδ = −δ · y1 (10)
Δy = y2−y1≈r · δ · cosδ = δ · x1 (11)

そこで、上記式(7)における、Δx,Δyを、並進ずれ量u,vに回転ずれ量δを加味して表すと、以下の式となる。
Δx=u−δ・y1 ・・・(12)
Δy=v+δ・x1 ・・・(13)
これらを上記式(7)に代入すると、以下の一般式が得られる。
2=Σ{Px・(u−δ・y)+Py・(v+δ・x)−(Z2−Z1)}2 ・・・(14)
Therefore, when Δx and Δy in the above equation (7) are expressed by adding the translational deviation amounts u and v to the rotational deviation amount δ, the following equations are obtained.
Δx = u−δ · y1 (12)
Δy = v + δ · x1 (13)
Substituting these into equation (7) gives the following general equation:
S 2 = Σ {Px · (u−δ · y) + Py · (v + δ · x) − (Z2−Z1)} 2 (14)

すなわち、上記式(14)のS2を最小とするu,v,δを最小自乗法によって求めることにより、フレーム画像間の1画素未満のずれ量を精度良く検出することができる。 That is, by obtaining u, v, and δ that minimizes S 2 in the above equation (14) by the method of least squares, it is possible to accurately detect a shift amount of less than one pixel between frame images.

こうしたずれ量の検出に先立って、並進ずれ量(u,v)のみについて画素単位での大雑把なずれ量の検出(例えば、パターンマッチ法による検出)を実行するものとしても良い。フレーム画像間の並進ずれ量(u,v)を大雑把に検出し、補正しておくことで、さらに精度の良いずれ量の検出値を得ることができる。   Prior to the detection of such a shift amount, a rough shift amount detection (for example, detection by a pattern matching method) in units of pixels may be executed for only the translational shift amount (u, v). By roughly detecting and correcting the amount of translational deviation (u, v) between the frame images, it is possible to obtain a more accurate detected value.

図5に戻り、こうして検出されたフレーム画像間のずれ量(u,v,δ)を用いて、動きベクトルを算出する(ステップS510)。具体的には、ずれ量(u,v,δ)と符号化基準フレーム画像,符号化対象フレーム画像との幾何学的関係により動きベクトルを算出している。   Returning to FIG. 5, a motion vector is calculated using the shift amount (u, v, δ) between the frame images thus detected (step S510). Specifically, the motion vector is calculated from the geometric relationship between the shift amount (u, v, δ), the encoding reference frame image, and the encoding target frame image.

図8は、動きベクトルの導出の幾何学的関係を示した説明図である。図8の上段は、符号化基準フレーム画像(x1,y1)と、符号化対象フレーム画像(x2,y2)とを示し、図8の中段は、符号化対象フレーム画像を符号化基準フレーム画像に対して(u,v,δ)ずらすことで、それぞれの画像が一致することを示している。すなわち、フレーム画像間には次式が成立する。
x1=cosδ・x2−sinδ・y2+u ・・・(15)
y1=sinδ・x2+cosδ・y2+v ・・・(16)
FIG. 8 is an explanatory diagram showing a geometric relationship for deriving a motion vector. 8 shows the encoding reference frame image (x1, y1) and the encoding target frame image (x2, y2), and the middle part of FIG. 8 shows the encoding target frame image as the encoding reference frame image. By shifting (u, v, δ), the images match. That is, the following equation is established between frame images.
x1 = cosδ · x2−sinδ · y2 + u (15)
y1 = sinδ · x2 + cosδ · y2 + v (16)

ずれ量(u,v,δ)の検出でも説明したように、回転ずれ量δは微小量であるとして、cosδ≒1、sinδ≒δの近似式を用いると、以下の式が得られる。
x1=x2−δ・y2+u ・・・(17)
y1=δ・x2+y2+v ・・・(18)
As described in the detection of the deviation amounts (u, v, δ), assuming that the rotational deviation amount δ is a minute amount, the following equations are obtained by using approximate expressions of cos δ≈1 and sin δ≈δ.
x1 = x2-δ · y2 + u (17)
y1 = δ · x2 + y2 + v (18)

ここで、符号化対象フレーム画像上の座標点(xt,yt)を符号化対象フレーム画像を構成する一マクロブロックの中心点座標とし、符号化基準フレーム画像上の座標点(xr,yr)を、その中心点座標に対応する対応点座標とすると、
xr=xt−δ・yt+u ・・・(19)
yr=δ・xt+yt+v ・・・(20)
となり、中心点座標から対応点座標への動きベクトルMVは、次式となる。
MV=(xr−xt,yr−yt)=(−δ・yt+u,δ・xt+v)・・(21)
Here, the coordinate point (xt, yt) on the encoding target frame image is set as the center point coordinate of one macroblock constituting the encoding target frame image, and the coordinate point (xr, yr) on the encoding reference frame image is set. And the corresponding point coordinates corresponding to the center point coordinates,
xr = xt−δ · yt + u (19)
yr = δ · xt + yt + v (20)
The motion vector MV from the center point coordinates to the corresponding point coordinates is expressed by the following equation.
MV = (xr−xt, yr−yt) = (− δ · yt + u, δ · xt + v) (21)

図5のステップS500で求めたフレーム画像間のずれ量(u,v,δ)を式(21)に代入して、符号化対象フレーム画像の全てのマクロブロックに対して動きベクトルMVを算出する。こうして符号化対象フレーム画像に対して動きベクトルを算出し、フレームメモリに記憶後、一連の処理を終了し、図3のステップS340に示した動き補償予測処理に移行する。   The motion vector MV is calculated for all the macroblocks of the encoding target frame image by substituting the shift amount (u, v, δ) between the frame images obtained in step S500 of FIG. 5 into the equation (21). . Thus, after calculating the motion vector for the encoding target frame image and storing it in the frame memory, the series of processing ends, and the process proceeds to the motion compensation prediction processing shown in step S340 of FIG.

なお、一般のMPEG形式のデコーダでの復号(例えば、動画像の再生)を想定する場合における動きベクトルMVの大きさは、MPEG−1,MPEG−2形式では半画素単位まで、MPEG−4形式では1/4画素単位まで可能である。本実施例では、算出した動きベクトルMVを半画素単位に修正し、マクロブロック内に格納するデータとしている。   Note that the size of the motion vector MV in the case of assuming decoding (for example, reproduction of a moving image) by a general MPEG format decoder is up to a half pixel unit in the MPEG-1 and MPEG-2 formats, and in the MPEG-4 format. Then, it is possible to 1/4 pixel unit. In the present embodiment, the calculated motion vector MV is corrected in units of half pixels and used as data stored in the macroblock.

また、MPEG−1,MPEG−2形式で符号化をする場合には、算出した各マクロブロック毎の動きベクトルMVの妥当性を確認している。MPEG−1,MPEG−2形式では、符号化基準フレーム画像のフレーム外のマクロブロックの参照を禁じている。具体的には、図9に示すマクロブロックMB4のように、算出した動きベクトルにより移動したマクロブロック(斜線)の位置が、符号化基準フレーム画像のフレーム外に出るような場合には、その動きベクトルは使用できない。こうしたマクロブロックに該当するものは、動きベクトルを持たないイントラブロック(フレーム内符号化を行なうブロック)とする。   In addition, when encoding is performed in the MPEG-1 and MPEG-2 formats, the validity of the calculated motion vector MV for each macroblock is confirmed. In the MPEG-1 and MPEG-2 formats, reference to macroblocks outside the frame of the encoding standard frame image is prohibited. Specifically, as in the case of the macro block MB4 shown in FIG. 9, when the position of the macro block (slashed line) moved by the calculated motion vector is outside the frame of the encoded reference frame image, the motion Vectors cannot be used. A block corresponding to such a macro block is an intra block having no motion vector (a block that performs intra-frame coding).

さらに、動きベクトルMV自体の表現可能な範囲も予め設定されているため、動きベクトルMVのx成分、y成分が設定範囲に入らない場合にも、そのマクロブロックをイントラブロックとする。   Furthermore, since the range in which the motion vector MV itself can be expressed is set in advance, even when the x component and y component of the motion vector MV do not fall within the set range, the macro block is set as an intra block.

こうして得られた動きベクトルは、フレーム画像間におけるフレーム画像全体のずれを検出することによって算出されたものである。したがって、フレーム画像間のずれ量に関する処理を施す種々の装置、例えば、ずれ量の補正をした複数のフレーム画像を合成して静止画像を生成する画像処理装置において、動きベクトルを備えた符号化データを利用することができ、ずれ量に関する処理時間を短縮することができる。   The motion vector obtained in this way is calculated by detecting a shift of the entire frame image between frame images. Therefore, in various apparatuses that perform processing related to the shift amount between frame images, for example, an image processing apparatus that generates a still image by combining a plurality of frame images that have been corrected for shift amounts, encoded data including a motion vector Can be used, and the processing time relating to the amount of deviation can be shortened.

一般的なMPEG形式による動きベクトルは、所定サイズのブロック毎にフレーム画像間の差分データを最も少なくするように算出されているため、フレーム画像間における全体のずれを表わしたものではない。つまり、必ずしもフレーム画像間の動きを捉えた情報を表わしたものではなく、その情報をそのままフレーム画像間の動きの情報として用いるには信頼性の低いものである。   Since the motion vector in the general MPEG format is calculated so as to minimize the difference data between the frame images for each block of a predetermined size, it does not represent the total shift between the frame images. That is, it does not necessarily represent information that captures the motion between frame images, and it is unreliable to use the information as it is as motion information between frame images.

これに対して本実施例の動きベクトルは、フレーム画像全体のずれ量に基づくため、ずれ量に関する処理を伴う画像処理に適したものとなり、動画像の符号化のための動きベクトルを有効に利用することができる。   On the other hand, since the motion vector of the present embodiment is based on the shift amount of the entire frame image, it is suitable for image processing involving processing related to the shift amount, and the motion vector for encoding moving images is effectively used. can do.

本実施例の符号化データは、フレーム画像全体のずれに基づく動きベクトルであるため、一のフレーム画像をずらすことで他のフレーム画像とほぼ重なり合い、フレーム画像間の差分データは減少する。よって、一般的なMPEG形式の符号化データに比べ、動きベクトル等の情報量が増加しても、全体的なデータ量の増加は少ない。つまり、一般的なMPEG形式の符号化データとほぼ同等なデータ量を維持しつつ、画像処理に適した動きベクトルを付加した符号化データを生成することができる。   Since the encoded data of this embodiment is a motion vector based on the shift of the entire frame image, shifting one frame image almost overlaps with another frame image, and the difference data between the frame images decreases. Therefore, as compared with general MPEG encoded data, even if the amount of information such as motion vectors increases, the overall data amount does not increase. That is, it is possible to generate encoded data to which a motion vector suitable for image processing is added while maintaining a data amount substantially equivalent to general MPEG encoded data.

なお、本実施例では、フレーム画像「全体」のずれを求めているが、フレーム画像を数個のブロックに分割して個々のブロックに対してずれを求めるものであっても、2分割、4分割程度のものであれば、フレーム画像「全体」としてずれを求めていると見なすことができる。   In this embodiment, the shift of the frame image “whole” is obtained. However, even if the frame image is divided into several blocks and the shift is obtained for each block, it is divided into two, four, If it is about a division, it can be considered that the frame image “whole” is seeking a shift.

また、本実施例では、フレーム画像全体のずれ量から各マクロブロックの動きベクトルを求める原理を説明するため、符号化するフレーム画像内には、動きの大きい動体領域は存在しないものとした。しかし、実際には、符号化するフレーム画像内に動体領域が存在する場合もある。この場合には、マクロブロック単位で位置のずれを検出し、フレーム画像全体のずれに対して動きが大きいと判断したマクロブロックをイントラブロックとするものとすれば良い。   Further, in this embodiment, in order to explain the principle of obtaining the motion vector of each macroblock from the shift amount of the entire frame image, it is assumed that there is no moving object region having a large motion in the frame image to be encoded. However, in practice, there may be a moving object region in the frame image to be encoded. In this case, a position shift is detected in units of macro blocks, and a macro block that is determined to have a large motion with respect to the shift of the entire frame image may be set as an intra block.

A3.高解像度化処理:
次に、本実施例の画像処理システム100で実行する2つの処理のうち、高解像度化処理について説明する。図10は高解像度化処理のフローチャートである。上述の符号化処理により生成された符号化データは、ソフトウェアデコーダであるMPEGデコーダを介して、時系列の連続するフレーム画像に変換される。PC30はユーザの再生操作に応じて、ディスプレイ43上に時系列の連続するフレーム画像からなる動画像を再生する。
A3. High resolution processing:
Next, among the two processes executed by the image processing system 100 of the present embodiment, the resolution enhancement process will be described. FIG. 10 is a flowchart of the resolution enhancement process. The encoded data generated by the above-described encoding process is converted into time-series continuous frame images via an MPEG decoder which is a software decoder. The PC 30 reproduces a moving image composed of continuous time-series frame images on the display 43 in accordance with a user's reproduction operation.

ユーザは、再生された動画像から静止画像として出力を所望する一シーンを所定の操作により選択し、そのシーン(フレーム画像)を指定する。ユーザがそのフレーム画像を高解像度の静止画像として出力する高解像度化処理の実行を指示すると、図10に示したフローチャートがPC30にて実行される。   The user selects one scene desired to be output as a still image from the reproduced moving image by a predetermined operation, and designates the scene (frame image). When the user instructs execution of a resolution enhancement process for outputting the frame image as a high resolution still image, the flowchart shown in FIG.

PC30は、指定されたフレーム画像から時系列順に、画像処理に使用するフレーム画像を抽出する(ステップS700)。本実施例では、フレーム画像の指定の操作タイミングから時系列的に連続する4枚のフレーム画像を抽出するものとする。この4枚のフレーム画像にはIピクチャおよびPピクチャが1枚含まれるものとし、そのIピクチャおよびPピクチャを基準フレーム画像と呼び、それ以外の3枚を対象フレーム画像と呼ぶ。なお、抽出するフレーム画像の数はユーザが任意に設定できるものとしても良い。   The PC 30 extracts frame images used for image processing from the designated frame images in time series order (step S700). In this embodiment, it is assumed that four frame images that are continuous in time series are extracted from the operation timing for designating the frame image. These four frame images include one I picture and P picture, the I picture and P picture are called reference frame images, and the other three pictures are called target frame images. Note that the number of frame images to be extracted may be arbitrarily set by the user.

PC30は、抽出したフレーム画像が高解像度化処理用の動きベクトル(つまり、ずれ量に基づく動きベクトル)を備えたMPEG形式の符号化データであるか否かを判断する(ステップS710)。具体的には、フレーム画像の属するGOPヘッダのユーザ領域内を参照し、前述の識別子IDを備えている場合には高解像度化処理用であると判断している。   The PC 30 determines whether or not the extracted frame image is MPEG-format encoded data having a motion vector for high resolution processing (that is, a motion vector based on a shift amount) (step S710). Specifically, the user area of the GOP header to which the frame image belongs is referred to, and if it has the above-described identifier ID, it is determined that it is for high resolution processing.

ステップS710で、高解像度化処理用のMPEG形式のデータであると判断した(Yes)場合には、抽出した対象フレーム画像の符号化時の動きベクトルを抽出する(ステップS720)。このステップでは、対象フレーム画像毎に、フレーム画像を構成するマクロブロックのうち、イントラブロック以外の2つの任意のマクロブロックを選定し、そのマクロブロックが有する動きベクトルを抽出する。   If it is determined in step S710 that the data is in MPEG format for high resolution processing (Yes), a motion vector at the time of encoding the extracted target frame image is extracted (step S720). In this step, for each target frame image, two arbitrary macro blocks other than the intra block are selected from the macro blocks constituting the frame image, and a motion vector included in the macro block is extracted.

抽出した2つのマクロブロックの動きベクトルから、その対象フレーム画像の並進ずれ量(u,v)を検出する処理を行なう(ステップS730)。この処理は、抽出した2つの動きベクトルのうち、一方の動きベクトルMV1の値の符号を反転して並進ずれ量(u,v)として設定する処理である。   From the extracted motion vectors of the two macroblocks, processing for detecting the translational deviation amount (u, v) of the target frame image is performed (step S730). This process is a process of inverting the sign of the value of one of the two extracted motion vectors and setting it as the translational deviation (u, v).

続いて、ステップS730にて並進ずれ量(u,v)の検出の基準としたマクロブロックの中心点を原点として、抽出した他方のマクロブロックの動きベクトルMV2から回転ずれ量δを検出する処理を行なう(ステップS740)。この処理は、他方のマクロブロックの動きベクトルMV2から、基準のマクロブロックの動きベクトルMV1を差し引き、回転成分を検出する処理である。   Subsequently, in step S730, a process of detecting the rotational deviation amount δ from the extracted motion vector MV2 of the other macroblock with the center point of the macroblock used as a reference for detecting the translational deviation amount (u, v) as the origin. This is performed (step S740). In this process, the motion vector MV1 of the reference macroblock is subtracted from the motion vector MV2 of the other macroblock to detect a rotation component.

このステップS730,S740における並進ずれ量(u,v)、回転ずれ量δの検出処理を、図11から図13を用いて、具体的に説明する。図11は、一の対象フレーム画像の符号化時の動きベクトルを示す概念図である。図示するように、対象フレーム画像の各マクロブロックは、矢印で示した動きベクトルを備えている。ここで、任意のマクロブロックMB15、MB18を選択し、マクロブロックMB15の動きベクトルMV1(a,0)を抽出するものとする。ステップS730では、マクロブロックMB15の中心点を原点と考え、その動きベクトルMV1(a,0)の符号を反転した(−a,0)を並進ずれ量(u,v)として設定する。   The process of detecting the translational deviation amount (u, v) and the rotational deviation amount δ in steps S730 and S740 will be specifically described with reference to FIGS. FIG. 11 is a conceptual diagram showing a motion vector at the time of encoding one target frame image. As shown in the figure, each macroblock of the target frame image has a motion vector indicated by an arrow. Here, it is assumed that arbitrary macroblocks MB15 and MB18 are selected and a motion vector MV1 (a, 0) of the macroblock MB15 is extracted. In step S730, the central point of the macro block MB15 is considered as the origin, and (−a, 0) obtained by inverting the sign of the motion vector MV1 (a, 0) is set as the translational deviation amount (u, v).

図12は、動きベクトルの回転成分により示した概念図である。図11に示した各マクロブロックの動きベクトルから、マクロブロックMB15の動きベクトルMV1を差し引くことで図12が得られる。図示するように、マクロブロックMB15の中心点を原点とする回転成分のみによって動きベクトルが表現される。マクロブロックMB18の動きベクトルMV2を回転成分のみで表わしたものを動きベクトルMV2δと記す。   FIG. 12 is a conceptual diagram showing the rotation component of the motion vector. FIG. 12 is obtained by subtracting the motion vector MV1 of the macroblock MB15 from the motion vector of each macroblock shown in FIG. As shown in the figure, the motion vector is expressed only by the rotation component having the origin at the center point of the macroblock MB15. The motion vector MV2 of the macro block MB18 represented by only the rotation component is referred to as a motion vector MV2δ.

ステップS740では、原点(マクロブロックMB15の中心点)から、他方のマクロブロックMB18の中心点までの距離L(線分Lと呼ぶ)を求め、動きベクトルMV2δの線分Lに対する垂直成分Pを求める。求めた線分Lと垂直成分Pとの関係から、次式によって回転成分αを算出し、回転成分αの符号を反転した−αを回転ずれ量δとして設定する。
α=arctan(P/L) ・・・(22)
In step S740, a distance L (referred to as a line segment L) from the origin (the center point of the macroblock MB15) to the center point of the other macroblock MB18 is obtained, and a vertical component P with respect to the line segment L of the motion vector MV2δ is obtained. . From the relationship between the obtained line segment L and the vertical component P, the rotational component α is calculated by the following equation, and −α, which is the sign of the rotational component α inverted, is set as the rotational deviation amount δ.
α = arctan (P / L) (22)

なお、回転成分αの符号の反転については、動きベクトルの回転成分と高解像度化処理における回転ずれ量δとの表現方法の相違による。図13は、高解像度化処理における回転ずれ量と動きベクトルの回転成分との関係を示す説明図である。図示するように、高解像度化処理における回転ずれ量は、基準フレーム画像に対して対象フレーム画像を回転させて画像内容を一致させるためのずれ量を表現している。これに対し、動きベクトルの回転成分は、基準フレーム画像上の画像内容を回転させて所定時間後の対象フレーム画像上の画像内容と一致させるための回転量を表現している。したがって、動きベクトルの回転成分を用いて高解像度化処理における回転ずれ量に置き換えるには、符号を反転することになる。これは、並進ずれ量の検出における符号の反転についても同様である。   Note that the inversion of the sign of the rotation component α is due to the difference in the expression method between the rotation component of the motion vector and the rotation shift amount δ in the resolution enhancement processing. FIG. 13 is an explanatory diagram showing the relationship between the rotational deviation amount and the rotational component of the motion vector in the resolution enhancement processing. As shown in the figure, the amount of rotational deviation in the resolution enhancement process represents the amount of deviation for rotating the target frame image with respect to the reference frame image to match the image contents. On the other hand, the rotation component of the motion vector expresses a rotation amount for rotating the image content on the reference frame image to match the image content on the target frame image after a predetermined time. Therefore, in order to replace the rotational displacement amount in the resolution enhancement processing using the rotational component of the motion vector, the sign is inverted. The same applies to the inversion of the sign in the detection of the translational deviation amount.

以上の処理を経て、対象フレーム画像のずれ量(u,v,δ)は、(−a,0,−α)として検出される。なお、他の対象フレーム画像についても同様に、動きベクトルからずれ量(u,v,δ)を検出する。符号化時の動きベクトルを用いることで容易にずれ量(u,v,δ)の検出を行なうことができる。   Through the above processing, the shift amount (u, v, δ) of the target frame image is detected as (−a, 0, −α). Similarly, for other target frame images, the shift amount (u, v, δ) is detected from the motion vector. By using the motion vector at the time of encoding, the shift amount (u, v, δ) can be easily detected.

他方、図10のステップS710で、高解像度化処理用のMPEG形式のデータでないと判断した(No)場合には、対象フレーム画像Ftと基準フレーム画像Frとのずれ量を検出する(ステップS750)。このずれ量の検出処理は、図5のステップS500に示した処理と同様、勾配法、パターンマッチ法等を用いてフレーム画像全体のずれを検出する処理である。   On the other hand, if it is determined in step S710 of FIG. 10 that the data is not MPEG format data for high resolution processing (No), the shift amount between the target frame image Ft and the reference frame image Fr is detected (step S750). . This shift amount detection process is a process for detecting a shift of the entire frame image using a gradient method, a pattern match method, or the like, similar to the process shown in step S500 of FIG.

続いて、検出されたずれ量(u,v,δ)に基づいて、対象フレーム画像の補正を行なう(ステップS760)。具体的には、対象フレーム画像を、基準フレーム画像に対して並進方向に(u,v)、回転方向にδだけ移動させた状態の画像に変換する。こうしたずれ量(u,v,δ)の補正を3枚の対象フレーム画像に施し、基準フレーム画像に対して、ずれ補正済みの対象フレーム画像を重ね合わせる。   Subsequently, the target frame image is corrected based on the detected shift amount (u, v, δ) (step S760). Specifically, the target frame image is converted into an image in a state where the target frame image is moved in the translation direction by (u, v) and by δ in the rotation direction. Such correction of the shift amounts (u, v, δ) is performed on the three target frame images, and the target frame image after shift correction is superimposed on the reference frame image.

重ね合わせた複数のフレーム画像の画素を用いた所定の補間方法により、一の高画素密度の静止画像を生成する(ステップS770)。補間方法には、バイ・リニア法,バイ・キュービック法,ニアレストネイバ法などの既存の方法を用いることができる。本実施例の画像処理では、バイ・リニア法を用いて補間処理を実行し、基準フレーム画像に対して1.5倍密に高解像度変換された静止画像を生成している。PC30は、こうして合成された静止画像をディスプレイ43上の所定の位置に表示すると共に、この処理を終了する。ユーザは、好みに応じて、この静止画像をカラープリンタ50やハードディスク34などに出力する操作を行なう。こうした補間処理を用いた画像処理では、フレーム画像をずらして合成するため、MPEG形式等で圧縮された画像が有するブロック歪を低減し、鮮明な静止画像を生成することができる。   One high pixel density still image is generated by a predetermined interpolation method using pixels of a plurality of superimposed frame images (step S770). As the interpolation method, an existing method such as a bi-linear method, a bi-cubic method, or a nearest neighbor method can be used. In the image processing of this embodiment, interpolation processing is executed using the bi-linear method, and a still image that has been subjected to high resolution conversion 1.5 times densely with respect to the reference frame image is generated. The PC 30 displays the still image synthesized in this way at a predetermined position on the display 43 and ends this process. The user performs an operation of outputting the still image to the color printer 50, the hard disk 34, or the like according to his / her preference. In image processing using such interpolation processing, frame images are shifted and synthesized, so that block distortion of an image compressed in the MPEG format or the like can be reduced and a clear still image can be generated.

以上の高解像度化処理では、MPEG形式の符号化データの識別子IDを参照し、動きベクトルがずれ量の検出に使用できるか否かを判断する。動きベクトルが使用できると判断した場合には、動きベクトルを用いてフレーム画像間のずれ量を検出する。このずれ量の検出は、比較的容易な演算であるため、画像処理におけるずれ量の検出処理の時間を短縮することができる。   In the above-described high resolution processing, it is determined whether or not the motion vector can be used for detecting the shift amount with reference to the identifier ID of the encoded data in the MPEG format. When it is determined that a motion vector can be used, the amount of shift between frame images is detected using the motion vector. Since the detection of the shift amount is a relatively easy calculation, it is possible to shorten the time for the shift amount detection process in the image processing.

なお、本実施例では、2つの任意のマクロブロックから並進ずれ量(u,v)、回転ずれ量δを検出するものとしたが、例えば、さらに複数の動きベクトルを利用するものとしても良い。   In this embodiment, the translational deviation amount (u, v) and the rotational deviation amount δ are detected from two arbitrary macroblocks. However, for example, a plurality of motion vectors may be used.

例えば、図10のステップS730において、全てのマクロブロック内の動きベクトルを抽出し、抽出した動きベクトルのX成分、Y成分の平均値を算出し、符号を反転して並進ずれ量(u,v)を設定するものとしても良い。こうすることで、動きベクトルが有する符号化時の量子化誤差を低減し、サブピクセル精度の並進ずれ量(u,v)を求めることができる。   For example, in step S730 in FIG. 10, the motion vectors in all the macroblocks are extracted, the average values of the X and Y components of the extracted motion vectors are calculated, the sign is inverted, and the translational deviation amount (u, v ) May be set. By doing so, it is possible to reduce the quantization error at the time of encoding which the motion vector has, and to obtain the translational deviation amount (u, v) with sub-pixel accuracy.

また、図10のステップS740において、対象フレーム画像の中心を原点とし、原点からX方向、Y方向に最も離れた位置(4箇所)にあるマクロブロックを選択し、その動きベクトル成分から平均値成分を差し引き、式(22)を用いて、4つの回転成分を求める(図14参照)。算出した動きベクトルの回転成分の平均値を求め、符号を反転して回転ずれ量δを設定するものとしても良い。   In step S740 in FIG. 10, the center of the target frame image is set as the origin, macroblocks at positions (four places) farthest from the origin in the X direction and the Y direction are selected, and the average value component is selected from the motion vector components. Are subtracted and four rotational components are obtained using equation (22) (see FIG. 14). An average value of the calculated rotational components of the motion vector may be obtained, and the rotational deviation amount δ may be set by inverting the sign.

なお、本実施例では、基準フレーム画像をIピクチャまたはPピクチャとすることで、動きベクトルからずれ量を求める手法原理について説明したが、ユーザが選択した一のフレーム画像(例えば、Bピクチャ)をそのまま基本フレーム画像として設定するものとしても良い。   In the present embodiment, the principle of the method of obtaining the shift amount from the motion vector by setting the reference frame image as an I picture or P picture has been described. However, one frame image (for example, a B picture) selected by the user is used. It may be set as a basic frame image as it is.

こうした設定方法では、抽出する基本フレーム画像と対象フレーム画像との組み合わせ(ピクチャ種別の組み合わせ)によっては、対象フレーム画像の動きベクトルは基本フレーム画像からのずれを示すものでない(つまり、2つのピクチャ同士に直接的な相関関係がない)場合がある。この場合には、直接相関関係のない2つのピクチャに共通して相関関係のある別のピクチャを抽出し、このピクチャを用いて間接的に相関関係、つまりフレーム画像間のずれを求めるものとすれば良い。   In such a setting method, depending on the combination of the basic frame image to be extracted and the target frame image (the combination of picture types), the motion vector of the target frame image does not indicate a deviation from the basic frame image (that is, two pictures May not have a direct correlation). In this case, another picture that is correlated in common with two pictures that are not directly correlated is extracted, and the correlation, that is, a shift between frame images is obtained indirectly using this picture. It ’s fine.

B.変形例:
本実施例の符号化処理では、動きベクトルを半画素単位で記録するものとしたが、ずれ量に関する処理を行なう際に、精度が足りない場合には、符号化データのユーザデータ領域を利用するものとしても良い。
B. Variations:
In the encoding process of the present embodiment, the motion vector is recorded in units of half pixels. However, when the accuracy is insufficient when performing the process related to the shift amount, the user data area of the encoded data is used. It is good as a thing.

例えば、図5の動きベクトル算出処理のずれ量検出により、1/4画素単位でずれ量を求め、そのずれ量(u,v,δ)が(3.25,−2.25,0.5°)であったとする。この場合、動きベクトルの算出には(3,−2,0.5°)を用い、ユーザデータ領域に、フレームNo.と共に、(0.25,−0.25,0)を格納しておく。こうした符号化データを用いて高解像度化処理を実行する際には、動きベクトルから求めたずれ量をユーザデータ領域の格納値により修正した真のずれ量を用いるものとすれば良い。こうすることで画像処理の精度を向上することができる。また、ユーザデータ領域に1/4画素、1/8画素単位のずれ量(u,v,δ)自体を格納しておくものとしても良い。   For example, by detecting the shift amount in the motion vector calculation process of FIG. 5, the shift amount is obtained in units of 1/4 pixel, and the shift amount (u, v, δ) is (3.25, −2.25, 0.5). °). In this case, (3, -2, 0.5 °) is used to calculate the motion vector, and the frame No. In addition, (0.25, −0.25, 0) is stored. When the resolution enhancement processing is executed using such encoded data, a true shift amount obtained by correcting the shift amount obtained from the motion vector with the stored value of the user data area may be used. By doing so, the accuracy of image processing can be improved. Further, the shift amount (u, v, δ) itself in units of 1/4 pixel and 1/8 pixel may be stored in the user data area.

以上、本発明の実施の形態について説明したが、本発明はこうした実施の形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内において様々な形態で実施し得ることはもちろんである。本実施例では、符号化処理,高解像度化処理のプログラムをインストールしたパーソナルコンピュータを動画像符号化装置、画像処理装置として説明したが、例えば、プリンタ,デジタルビデオカメラなど種々の機器に本機能を備え、本発明の動画像符号化装置,画像処理装置とするものであっても良い。   As mentioned above, although embodiment of this invention was described, this invention is not limited to such embodiment at all, Of course, it can implement with various forms within the range which does not deviate from the meaning of this invention. is there. In this embodiment, the personal computer in which the encoding processing and high resolution processing programs are installed has been described as a moving image encoding device and an image processing device. However, for example, this function is applied to various devices such as a printer and a digital video camera. And a moving picture encoding apparatus and an image processing apparatus according to the present invention.

特に、デジタルビデオカメラに本発明の符号化機能を備えた場合、最も生のデータに近い撮影フレーム画像に対してフレーム画像全体のずれ量を検出することができる。このデジタルビデオカメラの符号化データを用いて高解像度化処理を実行することで、精度の高い静止画像を生成することができる。   In particular, when the digital video camera is provided with the encoding function of the present invention, it is possible to detect the shift amount of the entire frame image with respect to the captured frame image closest to the raw data. By executing the resolution enhancement process using the encoded data of the digital video camera, a still image with high accuracy can be generated.

本発明の一実施例としての画像処理システムを示す説明図である。It is explanatory drawing which shows the image processing system as one Example of this invention. 本実施例の画像処理システムにおける処理の流れを示した説明図である。It is explanatory drawing which showed the flow of the process in the image processing system of a present Example. 動画像データの符号化処理のフローチャートである。It is a flowchart of the encoding process of moving image data. MPEG形式の符号化データのデータ構造を示す概念図である。It is a conceptual diagram which shows the data structure of the encoding data of an MPEG format. ずれ量に基づいた動きベクトルを求める動きベクトル算出処理のフローチャートである。It is a flowchart of the motion vector calculation process which calculates | requires the motion vector based on deviation | shift amount. 勾配法による並進ずれ量の算出方法を示す説明図である。It is explanatory drawing which shows the calculation method of the translational deviation amount by the gradient method. 画素の回転ずれ量を模式的に示す説明図である。It is explanatory drawing which shows typically the rotation shift amount of a pixel. 動きベクトルの導出の幾何学的関係を示した説明図である。It is explanatory drawing which showed the geometric relationship of derivation | leading-out of a motion vector. 動きベクトルの表現範囲を説明する説明図である。It is explanatory drawing explaining the expression range of a motion vector. 高解像度化処理のフローチャートである。It is a flowchart of high resolution processing. 対象フレーム画像の符号化時の動きベクトルを示す概念図である。It is a conceptual diagram which shows the motion vector at the time of the encoding of the object frame image. 動きベクトルの回転成分により示した概念図である。It is the conceptual diagram shown by the rotation component of the motion vector. 高解像度化処理における回転ずれ量と動きベクトルの回転成分との関係を示す説明図である。It is explanatory drawing which shows the relationship between the rotation shift amount and the rotation component of a motion vector in high resolution processing. 高解像度化処理における回転ずれ量の算出の説明図である。It is explanatory drawing of calculation of the amount of rotation gaps in high resolution processing.

符号の説明Explanation of symbols

20...画像データベース
21...デジタルビデオカメラ
23...DVD
24...ハードディスク
30...パーソナルコンピュータ
31...CPU
32...ROM
33...RAM
34...ハードディスク
35...I/F回路部
40...ユーザインターフェース
41...キーボード
42...マウス
43...ディスプレイ
50...カラープリンタ
100...画像処理システム
20 ... Image database 21 ... Digital video camera 23 ... DVD
24 ... Hard disk 30 ... Personal computer 31 ... CPU
32 ... ROM
33 ... RAM
34 ... Hard disk 35 ... I / F circuit unit 40 ... User interface 41 ... Keyboard 42 ... Mouse 43 ... Display 50 ... Color printer 100 ... Image processing system

Claims (10)

動画像を構成する複数のフレーム画像を用いて該フレーム画像間のずれに関する処理を行なう画像処理装置に提供する符号化データを生成する動画像符号化装置であって、
前記複数のフレーム画像のうち、着目した2枚のフレーム画像間における該フレーム画像全体の位置のずれを検出するずれ量検出手段と、
前記検出されたずれ量をベクトル情報の形式に変換し、符号化に用いる動きベクトルを算出する動きベクトル算出手段と、
前記画像処理装置側において前記動きベクトルを抽出可能な形式で、前記符号化データを生成する符号化手段と
を備えた動画像符号化装置。
A moving image encoding device that generates encoded data to be provided to an image processing device that performs processing relating to a shift between the frame images using a plurality of frame images constituting a moving image,
A deviation amount detecting means for detecting a deviation of the position of the entire frame image between two frame images of interest among the plurality of frame images;
Motion vector calculating means for converting the detected deviation amount into a vector information format and calculating a motion vector used for encoding;
A video encoding apparatus comprising: encoding means for generating the encoded data in a format in which the motion vector can be extracted on the image processing apparatus side.
請求項1に記載の動画像符号化装置であって、
前記ずれ量検出手段は、フレーム画像間の並進方向のずれ量に加え、回転方向のずれ量を検出する手段である動画像符号化装置。
The moving image encoding device according to claim 1,
The displacement amount detection means is a moving image encoding device that is a means for detecting a displacement amount in the rotation direction in addition to the displacement amount in the translation direction between the frame images.
請求項1または2に記載の動画像符号化装置であって、更に、
前記フレーム画像間のずれ量に基づく動きベクトルによる符号化データであることを識別する識別子を、前記符号化データ内の所定領域に付加する手段を備えた動画像符号化装置。
The moving image encoding device according to claim 1, further comprising:
A moving picture coding apparatus comprising means for adding an identifier for identifying encoded data based on a motion vector based on a shift amount between the frame images to a predetermined area in the encoded data.
請求項1ないし3のいずれかに記載の動画像符号化装置であって、
前記符号化の形式は、MPEG規格およびH.26x規格に準拠した符号化形式である動画像符号化装置。
The moving image encoding device according to any one of claims 1 to 3,
The encoding format includes MPEG standards and H.264 standards. A moving image encoding apparatus which is an encoding format compliant with the 26x standard.
請求項1ないし4のいずれかに記載の動画像符号化装置によって生成された符号化データを復号して、動画像を構成する複数のフレーム画像を生成し、該生成されたフレーム画像から所定数のフレーム画像を取得し、当該所定数のフレーム画像を合成して一の静止画像を生成する画像処理装置であって、
前記フレーム画像の合成に先立って、該フレーム画像間のずれ量を補正するずれ量補正手段を備え、
該ずれ量補正手段は、
前記フレーム画像に対応する前記動きベクトルを抽出し、該動きベクトルを用いて前記ずれ量の補正を実行する画像処理装置。
A plurality of frame images constituting a moving image are generated by decoding the encoded data generated by the moving image encoding apparatus according to any one of claims 1 to 4, and a predetermined number is generated from the generated frame images. An image processing device that generates a single still image by synthesizing the predetermined number of frame images,
Prior to the synthesis of the frame images, a shift amount correction means for correcting a shift amount between the frame images is provided.
The deviation correction means is
An image processing apparatus that extracts the motion vector corresponding to the frame image and corrects the shift amount using the motion vector.
請求項3に記載の動画像符号化装置によって生成された符号化データを復号して、動画像を構成する複数のフレーム画像を生成し、該生成されたフレーム画像から所定数のフレーム画像を取得し、当該所定数のフレーム画像を合成して一の静止画像を生成する画像処理装置であって、
前記フレーム画像の合成に先立って、該フレーム画像間における該フレーム画像全体の位置のずれの検出を行ない、該検出値に基づいて該フレーム画像間のずれ量を補正するずれ量補正手段を備え、
該ずれ量補正手段は、
前記符号化データの前記所定領域を読み、該所定領域内のデータが前記識別子であると判断した場合には、前記フレーム画像全体の位置のずれの検出に代えて、該フレーム画像に対応する前記動きベクトルを抽出し、該動きベクトルを用いてずれ量を検出する画像処理装置。
The encoded data generated by the moving image encoding device according to claim 3 is decoded to generate a plurality of frame images constituting the moving image, and a predetermined number of frame images are obtained from the generated frame images And an image processing device that generates a single still image by combining the predetermined number of frame images,
Prior to the synthesis of the frame images, a displacement amount correction unit that detects a displacement of the position of the entire frame image between the frame images and corrects the displacement amount between the frame images based on the detection value,
The deviation correction means is
When the predetermined area of the encoded data is read and it is determined that the data in the predetermined area is the identifier, instead of detecting the displacement of the entire frame image, the frame image corresponding to the frame image is detected. An image processing apparatus that extracts a motion vector and detects a shift amount using the motion vector.
動画像のデータを符号化して符号化データを生成する動画像符号化装置と、該符号化データを入力し、動画像を構成する複数のフレーム画像から一の静止画像を生成する画像処理装置と、を備えた画像処理システムであって、
前記動画像符号化装置は、
前記動画像を構成する複数のフレーム画像のうち、着目した2枚のフレーム画像間におけるフレーム画像全体の位置のずれを検出するずれ量検出手段と、
前記検出されたずれ量をベクトル情報の形式に変換し、前記符号化に用いる動きベクトルを算出する動きベクトル算出手段と、
前記画像処理装置側において前記動きベクトルを抽出可能な形式で、前記符号化データを生成する符号化手段とを備え、
前記画像処理装置は、
前記符号化データを復号し、動画像を構成する複数のフレーム画像を生成する復号手段と、
前記複数のフレーム画像から所定数のフレーム画像を取得するフレーム画像取得手段と、
前記取得されたフレーム画像に対する前記動きベクトルを抽出する動きベクトル抽出手段と、
前記抽出した動きベクトルを用いて、前記所定数のフレーム画像間のずれ量を補正するずれ量補正手段と、
前記補正された所定数のフレーム画像を合成して一の静止画像を生成する合成手段と
を備えた画像処理システム。
A moving image encoding device that encodes moving image data to generate encoded data, and an image processing device that inputs the encoded data and generates one still image from a plurality of frame images constituting the moving image; , An image processing system comprising:
The moving image encoding device is:
A shift amount detecting means for detecting a shift in the position of the entire frame image between two focused frame images among a plurality of frame images constituting the moving image;
Motion vector calculation means for converting the detected deviation amount into a vector information format and calculating a motion vector used for the encoding;
Encoding means for generating the encoded data in a format in which the motion vector can be extracted on the image processing apparatus side;
The image processing apparatus includes:
Decoding means for decoding the encoded data and generating a plurality of frame images constituting a moving image;
Frame image acquisition means for acquiring a predetermined number of frame images from the plurality of frame images;
Motion vector extraction means for extracting the motion vector for the acquired frame image;
Using the extracted motion vector, a deviation amount correcting means for correcting a deviation amount between the predetermined number of frame images;
An image processing system comprising: a combining unit configured to combine the corrected predetermined number of frame images to generate one still image.
動画像を構成する複数のフレーム画像を用いて該フレーム画像間のずれに関する処理を行なう画像処理装置に提供する符号化データを生成する動画像符号化方法であって、
前記複数のフレーム画像のうち、着目した2枚のフレーム画像間における該フレーム画像全体の位置のずれを検出し、
前記検出されたずれ量をベクトル情報の形式に変換し、符号化に用いる動きベクトルを算出し、
前記画像処理装置側において前記動きベクトルを抽出可能な形式で、前記符号化データを生成する動画像符号化方法。
A moving image encoding method for generating encoded data to be provided to an image processing apparatus that performs processing relating to a shift between frame images using a plurality of frame images constituting a moving image,
Detecting a shift in the position of the entire frame image between the two frame images of interest among the plurality of frame images;
Converting the detected shift amount into a vector information format, and calculating a motion vector used for encoding;
A moving image encoding method for generating the encoded data in a format in which the motion vector can be extracted on the image processing apparatus side.
動画像を構成する複数のフレーム画像を用いて該フレーム画像間のずれに関する処理を行なう画像処理装置に提供する符号化データを生成する動画像符号化装置を制御するコンピュータプログラムであって、
前記複数のフレーム画像のうち、着目した2枚のフレーム画像間におけるフレーム画像全体の位置のずれを検出する機能と、
前記検出されたずれ量をベクトル情報の形式に変換し、符号化に用いる動きベクトルを算出する機能と、
前記画像処理装置側において前記動きベクトルを抽出可能な形式で、前記符号化データを生成する機能と
をコンピュータに実現させるコンピュータプログラム。
A computer program for controlling a moving image encoding device that generates encoded data to be provided to an image processing device that performs processing relating to a shift between the frame images using a plurality of frame images constituting a moving image,
A function of detecting a shift of the position of the entire frame image between two frame images of interest among the plurality of frame images;
A function of converting the detected shift amount into a vector information format and calculating a motion vector used for encoding;
A computer program that causes a computer to realize the function of generating the encoded data in a format in which the motion vector can be extracted on the image processing apparatus side.
請求項9に記載のコンピュータプログラムをコンピュータに読み取り可能に記録した記録媒体。   A recording medium in which the computer program according to claim 9 is recorded in a computer-readable manner.
JP2004205767A 2004-07-13 2004-07-13 Moving picture coder, moving picture coding method, program, recording medium, image processing apparatus, and image processing system Pending JP2006033142A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004205767A JP2006033142A (en) 2004-07-13 2004-07-13 Moving picture coder, moving picture coding method, program, recording medium, image processing apparatus, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004205767A JP2006033142A (en) 2004-07-13 2004-07-13 Moving picture coder, moving picture coding method, program, recording medium, image processing apparatus, and image processing system

Publications (1)

Publication Number Publication Date
JP2006033142A true JP2006033142A (en) 2006-02-02

Family

ID=35899004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004205767A Pending JP2006033142A (en) 2004-07-13 2004-07-13 Moving picture coder, moving picture coding method, program, recording medium, image processing apparatus, and image processing system

Country Status (1)

Country Link
JP (1) JP2006033142A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208850A (en) * 2006-02-03 2007-08-16 Olympus Imaging Corp Camera, recording control method for camera, program, and recording medium
JP2009021810A (en) * 2007-07-11 2009-01-29 Canon Inc Imaging apparatus and image processing method
JP2012527801A (en) * 2009-05-19 2012-11-08 ソニーモバイルコミュニケーションズ, エービー Method and apparatus for capturing a digital image
US10922823B2 (en) 2016-08-25 2021-02-16 Nec Corporation Motion analyis device, motion analysis method, and program recording medium
JP7411819B2 (en) 2020-03-02 2024-01-11 ベーエステー ゲーエムベーハー How to record inspection data for printed products

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208850A (en) * 2006-02-03 2007-08-16 Olympus Imaging Corp Camera, recording control method for camera, program, and recording medium
JP2009021810A (en) * 2007-07-11 2009-01-29 Canon Inc Imaging apparatus and image processing method
JP2012527801A (en) * 2009-05-19 2012-11-08 ソニーモバイルコミュニケーションズ, エービー Method and apparatus for capturing a digital image
US10922823B2 (en) 2016-08-25 2021-02-16 Nec Corporation Motion analyis device, motion analysis method, and program recording medium
JP7411819B2 (en) 2020-03-02 2024-01-11 ベーエステー ゲーエムベーハー How to record inspection data for printed products

Similar Documents

Publication Publication Date Title
JP4261630B2 (en) Image encoding apparatus and method, and computer-readable recording medium on which an image encoding program is recorded
KR101671676B1 (en) Compressed dynamic image encoding device, compressed dynamic image decoding device, compressed dynamic image encoding method and compressed dynamic image decoding method
JP2008154015A (en) Decoding method and coding method
JP6409516B2 (en) Picture coding program, picture coding method, and picture coding apparatus
JP3823767B2 (en) Moving image foreground / background region separation method, and moving image encoding method using conditional pixel interpolation using the method
JP4353460B2 (en) Movie data processing apparatus and method, and program
JP4155118B2 (en) Still image synthesizing apparatus and still image synthesizing method from moving image
JP2007122232A (en) Image processor and program
JP2006033142A (en) Moving picture coder, moving picture coding method, program, recording medium, image processing apparatus, and image processing system
JP4898415B2 (en) Moving picture coding apparatus and moving picture coding method
JP2008125002A (en) Image encoder, image decoder and image processing program
JP2006033141A (en) Image processing apparatus, image processing method, program, and recording medium
JP2008042424A (en) Image matching apparatus, and image matching method
JP2008053848A (en) Image processor and image processing method
JP5063548B2 (en) Encoding apparatus and encoding method
JP5067471B2 (en) Decoding method, decoding apparatus, and program
JP2008193501A (en) Image encoding device and image encoding method
WO2016047250A1 (en) Signal processing apparatus, imaging apparatus and signal processing method
JP2009278473A (en) Image processing device, imaging apparatus mounting the same, and image reproducing device
JP4420061B2 (en) Still image synthesizing apparatus and still image synthesizing method from moving image
JP2010114474A (en) Image processing device and image processing method using dynamic image motion information
JP2009253581A (en) Image processing apparatus, image processing method, and program
JP5207693B2 (en) Image coding apparatus and image coding method
JP5718438B2 (en) Compressed video encoding device, compressed video decoding device, compressed video encoding method, and compressed video decoding method
JP4645515B2 (en) Motion compensated image coding method and motion compensated image coding apparatus