WO2000062554A1 - Image processing method and image processing device - Google Patents

Image processing method and image processing device Download PDF

Info

Publication number
WO2000062554A1
WO2000062554A1 PCT/JP2000/002308 JP0002308W WO0062554A1 WO 2000062554 A1 WO2000062554 A1 WO 2000062554A1 JP 0002308 W JP0002308 W JP 0002308W WO 0062554 A1 WO0062554 A1 WO 0062554A1
Authority
WO
WIPO (PCT)
Prior art keywords
video signal
image processing
resolution
motion vector
area
Prior art date
Application number
PCT/JP2000/002308
Other languages
French (fr)
Japanese (ja)
Inventor
Satoshi Kondo
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to AU36749/00A priority Critical patent/AU3674900A/en
Publication of WO2000062554A1 publication Critical patent/WO2000062554A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • the present invention relates to an image processing technique involving resolution conversion of a video signal encoded by a high-efficiency compression encoding scheme such as the MPEG2 scheme.
  • the Moving Picture Experts Group 2 (MPEG2) method has been widely used as a high-efficiency compression encoding method for communication and recording of video signals.
  • MPE G2 Motion Picture Experts Group 2
  • video frames fields are classified into three types of pictures, i-picture, p-picture, and b-picture, and are encoded.
  • I-picture intra-frame encoding is performed.
  • P-picture forward prediction inter-frame coding is performed using the I-picture or the P-picture that is temporally forward as a reference frame.
  • bidirectional prediction interframe coding is performed using the I-picture or P-picture temporally forward and backward as a reference frame.
  • Motion compensation is used in predictive coding for P- and B-pictures.
  • motion compensation is performed in units called macroblocks of (16 x 16) pixels.
  • macroblocks (16 x 16) pixels.
  • motion vector detection in motion compensation a block matching method for finding a block having the highest correlation in a reference frame is used.
  • a conventional image processing technique involving resolution conversion will be described.
  • FIG. 22 is a block diagram of a conventional image processing apparatus that performs MPEG2 decoding, resolution conversion, and MPEG2 encoding.
  • the code string C SA is decoded by the MPEG 2 decoder 5110 to become a high-resolution original video signal S HR.
  • the original video signal SHR is converted by the resolution converter 520 into a new video signal SLR of low resolution.
  • the new video signal SLR is converted to MP EG by MP EG 2 encoder 530. 2 Encoded and output as code string CSB.
  • the resolution converter 520 When the original video signal S HR is an interlace signal, the resolution converter 520 generally performs conversion on a field basis. This is because if the resolution conversion is performed with the frame structure, the resolution of the still image part will be higher than when the resolution conversion is performed with the field structure, but the moving image part will not be converted correctly.
  • FIG. 23 is a diagram showing resolution conversion in the field structure.
  • the first field of the new video signal is generated from the first field of the original video signal
  • the second field of the new video signal is generated from the second field of the original video signal Is done.
  • motion detection is performed prior to resolution conversion, thereby detecting a still image portion and a moving image portion, and performing resolution conversion using a frame structure for the still image portion and resolution conversion using a field structure for the moving image portion. A way to do this has also been proposed.
  • FIG. 24 is a diagram showing two types of resolution conversion.
  • (a) is a screen of the original video signal with high resolution
  • (b) is the result of converting the original video signal of (a) into a low-resolution letterbox image
  • (c) is (a)
  • FIG. 7 is a diagram showing a result of converting the original video signal of FIG.
  • the aspect ratio of the original video signal in Fig. 24 (a) is 16: 9, and the aspect ratio of the new video signal is 4: 3.
  • the letter-box image shown in Fig. 24 (b) the image is reduced in the same ratio both vertically and horizontally, and black bands are added above and below.
  • the squeeze image shown in Fig. 24 (c) the image is reduced at different ratios in the vertical and horizontal directions, resulting in an aspect ratio of 4: 3.
  • the MPEG2 encoder 530 uses the code sequence CSA and In order to generate a CSB with only a different resolution, all normal MPEG 2 coding processes must be performed. For this reason, the amount of processing is increased, and as a result, the amount of hardware divided by the amount of software is increased.
  • the encoding method in the MPEG2 encoder 530 is the same, and the features of the resolution conversion method are not utilized. Disclosure of the invention
  • An object of the present invention is to enable image processing involving resolution conversion to be realized with a small processing amount.
  • the present invention provides, as an image processing method, a decoding step of decoding a code string in which an original video signal having a first resolution is encoded, and extracting an encoding parameter of the code string.
  • Resolution conversion for determining the characteristics of the original video signal from the encoding parameters and converting the decoded original video signal into a new video signal having a second resolution by a resolution conversion method according to the characteristics. And steps.
  • the encoding parameters include a motion vector indicating a motion amount of a video constituent unit, an orthogonal transform type indicating whether the orthogonal transform is performed in a frame structure or a field structure, and a motion compensation in a frame structure.
  • the motion compensation modes indicating which of the field structures is used.
  • the image of the decoded original video signal is divided into a still area and a moving area using the encoding parameter, and the original video signal is mutually divided in the still area and the moving area. It is preferable to convert to the new video signal using a different resolution conversion method.
  • the original video signal is an interlaced signal.
  • the encoding parameter is a motion vector indicating a motion amount of a video constituent unit, and the area division is preferably performed based on a comparison result between an absolute value of the motion vector and a predetermined value. .
  • the present invention provides an image processing apparatus, comprising: decoding a code string in which an original video signal having a first resolution is encoded; and extracting video encoding parameters of the code string.
  • An original video signal output from the video decoder and an encoding parameter are input, a characteristic of the original video signal is determined from the encoding parameters, and the resolution of the original video signal according to the characteristic is determined.
  • a resolution converter for converting to a new video signal having the second resolution by a conversion method.
  • the resolution converter determines a motion characteristic of an image in the original video signal as a characteristic of the original video signal.
  • the coding parameter includes a motion vector indicating a motion amount of a video constituent unit, an orthogonal transform parameter indicating whether the orthogonal transform is performed in a frame structure or a field structure, and a motion compensation. It is preferable to include at least one of the motion compensation modes indicating whether to perform the frame structure or the field structure.
  • the resolution converter may further include: a region dividing unit that divides an image of the input original video signal into a still region and a moving region using the encoding parameter; and the still image output from the region dividing unit.
  • a static area resolution conversion unit that converts a video signal of a region into the video signal of the second resolution, and converts the video signal of the moving region output from the region divider into a video signal of the second resolution It is preferable to include a moving area resolution converter.
  • the original video signal is an interlaced signal
  • the static area resolution conversion section performs resolution conversion in units of frames
  • the moving area resolution conversion section performs resolution conversion in units of fields.
  • the encoding parameter is a motion vector indicating a motion amount of a video constituent unit.
  • the region dividing unit divides the region based on a comparison result between the absolute value of the motion vector and a predetermined value. Further, the present invention provides, as an image processing method, a decoding step of decoding a code string obtained by encoding an original video signal having a first resolution, and extracting a motion vector from the code string. And a resolution conversion step of converting the decoded original video signal into a new video signal having the second resolution using the extracted motion vector.
  • the resolution converting step includes an area dividing step of dividing the decoded image of the original video signal into a quasi-stationary area and a moving area using the extracted motion vector. It is preferable that the resolution conversion is performed using the extracted motion vector in the quasi-stationary region, but not using the extracted motion vector in the moving region.
  • the area dividing step detects, from the extracted motion vector, a motion vector in a pixel unit having a direction similar to the motion vector, and determines an area in which the motion vector in the pixel unit is detected. It is preferable that the region is a stationary region and an undetected region is a moving region. Further, it is preferable that the resolution conversion to the new video signal in the quasi-stationary region is performed using the detected motion vector in pixel units.
  • the present invention provides, as an image processing device, a video decoding device that decodes a code sequence obtained by encoding an original video signal having a first resolution and extracts a motion vector from the code sequence. An original video signal and a video output from the video decoder. A resolution converter that receives a vector as an input and converts the original video signal into a new video signal having a second resolution using the motion vector.
  • the resolution converter receives the original video signal and the motion vector as input, and divides the image of the original video signal into a quasi-stationary region and a moving region using the motion vector.
  • a quasi-stationary region resolution conversion unit that converts the video signal of the quasi-stationary region output from the region division unit to a video signal having a second resolution using the motion vector, and an output from the region division unit.
  • the image processing apparatus further includes a moving area resolution conversion unit that converts the video signal of the moving area into a video signal having a second resolution without using the motion vector.
  • the region dividing unit further includes a motion vector detecting unit that detects a motion vector in a pixel unit having a similar direction to the motion vector from the motion vector, and the motion vector detector detects the motion vector in the pixel unit. It is preferable that an area where the motion vector is detected is set as a quasi-static area, and an area where no motion vector is detected is set as a moving area. Further, it is preferable that the quasi-static region resolution conversion unit performs resolution conversion using the pixel-by-pixel motion vector detected by the motion vector detection unit.
  • the region dividing unit sets a region where the absolute value of the motion vector is smaller than a predetermined threshold as a quasi-stationary region, and sets a region larger than the predetermined threshold as a moving region.
  • the present invention provides, as an image processing method, a first code string obtained by encoding an original video signal having a first resolution, and a first code string is decoded from the first code string. Extracting an encoded parameter sequence; converting the decoded original video signal to a new video signal having a second resolution; and converting the first encoded parameter sequence to the new video signal. Converting to a second encoding parameter used for encoding, and encoding the new video signal using the second encoding parameter to generate a second code sequence. .
  • the encoding parameter conversion step includes: converting a first encoding parameter used for encoding a first area of an image of an original video signal into an image of a new video signal; It is preferable to convert a second region including the same video as the second region into a second encoding parameter for encoding.
  • the first and second encoding parameters are preferably motion vectors. Further, in the encoding parameter conversion step, a value obtained by performing a predetermined operation on the motion vector of the first area, for example, a weighted average value is set as the motion vector of the second area. Is preferred.
  • the first and second encoding parameters preferably orthogonal transformation was a frame structure or a is an orthogonal transform type indicating whether to perform any of Fi one field structure c
  • the present invention relates to an image processing
  • the apparatus decodes a first code string obtained by coding an original video signal having a first resolution, and outputs a first coding parameter from the first code string.
  • a resolution converter for converting the original video signal output from the video decoder into a new video signal having a second resolution; and the first encoding output from the video decoder.
  • An encoding parameter converter for converting a parameter into a second encoding parameter used for encoding the new video signal, and a new video signal output from the resolution converter from the encoding parameter converter. Output It encoded using the second encoding parameter, in which the second code string and a video encoder that generates.
  • the coding parameter converter converts the first coding parameter used for coding the first region of the image of the original video signal into the first coding parameter of the image of the new video signal. It is preferable to convert the second region including the same video as the first region into second encoding parameters for encoding.
  • the first and second coding parameters are motion vectors.
  • the coding parameter converter may calculate a value obtained by performing a predetermined operation on the motion vector of the first area, for example, a weighted average value, in the second area. Preferably, it is a motion vector of the area.
  • the first and second encoding parameters are preferably orthogonal transform types indicating whether the orthogonal transform is performed by using a frame structure or a field structure.
  • Decoding a first code string obtained by encoding an original video signal having a first resolution, extracting a first motion vector from the first code string, and decoding the decoded original video signal Converting the signal into a new video signal having a second resolution; determining setting information for obtaining a second motion vector used for encoding the new video signal from the first motion vector;
  • the second motion vector is obtained by using the obtained setting information, and the new video signal is encoded by using the obtained second motion vector to generate a second code sequence.
  • a search range for obtaining a second motion vector be determined as the setting information.
  • the present invention provides an image processing device, which decodes a first code sequence obtained by encoding an original video signal having a first resolution, and performs a first motion from the first code sequence.
  • a video decoder for extracting a vector, a resolution converter for converting an original video signal output from the video decoder to a new video signal having a second resolution, and a video decoder output from the video decoder
  • a motion compensation setting unit that generates setting information for obtaining a second motion vector used for encoding the new video signal from the first motion vector; and a setting information generated by the motion compensation setting device. Then, the second motion vector is obtained, and a new video signal output from the resolution converter is encoded using the obtained second motion vector, thereby generating a second code sequence.
  • the motion compensation setting device determines an initial value of a second motion vector as the setting information.
  • the motion compensation setting device includes the setting information It is preferable to determine a search range for obtaining the second motion vector.
  • the present invention also provides an image processing method comprising: converting an original video signal having a first resolution into a new video signal having a second resolution and having a black level region in a part of an image; Among the signals, a first code sequence is generated by encoding a video signal in a region excluding the black level region, and a second code sequence in which the video signal in the black level region is encoded is a first code sequence. And generating a code sequence of the new video signal.
  • an original video signal having a first resolution is converted into an area excluding a black level area of a new video signal having a second resolution and having a black level area in a part of an image. Converting to a video signal, encoding the video signal to generate a first code sequence, connecting the second code sequence obtained by encoding the video signal in the black level region to the first code sequence, This is to generate a code sequence of a new video signal.
  • the present invention provides, as an image processing apparatus, a resolution converter for converting an original video signal having a first resolution into a new video signal having a second resolution and having a black level region in a part of an image. And a second code sequence that encodes a video signal in an area of the new video signal excluding the black level area to generate a first code string, and encodes the video signal in the black level area. And a video encoder that generates a code sequence of the new video signal by concatenating the first code sequence with the first code sequence.
  • FIG. 1 is a block diagram showing the overall configuration of the image processing apparatus according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram showing the configuration of the video decoder in FIG.
  • FIG. 3 is a block diagram showing a configuration of the resolution converter in FIG.
  • FIGS. 4A and 4B are schematic diagrams illustrating an example of motion determination according to the first embodiment of the present invention, and FIG. 4A illustrates a case where a motion vector is used as a coding parameter.
  • FIG. 4 (b) is a diagram illustrating a case where DCT Eve is used as an encoding parameter.
  • FIGS. 5A to 5C are schematic diagrams showing an example of region division according to the first embodiment of the present invention.
  • FIG. 5A shows a motion determination result
  • FIG. Fig. 5 (c) shows the moving region.
  • FIG. 6 (a) and 6 (b) are schematic diagrams showing resolution conversion according to the first embodiment of the present invention.
  • FIG. 6 (a) is resolution conversion with the frame structure unchanged
  • FIG. This is a resolution conversion with a single-level structure.
  • FIGS. 7A to 7E are schematic diagrams showing the area synthesis according to the first embodiment of the present invention.
  • FIG. 8 is a block diagram showing the overall configuration of the image processing device according to the second embodiment of the present invention.
  • FIG. 9 is a block diagram showing the configuration of the resolution converter in FIG.
  • FIG. 10 is a schematic diagram for explaining the operation of the motion vector detection unit and the quasi-static region resolution conversion unit in FIG.
  • FIG. 11 is a schematic diagram for explaining the operation of the moving area resolution conversion unit in FIG.
  • FIG. 12 is a block diagram showing another configuration example of the resolution converter in FIG.
  • FIG. 13 is a block diagram showing the overall configuration of the image processing apparatus according to the third embodiment of the present invention.
  • Figures 14 (a) to 14 (c) explain the operation of the coding parameter converter in Figure 13 FIG.
  • FIG. 15 is a block diagram showing the configuration of the video encoder in FIG.
  • FIG. 16 is a block diagram showing an overall configuration of an image processing apparatus according to the fourth embodiment of the present invention.
  • FIG. 17 is a block diagram showing the configuration of the video encoder in FIG.
  • FIGS. 18 (a :) to (c) are schematic diagrams for explaining the operation of the motion vector calculator in FIG.
  • FIG. 19 is a block diagram showing the overall configuration of the image processing apparatus according to the fifth embodiment of the present invention.
  • FIGS. 20 (a) and (b) are diagrams showing an example of resolution conversion according to the fifth embodiment of the present invention.
  • FIG. 21 is a block diagram showing the configuration of the video encoder in FIG.
  • FIG. 22 is a block diagram showing a configuration of a conventional image processing apparatus.
  • FIGS. 23 (a) and 23 (b) are schematic diagrams showing resolution conversion in a field structure.
  • FIGS. 24A to 24C are diagrams showing two types of resolution conversion. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a block diagram showing the overall configuration of the image processing apparatus according to the first embodiment of the present invention.
  • the image processing apparatus includes a video decoder 10 and a resolution converter 20.
  • a code sequence CS of an original video signal having a high resolution as a first resolution is input, and the video decoder 10 decodes the input code sequence CS into an original video signal SHR.
  • the coding parameter PAR of the code string CS is extracted.
  • the resolution converter 20 converts the decoded original video signal SHR into a new video signal SLR having a low resolution as the second resolution by using the encoding parameter PAR and outputs it.
  • the code string CS is encoded by the MPEG2 method.
  • the video decoder 10 is a decoder of the Moving Picture Expert Group 2 (MPEG2) system.
  • MPEG2 Moving Picture Expert Group 2
  • FIG. 2 is a diagram showing the internal configuration of the video decoder 10.
  • the video decoder 10 includes a variable length decoding unit 11, an inverse quantization unit 12, an inverse DCT (Discrete Cosine Transform) unit 13, a frame memory 14, and a system control unit. 15, adder 16, and switch 17.
  • the variable length decoding unit 11 also extracts the encoding parameter PAR.
  • the code sequence CS for one frame is coded in units of (16 ⁇ 16) pixel macroblocks, and is input to the video decoder 10 in macroblock order.
  • the input code string CS is subjected to variable-length decoding by the variable-length decoding unit 11.
  • those related to image data are input to the inverse quantization unit 12, and data other than image data is sent to the system control unit 15.
  • the data sent from the variable length decoding unit 11 to the system control unit 15 includes a picture type, a DCT type, and a motion vector, which are coding parameters of the code string CS.
  • the “victure type” indicates whether the frame is intra-frame encoded or inter-frame encoded
  • the “DCT type” indicates whether the block has a field structure or a frame structure. This indicates whether DCT processing has been performed using the structure shown in FIG.
  • the data input to the inverse quantization unit 12 is subjected to inverse quantization and input to the inverse DCT unit 13.
  • the inverse DCT section 13 an inverse DCT operation is performed.
  • DCT processing is performed in units of (8 ⁇ 8) pixel blocks.
  • a reference image is extracted from the frame memory 14 using the motion vector sent from the variable-length decoding unit 11 to the system control unit 15.
  • the frame serving as the reference image has already been decoded and is stored in the frame memory 14.
  • the data subjected to the inverse DCT operation, which is the output of the inverse DCT unit 13, and the reference image, which is the data read from the frame memory 14, are added by the adder 16 to obtain a decoded image, and Stored in 14 In this way, the macroblocks are sequentially decoded and stored in the frame memory 14.
  • Decoding is similarly performed for the subsequent frames, and is stored in the frame memory 14. However, when intra-frame encoding is performed, switch 17 is connected to a, and the output of inverse DCT section 13 is stored in frame memory 14 as it is. When inter-frame coding is performed, switch 17 is connected to b, the output of inverse DCT section 13 and the reference image are added by adder 16 and stored in frame memory 14. You.
  • the decoded images stored in the frame memory 14 in this manner are output from the frame memory 14 in time order as the original video signal SHR. Further, the system controller 15 outputs an encoding parameter P AR.
  • FIG. 3 is a diagram showing the internal configuration of the resolution converter 20.
  • the resolution converter 20 includes an area dividing section 21, a still area resolution converting section 23, a moving area resolution converting section 24, and an area synthesizing section 25.
  • the area dividing section 21 has an image dividing section 21a and a motion determining section 21b.
  • FIG. 4 is a diagram illustrating a motion determination in the motion determination unit 21b.
  • (a) is an example of motion judgment when a motion vector is used as a coding parameter overnight PAR
  • (b) is a motion judgment when a DCT evening is used as a coding parameter PAR. It is a figure showing an example.
  • FIG. 4A the frame screen is divided into macroblock units as video constituent units of (16 ⁇ 16) pixels.
  • the motion vector represents the horizontal and vertical displacement of a macroblock in 0.5 pixel units.
  • the motion vector is compared with a predetermined value, and the motion is determined based on the comparison result. For example, when the absolute value of the motion vector is smaller than a predetermined value, it is determined that the macro block belongs to the stationary region, and when it is larger than the predetermined value, it is determined that the macro block belongs to the moving region. I do.
  • the macro blocks painted in black belong to the moving area, and the macro blocks shown in white belong to the stationary area.
  • the frame screen is divided into (8 x 8) pixel blocks.
  • each block is subjected to a DCT operation by a frame structure or a field structure, which has a smaller difference sum with the adjacent pixel in the vertical direction.
  • the DCT type refers to a structure in which a DCT operation has been performed.
  • the DCT type has a frame structure
  • the DCT type has a field structure it is determined that the block belongs to a moving area.
  • the blocks painted in black belong to the moving area
  • the blocks shown in white belong to the stationary area.
  • the motion determining unit 21b performs the above-described motion determination, and sends the result to the image dividing unit 21a.
  • the image dividing unit 21a is based on the motion determination result obtained from the motion determining unit 21b. To divide the frame image into a still area and a moving area.
  • FIG. 5 is a schematic diagram showing an example of area division.
  • (a) is the motion determination result shown in FIG. 4 (a)
  • (b) is the still region extracted by the region dividing unit 21
  • (c) is the moving region extracted by the region dividing unit 21. It is.
  • FIG. 9 is a diagram showing an example of resolution conversion from an original video signal SHR to a new video signal SLR performed in a resolution conversion section 24.
  • FIG. 6 shows the state of pixels arranged in the vertical direction, where “ ⁇ ” is a pixel belonging to the first field, and “ ⁇ ” is a pixel belonging to the second field.
  • Fig. 6 shows the case where the vertical pixels are converted to 1/2.
  • (a) is the resolution conversion with the frame structure
  • (b) is the resolution conversion with the field structure. It is.
  • the still area resolution conversion section 23 performs resolution conversion while maintaining the frame structure. That is, as shown in Fig. 6 (a), the video data of the first field of the new video signal SLR is generated using both the pixels of the first and second fields of the original video signal SHR, and The video data of the second field of the new video signal SLR is also generated using the pixels of both the first field and the second field of the original video signal SHR.
  • the moving area resolution conversion section 24 performs resolution conversion without changing the field structure. That is, as shown in FIG.
  • the video data of the first field of the new video signal SLR is generated only from the pixels of the first field of the original video signal SHR, and the second field of the new video signal SLR is generated.
  • the field video data is generated using only the pixels in the second field of the original video signal SHR.
  • the new video signals of the still area and the moving area generated by the still area resolution converting section 23 and the moving area resolution converting section 24 are output to the area synthesizing section 25.
  • Area synthesis The unit 25 combines the new video signals in the still area and the moving area, converts them into frame images, and outputs them as new video signals SLR.
  • FIG. 7 is a diagram showing the operation of the area combining section 25.
  • (a) and (b) are input images to the still area resolution converter 23 and the moving area resolution converter 24, respectively, and correspond to the images in FIGS. 5 (b) and (c). I do.
  • FIGS. 7 (c) and 7 (d) show the output images of the still area resolution converter 23 and the moving area resolution converter 24, respectively, and the number of pixels is reduced as a result of the resolution conversion.
  • the area combining section 25 generates a combined image, that is, a new video signal SLR as shown in FIG. 7 (e) from the images of FIGS. 7 (c) and 7 (d).
  • the code string of the original video signal is decoded, and the coding parameter of the code string is extracted. Then, the characteristics of the original video signal are determined from the encoding parameters, and the original video signal is converted into a new video signal by a resolution conversion method according to the characteristics. Thereby, processing such as motion vector calculation for resolution conversion can be significantly reduced. Also, since the still and moving areas of the image of the original video signal are discriminated from the encoding parameters and the resolution is converted by a different method between the still and moving areas, the processing amount is extremely small. A new video signal with high image quality can be obtained.
  • the motion vector and the DCT parameter are used as the coding parameter parameter PAR, but other coding parameter parameters may be used.
  • Another encoding parameter is, for example, a motion compensation mode.
  • the motion compensation mode indicates whether the motion compensation is performed in the field structure or the frame structure.
  • the motion compensation mode is used as the encoding parameter PAR of the present embodiment, for example, for a region where the motion compensation mode has the field structure, the resolution conversion is performed in the field structure, and when the motion compensation mode is For a region having a frame structure, resolution conversion may be performed using the frame structure. Further, in the present embodiment, resolution conversion is performed with a frame structure in a still region and resolution conversion is performed with a field structure in a moving region. However, another resolution conversion method may be used.
  • FIG. 8 is a block diagram showing the overall structure of the image processing device according to the second embodiment of the present invention.
  • the image processing device according to the present embodiment includes a video decoder 110 and a resolution converter 120.
  • the code sequence CS of the original video signal having the low resolution as the first resolution is input, and the video decoder 110 decodes the input code sequence CS into the original video signal SLR.
  • the motion vector MV is extracted from the code sequence C S.
  • the resolution converter 120 converts the decoded original video signal SLR into a new video signal SHR having a high resolution as the second resolution using the motion vector MV, and outputs the new video signal SHR.
  • the original video signal SLR is an interlace signal (interlaced scanning signal)
  • the new video signal SHR is a progressive signal (sequential scanning signal).
  • the video decoder 110 is basically the same as the video decoder 110 according to the first embodiment. Since it has the same configuration and differs only in that it outputs the motion vector MV, a detailed description is omitted here.
  • FIG. 9 is a block diagram showing the internal configuration of the resolution converter 120.
  • the resolution converter 120 is composed of an area dividing section 121, a quasi-static area resolution converting section 123, a moving area resolution converting section 124, an area synthesizing section 125, and a frame memory. 1 2 7 is provided.
  • the region dividing unit 121 has a motion vector detecting unit 121 a, a motion determining unit 121 b, and an image dividing unit 121 c.
  • the frame memory 127 stores the input original video signal SLR.
  • the motion vector detection unit 12 21 a includes a motion vector MV output from the video decoder 110, a current field of the original video signal SLR, and a past field stored in the frame memory 127. Using this field, a motion vector MV in pixel units having a direction similar to that of the motion vector MV between the current field and a temporally neighboring field is detected.
  • FIG. 10 is a diagram schematically showing pixels of three frames n, n + 1, and n + 2 of the original video signal SLR. In FIG. 10, “ ⁇ ” denotes a pixel belonging to the first field of each frame, and “X” denotes a pixel belonging to the second field of each frame.
  • the motion vector A of the area G including the pixel D to be generated is used among the motion vectors M V output from the video decoder 110.
  • the motion vector A is a motion vector starting from the area F of the first field of the frame n.
  • the motion vector E having the same direction as the motion vector A is obtained from the motion vectors from the neighboring field, that is, the second field of the frame n + 1.
  • the correct motion vector B of the pixel near the pixel D is calculated.
  • pixel D can be considered to be pixel C in the second field of frame n + 1, which has been moved by motion vector B.
  • the motion vector detection unit 121 a outputs the motion vector B obtained in this way to the motion determination unit 122 b as a motion vector M V in pixel units.
  • the motion determining unit 122b uses the motion vector MVa input from the motion vector detecting unit 122a to determine the quasi-stationary region and the moving region. In this case, a pixel for which no motion vector MV is found in the pixel unit in the motion vector detection unit 122a is determined to belong to the motion region, and the motion vector MV line in the pixel unit is found. The determined pixel belongs to the quasi-static region.
  • the motion judging unit 121b performs the motion judgment in this way, and sends the result to the image dividing unit 122c.
  • quadsi-static region refers to a region that has motion as an image, but can be regarded as a still image by shifting the image by the amount of motion using the pixel-based motion vector MV. That means.
  • the image dividing unit 122c divides the frame image into a quasi-stationary region and a moving region based on the result of the motion determination obtained from the motion determining unit 122b.
  • the video data segmented into the quasi-stationary region is input to the quasi-stationary region resolution converter 123, and the video data segmented into the moving region is input to the moving region resolution converter 124.
  • the quasi-stationary area resolution conversion section 123 and the moving area resolution conversion section 124 perform resolution conversion on the input video data by the respective methods.
  • the resolution conversion in the quasi-static region resolution conversion unit 123 will be described with reference to FIG.
  • the quasi-stationary area resolution conversion unit 123 converts the original video signal SLR, the moving region image output from the region division unit 121, and the pixel unit output from the motion vector detection unit 122a.
  • the resolution conversion is performed using the motion vector MV.
  • the pixel C of the second field of the frame n + 1 is obtained from the frame memory 127.
  • the pixel value is used as the pixel value of the pixel D.
  • pixels at other interpolation positions are also generated by using the motion vector MV per pixel detected by the motion vector detection unit 121a, thereby obtaining a high-resolution video signal.
  • the resolution conversion in the moving area resolution conversion unit 124 will be described with reference to FIG.
  • “ ⁇ ” indicates a pixel in a low-resolution video signal
  • “X” indicates a pixel generated by interpolation in a high-resolution video signal.
  • the moving area resolution conversion unit 124 generates a high-resolution video signal from pixels in a field of the low-resolution video signal by interpolation.
  • the pixel value of pixel C in the high-resolution video signal is the same value as pixel A in the low-resolution video signal
  • the pixel value of pixel D in the high-resolution video signal is calculated from pixel A and pixel B in the low-resolution video signal.
  • the video signal generated by the quasi-static region resolution conversion unit 123 and the moving region resolution conversion unit 124 is input to the region synthesis unit 125.
  • the area synthesizing unit 125 synthesizes the input video signals and outputs them as a new video signal SHR.
  • the motion vector detection unit 12 recalculates the motion vector MV for each pixel using the motion vector MV obtained from the code sequence CS of the original video signal SLR.
  • the segmentation may be performed using the obtained value of the motion vector MV as it is.
  • FIG. 12 is a diagram showing the configuration of the resolution converter 120 A in such a case.
  • the area dividing unit 122 includes a motion determining unit 122 a that directly performs motion determination from the motion vector MV, and an image dividing unit 122 b.
  • the absolute value of the motion vector MV is smaller than a predetermined threshold, it is determined to be a quasi-static region, and when it is larger than the predetermined threshold, it is determined to be a moving region. What is necessary is just to perform area division.
  • the motion vector MV is extremely large, it may be determined to be a motion region.
  • all regions may be regarded as quasi-stationary regions, and resolution conversion may be performed using the value of the motion vector MV as it is.
  • a code sequence of an original video signal is decoded, and a motion vector is extracted from the code sequence. Then, a new video signal is generated by resolution conversion using the extracted motion vector.
  • processing such as motion vector calculation for resolution conversion can be significantly reduced.
  • the quasi-static region and the moving region of the image of the original video signal are determined from the motion vector, and the resolution conversion using the motion vector is performed in the quasi-static region. Therefore, the amount of processing such as motion vector calculation can be greatly reduced.
  • resolution conversion is performed by a different method between the quasi-static region and the moving region, a new video signal of high image quality can be obtained with a very small amount of processing.
  • a case has been described in which a low-resolution original video signal is converted to a new high-resolution video signal. Conversely, a high-resolution original video signal is converted to a low-resolution new video signal. Even in the case of converting to a signal, it is possible to use a motion vector as in the present embodiment.
  • the motion vector unit 121 a calculates the motion vector with the past field, and the quasi-static region resolution conversion unit 123 interpolates from the pixels of the past field.
  • the pixels are generated, but this may be such that a motion vector with a future field is obtained, and an interpolation pixel is generated from a pixel in a future field.
  • the moving area resolution conversion unit 124 generates the interpolated pixels and performs the resolution conversion as shown in FIG. 11, but other resolution conversion methods may be used. Absent.
  • the quasi-static region resolution conversion unit 123 generates the interpolation pixel from the pixel of the past nearest field, but the interpolation is performed from the pixel of the field a few fields away. Pixels may be generated.
  • FIG. 13 is a block diagram showing the overall configuration of the image processing apparatus according to the third embodiment of the present invention.
  • the image processing device according to the present embodiment includes a video decoder 210, a resolution converter 220, a video encoder 230, and an encoding parameter converter 240. I have.
  • a first code sequence CSA which is a code sequence of an original video signal having a high resolution as the first resolution, is input, and the video decoder 210 converts the input first code sequence CSA into the original video. Decode into signal SHR. At the same time as decoding, the coding parameter PARA of the first code string CSA is extracted.
  • the resolution converter 220 converts the original video signal SHR into a new video signal SLR.
  • the encoding parameter converter 240 converts the first encoding parameter PARA output from the video decoder 210 for low-resolution video, and outputs it as a second encoding parameter PARB.
  • the video encoder 230 encodes the new video signal SLR using the second encoding parameter PAR B, and outputs it as a second code string CSB.
  • the video decoder 210 is a MPEG2 decoder.
  • the configuration and operation of the video decoder 210 are the same as those of the video decoder 10 according to the first embodiment, and a detailed description thereof will be omitted.
  • the resolution converter 220 converts the original video signal SHR decoded by the video decoder 210 into a new video signal SLR.
  • the number of pixels of the resolution converter 220 is 1/2 in both the vertical and horizontal directions.
  • the c coding parameter converter 240 converts the first coding parameter PAR A for the original video signal SHR into a new video.
  • c for converting the second encoding parameter PARB for signal S LR as shown in FIG. 1 4 (a)
  • frame image of the original image signal SHR is vertical way It is converted to a frame image of the new video signal SLR with half the number of pixels in both the horizontal and horizontal directions.
  • the frame image is shown divided into macroblock units.
  • the areas of macroblocks MBH1, MBH2, MBH3, and MBH4 as the first area in the original video signal SHR are converted into new areas by resolution conversion.
  • the area is reduced to the area of the macro block MBL as the second area in the video signal SLR.
  • the motion vector MVL of the macroblock MBL in the new video signal SLR is obtained by a weighted average of the motion vector MVHi of each macroblock MBHi in the original video signal SHR. That is, the motion vector MVL can be obtained by equation (1).
  • C i is a weight coefficient satisfying the following equation (2).
  • N is the number of macroblocks of the original video signal SHR for obtaining the motion vector MVL of the macroblock MBL in the new video signal SLR, and is “4” here.
  • "hi” is a ratio of the number of pixels of the screen size between the original video signal and the new video signal, and generally has different values in the horizontal direction and the vertical direction.
  • the ratio of the number of pixels before and after the resolution conversion is 1/2, 1/4
  • the boundary of the macroblock after the conversion matches the boundary of the macroblock before the conversion, so that the weight coefficient C i May be equal.
  • the ratio of the number of pixels is 1/3, 2/5 In such a case, since the boundaries of the converted macroblocks do not match the boundaries of the macroblock before the conversion, it is necessary to change the weights of the macroblocks before the conversion depending on the value of the weight coefficient C i.
  • the encoding parameter to be transformed is a DCT type as an orthogonal transformation type
  • the frame image is shown divided into blocks.
  • the areas of the blocks BH1, BH2, BH3, and BH4 as the first areas in the original video signal are converted into the second areas in the new video signal by the resolution conversion. Is reduced to the area of the block BL.
  • the DCT type of the block BL in the new video signal is obtained using the DCT type of the blocks BH1 to BH4 in the original video signal.
  • the DCT type of block BL has a frame structure
  • at least one of the DCT types of blocks BHI to BH4 has a frame structure.
  • the DCT type of block BL is used as the field structure.
  • the larger one of the DCTs of the original block may be set as the DCT type of the converted block.
  • the encoding parameter converter 240 converts the first encoding parameter PAR A for the original video signal S HR into the second encoding parameter PAR A for the new video signal SLR. .
  • FIG. 15 is a block diagram showing the internal configuration of the video encoder 230.
  • the video encoder 230 in FIG. 15 has basically the same configuration as a normal MPEG encoder, but because a motion vector is given as the second encoding parameter PARB. However, since the motion detection unit is omitted and the DCT parameter is given as the second encoding parameter PARB, the means for determining the DCT type by dispersion calculation or the like is omitted from the DCT calculation unit 23. Has been.
  • the video encoder 230 transmits the new video signal SLR in the MPEG2 format. Encoding. It is assumed that inter-frame coding is performed.
  • the new video signal SLR input to the video encoder 230 is divided into macroblocks of (16 x 16) pixels by the blocking unit 231 and the motion compensation unit 231 is arranged in the order of the macroblocks. Entered in 2.
  • the motion compensation unit 2 32 uses the motion vector included in the second encoded parameter obtained from the encoded parameter overnight converter 240 for the input macroblock, Perform motion compensation. That is, the motion compensating unit 232 performs motion compensation by reading a reference macroblock from the frame memory 238 using a motion vector and obtaining a difference between the reference macroblock and the input macroblock. The obtained difference macroblock is input to the DCT calculation unit 233.
  • the 0-th arithmetic unit 2 33 converts the difference macroblock into DCT coefficients for each (8 ⁇ 8) picture. At this time, a DCT operation is performed in accordance with the DCT parameter included in the second encoding parameter PARB obtained from the encoding parameter converter 240. The obtained DCT coefficient is output to the quantization section 234, and the quantization section 234 performs a quantization process on the DCT coefficient.
  • the variable-length coding unit 235 performs variable-length coding on the output of the quantization unit 234, and outputs the result as a second code string CSB.
  • the output of the quantization unit 234 is decoded by the inverse quantization unit 236 and the inverse DCT operation unit 237, and the reference macro block read from the frame memory 238 and the adder 239 are output. And is stored in the frame memory 238. The stored data is used as a reference image in subsequent frame encoding.
  • the first code string of the original video signal is decoded, and the decoded original video signal is converted into a new video signal by resolution conversion.
  • the first encoding parameters such as the motion vector and the DCT type are extracted from the first code string.
  • the first encoding parameter is converted into a second encoding parameter for the new video signal, and the new video signal is converted using the second encoding parameter.
  • the motion vector and the DCT type have been described as the encoding parameters for performing the transform.
  • the method of encoding parameter conversion according to the present embodiment is an example, and the conversion may be performed using another method.
  • the coding parameters of a predetermined area (macroblock or block) of the new video signal are determined using only the coding parameters of the area of the original video signal corresponding to the predetermined area.
  • coding parameters may be used not only for the original video signal area corresponding to the predetermined area but also for the surrounding area.
  • the motion vector conversion is performed using a weighted average as a predetermined operation.
  • a method of selecting the median of the motion vector component A method of ignoring the motion vector or a method of weighting based on the prediction error can be considered.
  • the weighting coefficient C i is described as being equal, but this is not necessarily the case.
  • FIG. 16 is a block diagram showing an overall configuration of an image processing apparatus according to the fourth embodiment of the present invention.
  • the image processing apparatus according to the present embodiment includes a video decoder 310, a resolution converter 320, a video encoder 330, and a motion compensation setting unit 340.
  • a first code sequence CSA which is a code sequence of an original video signal having a high resolution as the first resolution, is input, and the video decoder 310 outputs the input first code sequence CSA to the original video signal. Decrypt to SHR.
  • the first motion vector MV is extracted from the first code string CSA.
  • the resolution converter 320 converts the original video signal S HR into a new video signal S LR having a low resolution as the second resolution.
  • the motion compensation setting unit 340 sets the motion compensation operation in the video encoder 330 using the motion vector MV of the code string C S A output from the video decoder 310.
  • the video encoder 330 obtains a second motion vector using the setting information SET output from the motion compensation setting unit 340, encodes the new video signal SLR using the second motion vector, Is output as a code string CSB.
  • the motion compensation setting unit 340 receives the motion vector MV of the original video signal SHR obtained by the video decoder 310 as input, and obtains motion compensation setting information SET in the video encoder 330.
  • the setting information SET for example, the initial value of the motion compensation, that is, the initial value of the second motion vector, the range of the motion compensation, that is, the search range of the second motion vector, and the like are determined.
  • the motion compensation setting unit 340 obtains, for example, a motion vector MVL obtained from the above equation (1) as an initial value of motion compensation when the video encoder 310 encodes the macro block MBL. .
  • the motion vector MVL is output as motion compensation setting information SET.
  • the motion compensator 340 uses the motion vectors of the macroblocks MBH1 to MBH4 to determine the range of motion compensation when the video encoder 330 calculates the motion vector for the macroblock MBL.
  • a range of the motion compensation for example, there is a method of using a value in which the absolute value of each component of each motion vector of the macroblocks MVH1 to MVH4 is maximum. Alternatively, there is a method using an average value and a variance value of the motion vector values of the macroblocks MVH1 to MVH4.
  • the motion compensation setting unit 340 uses the motion vector MV of the original video signal SHR to set the initial value and range for calculating the motion vector for the new video signal as the motion compensation setting information SET. Determined and output to video encoder 330.
  • FIG. 17 is a block diagram showing the internal configuration of the video encoder 33.
  • the video encoder 330 encodes the new video signal SLR according to the MPEG-2 system. It is assumed that inter-frame coding is performed.
  • the new video signal S LR input to the video encoder 330 is divided into macroblocks of (16 ⁇ 16) pixels by the blocking unit 331, and the motion compensation unit 332 and the motion It is input to the vector calculator 350.
  • the motion vector calculator 350 calculates the second motion vector MV2 for the input macroblock based on the motion compensation setting information SET input from the motion compensation setting device 340. At this time, the reference image is retrieved from the frame memory 338. Embed.
  • the motion vector calculator 350 uses the initial value S ET obtained by the motion compensation setting device 340 as the initial value of the second motion vector MV 2. Then, the vicinity of the end point of the motion vector SET when the macroblock MB1 located at the same position as the macroblock MB1 is set as the start point is set as the search range S R1 of the second motion vector MV2. In this search range SR1, calculation of the second motion vector MV2 for the macroblock MB1 is performed.
  • the motion vector calculator 350 uses the range S ET obtained by the motion compensation setting device 340 as the search range S R 2 for obtaining the second motion vector MV 2. Then, in the search range SR 2 (that is, the range SET), the second motion vector MV 2 for the macro block MB 1 is calculated.
  • the motion compensator 332 performs motion compensation on the input macroblock using the second motion vector MV2 obtained from the motion vector calculator 350. That is, the motion compensation unit 332 reads the reference macroblock from the frame memory 338 using the second motion vector MV2, and calculates the difference between the reference macroblock and the input macroblock, thereby performing motion compensation. Do. The obtained difference macro block is input to the DCT operation unit 333.
  • the DCT calculation section 333, quantization section 334, variable length coding section 335, inverse quantization section 3 36, the operations of the inverse DCT operation unit 337 and the adder 339 are the same as the operations according to the second embodiment, and thus the description is omitted here.
  • the second code string CSB is output from the variable length coding unit 335.
  • the first code string of the original video signal is decoded, and the decoded original video signal is converted into a new video signal by resolution conversion.
  • the first motion vector used for encoding the original video signal is extracted.
  • setting information such as an initial value and a range of motion compensation for determining a second motion vector to be used for encoding a new video signal is determined from the first motion vector, and this setting information is determined.
  • the second motion vector is detected using low resolution, and the new video signal is encoded.
  • the search range is narrower than in the past, and the amount of motion vector calculation when encoding a new video signal is greatly reduced.
  • the motion compensation setting information is obtained from the first motion vector used for encoding the original video signal, the accuracy of the motion compensation is kept high.
  • the method for determining the motion compensation setting information according to the present embodiment is an example, and another method may be used.
  • the initial value of the second motion vector is determined using the weighted average.
  • a method of selecting the median value of the motion vector component A method of ignoring the motion vector and a method of weighting based on the prediction error can be considered.
  • the motion compensation setting unit 340 may determine both the initial value and the search range of the second motion vector as the motion compensation setting information S ET.
  • FIG. 19 is a professional / soc diagram showing the entire configuration of an image processing apparatus according to the fifth embodiment of the present invention.
  • the image coding apparatus according to the present embodiment includes a video decoder 410, a resolution converter 420, a video encoder 430, and a system control unit 440.
  • a code sequence C S A of a video signal having a high resolution as the first resolution is input, and the video decoder 410 decodes the input code sequence C S A into an original video signal SHR.
  • the resolution converter 420 converts the decoded original video signal SHR into a new video signal SLR having a low resolution as the second resolution.
  • the video encoder 430 encodes the new video signal SLR and outputs it as a second code string CSB.
  • the video decoder 410 is an MPEG2 decoder. Since the configuration and operation of the video decoder 410 are the same as those of the video decoder 10 according to the first embodiment, detailed description thereof is omitted here.
  • the resolution converter 420 converts the original video signal SHR into a video signal of a one-box image.
  • the original video signal S HR having an aspect ratio of 16: 9 shown in (a) is converted into a new video signal S LR having an aspect ratio of 4: 3 shown in (b).
  • band-shaped black level regions 451, 452 are added above and below the frame image 450 of the new video signal SLR.
  • FIG. 21 is a block diagram showing the internal configuration of the video encoder 430.
  • the video encoder 430 includes a region dividing unit 431, a blocking unit 432, a DCT calculating unit 433, a quantizing unit 434, a variable length coding unit 435, and a code string generating unit 43. 6 and a code string storage section 437.
  • the video encoder 430 encodes the new video signal SLR according to the MPEG-2 system. Also, —Intra-system encoding shall be performed.
  • the region dividing unit 431 receives the instruction signal SI from the system control unit 4400 and converts the new video signal SLR, which is a box image, into an effective data region,
  • the area 450 excluding the black level areas 451, 52 of 20 (b) is cut out and output.
  • the video signals in the black level areas 451, 52 are not output.
  • Reference numeral 32 denotes a block for dividing the input video signal of the area 450 into blocks, and a DCT operation unit 43 33 converts the block-divided video signal into DCT coefficients.
  • the DCT coefficient output from the DCT operation unit 433 is quantized by the quantization unit 4334, and then converted into the first code string CSB1 by the variable length coding unit 435. It is output to the generator 436.
  • a second code string CSB2 in which the video signals of the black level areas 451, 452 are encoded is stored in advance.
  • the second code string CSB2 both the code subjected to intra-frame coding and the code subjected to inter-frame coding are stored in the code string storage unit 437.
  • the second code string CSB2 that has been subjected to intra-frame coding is output from the code string storage section 437.
  • the code sequence generation unit 436 converts the first code sequence CSB 1 output from the variable length coding unit 4 35 and the second code sequence CSB 2 output from the code sequence storage unit 437 into connect.
  • the concatenation of the code strings is performed sequentially from the head in the frame. That is, the code string of the black level area 451 output from the code string storage section 437, the code string of the area 450 output from the variable length coding section 435, and the code string storage section 4 3 Concatenation is performed in the order of the code string of the black level area 4 52 output from 7.
  • the code string concatenated in this way is output as a code string CSB.
  • the resolution converter 420 may output the new video signal SLR except for the black level regions 451 and 452.
  • the region dividing unit 431 can be omitted from the video encoder 4300.
  • the area dividing unit 431 converts the input new video signal SLR into a box image. It may be determined whether or not the image is an image. In this case, there is no need to externally provide the video encoder 430 with the instruction signal SI.
  • the black level region is not actually encoded. Concatenate the code strings stored in advance. As a result, it is not necessary to perform the encoding process for the black level region, and the processing amount can be greatly reduced. For example, when the frame of the new video signal has a size of 720 pixels horizontally and 480 pixels vertically, and the size of the region other than the black level region in the vertical direction is 360 pixels, the entire image is The amount of processing can be reduced by 25% compared to the case of encoding.
  • the black level area is added vertically, but may be added only to the upper side or only the lower side. Further, a black level area may be added to a region other than the top and bottom, for example, only the left and right, the left, or only the right.
  • the case where the original video signal having the aspect ratio of 16: 9 is converted to the new video signal having the aspect ratio of 4: 3 has been described. However, these aspect ratios may be different combinations.
  • MPEG 2 is used as the encoding method.
  • this may be another encoding method, for example, MPEG 1 or H.261. .

Abstract

An image decoder (10) decodes a code sequence (CS) and generates an original image signal (SHR) with a 1st resolution and, further, extracts encoding parameters (PAR) such as a motion vector and an orthogonal transformation type from the code sequence (CS). A resolution converter (20) judges the characteristics of the original image signal (SHR) in accordance with the encoding parameters (PAR) and converts the original image signal (SHR) into a new image signal (SLR) with a 2nd resolution by a resolution conversion method corresponding to the characteristics.

Description

曰月糸田 β  Satsuki Itoda β
画像処理方法および画像処理装置 技術分野 Image processing method and image processing apparatus
本発明は、 MP E G 2方式等の高能率圧縮符号化方式によって符号化された映 像信号の、 解像度変換を伴う画像処理技術に関するものである。 背景技術  The present invention relates to an image processing technique involving resolution conversion of a video signal encoded by a high-efficiency compression encoding scheme such as the MPEG2 scheme. Background art
近年、 映像信号の通信や記録のために、 高能率圧縮符号化方式として MP E G 2 (Moving Picture Experts Group 2) 方式が広く用いられている。 MPE G 2 方式では、 映像フレーム (フィールド) を Iビクチャ、 Pビクチャおよび Bビク チヤの 3種類のピクチャ夕イブに分類し、 符号化を行う。 Iビクチャでは、 フレ —ム内符号化を行う。 Pビクチャでは、 時間的に前方にある Iビクチャまたは P ビクチャを参照フレームとして用いて、 前方向予測フレーム間符号化を行う。 ま た Bビクチヤでは、 時間的に前方および後方にある Iピクチャまたは Pピクチャ を参照フレームとして用いて、 両方向予測フレーム間符号化を行う。  In recent years, the Moving Picture Experts Group 2 (MPEG2) method has been widely used as a high-efficiency compression encoding method for communication and recording of video signals. In the MPE G2 system, video frames (fields) are classified into three types of pictures, i-picture, p-picture, and b-picture, and are encoded. In the I-picture, intra-frame encoding is performed. In the P-picture, forward prediction inter-frame coding is performed using the I-picture or the P-picture that is temporally forward as a reference frame. In the B victim, bidirectional prediction interframe coding is performed using the I-picture or P-picture temporally forward and backward as a reference frame.
Pビクチャおよび Bビクチャについての予測符号化では、 動き補償が用いられ る。 MP E G 2では、 動き補償は、 ( 1 6 x 1 6) 画素のマクロプロックと呼ば れる単位で行われる。 一般に、 動き補償における動きベクトル検出では、 参照フ レーム中の最も相関の高いブロックを求めるプロヅクマッチング法が用いられる。 ここで、 従来の, 解像度変換を伴う画像処理技術について説明する。  Motion compensation is used in predictive coding for P- and B-pictures. In MPEG2, motion compensation is performed in units called macroblocks of (16 x 16) pixels. Generally, in motion vector detection in motion compensation, a block matching method for finding a block having the highest correlation in a reference frame is used. Here, a conventional image processing technique involving resolution conversion will be described.
図 2 2は MP E G 2復号化、 解像度変換および MP E G 2符号化を行う従来の 画像処理装置のブロック図である。 図 2 2において、 符号列 C SAは、 MP E G 2複号化器 5 1 0によって復号化され、 高解像度の原映像信号 S HRとなる。 原 映像信号 SHRは、 解像度変換器 5 2 0によって低解像度の新映像信号 S LRに 変換される。 新映像信号 S L Rは、 MP E G 2符号化器 530によって MP E G 2符号化され、 符号列 C S Bとして出力される。 FIG. 22 is a block diagram of a conventional image processing apparatus that performs MPEG2 decoding, resolution conversion, and MPEG2 encoding. In FIG. 22, the code string C SA is decoded by the MPEG 2 decoder 5110 to become a high-resolution original video signal S HR. The original video signal SHR is converted by the resolution converter 520 into a new video signal SLR of low resolution. The new video signal SLR is converted to MP EG by MP EG 2 encoder 530. 2 Encoded and output as code string CSB.
解像度変換器 5 2 0は、 原映像信号 S H Rがィ ンタ一レース信号である場合、 一般に、 フィールド単位で変換を行う。 これは、 フレーム構造のまま解像度変換 を行うと、 静止画部分では、 フィールド構造で解像度変換を行うときよりも解像 度が向上するが、 動画部分は、 正しく変換されないからである。  When the original video signal S HR is an interlace signal, the resolution converter 520 generally performs conversion on a field basis. This is because if the resolution conversion is performed with the frame structure, the resolution of the still image part will be higher than when the resolution conversion is performed with the field structure, but the moving image part will not be converted correctly.
図 2 3はフィールド構造のままの解像度変換を示す図である。 図 2 3に示すよ うに、 新映像信号の第 1 フィ一ルドは原映像信号の第 1 フィ一ルドから生成され、 新映像信号の第 2フィールドは原映像信号の第 2フィ一ルドから生成される。 また、 解像度変換に先立って動き検出を行い、 これにより、 静止画部分と動画 部分とを検出し、 静止画部分ではフレーム構造で解像度変換を行う一方、 動画部 分ではフィ一ルド構造で解像度変換を行う方法も、 提案されている。  FIG. 23 is a diagram showing resolution conversion in the field structure. As shown in Figure 23, the first field of the new video signal is generated from the first field of the original video signal, and the second field of the new video signal is generated from the second field of the original video signal Is done. In addition, motion detection is performed prior to resolution conversion, thereby detecting a still image portion and a moving image portion, and performing resolution conversion using a frame structure for the still image portion and resolution conversion using a field structure for the moving image portion. A way to do this has also been proposed.
図 2 4は解像度変換の 2種類の方式を示す図である。 同図中、 (a ) は高解像 度の原映像信号の画面、 (b ) は (a ) の原映像信号を低解像度のレターボック ス画像に変換した結果、 ( c ) は ( a ) の原映像信号を低解像度のスクイーズ画 像に変換した結果を示す図である。 図 2 4 ( a ) の原映像信号のアスペク ト比を 1 6 : 9、 新映像信号のァスぺク ト比を 4 : 3 とする。 図 2 4 ( b ) に示すレタ —ボックス画像では、 縦横ともに同じ比率で縮小され、 上下には黒の帯状のデー 夕が付加されている。 一方、 図 2 4 ( c ) に示すスクイーズ画像では、 縦横で異 なる比率で縮小されて、 4 : 3のァスぺク ト比になっている。 解決課題  FIG. 24 is a diagram showing two types of resolution conversion. In the figure, (a) is a screen of the original video signal with high resolution, (b) is the result of converting the original video signal of (a) into a low-resolution letterbox image, and (c) is (a) FIG. 7 is a diagram showing a result of converting the original video signal of FIG. The aspect ratio of the original video signal in Fig. 24 (a) is 16: 9, and the aspect ratio of the new video signal is 4: 3. In the letter-box image shown in Fig. 24 (b), the image is reduced in the same ratio both vertically and horizontally, and black bands are added above and below. On the other hand, in the squeeze image shown in Fig. 24 (c), the image is reduced at different ratios in the vertical and horizontal directions, resulting in an aspect ratio of 4: 3. Solution issues
しかしながら、 上述した従来の技術では、 次のような問題がある。  However, the above-mentioned conventional technology has the following problems.
まず、 解像度変換に先立って動き検出を行う場合には、 動き検出のために膨大 な処理が必要となり、 この結果、 ハードウェア量やソフ トウェア量の増加を招く ことになる。  First, when motion detection is performed prior to resolution conversion, enormous processing is required for motion detection, and as a result, the amount of hardware and software increases.
また、 図 2 2に示す構成では、 M P E G 2符号化器 5 3 0は、 符号列 C S Aと は解像度が異なるのみの符号列 C S Bを生成するために、 通常の M P E G 2符号 化の処理を全て行わなければならない。 このため、 処理量の増大を招き、 この結 果、 ハードウェア量ゃソフトウエア量の増加を招くことになる。 In the configuration shown in FIG. 22, the MPEG2 encoder 530 uses the code sequence CSA and In order to generate a CSB with only a different resolution, all normal MPEG 2 coding processes must be performed. For this reason, the amount of processing is increased, and as a result, the amount of hardware divided by the amount of software is increased.
また、 新映像信号 S L Rがレターボックス画像であっても、 スクイーズ画像で あっても、 M P E G 2符号化器 5 3 0における符号化方法は同じであり、 解像度 変換方式の特色が生かされていない。 発明の開示  Also, whether the new video signal SLR is a letterbox image or a squeezed image, the encoding method in the MPEG2 encoder 530 is the same, and the features of the resolution conversion method are not utilized. Disclosure of the invention
本発明は、 解像度変換を伴う画像処理を、 少ない処理量で実現可能にすること を目的とする。  An object of the present invention is to enable image processing involving resolution conversion to be realized with a small processing amount.
具体的には、 本発明は、 画像処理方法として、 第 1の解像度を有する原映像信 号が符号化された符号列を復号化するともに、 前記符号列の符号化パラメータを 抽出する復号化ステップと、 前記符号化パラメ一夕から原映像信号の特性を判定 し、 復号化した原映像信号を、 前記特性に応じた解像度変換方法によって、 第 2 の解像度を有する新映像信号に変換する解像度変換ステップとを備えたものであ る。  Specifically, the present invention provides, as an image processing method, a decoding step of decoding a code string in which an original video signal having a first resolution is encoded, and extracting an encoding parameter of the code string. Resolution conversion for determining the characteristics of the original video signal from the encoding parameters and converting the decoded original video signal into a new video signal having a second resolution by a resolution conversion method according to the characteristics. And steps.
そして、 前記解像度変換ステップは、 原映像信号の特性として、 前記原映像信 号における画像の動き特性を判定するのが好ましい。 さらに、 前記符号化パラメ 一夕は、 映像構成単位の動き量を示す動きベク トル、 直交変換をフレーム構造ま たはフィールド構造のいずれで行うかを示す直交変換タイプ、 および、 動き補償 をフレーム構造またはフィールド構造のいずれで行うかを示す動き補償モードの うちの少なくともいずれか 1つを含むのが好ましい。  In the resolution converting step, it is preferable to determine a motion characteristic of an image in the original video signal as a characteristic of the original video signal. Further, the encoding parameters include a motion vector indicating a motion amount of a video constituent unit, an orthogonal transform type indicating whether the orthogonal transform is performed in a frame structure or a field structure, and a motion compensation in a frame structure. Alternatively, it is preferable to include at least one of the motion compensation modes indicating which of the field structures is used.
また、 前記解像度変換ステップは、 復号化した原映像信号の画像を前記符号化 パラメータを用いて静止領域と動領域とに分割し、 前記原映像信号を前記静止領 域と前記動領域とにおいて互いに異なる解像度変換方法を用いて前記新映像信号 に変換するのが好ましい。 そして、 原映像信号はインタ一レース信号であり、 前 記静止領域においてはフレームを単位として解像度変換を行う一方、 前記動領域 においてはフィールドを単位として解像度変換を行うのが好ましい。 また、 前記 符号化パラメータは映像構成単位の動き量を示す動きべク トルであり、 前記領域 分割を、 動きべク トルの絶対値と所定値との比較結果に基づいて行うのが好まし い。 In the resolution conversion step, the image of the decoded original video signal is divided into a still area and a moving area using the encoding parameter, and the original video signal is mutually divided in the still area and the moving area. It is preferable to convert to the new video signal using a different resolution conversion method. The original video signal is an interlaced signal. In the still area, it is preferable to perform resolution conversion in units of frames, while in the moving area, it is preferable to perform resolution conversion in units of fields. Further, the encoding parameter is a motion vector indicating a motion amount of a video constituent unit, and the area division is preferably performed based on a comparison result between an absolute value of the motion vector and a predetermined value. .
また、 本発明は、 画像処理装置として、 第 1の解像度を有する原映像信号が符 号化された符号列を復号化するとともに、 前記符号列の符号化パラメ一夕を抽出 する映像複号化器と、 前記映像復号化器から出力された原映像信号および符号化 パラメータを入力とし、 前記符号化パラメ一夕から原映像信号の特性を判定し、 前記原映像信号を前記特性に応じた解像度変換方法によって第 2の解像度を有す る新映像信号に変換する解像度変換器とを備えたものである。  In addition, the present invention provides an image processing apparatus, comprising: decoding a code string in which an original video signal having a first resolution is encoded; and extracting video encoding parameters of the code string. An original video signal output from the video decoder and an encoding parameter are input, a characteristic of the original video signal is determined from the encoding parameters, and the resolution of the original video signal according to the characteristic is determined. And a resolution converter for converting to a new video signal having the second resolution by a conversion method.
そして、 前記解像度変換器は、 原映像信号の特性として、 前記原映像信号にお ける画像の動き特性を判定するのが好ましい。 さらに、 前記符号化パラメ一夕は、 映像構成単位の動き量を示す動きべク トル、 直交変換をフレーム構造またはフィ 一ルド構造のいずれで行うかを示す直交変換夕イブ、 および、 動き補償をフレー ム構造またはフィ一ルド構造のいずれで行うかを示す動き補償モ一ドのうちの、 少なく ともいずれか 1つを含むのが好ましい。  Then, it is preferable that the resolution converter determines a motion characteristic of an image in the original video signal as a characteristic of the original video signal. Further, the coding parameter includes a motion vector indicating a motion amount of a video constituent unit, an orthogonal transform parameter indicating whether the orthogonal transform is performed in a frame structure or a field structure, and a motion compensation. It is preferable to include at least one of the motion compensation modes indicating whether to perform the frame structure or the field structure.
また、 前記解像度変換器は、 入力された原映像信号の画像を前記符号化パラメ 一夕を用いて静止領域と動領域とに分割する領域分割部と、 前記領域分割部から 出力された前記静止領域の映像信号を前記第 2の解像度の映像信号に変換する静 止領域解像度変換部と、 前記領域分割器から出力された前記動領域の映像信号を 前記第 2の解像度の映像信号に変換する動領域解像度変換部とを備えたものとす るのが好ましい。 さらに、 原映像信号はインタ一レース信号であり、 前記静止領 域解像度変換部はフレームを単位として解像度変換を行うものとし、 前記動領域 解像度変換部はフィ一ルドを単位として解像度変換を行うものとするのが好まし い。 また、 前記符号化パラメ一夕は映像構成単位の動き量を示す動きベク トルで あり、 前記領域分割部は、 動きベク トルの絶対値と所定値との比較結果に基づい て領域分割を行うのが好ましい。 また、 本発明は、 画像処理方法として、 第 1の解像度を有する原映像信号を符 号化して得られた符号列を復号化するとともに、 前記符号列から動きべクトルを 抽出する復号化ステップと、 複号化した原映像信号を、 抽出した動きベクトルを 用いて第 2の解像度を有する新映像信号に変換する解像度変換ステップとを備え たものである。 The resolution converter may further include: a region dividing unit that divides an image of the input original video signal into a still region and a moving region using the encoding parameter; and the still image output from the region dividing unit. A static area resolution conversion unit that converts a video signal of a region into the video signal of the second resolution, and converts the video signal of the moving region output from the region divider into a video signal of the second resolution It is preferable to include a moving area resolution converter. Further, the original video signal is an interlaced signal, the static area resolution conversion section performs resolution conversion in units of frames, and the moving area resolution conversion section performs resolution conversion in units of fields. It is preferred that In addition, the encoding parameter is a motion vector indicating a motion amount of a video constituent unit. It is preferable that the region dividing unit divides the region based on a comparison result between the absolute value of the motion vector and a predetermined value. Further, the present invention provides, as an image processing method, a decoding step of decoding a code string obtained by encoding an original video signal having a first resolution, and extracting a motion vector from the code string. And a resolution conversion step of converting the decoded original video signal into a new video signal having the second resolution using the extracted motion vector.
そして、 前記解像度変換ステップは、 前記復号化した原映像信号の画像を前記 抽出した動きべクトルを用いて準静止領域と動領域とに分割する領域分割ステツ ブを有し、 前記新映像信号への解像度変換を、 前記準静止領域においては前記抽 出した動きべクトルを用いて行う一方、 前記動領域においては前記抽出した動き べク トルを用いないで行うのが好ましい。  The resolution converting step includes an area dividing step of dividing the decoded image of the original video signal into a quasi-stationary area and a moving area using the extracted motion vector. It is preferable that the resolution conversion is performed using the extracted motion vector in the quasi-stationary region, but not using the extracted motion vector in the moving region.
そして、 前記領域分割ステップは、 前記抽出した動きベクトルから、 当該動き べクトルと向きが類似した画素単位の動きべクトルの検出を行い、 前記画素単位 の動きべク トルが検出された領域を準静止領域とし、 検出されなかった領域を動 領域とするのが好ましい。 さらに、 前記準静止領域における前記新映像信号への 解像度変換を、 検出された前記画素単位の動きべクトルを用いて行うのが好まし い。  Then, the area dividing step detects, from the extracted motion vector, a motion vector in a pixel unit having a direction similar to the motion vector, and determines an area in which the motion vector in the pixel unit is detected. It is preferable that the region is a stationary region and an undetected region is a moving region. Further, it is preferable that the resolution conversion to the new video signal in the quasi-stationary region is performed using the detected motion vector in pixel units.
また、 前記領域分割ステップは、 前記抽出した動きベク トルの絶対値が所定 のしきい値よりも小さい領域を準静止領域とする一方、 前記所定のしきい値より も大きい領域を動領域とするのが好ましい。 また、 本発明は、 画像処理装置として、 第 1の解像度を有する原映像信号を符 号化して得られた符号列を復号化するとともに、 前記符号列から動きべク トルを 抽出する映像復号化器と、 前記映像複号化器から出力された原映像信号および動 きべク トルを入力とし、 前記原映像信号を前記動きべク トルを用いて第 2の解像 度を有する新映像信号に変換する解像度変換器とを備えたものである。 In the region dividing step, a region where the absolute value of the extracted motion vector is smaller than a predetermined threshold is set as a quasi-stationary region, and a region larger than the predetermined threshold is set as a moving region. Is preferred. Further, the present invention provides, as an image processing device, a video decoding device that decodes a code sequence obtained by encoding an original video signal having a first resolution and extracts a motion vector from the code sequence. An original video signal and a video output from the video decoder. A resolution converter that receives a vector as an input and converts the original video signal into a new video signal having a second resolution using the motion vector.
そして、 前記解像度変換器は、 前記原映像信号および動きベク トルを入力とし、 前記原映像信号の画像を、 前記動きべク トルを用いて準静止領域と動領域とに分 割する領域分割部と、 前記領域分割部から出力された準静止領域の映像信号を、 前記動きべクトルを用いて第 2の解像度を有する映像信号に変換する準静止領域 解像度変換部と、 前記領域分割部から出力された動領域の映像信号を、 前記動き ベク トルを用いないで第 2の解像度を有する映像信号に変換す.る動領域解像度変 換部とを備えているのが好ましい。  The resolution converter receives the original video signal and the motion vector as input, and divides the image of the original video signal into a quasi-stationary region and a moving region using the motion vector. A quasi-stationary region resolution conversion unit that converts the video signal of the quasi-stationary region output from the region division unit to a video signal having a second resolution using the motion vector, and an output from the region division unit. It is preferable that the image processing apparatus further includes a moving area resolution conversion unit that converts the video signal of the moving area into a video signal having a second resolution without using the motion vector.
また、 前記領域分割部は、 前記動きベクトルから、 当該動きベクトルと向きが 類似した画素単位の動きべク トルを検出する動きべクトル検出部を備え、 前記動 きべクトル検出器によって前記画素単位の動きべク トルが検出された領域を準静 止領域とし、 検出されなかった領域を動領域とするのが好ましい。 さらに、 前記 準静止領域解像度変換部は、 前記動きべクトル検出部によって検出された前記画 素単位の動きべクトルを用いて、 解像度変換を行うのが好ましい。  The region dividing unit further includes a motion vector detecting unit that detects a motion vector in a pixel unit having a similar direction to the motion vector from the motion vector, and the motion vector detector detects the motion vector in the pixel unit. It is preferable that an area where the motion vector is detected is set as a quasi-static area, and an area where no motion vector is detected is set as a moving area. Further, it is preferable that the quasi-static region resolution conversion unit performs resolution conversion using the pixel-by-pixel motion vector detected by the motion vector detection unit.
また、 前記領域分割部は、 動きベク トルの絶対値が所定のしきい値よりも小さ い領域を準静止領域とする一方、 所定のしきい値よりも大きい領域を動領域とす るのが好ましい。 また、 本発明は、 画像処理方法として、 第 1の解像度を有する原映像信号を符 号化して得られた第 1の符号列を複号化するとともに、 前記第 1の符号列から第 1の符号化パラメ一夕を抽出するステップと、 復号化した原映像信号を第 2の解 像度を有する新映像信号に変換するステップと、 前記第 1の符号化パラメ一夕を 前記新映像信号の符号化に用いる第 2の符号化パラメータに変換するステップと、 前記新映像信号を前記第 2の符号化パラメータを用いて符号化し、 第 2の符号列 を生成するステップとを備えたものである。 そして、 前記符号化パラメ一タ変換ステップは、 原映像信号の画像の第 1の領 域を符号化するために用いられた第 1の符号化パラメータを、 新映像信号の画像 の, 前記第 1の領域と同じ映像を含む第 2の領域を符号化するための第 2の符号 化パラメータに変換するのが好ましい。 Further, the region dividing unit sets a region where the absolute value of the motion vector is smaller than a predetermined threshold as a quasi-stationary region, and sets a region larger than the predetermined threshold as a moving region. preferable. Further, the present invention provides, as an image processing method, a first code string obtained by encoding an original video signal having a first resolution, and a first code string is decoded from the first code string. Extracting an encoded parameter sequence; converting the decoded original video signal to a new video signal having a second resolution; and converting the first encoded parameter sequence to the new video signal. Converting to a second encoding parameter used for encoding, and encoding the new video signal using the second encoding parameter to generate a second code sequence. . Then, the encoding parameter conversion step includes: converting a first encoding parameter used for encoding a first area of an image of an original video signal into an image of a new video signal; It is preferable to convert a second region including the same video as the second region into a second encoding parameter for encoding.
そして、 前記第 1および第 2の符号化パラメ一夕は動きべク トルであるのが好 ましい。 さらに、 前記符号化パラメータ変換ステップは、 前記第 1の領域の動き ベク トルに対して所定の演算を施して得られた値、 例えば加重平均値を、 前記第 2の領域の動きベク トルとするのが好ましい。  The first and second encoding parameters are preferably motion vectors. Further, in the encoding parameter conversion step, a value obtained by performing a predetermined operation on the motion vector of the first area, for example, a weighted average value is set as the motion vector of the second area. Is preferred.
また、 前記第 1および第 2の符号化パラメータは、 直交変換をフレーム構造ま たはフィ一ルド構造のいずれで行うかを示す直交変換タイプであるのが好ましい c また、 本発明は、 画像処理装置として、 第 1の解像度を有する原映像信号を符 号化して得られた第 1の符号列を復号化するとともに、 前記第 1の符号列から第 1の符号化パラメータを出力する映像復号化器と、 前記映像復号化器から出力さ れた前記原映像信号を第 2の解像度を有する新映像信号に変換する解像度変換器 と、 前記映像復号化器から出力された前記第 1の符号化パラメータを前記新映像 信号の符号化に用いる第 2の符号化パラメ一夕に変換する符号化パラメ一タ変換 器と、 前記解像度変換器から出力された新映像信号を前記符号化パラメータ変換 器から出力された第 2の符号化パラメータを用いて符号化し、 第 2の符号列を生 成する映像符号化器とを備えたものである。 The first and second encoding parameters, preferably orthogonal transformation was a frame structure or a is an orthogonal transform type indicating whether to perform any of Fi one field structure c The present invention relates to an image processing The apparatus decodes a first code string obtained by coding an original video signal having a first resolution, and outputs a first coding parameter from the first code string. A resolution converter for converting the original video signal output from the video decoder into a new video signal having a second resolution; and the first encoding output from the video decoder. An encoding parameter converter for converting a parameter into a second encoding parameter used for encoding the new video signal, and a new video signal output from the resolution converter from the encoding parameter converter. Output It encoded using the second encoding parameter, in which the second code string and a video encoder that generates.
そして、 前記符号化パラメ一夕変換器は、 原映像信号の画像の第 1の領域を符 号化するために用いられた第 1の符号化パラメータを、 新映像信号の画像の, 前 記第 1の領域と同じ映像を含む第 2の領域を符号化するための第 2の符号化パラ メ一夕に変換するのが好ましい。  The coding parameter converter converts the first coding parameter used for coding the first region of the image of the original video signal into the first coding parameter of the image of the new video signal. It is preferable to convert the second region including the same video as the first region into second encoding parameters for encoding.
そして、 前記第 1および第 2の符号化パラメータは動きべク トルであるのが好 ましい。 さらに、 前記符号化パラメータ変換器は、 前記第 1の領域の動きべク ト ルに対して所定の演算を施して得られた値, 例えば加重平均値を、 前記第 2の領 域の動きべクトルとするのが好ましい。 Preferably, the first and second coding parameters are motion vectors. Further, the coding parameter converter may calculate a value obtained by performing a predetermined operation on the motion vector of the first area, for example, a weighted average value, in the second area. Preferably, it is a motion vector of the area.
また、 前記第 1および第 2の符号化パラメータは、 直交変換をフレーム構造ま たはフィールド構造のいずれで行うかを示す直交変換タイブであるのが好ましい, また、 本発明は、 画像処理方法として、 第 1の解像度を有する原映像信号を符 号化して得られた第 1の符号列を復号化するとともに、 前記第 1の符号列から第 1の動きベクトルを抽出し、 復号化した原映像信号を第 2の解像度を有する新映 像信号に変換し、 前記第 1の動きべク トルから前記新映像信号の符号化に用いる 第 2の動きべクトルを求めるための設定情報を決定し、 求めた設定情報を用いて 前記第 2の動きベクトルを求め、 前記新映像信号を、 求めた第 2の動きベクトル を用いて符号化し、 第 2の符号列を生成するものである。  Further, the first and second encoding parameters are preferably orthogonal transform types indicating whether the orthogonal transform is performed by using a frame structure or a field structure. Decoding a first code string obtained by encoding an original video signal having a first resolution, extracting a first motion vector from the first code string, and decoding the decoded original video signal Converting the signal into a new video signal having a second resolution; determining setting information for obtaining a second motion vector used for encoding the new video signal from the first motion vector; The second motion vector is obtained by using the obtained setting information, and the new video signal is encoded by using the obtained second motion vector to generate a second code sequence.
そして、 前記設定情報として、 第 2の動きベクトルの初期値を決定するのが好 ましい。 または、 前記設定情報として、 第 2の動きベク トルを求めるための探索 範囲を決定するのが好ましい。  Then, it is preferable to determine an initial value of the second motion vector as the setting information. Alternatively, it is preferable that a search range for obtaining a second motion vector be determined as the setting information.
また、 本発明は、 画像処理装置として、 第 1の解像度を有する原映像信号を符 号化して得られた第 1の符号列を復号化するとともに、 前記第 1の符号列から第 1の動きべクトルを抽出する映像復号化器と、 前記映像復号化器から出力された 原映像信号を第 2の解像度を有する新映像信号に変換する解像度変換器と、 前記 映像復号化器から出力された第 1の動きベクトルから、 前記新映像信号の符号化 に用いる第 2の動きべクトルを求めるための設定情報を生成する動き補償設定器 と、 前記動き補償設定器により生成された設定情報を基にして、 前記第 2の動き ベク トルを求め、 前記解像度変換器から出力された新映像信号を、 求めた第 2の 動きべクトルを用いて符号化し、 第 2の符号列を生成する映像符号化器とを備え たものである。  Further, the present invention provides an image processing device, which decodes a first code sequence obtained by encoding an original video signal having a first resolution, and performs a first motion from the first code sequence. A video decoder for extracting a vector, a resolution converter for converting an original video signal output from the video decoder to a new video signal having a second resolution, and a video decoder output from the video decoder A motion compensation setting unit that generates setting information for obtaining a second motion vector used for encoding the new video signal from the first motion vector; and a setting information generated by the motion compensation setting device. Then, the second motion vector is obtained, and a new video signal output from the resolution converter is encoded using the obtained second motion vector, thereby generating a second code sequence. With a gasifier
そして、 前記動き補償設定器は、 前記設定情報として、 第 2の動きベクトルの 初期値を決定するのが好ましい。 または、 前記動き補償設定器は、 前記設定情報 として、 第 2の動きべク トルを求めるための探索範囲を決定するのが好ましい。 また、 本発明は、 画像処理方法として、 第 1の解像度を有する原映像信号を、 第 2の解像度を有しかつ画像の一部に黒レベル領域を有する新映像信号に変換し, 前記新映像信号のうち, 前記黒レベル領域を除いた領域の映像信号を符号化して 第 1の符号列を生成し、 前記黒レベル領域の映像信号を符号化した第 2の符号列 を前記第 1の符号列に連結し、 前記新映像信号の符号列を生成するものである。 または、 画像処理方法として、 第 1の解像度を有する原映像信号を、 第 2の解 像度を有しかつ画像の一部に黒レベルの領域を有する新映像信号の黒レベル領域 を除く領域の映像信号に変換し、 前記映像信号を符号化して第 1の符号列を生成 し、 前記黒レベル領域の映像信号を符号化した第 2の符号列を前記第 1の符号列 に連結し、 前記新映像信号の符号列を生成するものである。 It is preferable that the motion compensation setting device determines an initial value of a second motion vector as the setting information. Alternatively, the motion compensation setting device includes the setting information It is preferable to determine a search range for obtaining the second motion vector. The present invention also provides an image processing method comprising: converting an original video signal having a first resolution into a new video signal having a second resolution and having a black level region in a part of an image; Among the signals, a first code sequence is generated by encoding a video signal in a region excluding the black level region, and a second code sequence in which the video signal in the black level region is encoded is a first code sequence. And generating a code sequence of the new video signal. Alternatively, as an image processing method, an original video signal having a first resolution is converted into an area excluding a black level area of a new video signal having a second resolution and having a black level area in a part of an image. Converting to a video signal, encoding the video signal to generate a first code sequence, connecting the second code sequence obtained by encoding the video signal in the black level region to the first code sequence, This is to generate a code sequence of a new video signal.
また、 本発明は、 画像処理装置として、 第 1の解像度を有する原映像信号を、 第 2の解像度を有しかつ画像の一部に黒レベル領域を有する新映像信号に変換す る解像度変換器と、 前記新映像信号のうち, 前記黒レベル領域を除いた領域の映 像信号を符号化して第 1の符号列を生成し、 前記黒レベル領域の映像信号を符号 化した第 2の符号列を前記第 1の符号列に連結し、 前記新映像信号の符号列を生 成する映像符号化器とを備えたものである。  Further, the present invention provides, as an image processing apparatus, a resolution converter for converting an original video signal having a first resolution into a new video signal having a second resolution and having a black level region in a part of an image. And a second code sequence that encodes a video signal in an area of the new video signal excluding the black level area to generate a first code string, and encodes the video signal in the black level area. And a video encoder that generates a code sequence of the new video signal by concatenating the first code sequence with the first code sequence.
または、 画像処理装置として、 第 1の解像度を有する原映像信号を、 第 2の解 像度を有しかつ画像の一部に黒レベルの領域を有する新映像信号の, 黒レベル領 域を除く領域の映像信号に変換する解像度変換器と、 前記映像信号を符号化して 第 1の符号列を生成し、 前記黒レベル領域の映像信号を符号化した第 2の符号列 を前記第 1の符号列に連結し、 前記新映像信号の符号列を生成する映像符号化器 とを備えたものである。 図面の簡単な説明 図 1は本発明の第 1の実施形態に係る画像処理装置の全体構成を示すプロック 図である。 Alternatively, as an image processing device, the original video signal having the first resolution is excluded from the black level region of the new video signal having the second resolution and having a black level region in a part of the image. A resolution converter that converts the image signal into an area video signal, generates a first code sequence by encoding the video signal, and converts the second code sequence obtained by encoding the video signal in the black level area into the first code And a video encoder for generating a code sequence of the new video signal. BRIEF DESCRIPTION OF THE FIGURES FIG. 1 is a block diagram showing the overall configuration of the image processing apparatus according to the first embodiment of the present invention.
図 2は図 1における映像復号化器の構成を示すプロック図である。  FIG. 2 is a block diagram showing the configuration of the video decoder in FIG.
図 3は図 1における解像度変換器の構成を示すプロック図である。  FIG. 3 is a block diagram showing a configuration of the resolution converter in FIG.
図 4 (a) , (b) は本発明の第 1の実施形態に係る動き判定の例を示す模式 図であり、 図 4 (a) は符号化パラメータとして動きベクトルを用いた場合、 図 FIGS. 4A and 4B are schematic diagrams illustrating an example of motion determination according to the first embodiment of the present invention, and FIG. 4A illustrates a case where a motion vector is used as a coding parameter.
4 (b) は符号化パラメ一タとして D C T夕イブを用いた場合を示す図である。 図 5 (a) 〜 (c) は本発明の第 1の実施形態に係る領域分割の例を示す模式 図であり、 図 5 (a) は動き判定結果、 図 5 (b) は静止領域、 図 5 (c) は動 領域である。 FIG. 4 (b) is a diagram illustrating a case where DCT Eve is used as an encoding parameter. FIGS. 5A to 5C are schematic diagrams showing an example of region division according to the first embodiment of the present invention. FIG. 5A shows a motion determination result, FIG. Fig. 5 (c) shows the moving region.
図 6 (a) , (b) は本発明の第 1の実施形態に係る解像度変換を示す模式図 であり、 図 6 (a) はフレーム構造のままの解像度変換、 図 6 (b) はフィ一ル ド構造のままの解像度変換である。  6 (a) and 6 (b) are schematic diagrams showing resolution conversion according to the first embodiment of the present invention. FIG. 6 (a) is resolution conversion with the frame structure unchanged, and FIG. This is a resolution conversion with a single-level structure.
図 7 (a) 〜 (e) は本発明の第 1の実施形態に係る領域合成を示す模式図で ある。  FIGS. 7A to 7E are schematic diagrams showing the area synthesis according to the first embodiment of the present invention.
図 8は本発明の第 2の実施形態に係る画像処理装置の全体構成を示すプロック 図である。  FIG. 8 is a block diagram showing the overall configuration of the image processing device according to the second embodiment of the present invention.
図 9は図 8における解像度変換器の構成を示すプロック図である。  FIG. 9 is a block diagram showing the configuration of the resolution converter in FIG.
図 1 0は図 9における動きべクトル検出部および準静止領域解像度変換部の動 作を説明するための模式図である。  FIG. 10 is a schematic diagram for explaining the operation of the motion vector detection unit and the quasi-static region resolution conversion unit in FIG.
図 1 1は図 9における動領域解像度変換部の動作を説明するための模式図であ る。  FIG. 11 is a schematic diagram for explaining the operation of the moving area resolution conversion unit in FIG.
図 1 2は図 8における解像度変換器の他の構成例を示すブロック図である。 図 1 3は本発明の第 3の実施形態に係る画像処理装置の全体構成を示すプロッ ク図である。  FIG. 12 is a block diagram showing another configuration example of the resolution converter in FIG. FIG. 13 is a block diagram showing the overall configuration of the image processing apparatus according to the third embodiment of the present invention.
図 1 4 ( a) 〜 ( c ) は図 1 3における符号化パラメータ変換器の動作を説明 するための模式図である。 Figures 14 (a) to 14 (c) explain the operation of the coding parameter converter in Figure 13 FIG.
図 1 5は図 1 3における映像符号化器の構成を示すプロック図である。  FIG. 15 is a block diagram showing the configuration of the video encoder in FIG.
図 1 6は本発明の第 4の実施形態に係る画像処理装置の全体構成を示すプロッ ク図である。  FIG. 16 is a block diagram showing an overall configuration of an image processing apparatus according to the fourth embodiment of the present invention.
図 1 7は図 1 6における映像符号化器の構成を示すプロック図である。  FIG. 17 is a block diagram showing the configuration of the video encoder in FIG.
図 1 8 (a:) 〜 ( c) は図 1 7における動きべク トル計算器の動作を説明する ための模式図である。  FIGS. 18 (a :) to (c) are schematic diagrams for explaining the operation of the motion vector calculator in FIG.
図 1 9は本発明の第 5の実施形態に係る画像処理装置の全体構成を示すプロッ ク図である。  FIG. 19 is a block diagram showing the overall configuration of the image processing apparatus according to the fifth embodiment of the present invention.
図 2 0 (a) , (b) は本発明の第 5の実施形態に係る解像度変換の一例を示 す図である。  FIGS. 20 (a) and (b) are diagrams showing an example of resolution conversion according to the fifth embodiment of the present invention.
図 2 1は図 1 9における映像符号化器の構成を示すブロック図である。  FIG. 21 is a block diagram showing the configuration of the video encoder in FIG.
図 2 2は従来の画像処理装置の構成を示すブロック図である。  FIG. 22 is a block diagram showing a configuration of a conventional image processing apparatus.
図 2 3 (a) , (b) はフィールド構造での解像度変換を示す模式図である。 図 24 (a) 〜 (c) は解像度変換の 2種類の方式を示す図である。 発明を実施するための最良の形態  FIGS. 23 (a) and 23 (b) are schematic diagrams showing resolution conversion in a field structure. FIGS. 24A to 24C are diagrams showing two types of resolution conversion. BEST MODE FOR CARRYING OUT THE INVENTION
(第 1の実施形態)  (First Embodiment)
図 1は本発明の第 1の実施形態に係る画像処理装置の全体構成を示すプロック 図である。 図 1に示すように、 本実施形態に係る画像処理装置は、 映像複号化器 1 0および解像度変換器 20を備えている。 第 1の解像度としての高解像度を有 する原映像信号の符号列 C Sが入力され、 映像複号化器 1 0は入力された符号列 C Sを原映像信号 S HRに複号化する。 また復号化とともに、 符号列 C Sの符号 化パラメータ PARを抽出する。 解像度変換器 2 0は、 復号化された原映像信号 SHRを、 符号化パラメ一夕 PARを用いて、 第 2の解像度としての低解像度を 有する新映像信号 S LRに変換し、 出力する。 ここでは、 符号列 C Sは、 MP E G 2方式によって符号化されているものとす る。 したがって、 映像複号化器 1 0は MP E G 2 (Moving Picture Expert Grou P 2 ) 方式の復号化器である。 またここでは、 原映像信号 S HRおよび新映像信 号 S LRは、 ともに、 インタ一レース信号 (飛越走査信号) であるものとする。 図 2は映像復号化器 1 0の内部構成を示す図である。 図 2に示すように、 映像 復号化器 1 0は、 可変長復号化部 1 1、 逆量子化部 1 2、 逆 D C T (Discrete C osine Transform ) 部 1 3、 フレームメモリ 1 4、 システム制御部 1 5、 加算器 1 6、 およびスィ ッチ 1 7を備えている。 可変長復号化部 1 1は、 符号化パラメ —タ P A Rの抽出も行う。 FIG. 1 is a block diagram showing the overall configuration of the image processing apparatus according to the first embodiment of the present invention. As shown in FIG. 1, the image processing apparatus according to the present embodiment includes a video decoder 10 and a resolution converter 20. A code sequence CS of an original video signal having a high resolution as a first resolution is input, and the video decoder 10 decodes the input code sequence CS into an original video signal SHR. At the same time as decoding, the coding parameter PAR of the code string CS is extracted. The resolution converter 20 converts the decoded original video signal SHR into a new video signal SLR having a low resolution as the second resolution by using the encoding parameter PAR and outputs it. Here, it is assumed that the code string CS is encoded by the MPEG2 method. Therefore, the video decoder 10 is a decoder of the Moving Picture Expert Group 2 (MPEG2) system. Here, it is assumed that both the original video signal S HR and the new video signal S LR are interlaced signals (interlaced scanning signals). FIG. 2 is a diagram showing the internal configuration of the video decoder 10. As shown in FIG. 2, the video decoder 10 includes a variable length decoding unit 11, an inverse quantization unit 12, an inverse DCT (Discrete Cosine Transform) unit 13, a frame memory 14, and a system control unit. 15, adder 16, and switch 17. The variable length decoding unit 11 also extracts the encoding parameter PAR.
図 2に示す映像復号化器 1 0の動作について説明する。 1フレーム分の符号列 C Sは、 ( 1 6 x 1 6) 画素のマクロプロヅクを単位として符号化が行われてお り、 マクロブロック順に、 映像復号化器 1 0に入力される。  The operation of the video decoder 10 shown in FIG. 2 will be described. The code sequence CS for one frame is coded in units of (16 × 16) pixel macroblocks, and is input to the video decoder 10 in macroblock order.
入力された符号列 C Sは、 可変長復号化部 1 1によって可変長復号化処理を施 される。 可変長復号化部 1 1の出力のうち、 画像データに関するものは逆量子化 部 1 2に入力され、 画像データ以外のデータはシステム制御部 1 5に送られる。 可変長復号化部 1 1からシステム制御部 1 5に送られるデータとしては、 符号列 C Sの符号化パラメータであるビクチャタイプ、 D CTタイプ、 動きベク トル等 がある。 ここで、 「ビクチャタイプ」 とは、 フレームがフレーム内符号化されて いるかフレーム間符号化されているかを示すものであり、 「D C Tタイプ」 とは、 ブロックがフィールド構造とフレーム構造とのいずれの構造によって D C T処理 を施されたかを示すものである。  The input code string CS is subjected to variable-length decoding by the variable-length decoding unit 11. Among the outputs of the variable length decoding unit 11, those related to image data are input to the inverse quantization unit 12, and data other than image data is sent to the system control unit 15. The data sent from the variable length decoding unit 11 to the system control unit 15 includes a picture type, a DCT type, and a motion vector, which are coding parameters of the code string CS. Here, the “victure type” indicates whether the frame is intra-frame encoded or inter-frame encoded, and the “DCT type” indicates whether the block has a field structure or a frame structure. This indicates whether DCT processing has been performed using the structure shown in FIG.
逆量子化部 1 2に入力されたデータは、 逆量子化を施されて、 逆 D C T部 1 3 に入力される。 逆 D CT部 1 3では、 逆 D C T演算が施される。 ここで、 MP E G 2方式では、 D C T処理は ( 8 x 8) 画素のブロックを単位として行われる。 フレーム内符号化を施されているときは、 スイ ッチ 1 Ίは aに接続される一方、 フレーム間符号化を施されているときは、 スィ ッチ 1 7は bに接続される。 いま、 フレーム間符号化を施されているフレームの符号列 C Sを処理しているものとす ると、 スィ ツチ 1 7は bに接続されるので、 逆 D C T部 1 2の出力は加算器 1 6 に出力される。 The data input to the inverse quantization unit 12 is subjected to inverse quantization and input to the inverse DCT unit 13. In the inverse DCT section 13, an inverse DCT operation is performed. Here, in the MPEG2 system, DCT processing is performed in units of (8 × 8) pixel blocks. When intra-frame coding is performed, switch 1 符号 is connected to a, while when inter-frame coding is performed, switch 17 is connected to b. Now Assuming that the code sequence CS of the frame subjected to the interframe coding is being processed, the output of the inverse DCT unit 12 is sent to the adder 16 because the switch 17 is connected to b. Is output.
可変長複号化部 1 1からシステム制御部 1 5に送られた動きべク トルを用いて フレームメモリ 1 4から参照画像が取り出される。 参照画像となるフレームは、 すでに復号化が終了しており、 フレームメモリ 1 4に蓄積されている。 逆 D C T 部 1 3の出力である逆 D C T演算を施されたデータとフレームメモリ 1 4から読 み出したデータである参照画像とは、 加算器 1 6によって加算され、 復号化画像 となり、 フレームメモリ 1 4に蓄積される。 このようにして、 マクロブロックが 順に復号化されて、 フレームメモリ 1 4に蓄積されていく。  A reference image is extracted from the frame memory 14 using the motion vector sent from the variable-length decoding unit 11 to the system control unit 15. The frame serving as the reference image has already been decoded and is stored in the frame memory 14. The data subjected to the inverse DCT operation, which is the output of the inverse DCT unit 13, and the reference image, which is the data read from the frame memory 14, are added by the adder 16 to obtain a decoded image, and Stored in 14 In this way, the macroblocks are sequentially decoded and stored in the frame memory 14.
以降のフレームに関しても同様に復号化が行われ、 フレームメモリ 1 4に蓄積 されていく。 ただし、 フレーム内符号化されているときは、 スィ ッチ 1 7は aに 接続され、 逆 D C T部 1 3の出力がそのままフレームメモリ 1 4に蓄積される。 また、 フレーム間符号化されているときは、 スィ ッチ 1 7は bに接続され、 逆 D C T部 1 3の出力と参照画像とが加算器 1 6によって加算され、 フレームメモリ 1 4に蓄積される。  Decoding is similarly performed for the subsequent frames, and is stored in the frame memory 14. However, when intra-frame encoding is performed, switch 17 is connected to a, and the output of inverse DCT section 13 is stored in frame memory 14 as it is. When inter-frame coding is performed, switch 17 is connected to b, the output of inverse DCT section 13 and the reference image are added by adder 16 and stored in frame memory 14. You.
このようにしてフレームメモリ 1 4に蓄積された復号化画像は、 時間順に、 フ レームメモリ 1 4から原映像信号 S H Rとして出力される。 また、 システム制御 器 1 5から、 符号化パラメータ P A Rが出力される。  The decoded images stored in the frame memory 14 in this manner are output from the frame memory 14 in time order as the original video signal SHR. Further, the system controller 15 outputs an encoding parameter P AR.
図 3は解像度変換器 2 0の内部構成を示す図である。 図 3に示すように、 解像 度変換器 2 0は、 領域分割部 2 1、 静止領域解像度変換部 2 3、 動領域解像度変 換部 2 4および領域合成部 2 5を備えている。 領域分割部 2 1は、 画像分割部 2 1 aおよび動き判定部 2 1 bを有している。  FIG. 3 is a diagram showing the internal configuration of the resolution converter 20. As shown in FIG. 3, the resolution converter 20 includes an area dividing section 21, a still area resolution converting section 23, a moving area resolution converting section 24, and an area synthesizing section 25. The area dividing section 21 has an image dividing section 21a and a motion determining section 21b.
図 3に示す解像度変換器 2 0の動作について説明する。 まず、 動き判定部 2 1 bは、 入力された符号化パラメータ P A Rを用いて、 原映像信号 S H Rにおける 画像の動き特性を判定する。 そして、 静止領域と動領域との判定を行う。 図 4は動き判定部 2 1 bにおける動き判定を表す図である。 同図中、 (a) は 符号化パラメ一夕 PARとして動きべク トルを用いた場合の動き判定の例、 (b) は符号化パラメータ PARとして D C T夕ィブを用いた場合の動き判定の 例を示す図である。 The operation of the resolution converter 20 shown in FIG. 3 will be described. First, the motion determining unit 21b determines the motion characteristics of the image in the original video signal SHR using the input encoding parameter PAR. Then, a determination is made between the stationary region and the moving region. FIG. 4 is a diagram illustrating a motion determination in the motion determination unit 21b. In the same figure, (a) is an example of motion judgment when a motion vector is used as a coding parameter overnight PAR, and (b) is a motion judgment when a DCT evening is used as a coding parameter PAR. It is a figure showing an example.
まず、 図 4 (a) を用いて、 符号化パラメ一タ P ARとして動きベク トルを用 いた場合の動き判定について説明する。 図 4 (a) では、 フレーム画面が ( 1 6 X 1 6 ) 画素の映像構成単位としてのマクロブロック単位に分割されている。 M P E G 2方式では、 動きベク トルは、 マクロブロックの水平および垂直方向の変 位量を 0. 5画素単位で表している。 ここでは、 動きベク トルと予め定められた 所定値との比較を行い、 その比較結果に基づいて、 動き判定を行うものとする。 例えば、 動きベク トルの絶対値が所定値よりも小さいときは、 そのマクロブロッ クは静止領域に属すると判定し、 逆に所定値よりも大きいときは、 そのマクロブ ロックは動領域に属すると判定する。 図 4 (a) において、 黒く塗られたマクロ プロックは動領域に属し、 白で示されたマクロプロックは静止領域に属する。 次に、 図 4 (b) を用いて、 符号化パラメ一タ PARとして D C T夕イブを用 いた場合の動き判定について説明する。 図 4 ( b ) では、 フレーム画面が (8 x 8) 画素のブロック単位に分割されている。 MP E G 2方式では、 各ブロックは、 フレーム構造およびフィ一ルド構造のうち縦方向の隣接画素との差分和が小さく なる方の構造によって、 D C T演算がなされる。 D C Tタイプとは、 D CT演算 がなされた構造のことをいう。 ここでは、 D C Tタイプがフレーム構造であると きは、 そのブロックは静止領域に属すると判定し、 D C Tタイプがフィールド構 造であるときは、 そのブロックは動領域に属すると判定する。 図 4 (b) におい て、 黒く塗られたブロックは動領域に属し、 白で示されたブロックは静止領域に 属する。  First, the motion determination when a motion vector is used as the encoding parameter PAR will be described using FIG. 4 (a). In FIG. 4A, the frame screen is divided into macroblock units as video constituent units of (16 × 16) pixels. In the MPEG2 method, the motion vector represents the horizontal and vertical displacement of a macroblock in 0.5 pixel units. Here, it is assumed that the motion vector is compared with a predetermined value, and the motion is determined based on the comparison result. For example, when the absolute value of the motion vector is smaller than a predetermined value, it is determined that the macro block belongs to the stationary region, and when it is larger than the predetermined value, it is determined that the macro block belongs to the moving region. I do. In Fig. 4 (a), the macro blocks painted in black belong to the moving area, and the macro blocks shown in white belong to the stationary area. Next, with reference to FIG. 4 (b), a description will be given of the motion determination in a case where the DCT parameter is used as the encoding parameter PAR. In Fig. 4 (b), the frame screen is divided into (8 x 8) pixel blocks. In the MPEG2 system, each block is subjected to a DCT operation by a frame structure or a field structure, which has a smaller difference sum with the adjacent pixel in the vertical direction. The DCT type refers to a structure in which a DCT operation has been performed. Here, when the DCT type has a frame structure, it is determined that the block belongs to a still area, and when the DCT type has a field structure, it is determined that the block belongs to a moving area. In Fig. 4 (b), the blocks painted in black belong to the moving area, and the blocks shown in white belong to the stationary area.
動き判定部 2 1 bは上述したような動き判定を行い、 その結果を画像分割部 2 1 aに送る。 画像分割部 2 1 aは、 動き判定部 2 1 bから得た動き判定結果を基 にして、 フレーム画像を静止領域と動領域とに分割する。 The motion determining unit 21b performs the above-described motion determination, and sends the result to the image dividing unit 21a. The image dividing unit 21a is based on the motion determination result obtained from the motion determining unit 21b. To divide the frame image into a still area and a moving area.
図 5は領域分割の例を示す模式図である。 同図中、 (a ) は図 4 ( a ) に示す 動き判定結果、 (b ) は領域分割部 2 1によって抽出された静止領域、 (c ) は 領域分割部 2 1によって抽出された動領域である。  FIG. 5 is a schematic diagram showing an example of area division. In the figure, (a) is the motion determination result shown in FIG. 4 (a), (b) is the still region extracted by the region dividing unit 21 and (c) is the moving region extracted by the region dividing unit 21. It is.
原映像信号 S H Rのうち、 静止領域に区分された映像デ一夕は静止領域解像度 変換部 2 3に入力され、 動領域に区分された映像データは動領域解像度変換部 2 4に入力される。 静止領域解像度変換部 2 3および動領域解像度変換部 2 4では、 それそれ、 入力された映像データに応じた方法によって、 解像度変換が行われる c 図 6は静止領域解像度変換部 2 3および動領域解像度変換部 2 4において行わ れる原映像信号 S H Rから新映像信号 S L Rへの解像度変換の一例を示す図であ る。 図 6では、 縦方向に並ぶ画素の状態を示しており、 "〇" は第 1フィールド に属する画素、 "△" は第 2フィールドに属する画素である。 図 6では、 縦方向 の画素が 1 / 2に変換される場合について示しており、 同図中、 (a ) はフレー ム構造のままの解像度変換、 (b ) はフィールド構造のままの解像度変換である。 静止領域解像度変換部 2 3は、 フレーム構造のまま解像度変換を行う。 すなわ ち、 図 6 ( a ) に示すように、 新映像信号 S L Rの第 1フィールドの映像データ を原映像信号 S H Rの第 1フィールドと第 2フィールドの両方の画素を用いて生 成するとともに、 新映像信号 S L Rの第 2フィールドの映像データもまた、 原映 像信号 S H Rの第 1フィ一ルドと第 2フィールドの両方の画素を用いて生成する。 一方、 動領域解像度変換部 2 4は、 フィールド構造のまま解像度変換を行う。 すなわち、 図 6 ( b ) に示すように、 新映像信号 S L Rの第 1 フィールドの映像 データは原映像信号 S H Rの第 1フィ一ルドの画素のみから生成し、 新映像信号 S L Rの第 2フィ一ルドの映像データは原映像信号 S H Rの第 2フィールドの画 素のみを用いて生成する。 In the original video signal SHR, the video data divided into the still area is input to the still area resolution converter 23, and the video data divided into the moving area is input to the moving area resolution converter 24. In still region resolution converter 2 3 and the moving region resolution converter 2 4, thereby it by a method corresponding to the input video data, c 6 the resolution conversion is performed still region resolution converter 2 3 and dynamic regions FIG. 9 is a diagram showing an example of resolution conversion from an original video signal SHR to a new video signal SLR performed in a resolution conversion section 24. FIG. 6 shows the state of pixels arranged in the vertical direction, where “〇” is a pixel belonging to the first field, and “△” is a pixel belonging to the second field. Fig. 6 shows the case where the vertical pixels are converted to 1/2. In Fig. 6, (a) is the resolution conversion with the frame structure, and (b) is the resolution conversion with the field structure. It is. The still area resolution conversion section 23 performs resolution conversion while maintaining the frame structure. That is, as shown in Fig. 6 (a), the video data of the first field of the new video signal SLR is generated using both the pixels of the first and second fields of the original video signal SHR, and The video data of the second field of the new video signal SLR is also generated using the pixels of both the first field and the second field of the original video signal SHR. On the other hand, the moving area resolution conversion section 24 performs resolution conversion without changing the field structure. That is, as shown in FIG. 6 (b), the video data of the first field of the new video signal SLR is generated only from the pixels of the first field of the original video signal SHR, and the second field of the new video signal SLR is generated. The field video data is generated using only the pixels in the second field of the original video signal SHR.
静止領域解像度変換部 2 3および動領域解像度変換部 2 4によって生成された 静止領域および動領域の新映像信号は、 領域合成部 2 5に出力される。 領域合成 部 2 5は、 静止領域および動領域の新映像信号を合成し、 フレーム画像に変換し、 新映像信号 S L Rとして出力する。 The new video signals of the still area and the moving area generated by the still area resolution converting section 23 and the moving area resolution converting section 24 are output to the area synthesizing section 25. Area synthesis The unit 25 combines the new video signals in the still area and the moving area, converts them into frame images, and outputs them as new video signals SLR.
図 7は領域合成部 2 5の動作を示す図である。 同図中、 ( a ) , (b ) はそれ それ、 静止領域解像度変換部 2 3および動領域解像度変換部 2 4への入力画像で あり、 図 5 ( b ) , ( c ) の画像に相当する。 図 7 ( c ) , (d ) はそれそれ、 静止領域解像度変換部 2 3および動領域解像度変換部 2 4の出力画像を示してお り、 解像度変換の結果、 画素数が削減されている。 領域合成部 2 5は図 7 ( c ) , ( d ) の画像から、 図 7 ( e ) に示すような合成画像すなわち新映像信号 S L Rを生成する。  FIG. 7 is a diagram showing the operation of the area combining section 25. In the figure, (a) and (b) are input images to the still area resolution converter 23 and the moving area resolution converter 24, respectively, and correspond to the images in FIGS. 5 (b) and (c). I do. FIGS. 7 (c) and 7 (d) show the output images of the still area resolution converter 23 and the moving area resolution converter 24, respectively, and the number of pixels is reduced as a result of the resolution conversion. The area combining section 25 generates a combined image, that is, a new video signal SLR as shown in FIG. 7 (e) from the images of FIGS. 7 (c) and 7 (d).
以上のように本実施形態によると、 原映像信号の符号列を復号化するとともに、 符号列の符号化パラメータを抽出する。 そして、 この符号化パラメータから原映 像信号の特性を判断し、 この特性に応じた解像度変換方法によって、 原映像信号 を新映像信号に変換する。 これにより、 解像度変換のための動きベク トル計算等 の処理を大幅に削減することができる。 また、 符号化パラメ一夕から、 原映像信 号の画像の静止領域と動領域とを判別し、 静止領域と動領域とで異なる方法によ つて解像度変換を行うので、 非常に少ない処理量で、 高画質の新映像信号を得る ことができる。  As described above, according to the present embodiment, the code string of the original video signal is decoded, and the coding parameter of the code string is extracted. Then, the characteristics of the original video signal are determined from the encoding parameters, and the original video signal is converted into a new video signal by a resolution conversion method according to the characteristics. Thereby, processing such as motion vector calculation for resolution conversion can be significantly reduced. Also, since the still and moving areas of the image of the original video signal are discriminated from the encoding parameters and the resolution is converted by a different method between the still and moving areas, the processing amount is extremely small. A new video signal with high image quality can be obtained.
なお、 本実施形態では、 画像の動き特性を判定するために、 符号化パラメ一夕 P A Rとして動きベク トルや D C T夕イブを用いるものとしたが、 他の符号化パ ラメ一夕を用いることも可能である。 他の符号化パラメ一夕としては例えば、 動 き補償モードがある。 動き補償モードとは、 動き補償をフィールド構造またはフ レーム構造のいずれで行つたかを示すものである。 動き補償モ一ドを本実施形態 の符号化パラメータ P A Rとして用いる場合には、 例えば、 動き補償モードがフ ィールド構造である領域についてはフィ一ルド構造で解像度変換を行い、 また、 動き補償モードがフレーム構造である領域についてはフレーム構造で解像度変換 を行う、 といった用い方をすればよい。 また、 本実施形態では、 静止領域ではフレーム構造で解像度変換をし、 動領域 ではフィ一ルド構造で解像度変換をするものとしたが、 他の解像度変換方法を用 いてもかまわない。 In this embodiment, in order to determine the motion characteristics of an image, the motion vector and the DCT parameter are used as the coding parameter parameter PAR, but other coding parameter parameters may be used. It is possible. Another encoding parameter is, for example, a motion compensation mode. The motion compensation mode indicates whether the motion compensation is performed in the field structure or the frame structure. When the motion compensation mode is used as the encoding parameter PAR of the present embodiment, for example, for a region where the motion compensation mode has the field structure, the resolution conversion is performed in the field structure, and when the motion compensation mode is For a region having a frame structure, resolution conversion may be performed using the frame structure. Further, in the present embodiment, resolution conversion is performed with a frame structure in a still region and resolution conversion is performed with a field structure in a moving region. However, another resolution conversion method may be used.
また、 本実施形態では、 フレーム構造またはフィールド構造で解像度変換を行 う際に、 図 6 ( a ) , ( b ) に示すように、 原映像信号 S H Rの上下 2画素の画 素値から新映像信号 S L Rの画素を生成する場合について説明したが、 これは他 の画素を用いてもよい。  Also, in the present embodiment, when performing the resolution conversion in the frame structure or the field structure, as shown in FIGS. Although the case where the pixel of the signal SLR is generated has been described, other pixels may be used.
また、 本実施形態では、 解像度を 1 / 2にする場合について説明したが、 これ は他の値でもかまわない。  In the present embodiment, the case where the resolution is set to 1/2 is described, but this may be another value.
また、 本実施形態では、 高解像度の原映像信号から低解像度の新映像信号に変 換する場合について説明したが、 これとは逆に、 低解像度の原映像信号から高解 像度の新映像信号に変換する場合であっても、 本実施形態と同様に、 符号化パラ メ一夕を利用することは可能である。  Further, in the present embodiment, a case has been described in which a high-resolution original video signal is converted to a low-resolution new video signal. Conversely, a low-resolution original video signal is converted to a high-resolution new video signal. Even in the case of converting to a signal, it is possible to use the encoding parameters as in the present embodiment.
(第 2の実施形態) (Second embodiment)
図 8は本発明の第 2の実施形態に係る画像処理装置の全体構造を示すプロック 図である。 図 8に示すように、 本実施形態に係る画像処理装置は、 映像復号化器 1 1 0および解像度変換器 1 2 0を備えている。 第 1の解像度としての低解像度 を有する原映像信号の符号列 C Sが入力され、 映像複号化器 1 1 0は入力された 符号列 C Sを原映像信号 S L Rに復号化する。 また複号化とともに、 符号列 C S から動きべクトル M Vを抽出する。 解像度変換器 1 2 0は、 復号化された原映像 信号 S L Rを、 動きベク トル M Vを用いて、 第 2の解像度としての高解像度を有 する新映像信号 S H Rに変換し、 出力する。  FIG. 8 is a block diagram showing the overall structure of the image processing device according to the second embodiment of the present invention. As shown in FIG. 8, the image processing device according to the present embodiment includes a video decoder 110 and a resolution converter 120. The code sequence CS of the original video signal having the low resolution as the first resolution is input, and the video decoder 110 decodes the input code sequence CS into the original video signal SLR. At the same time as decoding, the motion vector MV is extracted from the code sequence C S. The resolution converter 120 converts the decoded original video signal SLR into a new video signal SHR having a high resolution as the second resolution using the motion vector MV, and outputs the new video signal SHR.
ここでは、 原映像信号 S L Rはインタ一レース信号 (飛越し走査信号) であり、 新映像信号 S H Rはプログレッシブ信号 (順次走査信号) であるものとする。 映像復号化器 1 1 0は、 第 1 の実施形態に係る映像復号化器 1 0と基本的には 同様の構成からなり、 動きべク トル M Vを出力する点のみが異なるだけであるの で、 ここでは詳細な説明は割愛する。 Here, the original video signal SLR is an interlace signal (interlaced scanning signal), and the new video signal SHR is a progressive signal (sequential scanning signal). The video decoder 110 is basically the same as the video decoder 110 according to the first embodiment. Since it has the same configuration and differs only in that it outputs the motion vector MV, a detailed description is omitted here.
図 9は解像度変換器 1 2 0の内部構成を示すプロック図である。 図 9に示すよ うに、 解像度変換器 1 2 0は、 領域分割部 1 2 1、 準静止領域解像度変換部 1 2 3、 動領域解像度変換部 1 2 4、 領域合成部 1 2 5およびフレームメモリ 1 2 7 を備えている。 また、 領域分割部 1 2 1は、 動きべク トル検出部 1 2 1 a、 動き 判定部 1 2 1 b、 および画像分割部 1 2 1 cを有している。  FIG. 9 is a block diagram showing the internal configuration of the resolution converter 120. As shown in FIG. 9, the resolution converter 120 is composed of an area dividing section 121, a quasi-static area resolution converting section 123, a moving area resolution converting section 124, an area synthesizing section 125, and a frame memory. 1 2 7 is provided. Further, the region dividing unit 121 has a motion vector detecting unit 121 a, a motion determining unit 121 b, and an image dividing unit 121 c.
フレームメモリ 1 2 7は、 入力された原映像信号 S L Rを蓄積する。 動きべク トル検出部 1 2 1 aは、 映像復号化器 1 1 0から出力された動きベクトル M Vと、 原映像信号 S L Rの現フィ一ルドおよびフレームメモリ 1 2 7に蓄積された過去 のフィ一ルドとを用いて、 現フィ一ルドと時間的に近傍なフィ一ルドとの間の, 動きべクトル M Vと向きが類似した画素単位の動きべク トル M Vひを検出する。 図 1 0を用いて、 動きべク トル検出部 1 2 1 aの動作を説明する。 図 1 0は原 映像信号 S L Rの 3枚のフレーム n, n + 1 , n + 2の画素を模式的に示す図で ある。 図 1 0において、 "〇" は各フレームの第 1 フィールドに属する画素、 " X " は各フレームの第 2フィ一ルドに属する画素である。  The frame memory 127 stores the input original video signal SLR. The motion vector detection unit 12 21 a includes a motion vector MV output from the video decoder 110, a current field of the original video signal SLR, and a past field stored in the frame memory 127. Using this field, a motion vector MV in pixel units having a direction similar to that of the motion vector MV between the current field and a temporally neighboring field is detected. The operation of the motion vector detection unit 121a will be described with reference to FIG. FIG. 10 is a diagram schematically showing pixels of three frames n, n + 1, and n + 2 of the original video signal SLR. In FIG. 10, “〇” denotes a pixel belonging to the first field of each frame, and “X” denotes a pixel belonging to the second field of each frame.
いま、 フレーム n + 2の第 1フィールドを、 解像度が 2倍のプログレッシブ (順次走査) 画像に変換するものとする。 そして、 図 1 0に示す画素 D ( "△ " ) を生成する場合について説明する。  Now, suppose that the first field of frame n + 2 is to be converted into a progressive image having twice the resolution. Then, a case where the pixel D (“△”) shown in FIG. 10 is generated will be described.
この場合、 まず映像複号化器 1 1 0から出力された動きベクトル M Vのうち、 生成すべき画素 Dを含む領域 Gの動きベクトル Aを用いる。 いま、 動きベク トル Aは、 フレーム nの第 1 フィ一ルドの領域 Fを始点とする動きべク トルである。 そして、 画素 Dについて、 近傍フィールドすなわちフレーム n + 1の第 2フィ一 ルドからの動きべクトルのうち、 動きべクトル Aと向きが同一の動きべクトル E を得る。  In this case, among the motion vectors M V output from the video decoder 110, the motion vector A of the area G including the pixel D to be generated is used. Now, the motion vector A is a motion vector starting from the area F of the first field of the frame n. Then, for the pixel D, the motion vector E having the same direction as the motion vector A is obtained from the motion vectors from the neighboring field, that is, the second field of the frame n + 1.
そして、 フレーム n + 2の第 1 フィールドにおける画素 Dの近傍の画素と、 フ レーム n + 1の第 2フィ一ルドにおける画素等を用いて、 動きべク トル Eと向き が類似した動きべク トルの中から、 画素 Dの近傍の画素の正確な動きべク トル B を求める。 すなわち、 画素 Dは、 フレーム n + 1の第 2フィールドにおける画素 Cが動きべク トル Bだけ移動したもの、 と考えることができる。 Then, the pixel near the pixel D in the first field of the frame n + 2 and the pixel Using the pixels in the second field of frame n + 1, among the motion vectors whose directions are similar to the motion vector E, the correct motion vector B of the pixel near the pixel D is calculated. Ask. That is, pixel D can be considered to be pixel C in the second field of frame n + 1, which has been moved by motion vector B.
動きべク トル検出部 1 2 1 aは、 このようにして求めた動きべク トル Bを画素 単位の動きべク トル M Vひとして、 動き判定部 1 2 1 bに出力する。  The motion vector detection unit 121 a outputs the motion vector B obtained in this way to the motion determination unit 122 b as a motion vector M V in pixel units.
動き判定部 1 2 1 bは、 動きべク トル検出部 1 2 1 aから入力された動きべク トル M V aを用いて、 準静止領域と動領域との判別を行う。 ここでは、 動きべク トル検出部 1 2 1 aにおいて画素単位の動きべク トル M Vひが見つからなかった 画素については動領域に属すると判定し、 画素単位の動きべク トル M Vひが見つ かった画素については、 準静止領域に属すると判定する。 動き判定部 1 2 1 bは このように動き判定を行い、 その結果を画像分割部 1 2 1 cに送る。  The motion determining unit 122b uses the motion vector MVa input from the motion vector detecting unit 122a to determine the quasi-stationary region and the moving region. In this case, a pixel for which no motion vector MV is found in the pixel unit in the motion vector detection unit 122a is determined to belong to the motion region, and the motion vector MV line in the pixel unit is found. The determined pixel belongs to the quasi-static region. The motion judging unit 121b performs the motion judgment in this way, and sends the result to the image dividing unit 122c.
ここで、 「準静止領域」 とは、 画像としては動きがあるが、 画素単位の動きべ ク トル M Vひを用いて動き量だけ画像をずらすことによって、 あたかも静止画像 と見なすことができる領域のことをいう。  Here, the term “quasi-static region” refers to a region that has motion as an image, but can be regarded as a still image by shifting the image by the amount of motion using the pixel-based motion vector MV. That means.
画像分割部 1 2 1 cは、 動き判定部 1 2 1 bから得た動き判定の結果を基にし て、 フレーム画像を、 準静止領域と動領域とに分割する。 準静止領域に区分され た映像データは準静止領域解像度変換部 1 2 3に入力され、 動領域に区分された 映像データは動領域解像度変換部 1 2 4に入力される。 準静止領域解像度変換部 1 2 3および動領域解像度変換部 1 2 4は、 入力された映像データについて、 そ れそれの方法によって、 解像度変換を行う。  The image dividing unit 122c divides the frame image into a quasi-stationary region and a moving region based on the result of the motion determination obtained from the motion determining unit 122b. The video data segmented into the quasi-stationary region is input to the quasi-stationary region resolution converter 123, and the video data segmented into the moving region is input to the moving region resolution converter 124. The quasi-stationary area resolution conversion section 123 and the moving area resolution conversion section 124 perform resolution conversion on the input video data by the respective methods.
準静止領域解像度変換部 1 2 3における解像度変換を、 図 1 0を用いて説明す る。 準静止領域解像度変換部 1 2 3は、 原映像信号 S L R、 領域分割部 1 2 1か ら出力された動領域画像、 および動きべク トル検出部 1 2 1 aから出力された画 素単位の動きベク トル M Vひを用いて、 解像度変換を行う。  The resolution conversion in the quasi-static region resolution conversion unit 123 will be described with reference to FIG. The quasi-stationary area resolution conversion unit 123 converts the original video signal SLR, the moving region image output from the region division unit 121, and the pixel unit output from the motion vector detection unit 122a. The resolution conversion is performed using the motion vector MV.
例えば、 フレーム n + 2の第 1 フィールドについて解像度変換を行う場合、 画 素 Dの近傍の画素単位の動きべク トル M Vひとして動きべク トル Bが検出された ので、 フレームメモリ 1 2 7からフレーム n + 1の第 2フィ一ルドの画素 Cを取 得し、 その画素値を画素 Dの画素値として用いる。 同様に、 他の補間位置にある 画素も、 動きべク トル検出部 1 2 1 aによって検出された画素単位の動きべク ト ル M Vひを利用して生成し、 これにより、 高解像度映像信号を生成する。 For example, when performing resolution conversion for the first field of frame n + 2, Since the motion vector B is detected as the motion vector MV in pixel units near the element D, the pixel C of the second field of the frame n + 1 is obtained from the frame memory 127. The pixel value is used as the pixel value of the pixel D. Similarly, pixels at other interpolation positions are also generated by using the motion vector MV per pixel detected by the motion vector detection unit 121a, thereby obtaining a high-resolution video signal. Generate
図 1 1 を用いて、 動領域解像度変換部 1 2 4における解像度変換について説明 する。 図 1 1において、 "〇" は低解像度映像信号における画素、 " X " は高解 像度映像信号において補間によって生成された画素である。 図 1 1 に示すように、 動領域解像度変換部 1 2 4は、 低解像度映像信号のフィールド内の画素から高解 像度映像信号を補間によって生成する。 例えば、 高解像度映像信号における画素 Cの画素値は、 低解像度映像信号における画素 Aと同じ値であり、 高解像度映像 信号における画素 Dの画素値は、 低解像度映像信号における画素 Aおよび画素 B から生成される。  The resolution conversion in the moving area resolution conversion unit 124 will be described with reference to FIG. In FIG. 11, “〇” indicates a pixel in a low-resolution video signal, and “X” indicates a pixel generated by interpolation in a high-resolution video signal. As shown in FIG. 11, the moving area resolution conversion unit 124 generates a high-resolution video signal from pixels in a field of the low-resolution video signal by interpolation. For example, the pixel value of pixel C in the high-resolution video signal is the same value as pixel A in the low-resolution video signal, and the pixel value of pixel D in the high-resolution video signal is calculated from pixel A and pixel B in the low-resolution video signal. Generated.
準静止領域解像度変換部 1 2 3および動領域解像度変換部 1 2 4によって生成 された映像信号は、 領域合成部 1 2 5に入力される。 領域合成部 1 2 5は入力さ れた映像信号を合成し、 新映像信号 S H Rとして出力する。  The video signal generated by the quasi-static region resolution conversion unit 123 and the moving region resolution conversion unit 124 is input to the region synthesis unit 125. The area synthesizing unit 125 synthesizes the input video signals and outputs them as a new video signal SHR.
なお、 本実施形態では、 原映像信号 S L Rの符号列 C Sから得られた動きべク トル M Vを用いて、 画素単位の動きべク トル M Vひを再計算する動きべク トル検 出部 1 2 1 aを設けたが、 得られた動きベク トル M Vの値をそのまま用いて領域 分割を行ってもかまわない。  In the present embodiment, the motion vector detection unit 12 recalculates the motion vector MV for each pixel using the motion vector MV obtained from the code sequence CS of the original video signal SLR. Although 1a is provided, the segmentation may be performed using the obtained value of the motion vector MV as it is.
図 1 2はこのような場合の解像度変換器 1 2 0 Aの構成を示す図である。 図 1 2では、 領域分割部 1 2 2は、 動きベク トル M Vから直接動き判定を行う動き判 定部 1 2 2 aと、 画像分割部 1 2 2 bとを有している。 この場合には例えば、 動 きべク トル M Vの絶対値が所定のしきい値よりも小さいときは準静止領域と判断 し、 所定のしきい値よりも大きいときは動領域と判断して、 領域分割を行えばよ い。 また、 動きベク トル M Vが極端に大きい場合のみ、 動領域と判断してもよい。 さらには、 すべての領域を準静止領域とみなし、 動きベクトル M Vの値をそのま ま用いて、 解像度変換を行ってもかまわない。 FIG. 12 is a diagram showing the configuration of the resolution converter 120 A in such a case. In FIG. 12, the area dividing unit 122 includes a motion determining unit 122 a that directly performs motion determination from the motion vector MV, and an image dividing unit 122 b. In this case, for example, when the absolute value of the motion vector MV is smaller than a predetermined threshold, it is determined to be a quasi-static region, and when it is larger than the predetermined threshold, it is determined to be a moving region. What is necessary is just to perform area division. Also, only when the motion vector MV is extremely large, it may be determined to be a motion region. Furthermore, all regions may be regarded as quasi-stationary regions, and resolution conversion may be performed using the value of the motion vector MV as it is.
以上のように本実施形態によると、 原映像信号の符号列を復号化するとともに、 符号列から動きベクトルを抽出する。 そして、 抽出した動きベク トルを用いて、 解像度変換により新映像信号を生成する。 これにより、 解像度変換のための動き ベク トル計算等の処理を、 大幅に削減することができる。 また、 動きベクトルか ら、 原映像信号の画像の準静止領域と動領域とを判別し、 準静止領域において動 きべク トルを用いた解像度変換を行うので、 準静止領域における解像度変換のた めの動きベクトル計算等の処理量を大幅に削減することができる。 さらに、 準静 止領域と動領域とで異なる方法によって解像度変換を行うので、 非常に少ない処 理量で、 高画質の新映像信号を得ることができる。  As described above, according to the present embodiment, a code sequence of an original video signal is decoded, and a motion vector is extracted from the code sequence. Then, a new video signal is generated by resolution conversion using the extracted motion vector. As a result, processing such as motion vector calculation for resolution conversion can be significantly reduced. Also, the quasi-static region and the moving region of the image of the original video signal are determined from the motion vector, and the resolution conversion using the motion vector is performed in the quasi-static region. Therefore, the amount of processing such as motion vector calculation can be greatly reduced. Furthermore, since resolution conversion is performed by a different method between the quasi-static region and the moving region, a new video signal of high image quality can be obtained with a very small amount of processing.
なお、 本実施形態では、 低解像度の原映像信号から高解像度の新映像信号に変 換する場合について説明したが、 これとは逆に、 高解像度の原映像信号から低解 像度の新映像信号に変換する場合であっても、 本実施形態と同様に、 動きべクト ルを利用することは可能である。  In the present embodiment, a case has been described in which a low-resolution original video signal is converted to a new high-resolution video signal. Conversely, a high-resolution original video signal is converted to a low-resolution new video signal. Even in the case of converting to a signal, it is possible to use a motion vector as in the present embodiment.
また、 本実施形態では、 動きべク トル部 1 2 1 aは過去のフィ一ルドとの動き べク トルを求めるものとし、 準静止領域解像度変換部 1 2 3は過去のフィールド の画素から補間画素を生成するものとしたが、 これは未来のフィールドとの動き ベタ トルを求め、 未来のフィ一ルドの画素から補間画素を生成するようにしても かまわない。  Further, in the present embodiment, the motion vector unit 121 a calculates the motion vector with the past field, and the quasi-static region resolution conversion unit 123 interpolates from the pixels of the past field. The pixels are generated, but this may be such that a motion vector with a future field is obtained, and an interpolation pixel is generated from a pixel in a future field.
また、 本実施形態では、 動領域解像度変換部 1 2 4は、 図 1 1に示すように補 間画素を生成して解像度変換を行うものとしたが、 他の解像度変換方法を用いて もかまわない。  Further, in the present embodiment, the moving area resolution conversion unit 124 generates the interpolated pixels and performs the resolution conversion as shown in FIG. 11, but other resolution conversion methods may be used. Absent.
また、 本実施形態では、 準静止領域解像度変換部 1 2 3は過去の最近傍のフィ 一ルドの画素から、 補間画素を生成するものとしたが、 数フィールド離れたフィ —ルドの画素から補間画素を生成してもよい。 (第 3の実施形態) In the present embodiment, the quasi-static region resolution conversion unit 123 generates the interpolation pixel from the pixel of the past nearest field, but the interpolation is performed from the pixel of the field a few fields away. Pixels may be generated. (Third embodiment)
図 1 3は本発明の第 3の実施形態に係る画像処理装置の全体構成を示すプロッ ク図である。 図 1 3に示すように、 本実施形態に係る画像処理装置は、 映像復号 化器 2 1 0、 解像度変換器 2 2 0、 映像符号化器 2 30および符号化パラメータ 変換器 24 0を備えている。  FIG. 13 is a block diagram showing the overall configuration of the image processing apparatus according to the third embodiment of the present invention. As shown in FIG. 13, the image processing device according to the present embodiment includes a video decoder 210, a resolution converter 220, a video encoder 230, and an encoding parameter converter 240. I have.
第 1の解像度としての高解像度を有する原映像信号の符号列である第 1の符号 列 C S Aが入力され、 映像復号化器 2 1 0は、 入力された第 1.の符号列 C S Aを 原映像信号 S HRに復号化する。 また復号化とともに、 第 1の符号列 C SAの符 号化パラメータ PARAを抽出する。 解像度変換器 2 2 0は、 原映像信号 SHR を新映像信号 S L Rに変換する。 符号化パラメータ変換器 240は、 映像復号化 器 2 1 0から出力された第 1の符号化パラメータ PARAを低解像度映像用に変 換し、 第 2の符号化パラメ一夕 P ARBとして出力する。 映像符号化器 230は、 新映像信号 S LRを第 2の符号化パラメータ PAR Bを用いて符号化し、 第 2の 符号列 C S Bとして出力する。  A first code sequence CSA, which is a code sequence of an original video signal having a high resolution as the first resolution, is input, and the video decoder 210 converts the input first code sequence CSA into the original video. Decode into signal SHR. At the same time as decoding, the coding parameter PARA of the first code string CSA is extracted. The resolution converter 220 converts the original video signal SHR into a new video signal SLR. The encoding parameter converter 240 converts the first encoding parameter PARA output from the video decoder 210 for low-resolution video, and outputs it as a second encoding parameter PARB. The video encoder 230 encodes the new video signal SLR using the second encoding parameter PAR B, and outputs it as a second code string CSB.
ここでは、 第 1の符号列 C SAは、 MP E G 2方式によって符号化されている ものとする。 したがって、 映像復号化器 2 1 0は MP E G 2方式の復号化器であ る。 映像復号化器 2 1 0の構成および動作は、 第 1の実施形態に係る映像復号化 器 1 0と同様であるので、 ここではその詳細な説明を割愛する。  Here, it is assumed that the first code string CSA is coded by the MPEG2 method. Therefore, the video decoder 210 is a MPEG2 decoder. The configuration and operation of the video decoder 210 are the same as those of the video decoder 10 according to the first embodiment, and a detailed description thereof will be omitted.
解像度変換器 2 2 0は、 映像復号化器 2 1 0によって復号化された原映像信号 SHRを新映像信号 S LRに変換する。 ここでは、 解像度変換器 2 2 0は垂直方 向および水平方向ともに、 画素数を 1 /2にするものとする。  The resolution converter 220 converts the original video signal SHR decoded by the video decoder 210 into a new video signal SLR. Here, it is assumed that the number of pixels of the resolution converter 220 is 1/2 in both the vertical and horizontal directions.
次に図 1 4を用いて、 符号化パラメ一夕変換器 240の動作について説明する c 符号化パラメータ変換器 240は、 原映像信号 SHR用の第 1の符号化パラメ一 夕 PAR Aを新映像信号 S LR用の第 2の符号化パラメータ P A R Bに変換する c いま、 図 1 4 (a) に示すように、 原映像信号 S H Rのフレーム画像は、 垂直方 向および水平方向ともに画素数が 1/2の新映像信号 S LRのフレーム画像に変 換される。 Next, the operation of the coding parameter converter 240 will be described with reference to FIG. 14.The c coding parameter converter 240 converts the first coding parameter PAR A for the original video signal SHR into a new video. now c for converting the second encoding parameter PARB for signal S LR, as shown in FIG. 1 4 (a), frame image of the original image signal SHR is vertical way It is converted to a frame image of the new video signal SLR with half the number of pixels in both the horizontal and horizontal directions.
まず、 変換を行う符号化パラメータが動きベク トルである場合について、 図 1 4 (b) を用いて説明する。 図 14 (b) では、 フレーム画像がマクロプロック 単位に分割して示されている。 図 1 4 (b) に示すように、 原映像信号 S HRに おける第 1の領域としてのマクロブロック MB H 1 , MB H 2 , MB H 3 , MB H 4の領域は、 解像度変換によって、 新映像信号 S LRにおける第 2の領域とし てのマクロブロック MB Lの領域に縮小される。 ここで、 新映像信号 S LRにお けるマクロブロック MB Lの動きべク トル MVLは、 原映像信号 SHRにおける 各マクロブロック MBH iの動きべク トル MVH iの加重平均によって得られる ものとする。 すなわち、 動きベク トル MVLは式 ( 1 ) によって求めることがで きる。  First, the case where the coding parameter to be transformed is a motion vector will be described with reference to FIG. 14 (b). In FIG. 14 (b), the frame image is shown divided into macroblock units. As shown in Fig. 14 (b), the areas of macroblocks MBH1, MBH2, MBH3, and MBH4 as the first area in the original video signal SHR are converted into new areas by resolution conversion. The area is reduced to the area of the macro block MBL as the second area in the video signal SLR. Here, it is assumed that the motion vector MVL of the macroblock MBL in the new video signal SLR is obtained by a weighted average of the motion vector MVHi of each macroblock MBHi in the original video signal SHR. That is, the motion vector MVL can be obtained by equation (1).
N N
M V L = {∑ (C i xMVH i) } x - ( 1 ) M V L = {∑ (C i xMVH i)} x-(1)
i=l  i = l
ここで、 C iは次式 (2) を満たす重み係数である。 Here, C i is a weight coefficient satisfying the following equation (2).
N  N
∑ C i = 1 - ( 2 )  ∑ C i = 1-(2)
i =l  i = l
Nは、 新映像信号 S LRにおけるマクロブロック MB Lの動きベク トル MVLを 求めるための原映像信号 S HRのマクロブロック数であり、 ここでは 「4」 であ る。 また、 ひは、 原映像信号と新映像信号との画面サイズの画素数の比であり、 一般には、 水平方向と垂直方向とにおいて、 互いに異なる値となる。  N is the number of macroblocks of the original video signal SHR for obtaining the motion vector MVL of the macroblock MBL in the new video signal SLR, and is “4” here. Also, "hi" is a ratio of the number of pixels of the screen size between the original video signal and the new video signal, and generally has different values in the horizontal direction and the vertical direction.
ここで、 解像度変換の前後の画素数の比が 1 /2 , 1/4のような場合には、 変換後のマクロプロックの境界が変換前のマクロプロヅクの境界に一致するため、 重み係数 C iの値は均等でよい。 ところが、 画素数の比が 1/3, 2/5のよう な場合には、 変換後のマクロブロックの境界は変換前のマクロプロックの境界と は一致しないので、 重み係数 C iの値によって、 各変換前のマクロブロックの重 み付けを変える必要がある。 Here, when the ratio of the number of pixels before and after the resolution conversion is 1/2, 1/4, the boundary of the macroblock after the conversion matches the boundary of the macroblock before the conversion, so that the weight coefficient C i May be equal. However, the ratio of the number of pixels is 1/3, 2/5 In such a case, since the boundaries of the converted macroblocks do not match the boundaries of the macroblock before the conversion, it is necessary to change the weights of the macroblocks before the conversion depending on the value of the weight coefficient C i.
次に、 変換を行う符号化パラメ一夕が直交変換タイプとしての D C Tタイプで ある場合について、 図 1 4 ( c ) を用いて説明する。 図 1 4 ( c ) では、 フレー ム画像がブロック単位に分割して示されている。 図 1 4 ( c ) に示すように、 原 映像信号における第 1の領域としてのブロック B H 1, B H 2 , BH 3 , BH4 の領域は、 解像度変換によって、 新映像信号における第 2の^域としてのブロヅ ク B Lの領域に縮小される。 ここで、 新映像信号におけるブロック B Lの D C T タィブは、 原映像信号におけるプロヅク BH 1〜; BH4の D C Tタイブを用いて 求められる。 例えば、 ブロック BH 1〜: BH 4の D C T夕ィブが全てフレーム構 造であるときは、 ブロック B Lの D C Tタイプをフレーム構造とし、 ブロック B H I〜; BH 4の D CTタイプのうち少なく とも 1つがフィ一ルド構造であるとき は、 ブロック B Lの D CTタイプをフィールド構造とする。 あるいは、 元のプロ ヅクの D C T夕イブのうち、 多い方を、 変換後のブロックの D C Tタイプとして もよい。  Next, a case where the encoding parameter to be transformed is a DCT type as an orthogonal transformation type will be described with reference to FIG. 14 (c). In FIG. 14 (c), the frame image is shown divided into blocks. As shown in FIG. 14 (c), the areas of the blocks BH1, BH2, BH3, and BH4 as the first areas in the original video signal are converted into the second areas in the new video signal by the resolution conversion. Is reduced to the area of the block BL. Here, the DCT type of the block BL in the new video signal is obtained using the DCT type of the blocks BH1 to BH4 in the original video signal. For example, if all DCTs of blocks BH1 to BH4 have a frame structure, the DCT type of block BL has a frame structure, and at least one of the DCT types of blocks BHI to BH4 has a frame structure. If the field structure is used, the DCT type of block BL is used as the field structure. Alternatively, the larger one of the DCTs of the original block may be set as the DCT type of the converted block.
このように、 符号化パラメータ変換器 240は、 原映像信号 S HR用の第 1の 符号化パラメ一夕 PAR Aを、 新映像信号 S L R用の第 2の符号化パラメ一夕 P ARBに変換する。  As described above, the encoding parameter converter 240 converts the first encoding parameter PAR A for the original video signal S HR into the second encoding parameter PAR A for the new video signal SLR. .
図 1 5は映像符号化器 230の内部構成を示すプロック図である。 図 1 5の映 像符号化器 2 3 0は、 基本的には通常の MP E G符号化器と同様の構成であるが、 第 2の符号化パラメータ P ARBとして動きべク トルが与えられるため、 動き検 出部が省かれており、 また第 2の符号化パラメータ P AR Bとして D C T夕イブ が与えられるため、 分散計算等によって D C Tタイブを決定する手段が D C T演 算部 2 3 3から省かれている。  FIG. 15 is a block diagram showing the internal configuration of the video encoder 230. The video encoder 230 in FIG. 15 has basically the same configuration as a normal MPEG encoder, but because a motion vector is given as the second encoding parameter PARB. However, since the motion detection unit is omitted and the DCT parameter is given as the second encoding parameter PARB, the means for determining the DCT type by dispersion calculation or the like is omitted from the DCT calculation unit 23. Has been.
ここでは、 映像符号化器 2 3 0は、 新映像信号 S L Rを MP E G 2方式によつ て符号化するものとする。 また、 フレーム間符号化を行うものとする。 Here, the video encoder 230 transmits the new video signal SLR in the MPEG2 format. Encoding. It is assumed that inter-frame coding is performed.
映像符号化器 2 3 0に入力された新映像信号 S L Rは、 まずブロック化部 2 3 1によって ( 1 6 x 1 6 ) 画素のマクロブロックに分割され、 マクロブロック順 に、 動き補償部 2 3 2に入力される。 動き補償部 2 3 2は、 入力されたマクロブ 口ックに対し、 符号化パラメ一夕変換器 240から得られた第 2の符号化パラメ —夕 P ARBに含まれた動きベク トルを用いて、 動き補償を行う。 すなわち、 動 き補償部 2 32は、 動きベク トルを用いてフレームメモリ 2 3 8から参照マクロ ブロックを読み出し、 その参照マクロブロックと入力マクロブロックとの差分を 取ることによって、 動き補償を行う。 得られた差分マクロブロックは、 D C T演 算部 2 3 3に入力される。  First, the new video signal SLR input to the video encoder 230 is divided into macroblocks of (16 x 16) pixels by the blocking unit 231 and the motion compensation unit 231 is arranged in the order of the macroblocks. Entered in 2. The motion compensation unit 2 32 uses the motion vector included in the second encoded parameter obtained from the encoded parameter overnight converter 240 for the input macroblock, Perform motion compensation. That is, the motion compensating unit 232 performs motion compensation by reading a reference macroblock from the frame memory 238 using a motion vector and obtaining a difference between the reference macroblock and the input macroblock. The obtained difference macroblock is input to the DCT calculation unit 233.
0〇丁演算部2 3 3は、 差分マクロブロックを ( 8 x 8) 画毎に D C T係数に 変換する。 このとき、 符号化パラメータ変換器 240から得られた第 2の符号化 パラメ一タ PARBに含まれた D C T夕イブに応じて、 D C T演算を行う。 得ら れた D C T係数は量子化部 2 34に出力され、 量子化部 2 34は D C T係数に対 し、 量子化処理を行う。 可変長符号化部 2 3 5は量子化部 2 34の出力に対し、 可変長符号化処理を行い、 その結果を第 2の符号列 C SBとして出力する。 また、 量子化部 2 34の出力は、 逆量子化部 2 3 6および逆 D C T演算部 2 3 7によって復号化され、 フレームメモリ 2 38から読み出された参照マクロプロ ックと加算器 2 39によって加算され、 フレームメモリ 23 8に蓄積される。 蓄 積されたデータは、 以降のフレームの符号化において、 参照画像として用いられ る。  The 0-th arithmetic unit 2 33 converts the difference macroblock into DCT coefficients for each (8 × 8) picture. At this time, a DCT operation is performed in accordance with the DCT parameter included in the second encoding parameter PARB obtained from the encoding parameter converter 240. The obtained DCT coefficient is output to the quantization section 234, and the quantization section 234 performs a quantization process on the DCT coefficient. The variable-length coding unit 235 performs variable-length coding on the output of the quantization unit 234, and outputs the result as a second code string CSB. The output of the quantization unit 234 is decoded by the inverse quantization unit 236 and the inverse DCT operation unit 237, and the reference macro block read from the frame memory 238 and the adder 239 are output. And is stored in the frame memory 238. The stored data is used as a reference image in subsequent frame encoding.
以上のように本実施形態によると、 原映像信号の第 1の符号列を復号化し、 復 号化した原映像信号を解像度変換によって新映像信号に変換する。 また、 複号化 とともに、 第 1の符号列から、 動きベク トルや D C Tタイプなどの第 1の符号化 パラメ一夕を抽出する。 そして、 第 1の符号化パラメータを新映像信号用の第 2 の符号化パラメ一夕に変換し、 この第 2の符号化パラメータを用いて新映像信号 を第 2の符号列に変換する。 これにより、 新映像信号の符号化時に符号化パラメ —夕を求める必要がなくなり、 処理量を大きく削減することができる。 特に符号 化パラメータとして動きべク トルを用いた場合には、 処理量の削減量が非常に大 きくなる。 As described above, according to the present embodiment, the first code string of the original video signal is decoded, and the decoded original video signal is converted into a new video signal by resolution conversion. In addition, together with the decoding, the first encoding parameters such as the motion vector and the DCT type are extracted from the first code string. Then, the first encoding parameter is converted into a second encoding parameter for the new video signal, and the new video signal is converted using the second encoding parameter. Into a second code string. This eliminates the need to determine the encoding parameters when encoding a new video signal, and can greatly reduce the processing amount. In particular, when a motion vector is used as a coding parameter, the amount of reduction in the amount of processing becomes very large.
なお、 本実施形態では、 変換を行う符号化パラメ一夕として動きベク トルおよ び D C Tタイプについて説明したが、 例えば動き補償モ一ド等のような他の符号 化パラメ一夕についても、 同様に実現可能である。  In this embodiment, the motion vector and the DCT type have been described as the encoding parameters for performing the transform. However, the same applies to other encoding parameters such as the motion compensation mode. It is feasible.
また、 本実施形態に係る符号化パラメータ変換の方法は一例であり、 他の方法 を用いて変換を行ってもよい。 本実施形態では、 新映像信号の所定領域 (マクロ ブロックまたはブロック) の符号化パラメ一夕を、 この所定領域に対応する原映 像信号の領域の符号化パラメータのみを用いて求めるものとしたが、 例えば、 所 定領域に対応する原映像信号の領域だけでなく、 その周囲の領域について符号化 パラメータを用いてもかまわない。  Also, the method of encoding parameter conversion according to the present embodiment is an example, and the conversion may be performed using another method. In the present embodiment, the coding parameters of a predetermined area (macroblock or block) of the new video signal are determined using only the coding parameters of the area of the original video signal corresponding to the predetermined area. For example, coding parameters may be used not only for the original video signal area corresponding to the predetermined area but also for the surrounding area.
また、 本実施形態では、 動きベク トルの変換を、 所定の演算として加重平均を 用いて行うものとしたが、 これ以外の方法としては、 動きベク トル成分の中央値 を選択する方法や、 小さい動きベク トルは無視する方法や、 予測誤差により重み 付けを行う方法等が考えられる。  Further, in the present embodiment, the motion vector conversion is performed using a weighted average as a predetermined operation. However, as another method, a method of selecting the median of the motion vector component, A method of ignoring the motion vector or a method of weighting based on the prediction error can be considered.
また、 本実施形態では、 変換前と変換後とでマクロブロックの境界が一致する 場合には、 重み係数 C iを均等にするとして説明したが、 これは必ずしも均等で なくてもよい。  Further, in the present embodiment, when the boundaries of the macroblocks before and after the conversion match, the weighting coefficient C i is described as being equal, but this is not necessarily the case.
また、 本実施形態では、 高解像度の原映像信号から低解像度の新映像信号に変 換する場合について説明したが、 これとは逆に、 低解像度の原映像信号から高解 像度の新映像信号に変換する場合であっても、 本実施形態と同様に、 符号化パラ メ一夕の変換を行うことは可能である  Further, in the present embodiment, a case has been described in which a high-resolution original video signal is converted to a low-resolution new video signal. Conversely, a low-resolution original video signal is converted to a high-resolution new video signal. Even in the case of converting to a signal, it is possible to perform conversion of the entire encoding parameter as in the present embodiment.
(第 4の実施形態) 図 1 6は本発明の第 4の実施形態に係る画像処理装置の全体構成を示すプロッ ク図である。 図 1 6に示すように、 本実施形態に係る画像処理装置は、 映像復号 化器 3 1 0、 解像度変換器 3 2 0、 映像符号化器 330および動き補償設定器 3 40を備えている。 (Fourth embodiment) FIG. 16 is a block diagram showing an overall configuration of an image processing apparatus according to the fourth embodiment of the present invention. As shown in FIG. 16, the image processing apparatus according to the present embodiment includes a video decoder 310, a resolution converter 320, a video encoder 330, and a motion compensation setting unit 340.
第 1の解像度としての高解像度を有する原映像信号の符号列である第 1の符号 列 C S Aが入力され、 映像復号化器 3 1 0は、 入力された第 1の符号列 C S Aを 原映像信号 SHRに復号化する。 また復号化とともに、 第 1の符号列 C SAから 第 1の動きベクトル MVを抽出する。 解像度変換器 32 0は.、 原映像信号 S HR を、 第 2の解像度しての低解像度を有する新映像信号 S LRに変換する。 また、 動き補償設定器 340は、 映像復号化器 3 1 0から出力された符号列 C S Aの動 きべクトル MVを用いて、 映像符号化器 330における動き補償の動作設定を行 う。 映像符号化器 330は、 動き補償設定器 340から出力された設定情報 S E Tを用いて第 2の動きベクトルを求め、 この第 2の動きべクトルを用いて新映像 信号 S L Rを符号化し、 第 2の符号列 C SBとして出力する。  A first code sequence CSA, which is a code sequence of an original video signal having a high resolution as the first resolution, is input, and the video decoder 310 outputs the input first code sequence CSA to the original video signal. Decrypt to SHR. At the same time as decoding, the first motion vector MV is extracted from the first code string CSA. The resolution converter 320 converts the original video signal S HR into a new video signal S LR having a low resolution as the second resolution. Also, the motion compensation setting unit 340 sets the motion compensation operation in the video encoder 330 using the motion vector MV of the code string C S A output from the video decoder 310. The video encoder 330 obtains a second motion vector using the setting information SET output from the motion compensation setting unit 340, encodes the new video signal SLR using the second motion vector, Is output as a code string CSB.
映像復号化器 3 1 0および解像度変換器 320の構成と動作は、 第 2の実施形 態に係る映像復号化器 1 1 0および解像度変換器 320と同様であるので、 ここ ではその詳細な説明は割愛する。  Since the configurations and operations of the video decoder 310 and the resolution converter 320 are the same as those of the video decoder 110 and the resolution converter 320 according to the second embodiment, a detailed description thereof will be given here. Is omitted.
動き補償設定器 340の動作について説明する。 動き補償設定器 340は、 映 像復号化器 3 1 0によって得られた原映像信号 S HRの動きべクトル MVを入力 とし、 映像符号化器 330における動き補償の設定情報 SE Tを求める。 設定情 報 S E Tとしては、 例えば、 動き補償の初期値すなわち第 2の動きベクトルの初 期値や、 動き補償の範囲すなわち第 2の動きベクトルの探索範囲等が、 決定され る。  The operation of the motion compensation setting device 340 will be described. The motion compensation setting unit 340 receives the motion vector MV of the original video signal SHR obtained by the video decoder 310 as input, and obtains motion compensation setting information SET in the video encoder 330. As the setting information SET, for example, the initial value of the motion compensation, that is, the initial value of the second motion vector, the range of the motion compensation, that is, the search range of the second motion vector, and the like are determined.
まず、 動き補償の設定情報 S E Tとして、 動き補償の初期値を求める場合につ いて、 図 1 4 (b) を用いて説明する。 図 1 4 (b) では、 フレーム画像がマク ロブロック単位に分割して示されている。 図 1 4 (b) に示すように、 原映像信 号におけるマクロブロック MB H 1 , MB H 2 , MB H 3 , MBH4の領域は、 解像度変換によって、 新映像信号におけるマクロプロック MB Lの領域に縮小さ れる。 この場合、 動き補償設定器 340は、 映像符号化器 3 10がマクロプロッ ク MB Lを符号化する際の動き補償の初期値として、 例えば前述の式 ( 1 ) から 得られる動きべクトル MVLを求める。 この動きべクトル MVLを動き補償の設 定情報 S E Tとして出力する。 First, the case where the initial value of the motion compensation is obtained as the motion compensation setting information SET will be described with reference to FIG. 14 (b). In Fig. 14 (b), the frame image is shown divided into macroblock units. As shown in Fig. 14 (b), the original video signal The area of the macro blocks MB H 1, MB H 2, MB H 3, and MBH 4 in the signal is reduced to the area of the macro block MB L in the new video signal by resolution conversion. In this case, the motion compensation setting unit 340 obtains, for example, a motion vector MVL obtained from the above equation (1) as an initial value of motion compensation when the video encoder 310 encodes the macro block MBL. . The motion vector MVL is output as motion compensation setting information SET.
次に、 動き補償の設定情報 S E Tとして、 動き補償の範囲を決定する場合につ いて、 図 14 (b) を用いて説明する。 この場合、 動き補償器.340は、 マクロ ブロック MBH 1〜MBH4の動きべクトルを用いて、 映像符号化器 330がマ クロブロック MB Lについて動きべクトルを求める際の動き補償の範囲を決定す る。 動き補償の範囲としては、 例えば、 マクロブロック MVH 1〜MVH 4の各 動きベクトルの成分の、 正負それそれ絶対値が最大となる値を、 用いる方法があ る。 または、 マクロブロック MVH 1〜MVH 4の動きベクトルの値の平均値や 分散値を用いる方法がある。  Next, the case where the range of motion compensation is determined as the motion compensation setting information S ET will be described with reference to FIG. 14 (b). In this case, the motion compensator 340 uses the motion vectors of the macroblocks MBH1 to MBH4 to determine the range of motion compensation when the video encoder 330 calculates the motion vector for the macroblock MBL. You. As a range of the motion compensation, for example, there is a method of using a value in which the absolute value of each component of each motion vector of the macroblocks MVH1 to MVH4 is maximum. Alternatively, there is a method using an average value and a variance value of the motion vector values of the macroblocks MVH1 to MVH4.
このように、 動き補償設定器 340は、 原映像信号 SHRの動きベク トル MV を用いて、 動き補償の設定情報 S E Tとして、 新映像信号用の動きベクトルの計 算のための初期値や範囲を決定し、 映像符号化器 330に出力する。  As described above, the motion compensation setting unit 340 uses the motion vector MV of the original video signal SHR to set the initial value and range for calculating the motion vector for the new video signal as the motion compensation setting information SET. Determined and output to video encoder 330.
図 1 7は映像符号化器 33の内部構成を示すブロック図である。 ここでは、 映 像符号化器 330は、 新映像信号 S LRを MPEG 2方式によって符号化するも のとする。 また、 フレーム間符号化を行うものとする。  FIG. 17 is a block diagram showing the internal configuration of the video encoder 33. Here, it is assumed that the video encoder 330 encodes the new video signal SLR according to the MPEG-2 system. It is assumed that inter-frame coding is performed.
映像符号化器 330に入力された新映像信号 S LRは、 まず、 ブロック化部 3 3 1によって ( 1 6 x 1 6) 画素のマクロプロックに分割され、 マクロブロック 順に、 動き補償部 332および動きべクトル計算器 350に入力される。  First, the new video signal S LR input to the video encoder 330 is divided into macroblocks of (16 × 16) pixels by the blocking unit 331, and the motion compensation unit 332 and the motion It is input to the vector calculator 350.
動きベクトル計算器 350は、 入力されたマクロブロックに対し、 動き補償設 定器 340から入力された動き補償の設定情報 SE Tを基にして、 第 2の動きべ クトル MV 2の計算を行う。 このとき、 フレームメモリ 338から参照画像を取 り込む。 The motion vector calculator 350 calculates the second motion vector MV2 for the input macroblock based on the motion compensation setting information SET input from the motion compensation setting device 340. At this time, the reference image is retrieved from the frame memory 338. Embed.
図 1 8を用いて、 動きべクトル計算器 350の動作を説明する。 同図中、 (a) は解像度変換器 320から入力された新映像信号 S LRの符号化対象フレ —ム、 (b) , (c) はフレームメモリ 338から読み出された参照フレームを 示している。 いま、 図 1 8 (a) に示すマクロプロック MB 1に対する動きべク トルを求めるものとする。  The operation of the motion vector calculator 350 will be described with reference to FIG. In the figure, (a) shows a frame to be encoded of the new video signal SLR input from the resolution converter 320, and (b) and (c) show reference frames read from the frame memory 338. I have. Now, it is assumed that the motion vector for the macro block MB 1 shown in FIG. 18 (a) is obtained.
まず、 動き補償の設定情報 S E Tとして、 動き補償の初期値が入力された場合 の動作を図 18 (b) を用いて説明する。 この場合、 動きベクトル計算器 350 は、 第 2の動きベクトル MV 2の初期値として、 動き補償設定器 340によって 得られた初期値 S E Tを用いる。 そして、 マクロブロック MB 1と同一位置のマ クロブロック MB 1ひを始点としたときの動きぺクトル SETの終点近傍を、 第 2の動きべクトル MV 2の探索範囲 S R 1とする。 この探索範囲 S R 1において、 マクロブロック MB 1に対する第 2の動きべクトル MV 2の計算を行う。  First, the operation when the initial value of the motion compensation is input as the motion compensation setting information S E T will be described with reference to FIG. 18 (b). In this case, the motion vector calculator 350 uses the initial value S ET obtained by the motion compensation setting device 340 as the initial value of the second motion vector MV 2. Then, the vicinity of the end point of the motion vector SET when the macroblock MB1 located at the same position as the macroblock MB1 is set as the start point is set as the search range S R1 of the second motion vector MV2. In this search range SR1, calculation of the second motion vector MV2 for the macroblock MB1 is performed.
また、 動き補償の設定情報 S E Tとして、 動き補償の範囲が入力された場合の 動作を図 1 8 (c) を用いて説明する。 この場合、 動きべクトル計算器 350は、 第 2の動きベクトル MV 2を求めるための探索範囲 S R 2として、 動き補償設定 器 340によって得られた範囲 S E Tを用いる。 そして、 この探索範囲 SR 2 (すなわち範囲 SET) において、 マクロブロック MB 1に対する第 2の動きべ クトル MV 2の計算を行う。  The operation when the range of motion compensation is input as the motion compensation setting information S E T will be described with reference to FIG. 18 (c). In this case, the motion vector calculator 350 uses the range S ET obtained by the motion compensation setting device 340 as the search range S R 2 for obtaining the second motion vector MV 2. Then, in the search range SR 2 (that is, the range SET), the second motion vector MV 2 for the macro block MB 1 is calculated.
動き補償部 332は、 入力されたマクロブロックに対し、 動きベクトル計算器 350から得られた第 2の動きべクトル MV 2を用いて動き補償を行う。 すなわ ち、 動き補償部 332は、 第 2の動きベクトル MV 2を用いてフレームメモリ 3 38から参照マクロブロックを読み出し、 その参照マクロブロックと入力マクロ ブロックとの差分を取ることによって、 動き補償を行う。 得られた差分マクロブ ロヅクは、 D C T演算部 333に入力される。  The motion compensator 332 performs motion compensation on the input macroblock using the second motion vector MV2 obtained from the motion vector calculator 350. That is, the motion compensation unit 332 reads the reference macroblock from the frame memory 338 using the second motion vector MV2, and calculates the difference between the reference macroblock and the input macroblock, thereby performing motion compensation. Do. The obtained difference macro block is input to the DCT operation unit 333.
D C T演算部 333、 量子化部 334、 可変長符号化部 335、 逆量子化部 3 3 6、 逆 D C T演算部 3 3 7および加算器 3 3 9の動作は、 第 2の実施形態に係 る動作と同様であるので、 ここでは説明を割愛する。 可変長符号化部 3 3 5から、 第 2の符号列 C S Bが出力される。 DCT calculation section 333, quantization section 334, variable length coding section 335, inverse quantization section 3 36, the operations of the inverse DCT operation unit 337 and the adder 339 are the same as the operations according to the second embodiment, and thus the description is omitted here. The second code string CSB is output from the variable length coding unit 335.
以上のように本実施形態によると、 原映像信号の第 1の符号列を復号化し、 復 号化した原映像信号を解像度変換によって新映像信号に変換する。 また、 復号化 とともに、 原映像信号の符号化に用いた第 1の動きベク トルを抽出する。 そして、 第 1の動きべクトルから、 新映像信号の符号化に用いる第 2の動きべクトルを求 めるための, 動き補償の初期値や範囲などの設定情報を決定し、 この設定情報を 低解像用いて第 2の動きベク トルを検出し、 新映像信号の符号化を行う。 これに より、 従来よりも探索範囲が小さく しぼられるので、 新映像信号の符号化時の動 きベクトルの計算量が大幅に削減される。 また、 動き補償の設定情報は、 原映像 信号の符号化に用いた第 1の動きべクトルから求められるので、 動き補償の精度 は、 高いまま保たれる。  As described above, according to the present embodiment, the first code string of the original video signal is decoded, and the decoded original video signal is converted into a new video signal by resolution conversion. In addition to the decoding, the first motion vector used for encoding the original video signal is extracted. Then, setting information such as an initial value and a range of motion compensation for determining a second motion vector to be used for encoding a new video signal is determined from the first motion vector, and this setting information is determined. The second motion vector is detected using low resolution, and the new video signal is encoded. As a result, the search range is narrower than in the past, and the amount of motion vector calculation when encoding a new video signal is greatly reduced. Further, since the motion compensation setting information is obtained from the first motion vector used for encoding the original video signal, the accuracy of the motion compensation is kept high.
なお、 本実施形態に係る動き補償の設定情報の決定方法は一例であり、 他の方 法を用いてもかまわない。 例えば、 新映像信号の所定のマクロブロックに対応す る原映像信号のマクロブロックだけでなく、 その周囲のマクロプロックの動きべ クトルを、 用いてもかまわない。 また、 本実施形態では、 第 2の動きベクトルの 初期値の決定を、 加重平均を用いて行うものとしたが、 これ以外の方法として、 動きべクトル成分の中央値を選択する方法や、 小さい動きぺクトルは無視する方 法や、 予測誤差により重み付けを行う方法等が考えられる。  Note that the method for determining the motion compensation setting information according to the present embodiment is an example, and another method may be used. For example, not only the macroblock of the original video signal corresponding to the predetermined macroblock of the new video signal, but also the motion vector of the surrounding macroblock may be used. In the present embodiment, the initial value of the second motion vector is determined using the weighted average. However, as another method, a method of selecting the median value of the motion vector component, A method of ignoring the motion vector and a method of weighting based on the prediction error can be considered.
また、 動き補償設定器 3 4 0は、 動き補償の設定情報 S E Tとして、 第 2の動 きぺク トルの初期値および探索範囲の両方を決定するものとしてもよい。  The motion compensation setting unit 340 may determine both the initial value and the search range of the second motion vector as the motion compensation setting information S ET.
また、 本実施形態では、 高解像度の原映像信号から低解像度の新映像信号に変 換する場合について説明したが、 これとは逆に、 低解像度の原映像信号から高解 像度の新映像信号に変換する場合であっても、 本発明と同様に、 動き補償の設定 情報 S E Tを決定することは可能である。 (第 5の実施形態) Further, in the present embodiment, a case has been described in which a high-resolution original video signal is converted to a low-resolution new video signal. Conversely, a low-resolution original video signal is converted to a high-resolution new video signal. Even in the case of conversion into a signal, it is possible to determine the motion compensation setting information SET, as in the present invention. (Fifth embodiment)
図 1 9は本発明の第 5の実施形態に係る画像処理装置の全体構成を示すプロ、ソ ク図である。 図 1 9に示すように、 本実施形態に係る画像符号化装置は、 映像復 号化器 4 1 0、 解像度変換器 42 0、 映像符号化器 430およびシステム制御部 440を備えている。  FIG. 19 is a professional / soc diagram showing the entire configuration of an image processing apparatus according to the fifth embodiment of the present invention. As shown in FIG. 19, the image coding apparatus according to the present embodiment includes a video decoder 410, a resolution converter 420, a video encoder 430, and a system control unit 440.
第 1の解像度としての高解像度を有する映像信号の符号列 C S Aが入力され、 映像復号化器 4 1 0は、 入力された符号列 C S Aを原映像信号 SHRに復号化す る。 解像度変換器 42 0は、 復号化された原映像信号 SHRを第 2の解像度とし ての低解像度を有する新映像信号 S LRに変換する。 映像符号化器 430は、 新 映像信号 S LRを符号化し、 第 2の符号列 C S Bとして出力する。  A code sequence C S A of a video signal having a high resolution as the first resolution is input, and the video decoder 410 decodes the input code sequence C S A into an original video signal SHR. The resolution converter 420 converts the decoded original video signal SHR into a new video signal SLR having a low resolution as the second resolution. The video encoder 430 encodes the new video signal SLR and outputs it as a second code string CSB.
ここでは、 第 1の符号列 C SAは、 MP E G 2方式によって符号化されている ものとする。 したがって、 映像復号化器 4 1 0は MPEG2方式の復号化器であ る。 映像復号化器 4 1 0の構成および動作は、 第 1の実施形態に係る映像復号化 器 1 0と同様であるので、 ここではその詳細な説明を割愛する。  Here, it is assumed that the first code string CSA is coded by the MPEG2 method. Therefore, the video decoder 410 is an MPEG2 decoder. Since the configuration and operation of the video decoder 410 are the same as those of the video decoder 10 according to the first embodiment, detailed description thereof is omitted here.
解像度変換器 42 0は、 図 2 0に示すように、 原映像信号 S HRをレ夕一ポッ クス画像の映像信号に変換する。 図 2 0に示す例では、 (a) に示すアスペクト 比 1 6 : 9の原映像信号 S HRが (b) に示すァスぺクト比 4 : 3の新映像信号 S LRに変換されている。 レ夕一ボックス画像に変換された場合には、 新映像信 号 S L Rのフレーム画像 450の上下には、 帯状の黒レベル領域 4 5 1, 4 52 が付加される。  As shown in FIG. 20, the resolution converter 420 converts the original video signal SHR into a video signal of a one-box image. In the example shown in FIG. 20, the original video signal S HR having an aspect ratio of 16: 9 shown in (a) is converted into a new video signal S LR having an aspect ratio of 4: 3 shown in (b). . When converted to a single box image, band-shaped black level regions 451, 452 are added above and below the frame image 450 of the new video signal SLR.
図 2 1は映像符号化器 430の内部構成を示すプロック図である。 図 2 1に示 すように、 映像符号化器 430は、 領域分割部 43 1、 ブロック化部 432、 D CT演算部 433、 量子化部 434、 可変長符号化部 435、 符号列生成部 43 6および符号列蓄積部 437を備えている。 ここでは、 映像符号化器 430は、 新映像信号 S LRを MPEG 2方式によって符号化するものとする。 また、 フレ —ム内符号化を行うものとする。 FIG. 21 is a block diagram showing the internal configuration of the video encoder 430. As shown in FIG. 21, the video encoder 430 includes a region dividing unit 431, a blocking unit 432, a DCT calculating unit 433, a quantizing unit 434, a variable length coding unit 435, and a code string generating unit 43. 6 and a code string storage section 437. Here, it is assumed that the video encoder 430 encodes the new video signal SLR according to the MPEG-2 system. Also, —Intra-system encoding shall be performed.
領域分割部 4 3 1は、 システム制御部 4 4 0からの指示信号 S Iを受けて、 レ 夕一ボックス画像である新映像信号 S L Rについて、 有効デ一夕領域すなわち図 In response to the instruction signal SI from the system control unit 44, the region dividing unit 431 receives the instruction signal SI from the system control unit 4400 and converts the new video signal SLR, which is a box image, into an effective data region,
2 0 ( b ) の黒レベル領域 4 5 1 , 4 5 2を除いた領域 4 5 0を切り出して出力 する。 黒レベル領域 4 5 1 , 5 2の映像信号は出力されない。 プロヅク化部 4The area 450 excluding the black level areas 451, 52 of 20 (b) is cut out and output. The video signals in the black level areas 451, 52 are not output. Blocking part 4
3 2は、 入力された領域 4 5 0の映像信号をブロックに分割し、 D C T演算部 4 3 3はプロックに分割された映像信号を D C T係数に変換する。 D C T演算部 4 3 3から出力された D C T係数は、 量子化部 4 3 4によって量子化された後、 可 変長符号化部 4 3 5によって第 1の符号列 C S B 1に変換され、 符号列生成部 4 3 6に出力される。 Reference numeral 32 denotes a block for dividing the input video signal of the area 450 into blocks, and a DCT operation unit 43 33 converts the block-divided video signal into DCT coefficients. The DCT coefficient output from the DCT operation unit 433 is quantized by the quantization unit 4334, and then converted into the first code string CSB1 by the variable length coding unit 435. It is output to the generator 436.
符号列蓄積部 4 3 7には、 黒レベル領域 4 5 1 , 4 5 2の映像信号が符号化さ れた第 2の符号列 C S B 2が予め蓄積されている。 第 2の符号列 C S B 2として、 フレーム内符号化がなされたものと、 フレーム間符号化がなされたものの両方が、 符号列蓄積部 4 3 7に蓄積されている。 ここでは、 符号列蓄積部 4 3 7から、 フ レーム内符号化がなされた第 2の符号列 C S B 2が出力される。  In the code string storage section 437, a second code string CSB2 in which the video signals of the black level areas 451, 452 are encoded is stored in advance. As the second code string CSB2, both the code subjected to intra-frame coding and the code subjected to inter-frame coding are stored in the code string storage unit 437. Here, the second code string CSB2 that has been subjected to intra-frame coding is output from the code string storage section 437.
符号列生成部 4 3 6は、 可変長符号化部 4 3 5から出力された第 1の符号列 C S B 1 と、 符号列蓄積部 4 3 7から出力された第 2の符号列 C S B 2とを連結す る。 ここではフレーム内の先頭から順に符号列の連結を行う。 すなわち、 符号列 蓄積部 4 3 7から出力された黒レベル領域 4 5 1の符号列、 可変長符号化部 4 3 5から出力された領域 4 5 0の符号列、 および符号列蓄積部 4 3 7から出力され た黒レベル領域 4 5 2の符号列の順に、 連結を行う。 このように連結された符号 列は、 符号列 C S Bとして出力される。  The code sequence generation unit 436 converts the first code sequence CSB 1 output from the variable length coding unit 4 35 and the second code sequence CSB 2 output from the code sequence storage unit 437 into connect. Here, the concatenation of the code strings is performed sequentially from the head in the frame. That is, the code string of the black level area 451 output from the code string storage section 437, the code string of the area 450 output from the variable length coding section 435, and the code string storage section 4 3 Concatenation is performed in the order of the code string of the black level area 4 52 output from 7. The code string concatenated in this way is output as a code string CSB.
なお、 解像度変換器 4 2 0が、 黒レベル領域 4 5 1 , 4 5 2を除いて、 新映像 信号 S L Rを出力するようにしてもよい。 この場合、 映像符号化器 4 3 0から、 領域分割部 4 3 1を省くことができる。  Note that the resolution converter 420 may output the new video signal SLR except for the black level regions 451 and 452. In this case, the region dividing unit 431 can be omitted from the video encoder 4300.
また、 領域分割部 4 3 1が、 入力された新映像信号 S L Rがレ夕一ボックス映 像であるか否かを判断するようにしてもよい。 この場合は、 映像符号化器 4 3 0 に外部から指示信号 S Iを与える必要はない。 In addition, the area dividing unit 431 converts the input new video signal SLR into a box image. It may be determined whether or not the image is an image. In this case, there is no need to externally provide the video encoder 430 with the instruction signal SI.
以上のように本実施形態によると、 原映像信号から解像度変換によって得たレ タ一ボックス構造の新映像信号を符号化する際に、 黒レベル領域については、 実 際には符号化を行わず、 予め蓄積された符号列を連結する。 これにより、 黒レべ ル領域の符号化処理を行う必要がなくなり、 処理量を大きく削減することができ る。 例えば、 新映像信号のフレームが横 7 2 0画素、 縦 4 8 0画素の大きさを有 し、 黒レベル領域以外の領域の縦方向の大きさが 3 6 0画素であるとき、 全画像 を符号化する場合に比べて 2 5 %の処理量を削減することができる。  As described above, according to the present embodiment, when encoding a new video signal having a letter-box structure obtained by resolution conversion from an original video signal, the black level region is not actually encoded. Concatenate the code strings stored in advance. As a result, it is not necessary to perform the encoding process for the black level region, and the processing amount can be greatly reduced. For example, when the frame of the new video signal has a size of 720 pixels horizontally and 480 pixels vertically, and the size of the region other than the black level region in the vertical direction is 360 pixels, the entire image is The amount of processing can be reduced by 25% compared to the case of encoding.
なお、 本実施形態では、 黒レベル領域は上下に付加されるものとしたが、 上側 のみまたは下側のみに付加されていても、 かまわない。 また、 上下以外、 例えば 左右、 左のみ、 または右のみに黒レベル領域が付加されていてもかまわない。 また、 本実施形態では、 アスペクト比 1 6 : 9の原映像信号をアスペクト比 4 : 3の新映像信号に変換する場合について説明したが、 これらのアスペクト比は、 異なる組み合わせであってもよい。  In the present embodiment, the black level area is added vertically, but may be added only to the upper side or only the lower side. Further, a black level area may be added to a region other than the top and bottom, for example, only the left and right, the left, or only the right. In the present embodiment, the case where the original video signal having the aspect ratio of 16: 9 is converted to the new video signal having the aspect ratio of 4: 3 has been described. However, these aspect ratios may be different combinations.
また、 本実施形態では、 高解像度の原映像信号から低解像度の新映像信号に変 換する場合について説明したが、 これとは逆に、 低解像度の原映像信号から高解 像度の新映像信号に変換する場合であっても、 本発明と同様に、 黒レベル領域の 符号化を省くことができる。  Further, in the present embodiment, a case has been described in which a high-resolution original video signal is converted to a low-resolution new video signal. Conversely, a low-resolution original video signal is converted to a high-resolution new video signal. Even in the case of conversion into a signal, encoding of the black level region can be omitted as in the present invention.
また、 本実施形態では、 映像符号化器 4 3 0がフレーム内符号化を行う場合に ついて説明したが、 これはフレーム間符号化を行っても同様である。  Further, in the present embodiment, the case where the video encoder 430 performs intra-frame encoding has been described, but the same applies to the case where inter-frame encoding is performed.
なお、 以上の各実施形態では、 符号化方式として M P E G 2を用いた場合につ いて説明したが、 これは他の符号化方法、 例えば M P E G 1や H . 2 6 1等であ つてもかまわない。  In each of the above embodiments, the case where MPEG 2 is used as the encoding method has been described. However, this may be another encoding method, for example, MPEG 1 or H.261. .

Claims

言青求の範 固 The scope of the word
1 . 第 1の解像度を有する原映像信号が符号化された符号列を復号化すると もに、 前記符号列の符号化パラメ一夕を抽出する復号化ステップと、  1. a decoding step of decoding a code string in which the original video signal having the first resolution is encoded, and extracting a coding parameter of the code string;
前記符号化パラメ一夕から原映像信号の特性を判定し、 復号化した原映像信号 を、 前記特性に応じた解像度変換方法によって、 第 2の解像度を有する新映像信 号に変換する解像度変換ステップとを備えた  A resolution conversion step of determining characteristics of an original video signal from the encoding parameters and converting the decoded original video signal into a new video signal having a second resolution by a resolution conversion method according to the characteristics. With
ことを特徴とする画像処理方法。 An image processing method comprising:
2 . 請求項 1記載の画像処理方法において、 2. In the image processing method according to claim 1,
前記解像度変換ステップは、  The resolution conversion step includes:
原映像信号の特性として、 前記原映像信号における画像の動き特性を、 判定す る  Determining a motion characteristic of an image in the original video signal as a characteristic of the original video signal;
ことを特徴とする画像処理方法。 An image processing method comprising:
3 . 請求項 2記載の画像処理方法において、 3. In the image processing method according to claim 2,
前記符号化パラメ一夕は、  The encoding parameter overnight,
映像構成単位の動き量を示す動きべクトル、 直交変換をフレーム構造またはフ ィ一ルド構造のいずれで行うかを示す直交変換タイプ、 および、 動き補償をフレ —ム構造またはフィ一ルド構造のいずれで行うかを示す動き補償モードのうちの、 少なくともいずれか 1つを含む  A motion vector that indicates the amount of motion of the video constituent unit, an orthogonal transform type that indicates whether the orthogonal transform is performed using the frame structure or the field structure, and whether the motion compensation is a frame structure or the field structure Include at least one of the motion compensation modes that indicate
ことを特徴とする画像処理方法。 An image processing method comprising:
4 . 請求項 1記載の画像処理方法において、 4. The image processing method according to claim 1,
前記解像度変換ステップは、  The resolution conversion step includes:
復号化した原映像信号の画像を、 前記符号化パラメ一タを用いて、 静止領域と 動領域とに分割し、 前記原映像信号を、 前記静止領域と前記動領域とにおいて、 互いに異なる解像 度変換方法を用いて、 前記新映像信号に変換する The decoded image of the original video signal is divided into a still area and a moving area using the encoding parameters, The original video signal is converted into the new video signal using different resolution conversion methods in the still region and the moving region.
ことを特徴とする画像処理方法。 An image processing method comprising:
5 . 請求項 4記載の画像処理方法において、 5. The image processing method according to claim 4,
原映像信号は、 インタ一レース信号であり、  The original video signal is an interlaced signal,
前記静止領域においては、 フレームを単位として、 解像度変換を行う一方、 前 記動領域においては、 フィールドを単位として、 解像度変換を行う  In the static area, resolution conversion is performed in units of frames, while in the above-described moving area, resolution conversion is performed in units of fields.
ことを特徴とする画像処理方法。 An image processing method comprising:
6 . 請求項 4記載の画像処理方法において、 6. The image processing method according to claim 4,
前記符号化パラメータは、 映像構成単位の動き量を示す動きべク トルであり、 前記領域分割を、 動きベクトルの絶対値と所定値との比較結果に基づいて、 行 フ  The encoding parameter is a motion vector indicating a motion amount of a video constituent unit, and the region division is performed based on a comparison result between an absolute value of a motion vector and a predetermined value.
ことを特徴とする画像処理方法。 An image processing method comprising:
7 . 前記原映像信号の符号列は、 M P E G (Moving Picture Expert Group) 方式によって符号化されたものである 7. The code sequence of the original video signal is coded by an M PEG (Moving Picture Expert Group) method.
ことを特徴とする請求項 1記載の画像処理方法。 2. The image processing method according to claim 1, wherein:
8 . 前記第 1の解像度は、 前記第 2の解像度よりも高い 8. The first resolution is higher than the second resolution
ことを特徴とする請求項 1記載の画像処理方法。 2. The image processing method according to claim 1, wherein:
9 . 第 1の解像度を有する原映像信号が符号化された符号列を復号化すると ともに、 前記符号列の符号化パラメ一夕を抽出する映像復号化器と、 9. A video decoder that decodes a code string in which an original video signal having a first resolution is encoded, and that extracts an encoding parameter of the code string,
前記映像復号化器から出力された原映像信号および符号化パラメータを入力と し、 前記符号化パラメータから原映像信号の特性を判定し、 前記原映像信号を、 前記特性に応じた解像度変換方法によって、 第 2の解像度を有する新映像信号に 変換する解像度変換器とを備えた Inputting the original video signal and coding parameters output from the video decoder; A resolution converter that determines characteristics of the original video signal from the encoding parameters, and converts the original video signal into a new video signal having a second resolution by a resolution conversion method according to the characteristics. Was
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
1 0 . 請求項 9記載の画像処理装置において、 10. The image processing apparatus according to claim 9,
前記解像度変換器は、  The resolution converter,
原映像信号の特性として、 前記原映像信号における画像の.動き特性を、 判定す るものである  As the characteristics of the original video signal, the motion characteristics of the image in the original video signal are determined.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
1 1 . 請求項 1 0記載の画像処理装置において、 11. The image processing apparatus according to claim 10, wherein
前記符号化パラメ一夕は、  The encoding parameter overnight,
映像構成単位の動き量を示す動きべクトル、 直交変換をフレーム構造またはフ ィ一ルド構造のいずれで行うかを示す直交変換夕イブ、 および、 動き補償をフレ —ム構造またはフィ一ルド構造のいずれで行うかを示す動き補償モードのうちの、 少なくともいずれか 1つを含むものである  A motion vector that indicates the amount of motion of the video constituent unit, an orthogonal transformation parameter that indicates whether the orthogonal transformation is performed in a frame structure or a field structure, and a motion compensation that has a frame structure or a field structure. This includes at least one of the motion compensation modes that indicate
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
1 2 . 請求項 9記載の画像処理装置において、 12. The image processing apparatus according to claim 9,
前記解像度変換器は、  The resolution converter,
入力された原映像信号の画像を、 前記符号化パラメ一夕を用いて、 静止領域と 動領域とに分割する領域分割部と、  An area dividing unit that divides an image of the input original video signal into a still area and a moving area by using the encoding parameters;
前記領域分割部から出力された前記静止領域の映像信号を、 前記第 2の解像度 の映像信号に変換する静止領域解像度変換部と、  A still area resolution conversion unit that converts the video signal of the still area output from the area division unit into a video signal of the second resolution;
前記領域分割器から出力された前記動領域の映像信号を、 前記第 2の解像度の 映像信号に変換する動領域解像度変換部とを備えたものである The video signal of the moving area output from the area divider is A moving area resolution conversion unit for converting the image into a video signal.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
1 3 . 請求項 1 2記載の画像処理装置において、 13. The image processing apparatus according to claim 12,
原映像信号は、 イン夕一レース信号であり、  The original video signal is an in-night race signal,
前記静止領域解像度変換部は、 フレームを単位として、 解像度変換を行うもの であり、  The still area resolution conversion unit performs resolution conversion on a frame basis.
前記動領域解像度変換部は、 フィールドを単位として、 解像度変換を行うもの である  The moving area resolution conversion section performs resolution conversion in units of fields.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
1 4 . 請求項 1 2記載の画像処理装置において、 14. The image processing apparatus according to claim 12,
前記符号化パラメータは、 映像構成単位の動き量を示す動きべクトルであり、 前記領域分割部は、  The encoding parameter is a motion vector indicating a motion amount of a video constituent unit;
動きべクトルの絶対値と所定値との比較結果に基づいて、 領域分割を行うもの である  Region segmentation is performed based on the result of comparing the absolute value of the motion vector with a predetermined value.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
1 5 . 前記原映像信号の符号列は、 M P E G方式によって符号化されたもので ある 15. The code sequence of the original video signal is coded according to the MPEG method.
ことを特徴とする請求項 9記載の画像処理装置。 10. The image processing device according to claim 9, wherein:
1 6 . 前記第 1の解像度は、 前記第 2の解像度よりも高い 1 6. The first resolution is higher than the second resolution
ことを特徴とする請求項 9記載の画像処理装置。 10. The image processing device according to claim 9, wherein:
1 7 . 第 1の解像度を有する原映像信号を符号化して得られた符号列を、 復号 化するとともに、 前記符号列から動きべクトルを抽出する複号化ステップと、 復号化した原映像信号を、 抽出した動きベクトルを用いて、 第 2の解像度を有 する新映像信号に変換する解像度変換ステップとを備えた 1 7. Decode a code string obtained by encoding the original video signal having the first resolution. And a decoding step of extracting a motion vector from the code string, and a resolution of converting the decoded original video signal into a new video signal having a second resolution using the extracted motion vector. With a conversion step
ことを特徴とする画像処理方法。 An image processing method comprising:
1 8 . 請求項 1 7記載の画像処理方法において、 18. The image processing method according to claim 17,
前記解像度変換ステップは、  The resolution conversion step includes:
前記復号化した原映像信号の画像を、 前記抽出した動きベクトルを用いて、 準 静止領域と動領域とに分割する領域分割ステツブを有し、  An area division step of dividing the decoded image of the original video signal into a quasi-stationary area and a moving area using the extracted motion vector;
前記新映像信号への解像度変換を、 前記準静止領域においては、 前記抽出した 動きベクトルを用いて行う一方、 前記動領域においては、 前記抽出した動きべク トルを用いないで行う  The resolution conversion to the new video signal is performed using the extracted motion vector in the quasi-stationary region, but is performed without using the extracted motion vector in the moving region.
ことを特徴とする画像処理方法。 An image processing method comprising:
1 9 . 請求項 1 8記載の画像処理方法において、 1 9. The image processing method according to claim 18,
前記領域分割ステップは、  The area dividing step includes:
前記抽出した動きベクトルから、 当該動きベクトルと向きが類似した, 画素単 位の動きべクトルの検出を行い、  From the extracted motion vector, a motion vector in pixel units having a direction similar to the motion vector is detected.
前記画素単位の動きベクトルが検出された領域を、 準静止領域とし、 検出され なかった領域を、 動領域とするものである  The region where the pixel-based motion vector is detected is a quasi-stationary region, and the region where the motion vector is not detected is a moving region.
ことを特徴とする画像処理方法。 An image processing method comprising:
2 0 . 請求項 1 9記載の画像処理方法において、 20. The image processing method according to claim 19,
前記準静止領域における前記新映像信号への解像度変換を、 検出された前記画 素単位の動きべクトルを用いて行う  The resolution conversion to the new video signal in the quasi-stationary region is performed using the detected motion vector in pixel units.
ことを特徴とする画像処理方法。 An image processing method comprising:
2 1 . 請求項 1 8記載の画像処理方法において、 21. The image processing method according to claim 18,
前記領域分割ステップは、  The area dividing step includes:
前記抽出した動きべクトルの絶対値が、 所定のしきい値よりも小さい領域を、 準静止領域とする一方、 前記所定のしきい値よりも大きい領域を、 動領域とする ものである  A region where the absolute value of the extracted motion vector is smaller than a predetermined threshold is a quasi-stationary region, while a region larger than the predetermined threshold is a moving region.
ことを特徴とする画像処理方法。  An image processing method comprising:
2 2 . 前記原映像信号の符号列は、 M P E G方式によって符号化されたもので ある 22. The code sequence of the original video signal is coded by the MPEG method.
ことを特徴とする請求項 1 7記載の画像処理方法。 18. The image processing method according to claim 17, wherein:
2 3 . 前記第 1の解像度は、 前記第 2の解像度よりも低い 2 3. The first resolution is lower than the second resolution.
ことを特徴とする請求項 1 7記載の画像処理方法。 18. The image processing method according to claim 17, wherein:
2 4 . 第 1の解像度を有する原映像信号を符号化して得られた符号列を、 復号 化するとともに、 前記符号列から動きべクトルを抽出する映像復号化器と、 前記映像復号化器から出力された原映像信号および動きべクトルを入力とし、 前記原映像信号を、 前記動きベクトルを用いて、 第 2の解像度を有する新映像信 号に変換する解像度変換器とを備えた 24. A video decoder that decodes a code sequence obtained by encoding an original video signal having a first resolution, and extracts a motion vector from the code sequence; and A resolution converter that receives the output original video signal and the motion vector as inputs, and converts the original video signal into a new video signal having a second resolution using the motion vector.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
2 5 . 請求項 2 4記載の画像処理装置において、 25. The image processing apparatus according to claim 24,
前記解像度変換器は、  The resolution converter,
前記原映像信号および動きベクトルを入力とし、 前記原映像信号の画像を、 前 記動きベクトルを用いて、 準静止領域と動領域とに分割する領域分割部と、 前記領域分割部から出力された準静止領域の映像信号を、 前記動きべク トルを 用いて、 第 2の解像度を有する映像信号に変換する準静止領域解像度変換部と、 前記領域分割部から出力された動領域の映像信号を、 前記動きべク トルを用い ないで、 第 2の解像度を有する映像信号に変換する動領域解像度変換部とを備え たものである An area dividing unit that receives the original video signal and the motion vector, and divides the image of the original video signal into a quasi-static area and a moving area using the motion vector; A quasi-stationary region resolution conversion unit that converts the video signal of the quasi-static region output from the region division unit to a video signal having a second resolution using the motion vector; A video signal having a second resolution, without using the motion vector, for converting the obtained video signal of the video region into a video signal having a second resolution.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
2 6 . 請求項 2 5記載の画像処理装置において、 26. The image processing apparatus according to claim 25,
前記領域分割部は、  The area dividing unit includes:
前記動きベク トルから、 当該動きベク トルと向きが類似した, 画素単位の動き べク トルを検出する動きべク トル検出部を備え、  A motion vector detecting unit that detects a pixel-based motion vector having a similar direction to the motion vector from the motion vector;
前記動きべク トル検出器によって前記画素単位の動きべク トルが検出された領 域を、 準静止領域とし、 検出されなかった領域を動領域とするものである ことを特徴とする画像処理装置。  An image processing apparatus wherein an area where the motion vector is detected by the motion vector detector is a quasi-stationary area, and an area where the motion vector is not detected is a motion area. .
2 7 . 請求項 2 6記載の画像処理装置において、 27. The image processing apparatus according to claim 26,
前記準静止領域解像度変換部は、  The quasi-static region resolution conversion unit,
前記動きべク トル検出部によって検出された, 前記画素単位の動きべク トルを 用いて、 解像度変換を行うものである  The resolution conversion is performed using the pixel-by-pixel motion vector detected by the motion vector detection unit.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
2 8 . 請求項 2 5記載の画像処理装置において、 28. The image processing apparatus according to claim 25,
前記領域分割部は、  The area dividing unit includes:
動きベク トルの絶対値が、 所定のしきい値よりも小さい領域を、 準静止領域と する一方、 所定のしきい値よりも大きい領域を、 動領域とするものである ことを特徴とする画像処理装置。 An image in which an area in which the absolute value of a motion vector is smaller than a predetermined threshold is a quasi-stationary area, while an area larger than the predetermined threshold is a moving area. Processing equipment.
2 9 . 前記原映像信号の符号列は、 M P E G方式によって符号化されたもので ある 29. The code sequence of the original video signal is coded according to the M PEG system.
ことを特徴とする請求項 2 4記載の画像処理装置。 25. The image processing device according to claim 24, wherein:
3 0 . 前記第 1の解像度は、 前記第 2の解像度よりも低い 30. The first resolution is lower than the second resolution.
ことを特徴とする請求項 2 4記載の画像処理装置。 25. The image processing device according to claim 24, wherein:
3 1 . 第 1の解像度を有する原映像信号を符号化して得られた第 1の符号列を 復号化するとともに、 前記第 1の符号列から第 1の符号化パラメ一夕を抽出する ステップと、 31. decoding a first code string obtained by coding an original video signal having a first resolution, and extracting a first coding parameter from the first code string; ,
復号化した原映像信号を、 第 2の解像度を有する新映像信号に変換するステツ ブと、  Converting the decoded original video signal into a new video signal having a second resolution;
前記第 1の符号化パラメータを、 前記新映像信号の符号化に用いる第 2の符号 化パラメータに変換するステップと、  Converting the first encoding parameter into a second encoding parameter used for encoding the new video signal;
前記新映像信号を前記第 2の符号化パラメータを用いて符号化し、 第 2の符号 列を生成するステップとを備えた  Encoding the new video signal using the second encoding parameter to generate a second code sequence.
ことを特徴とする画像処理方法。 An image processing method comprising:
3 2 . 請求項 3 1記載の画像処理方法において、 3 2. The image processing method according to claim 31,
前記符号化パラメータ変換ステッブは、  The encoding parameter conversion step includes:
原映像信号の画像の第 1の領域を符号化するために用いられた第 1の符号化パ ラメ一夕を、 新映像信号の画像の, 前記第 1の領域と同じ映像を含む第 2の領域 を符号化するための第 2の符号化パラメータに変換する  A first encoding parameter used for encoding the first region of the image of the original video signal is replaced with a second encoding parameter of the image of the new video signal that includes the same video as the first region. Convert to the second encoding parameter for encoding the region
ことを特徴とする画像処理方法。 An image processing method comprising:
3 3 . 請求項 3 2記載の画像処理方法において、 33. In the image processing method according to claim 32,
前記第 1および第 2の符号化パラメータは、 動きベク トルである  The first and second coding parameters are motion vectors
ことを特徴とする画像処理方法。 An image processing method comprising:
3 4 . 請求項 3 3記載の画像処理方法において、 34. In the image processing method according to claim 33,
前記符号化パラメータ変換ステツブは、  The encoding parameter conversion step comprises:
前記第 1の領域の動きべク トルに対して所定の演算を施して得られた値を、 前 記第 2の領域の動きベク トルとする  A value obtained by performing a predetermined operation on the motion vector of the first area is defined as the motion vector of the second area.
ことを特徴とする画像処理方法。 An image processing method comprising:
3 5 . 請求項 3 3記載の画像処理方法において、 35. In the image processing method according to claim 33,
前記符号化パラメータ変換ステツブは、  The encoding parameter conversion step comprises:
前記第 1の領域の動きべク トルの加重平均値を、 前記第 2の領域の動きべク ト ルとする  The weighted average value of the motion vector of the first area is defined as the motion vector of the second area.
ことを特徴とする画像処理方法。 An image processing method comprising:
3 6 . 請求項 3 2記載の画像処理方法において、 36. In the image processing method according to claim 32,
前記第 1および第 2の符号化パラメ一夕は、 直交変換をフレーム構造またはフ ィ一ルド構造のいずれで行うかを示す直交変換夕ィプである  The first and second encoding parameters are orthogonal transformation types indicating whether the orthogonal transformation is performed in a frame structure or a field structure.
ことを特徴とする画像処理方法。 An image processing method comprising:
3 7 . 請求項 3 1記載の画像処理方法において、 3 7. The image processing method according to claim 31,
前記第 1の符号列は、 M P E G方式によって符号化されたものである ことを特徴とする画像処理方法。  The image processing method according to claim 1, wherein the first code string is coded according to the MPEG method.
3 8 . 請求項 3 1記載の画像処理方法において、 前記第 2の符号列は、 M P E G方式によって符号化される 38. In the image processing method according to claim 31, The second code sequence is encoded by an MPEG method.
ことを特徴とする画像処理方法。 An image processing method comprising:
3 9 . 第 1の解像度を有する原映像信号を符号化して得られた第 1の符号列を 復号化するとともに、 前記第 1の符号列から第 1の符号化パラメ一夕を出力する 映像復号化器と、 39. Video decoding that decodes a first code string obtained by encoding an original video signal having a first resolution and outputs a first encoded parameter from the first code string. And
前記映像複号化器から出力された前記原映像信号を、 第 2の解像度を有する新 映像信号に変換する解像度変換器と、  A resolution converter for converting the original video signal output from the video decoder to a new video signal having a second resolution;
前記映像復号化器から出力された前記第 1の符号化パラメータを、 前記新映像 信号の符号化に用いる第 2の符号化パラメ一夕に変換する符号化パラメータ変換 器と、  An encoding parameter converter that converts the first encoding parameter output from the video decoder into a second encoding parameter used for encoding the new video signal;
前記解像度変換器から出力された新映像信号を、 前記符号化パラメ一夕変換器 から出力された第 2の符号化パラメータを用いて符号化し、 第 2の符号列を生成 する映像符号化器とを備えた  A video encoder that encodes a new video signal output from the resolution converter using a second encoding parameter output from the encoding parameter converter, and generates a second code sequence; With
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
4 0 . 請求項 3 9記載の画像処理装置において、 40. The image processing apparatus according to claim 39,
前記符号化パラメータ変換器は、  The coding parameter converter,
原映像信号の画像の第 1の領域を符号化するために用いられた第 1の符号化パ ラメ一夕を、 新映像信号の画像の, 前記第 1の領域と同じ映像を含む第 2の領域 を符号化するための第 2の符号化パラメ一夕に変換するものである  A first encoding parameter used for encoding the first region of the image of the original video signal is replaced with a second encoding parameter of the image of the new video signal that includes the same video as the first region. Transforms into a second encoding parameter to encode the region
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
4 1 . 請求項 4 0記載の画像処理装置において、 41. The image processing apparatus according to claim 40,
前記第 1および第 2の符号化パラメ一タは、 動きべク トルである  The first and second coding parameters are motion vectors
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
4 2 . 請求項 4 1記載の画像処理装置において、 42. The image processing apparatus according to claim 41, wherein
前記符号化パラメータ変換器は、  The coding parameter converter,
前記第 1の領域の動きべク トルに対して所定の演算を施して得られた値を、 前 記第 2の領域の動きべク トルとする  A value obtained by performing a predetermined operation on the motion vector of the first area is defined as the motion vector of the second area.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
4 3 . 請求項 4 1記載の画像処理装置において、 43. The image processing apparatus according to claim 41, wherein
前記符号化パラメータ変換器は、  The coding parameter converter,
前記第 1の領域の動きべク トルの加重平均値を、 前記第 2の領域の動きべク ト ルとする  The weighted average value of the motion vector of the first area is defined as the motion vector of the second area.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
4 4 . 請求項 4 0記載の画像処理装置において、 44. The image processing apparatus according to claim 40,
前記第 1および第 2の符号化パラメータは、 直交変換をフレーム構造またはフ ィ一ルド構造のいずれで行うかを示す直交変換タイブである  The first and second encoding parameters are an orthogonal transform type indicating whether the orthogonal transform is performed in a frame structure or a field structure.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
4 5 . 請求項 3 9記載の画像処理装置において、 45. In the image processing apparatus according to claim 39,
前記第 1の符号列は、 M P E G方式によって符号化されたものである ことを特徴とする画像処理装置。  The image processing device according to claim 1, wherein the first code sequence is coded according to the MPEG method.
4 6 . 請求項 3 9記載の画像処理装置において、 46. In the image processing apparatus according to claim 39,
前記第 2の符号列は、 M P E G方式によって符号化される  The second code sequence is encoded according to the MPEG method.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
4 7 . 第 1の解像度を有する原映像信号を符号化して得られた第 1の符号列を 複号化するとともに、 前記第 1の符号列から第 1の動きベク トルを抽出し、 復号化した原映像信号を、 第 2の解像度を有する新映像信号に変換し、 前記第 1の動きべク トルから、 前記新映像信号の符号化に用いる第 2の動きべ ク トルを求めるための設定情報を決定し、 47. A first code string obtained by encoding an original video signal having a first resolution is decoded, and a first motion vector is extracted from the first code string and decoded. Setting for converting the original video signal into a new video signal having a second resolution, and obtaining a second motion vector used for encoding the new video signal from the first motion vector. Determine information,
求めた設定情報を用いて、 前記第 2の動きベク トルを求め、  Using the obtained setting information, the second motion vector is obtained,
前記新映像信号を、 求めた第 2の動きベク トルを用いて符号化し、 第 2の符号 列を生成する  The new video signal is encoded using the obtained second motion vector to generate a second code sequence.
ことを特徴とする画像処理方法。 An image processing method comprising:
4 8 . 請求項 4 7記載の画像処理方法において、 48. In the image processing method according to claim 47,
前記設定情報として、 第 2の動きベク トルの初期値を決定する  Determine the initial value of the second motion vector as the setting information
ことを特徴とする画像処理方法。 An image processing method comprising:
4 9 . 請求項 4 7記載の画像処理方法において、 49. In the image processing method according to claim 47,
前記設定情報として、 第 2の動きべク トルを求めるための探索範囲を決定する ことを特徴とする画像処理方法。  An image processing method, wherein a search range for obtaining a second motion vector is determined as the setting information.
5 0 . 請求項 4 7記載の画像処理方法において、 50. The image processing method according to claim 47, wherein
前記第 1の符号列は、 M P E G方式によって符号化されたものである ことを特徴とする画像処理方法。  The image processing method according to claim 1, wherein the first code string is coded according to the MPEG method.
5 1 . 請求項 4 7記載の画像処理方法において、 51. The image processing method according to claim 47, wherein
前記第 2の符号列は、 M P E G方式によって符号化される  The second code sequence is encoded according to the MPEG method.
ことを特徴とする画像処理方法。 An image processing method comprising:
5 2 . 第 1の解像度を有する原映像信号を符号化して得られた第 1の符号列を 復号化するとともに、 前記第 1の符号列から第 1の動きベクトルを抽出する映像 復号化器と、 52. A video decoder that decodes a first code string obtained by encoding an original video signal having a first resolution, and extracts a first motion vector from the first code string. ,
前記映像複号化器から出力された原映像信号を、 第 2の解像度を有する新映像 信号に変換する解像度変換器と、  A resolution converter for converting the original video signal output from the video decoder into a new video signal having a second resolution;
前記映像復号化器から出力された第 1の動きべク トルから、 前記新映像信号の 符号化に用いる第 2の動きべクトルを求めるための設定情報を生成する動き補償 ax iafとヽ  A motion compensation ax iaf and i i a which generate setting information for obtaining a second motion vector used for encoding the new video signal from the first motion vector output from the video decoder.
前記動き補償設定器により生成された設定情報を基にして、 前記第 2の動きべ ク トルを求め、 前記解像度変換器から出力された新映像信号を、 求めた第 2の動 きべクトルを用いて符号化し、 第 2の符号列を生成する映像符号化器とを備えた ことを特徴とする画像処理装置。  The second motion vector is obtained based on the setting information generated by the motion compensation setting device, the new video signal output from the resolution converter is obtained, and the obtained second motion vector is obtained. An image processing apparatus, comprising: a video encoder configured to generate a second code string by encoding using the same.
5 3 . 請求項 5 2記載の画像処理装置において、 53. The image processing apparatus according to claim 52,
前記動き補償設定器は、  The motion compensation setting device,
前記設定情報として、 第 2の動きべクトルの初期値を決定するものである ことを特徴とする画像処理装置。  An image processing apparatus according to claim 1, wherein the setting information determines an initial value of a second motion vector.
5 4 . 請求項 5 2記載の画像処理装置において、 54. The image processing apparatus according to claim 52,
前記動き補償設定器は、  The motion compensation setting device,
前記設定情報として、 第 2の動きべク トルを求めるための探索範囲を決定する ものである  As the setting information, a search range for obtaining a second motion vector is determined.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
5 5 . 請求項 5 2記載の画像処理装置において、 55. The image processing apparatus according to claim 52,
前記第 1の符号列は、 M P E G方式によって符号化されたものである ことを特徴とする画像処理装置。 The first code string is coded by the MPEG method. An image processing apparatus characterized by the above-mentioned.
5 6 . 請求項 5 2記載の画像処理装置において、 56. The image processing apparatus according to claim 52,
前記第 2の符号列は、 M P E G方式によって符号化される  The second code sequence is encoded according to the MPEG method.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
5 7 . 第 1の解像度を有する原映像信号を、 第 2の解像度を有し、 かつ、 画像 の一部に黒レベル領域を有する新映像信号に変換し、 57. Convert the original video signal having the first resolution into a new video signal having the second resolution and having a black level region in a part of the image;
前記新映像信号のうち, 前記黒レベル領域を除いた領域の映像信号を符号化し て、 第 1の符号列を生成し、  Encoding a video signal in an area excluding the black level area in the new video signal to generate a first code string;
前記黒レベル領域の映像信号を符号化した第 2の符号列を、 前記第 1の符号列 に連結し、 前記新映像信号の符号列を生成する  A second code sequence obtained by encoding the video signal in the black level region is connected to the first code sequence to generate a code sequence of the new video signal.
ことを特徴とする画像処理方法。 An image processing method comprising:
5 8 . 第 1の解像度を有する原映像信号を、 第 2の解像度を有し、 かつ、 画像 の一部に黒レベルの領域を有する新映像信号の, 黒レベル領域を除く領域の映像 信号に変換し、 58. The original video signal having the first resolution is converted to the video signal of the area excluding the black level area of the new video signal having the second resolution and having a black level area in a part of the image. Converted,
前記映像信号を符号化して、 第 1の符号列を生成し、  Encoding the video signal to generate a first code sequence;
前記黒レベル領域の映像信号を符号化した第 2の符号列を、 前記第 1の符号列 に連結し、 前記新映像信号の符号列を生成する  A second code sequence obtained by encoding the video signal in the black level region is connected to the first code sequence to generate a code sequence of the new video signal.
ことを特徴とする画像処理方法。 An image processing method comprising:
5 9 . 前記符号化方式は、 M P E G方式である 5 9. The encoding method is the MPEG method
ことを特徴とする請求項 5 7または 5 8記載の画像処理方法。 The image processing method according to claim 57 or 58, wherein:
6 0 . 第 1の解像度を有する原映像信号を、 第 2の解像度を有し、 かつ、 画像 の一部に黒レベル領域を有する新映像信号に変換する解像度変換器と、 前記新映像信号のうち, 前記黒レベル領域を除いた領域の映像信号を符号化し て第 1の符号列を生成し、 前記黒レベル領域の映像信号を符号化した第 2の符号 列を前記第 1の符号列に連結し、 前記新映像信号の符号列を生成する映像符号 ft 器とを備えた 60. An original video signal having a first resolution is converted into an image having a second resolution and A resolution converter for converting the image signal into a new video signal having a black level area in a part thereof, and encoding a video signal in an area of the new video signal excluding the black level area to generate a first code sequence. A video code ft unit that connects a second code sequence obtained by coding the video signal in the black level region to the first code sequence, and generates a code sequence of the new video signal.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
6 1 . 第 1の解像度を有する原映像信号を、 第 2の解像度を.有し、 かつ、 画像 の一部に黒レベルの領域を有する新映像信号の, 黒レベル領域を除く領域の映像 信号に変換する解像度変換器と、 6 1. The video signal of the area excluding the black level area of the new video signal having the original resolution having the first resolution and the second resolution and having a black level area in a part of the image. A resolution converter for converting to
前記映像信号を符号化して第 1の符号列を生成し、 前記黒レベル領域の映像信 号を符号化した第 2の符号列を前記第 1の符号列に連結し、 前記新映像信号の符 号列を生成する映像符号化器とを備えた  Encoding the video signal to generate a first code sequence; connecting a second code sequence obtained by encoding the video signal in the black level region to the first code sequence; And a video encoder for generating a signal sequence.
ことを特徴とする画像処理装置。 An image processing apparatus characterized by the above-mentioned.
6 2 . 前記映像符号化器は、 M P E G 2方式によって符号化を行う 6 2. The video encoder performs encoding according to the MPEG 2 method.
ことを特徴とする請求項 6 0または 6 1記載の画像処理装置。 The image processing apparatus according to claim 60 or 61, wherein:
PCT/JP2000/002308 1999-04-08 2000-04-07 Image processing method and image processing device WO2000062554A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU36749/00A AU3674900A (en) 1999-04-08 2000-04-07 Image processing method and image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP10104499 1999-04-08
JP11/101044 1999-04-08

Publications (1)

Publication Number Publication Date
WO2000062554A1 true WO2000062554A1 (en) 2000-10-19

Family

ID=14290149

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/002308 WO2000062554A1 (en) 1999-04-08 2000-04-07 Image processing method and image processing device

Country Status (2)

Country Link
AU (1) AU3674900A (en)
WO (1) WO2000062554A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005278168A (en) * 2004-03-02 2005-10-06 Mitsubishi Electric Research Laboratories Inc Method and system for processing compressed input video
JP2007221322A (en) * 2006-02-15 2007-08-30 Sony Corp Recording apparatus, recording method, and program
CN111274935A (en) * 2020-01-19 2020-06-12 北京耘数科技有限责任公司 Deep learning-based water ecological information identification method and system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07264583A (en) * 1994-03-25 1995-10-13 Matsushita Electric Ind Co Ltd Method for encoding picture
JPH07274163A (en) * 1994-03-30 1995-10-20 Toshiba Corp Device and method for encoding/decoding hierarchy and transmission/reception system
JPH07336681A (en) * 1994-06-08 1995-12-22 Matsushita Electric Ind Co Ltd Picture converting device
JPH08130743A (en) * 1994-10-31 1996-05-21 Mitsubishi Electric Corp Picture encoded data re-encoding device
JPH10271494A (en) * 1997-03-26 1998-10-09 Nec Commun Syst Ltd Moving picture code converter
JPH10336672A (en) * 1997-05-30 1998-12-18 Oki Electric Ind Co Ltd Encoding system converter and motion vector detection method therefor
JPH11275592A (en) * 1998-01-22 1999-10-08 Victor Co Of Japan Ltd Moving image code stream converter and its method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07264583A (en) * 1994-03-25 1995-10-13 Matsushita Electric Ind Co Ltd Method for encoding picture
JPH07274163A (en) * 1994-03-30 1995-10-20 Toshiba Corp Device and method for encoding/decoding hierarchy and transmission/reception system
JPH07336681A (en) * 1994-06-08 1995-12-22 Matsushita Electric Ind Co Ltd Picture converting device
JPH08130743A (en) * 1994-10-31 1996-05-21 Mitsubishi Electric Corp Picture encoded data re-encoding device
JPH10271494A (en) * 1997-03-26 1998-10-09 Nec Commun Syst Ltd Moving picture code converter
JPH10336672A (en) * 1997-05-30 1998-12-18 Oki Electric Ind Co Ltd Encoding system converter and motion vector detection method therefor
JPH11275592A (en) * 1998-01-22 1999-10-08 Victor Co Of Japan Ltd Moving image code stream converter and its method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005278168A (en) * 2004-03-02 2005-10-06 Mitsubishi Electric Research Laboratories Inc Method and system for processing compressed input video
JP2007221322A (en) * 2006-02-15 2007-08-30 Sony Corp Recording apparatus, recording method, and program
JP4631736B2 (en) * 2006-02-15 2011-02-16 ソニー株式会社 Recording apparatus, recording method, and program
CN111274935A (en) * 2020-01-19 2020-06-12 北京耘数科技有限责任公司 Deep learning-based water ecological information identification method and system

Also Published As

Publication number Publication date
AU3674900A (en) 2000-11-14

Similar Documents

Publication Publication Date Title
JP3263960B2 (en) Motion vector encoder and decoder
JP5373626B2 (en) Method, apparatus, encoder, decoder, and decoding method for estimating a motion vector using a plurality of motion vector predictors
JP3050736B2 (en) Video encoding device
JP4198206B2 (en) Video information compression method and apparatus using motion dependent prediction
JP5559139B2 (en) Video encoding and decoding method and apparatus
US6931064B2 (en) Motion picture data converter, and computer product
WO2011121894A1 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
JP2002314428A (en) Signal coding method and device, and decoding method and device
JP2006279573A (en) Encoder and encoding method, and decoder and decoding method
US7151799B2 (en) Transcoder for coded video
US20070133689A1 (en) Low-cost motion estimation apparatus and method thereof
JP2004023444A (en) Moving picture encoding apparatus, and moving picture recording and reproducing apparatus
JP5441812B2 (en) Video encoding apparatus and control method thereof
JPH10336672A (en) Encoding system converter and motion vector detection method therefor
JP3201079B2 (en) Motion compensated prediction method, coding method and apparatus for interlaced video signal
WO2000062554A1 (en) Image processing method and image processing device
JP2007096479A (en) Inter-layer prediction coding method and apparatus, inter-layer prediction decoding method and apparatus, and program for them, and recording medium
JPH1023420A (en) Method and device for detecting movement
JP2006324888A (en) Dynamic-image coding equipment
JP2868445B2 (en) Moving image compression method and apparatus
JP4301495B2 (en) Video compression encoding device
JP3186406B2 (en) Image synthesis coding method and image synthesis apparatus
JPH10150665A (en) Method for generating predictive image, and method and device for image encoding
JP2001251628A (en) Coder for dissolve picture
JP2947089B2 (en) Moving picture decoding method and apparatus

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY CA CH CN CR CU CZ DE DK DM DZ EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 09719051

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
REG Reference to national code

Ref country code: DE

Ref legal event code: 8642