WO2006087989A1 - 動画像処理方法 - Google Patents

動画像処理方法 Download PDF

Info

Publication number
WO2006087989A1
WO2006087989A1 PCT/JP2006/302458 JP2006302458W WO2006087989A1 WO 2006087989 A1 WO2006087989 A1 WO 2006087989A1 JP 2006302458 W JP2006302458 W JP 2006302458W WO 2006087989 A1 WO2006087989 A1 WO 2006087989A1
Authority
WO
WIPO (PCT)
Prior art keywords
noise
moving image
signal
image
superimposed
Prior art date
Application number
PCT/JP2006/302458
Other languages
English (en)
French (fr)
Inventor
Hisao Sasai
Satoshi Kondo
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP20060713600 priority Critical patent/EP1855463B1/en
Priority to JP2007503643A priority patent/JP4749415B2/ja
Priority to US11/795,839 priority patent/US8059203B2/en
Priority to DE200660013951 priority patent/DE602006013951D1/de
Publication of WO2006087989A1 publication Critical patent/WO2006087989A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals

Definitions

  • the present invention relates to a moving image processing method for superimposing noise on a moving image.
  • moving image encoding and transmission techniques are techniques for encoding and transmitting moving images at a low bit rate.
  • the amount of noise to be added is determined using a parameter attached to a bitstream indicating an encoded moving image, and the decoded picture is subjected to the determination. Add noise as white noise.
  • Patent Document 1 As described above, the moving image processing method of Patent Document 1 artificially gives a viewer a high-definition feeling by superimposing noise.
  • Patent Document 1 JP-A-8-79765
  • the present invention has been made in view of the problem, and it is an object of the present invention to provide a moving image processing method that prevents deterioration in subjective image quality due to moving image motion.
  • a moving image processing method is a moving image processing method for superimposing noise on a moving image, and is a first used for superimposing on the moving image.
  • the first noise is moved in accordance with the movement of the moving image, and the moved first noise is superimposed on the moving image after the movement has occurred.
  • the first noise superimposed on the moving image is driven in accordance with the motion of the moving image, that is, motion compensated, so that the correlation between the moving image and the noise in the time direction is increased.
  • the viewer perceives the first noise as a fine pattern of the object represented in the moving image. Accordingly, it is possible to prevent deterioration of subjective image quality due to motion of moving images, which has been caused by the prior art.
  • the moving image processing method further specifies a superimposition region where noise should be superimposed from the processing target pictures included in the moving image, and moves the first noise when the first noise is moved.
  • the first noise is moved in accordance with the movement of an image in a region, and when the moved first noise is superimposed, the moved first noise is superimposed on the superimposed region. Also good.
  • the superimposition region it is specified based on the frequency component in the picture to be processed.
  • noise is superimposed on the superimposed region in the picture, so that high-definition can be increased by superimposing noise on an appropriate region without superimposing noise on the entire picture.
  • high-frequency components are removed from the pictures included in the decoded moving image, and fine patterns of natural objects such as mountains are lost. ing.
  • some high frequency components remain compared to other areas. Therefore, in the present invention, among the pictures included in the moving image, an area where a high frequency component remains is specially designated as a superimposed area. Therefore, noise can be superimposed only on the above-described mountain, and as a result, a high degree of precision can be increased.
  • a motion of an image in the superimposed region may be detected, and the first noise may be moved according to the detected motion.
  • the motion vector of the superimposed region is detected, and the first noise is motion-compensated according to the motion vector, so the correlation between the moving image and the noise in the time direction is reliably maintained. be able to.
  • the moving image processing method further acquires a moving image signal including the moving image, and when moving the first noise, motion information indicating the movement of the image in the superimposed region is displayed as the moving image.
  • the first noise may be extracted from an image signal and the first noise is moved according to the motion indicated by the extracted motion information.
  • the moving image signal is encoded, and the moving image processing method is further configured to decode the encoded moving image signal and specify the superimposed region when the encoded moving image signal is specified.
  • a plurality of pictures included in the moving image signal are sequentially used as the processing target pictures to specify the picture power superimposing regions of the respective processing targets.
  • the moving image signal further includes first identification information indicating the overlapping area, and when the overlapping area is specified, the overlapping is based on the first identification information. It is characterized by specifying the area.
  • the moving image signal further includes second identification information indicating a region in which the first noise is to be superimposed in the superimposed region, and the first signal that is driven is included. When noise is superimposed, the moved first noise is superimposed on a region indicated by the second identification information.
  • the apparatus that generates and transmits the moving image signal The region can be determined, and as a result, the first noise can be superimposed on a more appropriate region in the superimposed region.
  • new noise that is not used for superimposition can be superimposed on other areas in the superimposition area, and as a result, high-definition can be further increased.
  • the moving image signal further includes an adjustment signal indicating the intensity of noise to be superimposed.
  • the moving first signal is moved.
  • the first noise is adjusted so that the intensity of the noise becomes the intensity indicated by the adjustment signal, and the adjusted first noise is superimposed on the superposition region.
  • the intensity of the first noise is adjusted according to the adjustment signal included in the moving image signal, so that the intensity can be determined on the side of generating and transmitting the moving image signal.
  • the first noise with a more appropriate intensity can be superimposed.
  • the moving image processing method further determines whether or not the switching of the image content has occurred between the processing target picture included in the moving image and the processed picture, When it is determined that the switching has occurred, a second noise that is not used for superimposition is newly generated and superimposed on the processing target picture. When it is determined that the switching has not occurred, the second noise is moved.
  • the first noise may be superimposed on the superimposed region. For example, when it is determined that the switching has occurred, the second noise of a type corresponding to the characteristics of the processing target picture is generated and superimposed on the processing target picture.
  • the second noise that has not been used for superimposition before the first noise is compensated for motion is processed. Since it is superimposed on the target picture, it is possible to prevent the same noise as the noise superimposed on the picture before the scene change from being superimposed on the picture after the scene change has occurred. In addition, the type of noise to be superimposed can be switched.
  • the intensity of the moved first noise is adjusted, and the adjusted first noise is superimposed on the superposition region.
  • the intensity is adjusted such that the higher the frequency component contained in the superposition area, the higher the frequency component.
  • the present invention can also be applied to a moving image encoding method for encoding a moving image so that the moving image is processed by the moving image processing method as described above. .
  • the image encoding method according to the present invention is an image encoding method for encoding a moving image, and generates an encoded image signal by encoding the moving image, and outputs the encoded image signal to the moving image. It is characterized by determining whether or not motion compensation should be performed on noise used for superimposition, and adding first identification information indicating the motion compensation determination result to the encoded image signal. .
  • the image decoding apparatus that has acquired the encoded image signal decodes the encoded image signal and is the first identification information added to the encoded image signal.
  • motion compensation flag motion compensation can be performed for noise used for superimposition on a moving image.
  • the image decoding apparatus moves the noise used for superimposition on the decoded moving image in accordance with the movement of the moving image, and the motive noise is converted into a moving image after the movement is generated. It can be superimposed on the image.
  • the image decoding apparatus can maintain the temporal correlation between the decoded moving image and the noise, and the viewer can display the detailed pattern of the object represented in the moving image. Recognize like. Therefore, it is possible to prevent deterioration in subjective image quality due to motion of moving images, which has been caused by the prior art.
  • the image encoding method further specifies and specifies a superimposition region on which noise is to be superimposed, according to the characteristics of the image, from among the encoding target pictures included in the moving image.
  • the Second identification information indicating the superposed region may be added to the encoded image signal.
  • the image decoding apparatus that has acquired the encoded image signal decodes the encoded image signal and serves as the second identification information added to the encoded image signal.
  • Noise can be superimposed on the superimposed region indicated by the noise flag. As a result, noise can be superimposed on an appropriate region to increase the sense of high definition.
  • the image encoding method further generates a decoded moving image by decoding the encoded image signal, and determines the motion compensation when determining the motion compensation.
  • the superimposition area is specified based on the above, the superimposition area is specified according to the characteristics of the image in the decoded moving image.
  • the image decoding apparatus can perform motion compensation for noise more appropriately in a more appropriate region.
  • the present invention is not limited to such a moving image processing method and image encoding method, and a moving image processing device, an image encoding device, and an image decoding device that perform processing based on those methods as much as possible.
  • the present invention can also be realized as a device, an integrated circuit, a program for causing a computer to execute processing based on these methods, and a storage medium for storing the program.
  • the moving image processing method of the present invention has an effect that the subjective image quality recognized by the viewer can be improved.
  • the processing load and circuit scale can be reduced, and its practical value is high.
  • FIG. 1 is a block diagram of a moving image processing apparatus according to Embodiment 1.
  • FIG. 2 is a flowchart showing an operation of the moving image processing apparatus according to the first embodiment.
  • FIG. 3A is a diagram showing a picture displayed when motion compensation is not performed for noise.
  • FIG. 3B is a diagram showing pictures processed by the moving image processing method according to Embodiment 1.
  • FIG. 4 is a block diagram of a moving image processing apparatus that works on a modification of the first embodiment.
  • FIG. 5 is a flow chart showing the operation of the moving image processing apparatus that works on the modification of the first embodiment.
  • FIG. 6A is a diagram showing a picture displayed when processing according to a scene change is not performed.
  • FIG. 6B is a diagram showing a picture processed by the moving image processing method according to the modification of the first embodiment.
  • FIG. 7 is a block diagram of a moving image processing apparatus according to Embodiment 2.
  • FIG. 8 is a flowchart showing an operation of the moving image processing apparatus in the second embodiment.
  • FIG. 9A is a diagram showing timings of decoding processing and noise processing of the moving image processing apparatus in the second embodiment.
  • FIG. 9B is a diagram showing another timing of the decoding process and the noise process of the moving image processing apparatus in the second embodiment.
  • FIG. 10 is a block diagram of an image encoding device in the third embodiment.
  • FIG. 11 is a flowchart showing the operation of the image determination unit in the third embodiment.
  • FIG. 12 is a block diagram of an image coding apparatus according to a first modification of the third embodiment.
  • FIG. 13 is a block diagram of an image encoding device according to a second modification of the third embodiment.
  • FIG. 14 is an explanatory diagram for explaining a variable-length code ⁇ ⁇ ⁇ by an additional information code key unit according to the second modification of the third embodiment.
  • FIG. 15 is a block diagram of an image encoding device according to a third modification of the third embodiment.
  • FIG. 16 is a flowchart showing the operation of the image determination unit according to the third modification of the third embodiment. Yat.
  • FIG. 17 is a block diagram of an image decoding apparatus according to Embodiment 4.
  • FIG. 18 is a block diagram of a noise motion compensation unit in the fourth embodiment.
  • FIG. 19 is a flowchart showing the operation of the noise motion compensation unit in the fourth embodiment.
  • Fig. 20 is a block diagram of an image decoding apparatus according to a modification of the fourth embodiment.
  • FIG. 21 is a flowchart showing operations of a noise motion compensation unit and a signal strength control unit according to a modification of the fourth embodiment.
  • FIG. 22 is a diagram showing configurations of a noise motion compensation unit that does not include a switch and a signal intensity control unit that includes a switch according to a modification of the fourth embodiment.
  • FIG. 23A is an explanatory diagram when the processing of the present invention is performed by a computer system using the flexible disk in the fifth embodiment.
  • FIG. 23B is another explanatory diagram when the processing of the present invention is performed by the computer system using the flexible disk in the fifth embodiment.
  • FIG. 23C is still another explanatory diagram when the processing of the present invention is performed by the computer system using the flexible disk in the fifth embodiment.
  • FIG. 24 is a block diagram showing an overall configuration of a content supply system that implements a content distribution service according to the sixth embodiment.
  • FIG. 25 is a diagram showing a mobile phone using the method of the present invention in the sixth embodiment.
  • FIG. 26 is a block diagram of a mobile phone in the sixth embodiment.
  • FIG. 27 is a diagram showing an example of a digital broadcasting system in the sixth embodiment.
  • a moving image processing apparatus according to Embodiment 1 of the present invention will be described.
  • FIG. 1 is a block diagram of a moving image processing apparatus according to this embodiment.
  • the moving image processing apparatus 100 powers noise in accordance with the motion of the image indicated by the input image signal VIN and superimposes the noise on the image.
  • noise frame memory 101 a noise frame memory 102, a noise determination unit 103, an adder 104, an initial noise generation unit 105, and a motion detection unit 106.
  • the initial noise generation unit 105 generates a noise signal N to be superimposed on the input image signal VIN and outputs it to the noise frame memory 102.
  • the noise signal N is, for example, a noise signal indicating a predetermined random noise.
  • the noise in the present embodiment is an image that gives the viewer a high-definition feeling by being superimposed on the picture indicated by the input image signal VIN, and has many high-frequency components.
  • the noise frame memory 102 uses the noise signal N output from the initial noise generation unit 105 and the motion compensation noise signal MCN output from the noise motion compensation unit 101 as the accumulated noise signal F.
  • the motion detection unit 106 acquires the input image signal VIN, detects the motion of the image indicated by the input image signal VIN for each region such as a block unit or a macroblock unit, and the detection result is a motion, for example.
  • the motion information such as vectors is output to the noise motion compensation unit 101 as an MV.
  • the motion detection unit 106 performs processing in the picture indicated by the input image signal VIN.
  • the motion information MV of the region to be processed is detected by finding a past picture force that is different from the picture of the region having the same or similar image as the region of the target (detection target).
  • the noise motion compensation unit 101 should superimpose the accumulated noise signal FMN in the region indicated by the motion information MV from the accumulated noise signal FMN accumulated in the noise frame memory 102 on the region to be processed. It is read out as a motion compensated noise signal MCN indicating noise and output to the noise determination unit 103 and the noise frame memory 102. As a result, motion compensation is performed on the accumulated noise signal FMN. That is, the noise in the region indicated by the motion information MV is moved to the region to be processed. In other words, noise is driven in accordance with the movement of the image.
  • the noise determination unit 103 acquires the input image signal VIN, identifies the characteristics such as the frequency of the image indicated by the input image signal VIN, and superimposes noise on that region for each region such as a block. It is determined whether or not. That is, the noise determination unit 103 determines a noise superimposition region in the picture indicated by the input image signal VIN. Furthermore, the noise determination unit 103 is based on the image characteristics specified as described above! Then, the noise gain indicated by the motion compensation noise signal MCN is adjusted. Then, the noise determination unit 103 outputs the gain-adjusted motion compensation noise signal M CN to the adder 104 as the superimposed noise signal SN.
  • the adder 104 acquires the input image signal VIN and the superimposed noise signal SN, and superimposes the superimposed noise signal SN on the input image signal VIN. That is, the adder 104 superimposes the noise indicated by the superimposed noise signal SN on the image in the overlapped area for each picture overlapped area indicated by the input image signal VIN. Then, the adder 104 outputs the input image signal VIN on which the superimposed noise signal SN is superimposed as the output image signal VOUT.
  • FIG. 2 is a flowchart showing the operation of the moving image processing apparatus 100.
  • the initial noise generation unit 105 when the moving image processing apparatus 100 acquires the first picture indicated by the input image signal VIN (step S100), the initial noise generation unit 105 generates an initial noise signal N for the first picture. And the initial noise signal N is stored in the noise frame memory 102 (step S102).
  • moving image processing apparatus 100 superimposes noise on the leading picture (step S104). That is, the noise determining unit 103 is stored in the noise frame memory 102.
  • the initial noise signal N is acquired via the noise motion compensation unit 101, and the noise superimposition region and the intensity of the noise in the head picture are determined. Further, the noise determination unit 103 adjusts the gain of the noise signal N according to the determined intensity for each determined overlapping region, and outputs it as the superimposed noise signal SN.
  • the adder 104 generates and outputs an output image signal VOUT by superimposing noise indicated by the superimposed noise signal SN on each superimposed region of the first picture.
  • the noise determination unit 103 determines a noise superimposition region in the next picture.
  • the noise determining unit 103 identifies the frequency of each region in the picture of the input image signal VIN, and determines that region as a superposed region when the frequency exceeds a predetermined value. .
  • the noise determination unit 103 determines the noise intensity in the region according to the amount of the high frequency component in the superimposed region. For example, the noise determining unit 103 determines a small noise intensity if there are few high frequency components, and determines a large noise intensity if there are many high frequency components.
  • the noise determination unit 103 determines whether or not there is a superimposed region in the picture based on the determination result of step S108 (step S110). If it is determined that there is a superimposition area (Y in step S110), the motion detection unit 106 uses the superimposition area and a picture that is earlier than the picture having the superimposition area to generate an image in the superposition area. Is detected (step S112).
  • the noise motion compensation unit 101 receives, from the noise frame memory 102, the accumulated noise signal FMN in the region indicated by the motion information MV indicating the detection result in step S112 (the region in the past picture from the picture having the superimposed region). Reading (step S114), motion compensation is performed on the accumulated noise signal FMN, and a motion compensation noise signal MCN corresponding to the superposed region is generated (step S116). That is, the noise motion compensation unit 101 moves the noise indicated by the accumulated noise signal FMN in the past area used for superimposing on the moving image to the above-described superimposition area.
  • the noise determination unit 103 causes the motion compensation noise so that the noise intensity of the motion compensation noise signal MCN generated in step S116 becomes the noise intensity determined in step S108.
  • the noise intensity of the signal MCN is changed (gain adjustment), and the superimposed noise signal SN with the changed noise intensity is output (step S118).
  • adder 104 superimposes the noise indicated by superimposed noise signal SN on the superposed region for each superposed region determined in step S108 (step S120).
  • step S120 When the superimposition is performed in step S120, adder 104 outputs a signal in which superimposed noise signal SN is superimposed on input image signal VIN as output image signal VOUT, and in step S110, superimposition is performed.
  • step S110 When it is determined that there is no area (N in Step S110), the input image signal VIN is output as the output image signal VOUT (Step S122).
  • the moving image processing apparatus 100 determines whether or not there is a picture to be processed next indicated by the input image signal VIN (step S124), and if it is determined that there is a picture (step S). If the result from step S106 is repeatedly executed and it is determined that there is no picture (N in step S124), the moving image processing ends.
  • FIG. 3A is a diagram showing a picture displayed when motion compensation is not performed for noise.
  • FIG. 3B is a diagram showing a picture processed by the moving image processing method according to the present embodiment.
  • noise is generated for the overlapping region WO in the picture FO, and the noise is superimposed on the overlapping region WO.
  • the noise in the overlap region WO of the picture FO is superimposed on the overlap region W1 of the picture F1 after being moved and adjusted in accordance with the movement of the airplane wings in the pictures FO and F1.
  • the noise in the overlapping region W1 of the picture F1 is the picture F1, It is moved according to the movement of the airplane wing in F2 and gain-adjusted, and then superimposed on the overlap area W2 of picture F2.
  • the noise moves with the wings of the airplane, so that the viewer who sees these pictures FO, Fl, and F2 as a moving image recognizes the noise superimposed on the superimposed area of each picture as a Fritz force noise. It is recognized as a fine pattern on the airplane wing. As a result, it is possible to improve the subjective image quality by increasing the high definition of the moving image.
  • noise determining unit 103 determines the noise superimposition region and intensity based on the high-frequency component of input image signal VIN, but based on other characteristics of input image signal VIN. You may decide. For example, the noise determination unit 103 may determine based on a variance value of pixel values in a picture area indicated by the input image signal VIN. That is, the noise determination unit 103 determines the region as a superimposed region when the variance value in the region is large, and does not determine the region as the superimposed region when the variance value in the region is small. As a result, it is possible to prevent noise from being superimposed on a flat area and to achieve finer image quality.
  • a noise superimposition region and intensity may be determined using color information.
  • the noise determination unit 103 holds a table in which colors and noise intensities are associated with each other in advance, and determines the noise intensity according to the color in the picture area indicated by the input image signal VIN. Specifically, the noise determining unit 103 determines the strength of the large noise when there is a lot of green in the region. In addition, when there is a lot of blue in the region, the noise determination unit 103 determines a small noise intensity or does not determine the region as a superimposition region.
  • the edge information may be used to determine the noise superimposition region and intensity! /.
  • the noise determination unit 103 does not determine the area as a superimposed area. .
  • noise determining section 103 determines the noise superimposition region and intensity only from input image signal VIN, but it may also be determined using motion information MV. In this way, the noise intensity can be controlled in a region where movement is fast and a region where movement is slow. For example, the noise determination unit 103 determines the strength of a large noise in an area where movement is fast. In the area where the movement is slow, the intensity of the small noise is determined, or the area is not determined as the overlapping area.
  • initial noise generation section 105 generates and outputs one type of noise signal N.
  • noise signal N N types may be different.
  • the initial noise generation unit 105 checks the directionality of the image in the region. For example, when the vertical direction component is large, the initial noise generation unit 105 generates the noise signal N having the vertical direction component, and when the horizontal direction component is large. Then, a noise signal N having a horizontal direction component is generated, and if there is no directionality, a random noise signal N is generated. Thereby, noise suitable for the image can be further superimposed.
  • the noise determination unit 103 may determine the current noise superimposition region and intensity using the noise superimposition region and intensity determined in the past. In this case, by determining the noise intensity that is currently determined from the past noise intensity, the temporal continuity of the noise can be further increased, and a higher image quality of the image on which the noise is superimposed can be achieved. it can. Furthermore, it is possible to achieve higher image quality by motion compensation of past noise intensity.
  • the noise determination unit 103 may be used in combination without using the above-described method alone. As a result, the noise determination unit 103 can make various determinations, and can achieve higher image quality.
  • the moving image processing apparatus that is effective in this modification detects a scene change, and for the first picture after the scene change, newly generates noise without performing motion compensation for the noise. To do. This can improve the image quality when the contents of moving images are switched in TV broadcasting.
  • FIG. 4 is a block diagram of a moving image processing apparatus 100a that works on the present modification.
  • a moving image processing apparatus 100a that is useful in the present modification includes a noise motion compensation unit 101, a noise frame memory 102, a noise determination unit 103, an adder 104, an initial noise generation unit 105a, and a motion detection unit. 106 and a scene change detection unit 107.
  • the scene change detection unit 107 acquires the input image signal VIN and inputs the input image signal VI. Based on N, it is determined whether the content of the moving image is switched, that is, whether there is a scene change. When it is determined that there is a scene change, the scene change signal SC is output to the initial noise generation unit 105a.
  • the initial noise generation unit 105a Upon obtaining the scene change signal SC from the scene change detection unit 107, the initial noise generation unit 105a generates a noise signal N to be superimposed on the input image signal VIN and outputs the noise signal N to the noise frame memory 102. In addition, the initial noise generation unit 105a identifies a superimposition region in the same manner as the noise determination unit 103, and generates a noise signal N corresponding to the image characteristics of the superposition region. For example, when the superimposed area represents an artificial object such as an airplane wing, a noise signal N indicating directional noise is generated, and when the superimposed area represents a natural object such as a forest, a random signal is generated. A noise signal N indicating the noise is generated.
  • the initial noise generation unit 105a is notified of the image characteristics of the superimposed region determined by the noise determination unit 103 without specifying the superimposed region by itself, and the noise determination unit 103 notifies the initial noise generation unit 105a according to the characteristics.
  • a noise signal N may be generated.
  • the noise motion compensation unit 101 acquires the noise signal N output from the initial noise generation unit 105a as the accumulated noise signal FMN via the noise frame memory 102, the noise motion compensation unit 101 accumulates the noise signal N.
  • the accumulated noise signal FMN without performing motion compensation on the noise signal FMN is output as the motion compensation noise signal MCN.
  • the noise motion compensation unit 101 may stop performing the motion compensation when receiving a direct instruction from the initial noise generation unit 105a.
  • the initial noise generation unit 105a outputs the noise signal N and also outputs a notification signal indicating that the noise signal N has been output to the noise motion compensation unit 101.
  • the noise motion compensation unit 101 obtains the notification signal
  • the noise motion compensation unit 101 performs motion compensation on the noise signal N obtained through the noise frame memory 102 without performing motion compensation. Output as MCN.
  • FIG. 5 is a flowchart showing the operation of the moving image processing apparatus 100a that works on the present modification.
  • the scene change detection unit 107 compares the acquired picture with, for example, the immediately preceding (past) picture, and the scene change is detected. It is determined whether or not there is a match (step S 142). For example, scene The change detection unit 107 calculates the difference between the pixel values at the same position in the two pictures, and if the sum of the absolute value differences in the entire picture is a certain value or more, the scene change If it is less than a certain value, it is determined that the scene change was strong. The scene change detection unit 107 determines that a scene change has occurred when the acquired picture is the first picture indicated by the input image signal VIN.
  • step S144 the moving image processing apparatus 100a determines whether or not the picture acquired in step S140 has a superimposing region force S, and if there is a superimposing region, performs noise motion compensation on the superimposing region, The motion-compensated noise is superimposed on the picture overlap region. On the other hand, if there is no overlapping region, the moving image processing apparatus 100a omits processing such as noise motion compensation for the picture.
  • the scene change detection unit 107 determines that a scene change has occurred (Y in step S142)
  • the scene change detection unit 107 outputs a scene change signal SC to the initial noise generation unit 105a.
  • the noise is initialized by the initial noise generation unit 105 (step S146).
  • the motion information MV in the motion detector 106 is also initialized. Therefore, the noise after the scene change is superimposed on the picture before the scene change is not used.
  • the initial noise generation unit 105a After the initialization in step S146, the initial noise generation unit 105a newly generates and outputs a noise signal N (step S148). Then, the noise determination unit 103 determines a noise superimposition region and noise intensity in the picture acquired in step S140 (step S150).
  • noise determination unit 103 determines whether or not there is a superimposed region in the picture (step S152).
  • the noise determination unit 103 When it is determined that there is an overlapping region (Y in step S152), the noise determination unit 103 generates the noise frame memory 102 from the noise frame memory 102 via the noise motion compensation unit 101 and is generated by the initial noise generation unit 105a. Acquires the accumulated noise signal N as the accumulated noise signal FMN. And noise determination The unit 103 adjusts the gain of the noise signal N so that the noise intensity of the noise signal N becomes the noise intensity determined in step S150, and superimposes the gain-adjusted noise signal N on the superimposed noise signal SN. Output as. As a result, the adder 104 superimposes the superimposed noise signal SN on the superimposed region of the picture determined by the noise determining unit 103 (step S 154).
  • step S154 When the superimposed noise signal SN is superimposed on the superimposed region in step S154 or step S144, the adder 104 outputs the input image signal VIN on which the superimposed noise signal SN is superimposed as the output image signal VOUT. If it is determined in step S152 or step S144 that the force is a superposition region force and the superposition noise signal SN is not superposed, the input image signal VIN is output as the output image signal VOUT (step S156).
  • step S 158 determines whether or not there is a next picture to be processed indicated by the input image signal VIN (step S 158), and when determining that there is a picture (step S 158 Y)
  • step S140 determines whether or not there is a next picture to be processed indicated by the input image signal VIN (step S 158), and when determining that there is a picture (step S 158 Y)
  • step S140 is repeatedly executed, and when it is determined that there is no picture (N in step S158), the moving image processing is terminated.
  • FIG. 6A is a diagram showing a picture that is displayed when processing according to a scene change is not performed.
  • FIG. 6B is a diagram showing a picture processed by the moving image processing method that can be used in the present modification.
  • the superimposed noise can be changed according to the change in the scene of the input moving image. Can be suppressed.
  • the scene change detection unit 107 detects a scene change based on the absolute value difference sum of pixel values at the same position in two pictures at different times.
  • a scene change may be detected.
  • the scene change detection unit 107 detects a scene change based on the sum of absolute value differences between the motion compensated image using the motion information MV and the detection target image.
  • erroneous detection can be prevented as compared with the case of detection based on the sum of absolute value differences at the same position.
  • the calculated value is not limited to the sum of absolute value differences, and may be another index that can determine a difference between images, for example, a sum of squares of pixel value differences.
  • the scene change detection unit 107 detects a scene change based on the sum of absolute value differences in the entire picture. However, for each region of the picture, the scene change is detected based on the sum of absolute value differences of the region. It may be detected. That is, for each picture region, motion-compensated noise is superimposed on the region, or noise generated by the initial noise generation unit 105a is superimposed on the region. For example, it is an object without changing the background in a moving image When injury appears, the noise generated by the initial noise generation unit 105a is superimposed only on the region representing the object, and the motion-compensated noise is superimposed on the other regions.
  • the moving image processing apparatus decodes the encoded image signal BS indicating the encoded picture, and performs noise similar to the decoded picture by the same processing as in the first embodiment. Is superimposed.
  • FIG. 7 is a block diagram of the moving image processing apparatus according to the present embodiment.
  • the moving image processing apparatus 200 includes a decoding processing unit 110, an image motion compensation unit 111, an image frame memory 112, an adder 113, an adder 104, a noise determination unit 103, A noise frame memory 102, an initial noise generation unit 105, and a noise motion compensation unit 101 are provided. That is, the moving image processing apparatus 200 includes components other than the movement detecting unit 106 included in the moving image processing apparatus 100 of Embodiment 1, a decoding processing unit 110, an image motion compensation unit 111, an image frame, and the like. A memory 112 and an adder 113 are provided.
  • Decoding processing section 110 performs decoding processing such as variable-length decoding, inverse quantization, and inverse orthogonal transform on encoded image signal BS, and motion information MV that is a motion vector and differential image signal DFV Is output.
  • the encoded image signal BS is a signal generated from a method of encoding using motion information, such as MPEG (Moving Picture Expert Group).
  • the image frame memory 112 stores a picture indicated by the decoded image signal DV output from the adder 113 as a reference picture RF.
  • the image motion compensation unit 111 is stored in, for example, the motion information MV output from the decoding processing unit 110 and the image frame memory 112 for each region (block, macroblock, etc.) included in the decoding target picture.
  • motion compensation for the image is performed using the reference picture RF. That is, the image motion compensation unit 111 extracts the region of the reference picture RF indicated by the motion information MV, and outputs it to the adder 113 as the predicted image signal PS of the decoding target region.
  • the adder 113 adds the predicted image signal PS to the differential image signal DFV output from the decoding processing unit 110 for each decoding target region, and outputs a signal that is the result of the addition to the decoded image signal. Output as DV.
  • Noise determining section 103 and adder 104 in the present embodiment treat decoded image signal DV output from adder 113 as input image signal VIN in the first embodiment, and are the same as in the first embodiment. Perform the following process.
  • noise motion compensation section 101 in the present embodiment performs the same processing as in Embodiment 1 using motion information MV output from decoding processing section 110.
  • FIG. 8 is a flowchart showing the operation of the moving image processing apparatus 200 in the present embodiment.
  • step S170 when the decoding processing unit 110 of the moving image processing apparatus 200 acquires a code key picture included in the encoded image signal BS (step S170), the decoding processing unit 110 decodes the code key picture and performs a difference.
  • the divided image signal DFV and the motion information MV are output (step S172).
  • the image motion compensation unit 111 acquires the reference picture RF from the image frame memory 112 (step S174), and uses the motion information MV output in step S172 to perform motion with respect to the reference picture RF. Compensation is performed (step S176). Then, the adder 113 generates a decoded picture by adding the predicted image signal PS generated by the motion compensation in step S 176 and the difference image signal DFV output by the decoding process in step S 172. Then, the decoded picture is output as a decoded image signal DV (step S178). Further, the adder 113 stores the decoded picture indicated by the decoded picture signal DV in the picture frame memory 112 as the reference picture RF (step S 180).
  • the noise motion compensation unit 101 acquires the accumulated noise signal FMN from the noise frame memory 102 (step S182), and uses the motion information MV output in step S172, and the noise indicated by the accumulated noise signal FMN. Is compensated for (step S184). Further, the noise motion compensation unit 101 stores the motion compensation noise signal MCN generated by the motion compensation in step S184 in the noise frame memory 102 as the accumulated noise signal FMN (step S186).
  • steps S174 to S180 described above and the processes in steps S182 to S186 described above are performed in parallel.
  • steps S182 and S184 are performed.
  • the initial noise generation unit 105 generates the noise signal N.
  • the noise signal N is stored in the noise frame memory 102 as a motion compensation noise signal MCN.
  • the noise determination unit 103 determines a noise superimposition region in the decoded picture indicated by the decoded image signal DV (step S188). Further, the noise determination unit 103 generates and outputs a superimposed noise signal SN by performing gain adjustment on the motion compensation noise signal MCN generated by the motion compensation in step S184 (step S190).
  • the adder 104 superimposes the superimposed noise signal SN generated in step S190 on the superimposed region (step S192), and outputs the output image signal VOUT (step S194). If there is no superimposition region determined in step S190, the superimposition in step S192 is not performed, and the decoded picture generated in step S178 is output as the output image signal VOUT.
  • the decoding processing unit 110 determines whether or not there is an encoded picture to be processed next in the encoded image signal BS (step S196), and determines that there is an encoded picture. If this is the case (Y in step S196), the processing from step S170 is repeatedly executed. If it is determined that there is no coding picture (N in step S196), the processing of the moving image is terminated.
  • the moving image processing apparatus 200 includes a force provided with the image motion compensation unit 111 and the noise frame memory 102. Instead of these, one motion compensation unit having these functions. May be provided. Similarly, the moving image processing apparatus 200 may include a single frame memory having these functions instead of the power provided with the image frame memory 112 and the noise frame memory 102.
  • FIG. 9A is a diagram showing the timing of decoding processing and noise processing of the moving image processing apparatus 200 in the present embodiment.
  • the moving picture processing apparatus 200 performs the processing for the I picture 10 Decoding processing IOd and noise processing IOn are performed simultaneously. Note that decoding processing for a picture indicates processing in steps S170 to S180 shown in FIG. 8, and noise processing for a picture shows processing in steps S182 to S186 shown in FIG. [0115] Also, the moving picture processing apparatus 200 performs the decoding process Pld and the noise processing Pin for the P picture P1 at the same time for the P pictures PI and P2 next to the I picture 10 in the same manner as described above. Decoding processing P2d and noise processing P2n for P2 are performed simultaneously.
  • FIG. 9B is a diagram showing another timing of the decoding process and the noise process of the moving image processing apparatus 200 in the present embodiment.
  • an encoded image signal BS is composed of an intra-picture encoded picture (I picture), a forward prediction encoded picture (P picture), and a bidirectional predictive encoded picture (B picture)!
  • the moving image processing apparatus 200 performs the decoding process B 1 d and the noise process B In on the B picture B 1 at the same time for the B pictures Bl and B2, as well as the decoding for the B picture B2. Processing B2d and noise processing B2n are performed simultaneously.
  • the moving image processing apparatus 200 can shorten the overall moving image processing time by simultaneously performing the decoding processing and the noise processing. Furthermore, in the moving image processing apparatus 200, when motion compensation is performed for noise, the motion information MV output from the decoding processing unit 110 is used to bother the motion of the moving image indicated by the decoded image signal DV. Since it is not detected, the processing load can be reduced by omitting the motion detection process.
  • the present embodiment also includes the scene change detection unit 107, and generates initial noise each time a scene change is detected for the decoded image signal DV.
  • the noise signal N from the unit 105 may be superimposed on the decoded image signal DV.
  • the image frame memory 112 and the noise frame memory 102 are configured to detect the picture indicated by the decoded image signal DV and the noise indicated by the accumulated noise signal FMN in any of the picture unit, macroblock unit, and block unit, respectively. You can manage by unit.
  • the noise signal N may indicate only the luminance of each pixel. As a result, the color shift that occurs when noise is added can be prevented, and the circuit scale can be reduced.
  • the noise motion compensation unit 101 when a predetermined region is intra-coded and the noise motion compensation unit 101 cannot obtain the motion information MV in the region from the decoding processing unit 110, the noise motion compensation unit 101 The noise signal N output from the initial noise generation unit 105 without performing motion compensation may be output as the motion compensation noise signal MCN. [0123] (Embodiment 3)
  • the image coding apparatus indicates whether or not noise should be superimposed on a decoded moving image when a moving image is encoded and a code image signal is generated.
  • a noise flag and a motion compensation flag indicating whether or not the noise should be generated by motion compensation are included in the encoded image signal.
  • FIG. 10 is a block diagram of image coding apparatus 300 in the present embodiment.
  • the image coding apparatus 300 includes a moving image coding unit 301, an image judging unit 302, an additional information coding unit 303, and an adder 304.
  • the moving image encoding unit 301 generates and outputs an encoded image signal BS by performing compression encoding on each picture indicated by the input image signal VIN. Furthermore, the moving image encoding unit 301 decodes each encoded picture, and outputs a decoded image signal LDV indicating the decoded picture.
  • compression coding is a process for reducing the data amount of the input image signal VIN. For example, in MPEG, compression coding is performed by frequency conversion, quantization, and variable for a difference image that is a difference between a predicted image and an original image by an inter-screen predictive coding method and an intra-screen predictive coding method. It is to perform a long code.
  • the decoded image signal LDV is a signal generated for performing inter-screen prediction.
  • MPEG is an example, and the compression code method is not limited to this.
  • the decoded image signal LDV may be generated not only in the case of the inter-screen prediction code ⁇ ⁇ but also in the case of performing the intra-screen prediction code ⁇ .
  • Image determining section 302 according to the characteristics of each region of the decoded picture indicated by decoded image signal LDV, a noise flag indicating whether noise should be superimposed for each region, and motion compensation for the noise. A motion compensation flag indicating whether or not to generate is generated. Then, the image determination unit 302 outputs the noise flag and the motion compensation flag as the flag signal FL. Note that the image determination unit 302 may also output an adjustment signal indicating how noise should be adjusted according to the image characteristics indicated by the decoded image signal LDV.
  • Additional information encoding unit 303 obtains flag signal FL from image determination unit 302, performs encoding processing such as variable-length encoding on the flag signal FL, and indicates the processing result. Outputs the sign flag signal CFL.
  • the adder 304 adds the code key flag signal CFL output from the additional information code key unit 303 to the coded image signal BS output from the moving image coding unit 301 for each of the above-described regions.
  • the encoded image signal BS combined with the encoded flag signal CFL is output as the encoded signal BSa.
  • the adjustment signal is also variable-length encoded in the same manner as the flag signal FL, and is included in the encoded signal BSa as an encoded adjustment signal. It is done.
  • FIG. 11 is a flowchart showing the operation of the image determination unit 302 in the present embodiment.
  • the image determination unit 302 acquires the decoded image signal LDV (step S220), and for each of the picture areas indicated by the decoded image signal LDV, a random high frequency component is placed in that area. It is determined whether or not there is a certain key (step S222). When image determination unit 302 determines that there is no high frequency component due to randomness (N in step S222), it sets the noise flag in that region to OFF (step S224). On the other hand, when the image determination unit 302 determines that there is a random frequency component having a high frequency component (Y in step S222), the noise flag in that region is set to ON (step S226).
  • the image determination unit 302 determines whether or not the image moves uniformly in all regions where it is determined that there is a high-frequency component with randomness! Judgment is made (step S228). For example, the image determination unit 302 calculates a variance value of motion information in these areas by referring to a (past) picture before the pictures having those areas, and the variance value is determined in advance. If the variance value is larger than a predetermined value, it is determined that the images of all those areas are moving uniformly. It is determined that the image of the image moves uniformly.
  • the image determination unit 302 determines that it is moving uniformly (Y in step S228), it sets the motion compensation flag of each region to ON (step S230), and if it does not move uniformly.
  • the motion compensation flag for each area is set to OFF (step S232).
  • the image determination unit 302 performs the miscellaneous setting set in steps S224, S226, S230, and S232.
  • a flag signal FL indicating a sound flag and a motion compensation flag is generated and output (step S2 34).
  • the flag signal FL includes only a noise flag that is set to OFF, a noise signal flag that is set to ON and a motion compensation flag that is set to ON, or is set to ON. Noise signal flag and motion compensation flag set to OFF.
  • the code key flag signal CFL is added to each area of the coded picture, so the code key signal BSa is obtained.
  • the image decoding apparatus after decoding the encoded picture, the power to be superimposed on each area of the picture, and the noise when superimposing the noise are applied. It can be easily determined whether or not motion compensation should be performed. That is, the image decoding apparatus can easily superimpose an appropriate noise without specifying the feature of the decoded picture on an appropriate area, and can improve the image quality of the decoded picture.
  • image determination unit 302 sets the motion compensation flag based on the uniformity of motion, but the motion compensation flag may be set by other methods. .
  • the image determination unit 302 may check the magnitude of the motion of the image indicated by the decoded image signal LDV, and may set the motion compensation flag to OFF if the magnitude is greater than a certain value. Yes. Further, the image determination unit 302 may set the motion compensation flag based on a combination of the magnitude and uniformity of the motion.
  • additional information code encoding section 303 performs variable length encoding, but may encode the information by other methods. For example, when the flag signal FL can be predicted based on the encoded image signal BS, the additional information encoding unit 303 does not encode the flag signal FL and encodes only the unpredictable flag signal FL. . As a result, the code amount can be reduced.
  • the image determination unit 302 in the above embodiment generates the flag signal FL based on the decoded image signal LDV. However, the image determination unit according to this modification is based on the input image signal VIN. Then, the flag signal FL is generated.
  • FIG. 12 is a block diagram of an image encoding device that works on this modification.
  • This image encoding device 300a includes an image determination unit 302a that acquires the input image signal VIN, instead of the image determination unit 302 of the image encoding device 300 in the above embodiment.
  • Image determination unit 302a performs the same processing as image determination unit 302 using input image signal VIN instead of decoded image signal LDV. That is, the image determination unit 302a sets a noise flag and a motion compensation flag for each region according to the characteristics of each region of the picture indicated by the input image signal VIN, and sets the noise flag and the motion compensation flag as flags. Output as signal FL.
  • the decoded image signal LDV is not output, and therefore the circuit scale can be reduced as compared with the image encoding device 300 in the above embodiment.
  • the additional information code section according to this modification variable-codes the flag signal FL using the motion information.
  • FIG. 13 is a block diagram of an image encoding device that works on this modification.
  • the image encoding device 300b uses the motion information indicating the motion of the image of the input image signal VIN instead of the moving image encoding unit 301 of the image encoding device 300 of the above embodiment.
  • the flag signal FL and the above-described motion information MV are obtained instead of the additional information encoding unit 303 of the image encoding unit 300 of the above embodiment.
  • An additional information code key section 303b is provided.
  • the moving image encoding unit 301b includes the motion detection unit 106 of the first embodiment, detects the motion of the image between the pictures indicated by the input image signal VIN, and motion information MV indicating the motion. Is output, and the motion information MV is used to perform inter prediction encoding. Note that the motion information MV is encoded and stored in the encoded image signal BS.
  • the additional information code unit 303b uses the motion information MV output from the moving image code unit 301b to predict flag signals (noise flag and motion compensation flag) in each of the above regions.
  • the flag signal output from the image determination unit 302 is variable-length encoded based on the prediction result.
  • FIG. 14 is an explanatory diagram for explaining the variable-length code key by the additional information code key unit 303b.
  • the additional information encoding unit 303b is a reference picture used to generate a prediction image when encoding the picture FR2. Refer to FR1. Further, the additional information encoding unit 303b also acquires the motion information MV detected for the block Bkt of the picture FR2 as the moving image encoding unit 301b. This motion information MV indicates the block RBk of the reference picture FR1.
  • the additional information code key section 303b specifies the flag signal set for the block Bk9 that overlaps most widely with the reference block RBk. That is, the additional information code key unit 303b predicts that it is the same as the flag signal set for the flag signal power block Bk9 for the block Bkt. Then, the additional information code key unit 303b performs variable length coding using the relationship between the flag signals of the block Bk9 and the block Bkt. That is, the additional information encoding unit 303b assigns information that minimizes the code amount to the flag signal in the block Bkt when the flag signals in the two blocks are the same.
  • the motion information MV represents the position having the highest correlation with the block Bkt in the reference picture FR1 that has already been encoded and decoded. Therefore, the flag signal of the block RBk that has already been encoded and decoded and has a high correlation with the block Bkt is identified from the motion information of the block Bkt corresponding to the flag signal to be encoded. Since the block RB k is highly correlated with the block Bkt, there is a high probability that the flag signals of the two blocks RBk and Bkt are the same. By using this high probability, the information amount of the sign key flag signal CFL can be reduced.
  • the additional information coding unit 303b that works in the present modification predicts that the flag signal of the block Bkt is the same as the flag signal of the block Bk9 and the other flag signal. May be.
  • the block RBk includes a part of the blocks Bkl, Bk2, Bk3, and Bk9 of the reference picture FR1.
  • the additional information encoding unit 303b receives a flag signal (such as median average value) for which the flag signal power of these four blocks is also calculated. Predicted to be the same as the Bkt flag signal. As a result, it is possible to suppress an increase in the code amount when the flag signals vary.
  • the image determination unit generates a flag signal based on the decoded image signal LDV and the input image signal VIN.
  • FIG. 15 is a block diagram of an image encoding device that works on this modification.
  • the image encoding device 300c performs image determination for acquiring the decoded image signal LDV and the input image signal VIN instead of the image determining unit 302 of the image encoding device 300 of the above embodiment. Part 302c is provided.
  • the image determination unit 302c calculates a difference image that is a difference between the image indicated by the input image signal VIN and the image indicated by the decoded image signal LDV, and a noise flag corresponding to the frequency characteristics of the difference image. Set.
  • FIG. 16 is a flowchart showing the operation of the image determination unit 302c that works on this modification.
  • the image determination unit 302c acquires the input image signal VIN and the decoded image signal LDV (step S250), and the regions in the picture that correspond to each other in the input image signal VIN and the decoded image signal LDV, respectively.
  • the difference between the images in the respective regions of the input image signal V IN and the decoded image signal LDV is calculated as a difference image (step S252).
  • the image determination unit 302c determines whether or not the difference image has a high frequency component in a random manner (step S254). .
  • the image determining unit 302 determines that there is no high frequency component due to randomness (N in step S254), it sets the noise flag of the region corresponding to the difference image to OFF (step S256).
  • image determination unit 302 determines that there is a high-frequency frequency component due to randomness (Y in step S254), it sets the noise flag of the region corresponding to the difference image to ON (step S258).
  • the image determination unit 302c is the same as the image of the decoded image signal LDV (or the input image signal VIN) corresponding to the region where it is determined that there is a high-frequency component with randomness. It is determined whether or not one or a similar image is in the picture indicated by the decoded image signal LDV that has already been acquired (step S 260).
  • step S260 when the image determination unit 302c determines that there is an identical or similar image (Y in step S260), the motion compensation flag is set to ON (step S262), and the same or similar image is found. If it is determined that there is not (N in Step S260), the motion compensation flag is set to OFF (Step S264).
  • the image determination unit 302c generates and outputs a flag signal FL indicating the noise flag and the motion compensation flag set in steps S256, S258, S262, and S264 (step S256).
  • the additional information encoding unit 303 acquires the motion information MV from the moving image encoding unit 301 in the same manner as the additional information encoding unit 303b of the second modification, and the Movement information
  • the sign of the flag signal FL may be performed using MV.
  • the code amount of CFL can be further reduced.
  • the image decoding apparatus decodes the encoded signal BSa generated by the image encoding apparatus of the third embodiment, and moves noise to the decoded picture. Superimpose by compensation.
  • FIG. 17 is a block diagram of an image decoding apparatus according to the present embodiment.
  • Image decoding apparatus 400 in the present embodiment includes moving image decoding section 403, additional information decoding section 402, noise motion compensation section 401, adder 404, and initial noise generation section 105.
  • the moving picture decoding unit 403 obtains the code signal BSa, separates and outputs the code flag signal CFL from the code signal BSa, and outputs the code included in the code signal BSa.
  • the decoded image signal BS is decoded.
  • the moving image decoding unit 403 performs variable length decoding, inverse quantization, and inverse frequency conversion on the encoded image signal BS.
  • a predicted image is generated from an already decoded image, and a decoded image is generated by adding the difference image to the predicted image.
  • the video decoding unit 403 Outputs a decoded image signal DV indicating the decoded image.
  • MPEG is an example, and when the encoded image signal BS is encoded by another method, the moving image decoding unit 403 decodes the encoded picture according to the method.
  • the moving picture decoding unit 403 performs decoding processing such as variable length decoding on the encoded motion information MV included in the encoded signal BSa, and the decoded motion information MV Is output.
  • Additional information decoding section 402 acquires code key flag signal CFL output from moving picture decoding section 403, and performs decoding processing such as variable length decoding key on the code key flag signal CFL. Go. Then, the additional information decoding unit 402 outputs the flag signal FL generated by the decoding process.
  • Initial noise generation section 105 generates and outputs noise signal N to be superimposed on decoded image signal DV.
  • the noise motion compensation unit 401 performs motion compensation for noise in accordance with the noise flag and motion compensation flag included in the flag signal FL output from the additional information decoding unit 402 for each picture area indicated by the decoded image signal DV. I do. That is, the noise motion compensation unit 401 acquires the noise signal N output from the initial noise generation unit 105 when the noise flag of the flag signal FL indicates ON and the motion compensation flag indicates OFF, and the noise signal N Is output as a motion compensation noise signal MCN to be superimposed on the picture area corresponding to the flag signal FL.
  • the noise motion compensation unit 401 when the motion compensation flag indicates ON when the noise motion compensation unit 401 indicates the noise flag power SON of the flag signal FL, the noise motion compensation unit 401 performs superimposition based on the motion information MV output from the video decoding unit 403.
  • the noise used in the past is moved to the area of the picture corresponding to the flag signal FL. That is, the video decoding unit 403 performs motion compensation on the motion compensation noise signal MCN used in the past. Then, the video decoding unit 403 outputs the noise generated by the motion compensation as a new motion compensation noise signal MCN. Further, the noise motion compensation unit 401 stops the output of the motion compensation noise signal MCN when the noise flag of the flag signal FL indicates OFF.
  • Adder 404 obtains decoded image signal DV and motion compensation noise signal MCN, and superimposes motion compensation noise signal MCN on decoded image signal DV. That is, the adder 404 decodes For each picture area indicated by the image signal DV, the noise indicated by the motion compensation noise signal MCN is superimposed on the image in that area. Then, the adder 404 outputs the decoded image signal DV on which the motion compensation noise signal MCN is superimposed as the output image signal VOUT.
  • FIG. 18 is a block diagram of noise motion compensation unit 401 in the present embodiment.
  • the noise motion compensation unit 401 in the present embodiment includes a switch SW and a noise frame memory 102.
  • the switch SW connects the terminal d by switching between terminals a, b, and c according to the flag signal FL. That is, the switch SW connects the terminal d to the terminal a and outputs the motion compensation noise signal MCN from the noise frame memory 102 when the noise flag of the flag signal FL indicates ON and the motion compensation flag indicates ON. Set to the state to be performed. This setting provides motion compensation.
  • the switch SW connects the terminal d to the terminal c, and the noise signal N output from the initial noise generator 105 moves. Set to the state to be output as compensation noise signal MCN.
  • the switch SW connects the terminal d to the terminal b, and sets the state in which the motion compensation noise signal MCN is not output from the noise motion compensation unit 401.
  • the noise frame memory 102 stores the motion compensation noise signal MCN that has already been used for superposition.
  • the noise frame memory 102 acquires the motion information MV
  • the noise frame memory 102 extracts the motion compensation noise signal MCN in the region indicated by the motion information MV from the accumulated motion compensation noise signal MCN and outputs it. . That is, the noise motion compensation unit 401 performs motion compensation on the motion compensation noise signal MCN stored in the noise frame memory 102. Further, the noise frame memory 102 stores the motion compensated noise signal MCN output as described above as the motion compensated noise signal MCN of the region to be processed.
  • FIG. 19 is a flowchart showing the operation of the noise motion compensation unit 401 in the present embodiment.
  • the noise motion compensation unit 401 first acquires the flag signal FL (step S280), and determines whether the noise flag included in the flag signal FL indicates ON or not (step S282).
  • the noise motion compensator 401 determines that the noise flag indicates ON (Y in step S282)
  • the noise motion compensator 401 further includes a force indicating that the motion compensation flag included in the flag signal FL is ON. It is determined whether or not (step S284).
  • the noise motion compensation unit 401 outputs the motion compensation noise signal MCN from the noise frame memory 102, thereby performing motion compensation for noise. Perform (Step S286).
  • the noise motion compensation unit 401 when it is determined that the motion compensation flag indicates OFF (N in step S284), the noise motion compensation unit 401 newly generates noise and outputs the noise as the motion compensation noise signal MCN (step S284). S288). That is, the noise motion compensation unit 401 outputs the noise signal N generated by the initial noise generation unit 105 as the motion compensation noise signal MCN.
  • the encoded signal BSa generated by the image encoding device of Embodiment 3 is decoded and decoded according to the flag signal FL included in the encoded signal BSa. Noise can be appropriately superimposed on the converted picture by motion compensation.
  • additional information decoding section 402 may decode code key flag signal CFL using motion information MV output from moving picture decoding section 403. That is, when the encoded signal BSa is generated / generated by the image encoding apparatus 300b according to the second modification of the third embodiment, the flag signal FL is encoded using the motion information MV. It is because he has been struck.
  • the adder 404 adds the pixel value K indicated by the motion compensated noise signal MCN to the pixel value J indicated by the decoded image signal DV, thereby superimposing noise on the picture indicated by the decoded image signal DV.
  • the pixel value K indicated by the motion compensated noise signal MCN may be added after being converted by a function.
  • the noise intensity indicated by the motion compensation noise signal MCN can be suppressed by adding the square root or the cube root of the pixel value K.
  • the noise motion compensation unit 401 may output the noise signal N output from the initial noise generation unit 105 without performing motion compensation as the motion compensation noise signal MCN.
  • the image decoding apparatus further adjusts the noise intensity based on the information included in the code signal, and decodes the adjusted noise. The image is superimposed.
  • FIG. 20 is a block diagram of an image decoding apparatus that works on the present modification.
  • An image decoding apparatus 400a includes a video decoding unit 403a, an additional information decoding unit 402a, a noise motion compensation unit 401, an initial noise generation unit 105, and a signal strength control. Part 411 and adder 404 are provided.
  • the moving picture decoding unit 403a acquires a coded signal BSa including a sign key adjustment signal CAD for adjusting the noise intensity. Then, the moving picture decoding unit 403a separates and outputs the coding adjustment signal CAD and the coding flag signal CFL from the code key signal BSa. Further, similar to the video decoding unit 403 of the above embodiment, the video decoding unit 403a decodes the encoded image signal BS included in the encoded signal B Sa into a decoded image signal DV and outputs the decoded image signal DV. The encoded motion information MV included in the BS signal BSa is decoded and output.
  • Additional information decoding section 402a acquires code key flag signal CFL and coding adjustment signal CAD output from moving picture decoding section 403a, and performs decoding such as variable-length decoding on these signals. Process. As a result of the decoding process, the additional information decoding unit 402a outputs the flag signal FL to the noise motion compensation unit 401 and outputs the adjustment signal AD to the signal strength control unit 411.
  • the signal strength control unit 411 outputs the motion compensation noise signal MCN output from the noise motion compensation unit 401 so that the noise intensity is adjusted according to the adjustment signal AD output from the additional information decoding unit 402a.
  • the intensity adjustment process is performed.
  • the signal intensity control unit 411 generates and outputs a superimposed noise signal SN indicating noise adjusted by such intensity adjustment processing. Thereby, the intensity of noise superimposed on the decoded picture is adjusted according to the information indicated in the encoded signal BSa.
  • the range of the noise intensity is determined in advance, and if the noise intensity indicated by the adjustment signal AD exceeds the above range, the signal intensity control unit 411 has the noise superimposed on the encoded picture.
  • Strength is in that range Intensity adjustment processing is performed on the motion compensated noise signal MCN so that the noise intensity of the limit value at is obtained.
  • the adder 404 superimposes the superimposed noise signal SN output from the signal strength control unit 411 on the decoded image signal DV output from the video decoding unit 403a, and superimposes the superimposed noise signal SN on it.
  • the decoded image signal DV is output as an output image signal VOUT. That is, the noise indicated by the superimposed noise signal SN is superimposed on each superimposed region of the decoded picture indicated by the decoded image signal DV.
  • FIG. 21 is a flowchart showing the operations of the noise motion compensation unit 401 and the signal strength control unit 411 that are useful in this modification.
  • the noise motion compensation unit 401 acquires the flag signal FL, and the signal strength control unit 411 acquires the adjustment signal AD (step S 300).
  • the noise motion compensation unit 401 determines whether or not the noise flag included in the flag signal FL indicates ON (step S302). When it is determined that ON is indicated (Y in step S302), the noise motion compensation unit 401 further determines whether or not the motion compensation flag included in the flag signal FL indicates ON (step S304). When it is determined that the noise motion compensation unit 401 indicates ON (Y in Step S304), the motion compensation noise signal MCN is output from the noise frame memory 102 to perform motion compensation for noise (Step S306). When it is determined that OFF is indicated (N in step S304), a new noise is generated and the noise is output as a motion compensation noise signal MCN (step S308).
  • the signal intensity control unit 411 performs intensity adjustment processing on the motion compensation noise signal MCN output in steps S306 and S308 in accordance with the adjustment signal AD acquired in step S300, and the motion compensation noise.
  • the noise intensity indicated by the signal MCN is adjusted (step S310).
  • the signal intensity control unit 411 outputs a superimposed noise signal SN indicating the intensity-adjusted noise (step S312).
  • the noise motion compensation unit in the present embodiment includes the switch SW, it does not have to include the switch SW.
  • the signal strength control unit includes a switch SW.
  • Fig. 22 shows a noise motion compensator without a switch SW and a signal with a switch SW. It is a figure which shows each structure with an intensity
  • the noise motion compensation unit 401a includes only the noise frame memory 102 without the switch SW. Therefore, the noise motion compensation unit 401a accumulates in the noise frame memory 102 for all regions of the decoded picture without switching the processing operation in accordance with the flag signal FL, from the motion compensated noise signal MCN. The motion compensation noise signal MCN in the area indicated by the motion information MV is extracted and output. Also, the noise motion compensation unit 401a stores the motion compensation noise signal MCN output for each region as a motion compensation noise signal MCN corresponding to that region.
  • the signal intensity control unit 41 la includes a switch SW and an intensity adjustment unit 420.
  • the switch SW switches the terminal d to any one of the terminals a to c according to the flag signal FL.
  • the motion compensation noise signal MCN from the noise frame memory 102 is output to the intensity adjustment unit 420 as the temporary superimposed noise signal PN
  • the noise signal N from the initial noise generation unit 105 is output to the intensity adjustment unit 420 as a temporary superimposed noise signal PN
  • the temporary superimposed noise signal PN is output to the intensity adjustment unit 420 Is stopped.
  • the intensity adjustment unit 420 performs an intensity adjustment process on the temporary superimposed noise signal PN output from the switch SW so that the noise intensity is adjusted according to the adjustment signal AD output from the additional information decoding unit 402a. Do.
  • the intensity adjustment unit 420 converts the temporary superimposed noise signal PN into the superimposed noise signal SN and outputs it by such intensity adjustment processing.
  • FIG. 23A to FIG. 23C are explanatory diagrams when the processing of each of the above-described methods of Embodiments 1 to 4 is performed by a computer system using a flexible disk.
  • FIG. 23B shows a front view, a side view, and a flexible disk body of the flexible disk
  • FIG. 23A shows an example of a physical format of the flexible disk body that is a recording medium body.
  • the flexible disk main body FD is built in the case F, and a plurality of tracks Tr are formed concentrically on the surface of the disk from the outer periphery to the inner periphery, and each track has 16 sectors in the angular direction. It is divided into Se. Therefore, in the flexible disk storing the program, the program is recorded in an area allocated on the flexible disk main body FD.
  • FIG. 23C shows a configuration for recording and reproducing the program on the flexible disk main body FD.
  • the above program is recorded on the flexible disk main unit FD, the above program is written from the computer system Cs through the flexible disk drive.
  • the program is read from the flexible disk using a flexible disk drive and transferred to the computer system Cs.
  • the same operation can be performed by using the force optical disk described using the flexible disk as the recording medium.
  • the recording medium is not limited to this, and any recording medium such as an IC card or a ROM cassette that can record a program can be used.
  • FIG. 24 is a block diagram showing an overall configuration of a content supply system exlOO that realizes a content authentication service.
  • the communication service area is divided into desired sizes, and base stations exl07 to exl10, which are fixed radio stations, are installed in each cell!
  • This content supply system exlOO is connected to the Internet exlOl via the Internet service provider exl02 and the telephone network exl04, and the base stations exl07 to exl l0, and the computers exl 11, PDA (personal digital assistant) ex 112, Camera exl l3, mobile Devices such as mobile phone exl l4 and mobile phone with camera exl l5 are connected.
  • PDA personal digital assistant
  • the content supply system exlOO is not limited to the combination shown in FIG. 24, and any combination may be connected.
  • each device may be directly connected to the telephone network exl04 without going through the base stations exlO 7 to exl 10 which are fixed radio stations.
  • the camera exl 13 is a device such as a digital video camera that can shoot moving images.
  • Cellular phones are PDC (Personal Digital Communications), CDMA (Code Division Multiple Access), W-CDMA (Wideband-Code Division Multiple Access), or GSM (Global System for Mobile Communications)
  • PDC Personal Digital Communications
  • CDMA Code Division Multiple Access
  • W-CDMA Wideband-Code Division Multiple Access
  • GSM Global System for Mobile Communications
  • a telephone or a PHS Personal Handyphone System
  • the streaming server exl03 is connected via the camera 6113 and the base station 6109 and the telephone network exl04, and based on the code-processed data transmitted by the user using the camera exll3, Live distribution is possible.
  • the encoding process of the captured data may be performed by the camera exl 13 or may be performed by a server or the like that performs the data transmission process.
  • the moving image data shot by the camera exl 16 may be transmitted to the streaming server exl 03 via the computer exl 11.
  • the camera exl 16 is a device that can shoot still images and videos such as digital cameras. In this case, the sign of the moving image data may be performed by the camera exl 16 or the computer exl 11.
  • the encoding process is performed in LSI exl 17 included in the computer exl 11 and the camera ex 116.
  • the software for image encoding / decoding may be incorporated in any storage medium (CD-ROM, flexible disk, hard disk, etc.) that is a recording medium readable by the computer exl 11 or the like.
  • the moving image data at this time is data encoded by the LSI of the mobile phone exl l5.
  • this content supply system exlOO content that the user captures with the camera exl 13, camera exl 16, etc. (for example, a video image of music live) is processed by sign encoding as in the above embodiment. While sending to the streaming server exl03, the streaming server exl03 streams the content data to the requested client. Examples of the client include a computer exl 11, a PDA exl 12, a camera exl 13, a mobile phone exl 14, and the like that can decode the encoded data. This By doing so, the content supply system exlOO can receive and play the encoded data at the client, and also receive and decrypt the personal broadcast in real time at the client. Is also a system that can be realized
  • a mobile phone will be described as an example.
  • FIG. 25 is a diagram illustrating a mobile phone exl5 using the moving image processing method, the image encoding method, and the image decoding method described in the above embodiment.
  • the mobile phone exl l5 is an antenna ex201 for transmitting and receiving radio waves to and from the base station exl 10, an image from a CCD camera, a camera unit ex203 capable of taking a still image, a video captured by the camera unit ex203, an antenna A display unit ex 202 such as a liquid crystal display that displays data obtained by decoding the video received in ex201, etc., a main unit composed of a group of operation keys ex204, an audio output unit ex208 such as a speaker for outputting audio, Audio input unit ex205 such as microphone for voice input, captured video or still image data, received e-mail data, video data or still image data, etc.
  • the recording medium ex207 is a storage case of EEPROM, a kind of EEPROM (Electrically Erasable and Programmable Read Only Memory), which is a nonvolatile memory that can be electrically rewritten and erased in a plastic case such as an SD card. .
  • EEPROM Electrically Erasable and Programmable Read Only Memory
  • the mobile phone exl l5 has a power supply circuit part ex310, an operation input control part ex304, an image for the main control part ex311 that is designed to control the main part with the display part ex202 and the operation key ex204.
  • Code unit ex312, camera interface unit ex303, LCD (Liquid Crystal Display) control unit ex302, image decoding unit ex309, demultiplexing unit ex308, recording / playback unit ex307, modulation / demodulation circuit unit ex306, and audio processing unit ex305 are synchronized Connected to each other via bus ex313! ⁇
  • the mobile phone exl l5 has a power supply circuit part ex310, an operation input control part ex304, an image for the main control part ex311 that is designed to control the main part with the display part ex202 and the operation key ex204.
  • the power circuit unit ex310 can operate the digital mobile phone with camera exl l5 by supplying power to each unit when the end call and power key are turned on by the user's operation. Start to state.
  • the mobile phone exl 15 receives the audio signal collected by the audio input unit ex205 in the voice call mode based on the control of the main control unit ex311 composed of CPU, ROM, RAM, etc. by the audio processing unit ex305. This is converted into digital audio data, and this is subjected to spectrum spreading processing by the modulation / demodulation circuit unit ex306, and after being subjected to digital analog conversion processing and frequency conversion processing by the transmission / reception circuit unit ex301, it is transmitted through the antenna ex201.
  • the mobile phone ex 115 amplifies the received data received by the antenna ex201 in the voice call mode, performs frequency conversion processing and analog-digital conversion processing, performs spectrum despreading processing by the modulation / demodulation circuit unit ex306, and analogs by the voice processing unit ex305. After conversion to audio data, it is output via the audio output unit ex208.
  • the text data of the e-mail input by operating the operation key ex2 04 on the main unit is sent to the main control unit ex311 via the operation input control unit ex304.
  • the main control unit ex311 performs spread spectrum processing on the text data in the modulation / demodulation circuit unit ex306, performs digital analog conversion processing and frequency conversion processing in the transmission / reception circuit unit ex301, and then transmits the text data to the base station exllO via the antenna ex201.
  • the image data captured by the camera unit ex203 is supplied to the image encoding unit ex312 via the camera interface unit ex303.
  • the image data captured by the camera unit ex203 can be directly displayed on the display unit ex202 via the camera interface unit ex303 and the LCD control unit ex302.
  • the image encoding unit ex312 has the configuration including the image encoding unit described in the present invention, and the image encoding unit shown in the above embodiment shows the image data supplied from the camera unit ex203.
  • the image data is converted into encoded image data by compression encoding according to the encoding method used in the above, and is sent to the demultiplexing unit ex308.
  • mobile phone exl 15 Sends the sound collected by the voice input unit ex205 during imaging by the camera unit ex203 to the demultiplexing unit ex308 as digital voice data via the voice processing unit ex305.
  • the demultiplexing unit ex308 multiplexes the encoded image data supplied from the image encoding unit ex312 and the audio data supplied from the audio processing unit ex305 by a predetermined method, and the multiplexed data obtained as a result Is modulated by the modulation / demodulation circuit unit ex306, digital-analog conversion processing and frequency conversion processing are performed by the transmission / reception circuit unit ex301, and then transmitted through the antenna ex201.
  • the received data received from the base station exl 10 via the antenna ex201 is subjected to spectrum despreading processing by the conversion circuit unit ex306. Then, the multiplexed data obtained as a result is sent to the multiplex separation unit ex308.
  • the demultiplexing unit ex308 separates the multiplexed data to separate the bit stream of the image data and the bit of the audio data.
  • the stream is divided into streams, and the encoded video data is supplied to the video decoding unit ex309 via the synchronization node ex313 and the audio data is supplied to the audio processing unit ex305.
  • the image decoding unit ex309 is configured to include the image decoding apparatus described in the present invention, and the bit stream of the image data corresponds to the encoding method shown in the above embodiment.
  • Reproduced moving image data is generated by decoding with a corresponding decoding method, and this is supplied to the display unit ex202 via the LCD control unit ex302, so that it is included in the moving image file linked to the homepage, for example.
  • the audio processing unit ex305 converts the audio data into analog audio data, and then supplies the analog audio data to the audio output unit ex208.
  • the audio data included in the moving image file linked to the homepage is stored. Played.
  • the present invention is not limited to the above-described system, and recently, digital broadcasting using satellites and terrestrial waves has become a hot topic.
  • a saddle device or an image decoding device can be incorporated.
  • the broadcast station ex409 transmits a bit stream of video information via radio waves. Or transmitted to the broadcasting satellite ex410.
  • the broadcasting satellite ex410 transmits a radio wave for broadcasting, and this radio wave is received by a home antenna ex406 having a satellite broadcasting receiving facility, such as a television (receiver) ex401 or a set top box (STB) ex407.
  • the device decodes the bitstream and plays it back.
  • the image decoding device described in the above embodiment can also be implemented in the playback device ex403 that reads and decodes the bitstream recorded on the storage medium ex402 such as CD or DVD as a recording medium. It is. In this case, the reproduced video signal is displayed on the monitor ex404.
  • an image decoding device is installed in the set-top box ex407 connected to a cable TV cable ex405 or satellite Z terrestrial broadcasting antenna ex406, and this is played back on a TV monitor ex408. Conceivable.
  • an image decoding apparatus may be incorporated in the television, not in the set top box.
  • the car ex412 having the antenna ex411 can also receive a signal from the satellite ex410 or the base station exl07 and the like, and the moving image can be reproduced on a display device such as the car navigation ex413 of the car ex412.
  • the image signal can be encoded by the image encoding device shown in the above embodiment and recorded on a recording medium.
  • a recorder ex420 such as a DVD recorder that records image signals on a DVD disc ex421 and a disk recorder that records on a hard disk. It can also be recorded on the SD card ex422. If the recorder ex420 includes the image decoding device shown in the above embodiment, the image signal recorded on the DVD disc ex421 or the SD card ex422 can be reproduced and displayed on the monitor ex408.
  • the configuration of the car navigation ex413 may be a configuration excluding the camera unit ex203, the camera interface unit ex303, and the image encoding unit ex312 in the configuration shown in FIG. Exl 11 and TV (receiver) ex401 are also considered.
  • the mobile phone exl 14 or the like is a transmitting / receiving terminal having both an encoder and a decoder, as well as a transmitting terminal having only an encoder and a receiving terminal having only a decoder.
  • a possible implementation format is possible.
  • each functional block in the block diagrams is typically implemented as an LSI (large-scale integration) that is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them. (For example, a functional block other than a memory may be inserted in one chip.)
  • LSI integrated circuit
  • IC integrated circuit
  • system LSI system LSI
  • super LSI super LSI
  • unroller LSI unroller LSI
  • the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable 'processor that can reconfigure the connection and settings of the circuit cells inside the LSI may be used.
  • the present invention is not limited to the above-described first to sixth embodiments and the modifications thereof, and the present invention may be combined with the processes included in the embodiments and the modifications without contradiction. Various changes or modifications can be made without departing from the scope of the invention.
  • the moving image processing method of the present invention has an effect of improving the subjective image quality recognized by the viewer, and is applied to, for example, a mobile phone, a DVD (Digital Versatile Disk) device, and a personal computer. can do.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

 動画像の動きによる主観画質の劣化を防ぐ動画像処理方法を提供する。  動画像処理方法は、入力画像信号(VIN)の示すピクチャへの重畳に使用されて、雑音フレームメモリ(102)に格納されている蓄積雑音信号(FMN)に対して動き補償を行うことにより、その蓄積雑音信号(FMN)の示す雑音を、入力画像信号(VIN)の示す動画像の動きに合わせて動かす動き補償ステップ(S116)と、その動かされた雑音を重畳雑音信号SNとして、その動きが生じた後の動画像である、入力画像信号(VIN)の処理対象ピクチャに対して重畳する重畳ステップ(S120)とを含む。                                                                                 

Description

明 細 書
動画像処理方法
技術分野
[0001] 本発明は、動画像に対して雑音を重畳する動画像処理方法に関する。
背景技術
[0002] テレビ、パーソナルコンピュータ (PC)、携帯電話、あるいはその他の動画像を表示 する装置において、動画像を低ビットレートで符号ィ匕し伝送する技術として、動画像 符号化と ヽぅ技術が知られて ヽる。
[0003] この動画像符号化技術では、動画像を符号化するときに、その動画像に含まれる 高域の周波数成分が取り除かれる。したがって、動画像に精細な模様などが表され ていても、その動画像を符号化してさらに復号化すれば、その復号化された動画像 には、上述の模様が失われていることがある。
[0004] そこで、復号化された動画像に対して、取り除かれた高域の周波数成分を雑音とし て重畳することで、その雑音を、動画像に元々含まれていた精細な模様として表示す る動画像処理方法が提案されている(例えば、特許文献 1参照)。
[0005] 上記特許文献 1の動画像処理方法では、符号化された動画像を示すビットストリー ムに付されたパラメータを用いて、付加すべき雑音の量を決定し、復号後のピクチャ にその雑音をホワイトノイズとして付加する。
[0006] このように、上記特許文献 1の動画像処理方法では、雑音を重畳することにより、視 聴者に対して高精細感を擬似的に与える。
特許文献 1:特開平 8 - 79765号公報
発明の開示
発明が解決しょうとする課題
[0007] しカゝしながら、上記特許文献 1の動画像処理方法では、視聴者によって認識される 主観的な画質 (以下、主観画質という)が動画像の動きによって劣化してしまうという 問題がある。
[0008] 即ち、上記特許文献 1の動画像処理方法では、動画像と雑音との時間方向の相関 性が崩れることがある。したがって、動画像の動きと雑音の動きとが異なれば、視聴者 にとつて、重畳された雑音は、動画像に表された模様などと認識されずに、画質を劣 化させるだけの雑音として認識されてしまう。
[0009] そこで、本発明は、力かる問題に鑑みてなされたものであって、動画像の動きによる 主観画質の劣化を防ぐ動画像処理方法を提供することを目的とする。
課題を解決するための手段
[0010] 上記目的を達成するために、本発明に係る動画像処理方法は、動画像に対して雑 音を重畳する動画像処理方法であって、前記動画像への重畳に使用された第 1の 雑音を、前記動画像の動きに合わせて動かし、動かされた前記第 1の雑音を、前記 動きが生じた後の動画像に対して重畳することを特徴とする。
[0011] これにより、動画像に重畳されていた第 1の雑音が、その動画像の動きに合わせて 動力されるため、つまり、動き補償されるため、動画像と雑音との時間方向の相関性 を保つことができ、その結果、視聴者は、その第 1の雑音を動画像に表されている物 体の精細な模様のように認識する。したがって、従来技術によって生じていた動画像 の動きによる主観画質の劣化を防ぐことができる。
[0012] また、前記動画像処理方法は、さらに、前記動画像に含まれる処理対象のピクチャ の中から、雑音を重畳すべき重畳領域を特定し、前記第 1の雑音を動かすときには、 前記重畳領域における画像の動きに合わせて前記第 1の雑音を動かし、動かされた 前記第 1の雑音を重畳するときには、動かされた前記第 1の雑音を前記重畳領域に 対して重畳することを特徴としてもよい。例えば、前記重畳領域を特定するときには、 前記処理対象のピクチャにおける周波数成分に基づいて特定する。
[0013] これにより、ピクチャ内の重畳領域に対して雑音が重畳されるため、ピクチャの全体 に雑音を重畳することなぐ適切な領域に雑音を重畳して、高精細感を増すことがで きる。例えば、動画像が符号化されて復号化されたときには、その復号化された動画 像に含まれるピクチャには、高域の周波数成分が取り除かれて、山などの自然物の 精細な模様が失われている。ところが、そのピクチャの山を表す領域には、他の領域 と比べて高域の周波数成分がある程度残っている。そこで本発明では、その動画像 に含まれるピクチャのうち、高域の周波数成分が残っている領域が重畳領域として特 定されるため、上述の山に対してのみ雑音を重畳させることができ、その結果、高精 細感を増すことができる。
[0014] また、前記第 1の雑音を動かすときには、前記重畳領域における画像の動きを検出 し、検出された前記動きに従って前記第 1の雑音を動かすことを特徴としてもよい。
[0015] これにより、例えば、重畳領域の動きベクトルが検出されて、その動きベクトルに従 つて第 1の雑音が動き補償されるため、動画像と雑音との時間方向の相関性を確実 に保つことができる。
[0016] また、前記動画像処理方法は、さらに、前記動画像を含む動画像信号を取得し、 前記第 1の雑音を動かすときには、前記重畳領域における画像の動きを示す動き情 報を前記動画像信号から抽出し、抽出された前記動き情報の示す動きに従って前記 第 1の雑音を動かすことを特徴としてもよい。
[0017] これにより、動画像信号力 抽出された動き情報の示す動きに従って第 1の雑音が 動き補償されるため、動画像の動きを検出する処理を省くことができ、処理負担を軽 減することができる。
[0018] また、前記動画像信号は符号化されており、前記動画像処理方法は、さらに、符号 化されている前記動画像信号を復号化し、前記重畳領域を特定するときには、復号 化された前記動画像信号に含まれる複数のピクチャを順次、前記処理対象のピクチ ャとして、前記各処理対象のピクチャ力 重畳領域を特定することを特徴としてもょ ヽ
[0019] これにより、符号化された動画像信号を復号化したときは、その復号化されたピクチ ャに対して雑音が重畳されるため、その符号ィ匕によって失われた高域の周波数成分 を雑音で補うことができ、高精細感を増すことができる。
[0020] また、前記動画像信号には、さらに、前記重畳領域を示す第 1の識別情報が含まれ ており、前記重畳領域を特定するときには、前記第 1の識別情報に基づいて前記重 畳領域を特定することを特徴としてもょ ヽ。
[0021] これにより、動画像信号に含まれる第 1の識別情報たる雑音フラグに従って重畳領 域が特定されるため、動画像信号を生成して送信する装置側でその重畳領域を決 定することができ、その結果、より適切な領域に第 1の雑音を重畳することができる。 [0022] また、前記動画像信号には、さらに、前記重畳領域のうち、前記第 1の雑音を重畳 すべき領域を示す第 2の識別情報が含まれており、動力された前記第 1の雑音を重 畳するときには、動かされた前記第 1の雑音を、前記第 2の識別情報により示される 領域に対して重畳することを特徴としてもょ 、。
[0023] これにより、動画像信号に含まれる第 2の識別情報たる動き補償フラグに従って、第 1の雑音を重畳すべき領域が特定されるため、動画像信号を生成して送信する装置 側でその領域を決定することができ、その結果、重畳領域の中のより適切な領域に 第 1の雑音を重畳することができる。また、重畳領域の中の他の領域には、重畳に使 用されていない新たな雑音を重畳することができ、その結果、高精細感をさらに増す ことができる。
[0024] また、前記動画像信号には、さらに、重畳されるべき雑音の強度を示す調整信号が 含まれており、動かされた前記第 1の雑音を重畳するときには、動かされた前記第 1 の雑音の強度が前記調整信号により示される強度となるように、前記第 1の雑音を調 整し、調整された前記第 1の雑音を前記重畳領域に重畳することを特徴としてもよい
[0025] これにより、動画像信号に含まれる調整信号に従って、第 1の雑音の強度が調整さ れるため、動画像信号を生成して送信する側でその強度を決定することができ、その 結果、より適切な強度の第 1の雑音を重畳することができる。
[0026] また、前記動画像処理方法は、さらに、前記動画像に含まれる前記処理対象のピク チヤと処理済みのピクチャとの間で、画像内容の切り替わりが発生した力否かを判別 し、前記切り替わりが発生したと判別されたときには、重畳に使用されていない第 2の 雑音を新たに生成して前記処理対象のピクチャに重畳し、前記切り替わりが発生して いないと判別されたときには、動かされた前記第 1の雑音を前記重畳領域に対して重 畳することを特徴としてもよい。例えば、前記切り替わりが発生したと判別されたときに は、前記処理対象のピクチャの特徴に応じた種類の前記第 2の雑音を生成して前記 処理対象のピクチャに重畳する。
[0027] これにより、画像内容の切り替わりであるシーンチェンジが発生したときには、第 1の 雑音が動き補償されることなぐこれまでに重畳に使用されていない第 2の雑音が処 理対象のピクチャに重畳されるため、シーンチェンジ発生後のピクチヤに対して、シ ーンチェンジ発生前のピクチヤに重畳されていた雑音と同様の雑音が重畳されること を防ぐことができ、シーンチェンジに合わせて、重畳される雑音の種類を切り換えるこ とがでさる。
[0028] また、動かされた前記第 1の雑音を重畳するときには、動かされた前記第 1の雑音 の強度を調整し、調整された前記第 1の雑音を前記重畳領域に対して重畳すること を特徴としてもよい。例えば、動かされた前記第 1の雑音の強度を調整するときには、 前記重畳領域に含まれる周波数成分が高域であるほど大きくなるように前記強度を 調整する。
[0029] これにより、第 1の雑音の強度が調整されるため、より高精細感を増すことができる。
[0030] ここで、本発明は、上述のような動画像処理方法で動画像が処理されるように、そ の動画像を符号ィ匕する動画像符号ィ匕方法にも適用することができる。
[0031] 即ち、本発明に係る画像符号化方法は、動画像を符号化する画像符号化方法で あって、動画像を符号化することにより符号化画像信号を生成し、前記動画像への 重畳に使用された雑音に対して動き補償が行われるべき力否かを判断し、前記動き 補償の判断結果を示す第 1の識別情報を前記符号化画像信号に付加することを特 徴とする。
[0032] これにより、その符号ィ匕画像信号を取得した画像復号ィ匕装置は、その符号化画像 信号を復号ィ匕するとともに、その符号ィ匕画像信号に付加された第 1の識別情報たる 動き補償フラグに従って、動画像への重畳に使用された雑音に対して動き補償を行 うことができる。つまり、画像復号化装置は、復号化された動画像への重畳に使用さ れた雑音を、その動画像の動きに合わせて動かし、動力された雑音を、その動きが生 じた後の動画像に重畳することができる。その結果、画像復号化装置では、復号化さ れた動画像と雑音との時間方向の相関性を保つことができ、視聴者は、その雑音を 動画像に表されている物体の精細な模様のように認識する。したがって、従来技術に よって生じていた動画像の動きによる主観画質の劣化を防ぐことができる。
[0033] また、前記画像符号化方法は、さらに、前記動画像に含まれる符号化対象のピクチ ャの中から、画像の特徴に応じて、雑音を重畳すべき重畳領域を特定し、特定された 前記重畳領域を示す第 2の識別情報を前記符号化画像信号に付加することを特徴 としてちよい。
[0034] これにより、その符号ィ匕画像信号を取得した画像復号ィ匕装置は、その符号化画像 信号を復号ィ匕するとともに、その符号ィ匕画像信号に付加された第 2の識別情報たる 雑音フラグの示す重畳領域に雑音を重畳することができる。その結果、適切な領域 に雑音を重畳して高精細感を増すことができる。
[0035] また、前記画像符号化方法は、さらに、前記符号化画像信号を復号化することによ り復号化動画像を生成し、前記動き補償を判断するときには、前記復号化動画像の 動きに基づいて判断し、前記重畳領域を特定するときには、前記復号化動画像にお ける画像の特徴に応じて前記重畳領域を特定する。
[0036] これにより、画像復号化装置は、より適切な領域においてより適切に雑音に対する 動き補償を行うことができる。
[0037] なお、本発明は、このような動画像処理方法や画像符号化方法として実現すること ができるだけでなぐそれらの方法に基づく処理を行う動画像処理装置、画像符号化 装置、画像復号化装置、集積回路、それらの方法に基づく処理をコンピュータに実 行させるプログラム、そのプログラムを格納する記憶媒体としても実現することができ る。
発明の効果
[0038] 本発明の動画像処理方法は、視聴者によって認識される主観画質を向上すること ができるという作用効果を奏する。また、デジタルテレビなどの、符号化された動画像 を復号ィ匕する装置と共に用いることで、処理負荷および回路規模を低減することがで き、その実用的価値は高い。
図面の簡単な説明
[0039] [図 1]図 1は、実施形態 1における動画像処理装置のブロック図である。
[図 2]図 2は、実施形態 1における動画像処理装置の動作を示すフローチャートであ る。
[図 3A]図 3Aは、雑音に対して動き補償が行わない場合に表示されるピクチャを示す 図である。 [図 3B]図 3Bは、実施の形態 1における動画像処理方法により処理されたピクチャを 示す図である。
[図 4]図 4は、実施の形態 1の変形例に力かる動画像処理装置のブロック図である。
[図 5]図 5は、実施の形態 1の変形例に力かる動画像処理装置の動作を示すフロー チャートである。
[図 6A]図 6Aは、シーンチェンジに応じた処理が行わない場合に表示されるピクチャ を示す図である。
[図 6B]図 6Bは、実施の形態 1の変形例力かる動画像処理方法により処理されたピク チヤを示す図である。
[図 7]図 7は、実施の形態 2における動画像処理装置のブロック図である。
[図 8]図 8は、実施の形態 2における動画像処理装置の動作を示すフローチャートで ある。
[図 9A]図 9Aは、実施の形態 2における動画像処理装置の復号処理および雑音処理 のタイミングを示す図である。
[図 9B]図 9Bは、実施の形態 2における動画像処理装置の復号処理および雑音処理 の他のタイミングを示す図である。
[図 10]図 10は、実施の形態 3における画像符号ィ匕装置のブロック図である。
[図 11]図 11は、実施の形態 3における画像判断部の動作を示すフローチャートであ る。
[図 12]図 12は、実施の形態 3の変形例 1にかかる画像符号ィ匕装置のブロック図であ る。
[図 13]図 13は、実施の形態 3の変形例 2にかかる画像符号ィ匕装置のブロック図であ る。
[図 14]図 14は、実施の形態 3の変形例 2にかかる付加情報符号ィ匕部による可変長符 号ィ匕を説明するための説明図である。
[図 15]図 15は、実施の形態 3の変形例 3にかかる画像符号ィ匕装置のブロック図であ る。
[図 16]図 16は、実施の形態 3の変形例 3にかかる画像判断部の動作を示すフローチ ヤートである。
[図 17]図 17は、実施の形態 4における画像復号ィ匕装置のブロック図である。
[図 18]図 18は、実施の形態 4における雑音動き補償部のブロック図である。
[図 19]図 19は、実施の形態 4における雑音動き補償部の動作を示すフローチャート である。
[図 20]図 20は、実施の形態 4の変形例に力かる画像復号ィ匕装置のブロック図である
[図 21]図 21は、実施の形態 4の変形例にかかる雑音動き補償部および信号強度制 御部の動作を示すフローチャートである。
[図 22]図 22は、実施の形態 4の変形例にかかる、スィッチを備えていない雑音動き補 償部と、スィッチを備える信号強度制御部とのそれぞれの構成を示す図である。
[図 23A]図 23Aは、実施の形態 5におけるフレキシブルディスクを用いて本発明の処 理をコンピュータシステムにより実施する場合の説明図である。
[図 23B]図 23Bは、実施の形態 5におけるフレキシブルディスクを用いて本発明の処 理をコンピュータシステムにより実施する場合の他の説明図である。
[図 23C]図 23Cは、実施の形態 5におけるフレキシブルディスクを用いて本発明の処 理をコンピュータシステムにより実施する場合のさらに他の説明図である。
[図 24]図 24は、実施の形態 6におけるコンテンツ配信サービスを実現するコンテンツ 供給システムの全体構成を示すブロック図である。
[図 25]図 25は、実施の形態 6における本発明の方法を用いた携帯電話を示す図で ある。
[図 26]図 26は、実施の形態 6における携帯電話のブロック図である。
[図 27]図 27は、実施の形態 6におけるディジタル放送用システムの例を示す図であ る。
符号の説明
100 動画像処理装置
101 雑音動き補償部
102 雑音フレームメモリ 105 初期雑音生成部
106 動き検出部
FMN 蓄積雑音信号
MCN 動き補償雑音信号
MV 動き情報
N 雑音信号
SN 重畳雑音信号
発明を実施するための最良の形態
[0041] (実施の形態 1)
本発明の実施の形態 1における動画像処理装置について説明する。
[0042] 図 1は、本実施形態における動画像処理装置のブロック図である。
[0043] 本実施の形態における動画像処理装置 100は、入力画像信号 VINの示す画像の 動きに合わせて雑音を動力してその画像に重畳するものであって、雑音動き補償部
101と、雑音フレームメモリ 102と、雑音決定部 103と、加算器 104と、初期雑音生成 部 105と、動き検出部 106とを備えている。
[0044] 初期雑音生成部 105は、入力画像信号 VINに重畳するための雑音信号 Nを生成 して雑音フレームメモリ 102に出力する。この雑音信号 Nは、例えば、予め定められ たランダムな雑音を示す雑音信号である。また、本実施の形態における雑音は、入 力画像信号 VINの示すピクチヤに対して重畳されることにより、高精細感を視聴者に 与えるような画像であって、高周波数成分を多く有する。
[0045] 雑音フレームメモリ 102は、初期雑音生成部 105から出力された雑音信号 N、およ び雑音動き補償部 101から出力された動き補償雑音信号 MCNを、蓄積雑音信号 F
MNとして蓄積する。
[0046] 動き検出部 106は、入力画像信号 VINを取得して、その入力画像信号 VINの示す 画像の動きを例えばブロック単位やマクロブロック単位などの領域ごとに検出し、その 検出結果を例えば動きベクトルなどの動き情報 MVとして雑音動き補償部 101に出 力する。なお、動き検出部 106は、入力画像信号 VINの示すピクチヤにおける処理 対象 (検出対象)の領域と同一または類似する画像を有する領域を、そのピクチヤと 異なる過去のピクチャ力 見つけ出すことにより、その処理対象の領域の動き情報 M Vを検出する。
[0047] 雑音動き補償部 101は、雑音フレームメモリ 102に蓄積されている蓄積雑音信号 F MNの中から、動き情報 MVの示す領域の蓄積雑音信号 FMNを、処理対象の領域 に重畳されるべき雑音を示す動き補償雑音信号 MCNとして読み出して、雑音決定 部 103および雑音フレームメモリ 102に出力する。これにより、蓄積雑音信号 FMNに 対して動き補償が行われる。つまり、動き情報 MVの示す領域の雑音が処理対象の 領域に動かされる。言い換えれば、画像の動きに合わせて雑音が動力される。
[0048] 雑音決定部 103は、入力画像信号 VINを取得して、その入力画像信号 VINの示 す画像の周波数などの特徴を特定し、ブロックなどの領域ごとに、その領域に雑音を 重畳すべきか否かを判別する。つまり、雑音決定部 103は入力画像信号 VINの示す ピクチャ内において雑音の重畳領域を決定する。さらに、雑音決定部 103は、上述 のように特定した画像の特徴に基づ!、て、動き補償雑音信号 MCNの示す雑音のゲ インを調整する。そして、雑音決定部 103は、ゲイン調整された動き補償雑音信号 M CNを重畳雑音信号 SNとして加算器 104に出力する。
[0049] 加算器 104は、入力画像信号 VINと重畳雑音信号 SNとを取得し、入力画像信号 VINに対して重畳雑音信号 SNを重畳する。つまり、加算器 104は、入力画像信号 V INの示すピクチヤの重畳領域ごとに、重畳雑音信号 SNの示す雑音を、その重畳領 域の画像に重畳する。そして、加算器 104は、重畳雑音信号 SNが重畳された入力 画像信号 VINを、出力画像信号 VOUTとして出力する。
[0050] 図 2は、動画像処理装置 100の動作を示すフローチャートである。
[0051] まず、動画像処理装置 100が、入力画像信号 VINの示す先頭のピクチャを取得す ると (ステップ S100)、初期雑音生成部 105は、その先頭のピクチャに対して初期の 雑音信号 Nを生成して、その初期の雑音信号 Nを雑音フレームメモリ 102に蓄積させ る(ステップ S 102)。
[0052] ここで、動画像処理装置 100は、その先頭のピクチャに対して雑音を重畳する (ステ ップ S104)。つまり、雑音決定部 103は、その雑音フレームメモリ 102に蓄積されて いる初期の雑音信号 Nを雑音動き補償部 101を介して取得するとともに、先頭のピク チヤ内における雑音の重畳領域と、その雑音の強度とを決定する。さらに、雑音決定 部 103は、その決定した重畳領域ごとに、決定した強度に従って雑音信号 Nをゲイン 調整して重畳雑音信号 SNとして出力する。そして、加算器 104は、先頭のピクチャ の各重畳領域に、重畳雑音信号 SNの示す雑音を重畳することにより出力画像信号 VOUTを生成して出力する。
[0053] 次に、動画像処理装置 100が、入力画像信号 VINの示す次のピクチャを取得する と (ステップ S106)、雑音決定部 103は、その次のピクチャ内における雑音の重畳領 域を決定する (ステップ S108)。例えば、雑音決定部 103は、入力画像信号 VINの ピクチャ内における領域ごとに、その領域の周波数を特定し、その周波数が予め定 められた値を超える場合に、その領域を重畳領域として決定する。さらに、雑音決定 部 103は、その重畳領域の高周波数成分の量に応じて、その領域における雑音強 度を決定する。例えば、雑音決定部 103は、高周波数成分が少なければ、小さい雑 音強度を決定し、高周波数成分が多ければ、大きい雑音強度を決定する。
[0054] そして、雑音決定部 103は、ステップ S108の決定結果に基づいて、ピクチャ内に 重畳領域がある力否かを判別する (ステップ S110)。重畳領域があると判別されたと きには (ステップ S110の Y)、動き検出部 106は、その重畳領域と、その重畳領域を 有するピクチャよりも過去のピクチャとを用いて、その重畳領域における画像の動きを 検出する (ステップ S112)。
[0055] 雑音動き補償部 101は、ステップ S112の検出結果を示す動き情報 MVにより示さ れる領域 (重畳領域を有するピクチャよりも過去のピクチャにおける領域)の蓄積雑音 信号 FMNを、雑音フレームメモリ 102から読み出し (ステップ S114)、その蓄積雑音 信号 FMNに対して動き補償を行 ヽ、重畳領域に対応する動き補償雑音信号 MCN を生成する (ステップ S 116)。つまり、雑音動き補償部 101は、動画像への重畳に使 用された、過去の領域における蓄積雑音信号 FMNの示す雑音を、上述の重畳領域 に動かす。
[0056] 次に、雑音決定部 103は、ステップ S 116で生成された動き補償雑音信号 MCNの 雑音強度が、ステップ S108で決定された雑音強度になるように、その動き補償雑音 信号 MCNの雑音強度を変更 (ゲイン調整)し、変更された雑音強度の重畳雑音信 号 SNを出力する(ステップ S 118)。
[0057] さらに、加算器 104は、ステップ S108によって決定された重畳領域ごとに、重畳雑 音信号 SNの示す雑音をその重畳領域に重畳する (ステップ S 120)。
[0058] そして、加算器 104は、ステップ S 120で重畳が行なわれたときには、入力画像信 号 VINに重畳雑音信号 SNが重畳された信号を出力画像信号 VOUTとして出力し、 ステップ S 110で重畳領域がないと判別されたときには (ステップ S 110の N)、入力画 像信号 VINを出力画像信号 VOUTとして出力する (ステップ S122)。
[0059] さらに、動画像処理装置 100は、入力画像信号 VINの示す次に処理すべきピクチ ャがある力否かを判別し (ステップ S 124)、ピクチャがあると判別したときには (ステツ プ S 124の Y)、ステップ S 106からの処理を繰り返し実行し、ピクチャがないと判別し たときには (ステップ S 124の N)、動画像の処理を終了する。
[0060] 図 3Aは、雑音に対して動き補償が行わない場合に表示されるピクチャを示す図で ある。
[0061] 雑音に対して動き補償が行われない場合には、各ピクチャ FO, Fl, F2ごとに、そ のピクチャにおける重畳領域 WO, Wl, W2に対して雑音が生成されて、その雑音が 重畳領域 WO, Wl, W2に重畳される。し力し、各ピクチャ FO, Fl, F2の重畳領域 W 0, Wl, W2には、それぞれピクチャごとに異なる雑音が重畳されることがある。その 結果、これらのピクチャ FO, Fl, F2を動画像として見た視聴者は、その各ピクチャに 重畳された雑音をフリツ力雑音として認識してしま 、、主観画質が劣化してしまうことと なる。
[0062] 図 3Bは、本実施の形態における動画像処理方法により処理されたピクチャを示す 図である。
[0063] 本実施の形態における動画像処理方法では、例えば、ピクチャ FOにおける重畳領 域 WOに対して雑音が生成され、その雑音が重畳領域 WOに重畳される。そして、そ のピクチャ FOの重畳領域 WOにおける雑音は、ピクチャ FO, F1における飛行機の羽 の動きに合わせて移動されてゲイン調整された後に、ピクチャ F1の重畳領域 W1に 重畳される。同様に、そのピクチャ F1の重畳領域 W1における雑音は、ピクチャ F1, F2における飛行機の羽の動きに合わせて移動されてゲイン調整された後に、ピクチ ャ F2の重畳領域 W2に重畳される。その結果、雑音が飛行機の羽と一緒に移動する ため、これらのピクチャ FO, Fl, F2を動画像として見た視聴者は、各ピクチャの重畳 領域に重畳された雑音をフリツ力雑音として認識することなぐ飛行機の羽にある細か い模様のように認識する。その結果、動画像の高精細感を増して主観画質を向上す ることがでさる。
[0064] なお、本実施の形態では、雑音決定部 103は入力画像信号 VINの高周波数成分 に基づいて、雑音の重畳領域と強度を決定したが、入力画像信号 VINの他の特徴 に基づいて決定してもよい。例えば、雑音決定部 103は、入力画像信号 VINの示す ピクチャの領域内における画素値の分散値に基づいて決定してもよい。即ち、雑音 決定部 103は、領域における分散値が大きい場合には、その領域を重畳領域として 決定し、領域における分散値が小さい場合には、その領域を重畳領域として決定し ない。これにより、平坦な領域に雑音が重畳されることを防ぎ、精細な画質をより高精 細にすることができる。
[0065] さらに、色情報を用いて雑音の重畳領域と強度を決定してもよい。例えば、雑音決 定部 103は、色と雑音強度とをあらかじめ対応付けたテーブルを保持し、入力画像 信号 VINの示すピクチヤの領域における色に応じて、雑音の強度を決定する。具体 的には、雑音決定部 103は、領域において緑色が多い場合には、大きい雑音の強 度を決定する。また、領域において青色が多い場合には、雑音決定部 103は、小さ い雑音の強度を決定する、または、その領域を重畳領域として決定しない。
[0066] また、エッジ情報を用いて雑音の重畳領域と強度を決定してもよ!/、。例えば、ピクチ ャの領域力 コンピュータグラフィックスのような人工的に表されたエッジや、明瞭な物 体の境界を示す場合には、雑音決定部 103は、その領域を重畳領域として決定しな い。
[0067] また、本実施の形態では、雑音決定部 103は入力画像信号 VINのみから雑音の 重畳領域と強度を決定したが、さらに動き情報 MVを用いて決定してもよい。このよう にすることで、動きが速い領域と、動きが遅い領域とで雑音の強度を制御することが できる。例えば、雑音決定部 103は、動きが速い領域では、大きい雑音の強度を決 定し、動きが遅い領域では、小さい雑音の強度を決定する、または、その領域を重畳 領域として決定しない。
[0068] また、本実施の形態では、初期雑音生成部 105は、 1種類の雑音信号 Nを生成し て出力したが、入力画像信号 VINの示すピクチヤの領域における特徴に応じて、雑 音信号 Nの種類 (雑音の種類)を異ならせてもよい。例えば、初期雑音生成部 105は 、領域における画像の方向性を調べ、例えば、垂直方向成分が多い場合には、垂直 方向性成分を有する雑音信号 Nを生成し、水平方向成分が多い場合には、水平方 向性成分を有する雑音信号 Nを生成し、方向性がない場合には、ランダム性の雑音 信号 Nを生成する。これにより、さらに画像に適した雑音を重畳することができる。
[0069] また、雑音決定部 103は、過去に決定された雑音の重畳領域と強度を用いて、現 在における雑音の重畳領域と強度を決定してもよい。この場合、現在決定しょうとして いる雑音強度を過去の雑音強度から決めることで、さらに雑音の時間的連続性を高 めることができ、雑音を重畳した画像のさらなる高画質ィ匕を図ることができる。また、さ らに、過去の雑音強度も動き補償することで、さらなる高画質化を図ることができる。
[0070] また、雑音決定部 103は、上述のような手法を単独に使うことなぐ複合的に用いて もよい。これにより、雑音決定部 103は、様々な決定を行うことができ、さらなる高画質 化を実現することができる。
[0071] (変形例)
ここで、本実施の形態における変形例にっ 、て説明する。
[0072] 本変形例に力かる動画像処理装置は、シーンチェンジを検出し、そのシーンチェン ジ後の最初のピクチャに対しては、雑音に対して動き補償を行うことなぐ新たに雑音 を生成する。これにより、 TV放送などで動画像の内容が切り替わる際の画質を向上 することができる。
[0073] 図 4は、本変形例に力かる動画像処理装置 100aのブロック図である。
[0074] 本変形例に力かる動画像処理装置 100aは、雑音動き補償部 101と、雑音フレーム メモリ 102と、雑音決定部 103と、加算器 104と、初期雑音生成部 105aと、動き検出 部 106と、シーンチェンジ検出部 107とを備えている。
[0075] シーンチェンジ検出部 107は、入力画像信号 VINを取得し、その入力画像信号 VI Nに基づいて、動画像の内容の切り替わり、すなわちシーンチェンジがあるかどうか を判別し、シーンチェンジがあると判別したときには、シーンチェンジ信号 SCを初期 雑音生成部 105aに出力する。
[0076] 初期雑音生成部 105aは、シーンチェンジ検出部 107からシーンチェンジ信号 SC を取得すると、入力画像信号 VINに重畳するための雑音信号 Nを生成して雑音フレ ームメモリ 102に出力する。また、初期雑音生成部 105aは、雑音決定部 103と同様 に重畳領域を特定して、その重畳領域の画像の特徴に応じた雑音信号 Nを生成す る。例えば、重畳領域が飛行機の羽などの人工物を表している場合には、方向性を 有する雑音を示す雑音信号 Nが生成され、重畳領域が森林などの自然物を表して いる場合には、ランダムな雑音を示す雑音信号 Nが生成される。なお、初期雑音生 成部 105aは、自ら重畳領域を特定することなぐ雑音決定部 103によって決定され た重畳領域の画像の特徴を、その雑音決定部 103から通知してもらい、その特徴に 応じて雑音信号 Nを生成してもよ ヽ。
[0077] 雑音動き補償部 101は、上記実施の形態と同様、初期雑音生成部 105aから出力 された雑音信号 Nを、雑音フレームメモリ 102を介して蓄積雑音信号 FMNとして取 得したときには、その蓄積雑音信号 FMNに対して動き補償を行うことなぐその蓄積 雑音信号 FMNを、動き補償雑音信号 MCNとして出力する。なお、雑音動き補償部 101は、初期雑音生成部 105aから直接指示を受けたときに、動き補償の実行を停 止してもよい。例えば、初期雑音生成部 105aは、雑音信号 Nを出力するとともに、雑 音信号 Nが出力されたことを示す通知信号を雑音動き補償部 101に出力する。そし て、雑音動き補償部 101は、その通知信号を取得したときには、雑音フレームメモリ 1 02を介して取得した雑音信号 Nに対しては動き補償を行うことなぐその雑音信号 N を動き補償雑音信号 MCNとして出力する。
[0078] 図 5は、本変形例に力かる動画像処理装置 100aの動作を示すフローチャートであ る。
[0079] まず、シーンチェンジ検出部 107は、入力画像信号 VINの示すピクチャを取得する と (ステップ S140)、その取得されたピクチャと例えば直前 (過去)のピクチャとを比較 して、シーンチェンジがあつたか否かを判別する(ステップ S 142)。例えば、シーンチ ェンジ検出部 107は、上記 2枚のピクチヤにおける同一位置ごとに、その位置での画 素値の差分を算出し、ピクチャ全体での絶対値差分和が一定値以上である場合には 、シーンチェンジがあつたと判別し、一定値以下である場合には、シーンチェンジが な力つたと判別する。また、シーンチェンジ検出部 107は、取得されたピクチャが入力 画像信号 VINの示す先頭のピクチャである場合には、シーンチェンジがあつたと判 別する。
[0080] ここで、シーンチェンジ検出部 107によってシーンチェンジがなかったと判別された ときには (ステップ S142の N)、動き検出部 106、雑音動き補償部 101および雑音決 定部 103は、図 2に示すステップ S108〜S120と同様の処理を行う(ステップ S144) 。即ち、動画像処理装置 100aは、ステップ S 140で取得されたピクチャに重畳領域 力 Sある力否かを判別し、重畳領域があれば、その重畳領域に対して雑音の動き補償 を行って、そのピクチヤの重畳領域に対して動き補償された雑音を重畳する。一方、 重畳領域がなければ、動画像処理装置 100aは、そのピクチヤに対する雑音の動き 補償などの処理を省く。
[0081] また、シーンチェンジ検出部 107によってシーンチェンジがあつたと判別されたとき には (ステップ S142の Y)、シーンチェンジ検出部 107は、初期雑音生成部 105aに 対してシーンチェンジ信号 SCを出力することにより、初期雑音生成部 105に対して 雑音を初期化させる (ステップ S 146)。さらにこのときには、動き検出部 106における 動き情報 MVも初期化される。したがって、シーンチェンジの発生後のピクチヤには、 シーンチェンジ発生前のピクチヤに重畳されて 、た雑音は用いられな 、。
[0082] 初期雑音生成部 105aは、ステップ S146の初期化後、雑音信号 Nを新たに生成し て出力する (ステップ S 148)。そして、雑音決定部 103は、ステップ S 140で取得され たピクチャ内における雑音の重畳領域および雑音強度を決定する (ステップ S 150)。
[0083] そして、雑音決定部 103は、ステップ S 150の決定結果に基づいて、ピクチャ内に 重畳領域がある力否かを判別する (ステップ S152)。重畳領域があると判別したとき には (ステップ S152の Y)、雑音決定部 103は、雑音フレームメモリ 102から雑音動き 補償部 101を介して、初期雑音生成部 105aで生成されて雑音フレームメモリ 102に 蓄積雑音信号 FMNとして蓄積されている雑音信号 Nを取得する。そして、雑音決定 部 103は、その雑音信号 Nの雑音強度がステップ S 150で決定された雑音強度とな るように、その雑音信号 Nのゲインを調整し、ゲイン調整された雑音信号 Nを重畳雑 音信号 SNとして出力する。その結果、加算器 104は、重畳雑音信号 SNを、雑音決 定部 103で決定されたピクチャの重畳領域に重畳する(ステップ S 154)。
[0084] 加算器 104は、ステップ S 154またはステップ S 144で重畳雑音信号 SNが重畳領 域に重畳されたときには、その重畳雑音信号 SNが重畳された入力画像信号 VINを 出力画像信号 VOUTとして出力し、ステップ S 152またはステップ S 144で重畳領域 力 いと判別されて重畳雑音信号 SNが重畳されな力 たときには、入力画像信号 V INを出力画像信号 VOUTとして出力する (ステップ S156)。
[0085] そして、シーンチェンジ検出部 107は、入力画像信号 VINの示す次に処理すべき ピクチャがある力否かを判別し (ステップ S 158)、ピクチャがあると判別したときには( ステップ S 158の Y)、ステップ S 140からの処理を繰り返して実行し、ピクチャがないと 判別したときには (ステップ S158の N)、動画像の処理を終了する。
[0086] 図 6Aは、シーンチェンジに応じた処理が行わない場合に表示されるピクチャを示 す図である。
[0087] シーンチェンジに応じた処理が行われない場合には、ピクチャ F2とピクチャ F3の間 でシーンチェンジがあるにも関わらず、ピクチャ F0〜F4のそれぞれの重畳領域 WO 〜W4に対して、同じ特徴を有する雑音が重畳される。
[0088] 即ち、ピクチャ FOが入力画像信号 VINの先頭ピクチヤである場合には、ピクチャ FO の重畳領域 WOに飛行機の羽と!、つた人工物が表れて 、るため、その重畳領域 WO には方向性を有する雑音が重畳される。そして、ピクチャ FOの重畳領域 WOにおける 雑音は、動き補償され、つまり飛行機の羽の動きに合わせて移動され、ピクチャ F1, F2のそれぞれの重畳領域 Wl, W2に重畳される。したがって、ピクチャ F0〜F2の 重畳領域 W0〜W2のそれぞれでは、同じ方向性を有する雑音が重畳される。ここで 、ピクチャ F2とピクチャ F3の間でシーンチェンジがあっても、上述のような動き補償が 行われたときには、方向性を有する雑音がピクチャ F3, F4の重畳領域 W3, W4にも 重畳されることとなる。つまり、ピクチャ F3, F4の重畳領域 W3, W4には、山という自 然物が表示されているにも関わらず、人工物と同様の方向性を有する雑音が重畳さ れ、視聴者に対して違和感を与えてしまうことがある。
[0089] 図 6Bは、本変形例力かる動画像処理方法により処理されたピクチャを示す図であ る。
[0090] 本変形例に力かる動画像処理方法では、ピクチャ F2とピクチャ F3の間でシーンチ ェンジがあった場合には、ピクチャ F3の重畳領域 W3に対して、ピクチャ F2以前に重 畳されていた方向性を有する雑音は利用されず、その重畳領域 W3の画像に応じた 雑音が新たに生成されて重畳される。その結果、山という自然物に対してランダム性 を有する適切な雑音を重畳することができる。したがって、シーンチェンジがあっても 、視聴者に対して違和感を与えることなぐ高精細感を増すことができる。
[0091] このように、本変形例に力かる動画像処理装置 100aでは、入力された動画像のシ ーンの変化に応じて、重畳する雑音を変えることができるため、シーンの変化による 違和感を抑制することができる。
[0092] なお、本変形例では、シーンチェンジ検出部 107は、時刻の異なる 2つのピクチャ での同一位置の画素値の絶対値差分和に基づいて、シーンチェンジを検出したが、 他の方法によりシーンチェンジを検出してもよい。例えば、シーンチェンジ検出部 10 7は、動き情報 MVを用いて動き補償された画像と、検出対象の画像との間の絶対値 差分和に基づいて、シーンチェンジを検出する。この場合、同一位置での絶対値差 分和に基づいて検出する場合と比べて、誤検出を防ぐことができる。即ち、シーンチ ェンジがないにも関わらず、画像の動きによって誤ってシーンチェンジがあつたと検 出されることや、逆に、シーンチェンジがあつたにも関わらず、誤ってシーンチェンジ がな力つたと検出されることを防ぐことができる。
[0093] また、算出値は絶対値差分和に限らず、画像間の違いを判定できる他の指標であ つてもよく、例えば、画素値の差分の二乗和であってもよい。
[0094] また、シーンチェンジ検出部 107は、ピクチャ全体における絶対値差分和に基づい て、シーンチェンジを検出したが、ピクチャの領域ごとに、その領域の絶対値差分和 に基づいて、シーンチェンジを検出してもよい。即ち、ピクチャの領域ごとに、動き補 償された雑音がその領域に重畳されたり、初期雑音生成部 105aで生成された雑音 がその領域に重畳されたりする。例えば、動画像において背景が変わらずに物体だ けが表れた場合には、その物体を表す領域に対してだけ、初期雑音生成部 105aで 生成された雑音が重畳され、他の領域に対しては、動き補償された雑音が重畳され る。
[0095] (実施の形態 2)
本発明の実施の形態 2における動画像処理装置は、符号化されたピクチャを示す 符号化画像信号 BSを復号化し、実施の形態 1と同様の処理により、復号化されたピ クチャに対して雑音を重畳する。
[0096] 図 7は、本実施の形態における動画像処理装置のブロック図である。
[0097] 本実施の形態における動画像処理装置 200は、復号処理部 110と、画像動き補償 部 111と、画像フレームメモリ 112と、加算器 113と、加算器 104と、雑音決定部 103 と、雑音フレームメモリ 102と、初期雑音生成部 105と、雑音動き補償部 101とを備え る。即ち、動画像処理装置 200は、実施の形態 1の動画像処理装置 100が有する動 き検出部 106を除く各構成要素と、さらに、復号処理部 110と、画像動き補償部 111 と、画像フレームメモリ 112と、加算器 113とを備えている。
[0098] 復号処理部 110は、符号化画像信号 BSに対して可変長復号化、逆量子化および 逆直交変換などの復号処理を行い、動きベクトルである動き情報 MVと、差分画像信 号 DFVとを出力する。符号化画像信号 BSは、例えば MPEG (Moving Picture Exper t Group)のように、動き情報を用いて符号ィ匕する方法から生成される信号である。
[0099] 画像フレームメモリ 112は、加算器 113から出力された復号画像信号 DVの示すピ クチャを参照ピクチャ RFとして格納する。
[0100] 画像動き補償部 111は、例えば復号化対象ピクチヤに含まれる領域 (ブロックやマ クロブロックなど)ごとに、復号処理部 110から出力された動き情報 MVと、画像フレ ームメモリ 112に格納されて 、る参照ピクチャ RFとを用い、画像に対する動き補償を 行う。つまり、画像動き補償部 111は、動き情報 MVにより示される参照ピクチャ RFの 領域を取り出して、復号化対象領域の予測画像信号 PSとして加算器 113に出力す る。
[0101] 加算器 113は、復号化対象領域ごとに、復号処理部 110から出力される差分画像 信号 DFVに予測画像信号 PSを加算し、その加算結果である信号を復号画像信号 DVとして出力する。
[0102] 本実施の形態における雑音決定部 103および加算器 104は、加算器 113から出 力された復号画像信号 DVを実施の形態 1の入力画像信号 VINとして扱 、、実施の 形態 1と同様の処理を行なう。
[0103] また、本実施の形態における雑音動き補償部 101は、復号処理部 110から出力さ れた動き情報 MVを用いて、実施の形態 1と同様の処理を行う。
[0104] 図 8は、本実施の形態における動画像処理装置 200の動作を示すフローチャート である。
[0105] まず、動画像処理装置 200の復号処理部 110は、符号化画像信号 BSに含まれる 符号ィ匕ピクチャを取得すると (ステップ S170)、その符号ィ匕ピクチャを復号ィ匕して、差 分画像信号 DFVと動き情報 MVとを出力する (ステップ S 172)。
[0106] 次に、画像動き補償部 111は、画像フレームメモリ 112から参照ピクチャ RFを取得 し (ステップ S174)、ステップ S172で出力された動き情報 MVを用いてその参照ピク チヤ RFに対して動き補償を行う(ステップ S176)。そして、加算器 113は、ステップ S 176での動き補償によって生成された予測画像信号 PSと、ステップ S 172での復号 処理によって出力された差分画像信号 DFVとを加算することにより復号化ピクチャを 生成し、その復号ィ匕ピクチャを復号画像信号 DVとして出力する (ステップ S178)。さ らに、加算器 113は、その復号画像信号 DVの示す復号ィ匕ピクチャを参照ピクチャ R Fとして画像フレームメモリ 112に格納する(ステップ S 180)。
[0107] また、雑音動き補償部 101は、雑音フレームメモリ 102から蓄積雑音信号 FMNを 取得し (ステップ S182)、ステップ S172で出力された動き情報 MVを用いてその蓄 積雑音信号 FMNの示す雑音に対して動き補償を行う (ステップ S184)。さらに、雑 音動き補償部 101は、ステップ S184での動き補償によって生成された動き補償雑音 信号 MCNを雑音フレームメモリ 102に蓄積雑音信号 FMNとして格納する (ステップ S186)。
[0108] ここで、上述のステップ S174〜S180の処理と、上述のステップ S182〜S186の処 理とは、並行して行なわれる。また、ステップ S 170で取得された符号ィ匕ピクチャが符 号ィ匕画像信号 BSに含まれる先頭のピクチャである場合には、ステップ S182, S184 の処理の代わりに、初期雑音生成部 105による雑音信号 Nの生成処理が行なわれる 。そして、この雑音信号 Nが動き補償雑音信号 MCNとして雑音フレームメモリ 102に 蓄積される。
[0109] 次に、雑音決定部 103は、復号画像信号 DVの示す復号化ピクチャにおける雑音 の重畳領域を決定する (ステップ S 188)。さらに、雑音決定部 103は、ステップ S184 での動き補償によって生成された動き補償雑音信号 MCNに対してゲイン調整を行う ことにより、重畳雑音信号 SNを生成して出力する (ステップ S 190)。
[0110] そして、加算器 104は、その重畳領域に対して、ステップ S 190で生成された重畳 雑音信号 SNを重畳し (ステップ S 192)、出力画像信号 VOUTを出力する (ステップ S194)。なお、ステップ S190で決定された重畳領域がなかったときには、ステップ S 192での重畳は行われずに、ステップ S178で生成された復号ィ匕ピクチャが出力画 像信号 VOUTとして出力される。
[0111] そして、復号処理部 110は、符号化画像信号 BSの中に次に処理すべき符号化ピ クチャがある力否かを判別し (ステップ S 196)、符号ィ匕ピクチャがあると判別したとき には (ステップ S196の Y)、ステップ S170からの処理を繰り返し実行し、符号化ピク チヤがないと判別したときには (ステップ S 196の N)、動画像の処理を終了する。
[0112] なお、本実施の形態では、動画像処理装置 200は、画像動き補償部 111と雑音フ レームメモリ 102とを備えた力 これらの代わりに、これらの機能を有する 1つの動き補 償部を備えてもよい。同様に、動画像処理装置 200は、画像フレームメモリ 112と雑 音フレームメモリ 102とを備えた力 これらの代わりに、これらの機能を有する 1つのフ レームメモリを備えてもよい。
[0113] 図 9Aは、本実施の形態における動画像処理装置 200の復号処理および雑音処理 のタイミングを示す図である。
[0114] 例えば、符号化画像信号 BSが画面内符号化ピクチャ (Iピクチャ)と前方予測符号 化ピクチャ(Pピクチャ)とから構成されている場合、動画像処理装置 200は、 Iピクチ ャ 10に対する復号処理 IOdと雑音処理 IOnとを同時に行う。なお、ピクチャに対する復 号処理とは、図 8に示すステップ S170〜S180の処理を示し、ピクチャに対する雑音 処理とは、図 8に示すステップ S182〜S186の処理を示す。 [0115] また、動画像処理装置 200は、 Iピクチャ 10の次の Pピクチャ PI, P2に対しても上述 と同様、 Pピクチャ P1に対する復号処理 Pldと雑音処理 Pinとを同時に行い、 Pピク チヤ P2に対する復号処理 P2dと雑音処理 P2nとを同時に行う。
[0116] 図 9Bは、本実施の形態における動画像処理装置 200の復号処理および雑音処理 の他のタイミングを示す図である。
[0117] 例えば、符号化画像信号 BSが画面内符号化ピクチャ (Iピクチャ)と前方予測符号 ィ匕ピクチャ (Pピクチャ)と双方向予測符号化ピクチャ (Bピクチャ)とから構成されて!ヽ る場合、動画像処理装置 200は、 Bピクチャ Bl, B2に対しても上述と同様、 Bピクチ ャ B 1に対する復号処理 B 1 dと雑音処理 B Inとを同時に行!、、 Bピクチャ B2に対する 復号処理 B2dと雑音処理 B2nとを同時に行う。
[0118] このように本実施の形態における動画像処理装置 200は、復号処理と雑音処理と を同時に実行することにより、全体的な動画像の処理時間を短縮することができる。さ らに、動画像処理装置 200では、雑音に対して動き補償を行うときに、復号処理部 1 10から出力される動き情報 MVを利用し、復号画像信号 DVの示す動画像の動きを わざわざ検出することがないため、動き検出の処理を省いて、処理負担を軽減するこ とがでさる。
[0119] なお、本実施の形態においても、実施の形態 1の変形例と同様に、シーンチェンジ 検出部 107を備え、復号画像信号 DVに対してシーンチェンジが検出されるごとに、 初期雑音生成部 105からの雑音信号 Nを復号画像信号 DVに重畳させてもよい。
[0120] また、画像フレームメモリ 112および雑音フレームメモリ 102は、復号画像信号 DV の示すピクチヤと、蓄積雑音信号 FMNの示す雑音とをそれぞれ、ピクチャ単位、マク ロブロック単位、およびブロック単位の何れの単位で管理してもよ 、。
[0121] また、雑音信号 Nは各画素の輝度だけを示してもよい。これにより、雑音が付加され た場合に発生する色ずれを防ぐことができ、回路規模を削減することができる。
[0122] また、例えば所定の領域が画面内符号化されており、雑音動き補償部 101が、その 領域における動き情報 MVを復号処理部 110から取得できな力つたときには、雑音 動き補償部 101は、動き補償を行うことなぐ初期雑音生成部 105から出力された雑 音信号 Nを、動き補償雑音信号 MCNとして出力してもよい。 [0123] (実施の形態 3)
本発明の実施の形態 3における画像符号ィ匕装置は、動画像を符号ィ匕して符号ィ匕 画像信号を生成するときに、復号化された動画像に雑音を重畳すべきか否かを示す 雑音フラグと、その雑音を動き補償により生成すべき力否かを示す動き補償フラグと を、その符号化画像信号に含める。
[0124] 図 10は、本実施の形態における画像符号ィ匕装置 300のブロック図である。
[0125] 本実施の形態における画像符号ィ匕装置 300は、動画像符号化部 301と、画像判 断部 302と、付加情報符号化部 303と、加算器 304とを備える。
[0126] 動画像符号化部 301は、入力画像信号 VINの示す各ピクチャに対して圧縮符号 化を行うことにより符号化画像信号 BSを生成して出力する。さらに、動画像符号化部 301は、符号化された各ピクチャを復号化し、その復号化されたピクチャを示す復号 画像信号 LDVを出力する。ここで、圧縮符号化とは、入力画像信号 VINのデータ量 を削減する処理である。例えば MPEGでは、圧縮符号化は、画面間予測符号化方 式と画面内予測符号化方式により、予測画像と原画像との差分である差分画像に対 して、周波数変換、量子化、および可変長符号ィ匕を行うことである。この場合、復号 画像信号 LDVは、画面間予測を行うために生成される信号である。ただし、 MPEG は一例であって、圧縮符号ィ匕の方式はこれに限られない。また、画面間予測符号ィ匕 の場合だけでなく画面内予測符号ィ匕を行う場合であっても、復号画像信号 LDVを生 成してちょい。
[0127] 画像判断部 302は、復号画像信号 LDVの示す復号化ピクチャの各領域の特徴に 応じて、その領域ごとに、雑音を重畳すべきか否かを示す雑音フラグと、その雑音を 動き補償により生成すべきか否かを示す動き補償フラグとを生成する。そして、画像 判断部 302は、その雑音フラグおよび動き補償フラグをフラグ信号 FLとして出力する 。なお、画像判断部 302は、さらに、復号画像信号 LDVの示す画像の特徴に応じて 、どのように雑音を調整すべきかを示す調整信号も出力してもよい。
[0128] 付加情報符号ィ匕部 303は、画像判断部 302からフラグ信号 FLを取得し、そのフラ グ信号 FLに対して可変長符号化などの符号化処理を行 ヽ、その処理結果である符 号ィ匕フラグ信号 CFLを出力する。 [0129] 加算器 304は、動画像符号化部 301から出力された符号化画像信号 BSに対して 、付加情報符号ィ匕部 303から出力された符号ィ匕フラグ信号 CFLを上述の領域ごとに 組み合わせ、その符号化フラグ信号 CFLが組み合わされた符号化画像信号 BSを符 号ィ匕信号 BSaとして出力する。
[0130] なお、画像判断部 302が上述の調整信号も出力する場合には、その調整信号もフ ラグ信号 FLと同様に可変長符号化されて、符号化調整信号として符号化信号 BSa に含められる。
[0131] 図 11は、本実施の形態における画像判断部 302の動作を示すフローチャートであ る。
[0132] まず、画像判断部 302は、復号画像信号 LDVを取得し (ステップ S220)、その復 号画像信号 LDVの示すピクチヤの領域ごとに、ランダム性で高域の周波数成分がそ の領域にあるカゝ否かを判断する (ステップ S222)。そして、画像判断部 302は、ラン ダム性で高域の周波数成分がないと判断したときには (ステップ S222の N)、その領 域の雑音フラグを OFFに設定する (ステップ S224)。一方、画像判断部 302は、ラン ダム性で高域の周波数成分があると判断したときには (ステップ S222の Y)、その領 域の雑音フラグを ONに設定する (ステップ S226)。
[0133] さらに、画像判断部 302は、ランダム性で高域の周波数成分があると判断された全 ての領域にお 、て、画像が均一に動!、て!/、るか否かを判断する(ステップ S228)。 例えば、画像判断部 302は、それらの領域を有するピクチャよりも前の(過去の)ピク チヤを参照することにより、それらの領域における動き情報の分散値を算出し、その 分散値が予め定められた値よりも小さい場合には、それらの全ての領域の画像が均 一に動いていると判断し、その分散値が予め定められた値よりも大きい場合には、そ れらの全ての領域の画像が均一に動 、て 、な 、と判断する。
[0134] ここで、画像判断部 302は、均一に動いていると判断したときには (ステップ S228 の Y)、各領域の動き補償フラグを ONに設定し (ステップ S230)、均一に動いていな いと判断したときには (ステップ S228の N)、各領域の動き補償フラグを OFFに設定 する(ステップ S232)。
[0135] そして、画像判断部 302は、ステップ S224, S226, S230, S232で設定された雑 音フラグおよび動き補償フラグを示すフラグ信号 FLを生成して出力する (ステップ S2 34)。例えば、フラグ信号 FLには、 OFFに設定された雑音フラグだけが含まれてい たり、 ONに設定された雑音信号フラグと ONに設定された動き補償フラグとが含まれ ていたり、 ONに設定された雑音信号フラグと OFFに設定された動き補償フラグとが 含まれていたりする。
[0136] このようは本実施の形態における画像符号ィ匕装置 300では、符号化されたピクチャ の各領域に対して符号ィ匕フラグ信号 CFLが付加されるため、符号ィ匕信号 BSaを取 得した画像復号ィ匕装置では、その符号化されたピクチャを復号ィ匕した後に、そのピク チヤの各領域に対して雑音を重畳させるべき力否力、および、雑音を重畳するときに は雑音を動き補償するべきか否かを容易に判断することができる。つまり、画像復号 化装置では、復号化されたピクチャの特徴を特定することなぐ適切な雑音を適切な 領域に容易に重畳させることができ、復号化されたピクチャの画質を向上することが できる。
[0137] なお、本実施の形態では、画像判断部 302は、動きの均一性に基づ ヽて動き補償 フラグの設定を行ったが、他の方法により動き補償フラグの設定を行ってもよい。例え ば、画像判断部 302は、復号画像信号 LDVにより示される画像の動きの大きさを調 ベ、その大きさが一定値以上である場合には、動き補償フラグを OFFに設定してもよ い。また、画像判断部 302は、動きの大きさと均一性との組み合わせに基づいて動き 補償フラグの設定を行ってもょ 、。
[0138] また、本実施の形態では、付加情報符号ィ匕部 303は、可変長符号化を行ったが、 他の方法により符号ィ匕してもよい。例えば、符号化画像信号 BSに基づいてフラグ信 号 FLを予測できる場合には、付加情報符号ィ匕部 303はフラグ信号 FLを符号ィ匕せず 、予測できないフラグ信号 FLのみを符号ィ匕する。これにより、符号量を削減すること ができる。
[0139] (変形例 1)
ここで本実施の形態における第 1の変形例について説明する。
[0140] 上記実施の形態における画像判断部 302は、復号画像信号 LDVに基づいてフラ グ信号 FLを生成したが、本変形例にカゝかる画像判断部は、入力画像信号 VINに基 づ 、てフラグ信号 FLを生成する。
[0141] 図 12は、本変形例に力かる画像符号ィ匕装置のブロック図である。
[0142] この画像符号ィ匕装置 300aは、上記実施の形態における画像符号ィ匕装置 300の画 像判断部 302の代わりに、入力画像信号 VINを取得する画像判断部 302aを備えて いる。
[0143] 画像判断部 302aは、復号画像信号 LDVの代わりに入力画像信号 VINを用いて、 画像判断部 302と同様の処理を行う。即ち、画像判断部 302aは、入力画像信号 VI Nの示すピクチャの各領域の特徴に応じて、その領域ごとに、雑音フラグと動き補償 フラグとを設定し、その雑音フラグおよび動き補償フラグをフラグ信号 FLとして出力 する。
[0144] これにより、本変形例では、復号画像信号 LDVを出力しな 、ため、上記実施の形 態における画像符号ィ匕装置 300と比べて回路規模を削減することができる。
[0145] (変形例 2)
ここで、本実施の形態における第 2の変形例について説明する。
[0146] 本変形例にかかる付加情報符号ィ匕部は、動き情報を用いてフラグ信号 FLを可変 長符号化する。
[0147] 図 13は、本変形例に力かる画像符号ィ匕装置のブロック図である。
[0148] 本変形例にかかる画像符号化装置 300bは、上記実施の形態の画像符号化装置 3 00の動画像符号ィ匕部 301の代わりに、入力画像信号 VINの画像の動きを示す動き 情報 MVを出力する動画像符号ィ匕部 301bを備えるとともに、上記実施の形態の画 像符号ィ匕装置 300の付加情報符号ィ匕部 303の代わり、フラグ信号 FLと上述の動き 情報 MVとを取得する付加情報符号ィ匕部 303bを備えている。
[0149] 動画像符号ィ匕部 301bは、実施の形態 1の動き検出部 106を備えており、入力画像 信号 VINの示す各ピクチャ間の画像の動きを検出し、その動きを示す動き情報 MV を出力するとともに、その動き情報 MVを用いて画面間予測符号化を行う。なお、符 号化画像信号 BSには、その動き情報 MVが符号ィ匕されて格納されて ヽる。
[0150] 付加情報符号ィ匕部 303bは、動画像符号ィ匕部 301bから出力された動き情報 MVを 用いて、上記各領域におけるフラグ信号 (雑音フラグおよび動き補償フラグ)を予測し 、その予測結果に基づいて画像判断部 302から出力されたフラグ信号を可変長符号 化する。
[0151] 図 14は、付加情報符号ィ匕部 303bによる可変長符号ィ匕を説明するための説明図で ある。
[0152] 付加情報符号ィ匕部 303bは、例えば、ピクチャ FR2のブロック Bktに対するフラグ信 号を符号化する場合、ピクチャ FR2を符号ィ匕するときの予測画像を生成するために 用いられた参照ピクチャ FR1を参照する。また、付加情報符号ィ匕部 303bは、そのピ クチャ FR2のブロック Bktに対して検出された動き情報 MVを動画像符号ィ匕部 301b 力も取得する。この動き情報 MVは、参照ピクチャ FR1のブロック RBkを示す。
[0153] 付加情報符号ィ匕部 303bは、参照ブロック RBkと最も広く重なっているブロック Bk9 に対して設定されたフラグ信号を特定する。即ち、付加情報符号ィ匕部 303bは、プロ ック Bktに対するフラグ信号力 ブロック Bk9に対して設定されたフラグ信号と同一で あると予測する。そして、付加情報符号ィ匕部 303bは、ブロック Bk9とブロック Bktのフ ラグ信号の関係を用いて、可変長符号化を行う。つまり、付加情報符号化部 303bは 、上述の 2つのブロックにおけるフラグ信号がそれぞれ同じ場合に最も符号量が少な くなるような情報を、そのブロック Bktにおけるフラグ信号に割り当てる。
[0154] 言い換えると、動き情報 MVは、既に符号ィ匕および復号ィ匕された参照ピクチャ FR1 において、ブロック Bktと最も相関の高い位置を表している。そこで、符号化対象のフ ラグ信号に対応するブロック Bktの動き情報から、ブロック Bktと相関性の高い、既に 符号化および復号化されて ヽるブロック RBkのフラグ信号が特定される。ブロック RB kは、ブロック Bktと相関性が高いため、 2つのブロック RBk, Bktのフラグ信号は同じ である確率が高い。この確率の高さを利用することで、符号ィ匕フラグ信号 CFLの情報 量を削減することができる。
[0155] なお、本変形例に力かる付加情報符号ィ匕部 303bは、ブロック Bktのフラグ信号が ブロック Bk9のフラグ信号と同一であると予測した力 他のフラグ信号と同一であると 予測してもよい。例えば、ブロック RBkは、参照ピクチャ FR1のブロック Bkl, Bk2, B k3, Bk9の一部を含んでいる。この場合、付加情報符号化部 303bは、これら 4つの ブロックのフラグ信号力も算出されるフラグ信号 (メディアンゃ平均値など)が、ブロッ ク Bktのフラグ信号と同一であると予測する。これにより、フラグ信号にばらつきがあつ た場合における符号量の増加を抑制することができる。
[0156] (変形例 3)
ここで、本実施の形態における第 3の変形例について説明する。
[0157] 本変形例にカゝかる画像判断部は、復号画像信号 LDVと入力画像信号 VINとに基 づ 、てフラグ信号を生成する。
[0158] 図 15は、本変形例に力かる画像符号ィ匕装置のブロック図である。
[0159] 本変形例にかかる画像符号化装置 300cは、上記実施の形態の画像符号化装置 3 00の画像判断部 302の代わりに、復号画像信号 LDVと入力画像信号 VINとを取得 する画像判断部 302cを備えて 、る。
[0160] 画像判断部 302cは、入力画像信号 VINの示す画像と、復号画像信号 LDVの示 す画像との差分である差分画像を算出して、その差分画像における周波数の特徴に 応じた雑音フラグを設定する。
[0161] 図 16は、本変形例に力かる画像判断部 302cの動作を示すフローチャートである。
[0162] まず、画像判断部 302cは、入力画像信号 VINと復号画像信号 LDVを取得し (ステ ップ S250)、その入力画像信号 VINおよび復号画像信号 LDVのそれぞれで互いに 対応するピクチャ内の領域 (例えばブロックやマクロブロック)ごとに、入力画像信号 V INおよび復号画像信号 LDVのそれぞれの領域における画像の差分を差分画像とし て算出する (ステップ S252)。
[0163] さらに、画像判断部 302cは、ステップ S252で差分画像が算出されるごとに、その 差分画像に、ランダム性で高域の周波数成分があるカゝ否かを判断する (ステップ S25 4)。そして、画像判断部 302は、ランダム性で高域の周波数成分がないと判断したと きには (ステップ S254の N)、その差分画像に対応する領域の雑音フラグを OFFに 設定する (ステップ S256)。一方、画像判断部 302は、ランダム性で高域の周波数成 分があると判断したときには (ステップ S254の Y)、その差分画像に対応する領域の 雑音フラグを ONに設定する (ステップ S 258)。
[0164] さらに、画像判断部 302cは、上述のランダム性で高域の周波数成分があると判断 された領域に対応する復号画像信号 LDV (または、入力画像信号 VIN)の画像と同 一または類似の画像が、既に取得されて ヽる復号画像信号 LDVの示すピクチヤに ある力否かを判別する (ステップ S 260)。
[0165] ここで、画像判断部 302cは、同一または類似の画像があると判断したときには (ス テツプ S260の Y)、動き補償フラグを ONに設定し (ステップ S262)、同一または類似 の画像がないと判断したときには (ステップ S260の N)、動き補償フラグを OFFに設 定する(ステップ S 264)。
[0166] そして、画像判断部 302cは、ステップ S256, S258, S262, S264で設定された 雑音フラグおよび動き補償フラグを示すフラグ信号 FLを生成して出力する (ステップ
S266)。
[0167] なお、本変形例においても、付加情報符号ィ匕部 303は、変形例 2の付加情報符号 化部 303bと同様に、動画像符号ィ匕部 301から動き情報 MVを取得し、その動き情報
MVを用いてフラグ信号 FLの符号ィ匕を行ってもよい。これにより、符号化フラグ信号
CFLの符号量をさらに少なくすることができる。
[0168] (実施の形態 4)
本発明の実施の形態 4における画像復号化装置は、実施の形態 3の画像符号ィ匕 装置によって生成された符号化信号 BSaを復号化するとともに、復号化されたピクチ ャに対して雑音を動き補償により重畳する。
[0169] 図 17は、本実施の形態における画像復号ィ匕装置のブロック図である。
[0170] 本実施の形態における画像復号ィ匕装置 400は、動画像復号部 403と、付加情報 復号部 402と、雑音動き補償部 401と、加算器 404と、初期雑音生成部 105とを備え る。
[0171] 動画像復号部 403は、符号ィ匕信号 BSaを取得して、その符号ィ匕信号 BSaから符号 化フラグ信号 CFLを分離して出力するとともに、その符号化信号 BSaに含まれる符 号化画像信号 BSに対して復号化を行う。例えば、符号化画像信号 BSが MPEGの 方式により符号ィ匕されている場合には、動画像復号部 403は、符号化画像信号 BS に対して可変長復号化、逆量子化、および逆周波数変換などの処理を行って差分 画像を生成するとともに、既に復号化された画像から予測画像を生成し、その予測画 像に差分画像を加算することにより復号画像を生成する。そして、動画像復号部 403 はその復号画像を示す復号画像信号 DVを出力する。なお、 MPEGは一例であり、 符号化画像信号 BSが他の方式で符号化されて ヽる場合には、動画像復号部 403 は、符号ィ匕されたピクチャをその方式に従って復号ィ匕する。
[0172] さらに、動画像復号部 403は、符号化信号 BSaに含められている符号化された動き 情報 MVに対して、可変長復号化などの復号処理を行い、復号化された動き情報 M Vを出力する。
[0173] 付加情報復号部 402は、動画像復号部 403から出力された符号ィ匕フラグ信号 CF Lを取得し、その符号ィ匕フラグ信号 CFLに対して可変長復号ィ匕などの復号処理を行 う。そして、付加情報復号部 402は、復号処理により生成されたフラグ信号 FLを出力 する。
[0174] 初期雑音生成部 105は、復号画像信号 DVに重畳するための雑音信号 Nを生成し て出力する。
[0175] 雑音動き補償部 401は、復号画像信号 DVの示すピクチヤの領域ごとに、付加情報 復号部 402から出力されたフラグ信号 FLに含まれる雑音フラグや動き補償フラグに 従って、雑音に対する動き補償を行う。即ち、雑音動き補償部 401は、フラグ信号 FL の雑音フラグが ONを示して動き補償フラグが OFFを示すときには、初期雑音生成部 105から出力された雑音信号 Nを取得して、その雑音信号 Nを、そのフラグ信号 FL に対応するピクチャの領域に重畳すべき動き補償雑音信号 MCNとして出力する。 一方、雑音動き補償部 401は、フラグ信号 FLの雑音フラグ力 SONを示して動き補償 フラグが ONを示すときには、動画像復号部 403から出力された動き情報 MVに基づ いて、重畳のために過去に使用された雑音を、そのフラグ信号 FLに対応するピクチ ャの領域に動かす。つまり、動画像復号部 403は、過去に使用された動き補償雑音 信号 MCNに対して動き補償を行う。そして、動画像復号部 403は、動き補償によつ て生成された雑音を新たな動き補償雑音信号 MCNとして出力する。また、雑音動き 補償部 401は、フラグ信号 FLの雑音フラグが OFFを示しているときには、動き補償 雑音信号 MCNの出力を停止する。
[0176] 加算器 404は、復号画像信号 DVと動き補償雑音信号 MCNとを取得し、復号画像 信号 DVに対して動き補償雑音信号 MCNを重畳する。つまり、加算器 404は、復号 画像信号 DVの示すピクチヤの領域ごとに、動き補償雑音信号 MCNの示す雑音を、 その領域の画像に重畳する。そして、加算器 404は、動き補償雑音信号 MCNが重 畳された復号画像信号 DVを出力画像信号 VOUTとして出力する。
[0177] 図 18は、本実施の形態における雑音動き補償部 401のブロック図である。
[0178] 本実施の形態における雑音動き補償部 401は、スィッチ SWと、雑音フレームメモリ 102とを備える。
[0179] スィッチ SWは、フラグ信号 FLに応じて、端子 dを端子 a, b, cの何れか〖こ切り換え て接続する。即ち、スィッチ SWは、フラグ信号 FLの雑音フラグが ONを示して動き補 償フラグが ONを示すときには、端子 dを端子 aに接続して、雑音フレームメモリ 102か ら動き補償雑音信号 MCNが出力される状態に設定する。この設定によって動き補 償が行われる。また、スィッチ SWは、フラグ信号 FLの雑音フラグが ONを示して動き 補償フラグが OFFを示すときには、端子 dを端子 cに接続して、初期雑音生成部 105 力 出力された雑音信号 Nが動き補償雑音信号 MCNとして出力される状態に設定 する。また、スィッチ SWは、フラグ信号 FLの雑音フラグが OFFを示すときには、端子 dを端子 bに接続して、雑音動き補償部 401から動き補償雑音信号 MCNが出力され ない状態に設定する。
[0180] 雑音フレームメモリ 102は、重畳するために既に使用された動き補償雑音信号 MC Nを蓄積している。そして、雑音フレームメモリ 102は、動き情報 MVを取得すると、そ の蓄積された動き補償雑音信号 MCNの中から、その動き情報 MVにより示される領 域の動き補償雑音信号 MCNを抽出して出力する。即ち、雑音動き補償部 401は、 雑音フレームメモリ 102に蓄積されている動き補償雑音信号 MCNに対して動き補償 を行う。さらに、雑音フレームメモリ 102は、上述のように出力された動き補償雑音信 号 MCNを、処理対象の領域の動き補償雑音信号 MCNとして改めて格納する。
[0181] 図 19は、本実施の形態における雑音動き補償部 401の動作を示すフローチャート である。
[0182] 雑音動き補償部 401は、まず、フラグ信号 FLを取得し (ステップ S280)、そのフラグ 信号 FLに含まれる雑音フラグが ONを示して 、る力否かを判別する(ステップ S282) [0183] ここで、雑音動き補償部 401は、雑音フラグが ONを示していると判別したときには( ステップ S282の Y)、さらに、フラグ信号 FLに含まれる動き補償フラグが ONを示して いる力否かを判別する (ステップ S284)。動き補償フラグ力ONを示していると判別し たときには (ステップ S284の Y)、雑音動き補償部 401は、雑音フレームメモリ 102か ら動き補償雑音信号 MCNを出力することにより、雑音に対する動き補償を行う (ステ ップ S286)。一方、動き補償フラグが OFFを示していると判別したときには (ステップ S284の N)、雑音動き補償部 401は、雑音を新たに生成してその雑音を動き補償雑 音信号 MCNとして出力する (ステップ S288)。つまり、雑音動き補償部 401は、初期 雑音生成部 105で生成された雑音信号 Nを動き補償雑音信号 MCNとして出力する
[0184] このように、本実施の形態では、実施の形態 3の画像符号ィ匕装置によって生成され た符号化信号 BSaを復号化するとともに、符号化信号 BSaに含まれるフラグ信号 FL に従って、復号化されたピクチャに対して雑音を動き補償により適切に重畳すること ができる。
[0185] なお、本実施の形態では、付加情報復号部 402は、動画像復号部 403から出力さ れる動き情報 MVを用いて符号ィ匕フラグ信号 CFLを復号ィ匕してもよい。つまり、符号 化信号 BSaが、実施の形態 3の変形例 2にかかる画像符号ィ匕装置 300bによって生 成されて!/ヽる場合には、フラグ信号 FLは動き情報 MVを用いて符号ィ匕されて ヽるか らである。
[0186] また、加算器 404は、復号画像信号 DVの示す画素値 Jに、動き補償雑音信号 MC Nの示す画素値 Kを足し算することにより、復号画像信号 DVの示すピクチヤに雑音 を重畳してもよぐ動き補償雑音信号 MCNの示す画素値 Kを関数によって変換した 後に足し算してもよい。例えば、画素値 Kの平方根や三乗根を足し算することにより、 動き補償雑音信号 MCNの示す雑音の強度を抑えることができる。
[0187] また、例えば所定の領域が画面内符号化されており、雑音動き補償部 401が、その 領域における動き情報 MVを動画像復号部 403から取得できな力つたときには、雑 音動き補償部 401は、動き補償を行うことなぐ初期雑音生成部 105から出力された 雑音信号 Nを、動き補償雑音信号 MCNとして出力してもよい。 [0188] (変形例)
ここで本実施の形態における変形例について説明する。
[0189] 本変形例に力かる画像復号ィ匕装置は、さらに、符号ィ匕信号に含まれている情報に 基づ!/、て雑音の強度を調整し、その調整された雑音を復号化された画像に対して重 畳する。
[0190] 図 20は、本変形例に力かる画像復号ィ匕装置のブロック図である。
[0191] 本変形例にカゝかる画像復号ィ匕装置 400aは、動画像復号部 403aと、付加情報復 号部 402aと、雑音動き補償部 401と、初期雑音生成部 105と、信号強度制御部 411 と、加算器 404とを備える。
[0192] 動画像復号部 403aは、雑音の強度を調整するための符号ィ匕調整信号 CADを含 む符号化信号 BSaを取得する。そして、動画像復号部 403aは、その符号ィ匕信号 BS aから符号化調整信号 CADと符号化フラグ信号 CFLとを分離して出力する。さらに、 動画像復号部 403aは、上記実施の形態の動画像復号部 403と同様、符号化信号 B Saに含まれる符号化画像信号 BSを復号画像信号 DVに復号化して出力するととも に、符号ィ匕信号 BSaに含まれる符号化された動き情報 MVを復号ィ匕して出力する。
[0193] 付加情報復号部 402aは、動画像復号部 403aから出力された符号ィ匕フラグ信号 C FLと符号化調整信号 CADとを取得し、それらの信号に対して可変長復号化などの 復号処理を行う。その復号処理の結果、付加情報復号部 402aは、フラグ信号 FLを 雑音動き補償部 401に出力するとともに、調整信号 ADを信号強度制御部 411に出 力する。
[0194] 信号強度制御部 411は、付加情報復号部 402aから出力された調整信号 ADに従 つて雑音の強度が調整されるように、雑音動き補償部 401から出力された動き補償 雑音信号 MCNに対して強度調整処理を行う。信号強度制御部 411は、このような強 度調整処理によって調整された雑音を示す重畳雑音信号 SNを生成して出力する。 これにより、復号化されたピクチャに対して重畳される雑音の強度が、符号化信号 BS aに示される情報に従って調整される。なお、雑音強度の範囲は予め定められており 、調整信号 ADによって示される雑音強度が上記範囲を超える場合には、信号強度 制御部 411は、符号化されたピクチャに対して重畳される雑音の強度が、その範囲 における限界値の雑音強度となるように、動き補償雑音信号 MCNに対する強度調 整処理を行う。
[0195] 加算器 404は、動画像復号部 403aから出力された復号画像信号 DVに対して、信 号強度制御部 411から出力された重畳雑音信号 SNを重畳し、その重畳雑音信号 S Nが重畳された復号画像信号 DVを出力画像信号 VOUTとして出力する。即ち、重 畳雑音信号 SNの示す雑音が、復号画像信号 DVの示す復号化されたピクチャの各 重畳領域に対して重畳される。
[0196] 図 21は、本変形例に力かる雑音動き補償部 401および信号強度制御部 411の動 作を示すフローチャートである。
[0197] まず、雑音動き補償部 401はフラグ信号 FLを取得し、信号強度制御部 411は調整 信号 ADを取得する(ステップ S 300)。
[0198] 雑音動き補償部 401は、そのフラグ信号 FLに含まれる雑音フラグが ONを示すか 否かを判別する(ステップ S302)。 ONを示すと判別したときには (ステップ S302の Y )、雑音動き補償部 401は、さらに、フラグ信号 FLに含まれる動き補償フラグが ONを 示すか否かを判別する (ステップ S304)。雑音動き補償部 401は、 ONを示すと判別 したときには (ステップ S 304の Y)、雑音フレームメモリ 102から動き補償雑音信号 M CNを出力することにより、雑音に対する動き補償を行い (ステップ S306)、 OFFを示 すと判別したときには (ステップ S304の N)、雑音を新たに生成してその雑音を動き 補償雑音信号 MCNとして出力する (ステップ S308)。
[0199] 信号強度制御部 411は、ステップ S300で取得した調整信号 ADに応じて、ステツ プ S306, S308で出力された動き補償雑音信号 MCNに対して強度調整処理を行 い、その動き補償雑音信号 MCNの示す雑音の強度を調整する (ステップ S310)。そ して、信号強度制御部 411は、強度調整された雑音を示す重畳雑音信号 SNを出力 する(ステップ S312)。
[0200] なお、本実施の形態における雑音動き補償部はスィッチ SWを備えて ヽたが、スィ ツチ SWを備えていなくてもよい。この場合、例えば、信号強度制御部がスィッチ SW を備える。
[0201] 図 22は、スィッチ SWを備えていない雑音動き補償部と、スィッチ SWを備える信号 強度制御部とのそれぞれの構成を示す図である。
[0202] 雑音動き補償部 401aは、スィッチ SWを備えずに雑音フレームメモリ 102だけを備 えて構成される。したがって、雑音動き補償部 401aは、フラグ信号 FLにしたがって 処理動作を切り換えることなぐ復号ィ匕ピクチャの全ての領域に対して、雑音フレーム メモリ 102に蓄積されて 、る動き補償雑音信号 MCNの中から、動き情報 MVにより 示される領域の動き補償雑音信号 MCNを抽出して出力する。また、雑音動き補償 部 401aは、各領域に対して出力した動き補償雑音信号 MCNを、その領域に対応 する動き補償雑音信号 MCNとして格納する。
[0203] 信号強度制御部 41 laは、スィッチ SWと強度調整部 420とを備える。
[0204] スィッチ SWは、上述と同様に、フラグ信号 FLに応じて端子 dを端子 a〜cの何れか に切り換えて接続する。端子 dが端子 aに接続されたときには、雑音フレームメモリ 10 2からの動き補償雑音信号 MCNが仮重畳雑音信号 PNとして強度調整部 420に出 力され、端子 dが端子 cに接続されたときには、初期雑音生成部 105からの雑音信号 Nが仮重畳雑音信号 PNとして強度調整部 420に出力され、端子 dが端子 cに接続さ れたときには、強度調整部 420への仮重畳雑音信号 PNの出力が停止される。
[0205] 強度調整部 420は、付加情報復号部 402aから出力された調整信号 ADに従って 雑音の強度が調整されるように、スィッチ SWから出力された仮重畳雑音信号 PNに 対して強度調整処理を行う。強度調整部 420は、このような強度調整処理によって、 仮重畳雑音信号 PNを重畳雑音信号 SNに変換して出力する。
[0206] このように、本実施の形態では、符号化信号 BSaに調整信号 ADが符号化されて 含まれている場合には、その調整信号 ADに従って雑音の強度を調整することがで きるため、より高精細感を増すことができる。
[0207] (実施の形態 5)
さらに、上記実施の形態 1〜4で示した動画像処理方法、画像符号化方法または 画像復号化方法による処理を実現するためのプログラムを、フレキシブルディスク等 の記憶媒体に記録するようにすることにより、上記実施の形態 1〜4で示した各方法 による処理を、独立したコンピュータシステムにおいて簡単に実施することが可能とな る。 [0208] 図 23A〜図 23Cは、フレキシブルディスクを用いて、実施の形態 1〜4の上記各方 法の処理をコンピュータシステムにより実施する場合の説明図である。
[0209] 図 23Bは、フレキシブルディスクの正面図、側面図、及びフレキシブルディスク本体 を示し、図 23Aは、記録媒体本体であるフレキシブルディスク本体の物理フォーマツ トの例を示している。フレキシブルディスク本体 FDはケース F内に内蔵され、そのディ スクの表面には、同心円状に外周からは内周に向力つて複数のトラック Trが形成さ れ、各トラックは角度方向に 16のセクタ Seに分割されている。従って、上記プログラム を格納したフレキシブルディスクでは、上記フレキシブルディスク本体 FD上に割り当 てられた領域に、上記プログラムが記録されて 、る。
[0210] また、図 23Cは、フレキシブルディスク本体 FDに上記プログラムの記録再生を行う ための構成を示す。上記プログラムをフレキシブルディスク本体 FDに記録する場合 は、コンピュータシステム Csから上記プログラムをフレキシブルディスクドライブを介し て書き込む。また、フレキシブルディスク内のプログラムにより上記各方法の機能をコ ンピュータシステムに構築する場合は、フレキシブルディスクドライブによりプログラム をフレキシブルディスクから読み出し、コンピュータシステム Csに転送する。
[0211] なお、上記説明では、記録媒体としてフレキシブルディスクを用いて説明を行った 力 光ディスクを用いても同様に行うことができる。また、記録媒体はこれに限らず、 I Cカード、 ROMカセット等、プログラムを記録できるものであれば同様に実施すること ができる。
[0212] (実施の形態 6)
さらにここで、上記実施の形態で示した動画像処理方法や画像符号化方法、画像 復号ィ匕方法の応用例とそれを用いたシステムを説明する。
[0213] 図 24は、コンテンツ酉 S信サービスを実現するコンテンツ供給システム exlOOの全体 構成を示すブロック図である。通信サービスの提供エリアを所望の大きさに分割し、 各セル内にそれぞれ固定無線局である基地局 exl07〜exl 10が設置されて!、る。
[0214] このコンテンツ供給システム exlOOは、例えば、インターネット exlOlにインターネッ トサービスプロバイダ exl02および電話網 exl04、および基地局 exl07〜exl l0を介 して、コンピュータ exl 11、 PDA (personal digital assistant) ex 112、カメラ exl l3、携 帯電話 exl l4、カメラ付きの携帯電話 exl l5などの各機器が接続される。
[0215] し力し、コンテンツ供給システム exlOOは図 24のような組合せに限定されず、いず れかを組み合わせて接続するようにしてもよい。また、固定無線局である基地局 exlO 7〜exl 10を介さずに、各機器が電話網 exl04に直接接続されてもょ ヽ。
[0216] カメラ exl 13はデジタルビデオカメラ等の動画撮影が可能な機器である。また、携 帯電話は、 PDC (Personal Digital Communications)方式、 CDMA (Code Division M ultiple Access)方式、 W— CDMA (Wideband- Code Division Multiple Access)方式 、若しくは GSM (Global System for Mobile Communications)方式の携帯電話機、ま たは PHS (Personal Handyphone System)等であり、いずれでも構わない。
[0217] また、ストリーミングサーバ exl03は、カメラ 6 113カら基地局6 109、電話網 exl04 を通じて接続されており、カメラ exl l3を用いてユーザが送信する符号ィ匕処理された データに基づ 、たライブ配信等が可能になる。撮影したデータの符号化処理はカメ ラ exl 13で行っても、データの送信処理をするサーバ等で行ってもよい。また、カメラ exl 16で撮影した動画データはコンピュータ exl 11を介してストリーミングサーバ exl 03に送信されてもよい。カメラ exl 16はデジタルカメラ等の静止画、動画が撮影可能 な機器である。この場合、動画データの符号ィ匕はカメラ exl 16で行ってもコンピュータ exl 11で行ってもどちらでもよい。また、符号化処理はコンピュータ exl 11やカメラ ex 116が有する LSIexl 17において処理することになる。なお、画像符号化'復号化用 のソフトウェアをコンピュータ exl 11等で読み取り可能な記録媒体である何らかの蓄 積メディア(CD— ROM、フレキシブルディスク、ハードディスクなど)に組み込んでも よい。さらに、カメラ付きの携帯電話 exl 15で動画データを送信してもよい。このときの 動画データは携帯電話 exl l5が有する LSIで符号化処理されたデータである。
[0218] このコンテンツ供給システム exlOOでは、ユーザがカメラ exl 13、カメラ exl 16等で 撮影して ヽるコンテンツ (例えば、音楽ライブを撮影した映像等)を上記実施の形態 同様に符号ィ匕処理してストリーミングサーバ exl03に送信する一方で、ストリーミング サーバ exl03は要求のあったクライアントに対して上記コンテンツデータをストリーム 配信する。クライアントとしては、上記符号化処理されたデータを復号化することが可 能な、コンピュータ exl 11、 PDAexl l2、カメラ exl 13、携帯電話 exl 14等がある。こ のようにすることでコンテンツ供給システム exlOOは、符号ィ匕されたデータをクライア ントにおいて受信して再生することができ、さらにクライアントにおいてリアルタイムで 受信して復号化し、再生することにより、個人放送をも実現可能になるシステムである
[0219] このシステムを構成する各機器の動画像処理、符号化、復号化には上記各実施の 形態で示した動画像処理方法、画像符号化装置ある!ヽは画像復号化装置を用いる ようにすればよい。
[0220] その一例として携帯電話につ 、て説明する。
[0221] 図 25は、上記実施の形態で説明した動画像処理方法と画像符号化方法と画像復 号ィ匕方法を用いた携帯電話 exl l5を示す図である。携帯電話 exl l5は、基地局 exl 10との間で電波を送受信するためのアンテナ ex201、 CCDカメラ等の映像、静止画 を撮ることが可能なカメラ部 ex203、カメラ部 ex203で撮影した映像、アンテナ ex201 で受信した映像等が復号ィ匕されたデータを表示する液晶ディスプレイ等の表示部 ex 202、操作キー ex204群から構成される本体部、音声出力をするためのスピーカ等 の音声出力部 ex208、音声入力をするためのマイク等の音声入力部 ex205、撮影し た動画もしくは静止画のデータ、受信したメールのデータ、動画のデータもしくは静 止画のデータ等、符号化されたデータまたは復号化されたデータを保存するための 記録メディア ex207、携帯電話 exl 15に記録メディア ex207を装着可能とするための スロット部 ex206を有して!/、る。記録メディア ex207は SDカード等のプラスチックケー ス内に電気的に書換えや消去が可能な不揮発性メモリである EEPROM (Electricall y Erasable and Programmable Read Only Memory)の一種であるノフッンュメモリ 十 を格納したものである。
[0222] さらに、携帯電話 exl l5について図 26を用いて説明する。携帯電話 exl l5は表示 部 ex202及び操作キー ex204を備えた本体部の各部を統括的に制御するようになさ れた主制御部 ex311に対して、電源回路部 ex310、操作入力制御部 ex304、画像符 号ィ匕部 ex312、カメラインターフェース部 ex303、 LCD (Liquid Crystal Display)制御 部 ex302、画像復号化部 ex309、多重分離部 ex308、記録再生部 ex307、変復調回 路部 ex306及び音声処理部 ex305が同期バス ex313を介して互!、に接続されて!ヽ る。
[0223] 電源回路部 ex310は、ユーザの操作により終話及び電源キーがオン状態にされる と、バッテリパック力も各部に対して電力を供給することによりカメラ付ディジタル携帯 電話 exl l5を動作可能な状態に起動する。
[0224] 携帯電話 exl 15は、 CPU、 ROM及び RAM等でなる主制御部 ex311の制御に基 づ 、て、音声通話モード時に音声入力部 ex205で集音した音声信号を音声処理部 e x305によってディジタル音声データに変換し、これを変復調回路部 ex306でスぺタト ラム拡散処理し、送受信回路部 ex301でディジタルアナログ変換処理及び周波数変 換処理を施した後にアンテナ ex201を介して送信する。また携帯電話機 ex 115は、 音声通話モード時にアンテナ ex201で受信した受信データを増幅して周波数変換 処理及びアナログディジタル変換処理を施し、変復調回路部 ex306でスペクトラム逆 拡散処理し、音声処理部 ex305によってアナログ音声データに変換した後、これを音 声出力部 ex208を介して出力する。
[0225] さらに、データ通信モード時に電子メールを送信する場合、本体部の操作キー ex2 04の操作によって入力された電子メールのテキストデータは操作入力制御部 ex304 を介して主制御部 ex311に送出される。主制御部 ex311は、テキストデータを変復調 回路部 ex306でスペクトラム拡散処理し、送受信回路部 ex301でディジタルアナログ 変換処理及び周波数変換処理を施した後にアンテナ ex201を介して基地局 exl lO へ送信する。
[0226] データ通信モード時に画像データを送信する場合、カメラ部 ex203で撮像された画 像データをカメラインターフェース部 ex303を介して画像符号ィ匕部 ex312に供給する 。また、画像データを送信しない場合には、カメラ部 ex203で撮像した画像データを カメラインターフェース部 ex303及び LCD制御部 ex302を介して表示部 ex202に直 接表示することも可能である。
[0227] 画像符号ィ匕部 ex312は、本願発明で説明した画像符号ィ匕装置を備えた構成であり 、カメラ部 ex203から供給された画像データを上記実施の形態で示した画像符号ィ匕 装置に用いた符号化方法によって圧縮符号化することにより符号化画像データに変 換し、これを多重分離部 ex308に送出する。また、このとき同時に携帯電話機 exl 15 は、カメラ部 ex203で撮像中に音声入力部 ex205で集音した音声を音声処理部 ex3 05を介してディジタルの音声データとして多重分離部 ex308に送出する。
[0228] 多重分離部 ex308は、画像符号化部 ex312から供給された符号化画像データと音 声処理部 ex305から供給された音声データとを所定の方式で多重化し、その結果得 られる多重化データを変復調回路部 ex306でスペクトラム拡散処理し、送受信回路 部 ex301でディジタルアナログ変換処理及び周波数変換処理を施した後にアンテナ ex201を介して送信する。
[0229] データ通信モード時にホームページ等にリンクされた動画像ファイルのデータを受 信する場合、アンテナ ex201を介して基地局 exl 10から受信した受信データを変復 調回路部 ex306でスペクトラム逆拡散処理し、その結果得られる多重化データを多 重分離部 ex308に送出する。
[0230] また、アンテナ ex201を介して受信された多重化データを復号ィ匕するには、多重分 離部 ex308は、多重化データを分離することにより画像データのビットストリームと音 声データのビットストリームとに分け、同期ノ ス ex313を介して当該符号ィ匕画像データ を画像復号ィ匕部 ex309に供給すると共に当該音声データを音声処理部 ex305に供 給する。
[0231] 次に、画像復号ィ匕部 ex309は、本願発明で説明した画像復号化装置を備えた構 成であり、画像データのビットストリームを上記実施の形態で示した符号ィ匕方法に対 応した復号化方法で復号することにより再生動画像データを生成し、これを LCD制 御部 ex302を介して表示部 ex202に供給し、これにより、例えばホームページにリン クされた動画像ファイルに含まれる動画データが表示される。このとき同時に音声処 理部 ex305は、音声データをアナログ音声データに変換した後、これを音声出力部 e x208に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含 まる音声データが再生される。
[0232] なお、上記システムの例に限られず、最近は衛星、地上波によるディジタル放送が 話題となっており、図 27に示すようにディジタル放送用システムにも上記実施の形態 の少なくとも画像符号ィ匕装置または画像復号ィ匕装置のいずれかを組み込むことがで きる。具体的には、放送局 ex409では映像情報のビットストリームが電波を介して通 信または放送衛星 ex410に伝送される。これを受けた放送衛星 ex410は、放送用の 電波を発信し、この電波を衛星放送受信設備をもつ家庭のアンテナ ex406で受信し 、テレビ(受信機) ex401またはセットトップボックス(STB) ex407などの装置によりビ ットストリームを復号ィ匕してこれを再生する。また、記録媒体である CDや DVD等の蓄 積メディア ex402に記録したビットストリームを読み取り、復号ィ匕する再生装置 ex403 にも上記実施の形態で示した画像復号ィ匕装置を実装することが可能である。この場 合、再生された映像信号はモニタ ex404に表示される。また、ケーブルテレビ用のケ 一ブル ex405または衛星 Z地上波放送のアンテナ ex406に接続されたセットトップボ ックス ex407内に画像復号ィ匕装置を実装し、これをテレビのモニタ ex408で再生する 構成も考えられる。このときセットトップボックスではなぐテレビ内に画像復号ィ匕装置 を組み込んでも良い。また、アンテナ ex411を有する車 ex412で衛星 ex410からまた は基地局 exl07等力も信号を受信し、車 ex412が有するカーナビゲーシヨン ex413 等の表示装置に動画を再生することも可能である。
[0233] 更に、画像信号を上記実施の形態で示した画像符号化装置で符号化し、記録媒 体に記録することもできる。具体例としては、 DVDディスク ex421に画像信号を記録 する DVDレコーダや、ハードディスクに記録するディスクレコーダなどのレコーダ ex42 0がある。更に SDカード ex422に記録することもできる。レコーダ ex420が上記実施 の形態で示した画像復号化装置を備えて ヽれば、 DVDディスク ex421や SDカード e x422に記録した画像信号を再生し、モニタ ex408で表示することができる。
[0234] なお、カーナビゲーシヨン ex413の構成は例えば図 26に示す構成のうち、カメラ部 e x203とカメラインターフェース部 ex303、画像符号ィ匕部 ex312を除いた構成が考え られ、同様なことがコンピュータ exl 11やテレビ (受信機) ex401等でも考えられる。
[0235] また、上記携帯電話 exl 14等の端末は、符号化器'復号化器を両方持つ送受信型 の端末の他に、符号化器のみの送信端末、復号化器のみの受信端末の 3通りの実 装形式が考えられる。
[0236] このように、上記実施の形態で示した動画像処理方法、画像符号化方法あるいは 画像復号ィ匕方法を上述したいずれの機器 'システムに用いることは可能であり、そう することで、上記実施の形態で説明した効果を得ることができる。 [0237] なお、ブロック図(図 1、図 7、図 10、図 17など)の各機能ブロックは典型的には集積 回路である LSI (large- scale integration)として実現される。これらは個別に 1チップ化 されても良いし、一部又は全てを含むように 1チップィ匕されても良い。(例えばメモリ以 外の機能ブロックが 1チップィ匕されて 、ても良 、。 )
ここでは、 LSIとしたが、集積度の違いにより、 IC (integrated circuit)、システム LSI 、スーパー LSI、ウノレ卜ラ LSIと呼称されることちある。
[0238] また、集積回路化の手法は LSIに限るものではなぐ専用回路又は汎用プロセサで 実現してもよい。 LSI製造後に、プログラムすることが可能な FPGA (Field Programma ble Gate Array)や、 LSI内部の回路セルの接続や設定を再構成可能なリコンフィギ ユラブル'プロセッサーを利用しても良い。
[0239] さらには、半導体技術の進歩又は派生する別技術により LSIに置き換わる集積回路 化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積ィ匕を行っても よい。バイオ技術の適応等が可能性としてありえる。
[0240] また、各機能ブロックのうち、符号化または復号化の対象となるデータを格納する手 段だけ 1チップィ匕せずに別構成としても良い。
[0241] また、本発明は、上記実施の形態 1〜6およびそれらの変形例に限定されるもので はなぐこれらの実施の形態および変形例に含まれる処理を矛盾無く組み合わせて もよぐ本発明の範囲を逸脱することなく種々の変形または修正が可能である。
産業上の利用可能性
[0242] 本発明の動画像処理方法は、視聴者によって認識される主観画質を向上すること ができるという効果を奏し、例えば携帯電話、 DVD (Digital Versatile Disk)装置、お よびパーソナルコンピュータ等に適用することができる。

Claims

請求の範囲
[1] 動画像に対して雑音を重畳する動画像処理方法であって、
前記動画像への重畳に使用された第 1の雑音を、前記動画像の動きに合わせて動 かし、
動かされた前記第 1の雑音を、前記動きが生じた後の動画像に対して重畳する ことを特徴とする動画像処理方法。
[2] 前記動画像処理方法は、さらに、
前記動画像に含まれる処理対象のピクチャの中から、雑音を重畳すべき重畳領域 を特定し、
前記第 1の雑音を動かすときには、
前記重畳領域における画像の動きに合わせて前記第 1の雑音を動かし、 動かされた前記第 1の雑音を重畳するときには、
動かされた前記第 1の雑音を前記重畳領域に対して重畳する
ことを特徴とする請求項 1記載の動画像処理方法。
[3] 前記重畳領域を特定するときには、
前記処理対象のピクチャにおける周波数成分に基づいて特定する
ことを特徴とする請求項 2記載の動画像処理方法。
[4] 前記第 1の雑音を動かすときには、
前記重畳領域における画像の動きを検出し、
検出された前記動きに従って前記第 1の雑音を動かす
ことを特徴とする請求項 2記載の動画像処理方法。
[5] 前記動画像処理方法は、さらに、
前記動画像を含む動画像信号を取得し、
前記第 1の雑音を動かすときには、
前記重畳領域における画像の動きを示す動き情報を前記動画像信号から抽出し、 抽出された前記動き情報の示す動きに従って前記第 1の雑音を動かす ことを特徴とする請求項 2記載の動画像処理方法。
[6] 前記動画像信号は符号化されており、 前記動画像処理方法は、さらに、
符号化されて!/ヽる前記動画像信号を復号化し、
前記重畳領域を特定するときには、
復号化された前記動画像信号に含まれる複数のピクチャを順次、前記処理対象の ピクチャとして、前記各処理対象のピクチャ力 重畳領域を特定する
ことを特徴とする請求項 5記載の動画像処理方法。
[7] 前記動画像信号には、さらに、前記重畳領域を示す第 1の識別情報が含まれてお り、
前記重畳領域を特定するときには、
前記第 1の識別情報に基づいて前記重畳領域を特定する
ことを特徴とする請求項 6記載の動画像処理方法。
[8] 前記動画像信号には、さらに、前記重畳領域のうち、前記第 1の雑音を重畳すべき 領域を示す第 2の識別情報が含まれており、
動かされた前記第 1の雑音を重畳するときには、
動かされた前記第 1の雑音を、前記第 2の識別情報により示される領域に対して重 畳する
ことを特徴とする請求項 6記載の動画像処理方法。
[9] 前記動画像信号には、さらに、重畳されるべき雑音の強度を示す調整信号が含ま れており、
動かされた前記第 1の雑音を重畳するときには、
動かされた前記第 1の雑音の強度が前記調整信号により示される強度となるように 、前記第 1の雑音を調整し、調整された前記第 1の雑音を前記重畳領域に重畳する ことを特徴とする請求項 6記載の動画像処理方法。
[10] 前記動画像処理方法は、さらに、
前記動画像に含まれる前記処理対象のピクチャと処理済みのピクチャとの間で、画 像内容の切り替わりが発生したか否かを判別し、
前記切り替わりが発生したと判別されたときには、
重畳に使用されていない第 2の雑音を新たに生成して前記処理対象のピクチャに 重畳し、
前記切り替わりが発生していないと判別されたときには、
動かされた前記第 1の雑音を前記重畳領域に対して重畳する
ことを特徴とする請求項 2記載の動画像処理方法。
[11] 前記切り替わりが発生したと判別されたときには、
前記処理対象のピクチャの特徴に応じた種類の前記第 2の雑音を生成して前記処 理対象のピクチャに重畳する
ことを特徴とする請求項 10記載の動画像処理方法。
[12] 動かされた前記第 1の雑音を重畳するときには、
動かされた前記第 1の雑音の強度を調整し、調整された前記第 1の雑音を前記重 畳領域に対して重畳する
ことを特徴とする請求項 2記載の動画像処理方法。
[13] 動力された前記第 1の雑音の強度を調整するときには、
前記重畳領域に含まれる周波数成分が高域であるほど大きくなるように前記強度を 調整する
ことを特徴とする請求項 12記載の動画像処理方法。
[14] 動画像に対して雑音を重畳する動画像処理装置であって、
前記動画像への重畳に使用された雑音を、前記動画像の動きに合わせて動かす 動き補償手段と、
前記動き補償手段によって動かされた前記雑音を、前記動きが生じた後の動画像 に対して重畳する重畳手段と
を備えることを特徴とする動画像処理装置。
[15] 動画像に対して雑音を重畳するためのプログラムであって、
前記動画像への重畳に使用された第 1の雑音を、前記動画像の動きに合わせて動 かし、
動かされた前記第 1の雑音を、前記動きが生じた後の動画像に対して重畳する ことをコンピュータに実行させることを特徴とする動画像処理方法。
[16] 動画像に対して雑音を重畳する集積回路であって、 前記動画像への重畳に使用された雑音を、前記動画像の動きに合わせて動かす 動き補償手段と、
前記動き補償手段によって動かされた前記雑音を、前記動きが生じた後の動画像 に対して重畳する重畳手段と
を備えることを特徴とする集積回路。
PCT/JP2006/302458 2005-02-21 2006-02-13 動画像処理方法 WO2006087989A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20060713600 EP1855463B1 (en) 2005-02-21 2006-02-13 Moving picture processing method
JP2007503643A JP4749415B2 (ja) 2005-02-21 2006-02-13 動画像処理方法
US11/795,839 US8059203B2 (en) 2005-02-21 2006-02-13 Moving picture processing method
DE200660013951 DE602006013951D1 (de) 2005-02-21 2006-02-13 Verfahren zur verarbeitung bewegter bilder

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005-044761 2005-02-21
JP2005044761 2005-02-21
JP2005-133065 2005-04-28
JP2005133065 2005-04-28

Publications (1)

Publication Number Publication Date
WO2006087989A1 true WO2006087989A1 (ja) 2006-08-24

Family

ID=36916395

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/302458 WO2006087989A1 (ja) 2005-02-21 2006-02-13 動画像処理方法

Country Status (5)

Country Link
US (1) US8059203B2 (ja)
EP (1) EP1855463B1 (ja)
JP (1) JP4749415B2 (ja)
DE (1) DE602006013951D1 (ja)
WO (1) WO2006087989A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015012316A (ja) * 2013-06-26 2015-01-19 株式会社ニコン 画像処理装置およびプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101135650A (zh) * 2006-08-29 2008-03-05 彭兴跃 一种细胞观测实验方法及其装置
JP4746514B2 (ja) * 2006-10-27 2011-08-10 シャープ株式会社 画像表示装置及び方法、画像処理装置及び方法
JP5217270B2 (ja) * 2007-06-26 2013-06-19 ソニー株式会社 画像処理装置およびその方法、並びにプログラム
EP2073532A1 (en) * 2007-12-17 2009-06-24 Koninklijke Philips Electronics N.V. Video signal processing
US8928809B2 (en) * 2010-09-15 2015-01-06 Verizon Patent And Licensing Inc. Synchronizing videos
US9491473B2 (en) * 2013-10-03 2016-11-08 Amlogic Co., Limited Motion compensated de-interlacing and noise reduction
EP2876890A1 (en) * 2013-11-21 2015-05-27 Thomson Licensing Method and apparatus for frame accurate synchronization of video streams
KR20150090515A (ko) * 2014-01-29 2015-08-06 삼성전자주식회사 고주파수 성분의 위상 변조를 통한 영상 질감 향상 방법 및 그 장치
WO2016113888A1 (ja) * 2015-01-15 2016-07-21 株式会社島津製作所 画像処理装置
US20210352341A1 (en) * 2020-05-06 2021-11-11 At&T Intellectual Property I, L.P. Scene cut-based time alignment of video streams

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62295583A (ja) * 1986-06-16 1987-12-22 Fuji Photo Film Co Ltd 圧縮処理を経た画像デ−タからの画像再構成方法
JPH03210889A (ja) * 1990-01-16 1991-09-13 Nec Corp 予測復号化回路
JPH042275A (ja) * 1990-04-19 1992-01-07 Fuji Photo Film Co Ltd 画像信号復号再生装置
JPH0795562A (ja) * 1993-09-24 1995-04-07 Nec Corp 動画像復号化装置
JPH08149466A (ja) * 1994-09-30 1996-06-07 Sanyo Electric Co Ltd 動画像処理方法及び処理装置
JPH08163594A (ja) * 1994-12-12 1996-06-21 Sony Corp 動画像復号化方法及び動画像復号化装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5229864A (en) 1990-04-16 1993-07-20 Fuji Photo Film Co., Ltd. Device for regenerating a picture signal by decoding
JP3980659B2 (ja) 1994-08-31 2007-09-26 ソニー株式会社 動画像符号化方法及び装置、動画像復号化方法及び装置。
US6717613B1 (en) * 1996-08-02 2004-04-06 United Module Corporation Block deformation removing filter
JP3210889B2 (ja) 1997-01-14 2001-09-25 シャープ株式会社 直交2偏波導波管入力装置およびそれを用いた衛星放送受信用のコンバータ
US7245783B2 (en) * 2003-06-24 2007-07-17 Eastman Kodak Company System and method for estimating, synthesizing and matching noise in digital images and image sequences

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62295583A (ja) * 1986-06-16 1987-12-22 Fuji Photo Film Co Ltd 圧縮処理を経た画像デ−タからの画像再構成方法
JPH03210889A (ja) * 1990-01-16 1991-09-13 Nec Corp 予測復号化回路
JPH042275A (ja) * 1990-04-19 1992-01-07 Fuji Photo Film Co Ltd 画像信号復号再生装置
JPH0795562A (ja) * 1993-09-24 1995-04-07 Nec Corp 動画像復号化装置
JPH08149466A (ja) * 1994-09-30 1996-06-07 Sanyo Electric Co Ltd 動画像処理方法及び処理装置
JPH08163594A (ja) * 1994-12-12 1996-06-21 Sony Corp 動画像復号化方法及び動画像復号化装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1855463A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015012316A (ja) * 2013-06-26 2015-01-19 株式会社ニコン 画像処理装置およびプログラム

Also Published As

Publication number Publication date
EP1855463A4 (en) 2009-01-14
JP4749415B2 (ja) 2011-08-17
US8059203B2 (en) 2011-11-15
JPWO2006087989A1 (ja) 2008-07-03
EP1855463A1 (en) 2007-11-14
EP1855463B1 (en) 2010-04-28
DE602006013951D1 (de) 2010-06-10
US20080030617A1 (en) 2008-02-07

Similar Documents

Publication Publication Date Title
WO2006087989A1 (ja) 動画像処理方法
TWI317107B (en) Filtering strength determination method , moving picture coding method and moving picture decoding method
JP4130783B2 (ja) 動きベクトル符号化方法および動きベクトル復号化方法
TWI283534B (en) Motion compensation method, picture coding method and picture decoding method
KR100948714B1 (ko) 동화상 부호화 방법 및 동화상 복호화 방법
WO2006025339A1 (ja) 復号化装置、符号化装置、復号化方法、符号化方法
WO2006013854A1 (ja) 画像復号化装置および画像符号化装置
WO2006054507A1 (ja) 動画像符号化方法及び動画像復号方法
JP2007096709A (ja) 画像処理方法、画像符号化方法および画像復号方法
JP4313710B2 (ja) 画像符号化方法および画像復号化方法
JP2005160048A (ja) 面内予測符号化方法
JP4580626B2 (ja) フィルタリング強度の決定方法、動画像符号化方法、および動画像復号化方法
JP2006236317A (ja) 画像処理方法
JPWO2006003873A1 (ja) 画像符号化方法および画像復号化方法
JP4580902B2 (ja) フィルタリング強度の決定方法、動画像符号化方法、および動画像復号化方法
JP4580901B2 (ja) フィルタリング強度の決定方法、動画像符号化方法、および動画像復号化方法
JP4580903B2 (ja) フィルタリング強度の決定方法、動画像符号化方法、および動画像復号化方法
JP2007288472A (ja) 画像処理装置及び画像処理方法
JP2009123145A (ja) 画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11795839

Country of ref document: US

Ref document number: 2006713600

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007503643

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2006713600

Country of ref document: EP