WO2007114220A1 - 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム - Google Patents

画像処理装置、および画像処理方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
WO2007114220A1
WO2007114220A1 PCT/JP2007/056804 JP2007056804W WO2007114220A1 WO 2007114220 A1 WO2007114220 A1 WO 2007114220A1 JP 2007056804 W JP2007056804 W JP 2007056804W WO 2007114220 A1 WO2007114220 A1 WO 2007114220A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
speed
frame
optimum
moving speed
Prior art date
Application number
PCT/JP2007/056804
Other languages
English (en)
French (fr)
Inventor
Atsushi Ito
Seiji Kobayashi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to KR1020077027845A priority Critical patent/KR101362651B1/ko
Priority to US11/913,167 priority patent/US8072498B2/en
Priority to EP07740242A priority patent/EP2003876A4/en
Priority to CN2007800005412A priority patent/CN101326810B/zh
Publication of WO2007114220A1 publication Critical patent/WO2007114220A1/ja

Links

Classifications

    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Definitions

  • Image processing apparatus image processing method, and computer 'program technical field
  • the present invention relates to an image processing apparatus, an image processing method, and a computer program.
  • the present invention relates to an image processing apparatus, an image processing method, and a computer program that reduce image quality degradation such as jerkiness blur that occurs in a captured image of a moving subject and generate a high-quality output image.
  • Figs. 1 to 3 are diagrams that schematically explain how an observer's power looks based on this perceptual characteristic.
  • FIG. 1 is an example for explaining how a stationary object and a moving object are seen in the real world.
  • Figure 1 (1) shows the temporal transition of stationary object 11 and moving object 12 with the horizontal axis representing position (x) and the vertical axis representing time (t) .
  • Figure 1 (2) shows these stationary FIG. 6 is a diagram schematically illustrating the perception state of an observer who observes an object 11 and a moving object 12.
  • the observer has two different types of perception states: a follow-up view in which the moving object 12 is observed and a fixed view in which the viewpoint is fixed without following the moving object 12 for observation. They are shown as (a) following vision and (b) fixed vision respectively.
  • FIG. 2 is a diagram for explaining the occurrence of jerkiness perceived by an observer when a moving image or animation captured by a high-speed shirt is displayed using a display device such as a projector display. is there. In other words, the movement of moving objects contained in the image is displayed discontinuously, and the observer observing the image perceives multiple images.
  • FIG. 2 shows changes in the display position of the display stationary object 21 and the display moving object 22 on the display device.
  • the vertical axis is time (t), and a break is set for each refresh interval (lZ60sec) of the display device.
  • the horizontal axis is the display position (X).
  • FIG. 2 (2) is a diagram schematically showing the perception state of an observer who observes the display stationary object 21 and the display moving object 22 displayed on the display device.
  • the observer performs the following visual observation in which the display moving object 22 is observed, and the fixed visual observation in which the viewpoint is fixed while the display moving object 22 is not followed. is there. These are shown as (a) following vision and (b) fixed vision respectively.
  • jerkiness degradation is more likely to occur with faster moving objects.
  • jerkiness degradation occurs as the frame rate of the display device is lower, and is less likely to occur as the frame rate is higher.
  • jerkiness degradation is generally more likely to occur in areas where the spatial brightness change is large, in other words, in areas where the spatial contrast is high.
  • FIG. 3 shows a blur perceived by an observer when a moving image or animation captured by a low-speed shirt such as an open shirt is displayed using a display device such as a projector or a display. It is a figure explaining generation
  • Blur is a phenomenon in which details of a subject are lost or edges are blurred due to motion blur.
  • FIG. 3 shows changes in the display position of the display stationary object 31 and the display moving object 32 on the display device.
  • the vertical axis is time (t), and a break is set for each refresh interval (lZ60sec) of the display device.
  • the horizontal axis is the display position (X).
  • FIG. 3 (2) is a diagram schematically showing the perception state of an observer who observes the display stationary object 31 and the display moving object 32 displayed on the display device.
  • the observer performs the following visual observation in which the display moving object 32 is observed and the fixed visual observation in which the viewpoint is fixed while not following the display moving object 32. is there. These are shown as (a) following vision and (b) fixed vision respectively.
  • jerkiness is known as image quality degradation that easily occurs when a frame rate different from that of the original moving image is displayed.
  • a method of simply decimating according to the number of frames after conversion is common. In this case, since the original moving image is captured with a short exposure time, jerkiness is likely to occur.
  • Patent Document 1 By using this method, the jerkiness deterioration can be improved.
  • Patent Document 1 Japanese Patent Laid-Open No. 11-112939
  • the present invention has been made in view of such a problem, and an image processing apparatus, an image processing method, and an image processing apparatus capable of suppressing both jerkiness and blur, which are causes of deterioration of moving image quality, and The purpose of providing computer 'programs.
  • the present invention calculates, for example, a moving speed between frames and a spatial feature amount for each divided region of the input image signal, and is adaptive for each region based on the calculated moving speed and spatial feature amount.
  • An image processing apparatus, an image processing method, and a computer capable of generating and outputting a high-quality image signal with little image quality deterioration that suppresses the occurrence of both jerkiness and blur by performing filtering processing 'The purpose is to provide a program.
  • the first aspect of the present invention is
  • An image processing apparatus that performs image processing on a moving image
  • a moving speed calculation unit that calculates the moving speed of the subject in accordance with the frame rate of the output image in units of divided areas into which the frame images constituting the moving image are divided;
  • the movement speed information for each divided area is input, and the optimum shot speed for reducing image degradation of the output image is obtained for each divided area as the optimum imaging shutter speed corresponding to the movement speed.
  • An image generation processing unit that generates an image corresponding to a shot speed in units of the divided areas, and outputs a frame image obtained by combining the generated divided area images;
  • the moving speed calculation unit performs frame matching on a divided region basis by a block matching process using the selected frame for search and the reference frame. It is characterized in that it is configured to execute processing for calculating the moving speed.
  • the moving speed calculation unit performs frame matching of the input image on a divided region basis by block matching processing using the selected search frame and reference frame.
  • a block matching unit that obtains a motion vector; and a motion vector standard part that calculates a moving speed of a subject according to a frame rate of an output image based on motion vector information calculated by the block matching unit. It is characterized by that.
  • the moving speed calculation unit selects a frame force of the input image at a frame interval corresponding to a frame rate of the output image for the search frame. It is the structure which performs.
  • the image generation processing unit holds a table in which a moving speed is associated with an imaging shutter speed at which image degradation of an output image is reduced.
  • the optimum shirter speed corresponding to the moving speed is obtained by referring to the table for each divided area.
  • the table is a table in which moving speed section information and optimum shirt speed information are associated with each other.
  • the image generation processing unit is configured to provide a plurality of different correspondence relationships between a moving speed and an optimum shirter speed at which image degradation of an output image is reduced. It is characterized by having a table and determining a table to be applied based on user selection information.
  • the image generation processing unit includes an optimum shirter speed calculating unit that calculates an optimum shirter speed corresponding to a moving speed in units of the divided areas, and And a filtering processing unit that generates an image corresponding to the optimum shirter speed calculated by the optimum shirter speed calculating unit in units of the divided regions.
  • the filtering processing unit corresponds to the imaging shot speed calculated by the optimum shot speed calculation unit based on a frame force selected for the input image. It is the structure which performs the process which produces
  • the filtering processing unit sets a weighting factor according to the optimum shirter speed calculated by the optimum shirter speed calculation unit, and sets a plurality of frames of the input image. It is characterized in that a process of determining a pixel value of an output image frame is executed by executing a weighted average of the pixel values of the output image frame.
  • the image generation processing unit includes an intermediate frame generation unit that generates an intermediate frame that is not included in a frame of the input image, and the optimum shirter speed
  • the present invention is characterized in that an image corresponding to the optimum shot speed calculated by the calculating unit is generated by applying the intermediate frame to generate a divided area unit.
  • the image processing device further includes a spatial feature amount detection unit that detects a magnitude of spatial contrast in units of the divided regions,
  • the image generation processing unit is a divided region whose spatial contrast is less than a predetermined threshold. Is configured to execute a process of setting a shirt speed higher than the optimum shirt speed calculated corresponding to the moving speed as the optimum shirt speed.
  • the image processing device further includes a spatial feature amount detection unit that detects a magnitude of spatial contrast in units of the divided regions.
  • the image generation processing unit calculates a shot rate corresponding to the frame rate of the input image without calculating the optimum shot rate calculated in accordance with the moving speed. Is a configuration that executes a process of setting as the optimum shirt speed.
  • the image degradation of the output image is image degradation due to jerkiness and blur
  • the image generation processing unit is subject to image degradation due to jerkiness and blur.
  • the optimum shotta speed to be reduced is acquired for each divided area, and a process for generating an image corresponding to the acquired optimum shotta speed for each divided area is executed.
  • the second aspect of the present invention provides
  • An image processing method for executing image processing on a moving image in an image processing apparatus An image processing method for executing image processing on a moving image in an image processing apparatus
  • a moving speed calculating step for calculating a moving speed of the subject in accordance with the frame rate of the output image in units of divided areas obtained by dividing the frame images constituting the moving image in the moving speed calculating unit;
  • the moving speed information for each divided area is input, and the optimum shot speed corresponding to the moving speed is determined as the optimum shot speed corresponding to the moving speed for each divided area.
  • the moving speed calculation step applies a search frame and a reference frame selected for the frame force of the input image.
  • the process of calculating the movement speed in units of divided areas is performed by the block matching process.
  • the moving speed calculation step includes a block matching using a frame for search and a reference frame selected for the frame force of the input image.
  • a block matching processing step for obtaining a motion vector for each divided region by processing, and a moving speed of the subject according to the frame rate of the output image is calculated based on the motion vector information calculated in the block matching processing step.
  • a motion vector normalization step is included in the moving speed calculation step.
  • the moving speed calculation step selects the search frame from the frames of the input image at a frame interval corresponding to the frame rate of the output image. A process is executed.
  • the image generation processing step associates a moving speed with an imaging shutter speed at which image degradation of an output image is reduced.
  • the method includes a step of referring to a table and obtaining an optimum shirter speed corresponding to the moving speed in units of the divided areas.
  • the table is a table in which moving speed section information and optimum shirter speed information are associated with each other.
  • the image generation processing step includes a correspondence relationship between a moving speed and an optimum shirt speed at which image degradation of an output image is reduced.
  • the image generation processing step calculates an optimal shotta speed calculation for calculating an optimum shotta speed corresponding to a moving speed for each divided region.
  • the filtering processing step is performed.
  • the step is characterized in that, based on a frame selected from the frames of the input image, a process of generating an image corresponding to the imaging shot speed calculated in the optimum shot speed calculation step for each divided region is performed. .
  • the filtering processing step sets a weighting factor according to the optimum shirter speed calculated in the optimum shirter speed calculation step, and inputs the weighting coefficient.
  • a process of determining a pixel value of an output image frame by executing a weighted average of pixel values of a plurality of frames of an image is performed.
  • the image generation processing step generates an intermediate frame not included in a frame of the input image, and calculates the optimum shirter speed.
  • a process for generating an image corresponding to the optimum shirt speed calculated in step 1 in units of divided areas by applying the intermediate frame is executed.
  • the image processing method further includes a spatial feature amount detecting unit for detecting a spatial contrast magnitude for each divided region in a spatial feature amount detection unit.
  • the image processing method further detects the size of the spatial contrast in the divided area unit in the spatial feature amount detection unit.
  • a spatial feature amount detecting step wherein the image generation processing step does not calculate an optimum shirter speed calculated corresponding to the moving speed for a divided region whose spatial contrast is less than a predetermined threshold.
  • a process for setting a shatter speed corresponding to a frame rate of the input image as an optimum shatter speed is executed.
  • the image degradation of the output image is image degradation due to jerkiness and blur
  • the image generation processing step reduces image degradation due to jerkiness and blur.
  • the optimum shotta speed is acquired for each divided area, and processing for generating an image corresponding to the obtained optimum shotta speed for each divided area is executed.
  • a computer program that executes image processing on moving images in an image processing device.
  • a moving speed calculating step for calculating a moving speed of the subject according to the frame rate of the output image in a divided area unit obtained by dividing the frame image constituting the moving image in the moving speed calculating unit;
  • the moving speed information for each divided area is input, and the optimum shot speed corresponding to the moving speed is determined as the optimum shot speed corresponding to the moving speed for each divided area.
  • the computer is characterized by running a 'program.
  • the computer 'program of the present invention is, for example, a storage medium, a communication medium such as a CD or the like provided in a computer-readable format to a general-purpose computer system that can execute various program' codes.
  • system is a logical group configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • the subject when generating a moving image to be output at a constant frame rate, the subject is moved according to the frame rate of the output image in units of divided areas into which the frame images constituting the moving image are divided. Calculates the speed, obtains the optimum shot speed that reduces the image degradation of the output image as the optimum shot speed corresponding to the moving speed of each divided area, and obtains the image corresponding to the obtained optimum shot speed by dividing the area.
  • Raw in divided area units a frame image in which the generated divided region images are combined is output, so that a high-quality image with reduced image degradation, specifically both jerkiness and blur, is output. Is possible.
  • FIG. 1 A diagram explaining the principle of generation of jerkiness and blur, and a diagram explaining how a stationary object and a moving object look in the real world.
  • FIG. 2 is a diagram illustrating the principle of occurrence of jerkiness.
  • FIG. 3 is a diagram for explaining the principle of occurrence of blur.
  • FIG. 4 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention.
  • FIG. 5 is a diagram for describing region division processing for each frame image of an image signal.
  • FIG. 6 is a diagram illustrating a configuration example of an image processing apparatus having a configuration in which a frame rate value of an output image signal is input from the outside.
  • FIG. 7 is a diagram showing a detailed configuration of a moving speed calculation unit.
  • FIG. 8 is a diagram showing a detailed configuration example of a moving speed detection unit.
  • FIG. 9 is a diagram for explaining a selection process of a search frame and a reference frame applied to motion vector detection executed in a moving speed calculation unit.
  • FIG. 10 is a block diagram illustrating a detailed configuration example of an image generation processing unit.
  • FIG. 11 is a diagram illustrating a configuration example of an image generation processing unit in which an intermediate frame generation unit is added to the image generation processing unit.
  • FIG. 12 is a diagram for explaining a correspondence between an input image frame used for filtering processing and an output image frame.
  • FIG. 13 is a diagram illustrating an example of a correspondence relationship between a moving speed and an optimum imaging shutter speed.
  • FIG. 14 is a diagram for explaining a basic processing example for calculating an optimum imaging shutter speed based on moving speed information.
  • FIG. 15 is a diagram showing an example of the relationship between the moving speed and the optimum imaging shutter speed.
  • FIG. 16 is a diagram showing a correspondence data structure in which an example of the relationship between the moving speed and the optimum imaging shutter speed is roughened.
  • FIG. 17 is a diagram showing one search frame in which the moving speed is calculated for each divided region in the moving speed calculation unit.
  • FIG. 18 is a diagram showing a graph (table) applied to the calculation of the optimum imaging shot speed based on the moving speed performed in the image generation processing unit.
  • FIG. 19 is a diagram illustrating a filtering process using a frame.
  • FIG. 20 is a diagram showing an example of a plurality of different curves representing the relationship between the moving speed and the optimum imaging shutter speed.
  • FIG. 21 is a diagram showing an interface configured so that a plurality of different curve forces representing the relationship between the moving speed and the optimum imaging shot speed can be selected by the user.
  • FIG. 22 is a block diagram showing a configuration example of an image processing apparatus according to a second embodiment of the present invention.
  • FIG. 23 is a diagram illustrating a detailed configuration example of a spatial feature quantity detection unit.
  • FIG. 24 is a diagram illustrating the configuration and processing of an image generation processing unit.
  • each frame image is divided into predetermined divided regions, and the moving speed between frames and spatial
  • the moving speed between frames and spatial By calculating the feature value and performing the optimal filtering process for each area based on the calculated moving speed and spatial feature value of each divided area, the jerk and blur are reduced according to each area.
  • a high-quality image signal with little image quality degradation that suppresses the occurrence of both jerkiness and blur is generated and output.
  • a table that associates the movement speed between frames or a spatial feature amount with a filtering processing parameter is stored, and each divided region is handled based on this table. Perform the optimal filtering process.
  • the optimum filtering process corresponding to each divided area is determined by determining the optimum imaging speed for reducing the occurrence of jerkiness and blur in each divided area, and corresponding to the imaging shot speed. This corresponds to the process of generating the processed image.
  • the optimum filtering parameter determination process corresponding to each divided area includes a process for determining an optimum shirter speed for reducing the occurrence of jerkiness and blur for each area.
  • an optimum shirt speed that reduces the occurrence of jerkiness and blur is determined for each divided area, and a pseudo image according to the determined shot speed is determined for each divided area. Generate and output individually.
  • FIG. 4 is a block diagram showing the configuration of the image processing apparatus 100 according to the first embodiment of the present invention.
  • the image processing apparatus 100 inputs an image signal having a certain frame rate as a processing target image. This input image signal is input to the moving speed calculation unit 101 and the image generation processing unit 102.
  • the moving speed calculation unit 101 performs region division on each frame image of the input image signal, executes block matching processing on the image included in each divided region, and performs division. Movement speed between frames of image data in each area (VI, V2, V 3 ⁇ ⁇ is calculated. However, the moving speed between frames (VI, V2, V3 ′%) Calculated here is a moving speed between frames corresponding to the frame rate of the output image signal.
  • the image processing apparatus holds the output image frame rate information 103 in the storage unit, and the moving speed calculation unit 101 determines the moving speed between frames (VI, V2, ⁇ 3 ⁇ ) of each divided region based on the output image frame rate information 103. ⁇ ⁇ )) Is calculated.
  • the movement speed in each divided area calculated by the movement speed calculation unit 101 is input to the image generation processing unit 102.
  • An input image signal has already been input to the image generation processing unit 102.
  • the image generation processing unit 102 performs conversion processing on the input image for each divided region according to the moving speed (VI, V2, V3---) in each divided region calculated by the moving speed calculation unit 101. That is, based on the moving speed (Vn) obtained for each divided area unit, a process of converting into a pseudo image corresponding to the optimum shirt speed that reduces the occurrence of jerkiness and blur is executed.
  • the relationship between the moving speed (Vn) obtained for each divided area and the optimum imaging shutter speed that reduces the occurrence of jerkiness and blur can be calculated according to the frame rate of the output image signal. .
  • the image generation processing unit 102 holds this correspondence as a preset table, applies the output image frame rate information 103, and obtains the optimum imaging shutter speed for each area from the holding table.
  • an optimal imaging shirt speed that reduces the occurrence of jerkiness and blur is calculated based on the moving speed (Vn) obtained for each divided region by a predetermined calculation formula.
  • the image generation processing unit 102 further generates a pseudo image corresponding to the obtained imaging shutter speed for each divided region, generates a one-frame image by combining the generated images for each divided region, Output at a predetermined frame rate.
  • the image generation processing unit 102 generates pseudo images generated at the optimum imaging shutter speed determined based on the movement speed in each divided region calculated by the movement speed calculation unit 101. To do. This image generation processing is realized by, for example, filtering processing in the time direction. The image created by the image generation processing unit 102 is output as an output image signal having a constant frame rate. [0072] [2. Explanation of input image signal and output image signal]
  • the frame rate of the input image signal and the output image signal will be described in detail.
  • the frame rate of the input image signal and the output image signal generated by the conversion process can be variously set.
  • the image generation processing unit 102 employs a time-direction filtering process as a process for artificially generating a captured image at an optimum shirter speed for reducing both image quality degradation due to jerkiness and blur for each region.
  • the input image signal has a frame rate as high as possible with respect to a desired frame rate of the output image signal. This is because, in the image conversion process performed by the image generation processing unit 102, it is easier to generate a smoother image by using an input image signal having a higher frame rate.
  • the frame rate value of the output image signal has been described as referring to the one held in the storage unit, but the frame rate value of this output image signal is It is good also as a structure which inputs external force.
  • FIG. 6 shows a configuration example of an image processing apparatus having a configuration for inputting the frame rate value of the output image signal from the outside.
  • the frame rate value of the output image signal to which an external force is also input is input to both the moving speed calculation unit 101 and the image generation processing unit 102 shown in FIG.
  • the image generation processing unit 102 performs image conversion processing based on the input frame rate information. With such a configuration, optimal image conversion corresponding to various frame rates can be executed.
  • the frame rate of the input image signal is 240 (frame Z seconds)
  • the frame rate of the output image signal is 60 (frame Z seconds)
  • this frame rate is an example, and the frame rate of the input / output image is not limited in the image processing apparatus of the present invention.
  • Movement speed calculator 10 1 calculates the moving speed between frames for each divided region of the image as described with reference to FIG. 5 with reference to the frame rate of the output image signal, and outputs it to the image generation processing unit.
  • the moving speed indicates how much the subject has moved in one frame.
  • the unit is a pixel Z frame, and the frame rate of the output image signal is used as a reference.
  • FIG. 7 shows a detailed configuration of the moving speed calculation unit 101.
  • the moving speed calculation unit 101 includes an image storage unit 201 that stores a plurality of frames of an input image signal, and a control unit that selects frames used for block matching processing and performs read control from the image storage unit 201 202, an area dividing unit 203 that divides a frame for motion detection into areas, and a moving speed detecting unit 204 that performs block matching processing and calculates a moving speed for each area.
  • the input image signal input to the moving speed calculation unit 101 is first input to the image storage unit 201 and stored.
  • the image storage unit 201 is a storage unit that can store a plurality of frames. At the time of actual block matching processing performed by the moving speed detection unit 204, at least two frames of data for the search frame that is the target of motion vector detection and its reference frame are required. Stores these multiple frames.
  • the control unit 202 selects search frames and reference frames, and performs reading control from the image storage unit 201.
  • the search and reference frames are selected by the control unit 202 based on the frame rate information of the output image input to the control unit 202. This sorting method will be described in detail later.
  • the search frame that is read by the control unit 202 and is a motion vector detection target is output to the region dividing unit 203.
  • the reference frame read by the control unit 202 is directly output to the moving speed detection unit 204.
  • the search frame output to the area dividing unit 203 is divided into blocks of an appropriate size, which is a unit of area for calculating the moving speed.
  • the search frame divided for each region for calculating the moving speed is input to the moving speed detecting unit 204.
  • FIG. 8 is a diagram illustrating a detailed configuration example of the moving speed detection unit 204.
  • the search frame image data input to the moving speed detection unit 204 is input to the block matching unit 221. .
  • the block matching unit 221 performs block matching processing for each divided region with the reference frame input to the block matching unit 221.
  • Block matching is a process of detecting the corresponding pixel position between frames for each minute image region.
  • the movement speed detection unit 204 performs block matching processing for each divided region, and by this processing, calculates a motion vector amount for each divided region as subject movement information between frames.
  • Various settings can be made for the matching evaluation function and the like in the block matching process, and the method is not particularly limited.
  • the motion vector amount for each divided area calculated by the block matching process in the block matching unit 221 is input to the motion vector standard key unit 222.
  • the process performed in the motion vector standard part 222 will be described.
  • the motion vector amount of each area of the search frame calculated by the block matching process in the block matching unit 221 represents how much the frame has moved relative to the reference frame.
  • the moving speed (pixel Z frame) to be calculated is the amount of movement between one frame based on the frame rate of the output image. Therefore, it is necessary to normalize the motion vector amount obtained by block matching processing to a moving speed (unit: pixel Z frame) that represents the moving amount between one frame based on the frame rate of the output image signal. There is.
  • the motion vector standard key unit 222 receives a control signal based on the frame rate information of the output image signal from the control unit 202, and based on this control signal, a motion vector obtained by block matching processing. A process is performed to normalize the amount to a moving speed (unit: pixel Z frame) that represents the amount of movement between frames based on the frame rate of the output image signal.
  • the movement speed (pixel Z frame) based on the frame rate of the output image signal is calculated based on the motion vector standard. This standard method will be described in detail later.
  • the calculated movement speed corresponding to the output frame in each region of the image is output from the movement speed detection section 101 to the image generation processing section as an output of the movement speed calculation section 101. Is output to 102.
  • the moving speed calculation unit 101 executes the process of obtaining the moving speed (pixel Z frame) for each divided region based on the frame rate of the output image signal. In this process, it is first necessary to select a search frame and a reference frame for the input image force, and detect motion vectors based on these two frames! A method for selecting the search frame and the reference frame applied to the detection of the motion vector will be described in detail.
  • FIG. 9 is a diagram for explaining the selection process of the search frame and the reference frame applied to the motion vector detection in the moving speed calculation unit 101.
  • This processing example is as described above.
  • the frame rate of the input image signal is 240 (frame Z seconds)
  • the frame rate of the output image signal is 60 (frame Z seconds)
  • the search frame and the reference frame applied to motion vector detection are frames constituting an input image and having an input frame rate of 240 (frame Z seconds).
  • a search frame and a reference frame to be applied to motion vector detection are selected from the constituent frames of the image signal.
  • a search and reference frame selection method performed by the control unit 202 will be described with reference to FIG.
  • the search frame is extracted based on the frame rate of the output image.
  • the frame rate of the output image signal is
  • images are captured every 1Z60 seconds from the input image signal [240 (frame Z seconds)].
  • the extracted frame is extracted as a search target.
  • the 240 X S + 0th, 240 X S + 4th, and 240 X S + 8th frames are shown as the selected search frames.
  • the number of search frames is the same as the number of frames in the output image. In other words, one search frame is selected to generate one frame of the output image.
  • one reference frame is selected corresponding to one search frame.
  • various selection methods such as (Example 1), (Example 2), and (Example 3) shown in Fig. 9 can be applied.
  • the search frame is the 240 X s + Oth frame and a reference frame for the 240Xs + Oth frame is selected.
  • the moving speed to be obtained is based on the frame rate 60 (frame Z seconds) of the output image. Therefore, if the interval between the search frame and the reference frame is 1Z60 seconds, the motion vector calculated based on the search frame and the reference frame is the frame rate 60 (frame Z seconds) of the output image.
  • the size corresponds to the moving speed corresponding to. Therefore, in this case, the standard of motion vector obtained by the block matching process is necessary.
  • the reference frame sorting process example of (Example 1) shown in FIG. 9 is a process example in which the interval between the search frame and the reference frame is set to 1 Z60 seconds.
  • the frame imaged 1/60 seconds after the search frame 240 X s + 0th frame is the 240 X s + 4th frame, and this 240 X s + 4th frame is searched. Select as the reference frame corresponding to the 240 X s + Oth frame.
  • the frame that was imaged 1/60 seconds after the next search frame is 240 X s + 4th frame, is 240 X s + 8th frame, and this 240 XS + 8th frame
  • the frame is selected as a reference frame corresponding to the 240 X s + 4th frame which is a search frame.
  • the interval between the search frame and the reference frame is set to 1Z60 seconds.
  • the moving vector calculated based on the search frame and the reference frame has a size corresponding to the moving speed corresponding to the frame rate 60 (frame Z seconds) of the output image. Therefore, in this case, the standard of the motion vector obtained by the block matching process is necessary.
  • reference frames such as (Example 2) and (Example 3) shown in FIG. 9 can be selected.
  • the reference frame corresponding to the search frame is set to the next frame after the search frame, that is, the frame after 1Z240 seconds.
  • the reference frame corresponding to the search frame is set. This is an example in which the frame is set to the second frame after the search frame, that is, the frame after 2/240 seconds. In this way, a frame closer to the search frame can be set as the reference frame.
  • the motion vector obtained by the block matching processing in the block matching processing unit 221 of the moving speed detection unit 204 is the moving speed corresponding to the frame rate of the output image signal. Therefore, based on the obtained motion vector, it is necessary to perform standard key processing that converts it to a moving speed equivalent to the frame rate of the output image signal.
  • the 240 X s + Oth frame, which is the search frame, and the 240 X s + 1st frame, which is the reference frame, are imaged with a difference of 1/240 seconds.
  • the frame rate of the output image is 60 (frame Z seconds).
  • the motion vector standard key section 222 of the moving speed detection unit 204 calculates the frame rate [60] that the output image has based on the movement vector calculated between frames captured with a difference of 1Z240 seconds. (Frame z seconds)] Perform normalization processing to convert the movement speed to the equivalent. This normalization process is equivalent to obtaining the movement amount for 1Z60 seconds based on the movement vector.
  • the motion vector obtained by the block matching process is a movement vector calculated based on the frames imaged with a difference of 1Z240 seconds.
  • the moving speed normalized to the frame rate [60 (frame Z seconds)] of the output image signal can be calculated.
  • the motion vector obtained by the block matching process is a movement vector calculated based on the frames imaged with a difference of 2Z240 seconds.
  • the moving speed normalized to the frame rate [60 (frame Z seconds)] of the output image signal can be calculated.
  • Such a motion vector standard key is the force performed by the motion vector standard key unit 222 in the moving speed detection unit 204.
  • the control unit 202 selects the search and reference frames.
  • a coefficient that multiplies the magnitude of the motion vector required for the standard is calculated with real numerical accuracy, and the value is output to the motion vector standard unit 222 as a control signal.
  • the search frame selection, the reference frame selection, and the method of calculating the moving speed by normalizing the obtained motion vector have been described.
  • one frame for searching for moving speed is set to generate one frame of output image.
  • the same number of search frames as the number of frames of the output image are selected, and for each of these search frames, transfer of each divided region set in the frame is performed.
  • the moving speed is calculated as a value corresponding to the frame rate of the output image, and is output from the moving speed calculation unit 101 to the image generation processing unit 102.
  • the image generation processing unit 102 performs adaptive image conversion processing for each divided region of the input image according to the moving speed in each region in the image input from the moving speed calculation unit 101, and performs jerkiness for each divided region.
  • an image in which the occurrence of blur and blurring is most suppressed that is, an image captured at the optimum shotta speed is created in a pseudo manner, and a pseudo image corresponding to the optimum shutter speed generated in each divided region is synthesized to create one image. Generate and output a frame image.
  • FIG. 10 is a block diagram illustrating a detailed configuration example of the image generation processing unit 102.
  • the image generation processing unit 102 is an image accumulating unit 251 that stores a plurality of frames of an input image signal, a control that selects a frame to be used for filtering processing and controls reading from the image accumulating unit 251. 252, a configuration including an optimum shot speed calculation unit 253 that calculates an optimal imaging shot speed for each region based on the moving speed, and a filtering processing unit 254 that performs an adaptive filtering process for each region on the input image It is.
  • the image generation processing unit 102 generates a pseudo image of the optimum shirter speed in units of divided areas of the processing target image. That is, an image in which the occurrence of jerkiness and blur is most suppressed is generated for each divided region.
  • this image generation processing a processing example using time-directed filtering processing will be described below.
  • the input image signal input to the image generation processing unit 102 is first input and stored in the image storage unit 251.
  • the image storage unit 251 is a storage unit that can store a plurality of frames. The force by which the frames used for the subsequent filtering process are sequentially read out from the input image signal accumulated in the image accumulation unit 251. This readout control is performed in the control unit 252.
  • each frame in the input image read by the control of the control unit 252 is input to the filtering processing unit 254.
  • the optimum shirt speed calculation unit 253 receives the movement speed information corresponding to each divided area of the input image output from the movement speed calculation unit 251. This moving speed information is calculated for each region in the search frame in which the input image signal power is also selected by the control unit 202 (see FIG. 7) in the moving speed calculation unit 101.
  • each search frame has a one-to-one correspondence with each frame of the output image to be generated.
  • the optimum shirt speed calculation unit 253 calculates an optimum imaging shot speed for each area in the corresponding frame of the output image. For details on the relationship between the moving speed and the optimum imaging speed, see below.
  • the optimal imaging is based on the setting conditions that minimize both the jerkiness degradation and the blurring degradation.
  • the shatter speed is calculated. This setting condition is previously stored in the optimum shirt speed calculation unit 253.
  • the optimum shatter speed calculation unit 253 inputs movement speed information corresponding to each divided area, and calculates an optimum imaging shatter speed at which both the deterioration of the jerkiness and the blurring are most reduced.
  • the optimum imaging shutter speed calculated here is the optimum imaging shutter speed for each divided area set for each frame of the output image.
  • the optimum shot speed calculation unit 253 outputs the calculated optimum shot speed corresponding to each divided region in the output image frame to the filtering processing unit 254.
  • an input image frame used for generating the frame of the output image read from the image storage unit 251 based on the control of the control unit 252 is input to the filtering processing unit 254.
  • the filtering processing unit 254 executes image processing on this input image. That is, based on the optimum imaging shutter speed corresponding to each divided area in the output image frame input from the optimum shirter speed calculation unit 253, the captured image of the optimum shirter speed is simulated for each divided area of the input image frame. Filtering processing that is generated automatically.
  • the image generated in the filtering processing unit 254 is output as one frame of the output image signal.
  • the image generation processing unit 102 outputs an output image signal having a specified frame rate by repeating the processing described so far for the number of frames of the output image. [0118] [5. Details of filtering processing executed by filtering processing unit]
  • the filtering processing unit 254 Based on the optimum imaging shutter speed corresponding to each divided region in the output image frame input from the optimum shirter speed calculation unit 253, the filtering processing unit 254 performs the optimum shirter for each divided region of the input image frame. Performs a filtering process that generates a pseudo-speed image.
  • One of the simplest ways to implement this filtering process is to average the divided areas of the input image frame in the time direction.
  • FIG. 11 shows a configuration example in which an intermediate frame generation unit is added to the image generation processing unit 102.
  • the input image signal is input to the intermediate frame generation unit 250 together with the image storage unit 251.
  • the intermediate frame generation unit 250 generates an intermediate frame based on an existing frame, and uses the intermediate frame to generate a smooth image in accordance with the filtering processing performed by the subsequent filtering processing unit 254. Can be generated.
  • Various existing methods can be applied to the intermediate frame generation processing method in the intermediate frame generation unit 250. For example, the power of blending existing frames before and after, as shown in FIG. 11, the movement speed information for each region is input to the intermediate frame generation unit 250, as shown in FIG. By executing weighting and image blending, it is possible to generate intermediate frames with higher accuracy.
  • the filtering processing unit 254 performs a band limiting filter process in the time direction in addition to the averaging process in the time direction as a pseudo-generation of the captured image at the optimum shirter speed. It may be configured to change the (or pass) band. Furthermore, not only filtering in the time direction but also band-limiting filtering in the spatial direction. And motion blur generation by acquiring surrounding pixel information using motion vectors (for example, disclosed in “Image— Based Motion Blur for Stop Motion Animation, ⁇ GJ Brostow et al. SIGGRAPH2001.”) Various methods can be applied.
  • the filtering processing unit 254 performs processing for each divided region of the input image frame based on the optimum imaging shot speed corresponding to each divided region in the output image frame input from the optimum shotter speed calculating unit 253. Then, a filtering process is performed to artificially generate a captured image at the optimum shot speed. In other words, for each divided region of the input image frame, a captured image having an optimum shirt speed at which the occurrence of sheariness and blur is most suppressed is generated in a pseudo manner.
  • FIG. 12 is a diagram illustrating the correspondence between the input image frame used for the filtering process and the output image frame.
  • the frame rate of the output image signal is 60 (frame Z seconds)
  • the input image signal shows the frame number for each frame, as in FIG. 9 described above. This frame number is expressed as if the 0th frame of the input image signal was captured at time 0 (seconds). Since the frame rate of the input image signal is 240 (frame Z seconds), it is expressed as the 240th Xs frame at time s (seconds).
  • FIG. 12 shows two examples (Example 1) and (Example 2) of this frame selection processing example.
  • the frame rate of the output image signal is
  • the frames selected as the search target frames in the moving speed calculation unit 101 are the 240 XS + 0th, 240 X S + 4th, and 240 X s + 8th frames, which are indicated by hatched frames. is there.
  • the input image frame used for the filtering process for generating the output image uses the front and rear frames including the search frame corresponding to each output image frame.
  • one frame of the search speed is associated with one frame of the output image, and the output image frame is filtered.
  • the filtering process reflecting the moving speed information can be performed.
  • FIG. 12 shows (Example 1) and (Example 2) as readouts used for filtering processing for generating one frame with an output image under the control of the control unit 252 of the image generation processing unit 102. Two examples of frame sorting are shown.
  • the moving speed detection application search frame in the input image corresponding to the frame of the 60Xs + Oth output image is the 240Xs + Oth input image frame.
  • the search frame is the 240 X s + 4th input image frame.
  • the search frame is the 240 X s + 8th input image frame.
  • the input image frame applied to the filtering process when generating the 60 Xs + 0th output image frame 310 is a search frame for the corresponding moving speed as shown in the figure.
  • an example is shown in which a total of four frames of 240Xs—first, 240XS + 0, 240XS + 1, 240Xs + 2 are selected as frames to be used for filtering processing.
  • the nth previous frame is indicated as [n] and the nth subsequent frame [+ n].
  • the input image frame applied to the filtering process when generating one output image frame is the frame preceding the search frame for the moving speed corresponding to the output image frame (1).
  • the second (+2) frame that is, 4 frames of 1, 0, +1, +2, is set. Applying these four frames, a filtering process is performed to artificially generate a captured image at the optimum shirt speed for each divided region. For example, a process of averaging the divided areas of the input image frame in the time direction is performed.
  • the input image frame applied to the filtering process when generating the 60 Xs + 0th output image frame 320 is a search frame corresponding to the moving speed. It is set to 240 Xs + 0th, 2 frames before and 2 frames before it. That is, 240Xs—2nd, 240Xs—1st, 240XS + 0th, 240Xs + 1st, 240 Xs + 2
  • Example 2 when generating the frames 321, 322 of the 60 X s + l-th and 60 X s + 2nd output images, the corresponding search frame and the previous two frames are similarly generated. A total of 5 frames, 2 frames (2 to +2), are selected for use in the filtering process. In the case of Example 2, these 5 frames are applied to perform a filtering process that artificially generates a captured image at the optimum shirt speed for each divided region. For example, a process of averaging the divided areas of the input image frame in the time direction is performed.
  • 240 X s + second frame force 60 X s + 0 and 60 X s + for filtering processing to generate frames 320 and 321 of the first output image 240 X s + 6th frame is the force used to duplicate the filtering process to generate frames 321 and 322 of the 60 X s + 1st and 60 X s + 2nd output images.
  • Such overlapping frame selection is not particularly problematic.
  • the optimum shirter speed calculation unit 253 in the image generation processing unit 102 shown in FIG. 11 receives the moving speed in each divided area in the image output from the moving speed calculation unit 101, and inputs each of the divided areas. Based on the moving speed information, the optimum imaging shutter speed, that is, the imaging shutter speed at which jerkiness and blur are reduced most is calculated.
  • the optimum shot speed calculation unit 253 obtains the image shot speed based on a table in which the moving speed and the optimum image shot speed are associated with each other or a preset calculation formula.
  • the optimum shirt speed calculation unit 253 holds a table or calculation formula information in which the moving speed is associated with the optimum imaging shot speed.
  • FIG. 13 shows an example of the correspondence between the moving speed and the optimum imaging shutter speed.
  • the horizontal axis of the graph shows the moving speed, and the vertical axis shows the shot speed.
  • the curve in the graph shows the correspondence between the moving speed and the optimum imaging speed.
  • the curve in Fig. 13 is a graph showing the results obtained from the subjective evaluation experiment.
  • Fig. 13 which is the result obtained by the experiment as an example.
  • This curve shows the correspondence between the moving speed and the optimum imaging shutter speed.
  • the apparatus of the present invention is not limited to the application of this curve.
  • the optimum shutter speed calculation unit 253 can be used as long as it can calculate the optimum imaging shutter speed at which both the jerkiness deterioration and the blur deterioration are most reduced based on the input moving speed information of each divided area. It is necessary to hold a correspondence table or calculation formula.
  • the correspondence relationship between the speed and the optimum imaging shirt speed is determined by the response characteristics of the device that displays the output image signal and the user's preference. It is also possible to configure it so that it can be changed as desired. Details of this will be described later.
  • the optimum shirt speed calculation unit 253 retains the graph data shown in FIG. 13 as a correspondence table of the movement speed optimum imaging shot speed, the movement speed information of a certain divided area is input and the optimum imaging is performed.
  • a processing example for calculating the shot speed will be described. That is, the most basic processing example for calculating the optimum imaging shutter speed for an area when the moving speed information in a certain divided area in the image is input to the optimum shirt speed calculation unit 253 will be described with reference to FIG. To do.
  • the value of the moving speed in one divided region of a certain output frame is searched from the horizontal axis of the graph.
  • the moving speed point 331 on the horizontal axis in FIG. 14 is the value of the moving speed in one divided area of an output frame.
  • the point on the dull curve corresponding to the value on the horizontal axis is searched.
  • the point on the graph curve corresponding to the value on the horizontal axis (movement speed point 331) is searched for by the arrow A shown in the figure.
  • the graph point 332 shown in the figure is searched.
  • a value on the vertical axis corresponding to the point 332 on the searched graph curve is searched.
  • a value on the vertical axis corresponding to the point 332 on the graph curve (optimum imaging shirt speed point 333) is searched.
  • the determined optimum imaging shutter speed is output from the optimum shutter speed calculation unit 253 of the image generation processing unit 102 shown in FIG. 11, and is input to the filtering processing unit 254.
  • FIG. 15 shows an example of the relationship between the moving speed shown in FIG. 13 and the optimum imaging shutter speed.
  • the optimum shot speed is tl.
  • the moving speed is Vg to Vh, the optimum shot speed is tr.
  • a table in which the optimum shirt speed corresponding to the section data of the moving speed is set may be generated based on the graph shown in FIG. 15, and this correspondence table may be held.
  • the amount of data that the optimum shirt speed calculation unit 253 should hold is reduced.
  • the calculation cost is also convenient. That is, when the optimum shutter speed calculation unit 253 inputs the moving speed information of a certain area and calculates the optimum imaging shutter speed for that area, it determines which section of the table shown in FIG. 16 the moving speed corresponds to. Only by determining and obtaining the optimum shot speed data associated with the section, the optimum shot speed corresponding to each moving speed can be obtained.
  • the frame rate of the input image is 240 (frame Z seconds)
  • the frame rate of the output image is 60 (frame Z seconds)
  • each frame of the input image is described as being captured at a single shot speed of 1Z240 (seconds)!
  • FIG. 17 illustrates one search frame in which the moving speed is calculated for each divided region in the moving speed calculation unit 101 (see FIG. 4) of the image processing apparatus of the present invention.
  • the image frame is divided into 4 ⁇ 4 pixel regions, and the moving speed of each divided region is detected using these 4 ⁇ 4 pixel divided regions as a unit.
  • the area dividing unit 203 of the moving speed calculating unit 101 described with reference to FIG. 7 is divided into 4 ⁇ 4 pixel units, and the corresponding moving speed value is calculated for each area.
  • the movement speed of each divided area is determined by the movement speed detection process described above with reference to FIGS.
  • FIG. 18 shows a graph (table) applied to the calculation of the optimum imaging shutter speed based on the moving speed performed in the image generation processing unit 102.
  • This table is a table held in the optimum shirt speed calculation unit 253 of the image generation processing unit 102 described with reference to FIG. 11, and is correspondence data between the moving speed and the optimum imaging shot speed.
  • the optimum shirter speed calculation unit 253 applies this table to calculate the optimum shirter speed corresponding to each divided area based on the moving speed obtained corresponding to each divided area.
  • the data shown in FIG. 18 is data in which the optimum shirt speed is associated with each predetermined moving speed section, as in the graph described above with reference to FIG.
  • the optimum shirter speed calculation unit 253 inputs the movement speed information obtained for each divided area, and applies the data shown in Fig. 18 to obtain the optimum shirter speed corresponding to each divided area. calculate.
  • a processing example in the case of inputting to the image generation processing unit 102 as a search frame corresponding to the frame image data output image frame shown in FIG. 17 will be described.
  • Movement speed information of each divided region of the frame image shown in Fig. 17 is input to the optimum shirter speed calculation unit 253 of the image generation processing unit 102 shown in Fig. 11. Movement speed information Va to Vf is input to the divided areas A to F (4 ⁇ 4 pixels).
  • the process for calculating the optimum imaging shutter speed for a certain area from the movement speed of a certain area first determines which section of the movement speed section is divided by the threshold value. Next, it is executed as a process for obtaining the optimum shirt speed associated with the moving speed section.
  • the divided region C shown in FIG. 17 has a moving speed Vc.
  • the moving speed Vc is included in the moving speed section th2-th3.
  • the optimum shirter speed corresponding to the moving speed section th2 to th3 is [1Z120 seconds] from the graph shown in FIG.
  • the optimum shirter speed in the divided area C having the moving speed Vc is [1Z120 seconds]. This means that when the image of the divided region C is a simulated image with a shirt speed of 1Z120 seconds, it is possible to obtain an image with the smallest reduction in jerkiness and blur.
  • This shatter speed information is the filtering processing unit 2 of the image generation processing unit 102 shown in FIG. 54, the filtering processing unit 254 executes image generation processing (filtering processing) for converting the image of the divided region C into a pseudo image with a shirt speed of 1 Z 120 seconds. As described above with reference to FIG. 12, the image filtering process is executed as a process of blending the existing front and rear frames with weights.
  • the filtering processing unit 254 includes the optimum shirter speed information corresponding to each region and the control unit 252 of the image generation processing unit 102 shown in FIG. 11 as described above with reference to FIG. An input image frame to be applied to the selected filtering process is input.
  • the frames used for the filtering process are two frames before and after the moving speed search frame, as described with reference to FIG. 12 (example 2).
  • FIG. 19 shows five input frames including a moving speed search frame corresponding to the output image frame input to the filtering processing unit 254 and two frames before and after the frame. These five frames are the 240 X s + O-th frame that is the search frame for the moving speed corresponding to the output image frame, and the 240 X s second frame that is the two frames before and after the frame used for filtering.
  • 240 X s The first, 240 X S + first, 240 X s + second frame.
  • the pixels 351 (2) to 35 1 (2) shown in these input frames are pixels included in the 4 ⁇ 4 pixel divided region to be processed described above with reference to FIG.
  • the pixel values of the pixels 351 ( ⁇ 2) to 351 (2) shown in the input frame are in (—2), in (—1), in (0), in (l), and in (2).
  • FIG. 19 shows an output frame 370 that is output as a result of the filtering process using each of these frames.
  • This frame corresponds to the [60 X s + Oth output frame] 320 shown in (Example 2) of FIG.
  • the pixel value of the output pixel 371 that corresponds in position to the target pixel 351 ( ⁇ 2) to 351 (2) is set to out (0).
  • the pixel value out (0) of the output pixel 371 in the output frame is the pixel value in (— 2) of the target pixel 351 (—2) to 351 (2) of each frame of the input image.
  • In (— 1), in (0), in (l), and in (2) are calculated by weighted averaging, and will be described below with examples.
  • the pixel of interest has a moving speed Va (0 ⁇ Va ⁇ thl)! /
  • the optimum shirter speed for the pixel of interest is already calculated from the table in FIG. 18 by the optimum shirter speed calculation unit 253 and input to the filtering processing unit 254, and the value is 1Z240 (seconds).
  • Each frame of the input image is captured at a single shotta speed of 1Z240 (seconds). Therefore, the pixel value of the pixel of interest in the 240 X s + Oth input frame is captured at the optimal shirt speed (1Z240 seconds) calculated from the table in Fig. 18! As the pixel value out (0) of the target pixel in the frame, the value of in (0) may be used as it is. It can be expressed as the following formula.
  • the pixel of interest has a moving speed Vb (thl ⁇ Vb ⁇ th2)! /
  • the optimum shirter speed for the pixel of interest is already calculated from the table in FIG. 18 by the optimum shirter speed calculation unit 253 and input to the filtering processing unit 254, and the value is 1Z160 (seconds).
  • Each frame of the input image is captured at a single shotta speed of 1Z240 (seconds), and the optimum shotta speed of 1Z160 (seconds) for the pixel of interest is
  • the pixel value out (0) of the pixel of interest in the output frame is obtained by calculating the weighted average of the pixel values of the pixel of interest in each frame of the input image as follows.
  • the pixel value weight of the pixel of the 240 X s + 0th frame, which is the search frame for the moving speed corresponding to the output image frame, is [1]
  • the pixel value out (0) of the output image frame is calculated by the weighted average with the pixel value weights of the corresponding pixels in the previous frame and the next frame as [0.25]. is there. According to the above formula, it is possible to artificially generate a pixel that has been exposed and imaged for a period of 1.5 times the original exposure time of the target pixel.
  • the pixel of interest has a moving speed Vc (th2 ⁇ Vc ⁇ th3)! /
  • the optimum shirter speed for the pixel of interest has already been calculated from the table in FIG. 18 by the optimum shirter speed calculation unit 253 and input to the filtering processing unit 254, and the value is 1Z120 (seconds).
  • Each frame of the input image is captured at a single shotta speed of 1Z240 (seconds), and the optimum shotta speed of 1Z120 (seconds) for the pixel of interest is
  • the pixel value out (0) of the pixel of interest in the output frame is obtained by calculating the weighted average of the pixel values of the pixel of interest in each frame of the input image as follows.
  • the pixel of interest has a moving speed Vd (th3 ⁇ Vd ⁇ th4)! /.
  • the optimum shirter speed for the pixel of interest has already been calculated from the table in FIG. 18 by the optimum shirter speed calculation unit 253 and input to the filtering processing unit 254, and the value is 1Z96 (seconds).
  • Each frame of the input image is captured at a single shotta speed of 1Z240 (seconds), and the optimum shotta speed of 1Z96 (seconds) for the pixel of interest is
  • the pixel value out (0) of the pixel of interest in the output frame is obtained by calculating the weighted average of the pixel values of the pixel of interest in each frame of the input image as follows.
  • the pixel of interest has a moving speed Ve (th4 ⁇ Ve ⁇ th5)! /
  • the optimum shirter speed for the pixel of interest has already been calculated from the table in FIG. 18 by the optimum shirter speed calculation unit 253 and input to the filtering processing unit 254, and its value is 1Z80 (seconds).
  • Each frame of the input image is captured at a single shotta speed of 1Z240 (seconds), and the optimal shotta speed of 1Z80 (seconds) for the pixel of interest is
  • the pixel value out (0) of the pixel of interest in the output frame is obtained by calculating the weighted average of the pixel values of the pixel of interest in each frame of the input image as follows.
  • a pixel that is exposed and imaged for a period of 3.0 times the original exposure time of the target pixel is generated in a pseudo manner.
  • the pixel of interest has a moving speed Vf (th6 ⁇ Vf).
  • the optimum shirter speed for the pixel of interest is already calculated from the table in FIG. 18 by the optimum shirter speed calculation unit 253 and input to the filtering processing unit 254, and the value is 1Z60 (seconds).
  • Each frame of the input image is captured at a single shotta speed of 1Z240 (seconds), and the optimum shotta speed of 1Z60 (seconds) for the pixel of interest is
  • the pixel value out (0) of the pixel of interest in the output frame is obtained by calculating the weighted average of the pixel values of the pixel of interest in each frame of the input image as follows.
  • the filtering processing unit 254 generates an output frame in which each pixel is imaged at an optimal shirter speed, and therefore, the pixel value of the input image frame is weighted by setting a coefficient corresponding to the moving speed.
  • An average filtering process is performed to generate an image with pixel values set.
  • the filtering processing unit 254 performs processing by appropriately changing the number of input image frames applied to the filtering process according to the shirt speed of the output image to be generated.
  • the response characteristics of a display device that displays an output image may be configured to have a function of adjusting the relationship between the moving speed and the optimum imaging shutter speed according to the preference of the user of the apparatus.
  • FIG. 20 shows several examples of curves representing the relationship between the moving speed and the optimum imaging shutter speed.
  • the user can adjust the relationship between the moving speed and the optimum imaging speed from the first to fifth curves shown in FIG.
  • the relationship between the moving speed and the optimum shooting speed may vary depending on the response characteristics of the display device that displays the output image and the preferences of the user of the device. In such a case, by making it possible to adjust the relationship between the moving speed and the optimum imaging shutter speed, it is possible to perform optimum processing according to the situation.
  • the optimum imaging speed when the moving speed is equal is The fifth stage is faster. Therefore, the output image generated by the filtering process is an image with reduced jerkiness more when the first stage is adopted than when the fifth stage is adopted, and on the contrary, the fifth stage is adopted. If this is done, the image will be less blurred against blurring than if the first stage was adopted.
  • the user of the device selects the first to fifth curve shown in Fig. 20 so that the deterioration of both is not the most worrisome.
  • the shatter speed can be adjusted. Adjust the relationship between this moving speed and the optimal imaging speed. This function is very similar to the function of adjusting the gamma curve of luminance in a general display device.
  • FIG. 21 is a configuration example of a user interface used when the user adjusts the relationship between the moving speed and the optimum imaging shutter speed.
  • FIG. 21 is configured so that the user can select the relationship between the moving speed and the optimum imaging speed from the first-stage to fifth-stage curves shown in FIG. It is designed to allow input by moving 381.
  • the user can adjust the relationship between the moving speed and the optimum shooting speed by operating the OK button 382 by moving the scroll bar 381 using any force input device.
  • FIG. 22 is a block diagram showing a configuration example of an image processing apparatus according to the second embodiment of the present invention.
  • the block diagram of the second embodiment is obtained by adding a spatial feature amount detection unit 503 to the first embodiment described with reference to FIG.
  • the image processing apparatus 500 inputs an image signal having a certain frame rate as a processing target image. This input image signal is input to the movement speed calculation unit 501, the image generation processing unit 502, and the spatial feature amount detection unit 503.
  • An input image signal having a fixed frame rate is input to the movement speed calculation unit 501.
  • the input image signal input to the moving speed calculation unit 501 performs the same processing as in the first embodiment described above with reference to FIG. 4 and subsequent drawings, and determines the moving speed of each divided area in the frame. calculate.
  • This moving speed is calculated as a value corresponding to the frame rate of the output image, and is output from the moving speed calculation unit 501 to the image generation processing unit 502.
  • the input image signal is also input to the spatial feature amount detection unit 503.
  • the spatial feature quantity detection unit 503 is an image storage unit 521 that stores a plurality of frames of an input image signal, and a control that selects and reads out a target frame for evaluating the magnitude of spatial contrast.
  • the spatial contrast evaluation unit 524 has a spatial contrast threshold value as a reference for processing in advance.
  • the spatial feature quantity detection unit 503 determines, for each divided region to be processed, whether or not the power of the spatial contrast is equal to or greater than a threshold, and the spatial contrast size of the divided region to be processed is equal to or greater than the threshold. If it is, signal [0] is output as spatial feature information, and signal [1] is output as spatial feature information when smaller than the threshold.
  • the input image signal input to the spatial feature amount detection unit 503 is first input and stored in the image storage unit 521.
  • a frame selected as a spatial contrast evaluation target is read from the image storage unit 521 under the control of the control unit 522.
  • the frame for which the spatial contrast is to be evaluated is executed based on the frame rate information of the output image.
  • This frame selection process is the same process as the selection of a search frame to be a motion vector detection target in the control unit of the movement speed calculation unit described above with reference to FIGS.
  • the frame read from the image storage unit 521 is input to the region dividing unit 523.
  • the area dividing process performed in the area dividing unit 523 is the motion vector detection target executed in the area dividing unit of the moving speed calculating unit described in the first embodiment with reference to FIG. This is performed in the same manner as the region dividing process for the search frame. As described above with reference to FIG. 5, one frame image is divided into predetermined pixel areas.
  • the image data of each divided region is input to the spatial contrast evaluation unit 524, and a spatial filtering process is performed. That is, for each divided region to be processed, it is determined whether or not the power of the spatial contrast is greater than or equal to a threshold value.
  • Signal [0] as feature quantity information, threshold If it is smaller than, signal [1] is output as spatial feature information.
  • the image generation processing unit 502 shown in FIG. 22 performs the movement speed information in each region in the image output from the movement speed calculation unit 501 and the spatial feature amount detection unit. Spatial feature amount information in each region in the image output from 503 is input.
  • the configuration and processing of the image generation processing unit 502 in the present embodiment will be described with reference to FIG.
  • the spatial feature amount information input from the spatial feature amount detection unit 503 is input to the optimum shirter speed calculation unit 553, similarly to the movement speed information.
  • the optimum shirt speed calculation unit 553 applies each of these pieces of information to calculate the optimum shirt speed corresponding to each divided area.
  • the processing in the optimum shirt speed calculation unit 553 is performed as follows, for example.
  • the spatial feature information input to the optimum shirt speed calculation unit 553 is signal [0], that is, when the size of the spatial contrast of the divided area to be processed is equal to or greater than the threshold, the area is moved with speed information.
  • the optimum imaging shutter speed is calculated based on the correspondence table between the moving speed and the optimum shirt speed described above with reference to FIGS.
  • the spatial feature information is signal [1] that is, when the size of the spatial contrast of the divided region to be processed is less than the threshold value, the region is not affected by the moving speed, and the optimum shirt The speed is set as the shirt speed corresponding to the maximum frame rate, for example, t4 in FIG.
  • This optimum shirt speed determination process takes into consideration the fact that jerkiness deterioration is not noticeable in a region where the spatial contrast is small.
  • the spatial feature information of the segmented area to be processed is signal [1]
  • the size of the spatial contrast of the segmented area to be processed is less than the threshold, and the jerkiness degradation with a small spatial contrast is not noticeable. Therefore, in such an area, a sharper speed corresponding to the maximum frame rate, for example, t4 in FIG. 13, is set as the shotter speed, and a clear image is output.
  • the spatial contrast size of the divided region to be processed is equal to or greater than the threshold value, and the region with a large spatial contrast is conspicuous in jerkiness degradation. Since it is determined that there is, as in the embodiment described above, FIG. Based on the correspondence table between the moving speed and the optimum shirt speed described with reference to FIG. 17, the optimum shooting speed is calculated.
  • the spatial feature information is the power described in the example described in the present embodiment, in which two types of information [0] and [1] are used before and after the predetermined threshold. Other settings may be used.
  • the spatial feature quantity detection unit 503 has a more detailed table for outputting different output values according to the contrast value that does not have one threshold in advance, and the spatial feature quantity information As a result, a configuration in which more than two types of signals are output to the image generation processing unit 502 is also possible.
  • the process is the same as the process described in the previous embodiment, and is executed as a process for generating a pseudo image corresponding to the optimum shirter speed based on a plurality of input image frames in each divided region.
  • the spatial feature amount detection unit 503 detects the size of the spatial contrast in units of divided areas, and the image generation processing unit 502 detects that the spatial contrast is less than a predetermined threshold value.
  • a shotta speed higher than the optimum imaging shot speed calculated corresponding to the moving speed is set as the optimum shot speed.
  • the highest shot speed corresponding to the frame rate of the input image without calculating the optimum imaging shot speed calculated corresponding to the moving speed is set to the optimum shot speed. Execute processing to set as speed.
  • the program can be recorded in advance on a hard disk or ROM (Read Only Memory) as a recording medium.
  • the program can be temporarily or permanently stored on a removable recording medium such as a flexible disk, CD-ROM (Compact Disc Read Only Memory), MO (Magneto optical) disk, DVD (Digital Versatile Disc), magnetic disk, or semiconductor memory. Can be stored (recorded).
  • a removable recording medium such as a flexible disk, CD-ROM (Compact Disc Read Only Memory), MO (Magneto optical) disk, DVD (Digital Versatile Disc), magnetic disk, or semiconductor memory.
  • Such removable recording media can be provided as V, so-called packaged software.
  • the program is installed in the computer with the above-described removable recording medium power, or is wirelessly transferred from the download site to the computer, or via a network such as a LAN (Local Area Network) or the Internet.
  • the computer can receive the program transferred in this way and install it on a built-in recording medium such as a hard disk.
  • the frame of the output image in units of divided areas into which the frame images constituting the moving image are divided. Calculates the moving speed of the subject according to the rate, and acquires the optimum shot speed that reduces image degradation in the output image as the optimum shooting speed corresponding to the moving speed in divided areas.
  • the image corresponding to the optimum shot speed is generated for each divided region, and a frame image obtained by combining the generated divided region images is output. Therefore, image degradation in the output image, specifically, jerkiness and blur
  • An image processing apparatus capable of outputting a high-quality image with both reduced is realized.

Abstract

ジャーキネスおよびブラーの双方を低減した高品質の画像を出力する装置および方法を提供する。一定のフレームレートで出力する動画像を生成する際、動画像を構成するフレーム画像を区分した分割領域単位で出力画像のフレームレートに応じた被写体の移動速度を算出し、分割領域単位の移動速度に対応する最適な撮像シャッタ速度として、出力画像の画像劣化が低減される最適シャッタ速度を分割領域単位で取得し、取得した最適シャッタ速度に対応する画像を分割領域単位で生成して、生成した分割領域画像を結合したフレーム画像を出力させる。本構成によれば、ジャーキネスおよびブラーの双方を低減した高品質の画像の出力が可能となる。

Description

明 細 書
画像処理装置、および画像処理方法、並びにコンピュータ 'プログラム 技術分野
[0001] 本発明は、画像処理装置、および画像処理方法、並びにコンピュータ 'プログラム に関する。特に移動する被写体の撮影画像に発生するジャーキネスゃブラーなどの 画質劣化を低減し、高品質な出力画像を生成する画像処理装置、および画像処理 方法、並びにコンピュータ 'プログラムに関する。
背景技術
[0002] 高速シャツタで撮像された動画像やアニメーションなどを、プロジェクタやディスプレ ィなどの表示デバイスを用いて表示すると、画像中に含まれる移動物体の動きが不 連続に表示され、画像を観察する観察者が多重像を知覚してしまうという画像劣化が 頻繁に発生する。これは、一般にジャーキネスと呼ばれる画質劣化の現象である。
[0003] 一方、オープンシャツタなど低速のシャツタスピードで撮像された動画像を表示する と、動きボケの影響により、被写体のディテールの欠損やエッジが不鮮明になること 力 くある。この現象は、ブラー(ぼけ)と呼ばれる画質劣化の現象である。
[0004] これらの、ジャーキネスとブラーの発生原理について、図 1〜3を用いて説明する。
人間の知覚特性として、目に入射した光を一定時間積分した値として知覚することが 知られている。図 1〜3は、この知覚特性に基づく観察者力 の物体の見え方を模擬 的に説明する図である。
[0005] 図 1は、静止物体と移動物体の実世界における見え方を説明する例である。
図 1 (1)は、横軸を位置 (x)、縦軸を時間 (t)として、静止物体 11と移動物体 12の 時間的変移を示しており、図 1 (2)は、これらの静止物体 11と移動物体 12を観察す る観察者の知覚状況を模擬的に示した図である。観察者は、移動物体 12を追従して 観察する追従視と、および移動物体 12を追従しないで視点を固定して観察する固定 視を行なう 2通りの異なる観察形態における知覚状況がある。それぞれ (a)追従視, ( b)固定視として示してある。
[0006] 図 1 (2)の (a)追従視に示すように、移動物体 12を観察者が追従視した場合、移動 物体 12の見え方は、図 1 (2)の移動物体知覚情報 al2のようになる。これは図 1 (2) の(b)固定視における固定物体 11の見え方である固定物体知覚情報 bl lと同様の 見え方である。このように、観察者が移動物体 12を追従視した場合は、固定視にお ける固定物体 11の見え方と同様に観察者は知覚する。
[0007] 一方、図 1 (2)の (b)固定視に示すように、移動物体 12を観察者が固定視した場合 、移動物体 12の見え方は、図 1 (2)の移動物体知覚情報 b 12のようになる。これは、 観察者が移動物体を連続的に移動するように変化する知覚を行うものであり、観察 者が違和感を生じることはな 、。
[0008] 図 2は、高速シャツタで撮像された動画像やアニメーションなどを、プロジェクタゃデ イスプレイなどの表示デバイスを用いて表示した場合に観察者によって知覚されるジ ヤーキネスの発生を説明する図である。すなわち、画像中に含まれる移動物体の動 きが不連続に表示され、画像を観察する観察者が多重像を知覚してしまうという現象 である。
[0009] 図 2では、図 1中の実世界における移動物体を、高速シャツタを用いて撮像し、 60 Hzでリフレッシュされる表示デバイスに表示した場合、観察者からの見え方を模擬的 に表している。図 2 (1)は、表示静止物体 21と表示移動物体 22の表示デバイス上で の表示位置の変化を示している。縦軸が時間(t)であり表示デバイスのリフレッシュ間 隔(lZ60sec)毎に区切りを設定してある。横軸が表示位置 (X)である。
[0010] 図 2 (2)は、表示デバイスに表示される表示静止物体 21と表示移動物体 22を観察 する観察者の知覚状況を模擬的に示した図である。観察者は、表示移動物体 22を 追従して観察する追従視と、および表示移動物体 22を追従しな ヽで視点を固定して 観察する固定視を行なう 2通りの異なる観察形態における知覚状況がある。これらを それぞれ (a)追従視, (b)固定視として示してある。
[0011] 図 2 (2) (a)に示すように、表示デバイスに表示される表示移動物体 22を、観察者 が追従視した場合の見え方 (a22)は、図 1を参照して説明した図 1 (2) (a)の追従視 の見え方 (al2)と同様の見え方であり、静止物体を固定視した場合と同じように観察 者は知覚することになる。
[0012] 一方、表示デバイスに表示される表示移動物体 22を、観察者が固定視した場合に おいては、図 2 (2) (b)に示すように、観察者の視覚による知覚上、実世界とは異なり 表示移動物体 22は、連続的ではなく離散的に移動変化するような見え方 (b22)とな る。結果として、観測者は、目に入射した光を一定時間積分した値として知覚すると いう知覚特性に基づいて、表示デバイスに表示される移動物体を多重像として知覚 すること〖こなる。
[0013] 観測者は、本来 1つの物体であるにも拘らず、複数の物体のように感じ取ってしまう ことになる。このような現象をジャーキネス劣化という。ジャーキネス劣化は、原理的に 移動速度の速い物体ほど発生しやすい。また、ジャーキネス劣化は、表示デバイスの フレームレートが低いほど発生しやすぐフレームレートが高いほど発生しにくい。さら に、ジャーキネス劣化は、一般的に、空間的な輝度の変化が大きい部分、言い換え れば、空間コントラストの高 、部分にぉ 、て生じやす 、。
[0014] 図 3は、例えばオープンシャツタなどの低速シャツタで撮像された動画像やアニメ一 シヨンなどを、プロジェクタやディスプレイなどの表示デバイスを用いて表示した場合 に観察者によって知覚されるブラーの発生を説明する図である。ブラーは、動きボケ の影響により、被写体のディテールの欠損やエッジが不鮮明になる現象である。
[0015] 図 3では、図 1中の実世界における移動物体を、低速シャツタを用いて撮像し、 60 Hzでリフレッシュされる表示デバイスに表示した場合、観察者からの見え方を模擬的 に表している。図 3 (1)は、表示静止物体 31と表示移動物体 32の表示デバイス上で の表示位置の変化を示している。縦軸が時間(t)であり表示デバイスのリフレッシュ間 隔(lZ60sec)毎に区切りを設定してある。横軸が表示位置 (X)である。
[0016] 図 3 (2)は、表示デバイスに表示される表示静止物体 31と表示移動物体 32を観察 する観察者の知覚状況を模擬的に示した図である。観察者は、表示移動物体 32を 追従して観察する追従視と、および表示移動物体 32を追従しな ヽで視点を固定して 観察する固定視を行なう 2通りの異なる観察形態における知覚状況がある。これらを それぞれ (a)追従視, (b)固定視として示してある。
[0017] 図 3 (2) (b)に示すように、表示デバイスに表示される表示移動物体 32を、観察者 が固定視した場合 (b32)においては、図 1を参照して説明した図 1 (2) (b)の固定視 と同様の見え方 (b 12)であり、観察者が移動物体を連続的に移動するように変化す る知覚を行い、観察者が違和感を生じることはない。
[0018] 一方、表示デバイスに表示される表示移動物体 22を、観察者が追従視した場合に おいては、図 3 (2) (a)の見え方 (a32)に示すように、観察者には、静止物体を固定 視した場合とは異なる、ぼやけた像として知覚される。これは、図 3 (1)の表示移動物 体 22に示すように、撮像時において、低速シャツタに基づく長期間の露光中の移動 物体の動きが 1フレームに記録され、この移動する物体が 1フレーム中に帯状に表示 されるためである。このような現象をブラー劣化と 、う。
[0019] 先に説明した通り、ジャーキネス劣化およびブラー劣化の発生は、撮像時のシャツ タ速度について、相反する関係にあるため、単純なシャツタ制御ではいずれかの劣 化が目立ってしまう。
[0020] また、ジャーキネスは、元の動画像と異なるフレームレートに変換して表示する場合 、発生しやすい画質劣化として知られている。例えば、高フレームレートの元動画像 を、元動画像よりも低いフレームレートに変換して表示する手段としては、変換後のフ レーム数に合わせて、単純に間引く方法が一般的であるが、この場合、元動画像は 短 、露光時間で撮像されるため、ジャーキネスが発生しやす 、。
[0021] このフレームレート変換に際して発生するジャーキネスを抑制するための手法として 、間引きによるフレームレートの変換を行わず、変換後のフレーム数に合わせて、単 純に元の動画像の構成フレームの平均化を行う方法が知られて 、る。このフレーム 平均化手法によって、ジャーキネスの抑制が可能となる。しかし、この手法は、結果と して、高速シャツタ対応の高フレームレート画像に基づく平均化によって、低フレーム レート、すなわち低速シャツタでの撮影画像を生成することに相当し、ブラー劣化を 目立たせてしまうという問題を発生させることになる。
[0022] 一方、低フレームレートの元動画像を、元動画像よりも高 、フレームレートに変換し て表示する場合、時間的に存在しないフレームについて、前後の存在するフレーム を複数回表示する手法が、最も簡易である。しかし、このようなフレームレート変換を 行うと、移動する被写体の動きは離散的になるため、ジャーキネスが発生しやすい。
[0023] このように、低フレームレートの元画像から高フレームレートの画像を生成するフレ ームレート変換処理を行なう場合にジャーキネスの発生を抑制するための手法として 、動き補償を用いて時間的に存在しないフレームを補間処理によって生成し、高フレ ームレートの動画像を作成する手法が知られている。(例えば特許文献 1)この手法 を用いることで、ジャーキネス劣化の改善が図られる。
特許文献 1:特開平 11― 112939号公報
発明の開示
発明が解決しょうとする課題
[0024] 上述のように、ジャーキネスおよびブラーの発生は、撮像時のシャツタ速度につい て、相反する関係にあるため、単純なシャツタ制御ではいずれかの劣化が目立ってし まう問題がある。また、フレームレート変換時においては、前記の通り、原理的に、双 方の劣化を抑制することは困難であり、一方の劣化を抑制すると他方が目立ってしま うという問題がある。
[0025] 例えば低フレームレートから高フレームレートの変換を行う場合には、前述したフレ ーム補間を行い、相当に高いフレームレートにまで変換すれば、動画像を表示した 際のジャーキネス劣化を低減することは可能である。しかし、現行のフィルム(1秒当 たり 24フレーム)やテレビジョン(1秒当たり 50フレームもしくは 60フレーム)標準の動 画像フォーマットでの表示では、フレームレートは十分に高くないため、ジャーキネス 劣化の低減には限界がある。現行のテレビジョン標準以上に、高速なフレームレート の動画像を、表示可能な表示デバイスは、現在のところごく限られており、現行の多く の表示デバイスに対しては、フレーム補間による画質劣化の改善には限界がある。
[0026] 本発明は、このような問題に鑑みてなされたものであり、動画質劣化の要因である ジャーキネスとブラーの双方を抑制することを可能とする画像処理装置、および画像 処理方法、並びにコンピュータ 'プログラムを提供することを目的とする。
[0027] 本発明は、例えば、入力画像信号の分割領域毎に、フレーム間の移動速度や空間 的な特徴量を算出し、算出した移動速度や空間特徴量に基づいて領域毎に適応的 なフィルタリング処理を行うことで、ジャーキネスとブラーの双方の発生を抑制した画 質劣化の少ない高画質な画像信号を生成して出力することを可能とした画像処理装 置、および画像処理方法、並びにコンピュータ 'プログラムを提供することを目的とす る。 課題を解決するための手段
[0028] 本発明の第 1の側面は、
動画像に対する画像処理を実行する画像処理装置であり、
動画像を構成するフレーム画像を区分した分割領域単位で出力画像のフレームレ ートに応じた被写体の移動速度を算出する移動速度演算部と、
前記分割領域単位の移動速度情報を入力し、移動速度に対応する最適な撮像シ ャッタ速度として、出力画像の画像劣化が低減される最適シャツタ速度を前記分割領 域単位で取得し、取得した最適シャツタ速度に対応する画像を前記分割領域単位で 生成し、生成した分割領域画像を結合したフレーム画像を出力する画像生成処理部 と、
を有することを特徴とする画像処理装置にある。
[0029] さらに、本発明の画像処理装置の一実施態様において、前記移動速度演算部は、 入力画像のフレーム力 選択された探索用フレームと参照用フレームを適用したプロ ックマッチング処理により分割領域単位で移動速度を算出する処理を実行する構成 であることを特徴とする。
[0030] さらに、本発明の画像処理装置の一実施態様において、前記移動速度演算部は、 入力画像のフレーム力 選択された探索用フレームと参照用フレームを適用したプロ ックマッチング処理により分割領域単位で動きベクトルを求めるブロックマッチング部 と、前記ブロックマッチング部において算出した動きベクトル情報に基づいて、出力 画像のフレームレートに応じた被写体の移動速度を算出する動きベクトル規格ィ匕部と を有する構成であることを特徴とする。
[0031] さらに、本発明の画像処理装置の一実施態様において、前記移動速度演算部は、 前記探索用フレームを、出力画像のフレームレートに応じたフレーム間隔で入力画 像のフレーム力も選択する処理を実行する構成であることを特徴とする。
[0032] さらに、本発明の画像処理装置の一実施態様において、前記画像生成処理部は、 移動速度と、出力画像の画像劣化が低減される撮像シャツタ速度とを対応付けたテ 一ブルを保持し、該テーブルを参照して移動速度に対応する最適シャツタ速度を前 記分割領域単位で取得する構成であることを特徴とする。 [0033] さらに、本発明の画像処理装置の一実施態様において、前記テーブルは、移動速 度区間情報と、最適シャツタ速度情報とを対応付けたテーブルであることを特徴とす る。
[0034] さらに、本発明の画像処理装置の一実施態様において、前記画像生成処理部は、 移動速度と、出力画像の画像劣化が低減される最適シャツタ速度との対応関係の異 なる複数の異なるテーブルを有し、ユーザ選択情報に基づいて、適用するテーブル を決定する構成であることを特徴とする。
[0035] さらに、本発明の画像処理装置の一実施態様において、前記画像生成処理部は、 前記分割領域単位で、移動速度に対応する最適シャツタ速度を算出する最適シャツ タ速度算出部と、前記最適シャツタ速度算出部の算出した最適シャツタ速度に対応 する画像を前記分割領域単位で生成するフィルタリング処理部とを有する構成であ ることを特徴とする。
[0036] さらに、本発明の画像処理装置の一実施態様において、前記フィルタリング処理部 は、入力画像のフレーム力 選択されたフレームに基づいて、前記最適シャツタ速度 算出部の算出した撮像シャツタ速度に対応する画像を前記分割領域単位で生成す る処理を実行する構成であることを特徴とする。
[0037] さらに、本発明の画像処理装置の一実施態様において、前記フィルタリング処理部 は、前記最適シャツタ速度算出部の算出した最適シャツタ速度に応じた重み係数を 設定して、入力画像の複数フレームの画素値の加重平均を実行して、出力画像フレ ームの画素値を決定する処理を実行する構成であることを特徴とする。
[0038] さらに、本発明の画像処理装置の一実施態様において、前記画像生成処理部は、 入力画像のフレームに含まれな 、中間フレームを生成する中間フレーム生成部を有 し、前記最適シャツタ速度算出部の算出した最適シャツタ速度に対応する画像を、前 記中間フレームを適用して分割領域単位で生成する処理を実行する構成であること を特徴とする。
[0039] さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、さ らに、前記分割領域単位で空間コントラストの大きさを検出する空間特徴量検出部を 有し、前記画像生成処理部は、空間コントラストが予め定めた閾値未満の分割領域 については、前記移動速度に対応して算出される最適シャツタ速度より高いシャツタ 速度を最適シャツタ速度として設定する処理を実行する構成であることを特徴とする
[0040] さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、さ らに、前記分割領域単位で空間コントラストの大きさを検出する空間特徴量検出部を 有し、前記画像生成処理部は、空間コントラストが予め定めた閾値未満の分割領域 については、前記移動速度に対応して算出される最適シャツタ速度を算出することな ぐ入力画像の持つフレームレートに対応するシャツタ速度を最適シャツタ速度として 設定する処理を実行する構成であることを特徴とする。
[0041] さらに、本発明の画像処理装置の一実施態様において、前記出力画像の画像劣 化は、ジャーキネスおよびブラーによる画像劣化であり、前記画像生成処理部は、ジ ヤーキネスおよびブラーによる画像劣化が低減される最適シャツタ速度を前記分割 領域単位で取得し、取得した最適シャツタ速度に対応する画像を前記分割領域単位 で生成する処理を実行する構成であることを特徴とする。
[0042] さらに、本発明の第 2の側面は、
画像処理装置にお ヽて、動画像に対する画像処理を実行する画像処理方法であ り、
移動速度演算部において、動画像を構成するフレーム画像を区分した分割領域単 位で出力画像のフレームレートに応じた被写体の移動速度を算出する移動速度演 算ステップと、
画像生成処理部において、前記分割領域単位の移動速度情報を入力し、移動速 度に対応する最適な撮像シャツタ速度として、出力画像の画像劣化が低減される最 適シャツタ速度を前記分割領域単位で取得し、取得した最適シャツタ速度に対応す る画像を前記分割領域単位で生成し、生成した分割領域画像を結合したフレーム画 像を出力する画像生成処理ステップと、
を有することを特徴とする画像処理方法にある。
[0043] さらに、本発明の画像処理方法の一実施態様において、前記移動速度演算ステツ プは、入力画像のフレーム力 選択された探索用フレームと参照用フレームを適用し たブロックマッチング処理により分割領域単位で移動速度を算出する処理を実行す ることを特徴とする。
[0044] さらに、本発明の画像処理方法の一実施態様にお!、て、前記移動速度演算ステツ プは、入力画像のフレーム力 選択された探索用フレームと参照用フレームを適用し たブロックマッチング処理により分割領域単位で動きベクトルを求めるブロックマッチ ング処理ステップ、前記ブロックマッチング処理ステップにお 、て算出した動きべタト ル情報に基づいて、出力画像のフレームレートに応じた被写体の移動速度を算出す る動きベクトル規格化ステップとを有することを特徴とする。
[0045] さらに、本発明の画像処理方法の一実施態様において、前記移動速度演算ステツ プは、前記探索用フレームを、出力画像のフレームレートに応じたフレーム間隔で入 力画像のフレームから選択する処理を実行することを特徴とする。
[0046] さらに、本発明の画像処理方法の一実施態様にお!ヽて、前記画像生成処理ステツ プは、移動速度と、出力画像の画像劣化が低減される撮像シャツタ速度とを対応付 けたテーブルを参照して移動速度に対応する最適シャツタ速度を前記分割領域単 位で取得するステップを含むことを特徴とする。
[0047] さらに、本発明の画像処理方法の一実施態様において、前記テーブルは、移動速 度区間情報と、最適シャツタ速度情報とを対応付けたテーブルであることを特徴とす る。
[0048] さらに、本発明の画像処理方法の一実施態様にお!ヽて、前記画像生成処理ステツ プは、移動速度と、出力画像の画像劣化が低減される最適シャツタ速度との対応関 係の異なる複数の異なるテーブルからのユーザ選択情報に基づいて適用テーブル を決定する処理を実行するステップを含むことを特徴とする。
[0049] さらに、本発明の画像処理方法の一実施態様にお!ヽて、前記画像生成処理ステツ プは、前記分割領域単位で、移動速度に対応する最適シャツタ速度を算出する最適 シャツタ速度算出ステップと、前記最適シャツタ速度算出ステップにおいて算出した 最適シャツタ速度に対応する画像を前記分割領域単位で生成するフィルタリング処 理ステップとを有することを特徴とする。
[0050] さらに、本発明の画像処理方法の一実施態様において、前記フィルタリング処理ス テツプは、入力画像のフレームから選択されたフレームに基づいて、前記最適シャツ タ速度算出ステップにおいて算出した撮像シャツタ速度に対応する画像を前記分割 領域単位で生成する処理を実行することを特徴とする。
[0051] さらに、本発明の画像処理方法の一実施態様において、前記フィルタリング処理ス テツプは、前記最適シャツタ速度算出ステップにお 、て算出した最適シャツタ速度に 応じた重み係数を設定して、入力画像の複数フレームの画素値の加重平均を実行し て、出力画像フレームの画素値を決定する処理を実行することを特徴とする。
[0052] さらに、本発明の画像処理方法の一実施態様にお!、て、前記画像生成処理ステツ プは、入力画像のフレームに含まれない中間フレームを生成し、前記最適シャツタ速 度算出ステップにおいて算出した最適シャツタ速度に対応する画像を、前記中間フ レームを適用して分割領域単位で生成する処理を実行することを特徴とする。
[0053] さらに、本発明の画像処理方法の一実施態様において、前記画像処理方法は、さ らに、空間特徴量検出部において、前記分割領域単位で空間コントラストの大きさを 検出する空間特徴量検出ステップを有し、前記画像生成処理ステップは、空間コント ラストが予め定めた閾値未満の分割領域については、前記移動速度に対応して算出 される最適シャツタ速度より高いシャツタ速度を最適シャツタ速度として設定する処理 を実行することを特徴とする。
[0054] さらに、本発明の画像処理方法の一実施態様にお!、て、前記画像処理方法は、さ らに、空間特徴量検出部において、前記分割領域単位で空間コントラストの大きさを 検出する空間特徴量検出ステップを有し、前記画像生成処理ステップは、空間コント ラストが予め定めた閾値未満の分割領域については、前記移動速度に対応して算出 される最適シャツタ速度を算出することなく、入力画像の持つフレームレートに対応す るシャツタ速度を最適シャツタ速度として設定する処理を実行することを特徴とする。
[0055] さらに、本発明の画像処理方法の一実施態様において、前記出力画像の画像劣 化は、ジャーキネスおよびブラーによる画像劣化であり、前記画像生成処理ステップ は、ジャーキネスおよびブラーによる画像劣化が低減される最適シャツタ速度を前記 分割領域単位で取得し、取得した最適シャツタ速度に対応する画像を前記分割領域 単位で生成する処理を実行することを特徴とする。 [0056] さらに、本発明の第 3の側面は、
画像処理装置において、動画像に対する画像処理を実行させるコンピュータ 'プロ グラムであり、
移動速度演算部において、動画像を構成するフレーム画像を区分した分割領域単 位で出力画像のフレームレートに応じた被写体の移動速度を算出させる移動速度演 算ステップと、
画像生成処理部において、前記分割領域単位の移動速度情報を入力し、移動速 度に対応する最適な撮像シャツタ速度として、出力画像の画像劣化が低減される最 適シャツタ速度を前記分割領域単位で取得し、取得した最適シャツタ速度に対応す る画像を前記分割領域単位で生成し、生成した分割領域画像を結合したフレーム画 像を出力させる画像生成処理ステップと、
を実行させることを特徴とするコンピュータ 'プログラムにある。
[0057] なお、本発明のコンピュータ 'プログラムは、例えば、様々なプログラム 'コードを実 行可能な汎用コンピュータ ·システムに対して、コンピュータ可読な形式で提供する 記憶媒体、通信媒体、例えば、 CDや FD、 MOなどの記憶媒体、あるいは、ネットヮ ークなどの通信媒体によって提供可能なコンピュータ 'プログラムである。このようなプ ログラムをコンピュータ可読な形式で提供することにより、コンピュータ 'システム上で プログラムに応じた処理が実現される。
[0058] 本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図 面に基づぐより詳細な説明によって明らかになるであろう。なお、本明細書において システムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内に あるものには限らない。
発明の効果
[0059] 本発明の構成によれば、一定のフレームレートで出力する動画像を生成する際、動 画像を構成するフレーム画像を区分した分割領域単位で出力画像のフレームレート に応じた被写体の移動速度を算出し、分割領域単位の移動速度に対応する最適な 撮像シャツタ速度として、出力画像の画像劣化が低減される最適シャツタ速度を分割 領域単位で取得し、取得した最適シャツタ速度に対応する画像を分割領域単位で生 成して、生成した分割領域画像を結合したフレーム画像を出力させる構成としたので 、出力画像における画像劣化、具体的には、ジャーキネスおよびブラーの双方を低 減した高品質の画像を出力することが可能となる。
図面の簡単な説明
[図 1]ジャーキネスとブラーの発生原理について説明する図であり、静止物体と移動 物体の実世界における見え方を説明する図である。
[図 2]ジャーキネスの発生原理について説明する図である。
[図 3]ブラーの発生原理について説明する図である。
[図 4]本発明の第 1の実施例に係る画像処理装置の構成を示すブロック図である。
[図 5]画像信号の各フレーム画像についての領域分割処理について説明する図であ る。
[図 6]出力画像信号のフレームレート値を外部から入力する構成を持つ画像処理装 置の構成例を示す図である。
[図 7]移動速度演算部の詳細な構成を示す図である。
[図 8]移動速度検出部の詳細な構成例を示す図である。
[図 9]移動速度演算部において実行する動きベクトルの検出に適用する探索用フレ ームと参照用フレームの選別処理を説明する図である。
[図 10]画像生成処理部の詳細な構成例を示すブロック図である。
[図 11]画像生成処理部内に中間フレーム生成部を加えた画像生成処理部の構成例 を示す図である。
[図 12]フィルタリング処理に用いる入力画像フレームと、出力される画像フレームとの 対応について説明する図である。
[図 13]移動速度と最適な撮像シャツタ速度の対応関係の一例を示す図である。
[図 14]移動速度情報に基づいて、最適な撮像シャツタ速度を算出する基本的な処理 例について説明する図である。
[図 15]移動速度と最適な撮像シャツタ速度の関係の一例を粗ィ匕して示した図である。
[図 16]移動速度と最適な撮像シャツタ速度の関係の一例を粗化した対応データ構成 を示す図である。 [図 17]移動速度演算部において、各分割領域について移動速度が算出されたある 1 枚の探索用フレームを示す図である。
[図 18]画像生成処理部において行われる移動速度に基づく最適な撮像シャツタ速度 の算出に適用するグラフ(テーブル)を示す図である。
[図 19]フレームを用いたフィルタリング処理について説明する図である。
[図 20]移動速度と最適な撮像シャツタ速度の関係を表す複数の異なる曲線の例を示 す図である。
[図 21]移動速度と最適な撮像シャツタ速度の関係を表す複数の異なる曲線力 使用 者が曲線を選択できるよう構成したインタフェースを示す図である。
[図 22]本発明の第 2の実施例に係る画像処理装置の構成例を示すブロック図である
[図 23]空間特徴量検出部の詳細な構成例を示す図である。
[図 24]画像生成処理部の構成および処理について説明する図である。
発明を実施するための最良の形態
[0061] 以下、図面を参照しながら、本発明の画像処理装置、および画像処理方法、並び にコンピュータ 'プログラムの構成について説明する。
[0062] 本発明の画像処理装置では、一定のフレームレートで入力する入力動画像につい て、各フレーム画像を所定の分割領域に区切り、各分割領域単位でフレーム間の移 動速度や空間的な特徴量を算出し、算出した各分割領域の移動速度や空間特徴量 に基づ!/、て各領域毎に最適なフィルタリング処理を行うことで、各領域に応じてジャ ーキネスやブラーを低減させた画像を生成し、ジャーキネスゃブラー双方の発生を 抑制した画質劣化の少ない高画質な画像信号を生成して出力する。
[0063] 例えば、本発明の画像処理装置では、フレーム間の移動速度や空間的な特徴量と フィルタリング処理パラメータとを対応付けたテーブルを保持し、このテーブルに基づ いて、各分割領域に対応する最適なフィルタリング処理を行う。なお、各分割領域に 対応する最適なフィルタリング処理は、具体的には、各分割領域において、ジャーキ ネスとブラーの発生を低減させるための最適な撮像シャツタ速度を決定し、その撮像 シャツタ速度に対応した画像を生成する処理に相当する。 [0064] すなわち、各分割領域に対応する最適なフィルタリング処理のパラメータの決定処 理は、各領域につ!、てジャーキネスとブラーの発生を低減させる最適なシャツタ速度 を決定する処理を含むものである。本発明の画像処理装置では、各分割領域各々に 対応して、ジャーキネスとブラーの発生を低減させる最適なシャツタ速度を決定し、そ の決定したシャツタ速度に従った擬似画像を各分割領域毎に個別に生成して出力 する。
[0065] 以下、本発明の画像処理装置の詳細について説明する。以下の項目に従って、詳 細を説明する。
1.本発明の画像処理装置における基本処理の概要
2.入力画像信号および出力画像信号に関する説明
3.移動速度演算部の処理の詳細
4.画像生成処理部の処理についての説明
5.フィルタリング処理部の実行するフィルタリング処理の詳細
6.フィルタリング処理に用いるフレームの選別方法につ!ヽて
7.移動速度と最適な撮像シャツタ速度との対応関係について
8.最適な撮像シャツタ速度算出方法について
9.最適な撮像シャツタ速度算出および、出力フレーム生成処理の具体例
10.移動速度と最適なシャツタ速度曲線の調整機能を有した装置について
11.第 2の実施例の概要
[0066] [1.本発明の画像処理装置における基本処理の概要]
まず、本発明の画像処理装置の基本処理の概要について説明する。図 4は、本発 明の第 1の実施例に係る画像処理装置 100の構成を示すブロック図である。画像処 理装置 100は、処理対象画像として、一定のフレームレートを有する画像信号を入力 する。この入力画像信号は、移動速度演算部 101および画像生成処理部 102に入 力される。
[0067] 移動速度演算部 101では、図 5に示すように、入力画像信号の各フレーム画像に ついて、領域分割がなされ、分割領域各々に含まれる画像についてブロックマツチン グ処理を実行し、分割領域各々の画像データのフレーム間の移動速度 (VI, V2, V 3 · · を算出する。ただし、ここで算出するフレーム間の移動速度 (VI, V2, V3 ' · ·) は、出力画像信号の有するフレームレートに対応するフレーム間の動速度である。画 像処理装置は、出力画像フレームレート情報 103を記憶部に保持し、移動速度演算 部 101では、出力画像フレームレート情報 103に基づいて分割領域各々のフレーム 間移動速度 (VI, V2, ν3 · · ·)を算出する。
[0068] 移動速度演算部 101において算出された各分割領域における移動速度は、画像 生成処理部 102に入力される。画像生成処理部 102には、既に入力画像信号が入 力されている。画像生成処理部 102は、移動速度演算部 101において算出された各 分割領域における移動速度 (VI, V2, V3 - - -)に応じて、入力画像を各分割領域単 位で変換処理を行なう。すなわち、各分割領域単位で求められた移動速度 (Vn)に 基づ 、て、ジャーキネスとブラーの発生を低減させる最適なシャツタ速度に対応する 擬似的な画像に変換する処理を実行する。
[0069] 各分割領域単位で求められた移動速度 (Vn)と、ジャーキネスとブラーの発生を低 減させる最適な撮像シャツタ速度の関係は、出力画像信号の持つフレームレートに 応じて算出可能である。画像生成処理部 102は、この対応関係を予め設定したテー ブルとして保持し、出力画像フレームレート情報 103を適用して、保持テーブルから 、各領域ごとの最適な撮像シャツタ速度を求める。あるいは、予め定めた算出式によ り、各分割領域単位で求められた移動速度 (Vn)に基づいて、ジャーキネスとブラー の発生を低減させる最適な撮像シャツタ速度を算出する。
[0070] 画像生成処理部 102は、さらに、求めた撮像シャツタ速度に対応する擬似画像を各 分割領域ごとに生成し、これらの分割領域ごとの生成画像を合成して 1フレーム画像 を生成し、予め定められたフレームレートで出力する。これらの処理によって、ジャー キネスとブラーによる画質劣化の双方が低減された高画質データを出力する。
[0071] このように、画像生成処理部 102では、移動速度演算部 101において算出された 各分割領域における移動速度に基づいて決定される最適な撮像シャツタ速度で撮 像した画像を擬似的に生成する。この画像生成処理は、例えば時間方向のフィルタ リング処理等によって実現される。画像生成処理部 102において作成された画像は 、一定のフレームレートを有する出力画像信号として出力される。 [0072] [2.入力画像信号および出力画像信号に関する説明]
次に、入力画像信号および出力画像信号の有するフレームレートについて詳解す る。なお、図 4に示す画像処理装置 100において、入力画像信号、および変換処理 により生成される出力画像信号のフレームレートは限定されるものではなぐ様々な 設定が可能である。ただし、画像生成処理部 102において、ジャーキネスとブラーに よる画質劣化の双方を低減する最適シャツタ速度での撮像画像を領域毎に擬似的 に生成するための処理として、時間方向のフィルタリング処理を採用する場合、入力 画像信号は、出力画像信号が有する所望のフレームレートに対し、できる限り高いフ レームレートを有していることが好ましい。これは、画像生成処理部 102で行われる画 像変換処理において、より高いフレームレートの入力画像信号を使用する方がより滑 らかな画像の生成が容易となるからである。
[0073] なお、図 4に示す例では、画像処理装置 100において、出力画像信号のフレーム レート値は、記憶部に保持したものを参照する構成として説明したが、この出力画像 信号のフレームレート値を外部力も入力する構成としてもよい。
[0074] 出力画像信号のフレームレート値を外部から入力する構成を持つ画像処理装置の 構成例を図 6に示す。外部力も入力する出力画像信号のフレームレート値は、図 6に 示す移動速度演算部 101、画像生成処理部 102の双方に入力される。画像生成処 理部 102は、画像変換処理を、入力されたフレームレート情報に基づいて実行する。 このような構成とすることで、様々なフレームレートに対応した最適な画像変換が実行 可能となる。
[0075] 以降、本発明の画像処理装置の実行する処理の具体例につ!、て説明する。説明 の便宜上、入力画像信号と出力画像信号が有するフレームレートの例として、 入力画像信号のフレームレートを 240 (フレーム Z秒)、
出力画像信号のフレームレートを 60 (フレーム Z秒)、
これらの設定における処理例について説明する。ただし、このフレームレートは一例 であり、本発明の画像処理装置では、入出力画像のフレームレートは限定されない。
[0076] [3.移動速度演算部の処理の詳細]
まず、移動速度演算部 101の処理の詳細について説明する。移動速度演算部 10 1は、出力画像信号が有するフレームレートを基準として、図 5を参照して説明したよ うに画像の分割領域毎にフレーム間の移動速度を算出し、画像生成処理部に出力 する。移動速度とは、被写体が 1フレーム間にどれだけ移動したかを表わす。例えば 、単位は画素 Zフレームであり、出力画像信号が有するフレームレートを基準とする
[0077] 図 7は、移動速度演算部 101の詳細な構成を示すものである。図 7に示すように移 動速度演算部 101は、入力画像信号の複数のフレームを記憶する画像蓄積部 201 、ブロックマッチング処理に用いるフレームを選別し画像蓄積部 201からの読み出し 制御を行う制御部 202、動き検出の対象となるフレームを領域に分割する領域分割 部 203、ブロックマッチング処理を行い領域毎の移動速度を算出する移動速度検出 部 204を有する。
[0078] 移動速度演算部 101に入力した入力画像信号は、まず画像蓄積部 201に入力さ れ、格納される。画像蓄積部 201は、複数のフレームを記憶できる記憶部である。移 動速度検出部 204において行われる実際のブロックマッチング処理の際、動きべタト ル検出対象となる探索用フレーム、およびその参照用フレームの、少なくとも 2フレー ムのデータが必要となり、画像蓄積部 201は、これらの複数のフレームを記憶する。
[0079] 制御部 202は、探索用および参照用フレームを選別し、画像蓄積部 201からの読 み出し制御を行う。探索用および参照用フレームの選別は、制御部 202に入力され た出力画像のフレームレート情報を基に、制御部 202において行われる。この選別 方法については、後に詳しく述べる。
[0080] 制御部 202によって読み出された、動きベクトル検出対象となる探索用フレームは 、領域分割部 203へと出力される。また、同じく制御部 202によって読み出された参 照用フレームは、移動速度検出部 204へと直接に出力される。領域分割部 203へと 出力された探索用フレームは、移動速度を算出する領域の単位である、適当な大き さのブロックへと分割される。移動速度を算出する領域毎に分割された探索用フレー ムは、移動速度検出部 204に入力される。
[0081] 図 8は、移動速度検出部 204の詳細な構成例を示す図である。移動速度検出部 2 04に入力した探索用フレーム画像データは、ブロックマッチング部 221に入力される 。ブロックマッチング部 221では、同じくブロックマッチング部 221に入力された参照 用フレームとの間で、分割領域毎にブロックマッチング処理を行う。ブロックマツチン グは、微小画像領域毎にフレーム間で対応する画素位置を検出する処理である。
[0082] 移動速度検出部 204は、分割領域毎にブロックマッチング処理を行い、この処理に よって、フレーム間での被写体の移動情報として、分割領域毎の動きベクトル量を算 出する。なお、ブロックマッチング処理におけるマッチング評価関数などの設定は様 々な設定が可能であり、その方法は特に限定されない。
[0083] ブロックマッチング部 221におけるブロックマッチング処理により算出された、分割 領域毎の動きベクトル量は、動きベクトル規格ィ匕部 222に入力する。以下、動きべタト ル規格ィ匕部 222にお 、て行われる処理にっ 、て説明する。
[0084] ブロックマッチング部 221におけるブロックマッチング処理により算出された探索用 フレーム各領域の動きベクトル量は、参照用フレームに対してどれだけ移動したかを 表わすものである。一方、求めるべき移動速度 (画素 Zフレーム)は、出力画像の有 するフレームレートを基準とした、 1フレーム間の移動量である。そのため、ブロックマ ツチング処理により得られた動きベクトル量を、出力画像信号が有するフレームレート を基準とした、 1フレーム間の移動量を表す移動速度(単位は画素 Zフレーム)へと 規格化する必要がある。
[0085] 動きベクトル規格ィ匕部 222は、出力画像信号のフレームレート情報に基づく制御信 号を制御部 202から入力し、この制御信号に基づいて、ブロックマッチング処理によ り得られた動きベクトル量を、出力画像信号が有するフレームレートを基準とした、 1 フレーム間の移動量を表す移動速度(単位は画素 Zフレーム)へと規格化する処理 を実行する。
[0086] この動きベクトルの規格ィ匕により、出力画像信号が有するフレームレートを基準とし た移動速度 (画素 Zフレーム)が算出される。なお、この規格ィ匕の方法については、 後に詳しく述べる。
[0087] 動きベクトル規格ィ匕部 222において、算出された画像の各領域における出力フレ ーム対応の移動速度は、移動速度演算部 101の出力として、移動速度検出部 101 から、画像生成処理部 102へ出力される。 [0088] このように、移動速度演算部 101では、出力画像信号が有するフレームレートを基 準として、分割領域ごとに移動速度 (画素 Zフレーム)を求める処理を実行する。この 処理には、まず、入力画像力も探索用フレームと参照用フレームを選択して、これら の 2つのフレームに基づ!/、て動きベクトルを検出することが必要である。この動きべク トルの検出に適用する探索用フレームと参照用フレームの選別方法について、詳しく 説明する。
[0089] (移動速度演算時に適用するフレームにつ 、て)
図 9は、移動速度演算部 101において、動きベクトルの検出に適用する探索用フレ ームと参照用フレームの選別処理を説明する図である。
この処理例は、前述したように、
入力画像信号のフレームレートを 240 (フレーム Z秒)、
出力画像信号のフレームレートを 60 (フレーム Z秒)、
これらの設定における処理例を説明する図である。
[0090] なお、移動速度演算部 101において、動きベクトルの検出に適用する探索用フレ ームと参照用フレームは、入力画像を構成するフレームであり 240 (フレーム Z秒)の フレームレートを持つ入力画像信号の構成フレームから、動きベクトルの検出に適用 する探索用フレームと参照用フレームが選択される。
[0091] 図 9中では、入力画像信号の各フレームにフレーム番号が記してある力 この番号 は時刻 0 (秒)に入力画像信号の 0番目のフレームが撮像されたとして表現したもので ある。入力画像信号のフレームレートは 240 (フレーム Z秒)であるため、時刻 s (秒) では 240 X s番目のフレームと表記する。
[0092] 制御部 202によって行われる、探索用および参照用フレームの選別方法について 、図 9を参照して説明する。
まず、探索用フレームの選別について説明する。
探索用フレームは、出力画像の有するフレームレートを基に抽出する。 ここで、出力画像信号のフレームレートは、
60 (フレーム Z秒)
であるため、入力画像信号 [240 (フレーム Z秒) ]中から、 1Z60秒間毎に撮像さ れたフレームを、探索対象として抽出する。
[0093] 図 9中では、 240 X S + 0番目、 240 X S+4番目、 240 X S + 8番目のフレームを、 選択された探索フレームとして示している。結果的に探索用フレームは、出力画像の フレームと同数となる。言い換えれば、出力画像の 1フレームを生成するために、 1つ の探索用フレームが選択される。
[0094] 次に、参照用フレームの選別について説明する。
参照用フレームは、 1つの探索フレームに対応して、 1つの参照用フレームが選択 される。具体的には、図 9に示す (例 1)、(例 2)、(例 3)のように、様々な選択手法が 適用可能である。
[0095] 探索用フレームを 240 X s + O番目のフレームとし、この 240 X s + O番目のフレーム に対する参照フレームを選択する例について説明する。前述した通り、求めるべき移 動速度 (画素 Zフレーム)は、出力画像の有するフレームレート 60 (フレーム Z秒)を 基準とする。従って、探索用フレームと参照用フレームの間隔が 1Z60秒間の場合 であれば、その探索用フレームと参照用フレームに基づいて算出される移動ベクトル は、出力画像の有するフレームレート 60 (フレーム Z秒)に対応する移動速度に相当 する大きさを持つ。従って、この場合は、ブロックマッチング処理により得られる動きべ タトルの規格ィ匕は必要な 、。
[0096] 図 9に示す (例 1)の参照用フレームの選別処理例は、探索用フレームと参照用フレ 一ムの間隔を 1 Z60秒間とした処理例である。
探索用フレームである 240 X s + 0番目のフレームの 1/60秒後に撮像されたフレ ームは、 240 X s+4番目のフレームであり、この 240 X s+4番目のフレームを、探索 用フレームである 240 X s + O番目のフレームに対応する参照用フレームとして選択 する。
[0097] また、次の探索用フレームである 240 X s+4番目のフレームの 1/60秒後に撮像 されたフレームは、 240 X s + 8番目のフレームであり、この 240 X S + 8番目のフレー ムを、探索用フレームである 240 X s+4番目のフレームに対応する参照用フレームと して選択する。
[0098] この(例 1)のように、探索用フレームと参照用フレームの間隔を 1Z60秒に設定し た例であれば、その探索用フレームと参照用フレームに基づいて算出される移動べ タトルは、出力画像の有するフレームレート 60 (フレーム Z秒)に対応する移動速度 に相当する大きさを持つ。従って、この場合は、ブロックマッチング処理により得られ る動きベクトルの規格ィ匕は必要な 、。
[0099] これに対し、図 9に示す (例 2)、(例 3)のような参照用フレームの選択も可能である 。(例 2)では、探索用フレームに対応する参照用フレームを探索用フレームの次のフ レーム、すなわち、 1Z240秒後のフレームに設定し、(例 3)では、探索用フレームに 対応する参照用フレームを探索用フレームの 2つ後のフレーム、すなわち、 2/240 秒後のフレームに設定した例である。このように、探索用フレームにより近いフレーム を参照用フレームとして設定することも可能である。
[0100] より探索用フレームに近い参照用フレームを選別することで、フレーム間の被写体 の移動量は小さくなり、ブロックマッチング処理時において探索範囲を小さくすること ができる。そのため、ブロックマッチング処理の高速化、高精度化を見込むことができ る。
[0101] 240 X s + O番目のフレームを探索用フレームとしたとき、図 9に示す(例 2)では、 2 40 X s+ 1番目のフレームを参照用フレームとして選択し、(例 3)では、 240 X S + 2 番目のフレームを参照用フレームとして 、る。
[0102] (例 2)、(例 3)の場合、移動速度検出部 204のブロックマッチング処理部 221にお けるブロックマッチング処理によって得られた動きベクトルは、出力画像信号のフレー ムレート相当の移動速度と異なるため、求めた動きベクトルに基づいて、出力画像信 号のフレームレート相当の移動速度に変換する規格ィ匕処理を行なうことが必要となる
。以下では動きベクトルを規格ィ匕する方法にっ 、て説明する。
[0103] (動きベクトルの規格化について)
図 9中の(例 2)の場合では、探索用フレームである 240 X s + O番目のフレームと、 参照用の 240 X s + 1番目のフレーム間は、 1/240秒の差で撮像されたフレームで ある。一方、出力画像の有するフレームレートは 60 (フレーム Z秒)である。移動速度 検出部 204の動きベクトル規格ィ匕部 222は、 1Z240秒の差で撮像されたフレーム 間において算出した移動ベクトルに基づいて、出力画像の有するフレームレート [60 (フレーム z秒) ]相当の移動速度に変換する規格化処理を行なう。この規格化処理 は、移動ベクトルに基づいて、 1Z60秒間の移動量を求めることに相当する。
[0104] 図 9に示す (例 2)の場合、
ブロックマッチング処理によって得られた動きベクトルは、 1Z240秒の差で撮像さ れたフレームに基づいて算出した移動ベクトルであり、
算出すべき移動量は、 1Z60秒間の移動量であるので、
ブロックマッチング処理によって得られた動きベクトルの大きさに、
(1/60) / (1/240) =4
の値を乗じることで、出力画像信号のフレームレート [60 (フレーム Z秒) ]相当に規 格化された移動速度が算出できる。
[0105] また、図 9に示す (例 3)の場合、
ブロックマッチング処理によって得られた動きベクトルは、 2Z240秒の差で撮像さ れたフレームに基づいて算出した移動ベクトルであり、
算出すべき移動量は、 1Z60秒間の移動量であるので、
ブロックマッチング処理によって得られた動きベクトルの大きさに、
(1/60) / (2/240) = 2
の値を乗じることで、出力画像信号のフレームレート [60 (フレーム Z秒) ]相当に規 格化された移動速度が算出できる。
[0106] このような動きベクトルの規格ィ匕は、移動速度検出部 204内の動きベクトル規格ィ匕 部 222において行われる力 本実施例では、制御部 202において探索用および参 照用フレームを選別する際、規格ィ匕に必要な動きベクトルの大きさに乗じる係数を実 数値精度で算出し、その値を制御信号として動きベクトル規格ィ匕部 222へと出力する 構成をとつている。
[0107] ここまで、探索用フレームの選別、参照用フレームの選別、および、得られた動きべ タトルを規格化して移動速度を算出する方法を説明した。先に、説明した通り、本処 理例では、出力画像 1フレームを生成するために、 1つの移動速度の探索用フレーム を設定している。結果として、出力画像のフレーム数と同数の探索用フレームが選択 され、これらの各探索用フレームについて、フレーム内に設定される各分割領域の移 動速度が、出力画像のフレームレート相当の値として算出され、移動速度演算部 10 1から画像生成処理部 102に出力される。
[0108] [4.画像生成処理部の処理についての説明]
次に、画像生成処理部 102の実行する処理の詳細について説明する。画像生成 処理部 102では、移動速度演算部 101から入力した画像中の各領域における移動 速度に応じて、入力画像の分割領域毎に適応的な画像変換処理を行い、各分割領 域ごとにジャーキネスおよびブラーの発生が最も抑制される画像、すなわち、最適な シャツタ速度で撮像した画像を擬似的に作成し、各分割領域単位で生成した最適シ ャッタ速度に対応する擬似画像を合成して 1つのフレーム画像を生成して出力する。
[0109] 図 10は、画像生成処理部 102の詳細な構成例を示すブロック図である。画像生成 処理部 102は、図 10に示すように、入力画像信号の複数のフレームを記憶する画像 蓄積部 251、フィルタリング処理に用いるフレームを選別し画像蓄積部 251からの読 み出し制御を行う制御部 252、移動速度を基に各領域に対して最適な撮像シャツタ 速度を算出する最適シャツタ速度算出部 253、入力画像に対し領域毎に適応的なフ ィルタリング処理を行うフィルタリング処理部 254を有する構成である。
[0110] 画像生成処理部 102は、処理対象画像の分割領域単位で最適シャツタ速度の撮 像画像を擬似的に生成する。すなわち、分割領域ごとにジャーキネスおよびブラー の発生が最も抑制される画像を生成する。この画像生成処理の一例として、時間方 向のフィルタリング処理を用いた処理例について、以下説明する。
[0111] 出力画像信号のある 1フレームを生成する処理の流れを、図 10を参照して説明す る。画像生成処理部 102に入力した入力画像信号は、まず画像蓄積部 251に入力、 格納される。画像蓄積部 251は、複数のフレームを記憶できる記憶部である。画像蓄 積部 251に蓄積された入力画像信号から、後段のフィルタリング処理に用いるフレー ムが順次読み出されることになる力 この読み出し制御は制御部 252において行わ れる。
[0112] 出力画像のある 1フレームを生成するために用いる読み出しフレームの選別につ!/ヽ ての詳細は後述する。制御部 252の制御によって読み出された入力画像中の各フレ ームは、フィルタリング処理部 254へ入力される。 [0113] 一方、最適シャツタ速度算出部 253には、移動速度演算部 251から出力された、入 力画像の各分割領域対応の移動速度情報が入力される。この移動速度情報は、移 動速度演算部 101内の制御部 202 (図 7参照)によって入力画像信号力も選別され た、探索用フレーム内の各領域について算出されたものであり、先に図 9を参照して 説明したように、各探索用フレームは生成する出力画像の各フレームに一対一で対 応している。
[0114] 最適シャツタ速度算出部 253は、入力した各分割領域対応の移動速度情報に基づ いて出力画像の該当フレーム内の各領域について、最適な撮像シャツタ速度を算出 する。移動速度と最適な撮像シャツタ速度の関係についての詳細は後述する力 出 力画像が指定のフレームレートで表示された際、ジャーキネス劣化とボケ劣化の双方 が最も低減する設定条件に基づいて最適な撮像シャツタ速度が算出される。この設 定条件は、予め最適シャツタ速度算出部 253が有している。
[0115] 最適シャツタ速度算出部 253は、各分割領域対応の移動速度情報を入力し、ジャ ーキネス劣化とボケ劣化の双方が最も低減する最適な撮像シャツタ速度を算出する 。ここで算出する最適な撮像シャツタ速度は、出力画像の各フレームに設定される分 割領域単位の最適撮像シャツタ速度である。最適シャツタ速度算出部 253は、算出し た出力画像フレーム内の各分割領域対応の最適な撮像シャツタ速度を、フィルタリン グ処理部 254へと出力する。
[0116] フィルタリング処理部 254には、さらに、制御部 252の制御に基づいて画像蓄積部 251から読み出された出力画像の当該フレーム生成するために用いる入力画像フレ ームが入力される。フィルタリング処理部 254は、この入力画像に対する画像処理を 実行する。すなわち、最適シャツタ速度算出部 253から入力される出力画像フレーム 内の各分割領域対応の最適な撮像シャツタ速度に基づ 、て、入力画像フレームの 分割領域各々について、最適シャツタ速度の撮像画像を擬似的に生成するフィルタ リング処理を行う。フィルタリング処理部 254において生成された画像は、出力画像 信号の 1フレームとして出力される。
[0117] 画像生成処理部 102では、ここまでに説明した処理を、出力画像のフレーム数だけ 繰り返すことにより、指定のフレームレートを有する出力画像信号を出力する。 [0118] [5.フィルタリング処理部の実行するフィルタリング処理の詳細]
フィルタリング処理部 254は、最適シャツタ速度算出部 253から入力される出力画 像フレーム内の各分割領域対応の最適な撮像シャツタ速度に基づ 、て、入力画像フ レームの分割領域各々について、最適シャツタ速度の撮像画像を擬似的に生成する フィルタリング処理を行う。このフィルタリング処理を、最も簡単に実現する方法の 1つ の手法は、入力画像フレームの分割領域を時間方向に平均化する処理である。
[0119] 最適な撮像シャツタ速度に応じて、領域毎に平均化に用いるフレーム数を変えて平 均化を行うことによって、撮像時におけるシャツタ速度が各領域において異なる出力 画像を擬似的に生成することができる。
[0120] また、時間方向の平均化処理を行う際、既存のフレーム間を補間する中間フレーム を作成することで、より滑らかな動きボケ生成を行う方法を用いることも有効である。こ の補間処理は、出力画像信号のフレームレートに対し、入力画像信号のフレームレ ートが十分に大きくな 、場合には特に有効である。この補間処理を実行する画像生 成処理部 102の構成例を図 11に示す。
[0121] 図 11は、画像生成処理部 102内に中間フレーム生成部を加えた構成例を示すも のである。図 11において、入力画像信号は画像蓄積部 251とともに中間フレーム生 成部 250に入力される。中間フレーム生成部 250は、既存のフレームを基に中間フ レームを生成し、この中間フレームを用いることで、後段のフィルタリング処理部 254 にお 、て行われるフィルタリング処理にぉ 、て滑らかな画像を生成することができる。
[0122] 中間フレーム生成部 250における中間フレームの生成処理手法には、様々な既存 の手法が適用可能である。例えば、既存の前後フレームを、重みをつけてブレンドす る方法のほ力、図 11に示すように、中間フレーム生成部 250に、領域毎の移動速度 情報を入力し、この移動速度情報に基づく重みづけや画像ブレンドを実行することで 、より精度の高い中間フレーム生成が可能となる。
[0123] また、フィルタリング処理部 254における最適シャツタ速度の撮像画像を擬似的に 生成するフィルタリング処理としては、時間方向の平均化処理のほか、時間方向に帯 域制限フィルタ処理を行い、信号の制限 (もしくは通過)帯域を変更する構成としても よい。さらに、時間方向のフィルタリングのみならず、空間方向の帯域制限フィルタリ ングや、動きベクトルを利用して周囲の画素情報を取得することによって動きボケを 生成する方法(例えば、" Image— Based Motion Blur for Stop Motion A nimation,〃 G. J. Brostow et al. SIGGRAPH2001.などに開示された方 法)等を適用するなど、さまざまな方法の適用が可能である。
[0124] [6.フィルタリング処理に用いるフレームの選別方法について]
前述したように、フィルタリング処理部 254は、最適シャツタ速度算出部 253から入 力される出力画像フレーム内の各分割領域対応の最適な撮像シャツタ速度に基づ いて、入力画像フレームの分割領域各々について、最適シャツタ速度の撮像画像を 擬似的に生成するフィルタリング処理を行う。すなわち、入力画像フレームの分割領 域各々について、シヤーキネスおよびブラーの発生が最も抑制される最適シャツタ速 度の撮像画像を擬似的に生成する。
[0125] 出力画像の 1フレームを生成するために用いる読み出しフレームの選別処理につ いて、図 12を参照して説明する。図 12は、フィルタリング処理に用いる入力画像フレ ームと、出力される画像フレームとの対応について説明する図である。
[0126] 先に、説明したように、本発明の画像処理装置では、入力画像及び出力画像のフ レームレートの組み合わせは様々な設定が可能である力 ここでは、その一例として 入力画像信号のフレームレートを 240 (フレーム Z秒)、
出力画像信号のフレームレートを 60 (フレーム Z秒)、
これらの組み合わせの例を説明する。また、ここで説明する処理例においては、中 間フレームの生成は行わな 、ものとする。
[0127] 図 12において、(a)入力画像信号には、先に説明した図 9と同様、各フレームに、 フレーム番号を示している。このフレーム番号は時刻 0 (秒)に入力画像信号の 0番目 のフレームが撮像されたとして表現したものである。入力画像信号のフレームレート は 240 (フレーム Z秒)であるため、時刻 s (秒)では 240 X s番目のフレームと表記す る。
[0128] 図 10に示す画像生成処理部 102の制御部 252の制御のもと、出力画像のある 1フ レームを生成するためのフィルタリング処理に用いる読み出しフレームの選別処理が 実行される。図 12には、このフレーム選別処理例の 2つの例(例 1)、(例 2)を示して いる。
[0129] 図 12の (a)入力画像信号には、先に、図 9を参照して説明した探索用フレームを 2 40 X s + 0番目、 240 X S+4番目、 240 X S + 8番目のフレームとして斜線で示して いる。
本処理例では、出力画像信号のフレームレートは、
60 (フレーム Z秒)
であるため、入力画像信号 [240 (フレーム Z秒) ]中から、 1Z60秒間毎に撮像さ れたフレームを、探索対象として抽出する。すなわち、移動速度演算部 101において 探索対象のフレームとして選別されるフレームは、 240 X S + 0番目、 240 X S+4番 目、 240 X s + 8番目のフレームであり、斜線で示したフレームである。
[0130] 本実施例において、出力画像を生成するためのフィルタリング処理に用いる入力画 像フレームは、各出力画像フレームに対応する探索用フレームを含む前後フレーム を用いる。なお、 1つの出力フレームを生成するためのフィルタリング処理に適用する 入力画像フレームについては、このように、各出力画像フレームに対応する探索用フ レームを含む前後フレームを用いる処理とすることが必須となるものではなぐ各出力 画像フレームに対応する探索用フレームを含む前フレームのみ、ある 、は後フレーム のみなど、様々な処理形態を適用することが可能である。
[0131] しかし、先に図 9を参照して説明したように、出力画像の 1フレームに対して、 1つの 移動速度の探索用フレームが対応付けられており、出力画像フレームをフィルタリン グ処理により生成する場合に、その出力画像フレームに対応する探索用フレームを 含むようその前後フレームを用いることで、移動速度情報を反映したフィルタリング処 理が可能となる。
[0132] 図 12には、(例 1)、(例 2)として、画像生成処理部 102の制御部 252の制御のもと 、出力画像のある 1フレームを生成するためのフィルタリング処理に用いる読み出しフ レームの 2つの選別処理例を示している。
[0133] なお、 60 X s + O番目の出力画像のフレームと対応する入力画像中の移動速度検 出適用探索フレームは 240 X s + O番目の入力画像フレームである。 60 X s+ 1番目の出力画像のフレームと対応する入力画像中の移動速度検出適用 探索フレームは 240 X s+4番目の入力画像フレームである。
60 X s + 2番目の出力画像のフレームと対応する入力画像中の移動速度検出適用 探索フレームは 240 X s + 8番目の入力画像フレームである。
[0134] まず、(例 1)の処理例について説明する。
(例 1)においては、 60 Xs + 0番目の出力画像フレーム 310を生成する場合のフィ ルタリング処理に適用する入力画像フレームは、図に示すように、対応する移動速度 の探索用フレームである 240 Xs + 0番目と、その前 1フレームと後 2フレームとした設 定である。すなわち、 240Xs— 1番目、 240XS + 0番目、 240XS + 1番目、 240Xs + 2番目の計 4フレームを、フィルタリング処理に用いるフレームとして選択する例を 示している。
[0135] 図には、出力画像フレームに対応する移動速度検出に適用した探索用フレームを
[0]として、 n個前のフレームを [ n]、 n個後のフレーム [+n]として示してある。(例 1)の場合、 1つの出力画像フレームを生成する場合のフィルタリング処理に適用する 入力画像フレームは、出力画像フレームに対応する移動速度の探索用フレームの 1 つ前(一1)のフレームから 2つ後( + 2)のフレーム、すなわち 1, 0, +1, +2の 4フ レームとした設定である。これらの 4フレームを適用して、各分割領域毎に最適シャツ タ速度の撮像画像を擬似的に生成するフィルタリング処理を行う。例えば、入力画像 フレームの分割領域を時間方向に平均化する処理を行なう。
[0136] (例 1)では、 60Xs+l番目、および、 60 Xs + 2番目の出力画像のフレーム 311, 312を生成する場合も同様に、対応する探索用フレームとその前 1フレームと後 2フレ ーム(一 1〜+ 2)の計 4フレームを、フィルタリング処理に用いるフレームとして選択し ている。
[0137] (例 2)においては、 60 Xs + 0番目の出力画像フレーム 320を生成する場合のフィ ルタリング処理に適用する入力画像フレームは、図に示すように、対応する移動速度 の探索用フレームである 240 Xs + 0番目と、その前 2フレームと後 2フレームとした設 定である。すなわち、 240Xs— 2番目、 240Xs— 1番目、 240XS + 0番目、 240Xs +1番目、 240 Xs + 2番目の計 5フレームを、フィルタリング処理に用いるフレームと して選択する例を示して 、る。
[0138] (例 2)では、 60 X s+ l番目、および、 60 X s + 2番目の出力画像のフレーム 321, 322を生成する場合も同様に、対応する探索用フレームとその前 2フレームと後 2フレ ーム( 2〜 + 2)の計 5フレームを、フィルタリング処理に用いるフレームとして選択し ている。例 2の場合、これらの 5フレームを適用して、各分割領域毎に最適シャツタ速 度の撮像画像を擬似的に生成するフィルタリング処理を行う。例えば、入力画像フレ ームの分割領域を時間方向に平均化する処理を行なう。
[0139] (例 2)の場合、例えば、 240 X s + 2番目のフレーム力 60 X s + 0番目と 60 X s + l 番目の出力画像のフレーム 320, 321の生成のためのフィルタリング処理に、 240 X s + 6番目のフレームが、 60 X s + 1番目と 60 X s + 2番目の出力画像のフレーム 321 , 322の生成のためのフィルタリング処理に、それぞれ重複して用いられる力 このよ うな重複したフレーム選択は特に問題とはならない。
[0140] [7.移動速度と最適な撮像シャツタ速度の対応関係について]
前述した通り、図 11に示す画像生成処理部 102における最適シャツタ速度算出部 253は、移動速度演算部 101から出力された、画像中の各分割領域における移動 速度を入力とし、この分割領域各々の移動速度情報に基づいて、最適な撮像シャツ タ速度、すなわち、ジャーキネスおよびブラーが最も低減される撮像シャツタ速度を 算出する。
[0141] その際、最適シャツタ速度算出部 253は、移動速度と最適な撮像シャツタ速度とを 対応付けたテーブル、あるいは予め設定された算出式に基づ ヽて撮像シャツタ速度 を求める。最適シャツタ速度算出部 253は、移動速度と最適な撮像シャツタ速度とを 対応付けたテーブルまたは算出式情報を保持している。
[0142] 図 13は、移動速度と最適な撮像シャツタ速度の対応関係の一例を示したものであ る。グラフの横軸は移動速度、縦軸はシャツタ速度を示しており、グラフ中の曲線が移 動速度と最適な撮像シャツタ速度との対応関係を示す。図 13の曲線は、主観評価実 験により求めた結果を示すグラフである。
[0143] 被写体の輝度、移動速度、撮像シャツタ速度にっ 、て、複数のパターンにつ 、て 実験を行うことで、ジャーキネス劣化とボケ劣化の双方が最も低減する条件を探索し 、さらに、複数の被験者についての結果を平均して、ある関数で近似することにより得 られた曲線が図 13に示す曲線である。
[0144] 以降、本実施例では、実験によって得られた結果である図 13の曲線を例として説 明を進めていくが、この曲線は、移動速度と最適撮像シャツタ速度との対応を示す一 例であり、本発明の装置は、この曲線の適用に限定されるものではない。最適シャツ タ速度算出部 253は、入力する各分割領域の移動速度情報に基づいてジャーキネ ス劣化とボケ劣化の双方が最も低減する最適な撮像シャツタ速度を算出可能な構成 であればよぐそのための対応テーブルまたは算出式を保持することが必要となる。
[0145] また、本実施例に係る処理を実装した装置にお!、ては、速度と最適な撮像シャツタ 速度の対応関係を、出力画像信号を表示するデバイスの応答特性や、使用者の嗜 好に応じて、変更できるように構成することも可能である。これについての詳細は後述 する。
[0146] [8.最適な撮像シャツタ速度算出方法について]
以下、最適シャツタ速度算出部 253が、図 13に示すグラフデータを、移動速度 最適撮像シャツタ速度の対応テーブルとして保持して ヽる場合、ある分割領域の移 動速度情報を入力して、最適撮像シャツタ速度を算出する処理例について説明する 。すなわち、画像中のある分割領域における移動速度情報を最適シャツタ速度算出 部 253に入力したとき、その領域に対し最適な撮像シャツタ速度を算出する最も基本 的な処理例について、図 14を用いて説明する。
[0147] まず、ある出力フレームの 1つの分割領域における移動速度の値を、グラフの横軸 から探索する。例えば、図 14の横軸上の移動速度点 331が、ある出力フレームの 1 つの分割領域における移動速度の値であるとする。次に、横軸の値に対応するダラ フ曲線上の点を探索する。図に示す矢印 Aによって、横軸の値 (移動速度点 331)に 対応するグラフ曲線上の点を探索する。図に示すグラフ点 332が探索される。
[0148] 次に、探索したグラフ曲線上の点 332に対応する縦軸上の値を探索する。図に示 す矢印 Bによって、グラフ曲線上の点 332に対応する縦軸上の値 (最適撮像シャツタ 速度点 333)を探索する。この処理によって、特定の分割領域の移動速度に対し最 適な撮像シャツタ速度の値 (最適撮像シャツタ速度点 333)を獲得することができる。 この要領で、各分割領域に対応する移動速度に対応する最適シャツタ速度を求める
。決定した最適な撮像シャツタ速度は、図 11に示す画像生成処理部 102の最適シャ ッタ速度算出部 253から出力され、フィルタリング処理部 254へ入力される。
[0149] なお、上述の撮像シャツタ速度の算出方法は、最も基本的な手段の一例であり、算 出処理の高速ィ匕ゃ記憶データ量の削減の必要性に応じて簡略ィ匕してもよい。図 15 は、図 13に示した移動速度と最適な撮像シャツタ速度の関係の一例を粗ィ匕して示し たものである。移動速度と最適な撮像シャツタ速度の関係の情報を、図 13のように粗 化したデータとして表現することにより、最適シャツタ速度算出部 253が予め有してい るべき情報は、限られた組み合わせのテーブル状のデータとなり、データ量は軽減さ れる。
[0150] すなわち、この例では、最適シャツタ速度算出部 253が予め有しているべき情報は 、図 16に示す移動速度と最適シャツタ速度の対応データとなる。図 16に示すように、 移動速度が 0〜Vaでは、最適シャツタ速度 =t4、
移動速度力 SVa〜Vbでは、最適シャツタ速度 = tk、
移動速度が Vb〜Vcでは、最適シャツタ速度 = tl、 移動速度が Vg〜Vhでは、最適シャツタ速度 =tr、
移動速度が Vh〜では、最適シャツタ速度 = ts、
このように、移動速度の区間データに対応する最適シャツタ速度を設定したテープ ルを、図 15に示すグラフに基づいて生成し、この対応テーブルを保持する構成とし てもよい。この構成によって、最適シャツタ速度算出部 253が保持すべきデータ量は 軽減される。また、この場合、計算コストの点にも利便性がある。すなわち、最適シャツ タ速度算出部 253は、ある領域の移動速度情報を入力してその領域に最適な撮像 シャツタ速度を算出する場合、移動速度が図 16に示すテーブルのどの区間に対応 するかを判別し、その区間に対応付けられた最適シャツタ速度データを取得するの みで、各移動速度に対応する最適な撮像シャツタ速度を取得することができる。
[0151] [9.最適な撮像シャツタ速度算出および、出力フレーム生成処理の具体例] 次に、最適な撮像シャツタ速度算出および、出力フレーム生成処理の具体例につ いて、図 17〜図 19を参照して説明する。
[0152] 以下の説明においても、
入力画像のフレームレートは 240 (フレーム Z秒)、
出力画像のフレームレートは 60 (フレーム Z秒)、
このフレームレート設定として説明する。また、本例では、入力画像の各フレームは 、単一のシャツタ速度 1Z240 (秒)で撮像されて!、るものとして説明する。
[0153] 図 17は、本発明の画像処理装置の移動速度演算部 101 (図 4参照)において、各 分割領域について移動速度が算出された、ある 1枚の探索用フレームを図示してい る。本例では、画像フレームを 4 X 4画素の領域に分割し、これらの 4 X 4画素の分割 領域を単位として、各分割領域の移動速度を検出するものとする。図 7を参照して説 明した移動速度演算部 101の領域分割部 203において 4 X 4画素単位に分割され、 各々の領域について対応する移動速度の値が算出される。
[0154] 各分割領域の移動速度は、先に図 7〜図 9を参照して説明した移動速度検出処理
、すなわち、探索用フレームと参照用フレームを設定し、これらのフレーム間において ブロックマッチングを実行することで算出される。
[0155] 図 17に示す分割領域の内、 6つに識別記号 A〜Fを示している。ここで、各々の領 域 A〜Eの分割領域において算出された移動速度を、それぞれ Va、 Vb、 Vc、 Vd、 Veゝ Vfとする。
[0156] 図 18は、画像生成処理部 102において行われる移動速度に基づく最適な撮像シ ャッタ速度の算出に適用するグラフ (テーブル)を示している。このテーブルは、図 11 を参照して説明した画像生成処理部 102の最適シャツタ速度算出部 253に保持され たテーブルであり、移動速度と最適な撮像シャツタ速度との対応データである。最適 シャツタ速度算出部 253は、このテーブルを適用して、各分割領域に対応して求めら れた移動速度に基づいて、各分割領域に対応する最適シャツタ速度を算出する。図 18に示すデータは、先に、図 15を参照して説明したグラフと同様、所定の移動速度 区間毎に、最適シャツタ速度を対応付けたデータである。
[0157] 最適シャツタ速度算出部 253は、各分割領域に対応して求められた移動速度情報 を入力し、図 18に示すデータを適用して各分割領域に対応する最適シャツタ速度を 算出する。以下、図 17に示すフレーム画像データ力 出力画像フレームに対応する 探索用フレームとして画像生成処理部 102に入力した場合の処理例について説明 する。
[0158] 図 11に示す画像生成処理部 102の最適シャツタ速度算出部 253には、図 17に示 すフレーム画像の各分割領域の移動速度情報が入力される。分割領域 A〜F (4 X 4 画素)に対しては、移動速度情報 Va〜Vfが入力される。
ここで、図 17に示す分割領域 A〜Fの各々が有する移動速度 Va〜Vfの値と、図 1 8に示すグラフの横軸に示す閾値 thl〜th6との大小関係は、以下の設定であるとす る。
0≤Va<thl
thl≤Vb<th2
th2≤Vc<th3
th3≤Vd<th4
th4≤Ve<th5
th6≤Vf
[0159] 先に説明した通り、ある領域の移動速度から当該領域に最適な撮像シャツタ速度を 算出する処理は、まず、移動速度が上記閾値によって区切られた移動速度区間のど の区間にあるかを判別し、次に、その移動速度区間に対応付けられた最適シャツタ 速度を取得する処理として実行される。
[0160] 例えば、図 17に示す分割領域 Cは、移動速度 Vcを有する。
th2≤Vc<th3
であり、移動速度 Vcは、移動速度区間 th2〜th3に含まれる。移動速度区間 th2〜 th3に対応する最適シャツタ速度は、図 18に示すグラフから [1Z120秒]である。こ のように、移動速度 Vcを有する分割領域 Cにおける最適シャツタ速度は [1Z120秒 ]であると判定される。これは、分割領域 Cの画像をシャツタ速度 1Z120秒とした擬 似画像とした場合に、ジャーキネスおよびブラーが最も低減された画像とすることが 可能であることを意味して 、る。
[0161] このシャツタ速度情報が図 11に示す画像生成処理部 102のフィルタリング処理部 2 54に入力され、フィルタリング処理部 254では、分割領域 Cの画像をシャツタ速度 1 Z 120秒とした擬似画像とするための画像生成処理 (フィルタリング処理)を実行する 。画像フィルタリング処理は、先に、図 12を参照して説明したように、既存の前後フレ ームを、重みをつけてブレンドする処理として実行される。
[0162] 図 19を参照してフィルタリング処理部 254において実行するフィルタリング処理、す なわち、ジャーキネスおよびブラーが最も低減されたシャツタ速度撮像画像としての 擬似画像の生成処理にっ 、て説明する。
[0163] フィルタリング処理部 254には、各領域に対応する最適シャツタ速度情報と、先に 図 12を参照して説明したように、図 11に示す画像生成処理部 102の制御部 252に おいて選択されたフィルタリング処理に適用する入力画像フレームが入力される。本 例では、フィルタリング処理に用いるフレームを、図 12を参照して説明した (例 2)のよ うに、移動速度の探索用フレームの前後 2フレームであるとする。
[0164] 図 19には、フィルタリング処理部 254に入力された出力画像フレームに対応する移 動速度の探索用フレームとその前後 2フレームの 5つの入力フレームを示している。 これらの 5つのフレームは、出力画像フレームに対応する移動速度の探索用フレーム である 240 X s + O番目のフレーム、および、フィルタリングに用いるフレームとしてそ の前後 2フレームである 240 X s 2番目、 240 X s— 1番目、 240 X S+ 1番目、 240 X s + 2番目のフレームである。これらの入力フレーム中に示す画素 351 ( 2)〜35 1 (2)は、先に図 17を参照して説明した処理対象の 4 X 4画素の分割領域に含まれ る画素であるとする。入力フレーム中に示す画素 351 (— 2)〜351 (2)の各画素値を in (— 2)、 in (— 1)、 in (0)、 in(l)、 in (2)とする。
[0165] また、図 19には、これらの各フレームを用いたフィルタリング処理の結果、出力され る出力フレーム 370を示している。このフレームは、図 12の(例 2)において示す [60 X s + O番目の出力フレーム] 320に相当する。出力フレーム 370中、注目画素 351 ( — 2)〜351 (2)と位置的に対応する出力画素 371の画素値を out (0)とする。
[0166] 本例では、出力フレーム中の出力画素 371の画素値 out (0)は、入力画像の各フ レームの注目画素 351 (— 2)〜351 (2)の画素値 in (— 2)、 in (— 1)、 in (0)、 in (l) 、 in (2)を加重平均することで算出するものとし、以下、例をあげて説明する。 [0167] (A)注目画素が分割領域 A内の画素である場合
まず、注目画素が、図 17の領域 A内に存在する例を考える。
注目画素は移動速度 Va (0≤Va<thl)を有して!/、る。
この場合、注目画素に対する最適なシャツタ速度は、既に最適シャツタ速度算出部 253において図 18のテーブルから算出され、フィルタリング処理部 254に入力されて おり、その値は 1Z240 (秒)である。
[0168] 入力画像の各フレームは単一のシャツタ速度 1Z240 (秒)で撮像されている。その ため、 240 X s + O番目の入力フレームの注目画素の画素値は、図 18のテーブルか ら算出された最適なシャツタ速度(1Z240秒)で撮像されて!、る画像であり、出カフ レーム中の注目画素の画素値 out (0)は、 in (0)の値をそのまま用いればよい。数式 で表現すると以下のようになる。
out (O) =in(0)
[0169] (B)注目画素が分割領域 B内の画素である場合
次に、注目画素が図 17の領域 B内に存在する場合を考える。
注目画素は移動速度 Vb (thl≤Vb<th2)を有して!/、る。
この場合、注目画素に対する最適なシャツタ速度は、既に最適シャツタ速度算出部 253において図 18のテーブルから算出され、フィルタリング処理部 254に入力されて おり、その値は 1Z160 (秒)である。
[0170] 入力画像の各フレームは単一のシャツタ速度 1Z240 (秒)で撮像されており、注目 画素に対する最適シャツタ速度 1Z160 (秒)は、
(1/160) / (1/240) = 1. 5倍である。
この場合、出力フレーム中の注目画素の画素値 out (0)は、以下のように入力画像 の各フレームの注目画素の画素値を加重平均の計算により求める。
out (0) = (in(- l) * 0. 25+in(0) +in (l) * 0. 25) /1. 5
上記式は、出力画像フレームに対応する移動速度の探索用フレームである 240 X s + 0番目のフレームの画素の画素値の重みを [1]とし、
1つ前のフレームと 1つ後のフレームの対応画素の画素値の重みをそれぞれ [0. 2 5]として、加重平均によって、出力画像フレームの画素値 out (0)を算出したもので ある。上記式により、注目画素の元々の露光時間よりも 1. 5倍の期間、露光されて撮 像された画素を擬似的に生成することができる。
[0171] (C)注目画素が分割領域 C内の画素である場合
次に、注目画素が図 17の領域 C内に存在する場合を考える。
注目画素は移動速度 Vc (th2≤Vc<th3)を有して!/、る。
この場合、注目画素に対する最適なシャツタ速度は、既に最適シャツタ速度算出部 253において図 18のテーブルから算出され、フィルタリング処理部 254に入力されて おり、その値は 1Z120(秒)である。
[0172] 入力画像の各フレームは単一のシャツタ速度 1Z240 (秒)で撮像されており、注目 画素に対する最適シャツタ速度 1Z120(秒)は、
(1/120) / (1/240) = 2. 0倍である。
この場合、出力フレーム中の注目画素の画素値 out (0)は、以下のように入力画像 の各フレームの注目画素の画素値を加重平均の計算により求める。
out (0) = (in(- l)水 0. 5+in (0) +in (l)水 0. 5) /2. 0
上記式により、注目画素の元々の露光時間よりも 2. 0倍の期間、露光されて撮像さ れた画素を擬似的に生成する。
[0173] (D)注目画素が分割領域 D内の画素である場合
次に、注目画素が図 17の領域 D内に存在する場合を考える。
注目画素は移動速度 Vd (th3≤Vd< th4)を有して!/、る。
この場合、注目画素に対する最適なシャツタ速度は、既に最適シャツタ速度算出部 253において図 18のテーブルから算出され、フィルタリング処理部 254に入力されて おり、その値は 1Z96 (秒)である。
[0174] 入力画像の各フレームは単一のシャツタ速度 1Z240 (秒)で撮像されており、注目 画素に対する最適シャツタ速度 1Z96 (秒)は、
(1/96) / (1/240) = 2. 5倍である。
この場合、出力フレーム中の注目画素の画素値 out (0)は、以下のように入力画像 の各フレームの注目画素の画素値を加重平均の計算により求める。
out (0) = (in(- l) * 0. 75+in(0) +in (l) * 0. 75) /2. 5 上記式により、注目画素の元々の露光時間よりも 2. 5倍の期間、露光されて撮像さ れた画素を擬似的に生成する。
[0175] (E)注目画素が分割領域 E内の画素である場合
次に、注目画素が図 17の領域 E内に存在する場合を考える。
注目画素は移動速度 Ve (th4≤Ve<th5)を有して!/、る。
この場合、注目画素に対する最適なシャツタ速度は、既に最適シャツタ速度算出部 253において図 18のテーブルから算出され、フィルタリング処理部 254に入力されて おり、その値は 1Z80 (秒)である。
[0176] 入力画像の各フレームは単一のシャツタ速度 1Z240 (秒)で撮像されており、注目 画素に対する最適シャツタ速度 1Z80 (秒)は、
(1/80) / (1/240) = 3. 0倍である。
この場合、出力フレーム中の注目画素の画素値 out (0)は、以下のように入力画像 の各フレームの注目画素の画素値を加重平均の計算により求める。
out (O) = (in(- l) +in (0) +in(l) ) /3. 0
上記式により、注目画素の元々の露光時間よりも 3. 0倍の期間、露光されて撮像さ れた画素を擬似的に生成する。
[0177] (F)注目画素が分割領域 F内の画素である場合
次に、注目画素が図 17の領域 F内に存在する場合を考える。
注目画素は移動速度 Vf (th6≤ Vf)を有して 、る。
この場合、注目画素に対する最適なシャツタ速度は、既に最適シャツタ速度算出部 253において図 18のテーブルから算出され、フィルタリング処理部 254に入力されて おり、その値は 1Z60 (秒)である。
入力画像の各フレームは単一のシャツタ速度 1Z240 (秒)で撮像されており、注目 画素に対する最適シャツタ速度 1Z60 (秒)は、
(1/60) / (1/240) =4. 0倍である。
この場合、出力フレーム中の注目画素の画素値 out (0)は、以下のように入力画像 の各フレームの注目画素の画素値を加重平均の計算により求める。
out (0) = (in (— 2) * 0. 5+in (— l) +in (0) +in (l) +in(2) * 0. 5) /4. 0 上記式により、注目画素の元々の露光時間よりも 4. 0倍の期間、露光されて撮像さ れた画素を擬似的に生成する。
[0178] このように、フィルタリング処理部 254では、各画素が最適なシャツタ速度で撮像さ れた出力フレームを生成するため、入力画像フレームの画素値を移動速度に応じた 係数を設定して加重平均によるフィルタリング処理を実行して画素値を設定した画像 を生成する。
[0179] このように、フィルタリング処理部 254では、生成する出力画像のシャツタ速度に応 じて、フィルタリング処理に適用する入力画像フレームの数を適宜、変更して処理を 行なう。
[0180] [10.移動速度と最適なシャツタ速度曲線の調整機能を有した装置について] さらに、本発明に係る画像処理構成を実装した装置においては、出力画像を表示 する表示デバイスの応答特性や、装置の使用者の嗜好に応じて、移動速度と最適な 撮像シャツタ速度の関係を調整する機能を持たせる構成としてもよい。
[0181] 図 20は、移動速度と最適な撮像シャツタ速度の関係を表す曲線の例をいくつ力示 している。例えば、図 20中に示す第 1段階〜第 5段階の曲線のなかから、使用者が 移動速度と最適な撮像シャツタ速度の関係を調整可能とする。移動速度と最適な撮 像シャツタ速度の関係は、出力画像を表示する表示デバイスの応答特性や、装置の 使用者の嗜好に応じて異なる場合がある。このような場合、移動速度と最適な撮像シ ャッタ速度の関係を調整可能とすることで、状況に応じた最適な処理が可能となる。
[0182] 例えば、図 20に示す移動速度と最適撮像シャツタ速度の関係を示す複数の曲線 中、第 1段階と第 5段階を比較した場合、移動速度が等しい場合における最適な撮 像シャツタ速度は、第 5段階の方が高速である。そのため、フィルタリング処理により 生成される出力画像は、第 1段階を採用した場合の方が、第 5段階を採用した場合と 比べ、よりジャーキネス劣化が低減された画像となり、反対に第 5段階を採用した場 合の方が第 1段階を採用した場合と比べ、よりブラー劣化が低減された画像となる。
[0183] 装置の使用者は、その嗜好に応じて、最も双方の劣化が気にならないよう、図 20中 に示す第 1段階〜第 5段階の曲線を選択して、移動速度に対応する最適シャツタ速 度を調整することができる。この移動速度と最適な撮像シャツタ速度の関係を調整す る機能は、ちょうど一般的な表示装置において、輝度のガンマ曲線を調整する機能と よく似たものである。
[0184] 使用者が、移動速度と最適な撮像シャツタ速度の関係を調整するために必要な情 報を入力する手段としては様々な構成が適用可能である。例えば、装置に設定され たユーザインタフェース (GUI)によって入力する方法が考えられる。この場合、装置 は表示デバイス、マウスなどの入力デバイスを持ち、ユーザはこれらの入力デバイス を使用して、調整を行うこととなる。図 21は、使用者が移動速度と最適な撮像シャツタ 速度の関係を調整する際に用いる、ユーザインタフェースの構成例である。
[0185] 図 21は、図 20において示した第 1段階〜第 5段階の曲線のなかから、移動速度と 最適な撮像シャツタ速度の関係を、使用者が選択できるよう構成されており、スクロー ルバ一 381を移動させて入力できるように設計してある。ユーザは何ら力入力デバイ スを用いてスクロールバー 381を動かし、 OKボタン 382を操作することで、移動速度 と最適な撮像シャツタ速度の関係を調整することが可能となっている。
[0186] [11.第 2の実施例の概要]
図 22は、本発明の第 2の実施例に係る画像処理装置の構成例を示すブロック図で ある。第 2の実施例のブロック図は、図 4を参照して説明した第 1の実施例に空間特 徴量検出部 503を付けカ卩えたものである。画像処理装置 500は、処理対象画像とし て、一定のフレームレートを有する画像信号を入力する。この入力画像信号は、移動 速度演算部 501、画像生成処理部 502、および空間特徴量検出部 503に入力され る。
[0187] 以下、第 1の実施例との差分を中心として、画像処理装置 500の処理について説 明する。一定のフレームレートを有する入力画像信号は、移動速度演算部 501に入 力される。移動速度演算部 501に入力した入力画像信号は、先に、図 4以下を参照 して説明した第 1の実施例と同様の処理を実行して、フレーム内の各分割領域の移 動速度を算出する。この移動速度は、出力画像のフレームレート相当の値として算出 され、移動速度演算部 501から画像生成処理部 502に出力される。
[0188] 空間特徴量検出部 503にも同様に、入力画像信号が入力される。空間特徴量検 出部 503の処理について、図 23を参照して説明する。図 23は、空間特徴量検出部 503の詳細な構成例を示す図である。図 23に示すように、空間特徴量検出部 503は 、入力画像信号の複数のフレームを記憶する画像蓄積部 521、空間コントラストの大 きさを評価する対象のフレームを選別し読み出し制御を行う制御部 522、評価対象と なるフレームを領域に分割する領域分割部 523、空間フィルタリング処理などにより 各領域における空間コントラストの大きさを評価する空間コントラスト評価部 524を有 する。
[0189] 本実施例では、処理の基準とする空間コントラスト閾値を、予め空間コントラスト評 価部 524が有している。空間特徴量検出部 503は、処理対象とする分割領域各々に ついて、空間コントラストの大きさが閾値以上である力否かを判定し、処理対象とする 分割領域の空間コントラストの大きさが閾値以上である場合、空間特徴量情報として 信号 [0]、閾値よりも小さい場合、空間特徴量情報として信号 [1]を出力する。
[0190] 空間特徴量検出部 503に入力した入力画像信号は、まず画像蓄積部 521に入力 され記憶される。この記憶画像フレームデータは、制御部 522の制御のもと、空間コ ントラストの評価対象として選択されたフレームが画像蓄積部 521から読み出される。
[0191] 空間コントラストの評価対象となるフレームは、出力画像のフレームレート情報を基 に実行される。このフレーム選択処理は、先に、図 7〜図 9を参照して説明した移動 速度演算部の制御部における動きベクトル検出対象となる探索用フレームの選別と 同様の処理である。画像蓄積部 521から読み出されたフレームは、領域分割部 523 に入力される。
[0192] 領域分割部 523において行われる領域分割処理は、先に、第 1の実施例において 図 7を参照して説明した移動速度演算部の領域分割部において実行される動きべク トル検出対象となる探索用フレームの領域分割処理と同様に行われる。先に、図 5を 参照して説明したように、 1フレームの画像が予め定められた画素領域に分割される
[0193] 各分割領域の画像データは、空間コントラスト評価部 524へ入力され、空間フィル タリング処理が行われる。すなわち、処理対象とする分割領域各々について、空間コ ントラストの大きさが閾値以上である力否かを判定し、処理対象とする分割領域の空 間コントラストの大きさが閾値以上である場合、空間特徴量情報として信号 [0]、閾値 よりも小さい場合、空間特徴量情報として信号 [1]を出力する。
[0194] このように、本実施例では、図 22に示す画像生成処理部 502は、移動速度演算部 501から出力される画像中の各領域における移動速度情報、および、空間特徴量検 出部 503から出力される画像中の各領域における空間特徴量情報を入力する。
[0195] 図 24を参照して、本実施例における画像生成処理部 502の構成および処理につ いて説明する。図 24に示す画像生成処理部 502において、空間特徴量検出部 503 から入力した空間特徴量情報は、移動速度情報と同様に、最適シャツタ速度算出部 553へ入力される。最適シャツタ速度算出部 553は、これらの各情報を適用して、各 分割領域に対応する最適シャツタ速度を算出する。
[0196] 最適シャツタ速度算出部 553における処理は、例えば以下のように行われる。最適 シャツタ速度算出部 553に入力した空間特徴量情報が信号 [0]の場合、すなわち、 処理対象とする分割領域の空間コントラストの大きさが閾値以上である場合、当該領 域はその移動速度情報のみに基づいて、先に図 13〜図 17を参照して説明した移動 速度と最適シャツタ速度との対応テーブルに基づ 、て、最適な撮像シャツタ速度を算 出する。
[0197] 一方、空間特徴量情報が信号 [1]の場合、すなわち、処理対象とする分割領域の 空間コントラストの大きさが閾値未満である場合、当該領域はその移動速度に関わら ず、最適シャツタ速度を最大のフレームレートに相当するシャツタ速度、例えば図 13 中の t4をシャツタ速度として設定する。
[0198] この最適シャツタ速度の決定処理は、空間コントラストが小さい領域では、ジャーキ ネス劣化は目立たないという事実を考慮したものである。すなわち、処理対象の分割 領域の空間特徴量情報が信号 [1]の場合、処理対象とする分割領域の空間コントラ ストの大きさが閾値未満であり、空間コントラストが小さぐジャーキネス劣化は目立た ない。従って、このような領域は、最大のフレームレートに相当するシャツタ速度、例 えば図 13中の t4をシャツタ速度として設定して鮮明な画像を出力する。
[0199] 一方、分割領域の空間特徴量情報が信号 [0]の場合、処理対象とする分割領域の 空間コントラストの大きさが閾値以上であり、空間コントラストが大きぐジャーキネス劣 化が目立つ領域であると判定されるので、先に説明した実施例と同様、先に図 13〜 図 17を参照して説明した移動速度と最適シャツタ速度との対応テーブルに基づいて 、最適な撮像シャツタ速度を算出する。
[0200] なお、空間特徴量情報は、本実施例で説明した例にぉ 、ては、所定の閾値の前後 で [0] , [1]の 2種類の情報とした例を説明した力 この他の設定としてもよい。例え ば、空間特徴量検出部 503が予め 1つの閾値を有しているのではなぐコントラストの 値に応じた異なる出力値を出力するためのより詳細なテーブルを有する構成とし、空 間特徴量情報として 2種類より多種類の信号を画像生成処理部 502へ出力する構成 にすることも可能である。
[0201] 図 24に示す画像生成処理部 502の最適シャツタ速度算出部 553において、画像 中の各領域における最適な撮像シャツタ速度を算出した後の処理、すなわち、フィル タリング処理部 554における処理は、先の実施例において説明した処理と同様であり 、各分割領域において、複数の入力画像フレームに基づいて、最適シャツタ速度に 対応する擬似画像を生成する処理として実行される。
[0202] 本処理例では、このように、空間特徴量検出部 503にお 、て分割領域単位で空間 コントラストの大きさを検出し、画像生成処理部 502において、空間コントラストが予め 定めた閾値未満の分割領域については、移動速度に対応して算出される最適撮像 シャツタ速度より高いシャツタ速度を最適シャツタ速度として設定する。あるいは、空間 コントラストが予め定めた閾値未満の分割領域については、移動速度に対応して算 出される最適撮像シャツタ速度を算出することなぐ入力画像の持つフレームレートに 対応する最高のシャツタ速度を最適シャツタ速度として設定する処理を実行する。
[0203] 以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、 本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ること は自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的 に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の 欄を参酌すべきである。
[0204] また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、 あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理 を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに 組み込まれたコンピュータ内のメモリにインストールして実行させる力、あるいは、各 種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させること が可能である。
[0205] 例えば、プログラムは記録媒体としてのハードディスクや ROM (Read Only Memory )に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、 CD -ROM(Compact Disc Read Only Memory), MO(Magneto optical)ディスク, DVD( Digital Versatile Disc),磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、 一時的あるいは永続的に格納 (記録)しておくことができる。このようなリムーバブル記 録媒体は、 V、わゆるパッケージソフトウェアとして提供することができる。
[0206] なお、プログラムは、上述したようなリムーバブル記録媒体力 コンピュータにインス トールする他、ダウンロードサイトから、コンピュータに無線転送したり、 LAN(Local A rea Network),インターネットといったネットワークを介して、コンピュータに有線で転 送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵する ハードディスク等の記録媒体にインストールすることができる。
[0207] なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみ ならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個 別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的 集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
産業上の利用可能性
[0208] 以上、説明したように、本発明の構成によれば、一定のフレームレートで出力する 動画像を生成する際、動画像を構成するフレーム画像を区分した分割領域単位で 出力画像のフレームレートに応じた被写体の移動速度を算出し、分割領域単位の移 動速度に対応する最適な撮像シャツタ速度として、出力画像の画像劣化が低減され る最適シャツタ速度を分割領域単位で取得し、取得した最適シャツタ速度に対応する 画像を分割領域単位で生成して、生成した分割領域画像を結合したフレーム画像を 出力させる構成としたので、出力画像における画像劣化、具体的には、ジャーキネス およびブラーの双方を低減した高品質の画像を出力することが可能とした画像処理 装置が実現される。

Claims

請求の範囲
[1] 動画像に対する画像処理を実行する画像処理装置であり、
動画像を構成するフレーム画像を区分した分割領域単位で出力画像のフレームレ ートに応じた被写体の移動速度を算出する移動速度演算部と、
前記分割領域単位の移動速度情報を入力し、移動速度に対応する最適な撮像シ ャッタ速度として、出力画像の画像劣化が低減される最適シャツタ速度を前記分割領 域単位で取得し、取得した最適シャツタ速度に対応する画像を前記分割領域単位で 生成し、生成した分割領域画像を結合したフレーム画像を出力する画像生成処理部 と、
を有することを特徴とする画像処理装置。
[2] 前記移動速度演算部は、
入力画像のフレーム力も選択された探索用フレームと参照用フレームを適用したブ ロックマッチング処理により分割領域単位で移動速度を算出する処理を実行する構 成であることを特徴とする請求項 1に記載の画像処理装置。
[3] 前記移動速度演算部は、
入力画像のフレーム力も選択された探索用フレームと参照用フレームを適用したブ ロックマッチング処理により分割領域単位で動きベクトルを求めるブロックマッチング 部と、
前記ブロックマッチング部において算出した動きベクトル情報に基づいて、出力画 像のフレームレートに応じた被写体の移動速度を算出する動きベクトル規格ィ匕部とを 有する構成であることを特徴とする請求項 1に記載の画像処理装置。
[4] 前記移動速度演算部は、
前記探索用フレームを、出力画像のフレームレートに応じたフレーム間隔で入力画 像のフレームから選択する処理を実行する構成であることを特徴とする請求項 2また は 3に記載の画像処理装置。
[5] 前記画像生成処理部は、
移動速度と、出力画像の画像劣化が低減される撮像シャツタ速度とを対応付けたテ 一ブルを保持し、該テーブルを参照して移動速度に対応する最適シャツタ速度を前 記分割領域単位で取得する構成であることを特徴とする請求項 1に記載の画像処理 装置。
[6] 前記テーブルは、
移動速度区間情報と、最適シャツタ速度情報とを対応付けたテーブルであることを 特徴とする請求項 5に記載の画像処理装置。
[7] 前記画像生成処理部は、
移動速度と、出力画像の画像劣化が低減される最適シャツタ速度との対応関係の 異なる複数の異なるテーブルを有し、ユーザ選択情報に基づいて、適用するテープ ルを決定する構成であることを特徴とする請求項 5に記載の画像処理装置。
[8] 前記画像生成処理部は、
前記分割領域単位で、移動速度に対応する最適シャツタ速度を算出する最適シャ ッタ速度算出部と、
前記最適シャツタ速度算出部の算出した最適シャツタ速度に対応する画像を前記 分割領域単位で生成するフィルタリング処理部とを有する構成であることを特徴とす る請求項 1に記載の画像処理装置。
[9] 前記フィルタリング処理部は、
入力画像のフレーム力 選択されたフレームに基づいて、前記最適シャツタ速度算 出部の算出した撮像シャツタ速度に対応する画像を前記分割領域単位で生成する 処理を実行する構成であることを特徴とする請求項 8に記載の画像処理装置。
[10] 前記フィルタリング処理部は、
前記最適シャツタ速度算出部の算出した最適シャツタ速度に応じた重み係数を設 定して、入力画像の複数フレームの画素値の加重平均を実行して、出力画像フレー ムの画素値を決定する処理を実行する構成であることを特徴とする請求項 8に記載 の画像処理装置。
[11] 前記画像生成処理部は、
入力画像のフレームに含まれな ヽ中間フレームを生成する中間フレーム生成部を 有し、前記最適シャツタ速度算出部の算出した最適シャツタ速度に対応する画像を、 前記中間フレームを適用して分割領域単位で生成する処理を実行する構成であるこ とを特徴とする請求項 1に記載の画像処理装置。
[12] 前記画像処理装置は、さらに、
前記分割領域単位で空間コントラストの大きさを検出する空間特徴量検出部を有し 前記画像生成処理部は、
空間コントラストが予め定めた閾値未満の分割領域については、前記移動速度に 対応して算出される最適シャツタ速度より高いシャツタ速度を最適シャツタ速度として 設定する処理を実行する構成であることを特徴とする請求項 1に記載の画像処理装 置。
[13] 前記画像処理装置は、さらに、
前記分割領域単位で空間コントラストの大きさを検出する空間特徴量検出部を有し 前記画像生成処理部は、
空間コントラストが予め定めた閾値未満の分割領域については、前記移動速度に 対応して算出される最適シャツタ速度を算出することなぐ入力画像の持つフレーム レートに対応するシャツタ速度を最適シャツタ速度として設定する処理を実行する構 成であることを特徴とする請求項 1に記載の画像処理装置。
[14] 前記出力画像の画像劣化は、ジャーキネスおよびブラーによる画像劣化であり、 前記画像生成処理部は、
ジャーキネスおよびブラーによる画像劣化が低減される最適シャツタ速度を前記分 割領域単位で取得し、取得した最適シャツタ速度に対応する画像を前記分割領域単 位で生成する処理を実行する構成であることを特徴とする請求項 1から請求項 13い ずれかに記載の画像処理装置。
[15] 画像処理装置において、動画像に対する画像処理を実行する画像処理方法であ り、
移動速度演算部において、動画像を構成するフレーム画像を区分した分割領域単 位で出力画像のフレームレートに応じた被写体の移動速度を算出する移動速度演 算ステップと、 画像生成処理部において、前記分割領域単位の移動速度情報を入力し、移動速 度に対応する最適な撮像シャツタ速度として、出力画像の画像劣化が低減される最 適シャツタ速度を前記分割領域単位で取得し、取得した最適シャツタ速度に対応す る画像を前記分割領域単位で生成し、生成した分割領域画像を結合したフレーム画 像を出力する画像生成処理ステップと、
を有することを特徴とする画像処理方法。
[16] 前記移動速度演算ステップは、
入力画像のフレーム力も選択された探索用フレームと参照用フレームを適用したブ ロックマッチング処理により分割領域単位で移動速度を算出する処理を実行すること を特徴とする請求項 15に記載の画像処理方法。
[17] 前記移動速度演算ステップは、
入力画像のフレーム力も選択された探索用フレームと参照用フレームを適用したブ ロックマッチング処理により分割領域単位で動きベクトルを求めるブロックマッチング 処理ステップ、
前記ブロックマッチング処理ステップにお 、て算出した動きベクトル情報に基づ ヽ て、出力画像のフレームレートに応じた被写体の移動速度を算出する動きベクトル規 格化ステップとを有することを特徴とする請求項 15に記載の画像処理方法。
[18] 前記移動速度演算ステップは、
前記探索用フレームを、出力画像のフレームレートに応じたフレーム間隔で入力画 像のフレーム力 選択する処理を実行することを特徴とする請求項 16または 17に記 載の画像処理方法。
[19] 前記画像生成処理ステップは、
移動速度と、出力画像の画像劣化が低減される撮像シャツタ速度とを対応付けたテ 一ブルを参照して移動速度に対応する最適シャツタ速度を前記分割領域単位で取 得するステップを含むことを特徴とする請求項 15に記載の画像処理方法。
[20] 前記テーブルは、
移動速度区間情報と、最適シャツタ速度情報とを対応付けたテーブルであることを 特徴とする請求項 19に記載の画像処理方法。
[21] 前記画像生成処理ステップは、
移動速度と、出力画像の画像劣化が低減される最適シャツタ速度との対応関係の 異なる複数の異なるテーブル力ものユーザ選択情報に基づいて適用テーブルを決 定する処理を実行するステップを含むことを特徴とする請求項 19に記載の画像処理 方法。
[22] 前記画像生成処理ステップは、
前記分割領域単位で、移動速度に対応する最適シャツタ速度を算出する最適シャ ッタ速度算出ステップと、
前記最適シャツタ速度算出ステップにおいて算出した最適シャツタ速度に対応する 画像を前記分割領域単位で生成するフィルタリング処理ステップとを有することを特 徴とする請求項 15に記載の画像処理方法。
[23] 前記フィルタリング処理ステップは、
入力画像のフレーム力 選択されたフレームに基づいて、前記最適シャツタ速度算 出ステップにおいて算出した撮像シャツタ速度に対応する画像を前記分割領域単位 で生成する処理を実行することを特徴とする請求項 22に記載の画像処理方法。
[24] 前記フィルタリング処理ステップは、
前記最適シャツタ速度算出ステップにおいて算出した最適シャツタ速度に応じた重 み係数を設定して、入力画像の複数フレームの画素値の加重平均を実行して、出力 画像フレームの画素値を決定する処理を実行することを特徴とする請求項 22に記載 の画像処理方法。
[25] 前記画像生成処理ステップは、
入力画像のフレームに含まれない中間フレームを生成し、前記最適シャツタ速度算 出ステップにおいて算出した最適シャツタ速度に対応する画像を、前記中間フレーム を適用して分割領域単位で生成する処理を実行することを特徴とする請求項 15に記 載の画像処理方法。
[26] 前記画像処理方法は、さらに、
空間特徴量検出部において、前記分割領域単位で空間コントラストの大きさを検出 する空間特徴量検出ステップを有し、 前記画像生成処理ステップは、
空間コントラストが予め定めた閾値未満の分割領域については、前記移動速度に 対応して算出される最適シャツタ速度より高いシャツタ速度を最適シャツタ速度として 設定する処理を実行することを特徴とする請求項 15に記載の画像処理方法。
[27] 前記画像処理方法は、さらに、
空間特徴量検出部において、前記分割領域単位で空間コントラストの大きさを検出 する空間特徴量検出ステップを有し、
前記画像生成処理ステップは、
空間コントラストが予め定めた閾値未満の分割領域については、前記移動速度に 対応して算出される最適シャツタ速度を算出することなぐ入力画像の持つフレーム レートに対応するシャツタ速度を最適シャツタ速度として設定する処理を実行すること を特徴とする請求項 15に記載の画像処理方法。
[28] 前記出力画像の画像劣化は、ジャーキネスおよびブラーによる画像劣化であり、 前記画像生成処理ステップは、
ジャーキネスおよびブラーによる画像劣化が低減される最適シャツタ速度を前記分 割領域単位で取得し、取得した最適シャツタ速度に対応する画像を前記分割領域単 位で生成する処理を実行することを特徴とする請求項 15から請求項 27いずれかに 記載の画像処理方法。
[29] 画像処理装置において、動画像に対する画像処理を実行させるコンピュータ 'プロ グラムであり、
移動速度演算部において、動画像を構成するフレーム画像を区分した分割領域単 位で出力画像のフレームレートに応じた被写体の移動速度を算出させる移動速度演 算ステップと、
画像生成処理部において、前記分割領域単位の移動速度情報を入力し、移動速 度に対応する最適な撮像シャツタ速度として、出力画像の画像劣化が低減される最 適シャツタ速度を前記分割領域単位で取得し、取得した最適シャツタ速度に対応す る画像を前記分割領域単位で生成し、生成した分割領域画像を結合したフレーム画 像を出力させる画像生成処理ステップと、 を実行させることを特徴とするコンピュータ ·プログラム。
PCT/JP2007/056804 2006-03-31 2007-03-29 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム WO2007114220A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020077027845A KR101362651B1 (ko) 2006-03-31 2007-03-29 화상 처리 장치, 및 화상 처리 방법, 및 컴퓨터 프로그램을 기록한 컴퓨터 판독가능 기록 매체
US11/913,167 US8072498B2 (en) 2006-03-31 2007-03-29 Image processing apparatus, image processing method, and computer program
EP07740242A EP2003876A4 (en) 2006-03-31 2007-03-29 VIDEO IMAGE PROCESSING, VIDEO IMAGE PROCESSING AND COMPUTER PROGRAM
CN2007800005412A CN101326810B (zh) 2006-03-31 2007-03-29 图像处理设备和图像处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-096792 2006-03-31
JP2006096792A JP4961800B2 (ja) 2006-03-31 2006-03-31 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム

Publications (1)

Publication Number Publication Date
WO2007114220A1 true WO2007114220A1 (ja) 2007-10-11

Family

ID=38563488

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/056804 WO2007114220A1 (ja) 2006-03-31 2007-03-29 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム

Country Status (7)

Country Link
US (1) US8072498B2 (ja)
EP (1) EP2003876A4 (ja)
JP (1) JP4961800B2 (ja)
KR (1) KR101362651B1 (ja)
CN (1) CN101326810B (ja)
TW (1) TW200740215A (ja)
WO (1) WO2007114220A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010041064A (ja) * 2008-07-31 2010-02-18 Sony Corp 画像処理装置、画像処理方法、プログラム
EP2136554A3 (en) * 2008-06-20 2010-06-30 Sony Corporation Apparatus, method, and program for processing image
JP2010268526A (ja) * 2010-08-30 2010-11-25 Sony Corp 画像処理装置、画像処理方法、プログラム

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5045674B2 (ja) * 2007-02-07 2012-10-10 ソニー株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2008307184A (ja) * 2007-06-13 2008-12-25 Fujifilm Corp 画像処理装置および画像処理プログラム
TWI376942B (en) * 2007-10-19 2012-11-11 Altek Corp Camera and method and system for stabilizing vibration and calibration method thereof
JP2009253675A (ja) * 2008-04-07 2009-10-29 Canon Inc 再生装置および方法、プログラム
JP2010015483A (ja) * 2008-07-07 2010-01-21 Sony Corp 画像処理装置、画像処理方法、及びプログラム
JP5083086B2 (ja) * 2008-07-22 2012-11-28 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP4674620B2 (ja) * 2008-07-29 2011-04-20 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP4743912B2 (ja) * 2009-02-23 2011-08-10 キヤノン株式会社 画像表示システム、画像表示装置、および、画像表示装置の制御方法
JP5322704B2 (ja) * 2009-03-06 2013-10-23 キヤノン株式会社 画像処理装置、画像処理方法
US8478071B2 (en) * 2009-12-16 2013-07-02 Nvidia Corporation System and method for constructing a motion-compensated composite image
TWI471521B (zh) * 2010-07-23 2015-02-01 Pixart Imaging Inc 位移估測方法及使用該方法之位移偵測裝置
JP5558431B2 (ja) * 2011-08-15 2014-07-23 株式会社東芝 画像処理装置、方法及びプログラム
JP2013066142A (ja) * 2011-08-31 2013-04-11 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2013134743A (ja) * 2011-12-27 2013-07-08 Canon Inc スクロール制御方法、スクロール制御装置、およびプログラム
CN104364824A (zh) * 2012-06-13 2015-02-18 松下知识产权经营株式会社 物体检测装置
JP6292122B2 (ja) * 2012-09-24 2018-03-14 日本電気株式会社 オブジェクト情報抽出装置、オブジェクト情報抽出プログラム、及びオブジェクト情報抽出方法
FR3013488B1 (fr) 2013-11-18 2017-04-21 Univ De Nice (Uns) Procede d'estimation de la vitesse de deplacement d'une camera
FR3013487B1 (fr) 2013-11-18 2017-04-21 Univ De Nice (Uns) Procede d'estimation de la vitesse de deplacement d'une camera
CN103996031A (zh) * 2014-05-23 2014-08-20 奇瑞汽车股份有限公司 一种自适应阈值分割的车道线检测系统及其方法
US20160088219A1 (en) * 2014-09-22 2016-03-24 Casio Computer Co., Ltd. Image capture apparatus which controls frame rate based on motion of object, information transmission apparatus, image capture control method, information transmission method, and recording medium
GB2523253B (en) 2015-01-23 2017-04-12 Visidon Oy Image processing method
KR102551759B1 (ko) * 2017-04-17 2023-07-06 소니그룹주식회사 송신 장치, 송신 방법, 수신 장치, 수신 방법, 기록 장치 및 기록 방법
JP7023663B2 (ja) * 2017-10-12 2022-02-22 キヤノン株式会社 撮像装置およびその制御方法
CN111243317B (zh) * 2019-04-03 2020-11-27 六安志成智能科技有限公司 公交路线数据调控方法
CN110084765B (zh) * 2019-05-05 2021-08-06 Oppo广东移动通信有限公司 一种图像处理方法、图像处理装置及终端设备
CN111654628B (zh) * 2020-06-10 2022-07-12 努比亚技术有限公司 一种视频拍摄方法、设备及计算机可读存储介质
CN112235514A (zh) * 2020-10-13 2021-01-15 余波 一种基于人工智能的相机快门速度调节方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11112939A (ja) 1997-10-07 1999-04-23 Hitachi Ltd 画像信号の方式変換方法および装置
JP2005136868A (ja) * 2003-10-31 2005-05-26 Sony Corp 撮像装置および撮像方法、画像処理装置および画像処理方法、画像表示システム、記録媒体、並びにプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5892991A (en) * 1991-04-30 1999-04-06 Minolta Co., Ltd. Camera capable of displaying the level of visual effect
JPH08315112A (ja) * 1995-05-16 1996-11-29 Hitachi Ltd 画像取込装置
US6429895B1 (en) * 1996-12-27 2002-08-06 Canon Kabushiki Kaisha Image sensing apparatus and method capable of merging function for obtaining high-precision image by synthesizing images and image stabilization function
KR100242014B1 (ko) * 1997-06-20 2000-02-01 윤종용 디지털 스틸 카메라의 셔터 속도 제어 장치 및 방법
US6442203B1 (en) * 1999-11-05 2002-08-27 Demografx System and method for motion compensation and frame rate conversion
JP3886769B2 (ja) * 2001-10-26 2007-02-28 富士通株式会社 補正画像生成装置および補正画像生成プログラム
US20040131122A1 (en) * 2002-12-09 2004-07-08 Kei Kudo Encoding device and encoding method
US20050018051A1 (en) * 2003-07-25 2005-01-27 Nikon Corporation Shooting lens having vibration reducing function and camera system for same
JP4416462B2 (ja) * 2003-09-19 2010-02-17 パナソニック株式会社 自動焦点調節方法、および自動焦点調節カメラ
JP4431973B2 (ja) * 2003-12-10 2010-03-17 ソニー株式会社 動画像処理装置および方法
JP2005198268A (ja) * 2003-12-10 2005-07-21 Sony Corp 動画像変換装置および方法、並びに動画像データフォーマット
US7506267B2 (en) 2003-12-23 2009-03-17 Intel Corporation Compose rate reduction for displays
US7813430B2 (en) * 2004-05-18 2010-10-12 Sony Corporation Method and apparatus for decimation mode determination utilizing block motion
JP4810807B2 (ja) * 2004-07-30 2011-11-09 ソニー株式会社 動画像変換装置、動画像復元装置、および方法、並びにコンピュータ・プログラム
JP2007033543A (ja) * 2005-07-22 2007-02-08 Fujifilm Holdings Corp 撮影装置
CN101390381B (zh) * 2005-12-26 2012-01-25 京瓷株式会社 抖动检测设备、抖动校正设备、成像设备、以及抖动检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11112939A (ja) 1997-10-07 1999-04-23 Hitachi Ltd 画像信号の方式変換方法および装置
JP2005136868A (ja) * 2003-10-31 2005-05-26 Sony Corp 撮像装置および撮像方法、画像処理装置および画像処理方法、画像表示システム、記録媒体、並びにプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GJ. BROSTOW ET AL.: "Image-Based Motion Blur for Stop Motion Animation", SIGGRAPH, 2001
See also references of EP2003876A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2136554A3 (en) * 2008-06-20 2010-06-30 Sony Corporation Apparatus, method, and program for processing image
CN101610349B (zh) * 2008-06-20 2012-08-08 索尼株式会社 用于处理图像的装置和方法
US9270897B2 (en) 2008-06-20 2016-02-23 Sony Corporation Apparatus, method, and program for processing image
JP2010041064A (ja) * 2008-07-31 2010-02-18 Sony Corp 画像処理装置、画像処理方法、プログラム
US8488009B2 (en) 2008-07-31 2013-07-16 Sony Corporation Image processing apparatus, image processing method, and program
JP2010268526A (ja) * 2010-08-30 2010-11-25 Sony Corp 画像処理装置、画像処理方法、プログラム

Also Published As

Publication number Publication date
EP2003876A4 (en) 2011-06-22
US20090207259A1 (en) 2009-08-20
EP2003876A9 (en) 2009-05-06
EP2003876A2 (en) 2008-12-17
JP4961800B2 (ja) 2012-06-27
CN101326810B (zh) 2010-09-29
TW200740215A (en) 2007-10-16
KR20080106391A (ko) 2008-12-05
TWI379588B (ja) 2012-12-11
US8072498B2 (en) 2011-12-06
CN101326810A (zh) 2008-12-17
JP2007274299A (ja) 2007-10-18
KR101362651B1 (ko) 2014-02-12

Similar Documents

Publication Publication Date Title
JP4961800B2 (ja) 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
US10277812B2 (en) Image processing to obtain high-quality loop moving image
JP4666012B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5687553B2 (ja) 画像合成装置、画像合成方法及び画像合成プログラム
US20040090523A1 (en) Image processing apparatus and method and image pickup apparatus
JP2017537494A (ja) ジャダー可視性制御のためのデュアルエンドメタデータ
US8300040B2 (en) Coefficient generating device and method, image generating device and method, and program therefor
JP5531865B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2015129260A1 (ja) 画像処理装置及び画像処理方法
US8385430B2 (en) Video signal processing apparatus and video signal processing method
JP5566196B2 (ja) 画像処理装置及びその制御方法
JP6467865B2 (ja) 画像処理装置、カメラシステム、画像処理方法及びプログラム
KR20120137874A (ko) 영상 대조비 개선 방법 및 장치
JP2012080411A (ja) 撮像装置及びその制御方法
JP4763415B2 (ja) 画像処理装置
US8913788B2 (en) Apparatus, method and program for determining the smoothness of motion in video data
JP7161865B2 (ja) 映像解析装置及びそのプログラム
JP4795314B2 (ja) フリッカ補正装置及びフリッカ補正方法
JP2018074363A (ja) 画像処理装置および画像処理方法
JP2012080355A (ja) 画像処理装置、撮像装置、及びそれらの制御方法
JP2006279556A (ja) 画像処理装置、画像表示装置、画像撮像装置、画像処理方法、プログラムおよび記録媒体
JP2020021168A (ja) 不快度推定装置及び不快度推定プログラム
JP2015097357A (ja) 画像処理装置
JP2017097612A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780000541.2

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 7694/DELNP/2007

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 11913167

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020077027845

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2007740242

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07740242

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE